Stochastische Integration und stochastische Differentialgleichungen

Werbung
Stochastische Integration und
stochastische Differentialgleichungen
Gunther Leobacher
Wintersemester 2009, Sommersemester 2010
Inhaltsverzeichnis
1 Stieltjes Integration
1.1 Riemann-Stieltjes’sches Integral . . . .
1.2 Lebesgue-Stieltjes’sches Integral . . . .
1.3 Funktionen von beschränkter Variation
1.4 Càdlàg und làdcàg Funktionen . . . .
1.5 Anwendungen des Stieltjes-Integrals .
1.6 Übungsaufgaben . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
6
11
16
20
23
25
2 Worum geht’s?
27
2.1 Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3 Nachtrag zur Martingaltheorie in diskreter Zeit
3.1 Bedingte Erwartung . . . . . . . . . . . . .
3.2 (Sub-, Super-)Martingale, Stoppzeiten . . .
3.3 Martingaltransformation, Konvergenzsätze .
3.4 Zwei Doob Ungleichungen . . . . . . . . . .
3.5 Übungsaufgaben . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
29
29
31
37
46
48
4 Stochastische Prozesse in stetiger Zeit
4.1 Definitionen . . . . . . . . . . . . . . .
4.2 Zwei wichtige stochastische Prozesse .
4.3 Martingale und Stoppzeiten in stetiger
4.4 Übungsaufgaben . . . . . . . . . . . .
. . .
. . .
Zeit
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
49
49
55
56
63
5 Stochastische Integration
5.1 Naive“ stochastische Integration . . .
”
5.2 Vorhersehbare Prozesse . . . . . . . .
5.3 Das Itô-Integral bezüglich M ∈ M2c . .
5.4 Das Itô-Integral bezüglich M ∈ Mc,loc
5.5 Eigenschaften des Itô-Integrals . . . .
5.6 Die Itô-Formel . . . . . . . . . . . . .
5.7 Stratonovich-Integral . . . . . . . . . .
5.8 Stochastischer Differentialkalkül . . . .
5.9 Übungsaufgaben . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
65
65
68
70
76
78
83
86
87
89
6 Stochastische Differentialgleichungen
6.1 Beispiele von stochastischen Differentialgleichungen
6.2 Existenz und Eindeutigkeit einer Lösung . . . . . .
6.3 Lösungen einfacher SDEs . . . . . . . . . . . . . .
6.4 Gebremstes Wachstum einer Population . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
93
93
94
101
102
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
Inhaltsverzeichnis
6.5
6.6
7 Der
7.1
7.2
7.3
7.4
7.5
7.6
4
Elektrischer Schwingkreis . . . . . . . . . . . . . . . . . . . . . . 105
Marktmodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
Satz von Girsanov
Exponentielle Martingale . . . . .
Kazamaki- und Novikov-Kriterium
Einschub: M -integrierbare Prozesse
Marktmodelle II . . . . . . . . . .
Marktmodelle III . . . . . . . . . .
Cameron-Martin-Formel . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
109
109
113
115
117
123
125
1 Stieltjes Integration
Das stochastische Integral, welches wir in Kapitel 4 behandeln wollen, soll
natürlich eine Verallgemeinerung eines oder mehrerer uns bereits bekannter
Integralbegriffe sein, namentlich des Riemann- und/oder Lebesgue-Integrals.
Diese Verallgemeinerung ist aber nicht sehr unmittelbar, sodass wir zunächst
einen Zwischenschritt betrachten, welcher eine recht unmittelbare Verallgemeinerung zumindest des Riemann-Integrals darstellt, nämlich den Begriff des
Stieltjes-Integrals.
Die Grundidee ist, das Integral über eine Funktion f : [a, b] −→ R zu
gewichten. Eine Möglichkeit, das zu machen, ist mit einer Gewichtsfunktion
g zu gewichten, vergleiche Abbildung 1.1.
f
wenig gewichtet
t
a
b
stark gewichtet
g
t
a
b
stark gewichtet
Abbildung 1.1: Eine Möglichkeit, ein Integral zu gewichten.
5
1 Stieltjes Integration
Das gewichtete Integral sieht dann so aus:
Z
b
f (x)g(x)dx
I=
a
Wir wollen aber eine etwas flexiblere Gewichtung, welche uns unter anderem
erlaubt, alles Gewicht auf nur einen Punkt zu legen (ohne auf die Theorie der
verallgemeinerten Funktionen zurückzugreifen).
1.1 Riemann-Stieltjes’sches Integral
Wir wiederholen die Definition des Riemann-Integrals:
Sei f : [a, b] −→ R eine beschränkte Funktion. Unter einer Zerlegung des
Intervalls [a, b] verstehen wir eine Menge {t0 , t1 , . . . , tn } reeller Zahlen mit a =
t0 < t1 < . . . < tn = b. Ist Z = {t0 , t1 , . . . , tn } eine solche Zerlegung, so
definieren wir
Mk := sup{f (x) : x ∈ [tk−1 , tk ]} , k = 1, . . . , n
mk := inf{f (x) : x ∈ [tk−1 , tk ]} ,
k = 1, . . . , n .
Wir definieren die zu f und Z gehörende Obersumme und Untersumme durch
O(f, Z) :=
n
X
Mk (tk − tk−1 )
und
k=1
U (f, Z) :=
n
X
mk (tk − tk−1 ) .
k=1
Als nächsten Schritt definieren wir oberes und unteres Integral durch
O(f ) := inf{O(f, Z) : Z eine Zerlegung }
und
U (f ) := sup{U (f, Z) : Z eine Zerlegung } .
Das obere Integral existiert immer, da die Menge, über welche das Infimum
genommen wird nicht-leer ist, und für jede Zerlegung Z gilt
O(f, Z) =
n
X
Mk (tk − tk−1 )
k=1
≥ inf{f (x) : x ∈ [a, b]}(b − a) > −∞
Analog existiert das untere Integral immer, und man sieht leicht (Übung), dass
U (f ) ≤ O(f ).
Definition 1.1. Eine beschränkte Funktion f : [a, b] −→ R heißt RiemannRb
integrierbar, falls O(f ) = U (f ). Die Zahl a f (x)dt := O(f ) = U (f ) heißt
bestimmtes Riemann-Integral von f über [a, b].
6
1.1 Riemann-Stieltjes’sches Integral
Definition 1.2. Sei Z = {t0 , . . . , tn } eine Zerlegung von [a, b]. Die Zahl
∆(Z) := max{tk − tk−1 : 1 ≤ k ≤ n}
heißt Feinheit der Zerlegung.
Definition 1.3. Sei f [a, b] −→ R beschränkt, Z = {t0 , t, . . . , tm } eine Zerlegung
von [a, b] und τk ∈ [tk−1 , tk ] für alle k = 1, . . . , n. Schreibe τ := {τ1 , . . . , τn }.
Dann heißt
n
X
S(f, Z, τ ) :=
f (τk )(tk − tk−1 )
k=1
eine Riemann-Summe.
Satz 1.4. Sei f : [a, b] −→ R beschränkt. f ist genau dann Riemann-integrierbar,
wenn es eine Zahl I ∈ R gibt derart, dass für jede Folge (Z m )m≥1 von Zerm
m
legungen von [a, b], Z m = {tm
0 , . . . , tnm } mit limm ∆(Z ) = 0 und jede Folge
m
m
m
m
m
m
(τ )m≥1 , von Stützstellen τ = {τ1 , . . . , τnm }, τk ∈ [tm
k−1 , tk ] für alle k =
1, . . . , nm , m ≥ 1 gilt
lim S(f, Z m , τ m ) = I.
m→∞
In diesem Fall gilt I =
Rb
a
f (x)dx.
Beweis: Grundvorlesung Analysis oder Übung.
In vollständiger Analogie zum Riemann-Integral definieren wir nun das sogenannte Riemann-Stieltjes’sche Integral:
Sei α : [a, b] −→ R monoton wachsend. Sei f : [a, b] −→ R beschränkt. Wir
definieren für eine Zerlegung Z = {t0 , . . . , tn }
n
X
Oα (f, Z) :=
Mk (α(tk ) − α(tk−1 ))
k=1
n
X
Uα (f, Z) :=
mk (α(tk ) − α(tk−1 ))
k=1
und sodann
Oα (f ) := inf{Oα (f, Z) : Z eine Zerlegung}
Uα (f ) := sup{Uα (f, Z) : Z eine Zerlegung}.
f heisst Riemann-Stieltjes-integrierbar bezüglich α, kurz α-integrierbar, falls
Oα (f ) = Uα (f ). Den gemeinsamen Wert nennen wir Riemann-Stieltjes’sches
Integral von f bezüglich α und schreiben
Z b
f (t)dα(t).
a
Für das Riemann-Stieltjes’sche Integral gelten praktisch dieselben Regeln wie
für das Riemann-Integral und es ist offenbar ersteres eine Verallgemeinerung
des letzteren: Man erhält das Riemann-Integral für α = id. Insbesondere ist das
Integral linear (Übung). Außerdem gilt die folgende Proposition:
7
1 Stieltjes Integration
Proposition 1.5. Sei f : [a, b] −→ R beschränkt. Dann gelten:
(i) ist f α1 -integrierbar und α2 -integrierbar, so ist f α1 + α2 - integrierbar
und
Z b
Z b
Z b
f (t)d(α1 + α2 )(t) =
f (t)dα1 (t) +
f (t)dα2 (t) ;
a
a
a
(ii) ist f α-integrierbar, λ > 0 so ist f (λα)-integrierbar und
Z
b
Z
b
f (t)d(λα)(t) = λ
a
f (t)dα(t) ;
a
(iii) ist α konstant, so ist
Z
b
f (t)dα(t) = 0 .
a
Beweis: Übung.
Um das Riemann-Stieltjes’sche Integral für einfache f und α berechnen zu
können, dienen uns die folgenden Sätze:
Satz 1.6. Sei α monoton steigend und stetig differenzierbar. Sei f : [a, b] −→ R
beschränkt. Dann gilt:
f ist genau dann α-integrierbar, wenn f α0 Riemann-integrierbar ist.
In diesem Fall gilt
Z
b
Z
f (x)dα(x) =
a
b
f (x)α0 (x)dx .
a
Beweis: Wir zeigen O(f α0 ) = Oα (f ) und U (f α0 ) = Uα (f ). O.B.d.A. f ≥ 0.
Sei K := sup{f (t) : t ∈ [a, b]}, L := sup{α0 (t) : t ∈ [a, b]}.
1.) O(f α0 ) ≤ Oα (f ): sei ε > 0. α0 ist laut Voraussetzung stetig auf [a, b] und
damit gleichmäßig stetig. Es gibt also ein δ > 0 mit
|s − t| < δ ⇒ |α0 (s) − α0 (t)| <
ε
.
K(b − a)
Wähle nun eine Zerlegung Z = {t0 , t1 , . . . , tn } von [a, b] mit ∆(Z) < δ. Weiters
sei Z so gewählt, dass Oα (f, Z) < Oα (f ) + ε.
Es existiert für jedes k ∈ {1, . . . , n} ein τk ∈ (tk−1 , tk ) derart, dass
α(tk ) − α(tk−1 ) = α0 (τk )(tk − tk−1 ) .
8
1.1 Riemann-Stieltjes’sches Integral
Dann haben wir
0
O(f α , Z) =
≤
<
=
n X
f (t)α0 (t) (tk − tk−1 )
sup
k=1 t∈[tk−1 ,tk ]
n X
sup
k=1
n
X
t∈[tk−1 ,tk ]
k=1
t∈[tk−1 ,tk ]
n
X
k=1
f (t)
α0 (t) (tk − tk−1 )
sup
t∈[tk−1 ,tk ]
!
sup
α0 (τk ) +
f (t)
f (t) α0 (τk ) (tk − tk−1 )
sup
k=1
k=1
(tk − tk−1 )
t∈[tk−1 ,tk ]
n
≤
!
X
ε
+
K(b − a)
n
X
ε
K(b − a)
!
sup
f (t) (tk − tk−1 )
t∈[tk−1 ,tk ]
!
f (t) (α(tk ) − α(tk−1 )) + ε
sup
t∈[tk−1 ,tk ]
= Oα (f, Z) + ε < Oα (f ) + 2ε .
Daraus folgt O(f α0 ) < Oα (f ) + 2ε. Da ε > 0 beliebig war, gilt also O(f α0 ) ≤
Oα (f ).
2.) Oα (f ) ≤ O(f α0 ): sei ε > 0, ε < KL(b − a). α0 ist stetig auf [a, b] und damit
gleichmäßig stetig. Es gibt daher ein δ > 0 mit
|s − t| < δ =⇒ |α0 (s) − α0 (t)| <
ε
.
K(b − a)
Wähle eine Zerlegung Z mit ∆(Z) < δ und O(f α0 , Z) < O(f α0 ) + ε. Es gibt
für jedes 1 ≤ k ≤ n ein τk ∈ (tk−1 , tk ) mit
α(tk ) − α(tk−1 ) = α0 (τk )(tk − tk−1 )
ε
Weiters gibt es für jedes 1 ≤ k ≤ n ein σk mit supt∈[tk−1 ,tk ] f (t) < f (σk )+ L(b−a)
.
Oα (f, Z) =
n
X
k=1
=
<
n
X
!
sup
!
sup
k=1 t∈[tk−1 ,tk ]
n X
k=1
f (t) (α(tk ) − α(tk−1 ))
t∈[tk−1 ,tk ]
f (t) α0 (τk ) (tk − tk−1 )
ε
f (σk ) +
L(b − a)
α0 (σk ) +
ε
K(b − a)
(tk − tk−1 )
9
1 Stieltjes Integration
sodass
Oα (f, Z) <
n
X
f (σk )α0 (σk )(tk − tk−1 )
k=1
n
X
ε
+
α0 (σk )(tk − tk−1 )
L(b − a)
+
+
ε
K(b − a)
k=1
n
X
f (σk )(tk − tk−1 )
k=1
n
X
ε2
(tk − tk−1 )
KL(b − a)2
k=1
<
n X
k=1
f (t)α0 (t) (tk − tk−1 ) + 3ε
sup
t∈[tk−1 ,tk ]
= O(f α0 , Z) + 3ε < O(f α0 ) + 4ε .
Somit ist Oα (f ) < O(f α0 ) + 4ε. Da die Aussage für alle 0 < ε < KL(b − a) gilt,
ist Oα (f ) ≤ O(f α0 ).
Die Gleichheit der Untersummen folgt aus der Gleichheit der Obersummen
von −f .
Wir definieren für eine monoton wachsende Funktion α und für t im Inneren
des Definitionsbereiches von α
∆α(t) := lim α(s) − lim α(s) .
s→t+
s→t−
Man beachte, dass wegen der Monotonie von α die obigen Limiten stets existieren.
Gilt ∆α(s) 6= 0 für ein s, so sagen wir α hat einen Sprung in s bzw. s ist eine
Sprungstelle von α.
Satz 1.7. Sei α monoton wachsend und stückweise konstant mit endlich vielen
Sprungstellen s1 , . . . , sm ∈ (a, b). Sei f stetig in den Punkten s1 , . . . , sm . Dann
ist f α-integrierbar und
Z b
m
X
f (t)dα(t) =
f (sk )∆α(sk ) .
a
j=1
Beweis: α kann als endliche Summe von Funktionen mit nur einem Sprung
geschrieben werden (Übung). Es genügt daher nach Proposition 1.5 die Aussage
für eine Funktion α mit nur einem Sprung zu zeigen. Sei also
α : [a, b] −→ R
eine solche Funktion mit Sprungstelle s ∈ (a, b),

 α(a) t ∈ [a, s)
α(s) t = s
α(t) =

α(b) t ∈ (s, b] .
10
1.2 Lebesgue-Stieltjes’sches Integral
Betrachte eine Zerlegung Z = {t0 , . . . , tn } von [a, b]. O.B.d.A. sei s ∈ Z, etwa
s = tj .
n
X
sup f (t) (α(tk ) − α(tk−1 )) =
k=1 [tk−1 ,tk ]
=
sup f (t) (α(tj ) − α(tj−1 )) + sup f (t) (α(tj+1 ) − α(tj ))
[tj−1 ,tj ]
≤
sup
[tj ,tj+1 ]
f (t) (α(tj+1 ) − α(tj−1 ))
[tj−1 ,tj+1 ]
=
sup
f (t) ∆α(s) .
[tj−1 ,tj+1 ]
Geht nun die Feinheit von Z gegen 0, so geht der letzte Ausdruck wegen der
Stetigkeit von f gegen f (s)∆α(s). Somit gilt Oα (f ) ≤ f (s)∆α(s).
Analog zeigt man Uα (f ) ≥ f (s)∆α(s), womit der Satz gezeigt wäre.
Es gilt folgende Variante des Transformationssatzes:
Satz 1.8. Sei β : [a, b] −→ R monoton steigend und stetig, sei f : [β(a), β(b)] −→
R.
Dann ist f ◦β integrierbar bezüglich β genau dann wenn f Riemann-integrierbar
ist und
Z
Z
β(b)
b
f (x)dx =
β(a)
f (β(x))dβ(x) .
a
Beweis: Sei Z = {s0 , . . . , sn } eine Zerlegung von [β(a), β(b)]. Da β stetig und
monoton ist, gibt es t0 , . . . , tn ∈ [a, b] mit t0 ≤ t1 ≤ . . . ≤ tn und β(tk ) = sk für
k = 0, . . . , n. Z2 := {t0 , . . . , tn } ist somit eine Zerlegung von [a, b] und
"
#
n
X
sup f (β(ξ)) (β(tk ) − β(tk−1 ))
Oβ (f ◦ β, Z2 ) =
=
k=1 ξ∈[tk−1 ,tk ]
"
n
X
sup
k=1
#
f (η) (sk − sk−1 )
η∈[sk−1 ,sk ]
= O(f, Z) .
Ist umgekehrt Z2 = {t0 , . . . , tn } eine Zerlegung von [a, b], so ist Z := {s0 , . . . , sn }
mit sk := β(tk ) eine Zerlegung von [β(a), β(b)] und es gilt wieder O(f, Z) =
Oβ (f ◦ β, Z2 ).
Somit ist O(f ) = Oβ (f ◦ β) und analog gilt U (f ) = Uβ (f ◦ β). Damit folgt
die Behauptung.
1.2 Lebesgue-Stieltjes’sches Integral
Wir erinnern uns zunächst daran, dass es auf B[a, b], der Borel’schen σ-Algebra
auf [a, b], genau ein Maß λ gibt mit λ((s, t]) = t − s für alle s, t ∈ [a, b], s ≤ t,
das sogenannte Lebesgue-Maß. (Das gehört zu den Hauptsätzen der Maßtheorie, siehe etwa [Els09, Kap. II,§4.5] für den sogenannten Maßerweiterungssatz,
11
1 Stieltjes Integration
[Els09, Kap. II,§4.6] für dessen Anwendung zur Konstruktion des LebesgueMaßes und [Els09, Kap. II,§5.6] für den sogenannten Maßeindeutigkeitssatz.)
Man erhält dieses Maß auf folgende Weise: betrachte das Mengensystem
A := {(a1 , b1 ]∪. . .∪(an , bn ] : a ≤ a1 < b1 < a2 < b2 < . . . < an < bn ≤ b, n ∈ N} .
A ist eine (Mengen-)Algebra auf [a, b], welche B[a, b] erzeugt, und durch
λ0 : A −→ [0, ∞)
n
X
λ0 ((a1 , b1 ] ∪ . . . ∪ (an , bn ]) :=
(bk − ak )
k=1
wird auf A eine additive Mengenfunktion auf A definiert, das heißt
1. λ0 (A) ≥ 0 für alle A ∈ A und λ0 (∅) = 0;
2. λ0 (A ∪ B) = λ0 (A) + λ0 (B) falls A, B ∈ A mit A ∩ B = ∅.
Man zeigt nun, dass λ0 sogar σ-additiv ist auf A, das heißt
P∞
S
A
)
=
3. λ0 ( ∞
n
k=1 λ0 (An ) für paarweise disjunkte Mengen A1 , A2 , . . . ∈
k=1
S∞
A mit k=1 An ∈ A.
Nun kann man mittels des sogenannten Maßerweiterungssatzes λ0 zu einem
Maß λ auf B[a, b], eben dem Lebesguemaß, fortsetzen.
Sei nun α : [a, b] −→ R eine monoton wachsende, rechtsstetige Funktion.
Analog zur Konstruktion des Lebesgue-Maßes kann man auf A eine σ-additive
Mengenfunktion µ0 durch
µ0 ((a1 , b1 ] ∪ . . . ∪ (an , bn ]) :=
n
X
(α(bk ) − α(ak ))
k=1
definieren und eindeutig zu einem endlichen Maß µ auf B[a, b] fortsetzen. Natürlich
erhalten wir für α = id wieder das Lebesgue-Maß.
Beispiel 1.9. Sei y ∈ (a, b) und sei
α(x) =
0 x<y
1 x ≥ y.
Dann gilt für jedes Intervall (c, d], dass
µα ((c, d]) =
0 y∈
/ (c, d]
1 y ∈ (c, d] .
Dies überträgt sich auf Borelmengen (Übung), sodass µα = δy , also das in y
konzentrierte Diracmaß.
12
1.2 Lebesgue-Stieltjes’sches Integral
Beispiel 1.10. Sei α eine monoton steigende stetig differenzierbare Funktion.
Z
Z d
0
1(c,d] α0 (x)dx .
α (x)dx =
µα ((c, d]) = α(d) − α(c) =
[a,b]
c
Dies überträgt sich zu µα (A) = [a,b] 1A (x)α0 (x)dx für jede Borelmenge A, sodass also µα ein bezüglich dem Lebesguemaß absolutstetiges Maß mit RadonNykodym-Ableitung α0 ist.
R
Nun definieren wir das Lebesgue-Stieltjes’sche Integral einfach durch
Z b
Z
f (t)dα(t) :=
f dµ .
a
[a,b]
falls die rechte Seite definiert und endlich ist. In diesem Fall nennen wir f
α-integrierbar (im Lebesgue-Stieltjes’schen Sinn).
Hier ergibt
R b sich natürlich eine Mehrdeutigkeit in der Notation, weil aus dem
Ausdruck a f (t)dα(t) nicht hervorgeht, ob das Integral im Riemann’schen oder
Lebesgue’schen Sinn gemeint ist. Im Zweifelsfall muss man es halt dazusagen,
und für viele Fälle, etwa wenn f stetig ist, stimmen die beiden Zahlen ohnehin
überein (Übung!). In diesen Fällen kann man getrost von dem Stieltjes-Integral
sprechen.
Beispiel 1.11. Sei α wie in Beispiel 1.9.
Dann gilt nach unseren Überlegungen in Beispiel 1.9 für jede Borelmenge A
Z
1A dµα = µα (A) = δy (A) = 1A (y) .
[a,b]
Folglich ist für a1 , . . . , an ∈ [0, ∞) und Borelmengen A1 , . . . , An
Z
n
X
[a,b] k=1
ak 1Ak dµα =
n
X
k=1
Z
ak
1Ak dµα =
[a,b]
n
X
ak 1Ak (y) .
k=1
Da jede nichtnegativeP
messbare Funktion punktweiser Limes einer Folge von
Funktionen der Form nk=1 ak 1Ak ist, gilt für jede solche Funktion f , dass
Z
f dµα = f (y) .
(1.1)
[a,b]
Da jede messbare Funktion sich als Differenz zweier nichtnegativer messbarer
Funktionen schreiben lässt, gilt (1.1) für beliebige messbare Funktionen.
Es ist also jede messbare Funktion α-integrierbar und das Integral ist der
Funktionswert in y.
Beispiel 1.12. Sei α wie in Beispiel 1.10. Wir haben dort schon gesehen, dass
µα bezüglich dem Lebesguemaß absolutstetig ist mit Dichte α0 . Demnach ist
eine messbare Funktion f genau dann integrierbar bezüglich µα , wenn
Z
|f α0 |dx < ∞
[a,b]
13
1 Stieltjes Integration
[Els09, Kapital VIII, Aufgabe 2.11] und in diesem Fall ist
Z
Z
f α0 dλ .
f dµα =
[a,b]
[a,b]
Ein Vorteil des Lebesgue-Stieltjes’schen Integrals ist der, dass die Bedingung der Integrierbarkeit leichter zu erfüllen ist. So ist etwa in Beispiel 1.9
jede messbare Funktion bezüglich des dortigen α integrierbar. Beim RiemannStieltjes’schen Integral ist dies jedoch nicht der Fall:
Beispiel 1.13. Sei α wie in Beispiel 1.9. Dann ist α nicht integrierbar bezüglich
α im Sinne von Riemann-Stieltjes.
Beweis: Sei Z = {t0 , . . . , tn } eine Zerlegung von [a, b], welche y enthält, etwa
y = tk , 0 < k < n.
Dann ist
sup α(t) = 1 und
inf α(t) = 0 .
t∈[tk−1 ,tk ]
t∈[tk−1 ,tk ]
Es ist dann leicht zu sehen, dass
Oα (α, Z) = 1 > 0 = Uα (α, Z) .
Beispiel 1.14. Sei α wieder wie in Beispiel 1.9. f := α ist natürlich integrierbar
bezüglich α im Sinne von Lebesgue-Stieltjes,
Z
f dµα = f (y) = α(y) = 1 .
[a,b]
Sei nun
g(x) =
0 x≤y
1 x > y.
Es ist eine leichte Übung zu zeigen, dass g bezüglich α integrierbar ist im Sinne
von Riemann-Stieltjes und
Z
b
g(x)dα(x) = 0 .
a
Rb
Da g(x) = f (x−) := limt→x− f (x) gilt also a f (x−)dα(x) = 0.
R
Rb
P
Es ist also in diesem Fall [a,b] f dµα = a f (x−)dα(x)+ a<x≤b ∆f (x)∆α(x),
und es ist eine interessante Frage, wie allgemein diese Aussage gilt.
Ein anderer Vorteil des Lebesgue-Stieltjes’schen Integrals ist der, dass sich
alle Aussagen der Lebesgue-Theorie unmittelbar anwenden lassen. Ein Beispiel:
Seien α und β zwei rechtsstetige monoton wachsende Funktionen auf [a, b].
Aufgrund der Monotonie existieren von α und β in jedem Punkt x ∈ (a, b] die
linksseitigen Limiten.
14
1.2 Lebesgue-Stieltjes’sches Integral
Sei µα und µβ die zu α und β gehörigen Maße. Diese sind sicher σ-endlich
(sie sind sogar endlich). Es gilt somit mit dem Satz von Fubini, [Els09, Kapitel
V, Satz 2.1], dass
Z bZ
Z
b
f (x, y)d(µα ⊗ µβ )(x, y) =
f (x, y)dµα (x) dµη (y)
[a,b]2
a
a
Z bZ
b
f (x, y)dµβ (y) dµα (x)
=
a
a
für jede beschränkte messbare Funktion f : [a, b] × [a, b] −→ R.
Speziell bekommen wir für f (x, y) = 1[a,y) (x) = 1(x,b] (y)
Z bZ
b
Z
b
(α(y−) − α(a))dµβ (y)
1[a,y) (x)dµα (x) dµη (y) =
a
a
a
Z
b
α(y−)dµβ (y) − α(a)(β(b) − β(a))
=
a
Z bZ
b
Z
b
(β(b) − β(x)dµα (x)
Z b
= β(b)(α(b) − α(a)) −
β(x)dµα (x) ,
1(x,b] (y)dµβ (y) dµα (x) =
a
a
a
a
sodass
Z
α(b)β(b) − α(a)β(a) =
b
Z
b
α(x−)dµβ (x) +
a
β(x)dµα (x) .
a
Diese Regel nennt sich aus naheliegenden Gründen partielle Integration. Wir
können nun mit β(x) = β(x−) + ∆β(x) noch schreiben
Z
b
Z
b
β(x)dµα (x) =
a
Z
β(x−)dµα (x) +
a
Z
=
b
∆β(x)dµα (x)
a
b
β(x−)dµα (x) +
a
X
∆β(x)∆α(x) ,
a<x≤b
sodass, etwas symmetrischer als vorher
Z
α(b)β(b)−α(a)β(a) =
a
b
Z b
X
α(x−)dµβ (x)+
β(x−)dµα (x)+
∆α(x)∆β(x) .
a
a<x≤b
Die partielle Integration in dieser Form lässt sich übrigens auch für das RiemannStieltjes-Integral leicht zeigen, der Beweis besteht aber aus einer Menge Schreibarbeit.
Wir haben beim Riemann-Stieltjes’schen Integral gesehen, dass zumindest für
stetige Integranden der Funktionswert von α an einer Sprungstelle für den Wert
des Integrals keine Rolle spielt. Wir werden in Zukunft auch beim RiemannStieltjes Integral davon ausgehen, dass α rechtsstetig ist.
15
1 Stieltjes Integration
1.3 Funktionen von beschränkter Variation
Wir haben bereits in Proposition 1.5 gesehen, dass für zwei monoton wachsende
Funktionen α1 und α2 gilt
f
f
α1 -integrierbar
α2 -integrierbar
(
=⇒
f (α1 + α2 )-integrierbar
und
Rb
Rb
Rb
f
(t)d(α
+
α
)(t)
=
f
(t)dα
(t)
+
1
2
1
a
a
a f (t)dα2 (t) .
Was hindert uns nun daran, folgendes zu definieren:
b
Z
b
Z
b
Z
f (t)dα1 (t) −
f (t)d(α1 − α2 )(t) =
f (t)dα2 (t) ?
a
a
a
Antwort: Nicht viel:
Für eine Funktion α mit Zerlegung in monotone Funktionen α = α1 − α2
möchten wir definieren:
• f heißt α-integrierbar, falls f sowohl α1 - als auch α2 -integrierbar ist
• für f α-integrierbar sei
Z
b
Z
Z
b
f (t)dα1 (t) −
f (t)dα(t) :=
a
b
a
f (t)dα2 (t) .
a
Man muss nur untersuchen, welche Funktionen α sich als Differenz zweier monotoner Funktionen schreiben lassen, und ob zwei Zerlegungen α = α1 − α2 =
β1 − β2 zum selben Ergebnis führen.
Definition 1.15. Sei f : [a, b] −→ R eine Funktion. Wir definieren die Totalvariation von f auf [a, b] durch
Vab (f )
:= sup{
n
X
|f (tk ) − f (tk−1 )| : Z eine Zerlegung von [a, b]} .
k=1
Definition 1.16. Eine Funktion α : [a, b] −→ R heißt von beschränkter Variation, falls Vab (f ) < ∞.
Proposition 1.17. Sei f : [a, b] −→ R eine Funktion. Dann gelten:
(a) die Abbildung x 7−→ Vax (f ) ist eine monoton wachsende Funktion mit
Werten in [0, ∞];
(b) Vab (f ) = 0 ⇐⇒ f konstant;
(c) f monoton auf [a, b] =⇒ Vab (f ) = |f (b) − f (a)| < ∞ ;
(d) f stetig differenzierbar =⇒ Vab (f ) =
16
Rb
a
|f 0 (t)|dt .
1.3 Funktionen von beschränkter Variation
Beweis: (a), (b) und (c) sind einfache Übungen.
(d) Sei ε > 0 und sei Z = {t0 , . . . , tn } eine Zerlegung des Intervalls [a, b] mit
O(|f 0 |, Z) < O(|f 0 |) + ε und U (|f 0 |, Z) > U (|f 0 |) − ε. Für jedes 1 ≤ k ≤ n gibt
es ein τk ∈ (tk−1 , tk ) mit f (tk ) − f (tk−1 ) = f 0 (τk )(tk − tk−1 ), sodass
n
X
|f (tk ) − f (tk−1 )| =
k=1
n
X
|f 0 (τk )(tk − tk−1 )| .
k=1
Somit gilt also
0
0
U (|f |) − ε < U (|f |, Z) ≤
n
X
|f (tk ) − f (tk−1 )| ≤ O(|f 0 |, Z) < O(|f 0 |) + ε
k=1
und damit auch U (|f 0 |) − ε < Vab (f ) ≤ O(|f 0 |) + ε.
|f 0 | ist stetig und damit Riemann-integrierbar, sodass U (|f 0 |) = O(|f 0 |) =
Rb 0
a |f (t)|dt. Daher folgt
Z
b
|f 0 (t)|dt − ε < Vab (f ) ≤
Z
a
b
|f 0 (t)|dt + ε .
a
Da ε > 0 beliebig war, folgt die Behauptung.
Lemma 1.18. Seien f, g : [a, b] −→ R. Dann gelten:
(a) Vab (−f ) = Vab (f );
(b) Vab (f + g) ≤ Vab (f ) + Vab (g);
(c) Vab (f ) ≥ |f (b) − f (a)|;
(d) für s ∈ [a, b] gilt Vab (f ) = Vas (f ) + Vsb (f ) .
Beweis: Übung.
Satz 1.19. Sei f : [a, b] −→ R eine Funktion. f ist genau dann von beschränkter
Variation, wenn es monoton wachsende Funktionen f1 , f2 : [a, b] −→ R gibt mit
f = f1 − f2 .
Beweis: 1.) Sei f = f1 − f2 mit monoton wachsenden Funktionen f1 und f2 .
Laut Lemma 1.18(a) und Lemma 1.18(b) gilt
Vab (f ) = Vab (f1 + (−f2 )) ≤ Vab (f1 ) + Vab (f2 ) = f1 (b) − f1 (a) + f2 (b) − f2 (a) < ∞ .
2.) Sei Vab (f ) < ∞. Dann gilt wegen Lemma 1.18(d) Vat (f ) < ∞ für alle
t ∈ [a, b]. Definiere
f1 (t) := 21 Vat (f ) + f (t) + |f (a)| ∀t ∈ [a, b]
f2 (t) := 12 Vat (f ) − f (t) + |f (a)| ∀t ∈ [a, b] .
Damit gelten f = f1 − f2 und f1 (t) + f2 (t) = Vat (f ) + |f (a)|. Wir müssen zeigen,
dass f1 und f2 monoton wachsend sind.
17
1 Stieltjes Integration
Etwa für f1 : Seien s, t ∈ [a, b], s < t.
2(f1 (t) − f1 (s)) = Vat (f ) + f (t) + |f (a)| − (Vas (f ) + f (s) + |f (a)|)
= Vat (f ) − Vas (f ) + f (t) − f (s)
= Vst (f ) + f (t) − f (s)
nach Lemma 1.18(d). Nach Lemma 1.18(c) gilt
Vst (f ) + f (t) − f (s) ≥ |f (t) − f (s)| + f (t) − f (s) ≥ 0 .
Das heißt f1 ist monoton steigend, analog zeigt man das für f2 .
Proposition 1.20. Sei f : [a, b] −→ R von beschränkter Variation und rechtsstetig. Dann ist die Funktion
[a, b] −→
R
t
7−→ Vat (f ) ,
t ∈ [a, b]
rechtsstetig.
Beweis: Seien c ∈ [a, b], ε > 0. Es gibt ein δ > 0 mit
t − c < δ =⇒ |f (t) − f (c)| < ε .
Wir wollen zeigen |Vat (f ) − Vac (f )| < ε. Es gibt eine Zerlegung Z = {t0 , . . . , tn }
von [c, b] derart, dass ∆Z < δ und
Vcb (f ) ≤
n
X
|f (tk ) − f (tk−1 )| + ε .
k=1
Für t ∈ [t0 , t1 ] gilt dann
Vcb (f ) ≤ |f (t) − f (c)| + |f (t1 ) − f (t)| +
|
{z
} |
<ε
Xn
k=2
{z
≤Vtb (f )
|f (tk ) − f (tk−1 )| + ε .
}
Somit haben wir 0 ≤ Vcb (f ) − Vtb (f ) < 2ε . Aber
|Vat (f ) − Vac (f )| = |Vab (f ) − Vtb (f ) − (Vab (f ) − Vcb (f ))| = |Vcb (f ) − Vtb (f )| ,
womit die Behauptung gezeigt ist.
Speziell sind also die in Satz 1.19 konstruierten monoton wachsenden Funktionen rechtstetig, sodass sich also eine rechtsstetige Funktion von beschränkter
Variation als Differenz zweier rechtsstetiger monoton wachsender Funktionen
schreiben lässt.
Satz 1.21. Sei f : [a, b] −→ R von beschränkter Variation. Seien wieder
f1 (t) := 12 Vat (f ) + f (t) + |f (a)| ∀t ∈ [a, b]
f2 (t) := 12 Vat (f ) − f (t) + |f (a)| ∀t ∈ [a, b] .
Dann gilt für jedes Paar g1 , g2 von monoton wachsenden Funktionen mit f =
g1 − g2 und g1 , g2 ≥ 0
f1 ≤ g1 und f2 ≤ g2 .
18
1.3 Funktionen von beschränkter Variation
Die Zerlegung in Satz 1.19 ist also die minimale Zerlegung in nichtnegative
monoton wachsende Funktionen. Sie wird oft Jordan-Zerlegung genannt.
Beweis: Sei t ∈ [a, b]. Es gilt
1
Vat (f ) + f (t) + |f (a)| ≤ g1 (t)
2
⇐⇒ Vat (f ) ≤ 2g1 (t) − f (t) − |f (a)|
|{z}
f1 (t) ≤ g1 (t) ⇐⇒
=g1 (t)−g2 (t)
Vat (f )
⇐⇒
≤ g1 (t) + g2 (t) − |f (a)| .
Sei Z = {t0 , . . . , tn } eine Zerlegung von [a, t]. Es ist
n
X
|f (tk ) − f (tk−1 )| =
k=1
n
X
(f (tk ) − f (tk−1 ))+ +
k=1
n
X
(f (tk ) − f (tk−1 ))−
k=1
wobei wie üblich x+ = max(x, 0), x− = max(−x, 0) für x ∈ R.
Für s, t mit a ≤ s < t ≤ b gelten
(f (t) − f (s))+ ≤ g1 (t) − g1 (s)
(f (t) − f (s))− ≤ g2 (t) − g2 (s) ,
denn:
g1 (t) − g1 (s) ≥ 0
und
g1 (t) − g1 (s) = f (t) + g2 (t) − f (s) − g2 (s)
= f (t) − f (s) + g2 (t) − g2 (s)
≥ f (t) − f (s) ,
sodass g1 (t) − g1 (s) ≥ max(0, f (t) − f (s)) = (f (t) − f (s))+ . Analog zeigt man
(f (t) − f (s))− ≤ g2 (t) − g2 (s).
Insgesamt haben wir nun also
n
X
|f (tk ) − f (tk−1 )| ≤
k=1
n
X
g1 (tk ) − g1 (tk−1 ) +
k=1
n
X
g2 (tk ) − g2 (tk−1 )
k=1
= g1 (t) − g1 (a) + g2 (t) − g2 (a)
≤ g1 (t) + g2 (t) − |f (a)| ,
da wegen g1 (a), g2 (a) ≥ 0
|f (a)| = |g1 (a) − g2 (a)| ≤ |g1 (a)| + |g2 (a)| = g1 (a) + g2 (a) .
Wir haben also gezeigt Vat (f ) ≤ g1 (t) + g2 (t) − |f (a)| und damit f1 (t) ≤ g1 (t).
Dann gilt aber auch f2 (t) ≤ g2 (t), da f (t) = g1 (t) − g2 (t) = f1 (t) − f2 (t),
sodass g1 (t) + f2 (t) = f1 (t) + g2 (t) ≤ g1 (t) + g2 (t).
Nun sind wir endlich soweit, das Stieltjes Integral bezüglich Funktionen von
beschränkter Variation eindeutig definieren zu können:
19
1 Stieltjes Integration
Definition 1.22. Sei α eine rechtsstetige Funktion von beschränkter Variation
mit minimaler Zerlegung α = α1 −α2 laut Satz 1.19. Eine Funktion f : [a, b] −→
R heißt α-integrierbar, falls sie α1 - und α2 -integrierbar ist.
Das Integral von f bezüglich α ist definiert durch
Z b
Z b
Z b
f (t)dα2 (t) .
f (t)dα1 (t) −
f (t)dα(t) :=
a
a
a
Es ist nun eine gute Übung, den folgenden Satz zu beweisen, der den Nachweis
der Unabhängigkeit des Stieltjes-Integrals von der Zerlegung komplettiert:
Satz 1.23. Seien α : [a, b] −→ R eine rechtsstetige Funktion von beschränkter
Variation und f : [a, b] −→ R beschränkt. Sei weiters α = α1 − α2 die minimale
Zerlegung von α in monoton wachsende Funktionen und α = β1 − β2 eine
beliebige andere Zerlegung von α in monotone rechtsstetige Funktionen.
Ist f β1 - und β2 -integrierbar, so ist f auch α-integrierbar und
Z b
Z b
Z b
f (s)dα(s) =
f (s)dβ1 (s) −
f (s)dβ2 (s) .
a
a
a
1.4 Càdlàg und làdcàg Funktionen
Definition 1.24. Sei I ⊆ R ein Intervall. Eine Funktion f : I −→ R heißt
càdlàg1 , wenn f rechtsstetig ist und in jedem Punkt die linksseitigen Limiten
existieren. Analog nennen wir die Funktion làdcàg, wenn sie linksstetig ist und
in jedem Punkt die rechtsseitigen Limiten existieren.
Proposition 1.25. Sei I ein Intervall und sei f : I −→ R càdlàg.
Dann ist die Funktion x 7−→ f (x−) làdcàg.
Beweis: Übung.
Proposition 1.26. Sei f : [a, b] −→ R rechtsstetig und von beschränkter Variation.
Dann ist f càdlàg.
Beweis: Übung.
Proposition 1.27. Sei f : [a, b] −→ R càdlàg oder làdcàg.
Dann ist f beschränkt.
Beweis: Übung.
Definition 1.28.
(a) Eine Funktion der Form
x 7−→
∞
X
an 1[sn ,b] (x) ,
n=1
P
wo a1 , a2 , . . . eine Folge mit ∞
n=1 |an | < ∞ sei und s1 , s2 , . . . eine Folge in
[a, b] nennen wir eine rechtsstetige reine Sprungfunktion von beschränkter
Variation.
1
Dieses Kunstwort ist ein Akronym des französischen continu à droite, limites à gauche.
20
1.4 Càdlàg und làdcàg Funktionen
(b) Eine Funktion der Form
x 7−→
∞
X
an 1(sn ,b] (x) ,
n=1
P∞
wo a1 , a2 , . . . eine Folge mit n=1 |an | < ∞ sei und s1 , s2 , . . . eine Folge in
[a, b] nennen wir eine linksstetige reine Sprungfunktion von beschränkter
Variation.
Aufgrund der P
vorausgesetzten absoluten Summierbarkeit der Folge (an )n
∞
definiert x 7−→
n=1 an 1[sn ,b] (x) tatsächlich eine Funktion. Damit die Definition eine gute Definition ist, müssen wir noch zeigen, dass die so definierte
Funktion rechtsstetig und von beschränkter Variation ist.
Lemma 1.29. Sei (a
n )n eine absolut summierbare Folge, (sn )n eine Folge in
P
[a, b] und sei h(x) = ∞
n=1 an 1[sn ,b] (x).
Dann ist h rechtstetig und von beschränkter Variation.
P
Beweis: Sei s ∈ (a, b) und sei ε > 0. Es gibt ein N mit ∞
n=N +1 |an | < ε und
ein δ > 0 derart, dass keine der Sprungstellen s1 , . . . , sN in (s, s + δ) liegt. Dann
gilt für t ∈ (s, s + δ)
|h(t) − h(s)| = |
∞
X
n=1
an 1(s,t] (sn )| ≤
∞
X
|an | < ε .
n=N +1
h ist also rechtsstetig.
Man kann h leicht als Differenz zweier monoton steigender Funktionen schreiben,
indem man (an )n in positive und negative Folgenglieder aufteilt (Ü). Damit ist
h von beschränkter Variation.
Analog zeigt man, dass die Definition einer linksstetigen reinen Sprungfunktion von beschränkter Variation eine sinnvolle Definition ist.
Es ist nicht schwer einzusehen, dass Summe und Produkt endlich vieler rechtsoder linksstetiger reiner Sprungfunktionen von beschränkter Variation wieder
ebensolche sind.
Proposition 1.30. Sei f : [a, b] −→ R càdlàg oder làdcàg.
Dann hat f auf [a, b] höchstens abzählbar viele Unstetigkeitsstellen s1 , s2 , . . ..
Ist f zusätzlich von beschränkter Variation, so sind die Sprünge summierbar,
das heißt
∞
X
|∆f (sk )| < ∞.
k=1
Beweis: Übung.
Satz 1.31. Sei f : [a, b] −→ R càdlàg und von beschränkter Variation.
Dann gibt es eine eindeutig bestimmte stetige Funktion g und eine eindeutig
bestimmte rechtsstetige reine Sprungfunktion h mit
f (t) = g(t) + h(s) und h(a) = 0.
21
1 Stieltjes Integration
Beweis: P
Wir wissen, dass es abzählbar viele Sprungstellen s1 , s2 , . . . von f gibt
und dass ∞
k=1
P∆|f (sk )| < ∞ ist nach Proposition 1.30.
Sei h(x) = ∞
k=1 ∆f (sk )1[sk ,b] (x), sodass h eine rechtsstetige reine Sprungfunktion von beschränkter Variation ist. Es ist h(a) = 0, da f rechtsstetig ist
und daher in a keine Sprung hat.
h ist càdlàg und somit ist g := f − h càdlàg. Da ∆g = ∆f − ∆h = 0 ist, gilt
in jedem Punkt g(t−) = g(t) = g(t+), sodass g stetig ist.
Sei nun g1 eine weitere stetige Funktion und h1 eine weitere rechtsstetige
reine Sprungfunktion mit f = g1 + h1 und h1 (a) = 0.
Dann ist g − g1 = h − h1 . Nun ist die linke Seite stetig, und damit auch die
rechte Seite. Eine stetige reine Sprungfunktion ist aber konstant (Ü) und somit
ist auch die linke Seite konstant. Da h(a) = h1 (a) ist, ist auch g(a) = g1 (a) und
somit g = g1 und h = h1 .
Eine analoge Aussage gilt natürlich auch für làdcàg Funktionen.
Wir können also càdlàg und làdcàg Funktionen stets schreiben als Summe
einer stetigen Funktion und einer dazu passenden reinen Sprungfunktion.
Wenn h eine rechtsstetige reine Sprungfunktion ist, so schreiben meist einfach
X
h(t) =
∆h(s) .
a<s≤t
Hier wird formal über eine überabzählbare Menge summiert, wir wissen aber,
dass nur höchstens abzählbar viele Summanden ungleich null sind.
Analog schreiben wir auch für eine càdlàg Funktion f : [a, b] −→ R einfach
X
h(t) =
∆f (s)
a<s≤t
für die zugehörige reine Sprungfunktion. Wir bezeichnen diese mit f d ( d“ für
”
discontinuous)
und die stetige Komponente mit f c , also f = f c +f d wo f d (t) :=
P
c
d
a<s≤t ∆f (s) und f := f − f .
Analog schreiben wir für eine làdcàg Funktion f ebenso f = f c + f d , wobei
hier f d làdcàg ist.
Satz 1.32. Sei f : [a, b] −→ R linksstetig und von beschränkter Variation und
sei α : [a, b] −→ R rechtsstetig und von beschränkter Variation.
Dann ist f integrierbar bezüglich α, sowohl im Sinne von Riemann-Stieltjes
als auch im Sinne von Lebesgue-Stieltjes.
Zum Beweis zeigen wir zuerst ein paar Lemmas.
Lemma 1.33. Sei f : [a, b] −→ R linksstetig. Dann ist f (Borel-)messbar.
Beweis: Wir definieren ein Folge von Funktionen fn durch fn (x) = f (2−n b2n xc).
Jedes fn ist messbar als Linearkombination von Indikatorfunktionen von (halboffenen) Intervallen.
Für jedes x konvergiert die Folge (2−n b2n xc)n monoton steigend gegen x. Da
f linksstetig ist, konvergiert also fn punktweise gegen f , sodass also f messbar
ist.
22
1.5 Anwendungen des Stieltjes-Integrals
Lemma 1.34. Sei α eine rechtsstetige reine Sprungfunktion von beschränkter
Variation.
Ist f linksstetig und beschränkt, so ist f integrierbar bezüglich α im Sinne
von Riemann-Stieltjes und
Z
b
f (x)dα(x) =
a
X
f (s)∆α(s) .
a<s≤b
Beweis: Übung.
Lemma 1.35. Sei α eine stetige Funktion von beschränkter Variation.
Ist f von beschränkter Variation, so ist f integrierbar bezüglich α im Sinne
von Riemann-Stieltjes.
Beweis: Übung, man zeigt die Aussage zunächst für monotones f .
Beweis von Satz 1.32: Die Aussage über die Lebesgue-Stieltjes-Integrierbarkeit
folgt unmittelbar aus Lemma 1.33.
Für die zweite Aussage zerlegen wir α gemäß Satz 1.31, α = αc +αd . Lemmas
1.34 und 1.35 erledigen den Rest.
1.5 Anwendungen des Stieltjes-Integrals
Die Hauptanwendung für Stieltjes-Integrale ist die folgende: sei X eine reelle
Zufallsvariable und definiere
F (x) := P(X ≤ x)
für x ∈ R .
F heißt die Verteilungsfunktion der Verteilung von X und hat folgende Eigenschaften:
1. F ist monoton wachsend;
2. F ist rechtsstetig und in jedem Punkt existiert der linksseitige Limes;
3. limx→−∞ F (x) = 0 und limx→∞ F (x) = 1 .
Da wir keine uneigentlichen Riemann-Stieltjes-Integrale betrachtet haben
(was wir aber ohne weiteres ganz analog zu den Riemann-Integralen hätten
tun können), beschränken wir uns auf den Fall F (x) = 0 für x < a, F (x) = 1
für x > b, a, b ∈ R.
Es gelten dann
Rb
• P(X ∈ (c, d]) = F (d) − F (c) = a 1(c,d] (x)dF (x),
• E(X) =
Rb
a
• E(g(X)) =
x dF (x),
Rb
a
g(x)dF (x) für F -integrierbares g .
23
1 Stieltjes Integration
Das Riemann-Stieltjes’sche Integral bietet also einen mathematischen Rahmen für die Behandlung stetiger Zufallsvariablen, welche keine Dichte zu haben
brauchen, und das, ohne die Lebesgue’sche Integrationstheorie vorauszusetzen.
Wir betrachten nun zwei andere Anwendungen, für welche das StieltjesIntegral jedoch nur bedingt geeignet ist sind, welche aber zeigen, in welche
Richtung das stochastische Integral stößt.
Beschreibe etwa α : [a, b] −→ R die Entwicklung eines Aktienkurses im
Zeitraum [a, b]. Vergleiche Abbildung 1.2.
α
α
a
t
b
a
b
t
Abbildung 1.2: So könnten Kursentwicklungen von Aktien aussehen
Wir wollen annehmen, dass α beschränkte Variation2 hat. Kaufe ich eine
Aktie zum Zeitpunkt s1 und verkaufe sie zum Zeitpunkt s2 , so mache ich Gewinn
(oder Verlust)
α(s2 ) − α(s1 ) .
Haben wir eine kompliziertere Strategie, wo wir etwa unser Portfolio“ stetig
”
korrigieren, so ist der Gewinn gegeben durch
Z b
f (t)dα(t) ,
a
wobei f (t) die Anzahl der zum Zeitpunkt t gehaltenen Aktien angibt3 .
Die andere Anwendung ist die Formulierung einer Differentialgleichung mit
Störung analog zu Gleichung (2.1):
dx
= (a + ξ)x
dt
Wir schreiben diese Differentialgleichung nun um als
dx = xadt + xξdt
(1.2)
(1.3)
und integrieren
Z
x − x0 =
3
Z
x(s)a(s)ds +
0
2
t
t
x(s)ξ(s)ds .
(1.4)
0
Diese Annahme ist in den meisten Modellen eben nicht gerechtfertigt.
Man nimmt in der Finanzmathematik oft an, dass man auch Bruchteile von Aktien und
eine negative Zahl von Aktien haben kann.
24
1.6 Übungsaufgaben
ξ(s)ds ist das Differential“ der Störung. Unter Umständen ist aber die Störung
”
nicht differenzierbar, sodass das Differential nicht erklärt ist. In diesem Fall kann
ich die Gleichungen (1.2) und (1.3) nicht mehr (oder nur formal) schreiben.
Gleichung (1.4) kann ich aber vielleicht schon noch schreiben, nämlich als
Z t
Z t
x(s)dα(s) ,
(1.5)
x(s)a(s)ds +
x − x0 =
0
0
wo nun dα(s) das Differential“ der Störung ist, aufgefasst im Sinne von Stielt”
jes. Gleichung (1.5) beschreibt also den gleichen Sachverhalt wie (1.2), wenn ich
ξ als formale Ableitung der (meist nicht-differenzierbaren) Funktion α auffasse.
Auch hier haben wir allerdings in den Modellen oft das Problem, dass α nicht
beschränkte Variation hat.
In den beiden vorangegangenen Anwendungen haben wir Aktienkurs und
( Stammfunktion“ der) Störung als fest vorgegebene Funktionen betrachtet.
”
Wir wollen sie aber letztlich als zufällige Funktionen betrachten. Später, wenn
wir das nötige Rüstzeug dazu haben, werden wir zu diesen Beispielen zurückkehren.
Wir schließen dieses Kapitel noch mit einer weiteren Anwendung des StieltjesIntegrals ab.
Definition 1.36. Sei γ : [a, b] −→ Rn

γ1 (t)
 ..
γ(t) =  .
eine Funktion,



(t ∈ [a, b])
γn (t)
wo γk : [a, b] −→ R für jedes k = 1, . . . , n von beschränkter Variation und stetig
sei.
Für eine stetige Funktion f : Rn −→ Rn ,

 

x1
f1 (x1 , . . . , xn )

 

..
f  ...  = 

.
xn
fn (x1 , . . . , xn )
definieren wir das Kurvenintegral über f entlang γ durch
Z b
n Z b
X
f (γ) · dγ :=
Fk (γ1 (t), . . . , γn (t))dγk (t) .
a
k=1
a
1.6 Übungsaufgaben
1. Seien α, f : [a, b] −→ R zwei Funktionen, α monoton wachsend.
Zeigen Sie: sind Z1 und Z2 Zerlegungen mit Z1 ⊆ Z2 , so gelten
Oα (f, Z2 ) ≤ Oα (f, Z1 )
Uα (f, Z2 ) ≥ Uα (f, Z1 ) .
25
1 Stieltjes Integration
2. Sei α : [a, b] −→ R stückweise konstant mit endlich vielen Sprungstellen.
Zeigen Sie: α ist endliche Summe von stückweise konstanten Funktionen
mit nur einem Sprung.
3. Sei α : [a, b] −→ R monoton wachsend. Zeigen Sie: α hat höchstens
abzählbar viele Sprungstellen, das heißt A := {s ∈ [a, b] : ∆α(s) 6= 0}
ist höchstens abzählbar.
4. Sei α : [a, b] −→ R monoton wachsend und A so wie in Übung 3. Zeigen
Sie:
X
∆α(s) < ∞ .
s∈A
5. Sei α : [a, b] −→ R eine monoton wachsende Funktion. Zeigen Sie: α
ist fast überall differenzierbar. (Somit ist auch jede Funktion, welche
beschränkte Variation hat, fast überall differenzierbar.)
6. Seien α, f : [a, b] −→ R Funktionen, α von beschränkter Variation, f
stetig.
Zeigen Sie: f ist α-integrierbar.
7. Seien α, f : [a, b] −→ R Funktionen, α von beschränkter Variation und
stetig, f monoton.
Zeigen Sie: f ist α-integrierbar.
8. Betrachte folgende Funktionen α, f, g : [0, 1] −→ R,
(
(
1 für t ≥ 12
1 für t ≥
α(t) :=
, f (t) :=
1
0 für t < 2
0 für t <
(
1 für t > 12
g(t) :=
.
0 für t ≤ 21
1
2
1
2
,
Zeigen Sie: f ist nicht α-integrierbar, g ist α-integrierbar. Berechnen Sie
Z 1
g(t)dα(t) .
0
9. Vervollständigen Sie den Beweis von Proposition 1.17.
10. Beweisen Sie Lemma 1.18.
11. Beweisen Sie Satz 1.23.
12. Sei γ : [a, b] −→ Rn eine Funktion. γ heißt rektifizierbar, falls
X
sup{
kγ(tk ) − γ(tk−1 )k : {t0 , . . . , tn } eine Zerlegung von [a, b]}} < ∞ .
k=1
Zeigen Sie: γ ist genau dann rektifizierbar, wenn alle Koordinatenfunktionen von beschränkter Variation sind.
26
2 Worum geht’s?
Wir stellen uns diese Frage zunächst für ein Gebiet, welches wir schon kennen, nämlich das der gewöhnlichen Differentialgleichungen. Diese geben uns
bekanntlich (unter anderem) ein Mittel in die Hand um dynamische Vorgänge
prägnant zu beschreiben und zu studieren. Ein Beispiel ist das Wachstum einer
Population nach Malthus (ungebremstes Wachstum):
d
x(t) = ax(t) .
dt
(2.1)
Hier bezeichnet x(t) die Anzahl der Individuen zum Zeitpunkt t und somit
die Änderung der Anzahl der Individuen. Die Lösung ist bekanntlich
gegeben durch x(t) = x(0)eat .
Die Gleichung (2.1) besagt also offenbar, dass die Änderung der Anzahl der
Individuen, also das Wachstum, proportional ist zur Anzahl der bereits vorhandenen Individuen. (Dieses Gesetz gilt in guter Näherung für die Anfangsphase
des Wachstums einer Bakterienkultur).
d
dt x(t)
Zunächst gibt es zwei Kritikpunkte an diesem Gesetz:
1. Wir modellieren etwas diskretes durch etwas kontinuierliches. Das Wachstum einer Population erfolgt eigentlich in Sprüngen:
• Geburt: Sprung um 1
• Tod: Sprung um -1
• Zellteilung: Sprung um 1
2. Wir haben a als einen konstanten Wachstumsfaktor modelliert. Oft hängt
das (relative) Wachstum aber von zeitlich veränderlichen Größen ab, wie
etwa unterschiedlichem Wachstum Tag/Nacht oder Sommer/Winter und
nicht zuletzt von zufälligen Einflüssen.
Dem ersten Einwand können wir getrost begegnen indem wir sagen, dass wir
an Populationen interessiert sind, die groß genug sind, dass ein Sprung um eins
nicht erkennbar ist, also gewissermaßen infinitesimal“ ist. Es gibt aber auch
”
einen praktischen Grund: im Kontinuierlichen kann man besser rechnen.
Zum zweiten Einwand: wenn wir a durch a(t, x) ersetzen, also erlauben, dass
a sich mit der Zeit und/oder Populationsgröße ändert, dann führt uns das nicht
aus der Theorie der gewöhnlichen Differentialgleichungen heraus. Wohl aber,
wenn wir erlauben, dass a zufälligen Einflüssen unterliegt:
a(t) = a0 + ξt ,
27
2 Worum geht’s?
x
t
Abbildung 2.1: Gestörtes Wachstum.
wo a0 konstant ist und ξt eine zufällige Störung. Wie wird die Lösung aussehen?
Unter Umständen so, wie in Abbildung 2.1.
Damit können wir schon unser Hauptziel formulieren: wir wollen dynamische
Vorgänge beschreiben, die zufälligen Einflüssen unterliegen. Das Ganze wollen
wir mit kontinuierlichem Zeitbereich, um besser rechnen zu können. Wie im deterministischen Fall (also im Fall gewöhnlicher Differentialgleichungen) braucht
man zur Behandlung und Lösung von stochastischen Differentialgleichungen
Integration. Diese Abhängigkeit von der Integrationstheorie geht aber weiter
als im deterministischen Fall, da selbst für die Definition des stochastischen
Differentials das stochastische Integral benötigt wird.
Viele stochastische Prozesse, die in der Praxis vorkommen, sind nicht differenzierbar. Somit sind die Differentialquotienten nicht definiert, und man muss sich
etwas anderes einfallen lassen. Aus diesem Grund werden wir uns einen relativ
großen Teil der Vorlesung mit dem stochastischen Integral und dessen Eigenschaften auseinandersetzen.
(Hier liegt eine Analogie zur Theorie der gewöhnlichen Differentialgleichung
vor: zuerst kommt die Analysis mit Differential- und Integralrechnung)
2.1 Übungsaufgaben
1. Lösen Sie die folgenden gewöhnlichen Differentialgleichungen
(i)
dx
(t) = ax(t)
dt
(ii)
dx
(t) = a(t)x(t)
dt
(iii)
dx
(t) = (a − bx(t))x(t) !
dt
2. Lösen Sie das Anfangswertproblem dx
dt (t) = ax(t), x(0) = 1 numerisch mit
dem Euler-Cauchy-Verfahren! Überzeugen Sie sich numerisch, dass die so
gewonnene Lösung gegen die exakte Lösung konvergiert! Schätzen Sie die
Konvergenzordnung!
28
3 Nachtrag zur Martingaltheorie in
diskreter Zeit
3.1 Bedingte Erwartung
Definition 3.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X eine Zufallsvariable auf Ω mit E(|X|) < ∞. Sei weiters G eine Teil-σ-Algebra von F.
Eine Zufallsvariable Y auf Ω heißt bedingte Erwartung, falls gelten:
1. Y ist G-messbar,
2. für alle A ∈ G gilt E(X1A ) = E(Y 1A ).
Bemerkung 3.2.
1. Eine bedingte Erwartung hat immer endlichen Erwartungswert (Übung).
2. Im Allgemeinen ist eine bedingte Erwartung nicht eindeutig bestimmt.
Aber je zwei bedingte Erwartungen stimmen fast sicher überein (Übung).
Das rechtfertigt auch die folgende Schreibweise: Wir schreiben Y = E(X|G)
f.s. und manchmal etwas ungenau nur Y = E(X|G), falls Y eine bedingte
Erwartung von X bezüglich G ist.
3. Es ist nicht a priori klar, dass stets eine bedingte Erwartung existiert.
Einen Beweis der Existenz findet man zB in [Wil91, Chapter 9].
Für den Fall, dass G endlich viele Elemente hat, kann man E(X|G) leicht
direkt angeben. Zunächst brauchen wir einen Hilfssatz.
Lemma 3.3. Sei G eine σ-Algebra mit endlich vielen Elementen. Dann gibt es
Mengen A1 , . . . , An mit
1. Ω = A1 ∪ . . . ∪ An ,
2. Ai ∩ Aj = ∅ falls i 6= j,
3. für jedes B ∈ G und jedes 1 ≤ i ≤ n gilt
Ai ∩ B = ∅
oder
Ai ∩ B = Ai .
T
Beweis: Für x ∈ Ω definiere Cx := B∈G,x∈B B. Da G nur endlich viele
Elemente hat, ist der Durchschnitt endlich und somit Cx ∈ G. Da G endlich
ist, können auf diese Art nur endlich viele verschiedene Mengen A1 , . . . , An
konstruiert werden.
Der Beweis, dass A1 , . . . , An die Eigenschaften 1.)-3.) haben, ist eine einfache
Übung.
29
3 Nachtrag zur Martingaltheorie in diskreter Zeit
Definition 3.4. Sei G eine σ-Algebra mit endlich vielen Elementen. Ein Mengensystem A1 , . . . , An mit den Eigenschaften 1.)-3.) aus Lemma 3.3 nennen wir
die minimalen messbaren Mengen von G.
Proposition 3.5. Sei X eine Zufallsvariable mit E(|X|) < ∞ und G eine σAlgebra mit endlich vielen Elementen und minimalen messbaren Mengen A1 , . . . , An .
Dann gilt
1
P(Ak ) E(X1Ak ) ω ∈ Ak mit P(Ak ) 6= 0
E(X|G)(ω) =
0
ω ∈ Ak mit P(Ak ) = 0
fast sicher.
Beweis: Übung.
Proposition 3.6. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum, X eine Zufallsvariable darauf mit endlichem Erwartungswert.
Wenn X bezüglich G messbar ist, so gilt E(X|G) = X f.s.
Beweis: Das folgt unmittelbar aus der Definition der bedingten Erwartung.
Proposition 3.7. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum, X eine Zufallsvariable darauf mit endlichem Erwartungswert.
Wenn X ≥ 0 f.s., so ist E(X|G) ≥ 0 f.s.
Beweis: Übung.
Proposition 3.8. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum, X, X1 , X2 Zufallsvariablen darauf mit endlichem Erwartungswert und seien G und H zwei
Teil-σ-Algebren von F.
Dann gelten:
1. E(X1 + X2 |G) = E(X1 |G) + E(X2 |G).
2. Sei Z eine G-messbare Zufallsvariable. Wenn eine der folgenden Aussagen
erfüllt ist,
a) Z ist beschränkt,
b) Z ≥ 0 und X ≥ 0 und E(ZX) < ∞,
c) E(Z 2 ) < ∞ und E(X 2 ) < ∞,
dann gilt
E(ZX|G) = ZE(X|G) ,
3. Für H ⊆ G ist E(E(X|G)|H) = E(X|H).
Beweis: Übung.
Proposition 3.9. Seien X eine Zufallsvariable und G eine σ-Algebra, X und
G unabhängig.
Dann gilt E(X|G) = E(X) f.s.
30
3.2 (Sub-, Super-)Martingale, Stoppzeiten
Beweis: Zu zeigen ist E(X1A ) = E(E(X)1A ) für alle A ∈ G. Der Beweis
verläuft mittels Standard Machine“: man zeigt die Aussage zuerst für X = 1B ,
”
wobei B und A unabhängig sind, da X und G unabhängig sind.
Dann
P schließt man mittels Linearität, dass die Aussage auch für X der Form
X= K
k=1 βk 1Bk gilt.
Weiters benutzt man den Satz von der monotonen Konvergenz [Els09] oder
[Wil91], um die Aussage für nicht-negative integrierbare X zu zeigen. Schließlich
folgt der allgemeine Fall mittels Zerlegung von X in Positiv- und Negativteil
und Verwendung der Linearität des Erwartungswertes.
3.2 (Sub-, Super-)Martingale, Stoppzeiten
Im Folgenden bezeichne N0 := N ∪ {0}.
Definition 3.10. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum.
(a) Unter einem (stochastischen) Prozess X auf (Ω, F, P) mit Zeitbereich N0
verstehen wir eine Abbildung
X : N0 × Ω −→ R
derart, dass für jedes n ∈ N0 die Abbildung X(n, .) : Ω −→ R messbar
ist, also eine Zufallsvariable. Wir schreiben auch Xn für X(n, .);
(b) Für ein ω ∈ Ω nennen wir die Abbildung
N0 −→
R
n 7−→ Xn (ω) (n ∈ N0 )
einen Pfad von X.
Wir können uns unter einem Prozess also wahlweise eine Folge von Zufallsvariablen oder eine zufällige Folge, dh. einen unendlich-dimensionalen Zufallsvektor vorstellen.
Definition 3.11. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Sei {Fn }n∈N0 eine
Familie von Teil-σ-Algebren von F mit
∀m, n ∈ N0 : m ≤ n =⇒ Fm ⊆ Fn .
Dann heißt {Fn }n≥N0 eine Filterung oder Filtration auf dem Wahrscheinlichkeitsraum mit Zeitbereich N0 .
Das Quadrupel (Ω, F, {Fn }n∈N0 , P) nennen wir dann auch einen gefilterten
Raum (mit Zeitbereich N0 ).
Definition 3.12. Sei (Ω, F, {Fn }n∈N0 , P) ein gefilterter Raum. Dann schreiben
wir
[
F∞ := σ(
Fn ) .
n∈N0
F∞ ist also die kleinste σ-Algebra, die alle Fn , n ∈ N0 , enthält.
31
3 Nachtrag zur Martingaltheorie in diskreter Zeit
Es ist nicht unüblich anzunehmen, dass F = F∞ . Wir wollen uns dies aber
noch offen lassen.
Definition 3.13. Sei X ein Prozess mit Zeitbereich N0 und sei {Fn }n∈N0 eine
Filterung.
X heißt angepasst zur Filterung {Fn }n∈N0 , falls für jedes n ∈ N0 die Zufallsvariable Xn messbar ist bezüglich Fn ;
Die Filterung modelliert den Zuwachs an Information über die Zeit. Im Folgenden sei stets ein gefilterter Raum (Ω, F, {Fn }n∈N0 , P) gegeben.
Die folgende Definition liefert zugleich das wichtigste Beispiel für eine Filterung:
Definition 3.14. Sei X ein stochastischer Prozess mit Zeitbereich N0 und sei
FnX := σ({Xm : m ≤ n})
∀n ∈ N0 .
Dann heißt {FnX }n∈N0 die von X erzeugte Filterung .
Es ist eine einfache Übung zu zeigen, dass die erzeugte Filterung tatsächlich
eine Filterung ist. Die erzeugte Filterung modelliert uns also den Zuwachs an
Information über die Zeit durch Beobachtung des Prozesses. FnX enthält alle
Informationen über X bis inklusive Zeitpunkt n.
Definition 3.15. Ein stochastischer Prozess X = (Xn )n∈N0 heißt ein Martingal
bezüglich der Filterung {Fn }n∈N0 , falls
1. X ist angepasst;
2. X ist integrierbar, das heißt E(|Xn |) < ∞ für alle n ∈ N0 ;
3. E(Xm |Fn ) = Xn für alle m ≥ n (Martingaleigenschaft).
X heißt ein Supermartingal, wenn statt 3. gilt
3’. E(Xm |Fn ) ≤ Xn für alle m ≥ n,
X heißt ein Submartingal, wenn statt 3. gilt
3”. E(Xm |Fn ) ≥ Xn für alle m ≥ n.
Proposition 3.16. Sei X ein integrierbarer angepasster Prozess, sodass X also
1. und 2. von Definition 4.6 erfüllt.
Dann ist X ein Martingal genau dann, wenn E(Xk+1 |Fk ) = Xk für alle
k ∈ N0 .
Analoge Aussagen gelten für Sub- und Supermartingale.
Beweis: Übung.
32
3.2 (Sub-, Super-)Martingale, Stoppzeiten
Beispiel 3.17. Seien X1 , X2 , . . . unabhängige Zufallsvariablen mit Erwartungswert
0. Wir definieren eine Filterung {Fn }n∈N0 durch
F0 := {∅, Ω}
Fn := σ(X1 , . . . , Xn )
∀n ∈ N.
Wir definieren einen Prozess S = (Sn )n∈N0 durch
S0 := 0
∀n ∈ N .
Sn := X1 + . . . + Xn
Dann ist S ein Martingal bezüglich {Fn }n∈N0 .
Beweis: Wir müssen die Eigenschaften 1-3 der Definition eines Martingals
zeigen.
1. Es ist mit der Dreiecksungleichung
E(|Sn |) = E(|X1 + . . . + Xn |) ≤ E(|X1 |) + . . . + E(|Xn |) < ∞ .
2. Jedes der X1 , . . . , Xn ist Fn -messbar und damit auch die Summe.
3. E(Sn+1 |Fn ) = E(Sn + Xn+1 |Fn ) = E(Sn |Fn ) + E(Xn+1 |Fn ), laut Proposition
3.8, Punkt 1.
Laut Proposition 3.6 ist E(Sn |Fn ) = Sn f.s. Laut Proposition 3.9 wiederum
ist E(Xn+1 |Fn ) = E(Xn+1 ) = 0 f.s. Damit gilt aber insgesamt E(Sn+1 |Fn ) = Sn
f.s.
Beispiel 3.18. Seien Y1 , Y2 , . . . unabhängige, nicht-negative Zufallsvariablen
mit Erwartungswert 1. Wir definieren eine Filterung {Fn }n∈N0 durch
F0 := {∅, Ω}
Fn := σ(Y1 , . . . , Yn ) ∀n ∈ N.
Wir definieren einen Prozess P = (Pn )n∈N0 durch
P0 := 1
Pn := Y1 · . . . · Yn
∀n ∈ N .
Dann ist P ein Martingal bezüglich {Fn }n∈N0 .
Beweis: 1. Es ist, da die Yi unabhängig sind
E(|Pn |) = E(Pn ) = E(Y1 · . . . · Yn ) = E(Y1 ) · . . . · E(Yn ) < ∞ .
2. Jedes der Y1 , . . . , Yn ist Fn -messbar und damit auch das Produkt.
3. E(Pn+1 |Fn ) = E(Pn Yn+1 |Fn ) = Pn · E(Yn+1 |Fn ), laut Proposition 3.8, Punkt
2.
Laut Proposition 3.9 wiederum ist E(Yn+1 |Fn ) = E(Yn+1 ) = 1 f.s. Damit gilt
aber insgesamt E(Pn+1 |Fn ) = Pn f.s.
33
3 Nachtrag zur Martingaltheorie in diskreter Zeit
Beispiel 3.19. Sei Z eine Zufallsvariable mit endlichem Erwartungswert und
sei {Fn }n∈N0 eine beliebige Filterung.
Wir definieren einen reell-wertigen Prozess M = (Mn )n∈N0 durch
Mn := E(Z|Fn ) .
Dann ist M ein Martingal bezüglich {Fn }n∈N0 .
Beweis: Eigenschaften 1. und 2. sind trivial.
3. Sei m ≥ n. E(Mm |Fn ) = E(E(Z|Fm )|Fn ) = E(Z|Fn ) = Mn , nach Proposition 3.8, Punkt 3.
Definition 3.20. Sei (Ω, F, {Fn }n∈N0 , P) ein gefilterter Raum. Eine Zufallsvariable T : Ω −→ N0 heißt eine Stoppzeit, falls {T ≤ n} ∈ Fn für alle n ∈ N0 .
Eine Stoppzeit ist also eine zufällige Zeit mit der Eigenschaft, dass man aufgrund der Information, die zum Zeitpunkt n zur Verfügung steht, feststellen
kann, ob T bereits eingetreten ist oder nicht.
Proposition 3.21. Sei T eine Stoppzeit. Dann ist das Mengensystem
{A ∈ F : A ∩ {T ≤ n} ∈ Fn für alle n ≥ 0}
eine σ-Algebra.
Beweis: Übung 1.
Definition 3.22. Für eine Stoppzeit T definieren wir.
FT := {A ∈ F∞ : A ∩ {T ≤ n} ∈ Fn für alle n ≥ 0} .
FT heißt die σ-Algebra der Ereignisse vor T .
Beispiel 3.23. Sei T = ∞. Dann ist FT = F∞ , wobei mit F∞ die σ-Algebra
aus Definition 4.3 gemeint ist. Die beiden Schreibweisen kollidieren also nicht.
Für T = m ist
{A ∈ F∞ : A ∩ {m ≤ n} ∈ Fn für alle n ≥ 0} = Fm ,
sodass auch hier kein Notationskonflikt entsteht.
Bemerkung 3.24. Im Fall eines diskreten Zeitbereichs ist eine N0 -wertige
Zufallsvariable T genau dann eine Stoppzeit, wenn
{T = n} ∈ Fn
für alle n ≥ 0 ,
S
da {T ≤ n} = nk=0 {T = k} und {T = n} = {T ≤ n}\{T ≤ n − 1}. Das macht
Stoppzeiten in diskreter Zeit viel einfacher handhabbar als in stetiger Zeit.
34
3.2 (Sub-, Super-)Martingale, Stoppzeiten
Proposition 3.25. Sei X = (Xn )n≥0 ein angepasster Prozess und sei B eine
Borel-messbare Teilmenge von R. Dann ist
TB := inf{n ≥ 0 : Xn ∈ B}
eine Stoppzeit.
Beweis: Übung.
Definition 3.26. Ist X = (Xn )n≥0 ein stochastischer Prozess und T eine
Stoppzeit, so definieren wir den bei T gestoppten Prozess X T durch
XnT := XT ∧n .
Das heißt XnT (ω) = XT (ω)∧n (ω) für jedes ω ∈ Ω (für zwei reelle oder ganze
Zahlen a, b sei a ∧ b := min(a, b)).
Außerdem können wir überall dort, wo T < ∞ ist, die Zahl XT (ω) (ω) betrachten, den Prozess X zur Zeit T .
Proposition 3.27. Seien S, T Stoppzeiten, X = (Xn )n≥0 ein angepasster
Prozess. Dann gelten
(a) S ∧ T ist ein Stoppzeit;
(b) ist S ≤ T , so ist FS ⊆ FT ;
(c) XT 1{T <∞} ist eine FT -messbare Zufallsvariable;
(d) X T ist ein angepasster Prozess;
(e) ist X integrierbar, so auch X T .
Beweis: (a) Es ist {S ∧ T ≤ n} = {S ≤ n} ∪ {T ≤ n} ∈ Fn .
(b) Es ist A ∈ FS genau dann, wenn A ∩ {S ≤ n} ∈ Fn für alle n. Da aber
{T ≤ n} ⊆ {S ≤ n} ist
A ∩ {T ≤ n} = A ∩ {S ≤ n} ∩ {T ≤ n} ∈ Fn .
|
{z
} | {z }
∈Fn
∈Fn
(c) Sei B eine Borelmenge in R .
{XT 1{T <∞} ∈ B} ∩ {T ≤ n} = {XT ∈ B} ∩ {T ≤ n}
n
[
= {XT ∈ B} ∩
{T = k}
k=0
=
=
n
[
({XT ∈ B} ∩ {T = k})
k=0
n
[
k=0
({Xk ∈ B} ∩ {T = k}) ∈ Fn .
|
{z
}
∈Fk
35
3 Nachtrag zur Martingaltheorie in diskreter Zeit
(d) XnT = XT ∧n ist Fn -messbar laut (c), da T ∧ n laut (a) eine Stoppzeit ist,
und FT ∧n ⊆ Fn wegen (b). P
P
n−1
E(|Xk | 1{T =k} )+E(|Xn | 1{T ≥n} ) ≤ nk=0 E(|Xk |).
(e) E(|XnT |) = E(|XT ∧n |) = k=0
Proposition 3.28. Seien X, Z zwei Zufallsvariablen mit endlichem Erwartungswert und G eine Teil-σ-Algebra von F. Gilt E(X − Z|G) ≥ 0 und ist Z
messbar bezüglich G, so ist E(X|G) ≥ Z f.s..
Beweis: Trivial.
Satz 3.29 (Optional Stopping Theorem, OST). Sei X = (Xn )n≥0 ein integrierbarer angepasster Prozess. Dann sind folgende Aussagen äquivalent:
(a) X ist ein Supermartingal;
(b) für jede beschränkte Stoppzeit T und jede beliebige Stoppzeit S gilt
E(XT |FS ) ≤ XS∧T
f.s.;
(c) für jede Stoppzeit T ist X T ein Supermartingal;
(d) für beschränkte Stoppzeiten S und T mit S ≤ T gilt
E(XT ) ≤ E(XS ) .
Beweis: (c) ⇒ (a): trivial.
(b) ⇒ (d): trivial.
(b) ⇒ (c):
(b)
T
E(Xn+1
|Fn ) = E(XT ∧(n+1) |Fn ) ≤ X(T ∧(n+1))∧n = XT ∧n = XnT .
Es bleiben also noch (a) ⇒ (b) und (d) ⇒ (a) zu zeigen.
(a) ⇒ (b): Für S ≥ 0 und T ≤ n gilt
X
XT = XS∧T +
(Xk+1 − Xk )
= XS∧T +
S≤k<T
n
X
(Xk+1 − Xk )1{S≤k<T } .
(3.1)
(3.2)
k=0
1S≤k<T = 1{S≤k} 1{T ≤k}c ist Fk -messbar, da S, T Stoppzeiten sind.
Ist nun A ∈ FS , sodass A ∩ {S ≤ k} ∈ Fk für alle k, dann gilt A ∩ {S ≤
k} ∩ {T > k} ∈ Fk . Ist X ein Supermartingal, so gilt daher
E((Xk+1 − Xk )1A∩{S≤k<T } ) ≤ 0 ,
und damit E(XT 1A − XS∧T 1A ) ≤ 0. Das heißt aber, da A ∈ FS beliebig war,
E(XT − XS∧T |FS ) ≤ 0 f.s. und, da XS∧T messbar ist bezüglich FS (Proposition
36
3.3 Martingaltransformation, Konvergenzsätze
3.27), E(XT |FS ) ≤ XS∧T f.s. wegen Proposition 3.28.
(d) ⇒ (a) Sei n ≥ 0 und sei A ∈ Fn . Setze S := n1A + (n + 1)1Ac . Dann ist
S eine beschränkte Stoppzeit. T := (n + 1) ist trivialerweise eine beschränkte
Stoppzeit und S ≤ T . Es gelten daher
E(XS ) = E(Xn 1A + Xn+1 1Ac )
= E(Xn 1A ) + E(Xn+1 1Ac )
und E(XT ) = E(Xn+1 1A ) + E(Xn+1 1Ac ) ,
(3.3)
(3.4)
(3.5)
sodass wegen E(XT ) ≤ E(XS ) folgt E(Xn+1 1A ) ≤ E(Xn 1A ). Da A ∈ Fn beliebig
war, gilt also E(Xn+1 − Xn |Fn ) ≤ 0 f.s., das heißt E(Xn+1 |Fn ) ≤ Xn .
3.3 Martingaltransformation, Konvergenzsätze
Definition 3.30.
• Ein stochastischer Prozess C = (Cn )n≥1 heißt vorhersagbar, falls Cn+1 Fn -messbar ist für jedes n ≥ 0.
• Ist X ein angepasster Prozess und C ein vorhersagbarer Prozess, so definieren wir die Martingaltransformation von X unter C als den Prozess
C • X,
n
X
(C • X)n :=
Ck (Xk − Xk−1 ) .
k=1
Proposition 3.31. Seien X ein angepasster Prozess und C ein vorhersagbarer
Prozess. Dann gelten:
(a) ist X ein Sub-/Supermartingal, C nicht-negativ und beschränkt, so ist
C • X ein Sub-/Supermartingal;
(b) ist X ein Martingal und C beschränkt, so ist C • X ein Martingal.
Beweis: Übung.
Sei nun X ein Supermartingal. Wir betrachten folgende Strategie:
wähle reelle Zahlen a < b
1. Warte, bis X kleiner als a ist;
2. setze EUR 1 auf X solange X kleiner oder gleich b ist, und hör
dann auf zu spielen;
3. gehe zurück zu 1.).
Idee: Wenn X das Intervall [a, b] ∞-oft von unten nach oben durchkreuzt, dann
geht der Gewinn unter dieser Strategie gegen ∞. Siehe Abbildung 3.1.
Die formale Darstellung dieser Strategie sieht so aus:
Ĉ1 := 1{X0 <a}
(3.6)
Ĉn := 1{Ĉn−1 =1} 1{Xn−1 ≤b} + 1{Ĉn−1 =0} 1{Xn−1 <a}
(3.7)
37
3 Nachtrag zur Martingaltheorie in diskreter Zeit
b
a
(XN − a)−
0
Abbildung 3.1: Je ein Pfad von X und C • X
Offenbar ist Ĉ vorhersagbar und beschränkt. Somit ist Ŷ := Ĉ • X ein Supermartingal laut Proposition 3.31.
Definition 3.32. Wir definieren UN [a, b](ω), die Zahl der Upcrossings von
X(ω) durch [a, b] als das größte k ∈ N0 mit
∃ 0 ≤ s1 < t1 < s2 < t2 < . . . < sk < tk ≤ N
mit
Xsi (ω) < a ,
Xti (ω) > b (∀1 ≤ i ≤ k) .
Es folgt für Ŷ die Ungleichung
ŶN (ω) ≥ (b − a)UN [a, b](ω) − (XN − a)− .
38
3.3 Martingaltransformation, Konvergenzsätze
Lemma 3.33 (Doob’s Upcrossing Lemma). Sei X ein Supermartingal. Dann
gilt
(b − a)E(UN [a, b]) ≤ E((XN − a)− ) .
Beweis: Sei Ŷ wie vorher. Wie bereits erwähnt ist Ŷ ein Supermartingal.
Ausserdem gilt Ŷ0 = 0, sodass E(YN ) ≤ E(Y0 ) = 0 . Damit ist aber
0 ≥ E((b − a)UN [a, b] − (XN − a)− ) ,
woraus die Behauptung folgt.
Korollar 3.34. Sei X ein Supermartingal, welches beschränkt ist in L1 , das
heißt
sup E(|Xn |) < ∞ .
n≥0
Seien a, b ∈ R mit a < b. Dann gilt, mit U∞ [a, b] := limN →∞ UN [a, b],
(b − a)E(U∞ [a, b]) ≤ |a| + sup E(|Xn |) < ∞ ,
n≥0
sodass P(U∞ [a, b] = ∞) = 0 .
Beweis: Für alle N ≥ 0 gilt
0 ≤ (b − a)E(UN [a, b]) ≤ E((XN − a)− )
≤ |a| + E(|XN |)
≤ |a| + sup E(|XM |) .
(3.8)
(3.9)
(3.10)
M ≥0
Mit dem Satz von der Monotonen Konvergenz folgt
0 ≤ (b − a)E(U∞ [a, b]) ≤ |a| + sup E(|XM |) < ∞ .
M ≥0
Satz 3.35 (Doob’s Satz von der Vorwärts-Konvergenz). Sei X ein Supermartingal, beschränkt in L1 . Definiere X∞ := lim inf n Xn . Dann gilt:
S
X∞ ist F∞ = σ( n≥0 Fn )-messbar, limn Xn = X∞ fast sicher und X∞ ∈ R
fast sicher.
Beweis: Definiere
n
o
Λ :=
ω : (Xn (ω))n≥0 konvergiert nicht in [−∞, ∞]
(3.11)
=
ω : lim inf Xn (ω) < lim sup Xn (ω)
(3.12)
n
n
[ =
ω : lim inf Xn (ω) < a < b < lim sup Xn (ω) . (3.13)
n
n
a,b∈Q, a<b |
{z
}
=: Λa,b
39
3 Nachtrag zur Martingaltheorie in diskreter Zeit
Nun ist aber
Λa,b ⊆ {ω : U∞ [a, b](ω) = ∞} ,
sodass P(Λa,b ) = 0. Wir haben somit Λ als abzählbare Vereinigung von Mengen
vom Maß 0 geschrieben. Damit gilt
P(Λ) = 0 .
Daraus folgt, dass der – eventuell uneigentliche – Grenzwert limn Xn fast sicher
existiert, und fast sicher mit X∞ übereinstimmt.
Nach dem Lemma von Fatou gilt
E(|X∞ |) = E(lim inf |Xn |)
n
≤ lim inf E(|Xn |)
n
≤ sup E(|Xn |) < ∞ .
Damit ist X∞ ∈ (−∞, ∞) fast sicher.
Korollar 3.36. Ist X ein nicht-negatives Supermartingal, dann existiert X∞ =
limn Xn fast sicher in R.
Beweis: Übung.
Lemma 3.37. Sei M ein Martingal mit E(Mn2 ) < ∞ für alle n ≥ 0.
Dann gelten für alle s ≤ t ≤ v ≤ u
E ((Mt − Ms )(Mu − Mv )) = 0 ,
und E (M0 (Mu − Mv )) = 0, sodass mit
Mn = M 0 +
n
X
(Mk − Mk−1 )
k=1
Mn als Summe othogonaler Elemente in L2 dargestellt wird. Somit gilt mit dem
Satz von Pythagoras
E(Mn2 )
=
E(M02 )
+
n
X
E (Mk − Mk−1 )2 .
k=1
Beweis: Mit der Martingaleigenschaft und den elementaren Eigenschaften der
bedingten Erwartung gilt für s ≤ t ≤ u ≤ v
E ((Mt − Ms )(Mu − Mv )) = E (E ((Mt − Ms )(Mu − Mv )|Fv ))
= E (Mt − Ms )E (Mu − Mv |Fv ) = 0 .
|
{z
}
= 0 f.s.
Der Rest ist eine einfache Übung.
40
3.3 Martingaltransformation, Konvergenzsätze
Satz 3.38 (L2 -Konvergenz von Martingalen). Sei M ein Martingal mit Mn ∈
L2 für alle n ≥ 0.
M ist beschränkt in L2 genau dann, wenn
∞
X
E (Mk − Mk−1 )2 < ∞ .
k=1
In diesem Fall gilt limn Mn = M∞ fast sicher und in L2 .
Beweis: Der erste Teil des Satzes ist eine triviale Folgerung aus Lemma 3.37.
Wir beweisen die Aussage über die Konvergenz.
M ist beschränkt in L2 und somit auch in L1 , da E(|Mn |) ≤ E(|Mn |2 )1/2 .
Laut Satz 3.35 konvergiert Mn −→ M∞ fast sicher. Nach Lemma 3.37 gilt
n+r
X
E (Mn+r − Mn )2 =
E (Mk − Mk−1 )2 .
k=n+1
Wir wenden das Lemma von Fatou an:
E (M∞ − Mn )2 = E lim inf (Mn+r − Mn )2
r
≤ lim inf E (Mn+r − Mn )2
r
= lim inf
r
=
∞
X
n+r
X
E (Mk − Mk−1 )2
k=n+1
E (Mk − Mk−1 )2 .
k=n+1
P∞
)2
< ∞ ist, strebt der letzte Ausdruck gegen 0
Da aber k=1 E (Mk − Mk−1
wenn n gegen ∞ geht. Somit ist auch die L2 -Konvergenz gezeigt.
Schreibweise: Für eine Zufallsvariable X und eine messbare Menge A verwenden
wir im Folgenden auch die Schreibweise
E(X; A) := E(X1A ) .
Definition 3.39. Eine Familie X von Zufallsvariablen heißt gleichmäßig integrierbar (uniformly integrable, U.I.), falls
∀ε > 0 ∃K ≥ 0 ∀X ∈ X : E(|X|; |X| > K) < ε .
Beispiele:
1. Sei X1 := (Xn )n≥1 mit Xn : [0, 1] −→ R,
n für x ∈ [0, 1/n],
Xn (x) :=
0 sonst .
Für jedes n ≥ 1 gilt E(|Xn |) = E(Xn ) = 1. Aber für ε = 1 gibt es für
jedes K ≥ 0 ein n, nämlich etwa n = bKc + 1 mit
E(|Xn |); |Xn | > K) = E(|Xn |; [0, 1/n]) = 1 .
Also ist X1 nicht U.I.
41
3 Nachtrag zur Martingaltheorie in diskreter Zeit
2. Sei X2 := (Xn )n≥1 und es gebe eine Zufallsvariable Y ≥ 0 mit E(Y ) < ∞
und |Xn | ≤ Y für alle n ≥ 1.
Dann ist für beliebiges K ≥ 0
E(|Xn | ; |Xn | > K) ≤ E(Y ; Y > K) .
Es ist
E(Y ) =
∞
X
E(Y ; k ≤ Y < k + 1) < ∞ ,
k=0
sodass
E(Y ; Y > K) ≤
∞
X
E(Y ; k ≤ Y < k + 1) .
k=bKc
Der letzte Ausdruck wird beliebig klein wenn K hinreichend groß wird.
Somit gibt es zu gegebenem ε > 0 stets ein K mit
∞
X
E(|Xn | ; |Xn | > K) ≤ E(Y ; Y > K) ≤
E(Y ; k ≤ Y < k + 1) < ε .
k=bKc
Die Familie X2 ist also U.I.
3. Sei X3 = {X}, X eine Zufallsvariable. X ist genau dann integrierbar,
wenn X3 gleichmäßig integrierbar ist:
• Sei X integrierbar. Das heißt E(|X|) < ∞, die Familie wird von |X|
dominiert und wir erhalten mit dem letzten Beispiel die Behauptung.
• Sei X3 U.I. Dann gilt ∀ε > 0 : ∃K : E(|X|; |X| > K) < ε
ε > E(|X| ; |X| > K) ≥
∞
X
E(|X| ; k ≤ |X| < k + 1) ,
k=bKc+1
sodass
E(|X|) =
∞
X
E(|X| ; k ≤ |X| < k + 1) < ∞ .
k=0
Das vierte Beispiel ist wichtig genug, um in Form eines Lemmas präsentiert
zu werden:
Lemma 3.40. Sei X ∈ L1 (Ω, F, P) und C eine Klasse von Teil-σ-Algebren von
F. Dann ist die Familie
(E(X|G))G∈C
gleichmäßig integrierbar.
Zum Beweis benötigen wir noch ein weiteres Lemma:
Lemma 3.41. Sei X ∈ L1 . Dann gibt es für jedes ε > 0 ein δ > 0 derart, dass
F ∈ F, P(F ) < δ =⇒ E(|X| ; F ) < ε .
42
3.3 Martingaltransformation, Konvergenzsätze
Beweis: Angenommen, das wäre nicht der Fall. Dann gibt es ein ε0 > 0 derart,
dass für alle n ≥ 1 es ein Fn ∈ F gibt mit
1
und E(|X| ; Fn ) ≥ ε0 .
2n
P
Sei nun H := lim supn Fn . Es ist ∞
n=1 P(Fn ) < ∞ und daher nach dem ersten
Borel-Cantelli-Lemma (siehe etwa [LP, Lemma 2.4]) P(H) = 0.
Aber nach dem umgekehrten Lemma von Fatou (siehe etwa [LP, Lemma
4.6])gilt
P(Fn ) <
E(|X| ; H) = E(|X|1lim supn Fn )
≥ lim sup E(|X|1Fn ) ≥ ε0 ,
n
ein Widerspruch.
Beweis von Lemma 3.40: Sei ε > 0. Nach Lemma 3.41 gibt es ein δ > 0
derart, dass
F ∈ F, P(F ) < δ =⇒ E(|X| ; F ) < ε .
Wähle nun K > 0 so, dass E(|X|) < δK.
Sei nun G ∈ C und sei Y := E(X|G) f.s. Wegen der Jensen’schen Ungleichung
in der bedingten Form (siehe [Wil91, Section 9.2]) gilt
|Y | ≤ E(|X| G) f.s.
(3.14)
Somit gilt E(|Y |) ≤ E(|X|) und daher
KP(|Y | > K) ≤ E(|Y |) ≤ E(|X|) ,
sodass P(|Y | > K) < δ. Aber {|Y | > K} ∈ G, sodass mit Ungleichung (3.14)
E(|Y | ; |Y | > K) ≤ E E(|X| G) ; |Y | > K = E(|X| ; |Y | > K) .
Da P(|Y | > K) < δ folgt E(|X| ; |Y | > K) < ε, und daher
E(|Y | ; |Y | > K) < ε .
Der folgende Satz ist eine Verallgemeinerug des Satzes von der beschränkten
bzw dominierten Konvergenz.
Satz 3.42. Sei (Xn )n≥1 gleichmäßig integrierbar und X ∈ L1 mit Xn −→ X
f.s.
Dann gilt Xn −→ X in L1 .
Beweis: (Xn )n≥1 ist U.I. und X ist integrierbar, somit ist die Folge (Xn −
X)n≥1 U.I.
Sei ε > 0. Es gibt ein K > 0 mit
E(|Xn − X| ; |Xn − X| > K) <
ε
.
2
43
3 Nachtrag zur Martingaltheorie in diskreter Zeit
Defniere für y ∈ R


K für y > K
y für |y| ≤ K
ϕ(y) :=

−K für y < −K
Offenbar gilt yn −→ 0 ⇐⇒ ϕ(yn ) −→ 0, sodass
|ϕ(Xn − X)| → 0
und
|ϕ(Xn − X)|
≤
f.s.
K.
Aus dem Satz über beschränkte Konvergenz (siehe etwa [LP, Satz 4.22]) folgt
E(|ϕ(Xn − X)|) −→ 0. Damit gibt es ein n0 ≥ 1 so, dass für alle n ≥ n0
E(|ϕ(Xn − X)|) <
ε
.
2
Insgesamt gilt also
E(|Xn − X|) = E(|ϕ(Xn − X)| ; |Xn − X| ≤ K)
+E(|Xn − X| ; |Xn − X| > K)
ε
< E(|ϕ(Xn − X)|) + < ε
2
für alle n ≥ n0 , womit die Behauptung gezeigt ist.
Satz 3.43 (Lévy’s Satz von der Rückwärts-Konvergenz). Sei (G−n )n≥1 eine
Familie von Teil-σ-Algebren von F mit
\
G−∞ :=
G−k ⊆ . . . ⊆ G−(n+1) ⊆ G−n ⊆ . . . ⊆ G−1 .
k≥1
Sei γ ∈ L1 (Ω, F, P) und definiere
M−n := E(γ|G−n )
für alle n .
Dann existiert M−∞ := limn M−n f.s. und in L1 und
M−∞ = E(γ|G−∞ ) f.s.
Beweis: Der Prozess (Mk )−1
k=−N ist ein Martingal bezüglich der Filterung
{Gk }−1
für
jedes
N
≥
1.
Nach
Doob’s Upcrossing Lemma (Lemma 3.33) gilt
k=−N
(b − a)E(U−N [a, b]) ≤ E((M1 − a)− ) ≤ |a| + E(|M−1 |) ≤ |a| + E(|γ|) .
Mit dem Satz von der monotonen Konvergenz folgt
(b − a)E(U−∞ [a, b]) = lim (b − a)E(U−N [a, b]) ≤ |a| + E(|γ|) .
N →∞
Wie in Doob’s Vorwärts-Konvergenz Satz 3.35 folgt nun, dass
lim M−N =: M−∞ f.s.
n→∞
44
3.3 Martingaltransformation, Konvergenzsätze
Wie dort folgt mit dem Lemma von Fatou [LP, Lemma 4.5] und der bedingten
Version der Jensen’schen Ungleichung
E(|M−∞ |) ≤ lim inf E(|Mn |) ≤ E(|γ|) < ∞ ,
n
sodass M∞ ∈ (−∞, ∞) f.s. und E(|M−∞ |) < ∞. Da die Familie (M−n )n≥1 nach
Lemma 3.40 U.I. ist folgt aus Satz 3.42 limn E(|M−n − M−∞ |) = 0.
Sei nun G ∈ G−∞ ⊆ G−k . Dann ist
E(γ ; G) = E(Mk ; G)
und daher mit der L1 -Konvergenz von M−n
E(M−∞ ; G) = lim E(Mk ; G) = E(γ ; G) .
k→∞
Das heißt aber M−∞ = E(γ | G−∞ ) f.s.
Bemerkung 3.44. Satz 3.43 wirkt auf den ersten Blick etwas artifiziell. Man
sollte aber folgendes im Auge haben:
Sei (Xt )t≥0 ein Martingal in stetiger Zeit. Sei t ≥ 0 und sei (sn )n≥1 eine Folge
mit sn > t für alle n und sn ↓ t. Definiere G−n := Fsn für jedes n. Mit unserer
Bezeichnung von vorher gilt dann
M−n := E(Xs1 | G−n ) = E(Xs1 | Fsn ) = Xsn f.s.
Mit Satz 3.43 gilt nun
\
\
lim M−n = M−∞ = E(Xs1 G−n ) = E(Xs1 Fs ).
n
s>t
n≥1
Gilt nun zusätzlich Ft =
T
s>t Fs ,
so ist
Xt = E(Xs1 |Ft ) = M−∞ = lim Xsn f.s.
n
Das heißt wir haben hier eine Art Rechtsstetigkeit“ 1 .
”
Ähnliches bekommt man mit dem Vorwärts-Konvergenz-Satz, nämlich links”
seitige Limiten“.
Aus genau diesem Grund ist auch eine Submartingal-Version des Satzes von
der Rückwärts-Konvergenz interessant:
Satz 3.45. Sei X = (Xn )n≤−1 ein Submartingal bezüglich (Gn )n≤−1 und sei
limn→−∞ E(Xn ) = µ > −∞.
Dann existiert limn→−∞ Xn f.s. und in L1 .
1
Rechtsstetigkeit steht hier unter Anführungszeichen weil wir unter der richtigen
Rechtsstetigkeit die pfadweise verstehen wollen.
45
3 Nachtrag zur Martingaltheorie in diskreter Zeit
Beweis: Wegen Doob’s Upcrossing Lemma, Lemma 3.33, existiert limn→−∞ Xn
f.s. wie im Beweis von Satz 3.43. Definiere X−∞ := lim inf n→−∞ Xn .
P
Definiere weiters A−k := ∞
l=k E(X−l −X−l−1 |G−l−1 ). Da X ein Submartingal
ist, sind die Summanden f.s. nicht-negativ und somitPexistiert A−k in [0, ∞].
Weiters ist wegen monotoner Konvergenz E(A−k ) = ∞
l=k E(X−l − X−l−1 ) =
E(X−k ) − µ, sodass E(A−k ) < ∞ und somit A−k < ∞ f.s..
A ist offenbar vorhersagbar, und da A−k+1 −A−k = E(X−k+1 −X−k |G−k ) ≥ 0
f.s., ist A f.s. monoton steigend.
Definiere Mn := Xn − An . Dann ist M ein Martingal da
E(M−k+1 − M−k |G−k ) = E(X−k+1 − X−k |G−k ) − E(A−k+1 − A−k |G−k )
= E(X−k+1 − X−k |G−k ) − (A−k+1 − A−k ) = 0 .
Da (An )n≤−1 durch A−1 dominiert wird, gilt An → 0 f.s. und in L1 für n →
−∞. Da limn→−∞ Mn f.s. und in L1 wegen Lévy’s Satz von der RückwärtsKonvergenz, Satz 3.43, ist die Behauptung gezeigt.
3.4 Zwei Doob Ungleichungen
Die folgenden Theoreme sind allgemein für Submartingale formuliert, sie gelten
damit aber insbesondere auch für Martingale.
Satz 3.46 (Doob’s Submartingal-Ungleichung). Sei Z ein nicht-negatives Submartingal. Dann gilt für c > 0
c P( sup Zk ≥ c) ≤ E(Zn ; sup Zk ≥ c) ≤ E(Zn ) .
1≤k≤n
1≤k≤n
Beweis: Sei F := {sup1≤k≤n Zk ≥ c}. Schreibe F als disjunkte Vereinigung
F = F0 ∪ F1 ∪ . . . ∪ Fn ,
wobei
F0 := {Z0 ≥ c} ,
(3.15)
Fk := {Zk ≥ c und Zj < c für 1 ≤ j < k} ,
1 ≤ k ≤ n.
(3.16)
Offenbar ist Fk ∈ Fk für alle k und Zk ≥ c auf Fk . Somit ist wegen der
Submartingaleigenschaft
E(Zn ; Fk ) ≥ E(Zk ; Fk ) ≥ c P(Fk ) ,
und durch aufsummieren nach k
E(Zn ; F ) ≥ c
n
X
k=0
46
P(Fk ) = c P(F ) .
3.4 Zwei Doob Ungleichungen
Definition 3.47. Sei p ≥ 1 und eine X Zufallsvariable mit E(|X|p ) < ∞. Wir
schreiben auch
X ∈ Lp := {Y : E(|Y |p ) < ∞} .
Die sogenannte p-Norm2 ist dann definiert durch kXkp := E(|X|p )1/p .
Satz 3.48 (Doob’s Lp -Ungleichung). Sei Z = (Zn )n≥0 ein Submartingal mit
Zn ∈ Lp (Ω, F, P) für alle n. Dann gilt
k sup |Zk | kp ≤ qkZn kp ,
0≤k≤n
wo
1
p
+
1
q
= 1.
Zum Beweis benötigen wir das folgende Lemma:
Lemma 3.49. Seien p > 1 und X, Y ∈ Lp (Ω, F, P) beide nicht-negativ mit
c P(X ≥ c) ≤ E(Y ; X ≥ c)
Dann gilt kXkp ≤ q kY kp , wo
1
p
+
1
q
für alle c ≥ 0.
= 1.
Beweis: Mit dem Satz von Fubini berechnen wir
Z ∞
Z ∞Z
pcp−1 P(X ≥ c)dc
=
pcp−1 1{X≥c} dP dc
0
Ω
Z0 Z ∞
Fubini
=
pcp−1 1{X≥c} dc dP
ZΩ 0
=
X p dP = E(X p )
(3.17)
(3.18)
(3.19)
Ω
und
Z
∞
pcp−2 E(Y ; X ≥ c)dc
Z
∞Z
=
0
0
Fubini
Z Z
=
Ω
(3.20)
pcp−2 1{X≥c} Y dc dP
(3.21)
Ω
∞
=
ZΩ
pcp−2 1{X≥c} Y dP dc
0
p
X p−1 Y dP = q E(X p−1 Y )(3.22)
.
p−1
Somit erhalten wir aus c P(X ≥ c) ≤ E(Y ; X ≥ c) ∀ c ≥ 0
E(X p ) ≤ q E(X p−1 Y ) .
Mit der Hölder-Ungleichung bekommen wir
E(X p−1 Y ) ≤ E(X (p−1)q )1/q E(Y p )1/p = E(X p )1/q E(Y p )1/p ,
sodass kXkp = E(X p )1−1/q ≤ qkY kp .
Beweis von Satz 3.48: Nach Satz 3.46 gilt
c P( sup |Zk | ≥ c) ≤ E(|Zn | ; sup |Zk | ≥ c) ,
1≤k≤n
1≤k≤n
sodass mit Lemma 3.49 die Behauptung folgt.
2
Hier ist k.kp eigentlich nur eine Halbnorm. Wir sagen trotzdem Norm“.
”
47
3 Nachtrag zur Martingaltheorie in diskreter Zeit
3.5 Übungsaufgaben
1. Sei T eine Stoppzeit. Definiere
FT := {A ∈ F : A ∩ {T ≤ n} ∈ Fn , ∀n ≥ 0} .
Dann gelten
a) FT ist eine σ-Algebra;
b) Ist T = n, so stimmt FT mit der n-ten σ-Algebra der Filterung
überein.
2. Seien X1 , X2 i.i.d. Zufallsvariablen, P(Xk = 1) =
S0 := 0, S1 := X1 , S2 := X1 + X2 .
1
2
= P(Xk = −1) und
Sei weiters T die Stoppzeit T := inf{k : Sk = 1}. Bestimmen Sie σ(T )
und FT .
3. (Doob-Zerlegung) Sei X = (Xn )n≥0 ein integrierbarer angepasster
Prozess. Dann kann X geschrieben werden als
Xn = X0 + Mn + An ,
wo M = (Mn )n≥0 ein Martingal mit M0 = 0 und A = (An )n≥1 ein
vorhersagbarer Prozess ist.
Hinweis: Definiere An := An−1 + E(Xn − Xn−1 |Fn−1 ).
4. Sei X ein angepasster Prozess, X = X0 + M + A seine Doob-Zerlegung.
Dann gelten
a) X ist ein Supermartingal genau dann, wenn A monoton fallend ist,
das heißt An ≥ An+1 f.s. ∀n;
b) X ist in Submartingal genau dann, wenn A monoton steigend ist,
das heißt An ≤ An+1 f.s. ∀n.
5. Seien Y1 , Y2 , . . . unabhängig mit P(Yk = 1) = P(Yk = −1) =
Sn := Y1 + . . . + Yn . Was ist die Doob-Zerlegung von S?
48
1
2
und sei
4 Stochastische Prozesse in stetiger
Zeit
4.1 Definitionen
Wir befassen uns nun mit stochastischen Prozessen, deren Zeitbereich [0, ∞) ist.
Der Zeitbereich ist also überabzählbar, was es bei einigen Aussagen des Kapitels 3.2 verhindert, deren Beweis direkt auf diesen Zeitbereich zu übertragen.
Hingegen sind die dortigen Definitionen auch in diesem Kontext sinnvoll. Wir
fassen sie noch einmal zusammen:
Definition 4.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum.
(a) Unter einem (stochastischen) Prozess X auf (Ω, F, P) mit Zeitbereich
[0, ∞) verstehen wir eine Abbildung
X : [0, ∞) × Ω −→ R
derart, dass für jedes t ∈ [0, ∞) die Abbildung X(t, .) : Ω −→ R messbar
ist, also eine Zufallsvariable. Wir schreiben auch Xt für X(t, .);
(b) Für ein ω ∈ Ω nennen wir die Abbildung
[0, ∞) −→
R
t
7−→ Xt (ω) (t ∈ [0, ∞))
einen Pfad von X.
Definition 4.2. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Sei {Ft }t∈[0,∞) eine
Familie von Teil-σ-Algebren von F mit
∀s, t ∈ [0, ∞) : s ≤ t =⇒ Fs ⊆ Ft .
Dann heißt {Ft }t≥[0,∞) eine Filterung oder Filtration auf dem Wahrscheinlichkeitsraum mit Zeitbereich [0, ∞).
Das Quadrupel (Ω, F, {Ft }t∈[0,∞) , P) nennen wir dann auch einen gefilterten
Raum (mit Zeitbereich [0, ∞)).
Definition 4.3. Sei (Ω, F, {Ft }t∈[0,∞) , P) ein gefilterter Raum. Dann schreiben
wir
[
F∞ := σ(
Ft ) .
t∈[0,∞)
F∞ ist also die kleinste σ-Algebra, die alle Ft , t ∈ [0, ∞), enthält.
49
4 Stochastische Prozesse in stetiger Zeit
Definition 4.4. Sei X ein Prozess mit Zeitbereich [0, ∞) und sei {Ft }t∈[0,∞)
eine Filterung.
X heißt angepasst zur Filterung {Ft }t∈[0,∞) , falls für jedes t ∈ [0, ∞) die
Zufallsvariable Xt messbar ist bezüglich Ft ;
Im Folgenden sei stets ein gefilterter Raum (Ω, F, {Ft }t∈[0,∞) , P) gegeben.
Wir wiederholen ein bekanntes Beispiel für eine Filterung:
Definition 4.5. Sei X ein stochastischer Prozess mit Zeitbereich [0, ∞) und
sei
FtX := σ({Xs : s ≤ t}) ∀t ∈ [0, ∞).
Dann heißt {FtX }t∈[0,∞) die von X erzeugte Filterung .
Definition 4.6. Ein stochastischer Prozess X = (Xt )t∈[0,∞) heißt ein Martingal
bezüglich der Filterung {Ft }t∈[0,∞) , falls
1. X ist angepasst;
2. X ist integrierbar, das heißt E(|Xt |) < ∞ für alle t ∈ [0, ∞);
3. E(Xs |Ft ) = Xt für alle s ≥ t (Martingaleigenschaft).
X heißt ein Supermartingal, wenn statt 3. gilt
3’. E(Xs |Ft ) ≤ Xt für alle s ≥ t,
X heißt ein Submartingal, wenn statt 3. gilt
3”. E(Xs |Ft ) ≥ Xt für alle s ≥ t.
Wir betrachten nun zwei Konzepte, die den Unterschied zwischen stetiger
und diskreter Theorie verdeutlichen.
Definition 4.7. (a) Zwei stochastische Prozesse X und Y heißen Versionen
voneinander, falls
Xt = Yt
f.s., für alle t ∈ R+ ;
(b) Zwei stochastische Prozesse heißen ununterscheidbar, falls
Xt = Yt
für alle t ∈ R+ , f.s..
Bemerkung 4.8. Für stochastische Prozesse mit abzählbarem Zeitbereich
stimmen die beiden Konzepte überein. Für Prozesse mit überabzählbarem Zeitbereich stimmen die Konzepte nicht überein:
Betrachte etwa (Ω, F, P) = ([0, 1], B[0, 1], λ) und definiere
1 ω=t
Xt (ω) =
(t ∈ R+ ) .
0 ω 6= t
und Y ≡ 0. Dann gilt für alle t ∈ R+ offenbar Xt = 0 f.s., aber X. (ω) 6= Y. (ω)
für alle ω ∈ Ω.
50
4.1 Definitionen
Wir werden an unsere Prozesse meist eine der folgenden zusätzlichen Forderungen stellen:
Definition 4.9. Ein Prozess X heißt links-/rechtsstetig, stetig, càdlàg/làdcàg,
bzw. von beschränkter Variation, wenn jeder Pfad von X die entsprechende
Eigenschaft hat. (Dabei sagen wir von einer Funktion f : [0, ∞) −→ R sie habe
beschränkte Variation, wenn V0t (f ) < ∞ für alle t ≥ 0).
Bemerkung 4.10. Definitionsgemäß ist ein stochastischer Prozess eine Funktion R+ × Ω −→ R (bzw. Rd ). Es erweist sich aber je nach Bedarf als praktisch,
X als Familie (Xt )t∈R+ von Zufallsvariablen oder als Menge zufälliger Funktio”
nen“ (X. (ω))ω∈Ω aufzufassen, das heißt als funktionswertige Zufallsvariable“ 1 .
”
Proposition 4.11. Seien X, Y zwei rechtsstetige oder zwei linksstetige Prozesse.
Dann sind X und Y genau dann Versionen voneinander, wenn sie ununterscheidbar sind.
Beweis: Zwei ununterscheidbare Prozesse sind immer Versionen voneinander,
daher ist nur eine Richtung zu zeigen.
Seien also X, Y Versionen voneinander und seien beide Prozesse o.B.d.A.
rechtsstetig. Sei At := {ω ∈ Ω : Xt (ω) 6= Yt (ω)}. Dann gilt nach Voraussetzung
P(At ) = 0. Damit gilt aber auch für
[
A :=
At ,
t∈Q∩[0,∞)
dass P(A) = 0, da die Menge der rationalen Zahlen abzählbar ist.
Es gilt also auf Ω\A dass Xt = Yt für alle t ∈ Q. Damit ist aber für alle
ω ∈ Ω\A und t ∈ [0, ∞)
Xt (ω) = lim Xs (ω) = lim Xs (ω) = Yt (ω) .
s↓t,s∈Q
s↓t,s∈Q
Definition 4.12. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Unter einer PNullmenge verstehen wir eine Teilmenge N von Ω derart, dass es eine Menge
A ∈ F gibt mit N ⊆ A und P(A) = 0. Der Maßraum heißt vollständig, wenn
jede Nullmenge bereits ein Element von F ist.
Bemerkung 4.13. Offenbar liegt der Unterschied zwischen einer P-Nullmenge
N und einer Menge A mit P(A) = 0 darin, dass erstere kein Element von F
sein muss, und daher P(N ) nicht definiert zu sein braucht.
Proposition 4.14. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Sei N die Familie der P-Nullmengen,
N := {N ⊆ Ω : ∃A ∈ F : N ⊆ A und P(A) = 0 } .
Dann gelten:
1
Man kann diese Auffassung mathematisch exakt begründen, indem man eine geeignete messbare Struktur auf dem Raum aller (càdlàg) Funktionen R+ −→ Rd definiert.
51
4 Stochastische Prozesse in stetiger Zeit
(a) F̃ := σ(N ∪ F) = {N ∪ A : N ∈ N , A ∈ F };
(b) durch P̃(N ∪ A) := P(A) , (N ∈ N , A ∈ F), wird ein Maß P̃ auf F̃
definiert, welches auf F mit P übereinstimmt;
(c) (Ω, F̃, P̃) ist ein vollständiger Wahrscheinlichkeitsraum.
Beweis: Übung.
Definition 4.15. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und F̃ und P̃ wie
im vorigen Satz. Dann heißt (Ω, F̃, P̃) die Vervollständigung von (Ω, F, P).
Definition 4.16. Sei (Ω, F, P) ein Maßraum und {Ft }t∈R+ eine Filterung darauf. Die Filterung heißt rechtsstetig, falls
\
Fs für alle t ∈ R+ .
Ft = Ft+ :=
s∈R,s>t
Definition 4.17. Ein gefilterter Raum (Ω, F, (Ft )t∈R+ , P) heißt ein standardgefilterter Raum, falls er folgende Bedingungen, die sogenannten usual conditions erfüllt:
(i) (Ω, F, P) ist ein vollständiger Maßraum;
(ii) F0 enthält alle P-Nullmengen von F;
(iii) {Ft }t∈R+ ist rechtsstetig.
Bemerkung 4.18. Mit der Eigenschaft (ii) enthält auch jedes Ft , t ≥ 0 die
Nullmengen von F.
Bezeichne Q+ := {q ∈ Q : q ≥ 0}.
Definition 4.19. Sei f : Q+ −→ R eine Funktion. Wir nennen f regularisierbar, falls
lim
f (s) existiert in R
∀t ∈ R+
(4.1)
lim
f (s) existiert in R
∀t ∈ R+ , t > 0 .
(4.2)
s↓t,s∈Q+
s↑t,s∈Q+
Proposition 4.20. Sei f : Q+ −→ R eine regularisierbare Funktion und
definiere g : R+ −→ R durch
g(t) :=
Dann ist g eine càdlàg Funktion.
Beweis: Übung.
52
lim
s↓t,s∈Q+
f (s)
(t ∈ R+ ).
4.1 Definitionen
Definition 4.21. Sei f : Q+ −→ R eine Funktion und a, b ∈ R mit a < b. Sei
N ∈ N. Wir nennen
f
UN
[a, b] := sup{n ≥ 0 : ∃ 0 ≤ s1 < t1 < . . . < sn < tn ≤ N,
sk , tk ∈ Q+ , f (sk ) < a, f (tk ) > b, ∀1 ≤ k ≤ n}
die Anzahl der Upcrossings von f durch das Intervall [a, b] im Zeitintervall
[0, N ].
Bemerkung 4.22. Offenbar kann hier – im Gegensatz zum diskreten Zeitbereich – auch für endliches N die Anzahl der Upcrossings im Intervall [0, N ]
unendlich sein.
Satz 4.23. Eine Funktion f : Q+ −→ R ist genau dann regularisierbar, wenn
für alle N ∈ N und alle a < b, a, b ∈ Q, gilt
f
sup{|f (q)| : q ∈ Q+ ∩ [0, N ]} < ∞ und UN
[a, b] < ∞ .
Beweis: Übung.
Korollar 4.24. Sei X = (Xt )t∈Q+ ein angepasster stochastischer Prozess.
Dann ist die Menge
{ω ∈ Ω : X. (ω) ist regularisierbar }
F∞ -messbar.
Die folgenden Sätze geben hinreichende Bedingungen an, wann ein gegebener
Prozess eine Version eines stetigen oder càdlàg Prozesses ist.
Satz 4.25 (Pfadregularisierung). Sei X = (Xt )t∈R+ ein {Ft }t∈R+ -Martingal,
F̃t = σ(N , Ft+ ).
Dann gibt es ein càdlàg {F̃t }t∈R+ -Martingal X̃ derart, dass
E(X̃t |Ft ) = Xt
f.s.
Insbesondere, gilt: ist {Ft }t∈R+ rechtsstetig, so ist X̃ eine Version von X.
Beweis: Wir können annehmen, dass N ⊆ F0 , da dies keinen Einfluss auf die
Martingaleigenschaft hat. Setze IN := Q ∩ [0, N ] und sei a < b.
X [a, b] fast sicher endlich (Übung).
Wegen Doob’s Upcrossing-Ungleichung ist UN
Wegen Doob’s Submartingal-Ungleichung ist supt∈IN |Xt | f.s. endlich (Übung).
Die Menge
\ \
X
Ω0 :=
{UN
[a, b] < ∞} ∩ { sup |Xt | < ∞}
N ∈N
t∈IN
a,b∈Q
a<b
erfüllt also P(Ω0 ) = 1, und für jedes ω ∈ Ω0 ist die Einschränkung des Pfades
X. (ω) auf Q+ regularisierbar.
Definiere
X̃t :=
lim Xs · 1Ω0 .
s↓t,s∈Q+
53
4 Stochastische Prozesse in stetiger Zeit
Dann ist X̃ angepasst zu {F̃t } und X̃ ist càdlàg laut Proposition 4.20.
Aufgrund von Lévy’s Satz von der Rückwärts-Konvergenz, Satz 3.43, gilt für
s>t
X̃t = E(Xs |F̃t ) .
Der Rest des Beweises (X̃ ist ein Martingal und eine Version von X) ist eine
gute Übung.
Durch leichte Modifikation des Beweises kann man zeigen, dass es zu jedem
Super-/Submartingal X bezüglich einer Standard-Filterung eine càdlàg Version
gibt, falls die Funktion t 7→ E(Xt ) rechtsstetig ist.
Definition 4.26. Sei X ein stochastischer Prozess. Dann wird durch
FtX := σ({Xs : s ≤ t})
(t ∈ R+ )
eine Filterung definiert und X ist angepasst zu {FtX }. Wir nennen {FtX } die
von X erzeugte Filterung.
Durch
X
F̃tX := σ(N ∪ Ft+
) (t ∈ R+ )
wird eine Standard-Filterung {F̃tX } definiert. Da FtX ⊆ F̃tX ist X auch angepasst
zu {F̃tX }. Wir nennen {F̃tX } die von X erzeugte Standard-Filterung.
Wir bezeichnen mit D die Menge der dyadischen Zahlen,
D := {
k
: k ∈ Z, n ∈ N} .
2n
Offenbar liegt D dicht in R.
Satz 4.27 (Kolmogoroff-Kriterium). Sei p ≥ 1 und β > 1/p. Sei I := D ∩ [0, 1].
Sei X = (Xt )t∈[0,1] ein Prozess derart, dass
kXs − Xt kp ≤ C|s − t|β
∀s, t ∈ [0, 1]
für eine Konstante 0 < C < ∞.
Dann gibt es für jedes α ∈ [0, β − 1/p) eine Zufallsvariable Kα ∈ Lp derart,
dass
|Xs − Xt | ≤ Kα |s − t|α ∀s, t ∈ I .
Beweis: Sei Dn := { 2kn : 0 ≤ k ≤ 2n − 1} und definiere
Kn := sup |Xt+2−n − Xt | .
t∈Dn
Dann ist
!
E(Knp ) ≤ E
X
|Xt+2−n − Xt |p
≤ 2n C p (2−n )βp .
t∈Dn
Für s, t ∈ I mit s < t wähle m ≥ 0 so, dass 2−(m+1) < t − s ≤ 2−m .
54
4.2 Zwei wichtige stochastische Prozesse
Wir können [s, t) schreiben als endliche, disjunkte Vereinigung von Intervallen
der Form [r, r + 2−n ), r ∈ Dn , n ≥ m + 1, von denen keine drei dieselbe Länge
haben.
P
Somit gilt |Xt − Xs | ≤ 2 n≥m+1 Kn , sodass, da t − s > 2−(m+1) ,
X
|Xt − Xs |
Kn 2(m+1)α ≤ Kα ,
≤
2
(t − s)α
n≥m+1
wo Kα := 2 n≥0 2nα Kn . Aber
n
X
X
X
2nα 2n/p (2−n )β = C
2α−(β−1/p) < ∞ .
2nα kKn kp ≤ 2C
kKα kp ≤ 2
P
n≥0
n≥0
n≥0
Somit sind fast alle Pfade eines Prozesses X, welcher die Voraussetzungen
des letzten Satzes erfüllt, Hölder-stetig auf I, und somit gleichmäßig stetig auf
I. Bezeichne N := {ω : X. (ω) nicht gleichmäßig stetig auf I} und setze
X̃t :=
lim Xs · 1Ω\N (t ∈ [0, 1]) .
s→t,s∈I
Wenn {Ft }t∈[0,1] eine Standard-Filterung ist, dann ist X̃ ein angepasster Prozess
mit gleichmäßig stetigen Pfaden. X̃ ist außerdem eine Version von X: Da
kXs − Xt kp ≤ C|s − t|β gilt ist lims→t,s∈I kXs − Xt kp = 0. Andererseits gilt
lims→t,s∈I kXs − X̃t k = 0, sodass Xt = X̃t f.s.
Im Folgenden bringen wir wichtige Beispiele von stochastischen Prozessen.
Die Frage der Existenz dieser Prozesse lassen wir momentan beiseite.
4.2 Zwei wichtige stochastische Prozesse
Definition 4.28. Ein Prozess N = (Nt )t∈R+ heißt ein Poisson-Prozess mit
Intensität λ > 0, falls er folgende Eigenschaften hat:
(i) N0 = 0 f.s.;
(ii) für 0 ≤ s < t ist Nt − Ns Poisson-verteilt mit
E(Nt − Ns ) = λ(t − s) ,
das heißt Nt − Ns ist eine Zufallsvariable mit Werten in N ∪ {0} und
P(Nt − Ns = k) =
(λ(t − s))k e−λ(t−s)
k!
für alle k ≥ 0;
(iii) für 0 ≤ t0 ≤ t1 ≤ . . . ≤ tn sind die Zufallsvariablen
Nt0 , Nt1 − Nt0 , . . . , Ntn − Ntn−1
unabhängig.
55
4 Stochastische Prozesse in stetiger Zeit
Wenn ein solcher Prozess existiert, dann ist der Prozess M ,
Mt := Nt − λt
(t ∈ R+ )
ein Martingal bezüglich der von N erzeugten Standard-Filterung (Übung). Es
existiert also dann eine càdlàg Version von M und damit von N . Deshalb verlangen wir zusätzlich von einem Poisson-Prozess stets
(iv) N ist càdlàg.
Definition 4.29. Eine Brown’sche Bewegung ist ein stochastischer Prozess
B = (Bt )t∈R+ mit folgenden Eigenschaften:
(i) B0 = 0 f.s.;
(ii) für 0 ≤ s < t ist Bt −Bs normalverteilt mit Erwartungswert 0 und Varianz
t − s;
(iii) für beliebige 0 ≤ t0 < t1 < . . . < tn sind die Zufallsvariablen
Bt0 , Bt1 − Bt0 , . . . , Btn − Btn−1
unabhängig.
Zusätzlich fordern wir noch
(iv) B ist stetig.
Dass zu einem Prozess B mit Eigenschaften (i)-(iii) stets eine stetige Version
existiert, und damit Eigenschaft (iv) eine natürliche Forderung ist, folgt aus
dem Kolmogoroff-Kriterium Satz 4.27 (Übung).
Es ist außerdem leicht zu zeigen, dass eine Brown’sche Bewegung ein Martingal bezüglich der erzeugten (standard-)Filterung definiert (Übung).
4.3 Martingale und Stoppzeiten in stetiger Zeit
Wir zählen nun noch ein Paar Sätze auf, welche Verallgemeinerungen der Sätze
aus der diskreten Theorie sind und sich mehr oder weniger leicht beweisen
lassen. Dabei setzen wir stets voraus, dass Martingale càdlàg sind. Es ist leicht
zu sehen, dass die Sätze ohne diese Voraussetzung im allgemeinen falsch sind.
Also:
Wichtige Konvention: Für diese Vorlesung ist jedes Sub-/Supermartingal
und Martingal càdlàg.
Satz 4.30 (Doob’s Satz von der Vorwärts-Konvergenz). Sei X ein Supermartingal, beschränkt in L1 . Dann existiert limt→∞ Xt fast sicher. Definiere
X∞ := lim inf t→∞ Xt . Dann gilt:
X∞ ist F∞ -messbar und X∞ ∈ R fast sicher.
56
4.3 Martingale und Stoppzeiten in stetiger Zeit
Satz 4.31 (Doob’s Submartingal-Ungleichung). Sei Z ein nicht-negatives Submartingal. Dann gilt für c > 0
c P(sup Zs ≥ c) ≤ E(Zt ; sup Zs ≥ c) ≤ E(Zt ) .
s≤t
s≤t
Satz 4.32 (Doob’s Lp -Ungleichung). Sei Z = (Zt )t≥0 ein Submartingal oder
Martingal mit Zt ∈ Lp (Ω, F, P) für alle t. Dann gilt
k sup |Zs | kp ≤ qkZt kp .
s≤t
Satz 4.33 (L2 -Konvergenz von Martingalen). Sei M = (Mt )t∈R+ ein L2 -beschränktes Martingal.
Dann existiert limt→∞ Mt =: M∞ fast sicher und in L2 . Es gelten Xt =
E(X∞ |Ft ) für alle t ≥ 0 und k supt≥0 |Xt |2 k2 ≤ 2kX∞ k2 .
Definition 4.34. Eine Zufallsvariable T : Ω −→ [0, ∞] heißt eine Stoppzeit,
falls
{T ≤ t} ∈ Ft
für alle t ∈ R+ . Für eine Stoppzeit T sei
FT := {A ∈ F : A ∩ {T ≤ t} ∈ Ft für alle t ≥ 0} .
Die folgende Proposition liefert zugleich ein wichtiges Beispiel für Stoppzeiten.
Proposition 4.35. Sei X ein stetiger Prozess mit X0 = 0. Setze
Sn := inf{t ≥ 0 : |Xt | = n} .
Dann ist Sn für jedes n ≥ 1 eine Stoppzeit.
Beweis: Es gilt
{Sn ≤ t} =
\
[
1
{|Xs | > n − } ∈ Ft ,
k
k≥1 s∈Q,s≤t
sodass also Sn tatsächlich eine Stoppzeit ist.
Natürlich ist Sn auch dann eine Stoppzeit, wenn n eine positive reelle Zahl
ist. Wir werden die Folge (Sn )n≥1 allerdings oft brauchen.
Proposition 4.36. Seien S, T Stoppzeiten, X = (Xt )t≥0 ein angepasster
Prozess. Dann gelten
(a) S ∧ T ist ein Stoppzeit;
(b) ist S ≤ T , so ist FS ⊆ FT ;
(c) X T ist ein angepasster Prozess, wobei wieder XtT (ω) = XT ∧t (ω).
Beweis: Wie im diskreten Fall.
57
4 Stochastische Prozesse in stetiger Zeit
Definition 4.37. Sei T eine Stoppzeit, X ein Prozess. Wie im Fall eines
diskreten Zeitbereichs definieren wir XT wie folgt
XT (ω) := XT (ω) (ω) ,
(ω ∈ {T < ∞}) .
Definition 4.38. Wir sagen ein Prozess X sei progressiv messbar, falls X|[0,t]×Ω
messbar ist bezüglich B[0, t] ⊗ Ft für jedes t ≥ 0.
Proposition 4.39. Sei X ein càdlàg angepasster Prozess. Dann ist X progressiv messbar.
Beweis: Sei t ≥ 0. Es ist
X|[0,t]×Ω = lim X n
n
wo
Xsn = Xαn (s)∧t ,
(s ≤ t)
und αn (s) = (k + 1)2−n für k2−n ≤ s < (k + 1)2−n (das heißt αn (s) =
2−n (b2n sc + 1)).
Da
∞
X
Xsn =
X(k+1)2−n ∧t 1[k2−n ,(k+1)2−n ) (s) , (s ≤ t) ,
k=0
und X(k+1)2−n ∧t messbar ist bezüglich Ft , ist X|[0,t]×Ω messbar (B[0, t] ⊗ Ft ).
Proposition 4.40. Ist X ein progressiv messbarer Prozess und T eine endliche
Stoppzeit, so ist XT messbar bezüglich FT .
Beweis: Sei t ≥ 0. Betrachte die Abbildungen
X̄
Ft
[0, t] × Ω, B[0, t] ⊗ Ft −→ R, B ,
{T ≤ t}, Ft −→
wo Ft (ω) := (T (ω), ω) und X̄ die Einschränkung von X auf [0, t]. Da XT =
X̄ ◦ Ft auf {T ≤ t} ist, genügt es zu zeigen, dass Ft und X̄ messbar sind (denn
dann ist {XT ∈ B} ∩ {T ≤ t} ∈ Ft für alle B ∈ B[0, 1]). X̄ ist messbar, da X
progressiv messbar ist, und
Ft−1 [0, s] × A = A ∩ {T ≤ s} ∩ {T ≤ t} ∈ Ft
für alle A ∈ Ft und s ≥ 0, sodass auch Ft messbar ist.
Korollar 4.41. Sei X ein càdlàg angepasster Prozess. Sei T eine endliche
Stoppzeit. Dann ist XT messbar bezüglich FT .
Auch das Optional Stopping Theorem gilt fast unverändert für càdlàg Martingale.
Satz 4.42 (Optional Stopping Theorem, OST). Sei X ein càdlàg angepasster
Prozess. Dann sind äquivalent:
(a) X ist ein Supermartingal,
58
4.3 Martingale und Stoppzeiten in stetiger Zeit
(b) X T ist ein Supermartingal für jede Stoppzeit T ,
(c) für je zwei Stoppzeiten S, T mit T beschränkt ist XT integrierbar und
E(XT |FS ) ≤ XT ∧S
f.s.,
(d) für je zwei beschränkte Stoppzeiten S, T mit S ≤ T sind XS und XT
integrierbar und es gilt
E(XT ) ≤ E(XS ) .
Beweis: Es gelte (a). Seien S und T beschränkte Stoppzeiten. Für n ≥ 0 setze
Sn := 2−n d2n Se ,
Tn := 2−n d2n T e .
Dann sind Sn und Tn für jedes n ≥ 0 beschränkte Stoppzeiten und Sn ↓ S,
Tn ↓ T für n → ∞ (Übung). Da X rechtsstetig ist, gilt limn→∞ XTn = XT f.s.
Aus dem diskreten OST Satz 3.29 folgt, dass XTn = E(XTn−1 |FTn ) ((Xk2−n )k≥0
ist ja ein Supermartingal mit diskretem Zeitbereich). Nach Satz 3.45 konvergiert
XTn für n → ∞ gegen XT f.s. und in L1 .
Analog gilt
n→∞
XTn ∧Sn −→ XT ∧S in L1 .
Sei A ∈ FS , sodass insbesondere A ∈ FSn für alle n. Aus dem diskreten OST
folgt nun
E(XTn 1A ) ≤ E(XSn ∧Tn 1A ) .
Wir lassen n gegen unendlich gehen und erhalten (c).
Der Rest des Beweises funktioniert wie im diskreten Fall.
Satz 4.43 (Zusatz zum OST). Gilt (a) und ist (Xt )t≥0 U.I., so gelten (c) und
(d) für beliebige Stoppzeiten.
Beweis: Ohne Beweis.
Definition 4.44. Wir sagen X ist ein lokales Martingal, wenn es eine Folge
von Stoppzeiten (Tn )n≥1 mit Tn ↑ ∞ f.s. gibt derart, dass X Tn ein Martingal
ist für alle n. Hierbei ist wieder
XtTn := XTn ∧t .
Die Folge (Tn )n≥1 nennen wir eine reduzierende Folge von Stoppzeiten für X.
Proposition 4.45. Folgende Aussagen sind äquivalent:
(a) X ist ein Martingal,
(b) X ist ein lokales Martingal und für jedes t ist die folgende Familie von
Zufallsvariablen U.I.:
X := {XT : T
eine Stoppzeit, T ≤ t} .
59
4 Stochastische Prozesse in stetiger Zeit
Beweis: Es gelte (a). Wegen Satz 4.42 gilt, falls T ≤ t eine Stoppzeit ist
XT = E(Xt |FT ) , (f.s.) ,
somit ist X nach Lemma 3.40 U.I.
Umgekehrt, wenn wir (b) annehmen und (Tn )n≥1 eine reduzierende Folge für
X ist, dann gilt für jede Stoppzeit T ≤ t
n→∞
E(X0 ) = E(XTTn ) = E(XT ∧Tn ) −→ E(XT ) ,
(4.3)
wobei die Konvergenz nach Satz 3.42 gilt. Nach dem OST Satz 4.42 ist X also
ein Martingal.
Korollar 4.46. Sei M ein lokales Martingal. Ist M beschränkt, so ist M ein
Martingal.
Proposition 4.47. Sei M ein stetiges lokales Martingal mit M0 = 0. Setze
Sn := inf{t ≥ 0 : |Mt | = n} .
Dann ist Sn für jedes n ≥ 1 eine Stoppzeit, Sn ↑ ∞ und M Sn ist ein Martingal
für jedes n.
Beweis: Sn ist eine Stoppzeit nach Proposition 4.35. Weiters gilt für jedes
ω ∈ Ω und t ≥ 0,
sup |Ms (ω)| < ∞ ,
s≤t
und Sn (ω) > t für jedes n > sups≤t |Ms (ω)|. Somit gilt Sn ↑ ∞ für n → ∞.
Sei Tn eine reduzierende Folge für M . Dann ist M Tn ein Martingal für jedes
n. Aufgrund des OST ist also M Tn ∧Sk ein Martingal für alle n, k, sodass M Sk
ein lokales Martingal ist für jedes k. Aber M Sk ist beschränkt und daher ein
Martingal wegen Proposition 4.45.
Satz 4.48. Sei M ein stetiges lokales Martingal von beschränkter Variation2
mit M0 = 0. Dann ist M ≡ 0 f.s. (M und 0 sind ununterscheidbar).
Beweis: Sei V die Totalvariation von M . Dann ist V stetig angepasst mit
V0 = 0. Setze
S := inf{t ≥ 0 : |Vt | = 1} .
S ist eine Stoppzeit. Es genügt zu zeigen, dass M S ≡ 0. Aus OST folgt, dass
M S ein lokales Martingal ist:
(M S )Tn = M S∧Tn = (M Tn )S .
Weiters gilt
|M S | ≤ V S ≤ 1 ,
2
Dabei heiße eine Funktion f : [0, ∞) → R von beschränkter Variation, falls V0t (f ) < ∞ für
alle t.
60
4.3 Martingale und Stoppzeiten in stetiger Zeit
sodass also M S ein Martingal ist. Es genügt also, die Aussage des Satzes für
beschränkte Martingale mit Totalvariation ≤ 1 zu beweisen.
Sei nun t ≥ 0 und sei tk := nk t. Dann gilt
E(Mt2 ) = E
n−1
X
(Mtk+1 − Mtk )2
k=0
≤ E
n−1
X
!!
!
|Mtk+1 − Mtk |
k=0
sup
0≤k≤n−1
|Mtk+1 − Mtk |
.
Da M stetig ist und von beschränkter Variation, konvergiert
n−1
X
k=0
!
!
|Mtk+1 − Mtk |
sup
0≤k≤n−1
|Mtk+1 − Mtk |
punktweise gegen 0. Aus dem Satz über beschränkte Konvergenz folgt E(Mt2 ) =
0.
M ist also ein stetiger Prozess mit Mt = 0 f.s. für alle t. Daraus folgt, dass
Mt = 0 für alle t f.s. (Übung).
Definition 4.49. Sei X0 eine F0 -messbare Zufallsvariable, M ein stetiges lokales
Martingal mit M0 = 0 und A ein stetiger angepasster Prozess von beschränkter
Variation mit A0 = 0. Setze
Xt = X0 + Mt + At ,
für alle t .
Wir nennen jeden Prozess X von dieser Form ein stetiges Semimartingal.
Die Bedeutung dieser Prozesse wird klarer, wenn wir einmal das stochastische Integral definiert haben. Semimartingale sind nämlich diejenigen Prozesse,
bezüglich derer integriert wird. Außerdem ist das Ergebnis der Integration dann
wieder ein Semimartingal.
Korollar 4.50. Sei X ein stetiges Semimartingal. Dann ist die Darstellung
X = X0 + M + A
mit X0 eine F0 -messbare Zufallsvariable, M ein stetiges lokales Martingal mit
M0 = 0 und A ein stetiger angepasster Prozess von beschränkter Variation mit
A0 = 0, (bis auf Ununterscheidbarkeit) eindeutig bestimmt.
Beweis: Seien X = X0 +M +A und X = X0 +M 0 +A0 zwei solche Zerlegungen.
Dann gilt M − M 0 = A0 − A. A0 − A ist also ein stetiges lokales Martingal mit
beschränkter Variation und damit 0. Deshalb ist auch M − M 0 = 0.
61
4 Stochastische Prozesse in stetiger Zeit
Definition 4.51. Sei X ein càdlàg angepasster Prozess. Wir definieren
X ∗ := sup |Xt | und |||X||| := kX ∗ k2 .
t
Wir schreiben
C2
:= {X : Xcàdlàg und |||X||| < ∞}
M
:= {M : M ein càdlàg Martingal}
=: M(Ω, F, {Ft }, P);
M2 := {M ∈ M : M
L2 -beschränkt};
Mc := {M ∈ M : M
stetig};
M2c
:=
M2
∩ Mc .
Aufgrund des L2 -Konvergenzsatzes Satz 4.33 existiert für M ∈ M2 der Grenzwert M∞ := limt Mt f.s. und in L2 . Für M ∈ M2 setzen wir kM k := kM∞ k2 .
Bemerkung 4.52. Im Folgenden werden wir oft stillschweigend Funktionen
in L2 mit der zugehörigen Äquivalenzklasse in L2 bezüglich der Relation M ∼
Y :⇔ kM − Y k2 = 0 identifizieren.
Proposition 4.53. Es gelten:
(a) (C 2 , |||.|||) ist vollständig,
(b) M2 = M ∩ C 2 ,
(c) (M2 , k.k) ist ein Hilbertraum und M2c ist ein abgeschlossener Teilraum,
(d) Die Abbildung
M2 −→ L2 (F∞ )
M 7−→
M∞
ist eine Isometrie.
Beweis: (a) Sei (M n )n≥1 eine |||.|||-Cauchyfolge. Dann gibt es eine Teilfolge
(nk ) derart, dass
X
X
n
k
sup |Mt k+1 − Mtnk |k2 ≤
|||M nk+1 − M nk ||| < ∞ .
k
t≥0
k
Somit gilt für fast alle ω
X
k
n
sup |Mt k+1 − Mtnk |(ω) < ∞ ,
t≥0
sodass Mtnk (ω) gleichmäßig in t ≥ 0 konvergiert für k → ∞. Schreibe Xt (ω) :=
limk Xtnk (ω) wo der Limes existiert, Xt (ω) = 0 sonst.
Der Limes ist càdlàg als gleichmäßiger Limes von càdlàg Funktionen (Übung!).
Nach dem Lemma von Fatou gilt
n→∞
E(sup |Mtn − Mt |2 ) ≤ lim inf E(sup |Mtn − Mtnk |2 ) −→ 0 .
k
t≥0
t≥0
|
{z
}
|||M n −M |||
62
4.4 Übungsaufgaben
(b) Es ist leicht einzusehen, dass M2 ⊇ M ∩ C 2 . Ist umgekehrt M ∈ M2 , dann
ist |||M ||| ≤ 2kM k < ∞, wegen Doob’s L2 -Ungleichung, sodass M ∈ C 2 .
(c) Die Abbildung (M, Y ) 7−→ E(M∞ Y∞ ) definiert ein inneres Produkt auf M2
und
kM k ≤ |||M ||| ≤ 2kM k.
Der Raum M2 ist somit vollständig unter k.k genau dann, wenn er es unter
|||.||| ist. Es genügt daher zu zeigen, dass M2 ein abgeschlossener Teilraum von
(C 2 , |||.|||) ist.
Sei also M n eine Folge in M2 und M ∈ C 2 mit |||M n − M ||| −→ 0. Dann ist
M sicher càdlàg angepasst und L2 -beschränkt. Weiters ist für s ≤ t
E(Mt |Fs ) = lim E(Mtn |Fs ) = lim Msn = Ms ,
n
n
wo die Limiten in L2 genommen werden. Somit ist M ∈ M ∩ C 2 = M2 .
(d) Offensichtlich.
4.4 Übungsaufgaben
1. Beweisen Sie Proposition 4.14.
2. Beweisen Sie Proposition 4.20.
3. Beweisen Sie Satz 4.23.
4. Sei N ein Poisson-Prozess mit Intensität λ > 0. Zeigen Sie, dass der
Prozess (Nt − λt)t≥0 bezüglich der von N erzeugten Filterung ein Martingal ist.
5. Zeigen Sie mithilfe des Kolmogoroff-Kriteriums, dass zu jeder Brown’schen
Bewegung eine stetige Version existiert.
6. Sei B eine Brown’sche Bewegung. Zeigen Sie, dass die folgenden Prozesse
bezüglich der von B erzeugten Filterung Martingale sind:
a) B;
b) (Bt2 − t)t≥0 ;
c) eaBt −
a2
t
2
, für alle a ∈ R.
7. Zeigen Sie: ist (fn )n≥1 eine Folge von càdlàg Funktionen, welche gleichmäßig gegen eine Funktion f konvergiert, dann ist f càdlàg.
8. Sei T eine Stoppzeit. Dann ist 2−n d2n T e eine Stoppzeit.
9. Sei X ein stetiger Prozess mit Xt = 0 f.s. für alle t ≥ 0. Zeigen Sie: X
und 0 sind ununterscheidbar.
10. Auf welchen der Räume C 2 , M, M2 , Mc , M2c sind |||.||| bzw. k.k definiert
bzw. (Halb-)Normen?
63
5 Stochastische Integration
5.1
Naive“ stochastische Integration
”
Bevor wir uns der Theorie der stochastischen Integration widmen, betrachten wir das stochastische Integral noch einmal naiv“, das heißt im Sinne von
”
Riemann-Stieltjes. Man sieht schon an der Aussage von Satz 4.48, dass man
nicht erwarten darf, dadurch einen gültigen Integralbegriff zu bekommen, falls
der Prozess, bezüglich welchem man integrieren will, ein stetiges Martingal, also
etwa eine Brown’sche Bewegung ist. Was geht aber schief dabei?
Versuchen wir doch einfach, ein stochastisches Integral mithilfe des RiemannStieltjes’schen Integral zu berechnen:
Z 1
Bs dBs =?
0
Sehen wir zunächst den Erwartungswert einer Riemann-Summe an, wenn wir
den Integranden jeweils an der linken Intervallgrenze der Zerlegung
Z = {t0 , . . . , tn }
auswerten:
E
n
X
!
Btk−1 (Btk − Btk−1 )
=
k=1
=
n
X
k=1
n
X
E Btk−1 (Btk − Btk−1 )
(5.1)
E(Btk−1 )E(Btk − Btk−1 ) = 0 . (5.2)
k=1
Dann probieren wir dasselbe noch mit Auswertung an den rechten Intervallgrenzen
!
n
X
E
Btk (Btk − Btk−1 ) =
(5.3)
k=1
=
n
X
E Btk (Btk − Btk−1 )
(5.4)
k=1
=
=
n
X
E (Btk − Btk−1 + Btk−1 )(Btk − Btk−1 )
k=1
n
X
E (Btk − Btk−1 )2 + E Btk−1 (Btk − Btk−1 )
{z
}
|
k=1
(5.5)
(5.6)
=0
=
n
X
(tk − tk−1 ) = 1 .
(5.7)
k=1
65
5 Stochastische Integration
Somit müssen sich die pfadweisen Integrale (das heißt die Grenzwerte der RiemannSummen) auf einer Menge mit positivem Maß unterscheiden.
Interessanterweise heißt das nun nicht, dass man das stochastische Integral
nicht auf diese Weise definieren kann, indem man sich etwa darauf festlegt,
dass stets die linke Integralgrenze als Stützstelle für die Riemann-Summe zu
verwenden ist. Es ist sogar so, dass die Riemann-Summe
n
X
Btk−1 (Btk − Btk−1 )
k=1
für fast jeden Pfad konvergiert. Aber eben nur fast, und selbst das ist schwer
(direkt) zu zeigen.
Man benötigt daher einen anderen, abstrakteren“ Zugang zum stochastis”
chen Integral. Wie so oft, bedeutet abstrakter“ nicht gleichzeitig schwieriger“.
”
”
Bevor wir diesen Weg gehen, betrachten wir noch ein paar Beispiele um zu
sehen, welche Art von Ergebnissen wir uns von der Theorie erwarten dürfen.
Wir verwenden die Riemann-Summen nun naiv“, indem wir deren Konvergenz
”
voraussetzen. Weiters legen wir willkürlich fest“, dass wir den Integranden im”
mer an der linken Intervallgrenze auswerten.
(a)
n
2 X
t
Z
dBs = lim
n→∞
0
Bt
k=1
k
2n
− Bt k−1
n
2
= Bt − B0 .
(b)
Z
n
t
Bs dBs = lim
0
n→∞
2
X
Bt k−1
Bt
n
2
k=1
Wie vorher sehen wir, dass Bt k−1
Bt
n
k
2n
− Bt k−1
n
2
− Bt k−1
ein Produkt unabhängiger
2
2n
normalverteilter Zufallsvariablen ist, weshalb E Bt k−1
B
= 0
k − B k−1
t 2n
t 2n
2n
Rt
gilt und somit E( 0 Bs dBs ) = 0 ist (wobei wir unterstellt haben, dass die Konvergenz von der Art ist, dass man Limes und Integral vertauschen darf). Wir
66
k
2n
5.1 Naive“ stochastische Integration
”
Rt
können auch die Varianz dieser Zufallsvariable 0 Bs dBs berechnen:
Z
t
V
=
Bs dBs
(5.8)
0
=
2 !
t
Z
(5.9)
Bs dBs
E
0

”
=“
lim E 
n→∞
2
X
lim
n→∞
Bt k−1
(Bt
n
E
(Bt
Bt k−1
n
2
k=1
X
+2
(5.10)

2
2 − Bt k−1
)
n
k
2n
(5.11)
2
E Bt j−1
Bt
n
2
1≤j<k≤2n
− Bt k−1
)
n
k
2n
2
k=1
n
=
!2 
n
2
X
− Bt j−1
Bt
Bt k−1
n
n
j
2n
2
2
k
2n
− Bt k−1
(5.12)
n
2
(5.13)
n
=
lim
n→∞
2
X
E
2
=
2n
X
lim
E Bt2k−1 E (Bt
n→∞
lim
n→∞
k=1
2n
X
k=1
2n
k−1
t n
2
(5.14)
2
2
2
1≤j<k≤2n
=
k
2n
Bt
E Bt j−1
B
k−1
t n
n
X
+2
Bt k−1
(Bt
n
k=1
2 − Bt k−1
)
n
k
2n
− Bt j−1
E
B
(5.15)
k − B k−1 F k−1
t 2n
t n
t 2n
2n
|
{z 2
}
=0 f.s.
2
(5.16)
− Bt k−1
)
n
j
2n
2
k
k−1
t2
t n −t n
= .
2
2
2
(5.17)
(c) Ein nicht-stochastisches Integral:
Z
n
t
Bs ds =
0
lim
n→∞
2
X
k=1
Bt
k
2n
k
k−1
t n −t n
2
2
(5.18)
n
2
1 X
= lim t n
Bt kn .
n→∞ 2
2
(5.19)
k=1
Hier haben wir den Integranden an der rechten Intervallgrenze ausgewertet.
Das ist ok., da es sich hier um ein gewöhnliches Riemann-Integral über stetige
Funktionen handelt und somit der Grenzwert der Riemann-Summen nicht von
67
5 Stochastische Integration
der Wahl der Stützstellen abhängt. Wir haben
n
2
X
n
Bt
k=1
2 X
k
X
=
k
2n
(Bt
j
2n
− Bt j−1
)
n
(5.20)
(Bt
j
2n
− Bt j−1
)
n
(5.21)
k=1 j=1
n
n
2 X
2
X
=
2
j=1 k=j
2
n
2
X
=
(2n − (j − 1))(Bt
j=1
j
2n
− Bt j−1
).
n
(5.22)
2
Somit gilt
Z
n
t
Bs ds
=
0
2
t X n
lim
)
(2 − (j − 1))(Bt jn − Bt j−1
n→∞ 2n
2
2n
(5.23)
j=1
n
=
”
2
X
lim t
(Bt
n→∞
j=1
Z t
= “ tBt −
bzw. tBt − 0B0 =
n
j
2n
2
X
j−1
− Bt j−1
) + lim
t n (Bt jn − Bt(5.24)
j−1 )
n→∞
2n
2
2n
2
j=1
sdBs ,
(5.25)
0
Rt
0
Bs ds +
Rt
0
sdBs bzw. in Differentialschreibweise
d(tBt ) = Bt dt + tdBt .
5.2 Vorhersehbare Prozesse
Definition 5.1. (i) Die sogenannte vorhersehbare (engl. previsible) σ-Algebra
P auf Ω × (0, ∞) ist diejenige, die von den Mengen der Form A × (s, t]
mit A ∈ Fs und s ≤ t, das heißt von den sog. vorhersehbaren Rechtecken,
erzeugt wird.
(ii) Ein vorhersehbarer Prozess ist eine P-messbare Abbildung
H : Ω × (0, ∞) −→ R
(oder Rd ) .
Intuitive Bedeutung von vorhersehbar: der Wert zur Zeit t ist schon zur Zeit
unmittelbar vor t bekannt. Ein Beispiel wäre ein stetiger angepasster Prozess:
Proposition 5.2. Jeder links-stetige, angepasste Prozess ist vorhersehbar.
Beweis: Sei H ein links-stetiger, angepasster Prozess. Setze αn (t) := k2−n für
k2−n < t ≤ (k + 1)2−n (das heißt αn (t) := 2−n (d2n te − 1)) und
Htn := Hαn (t) ,
sodass
Hn =
∞
X
k=0
68
Hk2−n 1(k2−n ,(k+1)2−n ] .
5.2 Vorhersehbare Prozesse
Hk2−n ist Fk2−n -messbar, da H angepasst ist. Somit ist H n vorhersehbar.
Aber αn (t) ↑ t, somit H n → H, punktweise auf Ω × (0, ∞). Daher ist H
vorhersehbar.
Korollar 5.3. Sei X ein càdlàg angepasster Prozess. Sei Ht := Xt− für jedes
t > 0. Dann ist H vorhersehbar.
Beweis: Der Prozess H : Ω × (0, ∞) −→ R ist links-stetig und angepasst: Xs
ist Fs -messbar für s ≤ t, Xt− = limn Xt− 1 , somit ist Xt− Ft -messbar.
n
Definition 5.4. Ein einfacher Prozess ist eine Abbildung
H : Ω × (0, ∞) −→ R
der Form
H(ω, t) =
n−1
X
Zk (ω)1tk <t≤tk+1 ,
k=0
wobei n ≥ 1 und 0 = t0 < . . . < tn < ∞ und wo Zk eine beschränkte Ftk messbare Zufallsvariable ist für jedes k. Wir schreiben H auch in der Form
H=
n−1
X
Zk 1(tk ,tk+1 ] .
k=0
Den Raum der einfachen Prozesse bezeichnen wir mit S.
Bemerkung 5.5. S ist tatsächlich ein Vektorraum und alle seine Elemente
sind vorhersehbar.
Proposition 5.6. Sei µ ein endliches Maß auf P. Dann ist S ein dichter
Teilraum von L2 (Ω × (0, ∞), P, µ).
Beweis: Es ist klar, dass S ⊆ L2 (Ω × (0, ∞), P, µ). Bezeichne S den Abschluss
von S in L2 (Ω × (0, ∞), P, µ) und sei
A = {A ∈ P : 1A ∈ S} .
Dann ist A ein λ-System, welches das π-System
{B × (s, t] : B ∈ Fs , s ≤ t}
enthält. Dieses erzeugt aber P, sodass A = P nach dem π-λ-Theorem1 .
Das Resultat folgt nun, da Linearkombinationen von messbaren Indikatorfunktionen immer dicht sind in L2 .
Wir beweisen noch ein einfaches Resultat über einfache Prozesse, welches wir
im nächsten Unterkapitel an prominenter Stelle benötigen werden.
1
Zur Erinnerung: Ein π-System C erfüllt, A, B ∈ C ⇒ A ∩ B ∈ C. Ein λ-System oder DynkinSystemSD erfüllt (A, B ∈ D ∧ B ⊆ A) ⇒ A\B ∈ D und Ak ∈ D, k ≥ 1 mit A1 ⊆ A2 ⊆
. . . ⇒ k Ak ∈ D.
Das π-λ-Theorem besagt dass C ⊆ D ⇒ σ(C) ⊆ σ(D).
69
5 Stochastische Integration
P
Lemma 5.7. Sei H = k≥0 Zk 1(tk ,tk+1 ] mit Ftk -messbaren Zk , k = 0, 1, . . .
Sei T eine Stoppzeit mit der Eigenschaft, dass H T beschränkt ist.
Dann ist für jedes s ≥ 0 der Prozess H T 1(0,s] ein einfacher Prozess.
Beweis: Wir betrachten zunächst den Fall Hk := Zk 1(tk ,tk+1 ] . Es gilt
HkT 1(0,s] = Zk 1{T >tk } 1(tk ,s] − Zk 1{T >tk+1 } 1(tk+1 ,s] .
| {z }
|
{z
}
Ftk −messbar
Ftk+1 −messbar
Da H T 1(0,s] laut Voraussetzung beschränkt ist, ist auch HkT 1(0,s] beschränkt.
Somit ist HkT 1(0,s] ∈ S. Die allgemeine Aussage folgt nun, da nur endlich viele
der Summanden HkT 1(0,s] ungleich null sind und eine endliche Summe von Elementen von S in S liegt.
5.3 Das Itô-Integral bezüglich M ∈ M2c
Definition 5.8. Sei M ∈ M2 . Für H ∈ S,
H=
n−1
X
Zk 1(tk ,tk+1 ] ,
k=0
L∞ (Ω, F
t0 ≤ t1 ≤ . . ., Zk ∈
tk , P) (k = 0, 1, . . . , n − 1) definiere das Itô-Integral
durch
Z t
n−1
X
Hs dMs := (H • M )t :=
Zk (Mtk+1 ∧t − Mtk ∧t ) .
0
k=0
Proposition 5.9. Sei H ∈ S und M ∈ M2 . Sei T eine Stoppzeit. Dann gelten:
(a) H • (M T ) = (H • M )T ,
(b) H • M ∈ M2 und M ∈ M2c ⇒ H • M ∈ M2c ,
P
2
2 ≤ kHk2 kM k2 .
(c) kH • M k2 = n−1
∞
k=0 E Zk (Mtk+1 − Mtk )
Beweis: (a) ist leicht nachzurechnen.
(b) Die Integrierbarkeit ist offensichtlich. Für tk ≤ s ≤ t ≤ tk+1 ist
(H • M )t − (H • M )s = Zk (Mt − Ms )
sodass
E ((H • M )t − (H • M )s |Fs ) = Zk E(Mt − Ms |Fs ) = 0
f.s.
Der allgemeine Fall ergibt sich als Folgerung. Somit ist (H • M ) ein Martingal.
Dass (H • M ) ∈ M2 ist, wird aus (c) folgen.
(c) Für j < k gilt
E Zj (Mtj+1 − Mtj )Zk (Mtk+1 − Mtk ) =
= E E Zj (Mtj+1 − Mtj )Zk (Mtk+1 − Mtk )|Ftk
= E Zj (Mtj+1 − Mtj )Zk E(Mtk+1 − Mtk |Ftk ) = 0 .
70
5.3 Das Itô-Integral bezüglich M ∈ M2c
Somit ist

n−1
X
E((H • M )2∞ ) = E 
!2 
Zk (Mtk+1 − Mtk )

k=0
n−1
X
=
E Zk2 (Mtk+1 − Mtk )2
k=0
≤ (kHk∞ )
2
n−1
X
|k=0
E (Mtk+1 − Mtk )2 ,
{z
}
=E(Mt2n )−E(M02 )≤kM k2
und somit E((H • M )2∞ ) ≤ kHk2∞ kM k2 .
Definition 5.10. (i) Seien (Zn )n≥1 eine Folge von Zufallsvariablen, Z eine
Zufallsvariable. Wir sagen Zn −→ Z in Wahrscheinlichkeit (in probability), falls für alle ε > 0 gilt
lim P(|Zn − Z| ≥ ε) = 0 .
n→∞
(ii) Seien (X n )n≥1 eine Folge von stochastischen Prozessen, X ein stochastischer Prozess. Wir sagen X n −→ X u.c.p (uniformly on compacts in probability), falls ∀ε > 0, ∀t ≥ 0
n
lim P sup |Xs − Xs | ≥ ε = 0 .
n→∞
s≤t
Bemerkung 5.11. Siehe Übungen 1, 2, 3, 4, 5, 6, 7.
Satz 5.12. Sei M ein stetiges lokales Martingal. Setze
b2n tc−1
[M ]nt
:=
X
M(k+1)2−n − Mk2−n
2
.
k=0
Dann gibt es einen (bis auf Ununterscheidbarkeit) eindeutig bestimmten stetigen, angepassten und wachsenden Prozess [M ] derart, dass
1. [M ]n −→ [M ] u.c.p.,
2. M 2 − [M ] ist ein stetiges lokales Martingal.
Ist überdies M ∈ M2c , dann ist M 2 − [M ] ein U.I. Martingal.
Für den Beweis brauchen wir unter anderem folgende Lemmas:
Lemma 5.13. Sei (Mn )n≥1 eine Folge in M2 und M ∈ M2 mit limn kMn −
M k = 0. Dann gilt für jede Stoppzeit T
lim kMnT − M T k = 0 .
n
71
5 Stochastische Integration
Beweis: Aus Doob’s Lp Ungleichung folgt
kMn − M k2 = E (Mn − M )2∞
1
≥
E sup |(Mn − M )t |2
4
t
1
≥
E sup |(Mn − M )Tt |2
4
t
1
1
≥
E (MnT − M T )2∞ = kMnT − M T k2 .
4
4
(5.26)
(5.27)
(5.28)
(5.29)
Lemma 5.14. Sei [M ]n definiert wie in Satz 5.12.
Dann gilt: Zu jeder Teilfolge (n∗ (k))k≥1 von (n)n≥1 existiert eine Teilfolge
(n(k))k≥1 von (n∗ (k))k≥1 und ein monoton wachsender, angepasster und stetiger
Prozess A mit
1. [M ]n(k) −→ A u.c.p. (k → ∞);
2. N := M 2 − A ist ein stetiges lokales Martingal.
Beweis: Es genügt den Fall M0 = 0 zu betrachten. Setze αn (t) := k2−n für
k2−n < t ≤ (k + 1)2−n und definiere Htn := Mαn (t) für alle n, t. Da für s < t
gilt
Mt2 − Ms2 = 2Ms (Mt − Ms ) + (Mt − Ms )2 ,
ist
Mt2 = 2(H n • M )t + [M ]nt + Rtn ,
wobei Rtn = (Mt − Mbt2n c2−n )2 . Da M stetige Pfade hat, gilt Rn −→ 0 u.c.p.
(n → ∞).
Setze
S n,k := inf{t ≥ 0 : |Htn − Mt | ≥ 2−k oder |Mt | ≥ n} ∧ k .
S n,k ist eine Stoppzeit. Das beweist man analog zu Proposition 4.35.
Sei nun (n∗ (k))k≥1 eine beliebige Teilfolge von (n)n≥1 . Dann können wir eine
weitere Teilfolge (n(k))k≥1 von (n∗ (k))k≥1 finden derart, dass
P(S n(k),k < k) ≤ 2−k
für alle k .
Setze T m := inf k≥m S n(k),k . Dann ist
[
X
P(T m < m) = P(
S n(k),k < m) ≤
P(S n(k),k < k) ≤ 2−m+1 ,
k≥m
k≥m
sodass (T m )m eine Folge von Stoppzeiten ist mit T m ↑ ∞.
n(k)
Setze H̃tk,m := Ht∧T m 1t≤m für k ≥ m. Dann ist laut Lemma 5.7 H̃ k,m ein
einfacher Prozess für alle k ≥ m und
kH̃ k+1,m − H̃ k,m k∞ ≤ 2−k .
72
5.3 Das Itô-Integral bezüglich M ∈ M2c
Nun gilt laut Proposition 5.9 und weil T m ≤ S n(m),m ≤ m
H n(k) • M T
m
= H̃ k,m • M T
m
∈ M2c
∀k ≥ m
und somit
kH n(k+1) • M T
m
m
− H n(k) • M T k =
m
= k(H n(k+1) − H n(k) ) • M T k
m
≤ 2−k kM T k ≤ 2−k m .
m
Somit ist H n(k) • M T k≥m eine Cauchyfolge in M2c , welche daher gegen ein
N m ∈ M2c konvergiert wegen Proposition 4.53(c).
m
Es gilt (N m+1 )T = N m , da wegen Lemma 5.13
(N
m+1 T m
)
T m
n(k)
T m+1
=
lim H
•M
(5.30)
m
m+1 T
= lim H n(k) • M T
(5.31)
k
k
= lim H n(k) • M T
m
k
= Nm .
(5.32)
m
Somit ist N m = N T für ein stetiges lokales Martingal N .
Weiters gilt H n(k) • M −→ N u.c.p. (k → ∞): Sei t > 0 und ε > 0. Wir
wollen zeigen, dass ∀δ > 0 ∃k0 mit
P(sup |(H n(k) • M )s − Ns | ≥ ε) < δ
∀k ≥ k0 .
s≤t
Es gibt ein m ≥ dte mit P(T m < t) < 2δ und ein k0 ≥ m sodass für k ≥ k0 gilt
2
m
m
kH n(k) • M T − N T k2 < δε8 , sodass
P(sup |H n(k) • M T
m
m
− N T | ≥ ε) ≤
s≤t
≤
1
m
m
E(sup |(H n(k) • M T − N T )s (5.33)
|2 )
2
ε
s≤t
4
δ
m
m
E(|(H n(k) • M T − N T )∞ |2 ) (5.34)
< .
ε2
2
Damit haben wir
P(sup |H n(k) • M − N | ≥ ε)
(5.35)
s≤t
≤ P(sup |H n(k) • M − N | ≥ ε und T m < t)
(5.36)
s≤t
+P(sup |H n(k) • M − N | ≥ ε und T m ≥ t)
(5.37)
s≤t
≤
δ
m
m
+ P(sup |H n(k) • M T − N T | ≥ ε) < δ ,
2
s≤t
(5.38)
womit alles gezeigt wäre.
Beweis von Satz 5.12: Mit Lemma 5.14 gibt es speziell eine Teilfolge (n1 (k))k≥1
von (n)n≥1 mit diesen Eigenschaften und entsprechenden Prozessen A(1) , N (1) .
73
5 Stochastische Integration
Angenommen es gelte nicht [M ]n −→ A(1) u.c.p. (n → ∞). Dann gibt es also
t > 0 und ε > 0 mit
lim P(sup |[M ]ns − A(1)
s | ≥ ε) 6= 0 .
n→∞
s≤t
Das heißt es gibt ein δ > 0 und eine Teilfolge (n∗ (k))k≥1 von (n)n≥1 mit
n (k)
(1)
P(sups≤t |[M ]s ∗ − As | ≥ ε) > δ.
Nun gibt es wiederum laut Lemma 5.14 eine Teilfolge (n2 (k))k≥1 von (n∗ (k))k≥1
mit
1. [M ]n2 (k) −→ A(2) u.c.p. (k → ∞);
2. N (2) := M 2 − A(2) ist ein stetiges lokales Martingal;
(2)
(1)
3. P(sups≤t |As − As | ≥ ε) > δ.
Nun gilt N (1) + A(1) = M 2 = N (2) + A(2) , sodass N (1) − N (2) = A(2) − A(1) . Die
A(i) haben aber Pfade von beschränkter Variation, sodass N (1) −N (2) ein lokales
Martingal von beschränkter Variation ist. Laut Satz 4.48 ist N (1) − N (2) = 0
fast sicher und damit A(2) − A(1) fast sicher, ein Widerspruch.
Somit können wir definieren [M ] := A(1) . Die Eindeutigkeit bis auf Ununterscheidbarkeit ist mit obiger Argumentation auch klar.
Gilt schließlich M ∈ M2c , dann gilt wegen monotoner Konvergenz, und da
M 2 ein Submartingal ist,
2
2
2
E([M ]∞ ) = lim E([M ]m ) = lim E(Mm
− Nm ) = lim E(Mm
) ≤ E(M∞
) < ∞.
m
m
m
Somit gilt wegen Doob’s L2 -Ungleichung
2
E(sup |Mt2 − [M ]t |) ≤ E(sup Mt2 ) + E[M ]∞ ≤ 5E(M∞
) < ∞.
t≥0
t≥0
(Errinnern Sie sich an das zweite Beispiel zu U.I.)
Definition 5.15. Der Prozess [M ] heißt die quadratische Variation von M .
Beispiel: Sei M = B. Was ist [M ]?
Wir wissen, dass die Zerlegung M 2 = 2N + [M ] eindeutig ist, und dass Bt2 − t
ein Martingal ist. Daraus folgt [M ]t = t.
Wir wollen nun das Itô-Integral für allgemeinere Integranden definieren.
Definition 5.16. Für ein M ∈ M2c definieren wir ein endliches Maß µM auf P
durch
Z ∞
µM (A) = E
1A d[M ] , (A ∈ P)
0
74
5.3 Das Itô-Integral bezüglich M ∈ M2c
auf Ω × (0, ∞). Dann gilt also für einen vorhersehbaren Prozess H
Z ∞
Z
2
2
H dµM = E
Hs d[M ]s .
Ω×(0,∞)
0
Wir schreiben L2 (M ) := L2 (Ω × (0, ∞), P, µM ) und
Z ∞
2
2
2
kHkM := kHkL2 (M ) = E
Hs d[M ]s .
0
Übungsaufgabe: µM ist tatsächlich ein Maß.
Bemerkung 5.17. [M ] ist ein monoton wachsender Prozess. Sei H ≥ 0 vorhersehbar. Dann ist H : Ω × (0, ∞) −→ R messbar bezüglich P und damit auch
messbar bezüglich F∞ ⊗ B((0, ∞)), da letztere von den Rechtecken B × (s, t]
mit B ∈ F∞ erzeugt wird. Damit ist für jedes ω ∈ Ω die Funktion t 7→
Ht (ω) Rmessbar, vgl. etwa [Els09, Kap. V,1.1 Lemma]. Damit ist also das In∞
tegral 0 H 2 (ω)d[M ](ω) jedenfalls definiert, eventuell mit Wert ∞. Das gilt
speziell
für H = 1A Rmit A ∈ P. Mit dem Satz von Fubini gilt außerdem
R
∞
2
2
Ω×(0,∞) H dµM = E( 0 H d[M ]).
Satz 5.18. Es gibt eine eindeutig bestimmte Isometrie
I : L2 (M ) −→ M2c
derart, dass I(H) = H • M für alle H ∈ S.
P
2
Beweis: Sei H = n−1
k=0 Zk 1(tk ,tk+1 ] ∈ S. Wegen Proposition 5.9 ist H•M ∈ Mc
mit
n−1
X
kH • M k2 =
E Zk2 (Mtk+1 − Mtk )2 .
k=0
Aber M 2 − [M ] ist ein Martingal und
E Zk2 (Mtk+1 − Mtk )2 = E Zk2 E((Mtk+1 − Mtk )2 |Ftk )
= E Zk2 E(Mt2k+1 − Mt2k |Ftk )
= E Zk2 E([M ]tk+1 − [M ]tk |Ftk )
= E Zk2 ([M ]tk+1 − [M ]tk ) .
R∞
Somit gilt kH • M k2 = E 0 Hs2 d[M ]s = kHkM . Laut Proposition 5.6 ist aber
S dicht in L2 (M ) und laut Proposition 4.53 ist M2c vollständig.
Somit lässt sich die Abbildung
S −→ M2c
H 7−→ H • M
eindeutig zu einer Isometrie I : L2 (M ) −→ M2c fortsetzen.
75
5 Stochastische Integration
Definition 5.19. Sei M ∈ M2c und H ∈ L2 (M ). Wir schreiben
Z t
Hs dMs := (H • M )t := I(H)t .
0
Der Prozess H • M ist Itô’s stochastisches Integral von H bezüglich M .
Bemerkung 5.20. Laut Konstruktion ist also H • M für M ∈ M2c und H ∈
L2 (M ) ein stetiges Martingal.
Sei etwa M = B t0 eine Brown’sche Bewegung, gestoppt bei
R t t0 > 0. Ein
vorhersehbarer Prozess H ist genau dann in L2 (M ), wenn E( 0 0 Ht2 dt) < ∞.
Es ist eine gute Übung zu zeigen, dass etwa für jedes n ∈ N die Prozesse t 7→ Btn
in L2 (M ) liegen.
5.4 Das Itô-Integral bezüglich M ∈ Mc,loc
Wir definieren
Mc,loc := {M : M ein stetiges lokales Martingal } .
Proposition 5.21. Sei M ∈ M2c und sei H ∈ L2 (M ). Sei T eine Stoppzeit.
Dann gilt
(H • M )T = (H1(0,T ] ) • M = H • M T .
Beweis: Für H ∈ S und T eine Stoppzeit gilt laut Proposition 5.9 (a), dass
(H • M )T = H • M T .
Für H ∈ S und eine Stoppzeit T , welche nur endlich viele Werte annimmt,
ist H1(0,T ] ∈ S und die Aussage ist leicht zu zeigen.
Für eine allgemeine Stoppzeit T setze
Tn := 2−n d2n T e1T ≤n + ∞1T >n .
Dann nimmt Tn nur endlich viele Werte an und ist eine Stoppzeit. Seien H ∈
S und M ∈ M2c . Dann ist H1(0,Tn ] noch immer einfach und (H • M )Tn =
(H1(0,Tn ] ) • M = H • M Tn .
Es gilt
Z
Tn
kH1(0,Tn ] − H1(0,T ] k2M = E
Ht2 d[M ]t
−→ 0 ,
T
wegen beschränkter Konvergenz. Somit gilt
H1(0,Tn ] • M −→ H1(0,T ] • M
in M2c . Andererseits ist (H • M )Tn −→ (H • M )T f.s. wegen der Rechtstetigkeit
von H • M . Also
(H • M )Tn =
f.s.
(H • M )T
76
H1(0,Tn ] • M
L2
H1(0,T ] • M
5.4 Das Itô-Integral bezüglich M ∈ Mc,loc
Wir wissen (H • M )Tn = (H1(0,Tn ] ) • M = H • (M Tn ). Aber (H • M )Tn −→
(H •M )T f.s. und H •M Tn −→ H •M T f.s. und (H1(0,Tn ] )•M −→ (H1(0,T ] )•M
in M2c . Also haben wir die Gleichung für einfache Prozesse H gezeigt.
Sei nun H ∈ L2 (M ), M ∈ M2c . Wähle Prozesse Hn ∈ S mit Hn −→ H in
L2 (M ). Das heißt
Z ∞
2
E
(Hn − H) d[M ] −→ 0 .
0
1. Offenbar gilt
Z ∞
Z
2
0≤E
(Hn 1(0,T ] − H1(0,T ] ) d[M ] ≤ E
0
∞
(Hn − H) d[M ] −→ 0 ,
2
0
sodass Hn 1(0,T ] −→ H1(0,T ] in L2 (M ) und damit Hn 1(0,T ] • M −→ H1(0,T ] • M
in M2c .
2. Da stoppen und quadratische Variation vertauschbar sind (Ü), gilt
Z ∞
Z ∞
2
T
2
T
E
(Hn − H) d[M ]
= E
(Hn − H) d[M ]
0
0
Z T
= E
(Hn − H)2 d[M ]
Z0 ∞
2
≤ E
(Hn − H) d[M ] −→ 0 ,
0
sodass Hn • M T −→ H • M T in M2c .
3.
Hn −→ H in L2 (M ) ⇔ Hn • M −→ H • M in M2c
⇔ E (Hn • M − H • M )2∞ −→ 0 .
Nun ist, da (Hn • M − H • M )2 ein Submartingal ist
1
2
2
E (Hn • M − H • M )∞ ≥
E sup(Hn • M − H • M )t
4
t≥0
1
≥
E (Hn • M − H • M )2T
4
1
=
E ((Hn • M − H • M )T∞ )2 ,
4
sodass (Hn • M )T −→ (H • M )T in M2c .
Alles zusammen ergibt das behauptete Resultat.
Definition 5.22. Sei H ein vorhersehbarer Prozess. Wir sagen H ist lokal
beschränkt, wenn es Stoppzeiten (Tn )n≥1 gibt mit Tn ↑ ∞ f.s. und derart, dass
für jedes n der Prozess H1(0,Tn ] beschränkt ist, also kH1(0,Tn ] k∞ < ∞.
Bemerkungen:
77
5 Stochastische Integration
1. Jeder stetige angepasste Prozess ist lokal beschränkt.(Ü)
2. Sei M ein lokales Martingal, H ein lokal beschränkter vorhersehbarer
Prozess. Dann gibt es eine Folge von Stoppzeiten (Tn )n≥1 , die sowohl M
als auch H reduziert.
3. Ist M ein stetiges lokales Martingal und H lokal beschränkt, dann gibt es
eine reduzierende Folge (Sn )n≥1 für H und M derart, dass M Sn für alle
n beschränkt und damit in M2c ist.
Wir können nun das stochastische Integral bezüglich eines lokalen Martingals
definieren:
Definition 5.23. Sei M ∈ Mc,loc also ein stetiges lokales Martingal und H ein
lokal beschränkter Prozess. Sei (Tn ) eine reduzierende Folge für M und H mit
M Tn beschränkt ∀n. Dann definieren wir
(H • M )t := ((H1(0,Tn ] ) • M Tn )t
für t ≤ Tn .
Damit können wir auch schreiben
(H • M )t := lim ((H1(0,Tn ] ) • M Tn )t
n→∞
(t ≥ 0) .
Übung: (H1(0,Tn ] ) • M Tn −→ H • M u.c.p.
Definition 5.24. Sei H beschränkt und vorhersehbar, A von endlicher Variation.
Z t
(H • A)t :=
Hs dA(s) (t ≥ 0) .
0
Man kann nun analog zu H • M auch H • A für lokal beschränktes H und A
mit beschränkter Variation definieren.
Die Definition 5.24 ist aus analogen Gründen wie in Bemerkung 5.17 unproblematisch.
Proposition 5.25. Seien H lokal beschränkt und A von beschränkter Variation. Dann ist H • A von beschränkter Variation.
Beweis: Übung.
5.5 Eigenschaften des Itô-Integrals
Proposition 5.26. Sei M ∈ Mc,loc . Seien H, K lokal beschränkte vorhersehbare Prozesse und T eine Stoppzeit. Dann gelten
(a) (H • M )T = (H1(0,T ] ) • M = H • M T
(b) H • M ∈ Mc,loc
78
5.5 Eigenschaften des Itô-Integrals
(c) [H • M ] = H 2 • [M ]
(d) H • (K • M ) = (HK) • M
Beweis: (a) und (b) folgen aus Proposition 5.21 und aus der Definition des
Itô-Integrals für lokal beschränktes H und ein lokales Martingal M .
Mittels (a) können wir (c) und (d) auf den Fall, dass M, H und K gleichmäßig
beschränkt sind, zurückführen.
(c) Wir haben für eine beliebige beschränkte Stoppzeit S
E((H • M )2S ) = E((H1(0,S] • M )2∞ )
= E((H 2 1(0,S] • [M ])∞ )
= E((H 2 • [M ])S ) .
Aus dem OST, folgt nun dass
(H • M )2 − H 2 • [M ]
ein Martingal ist. (c) folgt also aus der Eindeutigkeit der quadratischen Variation.
(d) Der Fall H, K ∈ S ist elementar. Für H, K gleichmäßig beschränkt gibt
es Folgen (Hn )n≥1 und (Kn )n≥1 gleichmäßig beschränkter Prozesse in S mit
Hn −→ H und Kn −→ K in L2 (M ).
Wegen (c) gilt
kHk2L2 (K•M )
=
E((H 2 • [K • M ])∞ )
=
E((H 2 • (K 2 • [M ]))∞ )
(∗)
=
E((HK)2 • [M ])∞ )
=
kHKk2L2 (M )
≤
min(kHk2∞ kKk2L2 (M ) , kHk2L2 (M ) kKk2∞ ) .
Es gelten Hn • (Kn • M ) = (Hn Kn ) • M und
kHn • (Kn • M ) − H • (K • M )k
≤ k(Hn − H) • (Kn • M )k + kH • ((Kn − K) • M )k
= kHn − HkL2 (M ) kKn k∞ + kHk∞ kKn − KkL2 (M )
−→ 0
für n → ∞. Ähnlich zeigt man, dass (Hn Kn ) • M −→ (HK) • M .
Wir müssen noch (∗) im vorigen Beweis begründen.
Lemma 5.27. Seien h, k beschränkte messbare Funktionen und a eine monoton
wachsende Funktion. Dann gilt
h • (k • a) = (hk) • a ,
wo (h • a)t =
Rt
0
hs das .
79
5 Stochastische Integration
Beweis: Die Aussage ist leicht zu überprüfen für den Fall, dass k die charakteristische Funktion eine Intervalls ist. Aus Linearitätsgründen folgt sie auch
für Treppenfunktionen.
Sei nun k eine beliebige messbare beschränkte Funktion. Es gibt eine Folge
von Treppenfunktionen (k n ) derart, dass
Z t
|ksn − ks |das −→ 0 ,
0
für n → ∞ für alle t.
Es ist
|(h • (k • a))t − (h • (k n • a))t | = |(h • ((k − k n ) • a))t |
≤ khk∞ (|k − k n | • a)t −→ 0
und
|(hk) • a)t − ((hk n ) • a)t | = |((h(k − kn )) • a)t |
≤ khk∞ (|k − k n | • a)t −→ 0
Wir wissen, dass h • (k n • a) = (hk n ) • a für alle n, die Aussage folgt für k,
indem man n gegen unendlich gehen lässt.
Proposition 5.28. Sei M ∈ Mc,loc und A ein stetiger angepasster Prozess von
beschränkter Variation. Sei H ein lokal beschränkter links-stetiger angepasster
Prozess (⇒ H vorhersehbar). Dann gelten
b2n tc−1
X
Hk2−n (M(k+1)2−n − Mk2−n ) −→ (H • M )t
u.c.p.
k=0
und
b2n tc−1
X
Hk2−n (A(k+1)2−n − Ak2−n ) −→ (H • A)t
u.c.p.
k=0
für n −→ ∞.
Bemerkung 5.29. Die Proposition besagt, dass das stochastische Integral als
Limes einer Riemannsumme aufgefasst werden kann, zumindest für linksstetige
Integranden.
Beweis: Der Beweis der zweiten Gleichung ist eine einfache Übungsaufgabe.
Zum Beweis der ersten Gleichung reduzieren wir auf den Fall M ∈ M2c , H
beschränkt durch Lokalisierung.
b2n tc−1
X
Hk2−n (M(k+1)2−n − Mk2−n ) + Htn (Mt − M2−n b2n tc ) = (H n • M )t ,
k=0
wo Htn := Hαn (t) −→ Ht für n → ∞ wegen der Linksstetigkeit von H (hier ist
wie früher αn (t) := k2−n für k2−n < t ≤ (k + 1)2−n ).
80
5.5 Eigenschaften des Itô-Integrals
Da kH n − Hk∞ ≤ 2kHk∞ , folgt aus dem Satz über beschränkte Konvergenz
dass
Z ∞
(Htn − Ht )2 d[M ]t −→ 0 ,
0
sodass
Hn
• M −→ H • M in M2c , somit auch u.c.p.
Wir beweisen noch, dass aus M n −→ M in M2c folgt, dass M n −→ M u.c.p.:
sei ε > 0.
P(sup |Msn − Ms | ≥ ε)
s
1
E(sup |Msn − Ms |)
ε2
s
4
n
≤ 2 E(|M∞
− M ∞ |2 )
ε
4
= 2 kM n − M kM2c .
ε
Proposition 5.30. Seien M, N ∈ Mc,loc . Definiere
≤
b2n tc−1
[M, N ]nt
:=
X
(M(k+1)2−n − Mk2−n )(N(k+1)2−n − Nk2−n ) .
k=0
Dann gibt es genau einen stetigen angepassten Prozess [M, N ] von beschränkter
Variation derart, dass
(a) [M, N ]n −→ [M, N ] u.c.p.;
(b) M N − [M, N ] ∈ Mc,loc ;
(c) wenn M, N ∈ M2c dann ist M N − [M, N ] ein UI Martingal;
(d) für H lokal beschränkt vorhersehbar
[H • M, N ] + [M, H • N ] = 2H • [M, N ] .
Beweis: (a),(b) und (c) folgen aus Satz 5.12 angewendet auf M + N und
M − N und Subtraktion,
1
[M, N ] = ([M + N ] − [M − N ]) .
4
(d) Wir wenden Proposition 5.26(c) auf die Prozesse M ± N an und sehen, dass
[H • M, H • N ] = H 2 • [M, N ] .
Somit gilt
[H • M, H • N ] + [H • M, N ] + [M, H • N ] + [M, N ] =
= [(H + 1) • M, (H + 1) • N ]
= (H + 1)2 • [M, N ] = H 2 • [M, N ] + 2H • [M, N ] + [M, N ]
= [H • M, H • N ] + 2H • [M, N ] + [M, N ] ,
woraus die Aussage folgt.
81
5 Stochastische Integration
Definition 5.31. Wir nennen den Prozess [M, N ] die Kovariation der Prozesse
M und N . Es ist leicht zu sehen, dass die Kovariation bilinear ist.
Proposition 5.32 (Kunita-Watanabe-Identität). Seien M, N ∈ Mc,loc . Sei H
lokal beschränkt und vorhersehbar. Dann gilt
[H • M, N ] = H • [M, N ] .
Bemerkung 5.33. Dies ist eine Verschärfung der Aussage von Proposition
5.30(d). Es ist überraschend, dass der Beweis dieser Gleichung relativ schwierig
ist.
Beweis: Wegen Proposition 5.30(d) genügt es, [H • M, N ] = [M, H • N ] zu
zeigen.
Wegen Proposition 5.30 genügt es zu zeigen, dass
(H • M )N − M (H • N ) ∈ Mc,loc ,
da
(H • M )N − [M, H • N ]
= (H • M )N − M (H • N ) + (M (H • N ) − [M, H • N ]) ,
|
{z
}
∈Mc,loc
und da der Kovariationsprozess eindeutig bestimmt ist.
Durch Lokalisierung können wir annehmen, dass M, N ∈ M2c und dass H
gleichmäßig beschränkt ist.
Aufgrund des OST genügt es zu zeigen, dass
E((H • M )T NT ) = E(MT (H • N )T )
für alle Stoppzeiten T . Wegen Proposition 5.26(a) kann man sich auf den
Fall T ≡ ∞ beschränken: Gelte E((H • M )∞ N∞ ) = E(M∞ (H • N )∞ ) für
alle beschränkten M, N, H. Dann gilt auch für jede Stoppzeit T , dass E((H •
T ) = E(M T (H •N T ) ). Es ist aber (H •M T ) N T = (H •M )T N T =
M T )∞ N∞
∞
∞ ∞
∞
∞ ∞
(H • M )T NT .
Betrachte zunächst den Fall
H = Z1(s,t] ,
H
Fs -messbar, s ≤ t .
Für diesen gilt
E((H • M )∞ N∞ ) = E(Z(Mt − Ms )N∞ )
= E(ZMt N∞ − ZMs N∞ )
= E(ZMt E(N∞ |Ft )) − E(ZMs E(N∞ |Fs ))
= E(ZMt Nt − ZMs Ns )
..
.
= E(M∞ (H • N )∞ ) .
82
5.6 Die Itô-Formel
Dies kann man wegen der Linearität des Integrals auf H ∈ S verallgemeinern.
2
Allgemein sei nun (H n ) eine Folge
R ∞ in S mit2 Hn −→ H sowohl in L (M ) als
2
auch in L (N ). (Sei etwa limn E 0 (Hn − H) d([M ] + [N ]) = 0). Dann gelten
(H n • M )∞ −→ (H • M )∞
in L2 (P) ,
(H n • N )∞ −→ (H • N )∞
sodass also E((H • M )∞ N∞ ) = E(M∞ (H • N )∞ ) für alle H (Stetigkeit des
inneren Produkts eines Hilbertraumes).
5.6 Die Itô-Formel
Wir werden als nächstes eines der zentralen Resultate der Theorie beweisen,
nämlich die Itô-Formel. Um diese zu motivieren betrachten wir zwei Ergebnisse
aus der elementaren Analysis.
d
dt f (Xt )
d
dt (Xt Yt )
= f 0 (Xt )Ẋt
(Kettenregel)
= Ẋt Yt + Xt Ẏt
(Produktregel)
Da Semimartingale normalerweise nicht differenzierbar sind, besteht keine Hoffnung, eine direkte Verallgemeinerung dieser Resultate beweisen zu können.
Schon besser sehen die integrierten Varianten aus.
Rt
(Fundamentalsatz)
f (Xt ) = f (X0 ) + 0 f 0 (Xs )dXs
Rt
Rt
(partielle Integration)
Xt Yt = X0 Y0 + 0 Ys dXs + 0 Xs dY s
wo wir statt (Ẋ)s ds geschrieben haben dXs usw. Es ist nicht schwer, diese
Formeln für Prozesse mit beschränkter Variation zu beweisen. Im Fall allgemeiner (stetiger) Semimartingale kommen aber noch “Korrekturterme” hinzu.
Definition 5.34. Zunächst definieren wir für ein stetiges Semimartingal X =
X0 + M + A
[X] := [M ] .
Dann gilt (Übung!)
b2n tc−1
X
(X(k+1)2−n − Xk2−n )2 −→ [X]t
u.c.p.
k=0
Analoges gilt für die Kovariation zweier Semimartingale.
Definition 5.35. Für einen lokal beschränkten vorhersehbaren Prozess H definieren
wir
H • X := H • M + H • A ,
wo H • M das stochastische Integral und H • A dasR Integral im Sinne von
t
Lebesgue-Stieltjes ist. Wir schreiben auch (H • X)t = 0 Hs dXs .
83
5 Stochastische Integration
Proposition 5.36 (Partielle Integration). Seien X, Y zwei stetige Semimartingale. Dann gilt
Z t
Z t
Xt Yt − X0 Y0 =
Ys dXs +
Xs dYs + [X, Y ]t .
0
0
Bemerkung 5.37. Für Prozesse mit beschränkter Variation ist [X, Y ] = 0,
wir erhalten also das klassische Resultat.
Beweis: Da beide Seiten stetig sind genügt es, die Aussage für t = K2−N ,
K, N ∈ N zu beweisen. Es gilt für u > v ≥ 0
Xu Yu − Xv Yv = Yv (Xu − Xv ) + Xv (Yu − Yv ) + (Xu − Xv )(Yu − Yv )
und somit auch für n ≥ N
Xt Yt − X0 Y0 =
PK2n−N −1 Yk2−n (X(k+1)2−n − Xk2−n )
k=0
+Xk2−n (Y(k+1)2−n − Yk2−n )
+(X(k+1)2−n − Xk2−n )(Y(k+1)2−n − Yk2−n ) .
Aber wir wissen aufgrund der Propositionen 5.28 und 5.30, dass die rechte Seite
u.c.p. gegen
Z
Z
t
t
Ys dXs +
Xs dY s + [X, Y ]t
0
0
konvergiert.
Satz 5.38 (Itô-Formel). Seien X 1 , . . . , X d stetige Semimartingale und sei X
der durch
X = (X 1 , . . . , X d )
definierte vektorwertige Prozess. Sei f : Rd −→ R in C 2 . Dann gilt für alle
t≥0
f (Xt ) = f (X0 ) +
d Z
X
i=1
0
t
d Z
∂f
1 X t ∂2f
i
(Xs ) dXs +
(Xs ) d[X i , X j ]s .
i ∂xj
∂xi
2
∂x
0
i,j=1
(5.39)
Bemerkung 5.39. Für Prozesse mit beschränkter Variation ist [X i , X j ] = 0
für alle i, j und wir erhalten wieder das klassische Resultat.
Beweis: Wir schreiben X = X0 + M + A. Durch Lokalisierung können wir
uns auf den Fall beschränken, dass alle X i , M i , sowie die Totalvariationen der
Prozesse Ai , [M i ] und [M i , M j ] alle gleichmäßig durch eine Konstante R > 0
beschränkt sind.
Sei t ≥ 0 fest gewählt und sei A die Menge der f ∈ C 2 (Rd ) derart, dass für
f die Itô-Formel (5.39) gilt. Wir zeigen
(a) A enthält die konstanten Funktionen sowie die Koordinatenfunktionen
x 7→ xi ;
84
5.6 Die Itô-Formel
(b) A ist ein Vektorraum;
(c) A ist eine Algebra, d.h. f, g ∈ A ⇒ f g ∈ A;
(d) fn ∈ A, fn −→ f in Cb2 (BR ) ⇒ f ∈ A.
Hier heißt fn −→ f in Cb2 (BR ), dass alle Ableitungsfunktionen von fn bis zur
zweiten Ordnung gegen diejenigen von f konvergieren, und zwar gleichmäßig
auf BR := {x : |x| ≤ R}.
Da die Polynome in Cb2 (BR ) dicht liegen folgt aus (a), (b), (c) und (d) dass
A = C 2 (Rd ).
Die Punkte (a) und (b) sind klar.
(c) Seien f, g ∈ A und setze Fs := f (Xs ), Gs := g(Xs ). Da die Itô-Formel für
f und g gilt, sind F und G stetige Semimartingale. Wir können also partielle
Integration anwenden:
Z t
Z t
Ft Gt − F0 G0 =
Fs dGs +
Gs dFs + [F, G]t
(∗)
0
0
Wegen Proposition 5.26(d), H • (K • X) = (HK) • X, ist
Z
t
Fs dGs =
0
d Z
X
i=1
t
f (Xs )
0
d Z t
X
∂g
∂2g
i 1
(X
)dX
+
f
(X
)
(Xs )d[X i , X j ]s
s
s
s
i ∂xj
∂xi
2
∂x
0
i,j=1
sowie
Z t
d Z t
d Z t
X
X
∂f
∂2f
i 1
Gs dFs =
g(Xs ) i (Xs )dXs +
g(Xs ) i j (Xs )d[X i , X j ]s .
∂x
2
∂x ∂x
0
0
0
i,j=1
i=1
Aufgrund der Kunita-Watanabe-Identität gilt
[F, G]t =
d
X
∂f
∂g
[ i (X) • X i , j (X) • X j ]t
∂x
∂x
i,j=1
=
d X
∂f
∂g
i
j
(X)
(X)
•
[X
,
X
]
∂xi
∂xj
t
i,j=1
=
d Z
X
i,j=1 0
t
∂f
∂g
(X) j (X)d[X i , X j ]s .
∂xi
∂x
Setzt man dies in (∗) ein, so erhält man die Itô-Formel für f g.
(d) Es gelte die Formel für fn , n ≥ 1. Um zum Limes übergehen zu können
genügt es zu zeigen, dass

((Hn − H) • M i )t → 0 in L2

((Hn − H) • Ai )t → 0 in L1
Hn −→ H glm. =⇒

((Hn − H) • [M i , M j ])t → 0 in L1
85
5 Stochastische Integration
Das ist aber unter unserer Annahme der Beschränktheit der Martingale, Variations- und Kovariationsprozesse eine leichte Übungsaufgabe.
5.7 Stratonovich-Integral
Wenn wir ein klassisches Integral über eine stetige Funktion numerisch annähern
wollen, dann können wir etwa die Rechteckregel verwenden, das heißt
Z
t
f (s)ds ≈
0
n−1
X
f (tk )(tk+1 − tk ) .
k=0
Eine andere, vielleicht sogar plausiblere Methode ist die Trapezregel
Z
t
f (s)ds ≈
0
n−1
X
k=0
1
(f (tk ) + f (tk+1 ))(tk+1 − tk ) .
2
Hätten wir diese Approximation auch zur Konstruktion des stochastischen Integrals verwenden können? Die Antwort lautet ja, mit größeren Schwierigkeiten,
und mit einem anderem Ergebnis, wie wir sogleich sehen werden.
Seien X, Y stetige Semimartingale. Wir definieren das Stratonovich Integral
durch
Z t
Z t
1
Ys ∂Xs :=
Ys dXs + [X, Y ]t .
2
0
0
Man beachte, dass wir einen höheren Grad an Regularität für den Integranden
gefordert haben.
Für die rechte Seite der Gleichung haben wir eine diskrete Approximation:
Z t
1
Ys dXs + [X, Y ]t
2
0
b2n tc−1
= lim
n
X
Yk2−n (X(k+1)2−n − Xk2−n )
k=0
n
b2 tc−1
1 X
(Y(k+1)2−n − Yk2−n )(X(k+1)2−n − Xk2−n )
+
2
k=0
b2n tc−1
= lim
n
X 1
(Y
−n + Yk2−n )(X(k+1)2−n − Xk2−n ) ,
2 (k+1)2
k=0
wobei alle Limiten als u.c.p. zu verstehen sind. Somit ist das StratonovichIntegral der Grenzwert der Approximationen durch die Trapezregel. Schon
aus der Definition ist ersichtlich, dass sich das Stratonovich-Integral vom ItôIntegral unterscheidet und dass das erstere im Allgemeinen kein lokales Martingal hervorbringt, falls X ein solches ist.
86
5.8 Stochastischer Differentialkalkül
Eine weitere Motivation diese Variante zu betrachten ist die, dass sie gewisse
Ähnlichkeiten mit dem klassischen Integral aufweist. So liest sich die Formel
für die partielle Integration für das Stratonovich-Integral so:
Z t
Z t
Ys ∂Xs .
Xs ∂Ys +
Xt Yt − X0 Y0 =
0
0
Das folgt unmittelbar aus der Definition zusammen mit der Formel für die
partielle Integration für das Itô-Integral.
Proposition 5.40. Seien X 1 , . . . , X d stetige Semimartingale. Setze X = (X 1 , . . . , X d ).
Sei weiters f : Rd −→ R eine C 3 -Funktion. Dann gilt
d Z t
X
∂f
f (Xt ) = f (X0 ) +
(Xs )∂X i .
i
∂x
0
i=1
Beweis: Aufgrund der Itô-Formel haben wir
d X
∂f
∂f
∂2f
j
(Xt ) − i (X0 ) =
(X) • X
∂xi
∂x
∂xj ∂xi
t
j=1
+ Terme mit endlicher Variation,
sodass mit der Kunita-Watanabe-Identität
d X
∂f
∂2f
i
j
i
[ i (X), X ] =
(X) • X , X
∂x
∂xj ∂xi
j=1
=
d
X
∂2f
(X) • X j , X i .
j
i
∂x ∂x
j=1
Somit gilt wegen der Itô-Formel


d Z t
d

2
X
X
∂f
1
∂ f
i
j
i
f (Xt ) − f (X0 ) =
(X
)dX
+
(X)
•
[X
,
X
]
s
t
 0 ∂xi

2
∂xj ∂xi
i=1
=
=
j=1
d Z
X
t
0
i=1
Z
d
t
X
i=1
0
∂f
1 ∂f
(Xs )dX i + [ i (X), X i ]t
i
∂x
2 ∂x
∂f
(Xs )∂X i .
∂xi
5.8 Stochastischer Differentialkalkül
Wir vereinbaren, dass
dZt = Ht dXt
heißt
Zt − Z0 =
Rt
Rt
0
Hs dXs
∂Zt = Yt ∂Xt
heißt
Zt − Z0 =
dZt = dXt dYt
heißt
Zt − Z0 = [X, Y ]t .
0
Ys ∂Xs
87
5 Stochastische Integration
Mitunter lassen wir der Bequemlichkeit halber die Indizes weg, schreiben also
dZ = HdX statt dZt = Ht dXt u.s.w. Weiters vereinbaren wir, dass Produkte
zwischen Differentialen und Prozessen kommutativ sind, das heißt wir definieren
dXH := HdX. Aus der Definition von dXdY und der Kommutativität der Kovariation folgt, dass auch Produkte von Differentialen kommutativ sind.
Die Ergebnisse von Proposition 5.26(d) sowie die Kunita-Watanabe-Identität
übersetzen sich in diesen Kalkül wie folgt:
Ht (Kt dXt ) = (Ht Kt )dXt
Ht (dXt dYt ) = (Ht dXt )dYt .
Trotz ihres trivialen Aussehens muss man diese Gleichungen erst beweisen.
Beweis: Setzen Z = K • X, W = H • Z, V = (HK) • X. In den Differentialkalkül übersetzt bedeutet das dZ = KdX, dW = HdZ = H(KdX),
dV = (HK)dX. Proposition 5.26(d) besagt nun, dass W = V ist, also auch
dW = dV , sodass also
H(KdX) = (HK)dX .
Der Beweis der zweiten Gleichung ist eine gute Übungsaufgabe.
Die partielle Integration nimmt folgende Gestalt an:
d(Xt Yt ) = dXt Yt + Xt dYt + dXt dYt ,
die Itô-Formel
d
d
X
1 X ∂2f
∂f
i
df (Xt ) =
(Xt )dXt +
(Xt )dXtj dXti
i
j
i
∂x
2
∂x ∂x
i=1
i,j=1
was aussieht wie die Taylorentwicklung bis zum zweiten Glied.
Eine weitere Rechenregel im Differentialkalkül ist
dX(dY dZ) = (dXdY )dZ = 0.
Beweis: Setze V = [Y, Z], W = [X, [Y, Z]]. Da [Y, Z] endliche Variation hat,
gilt W = 0, also auch dW = 0. Aber 0 = dW = dXdV = dX(dY dZ). Analog
folgt dass (dXdY )dZ = 0.
Die Itô/Stratonovich-Umwandlung sieht im Differentialkalkül so aus:
1
∂Zt = Yt ∂Xt ⇐⇒ dZt = Yt dXt + dXt dYt .
2
Es gilt
Xt (Yt ∂Zt ) = (Xt Yt )∂Zt .
Rt
Beweis: Setzen Wt = 0 Ys ∂Zs , Vt = 0 Xs ∂Ws .
Rt
88
5.9 Übungsaufgaben
Es ist ∂W = Y ∂Z bzw. dW = Y dZ + 12 dY dZ. Weiters ∂V = X∂W bzw.
dV
1
= XdW + dXdW
2
1
1
= X(Y dZ + dY dZ) + dX(Y dZ)
2
2
1
= XY dZ + (dXY + XdY )dZ
2
1
= XY dZ + (d(XY ) − dXdY )dZ
2
1
= XY dZ + (d(XY ))dZ ,
2
sodass ∂Vt = (Xt Yt )∂Zt .
Weiters gelten
X(∂Y ∂Z) = (X∂Y )∂Z
∂(XY ) = ∂X Y + X∂Y
∂(f (X)) = Df (X)∂X .
Der Beweis ist eine leichte Übung.
5.9 Übungsaufgaben
1. Seien (Xn )n≥1 eine Folge von Zufallsvariablen und X eine Zufallsvariable.
Zeigen Sie: gilt Xn −→ X f.s., so gilt auch Xn −→ X in Wahrscheinlichkeit.
2. Seien (Xn )n≥1 eine Folge von Zufallsvariablen und X eine Zufallsvariable.
Zeigen Sie: gilt Xn −→ X in Wahrscheinlichkeit, so gibt es eine Teilfolge
(nk )k≥1 mit Xnk −→ X f.s.
3. Sei Xn −→ X in Wahrscheinlichkeit und Xn −→ Y in Wahrscheinlichkeit.
Zeigen Sie: X = Y f.s.
4. Sei Xn −→ X in Lp . Zeigen Sie: Xn −→ X in Wahrscheinlichkeit.
5. Sei Xn −→ X in L2 und Xn −→ Y f.s. Zeigen Sie: Xn −→ X f.s. und
Xn −→ Y in L2 .
6. Finden Sie ein Beispiel für Xn −→ X in Wahrscheinlichkeit aber nicht f.s.
7. (Satz von der dominierten Konvergenz) Sei Zn eine Folge von Zufallsvariablen und Z eine Zufallsvariable mit Zn → Z in Wahrscheinlichkeit. Sei
Y ≥ eine Zufallsvariable mit |Zn | ≤ Y für alle n.
Dann gilt limn→∞ E(Zn ) = E(Z).
8. Sei M ∈ M2c und sei H ∈ S. Sei T eine Stoppzeit.
Zeigen Sie:
(H • M )T = H • M T .
89
5 Stochastische Integration
9. Seien H ∈ S, M ∈ M2c und T eine Stoppzeit, welche nur endlich viele
Werte annimmt. Zeigen Sie (ohne Proposition 5.21 zu verwenden), dass
H1t≤T ∈ S und
(H • M )T = H1t≤T = H • M T .
10. Sei M ∈ M2c und T eine Stoppzeit. Zeigen Sie: [M T ] = [M ]T .
11. Sei M ∈ M2c . Zeigen Sie, dass durch die Gleichung
Z ∞
µM (A) := E
1A d[M ]
(A ∈ P)
0
tatsächlich ein Maß auf P definiert wird.
12. Sei B eine Brown’sche Bewegung und t0 > 0. Was ist µB t0 ?
13. Beweisen Sie die zweite Gleichung in Proposition 5.28.
14. Sei B eine Brown’sche Bewegung und sei t0 > 0. Zeigen Sie, dass B n ∈
L2 (B t0 ). Schließen Sie daraus, dass B n • B ein Martingal ist.
15. Sei H ein lokal beschränkter vorhersehbarer Prozess und sei M ein lokales
Martingal. Sei weiters (Tn )n≥0 eine Folge von Stoppzeiten so, dass M Tn
und H Tn beschränkt sind.
Zeigen Sie, dass
H1(0,Tn ] • M Tn −→ H • M
u.c.p.
16. Sei H lokal beschränkt und A von beschränkter Variation. Zeigen Sie:
Dann ist H • A von beschränkter Variation.
17. Sei f : Rd × R+ −→ R eine Funktion in C 2 . Seien X 1 , . . . , X d Semimartingale, X := (X 1 , . . . , X d ). Zeigen Sie mithilfe der Itô-Formel, dass
d Z t
X
∂f
∂f
i
(Xs , s)ds +
(Xs , s)dX(5.40)
s
i
∂t
∂x
0
i=1 0
Z
d
1 X t ∂2f
+
(Xs , s)d[X i , X j ]s (5.41)
j
i
2
0 ∂x ∂x
Z
f (Xt , t) − f (X0 , 0) =
t
i,j=1
(Dieses Resultat heißt auch Itô-Formel).
18. Zeigen Sie die Version der Itô-Formel aus Beispiel 17 mit der schwächeren
Voraussetzung, dass f bezüglich t nur einmal stetig differenzierbar ist
(Tipp: Ändern Sie den Beweis von Satz 5.38 entsprechend ab).
19. Berechnen Sie dXt für die Prozesse X = B n , n ∈ N.
20. Berechnen Sie dXt für die Prozesse Xt = tm B, Xt = b
s))dBs − µ, Xt = exp(σBt + µt).
90
Rt
0
exp(a/b(t −
5.9 Übungsaufgaben
21. Seien B, W zwei unabhängige Brown’sche Bewegungen. Dann ist [B, W ] =
0.
22. Seien f , g stetig differenzierbar und X, Y stetige Semimartingale. Zeigen
Sie
[f (X), g(X)] = f 0 (X)g 0 (Y ) • [X, Y ] .
23. Berechnen Sie [B n , B m ] (so weit wie möglich).
Rt
24. Berechnen Sie E( 0 Bsn ds) für n ∈ N. Hinweis: Verwenden Sie Beispiel
19 zusammen mit der Tatsache, dass das stochastische Integral bezüglich
einem lokalen Martingal ein lokales Martingal ist.
25. Zeigen Sie:
Ht (dXt dYt ) = (Ht dXt )dYt .
26. Zeigen Sie:
X(∂Y ∂Z) = (X∂Y )∂Z
∂(XY ) = ∂X Y + X∂Y
∂(f (X)) = Df (X)∂X .
91
6 Stochastische Differentialgleichungen
6.1 Beispiele von stochastischen Differentialgleichungen
Wie schon in Kapitel 2 angedeutet, wollen wir Gleichungen der Form
dXt = σ(Xt , t)dBt + b(Xt , t)dt
betrachten, wobei natürlich an die Funktionen σ und b gewisse Glattheitsvoraussetzungen zu stellen sind und B eine Brown’sche Bewegung ist. Die Differentiale sind im Sinne des stochastischen Differentialkalküls zu verstehen. Natürlich
kann man auch vektorwertige Prozesse X betrachten.
Wir betrachten zunächst ein paar Beispiele, die sich leicht lösen lassen.
Brown’sche Bewegung mit Drift Wir betrachten die Gleichung
dXt = σdBt + bdt .
Man sieht unmittelbar, dass Xt = x0 + σBt + bt eine Lösung ist mit X0 = x0 ,
x0 ∈ R. Sei Y eine weitere Lösung mit dYt = σdBt + bdt bezüglich derselben
Brown’schen Bewegung B, und mit Y0 = x0 . Dann gilt
dXt − dYt = 0
Rt
Rt
was soviel heißt wie Xt = x0 + 0 dXs = x0 + 0 dYs = Yt . X ist also die
eindeutige Lösung.
Geometrische Brown’sche Bewegung
Wir betrachten die Gleichung
dXt = σXt dBt + bXt dt = Xt (σdBt + bdt) .
Die Interpretation dieser Gleichung ist die eines zufällig gestörten Wachstums.
Wir versuchen einen Ansatz der Form Xt = x0 exp(σBt + λt). Wir wenden
die Itô-Formel an und erhalten
1
dXt = x0 σ exp(σBt + λt)dBt + x0 σ 2 exp(σBt + λt)dt
(6.1)
2
+x0 λ exp(σBt + λt)dt
(6.2)
1
= σXt dBt + ( σ 2 + λ)Xt dt .
(6.3)
2
Wir erhalten also eine Lösung der Differentialgleichung für 12 σ 2 + λ = b, also
1
Xt = x0 exp(σBt + (b − σ 2 )t) .
2
Wir sparen uns an dieser Stelle den Eindeutigkeitsbeweis (er ist aber nicht
schwer: sei Y eine beliebige Lösung. Wende die Itô-Formel auf X −1 Y an).
93
6 Stochastische Differentialgleichungen
Ohrnstein-Uhlenbeck Prozess
Wir betrachten die Gleichung
dXt = σdBt + a(Xt − µ)dt .
Die Interpretation für a < 0 ist folgende: die Änderung von X mit der Zeit hat
eine zufällige und eine deterministische Komponente, wobei die zufällige unabhängig von X ist und die deterministische X in Richtung µ lenkt. Langfristig
wird also X um den Wert µ herum schwanken.
Hier ist es relativ schwer, eine Lösung zu erraten. Hier ist sie:
Z t
x0 − µ
Xt = µ + σeat
e−as dBs +
.
σ
0
Anwenden der Itô-Formel liefert, dass dies tatsächlich obige SDE löst.
6.2 Existenz und Eindeutigkeit einer Lösung
Definition 6.1. Sei U ⊆ Rd . Wir sagen die Funktion f : U −→ Rm ist
Lipschitz-stetig oder einfach nur Lipschitz, falls es ein K < ∞ gibt derart,
dass
|f (x) − f (y)| ≤ K|x − y| , ∀x, y ∈ U ,
wobei |.| die euklidische1 Norm im jeweiligen Raum bezeichne. K heißt die
zugehörige Lipschitz-Konstante.
Ist U offen, dann sagen wir f sei lokal Lipschitz, falls für jede kompakte
Menge C ⊆ U die Einschränkung f |C auf C Lipschitz ist.
Beispiele: x 7→ |x| ist Lipschitz auf R, x 7→ x2 ist lokal Lipschitz auf R, aber
nicht Lipschitz auf R.
Wir schreiben L(Rm , Rd ) für den Vektorraum der linearen Abbildungen
σ = (σji )i,j : Rm −→ Rd
X
(σv)i =
σji v j , für v = (v j )j
j
wo i ∈ {1, . . . , d} und j ∈ {1, . . . , m}. Weiters sei
|σ| := sup |σv|
|v|=1
die übliche Operatornorm.
Wir werden Gleichungen der Form
dXt = σ(Xt )dBt + b(Xt )dt ,
(SDE)
betrachten mit Koeffizienten σ und b, wo σ : U −→ L(Rm , Rd ) und b : U −→ Rd
lokal Lipschitz sind und B = (B 1 , . . . , B m ) eine Brown’sche Bewegung im Rm .
1
Natürlich tut es jede andere Norm auch.
94
6.2 Existenz und Eindeutigkeit einer Lösung
Definition 6.2. Sei x0 ∈ U . Unter einer Lösung von (SDE) mit Startpunkt x0
verstehen wir einen stetigen angepassten2 Prozess X mit Werten in U derart
dass
Z t
Z t
b(Xs )ds , ∀t > 0 .
σ(Xs )dBs +
Xt = x0 +
0
0
Definition 6.3. Für einen stetigen angepassten Prozess X und T > 0 definieren
wir
|||X|||T := k sup |Xt |k2
t≤T
und bezeichnen mit CT die Menge der stetigen angepassten Prozesse
X : [0, ∞) × Ω −→ Rd
mit |||X|||T < ∞. (T ist hier ausnahmsweise eine deterministische Zeit.) Wir
schreiben weiters C für die Menge der stetigen angepassten Prozesse X für
welche
|||X|||T < ∞
∀T > 0 .
Proposition 6.4. CT ist ein Banachraum.
Beweis: Der Beweis ist eine offensichtliche Modifikation unseres früheren Beweises, dass C 2 ein Banachraum ist.
Satz 6.5. Seien U = Rd , x0 ∈ U und σ, b Lipschitz mit Konstante K. Dann
existiert ein eindeutig bestimmter Prozess X ∈ C derart, dass X eine Lösung
von (SDE) mit Startpunkt x0 ist.
Beweis: O.b.d.A. sei x0 = 0. Wegen der Lipschitzstetigkeit von σ ist |σ(x)| ≤
|σ(0)| + K|x|, sodass mit Doob’s L2 -Ungleichung für alle X ∈ CT
Z
t
σ(Xs )dBs |2 ) ≤
E(sup |
t≤T
0
Z
≤ 4E(|
Z
≤ 4E
T
σ(Xs )dBs |2 ) = 4E
Z
T
|σ(Xs )|2 ds
0
0
Z T
T
2
(|σ(0)| + K|Xs |) ds ≤ 4E
2(|σ(0)|2 + K 2 |Xs |2 )ds
0
0
≤ 8T (|σ(0)|2 + K 2 |||X|||2T ) < ∞ ,
wobei wir in der vorletzten Zeile die einfache Abschätzung (a + b)2 ≤ 2a2 + 2b2
verwendet haben.
2
Angepasst“ heißt hier und im Folgenden angepasst an die von der Brown’schen Bewegung
”
erzeugten Standard-Filterung.
95
6 Stochastische Differentialgleichungen
Wegen der Lipschitzstetigkeit von b ist mit der Cauchy-Schwarz-Ungleichung
Z t
b(Xs )ds|2 )
E(sup |
t≤T
0
Z
t
|b(Xs )|2 ds)
≤ E(sup t
t≤T
Z
0
T
≤ TE
|b(Xs )|2 ds
0
≤ 2T 2 (|b(0)|2 + K 2 |||X|||2T ) < ∞ .
Rt
Wir haben also gezeigt: Ist X ∈ CT , so sind die Prozesse 0 σ(Xs )dBs und
Rt
0 b(Xs )ds ebenfalls in CT . Somit definiert
Z t
Z t
F (X)t =
σ(Xs )dBs +
b(Xs )ds , t ≤ T
0
0
eine Abbildung F : CT −→ CT .
Es gelten für X, Y ∈ C
!
Z t
(σ(Xs ) − σ(Ys )) dBs |2 ≤
E sup |
t≤T
(6.4)
0
2 !
Z T
Z T
σ(Xs ) − σ(Ys )dBs
= 4E
|σ(Xs ) − σ(Ys )|2 ds (6.5)
≤ 4E 0
0
Z T
Z T
E |Xs − Ys |2 ds
(6.6)
≤ 4E
K 2 |Xs − Ys |2 ds ≤ 4K 2
0
0
≤ 4K 2
T
Z
|||X − Y |||2s ds
(6.7)
0
und
Z
E sup |
t≤T
!
t
(b(Xs ) − b(Ys )) ds|2
≤
(6.8)
0
2
≤ E sup t
|b(Xs ) − b(Ys )| ds
t≤T
Z
≤E T
0
Z
≤ T K 2E
!
t
Z
≤ TK
Z
|b(Xs ) − b(Ys )| ds (6.9)
|Xs − Ys |2 ds
T
Z
≤ T K2
E |Xs − Ys |2 ds
(6.10)
0
T
|||Xs − Ys |||2s ds .
(6.11)
0
Es ist somit
|||F (X) − F (Y
)|||2T
t
Z
(σ(Xs ) − σ(Ys ))dBs |2 )
≤ 2E(sup |
t≤T
0
t
Z
(b(Xs ) − b(Ys ))ds|2 )
+2E(sup |
t≤T
0
≤ 2K 2 (4 + T )
Z
0
96
2
0
T
0
2
T
T
|||X − Y |||2s ds .
6.2 Existenz und Eindeutigkeit einer Lösung
Mit Induktion folgt also für alle t ≤ T
|||F n (X) − F n (Y )k2t ≤
≤
Z
C n tn−1 t
|||X − Y |||2s ds
(n − 1)! 0
C n tn
|||X − Y |||2t ,
(n − 1)!
mit C := 2K 2 (4 + T ). Speziell ist für hinreichend großes n die Funktion F n
(n-fache Hintereinanderausführung) eine (strikte) Kontraktion auf CT .
Somit hat F n genau einen Fixpunkt X (T ) , das folgt aus dem Banach’schen
Fixpunktsatz. Damit ist X (T ) aber auch ein Fixpunkt von F : F n (X (T ) ) = X (T ) ,
sodass F n+1 (X (T ) ) = F (X (T ) ), woraus F n (F (X (T ) )) = F (X (T ) ). Das heißt,
F (X (T ) ) ist ebenfalls ein Fixpunkt von F n . Da aber der Fixpunkt von F n
eindeutig bestimmt ist, gilt F (X (T ) ) = X (T ) .
Wegen der Eindeutigkeit gilt
(T )
Xt
(T 0 )
= Xt
für alle t ≤ T ∧ T 0 f.s.,
(N )
sodass also mit Xt = Xt
für t ≤ N , N ∈ N, X ein wohldefiniertes Element
in C ist und eine Lösung von (SDE).
Ist Y eine weitere solche Lösung, dann gilt wiederum wegen der Eindeutigkeit
in CT
X|[0,T ] = Y |[0,T ]
für alle T > 0, sodass Y = X in C.
Wir wollen als nächstes die Voraussetzungen für den Satz über Existenz und
Eindeutigkeit abschwächen, indem sie nur lokal gelten müssen.
Definition 6.6.
• Unter einem lokal definierten Prozess (X, ζ) verstehen
wir eine Stoppzeit zusammen mit einer Abbildung
X : {(ω, t) ∈ [0, ∞) × Ω : t < ζ(ω)} −→ Rd .
• Wir sagen (X, ζ) sei angepasst, falls
Xt : Ωt −→ Rd
Ft -messbar ist für alle t, wo Ωt = {ω : t < ζ(ω)}.
• Weiters sagen wir (X, ζ) sei stetig, falls für fast jedes ω die Abbildung
[0, ζ) −→
Rd
t
7−→ Xt (ω)
stetig ist.
• Wir sagen (M, ζ) ist ein lokal definiertes, stetiges lokales Martingal (ldclm)
falls es eine Folge von Stoppzeiten Tn ↑ ζ f.s. gibt derart, dass M Tn ein
stetiges Martingal ist für alle n.
97
6 Stochastische Differentialgleichungen
• Wir sagen (A, ζ) ist ein lokal definierter, stetiger Prozess von beschränkter
Variation (ldbvp) falls (A, ζ) steig und angepasst ist und falls fast jeder
Pfad beschränkte Variation auf den Kompakta hat.
• Wir sagen (X, ζ) ist ein lokal definiertes, stetiges Semimartingal (ldcsm)
falls es ein ldclm (M, ζ) und einen ldbvp (A, ζ) gibt mit X = X0 + A + M .
• Wir sagen (H, ζ) ist ein lokal definierter, lokal beschränkter, vorhersehbarer Prozess (ldlbpp) falls es eine Folge von Stoppzeiten Tn ↑ ζ f.s. gibt
derart, dass H1(0, Tn ] ein beschränkter vorhersehbarer Prozess ist für alle
n.
• Wir definieren für ein ldcsm (X, ζ), X = X0 + M + A, und einen ldlbpp
(H, ζ) das Integral (H • X, ζ) durch
(H • X)Tt n = ((H1(0, Tn ]) • X Tn )t ,
wo (Tn )n≥1 eine reduzierende Folge von M ist.
Lemma 6.7. Sei U ⊆ Rd eine offene Menge, C ⊆ U kompakt. Dann
(i) gibt es eine C ∞ -Funktion φ : Rd −→ [0, 1] derart, dass φ ≡ 1 auf C und
φ ≡ 0 auf U c ;
(ii) gibt es zu einer gegebenen lokal Lipschitz-stetigen Funktion f : U −→ R
eine Lipschitz-stetige Funktion g : Rd −→ R mit g ≡ f auf C.
Beweis: (i) Sei
(
ψ(x) :=
1
A exp(− 1−|x|
|x| < 1
2)
,
0
|x| ≥ 1
R
d
wo A so gewählt sei dass
R Rd ψ(x)dx = 1. Sei weiters ψn (x) = n ψ(nx). Beachte
∞
dass ψn ∈ C und Rd ψn (x)dx = 1 für alle n. Weiters ist ψn (x) > 0 für
|x| < 1/n und ψn (x) = 0 für |x| ≥ 1/n.
Sei Cn = {x ∈ Rd : |x − c| ≤ 1/n ∀c ∈ C}. Da C kompakt ist, gibt es ein n
mit Cn ⊆ U . Wir definieren
Z
φ(x) :=
ψ2n (x − y)1C2n (y)dy .
Rd
1
alle y mit |x − y| ≤ 2n
, sodass φ(x) =
RFür x ∈ C ist 1C2n (y) = 1 für
1
c
ψ
(x
−
y)dy
=
1.
Für
x
∈
C
ist
1
(y)
=
0
für
alle
|x
−
y| ≤ 2n
, sodass
C2n
n
Rd 2n R
φ(x) = Rd ψ2n (x−y)·0 dy = 0. Für alle anderen x ist offenbar 0 ≤ φ(x) ≤ 1, und
man sieht durch Differentiation unter dem Integralzeichen, dass φ tatsächlich
∞-oft differenzierbar ist.
(ii) Setze g = φf (punktweise Multipikation). Übung: g ist tatsächlich Lipschitz.
98
6.2 Existenz und Eindeutigkeit einer Lösung
Proposition 6.8 (Itô-Formel). Seien X 1 , . . . , X d stetige Semimartingale, X =
(X 1 , . . . , X d ). Sei U ⊆ Rd offen und f : U −→ R eine C 2 -Funktion. Setze
weiters
ζ := inf{t ≥ 0 : Xt ∈
/ U} .
Dann gilt für alle t < ζ
f (Xt ) = f (X0 ) +
d Z
X
0
i=1
t
d Z
∂f
1 X t ∂2f
i
(Xs )dXs +
(Xs )dXsi dXsj .
j
i
∂xi
2
0 ∂x ∂x
i,j=1
√
Beispiel: X = 1 + B, B eine Brown’sche Bewegung, d = 1, f (x) = x, U =
(0, ∞). Dann haben wir
Z t
Z
p
1
1 t 1
−1/2
1 + Bt = 1 +
(− )(1 + Bs )−3/2 ds
(1 + Bs )
dBs +
2 0
4
0 2
für alle t < ζ = inf{t ≥ 0 : Bt = 0}.
Beweis: Sei Cn eine Folge kompakter Mengen mit Cn ↑ U . Definiere Tn :=
inf{t ≥ 0 : Xt ∈
/ Cn }. Es gibt nach Lemma 6.7(i) eine Folge von C 2 -Funktionen
fn , so dass fn auf Cn mit f übereinstimmt. Mit der Itô-Formel gilt
fn (XtTn )
= fn (X0 )+
d Z
X
i=1
0
t∧Tn
d Z t∧Tn
X
∂fn
∂ 2 fn
i 1
(X
)dX
+
(Xs )dXsi dXsj .
s
s
j ∂xi
∂xi
2
∂x
0
i,j=1
Offenbar gilt Tn ↑ ζ, sodass also für t < ζ stets ein n existiert mit t < Tn .
Definition 6.9. Unter einer lokalen Lösung von (SDE) mit Startpunkt x0
verstehen wir einen lokal definierten stetigen angepassten Prozess (X, ζ) mit
Werten in U derart, dass für alle t < ζ
Z t
Z t
Xt = x0 +
σ(Xs )dBs +
b(Xs )ds .
0
0
Wir sagen (X, ζ) ist maximal, wenn für jede lokale Lösung (X̃, ζ̃)
Xt = X̃t für alle t ≤ ζ̃ ∧ ζ =⇒ ζ̃ ≤ ζ .
Satz 6.10. Sei U ⊆ Rd eine offene Menge, x0 ∈ U und seien σ, b lokal
Lipschitz-stetige Koeffizienten von (SDE) auf U . Dann existiert genau eine
maximale lokale Lösung (X, ζ) von (SDE) mit Startwert x0 .
Weiters gilt für jede kompakte Menge C ⊆ U auf der Menge {ζ < ∞}
TC = sup{t < ζ : Xt ∈ C} < ζ
f.s.
Bemerkung 6.11. TC ist der letzte Zeitpunkt, zu dem X in C ist. Die letzte
Aussage besagt also, dass X zu einem Zeitpunkt TC vor der Explosionszeit ζ
die kompakte Menge C verlässt und nicht mehr zurückkehrt.
99
6 Stochastische Differentialgleichungen
Beweis: (Für d = n = 1).
Sei V ⊆ U offen mit C := V̄ ⊆ U . Wir können mit Lemma 6.7(ii) Lipschitzstetige Funktionen σ̃, b̃ auf ganz R finden, welche auf C mit σ bzw b übereinstimmen.
Aufgrund von Satz 6.5 existiert genau eine Lösung X̃ zu
dX̃t = σ̃(X̃t )dBt + b̃(X̃s )dt,
X̃0 = x0 .
Sei T = inf{t ≥ 0 : X̃t ∈
/ C} und schreibe X für die Einschränkung von X̃ auf
[0, T ). Dann ist (X, T ) eine lokale Lösung in C und XT − = X̃T existiert und
liegt in U \V für T < ∞.
Sei (Y, S) eine andere lokale Lösung in C. Wir betrachten
!
f (t) = E
|Xs − Ys |2
sup
.
s≤S∧T ∧t
Dann ist f (t) < ∞ und für jedes t0 > 0 gilt für t ≤ t0
|Xs − Ys |2 )
f (t) = E( sup
s≤S∧T ∧t
s
Z
σ(X) − σ(Y ) dB +
= E sup
2 !
s
Z
b(X) − b(Y ) ds
0
0
Z
≤ 2E sup
2 !
s
σ(X) − σ(Y ) dB
Z
Z
≤ 2 · 4E
b(X) − b(Y ) ds
+ 2E sup
0
2 !
s
0
2 !
t
σ(X) − σ(Y ) dB
Z
+ 2E
0
t
2 !
b(X) − b(Y ) ds
0
Z t
2
2
E (σ(X) − σ(Y )) ds + 2 t0
E (b(X) − b(Y )) ds
≤ 2·4
0
0
Z t
2
≤ 2(4 + t0 )KC
E(|Xs − Ys |2 ) ds
0
Z t
≤ 2(4 + t0 )KC2
f (s) ds ,
Z
t
0
wobei wir nacheinander (a + b)2 ≤ 2a2 + 2b2 , Doob’s L2 -Ungleichung und die
Cauchy-Schwarz-Ungleichung verwendet haben.
Aus dem Lemma von Gronwall folgt, dass f ≡ 0. Somit ist Xt = Yt für alle
t < S ∧ T f.s.
Betrachte nun eine Folge kompakter Mengen Cn mit Cn ↑ U und konstruiere
für jedes n eine lokale Lösung (X n , Tn ) in Cn .
Dann geht Tn ↑ ζ für ein ζ ∈ (0, ∞] und Xtn = Xtn+1 für alle t < Tn f.s..
Somit erhalten wir eine lokale Lösung (X, ζ). Wir zeigen noch, dass sie eindeutig und maximal ist. Sei also (Y, ξ) eine andere lokale Lösung und definiere
Sn = inf{t ≥ 0 : Yt ∈
/ Cn } ∧ ξ .
Dann sind (X n , Tn ) und (Y |[0,Sn ) , Sn ) beide lokale Lösungen in Cn , sodass Xt =
Yt für alle t < Sn ∧ Tn , sodass Sn ≤ Tn .
100
6.3 Lösungen einfacher SDEs
Weiters ist Sn ↑ ξ, da Cn ↑ U , sodass ξ ≤ ζ und Yt = Xt für alle t < ξ.
Wir beweisen den Zusatz. Wir wählen kompakte Mengen C1 ⊆ C2◦ ⊆ C2 ⊆ U
eine C 2 -Funktion φ : U −→ R mit φ ≡ 1 auf C1 und φ ≡ 0 auf U \C2 . Wir
setzen
R1 := inf{t ≥ 0 : Xt ∈
/ C2 }
Sn := inf{t ≥ Rn : Xt ∈ C1 } ∧ ζ
Rn+1 := inf{t ≥ Sn : Xt ∈
/ C2 } ∧ ζ
n ≥ 1.
Sei N die Anzahl der “Durchkreuzungen” von C2c nach C1 . Dann gilt auf der
Menge {ζ ≤ t, N ≥ n} mit der Itô-formel
n =
n
X
(φ(XSk ) − φ(XRk ))
k=1
=
Z tX
n
0 k=1
t
(ξsn dBs
0
Z
=
1
1(Rk ,Sk ] (s) Dφ(Xs )dXs + D2 φ(Xs )dXs ⊗ dXs
2
+ ηsn ds) =: Ztn
mit ξ n , η n vorhersehbar und gleichmäßig beschränkt in n.
Es ist also n2 1ζ≤t,N ≥n ≤ (Ztn )2 und somit
n2 P(ζ ≤ t, N ≥ n) ≤ E((Ztn )2 ) ≤ C < ∞ ,
weshalb P(ζ ≤ t, N ≥ ∞) = 0, weiters P(ζ < ∞, N ≥ ∞) = 0.
Das heißt, dass auf ζ < ∞ mit Wahrscheinlichkeit 1 der Pfad von X die Menge
C1 schließlich für immer verlassen muss, sodass also sup{t < ζ : Xt ∈ C1 } < ζ.
6.3 Lösungen einfacher SDEs
Wir betrachten ein paar einfache Beispiele von SDEs, die man explizit lösen
kann. 2 Beispiele hatten wir bereits in der Einleitung dieses Kapitels
dXt = σdBt + bdt
dXt = σXt dBt + bXt dt = Xt (σdBt + bdt) .
Offenbar erfüllt die SDEs die Voraussetzungen von Satz 6.5, sodass eine eindeutig bestimmte globale Lösung existiert. Wir kennen die Lösungen bereits
und wissen nun auch bei der zweiten SDE, dass die angegebene Lösung die
einzige ist.
Betrachten wir nun etwa einen Ohrnstein-Uhlenbeck-Prozess:
dXt = σdBt + bXt dt
101
6 Stochastische Differentialgleichungen
Der Ansatz, den wir verwenden, heißt die Methode des multiplizierenden Fak2
tors. Wir definieren Yt = eαBt +γt , sodass dYt = Yt (αdBt + (γ + α2 )dt), und
berechnen mittels partieller Integration
d(Xt Yt ) = dXt Yt + Xt dYt + dXt dYt
= Yt (σdBt + bXt dt + Xt αdBt + Xt (γ +
α2
)dt + ασdt) .
2
Wählen wir speziell α = 0 und γ = −b, so erhalten wir
d(Xt Yt ) = Yt σdBt .
Rt
Das heißt aber Xt Yt = X0 Y0 + σ 0 Ys dBs bzw., wenn wir durch Yt dividieren
und dann für Yt einsetzen (speziell Y0 = 1)
Z t
e−bs dBs .
Xt = ebt X0 + ebt
0
Der selbe Ansatz funktioniert auch bei
dXt = bdt + σXt dBt .
6.4 Gebremstes Wachstum einer Population
Wir betrachten zunächst ein weiteres Beispiel einer SDE, die wir lösen können:
dXt = (aXt − b)dt − σXt dBt .
Die Koeffizienten dieser SDE sind Lipschitz, sodass für jedes x ∈ R genau
eine Lösung mit Startwert x existiert. Wir versuchen wieder die Methode des
integrierenden Faktors, Yt := eαBt +βt .
α2
)Yt dt + αYt dBt
2
d(Xt Yt ) = Xt dYt + Yt dXt + dXt dYt
α2
)Xt Yt dt + αXt Yt dBt
= (β +
2
+aXt Yt dt − bYt dt − σXt Yt dBt − ασXt Yt dt .
dYt = (β +
Wir wählen α, β so, dass die rechte Seite möglichst einfach wird: α = σ, β =
σ2
2 − a. Damit ist
d(Xt Yt ) = −bYt dt = −beσBt +(
also
Z
Xt Yt − X0 Y0 = −b
t
eσBs +(
σ2
−a)t
2
σ2
−a)s
2
dt ,
ds ,
0
bzw.
2
Xt = e
−σBt −( σ2 −a)t
Z t
2
σBs +( σ2 −a)s
X0 − b
e
ds .
0
102
6.4 Gebremstes Wachstum einer Population
Wir wenden uns nun dem gebremsten Wachstum zu: eine einfache Möglichkeit,
ein solches zu modellieren ist, im deterministischen Fall,
ẋ = x(a − bx) ,
(6.12)
a, b > 0. Die proportionale Wachstumsrate a − bx nimmt also mit steigendem
x (linear) ab. Für x = a/b ist das Wachstum null, die Populationsgröße also
konstant bei a/b. Für x > a/b sinkt die Population, für 0 < x < a/b steigt sie.
Der Fall x ≤ 0 lässt sich leicht studieren, ist aber für uns jetzt uninteressant.
Die klassische Theorie der gewöhnlichen Differentialgleichungen gibt uns zumindest zwei Werkzeuge zur Lösung von (6.12) in die Hand: Trennen der Variablen und Bernoulli’sche Differentialgleichungen. Die zweite Methode erweist
sich als verallgemeinerbar auf den stochastischen Fall und wir werden zunächst
den deterministischen wiederholen:
Wir betrachten eine Differentialgleichung der Form ẋ = ax − bxρ . Man substituiert z = −x1−ρ und erhält
ż = (ρ − 1)
ẋ
ax − bxρ
=
(ρ
−
1)
= (ρ − 1)(−az − b) .
xρ
xρ
Das ist eine lineare Differentialgleichung in z, deren allgemeine Lösung man
einfach hinschreiben kann, und damit auch die Lösung x.
Wir formulieren nun eine Stochastische Differentialgleichung für ein gebremstes und zufällig gestörtes Wachstum und verwenden den selben Ansatz wie
oben für den stochastischen Fall. Wir schreiben den proportionalen Wachstumsfaktor heuristisch als a − bXt + σWt , wo W weißes Rauschen“ beze”
ichne. Letzteres ist kein Prozess in unserem Sinne, und wird als Ableitung der
Brown’schen Bewegung gedacht, also dBt = Wt dt. Damit erhalten wir
dXt = Xt (a − bXt + σWt )dt
= Xt ((a − bXt )dt + σWt dt)
= Xt ((a − bXt )dt + σdBt ) ,
und diese stochastische Differentialgleichung wollen wir nun lösen. Man beachte
zunächst, dass die Koeffizienten dieser SDE lokal Lipschitz sind, und daher
jedenfalls eine lokale Lösung existiert.
Wir definieren Zt = − X1t , sodass
dZt =
=
1
1
dXt − 3 (dXt )2
2
Xt
Xt
1
1
((a − bXt )dt + σdBt ) − 3 σ 2 Xt2 dt
Xt
Xt
= ((σ 2 − a)Zt − b)dt − σZt dBt .
Die Lösung dieser SDE ist uns aber schon vom Anfang dieser Sektion bekannt,
Z t
−1
Zt = Yt
Z0 − b
Ys ds ,
0
103
6 Stochastische Differentialgleichungen
wo Yt = eσBt +(
σ2
−(σ 2 −a))t
2
Xt = −
= eσBt +(a−
σ2
)t
2
. Somit ist
Yt
Yt
= X0
.
Rt
Rt
− b 0 Ys ds
1 + X0 b 0 Ys ds
− X10
Wir sehen dieser Lösung an:
• Wenn X0 > 0 ist, so ist Xt > 0 für alle t ≥ 0 für fast alle Pfade;
• Wenn 0 < X0 < a/b gilt, so kann (und wird) dennoch zeitweise Xt > a/b
gelten für t > 0;
Rt
• Yt und 0 Ys ds wachsen im Mittel exponentiell und somit verschwindet
der Einfluss von X0 mit der Zeit.
Die mittlere langfristige Populationsgröße
R t lässt sich nicht direkt ablesen. Der
Erwartungswert von Yt ist eat , der von 0 Ys ds ist (ea t − 1)/a, man könnte also
vermuten, dass die langfristige mittlere Populationsgröße a/b ist, also so wie im
deterministischen Fall.
Eine Richtung können wir aber beweisen: es ist
Z t
1
bYt
d log(
+b
Ys ds) = 1
= bXt ,
Rt
X0
+
b
Y
ds
0
s
X0
0
sodass b
Rt
0
Xs ds = log( X10 + b
b
e
Rt
0
Rt
0
Ys ds) − log( X10 ) beziehungsweise
Xs ds
t
Z
= 1 + X0 b
Ys ds .
0
Mit der Jensen’schen Ungleichung gilt
Rt
ebE(
0
Xs ds)
≤ E(eb
Rt
0
Xs ds
Z
) = E(1 + X0 b
t
Ys ds) = 1 + X0 b
0
Rt
Betrachten wir den Spezialfall X0 = a/b. Dann ist ebE(
Z
1 t
a
E(
Xs ds) ≤ .
t 0
b
0
Xs ds)
eat − 1
.
a
≤ eat und somit
Für allgemeines X0 > 0 definiere T := inf{t ≥ 0 : Xt = ab }. Es ist plausibel,
dass
Z
Z
Z
1 t
1 T ∧t
1 t
lim E(
Xs ds) = lim E(
Xs ds) + lim E(
Xs ds)
t→∞
t→∞
t→∞
t 0
t 0
t T ∧t
a
≤ 0+ .
b
Da die Jensen’sche Ungleichung für nicht-deterministische Zufallsvariablen echt
ist, werden wir eher
Z
1 t
a
lim E(
Xs ds) <
t→∞
t 0
b
erwarten.
104
6.5 Elektrischer Schwingkreis
I
U
R
U1
L
U2
C
U3
Abbildung 6.1: Ein elektrischer Schwingkreis.
6.5 Elektrischer Schwingkreis
Wir betrachten den elektrischen Schaltkreis aus Abbildung 6.1. Es bezeichne
Q die Ladung am Kondensator mit Kapazität C, sodass nach Definition der
Kapazität U3 = Q
C , I den elektrischen Strom durch den Schaltkreis. Da dieser
gleich dem Strom durch den Kondensator ist, muss Q̇ = I.
˙ = Q̈L. Nach
Nach Definition der Induktivität L gilt an der Spule U2 = IL
dem Ohmschen Gesetz gilt am Widerstand U1 = RI = RQ̇. Mit der Kirchhoff’schen Maschenregel gilt U = U1 + U2 + U3 , sodass wir also die folgende
gewöhnliche Differentialgleichung erhalten
LQ̈ + RQ̇ +
1
Q=U.
C
Wir nehmen nun an, dass Ut = Gt + αWt , wobei G ein Signal sei und W wieder
weißes Rauschen bezeichne, also dUt = Gt dt + αWt dt = Gt dt + αdBt .
Wir schreiben
1 Q
X
X=
=
,
2
X
Q̇
sodass
dXt1 = X 2 dt
1
1 1 R 2
α
dXt2 =
Gt −
Xt − Xt dt + dBt
L
CL
L
L
oder in Vektorschreibweise
dX = AXdt + Hdt + KdBt ,
mit
A=
0
1
− CL
1
−R
L
, H=
0
1
L Gt
, K=
0
α
L
.
105
6 Stochastische Differentialgleichungen
Nun gilt
d(exp(−At)Xt ) = exp(−At)dXt − A exp(−At)Xt dt
= exp(−At) (Ht dt + KdBt ) ,
sodass
Z
exp(−At)Xt − X0 =
t
exp(−As) (Hs ds + KdBs ) .
0
Der Rest ist Kosmetik:
d(exp(−At)KBt ) = exp(−At)KdBt − A exp(−At)KBt dt
Z t
Z t
sodass
exp(−At)KBt =
exp(−As)KdBs −
A exp(−As)KBs ds
0
0
Z t
Z t
bzw.
exp(−As)KdBs = exp(−At)KBt +
A exp(−As)KBs ds .
0
0
Wir erhalten also insgesamt
Z t
Xt = exp(At) X0 +
exp(−As)(Hs + AKBs )ds + KBt .
0
6.6 Marktmodelle
Ein weites Anwendungsgebiet der stochastischen Analysis ist die Finanzmathematik. Hier werden Preisprozesse von Wertpapieren (zB. Aktien) oft als Lösungen
von SDEs modelliert.
Ein wichtiges Beispiel ist das Black-Scholes-Modell. Hier ist ein vektorwertiger
Preisprozess S = (S 0 , . . . , S d ) gegeben,
St0 = S00 ert
i
1
Sti = Sti e(µ − 2
Pm
Pm
i 2
j=1 (σj ) )t+
j=1
σji dBtj
.
Mit der Itô-Formel erhält man
dSt0 = rSt0 dt
dSti
=
Sti (µi dt
+
m
X
σji dBtj ) .
j=1
S ist also Lösung einer SDE deren Koeffizienten Lipschitz sind. Da wir bereits
von einer Lösung ausgegangen sind, brauchen wir die Existenzaussage des Satzes
über Existenz und Eindeutigkeit von Lösungen von SDEs hier nicht, aber immerhin wissen wir, dass es keine vom Black-Scholes-Modell verschiedene Lösung
dieser Differentialgleichungen gibt.
Das Black-Scholes-Modell ist aufgrund seiner Einfachheit bei Praktikern wie
Theoretikern beliebt, allerdings ist die Forderung, dass r, µ, σ konstant sein
sollen, etwas stark.
106
6.6 Marktmodelle
Ein Modell mit variablem σ ist das sogenannte Heston-Modell:
dSt0 = rSt0 dt
p
p
dSt1 = St1 µdt + Xt ( 1 − ρ2 dBt1 + ρdBt2 )
p
dXt = (a − bXt )dt + σ Xt dBt2
mit Startwerten S00 > 0, S01 > 0 und X0 > 0.
Die Koeffizienten dieser SDE sind nicht Lipschitz, aber lokal Lipschitz auf
{X > 0}. Damit ist hier nur die Existenz einer lokalen Lösung garantiert.
Die dritte Gleichung,
dXt = (a − bXt )dt + σ
p
Xt dWt2 ,
(6.13)
ist übrigens auch als Zinsratenmodell beliebt und heißt dann Cox-IngersollRoss-Modell (CIR-Modell).
Es gilt der folgende interessante Satz
Satz 6.12 (Feller condition). Sei x > 0 und sei X x die eindeutig bestimmte
x := inf{t ≥ 0 :
lokale Lösung der SDE (6.13). Für M ≥ 0 definieren wir TM
x
Xt = M }. Dann gelten:
1. Ist a ≥
σ2
2
P(T0x
P(T0x
2. Ist 0 <
a)
σ2
2
so ist P(T0x < ∞) = 0 ;
< a, so ist P(T0x < ∞) > 0 für alle x, wobei
< ∞) = 1 für b ≥ 0 und
< ∞) ∈ (0, 1) für b < 0.
R x 2by 2a
Beweis: Definiere s(x) := 1 e σ2 y − σ2 dy für x ∈ (0, ∞). Man rechnet leicht
nach, dass s die gewöhnliche Differentialgleichung
b)
σ 2 00
xs (x) + (a − bx)s0 (x) = 0
2
(6.14)
x
x
x . Sei Y x := (X x )Tε,M . Dann
erfüllt. Für 0 < ε < x < M sei Tε,M
:= Tεx ∧ TM
x
erfüllt Y x die SDE (6.13) für t < Tε,M
und es ist mit der Itô-Formel und
Differentialgleichung (6.14)
Z t
Z
1 t 00
x
0
s(Yt ) = s(x) +
s (Yu )dYu +
s (Yu )(dYu )2
2
0
0
Z t
p
= s(x) +
s0 (Yux )σ Yux dWu .
0
s(XTx x ∧t )
ε,M
Der Prozess t 7→
ist somit ein lokales Martingal. Da er außerdem
beschränkt ist, ist er ein Martingal und limt→∞ s(XTx x ∧t ) = s(XTx x ).
ε,M
ε,M
Mit der Itô-Isometrie gilt
Z t
s0 (Yux )2 σ 2 Yux du
E(s(Ytx )2 ) = s(x)2 + E
0
x
≥ s(x)2 + KE(t ∧ Tε,M
)
107
6 Stochastische Differentialgleichungen
für ein K > 0, da s0 (Yux )2 σ 2 Yux von 0 weg beschränkt ist da s0 > 0. Außerdem ist
s(Ytx ) gleichmäßig beschränkt, sodass E(s(Ytx )2 ) < L für alle t für ein L. Damit
x ) = lim
x
folgt aber mit monotoner Konvergenz ∞ > E(Tε,M
t→∞ E(t ∧ Tε,M ). Also
x
ist P(Tε,M
< ∞) = 1.
Insgesamt haben wir nun
x
x
s(x) = E(s(XTx x )) = s(ε)P(Tεx < TM
) + s(M )P(Tεx > TM
).
ε,M
Sei nun a ≥
σ2
2 ,
sodass − σ2a2 ≤ −1. Dann gilt
Z
lim s(ε) = lim −
ε→0+
ε→0+
1
2by
2a
e σ2 y − σ2 dy = −∞ .
ε
x ) = lim
x
x
Somit muss P(T0x < TM
ε→0+ P(Tε < TM ) = 0. Da dies für alle M > x
x → ∞ für M → ∞, erhält man P(T x < ∞) = 0.
gilt und TM
0
Sei nun 0 ≤ a <
Andererseits ist
σ2
2 ,
Z
s(M ) =
sodass − σ2a2 > −1. Dann ist s0 := limε→0+ s(ε) ∈ R.
M
e
2by
σ2
y
− 2a2
σ
M →∞
dy −→
1
s∞
∞
b≥0
∈ (0, ∞) b < 0
Somit gilt P(T0x = ∞) = 0 falls b ≥ 0.
Falls b < 0, so ist
s(x) = s0 P(T0x < ∞) + s∞ P(T0x = ∞) = (s0 − s∞ )P(T0x < ∞) + s∞ .
Nun ist s stetig differenzierbar mit s0 (x) > 0 und damit auch x 7→ P(T0x < ∞)
d
und dx
P(T0x < ∞) > 0. Das kann aber nur dann der Fall sein, wenn P(T0x <
∞) ∈ (0, ∞).
108
7 Der Satz von Girsanov
7.1 Exponentielle Martingale
Sei M ∈ Mc,loc mit M0 = 0. Setzen Zt = exp(Mt − 21 [M ]t ). Mit der Itô-Formel
folgt
1
1
dZt = Zt (dMt − d[M ]t ) + Zt dMt dMt = Zt dMt ,
2
2
somit gilt auch Z ∈ Mc,loc .
Definition 7.1. Wir nennen Z das stochastische Exponential von M , und
schreiben Z = E(M ).
Proposition 7.2. Sei M ein nicht-negatives stetiges lokales Martingal. Dann
ist M ein Supermartingal.
Beweis: Sei (Tn )n≥1 eine reduzierende Folge für M . Dann gilt für 0 ≤ s ≤ t
E(MTn ∧t |Fs ) = MTn ∧s .
Die rechte Seite konvergiert f.s. gegen Ms für n → ∞. Für die linke Seite gilt
mit der bedingten Version des Fatou’schen Lemmas
E(Mt |Fs ) = E(lim inf MTn ∧t |Fs ) ≤ lim inf E(MTn ∧t |Fs ) .
n
n
Proposition 7.3 (Exponentielle Martingalungleichung). Sei M ∈ Mc,loc mit
M0 = 0. Dann gilt für alle ε, δ > 0
ε2
P(sup Mt ≥ ε und [M ]∞ ≤ δ) ≤ e− 2δ .
t≥0
Beweis: Sei ε > 0 und setze T := inf{t ≥ 0 : Mt ≥ ε}. Sei θ ≥ 0 und setze
1
Zt = exp(θMtT − θ2 [M ]Tt ) .
2
Dann ist Z = E(θM T ) ∈ Mc,loc , |Z| ≤ eθε , sodass Z ein beschränktes Martingal
ist. Insbesondere existiert Z∞ fast sicher.
Somit ist E(Z∞ ) = E(Z0 ) = 1.
Für δ > 0 gilt nun
1 2
P(sup Mt ≥ ε und [M ]∞ ≤ δ) ≤ P(Z∞ ≥ eθε− 2 θ δ ) ,
t≥0
109
7 Der Satz von Girsanov
da {supt≥0 Mt ≥ ε und [M ]∞ ≤ δ} ⊆ {T < ∞ und [M T ]∞ ≤ δ} und auf dieser
1 2
[M T ]
Menge ist Z∞ = eθε− 2 θ
∞
1 2
≥ eθε− 2 θ δ . Weiters gilt
1 2
1 2
δ
P(Z∞ ≥ eθε− 2 θ δ ) ≤ e−θε+ 2 θ
mit der Tschebyscheff-Ungleichung. Wir setzten nun das θ ein, welches die rechte
Seite minimiert und erhalten die Behauptung.
Proposition 7.4. Sei M ∈ Mc,loc mit M0 = 0 und derart, dass [M ] gleichmäßig beschränkt ist. Dann ist E(M ) ein UI Martingal.
Beweis: Sei also [M ] ≤ C. Aus der exponentiellen Martingalungleichung folgt
ε2
P(sup Mt ≥ ε (und [M ]∞ ≤ C)) ≤ e− 2C .
t≥0
Nun ist supt≥0 E(M )t ≤ exp(supt≥0 Mt ). Somit ist
E(sup E(Mt )) ≤ E(exp(sup Mt ))
t≥0
t≥0
Z ∞
=
P(sup Mt ≥ log λ)dλ
t≥0
∞
0
Z
≤ 1+
exp(−
1
(∗)
(log λ)2
)dλ < ∞ .
2C
Somit ist E(M ) UI, und mit Proposition 4.45 ein Martingal.
Beweis von (*):
Z ∞
Z
P(X ≥ log λ)dλ =
0
∞
Z
E(1X≥log λ )dλ = E
0
Z
= E
∞
1X≥log λ dλ
0
∞
1exp(X)≥λ dλ = E(eX ) .
0
Bemerkung: Die Forderung nach der gleichmäßigen Beschränktheit der quadratischen Variation wirkt etwas stark, da ja nicht einmal die Brown’sche Bewegung
(als Standardbeispiel für ein braves Martingal) diese erfüllt.
Tatsächlich werden wir den Satz meist auf ein gestopptes Martingal, M T für
T ∈ R+ oder T eine Stoppzeit, anwenden.
Satz 7.5 (Satz von Girsanov). Sei M ∈ Mc,loc mit M0 = 0. Sei Z = E(M )
ein UI Martingal. Dann können wir ein neues Wahrscheinlichkeitsmaß P̃ auf
(Ω, F) definieren durch
P̃(A) = E(Z∞ 1A ) ,
A∈F,
und P̃ ist absolutstetig bezüglich P.
Weiters gilt für jedes X ∈ Mc,loc (P) dass
X − [X, M ] ∈ Mc,loc (P̃) .
110
7.1 Exponentielle Martingale
Beweis: Da Z UI ist, existiert Z∞ f.s., Z∞ ≥ 0 und E(Z∞ ) = E(Z0 ) = 1.
Somit ist P̃ ein Wahrscheinlichkeitsmaß, welches absolutstetig ist bezüglich
P.
Sei X ∈ Mc,loc (P) und setze
Tn := inf{t ≥ 0 : |Xt − [X, M ]t | ≥ n} .
Dann gilt P̃(Tn ↑ ∞) = 1 sodass es genügt zu zeigen, dass Y Tn = X Tn −
[X Tn , M ] ∈ Mc (P̃) für alle n. Wir können uns also auf den Fall beschränken,
dass Y gleichmäßig beschränkt ist.
Mit der Produktformel gilt
d(Zt Yt ) = Zt dMt (Xt − [X, M ]t ) + Zt (dXt − dXt dMt ) + Zt dMt dXt
= Zt (Xt − [X, M ]t )dMt + Zt dXt ,
sodass ZY ∈ Mc,loc (P). Weiters ist {ZT : T eine beschränkte Stoppzeit} UI,
somit auch {ZT YT : T eine beschränkte Stoppzeit}. Daher ist ZY ein P-Martingal,
nach Proposition 4.45.
Seien nun s < t und A ∈ Fs . Dann gilt
Ẽ((Yt − Ys )1A ) = E(Z∞ (Yt − Ys )1A )
= E(Z∞ Yt 1A ) − E(Z∞ Ys 1A )
= E(E(Z∞ Yt 1A |Ft )) − E(E(Z∞ Ys 1A |Fs ))
= E(E(Z∞ |Ft )Yt 1A ) − E(E(Z∞ |Fs )Ys 1A )
= E((Zt Yt − Zs Ys )1A ) = 0
sodass also Y ein P̃-Martingal ist.
Bemerkung: Sei X ein P-Semimartingal. Dann gilt
X = N + A = (N − [N, M ]) + ([N, M ] + A) ,
sodass X auch ein P̃-Semimartingal ist. Die Menge der Semimartingale ist also
invariant unter solch einem Übergang zu einem anderen Wahrscheinlichkeitsmaß.
Wir müssen uns immer überlegen, welche der verwendeten Sätze und welche
Eigenschaften vom Maß abhängen. Offenbar überträgt sich Konvergenz fast
sicher, aber auch Konvergenz in Wahrscheinlichkeit und auch Konvergenz in
Wahrscheinlichkeit gleichmäßig auf den Kompakta. Da wir gesehen haben, dass
sich zumindest unter gewissen Regularitätsbedingungen stochastische Integrale
als Limiten von Riemannsummen u.c.p. darstellen lassen, bleibt auch das stochastische Integral unverändert.
Beispiel: Sei Mt = νBtt0 , wo B eine Brown’sche Bewegung ist. Sei X = B t0 .
Dann ist Z∞ = eνBt0 −
ν2
t
2 0
eine Dichte und laut dem Satz von Girsanov ist
Xt − [X, M ]t = Btt0 − ν(t ∧ t0 )
111
7 Der Satz von Girsanov
ein lokales Martingal bezüglich dem durch diese Dichte definierten Maß. Ist
X − [X, M ] aber eine gestoppte Brown’sche Bewegung?
Satz 7.6 (Lévy’s Charakterisierung der B.B.). Seien X 1 , . . . , X n ∈ Mc,loc mit
[X i , X j ]t = δij t und X0j = 0 für j = 1, . . . , n. Dann ist der Prozess X =
(X 1 , . . . , X n ) eine Brown’sche Bewegung im Rn .
Beweis: Es genügt zu zeigen, dass für 0 ≤ v < u die Zufallsvariable Xu − Xv
unabhängig von Fv und N (0, (u − v)I) verteilt ist.
Da eine Verteilung durch ihre charakteristische Funktion eindeutig bestimmt
ist, ist das gleichbedeutend damit, zu zeigen, dass
1
E(exp(ihθ, Xu − Xv i)|Fv ) = exp(− |θ|2 (u − v))
2
für θ ∈ Rn .
(∗)
Für ein festes θ setze
Yt := hθ, Xt i = θ1 Xt1 + · · · + θn Xtn .
Dann ist Y ∈ Mc,loc und
d[Y ]t = dYt dYt
= (θ1 dXt1 + · · · + θn dXtn )(θ1 dXt1 + · · · + θn dXtn )
= |θ|2 dt
nach Voraussetzung, sodass Yt = |θ|2 t. Betrachte
1
1
Zt = exp(iYt + [Y ]t ) = exp(ihθ, Xt i + |θ|2 t).
2
2
Die Itô-Formel1 ergibt
1
1
dZt = Zt (idYt + d[Y ]t ) + Zt i2 d[Y ]t = iZt dYt ,
2
2
sodass Z ein lokales Martingal ist, gleichmäßig beschränkt auf [0, t] für alle t,
und somit ein Martingal.
Somit gilt E(Zu |Fv ) = Zv , was gleichbedeutend ist mit (∗).
Wir kehren zurück zum vorigen Beispiel: [X−[X, M ]]t = [X, X]t = [B t0 , B t0 ]t =
t ∧ t0 . Somit ist also X − [X, M ] nicht nur ein Martingal bezüglich des neuen
Maßes, sondern auch wieder eine gestoppte Brown’sche Bewegung.
Eins bleibt noch zu bemerken: bezüglich welchem Maß haben wir [X, M ] zu
berechnen? Das ist egal, solange die Maße äquivalent sind! [.] ist ja definiert als
Limes u.c.p., und dieser ist für äquivalente Maße fast sicher gleich.
1
Genaugenommen benötigen wir eine einfache Verallgemeinerung der Itô-Formel auf komplexwertige Funktionen.
112
7.2 Kazamaki- und Novikov-Kriterium
7.2 Kazamaki- und Novikov-Kriterium
Im Folgenden sei T die Menge aller beschränkten Stoppzeiten.
Satz 7.7. Sei M ∈ Mc,loc mit M0 = 0. Dann gilt für alle T ∈ T
1
1
1
E(e 2 MT ) ≤ E(e 2 [M ]T ) 2 .
1
1 1
1
1
1
2
2
Beweis: E(M ) 2 = eM − 2 [M ]
= e 2 M e− 2 [M ] , sodass
1
1 1
1
2
e 2 MT = E(M )T2 e 2 [M ]T
1 1 1 1
2
M
[M
]
2
T
T
E e2
= E E(M )T e 2
1
1
1
2
.
= E (E(M )T ) 2 E e 2 [M ]T
Aber E (E(M )T ) ≤ E (E(M )0 ) = 1, nach dem OST2 , da E(M ) ein Supermartingal ist laut Proposition 7.2.
Im vorigen Satz können im Allgemeinen beide Erwartungswerte unendlich
sein, was uns aber bei der Anwendung des Satzes nicht stören wird.
Wir werden folgenden einfachen Sachverhalt brauchen:
Lemma 7.8. Sei (Xλ )λ∈Λ eine Familie von Lp -beschränkten Zufallsvariablen,
1 < p < ∞. Dann ist (Xλ )λ∈Λ gleichmäßig integrierbar.
Beweis: Sei E(|Xλ |p ) < A für alle λ ∈ Λ. Für v ≥ K > 0 ist trivialerweise
v ≤ K 1−p v p , sodass
E(|Xλ |; |Xλ | > K) ≤ K 1−p E(|Xλ |p ; |Xλ | > K)
≤ K 1−p A .
Lemma 7.9. Sei M ∈ Mc,loc mit M0 = 0 und sei 1 < p < ∞,
weiters
√p
√
MT
2( p−1)
sup E e
< ∞.
1
p
+
1
q
= 1. Sei
T ∈T
Dann ist E(M ) ein
Lq -beschränktes
Beweis: Sei K := supT ∈T
sodass
2
1
r
+
1
s
Martingal.
√p
√
MT
2( p−1)
E e
. Sei r =
√
p+1
√
p−1
√
und sei s =
p+1
2 ,
= 1.
Unser OST (stetige Version) hat eine Aussage über Martingale getroffen. Man bräuchte
noch eine geeignete Version für Supermartingale.
113
7 Der Satz von Girsanov
Sei S eine beschränkte Stoppzeit.
E(E(M )qS )
q
E(eqMS − 2 [M ]S )
√q
√q
q
E(e r MS − 2 [M ]S e(q− r )MS )
√ rq
√q
rq
1
1
E(e 2 MS − 2 [M ]S ) r E(e(q− r )sMS ) s
=
=
Hölder
≤
1
√
p
1
√
√
M s
E(E( rqM )S ) r E(e 2( p−1) S ) .
{z
}
{z
} |
|
=
≤K
≤1
Also ist (E(M )S )S∈T Lq -beschränkt. Nach Lemma 7.8 ist diese Familie von
Zufallsvariablen also gleichmäßig integrierbar.
Sei nun (Tn )n≥1 eine reduzierende Folge für E(M ). Dann ist für jede beschränkte
Stoppzeit S der Prozess (E(M )Tn ∧S )n≥1 ein gleichmäßig integrierbares Martingal, mit limn E(M )Tn ∧S = E(M )S f.s.. Nach Satz 3.42 ist limn E(M )Tn ∧S =
E(M )S in L1 und somit insbesondere limn E(E(M )Tn ∧S ) = E(E(M )S ).
Nach dem Optional Stopping Theorem Satz 4.42 ist aber E(E(M )Tn ∧S ) =
E(E(M )0 ) für alle n, sodass also E(E(M )S ) = E(E(M )0 ). Da S ∈ T beliebig
war, folgt wiederum aus dem Optional Stopping Theorem Satz 4.42, dass E(M )
ein Martingal ist.
Natürlich ist auch (E(M )t )t≥0 Lq -beschränkt.
Satz 7.10 (Kazamaki-Kriterium). Sei M ∈ Mc,loc mit M0 = 0 und
1 sup E e 2 MT < ∞ .
T ∈T
Dann ist E(M ) ein gleichmäßig integrierbares Martingal.
1 Beweis: Sei K := supT ∈T E e 2 MT . Sei 0 < a < 1 und p > 1 so, dass
√
p
√
p−1
< a1 . Dann ist
√p
1 √
aMT
2( p−1)
≤ sup E e 2 MT < ∞ ,
sup E e
T ∈T
T ∈T
sodass nach Lemma 7.9 das stochastische Exponential E(aM ) ein Lq -beschränkp
tes Martingal ist, q = p−1
. Es ist
E(aM ) = eaM −
a2
[M ]
2
2 M − a2 [M ]
2
= ea
2
ea(1−a)M = E(M )a ea(1−a)M
sodass für eine beschränkte Stoppzeit T
Hölder
1 = E(E(aM )T )
≤
=
(∗)
114
2
1 1−a
2
E(E(M )T )a E (ea(1−a)MT ) 1−a2
1
1−a2
2
E(E(M )T )a E e 1+a MT
a2
1
MT
2
2 (1−a2 )a
≤
E(E(M )T ) E e
≤
E(E(M )T )a K 2(1−a)a ,
2
1+a
7.3 Einschub: M -integrierbare Prozesse
wo wir in (∗) verwendet haben, dass für 1 < q stets k.k1 ≤ k.kq . Wir lassen
nun a gegen 1 gehen. Dann folgt 1 ≤ E(E(M )T ). Andererseits ist, da E(M ) ein
Supermartingal ist, E(E(M )T ) ≤ E(E(M )0 ) = 1.
Also ist E(E(M )T ) = E(E(M )0 ) für jede beschränkte Stoppzeit, sodass E(M )
nach dem Optional Stopping Theorem Satz 4.42 ein Martingal ist.
Wir müssen noch zeigen, dass E(M ) gleichmäßig integrierbar ist. Wir kehren
zurück zu unserer vorigen Überlegung: für 0 < a < 1 ist
2
E(aM ) = E(M )a ea(1−a)M .
Da E(aM ) und E(M ) als positive Supermartingale fast sicher konvergieren,
muss ea(1−a)M auf {E(M )∞ 6= 0} konvergieren. Also
2
E(aM )∞ = E(M )a∞ lim inf ea(1−a)Mt .
t
Dieselbe Rechnung wie vorher ergibt
2(1−a)a
1
2
1 = E(E(aM )∞ ) ≤ E(E(M )∞ )a E lim inf e 2 Mt
.
t
1
1
Nach dem Lemma von Fatou ist E lim inf t e 2 Mt ≤ lim inf t E(e 2 Mt ) ≤ K. Wir
haben also 1 ≤ E(E(M )∞ ) ≤ E(E(M )0 ) = 1.
Nun ist E(E(M )∞ |Ft ) ≤ E(M )t für t ∈ [0, ∞) und E(E(M )t −E(E(M )∞ |Ft )) =
E(E(M )t ) − E(E(M )∞ ) = 0, sodass also E(E(M )∞ |Ft ) = E(M )t .
Damit ist aber (E(M )t )t≥0 gleichmäßig integrierbar nach Lemma 3.40.
Satz 7.11 (Novikov-Kriterium). Sei M ∈ Mc,loc mit M0 = 0 und
1
E e 2 [M ]∞ < ∞ .
Dann ist E(M ) ein gleichmäßig integrierbares Martingal.
Beweis: Laut Satz 7.7 ist für jede beschränkte Stoppzeit T
1
1
1
1
1
E(e 2 MT ) ≤ E(e 2 [M ]T ) 2 ≤ E(e 2 [M ]∞ ) 2 < ∞ .
Damit folgt die Aussage aus dem Kazamaki-Kriterium Satz 7.10.
7.3 Einschub: M -integrierbare Prozesse
Wir erinnern uns an die Konstruktion des Itô-Integrals bezüglich eines lokalen
Martingals. Zunächst hatten wir den Vektorraum L2 (M ) für M ∈ M2c . Dann
hatten wir lokal beschränkte vorhersehbare Prozesse H definiert, welche wir
bezüglich eines beliebigen stetigen lokalen Martingals M integrieren konnten,
indem wir eine reduzierende Folge (Tn )n≥1 für H und M betrachteten, sodass
automatisch H1(0,Tn ] ∈ L(M Tn ) ).
Damit konnten wir
H • M := lim H1(0,Tn ] • M Tn
n→∞
u.c.p.
115
7 Der Satz von Girsanov
definieren.
Der Vorteil von lokal beschränkten Prozessen ist der, dass für sie automatisch
das Integral bezüglich jedes lokalen Martingals erklärt ist. Der Nachteil ist, dass
lokal beschränkt“ manchmal eine etwas zu starke Voraussetzung ist, da etwa
”
ein lokal beschränkter Prozess nicht in endlicher Zeit gegen unendlich gehen
darf. In der Finanzmathematik, wo Handelsstrategien durch gewisse vorhersehbare Prozesse beschrieben werden, will man so etwas aber (theoretisch) zulassen.
Wir definieren also einen Integrierbarkeitsbegriff für stetige lokale Martingale.
Definition 7.12. Sei M ∈ Mc,loc . Wir nennen einen vorhersehbaren Prozess
H integrierbar bezüglich M (bzw. M -integrierbar), falls
Z
P(
t
H 2 d[M ] < ∞) = 1
0
für alle t ∈ [0, ∞).
Nun wollen wir aber auch das Integral eines integrierbaren Prozesses definieren.
Sei also H integrierbar bezüglich M ∈ Mc,loc . Definiere
Z
Tn := inf{t ≥ 0 : [M ]t = n}∧inf{t ≥ 0 : |Mt | = n}∧inf{t ≥ 0 :
t
H 2 d[M ] = n} .
0
Offenbar ist (Tn )n≥1 eine reduzierende Folge für M und H1(0,Tn ] ∈ L2 (M Tn ).
Wir können also wieder definieren
H • M := lim H1(0,Tn ] • M Tn
n→∞
u.c.p.
Definition 7.13.
1. Sei A ein Prozess von beschränkter Variation. Wir nennen einen vorhersehbaren Prozess H integrierbar bezüglich A (bzw. Aintegrierbar), falls für alle t ∈ [0, ∞), fast jeder Pfad von H bezüglich
dem entsprechenden Pfad von A integrierbar ist auf [0, t], im Sinne von
Lebesgue-Stieltjes.
2. Sei X ein stetiges Semimartingal mit Zerlegung X = X0 + M + A. Wir
nennen einen vorhersehbaren Prozess H integrierbar bezüglich X (bzw.
X-integrierbar), falls H integrierbar bezüglich M und A ist.
Die Eigenschaft integrierbar“ ist nicht zwangsweise invariant gegenüber Gir”
sanov-Maßwechsel:
X = N + A = (N − [N, M ]) + ([N, M ] + A) ,
Der Prozess H ist genau dann N -integrierbar bezüglich P wenn er N − [N, M ]integrierbar ist bezüglich P̃, da [N − [N, M ]] = [N ]. Die Integrierbarkeit von H
bezüglich X im Maß P̃ ist also genau dann gegeben, wenn H bezüglich [N, M ]
integrierbar ist. Ein trivialer aber dennoch wichtiger Spezialfall, für welchen das
gegeben ist, ist [N, M ] = −A.
116
7.4 Marktmodelle II
7.4 Marktmodelle II
Wir betrachten nun eine recht allgemeine Klasse von Marktmodellen: ein Markt
werde beschrieben durch ein d + 1-dimensionales stetiges3 Semimartingal S =
(S 0 , . . . , S d ), wobei S 0 f.s. positiv sei mit beschränkter Variation.
Für den Handel in so einem Markt wird nun eine Reihe von (unrealistischen)
Annahmen gemacht:
• Man kann jede beliebige reelle Stückzahl eines Wertpapiers halten, also
zB. π4 Stück von Wertpapier 1, insbesondere auch negative Stückzahlen
(Leerverkauf, shortselling);
• Es gibt keine Transaktionskosten und keinen bid-ask-spread, das heißt man
kann ein Stück von Wertpapier j zu einem beliebigen Zeitpunkt t in genau
S j /S k Stück von Wertpapiers k tauschen (zumindest für S k 6= 0);
• Es herrscht unbeschränkte Liquidität, das heißt man kann zu jedem Zeitpunkt beliebig viele Stück eines Wertpapiers kaufen oder verkaufen (bzw.
tauschen), ohne dessen Preis zu verändern.
Nun muss man sich Gedanken machen, welche Möglichkeiten ein Marktteilnehmer hat zu handeln.
Ein Portfolio ist ein d + 1-dimensionaler Vektor h = (h0 , . . . , hd ), welcher
beschreibt, wieviele Stück jedes Wertpapiers von einem Marktteilnehmer gehalten werden. Der
PWert eines Portfolios h zum Zeitpunkt t ist dann definiert
durch Vt (h) := dj=0 hj Stj = h · St .
Nun wollen wir aber auch zeitlich veränderliche Portfolios, sogenannte Handelsstrategien zulassen. Eine natürliche Wahl wäre etwa
H=
∞
X
hk 1(Tk ,Tk+1 ]
k=0
mit Stoppzeiten 0 = T0 ≤ T1 ≤ ... und hk ∈ FTk .
Der Wertprozess wäre dann wieder Vt (H) := Ht · St für t > 0 und V0 (H) :=
h0 · S0 . Eine solche Handelsstrategie würden wir selbstfinanzierend nennen, falls
für jedes k
hk · STk+1 = hk+1 · STk+1
auf {Tk+1 < ∞}
gilt, das heißt wenn das neue“ Portfolio nach einer Umschichtung stets den
”
Wert des alten“ hat, also weder etwas hinzugefügt noch weggenommen wird.
”
In diesem Fall gilt
Vt (H) = V0 (H) +
∞
X
k=0
3
Z
hk (STk+1 ∧t − STk ∧t ) = V0 (H) +
t
Hs dSs .
0
Eine offensichtliche Verallgemeinerung erhält man durch weglassen von stetig’”. Dazu muss
”
man dann aber auch eine entsprechende Integrationstheorie entwickeln. Dies wird wird etwa
gemacht in [RW00] oder [Pro04].
117
7 Der Satz von Girsanov
Diese Handelsstrategien stellen sich nun vom theoretischen Standpunkt aus
als etwas zu sperrig heraus4 .
Stattdessen definieren wir:
Definition 7.14.
• Unter einer Handelsstrategie verstehen wir einen (d +
1)-dimensionalen angepassten Prozess H = (H 0 , . . . , H d ) so, dass H j |(0,∞)
integrierbar ist bezüglich S j und S 0 für jedes j.
• Ist H eine Handelsstrategie, so ist der zugehörige Wertprozess V (H)
definiert durch Vt (H) = Ht · St , t ≥ 0.
• Wir nennen eine Handelsstrategie H selbstfinanzierend, falls
V (H) = V0 (H) +
d
X
H j • Sj .
j=0
Wir betrachten nun auch den abgezinsten Markt“: für einen beliebigen reell”
t
wertigen Prozess X sei X̃t := X
, t ≥ 0. Man beachte, dass S̃ 0 ≡ 1.
S0
t
Lemma 7.15. Sei K vorhersehbar und sei 1 ≤ j ≤ d.
1. K ist genau dann S 0 -integrierbar, wenn K integrierbar ist bezüglich
1
.
S0
2. Ist K integrierbar bezüglich S 0 und S j , dann auch bezüglich S̃ j .
3. Ist K integrierbar bezüglich S 0 und S̃ j , dann auch bezüglich S j .
Beweis: 1. Mit der Ito-Formel ist d( S10 ) = − (S10 )2 dS 0 . Für eine Stoppzeit T
ist also
Z T
Z T
1
1
|K| d| 0 | =
|K| 0 2 d|S 0 | ,
S
(S )
0
0
und da (S10 )2 lokal beschränkt (weil S0 stetig und 6= 0 ist, folgt eine Richtung.
Die andere Richtung folgt weil (S 0 )2 lokal beschränkt ist.
2. Schreibe S j = S0j +M +A, wo M ein lokales Martingal und A von beschränkter
Variation. K ist somit genau dann S j integrierbar, wenn K sowohl M - als auch
A-integrierbar ist.
Mit der Itô-Formel folgt
dS̃tj
= d((St0 )−1 Stj ) = Stj d((St0 )−1 ) + (St0 )−1 dStj
= −Stj (St0 )−2 dSt0 + (St0 )−1 dStj
= −Stj (St0 )−2 dSt0 + (St0 )−1 dMt + (St0 )−1 dAt .
K ist S0 - und A-integrierbar, Stj (St0 )−2 und (St0 )−1 sind lokal beschränkt, also
folgt wie unter 1, dass K integrierbar ist bezüglich −S j (S 0 )−2 • S 0 + (S 0 )−1 • A.
K ist M -integrierbar und (S 0 )−1 ist lokal beschränkt, also ist K integrierbar
bezüglich (S 0 )−1 • M .
4
Zumindest sind sie ungeeignet, falls man etwa die Black-Scholes-Formel zur Optionsbewertung herleiten will oder eine geeignete Form des Fundamental Theorem of Asset Pricing
beweisen möchte.
118
7.4 Marktmodelle II
3. Geht ähnlich wie 2.
Ist also H eine Handelsstrategie, so ist H auch integrierbar bezüglich S̃.
Weiters gilt für den Wertprozess
dṼ (H)t = −V (H)t (St0 )−2 dSt0 + (St0 )−1 dV (H)t ,
und insbesondere für H selbstfinanzierend, sodass dVt (H) = Ht · dSt ,
dṼt (H) = −(St0 )−2 Vt (H)dSt0 + (St0 )−1 dVt (H)
d
X
= −(St0 )−2
Htj Stj dSt0 + (St0 )−1
j=0
=
d
X
d
X
Htj dStj
j=0
Htj −(St0 )−2 Stj dSt0 + (St0 )−1 dStj
=
j=0
d
X
Ht dS̃t .
j=0
Hier erstreckt sich das Skalarprodukt in der letzten Zeile über d Summanden,
da dS̃ 0 ≡ 0.
Das folgende Lemma zeigt, dass man diesen Weg auch zurückgehen kann.
Lemma 7.16. Sei v0 ∈ R und K = (K 1 , . . . , K d ) ein vorhersehbarer, Rd wertiger, (S̃ 1 , . . . , S̃ d )-integrierbarer Prozess so, dass K j für jedes j = 1, . . . , n
integrierbar ist bezüglich S 0 .
Dann gibt es eine eindeutig bestimmte selbstfinanzierende Handelsstrategie H
mit V0 (H) = v0 so, dass
j
Kt für t > 0,
j
Ht =
0 für t = 0 .
j = 1, . . . , d.
Beweis: Zunächst fragen wir uns, wie ein solcher Prozess H 0 aussehen müsste.
Offenbar muss H00 = Sv00 gelten und
0
Ht0 = Ṽt (H) −
d
X
Htj S̃tj
j=1
=
d
X
d
X
v0
j
j
+
(H
•
S
)
−
Htj S̃tj .
t
S00 j=1
j=1
Damit ist die Eindeutigkeit gezeigt. Wir zeigen noch, dass der so definierte
Prozess H 0 bezüglich S 0 integrierbar ist.
P
Wir definieren einen Prozess Y durch Ỹ := Sv00 + dj=1 K j • S̃ j und H 0 := Ỹ −
0
Pd
Pd
j S̃ j , sodass Y =
j S j gilt und Ỹ ein Semimartingal ist. Weiters
K
H
j=1
j=0
ist H 0 vorhersehbar: für einfache Integranden K j ist H 0 linksstetig (nachrechnen) und damit vorhersehbar, für allgemeine Integranden ist H 0 vorhersehbar
als Limes vorhersehbarer Prozesse. H 0 ist integrierbar bezüglich S 0 , da Ỹ als
stetiger Prozess das ist und da alle K j das sind und alle S̃ j lokal beschränkt
sind, vergleiche mit Lemma 7.15.
119
7 Der Satz von Girsanov
Weiters gilt mit Itô-Formel und Lemma 7.15
dYt = d(St0 Ỹt ) = Ỹt dSt0 + St0 dỸt
=
d
X
Htj S̃tj dSt0 + St0
=
Htj dS̃tj
j=0
j=0
d
X
d
X
Htj (S̃tj dSt0 + St0 dS̃tj ) =
j=0
d
X
Htj dStj .
j=0
Da Y = V (H), ist H also selbstfinanzierend.
Wir können also im Wesentlichen anstelle des Marktes S mit selbstfinanzierenden Strategien den abgezinsten Markt S̃ mit d-dimensionalen integrierbaren
Prozessen untersuchen. Dabei dürfen wir S̃ als d-dimensionalen Prozess auffassen, indem wir die erste Komponente,P
die ja konstant 1 ist, ignorieren.
Wir schreiben im Folgenden G̃(H) := dj=1 H j • S̃ j .
Ein S̃-integrierbarer Prozess H heißt zulässig, falls es ein c ∈ [0, ∞) gibt mit
P(G̃t (H) ≥ −c für alle t ≥ 0) = 1 .
Die Interpretation ist klar: zwar darf der abgezinste Wertprozess (= v0 /S 0 +
G̃(H)) der zugehörigen selbstfinanzierenden Handelsstrategie negativ werden,
es muss aber von vornherein klar sein, wie negativ er werden kann.
Angenommen wir wüssten, dass es ein äquivalentes Wahrscheinlichkeitsmaß
P̃ ∼ P gibt so, dass S̃ ein lokales Martingal ist. Dann wäre für eine zulässige
Handelsstrategie H auch G̃(H) ein lokales Martingal, nach unten beschränkt
und somit ein Supermartingal nach Proposition 7.2. Daraus würde nach Satz
4.30 (Vorwärts-Konvergenz) folgen, dass G̃∞ (H) P̃-f.s. existiert. Damit würde
G̃∞ (H) auch P-f.s. existieren. Allgemein muss G̃∞ (H) natürlich nicht existieren.
Wir definieren
n
o
K0 := G̃∞ (H) : H ist zulässig und G̃∞ (H) existiert f.s.
wir fassen K0 als Teilmenge von L0 = L0 (Ω, F, P) auf, dem Vektorraum der
Äquivalenzklassen der messbaren Funktionen unter der Äquivalenzrelation Gle”
ichheit f.s.“. C0 sei die Menge der Funktionen in L0 , welche durch ein Element von K0 dominiert werden, C0 := K0 − L0+ . L∞ bezeichne wie üblich den
Raum der Äquivalenzklassen der wesentlich beschränkten Funktionen. Weiters
sei K = K0 ∩ L∞ und C = C0 ∩ L∞
C̄ bezeichne den Abschluss von C in L∞ .
Definition 7.17. Wir sagen das Semimartingal S̃ erfüllt die Bedingung
1. no arbitrage (NA), falls C ∩ L∞
+ = {0};
2. no free lunch with vanishing risk (NFLVR), falls C̄ ∩ L∞
+ = {0}.
Was besagt (NA)? Angenommen S̃ erfüllt dies nicht. Dann gibt es also X ∈
C ∩ L∞
+ \{0}, also einen zulässigen Prozess H derart, dass G̃∞ (H) existiert
120
7.4 Marktmodelle II
sowie eine nichtnegative reelle Zufallsvariable Z mit X = G̃∞ (H) − Z und
X ≥ 0 und X essentiell beschränkt, aber P(X > 0) > 0. Wenn ein Händler also
H verfolgt, so kann er vom erwirtschafteten Gewinn G̃∞ (H) am Schluss Z ≥ 0
wegerfen, und hat noch immer mit Sicherheit keinen Verlust und mit positiver
Wahrscheinlichkeit einen Gewinn. Die Existenz solcher Strategien möchte man
in der Finanzmathematik natürlich ausschließen (während man im realen Leben
gerne eine solche Strategie finden würde).
Was besagt (NFLVR)? Angenommen S̃ erfüllt dies nicht. Dann gibt es also
X ∈ C̄ ∩ L∞
+ \{0}. Es gibt dann eine Folge (Hn )n≥1 von zulässigen Prozessen
sowie eine Folge (Zn ) von nichtnegativen reellen Zufallsvariablen so, dass G̃∞ (Hn )
für jedes n existiert und X = limn G̃∞ (Hn ) − Zn in L∞ . Abbildung 7.1 illustriert diesen Sachverhalt. Ein free lunch with vanishing risk“ ist also eine Folge,
”
die ein Arbitrage in gewisser Weise approximiert. Auch so etwas möchte man
verbieten.
G̃∞ (Hn ) − Zn
G̃∞ (Hn )
X+
X
X−
0
1
n
1
n
Abbildung 7.1: Free lunch with vanishing risk.
Die folgenden Behauptungen gelten noch viel allgemeiner als in unserem Kontext, nämlich für lokal beschränkte Semimartingale, welche nicht stetig zu sein
brauchen. Die Integrationstheorie für solche Prozesse ist wesentlich aufwendiger
als die hier präsentierte. Aber auch für unseren Kontext sind sie interessant und
alles andere als trivial.
Satz 7.18. Wenn S̃ die Bedingung (NFLVR) erfüllt, dann existiert G̃∞ (H) f.s.
und ist endlich für jeden zulässigen Prozess H.
Beweis: Theorem 3.3 in [DS94].
Wir sagen P̃ ist ein äquivalentes Martingalmaß (EMM) für S̃, wenn P ∼ P̃
und wenn S̃ ein Martingal ist bezüglich P̃.
Wir sagen P̃ ist ein äquivalentes lokales Martingalmaß (ELMM) für S̃, wenn
P ∼ P̃ und wenn S̃ ein lokales Martingal ist bezüglich P̃.
Die folgenden Sätze sind beide vom Typ Fundamental Theorem of Asset
”
Pricing“ (FTAP):
Satz 7.19 (FTAP). Sei S̃ ein beschränktes Semimartingal. Es gibt genau dann
ein EMM, wenn S̃ (NFLVR) erfüllt.
121
7 Der Satz von Girsanov
Beweis: Theorem 1.1 in [DS94].
Satz 7.20 (FTAP). Sei S̃ ein lokal beschränktes Semimartingal. Es gibt genau
dann ein ELMM, wenn S̃ (NFLVR) erfüllt.
Beweis: Corollary 1.2 in [DS94].
Bisher haben wir nur Märkte mit einem unendlichen Zeithorizont betrachten.
Das ist aber keine Beschränkung der Allgemeinheit: ein Markt mit endlichen
Horizont [0, t0 ] kann aufgefasst werden als einer mit unendlichem Horizont, in
welchem die Preisprozesse nach t0 sämtlich konstant sind. Dann ist natürlich
G̃∞ (H) = G̃t0 (H).
Inwiefern ist ein EMM oder ELMM nun interessant beziehungesweise nützlich?
Wir betrachten sogenannte contingent claims, das sind Wertpapiere deren
Preis von der Entwicklung anderer Wertpapiere abhängt. Ein prominentes Beispiel
ist die sogenannte europäische Putoption auf eine Aktie: eine solche verbrieft
ihrer Inhaberin das Recht, aber nicht die Pflicht, ein Stück dieser Aktie zu einem
festgelegtem Zeitpunkt t0 zu einem festgelegten Preis K zu verkaufen.
Was kann über den Preisprozess einer solchen Putoption gesagt werden? Sei
S 1 der Preisprozess der zugehörigen Aktie. Ist St10 ≥ K, so ist die Option
wertlos, da die Aktie am Markt besser verkauft werden kann als durch die
Option. Wenn jedoch St10 < K, dann kann die Aktie um den Preis K anstelle
des Preises St10 verkauft werden. Der Wert der Option ist demnach in diesem
Fall K −St10 . Insgesamt ist der Wert der Option zum Zeitpunkt t0 also max(K −
St10 , 0).
Das ganze funktioniert auch dann, wenn die Inhaberin der Putoption gar
keine Aktie zum verkaufen hat. Nach unseren Voraussetzungen kann sie nämlich
die Aktie jederzeit zum Preis St10 kaufen und im selben Moment um K verkaufen
(was wiederum nur dann sinnvoll ist, wenn St10 < K).
Definition 7.21. Ein contingent claim ist eine beschränkte F∞ -messbare Zufallsvariable.
Definition 7.22.
• Ein contingent claim X̃ heißt super-hedgeable zum Preis
a, falls es eine zulässige Strategie H gibt mit X̃ ≤ a + G̃∞ (H). X̃ heißt
strictly super-hedgeable, wenn zusätzlich P(X̃ < a + G̃∞ (H)) > 0.
• Ein contingent claim X heißt sub-hedgeable zum Preis a, falls es eine
zulässige Strategie H gibt mit −X̃ ≤ −a + G̃∞ (H). X̃ heißt strictly subhedgeable, wenn zusätzlich P(−X̃ < −a + G̃∞ (H)) > 0.
• a heißt arbitrage-freier Preis für X̃, falls X̃ weder strictly super-hedgable
noch strictly sub-hedgable ist zum Preis a.
• X̃ heißt replizierbar, falls es eine S̃-integrierbare Strategie H gibt sowie
ein a mit X̃ = a + G̃∞ (H) und so, dass G̃(H) beschränkt ist.
• Der Markt heißt vollständig, wenn jeder contingent claim replizierbar ist.
122
7.5 Marktmodelle III
Sei X̃ replizierbar, sodass es also einen S̃-integrierbaren Prozess H gibt
mit X̃ = a + G̃∞ (H) und so, dass G̃(H) beschränkt ist. Dann ist S̃td+1 :=
a + G̃t (H) ein stetiges Martigal unter P̃ und somit ist S d+1 ein sinnvoller
Preisprozess in dem Sinne, dass der erweiterte Markt noch immer (NFLVR)
erfüllt. Man bemerke, dass S̃td+1 = EP̃ (X̃|Ft ), bzw. im ursprünglichen Markt
Std+1 = St0 EP̃ ( SX0 |Ft ).
T
Wir definieren
ρ(X̃) := inf{a : X̃ ist super-hedgable zum Preis a}
ρ(X̃) := sup{a : X̃ ist sub-hedgable zum Preis a}
π(X̃) := sup{EP̃ (X̃) : P̃ ein ELMM für S̃}
π(X̃) := inf{EP̃ (X̃) : P̃ ein ELMM für S̃} .
Proposition 7.23. S̃ erfülle (NFLVR). Dann gelten π(X̃) = ρ(X̃) und π(X̃) =
ρ(X̃).
Beweis: Siehe [AST03], Part II, Chapter 5.
Es gilt der folgende Satz:
Satz 7.24. S̃ erfülle (NFLVR) und X̃ sei ein contingent claim. Dann ist
entweder π(X̃) = π(X̃) und in diesem Fall ist X̃ replizierbar und der eindeutig
bestimmte arbitragefreie Preis von X̃ ist π(X̃) = π(X̃),
oder π(X̃) < π(X̃) und in diesem Fall ist
(π(X̃), π(X̃)) = {EP̃ (X̃) : P̃ ein ELMM für S̃}
= {a : a arbitragefreier Preis für X̃} .
7.5 Marktmodelle III
Wir betrachten nun einfache Marktmodelle in Hinblick auf Maßwechsel bzw.
auf (NFLVR).
Beispiel 7.25. Black-Scholes Modell mit endlichem Zeithorizont:
dSt0 = rSt0 dt
dSt1 = St1 (µdt + σdBt )
für t ∈ [0, t0 ]. Es ist dS̃t1 = S̃t1 ((µ − r)dt + σdBt ).
Wir schreiben nun B̄t = Bt + νt, sodass dS̃t1 = S̃t1 ((µ − r − σν)dt + σdB̄t ).
ν2
Dann ist nach einem früheren Beispiel Z := e−νBt0 − 2 t0 eine Dichte und
laut dem Satz von Girsanov und Lévy’s Charakterisierung der Brown’schen
Bewegung, ist B̄t = Bt + νt eine gestoppte Brown’sche Bewegung bezüglich P̃
dP̃
= Z.
mit dP
Damit nun S̃ 1 ein Martingal ist unter P̃, muss ν = µ−r
σ . Mit anderen Worten:
für σ 6= 0 (was immer angenommen wird), erfüllt das Black-Scholes-Modell
(NFLVR).
123
7 Der Satz von Girsanov
Beispiel 7.26. Black-Scholes Modell mit unendlichem Zeithorizont: versuchen
wir dieselbe Vorgangsweise nun bei Zeitbereich [0, ∞), so ist die Voraussetzung
für den Satz von Girsanov nicht erfüllt: sei M = −νB, sodass
E(M )t = e−νBt −
ν2
t
2
.
Warum sollte E(M ) ein U.I. Martingal sein? [M ] ist nicht gleichmäßig beschränkt,
1
1
E(e 2 [M ]∞ ) = ∞, limt→∞ E(e 2 Mt ) = ∞, sodass alle bisherigen Kriterien nicht
erfüllt sind. Man kann nachrechnen, dass E(M ) nicht U.I. ist (aber ein Martingal).
Der Satz von Girsanov liefert uns also kein ELMM. Aber gibt es vielleicht
trotzdem ein solches?
2
Wir betrachten folgende Strategie H für den Fall, dass µ ≥ r + σ2 : leihe zum
Zeitpunkt 0 S̃01 Stück von S 0 und kaufe damit ein Stück von S 1 . Warte, bis
S̃t1 = 2S̃01 und verkaufe dann S 1 .
Mathematisch Ht = (−S̃01 , 1)1[0,T ] + (S̃01 , 0)1(T,∞) ,
G̃t (H 1 ) ≥ −S̃01
1
G̃∞ (H ) =
S̃01
∀t ≥ 0
> 0,
wo T = inf{t ≥ 0 : S̃t1 ≥ 2S̃01 }. (Hier haben wir verwendet, dass eine Brown’sche
Bewegung mit nicht-negativer Drift jeden positiven Wert mit Wahrscheinlichkeit
1 erreicht.) Somit erfüllt das Black-Scholes-Modell in unendlicher Zeit nicht einmal (NA). Es kann also kein ELMM geben.
124
7.6 Cameron-Martin-Formel
7.6 Cameron-Martin-Formel
Sei nun (W, W, µ) der Wiener’sche Raum, das heißt
• W = C(R+ , R);
• W = σ(Xt : t ≥ 0), wo Xt : W −→ R, Xt (w) = w(t) die Familie der
Koordinatenabbildungen ist;
• µ ist das Wiener-Maß, also das eindeutig bestimmte Wahrscheinlichkeitsmaß auf (W, W), welches den Prozess (Xt )t≥0 zu einer Brown’schen Bewegung macht.
Definiere
Z
H := {h ∈ W : ht =
t
φs ds für ein φ ∈ L2 (R+ )} ,
0
den sogenannten Cameron-Martin-Raum.
Für h ∈ H schreiben wir ḣ für eine Version der schwachen Ableitung φ.
Beispiele zur Motivation:
1. Betrachte R und sei µ =Lebesguemaß. Ist B eine messbare Menge, so gilt
für jedes h ∈ R
µ(B − h) = µ(B) ,
2
2. Betrachte R und sei µ(dx) = exp(− x2 ). Ist B eine messbare Menge und
h ∈ R, dann definieren wir µh (B) = µ(B − h). Es gilt
x2
)dx =
2
(x − h)2
)dx
2
B−h
B
Z
Z
x2
h2
h2
=
exp(− ) exp(hx − )dx =
exp(hx − )µ(dx) ,
2
2
2
B
B
µh (B) =
sodass also
Z
dµh
dµ
exp(−
= exp(−hx −
Z
exp(−
h2
2 ).
Eine ähnliche Formel erhalten wir im folgenden Satz.
Satz 7.27 (Cameron-Martin-Formel). Sei h ∈ H und sei
µh (A) := µ({w ∈ W : w + h ∈ A}) ,
A∈W.
Dann ist µh ein Wahrscheinlichkeitsmaß auf W, absolut stetig bezüglich µ mit
Dichte
Z ∞
Z
1 ∞
dµh
2
(w) = exp
ḣs dws −
|ḣs | ds .
dµ
2 0
0
R
R∞
∞
(Hier ist 0 ḣs dws := 0 ḣs dXt (w) )
125
7 Der Satz von Girsanov
Beweis: Setzen Wt := σ(Xs : s ≤ t) und Mt :=
M2c (W, W, µ, (Wt )t≥0 ) und
Z ∞
[M ]∞ :=
|ḣs |2 ds < ∞ .
Rt
0
ḣs dXs . Dann ist M ∈
0
Aufgrund von Proposition 7.4 ist E(M ) ein UI Martingal, und somit können
wir durch
Z ∞
Z
dµ̃
1 ∞
2
|ḣs | ds
(w) = exp
ḣs dws −
dµ
2 0
0
ein Wahrscheinlichkeitsmaß auf (W, W) definieren. Nach dem Satz von Girsanov
ist X̃ = X − [X, M ] ∈ Mc,loc (µ̃). Da [X̃]t = [X]t = t ist, folgt aus Lévy’s
Charakterisierung,Rdass X̃ eine µ̃-Brown’sche Bewegung ist.
t
Aber [X, M ] = 0 ḣs ds = ht , sodass X̃(w) = X(w) − h = w − h ist. Somit
gilt für A ∈ W
µh (A) = µ({w : X(w) + h ∈ A})
= µ̃({w : X̃(w) + h ∈ A})
= µ̃({w : X(w) ∈ A})
= µ̃({w : w ∈ A}) = µ̃(A) .
Somit ist µh = µ̃.
126
Literaturverzeichnis
[AST03] S. Albeverio, W. Schachermayer, and M. Talagrand. Lectures on Probability Theory and Statistics. Ecole d’Eté de Probabilités de SaintFlour XXX – 2000. Springer, 2003.
[DS94]
Freddy Delbaen and Walter Schachermayer. A general version of the
fundamental theorem of asset pricing. Math. Ann., 300(3):463–520,
1994.
[Els09]
J. Elstrodt. Maß- und Integrationstheorie. Springer, 2009.
[LP]
G. Leobacher and F. Pillichshammer. Übersicht Wahrscheinlichkeitstheorie. Skriptum, Universität Linz.
[Pro04] Philip E. Protter. Stochastic integration and differential equations.
2nd ed. Applications of Mathematics 21. Springer, 2004.
[RW00] L.C.G. Rogers and David Williams. Diffusions, Markov processes, and
martingales. Vol. 2: Itô calculus. 2nd ed. Cambridge University Press,
2000.
[Wil91] D. Williams. Probability with Martingales. Cambridge University
Press, 1991.
127
Index
∆, 10
Lp -Ungleichung, 47
äquiv. lok. Martingalmaß, 121
äquiv. Martingalmaß, 121
angepasster Prozess, 32, 50
Arbitrage, 120
arbitrage-freier Preis, 122
bedingte Erwartung, 29
beschränkte Variation, 16
bid-ask-spread, 117
Black-Scholes-Modell, 106
Brown’sche Bewegung
geometrische, 93
mit Drift, 93
càdlàg, 20
CIR-Modell, 107
contingent claim, 122
Cox-Ingersoll-Ross-Modell, 107
Doob’s
Lp -Ungleichung, 47, 57
Satz v.d. Vorwärts-Konv., 39, 56
Submartingal-Ungl., 46, 57
Upcrossing Lemma, 39
Doob-Zerlegung, 48
einfacher Prozess, 69
ELMM, 121
EMM, 121
Erwartung
bedingte, 29
erzeugte Filterung, 32, 50, 54
Exp. Martingalungl., 109
Feinheit, 7
Filterung, 31, 49
erzeugte, 32, 50, 54
rechtsstetige, 52
Filtration, 31, 49
Folge
reduzierende, 59
Funktion
regularisierbare, 52
von beschränkter Variation, 16
gefilterter Raum, 31, 49
geometrische Brown’sche B., 93
gleichmäßig integrierbar, 41
Hölder-stetig, 55
Handelsstrategie, 117, 118
Heston-Modell, 107
Integral
Itô-, 70, 76
Lebesgue-Stieltjes-, 13
Riemann-, 6
Stieltjes-, 13
stochastisches, 76
Stratonovich-, 86
integrierbar
bezügl. b.v. Prozess, 116
bezügl. Martingal, 116
bezügl. Semimart., 116
gleichmäßig, 41
Lebesgue-Stieltjes-, 13
Riemann-, 6
Riemann-Stieltjes-, 7
Zufallsvariable, 32, 50
Itô
Formel, 83, 84, 99
Integral, 70
Jordan-Zerlegung, 19
Kazamaki-Kriterium, 114
129
Index
Kolmogoroff-Kriterium, 54
Konvergenz
in Wahrscheinlichkeit, 71
u.c.p., 71
Kovariation, 82
Kriterium
Kazamaki-, 114
Kolmogoroff-, 54
Novikov-, 115
Kunita-Watanabe-Identität, 82
Kurvenintegral, 25
Lévy’s Charakterisierung, 112
làdcàg, 20
Lebesgue-Stieltjes-Integral, 11, 13
Leerverkauf, 117
Lipschitz
Konstante, 94
stetig, 94
Liquidität, 117
lokal
beschränkt, 77
definiert, 97
Lösung, 99
Lösung, maximale, 99
lokales Martingal, 59
Martingal, 32, 50
lokales, 59
Martingaleigenschaft, 32, 50
Martingaltransformation, 37
maximale lok. Lösung, 99
messbar
minimal mb. Menge, 30
progressiv, 58
minimale messbare Menge, 30
NA, 120
NFLVR, 120
no arbitrage, 120
no free lunch, 120
Novikov-Kriterium, 115
Optional Stopping Theorem, 36, 58
OST, 36, 58
Partielle Integration, 84
partielle Integration, 15
130
Pfad, 31, 49
Pfadregularisierung, 53
Poisson-Prozess, 55
Portfolio, 117
progressiv messbar, 58
Prozess, 31, 49
einfacher, 69
lokal definierter, 97
Ohrnstein-Uhlenbeck, 94
Poisson-, 55
stochastischer, 31, 49
vorhersehbarer, 68
quadratische Variation, 74
Raum
gefilterter, 31, 49
standard-gefilterter, 52
rechtsstetig Filterung, 52
reduzierende Folge, 59
regularisierbar, 52
reine Sprungfunktion, 20, 21
rektifizierbar, 26
replizierbarer claim, 122
Riemann
Integral, 6
integrierbar, 6
Summe, 7
Riemann-Stieltjes-integrierbar, 7
Satz
L2 -Konv. v. Martingalen, 41, 57
Optional Stopping, 36
Optional stopping, 58
Rückwärts-Konvergenz, 44
v.d. Vorwärts-Konvergenz, 39, 56
von Girsanov, 110
Schwingkreis, 105
selbstfinanzierend, 117
Semimartingal, 61
shortselling, 117
Sprung, 10
Sprungstelle, 10
standard-gefilterter Raum, 52
steig
Lipschitz, 94
stetig
Hölder-, 55
Index
Stieltjes-Integral, 13
stochastischer Prozess, 31, 49
Stoppzeit, 34, 57
Stratonovich-Integral, 86
strictly sub-hedgable, 122
strictly super-hedgable, 122
sub-hedgable, 122
Submartingal, 32, 50
Submartingal-Ungleichung, 46
super-hedgable, 122
Supermartingal, 32, 50
Totalvariation, 16
Transaktionskosten, 117
U.I., 41
uniformly integrable, 41
ununterscheidbar, 50
Upcrossing, 53
Upcrossing Lemma, 39
Upcrossings, 38
usual conditions, 52
Variation
quadratische, 74
Total-, 16
Version, 50
Verteilungsfunktion, 23
Vervollständigung, 52
vollständiger Maßraum, 51
vollständiger Markt, 122
vorhersagbarer Prozess, 37
vorhersehbar
σ-Algebra, 68
Prozess, 68
Rechteck, 68
Wachstum
gebremstes, 102
Wertprozess, 118
Zerlegung
Doob-, 48
eines Intervalls, 6
Jordan-, 19
Semimartingal, 61
Zinsratenmodell, 107
zulässig, 120
131
Herunterladen