Skript

Werbung
Stochastische Analysis und Finanzmathematik
Vorlesung im Wintersemester 2011/2012
von
Dr. Markus Schulz
Inhaltsverzeichnis
1 Stochastische Prozesse
1.1 Grundlagen . . . . . . . . . . . . . . . . . . .
1.2 Die Brownsche Bewegung . . . . . . . . . . .
1.3 Pfadeigenschaften der Brownschen Bewegung .
1.4 Stoppzeiten und starke Markoveigenschaft . .
1.5 Das Gesetz von iterierten Logarithmus . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
5
10
12
16
2 Stochastische Integration
2.1 Das Stieltjes-Integral . . . . . . . . . . . . . . . . .
2.2 Lokale Martingale und quadratische Variation . . .
2.3 Das Itô-Integral bezüglich beschränkter Martingale
2.4 Das Itô-Integral bezüglich lokaler Martingale . . . .
2.5 Das Itô-Integral bezüglich Semimartingalen . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
21
21
24
29
37
38
.
.
.
.
43
43
47
54
56
.
.
.
.
62
62
69
78
85
3 Stochastische Differentialgleichungen
3.1 Lineare Differentialgleichungen . . . . . . .
3.2 Existenz und Eindeutigkeit . . . . . . . . .
3.3 Schwache Lösungen und Martingalproblem
3.4 Maßwechsel . . . . . . . . . . . . . . . . .
4 Finanzmathematik
4.1 Begriffsbildung . . . . . . . . . .
4.2 Vollständigkeit und Optionspreis
4.3 Konkrete Modelle . . . . . . . . .
4.4 Ausblick . . . . . . . . . . . . . .
ii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
1.1
Stochastische Prozesse
Grundlagen
Definition 1.1. Ein stochastischer Prozess ist eine Familie (Xt )t∈I von messbarer Abbildungen auf einem W-Raum (Ω, F, P ) mit Werten in einem gemeinsamen
messbaren Raum (E, E). Die Indexmenge I 6= ∅ wird auch Parametermenge und der
messbare Raum (E, E) Zustandsraum genannt. Für jedes ω ∈ Ω heißt die Abbildung
t 7→ Xt (ω) ein Pfad. Der Prozess heißt zentriert, wenn EXt = 0 für alle t ∈ I.
Im Folgenden werden wir es in der Regel mit Prozessen mit Wertebereich (R, B) zu
tun haben. Als Indexmenge wählen wir häufig I = [0, ∞). In dem Fall schreiben wir
auch (Xt )t≥0 = (Xt )t∈[0,∞) .
Einem stochastischen Prozess können wir uns auf drei verschiedene Weisen nähern:
a) Wir betrachten für feste t ∈ I die Zufallsvariablen Xt ,
b) wir untersuchen für feste ω ∈ Ω die Pfade t 7→ Xt (ω) oder
c) wir betrachten den gesamten Prozess als Abbildung X : (ω, t) 7→ Xt (ω).
Für später führen wir weitere Begriffe ein.
Definition 1.2. Sei E ein topologischer Raum mit σ-Algebra E. Ein E-wertiger
Prozess X heißt f.s. stetig, wenn die Abbildung t 7→ Xt (ω) für fast alle ω stetig ist.
Definition 1.3. Seien (Xt )t∈I und (Yt )t∈I zwei stochastische Prozesse über demselben Grundraum (Ω, F, P ) sowie mit gleichem Zustandsraum (E, E). Gilt dann
Xt = Yt
P -f.s.
für jedes t ∈ I, so ist Y eine Modifikation von X (und umgekehrt).
Dass sich die Pfadeigenschaften des modifizierten Prozesses stark von denjenigen
des ursprünglichen unterscheiden können, verdeutlicht das folgende Beispiel.
Beispiel 1.1. Sei (Ω, F, P ) = (R, B, P ). Dabei sei P ein W-Maß mit P {t} = 0 für
alle t ∈ R. Beispielsweise besitzen W-Maße mit Lebesgue-Dichten diese Eigenschaft.
I sei gleich R. Setze weiter
Xt := 1{t}
und Yt := 0
für alle t ∈ R. Offensichtlich ist Y eine stetige Modifikation des Prozesses X. Dieser
besitzt keinen einzigen stetigen Pfad.
Definition 1.4. Sei A ⊂ R. Eine Funktion f : A → R heißt lokal Hölder-stetig in
t0 ∈ A mit Exponent d, wenn eine Umgebung U ⊂ R um t0 und eine Konstante
L > 0 existiert, so dass
∀s, t ∈ U ∩ A : |f (s) − f (t)| ≤ L|s − t|d .
Eine Funktion f : A → R heißt lokal Hölder-stetig mit Exponent d, wenn sie in allen
t0 ∈ A lokal Hölder-stetig ist.
Eine Funktion f : A → R heißt Hölder-stetig in t0 ∈ A mit Exponent d, wenn es
eine Umgebung U ⊂ R von t0 und eine Konstante L > 0 gibt, so dass
∀s ∈ U ∩ A : |f (s) − f (t0 )| ≤ L|s − t0 |d .
2
1 STOCHASTISCHE PROZESSE
Bemerkung 1.1. Aus der lokalen Hölder-Stetigkeit einer Funktion f folgt deren Stetigkeit, i.a. aber nicht umgekehrt. Ist f lokal Hölder-stetig mit Exponent γ, so ist
sie auch lokal Hölder-stetig mit jedem Exponenten γ 0 ∈ (0, γ].
Analog folgt aus der Hölder-Stetigkeit einer Funktion f in einem Punkt t0 deren
Stetigkeit in t0 , i.a. aber nicht umgekehrt. Ist f Hölder-stetig in t0 mit Exponent γ,
so ist sie in t0 auch Hölder-stetig mit jedem kleineren Exponenten γ 0 ∈ (0, γ]. Jede
lokal Hölder-stetige Funktion ist auch Hölder-stetig in allen Punkten t ∈ A, jedoch
i.a. nicht umgekehrt.
Für die Existenz einer stetigen Modifikation gibt es ein recht handliches Kriterium,
das gleichzeitig eine Aussage zur lokalen Hölder-Stetigkeit eines Prozesses X zulässt.
Satz 1.1 (Kriterium von Kolmogorov). Sei X ein reellwertiger Prozess. Es gebe
a, b, c > 0, so dass
E[|Xt − Xs |a ] ≤ c|t − s|1+b
für alle s, t ≥ 0.
Dann hat X eine stetige Modifikation. Für jedes γ ∈ (0, b/a) sind P -fast alle Pfade
lokal Hölder-stetig mit Exponent γ.
Beweis. Wir untersuchen das Problem zunächst auf [0, 1]. Sei
Dn = {i2−n : i = 0, 1, . . . , 2n }
S
und D = n∈N Dn die Menge aller dyadischen Zahlen in [0, 1]. Wähle eine Zahl
γ ∈ (0, β/α). Für s = (k − 1)2−n und t = k2−n (also s, t ∈ Dn mit |s − t| = 2−n )
liefert die Chebyshev-Ungleichung
P (|Xk2−n − X(k−1)2−n | ≥ 2−γn ) ≤ 2aγn E[|Xk2−n − X(k−1)2−n |a ] ≤ c2−n(1+b−aγ) ,
also auch
P
=P
≤
maxn |Xk2−n − X(k−1)2−n | ≥ 2−γn
1≤k≤2
2n
[
{|Xk2−n − X(k−1)2−n | ≥ 2−γn }
k=1
n
2
X
P (|Xk2−n − X(k−1)2−n | ≥ 2−γn ) ≤ c2−n(b−aγ) .
k=1
Nach dem ersten Lemma von Borel-Cantelli gibt es eine Nullmenge N0 ∈ F, so dass
für alle ω ∈ N0c gilt
∃n0 (ω) ∈ N∀n ≥ n0 (ω) : maxn |Xk2−n (ω) − X(k−1)2−n (ω)| < 2−γn .
1≤k≤2
(∗)
Sei nun ω ∈ N0c und n ≥ n0 (ω). Wir wollen zeigen, dass für jedes m > n gilt
|Xt (ω) − Xs (ω)| ≤ 2
m
X
2−γj
∀s, t ∈ Dm , 0 < t − s < 2−n .
(∗∗)
j=n+1
Dies beweisen wir mittels einer vollständigen Induktion:
Für m = n + 1 können wir nur s = (k − 1)2−m und t = k2−m wählen. (∗∗) folgt
1.1 Grundlagen
3
dann aus (∗). Sei nun (∗∗) für m = n + 1, . . . , M − 1 erfüllt. Wähle s, t ∈ DM mit
0 < t − s < 2−n und betrachte die Zahlen t1 := max{u ∈ DM −1 : u ≤ t} sowie
s1 := min{u ∈ DM −1 : u ≥ s}. Hierfür gilt s ≤ s1 ≤ t1 ≤ t und s1 − s ≤ 2−M sowie
t − t1 ≤ 2−M . Aus (∗) folgt |Xs1 (ω) − Xs (ω)| ≤ 2−γM und |Xt (ω) − Xt1 (ω)| ≤ 2−γM .
Nach Induktionsannahme gilt zudem
|Xt1 (ω) − Xs1 (ω)| ≤ 2
M
−1
X
2−γj .
j=n+1
Zusammen erhalten wir (∗∗) für m = M .
Wir können nun zeigen, dass die Pfade D 3 t 7→ Xt (ω) für alle ω ∈ N0c gleichmäßig
stetig sind. Für alle s, t ∈ D mit 0 < t − s < 2−n0 (ω) wählen wir ein n ≥ n0 (ω), so
dass 2−n−1 < t − s < 2−n . Wegen (∗∗) ergibt sich
|Xt (ω) − Xs (ω)| ≤ 2
∞
X
2−γj ≤ C|t − s|γ , 0 < t − s < 2−n0 (ω)
(∗ ∗ ∗)
j=n+1
mit C := 2(1 − 2−γ )−1 . Dies zeigt die gleichmäßige Stetigkeit.
Bezeichne D∗ die Menge aller dyadischen Zahlen aus [0, ∞). Wir gehen nun zur
Indexmenge [0, ∞) über, indem wir feststellen, dass der Prozess (X1+t )t≥0 ebenfalls
der vorausgesetzten Bedingung mit den gleichen Konstanten a und b genügt. Nach
dem soeben bewiesenen gibt es also eine Nullmenge N1 ∈ F und zu jedem ω ∈ N1c
ein n1 (ω), so dass (∗ ∗ ∗) mit derselben Konstante C für alle Zahlen s, t ∈ D∗ ∩ [1, 2]
mit |s − t| < 2−n1 (ω) gilt. Œ können wir N0 ⊂ N1 und n1 (ω) ≥ n0 (ω) für alle
ω ∈ N1c annehmen. Iterativ erhalten wir eine
S∞aufsteigende Folge von Nullmengen
(Nk )k∈N0 und somit eine Nullmenge N := k=0 Nk sowie für jedes ω ∈ N c eine
monoton wachsende Folge (nk (ω))k∈N0 , so dass (∗ ∗ ∗) mit demselben C für alle
s, t ∈ D∗ ∩ [j, j + 1] mit j ∈ {0, . . . , k} und |s − t| < 2−nk (ω) gilt. Je zwei Zahlen
s, t ∈ D∗ ∩[0, k+1] mit |s−t| < 2−nk (ω) können wegen |s−t| < 21 nur in benachbarten
Intervallen [0, 1], [1, 2], . . . , [k, k + 1] oder im gleichen Intervall liegen. Im zweiten
Fall gilt (∗ ∗ ∗). Im ersten Fall nehmen wir s < j < t für ein j ≤ k an. Wegen
max{j − s, t − j} < t − s < 2−nk (ω) folgt mit der Dreiecksungleichung
|Xt (ω)−Xs (ω)| ≤ |Xt (ω)−Xj (ω)|+|Xj (ω)−Xs (ω)| ≤ C|j−s|γ +C|t−j|γ < 2C|t−s|γ .
Daher ist s 7→ Xs (ω) für jedes ω ∈ N c auf D∗ ∩ [0, k + 1] gleichmäßig stetig.
Eine beliebige Zahl t ∈ [0, k + 1] können wir durch eine Folge dyadischer Zahlen
approximieren. Eine stetige Modifikation (Yt )t≥0 erhalten wir nun z.B., indem wir
(
lims→t,s∈D∗ Xs (ω) , ω ∈ N c
Yt (ω) :=
0
,ω ∈ N
setzen. Aufgrund der gleichmäßigen Stetigkeit folgt, dass Y zu vorgegebenem γ
f.s. lokal Hölder-stetig mit Exponent γ ist. Es bleibt noch zu zeigen, dass Y eine
Modifikation von X ist. Für ein t ≥ 0 wähle dazu eine Folge (tn )n∈N dyadischer
Zahlen mit tn → t. Dann gilt nach Definition Ytn = Xtn . Einerseits folgt aus der
Voraussetzung mittels der Chebyshev-Ungleichung
P (|Xt − Xtn | > ε) ≤ ε−a E[|Xt − Xtn |a ] ≤ ε−a c|t − tn |1+b → 0
4
1 STOCHASTISCHE PROZESSE
und somit Xtn → Xt in Wahrscheinlichkeit. Andererseits konvergiert Ytn aufgrund
der Stetigkeit f.s. gegen Yt . Da ein stochastischer Limes bis auf f.s. Gleichheit eindeutig bestimmt ist, gilt Xt = Yt f.s.
Eine wichtige Klasse von stochastischen Prozessen bilden die Gauß-Prozesse. Um
diese definieren zu können, müssen wir zunächst die mehrdimensionale Normalverteilung einführen.
Definition 1.5. Sei Σ ∈ Rd×d eine positiv definite symmetrische Matrix und µ ∈
Rd . Ein d-dimensionaler Zufallsvektor X heißt d-dimensional normalverteilt mit
Mittelwert µ und Kovarianzmatrix Σ, kurz X ∼ N (µ, Σ), wenn er die Dichte
−d/2
(2π)
−1/2
| det Σ|
1
> −1
exp − (x − µ) Σ (x − µ) , x ∈ Rd ,
2
besitzt.
Aufgabe 1. Sei X eine d-dimensionale N (µ, Σ)-verteilte Zufallsvariable.
a) Wenn A eine invertierbare d × d-Matrix und b ∈ Rd ist, wie ist dann AX + b
verteilt?
b) Seien X und Y zwei unabhängige Rd -wertige Zufallsvariablen mit Verteilungen
N (µ, Σ) bzw. N (ν, Σ0 ). Dann ist X + Y N (µ + ν, Σ + Σ0 )-verteilt.
c) Sei X > = (Y1> , Y2> ) verteilt nach N (0, Σ). Ist
Σ11 Σ12
Σ=
,
Σ21 Σ22
>
> >
so gilt Σij = EYi Yj> . Setzen wir Z1 = Y1 − Σ12 Σ−1
22 Y2 , dann ist (Z1 , Y2 ) normalverteilt. Außerdem sind Z1 und Y2 unabhängig.
Wie der Name „Gauß-Prozess“ schon vermuten lässt, definieren wir
Definition 1.6. Ein Prozess X ist ein Gauß-Prozess, wenn für je endlich viele Zeitpunkte 0 ≤ t1 < t2 < · · · < tn der Zufallsvektor (Xt1 , Xt2 , . . . , Xtn ) n-dimensional
normalverteilt ist.
Durch Erweitern der Definition charakteristischer Funktionen auf Zufallsvektoren
folgt
Proposition 1.2. Ein d-dimensionaler Zufallsvektor V ist genau dann mehrdimensional normalverteilt, wenn jede Linearkombination c> V , c ∈ Rd , (eindimensional)
normalverteilt ist.
Ein Prozess X ist also schon dann ein Gauß-Prozess, wenn für alle n ∈ N und
c1 , . . . , cn ∈ R und jede Wahl P
von Zeiten 0 ≤ t1 < t2 < · · · < tn die Zufallsvariablen
(c1 , . . . , cn )(Xt1 , . . . , Xtn )> = nj=1 cj Xtj eindimensional normalverteilt sind.
Aufgabe 2.
a) Beweisen Sie Proposition 1.2.
b) Seien Xn , n ∈ N, und X d-dimensionale Zufallsvektoren. Zeigen Sie: Es gilt
Xn ⇒ X genau dann, wenn c> Xn ⇒ c> X für alle c ∈ Rd .
1.2 Die Brownsche Bewegung
5
c) Sei (Xn )n∈N eine unabhängige Folge identisch verteilter Rd -wertiger Zufallsvariablen, deren Komponenten endliche zweite Momente besitzen. Dann konvergiert
n−1/2
n
X
(Xi − EXi )
i=1
in Verteilung gegen eine N (0, C)-verteilte Zufallsvariable, wobei C := E[(X1 −
EX1 )(X1 − EX1 )> ].
Bemerkung 1.2. Die Verteilung eines Gauß-Prozesses ist durch seine Mittelwertfunktion m(t) = EXt und seine Kovarianzfunktion Γ(s, t) = E[(Xs − m(s))(Xt − m(t))]
eindeutig festgelegt.
Bewiesen wird dieses Resultat mit Hilfe der charakteristischen Funktionen und des
Fortsetzungssatzes von Kolmogorov, den wir in Abschnitt 1.2 kennenlernen.
Beispiel 1.2. a) Wir werden im nächsten Abschnitt sehen, dass die Brownsche Bewegung ein Gauß-Prozess mit Mittelwertfunktion m(t) = 0 und Kovarianzfunktion
Γ(s, t) = min{s, t} =: s ∧ t ist.
b) Ein zentrierter Gauß-Prozess (Wt )t∈[0,1] mit Kovarianzfunktion Γ(s, t) = s ∧ t − st
und f.s. stetigen Pfaden heißt Brownsche Brücke.
c) Ein zentrierter Gauß-Prozess mit Kovarianzfunktion Γ(s, t) = βe−α|s−t| ist ein
sog. Ornstein-Uhlenbeck Prozess.
1.2
Die Brownsche Bewegung
Die Brownsche Bewegung ist der wichtigste stochastische Prozess. Sein Name geht
zurück auf den Botaniker R. Brown, der 1828 die zufälligen Bewegungen von Pollen
in Wasser beobachtete. Zum ersten Mal angewendet wurde die Brownsche Bewegung
von L. Bachelier und A. Einstein. Sie verfolgten dabei jedoch unterschiedliche Ziele.
So wollte Bachelier 1900 ein Modell für die Finanzmärkte entwickeln, Einstein war
1905 dagegen an einem Modell für die Bewegung eines Teilchens unter dem Einfluss von Stößen durch umgebende Moleküle interessiert. Beide verzichteten dabei
zunächst auf eine strickte mathematische Beschreibung. Dieser nahm sich schließlich
N. Wiener 1920/23 an. Zu seinen vielen Leistungen gehört der erste formale Nachweis, dass die Brownsche Bewegung existiert. Zu Ehren Wieners wird die Brownsche
Bewegung auch Wiener-Prozess genannt.
Versetzen wir uns zunächst in die Lage von Einstein. Mit Bt bezeichnen wir die xKomponente der Position eines Teilchens zur Zeit t ≥ 0, das Stöße von umgebenden
Molekülen erfährt. Den Koordinatenursprung legen wir in den Startpunkt B0 . Wir
treffen folgende Modellannahmen:
1. Die Molekülstöße erfolgen nacheinander zu Zeiten t1 < t2 < · · · . Der n-te Stoß
führt zu einer Verschiebung Xn (in x-Richtung) bis zum (n + 1)-ten Stoß. Also
gilt Btn = X1 + · · · + Xn−1 .
2. Die Stöße erfolgen zufällig und unabhängig voneinander, d.h. die Xi werden
als unabhängige Zufallsvariablen modelliert. Weiter werden die Xi als identisch
verteilt angenommen.
3. Wegen Symmetrie gilt EXn = 0. Zudem ist E[Xn2 ] < ∞, da große Werte von
Xn extrem selten sind.
6
1 STOCHASTISCHE PROZESSE
Leider ist die Position des Teilchens nur in gewissen Zeitabständen t0 beobachtbar,
die sehr viele Zusammenstöße umfassen. Die Anzahl der Stöße ist Poisson-verteilt,
und ihre relative Schwankung ist äußerst gering. Wir können also annehmen, dass in
gleich langen Beobachtungsintervallen immer dieselbe Anzahl von Stößen stattfindet.
Für die Folge der Beobachtungszeiten 0, t0 , 2t0 , . . . erhalten wir
Bnt0 = Bt0 + (B2t0 − Bt0 ) + · · · + (Bnt0 − B(n−1)t0 ).
Jeder der unabhängigen Zuwächse Bkt0 − B(k−1)t0 ist die Summe einer gewissen Zahl
unabhängiger, identisch verteilter und zentrierter Zufallsvariablen, also approximativ N0,σ2 -verteilt. Mit unserem Wissen aus der Stochastik I folgt nun, dass Bnt0 −Bmt0
approximativ N0,(n−m)σ2 -verteilt ist. Diese Überlegungen motivieren die folgende
Definition 1.7. Ein stochastischer Prozess (Bt )t≥0 mit Werten in (R, B) heißt (normale) Brownsche Bewegung, wenn er die folgenden Eigenschaften besitzt:
(1) Die Zuwächse von Bt sind unabhängig, d.h. für je endlich viele Zeitpunkte
0 ≤ t1 < t2 < · · · < tn < ∞ sind die Zufallsvariablen
Bt2 − Bt1 , Bt3 − Bt2 , . . . , Btn − Btn−1
unabhängig.
(2) Für 0 ≤ s < t < ∞ sind die Zuwächse Bt − Bs normalverteilt mit Mittelwert
0 und Varianz t − s.
(3) Der Prozess B besitzt f.s. stetige Pfade.
(4) Es gilt B0 = 0 f.s.
Bemerkung 1.3. Oft wird in der Literatur auch ein Prozess, der (1)-(3) erfüllt, als
Brownsche Bewegung bezeichnet. Anstelle von (4) ist B0 dann gemäß einer Startverteilung ν verteilt.
Mit Hilfe der Gauß-Prozesse finden wir eine äquivalente Charakterisierung einer
Brownschen Bewegung.
Lemma 1.3. Ein Prozess B = (Bt )t≥0 ist genau dann eine Brownsche Bewegung,
wenn folgende Bedingungen erfüllt sind:
(1’) B ist ein Gauß-Prozess.
(2’) Es gilt EBt = 0 und EBs Bt = s ∧ t.
(3) Der Prozess B besitzt f.s. stetige Pfade.
Beweis. Wir erkennen leicht, dass aus (1) und (2) die Bedingung (1’) folgt. Um (2’)
aus (1) und (2) zu erhalten, rechnen wir für s < t
EBs Bt = EBs2 + E[Bs (Bt − Bs )] = s + EBs E(Bt − Bs ) = s.
Um umgekehrt (1) herzuleiten genügt es nachzuweisen, dass der Zufallsvektor
(Bt2 − Bt1 , Bt3 − Bt2 , . . . , Btn − Btn−1 )
1.2 Die Brownsche Bewegung
7
eine diagonale Kovarianzmatrix besitzt. Dies ist jedoch der Fall, denn für i < j gilt
E[(Bti − Bti−1 )(Btj − Btj−1 )]
=E[Bti Btj ] − E[Bti Btj−1 ] − E[Bti−1 Btj ] + E[Bti−1 Btj−1 ]
=ti − ti − ti−1 + ti−1 = 0.
Aus (1’) und Lemma 1.2 folgt sofort, dass die Zuwächse Bt −Bs , s < t, normalverteilt
sind. Bedingung (2’) liefert ferner E(Bt − Bs ) = 0 und
Var(Bt − Bs ) = E[(Bt − Bs )2 ] = E[Bt2 ] − 2EBs Bt + E[Bs2 ] = t − 2s + s = t − s.
Wegen EB0 = 0 und EB02 = 0 gilt B0 = 0 f.s.
Oft definiert man auch eine d-dimensionale Brownsche Bewegung. Der einzige Unterschied zur obigen Definition besteht darin, dass ein solcher Prozess den Wertebereich Rd besitzt. Man kann zeigen, dass die Komponenten B j einer d-dimensionalen
Brownschen Bewegung voneinander unabhängige (d.h. die σ-Algebren σ(Bt1 , t ≥
0), . . . , σ(Btd , t ≥ 0) sind unabhängig) eindimensionale Brownsche Bewegungen sind.
Aufgabe 3. Zeigen Sie: Für jede d-dimensionale Brownsche Bewegung B und jeden
Vektor e ∈ Rd mit Länge |e| = 1 ist (e> Bt )t≥0 eine eindimensionale Brownsche
Bewegung.
Darüber hinaus können wir definieren:
Definition 1.8. Ein zentrierter Gauß-Prozess (Xt )t∈[0,1] mit Kovarianzfunktion
EXs Xt = s ∧ t − st und f.s. stetigen Pfaden heißt Brownsche Brücke.
Bemerkung 1.4. Ist X eine Brownsche Brücke, so gilt offenbar X0 = X1 = 0 f.s.
Aufgabe 4.
a) Sei B eine Brownsche Bewegung. Dann ist der Prozess X definiert durch Xt =
Bt − tB1 , t ∈ [0, 1], eine Brownsche Brücke.
b) Ist X eine Brownsche Brücke, so ist auch Y mit Yt = X1−t eine Brownsche Brücke.
c) Ist X eine Brownsche Brücke, so ist ((1+t)X 1 )t∈[0,∞) eine Brownsche Bewegung.
1+t
Nun stellt sich natürlich die Frage, ob ein solcher Prozess überhaupt existiert. Da
der Nachweis eher technisch ist, werde ich auf einige Details verzichten.
Definition 1.9. Ein vollständiger, separabler und metrischer Raum heißt polnisch.
Definition 1.10. Für n ∈ N und t1 , . . . , tn ≥ 0 sei Pt1 ,...,tn ein W-Maß auf E n .
Die Familie von W-Maßen heißt projektiv, wenn für {s1 , . . . , sk } ⊂ {t1 , . . . , tn } das
W-Maß Ps1 ,...,sk die entsprechende Randverteilung von Pt1 ,...,tn ist
Bemerkung 1.5. Ist X ein stochastischer Prozess, so ist die Familie der Verteilungen
(Xt1 , . . . , Xtn ) projektiv.
Satz 1.4 (Fortsetzungssatz von Kolmogorov).
Ist E polnisch mit Borel-σ-Algebra E, dann existiert zu jeder projektiven Familie
genau ein W-Maß auf E [0,∞) , das die Familie fortsetzt.
Der Beweis des Fortsetzungssatzes ist umfangreich und technisch, daher möchte ich
darauf verzichten. Wer daran interessiert ist, kann ihn z.B. in [AD-D00] nachlesen.
8
1 STOCHASTISCHE PROZESSE
Satz 1.5. Es gibt ein W-Maß P auf (R[0,∞) , B [0,∞) ), so dass der Koordinatenprozess
Xt (ω) = ωt die Eigenschaften (1), (2) und (4) aus Definition 1.7 besitzt.
Beweis. Setze P (X0 = 0) = 1. Sei qt die Dichte der Normalverteilung mit Mittelwert
0 und Varianz t. Für reelle Zahlen 0 < t1 < · · · < tn definieren wir
Z
Z
Pt1 ,...,tn (A1 × · · · × An ) =
qt1 (x1 )
qt2 −t1 (x2 − x1 )
A1
A2
Z
qtn −tn−1 (xn − xn−1 ) dxn . . . dx2 dx1 .
···
An
Man kann zeigen, dass die so definierten W-Maße eine projektive Familie bilden.
Nach Satz 1.4 können wir das so definierte W-Maß auf den Raum (R[0,∞) , B [0,∞) )
fortsetzen. Bezüglich dieser Fortsetzung sind die Zuwächse Xt − Xs N0,t−s -verteilt.
Seien 0 = t0 < t1 < · · · < tn und Yi := Xti − Xti−1 . Für A1 , . . . , An ∈ B und x0 := 0
erhalten wir
Z Y
n
(Y1 ,...,Yn )
1Aj ◦ Yj dP
P
(A1 × · · · × An ) =
j=1
=
Z Y
n
1Aj (xj − xj−1 ) Pt1 ,...,tn (d(x1 , . . . , xn ))
j=1
Z
=
Z
qt1 (x1 ) 1A2 (x2 − x1 )qt2 −t1 (x2 − x1 )
Z
. . . 1An (xn − xn−1 )qtn −tn−1 (xn − xn−1 ) dxn . . . dx2 dx1
A1
=
n
Y
N0,tj −tj−1 (Aj ) =
j=1
n
Y
P Yj (Aj ).
j=1
Also besitzt X unabhängige Zuwächse.
Aufgabe 5. Seien Pt1 ,...,tn und X definiert wie in Satz 1.5. Zeigen Sie:
a) Die so definierten W-Maße bilden eine projektive Familie.
b) Bezüglich der Fortsetzung P auf (R[0,∞) , B [0,∞) ) ist der Zuwachs Xt − Xs N0,t−s verteilt.
Satz 1.6. Es existiert ein Prozess B mit unabhängigen Zuwächsen und Bt − Bs ∼
N0,t−s für s < t sowie f.s. stetigen Pfaden. Für jedes γ ∈ (0, 12 ) sind P -fast alle
Pfade lokal Hölder-stetig mit Exponent γ.
Beweis. Nach Satz 1.5 existiert ein W-Maß P , so dass der Koordinatenprozess
Xt (ω) = ωt die Eigenschaften (1), (2) und (4) aus Definition 1.7 besitzt. Alle Momente einer normalverteilten Zufallsvariable existieren. Bezeichnet Z eine N0,1 -verteilte
Zufallsvariable, so gilt
E[|Xt − Xs |2n ] = E[|t − s|−n |Xt − Xs |2n ]|t − s|n = E[Z 2n ]|t − s|n
∀n ∈ N.
Nach Satz 1.1 existiert also eine stetige Modifikation B, die weiterhin die Eigenschaften (1), (2) und (4) besitzt. Für alle n ∈ N und γ < n−1
ist B nach Satz 1.1 f.s.
2n
n−1
1
lokal Hölder-stetig mit Exponent γ. Wegen limn→∞ 2n = 2 ist B für jedes γ < 1/2
f.s. lokal Hölder-stetig mit Exponent γ.
1.2 Die Brownsche Bewegung
9
Nachdem die Existenz der Brownschen Bewegung nun gesichert ist, können wir uns
mit ihren Eigenschaften beschäftigen.
Satz 1.7 (Eigenschaften der Brownschen Bewegung).
1) (Homogenität) Ist B eine Brownsche Bewegung, so ist auch (Bs+t − Bs )t≥0 eine
Brownsche Bewegung.
2) (Symmetrie) Mit B ist auch (−Bt )t≥0 eine Brownsche Bewegung.
3) (Skalenwechsel) Ist B eine Brownsche Bewegung, so ist (Bst )s≥0 für alle t > 0
wie (t1/2 Bs )s≥0 verteilt.
4) Für festes t > 0 ist (Bt−s − Bt )s∈[0,t] eine Brownsche Bewegung auf [0, t].
Beweis. Eigenschaft 1 folgt direkt aus der Definition. Die zweite Eigenschaft ist
klar wegen der Symmetrie der Normalverteilung. Beide in 3) angegebenen Prozesse
sind zentrierte Gauß-Prozesse. Nach Bemerkung 1.2 sind also beide Prozesse schon
identisch verteilt, wenn deren Kovarianzfunktionen übereinstimmen. Es gilt aber
EBs1 t Bs2 t = (s1 t) ∧ (s2 t) = t(s1 ∧ s2 ) = tEBs1 Bs2 = Et1/2 Bs1 t1/2 Bs2 .
Der Prozess in 4) ist ebenfalls ein zentrierter Gauß-Prozess mit Kovarianzfunktion
E(Bt−r − Bt )(Bt−s − Bt ) = EBt−r Bt−s − EBt−r Bt − EBt Bt−s + EBt2
= t − (r ∨ s) − (t − r) − (t − s) + t
= r + s − (r ∨ s) = r ∧ s.
Die Behauptung folgt aus Lemma 1.3 und Bemerkung 1.2.
Die nächste Eigenschaft einer Brownschen Bewegung gestattet eine Zeitinversion.
Satz 1.8. Ist B eine Brownsche Bewegung, dann ist auch X definiert durch
(
tB1/t (ω) , falls t > 0
Xt (ω) :=
0
, falls t = 0
eine Brownsche Bewegung.
Beweis. Für endlich viele Zeitpunkte 0 < t1 < . . . < tn ist jede Linearkombination c1 Xt1 + · · · + cn Xtn eine Linearkombination der Bτi mit τi = t1i . Da B nach
Lemma 1.3 ein zentrierter Gauß-Prozess ist, gilt dies auch für X. Berechne nun die
Kovarianzfunktion von X:
s = 0 oder t = 0: EXs Xt = 0 = s ∧ t
s, t > 0: EXs Xt = stEB 1 B 1 = st min{ 1s , 1t } = s∧t·s∨t
= s ∧ t.
s∨t
s
t
Nach Bemerkung 1.2 ist X wie B verteilt. Nach Lemma 1.3 bleibt zu zeigen, dass f.s.
alle Pfade stetig sind. Da t 7→ 1t auf (0, ∞) und t 7→ Bt (ω) für fast alle ω stetig sind,
existiert eine P -Nullmenge N ∗ , so dass t 7→ Xt (ω) für alle ω ∈ (N ∗ )c auf (0, ∞)
stetig ist. Es fehlt also nur noch die Stetigkeit in t = 0. Wegen E[(Bt − Bs )4 ] =
3(t − s)2 = E[(Xt − Xs )4 ] hat X nach Satz 1.1 eine stetige Modifikation X̃, d.h.
∀t ≥ 0 ∃P -Nullmenge Nt ∈ F ∀ω ∈ Ntc : Xt (ω) = X̃t (ω).
S
Die Menge N := N ∗ ∪ %∈Q+ ∪{0} N% ist wieder eine P -Nullmenge. Auf N c gilt
X% (ω) = X̃% (ω) für alle % ∈ Q+ . Aufgrund der Stetigkeit von t 7→ Xt (ω) und
t 7→ X̃t (ω) für alle ω ∈ N c stimmen Xt (ω) und X̃t (ω) für alle t > 0 überein. Für
ω ∈ N c gilt ferner X0 (ω) = X̃0 (ω). Da X̃ stetige Pfade besitzt, sind auch P -fast alle
Pfade von X stetig auf [0, ∞).
10
1 STOCHASTISCHE PROZESSE
Aufgrund der vorgestellten Eigenschaften ist es möglich, aus einer Brownschen Bewegung weitere Brownsche Bewegungen zu gewinnen.
1.3
Pfadeigenschaften der Brownschen Bewegung
Nachdem wir im letzten Abschnitt schon begonnen haben, Eigenschaften der Brownschen Bewegung zusammenzustellen, konzentrieren wir uns nun auf weitere Eigenschaften Brownscher Pfade.
Satz 1.9. Sei B eine Brownsche Bewegung. Für t > s ≥ 0 sei (∆n )∈N eine Folge
(n)
(n)
(n)
von Zerlegungen s = t0 < t1 < · · · < tk = t des Intervalls [s, t]. Wenn |∆n | :=
(n)
(n)
maxi=0,...,k−1 (ti+1 − ti ) gegen Null konvergiert, dann gilt
∆n
T[s,t]
:=
k−1
X
(Bt(n) − Bt(n) )2 → t − s
i+1
i=0
in W.
i
Beweis. Die Differenz t − s können wir als Teleskopsumme
ben. Zusammenfassen liefert
∆n
E[(T[s,t]
2
− (t − s)) ] = E
k−1
hX
(n)
i=0 (ti+1
Pk−1
(n)
− ti ) schrei-
2 i
(Bt(n) − Bt(n) )2 − (ti+1 − ti )
.
i+1
i=0
i
Da die Brownsche Bewegung unabhängige Zuwächse besitzt und für eine Zufallsvariable Y ∼ N0,a gilt E[Y 4 ] = 3(E[Y 2 ])2 , folgt
∆n
E[(T[s,t]
k−1
X
(n)
(n) 2 − (t − s)) ] =
E (Bt(n) − Bt(n) )2 − (ti+1 − ti )
2
i=0
k−1
X
≤ 3
i+1
(n)
i
(n)
(ti+1 − ti )2 ≤ 3|∆n |(t − s).
i=0
Mit der Chebyshev-Ungleichung erhalten wir
∆n
∆n
P (|T[s,t]
− (t − s)| > ε) ≤ ε−2 E[(T[s,t]
− (t − s))2 ] ≤ 3(t − s)ε−2 |∆n | → 0,
∆n
also T[s,t]
→ t − s in W.
Korollar 1.10. Auf jedem Intervall [s, t] mit 0 ≤ s < t < ∞ ist P
f.s. jeder Pfad einer
Brownschen Bewegung B von unendlicher Variation V = sup∆n k−1
i=0 |Bt(n) −Bt(n) |.
i+1
Beweis. Sei [s, t] ⊂ [0, ∞). Nach Satz 1.9 konvergiert
scheinlichkeit gegen t − s. Offensichtlich gilt
k−1
X
i=0
Pk−1
i=0 (Bt(n)
i+1
i
− Bt(n) )2 in Wahri
(Bt(n) − Bt(n) )2 ≤ V · max |Bt(n) − Bt(n) |.
i+1
i
∆n
i+1
i
Da auf dem Intervall [s, t] fast alle Pfade t 7→ Bt (ω) gleichmäßig stetig sind, gilt
max∆n |Bt(n) − Bt(n) | → 0 f.s. für |∆n | → 0. Also kann V f.s. nicht endlich sein, da
i+1
i
sonst die linke Seite der Ungleichung gegen Null konvergieren müsste.
1.3 Pfadeigenschaften der Brownschen Bewegung
11
Die Aussage von Satz 1.9 kann bei geeigneter Wahl der Zerlegungsfolge so verschärft
∆n
sogar f.s. gegen t−s konvergiert. Dies soll in der folgenden Aufgabe
werden, dass T[s,t]
geleistet werden.
Aufgabe 6. Sei B eine Brownsche Bewegung und ∆n eine Folge von Zerlegungen
(n)
(n)
(n)
s = t0 < t1 < · · · < tk = t des Intervalls [s, t] ⊂ [0, ∞) mit Feinheit |∆n | :=
P
(n)
(n)
maxi=0,...,k−1 |ti+1 − ti |. Konvergiert die Reihe ∞
n=1 |∆n |, so konvergiert die Folge
∆n
T[s,t] f.s. gegen t − s. Dies ist insbesondere der Fall, wenn die Unterteilungspunkte
(n)
der Zerlegung durch ti
= s + i2−n (t − s), i = 0, . . . , 2n , festgelegt wird.
Proposition 1.11. Für jedes γ > 1/2 ist f.s. jeder Pfad einer Brownschen Bewegung B nirgends lokal Hölder-stetig mit Exponent γ.
Beweis. Sei H die Menge der ω ∈ Ω, deren Pfade in einem Punkt lokal Hölder-stetig
mit Exponent γ sind:
H := {ω ∈ Ω : es gibt ein s ≥ 0, in dem t 7→ Bt (ω) lokal Hölder-stetig ist.}.
Wir wollen zeigen, dass H eine Nullmenge ist. Sei dazu ω0 ∈ H und r ≥ 0, so dass
t 7→ Bt (ω0 ) lokal Hölder-stetig in r ist. Nach Definition existiert eine Umgebung
U ⊂ R von r und eine Konstante L, so dass gilt:
|Bs (ω0 ) − Bt (ω0 )| ≤ L|s − t|γ
∀s, t ∈ U ∩ [0, ∞).
Für ein nichtleeres Intervall [a, b] ⊂ U ∩ [0, ∞) bleibt die Ungleichung gültig. Sei
(n)
(n)
(n)
nun a = t0 < t1 < · · · < tk = b eine Zerlegung des Intervalls [a, b] mit |∆n | → 0.
∆n
Nach Aufgabe 6 können wir die Zerlegung so wählen, dass T[a,b]
f.s. gegen b − a
konvergiert. Wegen 2γ > 1 erhalten wir aber
∆n
T[a,b]
(ω0 )
=
k
X
i=1
2
(Bt(n) (ω0 ) − Bt(n) (ω0 )) ≤ L
i
≤ L2 |∆n |2γ−1
i−1
k
X
(n)
(ti
2
k
X
(n)
(ti
(n)
− ti−1 )2γ
i=1
(n)
n→∞
− ti−1 ) = L2 |∆n |2γ−1 (b − a) −−−→ 0.
i=1
Also muss H eine Nullmenge sein.
Bemerkung 1.6. Es gilt sogar noch mehr: Fast jeder Pfad einer Brownschen Bewegung ist für alle γ > 1/2 nirgends Hölder-stetig mit Exponent γ. Wer an einem
Beweis dieser Aussage interessiert ist, kann in [Bau02] nachschlagen.
Was im hier nicht behandelten Fall γ = 1/2 geschieht, werden wir in Abschnitt 1.5
sehen. Es folgt sofort:
Korollar 1.12. F.s. jeder Pfad einer Brownschen Bewegung B ist nirgends differenzierbar.
Beweis. Ist ein Pfad t 7→ Bt (ω) in einem Punkt t0 differenzierbar, dann ist er in t0
t (ω)
lokal Hölder mit Exponent 1, da der Quotient Bs (ω)−B
für alle s und t aus einer
s−t
kleinen Umgebung um t0 beschränkt ist. Nach Proposition 1.11 ist jedoch f.s. jeder
Pfad nirgends lokal Hölder-stetig mit Exponent 1, so dass f.s. jeder Pfad nirgends
differenzierbar sein kann.
Auf jedem Intervall ist also f.s. jeder Pfad einer Brownschen Bewegung unendlich
lang. Zudem ist f.s. jeder Pfad nirgends differenzierbar. Die Brownsche Bewegung
fluktuiert also ziemlich stark. Dank Satz 1.9 können wir aber trotzdem in Kapitel 2
ein stochastisches Integral definieren.
12
1.4
1 STOCHASTISCHE PROZESSE
Stoppzeiten und starke Markoveigenschaft
Zunächst ein paar Definitionen, die die aus der Stochastik I bekannten Begriffe
„Filtration“ und „adaptiert“ auf unsere Situation übertragen.
Definition 1.11. Eine Filtration (Ft )t≥0 ist eine monoton wachsende Folge von
Sub-σ-Algebren
von F. Sie heißt vollständig, wenn sie alle Nullmengen enthält. Setze
T
+
Ft = u>t Fu . Eine Filtration heißt rechtsstetig, wenn Ft+ = Ft für alle t ≥ 0.
Die σ-Algebren Ft+ bilden weiterhin eine Filtration. Zudem gilt für 0 ≤ s < t
offensichtlich
Fs ⊂ Fs+ ⊂ Ft .
Definition 1.12. Ein Prozess X = (Xt )t≥0 ist adaptiert, wenn für alle t ≥ 0 die
Zufallsvariable Xt Ft -messbar ist.
Aus der Definition einer Brownschen Bewegung folgt direkt (vgl. auch Satz 1.7)
Satz 1.13. Sei B = (Bt )t≥0 eine Brownsche Bewegung bzgl. einer Filtration (Ft )t≥0 .
Für jedes s ≥ 0 ist dann der Prozess Yt = Bs+t − Bs eine Brownsche Bewegung
unabhängig von Fs .
In Verallgemeinerung des Martingalbegriffs in diskreter Zeit nennen wir (Xt , Ft )t≥0
ein Martingal, wenn X an (Ft )t≥0 adaptiert und Xt für alle t integrierbar ist und
E(Xt |Fs ) = Xs f.s. für alle s < t. Aus Satz 1.13 folgt dann
Lemma 1.14. Sei B eine Brownsche Bewegung bzgl. der Filtration (Ft )t≥0 . Dann
sind (Bt , Ft )t≥0 , (Bt2 − t, Ft )t≥0 und (Bt4 − 6tBt2 + 3t2 , Ft )t≥0 Martingale.
Beweis. Die Adaptiertheit der Brownschen Bewegung ist klar nach Voraussetzung.
Da Bt N0,t -verteilt ist, existieren alle Momente, insbesondere gilt
EBt = 0 , EBt2 = t , EBt3 = 0 und EBt4 = 3t2 .
Nach Satz 1.13 ist Bt0 = Bs+t − Bs eine Brownsche Bewegung unabhängig von Fs .
Also gilt für s < t:
0
E(Bt |Fs ) = Bs + E(Bt0 |Fs ) = Bs + E[Bt−s
] = Bs
und
0
0
E(Bt2 |Fs ) = E(Bs2 + 2Bs Bt−s
+ (Bt−s
)2 |Fs )
0
0
= Bs2 + 2Bs E[Bt−s
] + E[(Bt−s
)2 ] = Bs2 + (t − s)
sowie
0
0
0
0
+ 6Bs2 (Bt−s
)2 + 4Bs (Bt−s
)3 + (Bt−s
)4 |Fs )
E(Bt4 |Fs ) = E(Bs4 + 4Bs3 Bt−s
0
0
0
0
)3 ] + E[(Bt−s
)4 ]
] + 6Bs2 E[(Bt−s
)2 ] + 4Bs E[(Bt−s
= Bs4 + 4Bs3 E[Bt−s
= Bs4 + 6(t − s)Bs2 + 3(t − s)2 .
Aus letzterem folgt E(Bt4 − 6tBt2 |Fs ) = Bs4 − 6sBs2 + 3(s2 − t2 ).
1.4 Stoppzeiten und starke Markoveigenschaft
13
Aufgabe 7.
a) Sei X eine N0,σ2 -verteilte Zufallsvariable. Zeigen Sie, dass gilt
(
1 · 3 · 5 · · · (2n − 1)σ 2n , p = 2n
E(X p ) =
, n ∈ N.
0
, p = 2n − 1
b) Sei B eine Brownsche Bewegung bzgl. einer Filtration (Ft )t≥0 . Bestimmen Sie ein
ähnliches Martingal wie in Lemma 1.14 mit führendem Term Bt3 .
Aufgabe 8.
a) Für jede Brownsche Bewegung B und jede Zahl u ∈ C ist der Prozess exp(iuBt +
1 2
u t) t≥0 ein Martingal bzgl. der von B erzeugten Filtration (σ(Bs , s ≤ t))t≥0 .
2
b) Sei umgekehrt (Xt )t≥0 ein
stetiger reellwertiger Prozess mit X0 = 0 und der
1 2
Prozess exp(iuXt + 2 u t) t≥0 für alle u ∈ R ein Martingal bzgl. der Filtration
(σ(Xs , s ≤ t))t≥0 . Dann ist (Xt )t≥0 eine Brownsche Bewegung.
Die Aussage von Satz 1.13 wollen wir nun verallgemeinern, indem wir statt s eine
Stoppzeit T wählen.
Definition 1.13. Eine Abbildung T : Ω → [0, ∞] heißt (Ft )-Stoppzeit, wenn für alle
t ≥ 0 gilt {T ≤ t} ∈ Ft . Ein Ereignis A mit A ∩ {T ≤ t} ∈ Ft heißt Prä-T -Ereignis.
Das Mengensystem aller Prä-T -Ereignisse wird mit FT bezeichnet.
Bemerkung 1.7. Für jede Stoppzeit T ist FT eine σ-Algebra.
Im Gegensatz zu diskreten Stoppzeiten, die wir schon aus Kapitel 22 der Stochastik
I kennen,
S genügt es nicht, {T = t} ∈ Ft zu fordern, da die überabzählbare Vereinigung s≤t {T = s} nicht unbedingt in Ft liegen muss.
Einige Eigenschaften von Stoppzeiten wollen wir im nächsten Lemma zusammenstellen.
Lemma 1.15 (Eigenschaften von Stoppzeiten).
Seien S, T (Ft )-Stoppzeiten. Dann gilt
(i) T ist FT -messbar.
(ii) FT = Ft auf {T = t}
(iii) FS ∩ {S ≤ T } ⊂ FS∧T = FS ∩ FT .
Insbesondere gilt: {S ≤ T } ∈ FS ∩ FT , FS = FT auf {S = T } und FS ⊂ FT für
S ≤ T.
Da der Beweis demjenigen für diskrete Stoppzeiten ähnelt, verzichten wir darauf.
Definition 1.14. Eine Abbildung T heißt schwache Stoppzeit bzgl. einer Filtration
(Ft )t≥0 , wenn {T < t} ∈ Ft für alle t ≥ 0. Wir setzen
FT+ := {A ∈ F : A ∩ {T < t} ∈ Ft ∀t ≥ 0}.
Bemerkung 1.8. Für Stoppzeiten S und T mit S ≤ T gilt FS ⊂ FT und FS+ ⊂ FT+ .
Falls S < T , so gilt FS+ ⊂ FT .
Wegen
∞ n
[
1o
{T < t} =
T ≤t−
n
n=1
ist jede Stoppzeit auch eine schwache Stoppzeit. Die Bezeichnung ist also gerechtfertigt. Einen weiteren Zusammenhang zwischen den beiden Stoppzeit-Begriffen stellt
das folgende Lemma her.
14
1 STOCHASTISCHE PROZESSE
Lemma 1.16 (Schwache Stoppzeiten).
T ist eine schwache (Ft )-Stoppzeit genau dann, wenn T eine (Ft+ )-Stoppzeit ist.
Beweis. „⇒“: Wir können schreiben
{T ≤ t} =
\
{T < r}.
r>t
r∈Q
Die rechte Seite liegt jedoch in Ft+ .
„⇐“: Es gilt
[
{T < t} =
{T ≤ r}.
r<t
r∈Q
Nach Voraussetzung liegt {T ≤ r} in Fr+ , also auch in Ft .
Daraus folgt unmittelbar
Korollar 1.17. Ist die Filtration (Ft )t≥0 rechtsstetig, so ist jede schwache Stoppzeit
eine Stoppzeit.
In Falle einer rechtsstetigen Filtration stimmen also die beiden Stoppzeit-Begriffe
überein.
Beispiel 1.3. Sei (Xt )t≥0 ein reellwertiger stochastischer Prozess mit ausschließlich
rechtsseitig stetigen Pfaden. Dann ist für jede offene Menge U ⊂ R die Funktion TU
mit
TU (ω) := inf{t > 0 : Xt (ω) ∈ U }
eine schwache Stoppzeit, jedoch i.a. keine Stoppzeit. Hingegen ist für jede abgeschlossene Menge A ⊂ R die Funktion TA0 mit
TA0 (ω) := {t ≥ 0 : Xt (ω) ∈ A}
eine Stoppzeit.
Aufgabe 9.
a) Sei U eine offene und nichtleere Teilmenge von R, X ein reellwertiger Prozess mit
rechtsstetigen Pfaden und Ft = σ(Xs , s ≤ t). Zeigen Sie, dass durch
TU (ω) := inf{t > 0 : Xt (ω) ∈ U } , inf ∅ = +∞
eine schwache Stoppzeit bezüglich der Filtration (Ft )t≥0 definiert wird.
b) Sei A eine abgeschlossene und nichtleere Teilmenge von R, X ein reellwertiger
Prozess mit stetigen Pfaden und Ft = σ(Xs , s ≤ t). Zeigen Sie, dass durch
τA (ω) := inf{t ≥ 0 : Xt (ω) ∈ A} , inf ∅ = +∞
eine Stoppzeit bezüglich der Filtration (Ft )t≥0 definiert wird.
Ein nützliches Resultat ist
Lemma 1.18 (diskrete Approximation).
Ist T eine schwache Stoppzeit, dann existieren diskrete (d.h. mit abzählbar vielen
Werten) Stoppzeiten Tn , so dass Tn ↓ T .
1.4 Stoppzeiten und starke Markoveigenschaft
15
Beweis. Wähle z.B. Tn := 2−n ([2n T ] + 1), wobei [x] die Gaußklammer von x bezeichne. Das bedeutet
Tn = (k + 1)2−n
falls k2−n ≤ T < (k + 1)2−n .
Dies sind Stoppzeiten wegen
{Tn ≤ (k + 1)2−n } = {T < (k + 1)2−n } ∈ F(k+1)2−n .
Die Eigenschaft Tn ↓ T ist offensichtlich.
Nun können wir die starke Markoveigenschaft der Brownschen Bewegung beweisen.
Satz 1.19 (Starke Markoveigenschaft der Brownschen Bewegung).
Sei (Bt )t≥0 eine Brownsche Bewegung bzgl. der Filtration (Ft )t≥0 und T eine endliche (Ft )-Stoppzeit. Dann ist B 0 mit Bt0 = BT +t − BT eine Brownsche Bewegung
unabhängig von FT .
Beweis. Nach Lemma 1.18 existieren diskrete Stoppzeiten Tn , n ∈ N, mit Werten
(n)
(n)
t1 < t2 < · · · und Tn ↓ T . Wenn C ∈ FT , dann gilt wegen FT ⊂ FTn
(n)
(n)
(n)
C ∩ {Tn = tk } = C ∩ {Tn ≤ tk }\{Tn ≤ tk−1 } ∈ Ft(n) .
k
Wenden wir Satz 1.13 an, so erhalten wir für A ∈ B
P ({BTn +t − BTn ∈ A} ∩ C) =
=
∞
X
k=1
∞
X
(n)
P ({Bt(n) +t − Bt(n) ∈ A, Tn = tk } ∩ C)
k
k
(n)
P (Bt(n) +t − Bt(n) ∈ A)P ({Tn = tk } ∩ C)
k=1
k
k
= P (Bt ∈ A)P (C).
Nun beschränken wir uns auf offene Intervalle A = (a, b). Für n → ∞ konvergieren
die Zufallsvariablen BTn +t − BTn f.s. gegen BT +t − BT . Daher gilt
P ({a < Bt0 < b} ∩ C) = P ({a < BT +t − BT < b} ∩ C)
≤ lim inf P ({a < BTn +t − BTn < b} ∩ C)
n→∞
≤ lim sup P ({a < BTn +t − BTn < b} ∩ C)
n→∞
≤ P ({a ≤ BT +t − BT ≤ b} ∩ C).
Wählen wir a und b so, dass P (Bt0 = a) = P (Bt0 = b) = 0, dann erhalten wir durch
Grenzübergang
P ({a < Bt0 < b} ∩ C) = P (a < Bt < b)P (C). (∗)
Für jedes ε > 0 folgt
P (Bt0 = a) ≤ lim inf P (a − ε < BTn +t − BTn < a + ε) = P (a − ε < Bt < a + ε).
n→∞
Lassen wir ε gegen Null konvergieren, so ergibt sich also P (Bt0 = a) = 0 für alle
a ∈ R. Daher ist die Gleichung (∗) für alle a, b ∈ R, a < b, erfüllt. Die gleichen
Rechnungen mit Vektoren von Differenzen Bt0 − Bs0 statt Bt0 zeigen, dass B 0 eine
Brownsche Bewegung unabhängig von FT ist.
16
1 STOCHASTISCHE PROZESSE
Bemerkung 1.9. Wenn T eine schwache Stoppzeit ist, dann zeigt der Beweis von
Satz 1.19, dass B 0 auch eine Brownsche Bewegung unabhängig von FT+ ist.
Beweis. Nach Lemma 1.18 existiert auch für eine schwache Stoppzeit T eine Folge
diskreter Stoppzeiten Tn mit Tn ↓ T . Wegen T < Tn gilt FT+ ⊂ FTn . Daher ist der
Beweis von Satz 1.19 immer noch richtig für C ∈ FT+ .
1.5
Das Gesetz von iterierten Logarithmus
In diesem Abschnitt wollen wir eine weitere wichtige Eigenschaft Brownscher Pfade
herleiten, mit deren Hilfe wir die Brownschen Pfade auf Hölder-Stetigkeit mit dem
bisher ausgesparten Exponenten γ = 1/2 untersuchen können. Wir wissen sogar, in
welchem Bereich sich die Brownschen Pfade f.s. bewegen. Dazu beginnen wir mit
einer Spiegelungseigenschaft der Brownschen Bewegung: Wählen wir eine Zahl a > 0
und spiegeln die Brownsche Bewegung, sobald sie a erreicht, so ist der entstehende
Prozess ebenfalls eine Brownsche Bewegung.
Satz 1.20 (Spiegelungsprinzip). Sei (Bt )t≥0 eine Brownsche Bewegung, a > 0 und
Ta := inf{t > 0 : Bt = a}. Dann ist der stochastische Prozess B̃ mit
(
Bt
, t ≤ Ta
B̃t :=
2a − Bt , t > Ta
ebenfalls eine Brownsche Bewegung.
Beweis. Sei Yt := BTa +t − BTa , t ≥ 0. Nach Satz 1.19 und Satz 1.7 gilt
d
d
Yt = −Yt = Bt ,
und (Yt )t≥0 ist unabhängig von FTa . Damit ist insbesondere (Yt )t≥0 unabhängig von
den FTa -messbaren Abbildungen Ta und B Ta mit BtTa = BTa ∧t . Daher gilt
d
(B Ta , Ta , Y ) = (B Ta , Ta , −Y ).
Betrachte die Transformation ψt mit
(
f (t)
, t ≤ t0
ψt (f, t0 , g) :=
.
f (t0 ) + g(t − t0 ) , t > t0
Da es sich hierbei um eine messbare Transformation handelt, erhalten wir
d
ψt (B Ts , Ta , Y ) = ψt (B Ta , Ta , −Y ).
Auf der linken Seite steht
(
Bt
ψt (B Ta , Ta , Y ) =
BTa + Yt−Ta
, t ≤ Ta
= Bt .
, t > Ta
Da B f.s. stetige Pfade besitzt, muss gelten BTa = a. Auf der rechten Seite steht
also
(
(
B
,
t
≤
T
Bt
, t ≤ Ta
t
a
= B̃t .
ψt (B Ta , Ta , −Y ) =
=
BTa − Yt−Ta , t > Ta
2a − Bt , t > Ta
Wiederholen wir diese Argumentation für vektorwertige Transformationen, so folgt
d
B̃ = B. Da zudem fast alle Pfade von B stetig sind, gilt dies auch für B̃.
1.5 Das Gesetz von iterierten Logarithmus
17
Proposition 1.21 (Reflexionsprinzip).
Sei (Bt )t≥0 eine Brownsche Bewegung, a > 0 und Ta := inf{t > 0 : Bt = a}. Dann
gilt
P (Ta ≤ t) = 2P (Bt ≥ a) = P (|Bt | ≥ a).
d
Beweis. Sei B̃ der Prozess aus Satz 1.20 und Ta∗ := inf{t > 0 : B̃t = a}. Da Bt = B̃t
für alle t ≥ 0, ist Ta = Ta∗ fast sicher. Wir erhalten
P (Ta ≤ t, Bt ≤ a) = P (Ta ≤ t, B̃t ≤ a)
= P (Ta ≤ t, 2a − Bt ≤ a) = P (Ta ≤ t, Bt ≥ a).
Wegen {Bt ≥ a} ⊂ {Ta ≤ t} folgt ferner
P (Ta ≤ t) = P (Ta ≤ t, Bt ≤ a) + P (Ta ≤ t, Bt ≥ a)
= 2P (Ta ≤ t, Bt ≥ a) = 2P (Bt ≥ a).
Die zweite Gleichung folgt direkt aus der Symmetrie der Normalverteilung.
Bezeichne nun Bt∗ := max0≤s≤t Bs , t ≥ 0, den sog. Maximumprozess. Anknüpfend
an das Reflexionsprinzip können wir zeigen
Proposition 1.22. Sei (Bt )t≥0 eine Brownsche Bewegung und Bt∗ := max0≤s≤t Bs .
Für jedes t ≥ 0 haben die Zufallsvariablen |Bt |, Bt∗ und Bt∗ − Bt dieselbe Verteilung.
Beweis. Für jedes a > 0 gilt {Ta ≤ t} = {Bt∗ ≥ a}. Aus Proposition 1.21 folgt dann
P (Bt∗ ≥ a) = P (Ta ≤ t) = P (|Bt | ≥ a).
Also haben Bt∗ und |Bt | die gleiche Verteilung. Setze nun Xs := Bt−s − Bt , s ≤ t.
Nach Satz 1.7 wird dadurch eine Brownsche Bewegung auf [0, t] definiert. Aus dem
bereits bewiesenen ist max0≤s≤t Xs verteilt wie |Xt |. Daher erhalten wir
d
d
Bt∗ − Bt = max Bs − Bt = max (Bt−s − Bt ) = max Xs = |Xt | = |Bt |.
0≤s≤t
0≤s≤t
0≤s≤t
Bemerkung 1.10. Zwar besitzen Bt∗ und |Bt | die gleiche Verteilung, dies gilt jedoch
nicht für die Prozesse. Denn (Bt∗ )t≥0 ist f.s. monoton wachsend, (|Bt |)t≥0 hingegen
nicht.
Aufgabe 10. Sei Ta := inf{t ≥ 0 : Bt ≥ a}. Bestimmen Sie die Dichte von Ta .
Dem Hauptresultat dieses Abschnittes schicke ich noch zwei Hilfsaussagen voraus,
die wir im Beweis benötigen werden.
Lemma 1.23. Sei Xt eine normalverteilte Zufallsvariable mit Mittelwert 0 und
Varianz t, und sei a > 0. Dann gilt
√
a2
t
P (Xt > a) ≤ √ e− 2t .
a 2π
18
1 STOCHASTISCHE PROZESSE
Beweis. Es gilt
1
P (Xt > a) = √
2πt
∞
Z
1
dx ≤ √
a 2πt
2
− x2t
e
a
Lemma 1.24. Der Quotient von
x → ∞.
R∞
x
e−s
2 /2
Z
∞
2
xe
− x2t
a
ds und e−x
2 /2
√
a2
t
dx = √ e− 2t .
a 2π
/x konvergiert gegen 1 für
Beweis. Wende die Regel von l’Hospital an: Der Quotient aus
∂
∂x
ist
1
,
x−2 +1
Z
∞
−s2 /2
e
−x2 /2
ds = −e
und
x
∂(x−1 e−x
∂x
2 /2
)
1
2
= − 2 + 1 e−x /2
x
was für x → ∞ gegen 1 konvergiert.
Nun haben wir das Handwerkszeug zusammen, um das Gesetz vom iterierten Logarithmus zu beweisen.
Satz 1.25 (Gesetz vom iterierten Logarithmus).
Für eine Brownsche Bewegung B gilt
lim sup √
t→∞
und
lim inf √
t→∞
Bt
= 1 f.s.
2t log log t
Bt
= −1 f.s.
2t log log t
Beweis. Die zweite Aussage ist eine direkte Folgerung aus der ersten, weil nach
Satz 1.7 auch −B eine Brownsche
Bewegung ist.
√
Setze abkürzend u(t) := 2t log log t. Dies ist offensichtlich eine streng monoton
Bt
wachsende Funktion. Zunächst zeigen wir lim supt→∞ u(t)
≤ 1 f.s. Wähle dazu ein
n
α > 1 und setze tn := α . Wegen α > 1 ist die Folge der tn monoton wachsend in n.
Definiere ferner
An := {ω : ∃t ∈ [tn , tn+1 ] : Bt (ω) > αu(t)}.
Aufgrund der Monotonie von u ist An in supt≤tn+1 Bt > αu(tn ) enthalten. Nach
den Propositionen 1.22 und 1.21 erhalten wir also
P (An ) ≤ P sup Bt > αu(tn ) = 2P (Btn+1 > αu(tn )).
t≤tn+1
Mit Lemma 1.23 folgt
r √
2 (t )
n
2 tn+1 − α22tun+1
P (An ) ≤
e
.
π αu(tn )
√
Einsetzen von tn = αn und u(t) = 2t log log t liefert
r
r
1
1
1
(log α)−α
p
p
P (An ) ≤
e−α log(n log α) =
· n−α .
π α log(n log α)
π α log(n log α)
1.5 Das Gesetz von iterierten Logarithmus
19
Wegen log(n log α) → ∞ existiert ein n0 ∈ N und eine Konstante K > 0, so dass
P (An ) ≤ Kn−α
∀n ≥ n0 .
P
Da wir α > 1 gewählt hatten, konvergiert die Reihe ∞
n=1 P (An ). Nach dem ersten
Borel-Cantelli-Lemma aus der Stochastik I erhalten wir also
P (lim sup An ) = 0.
n→∞
Aufgrund der Inklusion lim supt→∞
lim sup
t→∞
Bt
u(t)
> α ⊂ lim supn→∞ An folgt daraus
Bt
≤ α f.s. für alle α > 1.
u(t)
Bt
Durch Grenzübergang ergibt sich lim supt→∞ u(t)
≤ 1 f.s.
√
Bt
Wir zeigen nun lim supt→∞ u(t) ≥ 1 f.s. Sei dazu wie oben u(t) = 2t log log t, α > 1
α
> 1. Betrachte
und tn = αn . Definiere außerdem β := α−1
P (Btn − Btn−1 > β −1 u(tn )) = P
B − B
u(tn )
t
tn−1
√n
> √
.
tn − tn−1
β tn − tn−1
Nach Definition der Brownschen Bewegung ist Btn − Btn−1 N0,tn −tn−1 -verteilt, der
Bt −Btn−1
ist also N0,1 -verteilt. Nach Lemma 1.24 existiert also eine KonQuotient √ntn −tn−1
stante K > 0, so dass für schließlich alle n gilt
Z ∞
1
1
2
2
−1
P (Btn − Btn−1 > β u(tn )) = √
e−s /2 ds ≥ K e−x /2
x
2π x
mit x =
u(t )
√ n
.
β tn −tn−1
Durch Einsetzen erhalten wir wegen tn − tn−1 = β −1 tn
√
u2 (tn )
β p
1 −x2 /2
β
− 2
2β (tn −tn−1 )
e
=
tn − tn−1 e
=p
e− log(n log α)/β
x
u(tn )
2 log(n log α)
√
β
(log α)−1/β · n−1/β .
= p
2 log(n log α)
Sei ε ∈ (0, 1 − β −1 ). Da der Logarithmus langsamer wächst als jede Potenz, können
wir die rechte Seite für genügend große n nach unten abschätzen durch
r
r
√
β
β
β
−1/β −1/β
−1/β −ε −1/β
p
(log α)
·n
≥
(log α)
·n n
≥
(log α)−1/β ·n−1 .
2
2
2 log(n log α)
P
−1
Daher divergiert die Reihe ∞
u(tn )). Nach Definition der
n=2 P (Btn − Btn−1 > β
Brownschen Bewegung sind die Zuwächse Btn −Btn−1 unabhängig. Nach dem zweiten
Borel-Cantelli-Lemma gilt also
P (lim sup{Btn − Btn−1 > β −1 u(tn )}) = P (Btn − Btn−1 > β −1 u(tn ) unendl. oft) = 1.
n→∞
Da −B nach Satz 1.7 ebenfalls eine Brownsche Bewegung ist, können wir den ersten
Teil des Beweises auf diesen Prozess anwenden und erhalten
P (Btn−1 > −(1 + ε)u(tn−1 ) für fast alle n) = 1.
20
1 STOCHASTISCHE PROZESSE
Also besitzt das Ereignis
u(tn−1 ) Btn > u(tn ) β −1 − (1 + ε)
unendlich oft
u(tn )
Wahrscheinlichkeit 1. Wegen
u(tn )
u(tn−1 )
→
√
α folgt
P (Btn > (β −1 − (1 + ε)α−1/2 )u(tn ) unendlich oft) = 1.
Daher gilt lim supt→∞
folgt schließlich
Bt
u(t)
≥ β −1 − (1 + ε)α−1/2 f.s. Durch Grenzübergang α → ∞
lim sup
t→∞
Bt
≥ 1 f.s.,
u(t)
zusammen mit dem ersten Teil also die Behauptung.
Aufgabe 11. Sei B eine Brownsche Bewegung. Dann gilt
a) lim supt↓0 √ Bt
= 1 f.s.
b) lim inf t↓0
√
2t log log(1/t)
Bt
=
2t log log(1/t)
Bt+s −Bs
c) lim supt↓0 √
2t log log(1/t)
−1 f.s.
= 1 f.s.
Aufgabe 12. Für fast alle Pfade einer
√ Brownschen Bewegung B gilt: Jeder Punkt
in [−1, 1] ist Häufungspunkt von Bt / 2t log log t. Ferner wird jeder Punkt in (−1, 1)
unendlich oft besucht.
Nun wie versprochen die Untersuchung auf die lokale Hölder-Stetigkeit Brownscher
Pfade mit Exponent γ = 1/2.
Proposition 1.26. Sei B eine Brownsche Bewegung. Für jedes t ≥ 0 gilt
lim sup
u↓0
|Bt+u − Bt |
√
= ∞ f.s.
u
Fast alle Pfade von B sind also in t nicht lokal Hölder-stetig mit Exponent 21 .
Beweis. Nach Aufgabe 11c) gilt lim supu↓0 √
Bt+u −Bt
2u log log(1/u)
= 1 f.s. Da auch (−Bt+u +
Bt )t≥0 eine Brownsche Bewegung ist, folgt lim inf u↓0 √ Bt+u −Bt
= −1 f.s. Der
2u log log(1/u)
größte Häufungspunkt von √ Bt+u −Bt für u ↓ 0 ist also f.s. gleich 1. Außerdem
2u log log(1/u)
√
p
2u log log(1/u)
√
konvergiert
=
2 log log(1/u) für u ↓ 0 gegen unendlich. Wir erhalten
u
p
2u log log(1/u)
|Bt+u − Bt |
|Bt+u − Bt |
√
√
lim sup
= lim sup p
·
u
u
u↓0
u↓0
2u log log(1/u)
|Bt+s − Bt | p
= lim sup p
2 log log(1/s)
u↓0 s≤u
2s log log(1/s)
p
|Bt+s − Bt |
≥ lim sup p
2 log log(1/u) .
u↓0 s≤u
2s log log(1/s)
21
Die rechte Seite ist f.s. unendlich groß, daher folgt
lim sup
u↓0
|Bt+u − Bt |
√
= ∞ f.s.
u
Die betrachtete Folge ist also f.s. nach oben unbeschränkt. Für festes t gilt ferner
|Br − Bs |
|Bs − Bt |
|Bt+u − Bt |
p
√
≥ sup √
= ∞ f.s.,
= sup
u
s−t
s>t
u>0
|r − s|
r,s∈[0,∞),r6=s
sup
fast alle Pfade einer Brownschen Bewegung sind also in t nicht lokal Hölder-stetig
mit Exponent 21 .
2
2.1
Stochastische Integration
Das Stieltjes-Integral
Der erste Schritt auf unserem Weg zum Itô-Integral soll in der Einführung des
Stieltjes-Integrals bestehen. Zunächst möchte ich an die Definition des LebesgueStieltjes-Maßes erinnern:
Definition 2.1. Ein Lebesgue-Stieltjes-Maß auf R ist ein Maß µ auf B mit µ(I) < ∞
für alle beschränkten Intervalle I ⊂ R.
In Kapitel 4 der Stochastik I haben wir bereits gesehen, dass zu jeder rechtsstetigen
und monoton wachsenden Funktion F : R → R ein Lebesgue-Stieltjes-Maß µF auf
B mit µF ((a, b]) = F (b) − F (a) existiert.
Definition 2.2. Das Lebesgue-Integral einer µF -integrierbaren Funktion g bezüglich
des Lebesgue-Stieltjes-Maßes µF heißt Stieltjes-Integral.
Verzichten wir auf die Monotonie, sei also A : [0, ∞) → R lediglich rechtsstetig,
so existiert immer noch ein signiertes Maß µA auf B ∩ [0, ∞) mit µA ([0, t]) = A(t).
Statt A(t) schreiben wir ab jetzt At .
Definition 2.3. Sei ∆ eine Zerlegung 0 = t0 < t1 < · · · < tn = t des Intervalls
[0, t]. Die Variation einer P
rechtsstetigen Funktion A : [0, ∞) → R auf [0, t] ist
∆
∆
Vt := sup∆ Vt mit Vt := ni=1 |Ati − Ati−1 |. Den Wert |∆| := supi=1,...,n |ti − ti−1 |
bezeichnen wir als Feinheit der Zerlegung ∆.
Definition 2.4. Eine rechtsstetige Funktion A : [0, ∞) → R heißt von endlicher
Variation, wenn Vt < ∞ für alle t > 0.
Bemerkung 2.1. Eine rechtsstetige monoton wachsende Funktion A ist von endlicher
Variation.
Wir erhalten direkt
Proposition 2.1. Eine Funktion A : [0, ∞) → R von endlicher Variation ist die
Differenz zweier monoton wachsender Funktionen.
Beweis. Schreibe A = 21 (V + A) − 12 (V − A).
22
2 STOCHASTISCHE INTEGRATION
Bemerkung 2.2. (i) Die soeben präsentierte Zerlegung entspricht der Hahn-JordanZerlegung aus Kapitel 7 der Stochastik I, bei der ein signiertes Maß in Positiv- und
Negativteil zerlegt wird.
(ii) Umgekehrt ist die Differenz zweier monoton wachsender Funktionen A und B
von endlicher Variation.
Nun sind wir bereit, das Stieltjes-Integral auf Integratoren zu erweitern, die von
endlicher Variation sind.
Definition 2.5. Ist f lokal (d.h. auf jedem Intervall [0, t], t ≥ 0) beschränkt und
A : [0, ∞) → R rechtsstetig und von endlicher Variation, so ist das Stieltjes-Integral
definiert durch
Z
Z t
(f · A)t :=
f dµA .
fs dAs :=
0
(0,t]
Aufgabe 13. Seien f und g lokal beschränkt, A und B von endlicher Variation und
α, β ∈ R. Dann sind auch βA und A + B von endlicher Variation, und es gilt
(αf + g) · (βA + B) = αβ(f · A) + α(f · B) + β(g · A) + g · B.
Das Stieltjes-Integral ist also linear in Integrand und Integrator.
Aufgabe 14. a) Sei B : [0, ∞) → R rechtsstetig mit B0 = 0 und V die Variation
von B. Zeigen Sie, dass gilt |B| ≤ V .
b) Sei B nun von endlicher Variation V . Ferner seien An , A und D Funktionen von
n→∞
[0, ∞) nach R mit An −−−→ A punktweise, |An | ≤ D und D · V < ∞. Dann gilt
n→∞
An · B −−−→ A · B
punktweise.
Bemerkung 2.3. In Aufgabe 14 lernen wir u.a. die Abschätzung |(A · B)t | ≤ (|A| · V )t
kennen. Das Integral f · A ist also ebenfalls von endlicher Variation.
Mit den Notationen At− := lims↑t As und ∆At = At − At− können wir einige Eigenschaften des Stieltjes-Integrals formulieren.
Proposition 2.2 (Partielle Integration). Sind A : [0, ∞) → R und B : [0, ∞) → R
rechtsstetige Funktionen von endlicher Variation, dann gilt
At Bt = A0 B0 + (A · B)t + (B− · A)t .
Beweis. Seien µA bzw. µB die zu A bzw. B gehörenden signierten Maße. Dann gilt
At Bt = µA ([0, t]) · µB ([0, t]) = (µA ⊗ µB )([0, t] × [0, t])
und
A0 B0 = µA ({0}) · µB ({0}) = (µA ⊗ µB )({(0, 0)}).
Nach Definition des Stieltjes-Integrals ergibt sich ferner
Z
(A · B)t =
µA ([0, s]) µB (ds) = (µA ⊗ µB )({(r, s) : 0 ≤ r ≤ s, s ∈ (0, t]})
(0,t]
und
Z
(B− · A)t =
µB ([0, r)] µA (dr) = (µA ⊗ µB )({(r, s) : 0 ≤ s < r, r ∈ (0, t]}).
(0,t]
2.1 Das Stieltjes-Integral
23
Bemerkung 2.4. Die Bildung des Stieltjes-Integrals ist assoziativ, d.h. es gilt
(AB) · C = A · (B · C).
Proposition 2.3 (Kettenregel). Sei F stetig differenzierbar und A stetig und von
endlicher Variation. Dann ist F (A) stetig und von endlicher Variation, und es gilt:
F (At ) = F (A0 ) + (F 0 (A) · A)t .
Beweis. F (A) ist als Komposition stetiger Funktionen ebenfalls stetig.
PnSei 0 = t0 <
∆
t1 < · · · < tn = t eine Zerlegung des Intervalls [0, t] und Vt =
i=1 |F (Ati ) −
F (Ati−1 )|. Da F stetig differenzierbar ist, existieren nach dem Mittelwertsatz der
Differentialrechnung Werte ξi zwischen Ati−1 und Ati , so dass
F (Ati ) − F (Ati−1 ) = F 0 (ξi )(Ati − Ati−1 ).
Aufgrund des Zwischenwertsatzes existieren si ∈ [0, t] mit Asi = ξi . Da die stetige
Funktion F 0 (A) auf dem kompakten Intervall [0, t] beschränkt ist, existiert eine
Konstante C mit
|F (Ati ) − F (Ati−1 )| = |F 0 (Asi )||Ati − Ati−1 | ≤ C|Ati − Ati−1 |.
Bezeichnet Ṽt die Variation von A auf [0, t], so erhalten wir die Abschätzung
sup Vt∆
∆
≤ C sup
∆
n
X
|Ati − Ati−1 | = C Ṽt < ∞.
i=1
F (A) ist also von endlicher Variation. Die behauptete Gleichung beweisen wir in
mehreren Schritten:
1. Schritt: Die Behauptung gilt für die Funktion F (x) = x, denn
Z
At = A0 + (At − A0 ) = A0 + µA ((0, t]) = A0 +
dµA = A0 + (1 · A)t .
(0,t]
2. Schritt: Wir wollen zeigen: Ist die Behaupung für F (x) richtig, dann gilt sie auch
für xF (x). Nach der Produktregel der Differentiation gilt (xF (x))0 = F (x) + xF 0 (x).
Aufgrund der Linearität des Stieltjes-Integrals ist also zu zeigen:
AF (A) = A0 F (A0 ) + F (A) · A + (AF 0 (A)) · A.
Nach Proposition 2.2 gilt einerseits
AF (A) = A0 F (A0 ) + A · F (A) + F (A) · A. (∗)
Andererseits liefert die Kettenregel F (A) = F (A0 ) + F 0 (A) · A, also aufgrund der
Assoziativität und Linearität des Integrals
A · F (A) = A · F (A0 ) + A · (F 0 (A) · A) = (AF 0 (A)) · A. (∗∗)
Durch Einsetzen von (∗∗) in (∗) folgt
AF (A) = A0 F (A0 ) + F (A) · A + (AF 0 (A)) · A.
Die Behauptung gilt also für alle Monome F (x) = xk und wegen Linearität auch für
alle Polynome.
3. Schritt: Nach dem Approximationssatz von Weierstraß lässt sich jede stetig differenzierbare Funktion F auf einem kompakten Intervall gleichmäßig durch Polynome
approximieren. Mit Aufgabe 14 folgt die Behauptung.
24
2 STOCHASTISCHE INTEGRATION
Leider ist die Brownsche Bewegung nach Korollar 1.10 in Abschnitt 1.3 auf jedem
Intervall f.s. von unendlicher Variation, der hier eingeführte Integralbegriff ist also
nicht auf die Brownsche Bewegung anwendbar. Gerade an einem solchen Integral
sind wir aber interessiert. Da sich das Stieltjes-Integral auch nicht auf die Brownsche
Bewegung erweitern lässt, müssen wir in den nächsten Abschnitten das Itô-Integral
einführen, um bzgl. der Brownschen Bewegung integrieren zu können.
2.2
Lokale Martingale und quadratische Variation
Sei (Ft )t≥0 eine rechtsstetige und vollständige Filtration.
Definition 2.6. Ein Prozess M heißt lokales Martingal (bzgl. (Ft )t≥0 ), wenn er
adaptiert ist und Stoppzeiten τn ↑ ∞ existieren, so dass M τn − M0 ein Martingal
(bzgl. (Ft∧τn )t≥0 ) ist. Dabei ist M τ definiert durch Mtτ := Mτ ∧t . Man sagt, die
Stoppzeiten τn lokalisieren M zu einem stetigen Martingal.
Aufgabe 15. Sei S eine Stoppzeit und X ein stetiger Prozess. Dann ist der gestoppte
Prozess X S ein Martingal bezüglich (FS∧t )t≥0 genau dann, wenn X S ein Martingal
bezüglich (Ft )t≥0 ist.
Aufgabe: Seien X und Y lokale Martingale bezüglich einer Filtration (Ft )t≥0 und Z
eine F0 -messbare Zufallsvariable. Dann sind auch X + Y und ZX lokale Martingale.
Bemerkung 2.5. Ist M ein stetiges lokales Martingal, dann lässt sich M durch τn =
inf{t : |Mt | ≥ n} oder jede andere Folge τn0 ≤ τn von Stoppzeiten mit τn0 → ∞ zu
einem stetigen beschränkten Martingal lokalisieren.
Beweis. Sei X = M −M0 und (σn )n∈N eine Folge von Stoppzeiten, die M lokalisieren.
Für s < t liefert der Satz über optional Sampling (in der Version für stetige Zeiten)
angewandt auf das Martingal X σn
E(Xt∧σn ∧τm0 |Fs∧σn ∧τm0 ) = Xs∧σn ∧τm0 ,
0
0
X σn ∧τm ist also ein (Ft∧σn ∧τm0 )-Martingal. Nach Aufgabe 15 ist dann X σn ∧τm ein
(Ft )-Martingal, d.h.
0
σ ∧τ 0
E(Xt n m |Fs ) = Xsσn ∧τm .
σ ∧τ 0
τ0
Für n → ∞ gilt σn ↑ ∞, also Xs n m → Xs m . Nach Definition von τm gilt außerdem
σ ∧τ 0
0
|Xtτm | = |Xt∧τm | ≤ 2m und wegen σn ∧ τm
≤ τm auch |Xt n m | = |Xt∧σn ∧τm0 | ≤ 2m.
Mit dem Satz über dominierte Konvergenz für bedingte Erwartungswerte erhalten
wir also
0
τ0
E(Xt m |Fs ) = Xsτm .
0
0
Folglich ist X τm = M τm − M0 für jedes m ein Martingal bezüglich (Ft )t≥0 , die
0
Stoppzeiten τm
lokalisieren also M .
Aufgabe 16. Zeigen Sie, dass jedes nach unten beschränkte lokale Martingal M
mit EM0 < ∞ ein Supermartingal ist.
Proposition 2.4. Ist M ein stetiges lokales Martingal von endlicher Variation,
dann gilt M = M0 f.s.
2.2 Lokale Martingale und quadratische Variation
25
Beweis. Sei Vt die Variation von M auf [0, t]. Man kann zeigen, dass V stetig und
adaptiert ist. Sei weiter τn = inf{t ≥ 0 : Vt ≥ n}. Nach Bemerkung 2.5 ist der
gestoppte Prozess M τn − M0 ein beschränktes Martingal. Daher können wir Œ annehmen, dass M ein stetiges Martingal mit Vt ≤ c für alle t ≥ 0 und M0 = 0 ist.
Für eine Folge ∆n von Zerlegungen des Intervals [0, t] mit |∆n | → 0 folgt aus der
Stetigkeit von M
ζn =
n
X
(Mti − Mti−1 )2 ≤ Vt max |Mti − Mti−1 | → 0.
∆n
i=1
Wegen ζn ≤ Vt2 ≤ c2 liefert der Satz über dominierte Konvergenz Eζn → 0. Da M
ein Martingal ist, gilt für s < t
E((Mt − Ms )2 |Fs ) = E(Mt2 |Fs ) − Ms2 = E(Mt2 − Ms2 |Fs ).
Hiermit erhalten wir
EMt2
=E
n
hX
(Mt2i
−
i
Mt2i−1 )
i=1
=E
n
hX
i
(Mti − Mti−1 )2 = Eζn → 0.
i=1
Also muss EMt2 gleich Null sein, was wiederum Mt = 0 f.s. impliziert. Da t beliebig
war, ist Mt = 0 mit Wahrscheinlichkeit Eins für alle rationalen t. Durch die Stetigkeit
folgt das gewünschte Resultat.
Interessant ist auch die Aussage
Proposition 2.5. Ein beschränktes lokales Martingal ist ein Martingal.
Beweis. Sei (Mt , Ft )t≥0 ein lokales Martingal, und es gebe eine Konstante K mit
|Mt | ≤ K für alle t ≥ 0. Insbesondere ist dann jedes Mt integrierbar. Sei ferner
(τn )n∈N eine Folge von Stoppzeiten, die M zu einem Martingal lokalisiert. Nach
Aufgabe 15 gilt
E(Mtτn |Fs ) = Msτn .
Aufgrund der Beschränktheit des lokalen Martingals ist der Satz über dominierte
Konvergenz für bedingte Erwartungswerte (vgl. Stochastik I) anwendbar. Er liefert
E(Mt |Fs ) = lim E(Mtτn |Fs ) = lim Msτn = Ms .
n→∞
n→∞
In Aufgabe 65 der Stochastik I haben wir schon gesehen, dass es zu einem quadratintegrierbaren Martingal Mn eine Folge von Fn−1 -messbaren und in n wachsenden
Zufallsvariablen An mit A0 = 0 gibt, so dass Xn2 − An ein Martingal ist. Die An
sind zudem f.s. eindeutig, denn: Wenn Bn die gleichen Eigenschaften besitzt, dann
ist An − Bn = Xn2 − Bn − Xn2 + An ein Martingal. Ferner ist An − Bn Fn−1 -messbar.
Daher gilt
An − Bn = E(An − Bn |Fn−1 ) = An−1 − Bn−1 f.s.
Iterieren liefert An − Bn = A0 − B0 = 0 f.s.
Nun sind wir an einer ähnlichen Aussage für stetige lokale Martingale interessiert.
26
2 STOCHASTISCHE INTEGRATION
Satz 2.6. Ist M ein stetiges lokales Martingal, so gibt es einen f.s. eindeutig bestimmten, stetigen, monoton wachsenden adaptierten Prozess [M ] mit [M ]0 = 0, so
dass M 2 − [M ] ein stetiges lokales Martingal ist.
Definition 2.7. Den f.s. eindeutig bestimmten Prozess [M ] aus Satz 2.6 bezeichnen
wir als quadratische Variation.
Für den Beweis benötigen wir noch einige Hilfsaussagen:
Lemma 2.7. Sei (Xk )k∈N ein Submartingal. Für r ≥ 0 und n ∈ N gilt
rP (max Xk ≥ r) ≤ EXn 1{maxk≤n Xk ≥r} ≤ EXn+ .
k≤n
Beweis. Durch T := n ∧ inf{k : Xk ≥ r} wird eine S
Stoppzeit definiert, die durch n
beschränkt ist. Setze B = {max1≤k≤n Xk ≥ r} = nk=1 {Xk ≥ r}. Nach dem Satz
über optional sampling und wegen XT ≥ r auf B gilt
E[Xn ] ≥ E[XT ] = E[1B XT ] + E[1B c XT ] ≥ rP (B) + E[1B c Xn ].
Beachte dabei, dass T = n, wenn max1≤k≤n Xk < r. Subtrahiere dann E[1B c Xn ] auf
beiden Seiten.
Setze abkürzend Xt∗ := sups≤t |Xs |.
Proposition 2.8 (Doob-Ungleichung). Sei M ein rechtsstetiges Martingal und p, q >
1 mit p1 + 1q = 1. Dann gilt
kMt∗ kp ≤
p
kMt kp = qkMt kp .
p−1
Beweis. Sei zunächst (Mk )k∈N ein Martingal. Setze Sn∗ := supk≤n |Mk |. Gilt kMn kp <
∞, dann sind nach der Jensen-Ungleichung kMk kp < ∞ für alle k ≤ n. Also können
wir Œ annehmen, dass kSn∗ kp < ∞. Ferner dürfen wir Œ kSn∗ kp > 0 annehmen, da
sonst die Ungleichung trivialerweise erfüllt ist. Nach Satz 21.1 der Stochastik I ist
(|Mk |)k∈N ein Submartingal. Für ein r > 0 folgt also mit Lemma 2.7
rP (Sn∗ ≥ r) ≤ E[|Mn |1{Sn∗ ≥r} ].
Der Satz von Fubini und die Hölder-Ungleichung liefern
Z Sn∗
Z ∞
Z ∞
∗ p
p−1
p−1
kSn kp = p E
r dr = p E
1(0,Sn∗ ] (r)r dr = p
P (Sn∗ ≥ r)rp−1 dr
0
0
0
Z ∞
Z Sn∗
p−2
p−2
≤ p
E[|Mn |1{Sn∗ ≥r} ]r dr = p E |Mn |
r dr
0
0
p
p
E[|Mn |(Sn∗ )p−1 ] ≤
kMn kp k(Sn∗ )p−1 kq = qkMn kp kSn∗ kp−1
=
p .
p−1
p−1
Für ein rechtsstetiges Martingal M in stetiger Zeit wählen wir D := {t} ∪ (Q ∩ [0, t]).
Diese Menge ist abzählbar und dicht in [0, t]. Wähle eine Abzählung (tn )n∈N von
Q ∩ [0, t]. Dann ist (Mt )t∈In mit In = {t1 , . . . , tn , t} ein Martingal mit endlicher
Indexmenge, die der Größe nach zu sortieren ist. Daher gilt
sup |Ms | ≤ qkMt kp .
s∈In
p
2.2 Lokale Martingale und quadratische Variation
27
Wegen sups∈In |Ms | ↑ sups∈D |Ms | und der Rechtsstetigkeit des Martingals folgt
kMt∗ kp = sup |Ms | ≤ qkMt kp .
s∈D
p
Lemma 2.9. Für jedes n ∈ N sei Z n ein Martingal bezüglich (Ft )t≥0 . Für jedes t
gelte Ztn → Zt in Lp für ein p ≥ 1. Dann ist Z ein Martingal.
Beweis. Aufgrund der Martingaleigenschaft gilt E(Ztn |Fs ) = Zsn für s < t. Die
rechte Seite konvergiert in Lp gegen Zs . Mit der Jensen-Ungleichung folgt
E[|E(Ztn |Fs ) − E(Zt |Fs )|p ] = E[|E(Ztn − Zt |Fs )|p ]
≤ E[E(|Ztn − Zt |p |Fs )] = E|Ztn − Zt |p → 0.
Daher erhalten wir
kE(Zt |Fs ) − Zs kp ≤ kE(Zt |Fs ) − E(Ztn |Fs )kp + kZsn − Zs kp → 0,
also E(Zt |Fs ) = Zs f.s.
Beweis von Satz 2.6.
Eindeutigkeit: Seien A und A0 zwei Prozesse mit den gewünschten Eigenschaften.
Dann sind M 2 − A und M 2 − A0 und somit auch A − A0 stetige lokale Martingale.
Ferner ist A − A0 von endlicher Variation, und es gilt A0 − A00 = 0. Nach Proposition 2.4 folgt A = A0 f.s.
Existenz: Wir zeigen die Existenz zunächst für den Fall, dass M ein stetiges beschränktes Martingal ist. Diesen Schritt werde ich nur skizzieren, Details sind in
[Dur96] zu finden. Sei ∆ = {0 = t0 < t1 < t2 < . . .} mit limn→∞ tn = ∞. Die Zahl
k(t) = sup{k : tk < t} sei der Index des letzten Zerlegungspunktes vor t. Damit
definieren wir
k(t)
X
∆
Qt (M ) =
(Mti − Mti−1 )2 + (Mt − Mtk(t) )2 .
i=1
Durch einfaches Nachrechnen folgt, dass M 2 −Q∆ (M ) ein Martingal ist. Wir werden
den Prozess Q∆ (M ) benutzen, um den gesuchten Prozess A zu konstruieren. Abgesehen vom letzten Term wächst der Prozess. Mit etwas Aufwand lässt sich zeigen,
dass für festes r > 0 und eine Zerlegung ∆n des Intervalls [0, r] mit |∆n | → 0 die
n
Zufallsvariable Q∆
in L2 konvergiert (vgl. den Beweis zu Lemma c in Abschnitt 2.3
r
in [Dur96]). Sei ∆n speziell eine Zerlegung mit Punkten k2−n r, 0 ≤ k ≤ 2n . Da
Q∆m − Q∆n ein Martingal ist, liefert Proposition 2.8
h
i
∆n 2
m
m
n 2
E sup |Q∆
−
Q
|
≤ 4E[(Q∆
− Q∆
t
t
r
r ) ].
t≤r
∆
Es gibt also eine Teilfolge, so dass Qt n(k) f.s. gleichmäßig auf [0, r] gegen einen Limes
At konvergiert. Indem wir Teilfolgen von Teilfolgen wählen und ein Diagonalfolgenargument benutzen, erhalten wir f.s. gleichmäßige Konvergenz auf [0, N ] für alle N .
Da jedes Q∆ stetig ist, gilt dies auch für A. Aufgrund des letzten Terms ist Q∆
m
nicht wachsend. Für m ≥ n ist aber die Abbildung k 7→ Q∆
k2−n r wachsend, so dass
auch k 7→ Ak2−n r wächst. Da n beliebig und A stetig ist, ist A monoton wachsend.
28
2 STOCHASTISCHE INTEGRATION
Schließlich müssen wir noch nachprüfen, dass M 2 − A ein Martingal ist. Dies folgt
mit Lemma 2.9 für p = 2.
Sei M nun ein stetiges lokales Martingal. Dann gibt es nach Bemerkung 2.5 eine
Folge von Stoppzeiten τn ↑ ∞, so dass Y n = M τn − M0 ein beschränktes Martingal
ist. Nach dem ersten Teil des Existenzbeweises gibt es also einen f.s. eindeutigen,
stetigen, adaptierten und monoton wachsenden Prozess An , so dass (Y n )2 − An ein
Martingal ist. Da für jedes beschränkte Martingal X und jede Stoppzeit T nach
dem Satz über optional sampling (in der Version für stetige Zeit) (X T )2 − [X]T ein
stetiges lokales Martingal ist, muss aufgrund der f.s. Eindeutigkeit von [X] schon
für t ≤ τn . Wir können also definieren
[X T ] = [X]T gelten. Daher ist Ant = An+1
t
n
[M ]t = At für t ≤ τn . Es ist klar, dass [M ] stetig, adaptiert und monoton wachsend
ist. Die Definition impliziert, dass (M τn − M0 )2 − [M ]τn ein Martingal ist. Folglich
ist (M − M0 )2 − [M ] ein lokales Martingal. Da M02 − 2M0 M ebenfalls ein lokales
Martingal ist, ist auch M 2 − [M ] ein lokales Martingal.
∆n
Beispiel 2.1. Nach Lemma 1.14 ist [B]t = t. In Satz 1.9 haben wir gezeigt, dass T[0,t]
stochastisch gegen t konvergiert. Dass dies kein Zufall ist, werden wir später sehen.
Aus Satz 2.6 folgt
Korollar 2.10. Seien M und N stetige lokale Martingale. Dann existiert ein f.s.
eindeutig bestimmter, stetiger adaptierter Prozess [M, N ] von endlicher Variation
mit [M, N ]0 = 0, so dass M N − [M, N ] ein stetiges lokales Martingal ist.
Beweis. Existenz: M + N und M − N sind ebenfalls stetige lokale Martingale. Definiere
1
[M, N ] := [M + N ] − [M − N ] .
4
Als Differenz zweier monoton wachsender Funktionen ist [M, N ] von endlicher Variation. Ferner ist
1
1
M N − [M, N ] = (M + N )2 − [M + N ] − (M − N )2 − [M − N ]
4
4
ein stetiges lokales Martingal.
Eindeutigkeit: Seien A und A0 mit A0 = A00 = 0 stetig, adaptiert und von endlicher
Variation, so dass M N − A und M N − A0 stetige lokale Martingale sind. Dann
ist A − A0 ein stetiges lokales Martingal von endlicher Variation. Also gilt nach
Proposition 2.4 A − A0 = A0 − A00 = 0 f.s.
Definition 2.8. Der Prozess [M, N ] aus Korollar 2.10 heißt Kovariation.
Aufgabe 17. Seien X, Y und Z stetige lokale Martingale und a, b ∈ R. Beweisen
Sie folgende Eigenschaften der Kovariation ausschließlich mit Hilfe der Definition:
(i) [X, Y ] = [Y, X],
(ii) [aX, bY ] = ab[X, Y ],
(iii) [X + Y, Z] = [X, Z] + [Y, Z],
(iv) [X − X0 , Z] = [X, Z].
Wenn wir analog zu oben
Q∆
t (M, N )
=
k(t)
X
(Mtk − Mtk−1 )(Ntk − Ntk−1 ) + (Mt − Mtk(t) )(Nt − Ntk(t) )
k=1
setzen, so erhalten wir
2.3 Das Itô-Integral bezüglich beschränkter Martingale
29
Satz 2.11. Seien M und N stetige lokale Martingale. Für jedes t und Folge von
Zerlegungen ∆n des Intervalls [0, t] mit |∆n | → 0 gilt
n
sup |Q∆
s (M, N ) − [M, N ]s | → 0 stochastisch.
s≤t
Insbesondere gilt
n
sup |Q∆
s (M ) − [M ]s | → 0 stochastisch.
s≤t
Beweis. Wir zeigen zunächst die zweite Aussage. Sei δ, ε > 0. Wir können eine
Stoppzeit S so wählen, dass M S − M0 ein beschränktes Martingal ist und P (S ≤
∆n
S
n
t) ≤ δ gilt. Auf [0, S] stimmen Q∆
s (M ) und Qs (M ) überein. Aus dem Beweis
S
von Satz 2.6 folgt, dass [M ] und [M ] auf [0, S] gleich sind. Daher gilt
S
S
∆n
n
(M
)
−
[M
]
|
>
ε
.
(M
)
−
[M
]
|
>
ε
≤
δ
+
P
sup
|Q
P sup |Q∆
s
s
s
s
s≤t
s≤t
Da M S − M0 ein beschränktes Martingal ist, muss der letzte Term aufgrund des
Beweises zu Satz 2.6 gegen Null konvergieren. Wegen
n
Q∆
s (M, N ) =
1 ∆n
n
Qs (M + N ) − Q∆
s (M − N )
4
folgt die erste Aussage aus der zweiten.
In einigen Büchern wird die quadratische Variation bzw. die Kovariation als stochastischer Grenzwert von Q∆n (M ) bzw. Q∆n (M, N ) definiert.
2.3
Das Itô-Integral bezüglich beschränkter Martingale
Das Itô-Integral bezüglich stetiger beschränkter Martingale definieren wir analog
zum Lebesgue-Integral zunächst für bestimmte Treppenprozesse und setzen die Definition dann auf größere Klassen von Prozessen fort.
Definition 2.9. Ein Prozess X = (Xt )t≥0 heißt
(i) produktmessbar, falls (ω, t) 7→ Xt (ω) messbar bezüglich F ⊗ (B ∩ [0, ∞)) ist,
(ii) progressiv messbar bezüglich einer Filtration (Ft )t≥0 , wenn für jedes t ≥ 0 die
Abbildung
Ω × [0, t] → R, (ω, s) 7→ Xs (ω)
Ft ⊗ (B ∩ [0, t])-messbar ist.
Bemerkung 2.6. Jeder progressiv messbare Prozess H ist produktmessbar und adaptiert, d.h. für festes t ≥ 0 ist die Zufallsvariable Ht Ft -messbar. Mit etwas mehr
Aufwand kann man zeigen: Ist H adaptiert und produktmessbar, so gibt es eine
progressiv messbare Modifikation von H.
Proposition 2.12. Ist H ein adaptierter rechtsstetiger oder linksstetiger Prozess,
so ist H progressiv messbar.
30
2 STOCHASTISCHE INTEGRATION
Beweis. Wir beweisen die Aussage nur für einen rechtsstetigen Prozess. Für einen
linksstetigen Prozess argumentiert man analog. Zu einem vorgegebenen t ≥ 0 definieren wir
(
H(j+1)2−n t (ω) , s ∈ [j2−n t, (j + 1)2−n t), für j = 0, 1, . . . , 2n − 1
Yn (ω, s) :=
.
Hs (ω)
,s ≥ t
Aufgrund der Rechtsstetigkeit der Pfade gilt
lim Yn (ω, s) = Hs (ω) , (ω, s) ∈ Ω × [0, ∞).
n→∞
Daher genügt es, zu zeigen, dass Yn eingeschränkt auf Ω × [0, t] eine Ft ⊗ (B ∩ [0, t])messbare Abbildung ist. Sei also B ∈ B, dann ist
{Yn ∈ B} =
n −1
2[
({H(j+1)2−n t ∈ B} × [j2−n t, (j + 1)2−n t)) ∪ ({Ht ∈ B} × {t})
j=0
∈ Ft ⊗ (B ∩ [0, t]).
Yn ist also Ft ⊗ (B ∩ [0, t])-messbar.
Definition 2.10. Ein reeller Prozess H auf (Ω, F, P ) heißt elementarer Prozess,
wenn er eine Darstellung
Hs (ω) =
n
X
hi−1 (ω)1(ti−1 ,ti ] (s)
i=1
besitzt, wobei n ∈ N, 0 = t0 < t1 < · · · < tn und hi−1 beschränkt und Fti−1 -messbar,
i = 1, . . . , n. Die Menge der elementaren Prozesse bezeichnen wir mit E.
Bemerkung 2.7. Die Menge E ist ein Vektorraum.
Die elementaren Prozesse sind offensichtlich linksstetig und adaptiert, nach Proposition 2.12 also progressiv messbar. Den einfachsten elementaren Prozess Hs (ω) =
h(ω)1(a,b] (s) können wir z.B. als Anzahl der Aktien einer Sorte in unserem Portfolio
interpretieren: Zum Zeitpunkt a kaufen wir abhängig von unserem Wissen h Aktien, diese behalten wir bis zum Zeitpunkt b und verkaufen sie dann wieder. Diese
Interpretation ist sinnvoll, wenn wir den durch Aktiengeschäfte entstandenen Gewinn zu einer Zeit t ermitteln wollen. Bezeichnet nämlich Xt den Preisprozess der
betrachteten Aktiensorte, d.h. Xt ist der Wert der Aktie zurR Zeit t, so ist der Get
winn durch das noch zu definierende Integral (H · X)t := 0 Hs dXs gegeben. Ist
Ht = h1(a,b] (t) und M ein Martingal in stetiger Zeit, so ist es ausgehend von den
bekannten Integralbegriffen logisch, (H · M )t für t > b als h(Mb − Ma ) zu definieren.
Definition 2.11. Sei H ∈ E und M ein stetiges Martingal. Dann ist der Prozess
H · M definiert durch
Z t
n
X
(H · M )t :=
Hs dMs :=
hi−1 (Mti ∧t − Mti−1 ∧t ) , t ≥ 0.
0
i=1
Satz 2.13. Seien H, K ∈ E, α, β ∈ R und M und N stetige Martingale. Dann gilt
(αH + βK) · M = α(H · M ) + β(K · M ) und H · (αM + βN ) = α(H · M ) + β(H · N ).
2.3 Das Itô-Integral bezüglich beschränkter Martingale
31
Aufgabe 18. Beweisen Sie Satz 2.13
Satz 2.14. Ist M ein stetiges Martingal und H ∈ E, dann ist H · M ein stetiges
Martingal mit (H · M )0 = 0.
Beweis. Für den elementaren Prozess K = h1(a,b] gilt


,0 ≤ t ≤ a
0
(K · M )t = h(Mt − Ma ) , a < t ≤ b .


h(Mb − Ma ) , t > b
Der Prozess K · M ist also stetig (in dem Sinne, dass er stetige Pfade besitzt). Für
jedes t ≥ 0 ist (K ·M )t Ft -messbar, und es gilt E|(K ·M )t | < ∞ für alle t. Da (K ·M )t
für t ∈
/ (a, b] konstant ist, genügt es, die Martingaleigenschaft für a ≤ s < t ≤ b
nachzuweisen. In diesem Fall gilt
E((K · M )t |Fs ) − (K · M )s = E((K · M )t − (K · M )s |Fs )
= E(h(Mt − Ms )|Fs ) = hE(Mt − Ms |Fs ) = 0.
Ein beliebiger Prozess H ∈ E ist eine endliche Summe von elementaren Prozessen
der Form K. Nach dem ersten Teil ist also auch H · M stetig und (H · M )t Ft messbar für alle t ≥ 0 sowie E|(H · M )t | < ∞ für alle t. Nach Satz 2.13 ist (H · M )t
zudem eine endliche Summe von Martingalen und somit selbst ein Martingal. Aus
der Definition folgt direkt (H · M )0 = 0.
Satz 2.15. Ist M ein stetiges Martingal und H ∈ E, dann ist H ·M das f.s. eindeutig
bestimmte stetige Martingal mit (H · M )0 = 0, so dass
[H · M, N ] = H · [M, N ] f.s. für alle stetigen Martingale N.
Beweis. Eindeutigkeit: Seien X und Y stetige Martingale mit X0 = Y0 = 0 und
[X, N ] = H · [M, N ] = [Y, N ] f.s.
für alle stetigen Martingale N . Aufgrund der Linearität der Kovariation gilt [X −
Y, N ] = 0 f.s. Für N = X − Y erhalten wir [X − Y ] = 0 f.s. Nach Definition ist also
(X − Y )2 ein stetiges Martingal mit (X − Y )20 = 0. Folglich ist X = Y f.s.
Bedingung erfüllt: Es genügt, die Bedingung für Prozesse Hs (ω) = h(ω)1(a,b] (s) mit
Fa -messbarem h nachzuweisen, da die Behauptung dann mittels Linearität des Itôund des Stieltjes-Integrals folgt. Nach Definition gilt (H · M )t = h(Mb∧t − Ma∧t ).
Nach Satz 2.14 ist H · M ein stetiges Martingal mit (H · M )0 = 0. Aufgrund der
Definition der Kovariation genügt es zu zeigen, dass Z = (H · M )N − H · [M, N ]
ein stetiges lokales Martingal ist, da dann aus der f.s. Eindeutigkeit die gewünschte
Gleichung folgt. Durch Lokalisieren können wir annehmen, dass M un N beschränkt
sind. Es gilt


,t ≤ a
0
Zt = h(Mt − Ma )Nt − h([M, N ]t − [M, N ]a ) , a < t ≤ b .


h(Mb − Ma )Nt − h([M, N ]b − [M, N ]a ) , t > b
32
2 STOCHASTISCHE INTEGRATION
Für a ≤ s < t ≤ b gilt
Zt − Zs = h Mt Nt − Ms Ns − Ma (Nt − Ns ) − ([M, N ]t − [M, N ]s ) .
Bilden wir den bedingten Erwartungswert gegeben Fs , so erhalten wir
E(Zt −Zs |Fs ) = hE(Mt Nt −[M, N ]t −(Ms Ns −[M, N ]s )|Fs )−hMa E(Nt −Ns |Fs ) = 0.
Auch in anderen Fällen erhalten wir das gleiche Ergebnis, so dass Z tatsächlich ein
Martingal ist.
Aus diesem nützlichen Resultat folgt unmittelbar
Korollar 2.16. Sind M und N stetige Martingale und H, K ∈ E, dann gilt
[H ·M, K ·N ]t = ((HK)·[M, N ])t f.s. und E(H ·M )t (K ·N )t = E((HK)·[M, N ])t
sowie
E(H · M )2t = E(H 2 · [M ])t .
Beweis. Verwende die Sätze 2.14 und 2.15 sowie die Assoziativität des StieltjesIntegrals.
Definition 2.12. Ein Martingal heißt L2 -beschränkt, wenn
kM k := (sup E[Mt2 ])1/2 < ∞.
t≥0
Bezeichne M2 den Raum der L2 -beschränkten (f.s.) stetigen Martingale M .
Aufgabe 19. Ein stetiges lokales Martingal M liegt genau dann in M2 , wenn
EM02 < ∞ und E[M ]∞ < ∞.
Bemerkung 2.8. Die Brownsche Bewegung ist zwar nach Lemma 1.14 ein (zumindest
f.s.) stetiges Martingal. Wegen [B]t = t ist es jedoch nicht L2 -beschränkt.
Satz 2.17. M2 ist vollständig.
Beweis. Nach Konvergenzsätzen zu gleichmäßig integrierbaren Martingalen (vgl.
Kapitel 26 der Stochastik I) konvergiert jedes M ∈ M2 f.s. und in L2 gegen einen
2
Grenzwert M∞ mit EM∞
= supt≥0 E[Mt2 ]. Sei F∞ = σ(Ft , t ≥ 0). Da M∞ als Limes F∞ -messbarer Funktionen ebenfalls F∞ -messbar ist, wird durch M 7→ M∞ eine
Abbildung von M2 nach L2 (F∞ ) definiert. Aufgrund monotoner Konvergenz gilt
2
kM k2 = sup E[Mt2 ] = lim E[Mt2 ] = E[M∞
] = kM∞ k22 . (∗)
t≥0
t→∞
(n)
Sei nun M (1) , M (2) , . . . eine Cauchyfolge in M2 . Wegen (∗) ist dann (M∞ )n∈N eine
Cauchyfolge in L2 (F∞ ). Da L2 (F∞ ) vollständig ist, existiert ein Z ∈ L2 (F∞ ), gegen
(n)
das die Folge (M∞ )n∈N in L2 (F∞ ) konvergiert. Durch Mt = E(Z|Ft ) wird ein L2 beschränktes Martingal definiert, das nach den Konvergenzsätzen aus Kapitel 26
einerseits f.s. gegen ein M∞ und andererseits f.s. gegen E(Z|F∞ ) = Z konvergiert.
Es gilt also M∞ = Z f.s. Daher liefert die Doob-Ungleichung (Proposition 2.8)
(n)
− M∞ k2 → 0.
k(M (n) − M )∗ k = k(M (n) − M )∗∞ k2 ≤ 2kM∞
Daraus ergibt sich einerseits kM (n) − M k → 0. Andererseits gibt es eine Teilfolge
(n(k))k∈N , so dass (M (n(k)) − M )∗∞ f.s. gegen Null konvergiert. Da die M (n(k)) f.s.
stetig sind, muss auch M f.s. stetig sein.
2.3 Das Itô-Integral bezüglich beschränkter Martingale
33
Dies ist der Schlüssel zur Erweiterung des stochastischen Integralbegriffs.
Definition 2.13. Sei M ein stetiges Martingal. Dann bezeichne P2 (M ) den Raum
der progressiv messbaren Prozesse H mit
1/2
kHkM := E(H 2 · [M ])∞
< ∞.
Zur Erinnerung: Das in der Definition auftauchende Integral ist ein Stieltjes-Integral.
Proposition 2.18 (Itô-Isometrie I). Ist M ein stetiges Martingal und H ∈ E, dann
gilt
kH · M k = kHkM .
Beweis. Mit Korollar 2.16 folgt
kHk2M = E(H 2 · [M ])∞ = sup E(H 2 · [M ])t = sup E(H · M )2t = kH · M k2 .
t≥0
t≥0
Der erste Schritt zur Erweiterung des Integrals besteht darin, zu zeigen, dass für ein
vorgegebenes M ∈ M2 der Raum E dicht in P2 (M ) liegt.
Proposition 2.19. Sei M ein stetiges Martingal und H ∈ P2 (M ), dann gibt es
eine Folge H n ∈ E mit kH n − HkM → 0.
Beweis. Ich werde den Beweis hier nur für den Spezialfall [M ]t = t führen. Für den
allgemeinen Fall vergleiche z.B. Lemma 3.2.7 in [KS98].
Es reicht zu zeigen, dass für jedes T > 0 eine Folge (H n )n∈N in E existiert mit
Z T
n→∞
n
2
(Hs − Hs ) ds −−−→ 0. (#)
E
0
Schritt 1: Sei zunächst H stetig und beschränkt. Setze H0n = 0 und
Htn = Hi2−n T
falls i2−n T < t ≤ (i + 1)2−n T für ein i = 0, . . . , 2n − 1
und Htn = 0 für t > T . Dann ist H n ∈ E, und es gilt Htn (ω) → Ht (ω) für alle t > 0
und ω ∈ Ω. Nach dem Satz von der dominierten Konvergenz folgt (#).
Schritt 2: Sei nun H progressiv messbar und beschränkt. Es reicht zu zeigen, dass
es stetige, adaptierte und beschränkte Prozesse H n , n ∈ N, gibt, für die (#) gilt.
Sei
Z t∧T
n
Ht := n
Hs ds für t ≥ 0, n ∈ N.
(t−1/n)∨0
n
Dann ist H stetig, adaptiert und durch supt≥0 |Ht | beschränkt. Nach dem Hauptsatz
der Differential- und Integralrechnung gilt
Htn (ω) → Ht (ω) für λ-fast alle t ∈ [0, T ] und für jedes ω ∈ Ω.
Nach dem Satz von Fubini und dem Satz von der dominierten Konvergenz gilt daher
Z T
Z
n
2
(Hsn (ω) − Hs (ω))2 P ⊗ λ(d(ω, s)) → 0.
E
(Hs − Hs ) ds =
0
Ω×[0,T ]
R ∞
Schritt 3: Sei nun H progressiv messbar und E 0 Ht2 dt < ∞. Es genügt zu
zeigen, dass es eine Folge (H n )n∈N von beschränkten progressiv messbaren Prozessen
gibt, so dass (#) gilt. Dazu wählen wir Htn = Ht 1{|Ht |<n} .
34
2 STOCHASTISCHE INTEGRATION
Wir definieren nun das Integral H · M für ein Martingal M ∈ M2 und H ∈ P2 (M )
wie folgt:
Nach Proposition 2.19 gibt es H n ∈ E mit kH n − HkM → 0. Aufgrund von Proposition 2.18 ist also (H n · M ) eine Cauchyfolge in M2 . Nach Satz 2.17 konvergiert
diese gegen einen Grenzwert in M2 , den wir als Integral H · M definieren wollen.
Diese Definition hängt nicht von der Wahl der approximierenden Folge (H n ) ab:
Seien (H n ) und (H̄ n ) zwei Folgen aus E mit kH n − HkM → 0 und kH̄ n − HkM → 0
sowie H n · M → Y und H̄ n · M → Ȳ in M2 . Wir bilden die approximierende Folge
(H̃ n ), indem wir H̃ n = H n setzen, wenn n ungerade ist, und H̃ n = H̄ n sonst. Wegen
kH̃ n − HkM → 0 konvergiert (H̃ n · M ) in M2 gegen einen Grenzwert Z. Betrachten
wir die gerade und ungerade Teilfolge, so finden wir heraus, dass Y = Z = Ȳ .
Bemerkung 2.9. Es gilt sogar: Sind M i ∈ M2 und H ∈ P2 (M i ) für alle i = 1, . . . , k,
dann gibt es eine Folge H n ∈ E mit kH n − HkM i → 0 für alle i = 1, . . . , k.
Wir erweitern nun die bisher formulierten Eigenschaften auf das neue Integral.
Satz 2.20. Ist M ∈ M2 und H ∈ P2 (M ), dann ist H · M ∈ M2 .
Beweis. Dies ist klar nach Definition von H · M .
Satz 2.21. Sei M ∈ M2 , α, β ∈ R und H, K ∈ P2 (M ). Dann ist αH +βK ∈ P2 (M )
und es gilt
(αH + βK) · M = α(H · M ) + β(K · M ).
Beweis. Die Dreiecksungleichung für die Norm k.kM liefert αH +βK ∈ P2 (M ). Nach
Proposition 2.19 existieren H n , K n ∈ E mit kH n − HkM → 0 und kK n − KkM → 0.
Aufgrund der Dreiecksungleichung folgt kαH n + βK n − αH − βKkM → 0. Nach
Satz 2.13 gilt
(αH n + βK n ) · M = α(H n · M ) + β(K n · M ).
Beachten wir nun, dass Gn · M → G · M in M2 für G = H, K, αH + βK, so erhalten
wir für n → ∞ die Behauptung.
Aufgabe 20. Sei M ∈ M2 und H ∈ P2 (M ). Dann gilt kH · M k = kHkM .
Satz 2.22 (Kunita-Watanabe-Ungleichung). Seien M und N lokale Martingale und
H und K zwei produktmessbare Prozesse. Dann gilt f.s.
Z t
1/2
1/2
|Hs Ks | d|[M, N ]|s ≤ (H 2 · [M ])t (K 2 · [N ])t .
0
Dabei steht d|[M, N ]|s für dVs , wobei Vs die Totalvariation von r 7→ [M, N ]r auf
[0, s] bezeichne.
Beweis. Aufgrund des Satzes über monotone Konvergenz genügt es, die Behauptung
für beschränkte messbare Prozesse zu beweisen. Ferner reicht es, die Gültigkeit der
Ungleichung
Z t
Z t
1/2 Z t
1/2
2
2
Hs Ks d[M, N ]s ≤
Ks d[N ]s
(∗)
Hs d[M ]s
0
0
0
nachzuweisen. Denn nach dem Satz von Radon-Nikodym (vgl. Stochastik I) besitzt
das zu [M, N ]s gehörende signierte Maß eine Dichte Js mit Werten {−1, 1} bezüglich
2.3 Das Itô-Integral bezüglich beschränkter Martingale
35
dem zu |[M, N ]|s gehörenden Maß. Wenn wir in (∗) H durch HJ sgn(HK) ersetzen,
so ergibt sich die zu zeigende Ungleichung. Man kann zudem zeigen, dass jeder
beschränkte messbare Prozess K durch Prozesse der Form
k0 1{0} +
m
X
ki 1(ti−1 ,ti ]
i=1
approximiert werden kann, wobei 0 = t0 < t1 < · · · < tm = t eine Zerlegung des
Intervalls [0, t] und ki , i = 0, 1, . . . , m, beschränkte messbare Zufallsvariablen sind.
Die Ungleichung (∗) beweisen wir nun in zwei Schritten:
1. Schritt: Seien s ≤ t. Setze [M, N ]ts = [M, N ]t −[M, N ]s . Aufgrund der Monotonie
der quadratischen Variation und der Linearität der Kovariation gilt für a, b ∈ R
0 ≤ [aM + bN ]ts = a2 [M, M ]ts + 2ab[M, N ]ts + b2 [N, N ]ts .
Durch Vereinigen abzählbar vieler Nullmengen folgt, dass die Ungleichung f.s. für
alle a, b ∈ Q, wegen Stetigkeit also f.s. für alle a, b ∈ R gilt. Daraus ergibt sich
([M, N ]ts )2 ≤ [M, M ]ts [N, N ]ts .
2. Schritt: Seien 0 = t0 < t1 < · · · < tm = t eine Zerlegung des Intervalls [0, t] und
hi , ki , 0 ≤ i ≤ m, Zufallsvariablen. Wir definieren die messbaren Prozesse
Hs (ω) = h0 1{0} +
m
X
hi (ω)1(ti−1 ,ti ] (s) und Ks (ω) = k0 1{0} +
i=1
m
X
ki (ω)1(ti−1 ,ti ] (s).
i=1
Mit der Definition des Stieltjes-Integrals, dem Ergebnis von Schritt 1 und der CauchySchwarz-Ungleichung erhalten wir
Z t
m
m
X
X
1/2
ti
ti
ti
Hs Ks d[M, N ]s ≤
[N,
N
]
|
≤
|h
k
|
[M,
M
]
|h
k
||[M,
N
]
i
i
i
i
ti−1
ti−1
ti−1
0
i=1
i=1
≤
m
X
i=1
h2i [M, M ]ttii−1
m
1/2 X
ki2 [N, N ]ttii−1
1/2
,
i=1
also die Ungleichung (∗).
Bemerkung 2.10. (i) Wenn M = N und [M ]s = s, dann ist d[N ]s = d|[M, N ]s | = ds.
Die Kunita-Watanabe-Ungleichung wird dann zur Cauchy-Schwarz-Ungleichung.
(ii) Man beachte, dass wir H und K nicht als progressiv messbar, sondern lediglich
als messbar bezüglich B ⊗ F angenommen haben.
Satz 2.23. Sei M ∈ M2 und H ∈ P2 (M ). Dann ist H ·M das f.s. einzige Martingal
aus M2 mit (H · M )0 = 0, so dass
[H · M, N ] = H · [M, N ] f.s. für alle N ∈ M2 .
Beweis. Die Eindeutigkeit zeigt man wie im Beweis von Satz 2.15. Wegen der f.s.
Eindeutigkeit der Kovariation genügt es, zu zeigen, dass Z = (H · M )N − H · [M, N ]
ein lokales Martingal ist. Nach Proposition 2.19 gibt es H n ∈ E mit kH n −HkM → 0.
Aus dem Beweis des Satzes 2.15 entnehmen wir, dass Z n = (H n · M )N − H n · [M, N ]
für jedes n ∈ N ein lokales Martingal ist. Durch Lokalisieren können wir annehmen,
36
2 STOCHASTISCHE INTEGRATION
dass Z n für alle n ein Martingal ist. Nach Lemma 2.9 genügt es, zu zeigen, dass Ztn
für alle t in L1 gegen Zt konvergiert. Wegen Satz 2.21 und Aufgabe 13 können wir
schreiben
Ztn − Zt = ((H n − H) · M )t Nt − ((H n − H) · [M, N ])t .
Aufgrund der Minkowski-Ungleichung genügt es, nachzuweisen, dass E supt≥0 |((H n −
H) · M )t ||Nt | und E|((H n − H) · [M, N ])t | gegen Null konvergieren. Mit der CauchySchwarz-Ungleichung, Proposition 2.8, dem Beweis des Satzes 2.17 und der Isometrie
aus Aufgabe 20 folgt
h
i
E sup |((H n − H) · M )t ||Nt | ≤ E sup |((H n − H) · M )t | sup |Nt |
t≥0
t≥0
t≥0
2 1/2
∗ 2 1/2
≤ E ((H n − H) · M )∗∞
(E[(N∞
) ])
∗
n
∗
= k((H − H) · M )∞ k2 kN∞ k2
≤ 4k((H n − H) · M )∞ k2 kN∞ k2
= 4k(H n − H) · M kkN k = 4kH n − HkM kN k → 0.
Mit den Ungleichungen von Kunita-Watanabe und Cauchy-Schwarz können wir außerdem abschätzen
E|((H n − H) · [M, N ])t | ≤ E(|H n − H| · |[M, N ]|)t
1/2
1/2 ≤ E ((H n − H)2 · [M ])t [N ]t
1/2
≤ E ((H n − H)2 · [M ])t
(E[N ]t )1/2
≤ kH n − HkM (E[N ]∞ )1/2 → 0.
Z muss also ebenfalls ein Martingal sein.
Daraus folgt direkt
Korollar 2.24. Seien M, N ∈ M2 , H ∈ P2 (M ) und K ∈ P2 (N ). Dann gilt
[H · M, K · N ] = (HK) · [M, N ].
Aufgabe 21. Seien M und N stetige lokale Martingale mit M0 = N0 = 0. Zeigen
Sie, dass für jede endliche Stoppzeit T gilt
[M T , N T ] = [M, N ]T = [M, N T ].
Satz 2.25. Seien M, N ∈ M2 und H ∈ P2 (M ) ∩ P2 (N ). Dann gilt H ∈ P2 (M + N )
und
H · (M + N ) = H · M + H · N.
Beweis. Satz 2.22 liefert
1
|[M, N ]t | ≤ ([M ]t [N ]t )1/2 ≤ ([M ]t + [N ]t ).
2
Aufgrund der Bilinearität der Kovariation erhalten wir
[M + N ]t = [M ]t + [N ]t + 2[M, N ]t ≤ 2([M ]t + [N ]t ).
Daher gilt H ∈ P2 (M +N ). Nach Bemerkung 2.9 gibt es H n ∈ E mit kH n −HkZ → 0
für Z = M, N, M + N . Satz 2.13 impliziert
H n · (M + N ) = H n · M + H n · N,
woraus durch Grenzübergang die Behauptung folgt.
2.4 Das Itô-Integral bezüglich lokaler Martingale
2.4
37
Das Itô-Integral bezüglich lokaler Martingale
Durch Lokalisieren können wir das im letzten Abschnitt eingeführte Integral so erweitern, dass auch stetige lokale Martingale als Integratoren zulässig sind. Zusätzlich
wollen wir die die Menge der zulässigen Integranden auf
Z t
2
Hs d[M ]s < ∞ f.s. für alle t ≥ 0
Ploc (M ) := H progressiv messbar :
0
erweitern.
Aus Bemerkung 2.5 wissen wir, dass die Stoppzeiten τn = inf{t : |Mt | ≥ n} mit
τn ↑ ∞ ein stetiges lokales Martingal M zu einem stetigen beschränkten Martingal lokalisieren. Durch die Stoppzeiten σn = inf{t : (H 2 · [M ])t ≥ n} können wir
erreichen, dass für einen Prozess H ∈ Ploc (M ) gilt
kH1[0,σn ] k2M = E[(H 2 · [M ])σn ] ≤ n.
Der Prozess H1[0,σn ] : (s, ω) 7→ Hs (ω)1{s≤σn (ω)} (s, ω) liegt also in P2 (M ). Wegen
H ∈ Ploc (M ) gilt σn ↑ ∞ f.s. Die Stoppzeiten
Tn = τn ∧ σn = inf{t : |Mt | ≥ n oder (H 2 · [M ])t ≥ n}
sind monoton wachsend in n und konvergieren f.s. gegen ∞. Sie lokalisieren M
zu einem stetigen beschränkten Martingal und bewirken gleichzeitig, dass H1[0,Tn ] ∈
P2 (M Tn −M0 ). Gemäß dem letzten Abschnitt können wir also (H1[0,Tn ] )·(M Tn −M0 )
bilden. Für t ≤ Tn bemerken wir, dass
((H1[0,Tn+1 ] ) · (M Tn+1 − M0 ))t = ((H1[0,Tn ] ) · (M Tn − M0 ))t .
Wir können also das Integral H · M (f.s.) durch (H · M )t = ((H1[0,Tn ] ) · (M Tn − M0 ))t
für t ≤ Tn definieren. Daraus erhalten wir
Proposition 2.26. Sei M ein stetiges lokales Martingal, H ∈ Ploc (M ) und T eine
endliche Stoppzeit. Dann gilt
(H1[0,T ] ) · M = (H · M )T = H · M T = (H1[0,T ] ) · M T .
Aufgabe 22. a) Sei M ein beschränktes stetiges Martingal, H, K ∈ P2 (M ), T eine
Stoppzeit und Hs = Ks für s ≤ T . Dann gilt (H · M )t = (K · M )t für t ≤ T .
b) Beweisen Sie Proposition 2.26.
Da für ein lokales Martingal M auch X = M − M0 ein lokales Martingal mit X0 = 0
ist, können wir Œ M0 = 0 annehmen. Es gilt H · (M − M0 ) = H · M .
Satz 2.27. Sei M ein stetiges lokales Martingal mit M0 = 0 und H ∈ Ploc (M ).
Dann ist auch H · M ein stetiges lokales Martingal.
Beweis. Wähle Tn = inf{t : (H 2 · [M ])t > n oder |Mt | > n}. Nach der Definition ist
(H · M )Tn = (H1[0,Tn ] ) · M Tn . Die Behauptung folgt nun aus Satz 2.20.
Satz 2.28. Seien M und N stetige lokale Martingale mit M0 = N0 = 0. Wenn
H, K ∈ Ploc (M ), dann gilt
(H + K) · M = H · M + K · M.
Ist H ∈ Ploc (M ) ∩ Ploc (N ), dann ist H ∈ Ploc (M + N ) und es gilt
H · (M + N ) = H · M + H · N.
38
2 STOCHASTISCHE INTEGRATION
Beweis. (i) Aufgrund der Dreiecksungleichung für die Norm k.kM erhalten wir H +
K ∈ Ploc (M ). Durch die Stoppzeiten
Tn = inf{t : (|Mt | > n) ∨ ((H 2 · [M ])t > n) ∨ ((K 2 · [M ])t > n)}
folgt der erste Teil aus Proposition 2.26 und Satz 2.21.
(ii) Wie in Satz 2.25 zeigt man H ∈ Ploc (M + N ). Durch geeignete Stoppzeiten
können wir die Gleichung auf diejenige in Satz 2.25 zurückführen.
Satz 2.29. Seien M ein stetiges lokales Martingal mit M0 = 0 und H ∈ Ploc (M ).
Dann ist H · M das f.s. einzige stetige lokale Martingal mit (H · M )0 = 0, so dass
[H · M, N ] = H · [M, N ] f.s. für alle stetigen lokalen Martingale N.
Beweis. Die Eindeutigkeit zeigt man analog zu Satz 2.15. Nach Satz 2.27 ist H · M
ein stetiges lokales Martingal. Es gilt (H · M )0 = 0. Sei N ein beliebiges stetiges
lokales Martingal mit N0 = 0 und Tn ↑ ∞ eine Folge von Stoppzeiten, die sowohl
M als auch N lokalisiert und E(H 2 · [M ])Tn ≤ n liefert. Dann gilt nach Aufgabe 21,
Proposition 2.26 und Satz 2.23
[H · M, N ]Tn = [(H · M )Tn , N Tn ] = [(H1[0,Tn ] ) · M Tn , N Tn ]
= (H1[0,Tn ] ) · [M Tn , N Tn ] = (H1[0,Tn ] ) · [M, N ]Tn
= (H · [M, N ])Tn f.s.
Für n → ∞ erhalten wir die Behauptung.
Mit der Assoziativität des Stieltjes-Integrals und Satz 2.27 folgt daraus sofort
Korollar 2.30. Seien M und N stetige lokale Martingale mit M0 = N0 = 0, H ∈
Ploc (M ) und K ∈ Ploc (N ). Dann gilt
[H · M, K · N ] = (HK) · [M, N ] f.s.
Hieraus folgt direkt die Itô-Isometrie für stetige lokale Martingale M und Integranden H ∈ Ploc (M ).
2.5
Das Itô-Integral bezüglich Semimartingalen
Definition 2.14. Ein Prozess (Xt )t≥0 heißt Semimartingal, wenn ein lokales Martingal M und ein adaptierter Prozess A von endlicher Variation mit A0 = 0 existieren,
so dass Xt = Mt + At für alle t ≥ 0.
Bemerkung 2.11. (i) Die Zerlegung ist f.s. eindeutig aufgrund von Proposition 2.4.
(ii) Sind X = M + A und Y = N + B stetige Semimartingale, dann ist auch
X + Y = (M + N ) + (A + B) ein stetiges Semimartingal.
Wir nennen einen Prozess X lokal beschränkt, wenn es eine Folge von Stoppzeiten
Tn gibt, so dass Tn ↑ ∞ und |Xt (ω)| ≤ n für t ≤ Tn . Für einen lokal beschränkten progressiv messbaren Prozess H und einen stetigen adaptierten Prozess A von
endlicher Variation können wir gemäß Abschnitt 2.1 das Integral H · A definieren.
Wegen
Z
Tn
Hs2 d[M ]s ≤ n2 [M ]Tn < ∞
0
ist H aus Ploc (M ), so dass auch H · M wohldefiniert ist.
2.5 Das Itô-Integral bezüglich Semimartingalen
39
Definition 2.15. Sei X ein stetiges Semimartingal und H ein lokal beschränkter
progressiv messbarer Prozess. Dann ist das Integral H · X definiert durch
(H · X)t = (H · M )t + (H · A)t .
Satz 2.31. Sei X ein stetiges Semimartingal und H ein lokal beschränkter progressiv
messbarer Prozess. Dann ist H · X ein stetiges Semimartingal.
Beweis. Nach Satz 2.27 ist H · M ein stetiges lokales Martingal. Ferner ist H · A
nach Bemerkung 2.3 von endlicher Variation mit (H · A)0 = 0.
Satz 2.32 (Linearität). Seien X und Y stetige Semimartingale und H und K lokal
beschränkte progressiv messbare Prozesse. Dann gilt
(H + K) · X = H · X + K · X
und H · (X + Y ) = H · X + H · Y.
Beweis. Wende Definition 2.15, Satz 2.28, Aufgabe 13 und Bemerkung 2.11 an.
Satz 2.33 (Assoziativität). Seien X ein stetiges Semimartingal und U, V progressiv
messbare lokal beschränkte Prozesse. Dann gilt
U · (V · X) = (U V ) · X
f.s.
Beweis. Sei X = M + A. Nach Satz 2.27, Bemerkung 2.3 und Bemerkung 2.11 gilt
U · (V · X) = U · (V · M + V · A) = U · (V · M ) + U · (V · A).
Nach Bemerkung 2.4 wissen wir bereits U · (V · A) = (U V ) · A. Die Assoziativität
bleibt also nur für Integrale bezüglich stetiger lokaler Martingale zu zeigen. Sei dazu
N ein stetiges lokales Martingal. Dann gilt nach Satz 2.29
[(U V )·M, N ] = (U V )·[M, N ] = U ·(V ·[M, N ]) = U ·[V ·M, N ] = [U ·(V ·M ), N ] f.s.
Aufgrund der f.s. Eindeutigkeit erhalten wir (U V ) · M = U · (V · M ) f.s.
Definition 2.16. Für zwei stetige Semimartingale X = M + A und Y = M 0 + A0
setzen wir [X, Y ]t = [M, M 0 ]t .
Aufgabe 23. Sei X ein stetiges (Ft )-Semimartingal und T eine Stoppzeit bezüglich
derselben Filtration. Dann ist (XT +t )t≥0 ein stetiges (FT +t )-Semimartingal.
Dass diese Definition gerechtfertigt ist, werden wir in der folgenden Proposition
sehen. Man erinnere sich dabei an die Notationen und Aussagen aus Satz 2.11.
Proposition 2.34. Seien X = M + A und Y = N + B stetige Semimartingale und
(∆n )n∈N eine Folge von Zerlegungen des Intervalls [0, t] mit |∆n | → 0. Dann gilt
n
Q∆
t (X, Y ) → [M, N ]t
in W.
Beweis. Wegen
∆n
∆n
∆n
n
Q∆
t (X, Y ) = Qt (M, N ) + Qt (A, N ) + Qt (X, B)
und Satz 2.11 genügt es zu zeigen, dass die letzten beiden Summanden stochastisch
gegen Null konvergieren. Für einen messbaren stetigen Prozess Z und einen stetigen
Prozess A von endlicher Variation V gilt jedoch
n
|Q∆
t (Z, A)|
≤
n
X
i=1
|Zti − Zti−1 ||Ati − Ati−1 | ≤ Vt sup |Zti − Zti−1 |.
1≤i≤n
Weil der Prozess Z stetig ist, konvergiert dies f.s. gegen Null.
40
2 STOCHASTISCHE INTEGRATION
Proposition 2.35 (Dominierte Konvergenz). Sei X ein stetiges Semimartingal und
U, V, V 1 , V 2 , . . . progressiv messbare lokal beschränkte Prozesse mit |V n | ≤ U und
V n → V f.s. Dann gilt
(V n · X − V · X)∗t → 0 in W.
∀t ≥ 0.
Beweis. Sei X = M + A und t ≥ 0. Mit dominierter Konvergenz für StieltjesIntegrale folgt
((V n − V ) · A)∗t → 0 f.s.
Durch Lokalisieren können wir Œ annehmen, dass U , M und [M ] beschränkt sind.
Mit der Doob-Ungleichung 2.8 erhalten wir also
k((V n − V ) · M )∗t k22 ≤ 4k((V n − V ) · M )t k22 ≤ 4k(V n − V ) · M k2
= 4kV n − V k2M = 4E((V n − V )2 · [M ])∞ .
Aufgabe 14 liefert ((V n − V )2 · [M ])∞ → 0 f.s. Man beachte dabei, dass [M ]∞
endlich ist, da [M ] als beschränkt angenommen wird. Nach dem Satz von der dominierten Konvergenz für Lebesgue-Integrale konvergiert also auch der Erwartungswert E((V n − V )2 · [M ])∞ gegen Null. Mit der Chebyshev-Ungleichung folgt, dass
((V n − V ) · M )∗t stochastisch gegen Null konvergiert.
Satz 2.36. Sei X ein stetiges Semimartingal, H ein stetiger adaptierter Prozess
und ∆n eine Folge von Zerlegungen 0 = tn0 < tn1 < · · · < tnm = t des Intervalls [0, t]
mit |∆n | → 0. Dann gilt
m
X
Htni−1 (Xtni − Xtni−1 ) → (H · X)t
in W.
i=1
Beweis. Nach Proposition 2.12 ist H progressiv messbar. Aufgrund der Stetigkeit
ist H zudem lokal beschränkt. Wir setzen Hsn = Htni−1 für s ∈ (tni−1 , tni ] und Hsn = Hs
für s > t. Da H stetig ist, konvergiert H n f.s. gegen H. Proposition 2.35 impliziert
also
m
X
Htni−1 (Xtni − Xtni−1 ) = (H n · X)t → (H · X)t .
i=1
Aufgabe 24. Sei h : [0, ∞) → R
R t eine stetige Abbildung und B die Brownsche
Bewegung. Zeigen Sie, dass durch 0 h(s) dBs = (h · B)t ein zentrierter Gaußprozess
R s∧t
mit Kovarianzfunktion Γ(s, t) = 0 h2 (u) du definiert wird.
Die Aussage von Satz 2.36 verwenden wir im Beweis des folgenden Theorems.
Theorem 2.37 (Partielle Integration). Für stetige Semimartingale X und Y gilt
XY = X0 Y0 + X · Y + Y · X + [X, Y ] f.s.
Beweis. Sei ∆n eine Folge von Zerlegungen 0 = tn0 < tn1 < · · · < tnm = t des Intervalls
[0, t] mit |∆n | → 0. Wir können schreiben
Xt Yt − X0 Y0 =
m
X
(Xtni − Xtni−1 )(Ytni − Ytni−1 )
i=1
+
m
X
i=1
Xtni−1 (Ytni − Ytni−1 ) +
m
X
i=1
Ytni−1 (Xtni − Xtni−1 ).
2.5 Das Itô-Integral bezüglich Semimartingalen
41
Mit Proposition 2.34 folgt
m
X
(Xtni − Xtni−1 )(Ytni − Ytni−1 ) → [X, Y ]t .
i=1
Nach Satz 2.36 konvergieren die beiden anderen Summen stochastisch gegen (X ·Y )t
bzw. (Y · X)t . Für eine geeignete Teilfolge konvergieren alle Summen sogar f.s.
Nun kommen wir zum Hauptresultat dieses Kapitels. Für eine differenzierbare Funktion f : Rd → R bezeichne f (i) die partielle Ableitung nach der i-ten Komponente
und f (i,j) die partielle Ableitung nach der i-ten und j-ten Komponente.
Theorem 2.38 (Itô-Formel). Ist X ein stetiges Semimartingal in Rd mit Komponenten X i und f eine zweimal stetig differenzierbare Funktion von Rd nach R, dann
gilt:
d
d
X
1 X (i,j)
(i)
i
f (X) · [X i , X j ] f.s.
f (X) = f (X0 ) +
f (X) · X +
2
i,j=1
i=1
Beweis. Wir zeigen die Behauptung nur für d = 1, d.h. wir beweisen
1
f (X) = f (X0 ) + f 0 (X) · X + f 00 (X) · [X] f.s. (∗)
2
Der allgemeine Fall ergibt sich analog. Durch Lokalisieren können wir außerdem
annehmen, dass |X| und [X] durch eine Konstante K beschränkt sind.
(∗) gilt für Polynome: Die Klasse C der Funktionen, für die (∗) gilt, ist ein linearer
Unterraum von C 2 (R), da Differentiation und Integration lineare Operationen sind.
Sie enthält die Funktionen f (x) = 1 und f (x) = x. Wenn wir zeigen können, dass
C abgeschlossen ist unter Multiplikation, dann gilt (∗) für alle Polynome. Gelte (∗)
also für f, g ∈ C. Dann sind F = f (X) und G = g(X) stetige Semimartingale. Mit
Theorem 2.37, Satz 2.33, Satz 2.29 und der Linearität des Integrals erhalten wir:
(f g)(X) − (f g)(X0 ) = F G − F0 G0 = F · G + G · F + [F, G]
1
1
=F · g 0 (X) · X + g 00 (X) · [X] + G · f 0 (X) · X + f 00 (X) · [X] + [F, G]
2
2
1
=(f g 0 + f 0 g)(X) · X + (f g 00 + gf 00 )(X) · [X] + [f 0 (X) · X, g 0 (X) · X]
2
1
1
=(f g)0 (X) · X + (f g 00 + f 00 g + 2f 0 g 0 )(X) · [X] = (f g)0 (X) · X + (f g)00 (X) · [X].
2
2
allgemein: Sei f ∈ C 2 (R) beliebig. Nach dem Approximationssatz von Weierstraß
existieren Polynome p1 , p2 , . . . mit
sup |pn (x) − f 00 (x)| → 0.
|x|≤K
Durch Integration finden wir Polynome fn mit
sup |fn(i) (x) − f (i) (x)| → 0, i = 0, 1, 2.
|x|≤K
Wegen |Xt | ≤ K für alle t ≥ 0 gilt also fn (Xt ) → f (Xt ) f.s. Schreiben wir X =
M + A, dann folgt mit der dominierten Konvergenz für Stieltjes-Integrale
1
1
(fn0 (X) · A + fn00 (X) · [X])t → (f 0 (X) · A + f 00 (X) · [X])t
2
2
f.s.
42
2 STOCHASTISCHE INTEGRATION
Ebenso gilt
((fn0 (X) − f 0 (X))2 · [X])t → 0 f.s.
Nach dem Beweis von Proposition 2.35 konvergiert dann auch ((fn0 (X)−f 0 (X))·X)t
stochastisch gegen 0, bei Wahl einer geeigneten Teilfolge also auch f.s. Einerseits
konvergiert also fn (Xt ) − fn (X0 ) f.s. gegen f (Xt ) − f (X0 ), andererseits gilt aber
1
fn (Xt ) − fn (X0 ) = (fn0 (X) · X)t + (fn00 (X) · [X])t
2
1
→ (f 0 (X) · X)t + (f 00 (X) · [X])t f.s.
2
Da alle auftretenden Terme stetig sind, gilt (∗) für jedes f ∈ C 2 (R).
Ein weiterer Integralbegriff ist der folgende:
Definition 2.17. Für zwei stetige Semimartingale X und Y ist das Fisk-StratonovichIntegral definiert durch
1
(X ◦ Y )t := (X · Y )t + [X, Y ]t , t ≥ 0.
2
Aufgabe 25. Seien U , V und X stetige Semimartingale. Dann ist das Fisk-StratonovichIntegral assoziativ, d.h. es gilt
U ◦ (V ◦ X) = (U V ) ◦ X
f.s.
Aufgabe 26. Zeigen Sie, dass für jedes stetige Semimartingal X = (X 1 , . . . , X d ) in
Rd und jede Funktion f ∈ C 3 (Rd ) f.s. gilt
f (X) = f (X0 ) +
d
X
f (i) (X) ◦ X i .
i=1
Dies entspricht eher der aus der Analysis bekannten Kettenregel als die Itô-Formel.
Beispiel 2.2. Sei B eine d-dimensionale Brownsche Bewegung mit Komponenten B i
und f : Rd → R zweimal stetig differenzierbar. Mit der Itô-Formel ergibt sich
d
X
d
1 X (i,j)
(f (B) · [B i , B j ])t
2
i=1
i,j=1
Z
d
X
1 t
(i)
i
∆f (Bs ) ds
= f (B0 ) +
(f (B) · B )t +
2 0
i=1
f (Bt ) = f (B0 ) +
(f (i) (B) · B i )t +
P
mit ∆f = ni=1 f (i,i) . Falls ∆f = 0, dann ist f (B) also ein lokales Martingal.
Beispiel 2.3. Sei X ein stetiges Semimartingal. Die Doleans-Exponentielle von X ist
E(X) = exp(X − 21 [X]). Die Ito-Formel angewendet auf f (x) = exp(x) liefert
1
1
X0
E(X) = e + E(X) · X − [X] + E(X) · [X]
2
2
= eX0 + E(X) · X.
Also ist E(X) die Lösung der stochastischen DGL
dY = Y dX
mit Y0 = eX0 .
Hier haben wir bereits die erste stochastische Differentialgleichung kennengelernt.
43
3
Stochastische Differentialgleichungen
Wir wollen uns nun mit stochastischen Differentialgleichungen (sDGL) der Form
dXt = µ(t, Xt )dt + σ(t, Xt )dBt
(3.1)
beschäftigen. Dabei vereinbaren wir
Definition 3.1. Sei (Bt )t∈[0,T ] eine Brownsche Bewegung mit Filtration (Ft )t∈[0,T ] ,
und µ, σ : [0, T ] × R → R messbar. Ein stetiger F-adaptierter Prozess (Xt )t∈[0,T ]
erfüllt die sDGL (3.1) mit Anfagswert X0 , wenn für alle t ∈ [0, T ] die Gleichung
Z t
Z t
Xt = X0 +
µ(s, Xs ) ds +
σ(s, Xs ) dBs
0
0
P -f.s. gilt.
Bemerkung 3.1. Ersetzt man in der Definition [0, T ] durch [0, ∞), so erhält man
analog die Definition einer Lösung der sDGL (3.1) auf [0, ∞).
3.1
Lineare Differentialgleichungen
In diesem Abschnitt untersuchen wir stochastische Differentialgleichungen der Form
dXt = (αt + µt Xt )dt + (βt + σt Xt )dBt .
Wir beginnen mit einem relativ einfachen aber wichtigen Beispiel.
Beispiel 3.1 (geometrische Brownsche Bewegung). Gegeben sei die sDGL
dXt = µXt dt + σXt dBt
mit X0 = x0 > 0 (gBB)
mit den Konstanten µ ∈ R und σ > 0. Nach Definition löst ein Prozess X die sDGL
(gBB), wenn für alle t ≥ 0 die zugehörige integrale Gleichung
Z t
Z t
Xt = x0 + µ
Xs ds + σ
Xs dBs
0
0
P -f.s. gilt. Wir suchen nun eine Lösung der Form Xt = f (t, Bt ). Wenden wir die ItôFormel darauf an und beachten, dass der Prozess (t, ω) 7→ t von endlicher Variation
ist, so erhalten wir
Z t
Z t
Z
1 t (2,2)
(2)
(1)
f (s, Bs ) ds +
f (s, Bs ) dBs +
f
(s, Bs ) d[B]s
f (t, Bt ) = f (0, B0 ) +
2 0
0
0
Z t
Z t
1 (2,2)
(1)
= f (0, B0 ) +
f (s, Bs ) + f
(s, Bs ) ds +
f (2) (s, Bs ) dBs
2
0
0
oder in differentieller Form
1 (2,2)
(1)
(t, Bt ) dt + f (2) (t, Bt )dBt .
dXt = f (t, Bt ) + f
2
Ein Vergleich mit der ursprünglichen DGL zeigt, dass folgende Gleichungen erfüllt
sein müssen, damit Xt = f (t, Bt ) eine Lösung des Anfangswertproblems (gBB) ist:
1
µf (t, x) = f (1) (t, x) + f (2,2) (t, x) und σf (t, x) = f (2) (t, x).
2
44
3 STOCHASTISCHE DIFFERENTIALGLEICHUNGEN
Eine Lösung der zweiten Gleichung ist f (t, x) = exp(σx + g(t)) mit einer beliebigen
Funktion g. Setzen wir diesen Ausdruck in die erste Gleichung ein, so erkennen wir,
dass die Funktion g die Ableitung g 0 (t) = µ − 12 σ 2 besitzen muss. Durch Integration
ergibt sich g(t) = (µ − 21 σ 2 )t + c. Die Anfangsbedingung liefert
1 2
x0 = X0 = f (0, B0 ) = exp σB0 + µ − σ · 0 + c = ec ,
2
also ist Xt = x0 exp µ− 21 σ 2 t+σBt eine Lösung des Anfangswertproblems (gBB).
Die Lösung ist so wichtig, dass sie sogar einen eigenen Namen bekommen hat. Man
1 2
nennt den Prozess X mit Xt = x0 e(µ− 2 σ )t+σBt eine geometrische Brownsche Bewegung.
Aufgabe 27. Zeigen Sie mit Hilfe der Itô-Formel: a) Xt = sin(Bt ) genügt für alle t < T (ω) = inf s > 0 : Bs ∈
/ − π2 , π2
der
stochastischen DGL
p
1
dXt = − Xt dt + 1 − Xt2 dBt .
2
b) Xt := arctan(Bt ) genügt für alle t ≥ 0 der stochastischen DGL
dXt = − sin(Xt ) cos3 (Xt )dt + cos2 (Xt )dBt .
Bemerkung 3.2. Man beachte folgenden gravierenden Unterschied zu gewöhnlichen
DGL: Hat man eine explizite Lösung einer gewöhnlichen DGL gefunden, so kennt
man die Lösung im Wesentlichen vollständig (man kann sie etwa numerisch berechnen). Kennt man eine „explizite“ Lösung einer stochastischen DGL, so hat man
den Prozess aber lediglich durch andere bekannte Prozesse ausgedrückt. Über die
Pfadeigenschaften (etwa Beschränktheit, Verhalten für t → ∞) oder stochastische
Eigenschaften (etwa die Verteilung der Lösung Xt ) kann man i.a. noch keine Aussagen machen.
Wir wollen das letzte Beispiel etwas verallgemeinern. Dazu betrachten wir die homogene lineare sDGL
dXt = µt Xt dt + σt Xt dBt .
(3.2)
Diesmal seien µ und σ Prozesse, so dass die Abbildungen t 7→ µt (ω) und t 7→ σt2 (ω)
für jedes ω ∈ Ω bezüglich des Lebesguemaßes auf [0, ∞) integrierbar sind.
Proposition 3.1. Sei (Bt , Ft )t≥0 eine Brownsche Bewegung mit vollständiger Filtration, X0 sei F0 -messbar, für alle T > 0 und alle ω ∈ Ω seien die Einschränkungen der Abbildungen t 7→ µt (ω) und t 7→ σt2 (ω) auf [0, T ] integrierbar bezüglich des
Lebesgue-Maßes auf [0, T ] und σ sei progressiv messbar. Dann definiert
Z t Z t
1 2
σs dBs
Xt = X0 exp
µs − σs ds +
2
0
0
einen stetigen Prozess, der (3.2) mit dem Anfangswert X0 erfüllt. Ist X̃ eine weitere
Lösung von (3.2) mit X̃0 = X0 , so gilt P (Xt = X̃t ∀t ≥ 0) = 1.
Beweis.
Exponent von X, also Xt = X0 eYt . EinfacheRRechnungen zeigen,
R t Sei Yt1 der
0
dass 0 (µs − 2 σs2 )ds ein Prozess von endlicher Variation mit 0 (µs − 21 σs2 )ds = 0
ist. Ferner ist σ · B nach Satz 2.27 ein f.s. stetiges lokales Martingal, da B nach
3.1 Lineare Differentialgleichungen
45
Lemma 1.14 ein Martingal ist und σ aufgrund der Definition in Ploc (B) liegt. Daher
ist Y ein f.s. stetiges Semimartingal. Wegen Korollar 2.30 gilt also
Z t
2
σs2 ds.
[Y ]t = [σ · B]t = (σ · [B])t =
0
Mit der Itô-Formel, angewandt auf f (Yt ) = exp(Yt ), folgt
1 1
1
dXt = X0 eYt dYt + eYt d[Y ]t = X0 eYt µt − σt2 dt + σt dBt + σt2 dt
2
2
2
= µt Xt dt + σt Xt dBt .
X löst also tatsächlich (3.2). Sei Zt := e−Yt . Der Prozess Z erfüllt
1
1 dZt = e−Yt −µt + σt2 dt − σt dBt + e−Yt σt2 dt
2
2
2
= −Zt (µt dt + σt dBt ) + Zt σt dt.
Theorem 2.37, Korollar 2.30 und Satz 2.33 liefern
X̃t Zt = X̃0 Z0 + (Z · X̃)t + (X̃ · Z)t + [X̃, Z]t
Z t
Zs µs X̃s ds + ((Zσ X̃) · B)t
= X̃0 Z0 +
0
Z t
X̃s Zs (σs2 − µs )ds − ((X̃Zσ) · B)t + [(σ X̃) · B, (−σZ) · B]t
+
0
Z t
X̃s Zs σs2 ds − (σ 2 X̃Z) · [B] t
= X̃0 Z0 +
Z0 t
Z t
2
X̃s Zs σs ds −
σs2 X̃s Zs ds = X̃0 Z0 .
= X̃0 Z0 +
0
0
Daher gilt für alle t die Gleichheit X̃t Zt = X̃0 Z0 = X0 , d.h. X̃t = X0 eYt = Xt . Mit
der Stetigkeit der Pfade müssen beide Prozesse schon f.s. übereinstimmen.
Beispiel 3.2 (Ornstein-Uhlenbeck Prozess). Wir betrachten die sDGL
dXt = −αXt dt + σdBt
mit X0 = x0
(O-U)
mit positiven Konstanten α und σ. Der sog. Driftterm −αXt dt ist negativ, wenn
Xt positiv ist und umgekehrt. Anschaulich wird der Prozess, sobald er wegdriften
will, in Richtung Null zurückgezogen. Im Gegensatz zur geometrischen Brownschen
Bewegung, die das Nullniveau nie kreuzt, erwarten wir, dass die Lösung des Anfangswertproblems (O-U) oft ihr Vorzeichen wechselt.
Dieses Modell wurde bekannt durch die Physiker L. S. Ornstein und G. E. Uhlenbeck, die 1931 das Verhalten von Gasen untersuchten. Allerdings mussten sie es
etwas anders formulieren, da zu diesem Zeitpunkt die Theorie der stochastischen
Differentielgleichungen noch nicht entwickelt war. Die Lösung, die wir nun berechnen wollen, wurde zu ihren Ehren Ornstein-Uhlenbeck Prozess genannt.
Ein Ansatz f (t, Bt ) führt diesmal nicht zum Ziel. Stattdessen suchen wir eine Lösung
der Form
Z t
Xt = a(t) x0 +
b(s) dBs ,
0
46
3 STOCHASTISCHE DIFFERENTIALGLEICHUNGEN
wobei a und b differenzierbare Funktionen seien. Wenden wir Theorem 2.37 und die
Assoziativität des Itô-Integrals an, so erhalten wir
Z t
Z t
(b · B)s d(a(s)) +
a(s) d(b · B)s + [a, b · B]t
Xt = a(t)x0 +
0
0
Z t
Z t
Z t
0
0
=
a (s)x0 ds +
a (s)(b · B)s ds +
a(s)b(s) dBs ,
0
0
0
oder in differentieller Form
Z t
b(s) dBs dt + a(t)b(t)dBt .
dXt = a (t) x0 +
0
0
Wenn wir annehmen, dass a(0) = 1 und a(t) > 0 für alle t ≥ 0, dann ist X eine
Lösung der DGL
a0 (t)
Xt dt + a(t)b(t)dBt
a(t)
dXt =
mit X0 = x0 .
0
(t)
= −α und a(t)b(t) = σ. Die
X löst also die ursprüngliche sDGL (O-U), wenn aa(t)
eindeutige Lösung der ersten Gleichung mit a(0) = 1 ist a(t) = exp(−αt). Aus der
zweiten Gleichung folgt dann b(t) = σ exp(αt). Eine Lösung der Gleichung (O-U)
ist also gegeben durch
Z t
−αt
e−α(t−s) dBs .
Xt = x0 e
+σ
0
Nach Aufgabe 24 ist Xt ein Gauß-Prozess mit Mittelwert x0 e−αt und Kovarianzfunktion
Z s∧t
−αs
−αt
2
Γ(s, t) = E[(Xs − x0 e )(Xt − x0 e )] = σ
e−2α(t−s) ds
0
σ 2 −2αt 2α(s∧t)
e
(e
− 1).
=
2α
Hätten wir anstelle des Anfangswertes x0 eine von der Brownschen Bewegung unabhängige N0, σ2 -verteilte Zufallsvariable X0 als Anfangswert vorausgesetzt, so wäre
2α
die Lösung X ein zentrierter Gauß-Prozess mit Kovarianzfunktion
diese Weise erhalten wir also einen Prozess wie in Beispiel 1.2c).
σ 2 −α|t−s|
e
.
2α
Auf
Proposition 3.2. Unter den Voraussetzungen von Proposition 3.1 und mit Prozessen α und β, so dass für alle T > 0 die Einschränkungen von t 7→ αt (ω) und
t 7→ βt2 (ω) auf [0, T ] bezüglich des Lebesgue-Maßes integrierbar sind, ist eine Lösung
der sDGL
dXt = (αt + µt Xt )dt + (βt + σt Xt )dBt
(3.3)
gegeben durch
Xt =
Z
X0 +
t
(Xs0 )−1 (αs
Z
− βs σs )ds +
0
t
(Xs0 )−1 βs dBs
Xt0 ,
0
wobei Xt0 die Lösung der homogenen Gleichung (3.2) zum Startwert 1 ist, d.h.
Rt
1 2
0 (µs − 2 σs )ds+ 0
Rt
Xt0 := e
σs dBs
.
Ist X̃t eine weitere Lösung der gleichen sDGL, so stimmen die Prozesse f.s. überein.
3.2 Existenz und Eindeutigkeit
47
Beweis. Mit Hilfe von Theorem 2.37 und der Itô-Formel verifiziert man (etwas länglich), dass Xt die Gleichung (3.3) mit Anfangswert X0 löst. Sei X̃t eine weitere
Lösung von (3.3) zum selben Anfangswert X0 . Dann erfüllt der in 0 startende Prozess X̄ = X̃ − X die sDGL dX̄t = µt X̄t dt + σt X̄t dBt . Nun erfüllt auch X̄t = 0 dieses
Anfangswertproblem, und Proposition 3.1 besagt, dass P (X̄t = 0 ∀t ≥ 0) = 1.
Aufgabe 28. Lösen Sie folgende stochastische Differentialgleichungen:
2
a) dXt = tXt dt + et /2 dBt mit X0 = 1,
1
1
Xt dt + 1+t
dBt mit X0 = 0.
b) dXt = − 1+t
Beispiel 3.3 (Brownsche Brücke). Nach Proposition 3.2 und Proposition 3.1 hat das
Anfangswertproblem
Xt
dt + dBt
1−t
dXt = −
für 0 ≤ t < 1 mit X0 = 0
die Lösung
Xt =
Xt0
t
Z
(Xs0 )−1 dBs
Rt
mit Xt0 = e
0
1
− 1−s
ds
= 1 − t,
0
Rt 1
also Xt = (1 − t) 0 1−s
dBs . Aus Aufgabe 24 wissen wir, dass X ein zentrierter
Gauß-Prozess mit Kovarianzfunktion
Z s∧t
1
1
(1 − s)(1 − t)
du = (1 − s)(1 − t)
− 1 = s ∧ t − st
(1 − u)2
1−s∧t
0
ist. Man kann ferner zeigen, dass X f.s. stetige Pfade besitzt, der Prozess also nach
Abschnitt 1.2 eine Brownsche Brücke ist. Bekanntlich ist auch der Prozess Yt =
Bt − tB1 eine Brownsche Brücke. Beide Prozesse sind jedoch nicht gleich, denn in
X gehen alle Werte von B bis t ein, in Y nur Bt .
3.2
Existenz und Eindeutigkeit
Nach den einführenden Beispielen wollen wir uns nun von den linearen stochastischen Differentialgleichungen lösen und Aussagen zur Existenz und Eindeutigkeit
von Lösungen der allgemeineren sDGL (3.1), d.h. der DGL
dXt = µ(t, Xt )dt + σ(t, Xt )dBt ,
formulieren und beweisen. Dass wir für die Eindeutigkeit einer Lösung mehr als
Stetigkeit der Funktionen µ und σ benötigen, verdeutlicht das folgende Beispiel.
Beispiel 3.4. Die Itô-Formel liefert für X = B und f (x) = x3
Z t
Z t
3
2
2
Bt = 3(B · B)t + 3(B · [B])t = 3
Bs dBs + 3
Bs ds
0
0
Z t
Z t
2/3
= 3
Xs dBs + 3
Xs1/3 ds,
0
0
oder in differentieller Form
1/3
dXt = 3Xt
2/3
dt + 3Xt
dBt .
48
3 STOCHASTISCHE DIFFERENTIALGLEICHUNGEN
Der Prozess X = B 3 löst also das Anfagswertproblem
1/3
2/3
dXt = 3Xt dt + 3Xt dBt ,
X0 = 0.
Obwohl die Funktionen µ(t, x) = 3x1/3 und σ(t, x) = 3x2/3 offensichtlich stetig sind,
ist diese Lösung nicht eindeutig, da auch X = 0 das Anfangsproblem löst.
Aufgabe 29. Betrachten Sie die stochastische DGL
dXt = f (t, Xt )dt + c(t)Xt dBt ,
X0 = x,
wobei f : R × R → R und c : R → R stetige Funktionen seien.
a) Der „integrierende Faktor“ sei definiert durch
Z t
Z
1 t 2
c(s) dBs +
c (s) ds .
Ft = Ft (ω) = exp −
2 0
0
Zeigen Sie, dass die DGL hiermit geschrieben werden kann als
d(Ft Xt ) = Ft f (t, Xt )dt. (+)
b) Definiere nun Yt = Ft Xt . Folgern Sie, dass Gleichung (+) die Form
dYt (ω)
= Ft (ω) · f (t, Ft−1 (ω)Yt (ω)),
dt
Y0 = x,
annimmt. Für jedes ω ∈ Ω ist dies eine deterministische DGL in der Funktion
t 7→ Yt (ω). In der Gleichung können wir ω also als Parameter auffassen.
c) Wenden Sie diese Methode an, um die stochastische DGL
dXt =
1
dt + αXt dBt ,
Xt
X0 = x > 0,
zu lösen. Dabei sei α eine Konstante.
Zunächst befassen wir uns mit der etwas leichter nachzuweisenden Eindeutigkeit von
Lösungen.
Definition 3.2. Eine Funktion f : [0, T ] × R → R heißt räumlich Lipschitz-stetig,
wenn es eine positive Konstante L gibt, so dass gilt
|f (t, x) − f (t, y)| ≤ L|x − y| ∀(t, x, y) ∈ [0, T ] × R2 .
Offensichtlich sind µ und σ aus dem Beispiel nicht räumlich Lipschitz-stetig.
Satz 3.3 (Eindeutigkeit von Lösungen). Seien µ, σ : [0, T ]×R → R messbare räumlich Lipschitz-stetige Funktionen, so dass (ω, t) 7→ σ(t, Xt (ω)) progressiv messbar ist.
Seien weiter X und Y stetige, adaptierte L2 -beschränkte Lösungen von (3.1). Dann
gilt P (Xt = Yt ∀t ∈ [0, T ]) = 1.
Beweis. Aufgrund der sDGL (3.1) lässt sich Xt − Yt schreiben als
Z t
Z t
Xt − Yt =
(µ(s, Xs ) − µ(s, Ys )) ds +
(σ(s, Xs ) − σ(s, Ys )) dBs .
0
0
3.2 Existenz und Eindeutigkeit
49
Mit (u + v)2 ≤ 2u2 + 2v 2 können wir abschätzen
2 t
Z
2
E[(Xt − Yt ) ] ≤ 2E
(µ(s, Xs ) − µ(s, Ys )) ds
Z t
2 +2E
(σ(s, Xs ) − σ(s, Ys )) dBs
.
0
0
Mittels der Cauchy-Schwarz-Ungleichung, der Lipschitz-Stetigkeit von µ und dem
Satz von Tonelli ergibt sich
Z t
2 Z t
2
2E
(µ(s, Xs ) − µ(s, Ys )) ds
≤ 2tE
µ(s, Xs ) − µ(s, Ys ) ds
0
0
Z t
2
E[(Xs − Ys )2 ] ds.
≤ 2T L
0
Die Abbildung S : (t, ω) 7→ |σ(t, Xt (ω)) − σ(t, Yt (ω))| ist weiterhin progressiv
messbar. Ferner folgt aus der Lipschitz-Stetigkeit von σ und der L2 -Beschränktheit
von X und Y
Z T
Z T
2
2
2
E[(S · [B])T ] = E
(σ(s, Xs ) − σ(s, Ys )) ds ≤ L
E[(Xs − Ys )2 ] ds < ∞.
0
0
Daher erhalten wir mit der Itô-Isometrie und der Lipschitz-Bedingung an σ
Z t
2 Z t
2
(σ(s, Xs ) − σ(s, Ys )) dBs
2E
= 2E
σ(s, Xs ) − σ(s, Ys ) ds
0
0
Z t
2
E[(Xs − Ys )2 ] ds.
≤ 2L
0
Mit C := 4L2 max{T, 1} gilt also
Z
2
E[(Xt − Yt ) ] ≤ C
t
E[(Xs − Ys )2 ] ds < ∞.
0
Für g(t) = E[(Xt − Yt )2 ] haben wir also die Ungleichung
Z t
0 ≤ g(t) ≤ C
g(s) ds ∀t ∈ [0, T ] (∗)
0
hergeleitet. Da X und Y L2 -beschränkt sind, ist M := sup0≤t≤T g(t) endlich, und
(∗) liefert g(t) ≤ M Ct. Wenden wir die Ungleichung (∗) n-mal hintereinander an,
so erhalten wir g(t) ≤ M C n tn /n!. Da n! schneller wächst als C n tn , folgt durch
Grenzübergang 0 = g(t) = E[(Xt − Yt )2 ] für alle t ∈ [0, T ]. Für jedes t ∈ [0, T ]
stimmen also Xt und Yt f.s. überein. Daher gilt
P (Xt = Yt für alle rationalen t ∈ [0, T ]) = 1.
Da X und Y stetig sind, folgt daraus schließlich P (Xt = Yt ∀t ∈ [0, T ]) = 1.
Bemerkung 3.3. An den Startwert X0 haben wir in Satz 3.3 keine Integrierbarkeitsbedingung gestellt.
50
3 STOCHASTISCHE DIFFERENTIALGLEICHUNGEN
Nun kommen wir zur Frage der Existenz von Lösungen auf [0, T ]. Folgendes Beispiel zeigt, dass wir hierbei zusätzliche Bedingungen an die Koeffizienten µ und σ
benötigen.
Beispiel 3.5. Für jedes β > 0 hat das Anfangswertproblem
dXt =
1 1+β
X
dt,
β t
X0 = 1,
auf jedem Intervall [0, T ] mit 0 < T < 1 die eindeutige Lösung Xt = (1 − t)−1/β .
Wegen Xt → ∞ für t → 1 kann jedoch auf [0, 1] keine Lösung existieren. Die Lösung
läuft in endlicher Zeit nach ∞, weil die Zuwächse dXt aufgrund des nichtlinearen
Terms Xt1+β zu groß werden.
Das gerade präsentierte Problem tritt nicht auf, wenn die Koeffizienten µ, σ höchstens linear wachsen.
Definition 3.3. Eine Funktion f : [0, T ] × R → R heißt linear beschränkt, wenn es
ein C > 0 gibt mit
|f (t, x)| ≤ C(1 + |x|) ∀(t, x) ∈ [0, T ] × R.
Bemerkung 3.4. Quadrieren wir diese Abschätzung, so folgt mit (u + v)2 ≤ 2u2 +
2v 2 sofort |f (t, x)|2 ≤ 2C 2 (1 + x2 ) für alle (t, x) ∈ [0, T ] × R. Wählen wir K :=
max{C, 2C 2 }, so gilt
|f (t, x)| ≤ K(1 + |x|) und |f (t, x)|2 ≤ K(1 + x2 ).
Aufgabe 30. Seien f, g : [0, T ] → R Lebesgue-integrierbare Funktionen mit der
Eigenschaft
Z t
f (s) ds, ∀t ∈ [0, T ],
f (t) ≤ g(t) + c
0
für eine geeignete Konstante c > 0. Dann gilt
Z t
f (t) ≤ g(t) + c
ec(t−s) g(s) ds,
∀t ∈ [0, T ].
0
Satz 3.4 (Existenz von Lösungen). Seien µ, σ : [0, T ] × R → R messbare, räumlich
Lipschitz-stetige linear beschränkte Funktionen, so dass (ω, t) 7→ σ(t, Xt (ω)) progressiv messbar ist, und X0 eine F0 -messbare Zufallsvariable aus L2 (P ). Dann besitzt
die sDGL (3.1) eine f.s. stetige, adaptierte L2 -beschränkte Lösung X.
Beweis. Wir machen uns eine Idee aus der Theorie der gewöhnlichen Differential(0)
gleichungen zunutze, nämlich die Picard-Iteration. Man definiert Xt := X0 und
Z t
Z t
(n+1)
(n)
Xt
:= X0 +
µ(s, Xs ) ds +
σ(s, Xs(n) ) dBs
0
0
für n ∈ N0 .
R T
(n)
(n)
1. Schritt: Beh.: Wenn Xt L2 -beschränkt ist, dann gilt E 0 |σ(t, Xt )|2 d[B]t <
(n)
(n+1)
∞ und µ(t, Xt ) ∈ L2 ([0, T ] × Ω), und Xt
ist L2 -beschränkt.
(n) 2
Dazu setzen wir c := supt∈[0,T ] E(|Xt | ) < ∞. Da σ linear beschränkt ist, folgt
Z T
(n) 2
E
|σ(s, Xs )| ds ≤ T K(1 + c).
0
3.2 Existenz und Eindeutigkeit
51
Die Itô-Isometrie liefert also
Z t
2 Z t
(n)
(n) 2
E
σ(s, Xs ) dBs
=E
|σ(s, Xs )| ds ≤ T K(1 + c).
0
0
Außerdem ergibt sich mit der linearen Beschränktheit von µ und der Cauchy-SchwarzUngleichung auf analoge Weise
t
Z
µ(s, Xs(n) ) ds
E
2 ≤ T K(1 + c).
0
Beide Integrale in der Iteration sind also wohldefiniert und L2 -beschränkt auf [0, T ].
2. Schritt: Wir zeigen, dass es eine Konstante C gibt, so dass gilt
Z t
h
i
(n+1)
(n) 2
E[(Xs(n) − Xs(n−1) )2 ] ds.
E sup (Xs
− Xs ) ≤ C
0≤s≤t
0
(n+1)
Wir können die Differenz Xt
(n)
− Xt
als Summe der beiden Terme
t
Z
(µ(s, Xs(n) ) − µ(s, Xs(n−1) )) ds
Dt :=
0
und
Z
Mt :=
t
(σ(s, Xs(n) ) − σ(s, Xs(n−1) )) dBs
0
(n)
schreiben. Der Prozess M ist ein Martingal, da die Abbildung S : s 7→ σ(s, Xs ) −
(n−1)
σ(s, Xs
) progressiv messbar ist mit S ∈ P2 (B). Es gilt
sup |Xs(n+1) − Xs(n) |2 ≤ 2 sup Ms2 + 2 sup Ds2 ,
0≤s≤t
0≤s≤t
0≤s≤t
so dass wir die zwei Terme separat behandeln können. Mit der Cauchy-SchwarzUngleichung folgt
Z t
2
|µ(s, Xs(n) ) − µ(s, Xs(n−1) )|2 ds.
sup Ds ≤ t
0≤s≤t
0
Die Doob-Ungleichung 2.8 und die Itô-Isometrie liefern
Z t
i
h
(n−1) 2
2
2
(n)
|σ(s, Xs ) − σ(s, Xs
)| ds .
E sup Ms ≤ 4E[Mt ] = 4E
0≤s≤t
0
Wenden wir schließlich die Lipschitz-Bedingungen an, so erhalten wir
Z t
h
i
(n−1) 2
(n) 2
(n)
(n+1)
)| ds
E sup |Xs
− Xs |
≤ 8E
|σ(s, Xs ) − σ(s, Xs
0≤s≤t
0
Z t
(n)
(n−1) 2
+2tE
|µ(s, Xs ) − µ(s, Xs
)| ds
0
Z t
≤ C
E[(Xs(n) − Xs(n−1) )2 ] ds
0
52
3 STOCHASTISCHE DIFFERENTIALGLEICHUNGEN
mit C := 8L2 (T + 1).
3. Schritt: z.z.: Die Prozesse X (n) konvergieren f.s. gleichmäßig gegen einen stetigen
L2 -beschränkten
Prozess X.
(n+1)
(n) Sei gn (t) := E sup0≤s≤t |Xs
− Xs |2 . Dann gilt nach Schritt 2
t
Z
gn (t) ≤ C
∀n ≥ 1. (+)
gn−1 (s) ds,
0
Aufgrund der linearen Beschränktheit existiert eine Konstante M , so dass g0 (t) ≤ M
für alle t ∈ [0, T ]. Mit (+) folgt g1 (t) ≤ M Ct, also iterativ
0 ≤ gn (t) ≤
M C n tn
.
n!
Daraus und aus der Chebyshev-Ungleichung ergibt sich
P
sup
0≤s≤T
|Xs(n+1)
−
Xs(n) |
−n
≥2
≤
M C n T n 22n
.
n!
Das erste Borel-Cantelli-Lemma sagt uns nun, dass es eine Nullmenge N gibt, so
(n)
dass für alle ω ∈ N c die stetigen Funktionen t 7→ Xt (ω) eine Cauchyfolge bezüglich
der Supremumsnorm auf C[0, T ] bilden. Daher gibt es für alle ω ∈ N c eine stetige
(n)
Funktion t 7→ Xt (ω), so dass Xt (ω) auf [0, T ] gleichmäßig gegen Xt (ω) konvergiert.
Zudem gilt nach Definition der gn
(n+1)
kXt
(n)
− Xt k2 ≤ gn (T )1/2
∀t ∈ [0, T ].
(n)
Da gn (T )1/2 summierbar ist, ist (Xt )n∈N0 für alle t ∈ [0, T ] eine Cauchyfolge in
(n)
L2 (P ). Folglich konvergiert Xt für alle t ∈ [0, T ] auch in L2 (P ) gegen Xt . Wegen
kXt k2 ≤ kX0 k2 +
∞
X
gn (T )1/2
∀t ∈ [0, T ]
n=0
ist Xt überdies L2 -beschränkt.
4. Schritt: z.z.: X löst die sDGL (3.1).
R T (n+1)
(n)
Aus der Definition der gn folgt E 0 |Xs
− Xs |2 ds ≤ T gn (T ). Die rechte
Seite ist summierbar, daher ist die Folge (X (n) ) eine Cauchyfolge in L2 (λ ⊗ P ). Da
L2 (λ ⊗ P ) vollständig ist, liegt auch X in L2 (λ ⊗ P ) und X (n) → X in L2 (λ ⊗ P ).
Wegen
Z T
Z T
(n)
2
2
(n)
2
E
|h(s, Xs ) − h(s, Xs )| ds ≤ L E
|Xs − Xs | ds → 0
0
0
für h ∈ {µ, σ} gilt
Z t
Z t
(n)
σ(s, Xs ) dBs →
σ(s, Xs ) dBs
0
in L2 (P ) für alle t ∈ [0, T ]
0
und
Z
0
t
µ(s, Xs(n) ) ds
Z
→
t
µ(s, Xs ) ds in L2 (P ) für alle t ∈ [0, T ].
0
3.2 Existenz und Eindeutigkeit
53
Nach der Stochastik I gibt es eine Teilfolge (nk )k∈N , so dass für alle t ∈ [0, T ] ∩ Q
Z t
Z t
Z t
Z t
(n)
(n)
µ(s, Xs ) ds +
σ(s, Xs ) dBs →
µ(s, Xs ) ds +
σ(s, Xs ) dBs f.s.
0
0
0
0
Bilden wir auf beiden Seiten der Definition der X (n) den Limes entlang dieser Teilfolge, so ergibt sich
Z t
Z t
Xt = X0 +
µ(s, Xs ) ds +
σ(s, Xs ) dBs für alle t ∈ [0, T ] ∩ Q f.s.
0
0
Da beide Seiten f.s. stetig sind, gilt die Gleichung f.s. für alle t ∈ [0, T ].
Aufgabe 31. Zeigen Sie, dass die sDGL
dXt = ln(1 + Xt2 )dt + 1{Xt >0} Xt dBt ,
X0 = a ∈ R,
eine eindeutige Lösung Xt besitzt.
Aufgabe 32. Für alle n ∈ N0 seien µn , σn : [0, T ] × R → R messbare, linear
beschränkte Lipschitz-stetige Funktionen mit denselben Konstanten L und K aus
(n)
(n)
(0)
Definition 3.2 und Bemerkung 3.4. Seien X0 ∈ L2 (P ) so, dass X0 → X0 in L2 .
Weiter gelte für alle (t, x) ∈ [0, T ] × R
lim µn (t, x) = µ0 (t, x) und
n→∞
(n)
Bezeichnet dann Xt
lim σn (t, x) = σ0 (t, x).
n→∞
für jedes n ∈ N0 die L2 -beschränkte Lösung der DGL
(n)
dXt
(n)
(n)
= µn (t, Xt )dt + σn (t, Xt )dBt ,
so gilt
lim
(n)
sup E[(Xt
n→∞ t∈[0,T ]
(0)
− Xt )2 ] = 0.
Bemerkung 3.5. Beide Ergebnisse übertragen sich sinngemäß auf den mehrdimensionalen Fall, in dem
~ t = ~µ(t, X
~ t )dt + σ(t, X
~ t )dB
~ t mit Startwert X
~0
dX
~ t ) = (µ1 (t, X
~ t ), . . . , µn (t, X
~ t ))> , dB
~ t = (dB 1 , . . . , dB m )>
zu lösen ist. Dabei ist ~µ(t, X
t
t
~ t ) = (σi,j (t, X
~ t )) i=1,...,n .
und σ(t, X
j=1,...,m
Beispiel 3.6 (Brownsche Bewegung auf dem Kreis). Sei Xt = cos(Bt ) und Yt =
sin(Bt ), dann wird der zweidimensionale Prozess ((Xt , Yt ))t≥0 als Brownsche Bewegung auf dem Kreis bezeichnet. Das zugehörige System von stochastischen Differentialgleichungen ist gegeben durch
1
1
dXt = − sin(Bt )dBt − cos(Bt )dt = −Yt dBt − Xt dt
2
2
und
1
1
dYt = cos(Bt )dBt − sin(Bt )dt = Xt dBt − Yt dt,
2
2
oder in Vektorschreibweise
1
1 Xt
1 Xt
dXt
−Yt
−Yt 0
dBt
1
=−
dt +
dBt = −
dt +
.
dYt
Xt
Xt 0
dBt2
2 Yt
2 Yt
Wir sehen, dass die zweite Brownsche Bewegung hier keine Rolle spielt. Dies ist
vernünftig, weil die Brownsche Bewegung auf dem Kreis in Wirklichkeit ein eindimensionaler Prozess ist, der nur zufällig im R2 verläuft.
54
3 STOCHASTISCHE DIFFERENTIALGLEICHUNGEN
3.3
Schwache Lösungen und Martingalproblem
Im letzten Abschnitt haben wir (starke) Lösungen der sDGL (3.1) kennen gelernt.
Hier wollen wir nun versuchen, den Lösungsbegriff ein wenig abzuschwächen.
Definition 3.4 (Schwache Lösungen einer sDGL). Eine schwache Lösung der sDGL
(3.1) mit Startverteilung ν ist ein Tripel
L = (X, B), (Ω, F, P ), (Ft )t≥0 ,
wobei gilt:
• (Ω, F, P ) ist ein W-Raum,
• (Ft )t≥0 ist eine rechtsstetige und vollständige Filtration auf (Ω, F, P ),
• B ist eine Brownsche Bewegung auf (Ω, F, P ) und bzgl. (Ft )t≥0 ein Martingal,
• X ist stetig und adaptiert (also progressiv messbar),
• P X0 = ν
• sowie
Z
t
Z
σ(s, Xs ) dBs
µ(s, Xs ) ds +
Xt = X0 +
0
t
P -f.s.
0
Eine schwache Lösung L heißt (schwach) eindeutig, falls für jede weitere Lösung L0
0
mit Startverteilung ν gilt: (P 0 )X = P X .
Aufgabe 33. Sei B eine Brownsche Bewegung. Zeigen Sie, dass X := B 2 eine
schwache Lösung der stochastischen DGL
p
dXt = dt + 2 |Xt |dB̃t
ist, wobei B̃ eine weitere Brownsche Bewegung bezeichne.
Hinweis: Möglicherweise ist folgende Aussage hilfreich:
Sei
dYt (ω) = u(t, ω)dt + v(t, ω)dBt (ω).
Dann ist Y genau dann eine Brownsche Bewegung, wenn
E(u(t, .)|Nt ) = 0 und vv > = I (Einheitsmatrix)
für fast alle (t, ω). Dabei sei Nt die von Ys , s ≤ t, erzeugte σ-Algebra.
Bisher haben wir einen W-Raum und eine Brownsche Bewegung fest vorgegeben und
dazu eine Lösung der sDGL berechnet. Im Gegensatz dazu werden nun der W-Raum
und die Brownsche Bewegung beim Lösen erst konstruiert. Zur Unterscheidung von
den schwachen Lösungen nennen wir ab jetzt die im letzten Abschnitt betrachteten
Lösungen starke Lösungen.
Bemerkung 3.6. Durch jede starke Lösung von (3.1) wird eine schwache Lösung
definiert. Die Umkehrung ist falsch.
3.3 Schwache Lösungen und Martingalproblem
55
Definition 3.5. Die Lösung der sDGL (3.1) mit Startverteilung ν heißt pfadweise
eindeutig, falls für jedes W-Maß ν auf B n und je zwei schwache Lösungen (X, B)
und (Y, B) auf demselben Raum (Ω, F, P ) mit derselben Filtration (Ft )t≥0 und
P X0 = ν = P Y0 gilt P (Xt = Yt ∀t ≥ 0) = 1.
Satz 3.5 (Yamada-Watanabe). Es sind äquivalent:
(i) Die sDGL (3.1) hat eine eindeutige starke Lösung.
(ii) Für jedes W-Maß ν auf B n hat (3.1) eine schwache Lösung, und es gilt pfadweise Eindeutigkeit.
Gelten (i) und (ii), so ist die Lösung schwach eindeutig.
Sei für alle t ≥ 0 und x ∈ Rn die n × n Matrix a(t, x) symmetrisch und nichtnegativ
definit, und sei (t, x) 7→ a(t, x) messbar.
Definition 3.6. Ein n-dimensionaler stetiger Prozess X ist eine Lösung des lokalen
Martingalproblems zu a und b mit Startverteilung ν (kurz: LMP(a,b,ν)), falls P X0 =
ν ist und für jedes i = 1, . . . , n
Z t
i
i
Mt := Xt −
bi (s, Xs ) ds, t ≥ 0,
0
ein stetiges lokales Martingal ist mit Kovariation
Z t
i
j
[M , M ]t =
aij (s, Xs ) ds für alle t ≥ 0, i, j = 1, . . . , n.
0
Wir nennen eine Lösung von LMP(a,b,ν) eindeutig, wenn für je zwei Lösungen X
und Y gilt: P X = P Y .
Offenbar ist a = σσ > eine nichtnegativ semidefinite symmetrische n × n Matrix.
Der nächste Satz stellt einen Zusammenhang zwischen einer schwachen Lösung der
sDGL (3.1) und einer Lösung eines lokalen Martingalproblems her.
Satz 3.6. X ist genau dann eine Lösung von LMP(σσ > ,µ,ν), wenn es (ggf. auf
einer Erweiterung des Wahrscheinlichkeitsraums) eine Brownsche Bewegung B gibt,
so dass (X, B) eine schwache Lösung von (3.1) ist.
Insbesondere existiert genau dann eine eindeutige schwache Lösung der sDGL (3.1)
mit Startverteilung ν, wenn LMP(σσ > ,µ,ν) eindeutig lösbar ist.
Beweis. Wir zeigen die Aussage nur im eindimensionalen Fall. Für den allgemeinen
Fall vgl. Proposition 5.4.6 in [KS98].
⇐: Sei S : (t, ω) 7→ σ(t, Xt (ω)). Ist (X, B) eine schwache Lösung der sDGL (3.1),
dann ist M mit
Z t
Z t
Mt = Xt −
µ(s, Xs ) ds = X0 +
σ(s, Xs ) dBs = X0 + (S · B)t
0
0
nach Satz 2.27 ein (f.s.) stetiges lokales Martingal. Nach Korollar 2.30 besitzt es die
quadratische Variation
Z t
2
[M ]t = [X0 ]t + 2[X0 , S · B]t + [S · B]t = S · [B]t =
σ 2 (s, Xs ) ds.
0
56
3 STOCHASTISCHE DIFFERENTIALGLEICHUNGEN
X löst also das lokale Martingalproblem.
⇒: Sei X eine Lösung von LMP(σ 2 ,µ,ν). Man kann zeigen (vgl. Satz 25.29 aus
[Kle08]), dass dann auf einer Erweiterung des Wahrscheinlichkeitsraumes
eine BrownRt
sche Bewegung W existiert, so dass Mt − M0 = Mt − X0 = 0 |σ(s, Xs )| dWs gilt.
Setzen wir
Z
t
sign(σ(s, Xs )) dWs ,
Bt :=
0
so ist Mt − X0 =
Rt
0
σ(s, Xs ) dBs , also (X, B) eine schwache Lösung von (3.1).
Satz 3.7. Es seien (t, x) 7→ b(t, x) und (t, x) 7→ a(t, x) stetig und beschränkt. Dann
existiert für jedes W-Maß ν eine Lösung X des LMP(a,b,ν).
3.4
Maßwechsel
In diesem Abschnitt wollen wir nun den Driftterm einer stochastischen DGL manipulieren. Es wird sich zeigen, dass wir dies erreichen können, indem wir von dem
W-Maß P zu einem geeigneten anderen W-Maß Q übergehen.
Satz 3.8 (Lévy-Darstellung einer Brownschen Bewegung). Seien (Ft )t≥0 eine Filtration auf dem W-Raum (Ω, F, P ) und Xt = (Xt1 , . . . , Xtd ) ein (f.s.) stetiger, an
(Ft )t≥0 adaptierter Prozess mit Werten in Rd und X0 = 0. Dann sind äquivalent:
a) X ist eine d-dimensionale Brownsche Bewegung bezüglich P und (Ft )t≥0 , d.h.
die Verteilung von X bezüglich P ist die gleiche wie die einer d-dimensionalen
Brownschen Bewegung.
b)
(i) X i ist für jedes i ∈ {1, . . . , d} ein (f.s.) stetiges lokales Martingal bezüglich
P und (Ft )t≥0 und
(ii) Xti Xtj −δij t ist ein (f.s.) stetiges lokales Martingal bezüglich P und (Ft )t≥0
für alle i, j ∈ {1, 2, . . . , d}.
Ein Beweis steht in [KS98] (Theorem 3.3.16).
Bemerkung 3.7. Die Bedingung (ii) in Satz 3.8 kann durch
(ii)’ [X i , X j ]t = δij t, t ≥ 0, f.s. für alle i, j = 1, . . . , d
ersetzt werden.
Aufgabe 34. Ein stetiger adaptierter Prozess W ist genau dann eine d-dimensionale
Brownsche Bewegung, wenn
1
f (Wt ) −
2
Z tX
d
∂2f
(Ws ) ds,
2
0 i=1 ∂xi
t ≥ 0,
bezüglich der kanonischen Filtration für alle f ∈ C 2 (Rd ) ein stetiges lokales Martingal ist.
Für den Beweis des nächsten Satzes benötigen wir noch die folgenden Hilfsresultate.
3.4 Maßwechsel
57
Lemma 3.9. Seien µ und ν zwei W-Maße auf einem messbaren Raum (Ω, F), so
dass dν = f dµ für ein f ∈ L1 (µ). Sei X eine Zufallsvariable auf (Ω, F) mit
Z
Eν |X| =
|X|f dµ < ∞
Ω
und H eine Sub-σ-Algebra von F. Dann gilt
Eν (X|H)Eµ (f |H) = Eµ (f X|H) f.s.
Beweis. Nach Definition des bedingten Erwartungswerts gilt für H ∈ H
Z
Z
Z
Z
Z
Eµ (f X|H) dµ =
Xf dµ =
X dν =
Eν (X|H) dν =
Eν (X|H)f dµ.
H
H
H
H
H
Dies können wir wiederum wie folgt umformen
Z
Eν (X|H)f dµ = Eµ [Eν (X|H)f 1H ] = Eµ [Eµ (Eν (X|H)f 1H |H)]
H
Z
Eν (X|H)Eµ (f |H) dµ.
= Eµ [1H Eν (X|H)Eµ (f |H)] =
H
Wir erhalten also
Z
Z
Eν (X|H)Eµ (f |H) dµ =
H
Eµ (f X|H) dµ.
H
Da dies für alle H ∈ H gilt, folgt die Behauptung.
Proposition 3.10. Sei (Ft )t≥0 eine Filtration auf dem W-Raum (Ω, F, P ), B eine
d-dimensionale, an (Ft )t≥0 adaptierte Brownsche Bewegung bezüglich P und a ∈
d
(B) an (Ft )t≥0 adaptiert. Sei ferner T ∈ [0, ∞). Setze
Ploc
Mt := exp
X
d Z
a(i)
s
0
i=1
und
t
dBsi
1
−
2
Z
t
|as | ds
2
0
Z
QT (A) :=
1A MT dP = EP [1A MT ],
A ∈ FT .
(Mt , Ft )t≥0 sei ein Martingal bezüglich P . Ist (Xt , Ft )t∈[0,T ] ein stetiges lokales Martingal bezüglich P mit X0 = 0, dann ist
X̃t = Xt −
d Z
X
t
i
a(i)
s d[X, B ]s ,
t ∈ [0, T ],
0
i=1
ein stetiges lokales Martingal bezüglich QT und (Ft )t∈[0,T ] mit X̃0 = 0. Ist (Yt , Ft )t∈[0,T ]
ein weiteres stetiges lokales Martingal mit Y0 = 0 und
Ỹt := Yt −
d Z
X
i=1
t
i
a(i)
s d[Y, B ]s ,
t ∈ [0, T ],
0
dann gilt
[X̃, Ỹ ]Q
t = [X, Y ]t ,
t ∈ [0, T ],
f.s.,
wobei [·, ·] die Kovariation bezüglich P und [·, ·]Q diejenige bezüglich QT bezeichnet.
58
3 STOCHASTISCHE DIFFERENTIALGLEICHUNGEN
Beweis. Wir betrachten nur den Fall, in dem X und Y stetige beschränkte Martingale mit beschränkten
quadratischen Variationen sind. Zusätzlich nehmen wir an,
Pd R t (i)
dass Mt und i=1 0 (as )2 ds in t und ω beschränkt sind. Der allgemeine Fall folgt
dann durch Lokalisation. Satz 2.22 liefert
2
Z t
Z t
2
(i)
i
as d[X, B ]s ≤ [X]t
(a(i)
s ) ds,
0
0
der
Pn Prozess(k)X̃ istk also ebenfalls beschränkt. Nach Beispiel 2.3 gilt Mt = 1 +
k=1 ((M a ) · B )t . Mit Theorem 2.37 erhalten wir
Mt X̃t = (M · X̃)t + (X̃ · M )t + [X̃, M ]t
d
X
= (M · X)t −
((M a(i) ) · [X, B i ])t + (X̃ · M )t + [X, M ]t
= (M · X)t +
i=1
d
X
(X̃ · ((M a(i) ) · B i ))t
i=1
Z
t
Ms dXs +
=
0
d Z
X
i=1
t
X̃s Ms as(i) dBsi .
0
Dies ist ein Martingal bezüglich P . Nach Lemma 3.9 ergibt sich also für 0 ≤ s <
t≤T
EQT (X̃t |Fs ) =
E(MT X̃t |Fs )
E(X̃t E(MT |Ft )|Fs )
E(Mt X̃t |Fs )
=
=
= X̃s
E(MT |Fs )
Ms
Ms
f.s.
Folglich ist (X̃t , Ft )t∈[0,T ] ein stetiges lokales Martingal mit X̃0 = 0.
Bezeichne [·, ·] die Kovariation bezüglich P und [·, ·]Q diejenige bezüglich QT . Dann
impliziert Theorem 2.37
X̃t Ỹt − [X, Y ]t = (X̃ · Y )t + (Ỹ · X)t −
d
nX
(i)
i
(i)
i
((X̃a ) · [Y, B ])t + ((Ỹ a ) · [X, B ])t
o
i=1
sowie
Mt (X̃t Ỹt − [X, Y ]t ) = ((M X̃) · Y )t + ((M Ỹ ) · X)t +
d
X
((X̃ Ỹ − [X, Y ])a(i) M ) · B i t .
i=1
Der zweite Prozess ist ein Martingal bezüglich P , mit Lemma 3.9 erhalten wir also
für 0 ≤ s < t ≤ T
EQT (X̃t Ỹt − [X, Y ]t |Fs ) = X̃s Ỹs − [X, Y ]s
f.s.
Daher gilt [X̃, Ỹ ]Q
t = [X, Y ]t für alle t ∈ [0, T ] f.s.
Satz 3.11 (Girsanov I). Seien (Ft )t≥0 , B, a, M und QT definiert wie in Proposition 3.10 und T ∈ [0, ∞). Z sei ein Rd -wertiger, stetiger (Ft )-adaptierter Prozess
mit
dZt = dBt − at dt, t ≥ 0, Z0 = 0.
M sei definiert wie in Proposition 3.10 und ein Martingal bezüglich (Ft )t≥0 und P .
Dann ist QT ein W-Maß auf FT , und (Zt , Ft )t∈[0,T ] ist eine d-dimensionale Brownsche Bewegung auf (Ω, FT , QT ).
3.4 Maßwechsel
59
Beweis. Da M ein Martingal ist, gilt
QT (Ω) = EQT 1 = EP MT = 1.
R t (i)
Aufgrund der DGL ist Zti = Bt − 0 as ds. Nach Satz 3.8 und Bemerkung 3.7 genügt
es zu zeigen, dass
(i) (Zt1 , . . . , Ztd ), t ∈ [0, T ], ein stetiges lokales Martingal bzgl. QT ist und
(ii) [Z i , Z j ]Q
t = δij t, t ∈ [0, T ], für alle i, j = 1, . . . , d.
Setzen wir in Proposition 3.10 X = B j , so erhalten wir
j
X̃ = B −
d Z
X
i=1
t
as(i)
j
i
j
Z
d[B , B ]s = B −
t
j
a(j)
s ds = Z .
0
0
Jede Komponente Z j ist also eingeschränkt auf [0, T ] ein stetiges lokales Martingal.
Setzen wir Y = B k , so ergibt sich außerdem
j
k
[Z j , Z k ]Q
t = [B , B ]t = δjk t,
Den Term
Pd R t
i=1
0
(i)
as dBsi kürzen wir ab durch
t ∈ [0, T ] f.s.
Rt
0
a>
s dBs .
Bemerkung 3.8. a) Die Transformation P 7→ QT , die durch dQT = MT dP definiert
wird, heißt auch Girsanov-Transformation.
b) Die sog. Novikov-Bedingung
Z t
1
2
EP exp
|as | ds
< ∞ für alle t ≥ 0
(3.4)
2 0
ist hinreichend, um zu gewährleisten, dass M ein Martingal (bezüglich (Ft )t≥0 und
P ) ist. Ein Beweis steht z.B. in [KS98] (Proposition 3.5.12 und Korollar 3.5.13).
c) Da M ein Martingal ist, gilt
MT dP = Mt dP
auf Ft , t ≤ T,
denn für ein A ∈ Ft können wir rechnen
EP [1A MT ] = EP [E(1A MT |Ft )] = EP [1A E(MT |Ft )] = EP [1A Mt ].
d) Manchmal ist man auch daran interessiert, dass der Prozess Z aus Satz 3.11 für
alle t ≥ 0 eine Brownsche Bewegung ist. Dafür sind die Maße QT jedoch ungeeignet.
Wir hätten gerne ein einziges Maß Q auf F∞ , so dass Q eingeschränkt auf FT mit
QT übereinstimmt. Solch ein Maß existiert jedoch i.a. nicht. Daher beschränkt man
sich auf die von der gegebenen Brownschen Bewegung erzeugte Filtration (FtB )t≥0 .
Definiert man QT auf FTB durch QT (A) = EP [1A MT ], so ist die Familie der W-Maße
B
(QT )T ≥0 konsistent, und es gelingt uns, ein W-Maß Q auf F∞
zu definieren, dass
diese Familie fortsetzt.
Da wir es im nächsten Kapitel immer mit einem endlichen und festen Zeithorizont
T zu tun haben, schreiben wir ab jetzt Q = QT . Auch wollen wir ab jetzt immer die
von der Brownschen Bewegung B erzeugte Filtration wählen.
60
3 STOCHASTISCHE DIFFERENTIALGLEICHUNGEN
Satz 3.12 (Girsanov II). Sei Yt ∈ Rn ein Prozess der Form
dYt = µt dt + σt dBt ,
t ∈ [0, T ],
(#)
mit Bt ∈ Rm , µt ∈ Rn und σt ∈ Rn×m . Es gebe Rm bzw. Rn -wertige Prozesse
n
m
(B), so dass
(B) und α ∈ Ploc
u ∈ Ploc
σt ut = µt − αt .
u erfülle die Novikov-Bedingung (3.4). Setze
Z t
Z
1 t
>
2
Mt = exp −
us dBs −
|us | ds ,
2 0
0
t ∈ [0, T ]
Rt
und dQ = MT dP auf FT . Dann ist B̂t := Bt + 0 us ds, t ∈ [0, T ], eine Brownsche
Bewegung bezüglich Q, und Y hat die Darstellung
dYt = αt dt + σt dB̂t .
Beweis. Aus Satz 3.11 folgt, dass B̂ eine Brownsche Bewegung bezüglich Q ist.
Durch Einsetzen von B̂ in (#) erhalten wir also
dYt = µt dt + σt (dB̂t − ut dt) = (µt − σt ut )dt + σt dB̂t = αt dt + σt dB̂t .
Beachte, dass für n = m und einen invertierbaren Prozess σ ∈ Rn×n der Prozess u
mit σu = µ − α eindeutig bestimmt ist durch ut = σt−1 (µt − αt ).
Aufgabe 35. Sei
1
0
1
3
dBt
,
dYt =
dt +
dBt2
1
−1 −2
t ∈ [0, T ].
Finden Sie ein W-Maß Q auf FT mit Q ∼ P , so dass
1
1
3
dB̃t
dYt =
−1 −2
dB̃t2
wobei B̃t :=
−3t
t
+
Bt1
Bt2
eine Brownsche Bewegung bzgl. Q ist.
Satz 3.13 (Girsanov III). Seien X und Y Rn -wertige Prozesse der Form
dXt = µ(Xt )dt + σ(Xt )dBt , t ∈ [0, T ], X0 = x und
dYt = (γt + µ(Yt ))dt + σ(Yt )dBt , t ∈ [0, T ], Y0 = x,
wobei µ : Rn → Rn und σ : Rn → Rn×m die Bedingungen aus Satz 3.4 erfüllen und
n
m
γ ∈ Ploc
(B) sowie x ∈ Rn . Es gebe einen Prozess u ∈ Ploc
(B) mit σ(Yt )ut = γt , der
die Novikov-Bedingung (3.4) erfülle. Definiere M , Q und B̂ wie in Satz 3.12. Dann
gilt
dYt = µ(Yt )dt + σ(Yt )dB̂t .
Die Verteilungen QYt und P Xt stimmen also überein.
3.4 Maßwechsel
61
Beweis. Die gesuchte Darstellung folgt, indem wir Satz 3.12 auf σt = σ(Yt ), µt = γt +
µ(Yt ) und αt = µ(Yt ) anwenden. Die Gleichheit der Verteilungen ergibt sich aus der
schwachen Eindeutigkeit der Lösungen stochastischer Differentialgleichungen.
Aufgabe 36. Sei b : R → R eine Lipschitz-stetige Funktion. Definiere Xt = Xtx ∈ R
durch
dXt = b(Xt )dt + dBt , X0 = x ∈ R.
a) Beweisen Sie mit Hilfe des Satzes von Girsanov, dass für alle M < ∞, x ∈ R und
t > 0 gilt
P (Xtx ≥ M ) > 0.
b) Wählen Sie b(x) = −r mit r > 0 konstant. Zeigen Sie, dass für alle x ∈ R
Xtx → −∞ f.s. für t → ∞.
Vergleichen Sie dies mit dem Resultat aus a).
Satz 3.13 kann dazu benutzt werden, schwache Lösungen einer sDGL herzuleiten.
Sei z.B. Yt eine bekannte starke oder schwache Lösung der Gleichung
dYt = µ(Yt )dt + σ(Yt )dBt , µ : Rn → Rn , σ : Rn → Rn×m , Bt ∈ Rm .
Wir wollen eine schwache Lösung der verwandten Gleichung
dXt = a(Xt )dt + σ(Xt )dBt
finden, in der der erste Term (auch Driftterm genannt) verändert wurde. Wenn wir
eine Funktion u0 : Rn → Rm finden können, so dass σ(y)u0 (y) = µ(y) − a(y) für alle
y ∈ Rn , dann erhalten wir mit Q und B̂ wie in Satz 3.12
dYt = a(Yt )dt + σ(Yt )dB̂t .
Da B̂ eine Brownsche Bewegung bzgl. Q ist, ist (Y, B̂) eine schwache Lösung der
gewünschten Gleichung.
Beispiel 3.7. Sei a : Rn → Rn eine beschränkte messbare Funktion. Dann können
wir eine schwache Lösung der sDGL
dXt = a(Xt )dt + dBt , X0 = x ∈ Rn
(∗)
konstruieren. Wir gehen dazu vor wie oben beschrieben mit σ = I, µ = 0 und
dYt = dBt , Y0 = x. Wähle u0 = σ −1 (µ − a) = −a und definiere
Z t
Z
1 t
>
2
|u0 (Ys )| ds ,
Mt = exp −
u0 (Ys ) dBs −
2 0
0
Rt
Rt
d.h. Mt = exp 0 a(x + Bs ) dBs − 21 0 |a(x + Bs )|2 ds . Sei T < ∞ fest und dQ =
MT dP auf FT . Dann ist
Z t
B̂t := −
a(x + Bs ) ds + Bt , t ∈ [0, T ]
0
eine Brownsche Bewegung bzgl. Q, und es gilt dBt = dYt = a(Yt )dt + dB̂t . Wenn
wir also Y0 = x setzen, ist (Y, B̂) eine schwache Lösung der sDGL (∗). Die schwache
Eindeutigkeit impliziert, dass die Verteilungen der beiden Lösungen gleich sind.
62
4 FINANZMATHEMATIK
An dieser Stelle nun die Aufgaben des wiederholenden Übungsblattes 10.
Aufgabe 37. Sei B die Brownsche Bewegung und 0 < s < t < u. Berechnen Sie
die bedingte Verteilung von Bt gegeben Bs und Bu .
Aufgabe 38. Ist M ein stetiges lokales Martingal mit M0 = 0 und T eine Stoppzeit,
so gilt EMT2 ≤ E[M ]T .
Aufgabe 39. Seien P
c und u zweimal stetig differenzierbare
Funktionen auf [0, ∞) ×
Rs
d+1 (j,j)
1
t
d
(1)
+ cu. Setze cs = 0 c(t − r, Br )dr. Dann ist
R , so dass u = 2 j=2 u
Ms = u(t − s, Bs ) exp(cts )
ein stetiges lokales Martingal auf [0, t) bezüglich der von der Brownschen Bewegung
B erzeugten Filtration.
Aufgabe 40. Lösen Sie die sDGL
1 0
1
dXt
=
dt + Xt1 dBt
dXt2
Xt2
e
mit Anfangswert (X01 , X02 )> = (0, 0)> . Die auftretende Brownsche Bewegung ist
eindimensional.
4
Finanzmathematik
Dieser Abschnitt soll v.a. in die Theorie der Optionspreise einführen, da dort ausgiebig Gebrauch von Itô-Integralen, Martingalen und Maßwechsel gemacht wird.
4.1
Begriffsbildung
Wir nehmen an, dass ein Investor sein Geld in einem Zeitraum [0, T ] in einen sog.
Bond-Anteil (risikoloses Wertpapier vom Typ „Spareinlage“) und mehrere AktienAnteile (risikobehaftete Wertpapiere) investieren kann. Zusätzlich zum Grundraum
(Ω, F, P ) sei (Ft )t≥0 die von der Brownschen Bewegung B erzeugte Filtration. Wir
definieren
Definition 4.1. a) Ein Markt ist ein adaptierter (n + 1)-dimensionaler Prozess
Xt = (βt , St1 , . . . , Stn )> , t ∈ [0, T ], mit
dβt = rt βt dt,
und
dSti
=
(i)
µt dt
+
m
X
(i,j)
σt
β0 = 1
(i)
(i)
dBtj = µt dt + σt dBt ,
S0i = xi ,
j=1
wobei σ (i) der i-te Reihenvektor der n × m Matrix σ = (σ (i,j) ) i=1,...,n ist.
j=1,...,m
b) Der Markt (Xt )t∈[0,T ] heißt diskontiert, wenn βt ≡ 1.
4.1 Begriffsbildung
63
Bemerkung 4.1. a) βt bezeichnet den Preis des Bond-Anteils und Sti die Preise der
Aktien-Anteile zur Zeit t. Da es neben dem Sparbuch auch risikolose Anlageformen
wie Tagesgeld gibt, deren Zinssatz zeitlich variabel ist, modellieren wir die Änderung
des Bondpreises mit Hilfe eines Zinsprozesses (rt )t∈[0,T ] . Nach Proposition 3.1 besitzt
die DGL des Bonds die Lösung
Rt
βt = e
0
rs ds
t ∈ [0, T ].
,
(4.1)
Dabei setzen wir voraus, dass r messbar, gleichmäßig beschränkt, d.h. |rt (ω)| ≤
M < ∞ für alle (t, ω) ∈ [0, T ] × Ω, und adaptiert an die Brownsche Filtration ist.
Der erste Term in der sDGL für Sti beschreibt einen mittleren Wachstumstrend, während der zweite Term zufällige Kursschwankungen modelliert. Der Prozess (µt )t∈[0,T ] =
(1)
(n)
(µt , . . . , µt )>
t∈[0,T ] wird Trend und (σt )t∈[0,T ] Volatilität genannt.
b) Wir können jeden Markt diskontieren durch
S̄ti = βt−1 Sti ,
i = 1, . . . , n.
Wir setzen X̄t = (1, S̄t1 , . . . , S̄tn )> .
Rt
Rt
Wir wissen bereits, dass βt = e 0 rs ds . Also gilt βt−1 = e− 0 rs ds > 0 für alle t ∈ [0, T ].
Dieser Prozess erfüllt die sDGL d(βt−1 ) = −rt βt−1 dt. Der Bondpreis ist zudem ein
Prozess von endlicher Variation. Theorem 2.37 liefert also
dS̄ti = d(βt−1 Sti ) = βt−1 dSti + Sti d(βt−1 )
(i)
(i)
= βt−1 [(µt − rt Sti )dt + σt dBt ],
i = 1, . . . , n,
bzw. in vektorieller Schreibweise
dX̄t = βt−1 [dXt − rt Xt dt].
(4.2)
Definition 4.2. a) Eine Handelsstrategie in einem Markt (Xt )t∈[0,T ] ist ein (n + 1)dimensionaler, messbarer und adaptierter stochastischer Prozess
θt = (θt0 , θt1 , . . . , θtn )> .
b) Der Wert einer Handelsstrategie θ zur Zeit t ist definiert durch
Vtθ
Vt =
=
θt> Xt
=
θt0 βt
+
n
X
θti Sti .
(4.3)
i=1
Der Prozess V θ wird auch der zu θ gehörende Vermögensprozess genannt.
c) Die Handelsstrategie θ heißt selbstfinanzierend, wenn
Z T n
m hX
n
X
i2 X
0
i (i) i (i,j)
ds < ∞ f.s.
θ s µs +
θs σs
θs rs βs +
0
i=1
j=1
i=1
und
dVt = θt> dXt = θt0 dβt +
n
X
θti dSti ,
i=1
d.h.
Z
Vt = V0 +
0
t
θs0
dβs +
n Z
X
i=1
0
t
θsi dSsi
für t ∈ [0, T ].
(4.4)
64
4 FINANZMATHEMATIK
Bemerkung 4.2. a) Die Komponenten θti sind als Anzahl der Bond- bzw. AktienAnteile im Warenkorb [genannt Portfolio] des Investors zur Zeit t zu interpretieren.
b) Vt bezeichnet den Gesamtwert aller Investitionen zur Zeit t.
c) Aufgrund der Integrierbarkeitsvoraussetzung sind alle Integrale in Vt wohldefiniert.
d) Sei θ selbstfinanzierend für X und
V̄tθ = θt> X̄t = βt−1 Vtθ
der diskontierte Vermögensprozess. Nach Theorem 2.37 gilt
dV̄tθ = βt−1 dVtθ + Vtθ d(βt−1 ) = βt−1 θt> dXt − rt βt−1 Vtθ dt
= βt−1 θt> (dXt − rt Xt dt) = θt> dX̄t .
θ ist also auch selbstfinanzierend für den diskontierten Markt X̄.
Aufgabe 41. Der Markt X sei gegeben durch
dβt = rβt dt , dSt = µSt dt + σSt dBt
mit Konstanten r, µ und σ. Eine sog. Call-Option, also das Recht, eine Aktie zu
einem Zeitpunkt T zu einem Preis K kaufen zu dürfen, habe den Wert Ct = f (t, St )
mit f (T, s) = (s − K)+ für alle s ∈ [0, ∞). Die Funktion f : (t, x) 7→ f (t, x) erfülle
die DGL
∂f
1
∂2f
∂f
+ rx
+ σ 2 x2 2 − rf = 0.
∂t
∂x 2
∂x
Bei einem Startkapital von 0 verkaufen wir ∂f
Aktien und kaufen eine Call-Option.
∂x
Zeigen Sie, dass diese Strategie nicht selbstfinanzierend ist.
Wäre θ als Itô-Integral darstellbar, so würde mit Theorem 2.37 aus der Darstellung
des Vermögensprozesses aus Teil b) der Definition folgen, dass
dVt = θt> dXt + Xt> dθt + d[θ, X]t .
Dass stattdessen die Formel dVt = θt> dXt gilt, ergibt sich aus dem Modell in diskreter Zeit:
Investieren wir zu diskreten Zeitpunkten tk , so sollte der Gewinn ∆Vtk = Vtk+1 − Vtk
durch ∆Vtk = θt>k ∆Xtk mit ∆Xtk = Xtk+1 − Xtk gegeben sein. Dabei beschreibt
∆Xtk die Preisänderung der Portfolios zwischen tk und tk+1 . Man beachte, dass das
Geld jeweils nur umgeschichtet wird, da kein Kapital zu- oder abfließt. In diesem
Sinn ist es sinnvoll, die Handelsstrategie selbstfinanzierend zu nennen. Durch Grenzübergang folgt die Formel im kontinuierlichen Fall, wobei die auftretenden Integrale
Itô-Integrale sind. Mitunter wird auch Konsum zugelassen, d.h. der Investor darf
KapitalRaus dem Markt abziehen. Dies ist im Vermögensprozess durch Abzug eines
t
Terms 0 cs ds zu berücksichtigen, in dem cs eine Konsumrate (Konsum pro Zeit)
ist. Unsere Modellierung impliziert, dass keine Transaktionskosten anfallen, diese
müssten sonst ebenfalls abgezogen werden.
Bemerkung 4.3. Da θti , i = 0, 1, . . . , n, Anteile beschreiben, sollten sie nichtnegativ
sein. Wir wollen aber auch negative Werte zulassen. So bedeuten negative BondAnteile, dass der Investor Geld auch leihen kann, um es in Aktien anzulegen. Dabei
4.1 Begriffsbildung
65
soll βt nicht vom Vorzeichen von θt0 abhängen, d.h. der Investor soll Geld zu den
gleichen Konditionen leihen und anlegen können. Negative Aktien-Anteile bedeuten
hingegen, dass der Investor einem Dritten Aktien schuldet, die er aber zum Zeitpunkt
t nicht besitzt. Indem sich ein Investor Aktien leiht und diese am Markt verkauft
(sog. Aktienleerverkäufe) kann er durch den Kauf von Bond-Anteilen sein Portfolio
ebenfalls selbstfinanzierend umschichten.
Bemerkung 4.4. Man beachte, dass wir durch Kombinieren von (4.3) und (4.4) erhalten
Z t
n Z t
n
X
X
0
0
i i
θsi dSsi .
θs dβs +
θt βt +
θt St = V0 +
0
i=1
0
i=1
Setzen wir Yt0 = θt0 βt , so gilt
dYt0 = rt Yt0 dt + dAt
mit
n Z
X
At =
i=1
t
θsi
dSsi
−
θti Sti
.
0
Diese Gleichung besitzt die Lösung
θt0
=
βt−1 Yt0
=
θ00
Z
+
t
βs−1 dAs .
0
Aufgrund der partiellen Integration (Theorem 2.37) dürfen wir schreiben
θt0
=
θ00
+
βt−1 At
Z
− A0 −
t
As d(β
−1
)s = V0 +
βt−1 At
0
Z
t
+
rs As βs−1 ds.
0
Wenn r = 0, dann ergibt sich insbesondere θt0 = V0 + At . Wenn wir also θt1 , . . . , θtn
gewählt haben, können wir die Strategie θ selbstfinanzierend machen, indem wir θt0
gemäß der zuletzt erhaltenen Formel wählen.
Definition 4.3. Eine selbstfinanzierende Handelsstrategie θ heißt zulässig, wenn
der zugehörige Vermögensprozess V θ f.s. nach unten beschränkt ist, d.h. wenn es ein
K = K(θ) < ∞ gibt, so dass
Vtθ (ω) ≥ −K
für fast alle (t, ω) ∈ [0, T ] × Ω.
Dass eine zusätzliche Bedingung an die Strategie erforderlich ist, verdeutlicht das
folgende Beispiel: Wenn wir nur voraussetzen, dass die Strategie selbstfinanzierend
ist, können wir auch bei V0 = 0 jeden Endwert VT generieren.
Beispiel 4.1. Wir betrachten den Markt
dβt = 0,
dSt = σSt dBt ,
S0 = 1.
S ist also eine geometrische Brownsche Bewegung mit Drift µ = 0. Wähle
θt1 =
1
,
σSt (T − t)
0 ≤ t < T.
66
4 FINANZMATHEMATIK
Gemäß Bemerkung können wir θ0 so wählen, dass die Strategie selbstfinanzierend
ist. Wegen dβt = 0 gilt also
dVtθ = θt1 dSt =
1
1
σSt dBt =
dBt .
σSt (T − t)
T −t
Folglich hat V θ die Darstellung
Vtθ
=
V0θ
Z
+
0
Sei γt =
Rt
1
0 (T −s)2
t
1
dBs .
T −s
ds. Dann kann man (z.B. mit Korollar 8.5.5 aus [Øks03]) zeigen,
dass es eine Brownsche Bewegung B̂ gibt mit
Z t
1
dBs = B̂γt .
0 T −s
Da V0θ bisher beliebig war, können wir genausogut V0θ = 0 wählen. Wegen γt → ∞
für t → T und der Darstellung Vtθ − V0θ = B̂γt erkennen wir, dass für jedes a ∈ R
die Stoppzeit τ := inf{t : Vtθ ≥ a} die Eigenschaften P (τ < T ) = 1 und Vτθ = a
besitzt. Mit anderen Worten ermöglicht uns die oben beschriebene Strategie über
die Zeitspanne [0, T ] ein beliebig großes Vermögen anzuhäufen.
Definition 4.4. Eine zulässige Handelsstrategie θ heißt ein Arbitrage (im Markt
X), wenn der zugehörige Vermögensprozess V θ die Bedingungen
V0θ = 0,
VTθ ≥ 0 f.s. und P (VTθ > 0) > 0
erfüllt. Ein Markt heißt arbitragefrei, wenn es keine Arbitrage gibt.
Mit anderen Worten ist eine zulässige Handelsstrategie θ ein Arbitrage, wenn der
Wert des Portfolios von t = 0 bis t = T f.s. wächst und in T positiv ist mit positiver
Wahrscheinlichkeit. Die Strategie θ generiert also einen Profit ohne irgendein Risiko,
Geld zu verlieren.
Aufgabe 42. a) Beweisen Sie, dass der Preisprozess S genau dann eine Arbitrage
besitzt, wenn der diskontierte Preisprozess S̄ eine Arbitrage besitzt.
b) Sei S diskontiert. Zeigen Sie, dass S genau dann eine Arbitrage besitzt, wenn es
eine zulässige Handelsstrategie θ gibt, so dass V0θ ≤ VTθ f.s. und P (VTθ > V0θ ) > 0.
Lemma 4.1. Es existiere ein W-Maß Q auf FT , so dass P ∼ Q (d.h. es gilt P Q
und P Q) und so dass der diskontierte Prozess X̄ ein lokales Martingal bezüglich
Q ist. Dann ist der Markt X arbitragefrei.
Beweis. Angenommen, θ sei ein Arbitrage für X̄. Sei V̄ θ der zugehörige Vermögensprozess für den diskontierten Markt mit V̄0θ = 0. Dann ist V̄ θ ein nach unten
beschränktes lokales Martingal bezüglich Q. Dies folgt aus der Integraldarstelleung
von V̄ θ . Nach Aufgabe 16 ist V̄ θ also ein Supermartingal bezüglich Q. Daher gilt
EQ [V̄Tθ ] ≤ V̄0θ = 0. (∗)
Da aber V̄Tθ ≥ 0 P -f.s. und Q P , gilt V̄Tθ ≥ 0 Q-f.s. Wegen P (V̄Tθ > 0) > 0 und
P Q gilt außerdem Q(V̄Tθ > 0) > 0. Dies impliziert EQ [V̄Tθ ] > 0, was aber der
Ungleichung (∗) widerspricht. Folglich kann es keine Arbitrage für den Prozess X̄
geben. Nach Aufgabe 42 ist X also ebenfalls arbitragefrei.
4.1 Begriffsbildung
67
Definition 4.5. Ein W-Maß Q ∼ P heißt äquivalentes (lokales) Martingalmaß,
wenn der diskontierte Prozess X̄ ein (lokales) Martingal bezüglich Q ist.
Bemerkung 4.5. Die Rückrichtung in Lemma 4.1 gilt bei kontinuierlicher Zeit nicht.
Der Begriff der Arbitragefreiheit ist dafür zu schwach. Lediglich in diskreter Zeit ist
die Arbitragefreiheit sogar äquivalent zur Existenz eines äquivalenten Martingalmaßes. Die zur Existenz eines äquivalenten Martingalmaßes äquivalente Bedingung
wird oft als NFLVR-Bedingung (no f ree lunch with vanishing risk) bezeichnet.
Da die zur exakten Beschreibung benötigten Begriffe und Beweise technisch sind,
werden wir darauf nicht weiter eingehen. Wer mehr darüber erfahren möchte, sei
auf die Arbeiten von Delbaen und Schachermayer verwiesen. Für den konkreten
Nachweis der Arbitragefreiheit eines Marktes eignet sich der folgende Satz.
Satz 4.2. a) Sei St = (St1 , . . . , Stn )> . Es existiere ein m-dimensionaler, produktR T
messbarer und adaptierter Prozess u mit E 0 |ut |2 dt < ∞, so dass
σt (ω)ut (ω) = µt (ω) − rt (ω)St (ω) für fast alle (t, ω)
und so dass
(4.5)
Z T
1
2
|ut | dt
< ∞.
E exp
2 0
Dann ist der Markt X arbitragefrei.
b) Ist umgekehrt der Markt X arbitragefrei, dann existiert ein (Ft )-adaptierter
messbarer Prozess u, so dass
σt (ω)ut (ω) = µt (ω) − rt (ω)St (ω) für fast alle (t, ω).
Beweis. zu a): Nach Aufgabe 42a) dürfen wir annehmen, dass X diskontiert ist, d.h.
dass r = 0. Definiere Q auf FT durch
Z T
Z
1 T
2
>
|ut | dt dP.
ut dBt −
dQ = exp −
2 0
0
Dann Rist Q ∼ P , und nach den Satz von Girsanov (Satz 3.12) ist der Prozess
t
B̃t := 0 us ds + Bt eine Q-Brownsche Bewegung. Mit (4.5) erhalten wir
(i)
(i)
(i)
(i)
(i)
dSti = µt dt + σt dBt = σt ut dt + σt dBt = σt dB̃t ,
i = 1, . . . , n.
Daher ist X ein lokales Q-Martingal, und die Behauptung folgt mit Lemma 4.1.
zu b): Umgekehrt sei der Markt X arbitragefrei und diskontiert. Für t ∈ [0, T ] und
sei
Gt = {ω ∈ Ω : (4.5) hat keine Lösung}
= {ω ∈ Ω : µt gehört nicht zum linearen Spann der Spalten von σt }
= {ω ∈ Ω : ∃v = vt (ω) : σt> (ω)vt (ω) = 0 ∧ vt (ω)> µt (ω) 6= 0}.
Setze
(
sign(vt (ω)> µt (ω))vti (ω) , ω ∈ Gt
θti (ω) :=
, i = 1, . . . , n
0
,ω ∈
/ Gt
68
4 FINANZMATHEMATIK
und θt0 (ω) so, dass θ selbstfinanzierend ist. Da σ und µ (Ft )-adaptiert und messbar
sind, können wir θ als (Ft )-adaptiert und messbar wählen. Ferner ist θ selbstfinanzierend mit zugehörigem Vermögensprozess
Vtθ
−
V0θ
=
Z tX
n
0
θsi
dSsi
Z
=
1Gs |vs> µs | ds +
=
Z0 t
=
1Gs |vs> µs | ds
+
Z tX
m X
n
0 j=1
0
i=1
t
Z
t
Z
θsi σs(i,j) dBsj
i=1
t
sign(vs> µs )1Gs vs σs dBs
0
1Gs |vs> µs | ds ≥ 0 ∀t ∈ [0, T ].
0
Nach Aufgabe 42 muss VTθ − V0θ f.s. gleich Null sein, da der Markt arbitragefrei ist.
Daher gilt 1Gt = 0 für fast alle (t, ω), d.h. (4.5) hat eine Lösung für f.a. (t, ω).
Werfen wir nun kurz einen Blick darauf, wie wir diesen Satz zum Nachweis der
Arbitragefreiheit benutzen können.
Beispiel 4.2. a) X sei gegeben durch
dSt1 = 2dt + dBt1 ,
dβt = 0,
Daraus lesen wir ab
µ=
2
−1
dSt2 = −dt + dBt1 + dBt2 .
,
σ=
1 0
.
1 1
Die Gleichung σu = µ hat die eindeutige Lösung u = (2, −3)> . Nach Satz 4.2 ist X
also arbitragefrei.
b) Der Markt Y sei gegeben durch
dS̃t1 = 2dt + dBt1 + dBt2 ,
dβ̃t = 0,
dS̃t2 = −dt − dBt1 − dBt2 .
Nun suchen wir eine Lösung der Gleichung
1
1
u1
2
=
.
−1 −1
u2
−1
Diese Gleichung hat jedoch keine Lösung. Nach Satz 4.2b) besitzt der Markt also
eine Arbitrage. Wenn wir θ = (θ0 , 1, 1) wählen, so erhalten wir
VTθ
=
V0θ
Z
+
T
(2dt + dBt1 + dBt2 − dt − dBt1 − dBt2 ) = V0θ + T.
0
Ist insbesondere θ0 konstant, so dass V0θ = θ0 β̃0 + S̃01 + S̃02 = 0, dann ist θ ein
Arbitrage.
Aufgabe 43. Untersuchen Sie, welcher der folgenden diskontierten Märkte eine
Arbitrage erlaubt, und bestimmen Sie ggf. eine solche.
a) dSt1 = dt + dBt1 + dBt2 − dBt3 , dSt2 = 5dt − dBt1 + dBt2 + dBt3
b) dSt1 = dt + dBt1 + dBt2 − dBt3 , dSt2 = 5dt − dBt1 − dBt2 + dBt3
c) dSt1 = dt + dBt1 + dBt2 , dSt2 = 2dt + dBt1 − dBt2 , dSt3 = −2dt − dBt1 + dBt2
4.2 Vollständigkeit und Optionspreis
4.2
69
Vollständigkeit und Optionspreis
Bisher haben wir uns mit selbstfinanzierenden und zulässigen Strategien beschäftigt.
Wir müssen diese Begriffe jedoch noch weiter einschränken, da es sonst sog. SuizidStrategien gibt.
Beispiel 4.3 (Suizid-Strategie). Wir betrachten wieder das Marktmodell
dβt = 0,
Sei θt1 =
1
σSt (T −t)
dSt = σSt dBt ,
S0 = 1.
und θ0 so, dass die Strategie θ selbstfinanzierend ist. In Beispiel 4.1
haben wir gesehen, dass es eine Brownsche Bewegung B̂ gibt mit Vtθ − V0θ = B̂γt ,
wobei γt → ∞ für t → T . Nun modifizieren wir die Strategie ein wenig. Sei τ :=
inf{t : Vtθ = 0}. Aus der Darstellung folgt P (τ < T ) = 1. Wir definieren eine neue
Strategie durch
(
(θt0 , θt1 ) , t ∈ [0, τ ]
.
(ϕ0t , ϕ1t ) =
0
, t ∈ (τ, T ]
Da dVtϕ = ϕ0t dβt + ϕ1t dSt auf beiden Bereichen erfüllt ist, ist auch die Strategie ϕ
selbstfinanzierend. Aufgrund der Definition von τ gilt außerdem Vtϕ ≥ 0 für alle
t ∈ [0, T ]. Wegen P (τ < T ) = 1 gilt zudem P (VTϕ = 0) = 1. Da V0θ = V0ϕ bisher
beliebig ist, können wir V0 = 1 wählen. Die Strategie ϕ ist also zulässig, und doch
ist derjenige, der diese Strategie verfolgt, am Ende ruiniert.
Derartige Suizid-Strategien werden in Teil b) der folgenden Definition ausgeschlossen
durch die Forderung, dass V̄ θ ein Q-Martingal sein soll.
Definition 4.6. a) Ein T -Claim ist eine FT -messbare Zufallsvariable F ≥ 0.
b) Sei Q ein äquivalentes Martingalmaß und F ein T -Claim. Dann heißt F absicherbar oder replizierbar (im Markt X), wenn es eine zulässige Strategie θ gibt, für die
der diskontierte Vermögensprozess V̄ θ ein Q-Martingal ist und
VTθ = F.
c) Der Markt X heißt vollständig, wenn jeder T -Claim absicherbar ist.
d) Ist F ein absicherbarer T -Claim und θ eine zulässige Strategie mit VTθ = F , dann
heißt θ Hedging-Strategie oder replizierendes Portfolio.
Bemerkung 4.6. Ist ein T -Claim F absicherbar, dann muss das replizierende Portfolio nicht eindeutig sein, vgl. dazu die folgende Aufgabe.
Aufgabe 44. Sei B eine eindimensionale Brownsche Bewegung und (Ft )t≥0 die
davon erzeugte Filtration. Zeigen Sie, dass es Prozesse θ, ϕ ∈ Ploc (B) gibt, so dass
für
Z t
Z t
1
2
Vt = 1 +
θs dBs und Vt = 2 +
ϕs dBs , t ∈ [0, 1],
0
0
gilt:
V11 = V12 = 0 , Vt1 ≥ 0 und Vt2 ≥ 0 für fast alle (t, ω).
θ und ϕ sind also zulässige Strategien für den Claim F = 0 im diskontierten Markt
mit n = 1 und St = Bt . Insbesondere gibt es kein eindeutiges replizierendes Portfolio,
selbst wenn wir die Strategie als zulässig annehmen. Fordern wir jedoch θ ∈ P2 (B),
dann ist das replizierende Portfolio eindeutig.
70
4 FINANZMATHEMATIK
Lemma
R T4.3. Sei u ein m-dimensionaler, produktmessbarer und adaptierter Prozess
mit E 0 |ut |2 dt < ∞, der die Bedingung
Z T
1
2
E exp
|us | ds
<∞
2 0
erfülle. Definiere das Maß Q auf FT durch
Z T
Z
1 T
2
dQ = exp −
ut dBt −
|ut | dt dP.
2 0
0
Dann ist
Z
t
us ds + Bt
B̃t :=
(4.6)
(4.7)
0
ein (Ft )-Martingal (und daher eine Ft -Brownsche Bewegung) bezüglich Q, und jede
Funktion H ∈ L2 (FT , Q) besitzt eine eindeutige Darstellung
Z T
φt dB̃t ,
(4.8)
H = EQ [H] +
0
wobei φ ein produktmessbarer, adaptierter Rm -wertiger Prozess mit
Z T
2
EQ
|φt | dt < ∞
0
ist.
Diese Aussage ist ein Spezialfall der Proposition 17.1 aus [Yor97]. Der erste Teil
rekapituliert noch einmal Satz 3.11.
Bemerkung 4.7. Beachte, dass die von B̃ erzeugte Filtration (F̃t )t∈[0,T ] in der Filtration (Ft )t∈[0,T ] enthalten aber nicht notwendigerweise gleich (Ft )t∈[0,T ] ist.
Als nächstes machen wir die folgende einfache, aber nützliche Beobachtung:
Lemma 4.4. a) Sei X̄ der diskontierte Preisprozess und sei θ eine zulässige Strategie für den Markt X mit Wert
V θ = θ> X.
Dann ist θ auch eine zulässige Strategie für den diskontierten Markt X̄ mit Wert
V̄ θ = θ> X̄ = β −1 V θ
und umgekehrt. V θ besitzt also genau dann die Darstellung
Z t
θ
θ
Vt = V0 +
θs> dXs , 0 ≤ t ≤ T,
0
wenn V̄ θ die Darstellung
V̄tθ
=
V0θ
Z
+
t
θs> dX̄s ,
0≤t≤T
0
besitzt.
b) Sei F ein beschränkter T -Claim. Dann ist F genau dann replizierbar im Markt
X, wenn β −1 F im diskontierten Markt X̄ replizierbar ist.
c) Der Markt X ist vollständig genau dann, wenn der diskontierte Markt X̄ vollständig ist.
4.2 Vollständigkeit und Optionspreis
71
Beweis. Da r als beschränkt angenommen wurde, ist V̄ θ genau dann nach unten
beschränkt, wenn V θ nach unten beschränkt ist. Sei θ eine zulässige Strategie im
Markt X mit Vermögensprozess V θ . Dann gilt V̄ θ = θ> X̄ = β −1 V θ . Da θ selbstfinanzierend für X ist, ist nach Bemerkung 4.2 θ auch selbstfinanzierend für den
diskontierten Markt X̄ mit
dV̄tθ = θt> dX̄t .
Daher ist θ zulässig für X̄, und V̄ θ besitzt die gewünschte Darstellung. Die gleiche
Argumentation funktioniert auch in umgekehrter Richtung, Teil a) ist also bewiesen.
Die Teile b) und c) folgen direkt aus a).
Aufgabe 45. Zeigen Sie, dass in der Definition der Absicherbarkeit eines T -Claims
die Eigenschaft, dass V̄ θ ein Q-Martingal sein soll, entfallen kann, da sie bereits aus
der Zulässigkeit der Strategie folgt. Umgekehrt ist eine selbstfinanzierende Strategie
θ schon zulässig, wenn V̄ θ ein Q-Martingal ist.
Lemma 4.5. EsRgebe einen
m-dimensionalen, produktmessbaren und adaptierten
T
2
Prozess u mit E 0 |ut | dt < ∞, so dass
σt (ω)ut (ω) = µt (ω) − rt (ω)St (ω) für fast alle (t, ω)
und
(4.9)
Z T
1
2
|us | ds
< ∞. (N )
E exp
2 0
Definiere das Maß Q und den Prozess B̃ wie in (4.6) und (4.7). Dann besitzt der
diskontierte Markt X̄ = β −1 X die folgende Darstellung:
dβ̄t = 0
(i)
dS̄ti = βt−1 σt dB̃t ,
i = 1, . . . , n.
(4.10)
RT
(i)
Falls 0 EQ [βt−2 |σt |2 ] dt < ∞ für i = 1, . . . , n, so ist Q insbesondere ein äquivalentes Martingalmaß.
Beweis. Um die Darstellung nachzuweisen, rechnen wir
dS̄ti = d(βt−1 Sti ) = β −1 dSti + Sti d(β −1 )t
(i)
= βt−1 [(µit − rt Sti )dt + σt dBt ]
(i)
= βt−1 [(µit − rt Sti )dt + σt (dB̃t − ut dt)]
(i)
= βt−1 σt dB̃t .
RT
(i)
Falls 0 EQ [βt−2 |σt |2 ] dt < ∞, dann ist S̄ i für alle i = 1, . . . , n insbesondere ein
Q-Martingal nach Kapitel 2.
Ein handliches Kriterium für die Vollständigkeit eines Marktes X ist
Proposition 4.6. Die Bedingungen (4.9) und (N ) aus Lemma 4.5 seien erfüllt.
Dann ist der Markt X genau dann vollständig, wenn σt (ω) für fast alle (t, ω) eine
Linksinverse Λt (ω) besitzt, d.h. wenn ein Ft -adaptierter Prozess Λ mit Λt (ω) ∈ Rm×n
existiert, so dass
Λt (ω)σt (ω) = Em für fast alle (t, ω),
wobei Em die m-dimensionale Einheitsmatrix bezeichne.
72
4 FINANZMATHEMATIK
Für einen Beweis vergleiche Theorem 12.2.5 aus [Øks03].
Korollar 4.7. Seien die Bedingungen (4.9) und (N ) aus Lemma 4.5 erfüllt.
a) Falls n = m, dann ist der Markt X genau dann vollständig, wenn σ für fast alle
(t, ω) invertierbar ist.
b) Falls der Markt X vollständig ist, dann hat σ Rang m für fast alle (t, ω). Insbesondere gilt n ≥ m. Zudem ist der Prozess u, der Gleichung (4.9) erfüllt, eindeutig.
Beweis. Teil a) ist eine direkte Folgerung aus Proposition 4.6, da die Existenz einer
Linksinversen im Fall n = m die Invertierbarkeit der Matrtix impliziert. Eine Linksinverse einer n × m-Matrix kann nur existieren, wenn der Rang gleich m ist, woraus
n ≥ m folgt. Ferner ist die einzige Lösung u der Gleichung (4.9) gegeben durch
ut = Λt [µt − rt St ].
Dies zeigt b).
Anhand zweier Beispiele wollen wir uns ansehen, wie wir Proposition 4.6 bzw. Korollar 4.7 nutzen können, um einen Markt auf Vollständigkeit zu untersuchen.
Beispiel 4.4. Setze βt ≡ 1 und


 1  
1
1 0 1
dSt
dSt2  = 2 dt + 0 1 dBt2 .
dBt
3
1 1
dSt3
In diesem Fall ist die Zinsrate r = 0.

1

σu = 0
1
Gleichung (4.9) hat also die Form
 

1
0 1
u


1
= 2 .
u2
1
3
Diese besitzt die eindeutige Lösung u1 = 1, u2 = 2. Da u konstant ist, ist die
Novikov-Bedingung (N ) erfüllt. Die Matrix σ hat Rang 2, und wegen


1 0
1 0 0 
1
0
0 1 =
0 1 0
0 1
1 1
ist die Matrix
Λ=
1 0 0
0 1 0
eine Linksinverse von σ. Nach Proposition 4.6 ist der Markt also vollständig.
Beispiel 4.5. Sei βt ≡ 1 und dSt = 2dt + dBt1 + dBt2 . Dann ist µ = 2 und σ =
(1, 1) ∈ R1×2 , also n = 1 < 2 = m. Nach Korollar 4.7 kann der Markt daher nicht
vollständig sein. Es gibt also einen beschränkten T -Claim, der nicht absicherbar ist.
Bemerkung 4.8. Der Markt X sei nichtnegativ. Ferner gebe es ein äquivalentes Martingalmaß. Dann sind die folgenden Aussagen äquivalent:
(i) Der Markt ist vollständig.
(ii) Das äquivalente Martingalmaß ist eindeutig.
4.2 Vollständigkeit und Optionspreis
73
Aufgabe 46. Untersuchen Sie, welche der Märkte X aus Aufgabe 43 vollständig
sind. Bestimmen Sie für diejenigen Märkte, die nicht vollständig sind, einen T -Claim,
der nicht replizierbar ist.
Proposition 4.8. Seien Q ein äquivalentes Martingalmaß und F ein absicherbarer
T -Claim. Seien ferner θ und ϕ zwei zulässige Strategien, die beide den T -Claim F
replizieren, d.h.
θT0 βT + (θT1 , . . . , θTn )ST = F
und ϕ0T βT + (ϕ1T , . . . , ϕnT )ST = F.
(i)
Ist zudem P (|σt |2 > 0 ∀t ∈ [0, T ], i = 1, . . . , n) = 1, so gilt
P (θt = ϕt ) = 1 für fast alle t ∈ [0, T ].
Beweis. Nach Definition 4.6b) sind V̄ θ und V̄ ϕ Q-Martingale. Daher gilt
V̄tθ = EQ (V̄Tθ |Ft ) = EQ (βT−1 F |Ft ) = EQ (V̄Tϕ |Ft ) = V̄tϕ .
Dies impliziert V̄tθ = V̄tϕ und somit Vtθ = Vtϕ für alle t ∈ [0, T ]. Setze θtS =
(θt1 , . . . , θtn )> und ϕSt = (ϕ1t , . . . , ϕnt )> . Da θ und ϕ selbstfinanzierend sind, gilt
θ> dXt = θt0 dβt + (θtS )> dSt = dVtθ = dVtϕ = ϕ0t dβt + (ϕSt )> dSt = ϕ> dXt .
Sei nun ∆t = Vtθ − Vtϕ . Dann ist ∆ identisch gleich Null. Wenden wir die Ito-Formel
aus Theorem 2.38 auf ∆2 an, so erhalten wir
0 = d∆2t = 2∆t d∆t + d[∆]t = d[(θS − ϕS )> S]t =
n
X
(θti − ϕit )2 d[S i ]t .
i=1
Nach Definition gilt
Sti
=
S0i
Z
+
0
t
µ(i)
s
ds +
m Z
X
j=1
t
σs(i,j) dBsj ,
0
also folgt mit der Linearität und der charakteristischen Eigenschaft der Kovariation
aus Kapitel 2 und dem Satz von Lévy
Z t
m X
m
m Z t
X
X
i
(i,j)
j
(i,l)
l
(i,j) 2
[S ]t =
[σ
· B ,σ
· B ]t =
(σs ) ds =
|σs(i) |2 ds
j=1 l=1
j=1
0
0
P
(i)
(i)
bzw. d[S i ]t = |σt |2 dt. Daher ergibt sich 0 = ni=1 (θti − ϕit )2 |σt |2 dt. Daraus ent(i)
nehmen wir, dass (θti − ϕit )2 |σt |2 für alle i = 1, . . . , n und fast alle t ∈ [0, T ] gleich
Null sein muss. Aufgrund der Voraussetzung an σ muss also P (θtS = ϕSt ) = 1 für
fast alle t ∈ [0, T ] gelten. Wenn wir nun (θtS )> St = (ϕSt )> St von der Gleichung
Vtθ = Vtϕ subtrahieren, so erhalten wir P (θt0 βt = ϕ0t βt ) = 1 für fast alle t ∈ [0, T ].
Wegen βt > 0 für alle t folgt P (θt0 = ϕ0t ) = 1 für fast alle t. Durch Vereinigen der
Ausnahmemengen ergibt sich schließlich die Behauptung.
Die Proposition besagt, dass unter moderaten Bedingungen die Hedgingstrategie
in gewissem Sinne eindeutig ist. Nach der theoretischen Vorarbeit wollen wir das
Erlernte zur Bestimmung von Optionspreisen heranziehen.
74
4 FINANZMATHEMATIK
Definition 4.7. Eine Option ist ein Vertrag, durch den der Käufer das Recht (aber
nicht die Pflicht) erhält, ein bestimmtes Finanzgut bis zu einem Zeitpunkt T zu
einem vereinbarten Preis K, dem Ausübungspreis, zu kaufen (Call-Option) oder zu
verkaufen (Put-Option). Ist die Ausübung der Option nur zum Verfallszeitpunkt T
möglich, so sprechen wir von einer europäischen Option. Kann die Option jederzeit
bis zum Zeitpunkt T ausgeübt werden, bezeichnen wir sie als amerikanische Option.
Im Folgenden behandeln wir zunächst europäische Call-Optionen.
Proposition 4.9 (Put-Call-Parität). In einem arbitragefreien Markt besteht zwischen dem Preis eines europäischen Puts PT mit Ausübungspreis K und Ausübungszeit T und dem Preis eines europäischen Calls CT auf das gleiche Finanzgut mit
gleichem Ausübungspreis und gleicher Ausübungszeit der Zusammenhang
PT = CT − S0 + KβT−1 .
Beweis. Wir betrachten zunächst zwei verschiedene Kombinationen von Finanzgütern, deren Werte V und W zu einem zukünftigen Zeitpunkt T mit Sicherheit übereinstimmen, also VT = WT . In einem arbitragefreien Markt müssen dann auch die
Werte V0 und W0 zum gegenwärtigen Zeitpunkt übereinstimmen. Wäre nämlich
V0 > W0 , so könnte ein Besitzer der ersten Kombination diese zur Zeit t = 0 zum
Preis V0 verkaufen, zum Preis W0 die zweite Kombination kaufen und die Differenz
risikolos in einem Bond anlegen. Zum Zeitpunkt T könnte er die zweite Kombination wieder zum Preis WT verkaufen und von dem Erlös die erste zurückkaufen. Ihm
bliebe also der Profit (V0 − W0 )βT , was jedoch der Arbitragefreiheit des Marktes
widerspricht.
Dieses Ergebnis wollen wir nun auf den europäischen Call und Put anwenden. Der
Wert des Calls zur Zeit T beträgt (ST − K)+ , denn der Call wird nur ausgeübt werden, falls ST > K vorliegt. In dem Fall macht der Käufer den Profit ST −K gegenüber
dem Marktpreis ST . Andernfalls wird man den Call verfallen lassen. Entsprechend
ergibt sich der Wert des Puts zur Zeit T als (K − ST )+ . Als erste Kombination
betrachten wir den Put zusammen mit einer Aktie. Diese Kombination hat zur Zeit
T den Wert
VT = ST + (K − ST )+ = max{ST , K}.
Als zweite Kombination betrachten wir den Call zusammen mit einem Bond, der
zur Zeit T die Auszahlung K leistet. Der Wert der zweiten Kombination zur Zeit T
lautet
WT = K + (ST − K)+ = max{ST , K}.
Aus obiger Überlegung folgt nun V0 = W0 , d.h.
PT = CT − S0 + KβT−1 .
Aufgrund der Put-Call-Parität genügt es, den Preis CT einer europäischen CallOption zu bestimmen. Der Preis PT einer europäischen Put-Option lässt sich dann
mittels der Parität daraus errechnen. Wenn es nur eine Hedging-Strategie gibt, so
ist heuristisch klar, dass man als fairen Preis den Wert dieser Strategie zum Zeitpunkt 0 wählen muss. Denn ein Käufer wird die Option nicht kaufen, wenn er/sie
mit dem dem gleichen oder einem kleineren Einsatz mittels der Hedgingstrategie
4.2 Vollständigkeit und Optionspreis
75
zum Zeitpunkt T den gleichen oder einen höheren Wert erzielen kann. Andererseits
wird der Verkäufer die Option auch nicht unter dem Wert V0θ anbieten, da er/sie den
ggf. auszuschüttenden Wert F erst am Finanzmarkt erwirtschaften muss. Im Allgemeinen ist die Hedgingstrategie jedoch nicht eindeutig. In diesem Fall argumentiert
man wie folgt:
Wenn ein Käufer für eine Option den Betrag y zahlen muss, wird er sich nur auf das
Geschäft einlassen, wenn er mit einer zulässigen Strategie θ einen Wert VTθ erwirtschaften kann, so dass VTθ + F ≥ 0 f.s. Maximal wird er also den Preis
Z T
>
θs dXs ≥ −F f.s.
p(F ) = sup y : Es gibt eine zulässige Strategie θ, so dass −y+
0
zahlen wollen. Andererseits wird ein Verkäufer ein solches Geschäft nur eingehen,
wenn er mit dem eingenommenen Geld z durch eine zulässige Strategie θ am Markt
mindestens F erwirtschaften kann. Für eine derartige Option wird er also mindestens
Z T
>
θs dXs ≥ F f.s.
q(F ) = inf z : Es gibt eine zulässige Strategie θ, so dass z +
0
verlangen. Stimmen beide Preise überein, so ist dieser gemeinsame Wert p der Preis
der (europäischen) Option mit Auszahlungsfunktion F . Eine Hedgingstrategie θ mit
VTθ = F und V0θ = p heißt auch perfekter Hedge.
Proposition 4.10. a) Sind die Bedingungen (4.9) und (N ) aus Lemma 4.5 erfüllt,
Q definiert wie in (4.6) und F ein (europäischer) T -Claim mit EQ [βT−1 F ] < ∞,
dann gilt
p(F ) ≤ EQ [βT−1 F ] ≤ q(F ) ≤ ∞.
b) Ist der Markt zusätzlich vollständig, dann ist der Preis einer europäischen Option
mit FT -messbarer Auszahlungsfunktion F gegeben durch
p(F ) = EQ [βT−1 F ] = q(F ).
Beweis. zu a): Sei y ∈ R und existiere eine zulässige Strategie θ, so dass
Z
−y +
T
θs> dXs ≥ −F
f.s.
0
Nach Lemma 4.4 und Lemma 4.5 gilt also
Z TX
n
−y +
θsi βs−1 σs(i) dB̃s ≥ −βT−1 F
0
f.s.,
i=1
wobei B̃ wie in (4.7) definiert sei. Bilden wir auf beiden Seiten den Erwartungswert
bezüglich Q, so erhalten wir y ≤ EQ [βT−1 F ] und somit
p(F ) ≤ EQ [βT−1 F ],
vorausgesetzt, ein solches Portfolio existiert. Gibt es ein z ∈ R und eine zulässige
Strategie θ mit
Z T
z+
θs> dXs ≥ F f.s.,
0
76
4 FINANZMATHEMATIK
dann ergibt sich wie oben
Z
T
z+
0
n
X
θsi βs−1 σs(i) dB̃s ≥ βT−1 F
f.s.
i=1
Integrieren bezüglich Q liefert also
z ≥ EQ [βT−1 F ] bzw. q(F ) ≥ EQ [βT−1 F ],
vorausgesetzt, solche z und θ existieren. Existieren solche z oder θ nicht, so gilt
q(F ) = ∞ > EQ [βT−1 F ].
zu b): Nun nehmen wir an, dass der Markt vollständig ist. Wir definieren
(
k
, F (ω) ≥ k
Fk (ω) :=
.
F (ω) , F (ω) < k
Dann sind Fk beschränkte T -Claims. Aufgrund der Volständigkeit finden wir also
(nach der Darstellung aus Lemma 4.3 eindeutige) yk ∈ R und θ(k) , so dass
Z T
−yk +
(θs(k) )> dXs = −Fk f.s.,
0
d.h. nach Lemma 4.4 und Lemma 4.5
Z T
Z
−1
(k) >
−βT Fk = −yk +
(θs ) dX̄s = −yk +
0
T
n
X
0
(θs(k) )i βs−1 σs(i) dB̃s
f.s.
i=1
Dies liefert yk = EQ [βT−1 Fk ]. Mit dem Satz über monotone Konvergenz folgt
k→∞
p(F ) ≥ EQ [βT−1 Fk ] −−−→ EQ [βT−1 F ].
Zusammen mit a) ergibt sich also p(F ) = EQ [βT−1 F ]. Durch eine analoge Argumentation erhalten wir ferner q(F ) = EQ [βT−1 F ].
Dieses und weitere Ergebnisse fassen wir im folgenden Satz zusammen:
Satz 4.11. Seien die Bedingungen (4.9) und (N ) aus Lemma 4.5 erfüllt und Q bzw.
B̃ definiert wie in (4.6) bzw. (4.7). Ferner sei der Markt X vollständig. Dann gilt:
(a) Der faire Preis p einer Option mit nichtnegativer und FT -messbarer Auszahlungsfunktion F = F (ω) ∈ L2 (FT , Q) ist bestimmt durch die Formel
p = EQ [βT−1 F ].
(b) Es gibt einen perfekten Hedge θ mit VTθ = F .
(c) Die Werte θti , i = 1, . . . , n, t ∈ [0, T ], können aus dem diskontierten Markt X̄
gewonnen werden:
EQ (βT−1 F |Ft )
=
EQ [βT−1 F ]
+
n Z
X
i=1
0
t
θui dS̄ui ,
0 ≤ t ≤ T.
4.2 Vollständigkeit und Optionspreis
77
(d) Die Werte θt0 , t ∈ [0, T ], sind bestimmt durch die Formel
Z t
0
−1
rs As βs−1 ds
θt = p + βt At +
0
mit At =
Pn
Rt
i=1
0
i
θsi dSsi − θti St .
(e) Das Vermögen Vtθ ist
Vtθ = βt EQ (βT−1 F |Ft ). (P - und Q-f.s.).
Beweis. Teil (a) folgt direkt aus Proposition 4.10.
Nach Lemma 4.5 ist Q ein äquivalentes Martingalmaß. Der Markt ist also arbitragefrei nach Lemma 4.1. Sei Fk wie im Beweis von Proposition 4.10. Dann existiert eine
perfekte Hedgingstrategie θ(k) für Fk , d.h. es gilt für θ(k,S) = ((θ(k) )1 , . . . , (θ(k) )n )>
Z T
Z T
−1
−1
−1
(k) >
(θs(k,S) )> βs−1 σs dB̃s , k ∈ N.
(θs ) dX̄s = EQ [βT Fk ]+
βT Fk = EQ [βT Fk ]+
0
0
Nach besagtem Beweis konvergiert Fk gegen F und EQ [βT−1 Fk ] gegen EQ [βT−1 F ].
Aufgrund der Itô-Isometrie ist also β −1 (θ(k,S) )> σ eine Cauchyfolge in L2 (λ ⊗ Q),
wobei λ das Lebesgue-Maß auf [0, T ] bezeichne. Folglich muss β −1 (θ(k,S) )> σ in L2
gegen einen f.s. eindeutig bestimmten Prozess ϕ ∈ L2 (λ ⊗ Q) konvergieren, und
R T −1 (k,S) >
RT
βs (θs ) σs dB̃s konvergiert gegen 0 ϕ> dB̃s . Da nach Definition r gleichmäßig
0
beschränkt sein soll, ist auch βT−1 beschränkt. Aus F ∈ L2 (FT , Q) folgt also auch
die quadratische Integrierbarkeit von βT−1 F bezüglich Q. Nach dem zweiten Teil
von Lemma 4.3 existiert
somit
ein Rm -wertiger, produktmessbarer und adaptierter
R T
Prozess φ mit E 0 |φt |2 dt < ∞, so dass
Z T
−1
−1
βT F = EQ [βT F ] +
φ>
t dB̃t . (∗)
0
Aufgrund der Eindeutigkeit der Darstellung muss ϕ mit φ übereinstimmen. Durch
Übergang zu einer Teilfolge können wir annehmen, dass β −1 θ(k,S) σ f.s. gegen φ>
konvergiert. Nach Proposition 4.6 besitzt σ für fast alle (t, ω) eine Linksinverse Λ
mit Werten in Rm×n . θ(k,S) konvergiert also f.s. gegen die Strategie θtS = βt Λ>
t φt .
Aufgrund der Itô-Isometrie ist das Integral in (∗) ein Q-Martingal. Aus (∗), der
Definition von θS und Lemma 4.5 resultiert also die Darstellung aus Teil (c) der
Behauptung. Die Werte θt0 errechnen sich gemäß Bemerkung 4.4 durch
Z t
0
−1
θt = p + βt At +
rs As βs−1 ds
0
Pn
mit At =
Darstellung
i=1
Rt
0
i
θsi dSsi − θti St . Da V̄ ein Q-Martingal ist, erhalten wir aus der
V̄tθ
=
V0θ
Z
+
0
t
θs>
Z
dX̄s = p +
t
φ>
s dB̃s
0
die Formel
βt−1 Vtθ = EQ (βT−1 VTθ |Ft ) = EQ (βT−1 F |Ft ) (P - und Q-f.s.).
78
4 FINANZMATHEMATIK
Aufgabe 47. Betrachten Sie den Markt X = (β, S)> mit
dβt = rβt dt ,
β0 = 1.
r > 0 sei konstant. Bestimmen Sie den fairen Preis für den europäischen T -Claim
F = BT in den folgenden Fällen: a) dSt = cdBt mit c 6= 0 konstant, b) dSt =
µSt dt + σdBt mit Konstanten µ und σ 6= 0.
Aufgabe 48. Sei B eine eindimensionale Brownsche Bewegung und X der Markt
mit
dβt = rβt dt , β0 = 1 , dSt = µSt dt + σSt dBt , S0 = x
mit Konstanten r, µ und σ. Bestimmen Sie den Preis eines Claims, der den Betrag M auszahlt, wenn die Aktie im Zeitraum [0, T ] das Niveau K erreicht bzw.
überschreitet, und andernfalls nichts ausschüttet. D.h. bestimmen Sie den Preis des
T -Claims
F = M 1{supt∈[0,T ] St ≥K} .
4.3
Konkrete Modelle
In diesem Abschnitt werden wir das bisher gelernte auf zwei bekannte Finanzmarktmodelle anwenden und jeweils die Preise für europäische Put- und Call-Optionen
berechnen sowie Hedgingstrategien bestimmen. Wie wir aus dem letzten Abschnitt
wissen, spielt dabei der bedingte Erwartungswert EQ (βT−1 FT |Ft ) eine wichtige Rolle.
Mit Hilfe des folgenden Lemmas können wir diesen in einen bedingten Erwartungswert bezüglich des ursprünglichen W-Maßes P umschreiben.
Lemma 4.12.
Sei (Ft )t∈[0,T] eine Filtration und Qt und Pt W-Maße auf Ft , t ∈
[0, T ] mit Pt Fs = Ps bzw. Qt Fs = Qs für s ≤ t. Es gelte Qt Pt , t ∈ [0, T ], und Y
s
sei eine beschränkte (oder Qt -integrierbare) Ft -messbare Zufallsvariable. Zs = dQ
dPs
bezeichne die Ps -Dichte von Qs . Für alle s ≤ t gilt dann Qt (Zs > 0) = 1 und
EQt (Y |Fs ) =
1
E(Y Zt |Fs ) Qt -f.s.
Zs
Beweis. Sei A ∈ Fs . Wir müssen zeigen
i
h 1
EQt 1A E(Y Zt |Fs ) = EQt [1A Y ].
Zs
Da 1A Zs−1 E(Y Zt |Fs ) Fs -messbar ist, folgt dies unmittelbar durch
i
h 1
i
h 1
EQt 1A E(Y Zt |Fs ) = EQs 1A E(Y Zt |Fs )
Zs
Zs
= EPs [1A E(Y Zt |Fs )] = EPt [E(1A Y Zt |Fs )]
= EPt [1A Y Zt ] = EQt [1A Y ].
Im Bachelier-Modell im Zeitintervall [0, T ] wird der Bondanteil βt als unveränderlich
(βt ≡ 1) und die Aktienpreise als von einer linearen Brownschen Bewegung mit Drift
St = S0 + µt + σBt ,
t ∈ [0, T ],
4.3 Konkrete Modelle
79
auf einem W-Raum (Ω, F, P ) mit σ > 0 und µ ∈ R erzeugt angenommen. Obwohl S
in diesem Modell auch negativ werden kann, was aus ökonomischen Gesichtspunkten
ungeeignet ist, um einen Aktienkurs zu beschreiben, bleibt der Prozess S mit S0 > 0
und µ > 0 jedoch für eine ziemlich lange Zeit positiv. Denn ist τ0 := inf{t ≥ 0 : St =
2
0}, dann gilt P (τ0 < ∞) = e−2µS0 /σ , was für große µS0 /σ 2 nahe bei 1 liegt. Da in
diesem Modell r = 0 ist, erfüllt u = µ/σ die Bedingungen (4.9) und (N ). Setzen wir
µ
1 µ 2 T
Mt = exp − BT −
σ
2 σ
und dQ = MT dP , dann hat der Prozess (S0 + µt + σBt )t∈[0,T ] unter Q die gleiche
Verteilung wie (S0 + σBt )t∈[0,T ] unter P . S ist also ein Q-Martingal und Q somit
ein zu P äquivalentes Martingalmaß. Der Markt ist also arbitragefei und wegen
Korollar 4.7 auch vollständig. Das äquivalente Martingalmaß Q ist also eindeutig
festgelegt.
Satz 4.13 (Bachelier-Formel). a) Im Bachelier-Modell ist der faire Preis CT einer
europäischen Call-Option mit Auszahlungsfunktion F = (ST −K)+ durch die Formel
S − K √ S0 − K 0
√
√
+ σ Tϕ
CT = (S0 − K)Φ
σ T
σ T
bestimmt, wobei ϕ die Dichte und Φ die Verteilungsfunktion der Standardnormalverteilung bezeichnet. Für S0 = K ergibt sich insbesondere
r
T
CT = σ
.
2π
b) Im Bachelier-Modell ist der faire Preis PT einer europäischen Put-Option mit
Auszahlungsfunktion F = (K − ST )+ gegeben durch
K − S √ S − K √ 0 + σ Tϕ 0√
.
PT = −(S0 − K)Φ
σ T
σ T
Für S0 = K gilt insbesondere
r
PT = CT = σ
T
.
2π
Beweis. Nach Satz 4.11 gilt
CT = EQ F = EQ [(S0 + µT + σBT − K)+ ] = E[(S0 − K + σBT )+ ]
√
= E[(S0 − K + σ T B1 )+ ].
Eine einfache Rechnung liefert
+
E[(a + bB1 ) ] = aΦ
a
b
+ bϕ
a
b
∀a ∈ R, b ≥ 0.
√
Setzen wir a = S0 − K und b = σ T , so erhalten wir die behauptete Formel.
Die Put-Call-Parität 4.9 hat im vorliegenden Modell die Gestalt PT = CT − S0 + K.
Man kann sie auch einfach mit EQ ST = S0 aus der Gleichung (K − ST )+ =
(ST − K)+ − ST + K herleiten. Hiermit und mit der Symmetrtie der Standardnormalverteilung errechnen wir die behauptete Formel für PT .
80
4 FINANZMATHEMATIK
Wir wollen nun eine Hedging-Strategie θ = (γ, π) bestimmen.
Satz 4.14. Im Bachelier-Modell sind die Komponenten γt und πt des HedgingPortfolio θ = (γ, π) bestimmt durch
πt = Φ
und
S −K √t
σ T −t
S −K S −K √
t
t
+ σ T − tϕ √
.
γt = −KΦ √
σ T −t
σ T −t
Beweis. Nach Satz 4.11 lässt sich π aus der Darstellung
Z t
−1
−1
πu dS̄u
EQ (βT F |Ft ) = EQ [βT F ] +
0
oder wegen Vtθ = βt EQ (βT−1 F |Ft ) aus der Gleichung
Z t
−1
θ
−1 θ
πu dS̄u
βt Vt = V̄t = EQ [βT F ] +
(∗)
0
bestimmen. Da hier β ≡ 1, ist
Vtθ = EQ (F |Ft ) = EQ ((ST − K)+ |Ft ).
Aus Lemma 4.12 folgt
Vtθ = EQ ((ST − K)+ |Ft ) = E
M
T
Mt
(ST − K)+ Ft
2 mit Mt = exp − σµ Bt − 12 σµ t . Da nach Modellannahme St = S0 + µt + σBt , ergibt
sich
µ
+ 1 µ 2
Vtθ = E exp − (BT −Bt )−
(T −t) (St −K)+σ(BT −Bt )+µ(T −t) Ft .
σ
2 σ
Da BT − Bt unabhängig von Ft und St Ft -messbar ist, können wir dies ausrechnen,
indem wir für konstantes a den Erwartungswert
h µ
+ i
1 µ 2
(T − t) a + σ(BT − Bt ) + µ(T − t)
E exp − (BT − Bt ) −
σ
2 σ
berechnen
√ und anschließend in das Ergebnis a = St − K einsetzen. Setze abkürzend
b = σ T − t. Durch eine einfache Transformation nimmt der Erwartungswert die
etwas handlichere Form
E[(a + bZ)+ ], Z ∼ N0,1 ,
an. Wie im Beweis von Satz 4.13 erhalten wir
a
a
Vtθ = aΦ
+ bϕ
.
b
b
Setze
x−K x−K √
+ σ T − tϕ √
,
C(t, x) = (x − K)Φ √
σ T −t
σ T −t
4.3 Konkrete Modelle
81
dann gilt Vtθ = C(t, St ). Aufgrund der Darstellung (∗) gilt andererseits
dVtθ = πt dSt . (∗∗)
Da C(t, x) in beiden Komponenten zweimal stetig differenzierbar ist, können wir die
Itô-Formel aus Theorem 2.38 anwenden. Diese liefert
∂C 1 ∂ 2 C ∂C
dC(t, St ) =
dSt +
+ σ 2 2 dt.
∂x
∂t
2 ∂x
Ein Vergleich mit (∗∗) zeigt, dass die Gleichungen
∂C 1 2 ∂ 2 C
∂C
(t, St ) und
+ σ
=0
∂x
∂t
2 ∂x2
erfüllt sein müssen. Wir errechnen
S −K t
πt = Φ √
.
σ T −t
πt =
Aus der Darstellung Vtθ = C(t, St ) = γt + πt St erhalten wir die behauptete Formel
für γt .
Betrachten wir nun das sog. Black-Merton-Scholes-Modell oder auch Black-ScholesModell. In ihm sind rt = r ≥ 0, µ ∈ R und σ > 0 Konstanten, so dass die sDGLen
dβt = rβt dt
und
dSt = µSt dt + σSt dBt
(hier ist S eindimensional) erfüllt sind. Nur die beiden Parameter µ und σ sind unbekannt, die Zinsrate r ist am Markt bekannt. Nach Proposition 3.1 bzw. Beispiel 3.1
werden diese sDGLen gelöst durch
βt = β0 ert
und St = S0 e(µ−
σ2
)t+σBt
2
.
Der Grundraum sei mit der von B erzeugten Filtration versehen. Unser Haupziel
ist nun, die Black-Scholes-Formel für die fairen Preise CT bzw. PT von Call- bzw.
Put-Optionen mit Auszahlungsfunktion FT = (ST − K)+ bzw. FT = (K − ST )+
herzuleiten.
Aufgabe 49. Berechnen Sie im Bachelier- und im Black-Scholes-Modell die Wahrscheinlichkeit unter P , mit der eine europäische Call-Option ausgeübt wird.
Wir werden zeigen
Satz 4.15 (Black-Scholes-Formel). Im Black-Merton-Scholes-Modell sind die fairen
Preise CT und PT europäischer Call- und Put-Optionen mit Ausübungspreis K > 0
und Ausübungszeit T > 0 gegeben durch
CT = S0 Φ(d+ (T )) − Ke−rT Φ(d− (T ))
und
PT = −S0 Φ(−d+ (T )) + Ke−rT Φ(−d− (T )),
Rx
2
wobei Φ(x) = (2π)−1/2 −∞ e−y /2 dy die Verteilungsfunktion der Standarnormalverteilung ist, und
2
log SK0 + T r ± σ2
√
.
d± (T ) =
σ T
82
4 FINANZMATHEMATIK
Beweis. Analog zu Satz 3.11 (Girsanov I) oder Satz 3.12 (Girsanov II) setzen wir
µ−r
1 µ − r 2 Mt = exp −
Bt −
t .
σ
2
σ
Nach Aufgabe 8 oder Lemma 4.3 und Lemma 4.5 ist M ein Martingal bezüglich
(Ft )t∈[0,T ] . Hiermit definieren wir Q durch Q(A) = EP [1A MT ]. Nach Satz 3.11 ist
dieses Q ein W-Maß und W mit
Z t
µ−r
µ−r
Wt =
ds + Bt =
t + Bt
σ
σ
0
eine Brownsche Bewegung bzgl. Q. Nach Definition gilt also µt + σBt = rt + σWt
für alle t ≤ T . Da W eine Brownsche Bewegung bzgl. Q ist, ist (µt + σBt )t∈[0,T ]
unter Q verteilt wie (rt + σBt )t∈[0,T ] unter P . Daher ist S unter Q verteilt wie
σ2
S0 e(r− 2 )t+σBt t∈[0,T ] unter P . Folglich ist auch (βt−1 St )t∈[0,T ] unter Q verteilt wie
σ2
σ2
β0−1 S0 e− 2 t+σBt t∈[0,T ] unter P . Nach Aufgabe 8 ist e− 2 t+σBt t∈[0,T ] ein Martingal bzgl. P . Dies impliziert, dass auch (βt−1 St )t∈[0,T ] ein Martingal bzgl. Q ist. Mit
anderen Worten ist Q ein Martingalmaß für den Prozess (βt−1 St )t∈[0,T ] . Der betrachtete Markt ist also nach Lemma 4.1 arbitragefrei. Man kann außerdem zeigen, dass
das Martingalmaß sogar eindeutig ist, der Markt ist also ferner vollständig. Nach
Satz 4.11 ist also der faire Preis CT einer europäischen Call-Option mit Auszahlungsfunktion F = (ST − K)+ gegeben durch
CT = β0 EQ [βT−1 F ] = β0 βT−1 EQ F.
Wir rechnen
+ σ2
CT = e−rT EQ [(ST − K)+ ] = e−rT EQ S0 e(µ− 2 )T +σBT − K
+ σ2
= e−rT EP S0 e(r− 2 )T +σBT − K
√
+ + σ2
b2
,
= e−rT EP S0 erT e− 2 T +σ T B1 − K
= e−rT EP aebB1 − 2 − K
√
wobei a = S0 erT und b = σ T . Für den Erwartungswert erhalten wir
Z
+ bB1 − b2
b2
u2
1
2 − K
EP ae
=
(aebu− 2 − K)+ √ e− 2 du
2π
Z ∞
1 − 1 (b2 −2bu+u2 )
√ e 2
= a
du
b2
2π
b−1 (log K
+
)
Z ∞a 2
u2
1
√ e− 2 du
−K
2
2π
b−1 (log K
+ b2 )
a
Z ∞
1
2
√ e−x /2 dx
= a
2
2π
b−1 (log K
− b2 )
a
h
K b2 i
−K 1 − Φ b−1 log
+
a
2 a
a
1 2
log K + 2 b
log K − 21 b2
= aΦ
− KΦ
,
b
b
also
log SK0 + T r +
√
CT = S0 Φ
σ T
σ2
2
−rT
− Ke
log SK0 + T r −
√
Φ
σ T
σ2
2
4.3 Konkrete Modelle
83
oder kurz CT = S0 Φ(d+ (T )) − Ke−rT Φ(d− (T )). Mit der Put-Call-Parität ergibt sich
daraus der faire Preis
2 2 log SK0 + T r + σ2
log SK0 + T r − σ2
−rT
√
√
PT = −S0 1 − Φ
1−Φ
+ Ke
σ T
σ T
= −S0 Φ(−d+ (T )) + Ke−rT Φ(−d− (T )).
Aufgabe 50. Zeigen Sie:
a) CT wächst mit der Laufzeit T und konvergiert für T ↓ 0 gegen (S0 − K)+ .
b) CT ist eine konvexe Funktion des Anfangswertes S0 .
c) Der Preis CT wächst mit der Volatilität σ.
d) CT wächst mit der Zinsrate r und fällt mit dem Ausübungspreis K.
Wir suchen nun eine Hedgingstrategie θt = (γt , πt ), die den Wert FT repliziert.
Satz 4.16. Im Black-Merton-Scholes-Modell sind die Komponenten γt und πt der
Hedging-Strategie θ bestimmt durch
γt =
und
−Kβ0−1 e−rT Φ
log SKt + (T − t)(r −
√
σ T −t
log SKt + (T − t)(r +
√
πt = Φ
σ T −t
σ2 )
2
σ2 )
2
.
Beweis. Nach Satz 4.11 und Lemma 4.12 gilt
Vtθ = βt EQ (βT−1 F |Ft ) = e−r(T −t) EQ ((ST − K)+ |Ft )
M
T
(ST − K)+ Ft
= e−r(T −t) E
Mt
mit
µ−r
1 µ − r 2 Mt = exp −
Bt −
t .
σ
2
σ
Daraus folgt mit ähnlichen Methoden wie im Beweis zu Satz 4.14
b2
mit a = St er(T −t)
Vtθ = e−r(T −t) E[(aebW1 − 2 − K)+ ]
√
und b = σ T − t. Mit der Bezeichnung
log Kx + (T − t)(r +
√
C(t, x) = −xΦ
σ T −t
σ2 )
2
−r(T −t)
+ Ke
ergibt sich wie im Beweis zu Satz 4.15
Vtθ = C(t, St ).
Aus dem Beweis von Satz 4.14 entnehmen wir
dV̄tθ = πt dS̄t . (#)
log Kx + (T − t)(r −
√
Φ
σ T −t
σ2 )
2
84
4 FINANZMATHEMATIK
Theorem 2.37 (Partielle Integration) liefert andererseits
dV̄tθ = d(β −1 V θ )t = βt−1 dC(t, St ) + C(t, St )d(β −1 )t = βt−1 dC(t, St ) − C(t, St )rβt−1 dt.
Durch Anwenden der Itô-Formel (Theorem 2.38) auf C(t, St ) erhalten wir
dC(t, St ) =
∂C
∂C
1 ∂2C
(t, St )dt +
(t, St )dSt +
(t, St )d[S]t .
∂t
∂x
2 ∂x2
Aufgrund der partiellen Integration können wir zudem βt−1 dSt durch dS̄t + St rβt−1 dt
ersetzen. Also gilt
dV̄tθ
∂C
∂C
∂C
=
(t, St ) − rC(t, St ) + rSt
(t, St ) dt +
(t, St )dS̄t
∂t
∂x
∂x
1
∂2C
+ βt−1 2 (t, St )d[S]t .
2
∂x
βt−1
Aus der Darstellung dSt = µSt dt + σSt dBt bzw.
Z t
Z t
Z t
St = S 0 + µ
Ss ds + σ
Ss dBs = S0 + µ
Ss ds + σ(S · B)t
0
0
0
ergibt sich mit Korollar 2.30
2
2
2
[S]t = σ [S · B]t = σ (S · [B])t = σ
2
Z
t
Ss2 ds
0
bzw. d[S]t = σ 2 St2 dt. Insgesamt erhalten wir also
dV̄tθ = βt−1
∂C
(t, St ) − rC(t, St ) + rSt
∂t
∂C
(t, St )dS̄t .
+
∂x
∂C
1
∂2C
(t, St ) + σ 2 St2 2 (t, St ) dt
∂x
2
∂x
Ein Vergleich mit (#) zeigt, dass die Gleichungen
∂C
πt =
(t, St ) und
∂x
∂C
∂C 1 2 2 ∂ 2 C
+ rx
+ σ x
= rC
∂t
∂x
2
∂x2
erfüllt sein müssen. Daraus folgt
log SKt + (T − t)(r +
√
πt = Φ
σ T −t
σ2 )
2
.
Aus der Beziehung Vtθ = γt βt +πt St (= C(t, St )) leiten wir her, dass πt die behauptete
Gestalt besitzt.
Aufgabe 51. a) Berechnen Sie den fairen Preis des T -Claims F = (ST )2 .
b) Bestimmmen Sie einen perfekten Hedge für diesen Claim.
Aufgabe 52. Sei X = (β, S) wie im Black-Merton-Scholes-Modell und µ > r. Ein
amerikanischer Call gibt dem Käufer das Recht (aber nicht die Pflicht), eine Aktie
4.4 Ausblick
85
bis zu einem Zeitpunkt T zu einem Preis K zu erwerben. Man kann zeigen, dass
der Preis eines amerikanischen Calls durch
pA = sup EQ [e−rτ (Sτ − K)+ ]
τ ≤T
gegeben ist, wobei das Supremum über alle (Ft )-Stoppzeiten τ mit τ ≤ T gebildet
wird. Beweisen Sie, dass
pA = e−rT EQ [(ST − K)+ ],
d.h. dass es immer optimal ist, den amerikanischen Call, wenn überhaupt, zur Verfallszeit T auszuüben. Der Preis der amerikanischen Call-Option stimmt also mit
demjenigen des europäischen Calls überein. Definieren Sie dazu
Yt = e−rt (St − K)
und gehen Sie dann in folgenden Schritten vor:
a) Beweisen Sie, dass Y ein Q-Submartingal ist, d.h dass gilt
Ys ≤ EQ (Yt |Fs ),
für s < t.
b) Zeigen Sie, dass Z mit
Zt := e−rt (St − K)+
ebenfalls ein Q-Submartingal ist.
c) Bestimmen Sie den Preis des amerikanischen Calls.
4.4
Ausblick
Exotische Optionen
Es gibt noch eine Vielzahl weiterer Optionen, von denen ich nur einige hier nennen
will. Es gibt z.B. sog. Barriere-Optionen.
Definition 4.8. Eine down and out Call-Option mit Ausübungspreis K, Verfallszeit
T und Barriere H gibt ihrem Besitzer das Recht (aber nicht die Pflicht), eine Aktie
zur Zeit T zum Preis K zu kaufen, sofern der Preis S der Aktie zu keinem Zeitpunkt bis T unter H gefallen ist. Eine down and out Put-Option gibt ihrem Besitzer
unter der gleichen Voraussetzung das Recht, eine Aktie zur Zeit T zum Preis K zu
verkaufen.
Den Preis der Call-Option zur Zeit t bezeichnet man manchmal mit Ct,T (K|H ↓ O).
Zu dieser Option gehört die Auszahlungsfunktion (ST − K)+ 1{inf t∈[0,T ] St ≥H} . Der
gegenwärtige Preis ist
i
h
H 2r2 −1
i
h
H 1+ 2r2
σ
σ
−rT
C0,T (K|H ↓ O) = S0 Φ(d3 ) −
Φ(d4 ) − e K Φ(d1 ) −
Φ(d2 )
S0
S0
mit
d1
d3
S0
K
+ r−
√
=
σ T
log SK0 + r +
√
=
σ T
log
σ2
2
σ2
2
T
T
,
,
2
+ r − σ2 T
√
d2 =
σ T
2 2
log SH0 K + r + σ2 T
√
d4 =
.
σ T
log
H2
S0 K
86
4 FINANZMATHEMATIK
Den Preis der zugehörigen Put-Option kann man auch hier mittels der Put-CallParität bestimmen.
Im Folgenden definiere ich nur die jeweilige Call-Option. Die zugehörige Put-Option
wird dann definiert, indem man unter den angegebenen Voraussetzungen das Recht
erhält, eine Aktie zu verkaufen.
Definition 4.9. Eine up and out Call-Option gibt ihrem Besitzer das Recht, eine
Aktie zur Zeit T zum Ausübungspreis K zu kaufen, sofern der Preis S der Aktie bis
T nicht über H gestiegen ist.
Den Preis der Option zur Zeit t bezeichnet man auch mit Ct,T (K|H ↑ O). Zu dieser
Option gehört die Auszahlungsfunktion (ST − K)+ 1{supt∈[0,T ] St ≤H} . Der Preis einer
solchen Option hat eine ähnliche Form wie derjenige der down and out Call-Option.
Definition 4.10. Eine up and in Call-Option gibt ihrem Besitzer das Recht, eine Aktie zur Zeit T zum Ausübungspreis K zu kaufen, sofern der Preis S bis T
mindestens einmal größer als H geworden ist.
Analog zu den bisherigen Definitionen verwenden wir die Bezeichnung Ct,T (K|H ↑ I)
für den Preis der Option zur Zeit t. Dieser Option entspricht die Auszahlungsfunktion (ST − K)+ 1{supt∈[0,T ] St ≥H} . Zwischen dden Preisen der up and in Call Option,
der up and out Call-Option und der klassischen europäischen Call-Option besteht
die Zusammenhang
Ct,T (K|H ↑ I) + Ct,T (K|H ↑ O) = Ct,T .
Hieraus lässt sich der Preis der Option aus den schon bekannten Preisen berechnen.
Definition 4.11. Eine dowm and in Call-Option gibt ihrem Besitzer das Recht,
eine Aktie zur Zeit T zum Ausübungspreis K zu kaufen, sofern der Preis S zu einem
Zeitpunkt t ≤ T unter H gefallen ist.
Den Preis dieser Option zur Zeit t bezeichnen wir mit Ct,T (K|H ↓ I). Zu ihr gehört
die Auszahlungsfunktion (ST − K)+ 1{inf t∈[0,T ] St ≤H} . Auch hier besteht der Zusammenhang
Ct,T (K|H ↓ I) = Ct,T (K|H ↓ O) = Ct,T ,
aus dem sich der Preis der Option aus den schon bekannten Preisen berechnen lässt.
Die nächste vorgestellte Option ist zwar exotisch aber keine Barriere-Option.
Definition 4.12. Eine lookback Call-Option entspricht einer Auszahlungsfunktion
F = ST − inf t∈[0,T ] St . Eine lookback Put-Option entspricht einer Auszahlungsfunktion F = supt∈[0,T ] St − ST .
Wenden wir die bekannte Formel zur Optionspreisberechnung auf diese Auszahlungsfunktionen an, so erhalten wir für den Preis einer lookback Put-Option
Plookback = e−rT EQ [exp( sup Yt )] − erT
t∈[0,T ]
mit Yt = r −
σ2
2
t + σ B̃t . Rechnen wir dies aus, so ergibt sich
h i
√
2r √ σ2
Plookback = S0 Φ(−d) + e−rT Φ(−d + σ T ) + e−rT −Φ d −
T + e−rT Φ(d)
2r
σ
4.4 Ausblick
mit d =
87
2
2r+σ
√ .
2σ T
Entsprechend ist der Preis eines lookback Calls gegeben durch
h i
√
2r √ −rT
σ2
Clookback = S0 Φ(d)−e−rT Φ(−d+σ T )+ e−rT −Φ −d+
T −e Φ(−d) .
2r
σ
Ein weiterer wichtiger Typ sind die sog. Asiatischen Optionen. Anders als bei der
klassischen europäischen Option, bei der die Auszahlung nur vom Endzustand des
Marktes abhängt, basiert die Auszahlungsfunktion einer asiatischen Option auf den
durchschnittlichen Aktienpreisen während eines Zeitabschnitts innerhalb [0, T ]. Sie
wird wie die europäische Option zum Entzeitpunkt T ausgeübt. Ist [T0 , T ] der Zeitabschnitt, über den der Aktienpreis gemittelt wird, dann hat die Auszahlungsfunktion
die Form
(AS (T0 , T ) − K)+
RT
1
S du. Die Berechnung des Preises ist recht kompliziert,
mit AS (T0 , T ) = T −T
T0 u
0
deshalb wollen wir darauf verzichten.
Zusätzlich zu Optionen, die einem das Recht einräumen, eine Aktie zum Zeitpunkt
T zu einem vereinbarten Preis K zu kaufen oder zu verkaufen gibt es eine Option,
durch die man die Möglichkeit erhält, eine Aktie eines Typs gegen eine Aktie eines
anderen Typs auszutauschen. Eine solche Option heißt Exchange Option. Tauschen
wir beispielsweise Aktie 2 gegen Aktie 1, so entspricht die Option der Auszahlungsfunktion F = (ST1 − ST2 )+ . Der Markt sei gegeben durch
dβt = rβt dt , β0 = 1 ,
dSti
=
µSti dt
+
m
X
σi,j Sti dBtj , i = 1, . . . , n.
j=1
In diesem Fall liefert die bekannte Optionspreisformel
+ i
h
S2 S1
p = EQ [βT−1 (ST1 − ST2 )+ ] = S02 EQ βT−1 T2 T2 − 1
S0 S T
h S 1
+ i
T
= S02 EP̃
−1
,
ST2
wobei P̃ das W-Maß mit Q-Dichte
S2
βT−1 T2
S0
= exp
m
X
j=1
σ2,j B̃Tj
m
T X 2 −
σ
2 j=1 2,j
bezeichnet. Nach dem Satz von Girsanov ist W = (W 1 , . . . , W m )> definiert durch
Wtj = B̃tj − σ2,j t, t ∈ [0, T ], k = 1, . . . , m,
eine m-dimensionale Brownsche Bewegung unter P̃ . Wir können schreiben
m
m
S1 i
X
St1 hX
j
t
d 2
=
(σ
−
σ
)d
B̃
+
σ
(σ
−
σ
)dt
1,j
2,j
2,j
2,j
1,j
t
St
St2 j=1
j=1
m
St1 X
St1
j
(σ
−
σ
)dW
=
σdW̃t
=
1,j
2,j
t
St2 j=1
St2
88
mit σ :=
4 FINANZMATHEMATIK
qP
m
j=1 (σ1,j
− σ2,j )2 . Der Prozess W̃ ist eine eindimensionale Brownsche
Bewegung unter P̃ . Als Preis dieser Option erhalten wir schließlich
h S 1 S 1 S 1 i
p = S02 02 Φ d+ T, 02
− Φ d− T, 02
S0
S0
S0
S 1 S 1 − S02 Φ d− T, 02
= S01 Φ d+ T, 02
S0
S0
2
log p± σ2 s
√
σ s
mit d± (s, p) =
für s > 0 und p > 0. Man beachte, dass diese Formel der
Preisformel im Black-Scholes-Modell mit r = 0 ähnelt. Eine fast identische Formel
ergibt sich für eine currency Option oder foreign exchange Option, bei der man das
Recht (aber nicht die Pflicht) erwirbt, zur Zeit T zu einem vereinbarten Wechselkurs
K Geld von einer heimischen Währung in eine fremde zu tauschen.
Eine Verallgemeinerung des Black-Scholes-Modells
Wie bereits im Laufe der Vorlesung angedeutet, passt das Black-Scholes-Modell
nicht ganz zu den tatsächlichen Gegebenheiten. Die idealisierenden Annahmen, dass
es keine Transaktionskosten, keine Steuern und keine Dividendenzahlungen gibt,
lässt sich durch eine Anpassung des Modells beseitigen. Problematisch ist aber, dass
die Volatilität σ konstant ist. Angesichts dieses Problems betrachten wir nun ein
verallgemeinertes Modell, in dem der Aktienpreis die DGL
dSt = µ(t, St )dt + g(St )dBt
mit einer streng monoton wachsenden und genügend glatten Funktion g : R+ → R+
erfüllt. Die Itô-Formel für νt = g(St ) liefert
1
dνt = g 0 (St )dt + g 00 (St )d[S]t ,
2
oder mit der zu g inversen Funktion h
1
dνt = g 0 (h(νt ))µ(t, h(νt )) + g 00 (h(νt ))νt2 dt + g 0 (h(νt ))νt dBt .
2
John C. Cox schlug 1975 speziell Funktionen der Form g(s) = αsb , s ∈ R+ , mit
Konstanten α > 0 und b ∈ [0, 1] vor. Unter dem äquivalenten Martingalmaß Q gilt
dann die DGL
dSt = rSt dt + αStb−1 dB̃t . (∗)
Für b = 0 erhalten wir das Bachelier-Modell, b = 1 führt zum Black-Scholes-Modell.
Nur die Fälle b ∈ (0, 1) sind also noch zu behandeln.
Definition 4.13. Ein durch (∗) definiertes Aktienmarktmodell heißt Cox-Modell
oder constant elasticity of variance-Modell (kurz CEV-Modell).
Man kann zeigen, dass das Modell vollständig ist. Der Preis eines europäischen Calls
in diesem Modell zur Zeit t ist gegeben durch
∞
n
X
X
Ct (St , T − t) = St 1 −
γ(n + 1 + c, K̃t )
γ(m, F̃t )
n=1
−Ke−r(T −t)
∞
X
n=1
m=1
n
X
γ(n + c, F̃t )
m=1
γ(m, K̃t ),
4.4 Ausblick
wobei γ für die Dichte der Γ-Verteilung steht und c = 12 (1 − b), F̃t =
RT
K 2(1−b)
r(T −t)
K̃t = 2χ(t)(1−b)
und χ(t) = σ 2 t e2r(1−b)u du.
2 , Ft = St e
89
2(1−b)
Ft
,
2χ(t)(1−b)2
90
LITERATUR
Literatur
[AD-D00] Ash, R. B., Doléans-Dade, C. A., 2000: Probability & Measure Theory,
Harcourt Academic Press, 2. Auflage.
[Bau02] Bauer, H., 2002: Wahrscheinlichkeitstheorie, Walter de Gruyter, 5. Auflage.
[B-NS10] Barndorff-Nielsen, O. E., Shiryaev, A., 2010: Change of Time and Change
of Measure, in: Advanced Series on Statistical Science & Applied Probability, Vol. 13, World Scientific Publishing, 1. Auflage.
[Dec06] Deck, Th., 2006: Der Itô-Kalkül, Einführung und Anwendungen, SpringerVerlag Berlin Heidelberg, 1. Auflage.
[Dur96] Durrett, R., 1996: Stochastic Calculus, A Practical Introduction, in: Probability and Stochastic Series, CRC Press Boca Raton New York London
Tokyo, 1. Auflage.
[EK00] Elliott, R. J., Kopp, P. E., 2000: Mathematics of Financial Markets, Springer Verlag New York Berlin Heidelberg, 2. Auflage.
[Irl98]
Irle, A., 1998: Finanzmathematik, Die Bewertung von Derivaten, Teubner
Verlag Wiesbaden, 1. Auflage.
[Kar97] Karatzas, I., 1997: Lectures on the Mathematics of Finance, in: CRM monograph series Vol. 8, American Mathematical Society, Providence, Rhode
Island, 1. Auflage
[KS98] Karatzas, I., Shreve, S. E., 1998: Brownian Motion and Stochastic Calculus, in: Graduate Texts in Mathematics 113, Springer-Verlag New York, 2.
Auflage.
[Kle08] Klenke, A., 2008: Wahrscheinlichkeitstheorie, Springer-Verlag, 2. Auflage.
[LL08]
Lamberton, D., Lapeyre, B., 2008: Introduction to Stochastic Calculus Applied to Finance, Chapman & Hall/CRC, 2. Auflage.
[MS05] Meintrup, D., Schäffler, S., 2005: Stochastik: Theorie und Anwendungen,
Springer-Verlag, 1. Auflage.
[Øks03] Øksendal, B. K., 2003: Stochastic Differential Equations: An Introduction
with Applications, Springer-Verlag, 6. Auflage.
[Ste00] Steele, J. M., 2000: Stochastic Calculus and Financial Applications, in: Applications of Mathematics 45, Stochastic Modelling and Applied Probability,
Springer-Verlag New York Berlin Heidelberg, 1. Auflage.
[Yor97] Yor, M., 1997: Some Aspects of Brownian Motion, Part II. ETH Lectures
in Math. Birkhäuser.
Herunterladen