Mathematical Finance

Werbung
Jan Kallsen
Mathematical Finance
Eine Einführung in die
zeitdiskrete Finanzmathematik
CAU zu Kiel, WS 09/10, Stand 28. Oktober 2009
Inhaltsverzeichnis
0
Erinnerung Stochastik
3
1
Mathematische Hilfsmittel
1.1 Absolutstetigkeit und Äquivalenz . . . . . . . . . . . . . . . . . . . . . . .
1.2 Der Hilbertraum L2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Bedingter Erwartungswert . . . . . . . . . . . . . . . . . . . . . . . . . .
7
7
8
9
2
Diskrete stochastische Analysis
2.1 Stochastische Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Martingale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3 Stochastisches Integral . . . . . . . . . . . . . . . . . . . . . . . . . . . .
19
19
21
24
2
Kapitel 0
Erinnerung Stochastik
Diese Vorlesung setzt bisweilen Kenntnisse in maßtheoretischer Wahrscheinlichkeitstheorie
voraus. Hier werden einige wichtige Begriffe zusammengestellt. Sie reichen zum Verständnis der wesentlichen Ideen und Resultate der folgenden Kapitel aus, wenn auch nicht in der
dargestellten mathematischen Allgemeinheit.
Grundlage der Wahrscheinlichkeitstheorie bildet ein Grund- oder Ergebnisraum Ω, der
die möglichen Ausgänge oder Ergebnisse eines Zufallsexperiments umfasst (z.B. Ω = {1, 2,
3, 4, 5, 6} für einen Würfelwurf oder Ω = R für die zu einem bestimmten Zeitpunkt gemessene Temperatur). Diese Ergebnisse treten mit gewissen Wahrscheinlichkeiten auf. Diese
werden durch ein Wahrscheinlichkeitsmaß P ausgedrückt. In der Regel betrachtet man allerdings nicht Wahrscheinlichkeiten von einzelnen Ergebnissen, da diese bei Expreimenten
mit überabzählbarem Grundraum wie Ω = R oft alle 0 sind. Die Wahrscheinlichkeit, genau 20,1258◦ C zu messen, ist wie bei jeder anderen ganz genau angegebenen Temperatur
„unendlich klein“, also 0. Stattdessen betrachtet man Wahrscheinlichkeiten von Teilmengen des Ergebnisraums wie etwa [20; 20,5], also einer Temperatur zwischen 20◦ und 20,5◦ .
Solche Teilmengen von Ω heißen Ereignisse. Die Menge aller Teilmengen A ⊂ Ω ist die
Potenzmenge P(Ω).
Man stößt bei überabzählbaren Grundräumen auf tiefligende mathematische Probleme,
wenn man versucht, jedem Ereignis A ⊂ Ω eine Wahrscheinlichkeit zuzuordnen. Man beschränkt sich daher auf hinreichend viele, nämlich solche aus einer vorgegebenen σ-Algebra
F . Darunter versteht man eine Teilmenge der Potenzmenge, die abgeschlossen unter abzählbaren Mengenoperationen wie Vereinigung, Schnitt, Komplementbildung ist. Formal
ausgedrückt:
Definition 0.1 F ⊂ P(Ω) heißt σ-Algebra, falls
1. Ω ∈ F ,
2. AC ∈ F für alle A ∈ F (wobei AC := Ω \ A),
3. ∪∞
i=1 Ai ∈ F falls A1 , A2 , . . . ∈ F .
3
4
KAPITEL 0. ERINNERUNG STOCHASTIK
Man kann dann zeigen, dass auch Schnittmengenbildung usw. nicht aus der σ-Algebra herausführen. Anschaulich kann man sich eine σ-Algebra als etwas Ähnliches wie die Potenzmenge vorstellen, nur vielleicht etwas kleiner. Ab jetzt sei neben dem Grundraum Ω auch
die σ-Algebra F festgelegt; man spricht von einem meßbaren Raum (Ω, F ). Unter Ereignissen versteht man im engeren Sinne die Elemente von F , also die Teilmengen von Ω, die
zur betrachteten σ-Algebra gehören. Sie werden auch messbare Mengen genannt. Wenn es
sich bei dem Grundraum um R oder allgemeiner Rd handelt, verewendet man üblicherweise
die sogennante Borel-σ-Algebra B bzw. B d , ohne dies zu erwähnen. Deren formale Definition als kleinste σ-Algebra, die alle offenen Mengen enthält, führt an dieser Stelle zu weit.
Hier sei nur erwähnt, dass diese σ-Algebra alle “vernünftigen“ Mengen enthält. Konkret ist
es nicht leicht, eine Teilmenge von R bzw. Rd anzugeben, die keine Borelmenge, also nicht
in der Borel-σ-Algebra enthalten ist. Bei endlichen und allgemeiner abzählbaren Grundräumen hat man es einfacher. Hier verwendet man in der Regel die Potenzmenge als σ-Algebra,
die angedeuteten Probleme treten in solch „kleinen“ Räumen nicht auf.
Das Wahrscheinlichkeitsmaß, das unser Zufallsexperiment beschreibt, ordnet jedem Ereignis eine Wahrscheinlichkeit zu. Formal:
Definition 0.2 P : F → R heißt Wahrscheinlichkeitsmaß auf (Ω, F ), falls es normiert
und σ-additiv ist, d.h. falls gilt:
1. P (Ω) = 1,
2. P (∪∞
i=1 Ai ) =
P∞
i=1
P (Ai ), falls A1 , A2 , . . . ∈ F paarweise disjunkte1 Mengen sind.
(Ω, F , P ) heißt Wahrscheinlichkeitsraum.
Aus Normiertheit und σ-Additivität kann man weitere allgemein bekannte Rechenregeln
für Wahrscheinlichkeiten ableiten. Die beiden Bedingungen lassen sich durch die entsprechenden Eigenschaften relativer Häufigkeiten motivieren. In der Tat kann man sich Wahrscheinlichkeiten als eine Art idealisierte relative Häufigkeiten vorstellen: Eine Wahrscheinlichkeit P ([20; 20,5]) = 0,05 bedeutet anschaulich, dass man nach millionenfacher erneuter
Durchführung des Zufallsexperiments unter gleichen Bedingungen (hier: der Temperaturmessung) in etwa 5% der Fälle ein Ergebnis im Intervall [20; 20,5] erhält. Dass eine solche
Wiederholung des Zufallsexperiments nicht immer tatsächlich möglich ist, soll dabei außer
Acht gelassen werden.
Wenn man die Normierungsbedingung P (Ω) = 1 in Definition 0.2 weglässt, erhält man
übrigens den allgemeineren Begriff eines Maßes, der sich auch für Länge, Fläche, Volumen,
Masse und anderes eignet. Das Lebesguemaß λ auf R etwa ordnet jeder Menge deren Länge
zu, d.h. es gilt λ((a, b]) = b − a für Intervalle mit a ≤ b.
Oft interessiert man sich nicht für das genaue Ergebnis ω ∈ Ω eines mitunter sehr komplexen Zufallsexpreiments, sondern nur für einen quanitativen Aspekt X(ω) davon. Bei ω
könnte es sich z.B. um den Zustand des gesamten Finanzmarkts an einem festgelegten Zeitpunkt handeln, bei X(ω) hingegen nur um den e-$-Wechselkurs in diesem Moment. Solche
1
d. h. Ai ∩ Aj = ∅ für i 6= j
5
X bezeichnet man als Zufallsvariable oder Zufallsgröße. Formal versteht man darunter eine Abbildung X : Ω → R, die die technische Bedingung der Messbarkeit erfüllt, die für die
Theorie benötigt wird.
Definition 0.3 Eine Abbildung f : Ω → R heißt messbar (genauer: F -B-messbar), falls
f −1 (B) ∈ F für alle B ∈ B.
Messbarkeit ist automatisch gegeben, wenn es sich bei der σ-Algebra F um die Potenzmenge P(Ω) handelt.
Der Erwartungswert E(X) einer Zufallsvariablen steht anschaulich für den Mittelwert
der Werte von X, den man bei millionenfacher Durchführung des Experiments unter identischen Bedingungen erhält. Im Falle eines endlichen oder abzählbaren Grundraums ist dies
X
E(X) :=
X(ω)P ({ω}).
(0.1)
ω∈Ω
Auf der rechten Seite werden die möglichen Werte X(ω) mit der Wahrscheinlichkeit
P ({ω}) ihres Auftretens gewichtet, die ja anschaulich dem Anteil der Versuchswiederholungen entspricht, in dem man das Ergebnis ω erhält. Für überabzählbare Grundräume wie
R ist (0.1) sinnlos; man verwendet dann die allgemeinere Definition
Z
Z
E(X) := XdP = X(ω)P (dω),
(0.2)
zu deren Verständnis man allerdings zunächst das Lebesgue-Integral auf der rechten Seite
einführen muss. Es lehnt sich schon in der Notation an (0.1) an: Das von Leibniz eingeführte
Integralzeichen symbolisiert ein stilisiertes S für Summe; das P (dω) erinnert an den Term
P ({ω}) in (0.1). Die fomale Definition des Integrals ist schwierig und führt hier zu weit.
Wichtig ist an dieser Stelle nur, dass (0.2) in abzählbaren Grundräumen nichts anderes als
(0.1) bedeutet.
Allgemeiner sind Integrale
Z
Z
f dµ = f (ω)µ(dω)
für Maße µ auf (Ω, F ) und messbare Abbildungen f : Ω → R definiert. Für endliches Ω
wird daraus ebenfalls eine Summe
Z
X
f (ω)µ(dω) =
f (ω)µ({ω}).
(0.3)
ω∈Ω
Integrale über Mengen A ∈ F sind einfach durch
Z
Z
f dµ := f 1A dµ
A
definiert, wobei
1A (ω) :=
1
0
falls ω ∈ A,
sonst
6
KAPITEL 0. ERINNERUNG STOCHASTIK
die Indikatorfunktion von A bezeichnet. Im endlichen Falle ist also
Z
Z
X
f dµ =
f (ω)µ(dω) =
f (ω)µ({ω}).
A
A
ω∈A
Auch für endliches Ω sind die rechten Seiten von (0.1) und (0.3) strenggenommen nur
dann definiert, falls die einelementigen Mengen ω in F liegen, d.h. falls F = P(Ω). Andernfalls gilt aber immerhin
Z
X
E(X) = XdP =
xP (X = x).
(0.4)
x∈R
wobei wir die übliche abkürzende Schreibweise
P (X = x) := P ({ω ∈ Ω : X(ω) = x})
verwenden. Die Summe auf der rechten Seite erstreckt sich dabei nur über die endlich vielen
Werte x, die tatsächlich von X angenommen werden. Ähnlich kann auch die rechte Seite
von (0.3) umgeschrieben werden.
Kapitel 1
Mathematische Hilfsmittel
In diesem Kapitel werden einige maß-, wahrscheinlichkeitstheoretische und funktionalanalytische Begriffe vorgestellt, die in einführenden Stochastik- und Analysis-Vorlesungen vielleicht nicht zur Sprache kamen. Beweise liefern wir dabei nur in Abschnitt 1.3 über bedingte
Erwartungswerte, ansonsten sei auf die Literatur verwiesen, z. B. [?, ?, ?].
1.1
Absolutstetigkeit und Äquivalenz
Ein ganz wesentlicher Kunstgriff in der Finanzmathematik besteht darin, neben dem eigentlichen Wahrscheinlichkeitsmaß weitere zu betrachten, unter denen bestimmte Erwartungswerte verschwinden. Dabei interessiert man sich aber vorwiegend für solche Maße, unter
denen die Mengen mit positiver Wahrscheinlichkeit dieselben wie unter dem ursprünglichen Wahrscheinlichkeitsmaß sind. Solche äquivalenten Maßwechsel spielen auch in der
Statistik eine wichtige Rolle.
Seien µ, ν Maße auf einem messbaren Raum (Ω, F ). Später werden wir fast ausschließlich Wahrscheinlichkeitsmaße betrachten.
Definition 1.1 Das Maß ν heißt absolutstetig bezüglich µ, falls jede µ-Nullmenge auch
eine ν-Nullmenge ist. Man schreibt dafür ν µ. 1
Dabei ist eine µ-Nullmenge eine beliebige Teilmenge einer Menge N ∈ F mit µ(N ) =
0. Man fordert bei Nullmengen also nicht unbedingt die Messbarkeit. Dies ist bisweilen aus
technischen Gründen sinnvoll.
Definition 1.2 µ und ν heißen äquivalent, falls µ ν und ν µ. Man schreibt dafür
µ ∼ ν.
Der Satz von Radon-Nikodým besagt, dass das dominierte Maß bei Absolutstetigkeit
schon eine Dichte bzgl. des dominierenden Maßes besitzt.
1
ν µ bedeutet für endliches Ω einfach, dass aus µ({ω}) = 0 schon ν({ω}) = 0 folgt.
7
8
KAPITEL 1. MATHEMATISCHE HILFSMITTEL
Satz 1.3 (Radon-Nikodým) Sei µ σ-endlich (d.h. es existieren Mengen A1 , A2 , . . . ∈ F
2
mit ∪∞
i=1 Ai = Ω und µ(Ai ) < ∞ für alle n). Dann sind äquivalent:
1. ν hat eine µ-Dichte f (d. h. es gibt eine nichtnegative messbare Abbildung f : Ω → R
R
mit ν(A) = A f dµ für alle A ∈ F ).3
2. ν µ.
Die Dichte
1.2
dν
dµ
:= f ist µ-fast überall eindeutig.4
Der Hilbertraum L2
Sei (Ω, F , P ) ein Wahrscheinlichkeitsraum. Man definiert
L2 (Ω, F , P ) := {X : Ω → R : X F -messbar, E(|X|2 ) < ∞}.
Für endliches Ω ist dies einfach die Menge aller Zufallsvariablen X : Ω → R.
Satz 1.4 L2 (Ω, F , P ) ist ein Hilbertraum bzgl. des Skalarprodukts (X, Y ) 7→ E(XY ),
falls man fast sicher gleiche Zufallsvariablen identifiziert.
Das bedeutet, dass L2 (Ω, F , P ) ein Vektorraum ist, die Abbildung (X, Y ) 7→ E(XY )
die Eigenschaften eines Skalarprodukts besitzt (mit der kleinen Einschänkung, dass
E(X 2 ) = 0 nicht X = 0, sondern nur die etwas schwächere Aussage X = 0 P -fast sicher impliziert) und der Raum bezüglich der durch dieses Skalarprodukt induzierten Norm
vollständig ist.
Im Rest des Abschnitts sei p
H ein beliebiger Hilbertraum mit Skalarprodukt h·, ·i und der
dazugehörigen Norm kxk := hx, xi. Wir werden die folgenden Aussagen später nur für
den L2 verwenden.
Elemente x, y heißen orthogonal, falls hx, yi = 0. Entsprechend heißen x ∈ H, Γ ⊂ H
orthogonal, falls hx, yi = 0 für alle y ∈ Γ. Das orthogonale Komplement von Γ ⊂ H
wird definiert als Γ⊥ := {x ∈ H : x orthogonal zu Γ}. Es gilt der
Satz 1.5 (Pythagoras) Für orthogonale x, y ∈ H ist kx + yk2 = kxk2 + kyk2 .
Satz 1.6 Das Skalarprodukt und die Norm sind stetig, d. h. hxn , yn i → hx, yi und kxn k →
kxk für Folgen (xn )n∈N , (yn )n∈N in H mit xn → x, yn → y.
Satz 1.7 Für Γ ⊂ H ist Γ⊥ ein abgeschlossener Unterraum von H.
2
3
Im Falle endlichen Grundraums oder für ein Wahrscheinlichkeitsmaß gilt dies automatisch.
Für endliches Ω heißt das also
X
ν(A) =
f (ω)µ({ω}).
ω∈A
4
Für endliches Ω ist f (ω) =
ν({ω})
µ({ω})
sofern nicht µ({ω}) = 0, und Gleichung (1.1) ist offensichtlich.
(1.1)
1.3. BEDINGTER ERWARTUNGSWERT
9
Der Abstand von x ∈ H und Γ ⊂ H ist definiert als d(x, Γ) := inf{kx − yk : y ∈ Γ}.
Satz 1.8 Seien Γ ⊂ H ein abgeschlossener Unterraum und x ∈ H. Dann existiert ein
eindeutiges y ∈ Γ mit kx − yk = d(x, Γ). Dieses y heißt die Orthogonalprojektion von x
auf Γ. Die Abbildung Π : H → Γ, x → y heißt Orthogonalprojektion auf Γ.
Satz 1.9 Für die Orthogonalprojektion Π auf einen abgeschlossenen Unterraum Γ gilt:
1. Π ist idempotent, d.h. Π2 = Π.
2. Π(x) = x gilt genau dann, wenn x ∈ Γ.
3. Π(x) = 0 gilt genau dann, wenn x ∈ Γ⊥ .
4. Für alle x ∈ H ist x − Π(x) orthogonal zu Γ.
Satz 1.10 Seien Γ ⊂ H ein abgeschlossener Unterraum und x ∈ H. Dann existiert eine
eindeutige Zerlegung x = y + z mit y ∈ Γ, z ∈ Γ⊥ . Dabei sind y = Π(x), z = x −
Π(x), wobei Π die Orthogonalprojektion auf Γ bezeichnet. Ferner ist x 7→ x − Π(x) die
Orthogonalprojektion auf Γ⊥ , und es gilt (Γ⊥ )⊥ = Γ.
Satz 1.11 Die Orthogonalprojektion Π auf einen abgeschlossenen Unterraum Γ ist linear
und selbstadjungiert (d. h. hΠ(x), yi = hx, Π(y)i für alle x, y ∈ H).
1.3
Bedingter Erwartungswert
Bei einfachen Zufallsexperimenten hat man es in der Regel mit nur zwei unterschiedlichen
Informationsständen zu tun. Vor dem Experiment liegt der Ausgang noch weitgehend im
Dunkeln, und man kann lediglich Wahrscheinlichkeiten für die verschiedenen Ereignisse
angeben. Nach dem Experiment hingegen ist der eingetretene Zustand vollständig determiniert. Dies spiegelt sich auch bei Zufallsvariablen X wider. Nach dem Experiment kennt
man X exakt, vorher gibt man sich z. B. mit dem Erwartungswert E(X) als „erwartetem“
Mittelwert zufrieden.
Wenn sich Zufallsexperimente jedoch über einen längeren Zeitraum hinziehen, erscheint
diese Betrachtungsweise unangemessen. Mit dem Fortschreiten der Zeit werden die Vorstellungen über den Ausgang des Experiments immer präziser. Es erscheint daher wünschenswert, Wahrscheinlichkeiten und Erwartungswerte auf Grundlage der zum augenblicklichen
Zeitpunkt vorhandenen Information zu betrachten. Dazu muss man jedoch zunächst den
etwas vagen Begriff der vorhandenen Information mathematisch präzisieren. Es gehört zu
den außerordentlich fruchtbaren Ideen der Wahrscheinlichkeitstheorie, dies mit Hilfe von
σ-Algebren zu bewerkstelligen, die ja in der Maßtheorie zunächst nur als Definitionsbereiche von Maßen in Erscheinung treten, für die sich — wie etwa beim Lebesguemaß — die
Potenzmenge als zu groß erweist.
10
KAPITEL 1. MATHEMATISCHE HILFSMITTEL
Inwiefern steht nun eine σ-Algebra C für den Umfang an Information, der zu einem
gegebenen Zeitpunkt zur Verfügung steht? Dies geschieht in der Form, dass C genau die
Ereignisse enthält, von denen wir schon zum gegenwärtigen Zeitpunkt sicher sagen können,
ob sie eintreten oder nicht.
Betrachten wir dazu ein konkretes Beispiel. Wir würfeln dreimal mit einem Würfel und
bezeichnen die Ergebnisse als X1 , X2 , X3 . Nach dem ersten Würfelwurf sind bereits all die
Ereignisse entschieden, die sich nur auf diesen ersten Wurf beziehen, z. B. das Ereignis {X1
ist gerade}. Die zu diesem Informationsstand passende σ-Algebra C ist daher die von der
Zufallsvariablen X1 erzeugte, d. h. C = σ(X1 ) = {X −1 (B) : B ∈ B}.5 Aber auch die
Vorstellungen hinsichtlich noch nicht determinierter Ereignisse und Zufallsvariablen können
sich nach dem ersten Wurf geändert haben. Zum Beispiel gilt für die Augensumme E(X1 +
X2 + X3 ) = E(X1 ) + E(X2 ) + E(X3 ) = 10,5; nach dem ersten Wurf hingegen erwarten
wir im Mittel X1 + E(X2 ) + E(X3 ) = X1 + 7, da die Zufallsvariable X1 für uns nun nicht
mehr zufällig ist.
Man bezeichnet diesen Erwartungswert auf Grundlage der Information C als bedingten
Erwartungswert gegeben C und schreibt E(X|C ). Bedingte Wahrscheinlichkeiten lassen
sich durch die Definition P (A|C ) = E(1A |C ) als Spezialfall bedingter Erwartungswerte
auffassen. Damit die Abbildung A 7→ P (A|C ) aber auch σ-additiv ist, wie man es von
einem Wahrscheinlichkeitsmaß erwartet, sind einige maßtheoretische Hürden zu überwinden, auf die hier nicht eingegangen werden soll. Wir beschränken uns daher auf bedingte
Erwartungswerte.
Seien (Ω, F , P ) ein Wahrscheinlichkeitsraum und C eine Unter-σ-Algebra von F (d. h.
C ⊂ F ). Ferner sei X eine R-wertige Zufallsvariable6 . Wir betrachten zunächst den Fall,
dass Ω nur endlich oder abzählbare viele Elemente besitzt.
Lemma 1.12 Sei Ω endlich oder abzählbar. Dann gibt es eine Partition7 (Ci )i∈I von Ω, so
dass C = {∪i∈J Ci : J ⊂ I}.
Beweis. Für ω ∈ Ω sei C(ω) = ∩{C ∈ C : ω ∈ C}. Da Ω und somit auch C ⊂ P(Ω)
abzählbar ist, gilt C(ω) ∈ C und natürlich ω ∈ C(ω). Die höchstens abzählbar vielen
Mengen C(ω), ω ∈ Ω numerieren wir als C0 , C1 , . . ., die Menge der auftretenden Indizes
heiße I. Sie bilden offenbar eine Partition von Ω. Definiere Ce := {∪i∈J Cn : J ⊂ I}. Es gilt
Ce ⊂ C , da C eine σ-Algebra ist. Für C ∈ C gilt ferner C = ∪ω∈C C(ω) ∈ Ce. Zusammen
folgt C = Ce.
Anschaulich besagt das vorige Lemma, dass es endlich oder abzählbar viele Atome Ci
gibt, aus denen sich die Mengen der σ-Algebra zusammensetzen. Die verschiedenen Ergebnisse ω ∈ Ci der einzelnen Atome tauchen immer gemeinsam in den Ereignissen auf und
Für endliches Ω enthält σ(X1 ) beliebige Vereinigungen von Mengen der Form X −1 (x) = {X = x} :=
{ω ∈ Ω : X(ω) = x}, wobei x ∈ R.
6
R := [−∞, ∞]
7
Partition bedeutet ∪i∈I Ci = Ω und paarweise Disjunktheit, d. h. Ci ∩ Cj = ∅ für i 6= j.
5
1.3. BEDINGTER ERWARTUNGSWERT
11
lassen sich auf Grundlage der durch C gegebenen Information nicht trennen. Anders formuliert: Auf Grundlage der durch C gegebenen Information wissen wir zwar genau, welches
der Ereignisse Ci eintritt, aber wir wissen nichts darüber, welches konkrete Ergebnis ω ∈ Ci
am Ende des Zufallsexperiments tatsächlich vorliegt. Je größer die σ-Algebra C ist, desto
genauer können wir das Endergebnis ω einkreisen, d. h. desto mehr Information haben wir
über den Ausgang des Zufallsexperiments.
Wir können nun den bedingten Erwartungswert im endlichen oder abzählbaren Fall definieren.
Definition 1.13 Sei C = {∪i∈J Ci : J ⊂ I}, wobei (Ci )i∈I eine endliche oder abzählbare Partition von Ω ist.8 Sei X ferner nichtnegativ oder integrierbar.9 Wir definieren den
bedingten Erwartungswert von X gegeben C als
E(X|Ci ) falls ω ∈ Ci mit P (Ci ) > 0,
E(X|C )(ω) :=
(1.2)
0
falls ω ∈ Ci mit P (Ci ) = 0.
Dabei ist E(X|Ci ) der Erwartungswert unter der durch A 7→
Wahrscheinlichkeitsverteilung P (·|Ci ), für den gilt
E(X|Ci ) :=
P (A∩Ci )
P (Ci )
definierten bedingten
E(X1Ci )
.
P (Ci )
Wenn man den Erwartungswert E(X) als beste Prognose einer Zuallsvariablen X auffasst, dann steht der bedingte Erwartungswert E(X|C ) als beste Prognose auf Grundlage
der gegebenen Information C . Da wir in diesem Fall schon wissen, in welcher Menge Ci
das Ergebnis des Zufallsexperiments liegt, wird bei der Berechnung des Erwartungswerts in
(1.2) nur über die ω ∈ Ci gemittelt. Der bedingte Erwartungswert besitzt u. a. die folgenden
wichtigen Eigenschaften.
Satz 1.14 Der bedingte Erwartungswert aus Definition 1.13 ist C -messbar, und es gilt
Z
Z
E(X|C )dP =
XdP
(1.3)
C
C
für alle C ∈ C . Ferner ist E(X|C ) nichtnegativ bzw. integrierbar, falls dies für X der Fall
ist.
Beweis. Sei B ∈ B mit 0 ∈
/ B. Dann ist {E(X|C ) ∈ B} = ∪i∈J Ci für J := {i ∈ I :
P (Ci ) > 0 und E(X|Ci ) ∈ B}. Insbesondere ist E(X|C ) C -messbar.
Sei nun C ∈ C , o.B.d.A. C = Ci für ein i ∈ I. Dann ist
Z
Z
Z
E(X1Ci )
E(X|C )dP =
E(X|Ci )dP = P (Ci )
=
XdP
P (Ci )
C
Ci
C
8
Wenn Ω endlich ist, hat jede σ-Algebra nach dem vorigen Lemma eine solche Form, wobei man dann mit
endlich vielen Atomen Ci auskommt.
9
Integrierbarkeit ist für endliches Ω automatisch gegeben, falls die Zufallsvariable nur endliche Werte
annimmt.
12
KAPITEL 1. MATHEMATISCHE HILFSMITTEL
im Falle P (Ci ) > 0 und ähnlich auch für P (Ci ) = 0.
E(X|C ) ist offenbar nichtnegativ, falls dies für X gilt. Falls X integrierbar ist, gilt für
C := {E(X|C ) ≥ 0} ∈ C :
Z
Z
Z
Z
+
E(X|C ) dP =
E(X|C )dP =
XdP ≤ |X|dP < ∞
C
C
und analog E(E(X|C )− ) < ∞. Es folgt die Integrierbarkeit von E(X|C ).
C -Messbarkeit im vorigen Satz bedeutet anschaulich, dass der bedingte Erwartungswert
auf Grundlage der durch C gegebenen Information bekannt ist. Es handelt sich also um
eine ganz natürliche Eigenschaft. Die Integralgleichung bedeutet, dass sich X von seinem
bedingten Erwartungswert durch die „Brille“ C -messbarer Mengen insofern nicht unterscheidet, als es die gleichen Integrale liefert. Es verhält sich also in gewisser Weise ähnlich
wie X selbst.
In allgemeinen Wahrscheinlichkeitsräumen ist Definition 1.13 nicht anwendbar, da
Unter-σ-Algebren im allgemeinen nicht von einer Partition erzeugt werden. Man wählt daher als Ersatz eine Definition, die auf den Eigenschaften aus dem vorien Satz beruht, die
auch in allgemeineren Situationen noch sinnvoll sind.
Satz 1.15 Falls X nichtnegativ (oder integrierbar) ist, dann existiert eine P -fast sicher
eindeutige C -messbare nichtnegative (bzw. integrierbare) Zufallsvariable E(X|C ) derart,
dass
Z
Z
E(X|C )dP =
XdP
(1.4)
C
C
für alle C ∈ C .
Beweis. 1. Schritt: Sei zunächst X ≥ 0 und fast sicher endlich. Wir definieren ein neues
Maß Q P durch die Dichte dQ
:= X. Für die auf die Unter-σ-Algebra C eingeschränkten
dP
Maße P |C , Q|C gilt Q|C P |C : Für jede Q|C -Nullmenge N existiert nämlich ein A ∈ C ⊂
F mit N ⊂ A und Q|C (A) = Q(A) = 0, was wegen Q P auch P |C (A) = P (A) = 0
impliziert. Nach dem Satz von Radon-Nikodym existiert eine C -messbare, nichtnegative
R
C
Dichte Y := dQ|
,
d.
h.
Q|
(C)
=
Y dP |C für alle C ∈ C . Damit Y die Eigenschaften
C
dP |C
C
einer bedingten Erwartung hat, bleibt zu zeigen, dass
Z
Z
Y dP =
XdP
(1.5)
C
C
für alle C ∈ C . Dies folgt aus
Z
Z
Z
(?)
XdP = Q(C) = Q|C (C) =
Y dP |C =
Y dP,
C
C
C
wobei die letzte Gleichung (?) vielleicht nicht offensichtlich ist.
Wir beweisen sie mit Hilfe der bisweilen als algebraische Induktion bezeichneten Beweismethode. Darunter versteht man, dass eine Aussage zunächst für Indikatorfunktionen,
1.3. BEDINGTER ERWARTUNGSWERT
13
dann für Zufallsvariablen mit endlich vielen Werten, danach für allgemeine nichtnegative
und schließlich durch Zerlegung in Positiv- und Negativteil ggf. für beliebige Zufallsvariablen gezeigt wird.
Für Z = 1A mit A ∈ C gilt
Z
Z
ZdP |C = P |C (A) = P (A) = ZdP
R
R
wie gewünscht. Wegen der Linearität des Integrals gilt die Aussage ZdP |C = ZdP
daher auch für Linearkombinationen solcher Indikatoren. Nach dem Satz über monotone
Konvergenz erhalten wir sie auch für beliebige nichtnegative C -messbare Z, denn jedes solche Z lässt sich als monotoner Limes von Linearkombinationen von Indikatoren schreiben.
2. Schritt: Wir betrachten nun integrierbare X. Wir konstruieren deren bedingten Erwartungswert als
E(X|C ) := E(X + |C ) − E(X − |C ),
wobei die rechten Seiten durch den 1. Schritt bereits definiert sind. Die rechte Seite ist
offenbar C -messbar. Integrierbarkeit gilt wegen
E(|E(X + |C ) − E(X − |C )|) ≤ E(E(X + |C ) + E(X − |C ))
= E(E(X + |C )) + E(E(X − |C ))
= E(X + ) + E(X − )
= E(|X|) < ∞
Gleichung (1.4) folgt aus der Linearität des Integrals.
3. Schritt: Der Vollständigkeit halber wird noch der weniger wichtige Fall einer allgemeinen nichtnegativen Zufallsvariablen X betrachtet. Setze A := {X = ∞}. Wir definieren
Y := ∞E(1A |C ) + E(X1AC |C ), wobei die rechte Seite durch den ersten Schritt bereits
erklärt ist und wir die übliche Konvention ∞ · 0 = 0 verwenden. Offenbar ist Y nichtnegativ
und C -messbar. Sei C ∈ C . Im Fall P (C ∩ A) > 0 sind
Z
Z
Y dP ≥
∞1A dP = ∞P (C ∩ A) = ∞
C
und
C
Z
XdP ≥ ∞P (C ∩ A) = ∞,
C
so dass (1.5) gilt. Im Fall P (C ∩ A) = 0 folgt (1.5) aus
Z
Z
Z
Y dP = ∞P (C ∩ A) +
X1AC dP =
XdP.
C
C
C
4. Schritt: Es bleibt noch die Eindeutigkeit zu zeigen. Dazu seien Y, Ye zwei C -messbare
Zufallsvariablen, die die Eigenschaften des bedingten Erwartungswerts besitzen. Für n ∈ N
setze C := {Y > Ye und |Y | ∨ |Ye | ≤ n}. Dann gilt
Z
Z
Z
Z
Z
e
e
(Y − Y )dP =
Y dP −
Y dP =
XdP −
XdP = 0,
C
C
C
C
C
14
KAPITEL 1. MATHEMATISCHE HILFSMITTEL
also P (C) = 0, da Y − Ye > 0 auf C. Stetigkeit von unten impliziert P (Y > Ye ) = 0.
Analog folgt P (Y < Ye ) = 0 und somit Y = Ye fast sicher.
Nach Satz 1.14 stimmt E(X|C ) mit dem in Definition 1.13 eingeführten bedingten Erwartungswert überein, falls die entsprechenden Voraussetzungen an C gegeben sind. Dies
motiviert die folgende
Definition 1.16
1. E(X|C ) heißt bedingte Erwartung von X gegeben C .
2. E(X|C ) kann durch die Festlegung E(X|C ) := E(X + |C ) − E(X − |C ) auch noch
im Falle E(|X||C ) < ∞ definiert werden.
Der bedingte Erwartungswert ist also im allgemeinen implizit über gewünschte Eigenschaften und nicht explizit durch eine Formel festgelegt. Im folgenden Satz sind wichtige
Rechenregeln für den bedingten Erwartungswert zusammengestellt.
Satz 1.17 Sei X nichtnegativ oder integrierbar. Dann gelten:
1. E(X|C ) = X, falls X C -messbar ist.
2. E(X|C ) = E(X), falls σ(X) und C unabhängig sind.10
3. E(E(X|C )) = E(X)
4. E(E(X|C )|D) = E(X|D), falls D Unter-σ-Algebra von C ist.
5. Die Abbildung X 7→ E(X|C ) ist linear und monoton.
6. Es gilt der Satz von der monotonen Konvergenz, d. h. für jede wachsende Folge
(Xn )n∈N nichtnegativer Zufallsvariablen mit Limes X := supn∈N Xn gilt
E(Xn |C ) ↑ E(X|C ).
7. Es gilt der Satz von der majorisierten Konvergenz, d. h. für jede fast sicher konvergente Folge (Xn )n∈N von Zufallsvariablen mit Limes X und E(supn∈N |Xn |) < ∞
gilt
E(Xn |C ) → E(X|C ).
(1.6)
8. Es gilt die Jensensche Ungleichung, d. h. für integrierbares X und jede konvexe
Abbildung f : R → R derart, dass f (X) integrierbar ist, gilt
f (E(X|C )) ≤ E(f (X)|C ).
9. Für C -messbares Y 7→ R gilt E(XY |C ) = E(X|C )Y , falls die Ausdrücke sinnvoll
sind, d. h. falls X, Y ≥ 0 oder X, XY integrierbar sind. Insbesondere gilt E(XY ) =
E(E(X|C )Y ).
10
d.h. falls P (A ∩ B) = P (A)P (B) für alle A ∈ σ(X), B ∈ C
1.3. BEDINGTER ERWARTUNGSWERT
15
Beweis.
1. X hat offenbar die in der Definition geforderten Eigenschaften.
2. C -Messbarkeit sowie Nichtnegativität bzw. Integrierbarkeit des Kandidaten sind offensichtlich. Sei C ∈ C . Da X σ(X)-messbar und 1C C -messbar sind, gilt wegen der
Unabhängigkeit der σ-Algebren E(X1C ) = E(X)E(1C ) und somit
Z
Z
E(X)dP = E(X)E(1C ) = E(X1C ) =
XdP
C
C
wie gewünscht.
3. Dies gilt wegen
Z
E(E(X|C )) =
Z
E(X|C )dP =
Ω
XdP = E(X).
Ω
4. Wir zeigen, dass der Kandidat E(E(X|C )|D) die Eigenschaften der bedingten Erwartung E(X|D) erfüllt. D-Messbarkeit gilt nach Definition. Für D ∈ D ⊂ C gilt
ferner
Z
Z
Z
XdP
E(X|C )dP =
E(E(X|C )|D)dP =
D
D
D
wie gewünscht.
5. Für Zufallsvariablen X, Y ist E(X|C ) + E(Y |C ) C -messbar: Mit
Z
Z
Z
(E(X|C ) + E(Y |C ))dP =
E(X|C )dP +
E(Y |C )dP
C
C
Z
ZC
Y dP
XdP +
=
C
C
Z
=
(X + Y )dP
C
für C ∈ C folgt, dass E(X|C ) + E(Y |C ) die Eigenschaften des bedingten Erwartungswerts E(X + Y |C ) besitzt. Analog zeigt man E(cX|C ) = cE(X|C ) für c ∈ R,
sofern cX nichtnegativ oder integrierbar ist.
Im Falle X ≤ Y zerlegen wir Y = X + (Y − X). Wegen Y − X ≥ 0 ist auch
E(Y − X|C ) ≥ 0. Aus der Additivität folgt E(Y |C ) = E(X|C ) + E(Y − X|C )
und somit E(Y |C ) ≥ E(X|C ).
6. Wegen der Monotonie der bedingten Erwartung ist (E(Xn |C ))n∈N eine aufsteigende
Folge. Offenbar ist ihr Limes Y := supn∈N E(Xn |C ) C -messbar. Es bliebt zu zeigen, dass (1.5) für beliebiges C ∈ C gilt. Nach dem üblichen Satz über monotone
Konvergenz gilt
Z
Z
Z
Z
Y dP = lim
E(Xn |C )dP = lim
Xn dP =
XdP
C
wie gewünscht.
n→∞
C
n→∞
C
C
16
KAPITEL 1. MATHEMATISCHE HILFSMITTEL
7. Definere Y := supn∈N |Xn |, Xn0 := supk≥n Xk , Xn00 := inf k≥n Xk . Dann gilt
−Y ≤ Xn00 ≤ Xn ≤ Xn0 ≤ Y,
n ∈ N.
Für n → ∞ gilt
Y − Xn0 ↑ Y − lim sup Xn = Y − X,
n→∞
Y + Xn00 ↑ Y + lim inf Xn = Y + X.
n→∞
Nach Aussage 6 folgt
E(Y − Xn0 |C ) ↑ E(Y − X|C ),
E(Y − Xn0 |C ) ↑ E(Y − X|C )
und somit E(Xn0 |C ), E(Xn00 |C ) → E(X|C ). Wegen
E(Xn0 |C ) ≤ E(Xn |C ) ≤ E(Xn00 |C )
ergibt sich (1.6).
8. Konvexe Funktionen lassen sich nach Sätzen der Analysis schreiben als
f (x) = sup(an x + bn )
n∈N
mit rellen Koeffizienten an , bn . Es folgt
f (E(X|C )) = sup(an E(X|C ) + bn )
n∈N
= sup E(an X + bn |C )
n∈N
≤ E sup(an X + bn )
n∈N
= E(f (X)|C ).
9. Wir zeigen, dass der Kandidat E(X|C )Y die Eigenschaften von E(XY |C ) besitzt.
C -Messbarkeit ist klar. Für Y = 1A mit A ∈ C ist
Z
Z
Z
Z
E(X|C )Y dP =
E(X|C )dP =
XdP =
XY dP, ∀C ∈ C
C
C∩A
C∩A
C
wie gewünscht. Weiter geht es mit algebraischer Induktion. Die Formel für den
unbedintgen Erwartungswert folgt nach Eigenschaft 3.
Der bedingte Erwartungswert lässt sich auch als eine Orthogonalprojektion auffassen.
Satz 1.18 Sei X ∈ L2 (Ω, F , P ). Dann ist E(X|C ) die Orthogonalprojektion von X auf
den Unterraum L2 (Ω, C , P ).
1.3. BEDINGTER ERWARTUNGSWERT
17
Beweis. Nach der Jensenschen Ungleichung gilt (E(X|C ))2 ≤ E(X 2 |C ) und somit
E E(X|C )2 ≤ E E(X 2 |C ) = E(X 2 ) < ∞.
Da E(X|C ) C -messbar ist, gilt also E(X|C ) ∈ L2 (Ω, C , P ). Für Y ∈ L2 (Ω, C , P ) gilt
nach Satz 1.17(7) ferner
hX − E(X|C ), Y i = E((X − E(X|C ))Y )
= E(XY ) − E(E(X|C )Y )
= E(XY ) − E(XY ) = 0,
d. h. X − E(X|C ) ist orthogonal zu L2 (Ω, C , P ). Mit Satz 1.10 folgt die Behauptung. Zur Berechnung bedingter Erwartungswerte ist mitunter folgendes Resultat nützlich.
Lemma 1.19 Seien Y eine Zufallsvariable und g : R × R → R eine messbare Abbildung
derart, dass g(X, Y ) nichtnegativ oder integrierbar ist. Falls X C -messbar und Y unabhängig von C ist, dann gilt:
Z
E(g(X, Y )|C ) = g(X, y)P Y (dy).11
Beweis. Sei zunächst g nichtnegativ. Im Zusammenhang mit dem Satz von Fubini wird geR
zeigt, dass die Abbildung x 7→ g(x, y)P Y (dy) Borel-messbar ist. Somit ist auch die ZuR
fallsvariable g(X, y)P Y (dy) als Verkettung zweier messbarer Abbildungen C -messbar.
Für C ∈ C definiere Z := 1C . Da (X, Z) unabhängig von Y ist, gilt P (X,Z) ⊗ P Y =
P (X,Z,Y ) . Mit dem Transformationssatz und dem Satz von Fubini folgt
R R
C
g(X, y)P Y (dy)dP =
RR
g(X, y)ZP Y (dy)dP
=
RR
g(x, y)zP Y (dy)P (X,Z) (d(x, z))
=
R
g(x, y)zP (X,Z,Y ) (d(x, z, y))
=
R
g(X, Y )ZdP
=
R
g(X, Y )dP,
C
woraus die Behauptung folgt.
Der Beweis für integrierbares g(X, Y ) verläuft analog. Die Integrierbarkeit des Kandidaten folgt mit der obigen Rechnung angewandt auf |g(X, Y )| und C = Ω:
R
R
E(| g(X, y)P Y (dy)|) ≤ E( |g(X, y)|P Y (dy)) = E(|g(X, Y )|) < ∞.
11
Das bedeutet im endlichen Fall
E(g(X, Y )|C )(ω) =
X
y∈R
g(X(ω), y)P (Y = y).
18
KAPITEL 1. MATHEMATISCHE HILFSMITTEL
Bezeichnung. E(X|Y ) := E(X|σ(Y )) für messbare Abbildungen Y : (Ω, F ) → (Γ, G )
mit Werten in einem messbaren Raum (Γ, G ).
Die Eigenschaft C -Messbarkeit der bedingten Erwartung ist intuitiv so zu verstehen,
dass E(X|C ) durch die Information in C determiniert ist. Wenn nun die σ-Algebra C von
einer Zufallsvariablen Y erzeugt ist, sollte man erwarten, dass sich E(X|C ) als Funktion
von Y schreiben lässt. Die folgende Bemerkung zeigt, dass dies in der Tat der Fall ist.
Lemma 1.20 Sei Y : (Ω, F ) → (Γ, G ) mit Werten in einem messbaren Raum (Γ, G ). Dann
ist X genau dann σ(Y )-messbar, wenn es eine messbare Abbildung g : (Γ, G ) → (R, B)
gibt mit X = g ◦ Y .
Beweis. ⇒: Im Falle X = 1C bedeutet C -Messbarkeit, dass C ∈ σ(Y ) = Y −1 (G ) ist, also
C = Y −1 (G) für ein G ∈ G . Somit ist X = 1G (Y ) = g ◦ Y für g := 1G . Weiter geht es mit
„algebraischer Induktion“.
⇐: Dies gilt, da die Verkettung messbarer Abbildung messbar ist.
Kapitel 2
Diskrete stochastische Analysis
In der stochastischen Finanzmathematik fasst man Wertpapierkursverläufe, wie man sie in
der Zeitung oder auf dem Bildschirm verfolgen kann, als stochastische Prozesse, d. h. als
zufällige Funktionen der Zeit, auf. Auch die variierende Zahl der Wertpapiere im Anlageportfolio sowie das daraus resultierende Anlagevermögen fallen in diesen Rahmen. Die zugehörigen mathematischen Begriffe, die auch ganz unabhängig von der Finanzmathematik
angewandt werden, werden in diesem Kapitel vorgestellt. Wir beschränken uns dabei an dieser Stelle auf eine diskrete Menge von Zeitpunkten (etwa Tage, Minuten, Sekunden). Der
kontinuierliche Fall erfordert eine erheblich kompliziertere Theorie.
2.1
Stochastische Prozesse
Wie schon im vorigen Kapitel angedeutet, spielt die bis zum jeweiligen Zeitpunkt zur Verfügung stehende Information eine wichtige Rolle. Entscheidungen wie z. B. der Kauf oder
Verkauf von Wertpapieren können ja nur auf dem derzeitigen Wissen über den Zustand des
Finanzmarktes oder der Welt gründen. Mathematisch wird diese Information durch den Begriff der Filtrierung ausgedrückt.
Definition 2.1 Eine Filtrierung (Fn )n∈N auf einem Wahrscheinlichkeitsraum (Ω, F , P )
ist eine Folge von σ-Algebren Fn ⊂ F mit Fm ⊂ Fn für m ≤ n. (Ω, F , (Fn )n∈N , P )
heißt filtrierter Wahrscheinlichkeitsraum.
Die σ-Algebra Fn steht für die bis zur Zeit n angesammelte Information. A ∈ Fn bedeutet,
dass wir schon zur Zeit n wissen, ob das Ereignis A eintritt oder nicht.
Von nun an sei ein filtrierter Wahrscheinlichkeitsraum (Ω, F , (Fn )n∈N , P ) gegeben.
Definition 2.2
1. Ein stochastischer Prozess X = (Xn )n∈N ist eine Familie von Zufallsvariablen.
2. Ein Prozess X heißt adaptiert, falls Xn Fn -messbar ist für alle n ∈ N.
19
20
KAPITEL 2. DISKRETE STOCHASTISCHE ANALYSIS
Das n steht dabei wie oben schon für einen Zeitparameter. Ein stochastischer Prozess beschreibt also den zufälligen Zustand eines Systems durch die Zeit hindurch. Der Wertebereich von Xn ist üblicherweise R oder allgemeiner Rd , etwa wenn es sich bei Xn um den
Kurs eines oder mehrerer Wertpapiere zum Zeitpunkt n handelt. Falls nichts anderes vermerkt ist, nehmen wir alle Prozesse als reellwertig an.
Adaptiertheit bedeutet, dass wir den derzeitigen Wert des Prozesses kennen, zumindest
insofern, als er von zufälligen Einflüssen abhängt. Insbesondere ist jeder deterministische
Prozess adaptiert. Wir betrachten ab jetzt fast ausschließlich solche adaptierten Prozesse.
Bemerkung. Wir identifizieren einen Prozess X manchmal auch mit einer Abbildung
X : Ω × N → R (bzw. Rd ) oder einer Abbildung X : Ω → RN (bzw. (Rd )N ). Er kann also
auch als Zufallsvariable aufgefasst werden, deren Werte Funktionen N → R (bzw. Rd ) sind.
Bezeichnung.
1. Adaptierte Prozesse nennen wir auch diskrete Semimartingale.
2. Wir benutzen die Notation n− := n − 1 für n ∈ N \ {0}, 0− := 0. Ferner sei
∆Xn := Xn − Xn− .
Hier wie auch später im Text verwenden wir vergleichsweise hochtrabende Bezeichnungen
für ganz einfache Dinge (z. B. stochastisches Integral für eine Summe usw.). Die Idee ist,
eine möglichst weitgehende Analogie zur allgemeinen stochastischen Analysis zu erzielen,
wo die entsprechenden Begriffe und Ergebnisse oft einen hohen technischen Aufwand erfordern. Die hier behandelten zeitdiskreten Resultate lassen sich auch als Spezialfälle der
allgemeinen Semimartingaltheorie auffassen.
Etwas stärker als Adaptiertheit ist der folgende Begriff.
Definition 2.3 Ein Prozess X heißt vorhersehbar, falls Xn Fn− -messbar ist für alle n ∈ N.
Das bedeutet, dass der Wert von Xn ist schon kurz vor dem Zeitpunkt n bekannt ist. Vorhersehbare Prozesse spielen bei der stochastischen Integration eine zentrale Rolle.
Bislang ist offen, welche Gestalt die Filtrierung tatsächlich besitzt. Denkbar ist zumindest im Rahmen des mathematischen Modells, dass unser ganzes nicht-deterministisches
Wissen aus der Beobachtung eines einzigen stochastischen Prozesses X, etwa eines Aktienkursverlaufs, herrührt:
Definition 2.4 Die Filtrierung (Fn )n∈N heißt von dem Prozess X erzeugt, falls Fn =
σ(X0 , . . . , Xn ) für alle n ∈ N.
Zufällige Zeitpunkte, die nur insofern nicht deterministisch sind, als sie von zufälligen
Ereignissen in der Vergangenheit abhängen können, heißen Stoppzeiten.
Definition 2.5 Eine Stoppzeit ist eine Abbildung T : Ω → N ∪ {∞} mit {T ≤ n} ∈ Fn
für alle n ∈ N.
2.2. MARTINGALE
21
Eine äquivalente Definition ist {T = n} ∈ Fn für alle n ∈ N. Anschaulich heißt das,
dass wir aufgrund der uns zur Verfügung stehenden Information Fn zu jedem Zeitpunkt
n entscheiden können, ob wir „Stopp!“ sagen müssen oder nicht. Eine Stoppzeit ist z. B.
der erste Zeitpunkt, zu dem ein Vulkan ausbricht, sofern die Beobachtung des Vulkans in
der Informationsstruktur (Fn )n∈N enthalten ist. Auch jeder deterministische Zeitpunkt ist
eine Stoppzeit. Keine Stoppzeit ist hingegen der Zeitpunkt genau 3 Stunden vor dem Vulkanausbruch, denn dazu müsste man in die Zukunft blicken können. Auf Grundlage der
im Augenblick vorhandenen Information ist i. a. nicht sicher, ob dieser Zeitpunkt schon
gekommen ist.
Ein typisches Beispiel einer Stoppzeit ist die erste Eintrittszeit eines Prozesses in eine
Menge, etwa der Zeitpunkt, an dem der Aktienindex DAX zum ersten Mal die Schwelle
4000 überwindet.
Lemma 2.6 Sei X ein Rd -wertiges diskretes Semimartingal und B ∈ B d . Dann ist T :=
inf{n ∈ N : Xn ∈ B} eine Stoppzeit.
Beweis. Sei n ∈ N. Dann ist {T
{Xm ∈ B} ∈ Fm ⊂ Fn für m ≤ n.
≤ n} = ∪m≤n {Xm
∈ B} ∈ Fn , da
Für das „Einfrieren“ eines Prozesses ab einem gewissen Zeitpunkt gibt es einen eigenen
mathematischen Begriff.
Definition 2.7 Für einen Prozess X und eine Stoppzeit T ist der bei T gestoppte Prozess
X T definiert durch XnT := XT ∧n .
Ein gestoppter Prozess bleibt also ab der zugehörigen Stoppzeit konstant.
2.2
Martingale
Der Martingalbegriff ist von zentraler Bedeutung für die stochastische Analysis. Auch die
moderne Finanzmathematik wird in vielfältiger Weise von ihm durchdrungen.
Definition 2.8 Ein Martingal (bzw. Submartingal, Supermartingal) ist ein adaptierter
stochastischer Prozess X derart, dass E(|Xn |) < ∞1 und E(Xn |Fm ) = Xm (bzw. ≥ Xm ,
≤ Xm ) für alle m, n ∈ N mit m ≤ n.
Man kann sich unter einem Martingal z. B. das Spielkapital in einem fairen Spiel vorstellen. Als Beispiel sei etwa ein Roulettespiel betrachtet, wo der Einsatz bei Fallen von Rot
verdoppelt wird. Wir setzen über mehrere Ausspielungen hinweg 1 e auf Rot und bezeichnen den Spielkapitalprozess als X. Wenn nun Rot mit Wahrscheinlichkeit 21 fällt, dann sind
wir nach jeder Ausspielung im Mittel so reich wie vorher, d. h. X ist ein Martingal. Für die
(beschränkte) Zukunft ist im Mittel weder ein Gewinn noch ein Verlust zu erwarten.
1
Integrierbarkeit gilt für endliches Ω automatisch.
22
KAPITEL 2. DISKRETE STOCHASTISCHE ANALYSIS
In Wirklichkeit ist das Roulettespiel unfair zu Gunsten der Spielbank, da nur mit Wahrscheinlichkeit 18
Rot fällt. Daher entsprechen die realen Gegebenheiten eher einem Super37
martingal. Anlagen in risikobehaftete Wertpapiere wie etwa Aktien hingegen werden die
meisten Anleger nur tätigen wollen, wenn zumindest im Mittel ein Gewinn zu erwarten ist,
d. h. wenn es sich um Submartingale handelt.
Lemma 2.9 Anstelle von E(Xn |Fm ) = Xm (bzw. ≥, ≤) für m ≤ n reicht es in der vorigen
Definition zu zeigen, dass E(Xn |Fn−1 ) = Xn−1 (bzw. ≥, ≤) für alle n ∈ N \ {0}.
Beweis. Wegen E(Xn |Fn−2 ) = E(E(Xn |Fn−1 )|Fn−2 ) usw. folgt dies mit vollständiger
Induktion.
Die einfachsten Martingale erhält man, indem man unabhängige, zentrierte Zufallsvariablen sukzessive aufsummiert.
Beispiel 2.10 Sei X1 , X2 , . . . eine Folge unabhängiger, integrierbarer Zufallsvariablen mit
P
E(Xn ) = 0 für n = 1, 2, . . . Dann wird durch Sn := nm=1 Xm und Fn := σ(X1 , . . . , Xn )
ein Martingal S bzgl. (Fn )n∈N definiert.
Beweis. Adaptiertheit und Integrierbarkeit sind offensichtlich. Die Martingaleigenschaft gilt
wegen
!
n−1
n−1
X
X
E(Sn |Fn−1 ) = E
Xm |Fn−1 + E(Xn |Fn−1 ) =
Xm + 0 = Sn−1 ,
m=1
m=1
da X1 , . . . , Xn−1 Fn−1 -messbar und Xn unabhängig von Fn−1 sind.
Auch aus einer einzigen Zufallsvariablen kann man ein Martingal erzeugen.
Lemma 2.11 Sei Y eine Zufallsvariable mit E(|Y |) < ∞. Dann wird durch Xn :=
E(Y |Fn ) für n ∈ N ein Martingal X definiert (das von Y erzeugte Martingal).
Beweis. Die Adaptiertheit ist offensichtlich. Die Integrierbarkeit folgt aus der Jensenschen
Ungleichung wegen E(|Xn |) ≤ E(|E(Y |Fn )|) ≤ E(E(|Y ||Fn )) = E(|Y |) < ∞. Ferner
gilt E(Xn |Fm ) = E(E(Y |Fn )|Fm ) = E(Y |Fm ) = Xm für m ≤ n.
Umgekehrt kann man sich fragen, ob jedes Martingal von einer Zufallsvariablen erzeugt
wird. Das hieße, dass man die Menge der Martingale mit der Menge der integrierbaren Zufallsvariablen identifizieren könnte. Das ist jedoch im allgemeinen nicht der Fall, sondern
nur unter einer zusätzlichen gleichgradigen Integrabiliätsbedingung oder wenn die Zeitindexmenge (hier N) nach oben beschränkt ist, wie es in den folgenden Kapiteln der Fall sein
wird.
Beispiel 2.12 Sei Q ∼ P ein Wahrscheinlichkeitsmaß. Dann heißt das von
dQ|
Martingal Z der Dichteprozess von Q bzgl. P , und es gilt Zn = dP |FFn .
n
dQ
dP
erzeugte
2.2. MARTINGALE
23
Beweis. Für C ∈ Fn gilt
Z
Z
Z
dQ
dP = Q(C) = Q|Fn (C).
Zn dP |Fn =
Zn dP =
C
C
C dP
Somit erfüllt Zn die Eigenschaften einer Dichte von Q|Fn bezüglich P |Fn
Lemma 2.12a (Verallgemeinerte Bayessche Formel) Sei Q ∼ P ein Wahrscheinlichkeitsmaß mit Dichteprozess Z. Für n ∈ N sei X eine Fn -messbare, nichtnegative oder Qintegrierbare Zufallsvariable. Für m ≤ n gilt dann
EQ (X|Fm ) =
E(XZn |Fm )
.
Zm
Beweis. Wir zeigen, dass EQ (X|Fm )Zm die Eigenschaften von E(XZn |Fm ) besitzt. Fm Messbarkeit und ggf. Nichtnegativität sind offensichtlich. Falls X Q-integrierbar ist, gilt
E(|XZn |) = E(|X|Zn ) = EQ (|X|) < ∞,
da Zn Dichte von Q auf Fn ist. Für C ∈ Fn gilt ferner
Z
Z
Z
Z
EQ (X|Fm )Zm dP =
EQ (X|Fm )dQ =
XdQ =
XZn dP
C
C
C
wie gewünscht, da Zm , Zn Dichten von Q auf Fm bzw. Fn sind.
C
Martingale sind also durch ihren Wert in der Zukunft schon zu jedem früheren Zeitpunkt
determiniert.
Lemma 2.13 Seien X, Y Martingale und N ∈ N mit XN = YN . Dann gilt Xn = Yn für
n = 0, . . . , N .
Beweis. Dies folgt aus Xn = E(XN |Fn ) = E(YN |Fn ) = Yn .
Wie wir gesehen haben, erwartet man bei einem Martingal für die Zukunft im Mittel den
heutigen Wert. Ein allgemeiner Prozess hingegen könnte einen positiven, negativen oder
auch wechselnden Trend aufweisen. Dies wird durch die Doobsche Zerlegung formalisiert.
Sie zerlegt den Zuwachs ∆Xn eines beliebigen Prozesses in einen kurzfristigen, vorhersehbaren Trend ∆An und eine zufällige Abweichung ∆Mn von diesem Trend.
Satz 2.14 (Doob-Zerlegung) Sei X ein diskretes Semimartingal mit E(|Xn | < ∞) für alle
n ∈ N. Dann lässt sich X fast sicher eindeutig in der Form
X = X0 + M + A
zerlegen, wobei M ein Martingal mit M0 = 0 und A ein vorhersehbarer Prozess mit A0 = 0
sind. A heißt Kompensator von X.
24
KAPITEL 2. DISKRETE STOCHASTISCHE ANALYSIS
P
Beweis. Definiere An := nm=1 E(∆Xm |Fm−1 ) und M := X − X0 − A. Dann ist ∆Mn =
∆Xn − E(∆Xn |Fn−1 ). Offensichtlich ist M adaptiert, integrierbar und E(∆Mn |Fn−1 ) =
0, woraus die Martingaleigenschaft folgt.
Umgekehrt sei X = X0 + M + A eine beliebige Zerlegung wie im Satz. Wegen der
Vorhersehbarkeit von A und der Martingaleigenschaft von M gilt dann
∆An = E(∆An |Fn−1 ) = E(∆Xn |Fn−1 ) − E(∆Mn |Fn−1 ) = E(∆Xn |Fn−1 )
für alle n, woraus die Eindeutigkeit folgt.
Bemerkung. Falls X ein Submartingal (bzw. Supermartingal) ist, dann ist A monoton wachsend (bzw. fallend).
2.3
Stochastisches Integral
Wie bisher sei ein filtrierter Wahrscheinlichkeitsraum (Ω, F , (Fn )n∈N , P ) gegeben. Von
nun an beschränken wir uns jedoch auf endliches Ω, die zugehörige kanonische σ-Algebra
F = P(Ω) sowie den Fall P ({ω} > 0 für alle ω ∈ Ω, d. h. alle Ergebnisse können
tatsächlich eintreten. Der zentrale Begriff der stochastischen Analysis ist das stochastische
Integral, das im Zeitdiskreten nichts anderes als eine Summe ist.
Definition 2.15 Sei X ein Rd -wertiges diskretes Semimartingal und H ein Rd -wertiger vorhersehbarer (oder zumindest adaptierter) Prozess. Unter dem stochastischen Integral von
H nach X versteht man das folgendermaßen definierte diskrete Semimartingal H • X:
Z n
n
X
>
•
Hm
∆Xm .
(2.1)
H Xn :=
Hm dXm :=
0
m=1
Motivieren lässt sich das stochastische Integral sehr schön durch die folgende finanzmathematische Anschauung, auch wenn es davon unabhängig entwickelt wurde. Dazu fassen wir,
wie wir es auch in den folgenden Kapiteln tun werden, X als den Kursverlauf einer Aktie
und Hn als die Anzahl an Aktien auf, die wir zur Zeit n besitzen. Durch die Kursänderung
der Aktie zwischen n − 1 und n ändert sich nun unser Anlagevermögen, nämlich gerade um
Hn (Xn − Xn−1 ) = Hn ∆Xn . Das Integral H • Xn steht also für die kumulativen Handelsgewinne oder -verluste zwischen den Zeitpunkten 0 und n, wie sie sich aus Kursänderungen
(und nicht etwa durch Kauf oder Verkauf von Wertpapieren) ergeben. Wenn wir ein Portfolio aus mehreren Aktien besitzen, werden X und H vektorwertig. Hni steht in diesem Fall
für die Anzahl an Aktien vom Typ i und Xni für deren Kurs. Die Handelsgewinne zwischen
n − 1 und n ergeben sich nunmehr als Skalarprodukt Hn> (Xn − Xn−1 ) = Hn> ∆Xn . Auch
im vektorwertigen Fall lässt sich also das Integral H • Xn als kumulativer Handelsgewinn
auffassen.
Bei der obigen Interpretation muss man jedoch sehr vorsichtig sein, in welcher Reihenfolge sich die Dinge zum Zeitpunkt n ereignen. Wenn wir Hn (Xn − Xn−1 ) als den Kursgewinn zum Zeitpunkt n deuten, bedeutet dies offenbar, dass wir unser Portfolio Hn gekauft
2.3. STOCHASTISCHES INTEGRAL
25
haben, bevor sich der Aktienkurs von Xn−1 nach Xn geändert hat, also gewissenmaßen am
Ende des vorigen Zeitpunkts n − 1, nachdem sich der Preis Xn−1 schon eingestellt hatte.
Daher erscheint es plausibel, dass wir zur Wahl von Hn auch nur die bis zum Zeitpunkt
n − 1 gesammelte Information verwenden können und insbesondere nicht den Wert Xn ,
der für uns im Augenblick des Kaufs des Portfolios noch im Dunkeln liegt. Dies motiviert
auch zumindest aus finanzmathematischer Sicht, warum man sich überwiegend auf die Betrachtung vorhersehbarer Integranden beschränkt. Denn um die Adaptiertheit von H • X zu
gewährleisten, würde ja die Adaptiertheit von H reichen.
Definition 2.16 Seien X, Y reellwertige diskrete Semimartingale. Unter der Kovariation
von X und Y versteht man das durch
[X, Y ]n :=
n
X
∆Xm ∆Ym
m=1
definierte diskrete Semimartingal [X, Y ]. Im Falle X = Y spricht man von der quadratischen Variation von X.
Die Kovariation ist — zumindest im zeitdiskreten Fall — vor allem für die Regel der partiellen Integration (vgl. Lemma 2.18) von Interesse.
Definition 2.17 Seien X, Y Martingale (oder allgemeiner diskrete Semimartingale) derart,
dass E(|[X, Y ]|n ) < ∞ für alle n ∈ N. Dann heißt der Kompensator von [X, Y ] vorhersehbare Kovariation von X und Y und wird mit hX, Y i bezeichnet. Im Falle X = Y spricht
man wieder von der vorhersehbaren quadratischen Variation von X.
Bemerkung. Offenbar ist ∆hX, Y in = E(∆Xn ∆Yn |Fn−1 ) für n ∈ N.
Die vorhersehbare quadratische Kovariation von Martingalen kann als eine Art dynamische Verallgemeinerung der Kovarianz zentrierter Zufallsvariablen aufgefasst werden. Wir
benötigen sie aus technischen Gründen für den Satz von Girsanow (Lemma 2.24) und im
Zusammenhang mit finanzmathematischen Fragestellungen in Kapitel ??.
Lemma 2.18 Seien X, Y diskrete Semimartingale und H, K vorhersehbare Prozesse. Dann
gelten:
1. H • (K • X) = (HK) • X
2. [H • X, Y ] = H • [X, Y ]
3. die Regel der partiellen Integration:
XY
= X 0 Y0 + X− • Y + Y
•
X
= X0 Y0 + X− • Y + Y− • X + [X, Y ]
(2.2)
(2.3)
26
KAPITEL 2. DISKRETE STOCHASTISCHE ANALYSIS
4. Falls E(|[X, Y ]n |) < ∞ und E(|[H • X, Y ]n |) < ∞ für alle n ∈ N, ist
hH • X, Y i = H • hX, Y i.
5. Wenn X ein Martingal ist, dann ist H • X ein Martingal.
6. Wenn X ein Supermartingal und H nichtnegativ sind, dann ist H
tingal.
•
X ein Supermar-
7. Wenn X ein Martingal und T eine Stoppzeit sind, dann ist auch X T ein Martingal.
8. Wenn X ein Supermartingal und T eine Stoppzeit sind, dann ist auch X T ein Supermartingal.
Intuitiv bedeuten die beiden letzten Regeln, dass ein gestopptes faires (bzw. ungünstiges)
Spiel fair (bzw. ungünstig) bleibt. Man kann also bei dem oben betrachteten Roulettespiel
den mittleren Gewinn nicht dadurch steigern, dass man zu einem geschickt gewählten
Zeitpunkt das Spielkasino verlässt.
Beweis. 1. H • (K • X)n =
2. Für festes n gilt
Pn
m=1
Hm ∆(K • X)m =
[H • X, Y ]n =
Pn
=
Pn
=
Pn
m=1 ∆(H
Pn
m=1
•
Hm Km ∆Xm = (HK) • Xn
X)m ∆Ym
m=1 Hm ∆Xm ∆Ym
m=1 Hm ∆[X, Y ]m
= H • [X, Y ]n .
3. Für festes n gelten
Xn Yn = X0 Y0 +
Pn
= X0 Y0 +
Pn
m=1 (Xm Ym
− Xm−1 Ym−1 )
m=1 (Xm−1 (Ym
= X0 Y0 + X− • Yn + Y
•
− Ym−1 ) + Ym (Xm − Xm−1 ))
Xn
und
Y
•
Xn =
Pn
=
Pn
m=1 Ym ∆Xm
m=1 (Ym−1 ∆Xm
+ (Ym − Ym−1 )∆Xm )
= Y− • Xn + [X, Y ]n .
4. Es reicht zu zeigen, dass die Zuwächse übereinstimmen. Dies gilt wegen
∆(H • hX, Y in ) = Hn ∆hX, Y in
= Hn E(∆[X, Y ]n |Fn−1 )
= E(Hn ∆[X, Y ]n |Fn−1 )
2.
= E(∆[H • X, Y ]n |Fn−1 )
= ∆hH • X, Y in .
2.3. STOCHASTISCHES INTEGRAL
27
5. Die Adaptiertheit von H • X ist klar, da H • Xn eine Linearkombination Fn messbarer Zufallsvariabler ist. Die Martingalbedingung folgt wegen
E(H • Xn |Fn−1 ) = E(H • Xn−1 + Hn ∆Xn |Fn−1 )
= H • Xn−1 + Hn E(∆Xn |Fn−1 )
aus der Martingaleigenschaft von X.
6. Dies folgt analog zu 5.
8.,9. Definiere den Prozess H durch Hn := 1{T ≥n} . H ist vorhersehbar, denn für festes
n ist {Hn = 1} = {T ≥ n} = {T ≤ n − 1}C ∈ Fn− . Ferner ist X T = X0 + H • X, denn
P
T
X0 + H • Xn = X0 + n∧T
m=1 ∆Xm = Xn∧T = Xn . Mit Eigenschaft 5 bzw. 6 folgt die
Behauptung.
Bemerkung.
1. Das stochastische Integral H • X ist linear in H und X.
2. Die Kovariation [X, Y ] und die vorhersehbare Kovariation hX, Y i sind linear in X
und Y .
3. Die obigen Aussagen gelten auch für vektorwertige Prozesse, sofern sich sinnvolle
Aussagen ergeben. Z. B. ist H • (K • X) = (HK) • X, falls K, X Rd -wertig sind.
Die Itô-Formel ist im Zeitdiskreten nichts anderes als eine mehr oder weniger kompliziert aufgeschriebene Teleskopsumme und spielt auch keine große Rolle. In der zeitstetigen
Analysis ist sie dagegen von zentraler Bedeutung, weswegen wir sie hier der Vollständigkeit
halber ebenfalls erwähnen.
Satz 2.19 (Itô-Formel) Seien X ein Rd -wertiges diskretes Semimartingal und f : Rd → R
eine differenzierbare Funktion. Dann ist f (X) ein diskretes Semimartingal, und es gilt:
f (Xn ) = f (X0 ) +
n
X
(f (Xm ) − f (Xm− ))
m=1
= f (X0 ) + (Df (X− )) • Xn +
n X
f (Xm ) − f (Xm− ) − Df (Xm− )> ∆Xm
m=1
Beweis. durch einfaches Nachrechnen.
Bemerkung. Wenn die Sprünge ∆X „klein“ sind und f zweifach stetig differenzierbar ist,
dann gilt näherungsweise
f (Xn ) ≈ f (X0 ) + (Df (X− )) • Xn +
d
1X 2
D f (X− ) • [X i , X j ]n
2 i,j=1 ij
(d. h. f (Xn ) ≈ f (X0 ) + f 0 (X− ) • Xn + 12 f 00 (X− ) • [X, X]n für reellwertiges X).
(2.4)
28
KAPITEL 2. DISKRETE STOCHASTISCHE ANALYSIS
Beweis. Die Näherungsformel folgt mit einer Taylorentwicklung 2. Ordnung:
2
f (Xn ) ≈ f (Xn− ) + Df (Xn− )> ∆Xn + 21 Dij
f (Xn− )∆Xni ∆Xnj .
Stochastische Exponentiale sind Prozesse von multiplikativer Gestalt und spielen in der
stochastischen Analysis eine wichtige Rolle. Sie lassen sich gut finanzmathematisch illustrieren: Wenn ∆Xn als Zins zwischen den Zeitpunkten n − 1 und n ausgeschüttet wird
(d. h. aus 1 e bei n − 1 werden 1 + ∆Xn e zur Zeit n), dann gibt E (X) an, wie sich ein
Anfangskapital von 1 e durch die Zeit hindurch mit Zins und Zinseszins entwickelt.
Definition 2.20 Sei X ein reellwertiges diskretes Semimartingal. Unter dem stochastischen Exponential E (X) versteht man das diskrete Semimartingal Z, das die Gleichung
Z = 1 + Z− • X
löst.
Für das stochastische Exponential gibt es eine einfache explizite Darstellung.
Q
Lemma 2.21 Es gilt E (X)n = nm=1 (1 + ∆Xm ).
Beweis. Die Produktdarstellung zeigt man induktiv via
Zn = Zn−1 + Zn−1 ∆Xn =
Qn−1
m=1 (1
+ ∆Xm )(1 + ∆Xn ) =
Qn
m=1 (1
+ ∆Xn ).
Bemerkung.
1. Wenn die Sprünge ∆X „klein“ sind, dann gilt näherungsweise
1
E (X)n ≈ exp Xn − X0 − [X, X]n .
2
(2.5)
Beweis. In der Näherung o((∆Xm )2 ) ≈ 0 gilt
Q
exp(Xn − X0 − 12 [X, X]n ) = nm=1 exp(∆Xm ) exp(− 12 (∆Xm )2 )
Qn
1
1
2
2
2
2
=
m=1 (1 + ∆Xm + 2 (∆Xm ) + o((∆Xm ) )(1 − 2 (∆Xm ) + o((∆Xm ) ))
Qn
1
1
2
2
2
=
m=1 (1 + ∆Xm + 2 (∆Xm ) − 2 (∆Xm ) + o((∆Xm ) ))
Qn
≈
m=1 (1 + ∆Xm ) = E (X)n .
2. Wenn X ein Martingal ist, so gilt dies nach Lemma 2.18(5) auch für E (X).
In der folgenden Rechenregel für das stochastische Exponential taucht im Vergleich zur
gewöhnlichen Exponentialfunktion noch ein Kovariationsterm auf.
Lemma 2.22 (Yorsche Fomel) Für diskrete Semimartingale X, Y gilt
E (X)E (Y ) = E (X + Y + [X, Y ]).
2.3. STOCHASTISCHES INTEGRAL
29
Beweis. Nach Lemma 2.18 gilt
E (X)E (Y ) = E (X)0 E (Y )0 + E (X)− • E (Y ) + E (Y )− • E (X) + [E (X), E (Y )]
= 1 + (E (X− )E (Y− )) • Y + (E (X− )E (Y− )) • X + (E (X− )E (Y− )) • [X, Y ]
= 1 + (E (X)E (Y ))− • (Y + X + [X, Y ])
und damit die Behauptung.
Da die Definition des Martingals einen Erwartungswert beinhaltet, ist sie nicht invariant
unter Wechsel des Wahrscheinlichkeitsmaßes. Der folgende Satz zeigt, wie man anhand des
Dichteprozesses feststellen kann, ob ein Prozess ein Martingal unter einem gegebenen äquivalenten Wahrscheinlichkeitsmaß ist. Solche Maßwechsel, unter denen gewisse Prozesse zu
Martingalen werden, spielen in der Finanzmathematik eine wichtige Rolle.
Lemma 2.23 Sei Q ∼ P ein Wahrscheinlichkeitsmaß mit Dichteprozess Z, und sei X ein
diskretes Semimartingal. X ist genau dann ein Q-Martingal, wenn XZ ein P -Martingal ist.
Beweis. Die Adaptiertheit ist klar. Nach der verallgemeinerten Bayesschen Formel (Lemma
2.12a) gilt
Zn−1 EQ (Xn |Fn−1 ) = EP (Zn Xn |Fn−1 ).
X ist genau dann ein Q-Martingal, wenn die linke Seite für n = 1, 2, . . . mit Zn−1 Xn−1
übereinstimmt. Analog ist ZX ist genau dann ein P -Martingal, wenn die rechte Seite für
n = 1, 2, . . . mit Zn−1 Xn−1 übereinstimmt.
Der Satz von Girsanow liefert die Doob-Zerlegung eines P -Martingals unter einem äquivalenten Wahrscheinlichkeitsmaß Q in Abhängigkeit des Dichteprozesses von Q.
Lemma 2.24 (Girsanow) Sei Q ∼ P ein Wahrscheinlichkeitsmaß mit Dichteprozess Z.
Ferner sei X ein Martingal mit X0 = 0 und E(|[Z, X]n |) < ∞ für alle n ∈ N. Dann ist
X−
1
Z−
•
hZ, Xi
ein Q- Martingal, wobei die vorhersehbare Kovariation bzgl. des Wahrscheinlichkeitsmaßes
P zu verstehen ist.
Beweis. Für C := {Zn = 0} gilt
Q(C) = EP ( dQ
1 ) = EP (Zn 1C ) = 0,
dP C
also auch P (C) = 0 und somit Zn 6= 0 fast sicher. Folglich ist der vorhersehbare Prozess
A := Z1− • hZ, Xi wohldefiniert. Nach Lemma 2.18 ist
(X − A)Z = XZ − AZ
= X− • Z + Z− • X + [Z, X] − Z− • A − A • Z
= X− • Z + Z− • X + ([Z, X] − hX, Zi) − A • Z
30
KAPITEL 2. DISKRETE STOCHASTISCHE ANALYSIS
ein P -Martingal. Die Behauptung folgt mit Lemma 2.23.
Die Standard-Irrfahrt ist gewissermaßen das einfachste Martingal überhaupt (nach den
konstanten Prozessen).
Definition 2.25 Seien p ∈ (0, 1), a, b > 0. Unter einer einfachen Irrfahrt verstehen wir ein
Semimartingal X mit X0 = 0 derart, dass (∆Xn )n∈N\{0} unabhängige, identisch verteilte
Zufallsvariablen sind mit
P (∆Xn = a) = 1 − P (∆Xn = −b) = p.
Im Fall a = b = 1, p =
1
2
sprechen wir von einer Standard-Irrfahrt.
Nur sehr einfache Prozesse X wie die Standard-Irrfahrt oder deren asymmetrische oder
gestoppte Varianten besitzen die folgende Darstellungseigenschaft, dass sich jedes Martingal bzgl. ihrer Filtrierung schon als stochastisches Integral nach X schreiben lässt. Diese
Eigenschaft hängt in der Finanzmathematik eng mit der Vollständigkeit von Märkten zusammen (vgl. Kapitel ??).
Satz 2.26 (Martingaldarstellungssatz) Sei X eine einfache Irrfahrt mit der Martingaleigenschaft ap = b(1 − p). Wenn (Fn )n∈N die von X erzeugte Filtrierung ist, dann gibt es für
jedes Martingal Y einen vorhersehbaren Prozess H derart, dass Y = Y0 + H • X.
Beweis. Da ∆Yn σ(∆X1 , . . . , ∆Xn )-messbar ist, gibt es eine Funktion fn : {−b, a}n → R
mit ∆Yn = fn (∆X1 , . . . , ∆Xn ). Da Y ein Martingal ist, gilt
0 = E(∆Yn |Fn−1 ) = pfn (∆X1 , . . . , ∆Xn−1 , a) + (1 − p)fn (∆X1 , . . . , ∆Xn−1 , −b)
nach Lemma 1.19, also
1
f (∆X1 , . . . , ∆Xn−1 , a)
a n
= − 1b fn (∆X1 , . . . , ∆Xn−1 , −b) =: Hn .
Dann ist
Hn ∆Xn = fn (∆X1 , . . . , ∆Xn−1 , a) = ∆Yn
im Falle ∆Xn = a und analog für ∆Xn = −b.
Herunterladen