Finanzmathematik 1

Werbung
Finanzmathematik 1
Prof. Dr. Stefan Ankirchner
Wintersemester 2016/17
Inhaltsverzeichnis
I
Elemente der zeitdiskreten Martingaltheorie
1
Bedingte Erwartungen . . . . . . . . . . . . . . . . . . . . . . .
2
Martingale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
3
8
II
Bewertung von Derivaten
3
Das Binomialmodell . . . . . . . . . . . . . . . . . . . . . . . .
4
Das allgemeine Mehrperiodenmodell . . . . . . . . . . . . . . .
5
Konvergenz des Binomialmodells gegen das Black-Scholes-Modell
20
20
30
39
III
Portfolio-Optimierung
49
6
Nutzenmaximierung im Binomialmodell . . . . . . . . . . . . . 50
7
Nutzenmaximierung großer Portfolien . . . . . . . . . . . . . . . 58
IV
Optimales Stoppen
8
Stopp-Probleme mit endlichem Zeithorizont . . . . . . . . . .
8.1
Eine allgemeine Methode zur Bestimmung optimaler Stoppzeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.2
Das Cayley-Moser-Problem . . . . . . . . . . . . . . . . .
8.3
Das SekretärInnen-Problem . . . . . . . . . . . . . . . . .
8.4
Die Snell-Hülle als essentielles Supremum . . . . . . . . .
9
Stopp-Probleme mit unendlichem Zeithorizont . . . . . . . . .
9.1
Existenz von optimalen Stoppzeiten . . . . . . . . . . . . .
9.2
Eine Methode zur Bestimmung optimaler Stoppzeiten . . .
9.3
Das Cayley-Moser-Problem mit unendlichem Zeithorizont
V
62
. 62
.
.
.
.
.
.
.
.
62
64
66
69
70
70
75
76
Praktische Finanzmathematik
78
10 Implementierung des Binomialmodells . . . . . . . . . . . . . . 78
1
INHALTSVERZEICHNIS
10.1
Bewertungsalgorithmen, die die Binomialverteilung verwenden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.2 Baumalgorithmen . . . . . . . . . . . . . . . . . . . . . . .
10.3 Bewertung amerikanischer Optionen . . . . . . . . . . . .
11 Monte-Carlo-Verfahren . . . . . . . . . . . . . . . . . . . . . .
12 Der LSMC-Algorithmus . . . . . . . . . . . . . . . . . . . . .
13 Portfolio-Optimierung . . . . . . . . . . . . . . . . . . . . . .
13.1 Lösungsmethode: Simulation . . . . . . . . . . . . . . . .
13.2 Lösungsmethode: Verteilung . . . . . . . . . . . . . . . . .
2
.
.
.
.
.
.
.
.
78
80
81
84
90
93
93
94
I
Elemente der zeitdiskreten Martingaltheorie
Literaturempfehlung: Durrett Probability: Theory and Examples
1
Bedingte Erwartungen
Ziel des Kapitels: Wiederholung wichtiger Eigenschaften von bedingten Erwartungen.
Sei (Ω, F, P ) ein Wahrscheinlichkeitsraum.
Definition
Sei R̄ = R ∪ {−∞, +∞}. Für p ∈ [1, ∞] definieren wir die Räume Lp (Ω, F, P )
(kurz Lp ) durch
(
R
X : Ω → R̄|X ist F-mb, Ω |X|p dP < ∞
p
L (Ω, F, P ) := X : Ω → R̄|X ist F-mb, ess supω∈Ω |X(ω)| < ∞
p ∈ [1, ∞),
p = ∞.
Sei X eine integrierbare ZV (d.h X ∈ L1 (Ω, F, P )). Weiterhin sei G eine Sub-σAlgebra von F. Eine Zufallsvariable Y heißt bedingte Erwartung von X bezüglich G, falls gilt:
(1) Y ist G-messbar,
(2) für alle A ∈ G gilt:
R
A
XdP =
R
A
Y dP .
Wir zeigen die Existenz einer bedingten Erwartung mit Hilfe des Satzes von RadonNikodym. Dazu:
Erinnerung (Absolutstetigkeit von Wahrscheinlichkeitsmaßen)
Sei Q ein weiteres Wahrscheinlichkeitsmaß auf (Ω, F). Dann ist Q absolutstetig
bezüglich P (man schreibt Q P ) falls für alle A ∈ F gilt:
P (A) = 0 ⇒ Q(A) = 0
Weiterhin: P und Q heißen äquivalent (man schreibt P ∼ Q), falls
P Q und Q P.
3
1
Bedingte Erwartungen
Satz 1.1 (Radon-Nikodym)
Falls Q P , dann existiert eine Zufallsvariable X ∈ L1 (Ω, F, P ) mit X ≥ 0,
sodass für alle A ∈ F gilt:
Z
Q(A) = XdP.
A
X heißt dann Dichte von Q bezüglich P auf F. Man schreibt häufig
dQ
dP
für X.
Beweis. Stochastik oder Maßtheorie-Vorlesung.
Satz 1.2
Sei X ∈ L1 (Ω, F, P ) und G ⊂ F eine Sub-σ-Algebra. Dann existiert eine bedingte Erwartung Y von X bezüglich G. Y ist bis auf Nullmengen eindeutig
bestimmt, d.h. es gilt:
Y, Y 0 bed. Erw. von X ⇒ Y = Y 0
a
f.s.a
P ({ω : Y (ω) 6= Y 0 (ω)}) = 0
Beweis. Wir zeigen zunächst, dass eine bedingte Erwartung integrierbar ist (d.h.
in L1 (Ω, F, P ) liegt). Dazu sei A = {Y ≥ 0}. Dann gilt
Z
Z
Z
Z
E|Y | = Y dP − Y dP = XdP − XdP
A
Ac
Z
≤
|X|dP +
A
A
Ac
Z
|X|dP = E|X| < ∞.
Ac
Nun zur Eindeutigkeit: Seien Y, Y 0 zwei bedingte Erwartungen von X. Dann gilt für
A(n) := {Y − Y 0 ≥ n1 }, n ≥ 1, nach der Chebyshev-Ungleichung und Eigenschaft
(2)
Z
1
P (A(n)) ≤
(Y − Y 0 )dP = 0.
n
A(n)
Damit folgt P (A(n)) = 0. Mit der σ-Stetigkeit von P folgt
P (Y − Y 0 > 0) = lim P (A(n)) = 0.
n→∞
Analog zeigt man P (Y − Y 0 < 0) = 0. Damit folgt P (Y = Y 0 ) = 1, d.h. Y = Y 0
f.s.
4
1
Bedingte Erwartungen
Existenz: Sei zunächst X ≥ 0 mit E(X) ∈ (0, ∞) (im Fall E(X) = 0, ist 0 eine
bedingte Erwartung von X). Wir definieren ein neues Wahrscheinlichkeitsmaß Q
auf G wie folgt:
Z
1
Q(A) :=
XdP, A ∈ G.
E(X)
A
Es gilt Q P auf G. Nach Satz 1.1 existiert eine Zufallsvariable Ye ∈ L1 (Ω, G, P )
mit Ye ≥ 0 und
Z
Q(A) = Ye dP, A ∈ G.
A
Somit ist Y := E(X)Ye eine bedingte Erwartung von X.
Sei nun X eine beliebige Zufallsvariable in L1 (Ω, F, P ) und X = X + −X − . X + und
X − haben jeweils eine bedingte Erwartung Y + bzw. Y − . Definiere Y := Y + − Y − .
Dann gilt für alle A ∈ G
Z
Z
Z
Z
Z
+
−
+
XdP = X dP − X dP = Y dP − Y − dP
A
A
Z
=
A
A
Y dP.
A
Also ist Y eine bedingte Erwartung von X.
Notation: Man bezeichnet die bedingte Erwartung von X ∈ L1 (Ω, F, P ) bezüglich G mit E(X | G).
Eigenschaften von bedingten Erwartungen
Im Folgenden seinen X, Y integrierbare Zufallsvariablen und G eine Sub-σ-Algebra
von F. Es gilt:
• Linearität: für a, b ∈ R gilt
E(aX + bY | G) = aE(X | G) + bE(Y | G),
f.s.
• Monotonie:
X ≤ Y,
f.s. ⇒ E(X | G) ≤ E(Y | G),
f.s.
• E[X|G] ∈ L1 (Ω, G, P )
5
1
Bedingte Erwartungen
• Falls X G-messbar ist, dann gilt E[X|G] = X.
• Falls X unabhängig von G ist, dann gilt E[X|G] = E[X].
Lemma 1.3 (Jensen-Ungleichung)
Sei ϕ : R → R konvex und E|ϕ(X)| < ∞. Dann gilt
f.s.
ϕ(E(X | G)) ≤ E(ϕ(X) | G),
Beweis. Sei S = {(a, b) ∈ Q2 : ax + b ≤ ϕ(x), ∀x ∈ R}. Man kann zeigen:
ϕ(x) = sup{ax + b : (a, b) ∈ S}. Sei nun (a, b) ∈ S. Dann gilt
E[ϕ(X) | G] ≥ E[aX + b | G] = aE(X | G) + b,
f.s.
Damit folgt
E[ϕ(X) | G] ≥ sup {aE(X | G) + b} = ϕ(E(X | G)),
f.s.
(a,b)∈S
Beispiel
Sei ϕ(x) = x2 , E(X 2 ) < ∞. Dann ist (E(X | G))2 ≤ E(X 2 | G), f.s.
Lemma 1.4
Sei H eine Sub-σ-Algebra von G (also H ⊂ G ⊂ F). Dann gilt
(a) E[E(X | G) | H] = E(X | H).
( Turmeigenschaft“)
”
(b) E[E(X | H) | G] = E(X | H).
Beweis. (a) Sei A ∈ H. Dann gilt
Z
Z
Z
E(X | G)dP = XdP = E(X | H)dP.
A
A
A
(b) gilt, da E(X | H) bereits messbar bezüglich G ist.
Lemma 1.5
Sei Y G-messbar und E|XY | < ∞. Dann gilt
E(XY | G) = Y E(X | G),
6
f.s.
1
Bedingte Erwartungen
Beweis. Wir zeigen die Aussage durch maßtheoretische Induktion:
1) Sei Y = 1B , B ∈ G. Dann gilt für A ∈ G
Z
Z
Z
Z
XY dP =
XdP =
E(X | G)dP = Y E(X | G)dP.
A
A∩B
A∩B
A
Also E(XY | G) = Y E(X | G).
2) Sei Y eine einfache Zufallsvariable, d.h. eine Zufallsvariable der Form
Y =
n
X
ai ∈ R, Bi ∈ G.
ai 1Bi ,
i=1
Die Behauptung folgt aus 1) und der Linearität der bedingten Erwartung.
3) Sei nun Y beliebig. Durch Zerlegung in Positiv- und Negativteil können wir
annehmen: X, Y ≥ 0. Wähle einfache Zufallsvariablen Yn mit
und
0 ≤ Y1 ≤ Y2 ≤ . . .
sup Yn = Y.
n
Monotone Konvergenz impliziert, für alle A ∈ G,
Z
Z
Z
Z
2)
XY dP = lim
XYn dP = lim
Yn E(X | G)dP = Y E(X | G)dP.
n→∞
A
n→∞
A
A
A
Lemma 1.6
Sei E(X 2 ) < ∞. Dann minimiert E(X | G) den quadratischen Abstand zu X
unter allen Y ∈ L2 (Ω, G, P ), d.h.
E[(X − E(X | G))2 ] = min{E[(X − Y )2 ] : Y ∈ L2 (Ω, G, P )}.
Beweisskizze. Sei Z ∈ L2 (Ω, G, P ). Dann ist E|XZ| < ∞ und mit Lemma 1.5
folgt: E(ZX | G) = ZE(X | G). Damit folgt
E[Z(X − E(X | G))] = E[ZX] − E[E(ZX | G)] = 0.
Sei Y ∈ L2 (Ω, G, P ) und setze Z := Y − E(X | G). Dann
E[(X − Y )2 ] = E[(X − E(X | G) − Z)2 ] = E[(X − E(X | G))2 ] + E(Z 2 ).
Der Abstand wird minimal, falls Z = 0, d.h. falls Y = E(X | G).
7
2
2
Martingale
Martingale
Sei (Ω, F, P ) ein Wahrscheinlichkeitsraum.
Definition
Sei (Fn )n∈N0 eine Folge von σ-Algebren mit Fn ⊂ F . (Fn ) heißt Filtration, falls
F0 ⊂ F1 ⊂ F2 ⊂ . . . ⊂ Fn ⊂ . . . .
In diesem Fall heißt (Ω, F, (Fn )n∈N0 , P ) filtrierter Wahrscheinlichkeitsraum.
Definition
Eine Familie von Zufallsvariablen (Xn )n∈N0 auf (Ω, F, P ) heißt stochastischer
Prozess. Sei (Fn )n∈N0 eine Filtration. Ein stochastischer Prozess (Xn )n∈N0 heißt
adaptiert an (Fn )n∈N0 , falls für alle n ∈ N0 gilt: Xn ist Fn -messbar. Ein stochastischer Prozess (Xn )n≥1 heißt previsibel bezüglich (Fn )n∈N0 , falls für alle n ≥ 1
gilt: Xn ist Fn−1 -messbar.
Bemerkung
Sei (Xn )n≥0 ein stochastischer Prozess. Setze Gn := σ(X0 , . . . , Xn ) (= kleinste σAlgebra bezüglich derer X0 , . . . , Xn messbar sind). Dann ist (Xn ) adaptiert an
(Gn ).
Definition
Sei (Xn )n≥0 ein stochastischer Prozess und (Fn )n≥0 eine Filtration. (Xn ) heißt
Martingal bezüglich (Fn ), falls gilt:
(1) (Xn ) ist adaptiert an (Fn ),
(2) E|Xn | < ∞, für alle n ≥ 0,
(3) E[Xn+1 | Fn ] = Xn , für alle n ≥ 0.
(Xn ) heißt Supermartingal, falls (1), (2) und
(3’) E[Xn+1 | Fn ] ≤ Xn für alle n ≥ 0 gilt.
(Xn ) heißt Submartingal, falls (1), (2) und
(3”) E[Xn+1 | Fn ] ≥ Xn für alle n ≥ 0 gilt.
Bemerkung (Merksatz)
There is nothing super about a supermartingale.
Lemma 2.1
Sei (Xn ) ein Martingal. Dann gilt für alle n > m, dass E(Xn | Fm ) = Xm .
Beweis. Sei n = m + k. Wir beweisen die Aussage durch Induktion nach k.
8
2
Martingale
k = 1: Aussage folgt aus der Definition von Martingalen.
k → k + 1:
E(Xm+k+1 | Fm )
Turmeig.
=
=
I.V.
=
E(E(Xm+k+1 | Fm+k ) | Fm )
E(Xm+k | Fm )
Xm .
Bemerkung
Sei (Xn ) ein Super- bzw. Submartingal. Dann gilt für n > m:
E(Xn | Fm ) ≤ Xm
bzw.
E(Xn | Fm ) ≥ Xm .
Beispiel (Irrfahrten)
Sei (Zn ) iid (unabhängig und identisch verteilt) mitP
P (Zn = 1) = p und P (Zn =
−1) = 1 − p, wobei p ∈ [0, 1]. Sei X0 = 0 und Xn = ni=1 Zi , n ≥ 1. Weiterhin sei
Fn = σ(X0 , . . . , Xn ), n ≥ 0. Falls p = 12 , dann heißt (Xn ) einfache symmetrische
Irrfahrt.
Es gilt:
(1) p ≥
1
2
⇒ (Xn ) ist Submartingal,
(2) p ≤
1
2
⇒ (Xn ) ist Supermartingal.
Insbesondere: p =
1
2
⇒ (Xn ) ist Martingal.
Begründung:
1. Nach Definition von (Fn ) ist (Xn ) adaptiert.
2. |Xn | ≤ n. Also ist Xn integrierbar.
3. Beachte: E(Zn ) = p − (1 − p) = 2p − 1. Somit
E(Xn+1 | Fn ) = E(Xn + Zn+1 | Fn )
= E(Xn | Fn ) + E(Zn+1 | Fn ) = Xn + E(Zn+1 )
= Xn + 2p − 1.
Hiermit folgt die Behauptung.
Lemma 2.2
Sei (Xn ) ein Martingal und ϕ : R → R eine konvexe Funktion mit E|ϕ(Xn )| < ∞
für alle n ≥ 0. Dann ist ϕ(Xn ) ein Submartingal.
9
2
Martingale
Beweis. Eigenschaften (1) und (2): X Eigenschaft (3”): Mit Lemma 1.3 folgt
E(ϕ(Xn+1 ) | Fn ) ≥ ϕ(E(Xn+1 | Fn )) = ϕ(Xn ).
Korollar 2.3
Sei p ≥ 1 und (Xn ) ein Martingal mit E|Xn |p < ∞ für alle n ≥ 0. Dann ist |Xn |p
ein Submartingal.
Definition
Sei (Xn )n≥0 ein adaptierter und (Hn )n≥1 ein previsibler stochastischer Prozess mit
Werten in R. Dann heißt
InX (H)
:=
n
X
Hk (Xk − Xk−1 ),
n ≥ 0,
k=1
stochastisches Integral von (Hn ) bezüglich (Xn ). Hier: I0X (H) := 0.
Bemerkung (Mögliche Interpretation)
(Xn ) = Preisprozess eines Wertpapieres
(Hn ) = Anlagestrategie; Hn ist die Stückzahl des Wertpapieres im Portfolio zwischen den Zeitpunkten n − 1 und n.
InX (H) = Gewinn bis zur Zeit n (negativer Gewinn bedeutet Verlust)
Satz 2.4
Sei (Xn )n≥0 ein Martingal bezüglich (Fn ). Weiterhin sei (Hn )n≥1 previsibel mit
Hn beschränkt für alle n ≥ 1. Dann ist auch (InX (H)) ein Martingal.
Beweis. 1. InX (H) ist adaptiert: folgt aus der Konstruktion.
2. Wir zeigen durch Induktion nach n: E|InX (H)| < ∞.
n = 0: I0X (H) = 0. X
n → n + 1: Sei InX (H) integrierbar. Beachte:
X
In+1
(H) = InX (H) + Hn+1 (Xn+1 − Xn ).
Also
X
E|In+1
(H)| ≤ E|InX (H)| +E|Hn+1 (Xn+1 − Xn )|.
| {z }
<∞, nach I.V.
10
2
Martingale
Sei C ∈ R+ mit |Hn+1 | ≤ C, f.s. Dann
E|Hn+1 (Xn+1 − Xn )| = E(|Hn+1 ||Xn+1 − Xn |) ≤ C · E|Xn+1 − Xn |
≤ C · (E|Xn+1 | + E|Xn |) < ∞.
X
Also ist In+1
(H) integrierbar.
3. Sei n ≥ 0. Dann gilt
X
E((In+1
(H) | Fn ) = InX (H) + E[Hn+1 (Xn+1 − Xn ) | Fn ]
= InX (H) + Hn+1 E[Xn+1 − Xn | Fn ]
|
{z
}
(Lemma 1.5)
=0
=
InX (H).
Bemerkung
Interpretation: Falls (Xn ) ein Martingal ist, so ist zu jedem Zeitpunkt der erwartete
Gewinn einer Anlagestrategie gleich 0. Denn
E(InX (H)) = E(I0X (H)) = 0.
Satz 2.5
Sei (Xn )n≥0 ein Sub- bzw. Supermartingal und (Hn )n≥1 previsibel mit Hn ≥ 0
und Hn beschränkt. Dann ist auch InX (H) ein Sub- bzw. Supermartingal.
Beweis. Ähnlich zum Beweis von Satz 2.4.
Mit stochastischen Integralen lässt sich auch die Martingaleigenschaft verifizieren.
Satz 2.6
Sei (Xn )n≥0 ein adaptierter Prozess mit X0 = 0 für den gelte:
(Hn )n≥1 beschränkt und previsibel =⇒ InX (H) ∈ L1 und E(InX (H)) = 0.
Dann ist X ein Martingal.
Beweis. Adaptiertheit: X
Integrierbarkeit: Für alle n ≥ 1 gilt Xn = Xn − X0 = InX (1) ∈ L1 .
3. Martingaleigenschaft: Wähle A ∈ Fn und setze Hn+1 = 1A und Hk = 0 für
X
X
k 6= n. Dann ist In+1
(H) = 1A (Xn+1 − Xn ). Aus E(In+1
(H)) = 0 folgt
E[1A Xn+1 ] = E[1A Xn ].
Somit gilt also E[Xn+1 |Fn ] = Xn .
11
2
Martingale
In späteren Kapiteln benötigt: mehrdimensionale Versionen von Satz 2.4 und 2.6.
Hierzu sei d ∈ N. Für alle 1 ≤ j ≤ d sei (Xnj )n≥0 adaptiert und (Hnj )n≥1 previsibel.
Wir schreiben
Xn = (Xn1 , . . . , Xnd ) und Hn = (Hn1 , . . . , Hnd ). Des Weiteren bezeichne
Pd
x · y = j=1 xj yj das Skalarprodukt von x, y ∈ Rd . Das stochastische Integral von
(Hn ) bez. (Xn ) ist definiert als
InX (H)
=
n
X
k=1
Hk · Xk =
n X
d
X
j
Hkj (Xk+1
− Xkj ).
(1)
k=1 j=1
Wir bezeichnen (Xn ) als (d-dimensionales) Martingal, falls jede Komponente (Xnj )
ein Martingal ist.
Satz 2.7
Ist (Xn )n≥0 ein d-dim Martingal und (Hn )n≥1 previsibel mit Hn beschränkt für
alle n ≥ 1, dann ist (InX (H)) ein Martingal.
Beweis. Ähnlich zum Beweis von Satz 2.4.
Satz 2.8
Sei (Xn )n≥0 ein Rd -wertiger adaptierter Prozess mit X0 = 0 für den gelte:
(Hn ) = (Hn1 , . . . , Hnd ) beschr. und prev. =⇒ InX (H) ∈ L1 und E(InX (H)) = 0.
Dann ist X ein Martingal.
Beweis. Ähnlich zum Beweis von Satz 2.6.
Definition
Sei (Fn )n≥0 eine Filtration. Eine Zufallsvariable τ : Ω → N0 ∪ {+∞} heißt Stoppzeit bezüglich (Fn ), falls {τ = n} ∈ Fn für alle n ∈ N ∪ {∞}.
Beispiel
Sei (Xn )n≥0 ein stochatischer Prozess und Fn := σ(X0 , . . . , Xn ), n ≥ 0.
a) τ := min{n ≥ 0 : Xn ≥ 5} ist Stoppzeit bezüglich (Fn ). Hier: min ∅ = ∞.
Begründung:
{τ = n} = {Xn ≥ 5} ∩ {Xn−1 < 5} ∩ . . . ∩ {X0 < 5} ∈ Fn .
b) τ := max{0 ≤ n ≤ 10 : Xn = max0≤k≤10 Xk }
12
2
Martingale
2
1
6
10
Im Allgemeinen hängt {τ = n} von allen Zufallsvariablen X0 , . . . , X10 ab. Zum
Beispiel
(
∈ F10
{τ = 0} = {X0 > X1 } ∩ {X0 > X2 } ∩ . . . ∩ {X0 > X10 }
,
∈
/ F0
außer in trivialen Fällen. Deshalb ist τ im Allgemeinen keine Stoppzeit.
Lemma 2.9
Sei τ : Ω → N0 ∪ {∞} eine Abbildung. Dann:
τ ist Stoppzeit
⇔
{τ ≤ n} ∈ Fn für alle n ∈ N.
S
Beweis. ⇒“ {τ ≤ n} = nk=0 {τ = k} ∈ Fn .
”
⇐“ Für n ≥ 1 gilt: {τ = n} = {τ ≤ n} ∩ {τ ≤ n − 1}c ∈ Fn .
”
Für n = 0: {τ = 0} = {τ ≤ 0} ∈ F0 .
Lemma 2.10
Seien σ und τ zwei Stoppzeiten. Dann sind auch σ ∧ τ und σ ∨ τ Stoppzeiten.a
a
x ∧ y := min{x, y} und x ∨ y := max{x, y}.
Beweis. a) {σ ∧ τ ≤ n} = {σ ≤ n} ∪ {τ ≤ n} ∈ Fn .
b) {σ ∨ τ ≤ n} = {σ ≤ n} ∩ {τ ≤ n} ∈ Fn .
Mit Lemma 2.9 folgt, dass σ ∧ τ und σ ∨ τ Stoppzeiten sind.
Notation: Sei (Xn )n≥0 ein stochastischer Prozess und τ eine Stoppzeit. Wir bezeichnen mit (Xnτ )n≥0 den gestoppten Prozess
Xnτ (ω) := Xn∧τ (ω) (ω),
n ≥ 0.
13
2
Martingale
Bemerkung
Für alle n ≥ 0 ist Xnτ eine Zufallsvariable, denn:
{Xnτ
≤ a} = {ω : Xn∧τ (ω) (ω) ≤ a} =
n
[
({τ ∧ n = k} ∩ {Xk ≤ a}) ∈ F ,
a ∈ R.
k=0
Satz 2.11
Sei τ eine Stoppzeit und (Xn )n≥0 ein Martingal bezüglich (Fn ). Dann ist auch
(Xnτ )n≥0 ein Martingal bezüglich (Fn ).
Beweis. Setze Hn := 1{τ ≥n} , n ≥ 1. Da {τ ≥ n} = {τ ≤ n − 1}c ∈ Fn−1 , ist (Hn )
previsibel. Nach Satz 2.4 ist (InX (H)) ein Martingal. Beachte:
InX (H)
=
n
X
1{τ ≥k} (Xk − Xk−1 ) = Xτ ∧n − X0 .
k=1
Damit folgt Xnτ = Xτ ∧n = InX (H) + X0 ist Martingal.
Satz 2.12
Sei τ eine Stoppzeit und (Xn ) ein Sub- bzw. Supermartingal. Dann ist auch
(Xnτ )n≥0 ein Sub- bzw. Supermartingal.
Beweis. Ähnlich zum Beweis von Satz 2.11, aber unter Verwendung von Satz 2.5,
statt Satz 2.4. Beachte dazu: Hn ≥ 0, also kann man Satz 2.5 anwenden.
Satz 2.13 (Optional stopping theorem)
Sei (Xn ) ein Martingal, k ∈ N und τ eine Stoppzeit mit P (τ ≤ k) = 1. Dann
gilt
E(X0 ) = E(Xτ ) = E(Xk ).
Beweis. 1. Gleichung: nach Satz 2.11 ist X τ ein Martingal. Also
E(X0 ) = E(X0τ ) = E(Xkτ ) = E(Xτ ).
2. Gleichung: folgt aus E(Xk ) = E(X0 ).
Beispiel (Verdopplungsstrategie)
P
Sei (Yi )i≥1 iid mit P (Yi = 1) = P (Yi = −1) = 12 . Sei X0 = 0 und Xn = ni=1 Yi ,
n ≥ 1. Sei F0 = {∅, Ω} und Fn = σ(Y1 , . . . , Yn ), n ≥ 1. Dann ist (Xn )n≥0 ein
14
2
Martingale
Martingal bezüglich (Fn ) (siehe Beispiel oben). Betrachte folgende Anlagestrategie
(Hn ):
H1 = 1
H2 = 2 · 1{Y1 =−1}
..
.
Hn = 2n−1 · 1{Y1 =−1,...,Yn−1 =−1}
..
.
Wie groß ist InX (H), der Gewinn zur Zeit n?
Satz 2.14
Für die Verdopplungsstrategie (Hn ), n ≥ 1 gilt:
P (InX (H) = 1) = 1 −
1
.
2n
P (InX (H) = 1 − 2n ) =
1
.
2n
Beweis. Wir zeigen durch Induktion nach n: für alle n ≥ 1 gilt
(
1 − 2n falls Y1 = . . . = Yn = −1
InX (H) =
.
1
sonst
n = 1:
I1X (H)
(
−1 falls Y1 = −1
= H1 (X1 − X0 ) = Y1 =
.
+1 sonst
n → n + 1: Die Behauptung gelte für n. Dann
X
In+1
(H) = InX (H) + Hn+1 (Xn+1 − Xn )
= InX (H) + 2n · 1{Y1 =...=Yn =−1} Yn+1
(
1 − 2n − 2n = 1 − 2n+1 falls Y1 = . . . = Yn = Yn+1 = −1
=
.
1
sonst
Beachte nun: {InX (H) = 1 − 2n } =
gilt
P (InX (H)
Tn
k=1 {Yk
n
=1−2 )=
n
Y
k=1
= −1}. Da die Yi unabhängig sind,
P (Yk = −1) =
1
.
2n
15
2
Martingale
Daraus folgt die Behauptung.
Korollar 2.15
Für die Verdopplungsstrategie gilt:
lim P (InX (H) = 1) = 1.
n→∞
Bemerkung
1) (InX (H)) ist ein Martingal (wg. Satz 2.4). Also gilt E(InX (H)) = I0X (H) = 0, für
alle n ≥ 0. D.h.: Zu jedem Zeitpunkt ist der erwartete Gewinn 0, obwohl InX (H)
f.s. gegen 1 konvergiert (fast sichere Konvergenz, aber nicht in Erwartung (d.h.
nicht L1 -Konvergenz)). Eine Umsetzung der Strategie erfordert unbeschränktes Kapital, ist also praktisch nicht möglich. In vielen finanzmathematischen
Modellen werden Verdopplungsstrategien ausgeschlossen.
2) (InX (H)) ist ein Beispiel für ein Martingal, das f.s. gegen einen Grenzwert konvergiert. Jetzt: allgemeines Kriterium für Martingalkonvergenz.
Beobachtung: Ein stochastischer Prozess (Xn ) konvergiert genau dann wenn jedes Intervall [a, b] nur endlich oft durchquert wird.
b
a
Zunächst Abschätzung der Anzahl an Durchquerungen. Dazu setze N (0) = −1
und definiere rekursiv für k ≥ 1
N (2k − 1) = min{m > N (2k − 2) : Xm ≤ a},
N (2k) = min{m > N (2k − 1) : Xm ≥ b}.
16
2
Martingale
b
a
0 N (1)
N (2)
N (3)
Man kann durch Induktion zeigen: Für alle j ≥ 1 gilt:
N (j) ist Stoppzeit bezüglich Fn = σ(X0 , . . . , Xn ).
Betrachte folgende buy-low-sell-high-Strategie (Hn )n≥1 :
(
1 falls N (2k − 1) < n ≤ N (2k)
Hn =
.
0 sonst
(Hn ) ist previsibel, denn:
{Hn = 1} = {ω ∈ Ω : ∃k ≥ 1 : N (2k − 1) < n ≤ N (2k)}
[
=
({N (2k − 1) ≤ n − 1} ∩ {N (2k) ≤ n − 1}c )
|
{z
} |
{z
}
k≥1
∈Fn−1
∈Fn−1
∈ Fn−1
Sei Un := sup{k ≥ 1 : N (2k) ≤ n} die Anzahl der Durchquerungen bis zur Zeit n.
Lemma 2.16 (Doob’s upcrossing lemma)
Ist (Xn ) ein Submartingal bezüglich (Fn ), dann gilt
(b − a)EUn ≤ E(Xn − a)+ − E(X0 − a)+ .
Beweis. Setze Yn := a + (Xn − a)+ . (Yn ) ist ein Submartingal, denn
1. (Yn ) ist adaptiert.
2. E|Yn | ≤ |a| + E|Xn | < ∞ für alle n ≥ 0.
17
2
Martingale
3.
E[Yn+1 | Fn ] = E[a + (Xn+1 − a)+ | Fn ] = a + E[(Xn+1 − a)+ | Fn ]
≥ a + (E(Xn+1 | Fn ) − a)+
≥ a + (Xn − a)+
= Yn
b
a
0 N (1)
N (2)
N (3)
Es gilt: (b − a)Un ≤ InY (H). Mit Km := 1 − Hm gilt
InY (H) + InY (K) = InY (1) = Yn − Y0 .
Mit Satz 2.5 folgt: InY (K) ist ein Submartingal, also E(InY (K)) ≥ E(I0Y (K)) = 0.
Damit folgt
E(Yn − Y0 ) = E(InY (H)) + E(InY (K)) ≥ E(InY (H)) ≥ (b − a)EUn .
Damit folgt die Behauptung.
Satz 2.17 (Martingalkonvergenzsatz)
Sei (Xn )n≥0 ein Submartingal mit supn→∞ E(Xn+ ) < ∞. Dann konvergiert (Xn )
f.s. gegen eine Zufallsvariable X mit E|X| < ∞.
Beweis. Beachte: (Xn − a)+ ≤ Xn+ + |a|. Lemma 2.16 impliziert somit
|a| + E(Xn+ )
EUn ≤
.
b−a
Mit dem Satz der monotonen Konvergenz folgt
lim EUn = EU,
18
2
Martingale
wobei U := limn→∞ Un (= Anzahl aller Durchquerungen). Mit den Annahmen
folgt also EU < ∞. Insbesondere ist U < ∞, f.s. und somit
P (lim inf Xn ≤ a < b ≤ lim sup Xn ) = 0.
n→∞
n→∞
Da a und b beliebig sind, gilt auch


[

P
{lim inf Xn ≤ a < b ≤ lim sup Xn } = 0.
a,b∈Q
a<b
Also lim infn Xn = lim supn Xn , f.s. Daher konvergiert Xn f.s. gegen eine Zufallsvariable X.
Zur Integrierbarkeit von X: Mit Fatous Lemma folgt
EX + = E lim inf Xn+ ≤ lim inf EXn+ ≤ sup EXn+ < ∞.
n
n
n
Für den Negativ-Teil gilt:
EXn− = −EXn + EXn+
−Xn Supermartingal
≤
−EX0 + sup EXn+ < ∞.
n
Also mit Fatou:
EX − = E lim inf Xn− ≤ lim inf EXn− ≤ −EX0 + sup EXn+ < ∞.
n
n
n
Daraus folgt E|X| = EX + + EX − < ∞.
19
II
Bewertung von Derivaten
Ein Finanzderivat (kurz Derivat) ist ein Vertrag dessen wirtschaftlicher Wert
vom Verlauf einer marktbezogenen Referenzgröße abhängt.
Beispiele:
• Forward contract (kurz: forward) ist eine Vereinbarung zwischen 2 Vertragsparteien ein Gut (Wertpapier, Rohstoff, landwirtschaftliches Produkt,
…) an einem festgelegten Datum T (in der Zukunft) zu einem heute vereinbarten Preis K zu kaufen bzw. zu verkaufen. Ein Geld- bzw. Gütertausch
erfolgt erst zur Zeit T :
Käufer:
Verkäufer:
bekommt das Gut, zahlt K.
bekommt K, liefert das Gut.
• Call-Option (kurz: call) ist das Recht, aber nicht die Pflicht, ein Wertpapier zu einem festgelegten Preis K (dem sogenannten strike) an einem
zukünftigen Zeitpunkt T (der sogenannten Fälligkeit, oder Maturität) zu
kaufen.
• Put-Option (kurz: put) ist das Recht, aber nicht die Pflicht, ein Wertpapier zu einem festgelegten Preis K an einem zukünftigen Zeitpunkt T zu
verkaufen.
Frage: Wie kann man sinnvolle Preise für Derivate bestimmen?
Ausblick: Wir werden das sogenannte No-Arbitrage-Prinzip zur Bewertung von
Derivaten kennenlernen. Es erlaubt eine einfache, marktkonsistente Bewertung.
Zunächst untersuchen wir diese Methode im Rahmen des Binomialmodells.
3
Das Binomialmodell
Modell eingeführt in: Cox, Ross, Rubenstein. Option Pricing: A Simplified
Approach, 1979.
Wir betrachten einen Finanzmarkt mit 2 Wertpapieren. Handelszeiten: 0, 1, . . . , N .
Annahmen: Das erste Wertpapier ist eine Anleihe mit fester Verzinsung r ≥ 0
pro Zeitschritt. Der Wert zur Zeit n sei
Bn = (1 + r)n .
Das zweite Papier ist eine Aktie (oder ein anderes riskantes Papier) mit Preis Sn
zur Zeit n. Zwischen den Zeiten n und n + 1 ändert sich der Preis um einen Faktor
20
3
u oder d:
Sn+1
(
uSn ,
=
dSn ,
Das Binomialmodell
mit Wahrscheinlichkeit p,
mit Wahrscheinlichkeit 1 − p.
Im Folgenden nehmen wir an:
0 < d < 1 + r < u.
(3.1)
Der Preisprozess kann mit einem Binomialbaum veranschaulicht werden:
u2 S0
uS0
S0
udS0
dS0
d2 S0
Beachte: Der Binomialbaum ist rekombinierend: # Knoten zur Zeit N : N + 1.
Wir modellieren den Preis (Sn ) als stochastischen Prozess. Sei dazu (Ω, F, P ) ein
Wahrscheinlichkeitsraum und Y1 , . . . , YN eine Familie von unabhängigen Zufallsvariablen mit
P (Yn = u) = p und P (Yn = d) = 1 − p,
wobei p ∈ (0, 1). Sei S0 ∈ (0, ∞). Wir definieren
Sn (ω) := S0 ·
n
Y
Yi (ω)
i=1
und Fn := σ(S0 , . . . , Sn ), n ∈ {0, . . . , N }.
Beachte: F0 = {∅, Ω} und Fn = σ(Y1 , . . . , Yn ), für n ∈ {1, . . . , N }.
Satz 3.1
1+r−d
1
⇒
Sn ist Submartingal
u−d
(1 + r)n
1+r−d
1
p≤
⇒
Sn ist Supermartingal
u−d
(1 + r)n
p≥
Insbesondere: p =
1+r−d
u−d
1
⇒ (1+r)
n Sn ist Martingal.
21
3
Das Binomialmodell
Beweis. Setze Xn :=
1
S .
(1+r)n n
Dann
1. Sn ist Fn -messbar, also auch Xn .
u n
2. Es gilt 0 ≤ Xn ≤ S0 1+r
< ∞. Also ist Xn integrierbar für alle n ≤ N .
3. Für n < N − 1 gilt:
1
E(Xn+1 | Fn ) = E( 1+r
Xn Yn+1 | Fn )
1
=
Xn E(Yn+1 | Fn )
1+r
1
=
Xn E(Yn+1 ).
1+r
Falls p ≥
1+r−d
,
u−d
dann ist
E(Yn+1 )
pu + (1 − p)d
=
≥ 1,
1+r
1+r
und somit E(Xn+1 | Fn ) ≥ Xn . Falls p ≤
1+r−d
,
u−d
folgt E(Xn+1 | Fn ) ≤ Xn .
Definition
Ein R2 -wertiger stochastischer Prozess (Gn , Hn )n∈{1,...,N } heißt Portfolioprozess
(oder Strategie), falls die Prozesse (Gn ) und (Hn ) previsibel bezüglich (Fn ) sind.
Interpretation:
Gn = Stückzahl von Papier 1 im Portfolio zwischen den Zeitpunkten n − 1 und n.
Hn = Stückzahl von Papier 2 im Portfolio zwischen den Zeitpunkten n − 1 und n.
Beachte: negative Werte für G und H sind erlaubt.
Definition
Ein Portfolioprozess (G, H) heißt selbstfinanzierend, falls für alle n ∈ {1, . . . , N −
1} gilt:
Gn Bn + Hn Sn = Gn+1 Bn + Hn+1 Sn
( Umschichtung des Portfolios ohne Wertänderung“).
”
Definition
Der Wertprozess (Vn ) einer Strategie (G, H) ist definiert durch
V0 = G1 B0 + H1 S0 ,
Vn = Gn Bn + Hn Sn ,
V0 heißt Startwert.
22
n ∈ {1, . . . , N }.
3
Das Binomialmodell
Nun zu Derivaten:
Betrachte zum Beispiel eine Call-Option auf die Aktie mit strike K und Fälligkeit
N . Der Wert des calls zur Zeit N ist
(3.2)
C(N, K) := (SN − K)+ .
Wir identifizieren die Call-Option mit der ZV C(N, K), d.h. mit ihrem Payoff/Wert zur Zeit N .
Die entsprechende Put-Option identifizieren wir mit der Zufallsvariable
P (N, K) := (K − SN )+ .
Wir zeigen jetzt: C(N, K) und P (N, K) können im Binomialmodell repliziert werden.
Definition
Eine Zufallsvariable X heißt replizierbar, falls es ein selbstfinanzierendes Portfolio (G, H) gibt mit
GN BN + HN SN = X.
(3.3)
Wir betrachten zunächst den 1-Perioden-Fall. Wie lässt sich C(1, K) replizieren?
Beachte, dass
(
(uS0 − K)+ , falls Y1 = u
C(1, K) = (S1 − K)+ =
.
(dS0 − K)+ , falls Y1 = d
Für den Wert des Portfolios gilt
(
G1 (1 + r) + H1 uS0 ,
V1 = G1 B1 + H1 S1 =
G1 (1 + r) + H1 dS0 ,
falls Y1 = u
falls Y1 = d
.
Es gilt also V1 = C(1, K) genau dann, wenn
(1)
(2)
(uS0 − K)+ = G1 (1 + r) + H1 uS0
(dS0 − K)+ = G1 (1 + r) + H1 dS0 .
Lösung des Gleichungssystems:
H1 =
Cu − Cd
,
uS0 − dS0
G1 =
uCd − dCu
,
(1 + r)(u − d)
23
3
Das Binomialmodell
wobei Cu = (uS0 − K)+ und Cd = (dS0 − K)+ . Für den Wert des Portfolios zur
Zeit 0 gilt:
uCd − dCu
Cu − Cd
V0 = G1 B0 + H1 S0 =
+ S0
(1 + r)(u − d)
uS0 − dS0
1
1+r−d
u − (1 + r)
=
Cu +
Cd
1+r
u−d
u−d
Wir definieren p∗ :=
1+r−d
.
u−d
(3.4)
Wegen (3.1) ist p∗ ∈ (0, 1). Aus (3.4) folgt
V0 =
1
(p∗ Cu + (1 − p∗ )Cd ).
1+r
Interpretation: V0 ist der diskontierte Erwartungswert des Payoffs unter Verwendung des neuen Wahrscheinlichkeitsgewichts p∗ . Mehr dazu später.
Preis
Wert des replizierenden Portfolios
Cu
uS0
S0
V0 =
p∗ Cu +(1−p∗ )Cd
1+r
dS0
Cd
Betrachte nun den 2-Perioden-Fall:
Cuu = (u2 S0 − K)+
u2 S0
c1 (uS0 )
uS0
1
1
S0
udS0
Cud = (udS0 − K)+
c0 (S0 )
2
2
dS0
c1 (dS0 )
Cdd = (d2 S0 − K)+
d2 S0
Annahme: Wir befinden uns im Knoten 1. Nur 1 Periode verbleibt. Aus den obigen
Überlegungen folgt: es gibt ein Portfolio zwischen Zeit 1 und 2, das Cuu bzw. Cdd
repliziert. Der Wert dieses Portfolios zur Zeit 1 ist
c1 (uS0 ) =
24
1
(p∗ Cuu + (1 − p∗ )Cud ).
1+r
3
Das Binomialmodell
Analog: Im Knoten 2 existiert ein replizierendes Portfolio mit Anfangswert
c1 (dS0 ) =
1
(p∗ Cud + (1 − p∗ )Cdd ).
1+r
Wir replizieren nun zwischen 0 und 1 die Zufallsvariable
(
c1 (uS0 ), falls Y1 = u
c1 (S1 ) =
.
c1 (dS0 ), falls Y1 = d
Es muss gelten
(1)
(2)
G1 (1 + r) + H1 uS0 = c1 (uS0 )
G1 (1 + r) + H1 dS0 = c1 (dS0 ).
Lösung des Gleichungssystems:
H1 =
c1 (uS0 ) − c1 (dS0 )
uS0 − dS0
und G1 =
uc1 (dS0 ) − dc1 (uS0 )
.
(1 + r)(u − d)
Für den Wert des replizierenden Portfolios zur Zeit 0 gilt
c0 (S0 ) =
1
(p∗ c1 (uS0 )) + (1 − p∗ )c1 (dS0 )).
1+r
Die Argumentation lässt sich auf beliebig viele Schritte ausdehnen. Im Allgemeinen
Fall gilt:
Satz 3.2
Die Call-Option C(N, K) ist replizierbar durch folgende selbstfinanzierende Strategie:
Hn =
cn (uSn−1 ) − cn (dSn−1 )
,
uSn−1 − dSn−1
Gn =
ucn (dSn−1 ) − dcn (uSn−1 )
,
(1 + r)n (u − d)
(3.5)
wobei die Funktionen cn rekursiv definiert sind:
cN (x) = (x − K)+
1
cn (x) =
(p∗ cn+1 (ux) + (1 − p∗ )cn+1 (dx))
1+r
(3.6)
für n < N . cn (Sn ) gibt dabei den Wert des replizierenden Portfolios zur Zeit n
an.
25
3
Das Binomialmodell
Beweis. Zunächst zeigen wir durch Induktion nach N : C(N, K) replizierbar, cn (Sn )
Wertprozess des repl. Portfolios
N = 1: siehe oben X
N − 1 → N : Betrachte das Binomialmodell auf dem Zeitintervall von 1 bis N .
Q
+
Nach Induktionsvoraussetzung ist (uS0 N
Porti=2 Yi − K) replizierbar mit einemQ
folio, das den Startwert (zur Zeit 1) c1 (uS0 ) hat. Analoge Aussage git für (dS0 N
i=2 Yi −
+
K) . Wir zeigen jetzt: Die Zufallsvariable
(
c1 (uS0 ), Y1 = u
X = c1 (S1 ) =
c1 (dS0 ), Y1 = d
kann zwischen 0 und 1 repliziert werden.
Das führt zu folgendem Gleichungssystem:
(1)
(2)
c1 (uS0 ) = G1 (1 + r) + H1 uS0
c2 (dS0 ) = G1 (1 + r) + H1 dS0
Dieses hat die eindeutige Lösung
H1 =
Es gilt
c1 (uS0 ) − c1 (dS0 )
,
uS0 − dS0
G1 =
uc1 (dS0 ) − dc1 (uS0 )
.
(1 + r)(u − d)
G1 B1 + H1 S1 = c1 (S1 ) (Replikation von X)
und
1
Def.
(p∗ c1 (uS0 ) + (1 − p∗ )c1 (dS0 )) = c0 (S0 ).
1+r
Formel (3.5) folgt durch Lösen der entsprechenden Gleichungssysteme.
G1 B0 + H1 S0 =
26
3
Das Binomialmodell
Bemerkung
1) Satz 3.2 kann auf Optionen mit Payoff f (SN ) verallgemeinert werden (Bsp:
f (x) = (K − x)+ für eine Put-Option). Man muss dazu die Endbedingung in
(3.6) ersetzen durch cN (x) = f (x).
2) Satz 3.2 kann sogar auf pfadabhängige Optionen verallgemeinert werden. Dann
muss cn als Funktion mit n Argumenten S1 , . . . , Sn gewählt werden.
Definition
Sei X eine im Binomialmodell replizierbare Zufallsvariable. Der CRR-Preis (Cox-Ross-Rubenstein)
von X ist der Wert des replizierenden Portfolios zur Zeit 0.
Frage: Warum ist der CRR-Preis ein vernünftiger Preis für X?
Begündung: Sei dazu
V0 = Wert des replizierenden Portfolios zur Zeit 0,
M = Marktpreis des Derivats X zur Zeit 0.
1. Fall: M > V0 .
Dann verkaufe das Derivat am Markt zum Preis M und kaufe das replizierende Portfolio zum Preis V0 . Dies lässt sich ohne Startkapital realisieren,
da δ := M − V0 > 0. Zur Zeit N gilt: Portfoliowert = Derivatwert. Der
Überschuss δ bleibt. Also lässt sich ohne Risiko ein Gewinn erzielen, d.h.
es gibt eine Arbitragemöglichkeit. Falls also M > V0 , würden viele das
Derivat verkaufen. ⇒ Preis fällt bis M = V0 .
2. Fall: M < V0 . Kaufe das Derivat und verkaufe das replizierende Portfolio. Wieder lässt sich ohne Risiko Gewinn erzielen.
3. Fall: M = V0 . In diesem Fall gibt es keine Arbitragemöglichkeit.
Fazit: Der CRR-Preis ist der einzige arbitragefreie Preis von X.
Satz 3.3
Für den CRR-Preis einer Call-Option C(N, K) gilt
N X
1
N
CRR_call(S0 , K, N, u, d, r) =
(p∗ )k (1−p∗ )N −k (S0 uk dN −k −K)+
N
(1 + r) k=0 k
(3.7)
Beweis. Sei cn die Funktionenfolge aus Satz 3.2. Nach Satz 3.2 gilt: CRR_call =
27
3
Das Binomialmodell
c0 (S0 ). Es genügt zu zeigen, dass für alle n ∈ {0, . . . , N } gilt:
n X
1
n
c0 (S0 ) =
(p∗ )k (1 − p∗ )n−k cn (uk dn−k S0 ).
n
(1 + r) k=0 k
Beweis durch Induktion nach n:
n = 0: RS = c0 (S0 )
n − 1 → n: Es gelte
n−1 X
1
n−1
c0 (S0 ) =
(p∗ )k (1 − p∗ )n−1−k cn−1 (uk dn−1−k S0 ).
(1 + r)n−1 k=0
k
Nach Definition gilt
cn−1 (uk dn−1−k S0 ) =
1
p∗ cn (uk+1 dn−1−k S0 ) + (1 − p∗ )cn (uk dn−k S0 ) .
1+r
Also
n−1 X
1
n−1
c0 (S0 ) =
(p∗ )k+1 (1 − p∗ )n−1−k cn (uk+1 dn−1−k S0 )
(1 + r)n k=0
k
n−1
∗ k
∗ n−k
k n−k
+
(p ) (1 − p ) cn (u d S0 )
k
n X
1
n−1
n−1
=
+
(p∗ )k (1 − p∗ )n−k cn (uk dn−k S0 ).
(1 + r)n k=0
k−1
k
|
{z
}
=
n
k
Formel (3.7) erinnert an die Binomialverteilung. Sei P ∗ ein neues Wahrscheinlichkeitsmaß, sodass Y1 , . . . , YN unabhängig bezüglich P ∗ sind und P ∗ (Yi = u) = p∗
und P ∗ (Yi = d) = 1 − p∗ . Dann folgt aus (3.7):
Korollar 3.4
Es gilt
CRR_call(S0 , K, N, u, d, r) =
1
E∗ [(SN − K)+ ],
(1 + r)N
wobei E∗ der Erwartungswertoperator unter P ∗ ist.
28
(3.8)
3
Beweis. Setze
(
1,
Xi =
0,
Yi = u
Yi = d
und Z :=
N
X
Das Binomialmodell
Xi .
i=1
Unter P ist Z binomialverteilt mit den Parametern N und p∗ , d.h.
N
P (Z = k) =
(p∗ )k (1 − p∗ )N −k , ∀k ∈ {0, . . . , N }.
k
∗
Da SN = S0 uZ dN −Z , folgt die Behauptung aus (3.7).
Wichtige Beobachtung: Der arbitragefreie Preis (= CRR-Preis) der Call-Option
ist der diskontierte Erwartungswert des Payoffs (SN −K)+ unter dem neuen Wahrscheinlichkeitsmaß P ∗ . Der Preis hängt nicht vom Ausgangsmaß P ab.
Wir untersuchen P ∗ näher: Wegen (3.1) ist p∗ ∈ (0, 1). Somit sind P ∗ und P
äquivalent auf FN (nur ∅ ist Nullmenge in FN ). Weiterhin folgt aus Prop. 3.1,
Sn
∗
dass (1+r)
ist (ersetze dazu p mit p∗ ).
n ein Martingal unter P
Definition
Ein Wahrscheinlichkeitsmaß Q heißt äquivalentes Martingalmaß auf FN , falls
Sn
Q ∼ P auf FN und (1+r)
n , n ∈ {0, . . . , N }, ein Martingal unter Q ist.
Satz 3.5
P ∗ ist das einzige äquivalente Martingalmaß auf FN .
Beweis. Sei Q ein äquivalentes Martingalmaß. Dann gilt einerseits
Sn+1
Q
E
| Fn = Sn , n ∈ {0, . . . , N − 1}.
1+r
Andererseits gilt
Q
E
Sn+1
| Fn
1+r
=
Sn Q
E (Yn+1 | Fn ).
1+r
Somit erhalten wir
1 + r = EQ (Yn+1 | Fn ) = EQ (u1{Yn+1 =u} + d1{Yn+1 =d} | Fn )
= uQ(Yn+1 = u | Fn ) + dQ(Yn+1 = d | Fn )
= uQ(Yn+1 = u | Fn ) + d(1 − Q(Yn+1 = u | Fn )),
wobei Q(Yn+1 = x | Fn ) := EQ (1{Yn+1 =x} | Fn ), x ∈ {u, d}. Folglich gilt
Q(Yn+1 = u | Fn ) =
1+r−d
= p∗ .
u−d
29
4
Das allgemeine Mehrperiodenmodell
Insbesondere gilt Q(Yn+1 = u) = p∗ . Wir zeigen jetzt, dass die Y1 , . . . , YN unabhängig unter Q sind. Es genügt zu zeigen, dass Yn+1 unabhängig von Fn ist, für
alle n < N . Sei dazu A ∈ Fn . Dann gilt
Q({Yn+1 = u} ∩ A) = EQ (1{Yn+1 =u} 1A )
= EQ (EQ (1{Yn+1 =u} 1A | Fn ))
= EQ (1A EQ (1{Yn+1 =u} | Fn ))
= p∗ · Q(A)
= Q(Yn+1 = n) · Q(A).
Die analoge Aussage gilt für {Yn+1 = d}. Also sind Y1 , . . . , YN unabhängig unter
Q.
Sei nun A = {Y1 = x1 , . . . , YN = xN } ein Elementarereignis in FN , wobei xi ∈
{u, d}. Dann gilt, mit k = |{i : xi = u}|,
Q(A) = (p∗ )k (1 − p∗ )N −k = P ∗ (A).
Damit folgt schließlich die Behauptung Q = P ∗ auf FN .
Wichtige Beobachtung: Der arbitragefreie Preis (= CRR-Preis) einer Option
ist der diskontierte Erwartungswert des Payoffs unter dem äquivalentem Martingalmaß. Im Binomialmodell ist das äquivalente Martingalmaß eindeutig.
Frage: Welche Erkenntnisse sind spezifisch für das Binomialmodell, welche gelten
allgemein? Hierzu:
4
Das allgemeine Mehrperiodenmodell
Literatur: Harrison, Pliska. Martingales and stochastic integrals in the theory
of continuous trading, 1981.
Wir betrachten einen Finanzmarkt mit einem risikolosen und d ∈ N riskanten
Wertpapieren. Hierbei seien
0, 1, . . . , N
Sk0 = (1 + r)k
Ski
die Handelszeiten,
der Wert des risikolosen Papiers zur Zeit k (r ≥ 0) und
der Wert des i-ten riskanten Papiers zur Zeit k (i ∈ {1, . . . , d}) ist.
Annahme: (Ω, F, (Fk ), P ) ist ein filtrierter Wahrscheinlichkeitsraum, und für jedes
i ∈ {1, . . . , d} ist (Ski )k∈{0,...,N } ein (Fk )-adaptierter, nichtnegativer stochastischer
Prozess. Der Einfachheit halber gelte F0 = {∅, Ω}.
30
4
Das allgemeine Mehrperiodenmodell
Notation: S k := (Sk0 , Sk ) := (Sk0 , Sk1 , . . . , Skd ).
Definition
Ein Rd+1 -wertiger Prozess
H k := (Hk0 , Hk ) := (Hk0 , Hk1 , . . . , Hkd ),
k ∈ {1, . . . , N },
heißt Portfolioprozess (kurz: Strategie), falls für alle 0 ≤ i ≤ d der Prozess
(Hki )k∈{1,...,N } previsibel bezüglich (Fk ) ist.
Definition
Eine Strategie H heißt selbstfinanzierend, falls für alle k ∈ {0, . . . , N − 1} gilt:
H k+1 · S k = H k · S k ,
wobei · hier das Skalarprodukt H k · S k =
Pd
i=0
Hki Ski bezeichnet.
Definition
Der Wertprozess Vk = Vk (H) ist definiert durch
V0 (H) = H 1 · S 0 ,
Vk (H) = H k · S k ,
k ∈ {1, . . . , N }.
V0 heißt Startwert.
Lemma 4.1
Eine selbstfinanzierende Strategie H = (H 0 , H) mit Wertprozess (Vk )k∈{0,...,N }
ist eindeutig durch H und V0 bestimmt.
Beweis. Wir zeigen durch Induktion nach k: Hk0 ist Funktion von H und V0 .
k = 1: Es gilt V0 = H 1 · S 0 = H10 + H1 · S0 . Damit folgt H10 = V0 − H1 · S0 .
k − 1 → k: H k−1 sei eindeutig durch H und V0 bestimmt. Dann ist auch Vk−1 =
H k−1 · S k−1 eindeutig durch H und V0 bestimmt. Da H selbstfinanzierend
ist, gilt
0
Vk−1 = H k−1 · S k−1 = H k · S k−1 = Hk0 Sk−1
+ Hk · Sk−1 ,
also
Hk0 =
1
(Vk−1 − Hk · Sk−1 ).
(1 + r)k−1
31
4
Das allgemeine Mehrperiodenmodell
Definition
Eine selbstfinanzierende Strategie H heißt Arbitragemöglichkeit(strategie), falls
für den zugehörigen Wertprozess (Vk )k∈{0,...,N } gilt:
(i) V0 ≤ 0
(ii) VN ≥ 0, f.s.
(iii) P (VN > 0) > 0.
Wir zeigen zunächst: Der Markt ist arbitragefrei genau dann, wenn es in keiner
der einzelnen Handelsperioden eine Arbitragemöglichkeit gibt. Hierzu bezeichne
L0 (F) die Menge aller F-messbaren, reellwertigen Zufallsvariablen.
Lemma 4.2
Folgende Aussagen sind äquivalent:
(a) Es gibt eine Arbitragemöglichkeit.
(b) Es gibt ein k ∈ {1, . . . , N } und ein η ∈ (L0 (Fk−1 ))d mit η·Sk ≥ (1+r)η·Sk−1 ,
f.s. und
P (η · Sk > (1 + r)η · Sk−1 ) > 0.
(c) Es gibt ein k ∈ {1, . . . , N } und ein η ∈ (L∞ (Fk−1 ))d mit η·Sk ≥ (1+r)η·Sk−1 ,
f.s. und
P (η · Sk > (1 + r)η · Sk−1 ) > 0.
(d) Es gibt eine Arbitragemöglichkeit H = (H 0 , H) mit H beschränkt und
V0 (H) = 0.
Beweis. (a) ⇒ (b): Sei H eine Arbitragemöglichkeit. Dann V0 ≤ 0, VN ≥ 0, f.s.
und P (VN > 0) > 0. Sei t := min{k : Vk ≥ 0 f.s. und P (Vk > 0) > 0}.
Beachte: t ∈ {1, . . . , N }, und Vt−1 ≤ 0 f.s. oder P (Vt−1 < 0) > 0.
1. Fall: Vt−1 ≤ 0, f.s. Dann ist H t · S t−1 = H t−1 · S t−1 = Vt−1 ≤ 0. Also
H t · S t = Vt ≥ 0 ≥ (1 + r)H t · S t−1
und
P (H t · S t > (1 + r)H t · S t−1 ) > 0.
0
Die Balken kann man weglassen, da St0 = (1 + r)St−1
. Also gilt die
Behauptung mit η = Ht .
2. Fall: P (Vt−1 < 0) > 0. Setze η := (η 0 , η) := H t · 1{Vt−1 <0} . Dann gilt
η · S t−1 = Vt−1 1{Vt−1 <0} ≤ 0
32
4
Das allgemeine Mehrperiodenmodell
und P (η · S t−1 < 0) > 0. Wegen η · S t = Vt · 1{Vt−1 <0} ≥ 0, f.s., folgt
also
η · S t ≥ (1 + r) · η · S t−1
und P (η · S t > (1 + r)η · S t−1 ) > 0. Wieder kann man die Balken
weglassen.
(b) ⇒ (c): Seien k und η wie in (b). Definiere
η n := η1{|η|≤n} ,
n ≥ 1.
Dann gilt η n · Sk ≥ (1 + r)η n · Sk−1 . Mit der σ-Stetigkeit von P :
lim P (η n · Sk > (1 + r)η n · Sk−1 ) = P
n
!
[
{η n · Sk > (1 + r)η n · Sk−1 }
n≥1
= P (η · Sk > (1 + r)η · Sk−1 )
> 0.
Somit gilt die Aussage für hinreichend großes n.
(c) ⇒ (d): Seien k und η wie in (c). Setze Hk := η und Hn := 0 für n 6= k. Nach
Lemma 4.1 ist durch H und V0 = 0 eindeutig eine selbstfinanzierende Strategie H = (H 0 , H) bestimmt. Diese Strategie ist eine Arbitragemöglichkeit.
(d) ⇒ (a): klar.
Definition
Ein Wahrscheinlichkeitsmaß Q auf (Ω, F) heißt Martingalmaß, falls für alle i ∈
{1, . . . , d} der diskontierte Prozess
(Xki )k∈{0,...,N }
:=
Ski
Sk0
k∈{0,...,N }
ein Q-Martingal bezüglich (Fk ) ist.
Ein Martingalmaß Q heißt äquivalentes Martingalmaß, falls Q ∼ P . Wir bezeichnen die Menge alle äquivalenten Martingalmaße mit P.
Im Folgenden schreiben wir Xk = (Xk1 , . . . , Xkd ), k ∈ {0, . . . , N }.
33
4
Das allgemeine Mehrperiodenmodell
Lemma 4.3
Sei H = (H 0 , H) eine selbstfinanzierende Strategie und
Dn := Dn (H) :=
Vn (H)
Sn0
(diskontierter Wertprozess).
Dann gilt
Dn = V0 + InX (H),
n ∈ {0, . . . , N },
wobei (I X (H)) das stochastische Integral von (Hn ) bez. (Xn ) ist.
Beweis.
Dn = (Dn − Dn−1 ) + . . . + (D1 − D0 ) + D0
H n · S n H n−1 · S n−1
H 1 · S1 H 1 · S0
=
−
+ ... +
−
+ D0
0
Sn0
Sn−1
S10
S00
S n S n−1
S1 S0
= Hn ·
− 0
+ . . . + H1 ·
−
+ V0
Sn0
Sn−1
S10 S00
n
X
= V0 +
Hk · (Xk − Xk−1 )
= V0 +
k=1
InX (H).
Satz 4.4
Sei Q ein Wahrscheinlichkeitsmaß. Dann sind folgende Aussagen äquivalent:
(a) Q ist Martingalmaß.
(b) Ist H = (H 0 , H) selbstfinanzierend mit beschränktem H, so ist
(Dn (H))n∈{0,...,N } ein Q-Martingal.
(c) Ist H = (H 0 , H) selbstfinanzierend mit beschränktem H und V0 (H) = 0, so
ist DN (H) Q-integrierbar und EQ (DN (H)) = 0.
Beweis. (a) ⇒ (b): Nach Lemma 4.3 ist Dn (H) = V0 + InX (H), n ∈ {0, . . . , N }.
Somit folgt die Behauptung aus Satz 2.7.
(b) ⇒ (c): Erinnerung: F0 = {∅, Ω}. Also gilt
EQ (DN ) = EQ (Dn | F0 ) = D0 = V0 = 0.
(c) ⇒ (a): folgt aus Satz 2.8.
34
4
Das allgemeine Mehrperiodenmodell
Satz 4.5 (fundamental theorem of asset pricing)
Das Marktmodell ist genau dann arbitragefrei, wenn P 6= ∅. In diesem Fall
∗
existiert P ∗ ∈ P mit beschränkter Dichte dP
.
dP
Bemerkung
Das Theorem wurde in dieser Version bewiesen in: Dalang, Morton, Willinger. Equivalent martingale measures and no arbitrage in stochastic securities
market models, 1989. Wir beweisen ⇒“ nur in dem Spezialfall |Ω| < ∞ (siehe
”
Harrison, Pliska 1981).
Beweis. ⇐“ Sei H = (H 0 , H) selbstfinanzierend mit H beschränkt. Es gelte
”
V0 (H) = 0 und VN (H) ≥ 0, P -f.s. Wegen Lemma 4.2 (d) genügt es zu zeigen,
dass P (VN (H) > 0) = 0. Sei P ∗ ∈ P. Da P ∗ ∼ P , gilt auch VN (H) ≥ 0, P ∗ -f.s.
Mit Satz 4.4 (c) folgt
E∗ (VN (H)) = (1 + r)N E∗ (DN (H)) = 0.
Damit folgt VN (H) = 0, P ∗ -f.s. und somit P -f.s.
⇒“ Beweisskizze für den Fall |Ω| = K < ∞. Sei Ω = {ω1 , . . . , ωK } und p =
”
(p1 , . . . , pK ) = (P ({ω1 }), . . . , P ({ωK })). Wir können annehmen: pi > 0 für alle
i ∈ {1, . . . , K} (falls nicht, verkleinere Ω). Sei X die Menge aller reellen Zufallsvariablen auf (Ω, 2Ω ). Die Abbildung
ψ : X → RK ,
X 7→ (X(ω1 ), . . . , X(ωK ))
ist eine Bijektion. Setze
X + = {X ∈ X : E(X) ≥ 1 und X ≥ 0}.
Beachte: Das Bild von X + unter ψ ist die konvexe Menge
C := {x ∈ RK
+ : x · p ≥ 1}.
Sei
X 0 := {X ∈ X : ∃ eine s.f. Strategie H mit V0 (H) = 0 und VN (H) = X}.
Dann ist A := ψ(X 0 ) ein linearer Teilraum von RK . Da es keine Arbitragemöglichkeit gibt, folgt X 0 ∩ X + = ∅. Das heißt A ∩ C = ∅. Mit einem Trennungssatz
im RK (vgl. Aufgabe 3, Übungsblatt 5) folgt: es exisitert y ∈ RK mit
(i)
(ii)
y · x = 0,
y · x > 0,
für alle x ∈ A
für alle x ∈ C
35
4
Das allgemeine Mehrperiodenmodell
Skizze:
C
y
x1
x2
A
Beachte: yi > 0 für alle i ∈ {1, . . . , k}. Begründung hierfür: Sei ei der i-te Einheitsvektor. Dann ist
1
1
ei · p = 1, also ei ∈ C.
pi
pi
1
1
Damit folgt 0 < y · pi ei = pi yi , also yi > 0.
Definiere Q wie folgt:
yi
Q({ωi }) := Pn
j=1
yi
.
Sei nun X ∈ X 0 . Dann gilt
ψ(X) ∈ A und E (X) =
Q
K
X
yi X(ωi ) = y · ψ(X) = 0.
i=1
Mit Satz 4.4 ((c) ⇒ (a)) folgt, dass Q ein Martingalmaß ist. Da yi > 0 und pi > 0
für alle i ∈ {1, . . . , K}, sind Q und P äquivalent.
Nun zur Bewertung von Derivaten. Wir identifizieren ein Derivat mit einer FN messbaren Zufallsvariable X, die den Payoff zur Zeit N beschreibt.
Definition
Ein (Fn )-adaptierter Prozess (Skd+1 )k∈{0,...,N } heißt arbitragefreier Preisprod+1
zess (APP) für ein Derivat X, falls SN
= X, f.s. und das erweiterte Modell
(S 0 , S 1 , . . . , S d+1 ) arbitragefrei ist.
Im Folgenden nehmen wir an, dass der nicht-erweiterte Markt (S 0 , . . . , S d ) arbitragefrei ist. D.h. P 6= ∅, wobei im Folgenden P die Menge der äquivalenten
Martingalmaße im nicht-erweiterten Modell sei.
Zunächst zeigen wir: Ist X replizierbar, so existiert genau ein arbitragefreier Preisprozess.
36
4
Das allgemeine Mehrperiodenmodell
Definition
Ein Derivat heißt replizierbar, falls ein H selbstfinanzierend existiert mit VN (H) =
X.
Wir betrachten nur Derivate in
R := {VN (H) : H = (H 0 , H) selbstfinanzierend mit H beschränkt}.
Satz 4.6
Sei X ∈ R mit X = VN (H). Dann ist Vk := Vk (H), k ∈ {0, . . . , N }, der einzige
arbitragefreie Preisprozess für X.
Beweis. 1. Wir zeigen zuerst, dass (Vk ) ein arbitragefreier Preisprozess ist. Sei
dazu P ∗ ∈ P. Nach Satz 4.4 ist SVk0 ein P ∗ -Martingal. Also ist P ∗ auch ein äquik
valentes Martingalmaß für den erweiterten Markt (S 0 , . . . , S d , V ). Mit Theorem
4.5 folgt, dass das erweiterte Modell arbitragefrei ist.
2. Eindeutigkeit: Sei (Skd+1 ) ein arbitragefreier Preisprozess für X. Wir zeigen:
Skd+1 = Vk , f.s. Annahme: P (Skd+1 > Vk ) > 0 für ein k < N . Definiere für alle
n ≥ k + 1:
G0n
:=
Hn0 + S10 (Skd+1 − Vk ) · 1{S d+1 >Vk }
k
k
Gn
:= Hn · 1{S d+1 >Vk }
k
Gd+1
:=
−1
d+1
n
{S
>Vk }
k
Interpretation von (G , G, G ): Zur Zeit k verkaufe das Derivat und kaufe
”
das replizierende Portfolio, falls Skd+1 > Vk .“Beachte: (G0 , G, Gd+1 ) ist selbstfinanzierend zwischen k und k + 1:
0
d+1
d+1
G0k+1 Sk0 + Gk+1 · Sk + Gd+1
= (H k+1 · S k + Skd+1 − Vk − Skd+1 ) · 1{S d+1 >Vk }
k+1 Sk
k
= 0.
Die Selbstfinanzierungseigenschaft nach k +1 ist klar. Vor k seien die Positionen
= 0. Weiterhin gilt für den Wert von (G0 , G, Gd+1 ) zur Zeit N :
0
G0N SN
+ GN · SN +
d+1
Gd+1
N SN
0
SN
d+1
= VN (H) + 0 (Sk − Vk ) − X · 1{S d+1 >Vk }
k
Sk
d+1
N −k
= (1 + r)
(Sk − Vk ) · 1{S d+1 >Vk }
≥ 0,
f.s.
k
37
4
Das allgemeine Mehrperiodenmodell
d+1
0
und P (G0N SN
+ GN · SN + Gd+1
> 0) > 0. D.h. (G0 , G, Gd+1 ) ist eine
N SN
Arbitragemöglichkeit im erweiterten Modell (S 0 , . . . , S d+1 ). Also Skd+1 ≤ Vk ,
f.s.
Analog kann man zeigen: Skd+1 ≥ Vk , f.s. Somit gilt: Skd+1 = Vk , f.s.
Nun zu allgemeinen Derivaten, insbesondere zu nicht-replizierbaren Derivaten.
Notation: Sei X eine FN -messbare Zufallsvariable. Dann
π(X) := {y ∈ R | es ex. ein APP (Skd+1 )k∈{0,...,N } für X mit S0d+1 = y}.
Beachte: da F0 = {∅, Ω}, ist S0d+1 immer konstant.
Satz 4.7
Sei X FN -messbar. Dann ist π(X) 6= ∅ und
X
∗
π(X) = {E
: es ex. P ∗ ∈ P mit E∗ |X| < ∞}.
0
SN
(4.1)
Beweis. 1. Wir zeigen zunächst (4.1) ⊂“: Sei y ∈ π(X). Dann existiert ein ar”
d+1
bitragefreier Preisprozess (Skd+1 ) mit S0d+1 = y und SN
= X. Mit Theorem
4.5 folgt die Existenz eines äquivalenten Martingalmaßes P ∗ für das erweiterte
S d+1
Modell (S 0 , . . . , S d+1 ). Insbesondere gilt P ∗ ∈ P. Da Sk 0 Martingal bezüglich
k
∗
∗
∗
P ist, ist X integrierbar bezüglich P und E SX0 = S0d+1 = y. Also y ∈ RS.
N
“⊃“: Sei P ∗ ∈ P mit E∗ |X| < ∞. Setze Skd+1 := (1 + r)−(N −k) E∗ (X | Fk ). Dann
ist
Skd+1
= (1 + r)−N E∗ (X | Fk )
Sk0
ein P ∗ -Martingal. Also ist P ∗ ein äquivalentes Martingalmaß für das erweiterte
0
d+1
0
d+1
Modell
(S ,. . . , S ). Mit Theorem 4.5 folgt (S , . . . , S ) ist arbitragefrei.
⇒ E∗
Skd+1
Sk0
= y ∈ π(X).
2. Wir zeigen jetzt π(X) 6= ∅.
1
Dazu sei Pe das Wahrscheinlichkeitsmaß mit Dichte ddPP = a 1+|X|
, wobei a =
−1
1
E 1+|X|
. Beachte Pe ∼ P . Nach Theorem 4.5 existiert ein P ∗ ∈ P mit
e
38
5
dP ∗
dPe
Konvergenz des Binomialmodells gegen das Black-Scholes-Modell
beschränkt. Nun gilt
∗
Pe
E (|X|) = E
∗
dP ∗
dP
|X|
|X| = aE
< ∞.
dPe
dPe 1 + |X|
Also ist die RS von 4.1 nichtleer und folglich π(X) 6= ∅.
Wichtige Beobachtung: Allgemein gilt: Jeder arbitragefreie Preis einer Option
ist diskontierter Erwartungswert des Payoffs unter einem ÄMM.
5
Konvergenz des Binomialmodells gegen das Black-ScholesModell
Erinnerung: Man schreibt N (µ, σ 2 ) für die Normalverteilung mit Mittelwert µ ∈
R und Standardabweichung σ ∈ R≥0 .
Seien X∞ , X1 , X2 , . . . Zufallsvariablen und F∞ , F1 , F2 , . . . die zugehörigen Verteilungsfunktionen (d.h. Fi (y) = P (Xi ≤ y), y ∈ R).
Die Folge (Xn )n≥1 konvergert in Verteilung gegen X∞ , falls für jede Stetigkeitsstelle
y von F∞ gilt:
lim Fn (y) = F∞ (y).
n→∞
In diesem Fall schreibt man Xn −→ X∞ .
d
Zentraler Grenzwertsatz: Sind X1 , X2 , . . . iid mit E(Xi ) = µ ∈ R und Var(Xi ) =
σ 2 ∈ (0, ∞), dann gilt
Pn
d
i=1 (Xi − µ)
√
−→ G,
σ n
wobei G N (0, 1)-verteilt ist.
Bemerkung
Die Verteilungsfunktion von G ist gegeben durch
1
Φ(x) = √
2π
Zx
y2
e− 2 dy.
−∞
Beachte, dass Φ überall stetig ist. Also gilt für alle x ∈ R
lim Fn (x) = Φ(x),
n→∞
39
5
Konvergenz des Binomialmodells gegen das Black-Scholes-Modell
wobei Fn die Verteilungsfunktion von
mäßig gegen Φ konvergiert. (Übung!)
Pn
(Xi −µ)
i=1 √
σ n
. Man kann zeigen, dass Fn gleich-
Betrachte nun die einfache symmetrische Irrfahrt: sei (Xk )k≥1 iid mit
1
P (Xk = 1) = P (Xk = −1) =
2
und Mn :=
n
X
Xk ,
n ∈ N.
k=1
Aus Kapitel 2 wissen wir bereits: (Mn ) ist ein Martingal bezüglich (Fn ), wobei
Fn = σ(X1 , . . . , Xn ). Für N ∈ N definieren wir die skalierte Irrfahrt
(N )
Wt
1
:= √ MbN tc ,
N
t ∈ R≥0 ,
wobei bxc := max{k ∈ Z | k ≤ x} die Gaußklammer von x ist.
Wogegen konvergiert Wt
(N )
, falls N → ∞?
Lemma √
5.1
(N ) d
Wt → tG, wobei G N (0, 1)-verteilt ist.
Beweis. Zunächst beachte, dass
(N )
Wt
1
= √ MbN tc =
N
Sei GN die Verteilungsfunktion von Wt
p
P tc
bN tc bN
X
√
pk=1 k .
N
bN tc
(N )
und FN die Verteilungsfunktion von
PbN tc
k=1 Xk
p
.
bN tc
Da E(Xk ) = 0 und Var(Xk ) = 1, folgt aus dem zentralen Grenzwertsatz
und der Bemerkung oben:
lim sup |FN (x) − Φ(x)| = 0.
N →∞ x∈R
Weitergin gilt
p
bN tc √
lim √
= t.
N →∞
N
40
5
Konvergenz des Binomialmodells gegen das Black-Scholes-Modell
Also gilt, für x ∈ R,
!
p
P tc
bN tc bN
X
k
√
pk=1
GN (x) = P
≤x
N
bN tc
!
√
PbN tc
X
N
k
pk=1
=P
≤p
x
bN tc
bN tc
√
N
= FN ( p
x)
bN tc
1
N →∞
−→ Φ( √ x)
t
1
= P (G ≤ √ x)
t
√
= P ( tG ≤ x).
√
Beachte: tG ist N (0, t)-verteilt. Wir haben gezeigt: Für festes t ∈ R≥0 konvergiert
(N )
(N )
Wt gegen eine N (0, t)-verteilte Zufallsvariable. Man kann weiter zeigen: Wt
konvergiert simultan für alle t ∈ R≥0 und zwar gegen die Brownsche Bewegung.
Definition
Eine Familie (Wt )t∈R≥0 von Zufallsvariablen auf einem Wahrscheinlichkeitsraum
(Ω, F, P ) heißt Brownsche Bewegung, falls gilt:
(1) W0 = 0,
(2) ∀ω ∈ Ω ist die Abbildung t 7→ Wt (ω) stetig,
(3) für alle 0 = t0 < t1 < . . . < tn sind die Zuwächse
Wtn − Wtn−1 , . . . , Wt1 − Wt0
unabhängig,
(4) für alle 0 ≤ s ≤ t gilt: Die Verteilung von Wt − Ws ist N (0, t − s).
Wir formulieren jetzt einen funktionalen zentralen Grenzwertsatz. Dazu definieren
wir folgenden stetigen Prozess.
(
√1 MbN tc ,
N t ∈ Z≥0
(N )
N
Vt :=
linear,
N t ∈ (bN tc, bN tc + 1)
41
5
Konvergenz des Binomialmodells gegen das Black-Scholes-Modell
Satz 5.2
Sei T ∈ R≥0 und ψ : C[0, T ] → R beschränkta und stetig bezüglich der k · k∞ Norm (d.h. für f, fn ∈ C[0, T ] mit limn→∞ kfn − f k∞ = 0 folgt limn→∞ ψ(fn ) =
ψ(f )). Dann gilt
lim Eψ((Vt
(N )
N →∞
)t∈[0,T ] ) = Eψ((Wt )t∈[0,T ] ),
wobei (Wt ) eine Brownsche Bewegung ist.
a
Zum Beispiel ψ(f ) = f (T ) oder ψ(f ) = max{f (t) : t ∈ [0, T ]}.
Beweis. Siehe fortgeschrittene Stochastik-Vorlesungen.
Jetzt: Konvergenz des skalierten Binomialmodells. Wir betrachten zunächst einen
Spezialfall:
Annahme (A):
σ
σ
r = 0, u = uN = 1 + √ , d = dN = 1 − √ , σ ∈ (0, ∞).
N
N
N sei hinreichend groß, sodass d > 0. Dann gilt:
σ
√
1+r−d
1
p =
= N
σ = .
√
u−d
2 N
2
∗
Unter dem äquivalenten Martingalmaß ist die Anzahl der us bis zur Zeit k binomialverteilt mit den Parametern k und p∗ = 12 (vgl. Beweis zu Korrolar 3.4). Setze
Ui := 12 (Xi + 1) und beachte
(
1, Xi = 1
Ui =
.
0, Xi = −1
Somit ist Zk :=
Es gilt
Pk
i=1
Zk =
Ui ebenfalls binomialverteilt mit den Parametern k und 12 .
k
X
1
i=1
42
2
(Xi + 1) =
1
2
k+
k
X
i=1
!
Xi
1
= (k + Mk ).
2
5
Konvergenz des Binomialmodells gegen das Black-Scholes-Modell
Also können wir den Preisprozess S auch so modellieren:
1
1
Sk = S0 uZk dk−Zk = S0 u 2 (k+Mk ) d 2 (k−Mk ) .
Skalierter Preisprozess
(N )
St
1
1
:= SbN tc = S0 u 2 (bN tc+MbN tc ) d 2 (bN tc−MbN tc ) .
Beachte: u und d hängen von N ab.
Satz 5.3
Es gelte Annahme (A). Dann gilt für alle t ≥ 0
(N )
St
d
−→ S0 eσWt −
σ2
t
2
,
wobei (Wt ) eine Brownsche Bewegung ist.
Für den Beweis benötigen wir:
Lemma 5.4 (Slutsky)
Seien a, b ∈ R, X eine Zufallsvariable und (Xn ), (An ) und (Bn ) Folgen von
d
Zufallsvariablen mit Xn → X, An → a in Wahrscheinlichkeit und Bn → b in
Wahrscheinlichkeit. Dann gilt:
d
An + Bn Xn −→ a + bX.
Beweis. Stochastik 2-Vorlesung.
Beweis von Satz 5.3. Es genügt zu zeigen, dass
log(St
(N )
d
) −→ log(S0 ) + σWt −
σ2
t.
2
Beachte dazu:
log(St
(N )
1
1
) = log(S0 ) + (bN tc + MbN tc ) log(u) + (bN tc − MbN tc ) log(d). (5.1)
2
2
Die Taylor-Entwicklung von log(1 + x) in 0 ergibt:
1
log(1 + x) = x − x2 + R(x),
2
43
5
Konvergenz des Binomialmodells gegen das Black-Scholes-Modell
wobei R(x) ∈ O(x3 ). Also gilt
log(u) = log 1 +
log(d) = log 1 −
Dabei ist R
(N )
log(St )
± √σN
σ
σ
1 σ2
σ
√
=√ −
+R √
2N
N
N
N
2
σ
σ
1σ
σ
√
= −√ −
+ R −√
.
2N
N
N
N
∈ O(N − 2 ). Aus (5.1) folgt, dass
3
1
σ
1 σ2
σ
= log(S0 ) + (bN tc + MbN tc ) √ −
+R √
2
2N
N
N
2
1
σ
1σ
σ
+ (bN tc − MbN tc ) − √ −
+ R −√
2
2N
N
N
3
1 σ2
σ
−2
− 32
= log(S0 ) + bN tc −
+ O(N ) + MbN tc √ + O(N )
2N
N
e
= AN + XN + YN ,
wobei
1 σ2
− 32
e
AN = log(S0 ) + bN tc −
+ O(N ) ,
2N
MbN tc
XN = σ √
N
und
MbN tc
YN = √ O(N −1 ).
N
d
d
Mit Lemma 5.1 gilt XN → σWt . Lemma 5.4 impliziert YN → 0. Da der Limes
konstant ist, gilt auch YN → 0 in Wahrscheinlichkeit. Somit gilt
eN + YN −→ log(S0 ) − 1 σ 2 t in Wahrscheinlichkeit.
AN := A
2
Wieder mit Lemma 5.4 folgt nun
log(St
(N )
1
d
) = AN + XN −→ log(S0 ) − σ 2 t + σWt .
2
Annahme (B):
rN =
44
r
√σ
− √σ
, u = uN = e N , d = dN = e N , σ ∈ (0, ∞), r ∈ [0, ∞), N s.d. uN > 1+rN .
N
5
Konvergenz des Binomialmodells gegen das Black-Scholes-Modell
Beachte: Unter (B) hängt
p∗N
=
1+
r
n
− √σ
−e
√σ
N
N
− √σ
N
e
−e
von N ab. Betrachte deshalb einen Array von Zufallsvariablen: Für alle N sei
(XN,k )k≥1 iid. mit
Setze MN,k
und P (XN,k = −1) = 1 − p∗N .
P (XN,k = 1) = p∗N
P
:= ki=1 XN,i .
Preis im Binomialmodell mit N Schritten:
1
1
Sk = S0 u 2 (k+MN,k ) d 2 (k−MN,k )
1 √σ
N
= S0 e 2
= S0 e
√σ
N
(k+MN,k ) − 12
e
MN,k
√σ
N
(k−MN,k )
.
Skalierter Preisprozess:
(N )
St
:= SbN tc = S0 e
√σ
N
MN,bN tc
t≥0
,
(5.2)
Satz 5.5
Es gelte Annahme (B). Dann gilt für alle t ≥ 0
(N )
St
d
−→ S0 eσWt +(r−
σ2
)t
2
.
Beweisskizze. Es genügt zu zeigen
log(St
(N )
d
) −→ log(S0 ) + σWt + (r −
Betrachte dazu die momenterzeugende Funktion von
ϕN (ϑ) := Ee
ϑ √1 MN,bN tc
N
σ2
)t.
2
√1 MN,bN tc
N
ϑ ≥ 0.
,
Es gilt
PbN tc
ϑ √1
ϕN (ϑ) = Ee
=
k=1
N
bN tc Y
ϑ √1
e
N
XN,k
−ϑ √1
p∗N + e
N
(1 − p∗N )
k=1
= e
√ϑ
N
− √ϑ
p∗N + e
N
bN tc
(1 − p∗N )
.
45
5
Konvergenz des Binomialmodells gegen das Black-Scholes-Modell
Man kann zeigen:
2
t ϑ2 + rϑ
− ϑσ
σ
2
lim ϕN (ϑ) = e
N →∞
.
Dabei ist die rechte Seite die momenterzeugende Funktionvon N σr − σ2 t, t .
2
D.h. die Limes-Verteilung von √σN MN,bN tc ist N
r − σ2 t, σ 2 t . Damit folgt
schließlich
σ
σ2
d
(N )
log St = log S0 + √ MN,bN tc −→ log S0 + σWt + r −
t.
2
N
Das Black-Scholes-Modell
Im Black-Scholes-Modell wird der Preis des riskanten Papiers modelliert als
2
σWt + r− σ2 t
St = S0 e
,
t ∈ R≥0 .
Dabei ist (Wt ) Brownsche Bewegung unter dem (man kann zeigen: es gibt nur
eins) äquivalenten Martingalmaß P ∗ .
Bemerkung:
t = Zeit in Jahren,
σ = Volatilität,
r = kontinuierlicher Zins.
Der Wert St0 des risikolosen Papiers ist gegeben durch
St0 = ert ,
t ∈ R≥0 .
Kontinuierliche Verzinsung bedeutet: Zinsen erwirtschaften sofort selbst Zinsen
(Zinseszins). Anders formuliert: Die Verzinsungsperioden sind infinitesimal klein.
Sei N die Anzahl der Verzinsungsperioden bis t > 0. Dann
N
rt
lim 1 +
= ert .
(5.3)
N →∞
N
Definition
Der Black-Scholes-Preis einer Call-Option mit stike K und Fälligkeit T > 0 ist
definiert durch
BS_call(S0 , K, T, σ, r) := e−rT E∗ ((ST − K)+ ).
46
5
Konvergenz des Binomialmodells gegen das Black-Scholes-Modell
Satz 5.6 ( BS-Formel“)
”
Es gilt
BS_call(S0 , K, T, σ, r) = S0 Φ(d1 ) − e−rT KΦ(d2 ),
wobei
log
d1 =
S0
K
+ r+
√
σ T
σ2
2
T
(5.4)
√
und d2 = d1 − σ T .
√
d
Beweis. Sei G N (0, 1)-verteilt unter P ∗ . Dann gilt σ T G = σWT und somit
e−rT E∗ [(ST − K)+ ] = e−rT E∗ [(S0 eσWT +
r− σ2 T
√
σ
− K)+ ]
= e−rT E∗ [(S0 eσ T G+ r− 2 T − K)+ ]
Z
√
y2
σ
1
−rT
=e
(S0 eσ T y+ r− 2 T − K)+ √ e− 2 dy.
2π
Die rechte Seite lässt sich vereinfachen zu S0 Φ(d1 ) − e−rT KΦ(d2 ).
Satz 5.7
q
q
T
T
σ N
−σ N
rT
Sei rN = N , uN = e
, dN = e
. Dann gilt
lim CRR_call(S0 , K, N, uN , dN , rN ) = BS_call(S0 , K, T, σ, r).
N →∞
Beweisskizze. Es ist
CRR_call(S0 , K, N, uN , dN , rN ) = (1 + rN )−N E(S1
(N )
− K)+ ,
wobei S (N ) wie in (5.2) definiert ist. Aus (5.3) folgt (1 + rN )−N → e−rT . Mit Satz
5.5 folgt
(N )
S1
d
−→ S0 e
√
f1 + r− σ2 T
σ TW
2
,
f Brownsche Bewegung unter P . Damit kann man zeigen
wobei W
lim CRR_call = e
N →∞
−rT
E[(S0 e
fT + r− σ2 T
σW
2
− K)+ ].
Praktische Notiz:
47
5
Konvergenz des Binomialmodells gegen das Black-Scholes-Modell
1) Die Black-Scholes-Formel (5.4) kann verwendet werden, um σ zu bestimmen:
Wähle σ = σimp so, dass
BS_call(S0 , K, T, σimp , r) = Marktpreis des Calls.
σimp heißt implizite Volatilität.
2) Das BS-Modell mit σimp kann dann zur Bewertung von exotischen Optionen
verwendet werden.
48
III
Portfolio-Optimierung
Bei der Steuerung von Portfolien hat man häufig die Wahl zwischen riskanten und
weniger ristkanten Wertpapieren/Anlageformen. Üblicherweise gilt: je riskanter
das Papier/die Anlage, desto größer die Rendite.
Frage: Was ist die optimale Zusammensetzung des Portfolios?
Es gibt viele Modelle und Ansätze, um diese Frage zu beantworten. Wir untersuchen Ansätze, die Nutzenfunktionen verwenden.
Annahme: Ein ökonomischer Agent (= Wirtschaftssubjekt) will die Wertentwicklung eines Portfolios bis zu einem Zeitpunkt T < ∞ optimieren. Wir identifizieren
den Portfoliowert zur Zeit T mit einer Zufallsvariable X. Die Menge aller implementierbaren X sei X . Alle X ∈ X seien auf demselben Wahrscheinlichkeitsraum
(Ω, F, P ) definiert.
Definition
U : R → R ∪ {−∞} heißt Nutzenfunktion, falls U konkav und nicht-fallend ist.
Beispiele
(i) Logarithmische Nutzenfunktion
(
log(x), x > 0
U (x) =
−∞,
x≤0
(ii) Potenznutzenfunktion
(
U (x) =
x1−η
,
1−η
x≥0
−∞, x < 0
wobei η > 0, η 6= 1 (Risikoaversionsparameter).
(iii) Exponentielle Nutzenfunktion
U (x) = −e−λx ,
wobei λ > 0.
Jede Nutzenfunktion U definiert eine Präferenzrelation auf X wie folgt:
XY
:⇔
EU (X) ≤ EU (Y ).
Hier nehmen wir an, dass EU (X) und EU (Y ) definiert sind.
49
6
Nutzenmaximierung im Binomialmodell
Beispiel
Sei X eine Zufallsvariable mit P (X = 500) = P (X = 1500) = 12 und Y = 1000
konstant. Dann gilt E log Y > E log X (siehe Jensen-Ungleichung). Also bevorzugt
ein Agent mit logarithmischen Nutzenpräferenzen die Auszahlung Y gegenüber X.
6
Nutzenmaximierung im Binomialmodell
Wir machen dieselben Annahmen wie in Kapitel 3. Insbesondere gelte
Sn = S0
n
Y
Yi ,
n ∈ {0, . . . , N },
i=1
wobei Y1 , . . . , YN iid unter P mit
P (Yi = u) = p
und P (Yi = d) = 1 − p.
Ziel: Bestimme den selbstfinanzierenden Portfolioprozess (G, H) mit Startwert
V0 = v, sodass der erwartete Nutzen EU (VN ) maximal wird.
Wir formulieren zunächst das Ziel geeignet um. Fixiere dazu v ∈ (0, ∞). Sei (G, H)
ein selbstfinanzierender Portfolioprozess, sodass für den zugehörigen Wertprozess
(Vn ) gilt:
V0 = v
Vn > 0, f.s. für alle n ∈ {0, . . . , N }.
Setze πn+1 :=
Hn+1 Sn
Vn
(Prozentsatz des Portfoliowertes im riskanten Papier).
Da (G, H) selbstfinanzierend ist, gilt Gn+1 =
Also gilt
1
(Vn
Bn
− Hn+1 Sn ) für alle n < N .
Vn+1 = Gn+1 Bn+1 + Hn+1 Sn+1
Bn+1
Sn+1
=
(Vn − Hn+1 Sn ) + πn+1 Vn
Bn
Sn
= (1 + r)Vn − (1 + r)πn+1 Vn + πn+1 Vn Yn+1
= [(1 + r) + πn+1 (Yn+1 − (1 + r))]Vn .
Der Portfolioprozess (G, H) ist eindeutig bestimmt durch V0 = v und die Strategie
(πn )n∈{1,...,N } (vgl. Lemma 4.1). Für den zugehörigen Wertprozess (Vn ) = (Vnπ (v))
gilt
V0 = v,
Vn+1 = Vn [1 + r + πn+1 (Yn+1 − (1 + r))].
50
6
Nutzenmaximierung im Binomialmodell
Nutzenmaximierungsproblem:
Bestimme π so, dass EU (VNπ (v)) maximal wird.
1. Lösungsmethode: Dynamische Programmierung
Für alle n ≤ N und v ∈ (0, ∞) setze
Vkn,π (v) := v
k
Y
(1 + r + πj (Yj − (1 + r))),
k ∈ {n, . . . , N }.
j=n+1
Wir bezeichnen mit
An (v) := {π : π ist previsibel und f.alle k ∈ {n, . . . , N } gilt Vkn,π (v) > 0}
die Menge aller zulässigen Strategien ab n. Die Funktion
Wn (v) := sup{EU (VNn,π (v)) : π ∈ An (v)}
heißt Wertfunktion zur Zeit n. π ∈ An (v) heißt optimal für Wn (v), falls
EU (VNn,π (v)) = Wn (v).
Man kann die Menge der zulässigen Strategien reduzieren: sei Ãn (v) die Menge
aller Prozesse (πk )k∈{n+1,...,N } , für die gilt:
(i) πn+1 ist konstant,
(ii) πk ist σ(Yn+1 , . . . , Yk−1 )-messbar, für k ∈ {n + 2, . . . , N },
(iii) Vkn,π (v) > 0, für alle k ∈ {n + 1, . . . , N }.
Man kann zeigen:
Wn (v) = sup{EU (VNn,π (v)) : π ∈ Ãn (v)}.
Satz 6.1 (Bellman-Prinzip)
Für alle n < N und v ∈ (0, ∞) gilt:
Wn (v) = sup E(Wn+1 (v[1 + r + c(Yn+1 − (1 + r))])).
(6.1)
c∈R
51
6
Nutzenmaximierung im Binomialmodell
Beweis. ≤: Sei π = (πn+1 , . . . , πN ) ∈ Ãn (v). Dann b := πn+1 ∈ R. Setze vu :=
vu (b) := v[1+r +b(u−(1+r))] und vd := vd (b) := v[1+r +b(d−(1+r))]. Definiere
π̂ := (πn+2 , . . . , πN ). Man kann zeigen: es gibt α ∈ Ãn+1 (vu ) und β ∈ Ãn+1 (vd )
mit
(
α, falls Yn+1 = u
π̂ =
β, falls Yn+1 = d.
Also
EU (VNn,π (v)) = E[1{Yn+1 =u} U (VNn+1,α (vu )) + 1{Yn+1 =d} U (VNn+1,β (vd ))].
(2)
Beachte
E[1{Yn+1 =u} U (VNn+1,α (vu ))] = E E[1{Yn+1 =u} U (VNn+1,α (vu ))|σ(Yn+1 )]
= E 1{Yn+1 =u} E[U (VNn+1,α (vu ))] .
Der 2. Term auf der RS von (2) kann analog umgeformt werden. Also
EU (VNn,π (v)) = E[1{Yn+1 =u} E[U (VNn+1,α (vu ))] + 1{Yn+1 =d} E[U (VNn+1,β (vd ))]]
≤ E 1{Yn+1 =u} Wn+1 (vu ) + 1{Yn+1 =d} Wn+1 (vd )
= E [Wn+1 (v[1 + r + b(Yn+1 − (1 + r))])]
≤ sup E [Wn+1 (v[1 + r + c(Yn+1 − (1 + r))])] .
c∈R
≥: Annahme: die rechte Seite von (6.1) ist größer als die Linke. Dann existiert
ε > 0 und c ∈ R mit
Wn (v) < −ε + E[Wn+1 (v[1 + r + c(Yn+1 − (1 + r))])].
Wähle α ∈ Ãn+1 (vu (c)) und β ∈ Ãn+1 (vd (c)) so, dass E[U (VNn+1,α (vu (c))] >
− 2ε + Wn+1 (vu (c)) und E[U (VNn+1,β (vd (c))] > − 2ε + Wn+1 (vd (c)). Definiere π =
(πk )k∈{n+1,...,N } wie folgt:
πn+1
(
αk , Yn+1 = u
= c und für k > n + 1 sei πk =
βk , Yn+1 = d.
Dann ist π ∈ Ãn (v) und
VNn,π (v) = VNn+1,α (vu (c))1{Yn+1 =u} + VNn+1,β (vd (c))1{Yn+1 =d} .
52
6
Nutzenmaximierung im Binomialmodell
Weiterhin
E[U (VNn,π (v))] = E[E[U (VNn+1,α (vu (c)))1{Yn+1 =u} + U (VNn+1,β (vd (c)))1{Yn+1 =d} |σ(Yn+1 )]]
h
i
= E E[U (VNn+1,α (vu (c)))]1{Yn+1 =u} + E[U (VNn+1,β (vd (c)))]1{Yn+1 =d}
ε
≥ − + E[Wn+1 (vy (c))|y=Yn+1 ]
2
ε
= − + E[Wn+1 (v[1 + r + c(Yn+1 − (1 + r))])]
2
ε
ε
> − + ε + Wn (v) = + Wn (v).
2
2
Dies ist ein Widerspruch zur Definition von Wn (v).
Wegen des Bellman-Prinzips lässt sich Wn rekursiv bestimmen. Es gilt WN (v) =
U (v). Mit (6.1) kann man nun WN −1 bestimmen, danach WN −2 , usw.
Satz 6.2
Sei U = log. Dann gilt für alle v ∈ (0, ∞) und n ≤ N
Wn (v) = log(v) + cn ,
wobei
(6.2)
p
1−p
cn := (N − n) (1 + r) + p log ∗ + (1 − p) log
.
p
1 − p∗
Die Strategie
πk = π
b :=
(1 + r)(p − p∗ )
,
p∗ (1 − p∗ )(u − d)
k ∈ {1, . . . , N },
(6.3)
ist in An (v) und optimal für Wn (v).
Beweis. 1. Wir zeigen zunächst, dass π
b ∈ An (v) für alle n ∈ {1, . . . , N } gilt.
Beachte dazu, dass
1+r+π
b(Yj − (1 + r))
nur zwei Werte annehmen kann:
53
6
Nutzenmaximierung im Binomialmodell
a)
(1 + r)(p − p∗ )
(u − (1 + r))
p∗ (1 − p∗ )(u − d)
(1 + r)(p − p∗ )
=1+r+
p∗
p
= (1 + r) ∗ > 0.
p
1+r+π
b(u − (1 + r)) = 1 + r +
b)
(1 + r)(p − p∗ )
(d − (1 + r))
p∗ (1 − p∗ )(u − d)
(1 + r)(p − p∗ )
=1+r−
1 − p∗
1−p
= (1 + r)
> 0.
1 − p∗
1+r+π
b(d − (1 + r)) = 1 + r +
Damit folgt für alle v ∈ (0, ∞), n ∈ {0, . . . , N } und k ∈ {n, . . . , N }
Vkn,bπ (v) > 0.
Also ist π
b zulässig ab jedem n.
2. Wir zeigen jetzt (6.2) und die Optimalität von (6.3) durch Rückwärtsinduktion.
n = N : WN (v) = log(v) X
n + 1 → n: Es gelte Wn+1 (v) + log(v) + cn+1 für alle v ∈ (0, ∞). Mit (6.1) und
der Induktionsvoraussetzung folgt
Wn (v) = sup EWn+1 (v[1 + r + π(Yn+1 − (1 + r))])
π∈R
= cn+1 + sup E log(v[1 + r + π(Yn+1 − (1 + r))]).
π∈R
Beachte
f (π) :=E log(v[1 + r + π(Yn+1 − (1 + r))])
(3)
= log v + p log(1 + r + π(u − (1 + r))) + (1 − p) log(1 + r + π(d − (1 + r)))
und
df
u − (1 + r)
d − (1 + r)
(π) = p
+ (1 − p)
.
dπ
1 + r + π(u − (1 + r))
1 + r + π(d − (1 + r))
54
6
Die BEO
df
(π)
dπ
Nutzenmaximierung im Binomialmodell
= 0 impliziert
p(u−(1+r))(1+r+π(d−(1+r)))+(1−p)(d−(1+r))(1+r+π(u−(1+r)) = 0,
und damit
0 = π[p(d − (1 + r))(u − (1 + r)) + (1 − p)(d − (1 + r))(u − (1 + r))]
+ p(1 + r)(u − (1 + r)) + (1 − p)(1 + r)(d − (1 + r)).
Weiterhin folgt
π=
=
p(1 + r)[u − d] − (1 + r)[1 + r − d]
[1 + r − d][u − (1 + r)]
p(1 + r) − (1 + r) 1+r−d
u−d
1+r−d u−(1+r)
(u
u−d
u−d
∗
− d)
(1 + r)(p − p )
− p∗ )(u − d)
=π
b.
=
Da
d2 f
(b
π)
dπ 2
p∗ (1
< 0, ist π
b tatsächlich Maximalstelle. π
b eingesetzt in (3) ergibt
E log(v[1 + r + π
b(Yn+1 − (1 + r))])
= log(v) + p log(1 + r + π
b(u − 1 + r)) + (1 − p) log(1 + r + π
b(d − (1 + r)))
p
1−p
= log(v) + p log (1 + r) ∗ + (1 − p) log (1 + r)
p
1 − p∗
p
1−p
= log(v) + log(1 + r) + p log ∗ + (1 − p) log
.
p
1 − p∗
Hieraus folgt weiter
Wn (v) = cn+1 + log(v) + log(1 + r) + p log
p
1−p
+ (1 − p) log
∗
p
1 − p∗
= log(v) + cn
und π
b ist optimale Portfoliostrategie zwischen n und n + 1.
Bemerkung (Ökonomische Erkenntnisse)
1) Optimale Strategie unter logarithmischen Präferenzen: Investiere konstanten
Prozentsatz des Portfoliowerts in das riskante Papier.
2) Falls p > p∗ , ist π
b > 0 (sog. long position im riskanten Papier). Beachte, dass
Sn
in diesem Fall Bn ein Submartingal ist (siehe Satz 3.1). Falls p < p∗ , ist π
b<0
Sn
(sog. short position) und Bn ist ein Supermartingal.
55
6
Nutzenmaximierung im Binomialmodell
2. Lösungsmethode: Martingalmethode
Sei X die Menge aller FN -messbaren Zufallsvariablen mit X > 0. Für alle v ∈
(0, ∞) setze
X
∗
X (v) := X ∈ X : E
=v .
BN
Aus Kapitel 3 wissen wir: Jedes X ∈ X (v) kann mit einem selbstfinanzierenden
Portfolioprozess mit Startwert V0 = v repliziert werden (Verallgemeinerung von
Satz 3.2). Aus Satz 4.4 folgt
X
∗
Vn = Bn Dn = Bn E
| Fn = (1 + r)−(N −n) E∗ (X | Fn ) > 0.
BN
Dies zeigt
X (v) = {VN0,π : π ∈ A0 (v)}.
Somit gilt
W0 (v) = sup{EU (X) : X ∈ X (v)}.
(6.5)
Wir interpretieren E∗ BXN = v als Nebenbedingung und wählen einen LagrangeAnsatz um (6.5) zu lösen. Für alle λ > 0 sei
X
∗
w(λ,
b v) := sup EU (X) − λ E
−v :X ∈X
(6.6)
BN
Sei D =
dP ∗
.
dP
Man kann zeigen (vgl. Übungsblatt 4, Aufgabe 3 b):
D(ω) =
p∗
p
Z(ω) 1 − p∗
1−p
N −Z(ω)
,
wobei
Z(ω) = |{1 ≤ j ≤ n : Yj (ω) = u}|.
Beachte:
D
w(λ,
b x) = λv + sup E U (X) − λ X : X ∈ X
Bn
(6.7)
Bestimme zunächst das X ∈ X , das das Supremum in (6.7) annimmt. Für jedes
Szenario ω wird
D(ω)
y 7→ U (y) − λ
y
BN
maximal bei
D(ω)
0
−1
bλ (ω) := (U )
y=X
λ
.
BN
56
6
Nutzenmaximierung im Binomialmodell
Falls U log-Nutzenfunktion ist, dann ist (U 0 )−1 (y) = y1 . Also
bλ = 1 BN .
X
λ D
Beachte:
bλ
X
BN
∗
E
Falls wir λ =
1
v
!
1
1
1
= E D
= .
λ
D
λ
wählen, erhalten wir die Lösung des Problems (6.5)
Lemma 6.3
Falls U = log, dann gilt
b1/v ) = W0 (v).
EU (X
Beweis. Sei
e (y) := max{log(x) − xy},
U
x>0
y > 0,
die konvex konjugierte Funktion von log. Es gilt
1
e
U (y) = log
−1
y
und für alle x, y > 0:
1
log
− 1 ≥ log(x) − xy.
y
Sei nun X ∈ X (v). Dann folgt aus (6.8) mit x = X und y =
b1/v ) − 1 ≥ log(X) − X
log(X
(6.8)
1
b1
X
/v
=
D
vBN
D
.
vBN
Damit folgt
1
X
b
E log(X1/v ) − 1 ≥ E log(X) − E D
= E log(X) − 1,
v
Bn
und somit die Behauptung.
Korollar 6.4
Für alle v ∈ (0, ∞) gilt
b1/v )
W0 (v) = E log(X
p
1−p
= log(v) + N log(1 + r) + p log ∗ + (1 − p) log
.
p
1 − p∗
57
7
Nutzenmaximierung großer Portfolien
Beweis. Beachte:
b1/v = vBN
X
p
p∗
Z 1−p
1 − p∗
N −Z
.
Also gilt
b1/v )
E log(X
p
1−p
= log(v) + log(BN ) + E(Z) log ∗ + E(N − Z) log
p
1 − p∗
p
1−p
= log(v) + N log(1 + r) + p log ∗ + (1 − p) log
.
p
1 − p∗
7
Nutzenmaximierung großer Portfolien
Ziel: optimales Portfolio in einem Markt mit vielen Wertpapieren.
Wir wählen die Notation aus Kapitel 4, betrachten aber nur den Einperiodenfall,
d.h. N = 1.
Wir schreiben kurz H := H 1 für das Portfolio zwischen den Zeitpunkten 0 und 1.
Beachte: H ∈ Rd+1 und für den Portfoliowert gilt:
zur Zeit 0:
zur Zeit 1:
P
V0 (H) = H · S 0 = di=0 H i S0i ,
P
V1 (H) = H · S 1 = di=0 H i S1i .
Nutzenmaximierungsproblem: Gegeben ein Anfangswert V0 = v ∈ (0, ∞) bestimme H so, dass der erwartete Nutzen von V1 (H) maximal wird. Dies ist ein Optimierungsproblem im Rd+1 mit der Nebenbedingung H · S 0 = v.
Umformulierung: Setze π i :=
H i S0i
v
und
π := (π 0 , π) := (π 0 , π 1 , . . . , π d ).
Weiterhin sei
S1i − S0i
R :=
S0i
i
die Rendite von Papier i
und
R := (R0 , R) := (R0 , R1 , . . . , Rd ).
58
7
Nutzenmaximierung großer Portfolien
Beachte:
V1 (H) = v + H · (S 1 − S 0 ) = v +
d
X
H i (S1i − S0i )
i=0
=v+v
d
X
π i Ri = v(1 + π · R)
i=0
=: V1 (π).
Das Nutzenmaximierungsproblem ist äquivalent zu:
Zielfunktion:
Nebenbedingung:
max EU (v(1 + π · R)),
π∈Rd+1
d
X
π i = 1.
(P)
i=0
Häufig stellt man noch zusätzliche Nebenbedingungen. Zum Beispiel
• ∀i : π i ≥ 0 (keine short position)
• π 0 = 0 (kein risikoloses Papier)
Für Methoden zur Lösung von (P) mit weiteren Nebenbedingungen: siehe Vorlesung zur Optimierung.
Wir betrachten zunächst einen Spezialfall.
Annahme (A): U (x) = −e−λx und R ist normalverteilt mit Mittelwert µ ∈ Rd
und Kovarianzmatrix Σ = (σij )1≤i,j≤d (d.h. E(Ri ) = µi und Cov(Ri , Rj ) = σij ).
Setze
µ := (µ0 , µ) := (r, µ1 , . . . , µd ).
Aus (A) folgt: Für alle π ∈ Rd+1 ist π · R normalverteilt mit E(π · R) = π · µ und
Var(π · R) = π · Σ · π T .
Erinnerung: Für eine Zufallsvariable X mit Verteilung N (a, b2 ) gilt E(eX ) =
2
ea+b /2 .
Also
EU (v(1 + π · R)) = −Ee−λv−λv(π·R)
λ2 2
T
= − exp −λv − λv(π · µ) + v π · Σ · π .
2
59
7
Nutzenmaximierung großer Portfolien
Unter (A) ist also (P) äquivalent zu
Zielfunktion:
max π · µ −
π∈Rd+1
Nebenbedingung:
d
X
λv
π · Σ · πT ,
2
(PA)
i
π = 1.
i=0
Setze e = (1, . . . , 1) ∈ Rd . Dann folgt aus der Nebenbedingung π 0 = 1 − π · e.
(PA) ist somit äquivalent zu folgendem Problem ohne Nebenbedingung:
max π · µ + (1 − π · e)r −
π∈Rd
λv
π · Σ · πT
2
(PA’)
Satz 7.1
Es gelte (A) und Σ sei invertierbar. Dann ist die Lösung von (PA’)
π
bT :=
1 −1
Σ (µ − re)T .
λv
Beweis. Setze
f (π) := r + π · (µ − re) −
λv
π · Σ · πT ,
2
π ∈ Rd .
Dann ist
∇f (π) = (µ − re)T − λvΣπ T .
Setze ∇f (π) = 0. Dies liefert die Lösung
!
πT =
1 −1
bT .
Σ (µ − re)T = π
λv
Die Hessematrix von f ist −λvΣ. Da diese negativ semidefinit ist, ist π
b Maximalstelle von f .
Bemerkung
1) Ökonomische Erkenntnisse:
a) Steigt λ, so werden die Risikopositionen kleiner.
b) vb
π ist konstant. D.h. die investierte Geldmenge ist unabhängig vom Anfangswert v. Das ist unrealistisch und spricht gegen die Verwendung der
exponentiellen Nutzenfunktion.
60
7
Nutzenmaximierung großer Portfolien
2) Die Markowitz-Portfoliotheorie wählt direkt einen Mittelwert-Varianz-Ansatz.
Lemma 7.2
Falls U die Potenz- oder log. Nutzenfunktion ist, dann hängt die Lösung von
(P) nicht von v ab.
Beweis. Für U (x) =
x1−η
1−η
gilt:
EU (v(1 + π · R)) = U (v)E[(1 + π · R)1−η ].
Für U (x) = log(x) gilt:
EU (v(1 + π · R)) = log(v) + E[log(1 + π · R)].
Damit folgt die Behauptung.
61
IV
Optimales Stoppen
Viele Entscheidungsprobleme lassen sich als Stopp-Probleme formulieren.
8
8.1
Stopp-Probleme mit endlichem Zeithorizont
Eine allgemeine Methode zur Bestimmung optimaler Stoppzeiten
Sei N ∈ N und (Xn )n∈{0,...,N } ein stochastischer Prozess mit E|Xn | < ∞ für alle n.
Sei (Fn )n∈{0,...,N } eine Filtration mit Fn ⊃ σ(X0 , . . . , Xn ). T bezeichne die Menge
aller Stoppzeiten bezüglich (Fn ) mit Werten in {0, 1, . . . , N }. Die Abbildung
J : T → R,
τ 7→ E(Xτ )
heißt Auszahlungsfunktion. Wir definieren
V := sup J (τ ).
τ ∈T
Eine Stoppzeit τ ∗ ∈ T heißt optimal, falls J (τ ∗ ) = V .
Lemma 8.1
a) J (τ ) ist definiert.
b) V ∈ R.
Beweis. a) |Xτ | ≤
|Xi |. Da jedes Xi integrierbar ist, gilt E|Xτ | < ∞.
P
b) V ≥ E(X0 ) ∈ R und V ≤ N
i=0 E|Xi | < ∞.
PN
i=0
Definition
Wir definieren einen Prozess (Yn )n∈{0,...,N } rekursiv wie folgt:
YN = XN ,
Yn = max{Xn , E[Yn+1 | Fn ]}.
Der Prozess (Yn )n∈{0,...,N } heißt Snell-Hülle von (Xn ).
Interpretation: Yn ist die zur Zeit n maximale erwartete Auszahlung, falls nicht
vor n gestoppt wurde.
62
8
Stopp-Probleme mit endlichem Zeithorizont
Satz 8.2
a) Yn ∈ L1 (P ), für alle n ∈ {0, . . . , N },
b) (Yn ) ist ein Supermartingal,
c) (Yn ) ist das kleinste Supermartingal, das (Xn ) dominiert. D.h. falls (Ye ) Supermartingal mit Yen ≥ Xn , n ∈ {0, . . . , N }, ist, dann gilt auch Yen ≥ Yn .
Beweis. a) Induktion.
n = N : YN = XN ist integrierbar.
n → n − 1: Sei Yn integrierbar. Dann gilt mit der Jensen-Ungleichung
E|E(Yn | Fn−1 )| ≤ EE(|Yn | | Fn−1 ) = E|Yn | < ∞.
Weiter gilt
| max(Xn−1 , E(Yn | Fn−1 ))| ≤ |Xn−1 | + |E(Yn | Fn−1 )|.
Also
E|Yn−1 | ≤ E|Xn−1 | + E|Yn | < ∞.
b) Beachte: (Yn ) ist adaptiert an (Fn ). Für n ∈ {1, . . . , N } gilt
Yn−1 = max(Xn−1 , E(Yn | Fn−1 )) ≥ E(Yn | Fn−1 ).
c) Sei (Yen ) weiteres Supermartingal mit Yen ≥ Xn , für alle n. Wir zeigen Yen ≥ Yn
durch Induktion.
n = N : YeN ≥ XN = YN .
n → n − 1: Es gelte Yen ≥ Yn . Dann ist
Yen−1 ≥ E(Yen | Fn−1 ) ≥ E(Yn | Fn−1 ).
Wegen Yen−1 ≥ Xn−1 gilt also
Yen−1 ≥ max(Xn−1 | E(Yn | Fn−1 )) = Yn−1 .
Satz 8.3
Sei τ := min{n ≥ 0 : Xn = Yn }. Dann ist τ ∈ T und es gilt
E(Xτ ) = E(Yτ ) = E(Y0 ) = V.
Insbesondere ist τ optional.
63
8
Stopp-Probleme mit endlichem Zeithorizont
Beweis. a) τ ist eine Stoppzeit, da für alle n ≤ N gilt
{τ ≤ n} =
n
[
{Xk = Yk } ∈ Fn .
k=0
b) EY0 ≥ V . Beweis hierfür: Nach Satz 8.2 ist (Yn ) ein Supermartingal. Sei σ ∈ T .
Wegen Satz 2.12 ist auch (Ynσ ) ein Supermartingal, und somit
E(Y0 ) = E(Y0σ ) ≥ E(YNσ ) = E(Yσ ) ≥ E(Xσ ) = J (σ).
Da σ beliebig ist, gilt EY0 ≥ V .
c) Y τ ist Martingal, denn für alle n < N gilt:
τ
E[Yn+1
| Fn ] = E[Yn+1 1{τ >n} + Yτ 1{τ ≤n} | Fn ]
= 1{τ >n} E[Yn+1 | Fn ] + Yτ 1{τ ≤n} .
Nun gilt auf {τ > n}, dass Xn < Yn = max(Xn , E(Yn+1 | Fn )). Damit folgt
weiter
τ
E[Yn+1
| Fn ] = 1{τ >n} Yn + Yτ 1{τ ≤n} = Ynτ .
d) Wir fassen zusammen:
c)
b)
E(Xτ ) = E(Yτ ) = E(YNτ ) = E(Y0τ ) = E(Y0 ) ≥ V.
Da aber E(Xτ ) ≤ V , gilt E(Xτ ) = V .
8.2
Das Cayley-Moser-Problem
Ein Agent will ein Haus, Auto, … verkaufen. Es gebe N Interessenten, wobei Xn
das Angebot des n-ten Interessenten sei.
Annahmen: X1 , . . . , XN sind unabhängig und gleichverteilt auf [0, 1]. Die potentiellen Käufer legen nacheinander ihr Angebot vor. Der Agent muss sich nach
jedem Angebot sofort dafür oder dagegen entscheiden.
Frage: Wann sollte der Agent ein Angebot annehmen?
Antwort: Mit Hilfe von Satz 8.3.
64
8
Stopp-Probleme mit endlichem Zeithorizont
Sei dazu X0 := 0 und Fn = σ(X0 , X1 , . . . , Xn ), n ∈ {0, . . . , N }. Weiterhin sei (Yn )
die Snell-Hülle von (Xn ) und an := E(Yn ), n ∈ {0, . . . , N }.
Lemma 8.4
Es gilt für alle n < N :
Yn = max(Xn , an+1 ).
(8.1)
Beweis. Induktion:
n = N − 1: Beachte:
E(YN | FN −1 ) = E(XN | FN −1 ) = E(XN ) = E(YN ) = aN ,
da XN unabhängig von FN −1 ist. Also gilt
YN −1 = max(XN −1 , E(YN | FN −1 )) = max(XN −1 , aN ).
n + 1 → n: Es gelte Yn+1 = max(Xn+1 , an+2 ). Dann
E(Yn+1 | Fn ) = E[max(Xn+1 , an+2 ) | Fn ] = E[max(Xn+1 , an+2 )]
= E[Yn+1 ] = an+1 ,
da Xn+1 unabhängig von Fn ist. Folglich gilt Yn = max(Xn , E(Yn+1 | Fn )) =
max(X, an+1 ).
Mit (8.1) lässt sich eine Rekursionsformel für (an ) bestimmen. Für n < N gilt:
an = E(Yn ) = E(max(Xn , an+1 ))
aZn+1
Z1
Z1
= max(x, an+1 )dx =
an+1 dx +
xdx
0
0
1
1 2 2
= (an+1 ) + x 2
an+1
=
an+1
1 1
+ (an+1 )2 .
2 2
Also löst (an ) folgende Rekursionsgleichung:
1
2
1 1
an = + a2n+1 ,
2 2
aN =
(8.2)
n < N.
Es ist keine explizite Formel für an bekannt.
65
8
Stopp-Probleme mit endlichem Zeithorizont
1
5/8
0
N −1 N
Satz 8.5
Für den Agenten ist es optimal, das Angebot zur Stoppzeit
τ ∗ := max{n ≤ N : Xn ≥ an+1 }
anzunehmen. Hierbei sei aN +1 = 0.
Beweis. Folgt aus Lemma 8.4 und Theorem 8.3.
8.3
Das SekretärInnen-Problem
Annahmen:
• N Bewerber auf eine Stelle
• Bewerber werden nacheinander befragt
• Nach jeder Befragung: Befragter wird eingestellt oder unwiderruflich abgelehnt.
Frage: Wann sollte man sich für einen Bewerber entscheiden?
Modell:
Ω = die Menge aller Permutationen (ω1 , . . . , ωN ) von 1, . . . , N
F = P(Ω)
1
P ({ω}) =
|Ω|
Rn (ω) = relativer Rang von Bewerber n unter den ersten n Bewerbern.
Beispiel
N = 4 und ω = (2, 4, 1, 3). Dann gilt
R1 (ω) = 1, R2 (ω) = 2, R3 (ω) = 1, R4 (ω) = 3.
66
8
Stopp-Probleme mit endlichem Zeithorizont
Wir definieren F0 = {∅, Ω} und Fn = σ(R1 , . . . , Rn ). Für n ∈ {1, . . . , n} sei
(
1, ωn = 1,
An (ω) :=
0, sonst.
Gesucht ist τ ∈ T , sodass E(Aτ ) maximal ist. Beachte: An ist i.A. nicht (Fn )adaptiert. Wir setzen daher
Xk := E(Ak | Fk ).
Dann gilt
E(Aτ ) = E
N
X
!
1{τ =k} Ak
N
X
=E
k=0
!
1{τ =k} E(Ak | Fk )
k=0
= E(Xτ ).
Es genügt also das τ ∗ ∈ T zu finden mit
E(Xτ ∗ ) = sup E(Xτ ).
τ ∈T
Man kann zeigen:
a) R1 , . . . , RN sind unabhängig und P (Rn = j) =
1
n
für j ∈ {1, . . . , n}.
b)
(
Xn =
n
,
N
0,
Rn = 1,
sonst.
Sei (Yn ) die Snell-Hülle von (Xn ). Wir definieren bn := E(Yn ), n ∈ {0, . . . , N }.
Lemma 8.6
Yn = max(Xn , bn+1 ).
Beweis. Ähnlich zum Beweis von Lemma 8.4.
Aus Lemma 8.6 folgt, dass (bn ) folgende Rekursionsgleichung löst:
bN =
1
N
1
n−1
bn = max
, bn+1
+ bn+1
.
N
n
n
n
67
8
Stopp-Probleme mit endlichem Zeithorizont
Nach Theorem 8.3 ist
τ ∗ := min{n ≤ N : Xn = Yn } = min{n ≤ N : n = N oder Rn = 1 und
n
N
≥ bn+1 }
eine optimale Stoppzeit, wobei bN +1 = 0.
∗
Sei rN
:= min{n ≤ N : Nn ≥ bn+1 }. Dieses Minimum existiert, denn (bn ) ist fallend,
als Folge von Erwartungswerten eines Supermartingals, und Nn steigend.
∗
Dann gilt τ ∗ = min{n ≥ rN
: Rn = 1} ∧ N .
Lemma 8.7
∗
rN
1
= .
N →∞ N
e
lim
Beweis. Sei
τN (r) := min{n ≥ r : Rn = 1} ∧ N
und ϕ(r) := E(XτN (r) ). Es gilt
N
X
k
ϕ(r) =
P (Rr 6= 1, Rr+1 6= 1, . . . , Rk−1 6= 1, Rk = 1)
N
k=r
N
X
k
=
(1 − P (Rr = 1)) · (1 − P (Rr+1 = 1)) · . . . · (1 − P (Rk−1 = 1)) · P (Rk = 1)
N
k=r
N
X
k r−1
r
k−2 1
=
·
· ... ·
·
N
r
r
+
1
k
−
1
k
k=r
N
=
r−1X 1
.
N k=r k − 1
∗
ϕ(r) hat Maximum bei rN
. Das heißt
∗
rN
= min{r : ϕ(r + 1) ≤ ϕ(r)} = min r :
Also:
N
−1
X
∗
k=rN
XN
k=r+1
1
≤1 .
k−1
N
−1
X
1
1
≤1≤
.
k
k
∗
k=r −1
N
Interpretation als Riemann-Ober- bzw. Untersumme ergibt
ZN
∗
rN
68
N
Z −1
N
−1
N
−1
X
X
1
1
1
1
dy ≤
≤1≤
≤
dy.
y
k
k
y
k=r∗
k=r∗ −1
N
N
∗ −2
rN
8
Stopp-Probleme mit endlichem Zeithorizont
Aus der linken Abschätzung folgt
log y|N
r∗ = log
N
was
∗
rN
N
≥
1
e
impliziert.
Aus der Rechten folgt
−1
log y|N
r∗ −2 = log
N
was
8.4
∗ −2
rN
N −1
≤
N
≤ 1,
∗
rN
1
e
N −1
≥ 1,
∗
rN
−2
impliziert. Damit folgt die Behauptung.
Die Snell-Hülle als essentielles Supremum
Definition
Sei (Zi )i∈I eine Familie von Zufallsvariablen. Eine Zufallsvariable Z heißt essentielles Supremum von (Zi ), falls
(1) ∀i ∈ I: P (Z > Zi ) = 1.
(2) Ist Ze eine Zufallsvariable mit P (Ze ≥ Zi ) für alle i ∈ I, dann gilt P (Ze ≥ Z) =
1.
In diesem Fall schreibt man ess supi∈I Zi für Z.
Bemerkung
Man kann zeigen, dass das essentielle Supremum immer existiert.
Es sei wieder (Yn ) die Snell-Hülle von (Xn )n∈{0,...,N } . Weiterhin sei T (n, N ) die
Menge aller Stoppzeiten mit Werten in {n, . . . , N }. Wir verallgemeinern Satz 8.3:
Satz 8.8
Sei τ (n) := inf{k ≥ n : Xk = Yk }. Dann ist τ (n) ∈ T (n, N ) und
E(Xτ (n) | Fn ) = E(Yτ (n) | Fn ) = Yn .
Weiterhin gilt
Yn = ess supτ ∈T (n,N ) E[Xτ | Fn ]
(8.3)
Beweis ähnlich zum Beweis von Satz 8.3. a) τ (n) ∈ T (n, N ) X
b) Sei τ ∈ T (n, N ). Da (Yn ) Supermartingal ist, gilt
Yn ≥ E[YNτ | Fn ] = E[Yτ | Fn ] ≥ E[Xτ | Fn ],
f.s.
69
9
Stopp-Probleme mit unendlichem Zeithorizont
Daraus folgt
Yn ≥ ess supτ ∈T (n,N ) E(Xτ | Fn ).
c) Für alle k ∈ {n, . . . , N − 1} gilt E[Yk+1 | Fk ] = Yk
auf {n, . . . , N }. Somit folgt
τ (n)
τ (n)
(*)
, d.h. Y τ (n) ist Martingal
E[Xτ (n) | Fn ] = E[Yτ (n) | Fn ] = Yn .
(**)
d) Aus (*) und (**) folgt (8.3).
9
9.1
Stopp-Probleme mit unendlichem Zeithorizont
Existenz von optimalen Stoppzeiten
Seien X0 , X1 , X2 , . . . und X∞ Zufallsvariablen auf einem Wahrscheinlichkeitsraum
(Ω, F, P ). Sei (Fn ) eine Filtration mit Fn ⊃ σ(X0 , . . . , Xn ), für alle n ≥ 0.
Wir bezeichnen mit T die Menge aller (Fn )-Stoppzeiten. Erinnerung: Stoppzeiten
können den Wert +∞ annehmen.
Für τ ∈ T setzen wir J (τ ) := E(Xτ ), falls der Erwartungswert von Xτ definiert
ist. Andernfalls (d.h. falls E(Xτ+ ) = ∞ und E(Xτ− ) = ∞) setzen wir J (Xτ ) = −∞.
Weiterhin definieren wir
V := sup J (τ ).
τ ∈T
τ ∗ ∈ T heißt optimal, falls J (τ ∗ ) = V ist.
Es gibt Beispiele, in denen keine optimale Stoppzeit existiert (Unterschied zu Problemen mit endlichem Zeithorizont!).
Beispiel 9.1
Sei X0 = 0, Xn = 1 − n1 , n ≥ 1 und X∞ = 0.
Je länger man wartet, desto größer wird die Auszahlung. Allerdings ist τ = ∞
keine optimale Stoppzeit. Es gibt also keine optimale Stoppzeit in diesem Beispiel.
Beispiel 9.2
Sei (Zn )n≥1 iid mit P (Zn = 1) = P (Zn = 0) = 12 . Setze X0 = X∞ = 0 und
n
Xn = (2 − 1)
n
Y
k=1
70
Zk ,
n ∈ N.
9
Stopp-Probleme mit unendlichem Zeithorizont
Es gilt
1
1
= 1 − n.
n
2
2
Wieder ist es besser zu warten. Allerdings ist E(X∞ ) = 0. Auch in diesem Beispiel
gibt es keine optimale Stoppzeit.
E(Xn ) = (2n − 1)P (Z1 = 1, . . . , Zn = 1) = (2n − 1)
Ziel des Abschnitts ist es zu zeigen, dass die folgenden 2 Annahmen hinreichend
für die Existenz einer optimalen Stoppzeit sind:
X :=
sup
Xn ist integrierbar (insb. E(X) < ∞)
(A1)
n∈Z≥0 ∪{∞}
lim sup Xn ≤ X∞ ,
f.s.
(A2)
n→∞
Bemerkung
a) Im Beispiel 9.1 gilt (A1), aber nicht (A2).
b) Im Beispiel 9.2 gilt (A2), aber nicht (A1).
Begründung:
{supn∈N Xn = 2k − 1} = {Z1 = 1, . . . , Zk = 1, Zk+1 = 0}
Daher gilt P (sup Xn = 2k − 1) =
1
2k+1
und
∞
X
1
E(X) = E(sup Xn ) =
(2k − 1) k+1 = ∞.
2
k=1
Lemma 9.3
Seien Z, Y1 , Y2 , . . . Zufallsvariablen mit Yn ≤ Z, für alle n ≥ 1, und E|Z| < ∞.
Dann gilt
lim sup E(Yn ) ≤ E(lim sup Yn ).
n
n
Beweis. Setze Y n := Z − Yn . Wegen Y n ≥ 0, folgt aus Fatous Lemma:
lim inf E(Y n ) ≥ E(lim inf Y n ).
n
n
Nun folgt die Behauptung, da
lim inf E(Y n ) = E(Z) − lim sup E(Yn )
n
n
E(lim inf Y n ) = E(Z) − E(lim sup Yn ).
n
n
71
9
Stopp-Probleme mit unendlichem Zeithorizont
Korollar 9.4
Seien X, Z Zufallsvariablen mit X ≤ Z und Z integrierbar. Ist (An )n≥1 eine
Partition von Ω, dann gilt:
E(X) =
∞
X
E(1An X).
k=1
Beweisskizze. Falls auch X integrierbar ist, folgt die Aussage mit dem Satz der
dominierten Konvergenz. Wir betrachten nun den Fall, wo X nicht integrierbar,
d.h. E(X) = −∞ ist. Setze
Yn := 1Snk=1 Ak X.
Dann ist Yn ≤ X ∨ 0 = max(X, 0). Wende nun Lemma 9.3 an.
Definition
Eine Stoppzeit τ heißt regulär, falls für alle n ∈ Z≥0 gilt:
E(Xτ | Fn ) > Xn auf {τ > n}.
Spiele nur weiter, falls die bedingte, erwartete Auszahlung echt größer ist.“
”
Bemerkung
Beachte, dass Xτ im Allgemeinen nicht integrierbar ist. Falls (A1) erfüllt ist, kann
man trotzdem E(Xτ | Fn ) wie folgt definieren:
Positiv-Teil:
Negativ-Teil:
Xτ+ ≤ X ∨0. Also ist Xτ+ integrierbar und E(X + |
Fn ) ist definiert.
Definiere E(Xτ− | Fn ) := supk≥1 E(Xτ− ∧ k | Fn ).
Lemma 9.5
Es gelte (A1). Dann existiert zu jeder Stoppzeit τ eine reguläre Stoppzeit σ mit
E(Xσ ) ≥ E(Xτ ).
Beweis. Wir können E|Xτ | < ∞ annehmen, denn sonst ist E(Xτ ) = −∞ und die
Aussage klar. Setze
σ := inf{n ≥ 0 : E(Xτ | Fn ) ≤ Xn }.
72
9
Stopp-Probleme mit unendlichem Zeithorizont
Dann gilt {σ = ∞} ⊂ {τ = ∞} und
X
E(Xτ ) =
E[1{σ=k} Xτ ]
k∈Z≥0 ∪{∞}
= E[1{σ=∞} X∞ ] +
∞
X
k=0
≤
X
E[1{σ=k} E[Xτ | Fk ]]
| {z }
≤Xk
E[1{σ=k} Xk ]
k∈Z≥0 ∪{∞}
(Korollar 9.4)
= E(Xσ ).
Noch zu zeigen: σ ist regulär. Beachte zunächst, dass Xσ integrierbar ist. Des
Weiteren gilt auf {σ > n}:
"
∞
X
E(Xσ | Fn ) = E
#
1{σ=k} Xσ | Fn + E[1{σ=∞} Xσ | Fn ]
k=n+1
"
∞
X
=E
#
1{σ=k} Xk | Fn + E[1{σ=∞} Xτ | Fn ]
k=n+1
"
≥E
∞
X
#
1{σ=k} E[Xτ | Fk ] | Fn ] + E[1{σ=∞} Xτ | Fn ]
k=n+1
= E[Xτ | Fn ]
> Xn .
Lemma 9.6
Es gelte (A1). Seien τ und σ regulär. Dann ist auch τ ∨ σ regulär und
E(Xτ ∨σ ) ≥ max{E(Xτ ), E(Xσ )}.
Beweis. Auf {τ = n} ∩ {σ > n} gilt
E[Xτ ∨σ | Fn ] = E[Xσ | Fn ] > Xn .
73
9
Stopp-Probleme mit unendlichem Zeithorizont
Also gilt
∞
X
E(Xτ ∨σ ) =
k=0
∞
X
=
k=0
∞
X
≥
E[1{τ =k} Xτ ∨σ ]
E[1{τ =k} E[Xτ ∨σ | Fk ]]
(Korollar 9.4)
(verallg. Turmeig.)
E[1{τ =k} Xk ]
k=0
(Korollar 9.4)
= E(Xτ ).
Analog zeigt man E(Xτ ∨σ ) ≥ E(Xσ ).
Noch zu zeigen: τ ∨ σ ist regulär. Beachte zunächst:
{τ ∨ σ > n} = {τ > n} ∪ {σ > n}
Auf {τ > n} ∩ {σ > n} gilt
E[Xτ ∨σ | Fn ] = E[Xσ | Fn ] > Xn .
Auf {τ > n} ∩ {τ ≥ σ} gilt
E[Xτ ∨σ | Fn ] = E[Xτ | Fn ] > X)n.
Also gilt: E[Xτ ∨σ | Fn ] > Xn auf {τ > n}. Analog zeigt man E[Xτ ∨σ | Fn ] > Xn
auf {σ > n}.
Damit folgt Regularität.
Satz 9.7
Falls (A1) und (A2) erfüllt sind, dann existiert eine optimale Stoppzeit.
Beweis. Sei (τn ) eine Folge von Stoppzeiten mit supn E(Xτn ) = V . Wegen Lemma
9.5 existiert zu jedem τn eine reguläre Stoppzeit σn mit E(Xσn ) ≥ E(Xτn ). Also
gilt auch supn E(Xσn ) = V .
Setze ρn := max{σ1 , . . . , σn }. Nach Lemma 9.6 ist ρn regulär. Des Weiteren ist
(ρn ) monoton steigend und es gilt
lim E(Xρn ) = V.
n→∞
Setze ρ := lim ρn .
74
9
Stopp-Probleme mit unendlichem Zeithorizont
Auf {ρ < ∞} gilt limn Xρn = Xρ .
Auf {ρ = ∞} gilt wegen (A2)
lim sup Xρn ≤ lim sup Xn ≤ X∞ = Xρ .
n
n
Also gilt lim supn Xρn ≤ Xρ überall. Mit Lemma 9.3 folgt nun
E(Xρ ) ≥ E lim sup Xρn ≥ lim sup E(Xρn ) = V.
n
n
Also ist ρ optimal.
9.2
Eine Methode zur Bestimmung optimaler Stoppzeiten
Da kein endlicher Zeithorizont gegeben ist, können wir nicht die Snell-Hülle definieren. Allerdings kann man in Analogie zu (8.3) definieren:
Vn := ess supτ ∈T (n) E(Xτ | Fn ),
wobei T (n) die Menge aller Stoppzeiten mit Werten in
{n, n + 1, . . .} ∪ {+∞}.
Im Folgenden nehmen wir an, dass F0 = {∅, Ω}. Dann gilt V0 = V .
Lemma 9.8
Es gelte (A1). Dann gilt
Vn = max{Xn , E(Vn+1 | Fn )},
n ≥ 0.
(9.1)
Beweis. Siehe Spezial-VL.
Satz 9.9
Es gelte (A1) und (A2). Dann ist
τ ∗ := inf{n ≥ 0 : Xn = Vn }
eine optimale Stoppzeit.
Beweis. Siehe Spezial-VL.
75
9
9.3
Stopp-Probleme mit unendlichem Zeithorizont
Das Cayley-Moser-Problem mit unendlichem Zeithorizont
Sei (Zn )n≥1 iid mit E(Zn2 ) < ∞. Sie c > 0 (Kosten pro Zeitschritt) und
Xn := Zn − nc,
n ∈ N.
Weiterhin sei X0 = X∞ = −∞.
Sei Fn := σ(X0 , . . . , Xn ), n ≥ 0.
Frage: Wann sollte der Agent das Angebot Zn annehmen?
Man kann zeigen, dass (A1) und (A2) erfüllt sind.
Nach Satz 9.9 ist τ ∗ := inf{n ≥ 0 : Xn = Vn } eine optimale Stoppzeit. Da
σ(Zn+1 , Zn+2 , . . .) unabhängig von Fn ist, kann man zeigen, dass E(Vn+1 | Fn ) =
E(Vn+1 ). Somit vereinfacht sich (9.1) zu
Vn = max{Xn , E(Vn+1 )},
n ≥ 0.
(9.2)
Insbesondere gilt V = V0 = E(V1 ).
Aus Symmetriegründen gilt
E(Vn ) = E(V1 ) − (n − 1)c,
n ≥ 1.
Lemma 9.10
τ ∗ = inf{n ≥ 1 : Zn ≥ V }.
Beweis. Definiere σ := inf{n ≥ 1 : Zn ≥ V }. Wir zeigen durch Induktion, dass
{τ ∗ = k} = {σ = k},
k ≥ 0.
k = 0: {τ ∗ = 0} = ∅ und {σ = 0} = ∅.
0, . . . , k → k + 1:
{τ ∗ = k + 1} = {Xk+1 = Vk+1 , τ ∗ > k}
= {Xk+1 = Vk+1 , σ > k}
(I.V.)
= {Xk+1 ≥ E(Vk+2 ), Z1 < V, . . . , Zk < V }
((9.2))
= {Xk+1 ≥ V − (k + 1)c, Z1 < V, . . . , Zk < V }
= {Zk+1 ≥ V, Z1 < V, . . . , Zk < V }
= {σ = k + 1}.
76
9
Stopp-Probleme mit unendlichem Zeithorizont
Frage: Wie kann man V bestimmen?
V löst die Gleichung
(9.3)
V = E(V1 ) = E(max{X1 , E(V2 )}) = E(max{Z1 , V }) − c.
Jetzt lösen wir die Gleichung (9.3) für den Fall, wo jedes Zn auf [0, 1] gleichverteilt
ist. In diesem Fall gilt, falls V ∈ [0, 1],
Z1
E(max{Z1 , V }) − c =
0
ZV
=
max{x, V }dx − c
V dx +
0
Z1
xdx − c
V
1 1
= V 2 + x2 V − c
2
1 2
1
= V −c+ .
2
2
V löst also die quadratische Gleichung
V 2 − 2V + 1 − 2c = 0,
√
welche die Lösungen V1/2 = 1 ± 2c hat. Da V > 1 nicht sinnvoll
ist (Annahme
√
war V ∈ [0, 1]), entfällt V1 als mögliche Lösung. Es gilt 1 − 2c ≥ 0 genau dann,
wenn c ≤ 12 .
Also gilt, falls c ≤ 12 :
V =1−
√
2c.
Falls c > 12 , sind die Wartekosten zu hoch. Also ist τ ∗ = 1 und V =
1
2
− c.
Zusammenfassend gilt also:
Satz 9.11
Falls die Zn gleichverteilt auf [0, 1] sind, dann gilt
τ ∗ = inf{n ≥ 1 : Zn ≥ 1 −
√
2c}.
77
V
Praktische Finanzmathematik
10
Implementierung des Binomialmodells
Literatur: Higham Nine ways to implement the Binomial Method in Matlab, 2002.
Wir machen die selben Annahmen und verwenden die selbe Notation wie in Kapitel
III.
10.1
Bewertungsalgorithmen, die die Binomialverteilung verwenden
Erinnerung: Nach Satz 3.3 gilt
N X
1
N
CRR_call(S0 , K, N, u, d, r) =
(p∗ )k (1−p∗ )N −k (S0 uk dN −k −K)+ ,
(1 + r)N k=0 k
(10.1)
wobei p∗ =
1+r−d
.
u−d
Die Formel (10.1) lässt sich direkt implementieren.
Pythoncode 10.1
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
import numpy a s np
# V a r i a b l e n i n i t i a l i s i e r e n . . . S0 , u , d , N, K, p s t e r n
# Arrays d e r Länge N+1 a n l e g e n
p a y o f f = np . z e r o s (N+1)
bv = np . z e r o s (N+1)
# Payoff bei F ä l l i g k e i t
f o r i i n r a n g e ( 0 ,N+1) :
p a y o f f [ i ] = max ( 0 , S0*u** i *d * * (N−i )−K)
# Binomialverteilung
f o r i i n r a n g e ( 0 ,N+1) :
bv [ i ] = np . math . f a c t o r i a l (N) / ( np . math . f a c t o r i a l ( i ) *
np . math . f a c t o r i a l (N−i ) ) * ( p s t e r n ) ** i *
(1− p s t e r n ) * * (N−i )
16
17 # Opt io n swert
18 v a l u e = 1/(1+ r ) **N * np . dot ( p a y o f f , bv )
78
10
Implementierung des Binomialmodells
Bemerkung
1) Die Fakultäten können sehr groß werden; (p∗ )i und (1 − p∗ )N −i können sehr
klein werden. Dadurch wird der Algorithmus ungenau für große N . Ausweg:
Logarithmieren. Dazu beachte:
N!
∗ i
∗ N −i
log
(p ) (1 − p )
i!(N − i)!
N
i
N −i
X
X
X
=
log(k) −
log(k) −
log(k) + i log(p∗ ) + (N − i) log(1 − p∗ ).
k=1
k=1
k=1
2) Bei der Summation genügt es die Terme zu betrachten, die 6= 0 sind.
Die Call-Option heißt in-the-money (im Geld), falls S0 ≥ K, out-of-the-money
(aus dem Geld), falls S0 < K und at-the-money, falls S0 = K. Es gilt
u i
K
S0 ui dN −i − K ≥ 0 ⇔
≥
d
S 0 dN
u
K
⇔ i log
≥ log
d
S 0 dN
log( S0KdN )
⇔ i≥
.
log(u) − log(d)
!
Falls d = u1 , vereinfacht sich die rechte Seite zu
1
2
N+
K
)
S0
log(u)
log(
.
Dies führt uns zu folgendem verbesserten Algorithmus:
Pythoncode 10.2
1 import numpy a s np
2
3 # V a r i a b l e n i n i t i a l i s i e r e n . . . S0 , u , d , N, K, p s t e r n
4
5 # Arrays d e r Länge N+1 a n l e g e n
6 p a y o f f = np . z e r o s (N+1)
7 log_bv = np . z e r o s (N+1)
8 c l s = np . z e r o s (N+1)
9
10 # P a y o f f b e i F ä l l i g k e i t
11 f o r i i n r a n g e ( 0 ,N+1) :
12
p a y o f f [ i ] = max ( 0 , S0*u** i *d * * (N−i )−K)
13
79
10
Implementierung des Binomialmodells
14 # k u m u l a t i v e l o g a r i t h m i s c h e Summe
15 f o r i i n r a n g e ( 1 ,N+1) :
16
c l s [ i ] = np . l o g ( i )+c l s [ i −1]
17
18 # l o g −B i n o m i a l v e r t e i l u n g
19 f o r i i n r a n g e ( 0 ,N+1) :
20
log_bv [ i ] = c l s [N]− c l s [ i ]− c l s [ N−i ] + i *np . l o g ( p s t e r n ) +
(N−i ) *np . l o g (1− p s t e r n )
21
22 # Summenstart
23 a=np . f l o o r ( np . l o g (K/S0 ) / ( l o g ( u )−l o g ( d ) ) )
24
25 # Opt io n swert
26 sum=0
27 f o r i i n r a n g e ( a ,N+1) :
28
sum = sum+np . exp ( log_bv [ i ] ) * p a y o f f [ i ]
29 v a l u e = 1/(1+ r ) **N * sum
10.2
Baumalgorithmen
Erinnerung: Der CRR-Preis einer Call-Option lässt sich mit der Rekursionsformel
(3.6) aus Satz 3.2 bestimmen.
cN (x) = (x − K)+
1
cn (x) =
(p∗ cn+1 (ux) + (1 − p∗ )cn+1 (dx))
1+r
Matrix-Notation für den Baum:
(0, 0)
(0, 1)
(0, 2)
(0, 3)
(1, 1)
(1, 2)
(1, 3)
(2, 2)
(2, 3)
(3, 3)
Pythoncode 10.3
1
import numpy a s np
80
10
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
Implementierung des Binomialmodells
# V a r i a b l e n i n i t i a l i s i e r e n . . . S0 , u , d , N, K, p s t e r n
# Felder anlegen
S = np . z e r o s ( [ N+1,N+1])
C = np . z e r o s ( [ N+1,N+1])
# P r e i s v e k t o r zur Z e i t N
S [ 0 ,N] = S0*u**N
f o r i i n r a n g e ( 1 ,N+1) :
S [ i ,N] = S [ i −1,N] * d/u
# Option swert z u r Z e i t N
f o r i i n r a n g e ( 0 ,N+1) :
C[ i ,N] = max ( 0 , S [ i ,N]−K)
# R e k u r s i o n durch den Baum
f o r t i n r a n g e (N−1,−1,−1) :
f o r j i n r a n g e ( 0 , t +1) :
C[ j , t ] = 1/(1+ r ) *
( p s t e r n *C[ j , t +1]+(1− p s t e r n ) *C[ j +1, t +1])
22
23 # Option swert z u r Z e i t 0
24 C [ 0 , 0 ]
Bemerkung
1) Für die replizierende Strategie gilt zur Zeit 0:
H0 =
c1 (uS0 ) − c1 (dS0 )
.
uS0 − dS0
Der Quotient wird auch als Delta“ bezeichnet. Er misst die Sensitivität des
”
Optionswertes bezüglich des Basiswertes. Für die Bewertung des Deltas ergänze
Pythoncode 10.3 wie folgt:
Delta=(C(0,1)-C(1,1))/(S0(u-d))
2) Baumalgorithmen sind nützlich für amerikanische Optionen.
10.3
Bewertung amerikanischer Optionen
Bei einer amerikanischen Option hat der Käufer zu jedem Zeitpunkt bis zur Fälligkeit das Recht, die Option auszuüben.
Amerikanische Put-Option mit Strike K und Fälligkeit N : Falls der Käufer zur
Zeit n ≤ N ausübt und K ≥ Sn , dann erhält er K − Sn .
81
10
Implementierung des Binomialmodells
Sei T die Menge aller (Fn )-Stoppzeiten mit Werten in {0, . . . , N }.
Für τ ∈ T kann man
+
(K − Sτ ) =
N
X
1{τ =n} (K − Sn )+
n=0
als Korb von Derivaten mit unterschiedlichen Fälligkeiten interpretieren. In Kapitel
3 haben wir gesehen, dass der arbitragefreie Preis von
1{τ =n} (K − Sn )+
durch
∗
E
1
1{τ =n} (K − Sn )+
(1 + r)n
gegeben ist. Also ist der arbitragefreie Preis des Korbs gegeben durch
1
∗
+
E
(K − Sτ ) .
(1 + r)τ
Der Käufer wird τ so wählen, dass der Korbwert maximal wird. Wir definieren
1
put
∗
+
A0 := sup E
(K − Sτ ) .
(1 + r)τ
τ ∈T
Man kann zeigen: Aput
ist der einzige arbitragefreie Preis der amerikanischen Puts
0
zur Zeit 0.
Frage: Was ist der optimale Ausübungszeitpunkt, d.h. welches τ ist optimal?
Setze dazu Xn :=
1
(K
(1+r)n
− Sn )+ . Dann gilt
Aput
= sup E∗ (Xτ ).
0
τ ∈T
Sei (Zn )n∈{0,...,N } die Snell-Hülle von (Xn ) bezüglich P ∗ . Nach Satz 8.3 ist
τ ∗ := min{n ≤ N : Xn = Zn }
eine optimale Ausübungszeit.
Lemma 10.4
Für alle n ∈ {0, . . . , N } gibt es eine Funktion e
an : R+ → R+ mit
Zn = e
an (Sn ).
82
10
Implementierung des Binomialmodells
Beweis. Rückwärtsinduktion nach n.
n = N : ZN = XN =
1
(K
(1+r)N
− SN )+ . Also wähle
e
aN (x) :=
1
(K − x)+ .
N
(1 + r)
n + 1 → n: Es gelte Zn+1 = e
an+1 (Sn+1 ). Beachte:
E∗ [e
an+1 (Sn+1 ) | Fn ] = E∗ [e
an+1 (Sn Yn+1 ) | Fn ]
∗
= E [e
an+1 (xYn+1 )]|x=Sn
(Faktorisierungslemma)
= (p∗e
an+1 (xu) + (1 − p∗ )e
an+1 (xd))|x=Sn .
Definiere
e
an (x) := max
(K − x)+ ∗
∗
,p e
an+1 (xu) + (1 − p )e
an+1 (xd) .
(1 + r)n
Dann gilt
Zn = max{Xn , E∗ (Zn+1 | Fn )}
(K − Sn )+ ∗
= max
, E (e
an+1 (Sn+1 ) | Fn )
(1 + r)n
=e
an (Sn ).
Für die Funktion an (x) := (1 + r)ne
an (x) gilt
aN (x) = (K − x)+ ,
an (x) = max (K − x)+ ,
Aus Satz 8.3 folgt
1
∗
∗
(p an+1 (xu) + (1 − p )an+1 (xd)) ,
1+r
n < N.
Aput
= E∗ (Z0 ) = e
a0 (S0 ) = a0 (S0 ).
0
Mit folgendem Algorithmus lässt sich also der Wert einer amerikanischen PutOption bestimmen.
Pythoncode 10.5
1 # P r e i s v e k t o r z u r Z e i t N wie i n Pythoncode 1 0 . 3
2 # O p t i o n s w e r t e z u r Z e i t N ä h n l i c h wie i n Pythoncode 1 0 . 3
3
4 # R e k u r s i o n durch den Baum
83
11
5
6
7
8
Monte-Carlo-Verfahren
f o r t i n r a n g e (N−1,−1,−1) :
f o r j in range (0 , t ) :
S [ j , t ]=S [ j , t +1]/u
a [ j , t ]=1/(1+ r ) *
( p s t e r n *a [ j , t +1]+(1− p s t e r n ) *a [ j +1, t +1])
a [ j , t ]=max(max ( 0 ,K−S [ j , t ] ) , a [ j , t ] )
9
10
11 # Opt io n swert z u r Z e i t 0
12 a [ 0 , 0 ]
11
Monte-Carlo-Verfahren
Erinnerung: Im Black-Scholes-Modell wird der Basiswert durch
St = S0 · eσWt +(r+
σ2
)t
2 ,
t ∈ R+ ,
modelliert, wobei (Wt ) eine Brownsche Bewegung bezüglich des äquivalenten Martingalmaßes P ∗ ist. Des Weiteren haben wir definiert:
BS_call(S0 , K, T, σ, r) := e−rT E∗ [(ST − K)+ ]
(11.1)
Andere Derivate werden im Black-Scholes-Modell analog bewertet. Zum Beispiel
setzen wir für einen asiatischen Call mit strike K und Fälligkeit T

+ 
ZT
 1

BS_Asian_call(S0 , K, T, σ, r) := e−rT E∗ 
St dt − K   .
(11.2)
T
0
Für (11.1) gibt es eine analytische Formel (Black-Scholes-Formel, siehe Satz 5.5),
für (11.2) nicht. Man kann (11.2) mit dem Monte-Carlo-Verfahren schätzen. Wir
erklären das Prinzip zunächst für den gewöhnlichen Call.
Es seien Z1 , Z2 , . . . Zufallsvariablen, die bezüglich P ∗ unabhängig und N (0, 1)√
d
verteilt sind. Beachte: tZi = Wt . Nach dem starken Gesetz der großen Zahlen
gilt
+
n √
σ2
1X
σ T Zi +(r− )T
2
lim
S0 · e
−K
= E∗ ((ST − K)+ ).
n→∞ n
i=1
Man bezeichnet die Summe
+
n √
σ2
1X
σ T Zi +(r− )T
2
S0 · e
−K
n i=1
als Monte-Carlo-Schätzer (mit n Zufallsvariablen) für E∗ ((ST − K)+ ).
84
11
Monte-Carlo-Verfahren
Pythoncode 11.1 (Monte-Carlo-Schätzer für Call-Optionen)
1 # Vektor mit N( 0 , 1 )−Z u f a l l s z a h l e n
2 nsim = 10000
3 Z = np . random . randn ( nsim )
4
5 # R e a l i s i e r u n g e n des Payoffs
6 f o r i i n r a n g e ( 0 , nsim ) :
7
p a y o f f [ i ] = max ( 0 , S0*np . exp ( sigma *np . s q r t (T) *Z [ i ] +
( r−sigma * * 2 / 2 ) *T)−K)
8
9 # Option swert
10
v a l u e = np . exp(− r *T) * np . mean ( p a y o f f )
Frage: Wie groß ist der Schätzfehler?
Zur Beantwortung betrachten wir eine allgemeine Zufallsvariable
X ∈ L2 (P ). Seien
P
X1 , X2 , . . . unabhängig und verteilt wie X. Dann ist n1 ni=1 Xi ein Monte-CarloSchätzer für E(X) mit n Zufallszahlen. Wir definieren den mean square error

n
1X

MSE(n) := E
Xi − E(X)
n i=1
!2 

und
p
RMSE(n) := M SE(n).
P
Da E[Xi ] = E[X], gilt E n1 ni=1 Xi = E[X] und somit
MSE(n) = Var
=
Folglich gilt RMSE(n) =
√1
n
n
1X
Xi
n i=1
!
n
1 X
= 2
Var(Xi )
n i=1
1
Var(X).
n
Std(X).
Bemerkung 1) RMSE ist proportional zu √1n . Um also den Fehler zu halbieren,
werden viermal so viele Simulationen benötigt. Deshalb ist das Monte-CarloVerfahren kostenintensiv.
2) RMSE ∼ Std(X)
85
11
Monte-Carlo-Verfahren
3) Beachte: Aus der Jensen-Ungleichung folgt
v
# u 
2 
" n
n
u X
1 X
u  1
MAE(n) = E Xi − E[X] ≤ tE Xi − E[X]  = RMSE(n).
n
n
i=1
i=1
Es gilt also
MAE(n) ∈ O
d.h.
lim sup
1
√
n
MAE(n)
n→∞
√1
n
,
< ∞.
Nun zu asiatischen Optionen. Erinnerung:

+ 
ZT
 1

BS_Asian_call(S0 , K, T, σ, r) := e−rT E∗ 
St dt − K   ,
T
0
wobei P ∗ das äquivalente Martingalmaß ist.
Für die Monte-Carlo-Bewertung muss der Preispfad t 7→ St simuliert werden. Wir
simulieren den Preispfad an diskreten Zeitpunkten
0 = t0 < t1 < . . . < tm = T.
Im Folgenden wählen wir ein äquidistantes Zeitgitter, d.h. ti =
Erinnerung:
1
St = S0 · eσWt +(r− 2 σ
2 )t
Pythoncode 11.2 (Generieren von Preispfaden)
# Matrix mit N( 0 , 1 )−Z u f a l l s z a h l e n
nsim = 10000
m = 100
Z = np . random . randn ( nsim ,m)
# nsim Brownsche Pfade a u f [ 0 ,T ]
dt = T/m
W = np . z e r o s ( ( nsim ,m+1) )
f o r t i n r a n g e ( 0 ,m) :
W[ : , t +1] = W[ : , t ] + np . s q r t ( dt ) *Z [ : , t ]
86
i ∈ {0, . . . , m}.
und Wt − Ws ∼ N (0, t − s)
.
1
2
3
4
5
6
7
8
9
10
i
T,
m
11
Monte-Carlo-Verfahren
11
12 # nsim P r e i s p f a d e
13 S = np . z e r o s ( [ nsim ,m+1])
14 f o r t i n r a n g e ( 0 ,m+1) :
15
S [ : , t ] = S0*np . exp ( sigma *W[ : , t ]+( r −0.5* sigma * * 2 ) * t * dt )
Das Integral
werden.
RT
0
St dt kann durch die Riemann-Summe
ti
T
m
Pm−1
i=0
Sti approximiert
ti+1
Eine bessere Approximation erreichen wir mit der Trapezregel:
Zti+1
St + Sti+1 T
St dt ≈ i
· .
2
m
ti
ti
ti+1
Dies liefert
1
T
ZT
0
m−1
1 T X Sti + Sti+1
1
St dt = ·
=
T m i=0
2
m
m−1
S0 + ST X
+
Sti
2
i=1
!
.
Pythoncode 11.3 (Monte-Carlo-Schätzer für asiatische Call-Optionen)
87
11
1
2
3
4
5
6
7
8
9
10
11
12
13
Monte-Carlo-Verfahren
# G e n e r i e r e P r e i s p f a d e : S i e h e Pythoncode 1 1 . 2
mS = z e r o s ( nsim )
# Mittelwert der Preispfade
f o r j i n r a n g e ( 0 , nsim ) :
mS[ j ] = 1/m * ( ( S [ j , 0 ] + S [ j ,m] ) /2 + np . sum ( S [ j , 1 :m] ) )
# R e a l i s i e r u n g des p a y o f f s
f o r t i n r a n g e ( 0 , nsim ) :
p a y o f f [ t ] = max ( 0 ,mS[ t ]−K)
# Opt io n swert
v a l u e = np . exp(− r *T) *np . mean ( p a y o f f )
Theoretische Fehleranalyse
A(m) :=
Es gilt:
1
m
(S0 +ST )
2
+
Pm+1
i=1
Sti hat nicht denselben Erwartungswert wie
1
T
RT
0
St dt.
!
m−1
1
1 1 rT X rti
E[A(m)] = S0
+ e +
e
,
m
2 2
i=1


ZT
ZT
ZT
1
1
1
S0 rT
E
St dt =
E[St ]dt =
ert S0 dt =
(e − 1).
T
T
T
rT
0
0
0
Es seien A1 , A2 , . . . unabhängige Realisierungen von A(m). Xi := (Ai − K)+ hat
nicht denselben Erwartungswert wie

X := 
1
T
ZT
+
St dt − K  .
0
Man sagt, der Monte-Carlo-Schätzer
n
1X
Xi
n i=1
ist nicht erwartungstreu. Wir definieren den Bias durch
Bias := E[Xi ] − E[X].
88
11
Monte-Carlo-Verfahren
Beachte:

!2 
n
X
1
MSE(n) = E 
Xi − E[X] 
n i=1

!2 
n
X
1
= E
Xi − E[Xj ] + E[Xj ] − E[X] 
n i=1

!2 
n
X
2
1
= E
Xi − E[Xj ]  + E[Xj ] − E[X]
n i=1
"
!
#
n
1X
+ 2E
Xi − E[Xj ] E[Xj ] − E[X]
n i=1
|
{z
}
h
i
=0, denn E
= Var
n
1X
Xi
n i=1
1 Pn
X =E[Xj ]
n i=1 i
!
+ (Bias)2
Empirisches Maß für die Schätzgüte
Sei
n
1X
µn =
Xi ,
n i=1
v
u
n
u 1 X
t
Sn =
(Xi − µn )2 .
n − 1 i=1
Sn heißt empirische Standardabweichung. Weiterhin sei
Sn
u(X1 , . . . , Xn ) := −1, 96 √ + µn ,
n
Sn
v(X1 , . . . , Xn ) := 1, 96 √ + µn .
n
Dann ist [u(X1 , . . . , Xn ), v(X1 , . . . , Xn )] das sogenannte Konfidenzintervall, d.h.
es gilt
P [u(X1 , . . . , Xn ) ≤ E[Xi ] ≤ v(X1 , . . . , Xn )] ≈ 0, 95.
89
12
Der LSMC-Algorithmus
Beweis hierfür:
Sn
Sn
LS = P [−1, 96 √ ≤ E[Xi ] − µn ≤ 1, 96 √ ]
n
n
Pn
1
√ n i=1 (Xi − E[Xi ])
= P −1, 96 ≤ n
≤ 1, 96
Sn
P
n
i=1 (Xi − E[Xi ])
√
= P −1, 96 ≤
≤ 1, 96
nSn
n→∞
−→ Φ(1, 96) − Φ(−1, 96)
≈ 0, 95,
wobei Φ(x) =
12
2
y
√1 e− 2
−∞ 2π
Rx
(zentraler Grenzwertsatz)
dy.
Der LSMC-Algorithmus
(LSMC = Least-Squares Monte-Carlo)
Literatur: Longstaff, Schwartz. Valuing American Options by Simulation: A
Simple Least-Squares Approach, 2001.
Sei (Sn )n∈{0,...,N } ein stochastischer Prozess auf einem Wahrscheinlichkeitsraum
(Ω, F, P ). Setze Fn := σ(S0 , . . . , Sn ).
Annahme (M): Für alle 0 ≤ k < n ≤ N und f : R → R messbar mit E|f (Sn )| <
∞ gibt es eine Abbildung g : R → R mit E[f (Sn ) | Fk ] = g(Sk ) f.s. Man sagt: (Sn )
ist ein Markov-Prozess.
Seien f0 , . . . , fN : R → R messbare Abbildungen mit E|fn (Sn )|2 < ∞. Setze
Xn := fn (Sn ) und betrachte das Stopp-Problem
V := sup E(Xτ ),
τ ∈T
wobei T die Menge aller (Fn )-Stoppzeiten mit Werten in {0, . . . , N } ist (vgl. Kapitel 8).
Beispiele:
1) Amerikanische Put-Option: fn (x) = e−rtn (K − x)+
2) Cayley-Moser: fn (x) = x
Sei (Yn )n∈{0,...,N } die Snell-Hülle von (Xn )n∈{0,...,N } . Dann gilt:
90
12
Der LSMC-Algorithmus
Lemma 12.1
Für alle n ∈ {0, . . . , N − 1} exisitiert ein cn : R → R mit
E(Yn+1 | Fn ) = cn (Sn ).
cn heißt continuation value zur Zeit n.
Beweis. n = N − 1: E(YN | FN −1 ) = E(XN | FN −1 ) = E(fN (SN ) | FN −1 ). Wegen
(M) existiert eine Abbildung cN −1 mit E(YN | FN −1 ) = cN −1 (SN −1 ).
n → n − 1: Yn = max(Xn , E(Yn+1 | Fn )) = max(Xn , cn (Sn )). Also
E(Yn | Fn−1 ) = E(max(fn (Sn ), cn (Sn )) | Fn ).
Wegen (M) existiert eine Abbildung cn−1 mit E(Yn | Fn ) = cn−1 (Sn−1 ).
Setze τ (n) := min{k ≥ n | Xk = Yk }, für n ≤ N .
Erinnerung: Nach Satz 8.3 gilt V = E(Y0 ) = E(Xτ (0) ), und nach Satz 8.8 gilt
Yn = E(Xτ (n) | Fn ). Insbesondere gilt hier
cn (Sn ) = E(Yn+1 | Fn ) = E(E(Xτ (n+1) | Fn+1 ) | Fn ) = E(Xτ (n+1) | Fn ).
(12.1)
Im LSMC-Algorithmus wird cn approximiert mit Basisfunktionen.
Beispiele:
1) h1 (x) = 1, h2 (x) = x, h3 (x) = x2 , …
2) gewichtete Laguerre-Polynome: h1 (x) = e− 2 , h2 (x) = e− 2 (x − 1), h3 (x) =
|x|
e− 2 (x2 − 2x + 1).
|x|
|x|
Seien h1 , . . . , hb gewählt, für jedes n ∈ {0, . . . , N − 1}. Gesucht sind α1 , . . . , αb mit
α1 · h1 (x) + . . . + αb · hb (x) ≈ cn (x).
Die α1 , . . . , αb werden durch eine Regression bestimmt. Dazu benötigt: M ∈ N
Realisierungen Sbnj , j ∈ {1, . . . , M }, von Sn .
Lemma 1.6 und Gleichung (12.1) implizieren: Für alle g : R → R gilt
E[(cn (Sn ) − Xτ (n+1) )2 ] ≤ E[(g(Sn ) − Xτ (n+1) )2 ].
91
12
Der LSMC-Algorithmus
P
Idee 1: Wähle g = bi=1 αi hi und ersetze den Erwartungswert durch einen MCSchätzer:
!2
M
b
1 X X
j
αi hi (Sbn ) − Pn+1 (j) =: R(α1 , . . . , αb ),
M j=1 i=1
wobei Pn+1 (j) die Approximation der j-ten Realisierung von Xτ (n+1) ist.
Bestimme durch Regression die Minimalstelle von R.
Idee 2: Approximiere τ (n) iterativ für alle j. Gegeben: τ (j, n + 1) = j-te Realisierung der Approximation von τ (n + 1).
Sei (b
α1 , . . . , α
bb ) die Minimalstelle von R mit
Pn+1 (j) = fτ (j,n+1) Sbτj (j,n+1) .
Dann gilt:
b
X
α
bi hi (Sbnj ) ≈ cn (Sni ).
i=1
Setze
(
τ (j, n + 1),
τ (j, n) =
n,
P
falls
αi hi (Sbnj ) > fn (Sbnj )
sonst.
Beide Ideen führen zu folgendem Algorithmus zur Berechnung von V .
Algorithmus 12.2
1. Generiere Pfade (Sbnj ), j ∈ {1, . . . , M }, n ∈ {0, . . . , N }.
j
2. Initialisiere den Vektor P : P (j) = fN (SN
), für alle j ∈ {1, . . . , M }.
3. Setze n = N − 1.
4. Setze X(j) = fn (Sbnj ) für alle j ∈ {1, . . . , M }.
5. Regressiere P (·) auf h1 (Sbn· ), . . . , hb (Sbn· ).
6. Setze C(j) = α1 h1 (Sbnj ) + . . . + αb hb (Sbnj ) für alle j.
7. Vergleiche C(j) mit X(j): Falls C(j) < X(j), setze P (j) = X(j).
8. Falls n > 0, setze n = n − 1 und gehe zu 4.
9. Falls n = 0: V = Mittelwert von P (j), j = 1, . . . , M .
Bemerkung 12.3
92
13
Portfolio-Optimierung
1) Schritt 5 kann wie folgt umgesetzt werden: Definiere M ∈ RM ×b durch


h1 (Sbn1 ) . . . hb (Sbn1 )

.. 
..
M :=  ...
.
. 
M
h1 (Sbn ) . . . hb (SbnM )
und bestimme
(α1∗ , . . . , αb∗ ) = argminα1 ,...,αb M · (α1 , . . . , αb )T − (P (1), . . . , P (M ))T 2 .
Python-Befehl: alpha=np.linalg.lstsq(M,P)[0]
2) Bei der Berechnung von amerikanischen Put-Optionen ist
X(j) = fn (Sbnj ) = e−rtn (K − Sbnj )+ .
Falls die Option zur Zeit n aus dem Geld ist (d.h. falls Sbnj > K), dann gilt
X(j) = 0 und insbesondere C(j) > X(j). Für die Regression ist es daher sinnvoll nur die Realisierungen zu betrachten, die im Geld sind. Hierfür nützlicher
Python-Befehl: np.nonzero
13
Portfolio-Optimierung
Wir verwenden die Notation aus Kapitel 7. Erinnerung:
Zielfunktional:
Nebenbedingung:
max EU (v(1 + π · R)),
π∈Rd+1
d
X
(P)
πi = 1.
i=0
Beachte: (P) ist äquivalent zu
h
i
Xd
max EU v(1 + (1 −
πi )r + π · R) .
π∈Rd
13.1
i=1
(P’)
Lösungsmethode: Simulation
Idee: Ersetze den Erwartungswert durch einen Monte-Carlo-Schätzer. Dazu seib
en R(j),
j ∈ {1, . . . , M }, unabhängige Realisierungen (einer Approximation) des
Zufallsvektors R.
M
i
Xd
1 X h
b
max
U v(1 + (1 −
πi )r + π · R(j))
.
(PMC)
i=1
π∈Rd M
j=1
93
13
Portfolio-Optimierung
Die Maximalstelle in (PMC) kann mit Hilfe des Newton-Verfahrens bestimmt werden. Sei dazu
f (π) :=
M
i
Xd
1 X h
b
U v(1 + (1 −
πi )r + π · R(j))
,
i=1
M j=1
∇f := der Gradient von f,
Hf := die Hessematrix von f.
π ∗ ist die Nullstelle von ∇f . Newton-Verfahren:
π0 := 0;
πk+1 := πk − (Hf )−1 (πk )∇f (πk )
Algorithmus 13.1
b
1. Generiere unabhängige Realisierungen R(j),
j ∈ {1, . . . , M }.
2. Wähle eine Fehlerschranke ε > 0.
3. Setze π = 0.
4. Bestimme ρ = π − (Hf )−1 (π)∇f (π).
5. Falls |π − ρ| ≥ ε, setze π = ρ und gehe zu 4.
6. Falls |π − ρ| < ε, ist ρ Näherung von π ∗ .
13.2
Lösungsmethode: Verteilung
Falls die Verteilung von R bekannt ist, kann der Erwartungswert in (P’) durch ein
Integral ersetzt werden. Mit numerischer Integralapproximation kann dann das
optimale π ∗ näherungsweise bestimmt werden.
Beispiel 13.2 (für d = 1)
Sei R = h(N ), wobei h : R → R eine gegebene Funktion und N ∼ N (µ, σ 2 )
verteilt ist. Der Erwartungswert
EU (v(1 + r + π(R − r)))
kann zum Beispiel mit der Gauß-Hermite-Quadratur approximiert werden. Dabei
werden x1 , . . . , xm und Gewichte g1 , . . . , gm gewählt, sodass gilt
Z
m
X
−x2
f (x)e dx ≈
gi f (xi ).
i=1
94
13
Portfolio-Optimierung
Wir setzen nun f (y) := U [v(1 + r + π(h(y) − r))]. Dann gilt
m
√
1 X
Ef (N ) ≈ √
gi f ( 2σxi + µ).
π i=1
|{z}
√
(13.1)
≈ 3.14
95
Herunterladen