Ausarbeitung

Werbung
Optimale stochastische Steuerung in der
Finanzmathematik
Peter Kohl-Landgraf
15.11.2004
1
Inhaltsverzeichnis
1 Finanzmathematische Grundlagen
1.1 Einige Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Anwendungen der Ito-Formel . . . . . . . . . . . . . . . . . . . .
3
3
5
2 Stochastische Steuerungsprobleme
8
3 Finanzmathematische Steuerungsprobleme
3.1 Merton: Optimale Portfolioselektion und optimaler Verbrauch
3.2 Mertons Problem mit Transaktionskosten . . . . . . . . . . .
3.3 Super-Replikation von Claims unter Portfoliorestriktionen . .
3.3.1 Problembeschreibung . . . . . . . . . . . . . . . . . . .
3.3.2 Viskositätslösung des Problems . . . . . . . . . . . . .
.
.
.
.
.
4 Optimale Stop-Probleme in der Finanzmathematik
4.1 Zeitunabhängige Stop-Probleme (T = ∞) . . . . . . . . . . . .
4.1.1 Anwendung: Optimaler Verkaufszeitpunkt eines Assets .
4.2 Zeitabhängige Stop-Probleme . . . . . . . . . . . . . . . . . . .
4.3 Optimales Stoppen bei amerikanischen Optionen . . . . . . . .
4.3.1 Preis einer amerikanischen Option als optimales StopProblem . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.2 Amerikanischer Call: (s − E)+ . . . . . . . . . . . . . .
4.3.3 Optimaler Ausübungszeitpunkt beim amerikanischen Put
mit unbegrenzter Laufzeit . . . . . . . . . . . . . . . . .
4.3.4 Amerikanischer Put mit begrenzter Laufzeit . . . . . . .
5 Literaturverzeichnis
.
.
.
.
.
9
9
12
12
12
14
.
.
.
.
19
19
20
21
21
. 21
. 22
. 22
. 24
25
2
1
1.1
Finanzmathematische Grundlagen
Einige Definitionen
Im folgenden betrachte immer WS-Raum (Ω, Σ, P ).
Definition 1.1. Eine Filtration auf (Ω, Σ) ist eine Familie von σ-Algebren F
= {Ft }t≥0 ∈ Σ, s.d. gilt:
s ≤ t ⇒ Fs ⊂ Ft
Einen stochastischen Prozess g(t, z) : [0, ∞)×Ω → R nennen wir Ft -adaptiert
oder adaptiert zu der Filtration Ft , wenn fuer jedes t ≥ 0 die Funktion
z 7→ g(t, z)
,z ∈ Ω
Ft -messbar ist (Schreibe: g(z) ∈ Ft ).
Wir definieren den bedingten Erwartungswertoperator E zur Filtration
Ft , d.h. der erwartete Wert unter Berücksichtigung des Verlaufs des Prozesses
g(z) bis zur Zeit t:
Et [g(T )] = E[g(T )|Ft ] = Eg(t)=z [g(T )]
∀T ≥ t
Ein stochastischer Prozess {gt }t≥0 heisst ein Martingal bezüglich der Filtration
{Ft }t≥0 , wenn:
- gt ist Ft messbar
- E[kgt k] < ∞
∀t
∀t
- E[gs |Ft ] = gt ⇔ E[gs − gt |Ft ] = 0
∀s ≥ t
Ein Prozess ist also adaptiert zu einer bestimmten Filtration Ft , wenn die
die Funktionswerte von g bis zum Zeitpunkt t nur durch die Informationen der
Filtration Ft bestimmt ist. Ein stochastischer Prozess ist ein Martingal, wenn
der erwartete zukünftige Wert gleich dem gegenwärtigen ist.
Ohne Beweis wollen wir noch das für spätere Anwendungen wichtige Repräsentations-Theorem angeben:
Satz 1.1. Martingal-Repräsentation Sei Mt Ft messbares Martingal gegeben.
=⇒ ∃φ(t, z) (eindeutig) mit:
Z
£ s 2
¤
E
|φ (s, z)|ds < ∞
t
Z t
φ(s, z)dω(z)
Mt (ω) = E[M0 |F0 ] +
0
Andere Schreibweise:
dM = φdω
3
Zum Beweis vgl. [5], pp. 53-54. M.a.W: Jedes Martingal kann in ein anderes
transformiert werden: (sog. Martingal-Equivalenz).
Definition 1.2. Einen stochastischen Prozess ω(z, t) := ωt (z), z ∈ Ω, nennen
wir eine Brownsche Begegung (im folgenden BB), wenn gilt:
i Für t1 < t2 ist ∆t2 ω(z) := ωt2 (z) − ωt1 (z) normalverteilt mit
E[∆t2 ω] = 0 und V ar(∆t2 ω) = E[(∆t2 ω)2 ] = t2 − t1
ii t0 ≤ t1 ≤ t2 ⇒ ∆ωt2 (z) ist unabhängig von ∆ωt1 (z), daher ist auch ∆ωt2
unabhängig von den Filtrationen {Ft }t≤t1
iii Die Funktion t 7→ ω(t) ist stetig fast sicher
iv ω(0) = 0
Definition 1.3. Eine Funktion τ : Ω → [0, ∞) nennt man eine Stop-Zeit
bezüglich der Filtration Ft wenn:
{z ∈ Ω; τ (z) ≤ t} ∈ Ft
∀t ≥ 0
M.a.W: Die Entscheidung, zu stoppen oder nicht hängt nur von dem Verlauf
des Prozesses bis zum Zeitpunkt t ab.
Beispiel: τU := inf{t > 0; Xt ∈
/ U }, U ∈ Rn offen.
Gegenbeispiel: τU := sup{t > 0; Xt ∈
/ U}
Im folgenden werden stochastische Differentialgleichung (SDGL) der Form:
dy = f (y, t)dt + g(y, s)dωt (z),
bzw. in Integralschreibweise:
Z s
Z
y(s) = x +
f (y(s), s)ds +
t
y(t) = x
(1.1)
g(y(s), s)dωt (z)
(1.2)
s
t
auftauchen, wobei ω(z, t) eine BB ist. Um diese Gleichung zu lösen, bedient man
sich des Ito-Integrals, dass andere Merkmale hat, als das gewöhnliche RiemannIntegral. Sei g(t, z) adaptiert zur Filtration Ft .
Z
s
t
N
−1
X
¯ ¤
£
gt (z)dωt (z) = E lim
gti (z)[ωti+1 (z) − ωti (z)¯Fti 6=
∆t→0
i=1
{z
|
(∗)
N
−1
X
¯ ¤
£
E lim
gti+1 (z)[ωti+1 (z) − ωti (z)¯Fti
∆t→0
|
i=1
{z
(∗∗)
4
}
}
Um sich dies klar zu machen, betrachte (∗) und (∗∗) unter dem Erwarungswertoperator. Hierbei ist E[(∗)|Fti ] = 0 , da das Inkrement ∆ti+1 ω(z) unabhängig
ist von allen ti -InformationenRund auch damit von gti (z). Bei (∗∗) ist dies nicht
s
der Fall. Wir definieren also t gdω als das Ito-Integral. Aus:
Z s
E[
g(t, z)dωt (z)|Ft ] = 0
t
ist eine für die Finanzmathematik zentrale Eigenschaft ersichtlich:
Die Lösung der SDGL dy = gdωt (z) ist ein Martingal. Im folgenden sei
immer: dωt (z) = dω
Aus den Eigenschaften des Ito-Integrals bzw. der Brownschen Bewegung
lässt sich folgende Formel ableiten:
Satz 1.2 (1-dimensionale Ito-Formel). Sei y eine Lösung der folgenden
SDGL:
dy = udt + vdw
Sei nun G(t, y) ∈ R × [0, ∞) zweimal stetig differenzierbar. Dann ist G eine
Lösung der folgenden Differentialgleichung:
dG =
∂G
∂G
1 ∂2G
dt +
dy +
(dy)2
∂t
∂y
2 ∂t2
Wobei sich (dy)2 auflöst zu
(dy)2 = v 2 dt (sog. Ito-Isometrie)
Notation: Für Ableitungen schreibe im folgenden:
1.2
∂f
∂x
:= fx ,
∂2f
∂x2
:= fxx
Anwendungen der Ito-Formel
Log-Normalverteilte Aktienkursbewegung Sei eine SDGL der Form
dS(t, ω)
= µdt + σdω ⇐⇒ d(log(S)) = µdt + σdω
(1.3)
S
mit dem Drift-Koeffizienten µ ≡ const und der Volatilität σ ≡ const.
Mittels eines aus der Stochastik 1 bekannten Lemmas:
1
z ∼ N (µ, σ) =⇒ E[eγz ] = eγµ+ 2 γ
2 σ2
∀γ ∈ R
(1.4)
sollte man annehmen,
dass die Lösung obiger SDGL normalverteilt ist mit
√
N ((µ − 12 σ)t, σ t). Das wollen wir mit Hilfe der Ito-Formel exemplarisch
bestätigen:
Wähle G(S) := log S ⇒
∂G
1 ∂2G 2 2
S σ dτ
dS +
∂S
2 ∂S 2
1
= (µ − σ 2 )dt + σdω
µ
¶ Z t 2
Z t
S(T )
1 2
log
=
σdω
(µ − σ )dτ +
S(0)
2
0
0
dG =
1
S(t) = S(0)e(µ− 2 σ
2 )t+σω
5
t (z)
womit:
, wobei ωt (z) ∼ N (0, t)
Damit
√
1
log S(t) ∼ N (log S(0) + (µ − σ 2 )t, σ t)
2
was somit obige Vermutung bestätigt.
Man beweisst auf die selbe Art und Weise, dass die SDGL
dM = γ(t)M dw (γ(t) adaptiert) die explizite Lösung
Rt
Mt = Ms e
s
γdw−
Rt
s
γ 2 dt
(1.5)
besitzt. Kurz zur Black-Scholes-Formel: Mit den bisher gewonnenen Informationen über den Aktienkursprozess können wir auch Funktionen betrachten und z.B. den fairen Wert einer Option direkt ausrechnen: BSFormel für Call: f (ST ) := (ST − K)+
Z +∞
(z−M )2
v(S0 , 0) =
(S0 ez − K)+ e− V dz
−∞
Wobei sich M als Erwartungswert und V als die Varianz des Prozesses im
Black-Scholes-Markt ergeben. Andere Schreibweise: v(S0 , 0) = E[f (ST )|F0 ]
Man sieht leicht, dass die Lösung der ersten betrachteten SDGL (1.3)
keine Martingaleigenschaft besitzt. Jedoch besteht die Möglichkeit einen
solchen stochastischen Prozess in ein Martingal zu transformieren:
Girsanov-Theorem (angewendet auf Fall 1.3) Sei also obiger Prozess gegeben. In dieser Spezialform besagt das Theorem, dass wir ein Ft -messbares
Martingal aus S erzeugen können, wenn wir S mit einem Martingal multiplizieren. Definiere
mt = e−
Rt
s
λdω− 21
Rt
s
λ2 dτ
mit speziellem λ :=
µ
σ
Definiere nun Yt := St mt Dann ist
¸
· R
R
Rt
Rt
t
1 t 2
λ
dτ
log St
µdt+
σdω−
λdω−
s
s
2 s
E[Yt ] = E[e
mt ] = E e s
1
=(1.4) eµ(t−s)+ 2 σ
1
= e2σ
2 (t−s)+ 1 λ2 (t−s)− 1 λ2 (t−s)−σλ(t−s)
2
2
2 (t−s)
Damit besitzt Yt die Martingaleigenschaft. (Hinweis auf andere Beweismöglichkeit: Wende Ito auf dY = d(Sm) an!)
Beachte: Der Volatilitätskoeffizient (Standardabweichung) hat sich durch
diese Transformation nicht geändert: Yt ∼ N (0, σ 2 ).
Der Koeffizient λ spielt in der Finanzmathematik eine besondere Rolle:
Er wird häufig als Marktpreis des Risikos bezeichnet: Überschuss der
Drift über risikofreien Zinssatz, gemessen in Standardabweichungen (also
µ−r
σ , hier: r = 0). Im arbitragefreien (Black-Scholes) Markt haben alle
Assets den gleichen Risikopreis.
6
Die Girsanov-Transformation ist als eine Transformation von Wahrscheinlichkeitsmaßen zu verstehen: {Sτ }s≤τ ≤t ist ein Martingal zum Maß Q definiert auf der Filtration Ft mit der Transformation: dQ := MT dP
Die Transformation ändert dabei nur den Drift-Koeffizienten. Es gilt:
dω̃ = dω + λdt,
ω̃ BB zum Maß Q,
ω BB zum Maß P
(1.6)
Mit Einschränkungen kann daher gesagt werden: Die Drift bestimmt das
Maß und das Maß bestimmt die Drift!! Für eine ausfühlichere Darstellung
(Radon-Nikodyn Derivative, Girsanov-Transformation) sei an dieser Stelle
auf [5] verwiesen.
Kolmogorov-Rückwärtsgleichung und Feynman-Kac-Formel In optimalen stochastischen Steuerungsproblemen wird häufig das Problem auftreten, folgende Gleichung zu lösen:
¯ ¤
£
u(x, t) = Ey(t)=x Ψ(y(T ))¯Ft mit Ψ(x) = u(x, T )
(1.7)
wobei y die Gleichung (1.1) löst und Ψ die Auszahlung zum Zeitpunkt
T > t ist. Mittels der Ito-Formel und nachfolgender Integration folgt:
u(y(T ), T ) = u(x, t) +
Z
t
T
1
(ut + f uy + g 2 uyy )ds +
2
Z
T
guy dw
t
Unter dem Erwartungswertoperator E entfällt das letzte Integral. Somit
löst u die Ausgangsgleichung (1.7) genau dann, wenn gilt:
1
0 = ut + f (x, t)ux + g(x, t)uxx
2
(1.8)
Eine Erweiterung ist die Feynman-Kac-Formel für obiges Problem mit
Diskontierungsfaktor:
¯ ¸
· R
¯
T
u(x, t) = Ey(t)=x e− t b(y(s),s)ds Ψ(y(T ))¯¯Ft mit Ψ(x) = u(x, T ) (1.9)
Auf gleiche Weise wie oben beweist man, dass der diskontierte Payoff
folgende partielle DGL löst:
1
0 = ut + f (x, t)ux + g(x, t)uxx − b(x, t)u
2
(1.10)
Bemerkung: Der diskontierte Payoff v mit zugrundeliegendem Prozess
(1.3) ist genau die Black-Scholes DGL.
7
2
Stochastische Steuerungsprobleme
Alle im folgenden beschriebenen Probleme seien definiert auf dem gefilterten
Warscheinlichkeitsraum (Ω, Σ, P, F), F definiert wie in (1.1).Ein allgemeines
stochastisches Steuerungsproblem besteht i.a. aus den folgenden Komponenten:
Zustandsprozess y(.): Der Zustandsprozess y(.) mit Anfangsbedingung y(t) =
x wird durch eine SDGL gegeben: dy = f (t, y(t))dt + g(t, y(t)dw.
Kontrollprozess ν(.): Der Kontrollprozess ν(.) ist definiert in der Kontrollmenge U, ν(t) ∈ U . Zusätzlich zu dieser Bedingung können weitere Bedingungen den Kontrollprozess beschränken.
Zulässige Kontrollmenge A: Ein die Restriktionen erfüllender Prozess heisst
zulässig. Die Menge aller zulässigen Prozesse bezeichnen wir mit A.
Zielfunktional J(y(.), ν(.), t): Das zu minimierende/maximierende Funktional, hier sei immer additive Struktur gegeben. Damit lautet die Kostenfunktion:
¯ ¸
·Z T
¯
ν
ν
J(y, ν, t) = E
β(b(t, s))L(s, ν(s), yx,t (s))ds + β(b(T )K(yx,t (T ))¯¯Ft
t
(2.1)
β(b(t, s)) = e−
Rs
t
b(τ )dτ
Wertfunktion: Ziel ist also, die minimierende Kontrollfunktion zu finden. Damit definieren wir die Wertfunktion:
v(x, t) = min J(y, ν, t)
ν∈A
Wichtiges Merkmal: Auch wenn die Kostenfunktion J(y, ν, t) von dem Zeitpunkt
t vorausgehenden Informationen abhängt, hängt die Wertfunktion nur von der
zum Zeitpunkt (t, x) gegebenen Information ab.
Um solche Probleme zu lösen, bedient man sich des dynamischen Programmierungsprinzips. Wie im deterministischen Fall erhält man eine partielle Differentialgleichung (HJB), die es zu lösen gilt. Der so gefundene optimale Kontrollprozess ν̂(t) ist dann gegeben durch ν̃(ŷ(t)), wobei ν̃ nun eine Funktion des
optimalen Zustandprozesses ŷ ist (Optimale Feedback Kontrollfunktion).
Satz 2.1 (Dynamisches stoch. Programmierungsprinzip (DSPP)). Sei
(t, x) ∈ [0, T ) × R gegeben. Dann gilt für jede Stoppzeit τ ∈ [t, T ]:
¯ ¸
·Z τ
¯
ν
ν
β(b(t, s))L(s, ν(s), yx,t (s))ds + β(b(t, τ ))v(τ, yx,t (τ ))¯¯Ft
v(t, x) = inf E
ν∈At,x
t
(2.2)
Wenn wir T = ∞ setzen, muss der Diskontierungsfaktor existieren, damit
das Zielfunktional endlich bleibt.
Mit Hilfe der Ito-Formel, lässt sich auch die infitisemale Version, also die
HJB-Gleichung herleiten:
8
Satz 2.2 (HJB-Gleichung). Sei die Wertfunktion v zweimal stetig differenzierbar auf [0, T ) × R. Dann gilt für alle (t, x) ∈ [0, T ) × R:
·
¸
∂v
1 2
(t, x) + min − b(t)v(t, x) + f (t, x)vx + g (t, y(t))vx x + L(t, ν(t), x) = 0
ν∈A
∂t
2
(2.3)
Die grosse Einschränkung ist die Forderung nach der Differenzierbarkeit. Generell muss die Funktion v nicht glatt sein. Man bedient sich dann sogenannter
schwacher Lösungen, der Viskositätslösungen.
Die Herleitung dieser partiellen DGL aus dem DSPP (2.1) wird an folgendem Anwendungsbeispiel exemplarisch dargestellt.
3
3.1
Finanzmathematische Steuerungsprobleme
Merton: Optimale Portfolioselektion und optimaler Verbrauch
Anhand dieses ersten Beispiel soll nochmal der Zusammenhang zwischen Dynamischen Programmierungsprinzip und HJB-Gleichung deutlich werden, indem
wir das Problem explizit lösen.
Die Problemstellung: Gegeben ein Markt mit einem risikolosem Asset (Bond),
das der Zustandsgleichung:
dB = rBdt
genügt. Weiterhin existiere ein Risiko-Asset, dass die SDGL 1.3 erfülle. Sei
nun a(t) das investierte Vermögen in den Bond zur Zeit t, desweiteren b(t)
das Vermögen in der Aktie, l(t) die Transferrate vom Bondvermögen in das
Aktienvermögen, m(t) der entgegengesetzte Transfer und c(t) ≥ 0 sei die Verbrauchsrate. Es seien zunächst keine Transaktionskosten. Damit ist
da(t) = ra(t)dt + [m(t) − l(t)]dt − c(t)dt
db(t) = b(t)[µdt + σdw] + [l(t) − m(t)]dt
Das Gesamtvermögen zum Zeitpunkt t ist also: y(t) := a(t) + b(t)
Mit dem prozentualen Aktienvermögen π(t) := a(t)
y(t) ∈ R folgt:
dy(t) = dy(t) = y(t)[1 − π(t)]rdt + yπ(t)[µdt + σdw] − c(t)dt
(3.1)
Bemerkung: Die Transferraten spielen keine Rolle mehr.
Ziel des Investors ist also, den Verbrauch seines Vermögens c(t) zu optimieren mit der Endbedingung y(T ) = 0. Da er nur verbrauchen kann, solange
er Vermögen besitzt (d.h. y(t) ≥ 0 ∀t ≤ T als Zustansmenge), muss für die
zulässige Kontrollmenge gelten:
¯
©
ª
Ax = ν := (π, c)¯ν 0 ≤ π ≤ 1, c ≥ 0, s.d. yxν (t) ≥ 0 ∀t ≤ T
9
Der erwartete (abdiskontierte) Verbrauch ist gegeben durch:
£
J =E
Z
T
e−βt u(c(t))dt
t
¤
(3.2)
wobei u : [0, ∞) → R monoton steigend und konkav ist, hier sei: u(c(t)) := cγ (t)
mit 0 < γ < 1. γ wird auch Risikoprämien-Koeffizient genannt.
Damit lautet die Kostenfunktion:
Z
¯
£ τ (x)∧T −βt
¤
e c(t)γ )dt¯y(t) = x
(3.3)
v(x, t) := sup E
ν∈Ax
t
Um das Problem zu lösen, bedient man sich der Linearität der Zustansfunktion
y(.) und der damit verbundenen Vektorraumeigenschaft von A. Es gilt:
∀λ ≥ 0 : yλx (t) = λyx (s)
und damit auch
∀λ ≥ 0 : (π, c) ∈ Ax ⇔ (π, λc) ∈ Aλx
Wir wenden diese Eigenschaft auf v an und erhalten:
v(λx, t) = λγ v(x, t) ⇒ v(x, t) = v(1, t)xγ := g(t)xγ
(3.4)
Um die HJB-Gleichung herzuleiten, wenden wir nun das dynamische Programmierungsprinzip mit τ := t + h an:
Z
¯ ¤
£ τ
ν
(3.5)
v(x) = sup E
u(c(s))ds + v(τ, yx,t
(τ )) ¯Ft
{z
}
|
ν∈Ax
t
∗
Umstellen der Gleichung und Teilen durch h ergibt:
· Z τ
ν (τ )) − v(t, x) ¯ ¸
v(τ, yx,t
1
¯Ft
0 = sup E
u(c(s))ds +
h t
h
ν∈Ax
{z
}
|
(3.6)
∗
Um (∗) zu bestimmen, berechne dv mittels Ito’s Formel:
£
¤
1
dv = vt + vy [y(r + π(µ − r)) − c] + σ 2 π 2 y(t)2 vyy dt + yπσdw
2
{z
}
|
(3.7)
(∗∗)
Integration ergibt:
v(t + h) − v(t) =
Z
t+h
(∗∗)dt +
Z
t
t
10
t+h
yπσdw
(3.8)
Unter dem Erwartungswertoperator ist der Wert des letzten Integrals = 0, und
somit folgt:
Z t+h
E[v(t + h, y(t + h)] = v(t, x) +
(∗∗)dt
(3.9)
t
Einsetzen in (3.6) und h −→ 0 ergibt:
¸
· Z t+h
1
[u(c(t)) + (∗∗)]dt
0 = sup lim
ν∈Ax h→0 h t
¤
£
1
= vt + sup e−βt cγ (t) + [x(r + π(µ − r)) − c]vx + σ 2 π 2 y(t)2 vxx
2
ν∈Ax
1
= vt + rxvx + sup[π(µ − r)xvx + π 2 x2 σ 2 vxx ] + sup[−cvx + e−βt cγ (t)]
2
c≥0
π∈R
Damit folgt für die optimale Strategie
¡ (µ − r)vx vx eβt 1 ¢
ν̂(t) := (π̂(t), ĉ(t)) = − 2
,(
) γ−1
σ xvxx
γ
was sich gemäss der Eigenschaft (3.4) vereinfacht zu:
ν̂(t) =
¡ (µ − r)
1 ¢
, y(t)(eβt g(t)) γ−1
2
σ (1 − γ)
Setzen wir diese in die HJB-Gleichung ein, erhalten wir nach mehreren Umformungen:
1
dg
+ κγg + (1 − γ)g[eβt g] γ−1 = 0
dt
mit
κ=r+
(µ − r)2
2σ 2 (1 − γ)
Löse diese gewöhnliche DGL mit g(T ) = 0 mit folgender Transformation: Setze
G(t) := eβt g(t). Damit
γ
Gt + (κγ − β)G + (1 − γ)G γ−1 = 0
γ
1
Multipliziere jetzt mit (1 − γ)−1 G γ−1 . Dann folgt mit H(t) := G 1−γ :
Ht −
¡ β − κγ ¢
H +1=0
1−γ
Die Lösung dieser linearen DGL mit Randwert H(T ) = 0 ist
H(t) =
β − κγ
1
(1 − e−µ(T −t) ) µ =
µ
1−γ
Damit ist g(t) bestimmt und es folgt für v:
·
¸1−γ
β−κγ
¡
(T −t) ¢
γ
γ −βt 1 − γ
1−γ
v(x, t) = x g(t) = x e
1−e
β − κγ
11
3.2
Mertons Problem mit Transaktionskosten
Dieses Problem soll nicht explizit gelöst werden, es wird im folgenden nur auf
die signifikanten Unterschiede im Vergleich zum Ausgangsproblem eingegangen.
Wir nehmen also nun an, dass bei dem Transfer vom Aktien- in Bondvermögen
Kosten i.H.v λ ∈ (0, 1) anfallen, im umgekehrten Fall sei es µ ∈ (0, 1). Die
Gleichungen für Bond- und Risikoasset-Vermögen lauten jetzt:
da(t) = ra(t)dt − l(t)dt + (1 − µ)m(t)dt − c(t)dt
db(t) = b(t)[µdt + σdw] + (1 − λ)l(t)dt − m(t)dt
Damit fällt auf, dass die Gleichung für das Gesamtvermögen mit y(t) = a(t) +
b(t)(vgl. 3.1) nicht mehr ausreicht, um dieses erweiterte Problem zu lösen, statt
nur den Transfer ins Aktienvermögen zu steuern mittels π, muss man jetzt
auch den Transfer ins Bondvermögen steuern. Daher bedient man sich nun des
Zustandspaares y(t) := (a(t), b(t0) ∈ R2 und den Kontrollen l(t) ≥ 0, m(t) ≥
0, c(t) ≥ 0. Damit lautet das optimale Steuerungsproblem:
v(x, t) :=
sup
ν=(l,m,c)∈Ax,y
£
E
Z
0
T
¯
¤
e−βt c(t)γ )dt¯y(t) = x
Und wir definieren die Menge aller zulässigen Kontrollen ν so, dass ∀t ≥ 0 gilt:
(Xxν , Yyν ) ∈ L mit L
L = {(x, y) ∈ R2 |(1 − λ)x + y ≥ 0 und x + (1 − µ)y ≥ 0}
Auch hier wird das DSPP angewendet und man kann mit ähnlichem Lösungsansatz wie oben zumindest Bereiche für optimale Strategien festlegen (vgl. [5],
pp. 20-21).
3.3
3.3.1
Super-Replikation von Claims unter Portfoliorestriktionen
Problembeschreibung
Wir wollen eine Option am Markt begeben. Im arbitrage-Freien Markt ist der
Preis der Option über die Black-Scholes-Formel festgelegt. Arbitrage-Frei heisst,
dass der Wert der aus der Option entstehenden Forderung V (t, St ) (abhänging
von Zeit und Aktie) zu jedem Zeitpunkt der Laufzeit durch ein Bond- und
Aktienvermögen replizierbar ist - man spricht in diesem Fall auch von Hedgen
- , d.h.
dV (t, St ) = φdS + ψdB
(3.10)
Hierbei sind dS durch (1.1) und dB durch (3.1) festgelegt. Die Black-ScholesFormel legt die Gewichte φ und ψ eindeutig fest.
12
Satz 3.1 (Selbst-finanzierende Strategie). Im (arbitragefreien) Black-ScholesMarkt gilt:
φ=
∂v
∂s
Beweis. Transformation des Aktienkursprozesses in ein Martingal
(Mit Girsanov): dS = σSdω̃
Also S Martingal, v Martingal, somit mit Satz 1.1 ⇒
dv(s, t) = φdS(t)
Mittels Ito: dv(s, t) = ∂v
∂s σdω̃
Daraus folgt: φ = ∂v
∂s
Gehen wir aber nun den realitätsnäheren Fall an: Was passiert, wenn das
Hedgeportfolio bestimmten Restriktionen unterliegt, d.h. wenn z.B. nur bis zu
einem bestimmten Volumen die Aktie leerverkauft (ge-shortet) oder bis zu einer
gewissen Grenze Geld geborgt und Aktien gekauft werden können - in diesem
Fall ist der Markt nicht mehr arbitrage-frei, da bestimmte Forderungen nicht
mehr repliziert werden können.
In diesem Fall ist exakte Replikation wie im BS-Markt nicht mehr möglich.
Zunächst eine allgemeine Problemdefinition: Wir bedienen uns einer modifizierten Zustandsfunktion aus [3.1] mit c ≡ 0, π(t) := a(t)
y(t) .
dy(t) = y(t)[r + π(t)(µ − r)dt + π(t)σdw]
(3.11)
Ausserdem sei St,s (.) die Lösung von (1.1) mit St,s (t) = s.
Das optimale Steürungsproblem lautet:
Gegeben eine Funktion G : R −→ R, T Laufzeitende und das Restriktionsintervall K := [−a, b] (-a Leerverkaufsgrenze, b Leigrenze), suchen wir nach:
π
v̄(t, s) := inf{x|∃π(.) adaptiert, π(t) ∈ K und yt,x
(T ) ≥ G(St,s (T ))}
(3.12)
Dem Verkäufer des Claims will also den niedrigsten Preis finden, der es ihm
erlaubt, in diesem unvollständigen Markt den Claim zu super-replizieren, d.h.
das Portfolio so zu managen, dass am Laufzeitende sein Portfoliowert grösser
ist als der Wert des Claims.
Für den Käufer eines Claims sieht die Sache natürlich anders aus. Sein
oberstes Ziel ist sicherlich, ebenfalls Arbitrage-Möglichkeiten auszunutzen. Das
kann er nur erreichen, wenn zum Laufzeitende mit Anfangsvermögen -z gilt:
π
(T ) + G(St,s (T ) ≥ 0
yt,-z
π (T ) = −y π (T ). Somit sucht der Käufer die PreiMan sieht leicht, dass: yt,-z
t,z
sobergrenze, mit der noch Arbitrage möglich ist:
π
v(t, s) := sup{x|∃π(.) adaptiert, π(t) ∈ K und G(St,s (T )) ≥ yt,x
(T )} (3.13)
In diesem unvollständigen Markt gibt es nun statt einem arbitragefreien
Preis ein arbitragefreies Preisintervall:
[v, v̄]
13
Bemerkung: Der Käufer erzielt also Arbitrage, wenn der Preis des Claims v(t, s) ≤
v ist, der Verkäufer hingegen, wenn er für den Claim einen Preis v̂(t, s) ≥ v
erhält.
3.3.2
Viskositätslösung des Problems
Eine explizite Lösung des Problems werden wir nur für den Verkäufer des Claims
berechnen. Zunächst sei angemerkt, dass man dieses Problem auch ohne Viskositätslösung lösen kann, indem man es in die Form des Ausgangsproblem
geschickt transformiert. Jedoch ist dieses Vorgehen nicht immer anwendbar,
und stösst an seine Grenzen (An dieser Stelle sei auf das Problem der GammaRestriktionen verwiesen).
Hier soll das Problem (3.12) jedoch direkt gelöst werden.
Satz 3.2 (HJB). Die minimalen super-replizierenden Kosten v sind eine Viskositätslösung der folgenden HJB-Gleichung:
min{−
∂v 1 2 2
− s σ vs s − rsvs + rv
∂t
2
,
bv − svs
,
svs + av} = 0 (3.14)
mit v(T, s) = G(s).
Weiterhin gilt: Gegeben der modifizierte Claim Ĝ = inf{h(s)} mit h:
(i) Ĝ ≥ G(s)
(ii) −a ≤
sĜs (s)
Ĝ(s)
∀s ≥ 0
≤b
∀s ≥ 0
Im speziellen:
bv(t, s) − svs (t, s) ≥ 0,
Dann:
Bemerkung 3.1.
av(t, s) + svs (t, s) ≥ 0,
∀s > 0, t < T
¯ ¤
£
v(t, s) = IE Ĝ(St,s (T ))¯Ft
(3.15)
(i) Die Eigenschaft (3.15) bedeutet, dass v also der Black-Scholes-Preis des
modifizierten Claims Ĝ ist. Wir müssen daher nur Ĝ bestimmen, und
können damit den super-replizierenden Preis v auf dem gleichen Weg wie
den BS-Preis errechnen.
(ii) Wenn wir K := R (somit a = b = ∞) setzen, ist die HJB-Gleichung
genau die Black-Scholes-DGL:
−
∂v 1 2 2
− s σ vs s − rsvs + rv = 0
∂t
2
(3.16)
Es sei hier noch kurz auf eine Lösungsvariante der BS-PDGL beschrieben(vgl. hierzu auch [5], pp. 76-79):
Mit geschickter Transformation erhält man die partielle DGL:
∂u ∂ 2 u
− 2 = 0 ( auch bekannt als: Kolmogorov-Forwärts-Gleichung)
∂τ
∂x
14
Diese Gleichung kann explizit gelöst werden, und man erhält die bekannte
Black-Scholes-Formel:
v(s, t) = sN (d1 ) − Ke−r(T −t) N (d2 )
Beweis von Satz 3.2. Für den genauen Beweis sei auf [5], pp. 30-33 verwiesen.
Hier soll der Beweis nur skizziert werden.
1. Super-Lösung
Zu zeigen ist, dass v eine Viskositäts-Super-Lösung von:
F (t, s, v, vs , vs s, vt ) = min{−
∂v 1 2 2
− s σ vs s−rsvs +rv, bv−svs , svs +av} ≥ 0
∂t 2
(3.17)
ist.
Sei G ≥ 0 und
v∗ (t0 , s0 ) − ϕ(t0 , s0 ) = 0 ≤ (v∗ − ϕ)(t, s)
∀(t, s)
Wähle tn , sn , zn so, dass
(tn , sn ) → (t0 , s0 )
v(tn , sn ) → v(t0 , s0 )
,
v(tn , sn ) ≤ zn ≤ ϕ(tn , sn ) +
und
1
n2
Wir wenden nun das Dynamische Programmierungsprinzip mit Stopp-Zeit
tn + n1 auf (3.12) an : ∃π n ∈ A, s.d.
y n (tn +
1
1
1
) ≥ v(tn + , S n (tn + ) , wobei
n
n
n
y n := ytπnn,xn , S n := Stn ,sn
Weil gilt: v ≥ v∗ ≥ ϕ, folgt:
y n (tn +
1
1
1
) ≥ ϕ(tn + , S n (tn + )
n
n
n
Diese Ungleichung wird nun mittels der Ito-Formel aufgelöst. Mittels einer
weiteren Girsanov-Transformation erhalten wir unter dem Erwartungswertoperator :
0 ≤ cn +
=⇒unter Erwartungswert E
mit
Z
1
tn + n
an (u)du +
tn
£
0 ≤ cn + E
Z
1
tn + n
bn (u)dw
tn
Z
1
tn + n
tn
(an (p) − b2n (p))dp
¤
1
an (p) := −(ϕt + σ 2 s2 ϕss )(p, S n (p))
2
bn (p) := σ[π n (p)Z n (p) − ϕs (p, S n (p))S n (p)]
1
cn := zn − ϕ(tn , sn ) ∈ [0, 2 ]
n
15
∀n
(3.18)
Lassen wir n → ∞ gehen, dann erhalten wir aus (3.18) die folgenden drei
gewünschten Ungleichungen:
1
−(ϕt − σ 2 s2 ϕss ) ≥ 0
2
bv∗ (t0 , s0 ) + av∗ (t0 , s0 ) ≥ 0
s0 ϕs (t0 , s0 ) + av∗ (t0 , s0 ) ≥ 0
(3.19)
(3.20)
(3.21)
q.e.d.
2. Sub-Lösung
Verweis auf [5], pp. 32,33
Beweis der Eigenschaft (3.15). Setze:
u(t, s) := E[Ĝ(St,s (T ))|Ft ]
Dann folgt mittels der Kolmogorov-Gleichung (1.7)
1
ut = − σ 2 s2 vs s ∀t < T,
2
s > 0 , v(T, s) = u(s, T ) = Ĝ(s)
Wir setzen jetzt
w(t, s) := bu(t, s) − svs (t, s)
Daraus folgt
1
wt = − σ 2 s2 wss
2
(Also löst w auch die Kolmogorov-DGL!) Somit:
w(t, s) := E[w(τ, s)|Ft ] ≥ 0 ∀τ ≤ T
Analog für:
au(t, x) + svs (t, s) ≥ 0 =⇒ u löst HJB-Gleichung mit v(T, s) = u(s, T ) =⇒ u = v
Ein konkretes Beispiel: Berechung des modifizierten Claims Ĝ für einen Call
Wir betrachten eine simple Call-Option mit Strike-Preis E: G(s) = (s − E)+
und Restriktionsintervall K = (−∞, b], b > 1. Die short-sell-Grenze spielt
keine Rolle, da Leerverkäufe keinen Sinn machen. Dann gilt für Ĝ:
Ĝ(s) ≥ (E − s)+
bĜ(s) − sĜs (s) ≥ 0
16
Integriere die zweite Ungleichung und erhalte
Ĝ(s0 ) ≤
¡ s0 ¢b
Ĝ(s1 )
s1
∀s0 ≥ s1 ≥ 0
Diese Ungleichung gelte nun auf dem Intervall [0, s∗ ]. Dann
∃s∗ mit Ĝ(s) =
¡ s ¢b
Ĝ(s∗ )
s∗
∀s ≤ s∗
Setze nun Ĝ(s) = G(s) für s ≥ s∗ . Daraus ergibt sich der folgende Claim:
(
(s − E)+
Ĝ(s) = h(s) := ¡ s ¢b
s∗ (s∗ − E)
s ≥ s∗
s < s∗
Dabei ist s∗ > E. Verlange, dass h stetig differenzierbar an s∗ , und bestimme
damit explizit s∗ :
hs (s∗ ) = Gs (s∗ ) =! 1 =⇒ s∗ =
Eb
b−1
Parameter: K = 5, b = ∞, 6, 5, 4
b = 1.5
b=2
b=6
Satz 3.3 (Spezialfall Black-Scholes). Sei a = b = ∞, m.a.W. K = R. Dann
gilt: Das arbitrage-freie Preisintervall ist genau die einpunktige Menge vBS =
Der Black-Scholes-Preis
Beweis. Stichwortartig:
• y(.) ist Martingal nach Girsanov-Transformation
¯ ¤
¯ ¤
£
£
• DSPP:∃π̂ ∈ A mit x := E yxπ̂ (s(T ), T )¯Ft ≥ E G(S(T ))¯Ft := x0
• Behauptung: Es gilt Gleichheit!
¯ ¤
£
• Setze: Z(u) := E G(S(T ))¯Fu
17
¯ ¤ Ru
£
• Martingal-Repräsentation: ∃π̂ mit Z(u) = E G(S(T ))¯Ft + t πσydω
• Damit: Z(.) = yxπ̂0 (.)
• =⇒ v(t, s) ≥ x0 , Aber: v per Definition minimales Startkapital
¯ ¤
£
• =⇒ v = x0 = E G(S(T ))¯Ft := vBS
• Gleiches beweist man für den Käufer!
• Damit existiert das 1-Punktintervall = vBS !
18
4
Optimale Stop-Probleme in der Finanzmathematik
Bei Dieser speziellen Klasse optimaler stochastischer Steuerungsprobleme wird
nach der optimalen Stopp-zeit gesucht. Man kann sagen, dass hier die Entscheidung, wann zu stoppen, die optimale Kontrollfunktion ist. Diese Entscheidung
basiert natürlich wieder nur auf dem Informationsverlauf bis zum jetzigen Zeitpunkt (vgl. Definition 1.3).
Grundsätzlich haben solche Probleme die Form
u(x, t) = sup Ey(x)=t [e−r(τ −t) Φ(y(τ ))] mit t ≤ τ ≤ T
(4.1)
τ
Im folgenden sei zunächst ein einfacherer Fall betrachtet.
4.1
Zeitunabhängige Stop-Probleme (T = ∞)
Im folgenden betrachten wollen wir das (einfachere) Problem der Form:
u(x) = sup E[e−τ Φ(y(τ ))]
(4.2)
τ
lösen. Lösungsansatz
(hier für den Fall einer Brownschen Bewegung dy = dω,
y(t) = x)
1. Unterteilung der x-Achse:
Stop-Jetzt-Bereich (SJ):
u(x) = Φ(x) mit τ = 0
1
uxx − u = 0
2
Stop-Später-Bereich (SS):
Hierbei ist die partielle DGL analog zu der Feynman-Kac-Formel (1.9),
Φ(x) bezeichnen wir als freien Randwert. Das Supremum wird bei der
optimalen Stoppzeit
τ̂ = inf {t ≤ s ≤ T,
s
u(xs ) = Φ(xs )}
erreicht.
2. Bedingungen an den freien Randwert Wir wissen, dass gilt:
u(x) ≥ Φ(x)
−(τ )
Damit auch
u(x) ≥ E[e
∀x
Φ(y(τ ))]
1
0 ≤ uxx − u
2
(4.3)
∀τ
(4.4)
(4.5)
Diese Bedingungen bestimmen den Ort der freien Grenze, die die StopJetzt von dem Stop-Später-Bereich trennt. Es ist desweiteren nützlich zu
wissen, dass im Stop-Jetzt-Bereich gilt
1
0 ≤ Φxx − Φ
2
(4.6)
3. Differenzierbarkeitsbedingung Am freien Randwert muss die Funktion
u stetig differenzierbar sein.
19
4.1.1
Anwendung: Optimaler Verkaufszeitpunkt eines Assets
Sicherlich ein Problem eines jeden Investors: ”Zu welchem Zeitpunkt verkaufe ich meine Aktie, und erziele dabei maximalen Gewinn?”. Auch hier starten
wir wieder mit unserem lognormal-verteilten Kursverlauf (1.3) des Assets. Problemformulierung (zur Einfachheit sei der Start t = 0):
u(x) = sup Ey(0)=x [e−rτ Φ(τ )] mit Φ(t) = y(t) − a
(4.7)
τ
(a Seien die Transaktionskosten bei Verkauf, r der risiko-freie Zinssatz).
Zunächst seien hier drei Fälle unterschieden:
µ > r: Mit der Formel (1.4) ist offensichtlich, dass u(x) = ∞. Auch vom wirtschaflichen Gesichtspunkt ist das einfach u erklären: Ist der erwartete
Return für das Risiko-Asset immer grösser als der risiko-freie Zinssatz,
macht es keinen Sinn, das Asset zu verkaufen!
µ = r: Mit (1.4) beweisst man, dass
¤
£
1 2
1 2
u(x) = sup e−rt [y(0)ert− 2 σ t+ 2 σ t − a] = sup[x − ae−rt ] = x
t
t
µ < r: Dieser Fall ist der einzig nicht-triviale, und soll im folgenden gelöst werden.
Im Stop-Jetzt-Bereich gilt: u(x) = x, im Stop-Später-Bereich löst u die gewöhnliche lineare DGL (mittels Feynman-Kac (1.9)):
1 2 2
σ x uxx + µxux − ru = 0
2
(4.8)
mit freiem Randwert u(x) = x − a. Die DGL ist einfach zu lösen, man erhält:
φ(x) = c1 xγ1 + c2 xγ2
mit
1 £1
γi = 2 σ 2 − µ ±
σ 2
r
¤
1
(µ − σ 2 )2 + 2rσ 2
2
Aus γ2 < 0 muss aus der Begrenztheit von u(x) für x → 0 gelten: γ2 = 0. Aus
der Randwertbedingung x = h mit h als optimalem Verkaufsgrenzwert folgt:
c1 = hγ1 (h − a)
(
(h − a)( hx )γ1
u(x) =
x−a
wenn
wenn
x<h
x>h
Mittels einfacher Rechnung folgt für den optimalen Verkaufsgrenzwert:
ĥ =
aγ1
mit γ1 > 1 weil µ < r
γ1 − 1
20
Bemerkung 4.1. Wir haben also das Problem des optimalen Zeitpunktes auf
ein Problem des optimalen Verkaufswertes transformiert.
Leicht nachzuprüfen ist die Differenzierbarkeitsbedingung: Für das optimierte ĥ, ist die (optimierte) Funktion û(x) stetig differenzierbar an der Stelle ĥ:
ûx (ĥ) = 1 ; für andere h gilt dies nicht (vgl. Graphik).
Bemerkung 4.2. Es ist also eqivalent:
∂u(x, h)
∂u(x, h)
∂Φ(x)
= 0 ⇐⇒
=
∂h
∂x
∂x
Leicht beweisst man durch Einsetzen von û in (4.4) unter Anwendung von
Ito, dass u optimal ist für alle Stopzeiten τ .
4.2
Zeitabhängige Stop-Probleme
Wie oben schon angedeuted lässt sich folgendes Problem
u(x, t) = sup E[e−r(τ −t) Φ(y(τ ))]
(4.9)
τ ≤T
nicht so einfach lösen wie das vorhergende.
4.3
4.3.1
Optimales Stoppen bei amerikanischen Optionen
Preis einer amerikanischen Option als optimales Stop-Problem
Eine amerikanische Option - im Gegenteil zur europäischen - kann zu jeder
Zeit τ < T , T Laufzeitende, ausgeübt werden. Es soll zunächst gezeigt werden,
dass das Problem des Pricings eines amerikanischen Claims genau ein optimales
Steuerungsproblem ist
Sei im folgenden der Payoff zum Zeitpunkt T mit Φ(T ) bezeichnet. Das Problem ist dem aus Abschnitt (3.3) sehr ähnlich, hier jedoch ohne Restriktionen:
(verwende Bezeichnungen wie im Abschnitt (3.3))
Ziel des Käufers: Finde die Stopzeit τ ≤ T , so dass
π
Φ(Sτ,s (τ )) + yt,−x
(τ ) ≥ 0
Damit ist er bereit, folgenden maximalen Preis für die Option zu bezahlen:
©
ª
π
pK := sup x, ∃τ ≤ T und π ∈ R, s.d. yt,−x
(τ ) ≥ −Φ(Sτ,s (τ ))
Das Portfolio mit Anfangswert z des Verkäufers muss daher zu jedem Zeitpunkt
t ≤ T den Claim superreplizieren:
π
(t) ≥ Φ(St,s (t))
yt,z
∀t ≤ T
Damit gilt für den minimalen Preis des Verkäufers:
©
ª
π
pV K := inf z, ∃π ∈ R, s.d. ∀t ≤ T : yt,z
(t) ≥ Φ(St,s (t))
21
Zum Option-Pricing wendet man eine Girsanov-Transformation an, um die Drift
µ durch r zu ersetzen, man transformiert sozusagen in ein risiko-neutrales Maß
Q. Es kann gezeigt werden, dass unter Q im Zeitintervall [0, T ] gilt:
£
¤
pK ≤ sup EQ e−rτ Φ(τ ) ≤ pV K
(4.10)
τ ≤T
Im arbitragefreien Markt gilt Gleicheit:
£
¤
EQ e−rτ Φ(τ ) = pK = pV K
(4.11)
Zum Beweis sei auf [5], pp. 291 - 294 verwiesen.
4.3.2
Amerikanischer Call: (s − E)+
Behauptung: Der Wert eines amerikanischen Calls entspricht genau dem BlackScholes-Preis eines europäischen Calls.
Die Begründung ist einfach erfolgt durch ein Arbitrage-Argument. Vergleiche
die zwei Fälle:
1) Der Käufer übt die Option zum Zeitpunkt t < T aus. Dann bezahlt den
Preis der Aktie E an den Käufer.
2) Der Käufer verkauft die Option zum Zeitpunkt t < T .
Damit erziehlt der Käufer im Fall 2 einen Mehrgewinn von K−Ke−r(T −t) . Somit
macht es keinen Sinn, die Option vor Laufzeitende auszuüben, und daher erfolgt
die Bewertung analog zur europäischen Option.
4.3.3
Optimaler Ausübungszeitpunkt beim amerikanischen Put mit
unbegrenzter Laufzeit
Auch hier suchen wir nach dem optimalen Zeitpunkt. Hierbei bedienen wir
uns des in Abschnitt 4.7 geschilderten Problems, da es sich hier nur um einen
anderen Payoff handelt:
¤
£
u(x) = max Ey(0)=x e−rτ (K − y(τ ))+
τ
Im Risiko-neutralen Maß:
dy = rydt + σydω
Die Lösung sei nur kurz dargestellt:
(1) Der freie Randwert lautet jetzt uh (x) = (K − x)+ , mit h Ausübungsgrenze:
Übe aus, wenn Preis y < h. Klar ist, dass h < K.
22
(2) Mittels Feynman-Kac ergibt sich folgende DGL für den erwarteten Wert
uh . Es gilt ∀x > h:
1
−ru + rxux + σ 2 x2 uxx = 0
2
und ∀x ≤ h:
u(x) = (K − x)
Die Lösung errechnet sich wie in Abschnitt 4.7 mit µ = r, damit: γ2 =
−2r
, c1 = 0, da uh → 0, wenn x → ∞. Mit der Randwertbedingung ergibt
σ2
sich c2 und somit, da h < K:
(
¡ ¢γ
(K − h) hx 2 wenn x > h
u(x) =
(K − x)
wenn x < h
(3) Aus Arbitrage-Gründen muss an der Stelle h gelten ux (h) = −1 (Wäre z.B.
ux (h) < −1, dann wäre u(h) < K − h, Wid.) Es folgt daraus für h∗ :
h∗ =
Kγ2
K
=
2 ≤ K
1 + γ2
1 + σ2r
Desweiteren gelten für v := û folgende Ungleichungen:
v(x) ≥ (K − x)+ ∀x ≤ 0
1
−rv + rxvx + σ 2 x2 vxx ≤ 0
2
Parameter: σ = 0.2 r = 0.03 K = 5
h=2
h = 3 optimal
h = 4.5
23
(4.12)
(4.13)
4.3.4
Amerikanischer Put mit begrenzter Laufzeit
Stichwortartige Zusammenfassung:
• Wertfunktion u(x, t) = supτ ≤T Ey(x)=t [e−r(τ −t) Φ(y(τ ))]
• Unterschiede zu vorher:
• u ist abhängig vom Startwert x und Startzeit t
• Ausübungsgrenze h = h(t): Übe aus, wenn x < h(t)
• Optimiere nun über alle Funktionen (”Randwerte”) h(t)
• Bewertung des Puts als Freies Randwertproblem:
• u(x, t) ≥ Φ(y(t))
∀x, ∀t
• u(x, t) = Φ(y(τ )) wenn 0 < x < h(t)
• vt − ru + rxux + 12 σ 2 x2 uxx = 0 wenn x > h(t)
• v einmal stetig diffbar an x = h(t)
• Numerische Lösung erforderlich (Lineares Komplementaritätsproblem)
24
5
Literaturverzeichnis
1 Robert V. Kohn, Skript zum Kurs: ”PDE for Finance” (Sections 5,6,7) New
York University, New York, Spring Term 2003
2 Bernt Øksendal, ”Stochastic Differential Equations, An Introduction with
Applications” 6th Edition, Springer 2003
3 P.Wilmott, S. Howison, J. Dewynne: ”The Mathematics of Financial Derivatives, A Student Introduction”, Cambridge University Press, 8th edition,
2002
4 M. Baxter, A. Rennie: ”Financial Calculus, An Introduction to Derivative
Pricing”, Cambridge University Press, 8th edition, 2002
5 H. Mete Soner: ”Stochastic Optimal Control in Finance”, Koç University,
Istanbul, 2004
6 Nizar Touzi: ”Stochastic Control Problems, Viscosity Solutions and Applications to Finance”, Crest, Paris, 2002
25
Zugehörige Unterlagen
Herunterladen