Numerik von PDEs - Bepreisung von amerikanischen Optionen

Werbung
Numerik von PDEs - Bepreisung von amerikanischen
Optionen
Andreas Peterseil
29. Februar 2012
Inhaltsverzeichnis
1 Black-Scholes-Gleichung
1.1 Begriffsbildungen und Sätze . . . . . . . . . . . . . . . . .
1.2 Europäische Call- und Put Optionen . . . . . . . . . . . .
1.2.1 Herleitung der Black-Scholes-Gleichung . . . . . .
1.2.2 Randbedingungen für die Black-Scholes-Gleichung
1.3 Preisprozesse der amerikanischen Call/Put-Option . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
3
5
6
7
7
2 Numerische Verfahren zur Lösung der Black-Scholes-Gleichung
2.1 Äquivalenz zur Wärmeleitungsgleichung . . . . . . . . . . . . . . .
2.2 Grundlagen von Differenzenverfahren . . . . . . . . . . . . . . . . .
2.3 Diskretisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.1 Explizites Verfahren . . . . . . . . . . . . . . . . . . . . . .
2.3.2 Implizite Verfahren . . . . . . . . . . . . . . . . . . . . . . .
2.4 Konsistenz und Stabilität . . . . . . . . . . . . . . . . . . . . . . .
2.4.1 Konsistenz . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.2 Stabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5 Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
10
10
12
13
14
14
15
15
16
19
3 Numerische Berechnung des Preises für amerikanische Optionen
3.1 Das Hindernisproblem . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.1 Diskretisierung des Hindernisproblems . . . . . . . . . . . . .
3.2 Berechnung amerikanischer Optionen . . . . . . . . . . . . . . . . . .
3.2.1 Finite Differenzen Verfahren . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
21
21
24
24
25
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Abkürzungen
Auf einem filtriertem Wahrscheinlichkeitsraum (Ω, F, (Ft )t≥0 , P) seien:
• P = {(Xt )t≥0 : (Xt )t≥0 ist ein progressiv messbarer stochastischer Prozess}
R
• LT = {X ∈ P : [0,T ] |Xs (ω)| dλ(s) < ∞ f.s.}
R
2
• Ploc
[0, T ] = {X ∈ P : [0,T ] |Xs (ω)|2 dλ(s) < ∞ f.s.}
Es sei nun S ein Ito-Prozess mit Driftkoeffizient µ und Diffusionskoeffizient σ.
R
R
• MT (S) = {X ∈ P : [0,T ] |Xs (ω)µ(s, ω)| dλ(s) < ∞ , [0,T ] |Xs (ω)σ(s, ω)|2 dλ(s) < ∞
2
f.s.}
Kapitel 1
Black-Scholes-Gleichung
1.1
Begriffsbildungen und Sätze
Zuerst definieren wir einige Begriffe, die in dieser Seminararbeit benötigt werden. Zunächst sei an ein
paar Begriffe aus der Vorlesung Einführung in Stochastische Prozesse erinnert. Im weiteren Verlauf sei
(Ω, F, (Ft )t≥0 , P) ein filtrierter Wahrscheinlichkeitsraum, wobei (Ft )t≥0 eine vollständige, rechtsstetige
Filtrierung bezüglich einer Brownschen Bewegung (Wt )t≥0 darauf ist.
1.1.1 Definition. Es sei ξ(t)t≥0 ein stochastischer Prozess. Dann heißt ξ(t)t≥0 Ito-Prozess, wenn
2
a ∈ LT und b ∈ Ploc
[0, T ] ∀T > 0 existieren, sodass
ξ(t) = ξ(0) +
Z
t
a(s) ds +
0
Z
t
b(s) dW (s)
f.s.
(1.1)
0
∀t ≥ 0 gilt. Dabei heißen a und b Ito-Koeffizienten von ξ. Genauer ist a der Driftkoeffizient von ξ
und b der Diffusionskoeffizient von ξ.
Eine Beziehung in der Form von (1.1) wird im Folgenden kurz durch
dξ(t) = a(t)dt + b(t)dW (t)
ausgedrückt.
1.1.2 Satz (Ito-Formel). Es sei ξ(t) ein Ito-Prozess, mit Driftkoeffizient a und Diffusionskoeffizient
b. Weiters sei F (t, x) : R+ × R → R eine Funktion mit stetigen partiellen Ableitungen Ft , Fx und
Fxx . Dann ist auch F (t, ξ(t))t≥0 ein Ito Prozess und es gilt
dF (t, ξ(t)) =
1
Ft (t, ξ(t)) + a(t)Fx (t, ξ(t)) + Fxx (t, ξ(t))b(t)2 dt + Fx (t, ξ(t))b(t)dW (t). (1.2)
2
Weiters werden wir auch noch einige finanzmathematische Begriffe benötigen.
1.1.3 Definition. S(t)t∈[0,T ] sei ein N -dimensionaler adaptierter stochastischer Prozess auf dem
eingangs erwähnten filtriertem Wahrscheinlichkeitsraum.
3
1. Ein N -dimensionaler, bezüglich (Ft )t∈[0,T ] adaptierter stochastischer Prozess H(t)t∈[0,T ] heißt
Handelsstrategie.
2. Der Portfoliowert V H (t)t∈[0,T ] zur Handelsstrategie H(t)t∈[0,T ] is definiert durch
N
X
V H (t) =
Hj (t)Sj (t)
(1.3)
j=1
3. Es sei zusätzlich (Stj )t≥0 ein Ito-Prozess mit Driftkoeffizientem µj und Diffusionskoeffizientem
σj . Die Handelsstrategie H(t)t∈[0,T ] heißt selbstfinanzierend wenn Hj ∈ MT (S j ) und die
Gleichung
N
X
dV H (t) =
Hj (t)dS j (t)
(1.4)
j=1
erfüllt ist.
Gleichung (1.4) bedeutet, dass
V H (t) = V H (0) +
N Z
X
j=1
t
Hj (s)µj (s)ds +
0
Z
t
Hj (s)σj (s)dW (s)
0
gilt.
Grundlegend ist das Konzept der Arbitragefreiheit, welches durch folgende Definition spezifiziert wird.
1.1.4 Definition. Eine
gemöglichkeit wenn
selbstfinanzierende
Handelsstratgie
H(t)t∈[0,T ]
heißt
Arbitra-
• V H (0) = 0
• V H (T ) ≥ 0 f.s.
• P(V H (T ) > 0) > 0
gilt. Ein Markt S(t)t∈[0,T ] heißt arbitragefrei, wenn es keine Arbitragemöglichkeit gibt.
Im folgenden ist S(t)t≥0 ein eindimensionaler adaptierter Prozess. Die Grundlage dieser Seminararbeit
bildet die Annahme, dass die Aktienkursentwicklung in der Zeit einer geometrischen Brownschen Bewegung folgt. Genauer gesagt basieren unsere Überlegungen darauf, dass der Aktienkursverlauf S(t) (t ≥ 0)
Lösung der stochastischen Differentialgleichung
dS(t) = µS(t)dt + σS(t)dW (t)
(1.5)
ist.
Dabei ist (1.5) eine Kurzschreibweise für
S(t) = S(0) +
Z
t
µS(s) ds +
0
Z
t
σS(s)dW (s)
0
Die Lösung für den Anfangswert S0 der stochastischen Differentialgleichung in (1.5) ist gegeben durch
S(t) = S0 e
2
µ− σ2
t+σW (t)
(1.6)
4
wie sich leicht mit Hilfe der Ito-Formel (die Ito-Koeffizienten von W (t)t≥0 sind offensichtlich) verifizieren
lässt.
Weiters sei neben dem Aktienpreis mit Preisprozess S(t)t≥0 ein risikoloses Asset mit Preisprozess B(t)t≥0 ,
charakterisiert durch
dB(t) = r(t)B(t)dt
(1.7)
gegeben. Dieses kann zum Beispiel als Bankkontoeinheit interpretiert werden.
Die nächste Folgerung (siehe [B, 97]) aus der Arbitragefreiheit eines Marktes werden wir für die Herleitung
der Black-Scholes Gleichung brauchen.
1.1.5 Satz. Es sei k(t)t∈[0,T ] ein adaptierter Prozess und H(t)t∈[0,T ] eine selbstfinanzierende Handelsstrategie, sodass für den Portfoliowert V H gilt
dV H (t) = k(t)V H (t)dt
(1.8)
Dann muss k(t) = r(t) für alle t gelten oder es gibt eine Arbitragemöglichkeit.
Nun können wir uns mit der Herleitung der sogenannten Black-Scholes-Gleichung, welche eine partielle
Differentialgleichung darstellt, beschäftigen.
1.2
Europäische Call- und Put Optionen
1.2.1 Definition. Eine europäische Kaufoption (European call option), mit Ausübungspreis
(strike price) K und mit Fälligkeit T (∈ R+ ) (maturity), auf das zugrunde liegende Wertpapier
St≥0 , ist ein Vertrag, der dem Käufer das Recht, aber nicht die Pflicht, gibt das Wertpapier S zum
Zeitpunkt T zum Preis K zu kaufen.
Die europäische Kaufoption ist also zum Zeitpunkt T genau dann etwas wert, wenn der Aktienpreis
ST zum Zeitpunkt T größer ist als der Ausübungspreis K. In diesem Fall beträgt der Wert genau die
Differenz ST − K. Im anderen Fall, also St ≤ K, ist die Option wertlos, da ja nicht ausgeübt werden
muss. Insgesamt beträgt also die Auszahlung zum Zeitpunk T genau (ST − K)+ := max{ST − K, 0}.
1.2.2 Definition. Eine europäische Verkaufsoption (European put option), mit
Ausübungspreis (strike price) K und mit Fälligkeit T (∈ R+ ) (maturity), auf das zugrunde liegende Wertpapier St≥0 ist ein Vertrag, der dem Käufer das Recht, aber nicht die Pflicht, gibt das
Wertpapier S zum Zeitpunkt T zum Preis K zu verkaufen.
Analog zur europäischen Kaufoption erhalten wir für die Auszahlung einer Europäischen Verkaufsoption
zum Zeitpunkt T genau (K − ST )+ .
Wir wollen nun eine partielle Differentialgleichung (PDE), nämlich die Black-Scholes Gleichung, für den
arbitragefreien Preisprozess einer europäischen Call- und Put-Option im, durch die jederzeit handelbare
Option, erweiterten Finanzmarktmodell herleiten. Zusammenfassend stellen wir folgende Grundannahmen an den Markt (siehe [GJ, 52/53]):
• Der Markt ist arbitragefrei.
• Der Wertpapierpreisprozess wird durch (1.5) beschrieben.
• Die Zinsrate r(t), siehe (1.7), ist konstant. Also r(t) = r ∈ R. Diese Zinsrate gilt sowohl für
Geldeinlagen als auch für Kredite.
5
• Es erfolgen keine Dividendenzahlungen auf den Basiswert.
• Der Markt ist friktionslos (keine Transaktionskosten, Gebühren, usw.) und liquide.
• Der Basiswert kann kontinuierlich gehandelt werden, ist beliebig teilbar und auch Leerverkäufe
sind erlaubt.
• Alle betrachteten stochastischen Prozesse sind stetig.
1.2.1
Herleitung der Black-Scholes-Gleichung
Wir gehen bei der Herleitung wie in [D, 46 ff] vor. Es sei nun F (t, S) die Auszahlung einer Option
abhängig vom Zeitpunkt t und vom Aktienpreis zum Zeitpunkt t. Setzen wir für F (t, S) voraus, dass es
die Voraussetzungen der Ito-Formel erfüllt, erhalten wir mit Hilfe von (1.2)
dF =
∂F
1
∂2F
∂F
+ µS
+ σ2 S 2 2
∂t
∂S
2
∂S
dt + σS
∂F
dW.
∂S
(1.9)
Nun definieren wir eine Handelsstrategie (HB , HS , HV ) im erweiterten Finanzmarktmodell (Bt≥0 , St≥0 , Ft≥0 )
durch
HB (t), HS (t), HF (t) :=
∂F (t, S(t))
, −1 ,
β(t),
∂S
(1.10)
wobei mit β(t) erreicht werden soll, dass diese Handelsstrategie selbstfinanzierend wird.
Mit dieser selbstfinanzierenden Handelsstrategie erhalten wir für den Portfoliowert V H (t)
dV H (t) = −dV (t, S(t)) +
∂F (t, S(t))
dS(t) + β(t)dB(t)
∂S
(1.11)
Mit Hilfe von (1.9),(1.5) und (1.7) erhalten wir somit
∂F
∂F
∂F
∂F
∂2F
∂F
1
+ µS
−
µS + σ 2 S 2 2 − βrB dt + −σS
+ σS
dW =
∂t
∂S
∂S
∂S
| ∂S {z ∂S } 2
|
{z
}
dV H = −
=−
=0
=0
∂F
∂F
1 2 2 ∂2F
1
1 2 2 ∂2F
+ σ S
− βrB dt = − H
+ σ S
− βrB V H (t)dt
∂t
2
∂S 2
V (t) ∂t
2
∂S 2
Also fällt für V H insbesondere der Diffusionsterm weg. Weiters lässt sich nun aufgrund der vorausgesetzten Arbitragefreiheit Satz 1.1.6 anwenden und wir erhalten, wegen der vorausgesetzten konstanten
Zinsrate r
V Hr = −
1
∂2F
∂F
+ σ 2 S 2 2 − βrB .
∂t
2
∂S
(1.12)
Andererseits erhalten wir für V H r nach Definition von V H
V H r = −rF + r
∂F
S + rβB.
∂S
(1.13)
Durch Kombination von (1.12) und (1.13) erhalten wir für F die Black Scholes Gleichung
1
∂F
∂2F
∂F
(t, S) + σ 2 S 2 2 (t, S) + r
(t, S)S − rF (t, S) = 0.
∂t
2
∂S
∂S
6
(1.14)
1.2.2
Randbedingungen für die Black-Scholes-Gleichung
Nun wollen wir auch Randbedingungen für (1.14) für die speziellen Fälle einer europäischen Call- und
europäischen Put-Option herleiten. Der Preisprozess einer Call-Option sei mit C(t, S) bezeichnet, jener
der Put-Option mit P (t, S).
Offensichtlich ist die Randbedingung zum Zeitpunkt T
C(T, S) = (S − K)+
P (T, S) = (K − S)
(1.15)
+
(1.16)
Gibt es einen Zeitpunkt t⋆ , sodass S(t⋆ ) = 0 gilt, folgt, da S(t) einer geometrischen Brownschen Bewegung
folgt, dass S(t) = 0 für t ≥ t⋆ (vgl. (1.6)). Insbesondere muss aus Arbitragegründen
C(t, 0) = 0
(1.17)
gelten.
Weiters ist es plausibel, dass für große S der Wert einer Put-Option sehr gering sein wird. Dies motiviert
die Randbedingung
P (t, S) = 0
für
S→∞
(1.18)
Aufgrund der Call-Put-Parität S + P − C = Ke−r(T −t) (siehe z.B. [GJ, 12]) ergeben sich außerdem noch
die Randbedingungen
P (t, 0) = Ke−r(T −t)
S − C(t, S) → Ke−r(T −t) für S → ∞
Zusammenfassend erhalten wir also nun für den Wert einer europäischen Option das Randwertproblem:
Black-Scholes-Gleichung für europäische Optionen
∂F
∂F
1
∂2F
(t, S) + σ 2 S 2 2 (t, S) + r
(t, S)S − rF (t, S) = 0
∂t
2
∂S
∂S
mit den Randbedingungen
(
europäische Put-Option
F (T, S) = (K − S)
+
F (t, 0) = Ke−r(T −t)
F (t, S) = 0 für S → ∞
1.3
(1.19)
europäische Call-Option
F (T, S) = (S − K)+
F (t, 0) = 0
S − C(t, S) → Ke−r(T −t) für S → ∞
Preisprozesse der amerikanischen Call/Put-Option
1.3.1 Definition. Eine amerikanische Kaufoption (American call option), mit
Ausübungspreis (strike price) K und mit Fälligkeit T (∈ R+ ) (maturity), auf das zugrunde liegende Wertpapier St≥0 ist ein Vertrag, der dem Käufer das Recht, aber nicht die Pflicht, gibt das
Wertpapier S zu einem beliebigen Zeitpunkt t ∈ [0, T ] zum Preis K zu kaufen.
7
Somit ergibt sich zu jedem Zeitpunkt t ∈ [0, T ] die Auszahlung (St − K)+ . Analog gibt es auch amerikanische Verkaufsoptionen.
1.3.2 Definition. Eine amerikanische Verkaufsoption (American put option), mit
Ausübungspreis (strike price) K und mit Fälligkeit T (∈ R+ ) (maturity), auf das zugrunde liegende Wertpapier St≥0 ist ein Vertrag, der dem Käufer das Recht, aber nicht die Pflicht, gibt das
Wertpapier S zu einem beliebigen Zeitpunkt t ∈ [0, T ] zum Preis K zu verkaufen.
Hier ergibt sich die Auszahlung (K − St )+ zum Zeitpunkt t ∈ [0, T ].
Offensichtlich muss der Wert einer amerikanischen Option zum Zeitpunkt t, größer gleich der Auszahlung
zum Zeitpunkt t sein, da sonst, wegen der sofortigen Ausübungsmöglichkeit unmittelbar eine Arbitragemöglichkeit gegeben wäre. Insbesondere müssen, wegen der frühzeitigen Möglichkeit zur Ausübung,
die Gedankengänge bei der Herleitung von (1.14) adaptiert werden, um eine PDE für den Preisprozess
einer amerikanische Option zu erhalten.
Auch hier orientieren wir uns bei der Herleitung des freien Randwertsproblems für amerikanische Optionen an [D], aber auch an [S] und [GJ].
Wir betrachten nun eine amerikanische Put-Option mit Wert P (t, S) zum Zeitpunkt t ∈ [0, T ]. Ziel ist
es nun ein sogenanntes freies Randwertproblem für den Wert P (t, S) herzuleiten. Amerikanische CallOptionen können ähnlich behandelt werden. Wir betrachten den Wert P (t, S) der Put-Option zu einem
festen Zeitpunkt t. Leicht einzusehen ist, dass, wie bereits bemerkt, die Ungleichung
P (t, S) ≥ (K − S)+
(1.20)
gelten muss. Im Fall S ≥ K ist das offensichtlich. Wenn S < K ⇔ K − S > 0 gilt, so würde mit der
Ungleichung P (t, S) < (K − S) eine Arbitragemöglichkeit zum Zeitpunkt t gegeben sein. Wird nämlich
zum Zeitpunkt t eine Put-Option gekauft und diese sofort ausgegeübt bleibt insgesamt ein Gewinn von
−P + K − S > 0.
Weiters erhält man durch analoge Überlegungen wie in (1.18) die Randbedingung
P (t, S) → 0 für S → ∞.
(1.21)
Nun wollen wir herleiten, dass es zu jedem Zeitpunkt t einen Preis Sf (t) gibt, sodass sich die Ausübung
im Fall S ≤ Sf (t) lohnt und für S > Sf (t) nicht lohnt. Dazu betrachten wir den Wert eines Portfolios,
bestehend aus einer Put-Option und einer Aktie, vor und nach dem Ausüben. Wenn sich der Wert
verringert, hat sich das Ausüben nicht gelohnt. Wenn dies nicht der Fall ist lohnt sich das Ausüben.
Im Fall S ≥ K ⇔ (K − S)+ = 0 findet keine Ausübung statt, da der Marktpreis des Assets den Strike
Price übersteigt. Es sei also im Folgenden S < K. Wir betrachten den Portfoliowert π = P + S.
Wenn P > (K − S)+ gilt folgt π > (K − S)+ + S = K vor der Ausübung. Nach der Ausübung gilt
π = (K − S)+ + S = K − S + S = K. Also lohnt sich die Ausübung nicht.
Sobald P = K − S gilt lohnt sich die Ausübung, denn dann ist der Porfoliowert vor und nach der
Ausübung gleich K.
Im Fall S = 0 muss aus Arbitragegründen P (t, S) = K zum Zeitpunkt t gelten. Somit ist die Menge
{0 ≤ S < K : P (t, S) + S = K} nicht leer. Aufgrund der Stetigkeit von P (t, S) (der Preis soll (klassische)
Lösung einer PDE werden) und da für S = K die Gleichung P (t, S) + S = K, aufgrund der Positivität
von P , nicht erfüllt sein kann, hat diese Menge insbesondere ein Maximum Sf (t).
Für Sf (t) gilt insbesondere auch
P (t, S) = (K − S)+ = (K − S)
P (t, S) erfüllt (1.14)
S ≤ Sf
S > Sf ,
(1.22)
(1.23)
wobei im letzten Fall die Option gehalten wird, und P (t, S) aufgrund gleicher Argumente wie bei der
∂P
(t, S)
Herleitung von (1.14), ebendiese PDE erfüllen soll. Weiters wollen wir auch die Stetigkeit von
∂S
8
an der Stelle S = Sf (t) voraussetzen (kann auch mittels Arbitrageargumenten gefolgert werden, siehe
∂P
(t, S) = −1 für S < Sf (t) die Forderung
z.B. Abschnitt 7.4. in [C]). Hiermit folgt aufgrund von
∂S
∂P
(t, Sf (t)) = −1.
∂S
(1.24)
Zusammenfassend ergibt sich also mit Hilfe von (1.20),(1.21),(1.22),(1.23),(1.24) und da der Wert zum
Fälligkeitszeitpunkt T gleich der Auszahlung sein muss, für den Preisprozess P (t, S) einer amerikanische
Put-Option das folgende freie Randwertproblem
freies Randwertproblem für die amerikanische Put-Option
1
∂P
∂2P
∂P
(t, S) + σ 2 P 2 2 (t, S) + r
(t, S)S − rP (t, S) = 0
∂t
2
∂S
∂S
P (t, S) = K − S
+
P (T, S) = (K − S)
P (t, S) → 0 für S → ∞
∂P
(t, Sf (t)) = −1.
∂S
für S > Sf (t)
für S ≤ Sf (t)
(Endbedingung)
Da wir in unserem Modell gefordert haben, dass keine Dividenenzahlung erfolgt, ist eine analoge Modellierung von amerikanischen Call-Optionen nicht unbedingt sinnvoll, da sich eine vorzeitige Ausübung nicht
lohnt (siehe [S, 95]), und somit der Wert gleich jenem einer europäischen Kaufoption ist. Ein kontinuierliches Dividendenmodell lässt sich durchaus in den Black-Scholes-Rahmen einbauen. Der zugrundeliegende
Aktienpreisprozess S(t)t≥0 würde für δ > 0
dS(t) = (µ − δ)S(t)dt + σdW (t)
erfüllen. Hierbei modelliert das δ den kontinuierlichen Fluss von Dividendenzahlungen (siehe [S, 78]).
Dies führt auf das freie Randwertproblem (man beachte den Einfluss von δ in der Differentialgleichung):
freies Randwertproblem für die amerikanische Call-Option
∂C
∂C
1
∂2C
(t, S) + σ 2 C 2 2 (t, S) + (r − δ)
(t, S)S − rC(t, S) = 0
∂t
2
∂S
∂S
C(t, S) = S − K
C(T, S) = (S − K)
+
für S < Sf (t)
für S ≥ Sf (t)
(Endbedingung)
C(t, 0) = 0
∂P
(t, Sf (t)) = 1.
∂S
Insbesondere ist also neben der Funktion P (t, S) bzw. C(t, S) auch der freie Randwert Sf (t) gesucht.
9
Kapitel 2
Numerische Verfahren zur Lösung
der Black-Scholes-Gleichung
Ziel dieser Seminararbeit ist es, den Preis einer amerikanischen Option zu berechnen. Um dem Ziel näher
zu kommen, beschäftigten wir uns zunächst mit der numerischen Lösung der Black-Scholes-Gleichung.
2.1
Äquivalenz zur Wärmeleitungsgleichung
Zuerst wollen wir noch die Äquivalenz von der Black-Scholes Gleichung zur Wärmeleitungsgleichung
yτ = yxx
(2.1)
herleiten, um von einer Lösung von (2.1) auf eine Lösung von (1.14) schließen zu können. Die Methoden
in diesem Kapitel können zwar grundsätzlich auch für die Black-Scholes-Gleichung verwendet werden,
allerdings lassen sich diese für die äquivalente Gleichung (2.1) wesentlich einfacher durchführen. Um der
Übersicht zu dienen wollen wir diese Äquivalenz in 2 Schritten herleiten.
2
2.1.1 Satz. Ausgehend von (1.14) seien mit K ∈ R+ Φ : R × (0, T σ2 ) → (0, T ) × R+ , α und β
definiert durch
2r
2r
2τ
α := 2 − 1
β := − 2 .
Φ(x, τ ) := T − 2 , Kex ) =: Φ1 (x, τ ), Φ2 (x, τ )
σ
σ
σ
2
Dann löst y, definiert auf R × (0, T σ2 ) genau dann
−yτ + yxx + αyx + βy = 0
(2.2)
wenn y ◦ Φ−1 (1.14) löst.
2
Beweis. Es sei V eine Lösung von (1.14). Definiere y auf R × (0, T σ2 ) durch
2τ
y(x, τ ) := V ◦ Φ(x, τ ) = V T − 2 , Kex .
σ
10
Dann gilt
− yτ (x, τ ) + yxx (x, τ ) + αyx (x, τ ) + βy(x, τ ) =
2
= Vt ◦ Φ(x, τ ) 2 + VS ◦ Φ(x, τ ) Kex + α VS ◦ Φ(x, τ ) Kex + β V ◦ Φ(x, τ ) =
σ
x
2
x 2
= Vt ◦ Φ(x, τ ) 2 + VSS ◦ Φ(x, τ ) (Ke ) + (1 + α) VS ◦ Φ(x, τ ) Kex + β V ◦ Φ(x, τ ) =
σ
σ2
x
2
x 2
Vt ◦ Φ(x, τ ) +
= 2
VSS ◦ Φ(x, τ ) (Ke ) + r VS ◦ Φ(x, τ ) Ke − r V ◦ Φ(x, τ ) =
σ
2
|
{z
}
=0
=0.
Sei nun umgekehrt y Lösung von (2.2). Für V auf (0, T ) × R+ , definiert durch
S σ2
V (t, S) := y ln , (T − t) = y ◦ Φ−1 (t, S)
K 2
folgt
0 = − yτ + yxx + αyx + βy = (−V ◦ Φ)τ + (V ◦ Φ)xx + α(V ◦ Φ)x + β(V ◦ Φ) =
2
σ2
= 2 Vt ◦ Φ +
(VSS ◦ Φ)Φ22 + r(VS ◦ Φ)Φ2 − r(V ◦ Φ) .
σ
2
2
Die letzte Gleichheit folgt hier vollkommen analog zum ersten Teil des Beweises. Da Φ R × (0, T σ2 )
bijektiv auf (0, T ) × R+ abbildet erfüllt V auch (1.14).
Mit dem nächsten Theorem sehen wir die Äquivalenz zur Wärmeleitungsgleichung (2.1).
2
2.1.2 Satz. Ausgehend von (2.2) seien mit Ψ : R × (0, T σ2 ) → R, γ und δ definiert durch
Ψ(x, τ ) := eγx+δτ
γ := −
α
2
δ := β −
α2
.
4
2
Dann löst y, definiert auf R × (0, T σ2 ) genau dann
yτ = yxx
(2.3)
wenn y · Ψ (2.2) löst.
Beweis. Es sei y Lösung von (2.1). Dann sei V definiert durch
V (x, τ ) := Ψ(x, τ )y(x, τ )
Dann gilt (Ψ−1 bezeichnet den Kehrwert von Ψ 6= 0)
0 =Ψ0 = Ψ yxx − yτ = Ψ δΨ−1 V − Ψ−1 Vτ + γ 2 Ψ−1 V − 2γΨ−1 Vx + Ψ−1 Vxx =
=δV − Vτ + γ 2 V − 2γVx + Vxx = −Vτ + (γ 2 + δ)V − 2γVx + Vxx =
= − Vτ + Vxx + αVx + βV.
Also ist (2.2) erfüllt. Ist andererseits (2.2) durch V erfüllt folgt, mit y := Ψ−1 V ,
0 = Ψ−1 0 =Ψ−1 − Vτ + Vxx + αVx + βV =
=Ψ−1 − yτ Ψ − yΨδ + γ 2 Ψy + 2γΨyx + Ψyxx + αγΨy + αΨyx + βΨy =
= − yτ − yδ + γ 2 y + 2γyx + yxx + αγy + αyx + βy =
=yxx − yτ + y (−δ + γ 2 − 2γ 2 + δ + γ 2 ) +yx (2γ − 2γ) = yxx − yτ .
|
| {z }
{z
}
=0
=0
11
Somit löst y (2.1).
Bemerkung. Aus den letzten beiden Resultaten folgt, ausgehend von einer Lösung y von (2.1), dass
σ 2 − 2r
2σ 2
8rσ 2 + (σ 2 − 2r)2
δ := −
4σ 4
γ :=
V (S, t) := e
γ ln
S
K
+δ(T −t)σ 2 /2
S
2
y ln , (T − t)σ /2
K
eine Lösung von (1.14) ist.
Auch die im freien Randwertproblem für amerikanische Call-Optionen auftretende Differentialgleichung
ist äquivalent zur Wärmeleitungsgleichung wie man mittels einer ähnlichen Transformation einsehen
kann. Details hierzu sind in [S, 78] zu finden.
2.2
Grundlagen von Differenzenverfahren
Zur Approximation der Lösung y von (2.1) verwenden wir das Verfahren der finiten Differenzen. Hierzu
werden Ableitungen durch Differenzenquotienten zur Schrittweite h > 0 angenähert.
Dies kann zum Beispiel für eine Funkltion g durch
g ′ (x) ≈
g(x + h) − g(x)
h
g ′ (x) ≈
oder
g(x) − g(x − h)
h
(2.4)
passieren.
Ausgehend von den Approximationen in (2.4) kann auch eine Approximation für die zweite Ableitung
hergeleitet werden.
g ′′ (x) ≈
g ′ (x + h) − g ′ (x)
≈
h
g(x+h)−g(x)
h
−
h
g(x)−g(x−h)
h
=
g(x + h) − 2g(x) + g(x − h)
h2
Daraus können nun Approximation für yτ (x, τ ) und yxx (x, τ ) gewonnen werden.
y(x, τ + s) − y(x, τ )
s
y(x
+
h,
τ ) − 2y(x, τ ) + y(x − h, τ )
h
yxx
(x, τ ) :=
h2
yτs (x, τ ) :=
oder
ητs (x, τ ) :=
y(x, τ ) − y(x, τ − s)
s
(2.6)
Als unmittelbare Folgerung aus dem Satz von Taylor ergibt sich
2.2.1 Satz. Für Ω ⊂ R2 offen sei y ∈ C 4 (Ω) und [x − h, x + h] × [t − s, t + s] ⊂ Ω. Dann gilt
yτ τ |{x}×[τ,τ +s] s
∞
|yτ (x, τ ) − yτ (x, τ )| ≤ s
also
yτs = yτ + O(s).
2
Analog gilt
ητs = yτ + O(s)
h
yxx
= yxx + O(h2 ).
und
12
(2.5)
Nun wollen wir ein Gitter definieren, auf dessen Punkten wir die Lösung für (2.1) approximieren. Prinzipiell suchen wir die Lösung definiert auf R × (0, α). Da wir aber nur endlich viele Gitterpunkte haben
können, müssen wir uns auf ein Intervall [a, b] für x einschränken. Hierzu seien Randbedingungen
y(a, t) = f1 (t),
y(b, t) = f2 (t)
t ∈ (0, α)
gegeben. Für m, k ∈ N sei definiert
(b − a)
m
α
s := .
k
h :=
Dann erhalten wir als Bezeichnungen für unser Gitter
τj := js
für j = 0, 1, ..., k
xi := a + ih
yij := y(xi , τj )
für i = 0, 1, ..., m
Mit Imk := {1, ..., m−1}×{0, ..., k−1} suchen wir nun auf dem Gitter (xi , τj )(i,j)∈Imk eine Approximation
für y.
2.3
Diskretisierung
Ausgehend von der Gleichung
yτ = yxx
ergibt sich nun auf Basis von Satz 2.2.1, mit beiden Möglichkeiten in (2.5) und (2.6), dass gilt
h
yτs (xi , τj ) = yxx
(xi , τj ) + O(s + h2 )
yτs (xi , τj )
=
ητs (xi , τj+1 )
=
h
yxx
(xi , τj+1 )
2
+ O(s + h )
(i, j) ∈ {1, ..., m − 1} × {0, ..., k − 1}
(i, j) ∈ {1, ..., m − 1} × {0, ..., k − 1}.
(2.7)
(2.8)
Durch Multiplikation von (2.8) mit θ ∈ [0, 1], von (2.7) mit 1 − θ und anschließender Addition der beiden
Gleichungen erhält man
yi,j+1 − yij
1−θ
θ
=
(yi+1,j − 2yij + yi−1,j ) + 2 (yi+1,j+1 − 2yij + yi−1,j+1 ) + O(s + h2 ).
s
h2
h
13
(2.9)
Dies motiviert die Gleichung
1−θ
θ
wi,j+1 − wij
=
(wi+1,j − 2wij + wi−1,j ) + 2 (wi+1,j+1 − 2wij + wi−1,j+1 ) ,
2
s
h
h
welche von den Näherungen wij für yij erfüllt werden sollen. Mit λ :=
− λθwi+1,j+1 + (2λθ + 1) wi,j+1 − λθwi−1,j+1 =
= λ(1 − θ)wi+1,j − 2λ(1 − θ) − 1 wij + λ(1 − θ)wi−1,j
s
h2
(2.10)
folgen also die Gleichungen
i ∈ {1, ..., m − 1}
(2.11)
j ∈ {0, ..., k − 1}
(2.12)
Aus den Randbedingungen ergibt sich
w0j = f1 (τj ),
j
wm
= f2 (τj ),
wi0
= y0 (xi ),
1≤j≤k
0 ≤ i ≤ m.
Weiters ergeben sich aus (2.12) mit den Bezeichnungen wj := (w1j , ..., wm−1,j )T , sowie





A := 








B := 



2λθ + 1
−λθ
−λθ
0
...
2λθ + 1 −λθ
..
..
.
.
0
..
.
0
...
0
..
.
−λθ

0
..
.
0
−λθ
2λθ + 1












dj := 


−2λ(1 − θ) + 1
λ(1 − θ)
0
λ(1 − θ)
−2λ(1 − θ) + 1
..
.
λ(1 − θ)
..
.
..
...
0
λ(1 − θ)
0≤j ≤k−1
und
0
..
.
0
λ(1 − θ)w0j + λθw0,j+1
0
..
.
0
λ(1 − θ)wmj + λθwm,j+1
...
.
0
λ(1 − θ)
−2λ(1 − θ) + 1
die Gleichungssysteme
Awj+1 = Bwj + dj
für

0
..
.
wi0 = y0 (xi )
für















0≤i≤m
(2.13)
Bemerkung. Das Gleichungssystem in 2.13 hat eine eindeutige Lösung wj+1 . Dies folgt daraus, dass A
eine strikt diagonaldominante und somit reguläre Matrix ist (siehe [P, 24]).
2.3.1
Explizites Verfahren
Für θ = 0 ist die Matrix A in (2.13) die Einheitsmatrix und somit können ausgehend von w0 alle
Vektoren wj rekursiv mittels Matrixmultiplikation berechnet werden. Deswegen nennt man das Differenzenverfahren mit θ = 0 explizites Verfahren. Da hier kein Gleichungssystem gelöst werden muss, erfolgt
die Berechnungen der Näherungswerte sehr effizient.
2.3.2
Implizite Verfahren
Für θ > 0 erhalten wir implizite Differenzenverfahren. Der Name rührt daher, dass hier in jedem Schritt
zur rekursiven Berechnung des Vektors wj+1 ein lineares Gleichungssystem gelöst werden muss. Für θ = 1
heißt das Verfahren (voll) implizit und für θ = 12 spricht man vom Crank-Nicolson-Verfahren.
14
Beispiel. Betrachte das Randwertproblem yτ = yxx auf [0, 1]2 , y(x, 0) = sin πx, y(0, τ ) = y(1, τ ) = 0.
2
Die exakte Lösung ist y(x, τ ) = e−π τ sin πx. Es gilt y(0.2, 0.5) ≈ 0.004227. Mit Hilfe von Matlab erhält
man mit dem expliziten Verfahren als Approximationen beispielsweise
h
0.1
0.1
s
0.0005
0.01
λ
0.05
1
i
2
2
j
1000
50
xi
0.2
0.2
τj
0.5
0.5
yij
0.00435
1.0337 · 106
Die erste Wahl der Schrittweite von s liefert einen vernünftigen Wert,wohingegen die zweite Wahl der
Schrittweiten offensichtlich zu einem Desaster führt. Dies führt uns auf den Begriff der Stabilität.
2.4
Konsistenz und Stabilität
2.4.1
Konsistenz
Ziel ist es nun zu untersuchen, ob eine gute“ Lösung zu erwarten ist, beziehungsweise gegebenenfalls
”
Bedingungen für die Schrittweiten h, s anzugeben, unter denen eine gute Lösung zu erwarten ist. Hierfür
benötigen wir die Eigenschaften Konsistenz und Stablitität eines solchen Differenzenverfahrens.
2.4.1 Definition. Ein Differenzenverfahren aus dem letzten Abschnitt heißt konsistent von der
Ordnung O(sa + hb ) mit a, b > 0, wenn es eine Konstante C > 0 gibt, sodass für hinreichend kleine
s, h > 0 gilt
max |Lh,s (yi,j )| ≤ C(sa + hb )
(2.14)
i,j
wobei
Lh,s (yi,j ) =
yi,j+1 − yij 1 − θ
θ
− 2 (yi+1,j − 2yij + yi−1,j ) − 2 (yi+1,j+1 − 2yij + yi−1,j+1 ) (2.15)
s
h
h
Bemerkung. Die Konsistenz ist eine Kenngröße dafür, wie schnell das Residuum, welches durch Einsetzen der exakten Lösung in 2.10 entsteht, gegen 0 geht, wenn s, h gegen 0 gehen.
Wir haben im vorigen Abschnitt schon ein Resultat der Konsistenz des Differenzenverfahrens hergeleitet.
Wir erhielten (2.9) auf Basis von Satz 2.2.1. Zusammenfassend erhalten wir also folgenden Satz.
2.4.2 Satz. Es sei y wie im letzten Abschnitt und zusätzlich y ∈ C 4 . Dann ist das diskutierte
Differenzenverfahren konsistent von der Ordnung O(s + h2 ) für alle s, h > 0 und θ ∈ [0, 1].
Für den Fall θ = 21 lässt sich die Konsistenzordnung noch verbesseren. Dies begründet auch den eigenen
Namen des Verfahrens für θ = 21 .
2.4.3 Satz. Für die Lösung y der Wärmeleitungsgleichung (2.1) gelte y ∈ C 4 . Dann ist das CrankNicholson Verfahren konsistent mit der Ordnung O(s2 + h2 ).
Beweis. Nach dem Satz von Taylor gilt:
15
1
(y(xi , τj + s) − y(xi , τj ))
s
yxx (xi , τj+1 ) − yxx (xi , τj )
=
=
s
yt (xi , τj ) + ytt (xi , τj ) + O(s2 )
2
syxxt (xi , tj ) + O(s2 ).
und
Damit und wieder mit dem Satz von Taylor folgt:
1
(y(xi + h, τj ) − 2y(xi , τj ) + y(xi − h, τj ) + y(xi + h, τj+1 ) − 2y(xi , τj+1 ) + y(xi − h, τj+1 ))
2h2
1
=
yxx (xi , τj ) + O(h2 ) + yxx (xi , τj+1 ) + O(h2 )
2
1
= yxx (xi , τj ) + (yxx (xi , τj+1 ) − yxx (xi , τj )) + O(h2 )
2
1
= yxx (xi , τj ) + syxxt (xi , τj ) + O(s2 + h2 )
2
Insgesamt erhalten wir also für das Residuum
Lh,s (yi,j )
=
=
s
s
yt (xi , τj ) + ytt (xi , τj ) − yxx (xi , τj ) − yxxt (xi , τj ) + O(s2 + h2 )
2
2
s
yt (xi , τj ) − yxx (xi , τj ) + yt − yxx t (xi , τj ) + O(s2 + h2 ) = O(s2 + h2 ).
{z
}
|
{z
} 2
|
=0
=0
2.4.2
Stabilität
Weiters wollen wir nun untersuchen wie sich Rundungsfehler im zuvor beschriebenen Algorithmus fortpflanzen können. Hierzu sei an 2.13 erinnert und die Vektoren wj für j = 0...k − 1 bezeichnen die exakten
Lösungen für dieses lineare Gleichungssystem. Bei der Realisation des Algorithmus zur Lösung von 2.13
werden aber gerundete Werte wj berechnet und als Näherung verwendet. Die Fehlervektoren ej seien
durch ej := wj − wj definiert. Mit einem Residuum rj werden dann von den gerundeten Werten wj
folgende Gleichungen erfüllt
Awj+1 = Bwj + dj + rj
j = 0...k − 1.
(2.16)
Es ergibt sich für den Fehler ej die Rekursion
⇔
Aej+1 = Awj+1 − Awj+1 = Bwj + dj + rj − Bwj − dj = Bej + rj ⇔
e
j+1
−1
=A
j
−1 j
Be + A
r .
(2.17)
(2.18)
Wir betrachten den idealisierten Fall, dass rj = 0 ∀j ≥ 0. Es entsteht also nur ein Fehler bei bei der
Auswertung des Anfangswertes. Nach 2.18 ergibt sich mit C := A−1 B die Fortpflanzung des Fehlers
durch ej = C j e0 . Für ein sogenanntes stabiles Verhalten sollte also ein abklingendes Verhalten dieses
Fehlers gegeben sein. Gibt es eine Abbildungsnorm k·k, sodass kCk < 1 folgt
j 0 ≤ lim sup ej Rn = lim sup C j e0 Rn ≤ lim sup kCk e0 Rn = 0
j→∞
j→∞
j→∞
j
und somit lim e Rn = 0.
j→∞
Mit ρ(M ) := max{|λ|λ ∈ C ist Eigenwert von M} und aufgrund des Satzes
16
Für jede Matrix M ∈ Rn×n oder M ∈ Cn×n gilt für den zugehörigen
2.4.4 Satz ([P, 113]).
Spektralradius ρ(M )
ρ(M ) = inf{kM k k·k ist Operatornorm, die von einer Norm auf Cn induziert wird}.
(2.19)
ist die Existenz einer solchen Abbildungsnorm äquivalent zu ρ(C) < 1. Gilt andererseits ρ(C) ≥ 1, so
gibt es ein λ ∈ C mit |λ| ≥ 1 und ein x ∈ CN −1 \{0} sodass Cx = λx. Dann folgt aber, da C ausschließlich
reelle Einträge hat,
0 < kxk ≤ |λ|j kxk = λj x = C j x = C j (ℜx + iℑx) = C j ℜx + iC j ℑx ≤ C j ℜx + C j ℑx .
(2.20)
j j Somit können nicht C ℜx und C ℑx für j → ∞ gegen
0 konvergieren. Insbesondere gibt es ein
y ∈ RN −1 (nämlich z.B. entweder ℜx oder ℑx), sodass C j y nicht gegen 0 konvergiert. Also kann
es, um wieder Bezug zu unserem Differenzverfahren herzustellen, passieren dass der Fehler, welcher
durch die Auswertung des Anfangswertes ensteht, nicht abklingt, ja womöglich sogar explodiert. Diese
Überlegungen motivieren folgende Definition:
2.4.5 Definition. Das Differenzenverfahren in 2.13 heißt stabil, wenn
ρ(A−1 B) < 1
(2.21)
gilt.
Motiviert durch diese Definition der Stabilität wollen wir nun die Eigenwerte von speziellen Tridiagonalmatrizen, deren Struktur z.B. die Matrizen A, B in 2.13 haben, untersuchen.
2.4.6 Satz. Es sei a ∈ R, b 6= 0 und sgn b = sgn c. Die Matrix M ∈ Rn×n , definiert durch

a

 c
M := 


0
b
a
..
.
0
..
.
..
.
c
hat genau die Eigenwerte
µk = a + 2b
r
c
cos
b



,

b 
a
kπ
n+1
,
k = 1, ..., n
(2.22)
mit zugehörigen Eigenvektoren
1
c n2
kπ c 22
2kπ
nkπ
c 2
.
,
, ...,
sin
sin
sin
v =
b
n+1 b
n+1
b
n+1
k
17
(2.23)
Beweis. Zunächst zeigen wir (M v k )l = (µk v k )l für 2 ≤ l ≤ n − 1. Mit dem Additionstheorem (x, y ∈ R)
2 sin x cos x = sin (x − y) + sin (x + y)
(2.24)
folgt
=
=
=
=
k
k
(M v k )l = cvl−1
+ avlk + bvl+1
c l+1
c l−1
c 2l
(l − 1)kπ
lkπ
(l + 1)kπ
2
2
+a
+b
c
sin
sin
sin
b
n+1
b
n+1
b
n+1
c 2l
c l−1
(l + 1)kπ
(l − 1)kπ
lkπ
2
+a
+ sin
c
sin
sin
b
n+1
n+1
b
n+1
l
c 2l r c
lkπ
kπ
c 2
lkπ
2b
sin
cos
+a
sin
b
b
n+1
n+1
b
n+1
l
r
kπ
c 2
lkπ
c
cos
+a
= (µk v k )l .
2b
sin
b
n+1
b
n+1
Somit bleibt die Gleichheit (M v k )l = (µk v k )l für l = 1 und l = n zu zeigen. Es folgt wieder mit Hilfe
von (2.24)
(µk v k )1
=
=
und
(µk v k )n
=
=
1
c 12
√
kπ
kπ
kπ
c 2
kπ
kπ
a + 2 bc cos
sin
sin
=a
+ 2c sin
cos
n+1
b
n+1
b
n+1
n+1
n+1
c 12
c
2kπ
kπ
+ b sin
= av1k + bv2k = (M v k )1
a
sin
b
n+1
b
n+1
n
c n2
c n−1
√
nkπ
nkπ
(n − 1)kπ
kπ
c 2
2
sin
sin
sin
a + 2 bc cos
=a
+c
n+1
b
n+1
b
n+1
b
n+1
k
cvn−1
+ avnk = (M v k )n
Also folgt insgesamt M v k = µk v k . Weiters bildet der Kosinus das Intervall (0, π) bijektiv auf (−1, 1)
abbildet und wir erhalten tatsächlich n verschiedene Eigenwerte. Somit kann die Matrix M auch höchstens
die Eigenwerte (µk )k∈{1,...,n} haben.
Das letzte Resultat ist Grundlage für den nächsten Satz, in welchem wir Bedingungen formulieren unter
denen das von uns diskutierte Differenzenverfahren stabil im Sinne von (2.21) ist.
2.4.7 Satz. Das Differenzenverfahren aus 2.13 ist stabil, wenn für λ :=
0<λ<
1
2 − 4θ
für
und θ gilt
1
2
(2.25)
1
≤θ≤1
2
(2.26)
für 0 ≤ θ <
λ>0
s
h2
Beweis. Es sei zuerst θ > 0. Die Matrizen A, B ∈ Rm−1×m−1 aus 2.13 stehen offensichtlich in der
Beziehung
θB + (1 − θ)A = I ⇔ B =
1
(1 − θ)
I−
A.
θ
θ
18
Daraus folgt die Identität
A−1 B =
1 −1 (1 − θ)
A −
I
θ
θ
aus welcher insbesondere folgt, dass v ein Eigenvektor zum Eigenwert µ von A−1 ist, genau dann wenn
−1
v ein Eigenvektor zum Eigenwert µθ − θ−1
B ist. Die Eigenwerte von A−1 sind aber genau die
θ von A
Kehrwerte der Eigenwerte von A, welche mit Hilfe des letzten Satzes bekannt sind. Mit der Identität
2 sin2 x = 1 − cos 2x, sowie durch Anwendung des letzten Satzes auf a = 2λθ + 1 und b = c = −λθ folgt
für die Eigenwerte (µk )k∈{1,...,m−1} von A−1 B
|µk |
=
=
1
1
1 − θ −
= 1 −
θ 2λθ + 1 − 2λθ cos kπ
θ
θ
m
kπ
4λ sin2 2m
1 −
kπ 1 + 4λθ sin2 2m
1
1−
1 + 4λθ sin2
!
kπ
2m
Da der Bruch, welcher im letzten Ausdruck vorkommt, positiv ist, ist die Bedingung |µk | < 1 äquivalent
zu
4λ sin2
1+
kπ
2m
kπ
4λθ sin2 2m
< 2 ⇔ 4λ(1 − 2θ) sin2
kπ
kπ
< 2 ⇔ λ(2 − 4θ) sin2
<1
2m
2m
(2.27)
Für θ ≥ 12 folgt λ(1−2θ) ≤ 0 und damit ist (2.27) sicherlich für beliebiges λ > 0 erfüllt. Im Fall θ ∈ (0, 12 )
kπ
< 1, dass für λ ≤ (2 − 4θ)−1 (2.27) erfüllt ist.
ergibt sich, weil k ∈ {1, ..., m − 1} und somit sin2 2m
Somit bleibt noch der Fall der Fall θ = 0 zu zeigen. In diesem Fall ist A die Einheitsmatrix und somit
ist die Stabilität äquivalent zu ρ(B) < 1. Mit Hilfe des vorigen Satzes mit a = 1 − 2λ und b = c = λ
erhalten wir für die Eigenwerte µk von B
kπ 2 kπ 1
−
4λ
sin
=
|µk | = 1 − 2λ + 2λ cos
m
2m Analog zum allgemeineren Fall ist also |µk | < 1 äquivalent zu
4λ sin2
Wegen sin2
kπ
1
<2⇔λ<
2m
2 sin2
kπ
2m
kπ
2m
∈ (0, 1) ist dies insbesondere für λ ≤
1
2
erfüllt.
Man beachte, dass im Beispiel auf Seite 16 im ersten Fall λ = 0.05 und im zweiten Fall λ = 1 gilt. Für
das explizite Verfahren (θ = 0) ist nach dem letzten Satz das Verfahren für λ ∈ (0, 21 ) stabil. Dies ist im
zweiten Fall nicht erfüllt.
2.5
Konvergenz
Ist beim Differenzenverfahren aus 2.13 Konsistenz und Stabilität gegeben impliziert dies auch die Konvergenz des Abstandes von exakter und approximativer Lösung bezüglich der 2-Norm gegen 0. Dies
verdeutlicht der folgende Satz.
19
2.5.8 Satz. Zusätzlich zu den Begriffen aus den letzten Kapiteln sei noch y j := (y1,j , ..., ym−1,j )T .
Es seien die Voraussetzungen von Satz 2.4.2 und 2.4.7 erfüllt. Dann gilt
max wj − y j L2 = O(s + h2 ).
(2.28)
j=1,...k
Die Norm k·kL2 entspricht der L2 -Norm, welche aus der Gleichverteilung auf {1, ..., m−1} hervorgeht.
Für das Crank Nicholson-Verfahren (θ = 21 ) kann auf der rechten Seite O(s2 +h2 ) geschrieben werden.
Beweis. Für eine symmetrische Matrix folgt kAk2 = ρ(A) (siehe [P, 16]). Für θ = 0 ist A = I und
A−1 B = B. Da B symmetrisch ist, ist in diesem Fall auch A−1 B symmetrisch. Für θ > 0 gilt A−1 B =
1 −1 1−θ
− θ I. Mit A ist auch A−1 symmetrisch und somit lässt ich A−1 Bals Summe zweier symmetrischer
θA
Matrizen schreiben und ist daher selbst symmetrisch. Also gilt A−1 B 2 = ρ(A−1 B) < 1.
Für wj und y j gilt
Awj = Bwj−1 + dj−1
Mit Satz 2.5.6 folgt
j−1 e ≤ max
2
i=1,...,N −1
Ay j = By j−1 + dj−1 + ej−1
|ej−1
| ≤ C(s + h2 )
i
(2.29)
Damit und w0 = y 0 erhalten wir die Abschätzung
j
w − y j 2
=
≤
≤
≤
−1
A (Awj − Ay j ) = A−1 (Bwj−1 − By j−1 − ej−1 ) ≤
2
2
−1 j−1
Induktion
A B w
− y j−1 2 + A−1 ej−1 2
≤
j−1
X
−1 0
−1 j−k−1 −1 k A B w − y 0 +
A B A e ≤
2
2
2
k=0
−1 A Mit (2.29) erhalten wir
j
w − y j = O(s + h2 ).
2
max
k=0,...,j−1
j−1
k X
−1 k
e A B ≤
2
2
k=0
−1 A 1−
max
kA−1 Bk2 k=0,...,j−1
k
e 2
Die Behauptung für das Crank-Nicholson Verfahren folgt aus der besseren Abschätzung für dieses in
Satz 2.4.3.
20
Kapitel 3
Numerische Berechnung des Preises
für amerikanische Optionen
Zunächst sei an die Formulierung der freien Randwertprobleme für amerikanische Optionen auf Seite 9 und 10 erinnert. Insbesondere folgt (Verifikation durch Einsetzen) die sogenannte Black-ScholesUngleichung für amerikanische Optionen (Notation siehe Kapitel 1). Es folgt zum Beispiel für die PutOption
∂P
1
∂P
∂2P
(t, S) + σ 2 S 2 2 (t, S) + r
(t, S)S − rP (t, S) ≤ 0
∂t
2
∂S
∂S
(3.1)
(3.2)
wobei für die Gleichtheit genau im Falle S > Sf (t) gilt. Aus 1.20 wissen wir, dass aus Aribtragegründen
insbesondere P (t, S) ≥ (K − S)+ gelten muss. Betrachtet man nocheinmal die Herleitung auf Seite 8 gilt
weiters P (t, S) = (K − S)+ genau dann wenn S ≤ Sf (t). Mit restlichen hergeleiteten Randbedingungen
lässt sich das freie Randwertproblem für amerikansiche Put-Optionen schreiben als
∂P
(t, S) +
P − (K − S)
∂t
∂P
(t, S) +
P − (K − S)+ −
∂t
+
∂P
1 2 2 ∂2P
(t, S) + r
σ S
(t, S)S − rP (t, S)
2
∂S 2
∂S
1 2 2 ∂2P
∂P
σ S
(t, S) + r
(t, S)S − rP (t, S)
2
∂S 2
∂S
=
0
(3.3)
≥
0
(3.4)
(3.5)
mit den Randbedingungen
0
(3.7)
=
−1.
(3.8)
=
lim P (t, S)
S→∞
∂P
(t, Sf (t))
∂S
P (t, 0) = K
3.1
(3.6)
=
(K − S)+
P (T, S)
(3.9)
Das Hindernisproblem
Nach einer kurzen Diskussion des Hindernisproblems werden uns mögliche Lösungswege für das freie
Randwerteproblem aus (3.3)-(3.8) zur Verfügung stehen.
Folgende Grafik soll das Hindernisproblem illustrieren
21
Der Grafik entsprechend sei ein Hindernis f (in der Grafik rot) gegeben mit den Eigenschaften
f (x) > 0
2
′′
f|(a,b) ∈ C (a, b) und f (x) < 0
für x ∈ (a, b)
(3.10)
für x ∈ [−1, a] ∪ [b, 1]
(3.12)
für x ∈ (a, b)
f (x) = 0
(3.11)
Gesucht ist nun ein Seil minimaler Länge mit dem die Punkte x = −1 und x = 1 über das Hindernis f
verbunden werden. Dieses Seil kann als Graph einer Funktion u interpretiert werden. Gemäß der Grafik
(blauer Graph) ist also eine Funktion u, zunächst aus C 2 (−1, 1) ∩ C([−1, 1]), gesucht, sodass für gewisse
α, β ∈ (−1, 1)
u(−1) = u(1) = 0
(3.13)
u≥f
u=f
(3.14)
(3.15)
auf (α, β)
′′
u =0
auf (−1, α) ∪ (β, 1)
(3.16)
Die ersten 3 Bedingungen sind klar. Die letzte Bedingung ergibt sich dadurch, dass außerhalb von (α, β)
das Seil nicht aufliegt und wir somit, aufgrund der Konkavität von f , eine Gerade als kürzeste Verbindung
wählen können.
Um wieder auf amerikanische Optionen zurückzukommen beachte man, dass aus den Bedingungen für
u ≥ f insbesondere folgt
u > f ⇔ u′′ = 0
u = f ⇔ u′′ = f ′′ < 0
Bei amerikanischen Optionen kann eine analoge Komplementarität beobachtet werden. Für die amerikanische Put-Option gilt
P > (K − S)+ ⇔ in 3.1 gilt =
P = (K − S)+ ⇔ in 3.1 gilt <.
Die Werte α und β sind nicht bekannt. Die Berechnung dieser ist vielmehr Teil der Aufgabenstellung.
Daher handelt es sich hier um ein sogenanntes freies Randwertproblem. Löst u ∈ C 2 (−1, 1) obiges
Problem, so muss auch
u(−1) = u(1) = 0,
u′′ (u − f ) = 0
−u′′ ≥ 0,
u−f ≥0
(3.17)
gelten. In der letzen Formulierung des Problems kommen keine freien Randwerte mehr explizit vor.
Da im Allgemeinen u an den Stellen α und β nicht zwei Mal stetig differenzierbar sein muss ist eine
Formulierung des Hindernisproblems in welcher die 2. Ableitung von u nicht vorkommt wünschenswert.
22
Eine entsprechende Umformulierung liefert der nächste Satz. Für diesen benötigen wir die Menge der
Testfunktionen definiert durch
K := {v ∈ C[−1, 1] : v(−1) = v(1) = 0, v ≥ f, v stückweise stetig differnzierbar}
3.1.9 Satz. Es sei u ∈ C 2 [−1, 1]. Dann ist u ∈ K genau dann Lösung der Variationsungleichung:
Z
u′ (v − u)′ dλ ≥ 0 ∀v ∈ K,
(3.18)
[−1,1]
wenn u (3.17) löst.
Beweis. Sei zunächst u ∈ C 2 [−1, 1] Lösung von 3.17. Es gilt insbesondere u ∈ K und −u′′ ≥ 0. Sei nun
v ∈ K vorgegeben. Dann gilt wegen v ≥ f −u′′ (v − f ) ≥ 0. Dann gilt aber auch
Z
Z
Z
′′
−u (v − f ) dλ ≥ 0 =
0 dλ =
−u′′ (u − f ) dλ,
(3.19)
[−1,1]
[−1,1]
[−1,1]
wobei die letzte Gleichheit gilt da u (3.17) löst. (3.19) ist aber äquivalent zu
Z
[−1,1]
−u′′ (v − u) dλ ≥ 0.
Aufgrund von v(−1) = v(1) = u(1) = u(−1) = 0 ergibt sich mittels partieller Integration
Z
[−1,1]
−u′′ (v − u) dλ =
Z
[−1,1]
−u′ (v − u)′ dλ
(3.20)
und somit die Behauptung.
Sei andererseits nun eine u ∈ C 2 [−1, 1] eine Lösung von (3.18). Nach Vorraussetzung gilt u(−1) = u(1) =
0 und u − f ≥ 0. Sei nun 0 ≤ φ ∈ C 1 (−1, 1) mit supp φ ⊂ (−1, 1) beliebig. Mit v := φ + u ∈ K und
partieller Integration erhalten wir
0≤
Z
′
[−1,1]
′
−u (v − u) dλ =
Z
[−1,1]
−u′′ φ dλ
(3.21)
Daraus folgt −u′′ ≥ 0, denn angenommen ∃x : −u′′ (x) < 0 dann gibt es aufgrund der Stetigkeit von u′′
ein δ > 0,ǫ > 0, sodass −u′′ (t) ≤ −ǫ für t ∈ [x − 2δ , x + 2δ ] und −u′′ (t) ≤ 0 für t ∈ (x − δ, x + δ). Mit
der glatten Zerlegung der 1 (siehe [K, 13.3.15]) folgt, dass es ein 0 ≤ Ψ ∈ C ∞ gibt, sodass Ψ = 1 auf
[x − 2δ , x + 2δ ] und supp ψ ⊂ (x − δ, x + δ). Dies hätte aber den Widerspruch
0≤
Z
[−1,1]
−u′′ Ψ dλ =
Z
(x−δ,x+δ)
−u′′ Ψ dλ ≤
Z
[x− δ2 ,x+ δ2 ]
−u′′ Ψ dλ ≤ −ǫδ < 0
(3.22)
zur Folge.
Nun gilt insbesondere f ∈ K (vgl. (3.9)-(3.11)). Das ergibt wieder mit partieller Integration
0≤
Z
[−1,1]
u′ (f − u)′ =
Z
[−1,1]
−u′′ (f − u) ≤ 0
und somit u′′ (u − f ) = 0.
(3.23)
23
Somit haben wir mit (3.18) eine äquivalente Formulierung für 3.17 gefunden in der die zweite Ableitung
von u nicht vorkommt.
Somit ist das Problem
Suche ein u ∈ K, sodass
Z
u′ (v − u)′ dλ ≥ 0 ∀v ∈ K
[−1,1]
gilt.
eine Verallgemeinerung von 3.17 bei dem die Lösung nicht notwendigerweise zweimal stetig differenzierbar
sein muss.
3.1.1
Diskretisierung des Hindernisproblems
Um das Hindernisproblem numerisch zu lösen betrachten wir wieder die Problemformulierung in 3.17.
2
und xi := −1 + ih für i = 0, ..., m ein. Weiters sei
Für m ∈ N führen wir die Bezeichnungen h := m
fi := f (x) und wi die Näherung zu u(xi ). Analog zu der Herleitung der Differenzenverfahren in Kapitel
2 werden die Ableitungen wieder mittels Differenzenquotienten approximiert. Wir erhalten somit für die
Näherungen wi i = 1, ..., m − 1 neben w0 = wm = 0 die Gleichungen/Ungleichungen:
(wi−1 − 2wi + wi+1 )(wi − fi )
−wi−1 + 2wi − wi+1
wi
=
≥
≥
0
0
fi
Wir definieren weiters die Vektoren w := (w1 , ..., wm−1 )T und f := (f1 , ..., fm−1 )T und die Matrix G
durch

2

 −1


G :=  0

 .
 ..
0
−1
0
...
2
..
−1
..
.
..
.
...
.
−1 2
0 −1

0
.. 
. 


.
0 


−1 
2
Damit lässt sich obiges Gleichungssystem kompakter schreiben als
(w − f )T Gw
Bw
w
3.2
=
≥
≥
0
0
f.
Berechnung amerikanischer Optionen
In diesem Abschnitt wollen wir nun das freie Randwertproblem für amerikanische Optionen als lineares
Komplementaritätsproblem formulieren und anschließened eine numerische Lösung desselbigen angeben.
Es sei nocheinmal das Randwertproblem für die amerikanische Put-Option in Erinnerung gerufen. Mit
S
den gleichen Transformationen wie am Anfang von Kapitel zwei, nämlich x = ln K
und τ = σ 2 (T 2−t)
erhalten wir das transformiertes Komplementaritätsproblem (vgl. [GJ, 210])
24
(uτ − uxx )(u − f ) = 0
uτ − uxx ≥ 0
u−f ≥0
(3.24)
für
u(x, τ ) =
1
exp (−γx − δτ )P (t, S)
K
und
f (x, τ ) = (1 − ex )+ exp (−γx − δτ ).
Wegen P (T, S) = (K − S)+ ergibt sich für x ∈ R die Randbedingung
u(x, 0) = f (x, 0).
(3.25)
Wegen P (t, S) ≥ (K − S)+ folgt u(x, τ ) ≥ f (x, τ ).
Es ergeben sich weiters für die Put-Option (gemäß [GJ, 210])die Randbedingungen
lim
x→−∞
u(x, τ ) − f (x, τ )) = 0
(3.26)
lim u(x, τ ) = 0
x→∞
3.2.1
(3.27)
Finite Differenzen Verfahren
Mit den gleichen Bezeichnungen wie in Abschnitt 2.2 und zusätzlich noch f j := (f (x1 , τj ), ..., f (xm−1 , τj ))
verwenden wir als Approximation für die Differentialungleichung uτ −uxx ≥ 0 entsprechend der Näherung
2.10
1−θ
θ
wi,j+1 − wij
−
(wi+1,j − 2wij + wi−1,j ) − 2 (wi+1,j+1 − 2wij + wi−1,j+1 ) ≥ 0,
s
h2
h
bzw. mit λ :=
s
h2
(3.28)
erhalten wir analog (≥ statt =) die Ungleichung
Awj+1 ≥ Bwj + dj
Die Ungleichung u − f ≥ 0 kann approximiert werden durch
wj+1 − f j+1 ≥ 0.
Weiters ist w0 = f 0 . Definiert man für wj bj := Bwj + dj so ergibt sich folgende Aufgabe im j-ten
Schritt (vgl. 3.24)
Suche wj+1 ∈ Rm−1 mit
(Awj+1 − bj )T (wj+1 − f j+1 ) = 0
Awj+1 − bj ≥ 0
w
j+1
−f
j+1
(3.29)
≥0
Es sei angemerkt, dass die Matrix A für θ, λ > 0 positive Eigenwerte hat (Satz 2.4.9) und symmetrisch
ist. Also ist A positiv definit (dies gilt auch für θ = 0, da A = I). Die Herausforderung besteht jetzt
darin in jedem Schritt das Problem 3.29 zu lösen.
25
Dazu betrachten wir abseits von einem Algorithmus zur Berechnung des Preises amerikanischer Optionen
das Problem 3.29 in der Form mit Vektoren b, f ∈ RN und A ∈ RN ×N symmetrisch und positiv definit:
Wir suchen ein x ∈ RN , sodass gilt
(Ax − b)T (x − f ) = 0,
Ax − b ≥ 0,
x−f ≥0
(3.30)
Die Lösung dieses Problems ist äquvivalent zu : Suche eine x ∈ RN , sodass
min{Ax − b, x − f } = 0,
(3.31)
wobei das Minimum komponentenweise zu verstehen ist. Dies sieht man folgendermaßen ein:
Wenn x ∈ RN Lösung von 3.31 ist so gilt für jedes i ∈ {1, ..., N } entweder (Ax − b)i = 0 oder (x − f )i =0.
In ersterem Fall muss aber (x − f )i ≥ 0 folgen, da sonst das Minimum < 0 wäre. Im anderen Fall gilt
(x − f )i = 0 und (Ax − b)i ≥ 0. Es gilt also insbesondere (Ax − b)i (x − f )i = 0 und (x − f )i ≥ 0
sowie (Ax − b)i ≥ 0. Daher löst x 3.30. Sei umgekehrt nun x Lösung von 3.30. Die Vektoren Ax − b und
x − f haben dann gemäß Voraussetzung lauter nichtnegative Einträge. Somit kann das Skalarprodukt
von Ax − b und x − f nur 0 sein, wenn (Ax − b)i (x − f )i = 0 für alle i ∈ {1, ..., N } gilt. Somit gilt für
jedes i dass (Ax − b)i = 0 oder (x − f )i = 0 und aufgrund der Nichtnegativität der beiden Einträge dass
min{(Ax − b)i , (x − f )i } = 0. Somit folgt min{Ax − b, x − f } = 0.
Nun wollen wir daraus eine weitere äquivalente Formulierung ableiten um das sogenannte ProjektionsSOR-Verfahren nach Cryer anwenden zu können.
3.2.10 Satz. Mit den Begriffen von zuvor sei zu A, D eine Diagonalmatrix, U eine obere Dreiecksmatrix und L eine untere Dreiecksmatrix, sodass Dii = Aii , Uii = 0, Uij = −Aij , i < j und Lii = 0,
Lij = −Aij , i > j für i, j = 1, ..., n gilt (insbesondere gilt A = D − L − U ). Dann löst x ∈ RN 3.31
genau dann, wenn es das Problem
Suche x ∈ RN , sodass
min{x − D−1 (Lx + U x + b), x − f } = 0
(3.32)
x = max{D−1 (Lx + U x + b), f }
(3.33)
oder
löst.
Beweis. Weil die Matrix A positiv definit sind alle Diagonalelemente positiv und somit existiert D−1 .
Sei nun x Lösung von 3.31, also es gelte min{Ax−b, x−f } = 0. Für ein beliebiges i gilt (Ax−b)i = 0 und
(x−f )i ≥ 0 oder (x−f )i = 0 und (Ax−b)i ≥ 0. Im ersten Fall folgt a−1
ii (Ax−b)i = 0 und (x−f )i ≥ 0, also
−1
min{a−1
ii (Ax − b)i , (x − f )i } = 0. Im zweiten Fall folgt, wegen aii > 0, aii (Ax − b)i ≥ 0 und (x − f )i = 0
−1
und somit auch min{aii (Ax − b)i , (x − f )i } = 0. Da i beliebig war gilt also min{D−1 (Ax − b), x − f } =
min{(Ax − b), x − f } = 0 woraus
=
min{x − D−1 (Lx + U x + b), x − f } = min{D−1 Dx − D−1 (Lx + U x + b), x − f } =
min{D−1 (D − L − U )x − b , x − f } = min{D−1 (Ax − b), x − f } = 0
folgt. Die Rückrichtung wird analog bewiesen (Multiplikation mit D).
Für die Äquivalenz von 3.32 und 3.33 betrachte man zuerst den Fall 0 = x − D−1 (Lx + U x + b) ≤ x − f
welcher äquivalent zu D−1 (Lx+U x+b) = x ≥ f ist. Genauso ist der Fall 0 = x−f ≤ x−D−1 (Lx+U x+b)
äquivalent zu f = x ≥ D−1 (Lx + U x + b). Daraus folgt die zu zeigende Äquivalenz.
26
Die letzte Formulierung motiviert den folgenden Algorithmus für das sogenannte Projektions-SORVerfahren (mit dem Relaxationsparameter ω ∈ (1, 2)):
Für i = 1, ..., N − 1
(k)
zi
(k+1)
= a−1
+ uwk + b)i
ii (Lw
(k+1)
wi
(k)
= max{wi
(k)
+ ω(zi
(3.34)
(k)
− wi ), fi }
(3.35)
Der folgende Satz stellt neben der eindeutigen Lösbarkeit von 3.30-3.32 die Konvergenz des obigen
Algorithmus gegen die Lösung sicher:
3.2.11 Satz (Cryer). Es sei A ∈ RN ×N eine symmetrische, positiv definitive Matrix, b, f ∈ RN
und ω ∈ (1, 2). Dann konvergiert die in 3.34 definierte Folge von Vektoren (w(k) )k∈N gegen die
eindeutig bestimmte Lösung von 3.30-3.32.
Beweis. Siehe [GJ, 214].
Zusammenfassend kann also durch folgenden Algorithmus der Preis einer amerikanischen Option berechnet werden:
• Fixiere die Gitterparameter a, b, m, k, h, s, die Fehlerschranke ǫ und den Relaxationsparameter ω
• Definiere die Randwerte w = w0 = f 0
• j-Schleife j = 1 : k − 1
– Definiere b = bj = Bwj + dj = Bw + dj
– v neu = max(w, f j+1 )
– SOR-Schleife while kv neu − vk2 > ǫ
∗ v = v neu
∗ for-Schleife i = 1 : m − 1
neu
neu
· z = (λθ(vi−1
+ vi+1
) + bi )/(2λθ + 1)
· vineu = max{vineu + ω(z − vineu ), fij+1 }
– wj+1 = w = v neu
• Transformation zurück in die Originalvariablen (t, S)
27
Eine Realisierung für K = 100, r = 0.1, σ = 0.4 und T = 1 mit dem Matlab-Code aus [GJ, 218] ergibt
folgenden Plot für P (0, S) in Abhängigkeit vom Preis S des Underlyings:
Preis einer amerikanischen Put-Option
100
amerikanische Put-Option
Payoff
90
80
Optionspreis P
70
60
50
40
30
20
10
0
0
20
40
60
80
100
Basiswert S
28
120
140
160
180
200
Literaturverzeichnis
[S] Rüdiger Seydel Einführung in die numerische Berechnung von Finanz-Derivaten Springer, 2000
[GJ] Michael Günther und Ansgar Jüngel Finanzderivate mit MATLAB vieweg, 2003
[BZ] Zdzislaw Brzezniak und Tomasz Zastawniak Basic Stochastic Processes Springer, 2007
[D] Flavius Guias Differentialgleichungen in der Wirtschaftsmathematik Skriptum TU Dortmund,
2011
[B] Tomas Björk Arbitrage Theory in Continous Time Oxford Finance, 2009
[C] P. Wilmott, S. Howison und J. Dewynne The Mathematics of Financial Derivatives Cambridge University Press, Cambridge, 1996
[P] Dirk Praetorius Numerische Mathematik Vorlesungsskript Technische Universität Wien, WS
2010/11
[K] Michael Kaltenbäck Analysis 3 Vorlesungsskript Technische Universität Wien, SS 2011
29
Herunterladen