Ohne Titel - ETH Zürich

Werbung
Indexgebundene Annuitäten mit Kapitalgarantien
Matthias Kirchner
6000
8000
10000
12000
14000
März 2012
0
500
1000
1500
ETH Zürich
Department Mathematik
Leitung:
Prof. Dr. Paul Embrechts (ETH) und Dr. Gerold Studer (NewRe)
Masterarbeit
Indexgebundene Annuitäten mit Kapitalgarantien
(Equity Indexed Annuities)
Die Abbildung auf der Titelseite zeigt anhand eines über sieben Jahre tageweise simulierten Indexverlaufs den Mechanismus einer Equity Indexed Annuity mit High Water Mark Feature:
Geboten wird der Return zwischen Anfangswert (untere Linie) und Maximalwert (obere Linie) an
den Monitordaten (gestrichelte Linien).
Abstract:
Die vorliegende Arbeit untersucht die Bewertung und die Absicherung von Equity Indexed Annuities (EIAs) in deren verbreitetsten Spielarten, nämlich Point to Point-, Compound und Simple
Ratchet- sowie High Water Mark-EIAs. Vorgestellt wird zunächst die Bewertung im Black-ScholesMerton Rahmen; hier wird für die diskrete HWM-EIA eine neue Formel samt R-Code präsentiert.
Weiter wird ein Hedgingalgorithmus vorgeschlagen, der die Greeks Delta, Gamma, Rho und Vega
berücksichtigt. Es wird eine MLE-Kalibration beschrieben für ein Finanzmarktmodell, das den Indexverlauf mit einem Regime Switching Log Normal Modell abbildet und den Zinsssatz mit dem
Cox Ingersoll Ross Modell. Unter Verwendung der berechneten Likelihoodfunktion wird weiter ein
Bayes’scher Ansatz gewählt zur Berücksichtigung der Parameterunsicherheit. Für die Simulation
von der entsprechenden a posteriori Dichte kommt ein Markovketten-Monte-Carlo zum Einsatz.
Mit diesen zufälligen Parametern wird vielfach von dem Finanzmarkmodell simuliert und so der
Expected Shortfall für den Hedgingalgorithmus geschätzt. Der Kapitalbedarf für dieses Verlustrisiko führt zu Kosten. Unter Berücksichtigung dieser Kapitalkosten werden faire Partizipationsraten
für die EIAs berechnet. Die so erhaltenen Produkte werden im letzten Kapitel einem Stresstest
ausgesetzt. Grundlage der Simulation bildet dann der Stationary Bootstrap, das heisst das zufällige
Verwenden historischer Daten. Als Resultat können wir das Verlustrisiko der verschiedenen Produkte vergleichen. Es stellt sich heraus, dass der Einfluss der Anzahl Monitor- bzw. Ratchetdaten
N erheblich ist: Steigt N , nimmt das Risiko deutlich ab.
“Wessen Hab und Gut, wessen Tisch und Bett darauf ruhen, dass er rechnen lerne, der lernt es
gemeiniglich leicht und recht gut.”
(Johann Heinrich Pestalozzi)
Danksagung
Diese Arbeit bildet den Abschluss meiner fünfjährigen mathematischen Studien.
Dass dieser Abschluss so gut und vor allem so lehrreich geglückt ist, habe ich Herrn
Dr. Gerold Studer zu verdanken, der mich auf das mathematisch ergiebige Thema
der variablen Annuitäten gestossen hat. Durch seine seltene Verbindung bester mathematischer Ausbildung mit breitestem Praxisbezug durfte ich durch ihn zahlreiche
Begriffe und Herangehensweisen aus der Industrie kennenlernen, von deren schierer
Existenz man in der rein akademischen Ausbildung kaum etwas erfährt. Ich fühlte
mich bestens betreut.
Herrn Professor Paul Embrechts danke ich für zwei wunderbare Vorlesungen, für das
entgegengebrachte Vertrauen beim etwas wenig fokussierten Beginn der Arbeit und
natürlich für das Teilhabenlassen an seinem enzyklopädischen Wissen: Zu jedem
Stichwort werden sofort die drei wichtigsten Autoren geliefert - samt historischgeographischem Kommentar und nicht selten auch samt privater Anekdote. Das ist
lebendige Mathematik! Zudem danke ich ihm für seinen warmherzigen Rat.
Meinen ersten mathematischen Abschluss, den Bachelor, durfte ich an der Universität Bern machen. Aus dieser Zeit danke ich Frau Professor Christiane Tretter für
ihre besondere Freundlichkeit und für vier sehr schöne Analysis-Vorlesungen, von
denen ich immer noch zehre. Herr Professor Lutz Duembgen von der Universität
Bern begleitete und unterstützte mein Mathematikstudium von Anfang an. Ohne
seine Starthilfe hätte ich vielleicht gar nicht Mathematik studieren können, und sein
steter Zuspruch half mir beim Durchhalten. Ihm danke ich deswegen ganz besonders.
Meiner lieben Gattin und den ebenso lieben Kindern danke ich für die grosse Geduld, die gerade in den letzten Monaten doch ziemlich strapaziert wurde, und für
das treue Mittragen meiner geheimnisvollen mathematischen Probleme über all die
Jahre; meinen Eltern danke ich für die stoisch-liebevolle Begleitung meines Lebens.
Ich widme diese Arbeit meiner geliebten Grossmutter, Frau Theresia Kräuter, von
der ich so vieles empfangen durfte.
M.K. am 11. März 2012
Inhaltsverzeichnis
Einleitende Worte
1
1 Annuitäten
5
1.1
Variable Annuitäten . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2
Indexgebundene Annuitäten . . . . . . . . . . . . . . . . . . . . . . . 11
2 Bewertung 1: Fairer Preis
6
21
2.1
Risikoneutrale Bewertung . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2
Black-Scholes-Merton Modell
2.3
Fairer Preis für die Point To Point Indexierung
2.4
Fairer Preis für die Ratchet Indexierungen . . . . . . . . . . . . . . . 33
2.5
Fairer Preis für die High Water Mark Indexierung . . . . . . . . . . . 38
2.6
Monte Carlo Simulation und Kontrollvariablenmethode . . . . . . . . 57
2.7
Bemerkungen zum Black-Scholes-Modell . . . . . . . . . . . . . . . . 65
. . . . . . . . . . . . . . . . . . . . . . 26
. . . . . . . . . . . . 31
3 Hedging
69
3.1
Einführung zum dynamischen Hedging . . . . . . . . . . . . . . . . . 69
3.2
Annahmen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.3
Hedging-Instrumente . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.4
Greeks der EIAs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.5
Hedging-Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
4 Bewertung 2: Risikozuschlag
105
4.1
Regime Switching Log Normal Modell . . . . . . . . . . . . . . . . . . 107
4.2
Cox-Ingersoll-Ross: Stochastische Zinsmodellierung . . . . . . . . . . 111
4.3
Finanzmarktmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
4.4
Kalibrierung: Maximum Likelihood Schätzung . . . . . . . . . . . . . 115
4.5
Bayes-Schätzer und Markovketten-Monte-Carlo . . . . . . . . . . . . 129
4.6
Markovketten-Monte-Carlo . . . . . . . . . . . . . . . . . . . . . . . . 133
4.7
A-posteriori-Verteilung der Finanzmarktparameter . . . . . . . . . . . 140
4.8
Risikozuschläge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
4.9
Bewertung der EIAs: Die Break-Even Partizipationsrate
. . . . . . . 149
4.10 Bemerkungen zum RSLN-Modell . . . . . . . . . . . . . . . . . . . . 154
5 Stresstest
156
5.1
Stationary Bootstrap . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
5.2
Stresstest der Bewertungen und Hedging-Algorithmen . . . . . . . . . 160
5.3
Resultate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
6 Schlussworte
170
6.1
Mögliche Folgerungen für Produktausgestaltung . . . . . . . . . . . . 170
6.2
Kritikpunkte und Ideen für Weiterarbeit . . . . . . . . . . . . . . . . 171
Einleitende Worte
Es ist der Traum jedes Anlegers:
Seine Wertpapiere nehmen nur an den Aufwärtsbewegungen des Marktes teil und
bleiben von Verlusten unberührt. Dass es in der Finanzwelt Produkte gibt, die genau dies garantieren, mag den Aussenstehenden zunächst überraschen. Wie soll das
funktionieren? Und in der Tat gibt es derlei Optionen bzw. Garantien noch nicht
lange: Im Kielwasser der bahnbrechenden Arbeiten von Merton, Black und Scholes
schrieb Barry Goldman 1979 mit Kollegen den Artikel “Path Dependent Options:
Buy at the Low, Sell at the High”. Basierend auf den Ideen von Merton, Black und
Scholes stellten die Autoren hier detailliert die Bewertung und das Hedgen von sogenannten “Lookback”-Optionen vor: Zum Fälligkeitszeitpunkt hat der Besitzer das
Recht, das Underlying zum bisher höchsten Preis zu verkaufen. Interessant ist: Bis
zu diesem Zeitpunkt, gab es derlei Optionen noch gar nicht auf dem Markt!
Heute, gut 30 Jahre später, sind Lookback-Optionen selbstverständlicher Teil des
Optionsmarktes. Die vorliegende Arbeit befasst sich nun nicht direkt mit diesen
Optionen, sondern mit indexgebundenenden Lebensversicherungen (verbreiteter ist
die englische, titelgebende Bezeichnung “Equity Indexed Annuities”), deren Ausgestaltung viele Analogien aufweist mit der Struktur von Optionen. Die verschiedenen
Partizipationsarten in diesem Zusammenhang heissen “Point to Point”, “Ratchet”
oder “High Water Mark”. Bei all diesen Partizipationsarten ist der eingangs zitierte Anlegertraum in einem gewissen Sinn Realität geworden: Die einbezahlte Prämie nimmt an den Aufwärtsbewegungen des Index teil; Abwärtsbewegungen werden
ignoriert. Betrachten wir als erstes Beispiel die auf dem Titelblatt dargestellte High
Water Mark Methode, bei der quasi der Höchststand des Index garantiert wird: Der
Versicherungsnehmer zahlt zur Zeit 0 die Einmalprämie P und erhält am Ende der
Laufzeit (T ) als Auszahlung
P·
N
RHWM
✓
:= P · 1 + ↵
✓
MTN
S0
1
◆◆
, wobei MT := max(St0 , St1 , ..., StN ).
0 = t0 < t1 < ... < tN = T bezeichnen die sogenannten Monitordaten; (St )t2[0,T ]
bezeichnet den Indexverlauf und ↵ > 0 die sogenannte Partizipationsrate. Es fällt
also schon auf, dass die Höchststand-Garantie nicht das Maxima über die ganze
1
Laufzeit, sondern nur zu diskreten (meist jährlichen) Monitordaten berücksichtigt dies im Gegensatz zur Lookback-Option, die mit N ! 1 als Grenzfall der High-
Water-Mark-Methode verstanden werden kann. Neben diesen Partizipationsmöglichkeiten wird meist zusätzlich noch eine “äussere” Garantie, die sogenannte “Life
of Contract”-Garantie geboten: Egal welchen Wert die Indexpartizipation erreicht,
garantiert erhält man einen Anteil
der Prämie zu einem fixen rg verzinst. Wenn
wir also
G := (1 + rg )T
setzen, ergibt sich im HWM-Fall die Auszahlung zum Laufzeitende für den Versicherungsnehmer als
N
P · max(G, RHWM
).
Dem Versicherer bieten sich neben der Auswahl des Index und der Laufzeit folgende
Kontrollvariablen:
• ↵, die Partizipationsrate,
•
, der Anteil der Prämie, der garantiert verzinst wird,
• rg , der garantierte Zinssatz für diesen Anteil,
• Caps, d.h. Schranken, auf dem möglichen Indexgewinn und
• N + 1, die Anzahl der Monitordaten
Die vorliegende Arbeit untersucht die Bewertung und Absicherung solcher Garantien. Im ersten Kapitel werden die fraglichen Produkte und ihre Rolle in der Praxis
vorgestellt. Im zweiten Kapitel wird der faire Preis dieser Verträge im Black-ScholesMerton-Rahmen berechnet, im darauffolgenden eine mögliche Hedgingstrategie besprochen. Anschliessend wird dieser Hedgingalgorithmus in einem vierten Kapitel
Simulationen unter realistischeren Bedingungen - mit stochastischer Modellierung
von Volatiliät und Zinssatz - ausgesetzt. So erhalten wir eine Idee von der Verlustverteilung des Versicherers. Ausgehend von dieser Verteilung bestimmen wir einen
Risikozuschlag, den der Versicherer zusätzlich zum fairen Preis verlangen sollte. Im
fünften und letzten Kapitel prüfen wir die Resultate der bisherigen Bewertungen in
2
einem Stresstest, indem wir die Verbindlichkeiten mit Hilfe von historischen Indexdaten simulieren.
Ein besonderes Augenmerk wird überall auf die Rolle der Anzahl von Monitordaten N gelegt. Intuitiv denkt man, dass das Verlustrisiko für die Versicherung wohl
steigt mit wachsender Anzahl von Monitordaten. Denn mehr Monitordaten, mehr
Zuwachsmöglichkeiten. Allerdings: Mehr Monitordaten heisst ja wohl in irgendeinem Sinne kleinere Varianz, oder? Hierzu fand sich in der bisherigen Literatur keine
systematische Untersuchung. Die Resultate sollen anregen, einen Vertrag nicht wie
üblich via den Beteiligungen , ↵, dem garantierten Zins rg und den Caps (das heisst
Gewinnschranken) zu optimieren, sondern auch gezielt den Parameter N hierbei zu
verwenden. Das könnte für das Gestalten attraktiver Produkte interessant sein.
3
Glossar der verwendeten Abkürzungen und Symbole
Partizipationsrate
↵
Anteil der Prämie, der garantiert fix verzinst wird
(Bt )t2[0,T ]
Risikofreier Bond mit B0 = 1
BSM
Black Scholes Merton
c
Cap
CR
Compound Ratchet
c(⌧, S, K)
BSM - Wert einer Calloption mit Restlaufzeit ⌧
aktuellem Wert des Underlying S und Ausübungspreis K
EIA
Indexgebundene Annuität (“Equity-indexed annuity”)
G
:=
· P · (1 + rg )T ,
garantierte Auszahlung am Ende der Laufzeit
0 = h0 < h1 < ... < hM = T
Hedgingdaten
HWM
Höchststandsgarantie (High Water Mark)
N
Abstand zwischen den Monitordaten (=T /N )
Et [·]
:=E[·|Ft ] für die jeweils angenommene Filtration F
MN
=: max{S0 , St1 , ..., StN } für N < 1 und M 1 =: max St
N
Anzahl Ratchet- bzw. Monitordaten
VA
Variable Annuität
P
Einmalprämie
PEMG
(REIA
PTP
Point to Point
REIA
Allgemeines Symbol für den Return einer Indexierungsart
r
Risikofreier annualisierter und kontinuierlicher Zinssatz
r1
:=r +
2
/2
r2
:=r
2
/2
rg
Garantierter diskreter jährlicher Zinssatz
S
Indexverlauf
S⇤
:=S/B, diskontierter Indexverlauf
SR
Simple Ratchet
t0 < t1 < ... < tN
(Equidistante) Monitordaten
T
Laufzeit in Jahren
Yi
:=log Sti /Sti 1 , das heisst Logreturn zwischen ti
4
“ist propotional zu”
/
t2[0,T ]
G)+ , Payoff in Excess of Minimum Guarantee
1
und ti
1
Annuitäten
Eine Annuität ist zunächst einmal nichts anderes als eine jährlich wiederkehrende
Zahlung. Etwas enger gefasst wird der Begriff im folgenden, wo er Alterskapitalverträge meint - unabhängig von der Auszahlungsstruktur. Bei einer fixen Annuität
weiss man im Vornherein, wieviel an Auszahlung man erwarten darf. Fixe Annuitäten kannten bereits die Römer: Für eine einmalige Prämie versprach die “annua” jährliche Zahlungen bis ans Lebensende. In der Neuzeit, etwa während des 30-jährigen
Krieges, verwendeten die europäischen Staaten annuitätsartige Verträge, um ihre
Kämpfe zu finanzieren.
Ein interessantes Beispiel einer bereits etwas komplizierteren Struktur ist etwa aus
England überliefert: 1693 verkaufte der Staat für jeweils 100 Pfund Anteile an der
sogenannten “State Tontine” 1 , um Kapital für den Krieg gegen Frankreich aufzubringen. Der Käufer konnte einen Begünstigten - meist ein Kind - bestimmen, der
mit einer lebenslänglichen Rente bedacht wurde. Wenn nun ein dermassen Begünstigter verstarb, hörte dessen Rente nicht etwa auf zu fliessen, sondern wurde auf die
verbleibenden Empfänger umverteilt. Dies solange, bis der letzte der Gruppe - der
dann wohl recht reich war - schliesslich starb. Raffiniert und ein ziemlich gutes Verkaufsargument! Ob die Verbreitung dieses Produktes wohl Einfluss auf die Mordrate
hatte?
Dieses Beispiel könnte jedenfalls schon als variable Annuität gelten: Der jährliche
Geldfluss ist nicht mehr fix, sondern hängt von den Umständen ab (in obigem Fall
davon, wie schnell sich die Gruppe verkleinert). Heute versteht man unter einer
variablen Annuität speziell ein Lebensversicherungsprodukt, bei dem die Prämie
in Wertpapiere angelegt wird, der Versicherer aber zugleich eine gewisse Summe
garantiert. So kann der Versicherungsnehmer einerseits an Finanzmarktgewinnen
teilhaben, andererseits wird ihm durch die Garantie die Grundsicherung geboten,
die er für seinen Ruhestand wünscht und braucht.
Ausserdem gibt es seit den 1990er Jahren eine Sonderform der variablen Anuitäten,
nämlich die sogenannten indexgebundenen Annuitäten. Hier bekommt der Versicherungsnehmer einerseits eine fixe Verzinsung seiner Prämie garantiert, anderseits lässt
1
Der nicht einzuordnende Name dieser Versicherungsart stammt einfach von ihrem Erfinder,
dem italienischen Bankier Lorenzo de Tonti (1602-1684).
5
ihn das Produkt an der Entwicklung eines gewählten Index (etwa DAX, S&P 500
oder NASDAQ 100) teilhaben. Oftmals wird die Art der Partizipation mit zusätzlichen "Bells and Whistles"versehen. Ist die Teilhabe pur, spricht man von der “Point
to Point”-Methode. Die beiden Hauptverfeinerungen sind die sogenannte “Ratchet”und die sogenannte “High Water Mark”-Methode. Um diese drei Arten von indexgebundenden Annuitäten soll es in dieser Arbeit gehen. Um Relevanz und Bedeutung dieser Produkte besser einordnen zu können, werden im folgenden zunächst
die verschiedenen Formen von Annuitäten samt ihrer typischen Umsetzung genauer
vorgestellt. Bei den Definitionen der verschiedenen variablen Annuitäten hält sich
dieser Text an das Buch “Variable Annuities” [16] von 2009.
1.1
Variable Annuitäten
Eine variable Annuität (VA) ist ein Lebensversicherungsprodukt zumeist mit Einmalprämie, dessen Auszahlung einerseits vom Wert einer Garantie, andererseits von
der Performance eines Fonds abhängt. Dem Kunden bieten sich folgende Vorteile:
• Wie reine Fondbeteiligungen können VAs ein grosses “Upside Potential” bieten.
• Ähnlich wie klassische Lebensversicherungen sind VAs wegen ihrer “Downside”Garantien geeignet zur langfristigen Kapitalsicherung.
• Auf das investierte Geld dürfen Gläubiger nicht zugreifen.
• In den meisten Ländern ist der Steuersatz für VA-Gewinne tief wegen ihres
Versicherungscharakters.
• Bei klassischen Kapitalanlagen werden die Erträge jährlich besteuert. Gewinne
von VAs werden aber erst am Ende der Laufzeit (etwa 5 bis 20 Jahre) einmalig
besteuert. Dieses sogenannte “Tax Deferal” erlaubt Zinseszinseffekte bei VAs,
die sonst entfallen.
Die Garantien haben natürlich ihren Preis. Hier die Haupteinbussen für den Versicherungsnehmer:
• Es fallen Gebühren an.
6
Abbildung 1: Erhebung des amerikanischen VA-Markt Volumen von LIMRA International.
• Die Verträge lassen den Kunden kaum voll an den Gewinnen der Fonds teilhaben.
• Der Kunde kann das Kapital nur unter grossem Verlust aus dem Vertrag lösen.
• Die Verträge sind teilweise ziemlich undurchsichtig und kompliziert.
• Der Kunde hängt von der langfristigen finanziellen Gesundheit des Versicherers
ab.
Die Vorteile scheinen für die Kunden aber zu überwiegen. Nur so erklärt sich der
riesige Erfolg von variablen Annuitäten in den letzten Dekaden (siehe Abbildung 1).
Die Hauptmärkte sind heute Nordamerika (seit den 50er Jahren), Asien (vor allem
Japan, seit den 90er Jahren) und Europa (erstes VA-Produkt 2006: AXA “Twin
Star” in Deutschland). Gerade auch das starke Wachstum der Bevölkerung 65+ in
diesen Ländern lässt vermuten, dass Produkte zur Altersanlage überhaupt und mit
ihnen eben auch variable Annuitäten immer mehr nachgefragt werden.
Der Attraktivität für den Versicherungsnehmer stehen die Komplikationen der Versicherer gegenüber, die VA-Produkte entwickeln. Scott Robinson von der Ratingagentur Moody’s schreibt in [16]:
"We view VAs with guarantees as being at the higher end of the risk
spectrum of life-insurance-company products. Also, notwithstanding a
robust product-development process, the extent of a VA risk may not be
fully known and understood at the time the product is first introduced."
7
Und von EIOPA [6] (“European Insurance And Occupational Pensions Authority”)
wird zwar festgehalten, “VAs do not currently pose a systemic risk for the wider
financial system.”, zugleich kann man aber dort lesen:
“Even though the current size of VAs’ EU market seems not to give raise to systemic threats, the Task Force considers that its development
should be closely monitored as it could pose procyclical threats. We therefore believe that there is a need to gather data and monitor exposures
not only on size but on the marginal propensity to rebalance following
market movements. VAs business requires extensive additional skills and
knowledge compared to traditional life insurance. Insurers could fail to
build sufficient skills and knowledge. Also in this case, this could prevent
the insurer from fully understanding all risks it is exposed to. Due to the
frequent recourse to outsourcing the fit and proper requirements should
apply to the key persons performing the outsourced functions.”
An diesen kurzen Zitaten erkennt man schon, dass die eingegangenen Risiken für
Verkäufer von VAs besonders komplex sind. Die Risiken, die für die Versicherer
entstehen, sind in der Tat vielfältig:
• Anlagerisiko: Muss der Versicherer am Ende der Laufzeit für den Garantiewert
geradestehen? Wie werthaltig ist die Garantie?
• Wechselkursrisiko
• Zinsrisiko
• Kundenverhalten (“Lapse Risk”): Es werden immer eine Anzahl Versicherungsnehmer aus ihrem Vertrag aussteigen - egal wie streng die Auflagen für vorzeitige Kündigung der Anlagen ausgestaltet sind. Mangels Daten sind die Zusammenhänge hierbei noch ungeklärt.
• Sterblichkeits-/Langlebigkeitsrisiko: Vom Todes- oder vom Erlebensfall profi-
tiert der Kunde bzw. seine Familie oft besonders. Diese biometrischen Risiken
kann der Versicherer allerdings meist quasi deterministisch betrachten, da die
Datenlage ausgezeichnet ist, und das Gesetz der grossen Zahlen zum Tragen
kommt.
8
• Gegenparteirisiko - falls Risiken weiterverkauft wird. Dieses Risiko kann heutzutage allerdings gering gehalten werden durch sogenanntes “Colateral Hedging”: In regelmässigen Abständen stellen sich die Vertragspartner je nach
Werthaltigkeit des Vertrags liquide Mittel als eine Art Pfand zu Verfügung.
Bei einem etwaigen Ausfall des in der Schuld stehenden Partners werden diese
Mittel mit den Forderungen verrechnet.
In dieser Arbeit betrachten wir vor allem das Anlagerisiko. Hier gibt es für den
VA-Verkäufer prinzipiell drei Möglichkeiten. Er behält die Risiken im Haus, er kauft
ein equivalentes Produkt bei einer Investmentbank oder er schliesst eine Rückversicherung ab. Sicher ist: An irgendeinem Punkt der “Risikonahrungskette” muss sich
jemand die Frage stellen, ob man das Verlustrisiko durch Hedgen senken kann und
soll. Wir werden sehen, dass dies - wie bei Optionen - lohnenswert ist. Das Bewerten
und das Hedging bringen allerdings selber wieder eine Anzahl operationeller Risiken mit sich: Etwa Modellrisiko, Hedgingfehler, Liquiditätsrisiko (sind die nötigen
Hedge-Instrumente überhaupt verfügbar?) und wiederum Gegenparteirisiko.
Variable Annuitäten in der Praxis
Der Interessent für variable Annuitäten in den USA wird vom Angebot geradezu
erschlagen. Ohne professionelle Hilfe ist man hier wohl ziemlich hilflos. Grob gesagt
kann man sich bei allen Anbietern zunächst für einen angebotenen Fond entscheiden.
Der grosse amerikanische Versicherer Metlife bietet derzeit fast 50 solcher Partizipationsmöglichkeiten. Diese sind dann mit kleineren Einschränkungen frei kombinierbar mit einer etwa ebenso grossen Anzahl von Vertragsstrukturen (Garantieart,
Laufzeit, Ein- und Auszahlungsmuster). Geht man von zehn Firmen mit einem solchen Angebot aus, sind für den amerikanischen Kunden 10 · 50 · 50 = 250 000 VA-
Verträge nur einen Mausklick entfernt - vorsichtig geschätzt. Das nennt man Qual
der Wahl! Dazu kommt, dass die einzelnen Verträge als Konsequenz des amerikanischen Rechtssystems unglaublich detailliert ausgearbeitet sind; nur so können sich
die Versicherer gegen allfällige Klagen absichern. In Europa sind die Vertragsarten
und auch die Verträge selber deutlich übersichtlicher.
Hüben wie drüben vom Atlantik liegen die typische Prämiensumme zwischen 20’000
und 100’000 Euro. Für kleinere Summen lohnt sich der administrative Aufwand
9
Variable Annuities – Typical guarantees
GMDB
GMIB
Guaranteed lump sum in
case of death („Roll-up“)
Guaranteed income
agreed in year 0
130%
100%
130%
100%
0 1 2 3 4 ……………….………..…30 years
GMAB
0 1 2 3 4 5………………………..…30 years
Guaranteed lump
sum at maturity
GMWB
Guaranteed amounts
for withdrawals
130%
100%
100%
0 1 2 3 4 5………………………..…15 years
0 1 2 3 4 ……………………… 12 years
Guarantee
10.09.2010
Fund value
-6-
Abbildung 2: Die vier verbreitetsten Vertragsarten von VAs in einer Graphik von Studer [23]
bei den Versicherungen meist nicht; bei deutlich höheren Summen wird der potenzielle Kunde auf Herz und Nieren geprüft: Wie gesund oder krank ist er? Woher
kommt das viele Geld genau? Obere Schranken für die Prämie werden aber selten explizit aufgeführt. Ausgeschlossen als Kunden sind rein instititionelle Parteien.
Denn trotz ihrer Kapitalanlage-artigen Struktur gelten VAs rechtlich immer noch
als (Lebens-)Versicherungen (mitsamt der oben beschriebenen steuerlichen Vorteile)
und als solche stehen sie nur realen Personen offen. In Abbildung 1 konnten wir
bereits ein Gefühl für die Grössenordnung des VA-Marktvolumens bekommen: Es
geht um Hunderte von Milliarden Prämiendollar pro Jahr. Etwas konkreter kann
man sagen, dass ein grosser Versicherer im VA-Geschäft jährlich mehrere tausend
neue VA-Verträge abschliesst. Trotz der detailreichen Vielfalt kann man die meisten
Verträge zunächst einer der folgenden Strukturen zuordnen:
• Guaranteed Minimum Death Benefit (GMDB):
Eine Mindestauszahlung im Todesfall ist garantiert.
• Guaranteed Minimum Accumulation Benefit (GMAB):
Einmalige Mindestauszahlung am Ende der festgelegten Laufzeit
• Guaranteed Minimum Income Benefit (GMIB):
10
Jährliche Mindestzahlungen sind garantiert.
• Guaranteed Minimum Withdrawal Benefit (GMWB):
Jährlicher Mindestbezug vom investierten Kapital ist garantiert.
In Abbildung 2 sind die Vertragsarten beispielhaft graphisch dargestellt. Die Mindestgarantie beinhaltet meist die Rückzahlung der eingezahlten Prämie - eventuell
sogar verzinst. Das wird “Roll-up” genannt. Wir werden es in dieser Arbeit mit einer GMAB-Struktur zu tun haben. Verfeinerte Garantie- und Partizipationsformen
werden im nächsten Abschnitt zu indexgebundenen Annuitäten vorgestellt.
1.2
Indexgebundene Annuitäten
Bei den indexgebundenen Annuitäten handelt es sich um eine Spezialform von variablen Annuitäten. Seit den 1990er Jahren in den USA werden diese Produkte
angeboten. Sie machen weniger als 10 Prozent des gesamten VA-Handels aus (10
Mrd.$ von 110 Mrd.$ 2001). Geboten wird meist die Partizipation an der Entwicklung eines Aktienindex samt garantierter fixer Mindestverzinsung einer Einmalprämie über einen festgelegten Zeitraum, also nichts anderes als der oben eingeführte
“Guaranteed Minimum Accumulation Benefit” (GMAB). Für den Todesfall gibt es
verschiedene Regelungen. Mal erhalten die Begünstigten den “Indexwert”, mal den
Garantiewert. Für die Erträge, die von der Entwicklung des Index abhängen, gibt
es im wesentlichen drei Arten: Die Point to Point-Methode, die Ratchet-Methode
und die High Water Mark-Methode. Die Bewertung und das Absichern dieser drei
EIA-Spielarten bilden das Herzstück dieser Arbeit. Für die Definitionen führen wir
zunächst folgende Abkürzungen ein. In Klammern findet sich jeweils der entsprechende Wert eines typischen Beispiels2 :
2
Für einen typischen Wert sind die 100’000 EUR für die Einmalprämie wohl eher zu hoch gegriffen. Wir wollen den Betrag aber auch in den Beispielen verwenden und so sind die Veränderungen
am übersichtlichsten.
11
P
Einmalprämie (100’000 EUR)
T
Laufzeit (7 Jahre)
(St )0tT
Indexverlauf (DAX)
↵
Partizipationsrate (60%)
rg
garantierter (diskreter) jährlicher Zinssatz (3%)
Anteil der Prämie, der als fixe Annuität angelegt wird (95%)
G
N
:= · · (1 + rg )T , garantierter Returnfaktor in T (1.168)
Ratchet- bzw. Monitordaten3 (14, d.h. halbjährlich)
In jedem der betrachteten Fälle erhält der Versicherte am Ende der Laufzeit mindestens die Garantie
P · G := P ·
d.h. den Anteil
· (1 + rg )T ,
von der Prämie zu einem fixen Satz rg verzinst. Darüber hinaus
bieten die EIAs die Möglichkeit, auf eine bestimmte Weise REIA an der Entwicklung
eines Index teilzunehmen. Das jeweilige REIA nennen wir “Indexierungsmethode”,
das jeweilige G nennen wir die “Life of Contract”-Garantie (LOC). Am Ende der
Laufzeit erhält der Kunde also
P · max (REIA , G)
Wir werden später sehen, dass der Versicherer die anfangs erhaltene Prämie P nicht
etwa in den Index, sondern zum Grossteil tatsächlich in eine risikofreie Anlage investiert. Die LOC-Garantie P ·G kann er so in jedem Fall aufbringen. Die Verpflichtung
des Versicherers zum Ende der Laufzeit über die LOC-Garantie hinaus ist also im
Wesentlichen
P · (REIA
G)+ .
Diesen Term nennen wir “Payoff in Excess of Minimum Guarantee” (PEMG).
Nun können wir die verschiedenen EIA-Arten einführen. Allen Definitionen folgt ein
3
Hier sind wir etwas ungenau, denn t0 = 0 ist zwar kein Ratchetdatum, dafür aber ein Monitordatum. Genaugenommen gibt es also N + 1 Monitordaten. Wir reden aber auch weiterhin immer
von N Monitordaten, meinen damit t0 < t1 < ... < tN und verstehen bei der Zählung t0 also quasi
als “unechtes” Monitordatum.
12
5000
2000
3000
4000
Indexpunkte
6000
7000
8000
DAX 2003-2010
0
500
1000
1500
Tage
Abbildung 3: Tagesendstände des DAX von Anfang 2003 bis Anfang 2010. Die gestrichelten
Linien bezeichnen beispielhafte Ratchet- bzw. Monitordaten (mit N = 14, das heisst halbjährlich).
Beispiel, das die typischen Zahlen aus obiger Liste verwendet und das sich jeweils
auf die historischen DAX-Werte in Abbildung 3 bezieht.
Point to Point (PTP)
Dies ist der einfachste Fall. Der Versicherte erhält am Ende der Laufzeit das Maximum von der Garantiesumme P · G und
✓
P · RPTP := P · 1 + ↵
✓
ST
S0
1
◆◆
,
also
P · max(G, RPTP ).
↵ ist die sogenannte Partizipationsrate. Der PEMG (RPTP
PTP-Fall umschreiben zu
↵P
S0
✓
ST
S0
(G
↵
13
(1
↵))
◆+
.
G)+ , lässt sich im
Dies ist die Struktur einer “Plain Vanilla Call Option” auf den Index S mit Laufzeit
T und mit Ausübungspreis (“Strike”)
S0
↵
✓
G
P
(1
◆
↵) .
Hier bieten sich natürlich sofort die üblichen Bewertungsformeln an, und diese werden im nächsten Kapitel auch verwendet. Aber schon an dieser Stelle soll darauf
hingewiesen werden, dass sich Optionen und die vorgestellten Garantien trotz der
offenbaren strukturellen Gleichheit in einem Punkt grundsätzlich unterscheiden: In
der Laufzeit! So ist - um dies vorwegzunehmen - etwa die Annahme konstanter
Volatilität und konstanter Zinssätze je unrealistischer, desto länger die Laufzeit.
Beispiel:
Der Index steigt während der Laufzeit von sieben Jahren von etwa 3’000
auf etwa 6’000 Punkte (siehe Abbildung 3), macht also einen Gewinn von
60 000/30 000
1 = 100%. Für eine Partizipationsrate von ↵ = 0.6 bringt die
PTP-Indexierungsmethode entsprechend einen Return4 von 0.6 · 100% = 60%.
Der garantierte Return ist G 1 = ·(1+rg )7 1 = 0.95·1.037 1 ⇡ 17%und damit deutlich kleiner als der Gewinn, der durch die Indexierungsmethode entsteht.
Man sagt: “Die LOC-Garantie ist wertlos”. Bei einer Einmalprämie von 100’000
Euro erhält ein Versicherungsnehmer also P · 1.6 = 1600 000 Euro ausbezahlt.
Compound Ratchet (CR) und Simple Ratchet (SR)
Dem englischen Wort “Ratchet” begegnen wir in der alemannischen Fasnachts “Rätsche” wieder. Eher Krachmach- als Musikinstrument wird es in katholischen
Landstrichen zum eigentlich heidnischen Winteraustreiben verwendet. Die Funktionsweise ist die, dass eine flache, lange Holzzunge an einem Holzzahnrad “rundumschneddert”. Die Zahnradzacken sind so geschnitzt, dass sich das Rad in die eine
Richtung dreht und in die andere blockiert. Das ist auch die Mechanik der Ratchet4
Achtung: Hier und an den meisten Orten ist mit “Return” oder auch “Rendite” nicht unbedingt
eine jahresweisen Veränderung gemeint, sondern je nach Zusammenhang die prozentualen Zuwächse
innerhalb eines Ratchetintervalls etwa oder auch - wie in diesem ersten Beispiel - die prozentualen
Gewinne über die ganze Laufzeit gesehen.
14
Indexierung. Es geht gewissermassen nur aufwärts, nicht abwärts.
Wieder haben wir als Versicherungsnehmer die Summe P · G auf sicher. Zusätzlich
nehmen wir teil an der Entwicklung eines Index zwischen N + 1 equidistanten Ratchetdaten t0 := 0, t1 := T /N, t2 := 2T /N, ..., tN := T . Aber jeweils nur, wenn
der Index in dem betrachteten Ratchetintervall [ti , ti+1 ] ansteigt, ansonsten sind die
bisherigen Gewinne blockiert (“locked in”). Es werden zwei Fälle unterschieden: Der
Compound- und der Simple-Ratchet. Im CR-Fall profitiert der Versicherungsnehmer
von Zinseszinseffekten, im SR-Fall nicht. Formal:
P
N
Y
1+↵
n=1
P
✓
St n
St n 1
1
✓
N
X
St n
1+
↵
St n 1
n=1
◆+ !
1
(Compound Ratchet)
◆+ !
(Simple Ratchet)
Auch hier gibt es wieder eine Partizipationsrate ↵. Wir werden sehen, dass sie der
der Schlüssel ist, um den Preis für die Absicherung der Indexierungsmethoden zu
kontrollieren. Ein weiterer verbreiteter Weg um die Absicherung des Ratchets in
der Praxis nicht zu teuer werden zu lassen, ist die Einführung sogenannter “Caps”,
bei denen der Gewinn in einem Ratchetintervall ein fixes c nicht überschreiten darf.
Zum Beispiel 10% bei jährlichem Ratcheting.
Beispiel:
Der Index macht in fast jedem der 14 Ratchetintervalle einen Gewinn, nämlich
Intervallnummer
1
2
3
4
5
6
7
1.34
25.62
2.95
3.56
9.34
14.73
0.36
8
9
10
11
12
13
14
Return in Prozent 20.86
19.73
3.47
-16.29
-31.37
11.24
10.81
Return in Prozent
Intervallnummer
Von den grossen Verlusten in den Intervallen 11 und 12 bleibt unser Kapital
verschont, denn alle negativen Returns werden gleich Null gesetzt - das ist ja
das attraktive Versprechen des Ratchets. Ausserdem werden alle Returns mit
der Partizipationsrate ↵ = 0.6 multipliziert. In den 14 Ratchetintervallen wird
unsere Einmalprämie also halbjahresweise wie folgt verzinst:
15
Intervallnummer
1
2
3
4
5
6
7
0.80
15.37
1.77
2.13
5.60
8.83
0.21
8
9
10
11
12
13
14
Return in Prozent 12.51
11.83
2.08
0
0
6.74
6.48
Return in Prozent
Intervallnummer
Dieser Werte führen am Ende einer Laufzeit von sieben Jahren bei einer Einmalprämie von 100’000 Euro zu einem Auszahlung von 203’312 Euro im CR-Fall,
wo die Zinseszinseffekte berücksichtigt werden, und zu einem Wert von 174’406
Euro im SR-Fall, wo einfach verzinst wird.
High Water Mark (HWM)
Seltener begegnet man der ebenfalls mit einem klangvollen Namen ausgestatteten
“High-Water-Mark”-Indexierung. Neben der Mindestgarantie G wird der Höchststand des Index M N := max{St0 , ..., StN } bezüglich N + 1 equidistanter Monitordaten angeboten:
P
✓
1+↵
✓
MN
S0
1
◆◆
Anders als bei den Ratchetmethoden müssen wir hier beim Gewinnterm M N /S0
nicht M N /S0
1
+
1
schreiben, denn M N /S0 ist ja in jedem Fall grösser gleich 1.
Auch hier gibt es wieder eine Partizipationsrate ↵. Auf dem Markt finden sich auch
Beispiele mit Caps, das heisst mit oberen Gewinnschranken. Anders als im Optionsmarkt (“Lookbackoptionen”) sind uns hier keine realen Beispiele für kontinuierliches
(realistischerweise wohl tägliches) Monitoring begegnet. Aus zwei Gründen untersuchen wir diese Situation dennoch genau wie die anderen Partizipationsarten: Erstens
haben wir in dieser Arbeit ein besonderes Augenmerk auf den Einfluss der Anzahl
Monitordaten, und so ist der kontinuierliche Fall als Grenzfall des diskreten Monitoring interessant. Zweitens werden wir für das Hedging die Sensitivitäten der
diskreten HWMs mit denen der kontinuierlichen annähern. Was dies bedeutet, wird
in Kapitel 3 genau erklärt. Mit kontinuierlicher HWM-Indexierung meinen wir also
P
✓
1+↵
✓
maxt2[0,T ] St
S0
16
1
◆◆
.
Beispiel:
Der DAX startet Anfang 2003 bei etwa 3000 Punkten und erreicht seinen Höchststand (bezüglich der Monitordaten) beim Monitordatum t10 mit etwa 8000 Punkten. Die HWM-Indexierungsmethode mit Partizipationsrate ↵ = 0.6 bringt also
einen Return von 0.6*(8000/3000-1)=100%. Das heisst, am Ende der Laufzeit
erhält der Versicherungsnehmer das Doppelte seiner einbezahlte Prämie zurück,
und die LOC-Garantie (etwa 17% Rendite) verfällt. In diesem Beispiel würde
kontinuierliches Monitoring den Return kaum vergrössern.
Übersicht
Rein formal ergibt sich, dass für N = 1 die HW M -Indexierung und die beiden
Ratchet-Methoden sich genau entsprechen5 . Die P T P -Methode ist in der vorgestellten, üblichen Definition ein Sonderfall, da hier beim Return
RPTP = (1 + ↵ (ST /S0
1))
auch Verluste möglich sind (d.h. RPTP < 1). So ist einerseits die Bewertung einfacher, andererseits ist bei typischen Werten von
und T die Garantie G ohnehin
grösser als 1, so dass der Return-Wert bei einem etwaigen Verlust keine Rolle mehr
spielt. Zusammenfassend seien hier die Returns REIA der verschiedenen Indexierungsmethoden samt dem für den Versicherer jeweils resultierenden PEMG P · HEIA
dargestellt:
P · HPTP := P · (RP T P
✓
ST
RP T P := 1 + ↵
S0
5
G)+ , wobei
◆
1
Diesen Umstand kann man sich sehr gut für eine schnelle erste Probe der programmierten
Bewertungen nutzbar machen!
17
N
N
P · HCR
:= P · RCR
N
RCR
:=
N
Y
1+↵
n=1
G
✓
N
N
P · HSR
:= P · RSR
N
RSR
+
St n
St n 1
G
1
◆+ !
+
✓
N
X
St n
:= 1 +
↵
St n 1
n=1
1
◆+
+
N
N
P · HHWM
:= P · RHWM
G
✓
max{St0 , ..., StN }
N
RHWM
:= 1 + ↵
S0
1
◆
Das jeweilige R nennen wir “Indexierungsmethode”, das jeweilige G nennen wir die
“Life Of Contract”-Garantie (LOC) und das jeweilige H den “Payoff in Excess of
Minimum Garantee” (PEMG).
Variable und indexgebundene Annuitäten
Fond- und indexgebundene Annuitäten sind natürlich sehr verwandt. Es gibt aber
einige gewichtige Unterschiede [12]:
• VAs sind schwieriger abzusichern (“hedgen”), denn auf einen individuellen Fond
gibt es in der Regel keine Optionen zu kaufen. Also muss man selber hedgen.
Dazu muss man Annahmen zur Korrelation zwischen den Komponenten treffen. Das ist natürlich sehr fehleranfällig. Wird der Fond sogar aktiv verwaltet,
d.h. immer wieder umgeschichtet, ist man mit dem entsprechenden Umschichten des “Hedge”-Portfolios immer zu spät dran.
• Auch die kürzere Laufzeit von EIAs erlaubt dem Versicherer eher als bei VAs
das Kapitalmarktrisiko mit dem Kauf entsprechender Optionen weiterzugeben.
Allerdings sind etwa sieben Jahre (als typische EIA Laufzeit) immer noch eine
lange Laufzeit für eine Option. Das bringt zwei Nachteile: Erstens ist der Markt
18
für derart langfristige Optionen nicht besonders liqide, und zweitens wird der
Verkäufer der Option die zusätzliche Unsicherheit, die durch die lange Laufzeit
entsteht, in der Bewertung ausgleichen durch eine höhere Volatilitätsannahme
und also einen höheren Preis verlangen.
• EIAs sind wohl auch darum weniger verbreitet als VAs, weil sie auf Kunden
konservativer wirken als “fancy” Fonds. Auch ist für die Versicherer die Fondwahl ein Mittel sich von der Konkurrenz abzugrenzen.
Finanzierung
Der Versicherer muss vieles bezahlen (Risikomanagement, Verwaltung, provisionsintensiver Vertrieb) und bekommt über die Prämie (in unserem Fall die Einmalprämie
P ) hinaus nichts für seine Leistungen bezüglich des EIA-Vertrags. Er muss also einen
Weg finden, seinen Anteil von diesem P abzuzweigen. Im Fall der EIAs funktioniert
das wie folgt: Der Versicherer erhält P .
rekt (“upfront”) werden schon (1
· P legt er “risikofrei” an. Das heisst, di-
) · P , etwa 5% des Kapitals, entnommen. Von
diesem gleich anfangs abgezweigten Geld wird eine dem PEMG entsprechende Option gekauft oder ein eigenes Hedgingprogramm gestartet. Damit sichert sich der
Versicherer gegenüber der Indexierungsmethode ab. Nun sind aber 5% des Kapitals
erstens ziemlich wenig (das würde in sehr tiefen Partizipationsraten resultieren, unter 10%), zweitens braucht der Versicherer ja über das Risikomanagement hinaus
noch Geld. Die Hauptquelle für weitere Einnahmen ist der sogenannte Zinsspread.
Auf den Betrag
· P verspricht der Versicherer dem Kunden zwar eine garantierte
jährliche Rendite von rg , sagen wir 3% p. a., der Versicherer kann das Geld aber
deutlich besser verzinst anlegen zu einem Zins von sagen wir 7% p. a.6 . Um am Ende der Laufzeit den Betrag G =
also anfangs der Laufzeit
· 1.037 auf dem Festgeldkonto zu haben, reicht es
· 1.037 /1.077 =
· 0.76 anzulegen. Von dem Unterschied
rg = 4% (“Spread”) generiert der Versicherer also zusätzliches Kapitel zur Finan-
r
zierung der Absicherung der Indexierungsmethode, andererseits deckt er damit seine
übrigen Kosten. Im weiteren lassen wir diese “übrigen Kosten” unberücksichtigt. Dafür gehen wir von einem etwas kleineren Zinsspread aus, nämlich 3%. Die endgültige
6
Das sind (zu) hohe Werte im aktuellen Niedrigzinsumfeld. Um unsere Resultate aber vergleichbar zu machen, passen wir uns hier der in der Literatur gewählten Grössenordnung an.
19
Umsetzung des beschriebenen Vorgehens findet sich am Ende des vierten Kapitels.
Bis wir so weit sind, gilt es noch vieles vorzubereiten. Als ersten Schritt berechnen
wir im nächsten Kapitel, was die vorgestellten Indexierungsmethoden eigentlich wert
sind.
20
2
Bewertung 1: Fairer Preis
Zur Bewertung der EIA-Garantien ziehen wir verschiedene Finanzmarktmodelle
heran. Geschlossene Bewertungsformeln sind nur im Black-Scholes-Merton Kontext
möglich. In den anderen Fällen sind wir auf Simulationen angewiesen.
Geht man von dem im letzten Abschnitt des ersten Kapitels beschriebenen Vorgehen aus, hat der Versicherer am Ende der Laufzeit gerade den Betrag G auf dem
Festgeldkonto. Über diese LOC-Garantie G hinaus, hat er eine Verpflichtung von
P · H := P · (REIA
G)+ , den Payoff in Excess of Minimum Guarantee (PEMG).
Unter gewissen Annahmen lässt sich für diese Verpflichtung ein Hedgeportfolio finden. Den Anfangswert für dieses Portfolio nennen wir “fairen Preis”. Zusätzlich muss
der Versicherer einen Risikozuschlag verlangen für Modell- und Hedgingfehler. Dieser
Risikozuschlag wird bestimmt mit einem Risikomass ⇢, etwa einem Verlustquantil.
Bezeichnen wir den fairen Preis für das Hedgeportfolio mit P · EQ [H] und verzichten
für den Augenblick auf Diskontierungs- und Zinsspreadüberlegungen, dann können
wir folgende etwas saloppe Vorschau zur Bewertung von EIAs geben:
“Wert von EIA = P · G + EQ [H] + ⇢
00
Eine Besonderheit ergibt sich nun noch dadurch, dass dieser Preis nicht irgendwie
zusätzlich verlangt werden kann. Alles, was wir als Versicherer erhalten, ist die Einmalprämie P . Für den Wert der EIA sollte also
!
“Wert von EIA = P 00
gelten. In der Praxis wird das G vorgegeben (etwa vom Marketing) und stattdessen die Partizipationsrate ↵, die den Wert von EQ [H] steuert, derart angepasst,
dass obige Gleichung aufgeht. In diesem zweiten Kapitel lassen wir diese Problemstellung aber zunächst ausser Acht und betrachten zunächst den fairen Preis der
Indexierungsmethoden.
21
2.1
Risikoneutrale Bewertung
Der Schwerpunkt jeder Finanzmathematikvorlesung liegt heutzutage auf der risikoneutralen Bewertung. Weil die Garantien, die den Gegenstand dieser Arbeit bilden,
die Struktur (mittlerweile) klassischer Derivate haben, ist dies auch die hier gewählte Betrachtungsweise. Im folgenden werden die wichtigsten Begriffe und Gedanken
dieser Theorie zusammengefasst. Zunächst führen wir folgende Bezeichnungen ein:
• Wir fixieren einen Wahrscheinlichkeitsraum (⌦, F, P).
• Auf diesem definieren wir eine Familie von positiven, F-messbaren Zufallsvariablen
S := (St )0tT : ⌦ ! R+ .
Das ist der Preis- bzw. Indexprozess.
• (B(t))0tT : ⌦ ! R+ repräsentiere das Geldmarktkonto. D.h. B0 = 1 und
B(t) ist der Wert einer anfangs angelegten Geldeinheit zur Zeit t. Das B steht
für “bank account”.
• F̃t :=
((Ss , Bs ) : s  t), d.h. F̃ := (F̃t )0tT ist die kleinste Filtration, so
dass beide Prozesse, S und B, adaptiert sind.
• Aus technischen Gründen setzt man F0 := (F̃0 [ {A 2 F : P(A) = 0})
T
und Ft :=
F̃t+✏ 8t 2 [0, T ). So ist die Filtration rechtsstetig und F0 enthält
✏>0
alle Nullmengen. Man sagt: “Die Filtration erfüllt die üblichen Bedingungen”.
Wir schreiben F := (F)0tT . Ft lässt sich betrachten als die zum Zeitpunkt t
verfügbare Information. Für alle 0 < s < t < T gilt natürlich F0 ⇢ Fs ⇢ Ft ⇢
FT ⇢ F.
• H sei eine FT -messbare Zufallsvariable, d.h. eine messbare Funktion des Preis-
verlaufs - wir denken hier sofort an die vorgestellten Indexierungsmethoden
N
N
RCR
, RSR
, RHWM und RPTP oder ihre jeweiligen PEMGs.
Ausgangspunkt der Überlegungen ist die sogenannte “No Arbitrage”-Eigenschaft
(NA) des Finanzmarktes: Wir nehmen an, dass man ohne Risiko nichts gewinnen
kann. Daraus folgt sofort, dass ein Portfolio, das zum Zeitpunkt T mit Wahrscheinlichkeit 1 den Wert H haben wird, zu jedem vorherigen Zeitpunkt den aktuellen
22
Wert von H repräsentiert. Nehmen wir weiter an, dass ein solches Portfolio für H
tatsächlich existiert, ergibt sich der Wert von H zur Zeit 0 als Erwartungswert bezüglich eines bestimmten, künstlichen Wahrscheinlichkeitsmasses Q. Dieses Q ist so
gewählt, dass der diskontierte Preisprozess S ⇤ := S/B ein Martingal ist. Um dies
formal sauber zu präsentieren, führen wir die folgenden Definitionen ein:
Definition 1. Ein reellwertiger F-adaptierter stochastischer Prozess X = (Xt )t2[0,T ]
definiert auf dem filtrierten Wahrscheinlichkeitsraum (⌦, F, P) ist ein Martingal,
wenn
• EP |Xt | < 1 8t 2 [0, T ]
• EP [Xt |Fs ] = Xs 0  s  t  T
Definition 2. Zwei (Wahrscheinlichkeits-)Masse P und Q auf F sind äquivalent
(schreibe P ⇠ Q), wenn für alle A in F
P(A) = 0 , Q(A) = 0
gilt.
Definition 3. Ein Wahrscheinlichkeitsmass Q ist ein äquivalentes Martingalmass (EMM) für (⌦, F, F, P), wenn S ⇤ := S/B, also der diskontierte Preisprozess,
ein (lokales) Martingal unter Q ist.
Wegen dieser Eigenschaft, dass sich unter Q die riskanten Anlagen (S) im Mittel so
verhalten wie die risikolosen (B), nennt man obiges Mass Q auch “risikoneutral”. Es
kann nicht genug darauf hingewiesen werden, dass Q ein künstliches Objekt ist, das
nichts mit realen Wahrscheinlichkeiten zu tun hat. Und an diesem Punkt ist auch
noch überhaupt nicht klar, was dieses Q zur Bewertung beitragen könnte. Diese Eigenschaft erhält es erst durch die sogenannte Replizierbarkeit von Verbindlichkeiten.
Definition 4. Eine (Handels-)Strategie ist ein adaptierter stochastischer Prozess
('t )0tT := (#t , ⌘t )0tT , mit # voraussagbar und S- bzw. S ⇤ -integrierbar.
#t ist die Anzahl Einheiten von S und ⌘t die Anzahl Einheiten von B in unserem
Besitz zum Zeitpunkt t. Für den Wert des entsprechenden Portfolios schreiben wir
Vt (') := ⌘Bt + #St
23
und
Vt⇤ (') :=
Vt (')
= ⌘ + #St⇤ .
Bt
Eine erste naheliegende Forderung an eine Handelsstrategie ist, dass sie ausser dem
Startkapital kein Geld von aussen benötigt:
Definition 5. Eine Handelsstrategie ' ist selbstfinanzierend, wenn die diskontierten Kosten
Vt⇤ (')
Zt
#u dSu⇤
= ⌘t +
#t St⇤
0
Zt
#u dSu⇤
0
konstant sind, also nur am Anfang in der Höhe V0 (= V0⇤ ) anfallen.
Aus diesen Definitionen folgt direkt, dass wir für eine selbstfinanzierende Handelsstrategie ' das Portfolio folgendermassen schreiben können:
Vt⇤ (') = V0 (') + G⇤# (t) := V0 (') +
Zt
#u dSu⇤ .
0
G⇤# (t) kann und wird in der Regel auch zeitweise negativ ausfallen. Das heisst wir
haben Schulden. Manche Handelsstrategien wollen wir ausschliessen, weil sie die
Möglichkeit beliebig grosser Schulden voraussetzen, etwa Verdopplungsstrategien
(diese gaben dem “Martingal” übrigens seinen Namen):
Definition 6. Eine selbstfinanzierende Handelsstrategie ' ist erlaubt, wenn der
Portfoliowert nach unten beschränkt ist, das heisst, es gibt ein a>0, so dass
G⇤t (') =
Zt
#s dSs⇤ >
a, t 2 [0, T ].
0
Nun haben wir alle Begriffe eingeführt, die es braucht, um Arbitragefreiheit und
Replizierbarkeit bzw. Vollständigkeit zu definieren:
Definition 7. Wir sagen, ein Markt sei arbitragefrei (NA), wenn es keine Arbitragestrategie gibt. Eine Arbitragestrategie ist eine erlaubte, selbstfinanzierende Handelsstrategie ' , so dass
• G⇤T (#)
f.s.
0
24
• P[G⇤T (#) > 0] > 0
Definition 8. H 2 L0 (FT ) ist replizierbar, wenn es eine erlaubte, selbstfinanzierende Strategie ' gibt, so dass mit Wahrscheinlichkeit 1
VT (') = H bzw. VT⇤ (') =
H
.
BT
Sind alle H 2 L0 (FT ) replizierbar, nennt man den Markt vollständig
Bemerkungen In einem diskreten, endlichen Markt gelten folgende Aussagen (“Fundamental Theorem of Asset Pricing”):
• Im Markt gilt (NA), 9 Q, EMM
• (NA) + Vollständigkeit, 9! Q, EMM
Die zweite Aussage stimmt so auch für kontinuierliche Märkte, die erste unter einigen (sehr technischen) Verfeinerungen der Begriffe auch. Derart ausgestattet können
wir den folgenden Gedankengang vorstellen, der der risikoneutralen Bewertung zugrundeliegt. Wir sehen: Hauptargument ist die Replizierbarkeit. Die Bewertung ist
quasi ein Nebenprodukt derselben.
Idee der risikoneutralen Bewertung:
H 2 L0 (FT ) replizierbar
) H = VT (') = ⌘T BT + #T ST f.s., ' selbstfinanzierend und erlaubt
ZT
ZT
⇤
⇤
⇤
) H/BT = V0 (') + #(u)dSu = Vt + #(u)dSu⇤
0
t
) 8Q̃ auf (⌦, F) :
Vt = Bt Vt⇤ = EQ̃ [Bt Vt⇤ |Ft ] = Bt EQ̃ [H/BT |Ft ]
2
) Unter Q EMM : EQ 4
ZT
t
3
Bt EQ̃ 4
#u dSu⇤ |Ft 5 = EQ [G⇤T (#)
und damit Vt (') = Bt EQ̃ [H/BT |Ft ]
25
2
ZT
t
3
#u dSu⇤ |Ft 5
G⇤t (#)|Ft ] = 0
Im letzten Schritt wurde verwendet, dass G⇤ selber ein Martingal unter Q ist7 . Ist
der Markt also vollständig, können wir jeden Claim H bewerten. Nehmen wir weiter
Arbitragefreiheit an, ist diese Bewertung eindeutig. # kann und wird typischerweise
auch negative Werte annehmen. Das heisst, “Short Selling” ist ohne Einschränkung
erlaubt. Es gibt keine Transaktionskosten. Zudem sind Kauf- und Verkaufspreise
sowie Leih- und Verleihzins gleich hoch. Die Preise und der Zins sind exogen vorgegeben, bleiben also unbeeinflusst durch den eigenen Handel.
2.2
Black-Scholes-Merton Modell
Trifft man einige weitergehende Annahmen wird die explizite risikoneutrale Bewertung in vielen Fällen analytisch handhabbar. Wir setzen für die Preis- bzw. Indexdynamik
dSt
= dWt + µdt, S0 = s0 ,
St
und für das Geldmarktkonto
dBt
= rdt, B0 = 1.
Bt
Hier ist (Wt )t2[0,T ] eine eindimensionale Brown’sche Bewegung8 . Weiter ist
> 0
die Volatilität und r > 0 der risikofreie Zinssatz und µ 2 R die “Drift” - alles Konstanten. Natürlich ist Bt = exp(rt). Mit Hilfe des Ito-Lemmas9 lässt sich ausserdem
7
Das ist etwas schwammig und kommt natürlich auf die Modellierung von S an. Exakter wäre:
Ist S ein stetiges lokales Martingal und erfüllt # eine gewisse Beschränktheitseigenschaft bezüglich
S, dann ist G ein lokales Martingal unter Q. In jedem Detail ist dies beschrieben in Theorem 17.11
in Kallenberg [17]
8
Ein Prozess (Wt )t2[0,T ] sei eine Brown’sche Bewegung auf (⌦, F, P), wenn W adaptiert ist,
unabhängige und stationäre Zuwächse hat, seine Pfade stetig sind und für 0  s < t  T gilt
Wt
Ws ⇠ N (0, t
s) .
9
In diesem einfachen eindimensionalen Fall benötigen wir einfach die Aussage, dass für glattes
f : (0, 1) ⇥ R ! R, (t, x) 7! f (t, x) und einen stochastischen Prozess S, der eine Lösung von
dSt /St = dWt + µdt ist, gilt:
✓
◆
2
df (t, St ) = ft (St ) + µfx (St ) +
fx,x (St ) dt + fx (St ) dWt
2
Für einen Beweis und allgemeinere Formulierungen siehe etwa [20]. In der selben Quelle kann man
auch nachlesen, warum die Lösung S im folgenden Sinn eindeutig ist: Seien W , W̃ zwei Brown’sche
Bewegungen und S, S̃ die entsprechenden Lösungen der stochastischen Differentialgleichung. Dann
26
nachrechnen, dass
St := s0 exp
⇢
✓
1
2
Wt + µ
2
◆
t
die obige stochastische Differentialgleichung löst. Weiter lässt sich zeigen, dass in diesem Fall genau ein risikoeneutrales Mass Q existiert. Man kann es explizit darstellen
als
Q[A] := E
P

dQ
11A , A 2 F,
dP
unter Verwendung seiner sogenannten Radon-Nikodym-Dichte
dQ
= exp
dP
⇢
r
µ
:=
✓
1
2
WT
✓
r
µ
◆
.
Nach dem Girsanov-Theorem10 ist
WtQ t2[0,T ]
Wt
r
µ
t
◆
t2[0,T ]
eine Brown’sche Bewegung unter Q. Damit erhalten wir für den diskontierten Preisprozess folgende Proposition:
Proposition 1. Der diskontierte Preisprozess S ⇤ = (e
rt
St )0tT im BSM-Modell
ist unter unter dem oben definierten Wahrscheinlichkeitsmass Q ein Martingal. Wir
können es darstellen als
St⇤
= s0 exp
⇢
WtQ
2
2
t ,
wobei W Q unter Q eine Brown’sche Bewegung ist.
gilt
h
i
h
i
P Wt = W̃t , 8t 2 [0, T ] = 1 ) P St = S̃t , 8t 2 [0, T ] = 1.
10
In diesem Fall reicht folgende einfache Version:
Sei W eine eindimensionale Brown’sche Bewegung auf (⌦, F P). Dann ist für jede reelle Zahl c 2 R
W̃t := W ct, t 2 [0, T ] eine Brown’sche Bewegung unter P̃, wo

✓
◆
c2
P̃(A) := EP exp cWT
T · 11A , A 2 F .
2
Siehe Proposition A.15.1 in Musiela [20].
27
Beweis.
St
Bt
= df (t, Wt )
dSt⇤ = d
wobei
f (t, w) := s0 exp
⇢
✓
w+ µ
1
2
r
2
◆
t
Für die partiellen Ableitungen ergibt sich
ft (t, w) = (µ
fw (t, w) =
fw,w (w, w) =
r
1
2
2
)f (t, w)
f (t, w)
2
f (t, w)
.
Mit der Ito-Formel (siehe die Fussnote auf Seite 26) finden wir also
St
Bt
= df (t, Wt )
dSt⇤ = d
1
= ft (t, Wt )dt + fw (t, Wt )dWt + fw,w (t, Wt )dt
2
✓
◆
1 2 1 2
=
µ r
+
f (t, Wt )dt + f (t, Wt )dWt
2
2
St
St
= (µ r) dt +
dWt
Bt
Bt
✓
◆
St µ r
=
dt + dWt
Bt
St
=
dWtQ
Bt
= St⇤ dWtQ
Also ist St⇤ = s0 exp{ WtQ
2
/2t} und nach der “Novikov”-Bedingung11 ist der
diskontierte Preisprozess unter Q also ein Martingal.
Als erste Anwendung der eingeführten risikoneutralen Bewertungsmethode unter
11
Hier reicht folgende einfache Form der Novikov-Bedingung: Sei WtQ eine Brown’sche Bewegung
28
den BSM-Annahmen folgt nun die Bewertungsformel für europäische Calloptionen12 aus dem berühmten Black und Scholes Paper von 1979 [2]. Diese Formel
werden wir in dieser Arbeit ausgiebig verwenden.
Proposition 2. Für den Wert einer europäischen Calloption mit Laufzeit T und
Ausübungspreis K ergibt sich zum Zeitpunkt t
c(⌧, St , K) := e
wo ⌧ := T
r⌧
EQ [(ST
t die Restlaufzeit und
K)+ |Ft ] = (d1 )St
(d2 )e
r⌧
K,
die kumulative Standardnormalverteilung dar-
stellt sowie
di :=
log(St /K) + ri (⌧ )
p
für i = 1, 2 mit
⌧
2
r1 = r +
2
2
und r2 = r
2
.
Für ihren Beweis und für viele weitere Rechnungen in diesem Kapitel werden wir
immer wieder folgende Regel zum Umgang mit bedingten Erwartungswerten verwenden13 . Hier und im weiteren Text schreiben wir für E[·| F t ] etwas kompakter
Et [·].
Lemma 1. Seien X und Y reellwertige Zufallsvariablen auf einem Wahrscheinlichkeitsraum (⌦, F, P), G ⇢ F, X sei G-messbar und Y sei unabhängig von G (und
damit natürlich auch unabhängig von X). Dann ist
E[f (X, Y )|G] = E[f (x, Y )]|x=X
auf (⌦, F, Q), und X ein Prozess auf dem selben Wahrscheinlichkeitsraum. Dann folgt aus
2
0 T
13
Z
1
EQ 4exp @
Xs2 dsA5 < 1,
2
0
dass der Prozess
2
exp 4
Zt
0
Xs dWsQ
1
2
Zt
0
3
Ss2 dWsQ 5 , t 2 [0, T ],
ein Martingal ist. In unserem Fall setzen wir einfach Xt ⌘ . Zur Novikovbedingung siehe Theorem
18.23 in Kallenberg [17].
12
Eine Calloption auf das “Underlying” S mit “Strike” oder “Ausübungspreis” K hat zum Lauf+
zeitende T den Wert (ST K) .
13
Für eine schöne Einführung zu bedingten Erwartungswerten und für eine Begründung des
Lemmas siehe etwa Durett [4].
29
für alle sinnvollen Funktionen f , so dass E |f (X, Y )| < 1 und E |f (x, Y )| < 1 für
alle x 2 R
Beweis. (der Proposition) Die genaue Rechnung findet sich in jedem Skript und
in jedem Buch zum Thema. Dennoch sei sie hier dargestellt, um das Vorgehen bei
den folgenden, schwierigeren Rechnungen exemplarisch vorwegzunehmen. Auch die
Formel selber werden wir immer wieder verwenden.
Zunächst bemerken wir, dass
ST
= exp
St
⇢
WTQ
✓
WtQ
+ r
1
2
2
◆
p
T
t
wegen den unabhängigen Zuwächsen der Brown’schen Bewegung unabhängig von F t
ist (siehe Fussnote auf Seite 26. Mit Z ⇠ N (0, 1), unabhängig von F t , r2 := r
und ⌧ := T
t können wir also schreiben:
ST
= exp
St
p
p
⌧ Z + r2 ⌧ .
Und damit erhalten wir
A := {ST > K}
⇢
ST
K
=
>
S
St
⇢ t
p
K
=
⌧ Z + r2 ⌧ > log
St
p
=
⌧ Z > log(K/St ) r2 ⌧
(
)
log SKt r2 ⌧
p
=
Z>
⌧
⇢
p
log(St /K) + r2 ⌧
p
=
Z
⌧
= { Z  d2 (St )}
=: A(St ).
30
2
/2
⇥
EQ
t e
r⌧
(ST
K)+
Bedenkt man weiter, dass
⇤
⇥
= EQ
t e
⇤
⇥ r⌧
⇤
ST 11A
EQ
K 11A
t e
 ⇤
⇥
⇤
Q ST
= St E t
11
e r⌧ K EQ 11A(s) |s=St
⇤ A(St )
S
 t⇤
S
= St EQ T⇤ 11A(s) |s=St e r⌧ K Q [A(s)] |s=St
St
r⌧
d
Z = Z, dann berechnet sich die involvierte Wahrschein-
lichkeit einfach als
Q[A(s)]|s=St = Q [ Z  d2 (s)] |s=St = Q [Z  d2 (s)] |s=St = (d2 ).
Für den Erwartungswert erhalten wir
E
Q


⇢
p
ST⇤
1 2
Q
1
1
|
=
E
exp
⌧Z
⌧ 11A(s) |s=St
s=S
A(s)
t
⇤
St
2
⇢
Z1
p
1 2
=
(z) exp
⌧z
⌧ dz
2
d2
exp
d2
⇢
Z1
exp
⇢
1
= p
2⇡
Z1
1
= p
2⇡
d2
p
(z
p
2
=
p
( d2
⌧ )
p
(d2 + ⌧ )
=
(d1 ).
= 1
1
2
⌧z
2
⌧
⌧ )2
z2
2
dz
dz
Einsetzen ergibt die Behauptung.
2.3
Fairer Preis für die Point To Point Indexierung
Zur Erinnerung: Die Point-to-Point-Indexierung bietet einen Return von
RPTP = 1 + ↵ ·
✓
ST
S0
◆
1 .
Proposition 3. Für Verträge mit “Point to Point”-Indexierung, LOC-Garantie G
31
und Einmalprämie P ergibt sich als risikoneutraler Wert des PEMG (Payoff in Excess of Minimum Guarantee) zum Zeitpunkt t
P ·e
r(T t)
⇥
EQ
t (RPTP
⇤ ↵P
G)+ =
· c(⌧, St , K)
S0
mit
K :=
S0
(G
↵
(1
↵))
und - wie immer G = (1 + rg )T .
Beweis. Einfaches Umschreiben bringt den Ausdruck in die Form einer Calloption:
(RPTP
G)
+
✓
1+↵·
✓
↵
=
ST
S0
=
✓
ST
S0
S0
(G
↵
1
◆
(1
G
◆+
↵))
◆+
Nun können wir Proposition 2 verwenden.
Im PTP-Fall erhalten wir also den exakten Wert für den PEMG. Im Ratchet- und
HWM-Fall können wir in diesem Kontext nur den Wert der Indexierungsmethode berechnen ohne Life of Contract Garantie, das heisst nur EQ [R], nicht EQ [max (R, G)].
Da aber die LOC-Garantie bei typischen Werten für ↵ und
selten im Geld sein
wird, können wir die folgenden Rechnungen später auch in Approximationen für den
PEMG-Wert der Verträge verwenden. Das heisst
EQ [(R
G)+ ] ⇡ EQ [R]
G.
Die exakten Ergebnisse für die Indexierungsmethoden werden wir später zudem
verwenden, um die Monte-Carlo-Simulationen für den korrekten Ausdruck varianztechnisch zu optimieren. Diese Bewertungsapproximation wird bei den Resultaten
im Kapitel ?? eine wichtige Rolle spielen.
32
2.4
Fairer Preis für die Ratchet Indexierungen
Fairer Preis für die Compound Ratchet Indexierung
Zur Erinnerung: Der Return der Compound Ratchet - Indexierung ist
N
RCR
:=
N
Y
1+↵
n=1
✓
St n
St n 1
1
◆+ !
.
Proposition 4. Für die Compound Ratchet Indexierung ergibt sich als risikoneutraler Wert e
8
>
>
e
>
>
>
>
>
>
>
<e
rT
1 + ↵ · er
r(T ti0 )
N
EQ
t [RCR ] im Black-Scholes Modell
r(T t)
N
c(
1 + ↵er
N
N , 1, 1)
c(
für t = 0
N i0
N , 1, 1)
⇣
⇣
>
r(T t)
r(ti0 t)
>
e
1 + ↵e
c ti0
>
>
>
>
>
>
>
:· 1 + ↵ · er N c( N , 1, 1) N
t, St St
i0
i0
·
1
i0Q1 ⇣
i0
Q
⇣
1+
i=1
⌘⌘
,1
1+
i=1
↵
St i
1
↵
St i
1
· St i
St i
St i
St i
+
1
+
1
⌘
⌘
für t = ti0
für t 2 [ti0 1 , ti0 )
c(⌧, S, K) bezeichnet hier den Wert einer Calloption auf S mit Restlaufzeit ⌧ , aktuellem Wert des Underlying S und Strike K.
Bemerkung: Natürlich ergeben sich die ersten beiden Fälle als Spezialfälle der dritten
N
Formel und für t ! T erhalten wir gerade die Auszahlung RCR
der CR-Indexierung.
Beweis. 0 = t0 < t1 < ... < tN seien die (equidistanten) Monitordaten. ti
N
ti
1
=:
für i = 1, 2, ..., N Aus Gründen der Übersicht berechnen wir
⇥
EQ
t e
r(T t)
N
RCR
⇤
zunächst für t = 0, darauf für t = ti0 (d.h. t entspricht gerade einem Ratchet-Termin)
und dann erst für allgemeines t.
1.Fall: t = 0
EQ [e
rT
N
RCR
] = EQ
"
N
Y
e
r
N
i=1
33
1+↵·
✓
St i
St i 1
1
◆+ !#
4
1
2
3
Euro
5
6
Wert der CR-Indexierung
0
10
20
30
40
N
Abbildung 4: Für volle Partizipation ↵ = 1 ist hier der Wert einer siebenjährigen CR-Indexierung
bei anfänglicher Investition von einem Euro abhängig von der Anzahl Ratchetintervallen dargestellt. N = 7 entspricht zum Beispiel jährlichem Ratcheting. Für N = 42, d.h. für ein Ratcheting
alle zwei Monate, ist der Wert schon gewaltig hoch. Will man ein EIA-Produkt mit diesem Feature
entwickeln, muss man die Partizipation entsprechend gewaltig verringern.
Weiter verwenden wir, dass St1 /St0 , ..., StN /StN
EQ [e
rT
"
N
RCR
] = EQ e
r
1
unabhängig und gleichverteilt sind:
1+↵·
N
✓
S N
S0
1
◆+ !#N
Dies lässt sich leicht weiter umschreiben als Funktion eines Calloptionwertes:
Q
E [e
rT
N
RCR
]
=
e
r
N
+↵·E
Q
"
e
r
N
✓
S N
S0
1
◆+ #!N
Der Erwartungswert ist nun nichts anderes als der Wert einer Calloption auf das
normierte S (also die Dynamik von S mit Startpreis 1) mit Laufzeit
übungspreis 1. Also erhalten wir
EQ [e
rT
N
RCR
] =
= e
e
r
rT
N
+ ↵ · c(
1 + ↵ · er
34
N , 1, 1)
N
c(
N
N , 1, 1)
N
und Aus-
2.Fall: t = ti0
⇥
EQ
t i0 e
r(T ti0 )
⇤
N
RCR
=e
r(T ti0 )
EQ
t i0
"
N
Y
i=1
Nun verwenden wir, dass St1 /St0 , ..., Sti0 /Sti0
Sti0 +1 /Sti0 , ..., StN /SN
1
1
1+↵·
✓
St i
St i 1
1
◆+ !#
F ti0 - messbar sind und ausserdem
unabhängig von F ti0 sowie untereinander unabhängig und
gleichverteilt sind und erhalten so
e
i0
Y
r(T ti0 )
1+↵
i=1
✓
St i
St i 1
1
◆+ !!
E
Q
"
1+↵
✓
S N
S0
1
◆+ !#N
i0
.
Und unter Wiederverwendung der Berechnung im ersten Fall ergibt sich also
⇥
EQ
t i0 e
r(T ti0 )
⇤
N
RCR
=e
r(T ti0 )
1 + ↵er
N
c(
N , 1, 1)
N i0
i0
Y
1+↵
i=1
✓
St i
St i 1
1
◆+ !
3.Fall: t 2 [ti0 1 , ti0 ) Hierbei gehen wir genau wie im vorigen Fall vor. Falls t = ti0 1 ,
dann können wir obige Fälle direkt verwenden. Vorsicht ist nur geboten, wenn
t im Inneren eines Ratchet-Intervalls liegt: Sei also t 2 (ti0 1 , ti0 ) für ein fixes
i0 2 {1, 2, ..., N }. Wir betrachten zunächst nur denjenigen Return-Faktor, den dieses
spezielle Zeitintervall beiträgt:
"
EQ
1+↵
t
St i0
St i 0 1
1
!+ #
= 1 + ↵ EQ
t
"
St i0
St i 0 1
1
!+ #
Den bedingten Erwartungswert können wir interpretieren als (noch nicht diskontierten) Wert einer Calloption auf die Dynamik von S mit zur Zeit t aktuellem Wert
des Underlying St /Sti0 1 , Ausübungspreis 1 und Restlaufzeit ti0
EQ
t
"
St i 0
St i0 1
1
!+ #
= er(ti0
t)
c ti0
t,
St
St i0
t.:
!
,1 .
1
Fügen wir diese Ergebnisse zusammen, erhalten wir für den risikoneutralen Return
im aktuellen Ratchet-Intervall
EQ
t
"
1+↵
St i 0
St i0 1
1
!+ #
= 1 + ↵er(ti0
35
t)
c ti0
t,
St
St i0
!
,1 .
1
.
Multiplizieren wir diesen speziellen Faktor nun noch einerseits mit den i0
1 Fakto-
ren, die von den bereits vergangenen Ratchetintervallen stammen, sowie den N
i0
Faktoren, die die Werte der noch gar nicht angebrochenen Ratchetintervallen stammen und diskontieren dieses Resultat (entsprechend dem zweiten Fall), dann haben
wir genau die dritte Aussage der Proposition berechnet.
Risikoneutraler Wert der Simple Ratchet Indexierung
Zur Erinnerung: Im Gegensatz zur Compound Ratchet Indexierung werden die Returns beim Simple Ratchet nur einfach kumuliert. Zinseszinseffekte bietet diese Methode nicht.
N
RSR
✓
N
X
St i
=1+
↵
Si 1
i=1
1
◆+
Proposition 5. Im BSM-Modell ergibt sich als risikoneutraler Wert zum Zeitpunkt
⇥ N⇤
t für die Simple Ratchet Indexierung e r(T t) EQ
t RSR
8
>
>
e
>
>
>
>
>
>
>
<e
rT
1 + er N ↵c( N , 1, 1)
✓
i0 ⇣
P
St i
r(T t)
1+↵
St i 1
i=1
✓
iP
0 1⇣
>
St i
r(T t)
>
e
1+↵
>
>
St i 1
>
i=1
>
>
⇣
>
>
:+↵e r(T ti0 ) c t
t, St St
i0
i0
1
1
⌘+
1
⌘+
,1
i0 )er
+ ↵(N
+ ↵(N
i0 )er
N
c(
N
N , 1, 1)
c(
◆
N , 1, 1)
⌘
◆
für t = 0
für t = ti0
für t 2 [ti0 1 , ti0 )
c(⌧, S, K) bezeichnet hier den Startwert einer Calloption mit Restlaufzeit ⌧ , aktuellem Wert des Underlying S und Strike K.
Bemerkung: Auch hier ergeben sich die ersten beiden Formeln natürlich wieder als
N
Spezialfälle der dritten. Und für t ! T erhalten wir gerade RSR
.
Beweis. Wiederum unterscheiden wir zwischen den aufsteigend allgemeineren (und
schwierigeren) Fällen t = 0, t = ti0 für ein i0 2 {1, 2, ..., N } und t 2 [ti0 1 , ti0 ):
1.Fall: t = 0
"
EQ e
rT
✓
N
X
St i
1+
↵
St i 1
i=1
1
◆+ !#
=e
rT
1+↵
N
X
i=1
36
EQ
"✓
St i
St i 1
1
◆+ #!
1.8
1.2
1.4
1.6
Euro
2.0
2.2
2.4
Wert der SR-Indexierung
0
10
20
30
40
N
Abbildung 5: Für die SR-Indexierung mit siebenjähriger Laufzeit und voller Partizipation (das
heisst ↵ = 1) ergeben sich für eine Einmalprämie von einem Euro mit Proposition 5 abhängig von
der Anzahl Ratchetintervalle N die abgebildeten Werte. Vergleicht man die Graphik mit derjenigen
von Abbildung 4, dann fällt auf, dass die entsprechenden CR-Werte erstens grösser sind und
zweitens schneller wachsen: Dieser Effekt ist dem mit wachsendem N immer grösseren Einfluss
des bei der CR-Methode hineinspielenden, bei der SR-Methode aber fehlenden Zinseszinseffekts
geschuldet.
Wie im Compound Fall oben formen wir die Erwartungswerte zu Callwerten auf das
normierte S um, das heisst auf die Dynamik von S mit Startwert 1.
N
X
i=1
E
Q
"✓
St i
St i 1
1
◆+ #
=
N
X
Q
"✓
St 1
St 0
N
c(
N , 1, 1)
E
i=1
= N er
1
◆+ #
2.Fall: t = ti0 Mit den Summanden i > i0 gehen wir genau um wie im ersten Fall;
die anderen Summanden sind F ti0 -messbar.
e
r(T
= e
r(T
= e
r(T
"
✓
◆+ #
N
X
S
t
i
t) Q
E t i0 1 +
↵
1
S
t
i 1
i=1
"✓
◆+ #!
N
X
S
t
i
t)
1+↵
EQ
1
t
S
t
i
1
i=1
◆+
i0 ✓
X
St i
t)
1+↵
1
+ er N ↵(N
S
ti 1
i=1
37
i0 )c(
N , 1, 1)
!
3.Fall: t 2 [ti0 1 , ti0 ) Diesen speziellen zusätzlichen Summanden untersuchten wir
bereits im CR-Fall. Wir fanden
↵ EQ
t
"
St i 0
St i0 1
1
!+ #
= ↵er(ti0
t)
c ti0
t,
St
St i0
!
,1 .
1
Die übrigen Summanden ergeben sich ganz wie in den obigen Fällen.
2.5
Fairer Preis für die High Water Mark Indexierung
Zur Erinnerung:
Die High Water Mark Indexierung garantiert einen Anteil ↵ am höchsten erreichten
Return an den Monitordaten (diskreter Fall, N < 1) oder sogar den überhaupt
höchsten Return (N = 1). Das heisst
N
RHWM
=
✓
1+↵
✓
MN
S0
1
◆◆
,
wo M N = max{S0 , St1 , ..., StN } für N < 1 und M 1 = maxt2[0,T ] St 14 . Das sind unsere schwierigsten Fälle. Für den kontinuierlichen Fall verwenden wir ein Resultat
aus der Bewertung exotischer Optionen. Den diskreten Fall gehen wir mit kombinatorischen Methoden an. Beide Male findet sich nur eine geschlossene Bewertung
ohne die Life of Contract Garantie G - wie bei den Ratchet-EIAs.
Kontinuierliches Monitoring
Die folgende Bewertung finden wir, indem wir ein Resultat zur Bewertung von
Lookback-Optionen aus der Veröffentlichung von Goldmann und Gatto [9] verwenden.
Proposition 6. Der risikoneutrale Wert zum Zeitpunkt t < T im BSM-Modell für
die kontinuierliche HWM-Indexierung ergibt sich mit
e
r⌧
EQ
t

1+↵
✓
M1
S0
1
◆
=e
14
r⌧
✓
1
◆
↵ Q 1
↵+
E [M ] ,
S0 t
Die Pfade von S sind im BSM-Modell fast sicher stetig, so dass auch dieses Maximum über
das kompakte Intervall [0, T ] fast sicher existiert.
38
wo
1
EQ
t [M ]
=
EQ
t
[MT1 ]
=
Mt1
✓
2
(d1 )
2r
e
2r2 a
2
◆
r⌧
✓
2
( d 2 ) + e St 1 +
2r
◆
( d3 )
und
Mt1 := max St
s2[0,t]
⌧ := T
a :=
d1 :=
d2 :=
d3 :=
t
M1
log t
St
a r2 ⌧
p
⌧
a + r2 ⌧
p
⌧
a r1 ⌧
p .
⌧
Vor dem Beweis noch eine gerade für die Programmierung kleine, aber wichtige
Bemerkung: Man kann sich nämlich leicht überlegen, dass
lim (d1 ) = 1 und lim (d2,3 ) = 0.
t!T
t!T
1
Also ergibt obige Formel für EQ
t [M ] im Grenzwert für t ! T wie gewünscht gerade
auch M 1 .
Beweis. Mit den obigen Notationen finden wir in [9] als Formel (10)
e
r⌧
EQ
t
[MT1 ]
=
Mt1 e r⌧
✓
2
(d1 )
2r
e
2r2 a
2
◆
✓
( d 2 ) + St 1 +
2
2r
◆
( d3).
Die Proposition folgt dann einfach, indem wir obige Gleichung mit er⌧ multiplizieren
und das Resultat einsetzen.
Studiert man den Beweis für obige Formel in [9] (via PDE) oder [20] (via Martingalmethoden), erkennt man, dass man die Berechnungen für diskrete Monitordaten
nicht analog durchführen kann.
39
Diskrete Monitordaten
Im Fall der High-Water-Mark-Indexierung mit diskreten Monitordaten findet man in
der Literatur keine exakten und geschlossenen Bewertungsformeln im Black-ScholesMerton-Kontext. In einem druckfrischen Paper hierzu von Belyaev [1], einem amerikanischen Versicherungsmathematiker, wird als Ausgangspunkt der kontinuierliche Fall genommen. Letzterer sollte natürlich immer etwas werthaltiger sein, da
M1
N:
M N , 8N < 1. Entsprechend ist Belyaevs Idee eine Korrektur abhängig von
⇥
⇤
EQ M N ⇡ EQ [M 1 ]
“Korrektur(N)00 .
Belyaevs Formeln schneiden gut ab, wenn man die Werte mit Monte Carlo Simulationen vergleicht. Gut vorstellbar, dass seine Idee Verbreitung findet. Einige Papers
zum Thema EIAs vermeiden den Fall diskreter Monitordaten auch ganz [27]. In
der Regel wird aber direkt auf Monte Carlo Simulationen verwiesen [12]. Ebenda
schreibt Hardy über die High Water Mark-Bewertung:
“Where the process is monitored over discrete periods only, the analytic
approach ist no longer tractable.”
Und Broadie schreibt in [3] (dort in Zusammenhang mit diskreten Lookbackoptionen
- dem Optionsanalogon zu den diskreten HWM-EIAs):
“Closed-form expressions for discrete versions of the options above typically involve values of m-dimensional multivariate cumulative normal
distributions and are therefore of little value for more than about N =
5 fixing dates.”
Wir konnten nun mit einem fast schon prähistorischen kombinatorischen Trick von
Spitzer (1956) eine sehr schöne und brauchbare geschlossene Formel zur Bewertung
der diskreten HWM-EIA für beliebiges N finden. Wir lassen das erstaunliche Hauptergebnis in Proposition 8 nun nicht aus dem blauen Himmel fallen, sondern lassen
den Leser im folgenden Schritt für Schritt an den Gedankengängen teilnehmen, die
uns zu dem Resultat geführt haben.
40
Wir betrachten zunächst nur den Fall t = 0. Wie im kontinuierlichen Fall schreiben
wir den gesuchten Wert erst etwas um:
e
rT
E
Q
⇥
N
RHWM
⇤
Q
= e
rT
E
= e
rT
(1

✓
◆
max {St0 , ..., StN }
1+↵
1
S
0
max {St0 , ..., StN }
↵) + ↵e rT EQ
S0
Wir untersuchen den Erwartungswert e(N ) := EQ [max {St0 , ..., StN } /S0 ]. Zunächst
bemerken wir, dass wegen der oben präsentierten Ergebnisse im kontinuierlichen Fall
e(N ) = E
Q

MN
S0
E
Q

M1
< 1.
S0
e(N ) existiert also und ist gleichmässig in N beschränkt. Nun drücken wir den
Indexverlauf mit Hilfe seiner Logreturns zwischen den Monitordaten aus:

max {St0 , ..., StN }
S

⇢ 0
S t St St
St St
St N
= EQ max 1, 1 , 1 · 2 , ..., 1 · 2 · · ·
S0 S0 St 1
S 0 St 1
St N 1
"
(
)!#
N
X
S
S
S
S
t
t
t
t
i
= EQ exp max 0, log 1 , log 1 + log 2 , ...,
log
S0
S0
St 1
S
ti 1
i=1
e(N ) = E
Q
Im Modell sind die Log-Returns Yi := log(Sti /Sti 1 ) zwischen den Monitordaten
unabhängig und jeweils normalverteilt mit Erwartungswert r2
und Varianz
2
N
N
:= (r
2
/2)
N
(siehe Seite 27).
"
(
e(N ) = EQ exp max 0, Y1 , Y1 + Y2 , ...,
Schreiben wir weiter Ak für
k
P
N
X
Yk
i=1
)!#
Yi erhalten wir
i=1
e(N ) = EQ [exp (max {0, A1 , A2 , ..., AN })] .
A nennt man eine “Gauss’sche Irrfahrt”. Unter dem Black-Scholes-Modell ist der
Preisprozess auf diskreten equidistanten Daten also das Exponential einer Gausschen Irrfahrt. Das bedeutet ja gerade “Die Log-Returns sind i.i.d. normalverteilt”.
41
Eine Binsenweisheit! Umso erstaunlicher, dass es für die einfache Frage nach der
Verteilung von
MAN := max {0, A1 , A2 , ..., AN }
keine einfache Antwort gibt. Allein schon der Erwartungswert von MA ist nicht
leicht zu berechnen. Man erhält ihn als Korrollar des im folgenden ohne Beweis
zitierten Satzes, der auch bei heutigen Untersuchungen zum Thema - rund ein halbes
Jahrhundert später - immer noch als Ausgangspunkt für neue Resultate dient (etwa
2007 bei [15].
Satz 1. ([22] Spitzer 1957) Seien X1 , X2 , ... unabhängige reellwertige ZufallsvariaP
blen. Für k 2 N sei Ak := ki=1 Xi und MAn := max{0, A1 , ..., An }. Weiter sei
⇥
'MAn ( ) := E ei
und
n
MA
⇤
, 'MA0 ⌘ 1
h
'Ak ( ) := E ei
A+
k
Dann gilt für alle t 2 R mit |t|  1 und für alle
1
X
n
'MAn ( )t = exp
n=0
(
k
Leiten wir die linke Seite dieser Gleichheit nach
= 0 aus, erhalten wir
1
X
.
2 C mit Im( )
1
X
1
k=1
i
'Ak ( )t
k
)
0
.
ab und werten das Resultat in
EQ [iMAn ] tn .
n=0
Leiten diesen Ausdruck wiederum N Mal nach t ab und werten das Resultat schliesslich in t = 0 aus, dann bleibt N ! · EQ [iMAN ]. EQ [MAN ] interessiert uns ja gerade.
Deshalb gehen wir mit der rechten Seite der Gleichung in Spitzers Satz analog vor:
(1
)
X1
d
exp
'Ak ( )tk |
d
k
k=1
=0
1
X
1
(
1
X
1
=
'0Ak (0) exp
'Am (0)tm
k
m
m=1
k=1
( 1
)
1
X
X 1
k
=
EQ [iA+
tm
k ]t exp
m
m=1
k=1
42
)
Nun wollen wir vielfach nach t ableiten. Deshalb schreiben wir den Exponentialterm
folgendermassen um:
(
1
X
1 m
exp
t
m
m=1
)
= exp
(
1
X
1
( 1)m+1 ( t)m
m
m=1
)
= exp { log(1
t)} =
1
1
t
=
1
X
l=0
Diesen Ausdruck setzen wir oben ein und leiten N Mal nach t ab:
✓
d
dt
◆N X
1
E
Q
k
[iA+
k ]t
k=1
1
X
t
l
1
X
=
l=0
k=1
1
X
=
k=1
E
Q
[iA+
k]
0
✓
@EQ [iA+
k]
d
dt
◆N X
1
tk+l
l=0
1
X
l (N k)+
(k + l)!
tk+l
(k + l N )!
1
NA
Nun setzen wir t = 0:
1
X
EQ [iA+
k]
1
X
l (N k)+
k=1
(k + l)!
tk+l
(k + l N )!
N
|t=0 =
=
1
X
k=1
1
X
0
@EQ [iA+
k]
1
X
l=l (N k)+
N ! EQ [iA+
1kN
k ]1
1
11k+l=N N !A
k=1
Zusammen mit der ebenso manipulierten linken Seite der Gleichung in Spitzers Satz
erhalten wir die überraschende Formel
Q
E [max{0, A1 , ..., AN }] = E
Q
⇥
+
max{A+
1 , ..., AN }
⇤
=
N
X
1
k=1
k
⇥ ⇤
EQ A+
k .
Um diesen Erwartungwert in unserem Fall zu berechnen, benötigen wir folgendes
Lemma:
Lemma 2. Für X ⇠ N (µX ,
⇥
E X
wo
+
⇤
2
X)
ist
= µX ·
✓
µX
X
◆
+
X
·
✓
µX
X
◆
,
die Verteilungsfunktion der Standardnormalverteilung und
zeichnet.
43
deren Dichte be-
tl
Beweis. Mit Z ⇠ N (0, 1) haben wir
⇥ ⇤
⇥
⇤
E X + = E ( X Z + µX ) +
h
i
h
= E 11Z µX ·0 + E 11Z µX · (
h X
i
hX
= X E 11Z µX Z + µX E 11Z
X
1
Xp
2⇡
=
Z1
z exp
µX
⇢
z2
2
X Z + µX )
i
µX
X
✓
dz + µX 1
X

⇢ 2 1
1
z
exp
Xp
2
2⇡
z=
✓ ◆
✓ ◆
µX
µX
+ µX
.
X
=
=
X
i
+ µX
µX /
X
✓
✓
µX
X
µX
X
◆◆
◆
X
Die Verteilung der Ak als Summe von k unabhängigen normalverteilten Zuvallsvariablen - eben der Log Returns - kennen wir natürlich.
Ak ⇠ N kr2
N, k
2
2
, r2 = r
N
2
Mit obigem Lemma ergibt sich für den Erwartungswert des positiven Teils der Irrfahrt also
E
Q
[A+
k]
=
=
✓
kr
p 2
k
✓p
k
N
◆
kr2
◆
N r2
kr2
N
N
N
+
+
✓
kr
p 2
k
✓p
k
◆p
k
N
◆p
N r2
k
N
N
N
.
Diese Überlegungen zusammenfassend erhalten wir als Korollar des oben zitierten
Satz von Spitzer folgende Proposition:
44
Proposition 7. Für den BSM-Erwartungswert des Maximums der summierten
(
N -)Logreturns
Ak := Y1 + ... + Yk mit Yi := log Sti /Sti
Q
E [max {0, A1 , ..., AN }] =
wo
d(k) =
p
k
N ✓
X
r2
p
N
(d(k)) + p
k
N
k=1
N r2
gilt
1
◆
(d(k)) ,
für k = 1, ..., N mit
2
r2 = r
.
2
⇥
⇤
Für die diskrete HWM Indexierung sind wir natürlich weniger an EQ MAN als viel⇥
⇤
mehr an e(N ) = EQ exp MAN interessiert. Das Wissen über den Erwartungswert
von MAN können wir uns etwa folgendermassen für e(N ) nutzbar machen. Mit der
Jensen-Ungleichung erhalten wir naheliegenderweise eine untere Schranke für den
gesuchten Wert.
⇥
⇤
e(N ) = EQ exp(MAN )
⇥
⇤
exp EQ MAN
Gleich, in der Abbildung auf der nächsten Seite, können wir sehen, wie gut diese
Annäherung ist. Etwa für (typisches) jährliches Monitoring ist diese Annäherung
mindestens so gut, wie diejenige durch die Bewertung des kontinuierlichen Falls. Zusammen mit dem Wert für die kontinuierliche Indexierung haben wir nun jedenfalls
ein Band für den Wert der diskreten HWM Indexierung mit Partizipationsrate ↵ 15 .
1 + ↵ exp E
Q
⇥
MAN
⇤
✓
Q
✓
1  E [RHWM ]  1 + ↵ exp E
Q

M1
S0
◆
1
◆
Man könnte nun natürlich die Gleichung in Spitzers Satz noch einige Male ableiten
und in 0 auswerten. So würde man noch einige Momente von MA gewinnen und
könnte mit diesen den gesuchten Erwartungswert in folgender Art noch genauer
annähern:
exp(MA ) ⇡
MAN
MAN
+
2
2
MAN
+
3!
3
MAN
+
4!
4
und also
EQ [exp(MAN )] ⇡ EQ [MAN ] +
15
Zur Erinnerung: M N
max{0, A1 , ..., AN }
i 1
h
i 1
h
i
1 Qh
2
3
4
E
MAN
+ EQ MAN
+ EQ MAN
.
2
3!
4!
= max{S0 , St1 , ..., StN }, M 1
45
= maxt2[0,T ] {St } und MAN
=
1.2
0.9
1.0
1.1
EUR
1.3
1.4
Wert der diskreten HWM-Indexierung
0
10
20
30
40
50
N
Abbildung 6: Hier sieht man die Formeln von Proposition 6, 7 und 8 für volle Partizipation
(↵ = 1) in Aktion: Die obere gestrichelte Linie ist der Wert der kontinuierlichen HWM-Indexierung,
die untere der Wert der diskreten HWM-, CR- und SR-Indexierung für den Spezialfall N = 1
(hier entsprechen sich die drei Methoden genau). Die vertikalen Linien entsprechen den Werten
der diskreten HWM-Indexierung abhängig von N . N = 7 entspricht im Beispiel jährlichem Monitoring,
N = 14 halbjährlichem,
usw. Die Punkte entsprechen jeweils den unteren Schranken
⇣
⇥ N ⇤⌘
Q
exp
r7 + E MA , die wir mit Proposition 7 zusammen mit der Jensen-Ungleichung erhalten.
Die entsprechenden Formeln werden aber sehr schnell sehr unhandlich, warum wir
diesen Weg nicht weiter verfolgt haben. Aber man findet mit der (kombinatorischen)
Methode, mit der Spitzer sein oben zitiertes Theorem beweist, auch eine berechenbare Darstellung von e(N )! Dies sei im folgenden dargestellt:
Proposition 8. Im BSM-Modell ergibt sich für den risikoneutralen Wert der diskreten HWM-Indexierung mit Monitordaten t0 , ..., tN zum Zeitpunkt t = 0
e
rT
E
Q

1+↵
Q

wo
E
Die Summe
⇤
P
MN
S0
✓
MN
S0
=
1
◆
⇤ Y
N
X
⌫=1
=e
1
⌫ k⌫ k
⌫!
rT
✓
1
↵ +↵E
Q
1 + ert⌫ c(t⌫ , 1, 1)

MN
S0
◆
k⌫
geht über alle N -Tupel (k1 , ..., kN ) 2 NN
0 mit k1 +2k2 +...+N kN = N ,
und c(t⌫ , 1, 1) bezeichnet den Wert einer Calloption auf S mit Restlaufzeit t⌫ und
mit sowohl Ausübungspreis als auch aktuellem Wert des Underlying gleich 1.
46
Nach dem Beweis präsentieren wir R-Code zur praktischen Berechnung des Resultats. Vor dem Beweis machen wir noch eine Bemerkung zur Brauchbarkeit dieser
Formel. Die Anzahl der beschriebenen N -Tupel ist gerade die Anzahl Partitionen
p(N ) von N . Denn wir man sich leicht überlegt, kann man aus jedem dieser N -Tupel
eine Partition der Zahl N konstruieren und umgekehrt aus jeder Partition der Zahl
N einen solchen N -Tupel. Einige Beispielwerte für p:
N
1
2
3
4
5
10
15
20
25
p(N) 1
2
3
5
7
42
176
627 1958
30
5604
Hierfür gibt es keine einfache Formel. Man erkennt schon an diesen paar Werten:
p wächst schnell. Als Faustregel findet man, dass die Anzahl Dezimalstellen von
p
p(N ) etwa N entspricht. Mit dem in [10] kommentierten R-Paket “partitions” lassen sich die Partitionen noch bis zu N = 60 in einigen Sekunden auflisten. N = 60
entspricht für typische Laufzeiten einem Abstand zwischen den Monitordaten von
ein bis drei Monaten. Sind die Abstände kürzer ist die Methode weniger praktikabel; dann macht aber die Approximation mit der kontinuierlichen Bewertung von
Proposition 6 durchaus Sinn.
Beweis. Das Hauptargument ist die Austauschbarkeit der Logreturns. Es wird also
um Permutationen ⇡ 2 SN gehen. Hierfür gilt es erstmal einige Begriffe und Notationen in Erinnerung zu rufen bzw. erklärend einzuführen.
SN
:= {⇡ : {1, 2, ..., N } ! {1, 2, ..., N }, bijektiv}
:= (Y1 , ..., YN ), die
Ak
:= Y1 + ... + Yk für k = 1, ..., N
⇡Y
:= Y⇡(1) , ..., Y⇡(N ) für ⇡ 2 S
⇡Ak
:= Y⇡(1) + ... + Y⇡(k)
n(⇡)
Anzahl der Zyklen16 von ⇡ 2 SN (einschliesslich “Einzelzyklen”)
↵1 (⇡)...↵n(⇡) (⇡)
k⌫ (⇡)
(k1 (⇡), ..., kN (⇡))
N -Log
iid
Y
Returns (Yi ⇠ N (r2
(Eindeutige) Zyklenzerlegung von ⇡ 2 SN
N,
2
N ))
Anzahl der Zyklen von ⇡ 2 SN mit Länge ⌫ für ⌫ = 1, ..., N
“Zyklusmuster” von ⇡
47
Wieder schreiben wir e(N ) für EQ [M N /S0 ]. Wegen der Unabhängikeit der Log Returns sind Y und ⇡Y gleichverteilt für alle ⇡ 2 SN . Wir sagen: “Die Komponenten
von Y sind austauschbar.” Das verwendet der erste - triviale - Schritt in Spitzers
Beweis:
e(N ) = E [exp (max{0, A1 , ..., AN })]
= E [exp (max{0, ⇡A1 , ..., ⇡AN })]
1 X
=
E [exp (max{0, ⇡A1 , ..., ⇡AN })]
N ! ⇡2S
N
Es ist aber noch überhaupt nicht klar, wohin der Weg führt, und gerade die letzte
Umformung scheint sinnlos zu sein. Die Erklärung findet sich in der folgenden überraschenden kombinatorischen Aussage. Und zwar gilt für alle fixen (y1 , ..., yN ) 2 RN
"
(
max 0, y⇡(1) , y⇡(1) + y⇡(2) , ...,
N
X
y⇡(i)
i=1
)
#
2
: ⇡ 2 SN = 4
n(⌧ )
X
i=1
0
@
X
j2↵i (⌧ )
1+
3
yj A : ⌧ 2 S N 5 .
Die eckigen Klammern sollen bedeuten: “Mengen mit Elementwiederholungen” Der
raffinierte (geometrische!) Beweis hierfür findet sich ebenfalls in [22]. Für uns bedeutet diese Mengengleichheit, dass es keine Rolle spielt, ob wir über die N ! Permutionen
alle
exp (max{0, ⇡A1 , ..., ⇡AN })
summieren oder alle
8
0
1+ 9
n(⌧ )
<X
=
X
@
A
exp
Yj
.
:
;
i=1
Und so erhalten wir:
8
0
1+ 93
n(⌧ )
<
=
X 1
X
X
@
e(N ) =
EQ 4exp
Yj A 5
:
;
N!
⌧ 2SN
16
j2↵i (⌧ )
2
i=1
j2↵i (⌧ )
Fakt: Jede Permutation lässt sich eindeutig als Produkt von (disjunkten) Zyklen schreiben.
(Eindeutig modulo
der Zyklen und Wahl der Startzahl innerhalb eines Zyklus.)
✓ Reihenfolge
◆
123456
Zum Beispiel:
= (124)(36)(5)
246153
48
Und dies ist der entscheidende Schritt, denn hier verlieren wir das “max”. Weiter
können wir vereinfachen, indem wir die Unabhängigkeit der Log Returns (wieder)
ausnützen:
80
2
1+ 9 3
< X
=
X 1 n(⌧
Y)
Q4
@
A
5
e(N ) =
E exp
Yj
:
;
N
!
i=1
⌧ 2S
j2↵i (⌧ )
N
Da die Log Returns aber alle gleich verteilt sind, hängen die Erwartungswerte nur
von der Länge des Zyklus ↵i (⌧ ) ab. Wenn wir diese Länge mit |↵i (⌧ )| bezeichnen,
können wir also schreiben:
80
2
1+ 9 3
i (⌧ )|
< |↵X
=
X 1 n(⌧
Y)
e(N ) =
EQ 4exp @
Yj A 5
:
;
N ! i=1
j=1
⌧ 2S
N
Bereits haben wir hier also ein Resultat vorliegen, dass leichter berechenbare Erwartungswerte enthält als der Ausgangspunkt (jede Summe der Yj ist natürlich wieder
normalverteilt). Obige Summe wäre aber über N ! Summanden, was natürlich schnell
alle Berechenbarkeit sprengt. Stattdessen bemerken wir, dass man zur Berechnung
der Summanden nicht die ganze jeweilige Permutation ⌧ benötigt, sondern nur ihr
“Zyklenmuster” (k1 (⌧ ), ..., kN (⌧ )), wo k⌫ (⌧ ) die Anzahl von Zyklen mit Länge ⌫ bezeichnet für ⌫ = 1, ..., N . Mit dieser Notation:
"
( ⌫
!+ )#k⌫ (⌧ )
N
X 1 Y
X
e(N ) =
EQ exp
Yj
N
!
⌫=1
j=1
⌧ 2S
N
Das heisst, wenn wir wissen, wieviele Permutationen für ein gegebenes Zyklenmuster
existieren, dann können wir obige Summanden mit diesem Faktor versehen und statt
über alle Permutationen über alle Zyklenmuster summieren. Diesen Faktor wollen
wir uns im folgenden kombinatorischen Exkurs überlegen:
Sei also (k1 , ..., kN ) 2 NN
0 fix. Wir suchen
# {⇡ 2 SN : (k1 (⇡), ..., kN (⇡)) = (k1 , ..., kN )}
Als ersten Schritt zählen wir für ein festes ⌫ alle Permutationen mit k⌫ Zyklen der
Länge ⌫.
49
N!
(N k⌫ ⌫)!
Soviele Möglichkeiten gibt es, k⌫ ⌫ Elemente aus N auszuwählen - mit Berücksichtigung der Reihenfolge. Jede dieser Möglichkeiten kann man als k⌫ Zyklen der Länge
⌫ betrachten. Aber die Reihenfolge der Zyklen soll keine Rolle spielen, darum teilen
wir obige Anzahl noch durch k⌫ !. Weiter sollen “verschobene” Zyklen nicht unterschieden werden (z.B. (143) = (431) = (314)), darum teilen wir das Resultat noch
durch ⌫ k⌫ . Damit ergibt sich für den ersten Schritt
# {⇡ 2 SN : k⌫ (⇡) = k⌫ } =
N!
1
1
·
· k⌫ .
(N k⌫ ⌫)! k⌫ ! ⌫
Diese Möglichkeiten für jedes ⌫ multiplizieren wir miteinander und kommen so auf
die Gesamtzahl der Permutationen mit Zyklusmuster (k1 , ..., kN ). Dabei müssen wir
aber noch bedenken, dass wir für die Zyklen der Länge ⌫ nicht mehr aus N , sondern
nur noch aus N
k1 1
...
1) Elementen auswählen:
k⌫ 1 (⌫
N!
1 1
(N k1 1)!
1 1
(N k1 1 ... kN 1 (N 1))! 1 1
·
···
(N k1 1)! k1 ! 1 (N k1 1 k2 2)! k2 ! 2k2
(N k1 1 ... kN N )!
kN ! N kN
Hier kürzt sich natürlich einiges. Und so ergibt sich für den gesuchten Faktor
# {⇡ 2 SN : (k1 (⇡), ..., kN (⇡)) = (k1 , ..., kN )} = N !
N
Y
⌫=1
1
⌫ k⌫ k
⌫!
.
Diese Zahl setzen wir nun also in den Ausdruck für e(N ) ein und erhalten
e(N ) =
⇤ Y
N
X
⌫=1
wobei
⇤
P
1
⌫ k⌫ k
⌫!
"
EQ exp
(
⌫
X
j=1
Yj
!+ )#k⌫
,
die Summe über alle möglichen Zyklusmuster (k1 , ..., kN ) 2 NN
0 bezeichnet.
(k1 , ..., kN ) ist aber genau dann ein Zyklusmuster, wenn k1 ·1+k2 ·2+...+kN ·N = N
- wie in der Behauptung beschrieben.
50
Zuletzt stellen wir die involvierten Erwartungswerte als Funktionen von Calloptionwerten dar:
"
EQ exp
(
⌫
X
Yj
j=1
!+ )#
"
(
= EQ max exp

⇢
⌫
X
Yj
j=1
!
,1
)#
St ⌫
max
,1
S0
"✓
◆+ #
St ⌫
= 1 + EQ
1
S0
= E
Q
= 1 + ert⌫ c(t⌫ , 1, 1)
So ergibt sich insgesamt das zu beweisende Resultat
e(N ) =
⇤ Y
N
X
1
1 + ert⌫ c(t⌫ , 1, 1)
k⌫ k !
⌫
⌫
⌫=1
k⌫
.
Bei dieser Proposition wollen wir nicht darauf verzichten, auch den entsprechenden
R-Code anzubieten: Das Programm ist zwar nicht kompliziert, aber wegen der Auflistung und Transformation von Partitionen verlangt es doch einige Überlegungen, die
dem probierfreudigen Leser hiermit also erspart seien. Die Funktion E_maxReturn
berechnet e(N ) = EQ [M N /S0 ].
51
##Lädt nötige Pakete
library(RQuantLib)
library(partitions)
##Berechnet den Erwartungswert aus Proposition 8
E_maxReturn<-function(T,N,r0,sigma0)
{
Delta<-T/N
partitions<-parts(N)
calls<-0
for(nu in 1:N)
{
calls[nu]<-EuropeanOption("call",1,1,0,r0,Delta*nu,sigma0)$value
}
result<-0
for(j in 1:ncol(partitions))
{
k<-nu_count(partitions[,j])
result<-result+prod(1/(1:N)^(k[1:N])/factorial(k[1:N])*
(1+exp(r0*Delta*(1:N))*calls[1:N])^(k[1:N]))
}
return(result)
}
##Hilfsfunktion: Berechnet für gegebene Partition den entsprechenden
##N-Tupel (das ‘‘Zyklusmuster’’)
nu_count<-function(x)
{
n<-length(x)
ind<-numeric(n)
for(nu in 1:n) {ind[nu]<-sum(x==nu)}
return(ind)
}
Mit diesen wenigen Zeilen Code lässt sich also der Wert der diskreten HWMIndexierung oder auch der diskreten Lookbackoption berechnen. Anders als alle
mathematischen Generationen vor der jetzigen, können wir heute komplizierte Resultate auch empirisch “verifizieren” (sicherlich falsifizieren). Simulieren wir unter
Q viele tausend Male sollte der Durchschnitt nach dem Gesetz der grossen Zahlen
ziemlich genau dem Wert, den unsere Formel ausgibt, entsprechen. Mit dem folgenden weiteren kurzen Codeschnipsel lässt sich das Resultat von Proposition 8 und die
Funktionstüchtigkeit des dazugehörigen Codes mit solchen Simulationen überprüfen.
52
T<-7
N<-14
Delta<-T/N
ndays_year<-252
ndays<-T*ndays_year
monitor.days<-ndays_year*Delta*(1:N)
r0<-0.03
sigma0<-0.25
s0<-5000
nrep<-100000
test<-numeric(nrep)
##Simuliert nrep Mal tageweise Indexverl\"aufe unter Q
##In ‘‘test’’ werden die jeweils maximalen Returns
##an den Monitordaten gespeichert
for(i in 1:nrep)
{
simulation<s0*exp(cumsum(rnorm(ndays,mean=(r0-sigma0^2/2)/252,sd=sigma0/sqrt(252))))
test[i]<-max(c(s0,simulation[monitor.days]))/s0
}
##Vergleich von analytischem Resultat und Monte Carlo Sch\"atzung
mean(test)
E_maxReturn(T,N,r0,sigma0)
t.test(test-E_maxReturn(T,N,r0,sigma0))
In der letzten Proposition erhielten wir also eine geschlossene Formel für den Wert
der diskreten HWM-Indexierung zum Zeitpunkt des Vertragsabschlusses. Aus vielerlei Gründen wäre aber eine Bewertung zu einem beliebigen Zeitpunkt wünschenswert: Für das dynamische Hedging liefern uns die Formeln die entsprechenden Sensitivitäten und auch bei vorzeitiger Vertragsauflösung oder für die Buchhaltung kann
die Bewertung von EIA-Verträgen zu beliebigen Zeitpunkten wichtig sein. Eine solche Bewertung ist auch im diskreten HW M -Fall möglich - mit Hilfe des kombinatorischen Kniffs im vorigen Beweis, der “Spitzer’schen Identität”. Die Idee ist dieselbe,
das Resultat allerdings sperriger und etwas weniger brauchbar. Darum sei diese allgemeinere Bewertung hier also separat vorgestellt.
53
Natürlich ist
e
r(T t)
EQ
t

1+↵
✓
MN
S0
1
◆
=e
r(T t)
✓
1
↵+
↵ EQ
t

MN
S0
◆
.
Wir suchen also eine Formel für
EQ
t
et (N ) :=

MN
.
S0
Wir können sicher nicht ganz analog zum Fall t = 0 vorgehen, denn das erste und
wichtigste Argument dort war die Austauschbarkeit der Logreturns
Yk = log
✓
St k
St k 1
◆
,
aber gegeben F t (zum Beispiel t = t2 ) sind die Logreturns im Allgemeinen nicht
mehr austauschbar (zum Beispiel Y1 und Y3 ). Darum muss es unsere erste Aufgabe
sein, et (N ) als unbedingten Erwartungswert zu schreiben. Sei also t 2 (ti0 1 , ti0 ].

⇢
St
St N
max 1, 1 , ...,
S0
St N 1

⇢
✓
◆
St i0 1
St i
St 1
St N
Q
= Et max max 1,
, ...,
, 0 , ...,
S0
S0
S0
St N 1
et (N ) =
EQ
t
Für
✓
St i
St
max 1, 1 , ..., 0
S0
S0
schreiben wir nun kurz Mi0
F t -messbar ist, da ti0
1
1
1
◆
und behalten dabei im Hinterkopf, dass Mi0
1
gewiss
< t. Ausserdem schreiben wir Ct für St /S0 . Auch Ct ist
F t -messbar.
⇢
St i
St N
et (N ) =
max Mi0 1 , 0 , ...,
S0
St N 1

⇢
St i 0
St
= EQ
, ..., Ct N
t max Mi0 1 , Ct
St
St
EQ
t

54
Die Returns Sti0 /St , ..., StN /St sind unabhängig von F t . Wir können also wiederum
Lemma 1 verwenden.
et (N )

⇢
St i
St
Q
= E max m, c 0 , ..., c N
St
St
"
(
m=Mi
0
1
c=Ct
N
Xi0
St i
St i
St i
exp max m̃, c̃ + log 0 , c̃ + log 0 + Yi0 +1 ..., c̃ + log 0 +
Yi0 +k
St
St
St
k=1
= EQ
)!#
m=Mi
wo c̃ := log c und m̃ := log(m). Weiter schreiben wir Y für log Sti0 /St und behalten
im Kopf, dass Y eine Zufallsvariable unabhängig von den anderen Logreturns ist
(aber nicht gleich wie diese verteilt ist). Nun bringen wir et (N ) in die Form, bei der
wir die Identität von Seite 48 anwenden können.
et (N )
"
(
= EQ exp max m̃, c̃ + Y, c̃ + Y + Yi0 +1 , ..., c̃ + Y +
"
(
k=1
= EQ exp max m̃, c̃ + Y, c̃ + Y + Y1 , ..., c̃ + Y +
= E
Q
"
"
N
Xi0
(
exp c̃ + Y + max m̃
(
= EQ exp c̃ + Y + max m̃
N
Xi0
k=1
c̃
Y, 0, Y1 , ...,
N
Xi0
Yk
k=1
c̃
Yk
Yi0 +k
)!#
)!#
)!#
0
1
c̃=log Ct
m̃=log Mi
0
1
c̃=log Ct
m̃=log Mi
0
1
c̃=log Ct
Y, max 0, Y1 , Y1 + Y2 , ...,
m̃=log Mi
N
Xi0
k=1
Yk
!)!#
m̃=log Mi
Nun können wir die kombinatorische Gleichheit von Seite 48 anwenden auf den Term
max 0, Y1 , Y1 + Y2 , ...,
N
Xi0
k=1
Yk
!
,
denn diese Variablen sind unabhängig sowie gleichverteilt und damit austauschbar.
Dass für m̃ und c̃ nach der Auswertung des Erwartungswertes noch Zufallsvariablen
eingesetzt werden, müssen wir uns aus Platzgründen nun im Kopf merken. Wir
55
0
c̃=log Ct
1
0 1
c=Ct
,
finden mit den Bezeichnungen des vorigen Beweises auf Seite 47.
et (N )
=
1
(N
X
i0 )! ⇡2S
"
(
EQ exp c̃ + Y + max m̃
N
i0
N
i0
c̃
Y, max 0, Y⇡(1) , ...,
Y⇡(k)
k=1
1+ 9 13
n(⌧ )
=
X
X
X
1
@
EQ 4exp @c̃ + Y + max m̃ c̃ Y,
Y j A A5
=
:
;
(N i0 )! ⌧ 2S
i=1
j2↵i (⌧ )
N i0
8
2
0
0
1+ 913
n(⌧ )
<
=
X
X
X
1
Q4
@
@
A
A5 .
=
E exp max m̃, c̃ + Y +
Yj
:
;
(N i0 )! ⌧ 2S
i=1
2
8
<
N
Xi0
0
0
j2↵i (⌧ )
Y, Y1 , Y2 , ..., YN sind unabhängig und normalverteilt. Trotz dieser scheinbar einfachen Ausgangslage fanden wir keinen Weg letzteren Erwartungswert entscheidend
zu vereinfachen und etwa als Funktion von Normalverteilungswerten darzustellen.
Wir müssen also in den sauren Apfel beissen und et (N ) via Monte-Carlo Simulationen annähern. Im nächsten Abschnitt stellen wir einen Trick vor, um hier immerhin
die Varianz des Erwartungswertschätzers deutlich zu reduzieren. Zuvor sei auch noch
ein punktueller, aber später sehr nützlicher Sonderfall präsentiert:
Wenn nämlich t gerade auf das Monitordatum ti0 fällt und ausserdem der Indexwert
zu diesem Zeitpunkt, Sti0 , gerade einen neuen Rekord der bisherigen Monitorwerte
darstellt, dass heisst max{S0 , S1 , ..., Sti0 } = Sti0 , dann erhalten wir unter abermaliger Verwendung von Lemma 1 zunächst
⇢
St
St
eti0 (N ) =
max 1, 1 , ..., N
S0
S0
"
(
)#
Sti0 Sti0 Sti0 +1
St i 0 St N
St 1
Q
= Eti0 max 1,
, ...,
,
, ...,
S0
S0 S 0 St i 0
S0 St i0
"
(
)#
Sti +1
St
= EQ max m, c 0 , ..., c N
St
i0
St i 0
St i 0
c=
S0
EQ
t i0

m=max{1,St1 /S0 ,...,Sti /S0 }
0
56
!)!#
Unter der Annahme, dass max{S0 , S1 , ..., Sti0 } = Sti0 , ist aber m = c. So finden wir
"
(
)#
S
S
t
i +1
t
eti0 (N ) = EQ max c, c 0 , ..., c N
St
St i 0
St i0
i
c= S 0
0
"
(
)#
Sti +1
St
= EQ c max 1, 0 , ..., N
St
St i 0
St i 0
i
c= S 0
"
(
)# 0
St i 0 Q
Sti +1
St
=
E max 1, 0 , ..., N
S0
St i 0
St i 0
Zuletzt verwenden wir noch, dass die Returns zwischen den Monitordaten stationär
sind. Insgesamt:

⇢
St N i 0
St i0 Q
St
eti0 (N ) =
E max 1, 1 , ...,
S0
S0
S0
auf {max{S0 , S1 , ..., Sti0 } = Sti0 }. Den involvierten Erwartungswert können wir nun
mit Hilfe von Proposition 8 direkt berechnen. Nur die Anzahl der Monitordaten und
die Laufzeit gilt es zuvor anzupassen, das heisst Ñ := N
i0 und T̃ := (N
i0 )
N.
Diese Formel wird oft zur Anwendung kommen, denn etwa bei jährlichem Monitoring ist für typische Indexverläufen etwa jeder dritte Monitorwert ein neuer Rekord.
Das Verwenden dieses Sonderfalls zusammen mit der im nächsten Abschnitt vorgestellten Kontrollvariablenmethode macht unser Vorgehen - angesiedelt zwischen
reiner Simulation und der Verwendung analytischer Resultate - zur fortlaufenden
Bewertung praktisch brauchbar (siehe Seite 61).
2.6
Monte Carlo Simulation und Kontrollvariablenmethode
Wie wir gesehen haben, können wir den PEMG H = (REIA
G)+ (und damit
max (REIA , G)) nur im PTP-Fall geschlossen bewerten. Die anderen Fälle wollen wir
im folgenden mittels Monte-Carlo-Simulationen schätzen. Wir simulieren H vielfach
unter dem risikoneutralen Mass Q und betrachten dann den Durchschnitt der Realisationen, der Schätzer für EQ [H] ist. Q bleibt aber ein absolut künstliches Objekt.
Der Zusammenhang mit der “Wirklichkeit” ist einzig im präsentierten Gedankengang auf Seite 25 angelegt. Die Quantile unter Q haben uns zum Beispiel nichts zu
57
sagen.
Vorgegeben seien also T, N, , r, ↵, s0 , P, : Nun simulieren wir vom Vektor
S N := (St1 , St2 , ..., StN )
unter Q.
iid
Simuliere Yk ⇠ N (r2
2
N,
N ),
Setze
Sti := s0 exp
k = 1, 2, ..., N
i
X
Yk
k=1
!
, i = 1, 2, ..., N.
Das machen wir n Mal und berechnen jedes Mal den realisierten Wert der untersuchten Verbindlichkeit H. Dann verwenden wir, dass wegen dem Gesetz der grossen
Zahlen
n
1X
E [H] ⇡
hi =: v̂n (H),
n i=1
Q
wo (hi )i=1,...,n die simulierten Realisationen von H bezeichnen.
Wert der Verträge mit LOC-Garantie
Wir verbessern die Monte-Carlo-Schätzung für H = EQ [(REIA G)+ ] nun, indem wir
unser Wissen um den risikoneutralen Erwartungswert der Indexierungen verwenden
und so die Varianz des Schätzers für den Wert des PEMG H deutlich senken. Diese
Art zur Varianzminimierung heisst Kontrollvariablenmethode. Die Idee ist einfach:
Für H = (R
G)+ , ein c 2 R und Rk , Simulationen von R, schreiben wir
⇥
EQ [H] = EQ (R
G)+
⇤
n
c EQ [R]
EQ [R] ⇡
1X
(Rk
n k=1
G)+
c Rk
EQ [R]
Letzteren Schätzer nennen wir ṽc,n (H). ṽc,n (H) ist natürlich ein erwartungstreuer
Schätzer für EQ [H] für alle c 2 R. Für seine Varianz (wir meinen natürlich Var :=
58
.
VarQ ) ergibt sich
n
X
1
Var(ṽc,n ) =
Var
(Rk
n2
k=1
G)+
EQ [R]
c Rk
!
1
Var (R G)+ c R EQ [R]
n
1
Var (R G)+ + c2 Var (R) 2c Cov (R
=
n
=
G)+ , R
.
Minimiert man diese Varianz als Funktion von c erhält man ein Minimum an der
Stelle
c⇤ :=
Cov ((R G)+ , R)
.
Var (R)
Durch Einsetzen findet man
Var(ṽc⇤ ,n ) =
und damit gilt für v̂n =
1
Var (R
n
Pn
k=1 (Rk
Cov ((R G)+ , R)
Var (R)
G)+
G)+ /n:
Var(ṽc⇤ ,n )
=1
Var(v̂n )
Corr (R
G)+ , R
2
.
Das heisst wir reduzieren die Varianz des naiven Schätzers v̂n um den Faktor 1
Corr((R
G)+ , R)2 . Das ist erheblich. Denn Q[R < G] ist “klein” und somit obiger
Korrelationskoeffizient ziemlich gross. Allerdings: Die Terme Cov ((R
G)+ , R) und
Var (R), die wir ja für c⇤ benötigen, kennen wir nicht. Deshalb schätzen wir das
optimale c⇤ wiederum und zwar mittels
ĉ⇤ :=
n
P
((Rk
G)+
k=1
n
P
EQ [Rk ]
v̂n ) · Rk
Rk
k=1
Q
E [Rk ]
2
.
Genau in unserer Situation (das heisst beim Schätzen des Wertes für den PEMG einer EIA unter Verwendung der Kenntnis des Wertes der Indexierungsmethode) wird
diese Methode sehr erfolgreich in [14] angewendet. Auch empirisch erkennt man die
höhere Stabilität des ersten Schätzers mit der Kontrollvariable leicht - siehe Abbildung 7.
59
200
100
0
Frequency
Mit Kontrollvariable
0.60
0.65
0.70
0.75
0.80
0.85
0.90
0.95
0.85
0.90
0.95
Werte
10 20 30 40
0
Frequency
Ohne Kontrollvariable
0.60
0.65
0.70
0.75
0.80
Werte
Abbildung
7: Jeweils
500 Mal wurde hier der Wert des PEMG einer CR-EIA, also
h
i
+
rT Q
e
E (RCR G) , geschätzt - jeweils mit derselben Anzahl Simulationen (200). Die Schätzer
des oberen Histogramms wurden mit, die der unteren ohne Kontrollvariable berechnet. Der Einfluss
auf die Streuung des Schätzers ist gewaltig.
Für die folgende Tabelle wurde für eine Partizipationsrate von 0.6, eine Laufzeit
von sieben Jahren und Nominal 1 Euro der Wert des PEMG geschätzt. Das heisst
⇥
⇤
Schätzer für e 7r EQ (REIA G)+ bezüglich der verschiedenen EIA-Produkte abhängig von verschiedenen Werten von N : Von N = 7, also jährlichem Ratcheting
bzw. Monitoring, bis hin zu N = 252, wöchentlichem.
CR
SR
HWM
17
N =7
N = 14
N = 28
N = 42
N = 84
N = 252
0.468
0.770
1.332
1.891
3.733
15.615
(0.462)
(0.769)
(1.332)
(1.891)
(3.733)
(15.615)
0.333
0.481
0.701
0.871
1.255
2.217
(0.372)
(0.480)
(0.701)
(0.871)
(1.255)
(2.217)
0.280
0.307
0.331
0.341
(0.240)
(0.274)
(0.301)
(0.313)
0.357
17
(0.332)
N =1
0.373
0.411
( 0.354)
(0.376)
Bei der diskreten HWM-EIAs können wir den Erwartungswert der Indexierungsmethode für
60
In Klammern findet sich jeweils der (exakte) Wert von
e
r7
EQ [REIA
G] = e
r7
EQ [REIA ]
e
r7
G.
Bei der HWM-Methode ist die systematische Unterschätzung dieser Approximation
bis hin zum kontinuierlichen Fall (N = 1) deutlich zu erkennen aber doch klein.
Bei den Ratchetmethoden ist für grosse N das Ereignis G < REIA unter Q derart
unwahrscheinlich, dass die beiden Werte fast genau gleich sind. Das ist natürlich
auch eine Frage der Partizipationsrate, die für das EIA-Produktdesign - das werden
wir in Kapitel 4 sehen - mit steigendem N nach unten angepasst wird. Aber auch
im Falle “fairer” Partizipationsraten ist die Annäherung des PEMG-Wertes durch
e
r7
EQ [REIA
G] immer noch sinnvoll. So gehen wir für die Berechnung der Sen-
sitivitäten in Kapitel 3 immer etwas ungenau vom Wert e
von e
r⌧
EQ
t [(R
r⌧
EQ
t [R
G] anstelle
G)+ ] aus. Das hat den grossen Vorteil, dass die Bewertungen und
damit die Sensitivitäten analytisch darstellbar sind. Die Ungenauigkeit ist erstens
nicht besonders gross und zweitens fangen wir mögliche Fehler im Kapitel 4 zum
Risikozuschlag wieder auf.
Fortlaufende Bewertung der diskreten HWM-Indexierung
Der Wert der HWM-Indexierung zum Zeitpunkt t ist
e
r(T t)
EQ
t

1+↵
✓
MN
S0
1
◆
=e
r(T t)
✓
1
↵+
↵ EQ
t

MN
S0
◆
Wie auf Seite 55 gezeigt, müssen wir in den meisten Fällen et (N ) = EQ
t
h
.
MN
S0
i
via
Monte-Carlo-Simulation schätzen. Analog zum Vorgehen bei den EIA-Bewertungen
mit LOC-Garantie im vorigen Abschnitt kommt auch hier die Kontrollvariablenmedie Werte N = 84 undh N = 252 nicht
i mehr berechnen: Der Partitionen sind zu viele. Beide Werte,
+
7r Q
sowohl oben e
E (REIA G)
als auch in Klammer unten e 7r EQ [REIA G] sind mittels
Monte Carlo Simulation geschätzt - ohne Kontrollvariable, denn für diese müssten wir ja gerade
den exakten Wert der Indexierungsmethode kennen.
61
thode zum Einsatz. Wir suchen also einen Schätzer für
et (N )
"
(
= EQ exp c̃ + Y + max m̃
wo
Mi 0
1
c̃
Y, max 0, Y1 , Y1 + Y2 , ...,
N
Xi0
Yk
k=1
✓
St i
St
= max 1, 1 , ..., 0
S0
S0
1
◆
!)!#
m̃=log(Mi
)
0 1
c̃=log(Ct )
,
,
Ct = St /S0 ,
Y, Y1 , Y2 , ..., YN
i0
unabhängig und normalverteilt,
Q
Y ⇠ N (ti0
t)r2 , (ti0
t)
2
und
Q
Yk ⇠ N
N r2 ,
N
2
, k = 1, 2, ..., N
i0 .
Von
Et (Y, Y1 , ..., YN
i0 )
(
:= exp c̃ + Y + max m̃
c̃
Y, max 0, Y1 , Y1 + Y2 , ...,
N
Xi0
Yk
k=1
können wir also leicht simulieren. Doch was verwenden wir als Kontrollvariable? Es
sollte eine möglichst “ähnliche” Zufallsvariable sein, deren Erwartungswert wir aber
kennen. Wir wählen die Variable
Kt := Kt (Y, Y1 , ..., YN
i0 )
(
:= exp c̃ + Y + max 0, Y1 , Y1 + Y2 , ...,
N
Xi0
Yk
k=1
)!
mit Erwartungswert
"
(
EQ [Kt ] = exp (c̃) · EQ [exp (Y )] · EQ exp max 0, Y1 , Y1 + Y2 , ...,
N
Xi0
k=1
Yk
)!#
.
Der zweite Erwartungswert ist gleich 1, falls i0 = N und ansonsten entspricht er
genau der Ausgangslage unserer ursprünglichen Bewertung; wir finden ihn mit Proposition 8. Nur die Laufzeit und die Anzahl Hedgingdaten gilt es entsprechend anzupassen. Wir schreiben für ihn ẽ(
N
· (N
62
i0 ), N
i0 ). Ersteren Erwartungswert
!)!
150
50
0
Frequency
Mit Kontrollvariable
0.00
0.05
0.10
0.15
0.20
0.15
0.20
Werte
10
5
0
Frequency
15
Ohne Kontrollvariable
0.00
0.05
0.10
Werte
Abbildung 8: Bezüglich derselben historischen Daten wurde hier der Wert des PEMG einer
diskreten HWM-EIA am hundertsten Tag der Laufzeit fünfhundertfach per Monte Carlo Simulation
geschätzt. Einmal mit, einmal ohne Kontrollvariable. Beide Male wurden 100 Werte simuliert. Der
Effekt ist überdeutlich.
kann man leicht bestimmen: Der Erwartungswert einer lognormalverteilten Zufallsvariable X mit Parametern µX und
hat unter Q die Parameter (ti0
2
X
ist exp(
t)r2 und (ti0
2
X /2 + µX ).
Die vorliegende Variable
t) 2 .
Und so finden wir als Erwartungswert der Kontrollvariable
Q
✓
E [Kt ] = exp c̃ +
(ti0
= exp (c̃ + (ti0
t)
◆
2
+ (ti0 t)r2 ẽ(
2
t)r) ẽ( N · (N i0 ), N
N
· (N
i0 ), N
i0 )
i0 ).
Die Bewertung der diskreten HWM Indexierung zum Zeitpunkt 0 < t < T funktioniert nun folgendermassen:
Ist t 2 {t1 , t2 , ..., tN
1 },
also t = ti0 , und zugleich Sti0
Sti für i = 0, 1, ..., i0 ,
dann können wir den Wert mit der Proposition auf Seite 46 direkt berechnen (siehe
zu diesem Sonderfall die Bemerkungen auf Seite 56 und folgende. In allen anderen
Situationen finden wir den richtigen Wert mittels Simulation:
63
Sei also t 2 (ti0 1 , ti0 ]. Dann setzen wir zunächst
c̃ := log
und
✓
St
S0
⇢
St i
St
m̃ := log max 1, 1 , ..., 0
S0
S0
wenn i0
1
◆
,
2. Für i0 = 1 setzen wir m̃ := 1. Zudem berechnen wir wie oben beschrie-
ben den Erwartungswert der Kontrollvariablen Kt , also EQ [Kt ]. Nun simulieren wir
n unabhängige Zufallsvektoren Y (1) , Y (2) , ..., Y (n) , die verteilt sind wie
(Y, Y1 , ..., YN
i0 ),
und berechnen von jedem so simulierten Vektor jeweils den Wert der Zufallsvariable
(k)
Et
⇣
⌘
:= Et Y (k)
und den Wert der Kontrollvariable Kt
(k)
Kt
⇣
:= Kt Y
(k)
⌘
.
Als Schätzer für den optimalen18 Faktor vor der Kontrollvariablen finden wir
ĉ⇤ :=
n ⇣
P
k=1
(k)
Et
n ⇣
P
k=1
(k)
wo E t
⌘ ⇣
(k)
E t · Kt
(k)
Kt
EQ [Kt ]
⌘
EQ [Kt ]
,
⌘2
wie üblich den Durchschnitt der Etk bezeichnet. Unser Schätzer für et (N )
sei mit diesen Bezeichnungen
1 X ⇣ (k)
êt (N ) :=
Et
n k=1
n
18
⇣
ĉ⇤ Ktk
h
i⌘⌘
(k)
E Q Kt
.
Optimal im Sinne der Varianzreduktion. Siehe Seite 58 zu den genauen Überlegungen.
64
6000
4000
Punkte
8000
DAX 2003-2010
0
500
1000
1500
Tage
0.4
0.0
0.2
Euro
0.6
Mit Kontrollvariable
0
500
1000
1500
Tage
Euro
0.0 0.2 0.4 0.6
Ohne Kontrollvariable
0
500
1000
1500
Tage
Abbildung 9: Bezüglich historischer Daten wurde hier zweimal via Monte Carlo Simulation
e⌧ r EQ
G] fortlaufend geschätzt (mit ↵ = 0.6). Einmal mit, einmal ohne der vorgeschlat [RHWM
genen Kontrollvariable Kt (durchgezogene Linie). Wie nach Abbildung 8 zu erwarten, ist die mit
der Kontrollvariable erstellte Bewertung auch über die Zeit gesehen stabiler. Die vertikalen Linien
bezeichnen wiederum die Monitordaten.
Als Approximation für den HWM-Wert zum Zeitpunkt t 2 (0, T ) finden wir endlich
e
r(T t)
EQ
t

1+↵
✓
MN
S0
1
◆
⇡e
r(T t)
(1
↵ + ↵êt (N )) .
In den Abbildung 8 und 9 kann man den Effekt einer Bewertung mit und ohne
Kontrollvariable vergleichen.
2.7
Bemerkungen zum Black-Scholes-Modell
Der Preis für die mathematische Einfachheit des Black-Scholes-Modells ist hoch.
Denn zweifellos sind alle seine Voraussetzungen unrealistisch. Auf drei ausgewählte
Kritikpunkte wollen wir hier kurz eingehen: Die empirischen täglichen Logreturns
sind gewiss keine Realisationen einer Normalverteilung wie es die Verwendung der
Brown’schen Bewegung unterstellt. Sie sind vielmehr “heavy tailed”. Das heisst ganz
praktisch, dass die Wahrscheinlichkeit für grosse, plötzliche Veränderungen (etwa
innerhalb eines Tages), vom BSM-Modell dramatisch unterschätzt wird. Das ist vor
allem deshalb problematisch, weil genau schnelle, grosse Veränderungen die Haupt-
65
quelle für Hedgingfehler ist. Mehr dazu in Kapitel 3.
Die Volatilität und der Zinssatz sind beide gewiss nicht konstant. Gerade über einen
längeren Zeitraum (wie etwa bei Laufzeiten von EIAs der Fall) sollte man das unbedingt in seine Bewertung einfliessen lassen. Was jede Privatperson beim Hauskauf
im Auge behalten muss, sollte und wird ein grosses Unternehmen bei seinen Aktivitäten wohl auch berücksichtigen.
Auch sind die aufeinanderfolgenden Logreturns gewiss nicht unabhängig. Das kann
man direkt in den Grafiken bemerken, wo sich im absoluten Sinn grosse Werte häufen. Etwas genauer beschrieben wird die Abhängigkeit in den Plots der Autokorrelationsfunktion. Siehe Abbildung 10. Eine weiterer schöner, empfindlicherer und auch
für grössere Abstände als tagesweise geeigneter Test zur Unabhängigkeit zwischen
aufeinanderfolgenden Zeitreihenvariablen sei im folgenden vorgestellt:
Wir betrachten 2000 quadrierte tägliche Logreturns (Yi2 )i=1,...,2000 . Unsere Nullhypothese sei also, dass die Daten aus einer unabhängigen Verteilung stammen; unsere
Alternativhypothese sei, dass grosse Werte tendentiell von grossen Werten gefolgt
werden und kleine entsprechend von kleinen. Unter der Nullhypothese müsste die
Abbildung
i 7! rank(Yi2 )
eine rein zufällige Permutation auf {1, 2, ..., 2000} sein19 . Woran könnten wir merken, dass dies nicht plausibel ist? Unter der Alternativhypothese folgt ein hoher
Rang tendentiell einem hohen Rang. Das müsste sich also insofern bemerkbar machen, dass die induzierte Permutation zu wenig “wiggely” ist. Verwenden wir also
ein naheliegendes Variationsmass als Teststatistik. Für ⇡ in Sn definieren wir
n
variation(⇡) :=
1X
(⇡(i)
n i=2
⇡(i
1))2 .
Die wohl mühevolle Berechnung der genauen Verteilung dieser Statistik für rein
zufälliges ⇧ ⇠ U(S̃n ) sparen wir uns hier und erstellen stattdessen einfach ein Histogramm durch millionenfache Simulation. In Abbildung 11 sieht man, wie richtig
19
Die Funktion rank hängt von dem gesamten Datensatz (Yi2 )i=1,...,2000 ab und bildet jedes
Datum auf seinen Rang innerhalb des Datensatzes ab. Sollte es Bindungen geben, verteilen wir die
Ränge zufällig, so dass die oben beschriebene Abbildung eine bijektive ist.
66
-0.05
Y
0.05
Historische tägliche Logreturns
0
500
1000
1500
2000
Tage
0.4
0.0
ACF
0.8
Autokorrelationsfunktion der quadrierten Daten
0
20
40
60
80
100
Lag
Abbildung 10: 2000 historische Logreturns samt Autokorrelationsfunktion der quadrierten Werte.
Nach dieser Graphik sind selbst bis zu zwei Monate entfernte tägliche Logreturns noch abhängig.
wir mit unserer Vermutung lagen. Die Variation der von den 2000 quadrierten Logreturns implizierten Permutation ist viel zu klein; der P-Wert des Tests ist quasi 0.
Bei aller Kritik sei hier abschliessend doch auch noch eine Lanze für das BSM-Modell
gebrochen. Wir erwarten von einem Modell ja durchaus Vereinfachung. Ein Modell,
das die Welt 1:1 abbildet, ist ja genauso kompliziert wie die Welt und bringt uns also nicht weiter. Deshalb sollen die Vorzüge des BSM-Modells nicht vergessen gehen:
Es ist elegant, relativ einfach verständlich, vielseitig brauchbar und war und ist in
der Forschung unglaublich fruchtbar. Auch bei den EIA-Verträgen leistet uns das
Nobelpreis-gekrönte Modell gute Dienste: Im Merton-Black-Scholes-Rahmen finden
wir geschlossene Bewertungsformeln für die Indexierungsmethoden und - wie man
im nächsten Kapitel sehen wird - indirekt auch einen Hedging-Algorithmus.
67
0 500
pi(i)
1500
Zufällige Permutation
0
500
1000
1500
2000
i
1500
0 500
rank(Y_i^2)
Von quadrierten täglichen Logreturns induzierte Permutation
0
500
1000
1500
2000
i
1.5e-05
0.0e+00
Wahrscheinlichkeit
Verteilung der Variationsstatistik
550000
600000
650000
700000
Variation
Abbildung 11: Von 2000 historischen täglichen quadrierten Logreturns betrachten wir hier die
implizierte Permutation (d.h. i 7! rank(Yi2 )) und berechnen deren Variationsstatistik. Wie sich in
der untersten Grafik zeigt ist die Wahrscheinlichkeit für das Eintreten dieses Resultats oder eines
noch kleineren Wertes unter der Annahme, dass die induzierte Permutation also rein zufällig ist,
quasi gleich null. Die Nullhypothese der unabhängigen Logreturns kann also mit bestem Gewissen
abgelehnt werden.
68
3
Hedging
In diesem Kapitel betrachten wir, wie die Verpflichtungen, die durch die Indexierungsmethoden entstehen, durch geschickten Handel mit verschiedenen Finanzprodukten abgesichert werden können. Diesen absichernden Handel nennt man “Hedging”. Man unterscheidet beim Hedging zwei unterschiedliche Ansätze: Einerseits das
dynamische Hedging, andererseits das statische Hedging. In der Praxis gebräuchlich
sind auch Mischformen. In dieser Arbeit verwenden wir der Einfachheit halber einen
rein dynamischen Hedge. Hier wird ein Portfolio von Finanzprodukten laufend angepasst, so dass es auf kurze Sicht genau so (oder wenigstens so ähnlich) reagiert
wie der Wert des abzusichernden Versicherungsprodukts. Die Konstruktion des dynamischen Hedges wird in diesem Kapitel detailliert beschrieben. Die Idee beim
statischen Hedge dagegen ist es, zum Zeitpunkt des Vertragsabschlusses eine Linearkombination von Finanzprodukten zu finden, die sich in allen Szenarien möglichst
ähnlich verhält wie das verkaufte Versicherungsprodukt - ohne weitere Anpassungen.
Für VAs ist es wegen ihrer langen Laufzeiten quasi nie möglich, ein perfektes “Replicating Portfolio” (im statischen Sinn) zu finden. Aber schon eine grobe statische
Absicherung von zum Beispiel 50% der möglichen Verluste, hilft, den dynamischen
Hedge weniger aufwendig und damit billiger zu machen. Der statische Anteil der
Absicherung nennt sich dann “Core Hedge”.
3.1
Einführung zum dynamischen Hedging
Es gibt viel mehr Literatur zur Bewertung als zum Hedging. Vielleicht weil letzteres eigentlich eher handwerkliche Qualitäten und Übung verlangt und sich durch
seine Unmengen von möglichen Handlungsmustern einer wissenschaftlichen Herangehensweise ein Stück weit entzieht? Hauptinhalt auch dieser Arbeit soll jedenfalls
nicht das Vergleichen und Optimieren von Hedge-Methoden sein. Wir betrachten
einen einzigen, allerdings schon etwas komplizierteren und einigermassen realistischen Ansatz: Neben dem delta hedgen wir auch gamma, das Konvexitätsrisiko,
rho, das Zinsrisiko, und vega, das Volatilitätsrisiko.
69
Taleb schreibt in [25]:
“..., all experienced traders operate under the same model and are comfortable with it because they learned the necessary tricks to make it work.
No experienced trader would willingly trade Black-Scholes-Merton for
another pricing tool.”
Und:
“It’s better to use a model with the smallest number of parameters to
estimate.”
In diesem Sinne gehen wir in diesem Kapitel sehr “praktisch” vor, schauen an allen
Orten, dass es nicht zu kompliziert wird und übersichtlich bleibt. Das ist auch darum vertretbar, weil im nächsten Kapitel bei den Simulationen unter realistischeren
Modellannahmen ja noch ein Polster in Form des Risikozuschlags wartet.
In der Einführung zur risikoneutralen Betrachtung wurde es betont: Die Speerspitze
der risikoneutralen Bewertung ist die Existenz eines (selbstfinanzierenden) replizierenden Portfolios. Dieses Hedge-Portfolio ist im BSM-Rahmen einfach aufzustellen.
Nehmen wir für den Augenblick an, dass r ⌘ 0. Von den Rechnungen in der Einleitung zum zweiten Kapitel wissen wir, dass dann
Vt := EQ
t [H]
der Wert des Claims H 2 L1 (F T ) zur Zeit t ist. Zudem zeigt man leicht, dass
EQ
t [H] ein Martingal ist. Mit einem Martingalrepresentations-Theorem (siehe etwa
Kallenberg [17], Theorem 18.10) finden wir (für F = FW ) die Existenz eines Prozesses
',
˜ so dass
EQ
t [H]
=
EQ
0 [H]
+
Zt
'˜s dWsQ .
0
Verwenden wir weiter, dass dS = S dW Q , erhalten wir für ' := '/(
˜ S)
EQ
t [H]
=
EQ
0 [H]
+
Zt
0
70
's dSs .
' ist im Vokabular des zweiten Kapitels eine erlaubte und erreichbare Handelsstrategie, die H perfekt repliziert, denn natürlich ist
EQ
0 [H]
+
ZT
's dSs = EQ
T [H] = H.
0
Soweit also die Existenz der Replikation. Intuitiv finden wir ' nun mit
d EQ
t [H]
= 't .
dSt
Das ist unser erster sogenannter “Greek”, delta. Das heisst: Ändert sich der Wert
des Underlyings S um eine Einheit, dann ändert sich der Wert unseres Derivats
um 't Einheiten. Natürlich nur ungefähr, da es sich um eine lineare Annäherung
handelt. Unter den BSM Annahmen könnte man ein Derivat mit Payoff H also
perfekt hedgen, indem man stets 't Anteile des Index hielte. Allein: Wir können
natürlich nicht kontinuierlich handeln. Nicht einmal annähernd kontinuierlich, etwa
minütlich - wegen der Transaktionskosten. Wenn die Funktion s 7! EQ
t [H]|St =s ei-
nigermassen linear ist, sollte das kein Problem darstellen. Ansonsten stellt sich die
Frage, wie empfindlich, wie “nichtlinear” der Derivatwert auf Änderungen reagiert,
also die Frage nach der zweiten Ableitung von s 7! EQ
t [H]|St =s , dem sogenannten
gamma des Derivats. Dieses Risiko kann durch den Handel mit Indexanteilen nicht
mehr repliziert werden, denn die zweite Ableitung des Indexwerts nach St selber
ist ja offensichtlich 0. Für das Hedgen des Gammarisiko können wir etwa Optionen
kaufen oder verkaufen. Das verändert aber wiederum unsere delta-Position, so dass
wir die Menge von Indexanteilen im Portfolio entsprechend korrigieren müssen. Nun
hängt der Wert eines Dervivats in der Regel nicht nur vom Underlying, sondern
auch vom Marktumfeld - etwa vom aktuellen risikofreien Zinssatz - ab. Diese weiteren Risiken hedgen wir analog zum Delta - nun allerdings ohne mathematische
“Rückendeckung”: Ob und wie weit der Markt in der Theorie wirklich vollständig im
Sinne der Definition auf Seite 25 ist, hängt natürlich von der Modellwahl ab. Aber
ohne diese Vollständigkeit versagt der für die risikoneutrale Bewertung entscheidende Gedankengang auf Seite25. Dann existiert nicht mehr gezwungenermassen eine
replizierende Strategie und unser risikoneutrales Mass ist ohne Vollständigkeit nicht
71
mehr eindeutig. Die mathematische Antwort auf das Problem der Unvollständigkeit
findet man unter Stichworten wie “Superreplikation” oder “Varianzminimierendes
Hedging”. Diese Fragen werden in der Praxis aber oft ignoriert. Auch wir modellieren im nächsten Kapitel Zins und Volatilität zwar stochastisch, bleiben was den
Hedge betrifft aber ganz “naiv”.
Das etwas allgemeinere Vorgehen: Wir analysieren, welche Empfindlichkeiten bzw.
Greeks
1
0
, ...,
S 1 , ..., S l (l0
l
wir hedgen wollen, wählen gerade l oder mehr Hedginginstrumente
l), berechnen deren Greeks
i
S 1 , ...,
i
S l0
(für i = 1, ..., l) und lösen
für die Zusammenstellung des Portfolios (w1 , ..., wl ) zu jedem Hedgezeitpunkt ein
(möglicherweise überbestimmtes) lineares Gleichungssystem von der Form
8
>
>
w1
>
>
>
>
>
>
<
>
>
>
>
>
>
>
>
:w
1
S1
l
1 S1
+ w2
1
S2
+ ... + wl
1
Sl 0
=
1
H
...
...
+ w2
l
S2
+ ... + wl
l
Sl 0
=
l
H
Aus mathematischer Sicht müssen die Hedgeinstrumente einfach so gewählt sein,
dass obiges Gleichungssystem lösbar ist - natürlich nicht zwingender Massen eindeutig. Aus praktischer Sicht spielen viele andere Überlegungen eine Rolle. Etwa:
• Sind die Produkte liquide?
• Welches Produkt hat die niedrigsten Transaktionskosten?
• Typischerweise hat obiges Gleichungssystem unendlich viele Lösungen. Welche
wählen wir?
• Wann und wie oft hedgen wir? Regelmässig fix oder je nach Umständen?
• Abzuwägen gilt es auch die Komplexität des Hedgeportfolios mit seinem Effekt:
Wenn Strategie A mit halb so vielen Instrumenten auskommt wie Strategie B
und dabei im Wert nur 5% von Strategie B abweicht, welche Strategie sollen
wir dann wählen?
72
3.2
Annahmen
In den von uns gewählten Mechanismus fliessen einige Ungenauigkeiten ein, die hier
genau aufgelistet seien. Man bedenke bei alledem, dass im nächsten Kapitel diese
Ungenauigkeiten durch den nachgelieferten Risikozuschlag Eingang in die Bewertung
finden.
• Ausser im PTP-Fall liefert die Literatur keine geschlossenen Formeln für den
jeweiligen Wert der eigentlichen Verpflichtung der Versicherung (PEMG)
e
r(T t)
EQ
t [(REIA
G)+ ],
denn hier handelt es sich quasi um eine Calloption (nämlich die Life Of Contract Garantie) auf ein Derivat (nämlich die Indexierungsmethode). Allerdings
zeigen Praxis und Simulation (siehe die Tabelle auf Seite 60), dass G für typische Werte für die Partizipationsrate ↵ und für den Anteil der garantiert
verzinsten Prämie
fast immer kleiner als R ist - sowohl unter P als auch
unter Q. Also betrachten wir während des Hedgings nicht die Veränderungen
von e
r(T t)
EQ
t [(R
G)+ ], sondern von e
r(T t)
EQ
t [R]
G .
• In unseren Hedging-Betrachtungen fahren wir inkonsistent, was das Modell
betrifft: All die nötigen laufenden Bewertungen machen wir im BSM-Rahmen.
Andererseits setzen wir zu jedem Zeitpunkt einen aktuellen Wert für r bzw.
in die Formeln ein. Schon allein das Bilden der Greeks rho und vega durch
Ableiten nach r und
Wären r und
ist bereits ein Schritt aus dem BSM-Modell heraus.
konstant, würde dieses Vorgehen ja gar keinen Sinn machen.
Das ist aber genau der Blick der Praxis: Jeder Trader weiss, dass etwa die
Volatilität keine konstante Grösse ist. Im Gegenteil: Die Volatilität ist der
entscheidende Tuning-Parameter für Bewertungen. Die gewählte Volatilität
hängt etwa stark von der “In-the-Moneyness” von Derivaten ab. Diesen Effekt
nennt man “Volatility Skew” oder “Volatility Smile”. Berücksichtigt man dann
noch die Entwicklung der Volatilität in der Zeit, führt das zu den sogenannten
“Volatility Surfaces”.
• Wechselwirkungen zwischen den Bewertungen ignorieren wir. Zum Beispiel
73
sind im Modell die Änderungen vom Underlying durchaus korrelliert mit den
Änderungen des Zinssatzes. Dennoch setzen wir das delta des Zinssatz gleich
null.
Die Greeks
Hier also die Sensitivitäten bzw. Greeks, die wir absichern wollen, in der Übersicht:
Definition 9. Für H 2 L1 (F T ) definieren wir
deltaH (t)
:=
gammaH (t)
:=
rhoH (t)
:=
vegaH (t)
:=
d EQ
t [H]
(t)
dSt
Q
d2 Et [H]
(t)
(dSt )2
Q
d Et [H]
(t)
dr
Q
d Et [H]
(t)
d
Ein Kommentar zur Grössenordnung von rhoH (t) und vegaH (t): Diese beiden Greeks
sind in der Regel sehr gross im Vergleich zum Derivatwert. Manchmal sogar deutlich grösser. Wie ist das zu deuten? Nun, in der Tat, eine Änderung zum Beispiel
vom Zinssatz r um eine Einheit führt zu einer riesigen, abnormen Veränderung beim
Derivatwert. Denn eine Einheit (100%) ist ja auch eine riesige, abnorme Veränderung des Zinssatz! Deshalb tut man gut daran, rhoH (t) und vegaH (t) gedanklich
stets mit 1/100 zu skalieren. Dann ist man in der rechten Grössenordnung: Ändert
sich der Zinssatz bzw. die Volatilität um einen Prozentpunkt, dann ändert sich der
Derivatwert um etwa rhoH (t)/100 bzw. vegaH (t)/100.
3.3
Hedging-Instrumente
Wie oben beschrieben, müssen wir für jede Sensitivität, die wir absichern wollen,
mindestens ein liquides Produkt handeln können, das eben - unter anderem - auch
diese Sensitivität aufweist. Für jedes der Produkte stellen wir ausserdem deren Bewertung und die jeweiligen Greeks vor.
Absicherung des delta: Indextracker
Zur Absicherung des delta investieren wir quasi direkt in den Index; das ist via
sogenannter Indextracker ohne weiteres möglich. Wie im abgebildeten Beispiel (Abbildung 12) gehen wir davon aus, dass ein Indexpunkt gerade einen Euro wert ist.
74
Index TRACKER
sind TRACKER-Zertifikate und gehören zur Kategorie der Partizipations-Produkte. Die gemäss dem Schweizerischen Verband für Strukturierte
Produkte (SVSP) verwendete Produktetyp-Nummer ist 210.
Markterwartung
Sie erwarten steigende Kurse des Basiswertes.
Eigenschaften
Sie partizipieren 1:1 an der positiven sowie negativen Entwicklung des Basiswertes.
Chancen & Risiken
Chancen
Mit einem Index TRACKER können Sie von der positiven Performance des Basiswertes profitieren.
Risiken
Der Kurs des INDEX TRACKER bewegt sich im selben Ausmass wie der Basiswert.
Das Verlustrisiko entspricht dem einer direkten Investition in den Basiswert.
Rückzahlungsmodus
Bei Verfall erfolgt eine Barrückzahlung in der Höhe des zugrunde liegenden Basiswertes. Es erfolgt keine Titellieferung.
Pay-off Diagramm bei Verfall
Beispiele bei Verfall
Ausgangslage
Szenario 1
Szenario 2
Szenario 3
Beschreibung
Steigende Kurse
Stagnierende Kurse
Fallende Kurse
Basiswert
Index
Index
Index
Laufzeit
Open End
Open End
Open End
Ausgabepreis
CHF 1'000
CHF 1'000
CHF 1'000
Eingesetztes Kapital
CHF 10'000
CHF 10'000
CHF 10'000
Anzahl Zertifikate
10
10
10
Index bei Emission
1'000
1'000
1'000
Index bei Verfall
1'200
1'000
900
Aktienperformance
20%
0%
-10%
Szenario 1
Szenario 2
Szenario 3
Berechnung
10 Zertifikate * 1'200
10 Zertifikate * 1'000
10 Zertifikate * 900
Rückzahlung in CHF
12'000
10'000
9'000
Gewinn / Verlust
20.00%
0.00%
-10.00%
Auszahlung
Steuern
Abbildung 12: Indextracker Produkt der Zürcher Kantonalbank
Einkommenssteuer
auf Vermögensertrag
Verrechnungssteuer
Nein
Umsatzabgabe
Nein
EU-Steuerrückbehalt
75
Nein
top
So ist der faire Preis eines Anteils am Tracker zum Zeitpunkt t gerade St . Wie bei
allen betrachteten Produkten nehmen wir auch hier an, dass diese Anteile beliebig
teilbar sind.
Die Greeks für ein solches Zertifikat ergeben sich leicht:
d
St = 1
dSt
d2
gammaS (t) =
St = 0
dSt2
rhoS (t) = 0
deltaS (t) =
vegaS (t) = 0.
Absicherung des gamma: Optionen
Das gamma-Risiko werden wir mit Calloptionen hedgen. Wären Optionen mit Laufzeiten von 5 oder gar 10 Jahren liquide, würden sich viele unserer Probleme gar nicht
stellen - wir könnten die EIAs statisch mit diesen Option replizieren. Dezidiert betrachten wir hier also Optionen mit einer Laufzeit von einem Jahr und wiederholen
an dieser Stelle noch einmal die BSM-Bewertungsformeln für Optionen.
c(⌧, St , K) := e
p(⌧, St , K) := e
wo ⌧ = T
r⌧
r⌧
⇥
EQ
t (ST
⇥
EQ
t (ST
⇤
K)+ = St (d1 )
⇤
K)+ = e
r⌧
e
K ( d2 )
r⌧
K (d2 )
S ( d1 )
t die Restlaufzeit, St den aktuellen Wert des Underlying und K den
p
Ausübungspreis bezeichnet. Weiter ist d1,2 = (log(St /K) + r1,2 ⌧ ) /( ⌧ ). Durch
Nachrechnen kann man zeigen, dass mit diesen Notationen für Optionen zum Zeitpunkt t folgende Greeks gelten:
76
50
100
150
200
250
0.9
0.6
Delta Calloption
Index S
4200
0
0
50
100
0
50
100
150
200
250
50
100
150
200
0
150
200
250
50
100
150
200
250
150
200
250
0 1000
Vega Calloption
1000
100
250
Tage
400
Wert Calloption
50
200
1500
250
Tage
0
150
0
Rho Calloption
100
250
Tage
0.14 0.22
Volatilität sigma
50
200
0e+00
0
Tage
0
150
Tage
Gamma Calloption
Zinssatz r
0.0205
Tage
0
50
Tage
100
Tage
Abbildung 13: Entwicklung des Werts und der Sensitivitäten einer Calloption mit Strike S0 in
einem historischen Marktumfeld über ein Jahr (252 Handeltage)
Call
delta
(d1 )
( d1 )
(d1 )
p
⌧
gamma
S
rho
K⌧ e
vega
Put
S
r⌧
(d2 )
p
St (d1 ) ⌧
(d1 )
p
⌧
K⌧ e
r⌧
( d2 )
p
St (d1 ) ⌧
gamma und vega sind also dieselben für Call- und Putoptionen. Warum wählen
wir dann Calloptionen für den Hedge? Rein mathematisch spielt die Wahl in der Tat
keine Rolle. Aber so wird das Volumen des Hedgeportfolios tendentiell kleiner. Wir
werden nämlich sehen, dass bei unseren EIAs das delta und das gamma dasselbe
Vorzeichen haben. Wir müssen für den gamma-Hedge also eine long-Position in
Optionen einnehmen. Würden wir Putoptionen kaufen, senkte dies das delta des
Hedgeportfolios, was wir durch zusätzliche Anteile am Index ausgleichen müssten.
Kaufen wir dagegen Calloptionen, steigt das delta und wir können unsere Position
in Indextrackerzertifikaten sogar senken. Aussagekräftiger als die Formeln sind wohl
die Graphiken in Abbildung 13.
77
Beispiel Zinsswap: Zinsfestschreibung bei variablen Finanzierungen
Beim Swap gehen beide Vertragsparteien eine
Verpflichtung zum regelmäßigen Austausch von
z. B. variablen Zinsen gegen feste Zinsen ein.
Zugrundeliegende Nominalbeträge werden nicht
getauscht.
Zahlungsströme des Swap
3-Monats Euribor
Im Beispiel müssten Sie einen bei Vertragsabschluss vereinbarten Festsatz zahlen. Die
Commerzbank AG zahlt dafür den jeweils
vereinbarten Referenzzins (z. B. 3-Monats
Euribor).
Swap
3-Monats Euribor
zzgl. Kreditmarge
Im Ergebnis verbleibt für Sie eine Nettozinsbelastung in Höhe des Festsatzes (zzgl. der
Kreditmarge für das variabel verzinste Darlehen).
Kunde
Festzins (Swapsatz)
Swap: Absicherung gegen Zinsschwankungen (hier: Schutz gegen
steigende Marktzinsen), Schaffung
einer festen Kalkulationsgrundlage.*
Finanzierung
mit variablem
Zins
* Für Sie zu beachten: Sollte im Beispiel der Festzinssatz über dem Referenzzinssatz liegen, erleiden Sie einen (Bewertungs-)Verlust.
14
Abbildung 14: Aus einer Werbung für Zinsswap-Produkte der Commerzbank
Absicherung des rho: Zins-Swaps
Das Zinsrisiko rho sichern wir mit Zins-Swaps (IRS, Interest Rate Swaps) ab. Swaps
ganz allgemein sind Produkte, bei denen Handelspartner eine oder mehrere zukünftige gegenseitige Zahlungen vereinbaren. Diese Zahlungen hängen bei Zins-Swaps
eben von künftigen Zinssätzen ab. Swaps werden in der Praxis so ausgestaltet, dass
die zu erwartenden Zahlungen für beide Partner gleich sind, das heisst das Produkt
kostet anfangs keine der beiden Parteien etwas. Trotzdem unterscheidet man in den
Verträgen zwischen “Käufer” bzw. “Payer” und “Verkäufer” bzw. “Receiver” bezüglich des zukünftigen Zinses20
Zins-Swaps gehören zu den verbreitetsten “Over The Counter” (OTC) - Produkten21 ; entsprechend gross ist die Vielfalt ihrer Ausgestaltung. Jedesmal geht es aber
darum, dass die beteiligten Handelspartner in einem gewissen Sinne zukünftige Zins20
Die “Market Practice” der Definition von der Longposition (also “Käuferposition”) eines IRS
ist genau umgekehrt. Die Long-Partei erhält nämlich die Zahlungen bezüglich eines fixen Zinses,
ist also der Receiver. Wir haben uns hier aber für einen eigenen Weg entschieden, weil so die
Wertkurve des IRS die Zinsentwicklung parallel und nicht gespiegelt nachzeichnen wird. Denn so
ist man quasi “long den zukünftigen, variablen Zins”.
21
OTC bedeutet, dass die Geschäfte nicht an einer Börse, sondern direkt zwischen den Handelspartnern getätigt werden
78
sätze austauschen. Wir betrachten und verwenden den einfachen Fall eines EinJahres-Swaps mit monatlichem “Refixing”:
• Vereinbart wird ein Nominalwert NIRS . Dabei handelt es sich um eine rein
rechnerische Grösse; NIRS wird weder am Anfang noch am Ende der Laufzeit
wirklich ausgetauscht.
• Der Verkäufer erhält vom Käufer ein Jahr lang auf Monatsende r̃fix · NIRS und
am Ende des Jahres erhält er zusätzlich zu diesem Zins das Nominal NIRS
(fiktiv) zurück. Der Verkäufer hält also einen fiktiven “Fixed Coupon Bond”
(FCB).
• Der Käufer dagegen erhält vom Verkäufer ein Jahr lang zu jedem Monatsende r̃(i
1)/12
· NIRS , wo r̃(i
1)/12
der anfangs Monat i gültige diskrete 1-
Monatszinssatz ist. Am Ende des Jahres erhält er zusätzlich zu diesem Zins
noch das Nominal NIRS (fiktiv) zuück. Der Käufer hält damit eine fiktive “Floating Rate Note” (FRN).
Zusammenfassend (siehe auch hierzu nochmals Fussnote 20):
IRS long = FRN long und FCB short
Alle Zahlungen werden saldiert. Der Betrag NIRS wird weder am Anfang, noch am
Ende der Laufzeit ausgetauscht. Wir unterstellen eine flache Zinskurve. Das heisst,
die Höhe des Zinssatzes hängt nicht von der Dauer der Anlage ab. r̃t bezeichnet
den zur Zeit t aktuellen 1-Monatszinssatz. Wir nehmen im folgenden an, dass alle
Zinssätze kontinuierlich sind. Anstelle von r̃f ix und r̃t rechnen wir also mit
rf ix := log(1 + r̃f ix ) und
rt := log(1 + r̃t ).
rf ix und rt stehen nun also für kontinuierliche Monatszinssätze - so werden die folgenden Rechnungen und später die Formeln für rho handlicher. Wenn wir im nächsten
Kapitel Daten in die Bewertungs- bzw. Sensitivitätsformeln einsetzen, müssen wir
diese Werte vorher eben entsprechend transformieren.
79
Floating Rate Note
Zunächst überlegen wir uns induktiv den Wert der Floating Rate Note zu den Refixing Daten bzw. zum Laufzeitende, also FRN(0), FRN(1/12), ..., FRN(11/12), FRN(1):
Am Ende des Jahres, zur Zeit 1 also, erhalten wir den Zins (“Zins(12)”)- festgelegt
zum Zeitpunkt 11/12 - und das Nominal NIRS zurück. Einen Monat vor Abschluss,
zum Zeitpunkt 11/12 also, erhalten wir einerseits eine Zinszahlung (“Zins(11)”),
andererseits erwarten wir in Monatsfrist ja noch die letzte Zinszahlung (zum heute
fixierten Zinssatz r11/12 , sowie die Rückzahlung von NIRS . Diskontiert werden die
zukünftigen Zahlungen mit dem heute gültigen Zinssatz, also ebenfalls r11/12 . So
ergibt sich
FRN(11/12) = Zins(11) + e
r11/12
((er11/12
1)NIRS + NIRS ) = Zins(11) + NIRS .
Zum Zeitpunkt 10/12 erhalten wir auch unseren Zins, ausserdem wird der Zinssatz
r10/12 fixiert, und in Monatsfrist dürfen wir eine Zahlung von (erfloat (10/12)/12
1)NIRS
erwarten. Darüberhinaus werden wir zum Zeitpunkt 11/12 in Besitz des oben berechneten Restwerts der FRN kommen, nämlich der oben berechneten FRN(11/12)
Zins = NIRS . Diskontiert ergibt sich als Wert zum Zeitpunkt 10/12 wiederum
FRN(10/12) = Zins(10) + e
r10/12
((er10/12
1)NIRS + NIRS ) = Zins + NIRS .
Und so finden wir sukzessive, dass
NIRS = FRN(1)
Zins(12) = ... = FRN(1/12)
Zins(1) = FRN(0)
0.
Zu jedem Zinszahlungsdatum ist also kurz nach der Zinszahlung der Wert der FRN
einfach NIRS . Weil zur Zeit 0 überhaupt keine Zinszahlung stattfindet, ist also insbesondere FRN(0) = NIRS . An einem beliebigen Zeitpunkt t 2 ((i
müssen wir noch (i/12
1)/12, i/12]
12t Monate bis zur nächsten Zinsausschüttung
t) · 12 = i
warten. Entsprechend diskontieren wir mit dem aktuellen monatlichen Zinssatz rt
und finden so für FRN(t) den Wert
exp ( rt (i
⇣
⇣
⇣
⌘
12t)) NIRS + exp r i 1
12
⌘
⌘
⇣
1 NIRS = exp r i
1
12
80
rt (i
⌘
12t) NIRS .
Für t = i/12 ergibt sich auch mit dieser allgemeinen Formel natürlich wie oben
wieder
⇣
⌘
FRN(t) = FRN(i/12) = exp r i 1 NIRS = NIRS + Zins(i).
12
Fixed Coupon Bond
Nun vom sogenannten “Floating Leg” zum “Fixed Leg” des IRS, zum Fixed Coupon
Bond. rfix wird so festgelegt, dass der Wert des Swaps für den Käufer gerade dem
Wert für den Verkäufer entspricht. Anfangs fliest also gar kein Geld. Was ist nun
der faire Wert für rfix ? Der richtige Wert löst
NIRS = FRN(0) = FCBrfix (0).
Um den fairen Zinssatz rfix zu finden, müssen wir also noch FCBrfix (0) als Funktion
von rfix berechnen. Hier können wir nicht vorgehen wie im FRN-Fall, da sich die zukünftigen, unbekannten Diskontsätze nicht wegkürzen. Als erwarteten Diskontfaktor
für die 12 Zahlungen verwenden wir stattdessen den heutigen monatlichen Zins r0 .
FCB(0) =
12
X
e
r0 k
(erfix
1) NIRS + e
r0 12
NIRS
k=1
Und so finden wir
FCB(0) = FRN(0) = NIRS , 1 = (e
1 e
12
P
e
,
rfix
1)
12
X
e
r0 k
+e
r0 12
k=1
r0 12
= erfix
1
r0 k
k=1
11
P
e
k=0
12
P
,
r0 k
= erfix
e
r0 k
k=1
Den Zähler können wir mit der Formel für geometrische Summen22 umschreiben zu
1
(e
1
22
n
P
k=0
qk =
1 q n+1
1 q , 8q
r0 11+1
)
e
r0
=
6= 1
81
1 e r0 12
1 e r0
und den Nenner zu
1
(e
1
r0 12+1
)
e
1=
r0
e
r0
e r0 13
e
=
r
e 0
1
r0
(1 e r0 12 )
.
1 e r0
Und also finden wir
rfix
0P
11
B k=0
= log B
@P
12
k=1
e
r0 k
e
r0 k
1
C
C = log
A
✓
1
e
r0
e
(1
r0 12
e
r0 12 )
◆
= r0
Der faire fixe Zins ist also gerade der zum Jahresbeginn aktuelle r0 . Das macht
intuitiv Sinn. In der Literatur, auch auf Wikipedia und verschiedenen kaufmännischen Portalen, findet sich hier oft ein etwas korrigierter Term. Das hat zu tun mit
kaufmännisch zwar üblichen, mathematisch aber eigentlich falschen Diskontfaktoren
wie etwa (1 + r/n) anstelle von (1 + r)1/n . Für den Wert des FCB für allgemeines
t 2 ((i 1)/12, i/12), fairen fixen monatlichen Zinssatz r0 und aktuellen monatlichen
Zinssatz rt erhält man nun
FCBr0 (t) = exp ( rt (12
12
X
12t)) NIRS +
exp ( rt (k
12t)) (er0
1) NIRS .
k=i
Kombination: IRS
Die Bewertung unseres IRS ergibt sich nun einfach als Differenz der FRN- und FCBBewertung. Letztlich betrachten wir dieses Produkt ja, weil man mit ihm “ganz
pur” das Zinsrisiko, also rho handeln kann. Der nächste Schritt muss also sein, die
Bewertungsformel nach r abzuleiten. Wo finden wir aber r? r interpretieren wir
durchweg als den aktuellen Zinssatz. Die Rolle des aktuellen Zins spielt in der IRSBewertungsformel der Term rt . Weil das ein Monatszins ist, setzen wir nun
rt =
r
.
12
r0 bezeichne weiterhin den fairen kontinuierlichen monatlichen Zinssatz des FCB.
r(i
1)/12
bezeichne weiterhin den am letzten Refixing gültigen kontinuierlichen mo-
natlichen Zinssatz. Mit diesen Bezeichnungen und den Überlegungen weiter oben zu
FRN und FCB erhalten wir nun direkt folgende zusammenfassende Proposition:
82
Proposition 9. Für einen Interest-Rate-Swap mit einjähriger Laufzeit, monatlichem Refixing, Nominalwert NIRS und monatlichem fixem Zins von r0 (kontinuierlich) gilt
IRS(t) = FRN(t)
FCBr0 (t)
und
rhoIRS (t) = rhoFRN (t)
wobei für i = 1, 2, ..., 12 und t 2 ((i
✓
FRN(t) = exp r i
1
12
FCBr0 (t) = exp ( r(1
r
✓
rhoFCB (t)
1)/12, i/12]
i
12
t
◆◆
t)) NIRS +
NIRS
12
X
exp
k=i
✓
r
✓
k
12
t
◆◆
(er0
1) NIRS
und
rhoFRN (t) =
rhoFCB (t) =
✓
i
12
(1
◆
✓
✓
◆◆
i
t exp r i 1 r
t
NIRS
12
12
!
◆
12 ✓
X
k
k
t)e r(1 t) + (er0 1)
t e r( 12 t) NIRS .
12
k=i
Beide Sensitivitäten sind stets negativ. Sowohl der Wert des FCB als auch der der
FRN sinken also, wenn der Zinssatz steigt. Beim FCB leuchtet das unmittelbar ein:
Das Geld, das wir morgen erhalten, ist heute weniger wert, wenn der Zinssatz steigt.
Beim FRN mag das Resultat auf den ersten Blick überraschen: Wir erhalten doch
grössere Zahlungen, wenn der Zins steigt! Aber dieser Zuwachs gleicht sich - wie
anfangs gezeigt - mit dem ebenfalls entsprechend angepassten Diskontierungsfaktor
genau aus, so dass zu den Refixing Daten der Wert der FRN stets gleich NIRS
ist. Und zwischen den Refixingdaten, wirkt sich der Anstieg des Zinssatzes nur auf
das Diskontieren aus. Die Stufen an den Monatsanfängen des Werts des IRS in
Abbildung 15 erklären sich so: Die Zahlungen in der Vergangenheit haben wir in
der Bewertung nicht berücksichtigt (was ja auch Sinn macht, denn wenn man das
Produkt weiterverkauft, hat ja der Käufer nichts mehr von den bereits getätigten
Zahlungen). Und immer beim Überschreiten der Monatsgrenze wird eine zukünftige
Zahlung zu einer vergangenen Zahlung und fällt als solche weg. Etwas formaler:
83
150
200
250
0
50
100
150
200
250
0
50
100
150
200
250
-0.005
Zinssatz r
0.032 0.036 0.040
100
-0.002
50
0.4
0.0
Rho IRS
0.8
Wert IRS
0
Abbildung 15: IRS, Wert und Empfindlichkeit in historischem Zinsumfeld. Zu den Stufen der
Wertentwicklung siehe die Kommentare im Text. rho ist zwischen den Refixingdaten sehr stabil.
Der Einfluss des Zinssatz auf den Wert des IRS nimmt aber über die Zeit stark ab.
Mit obiger Proposition (oder direkt mit eben den Überlegungen, die uns zu der
Proposition geführt haben) finden wir folgende Werte für FRN und FCB kurz vor
und kurz nach der Zinszahlung in i/12:
✓
◆
i
F CN
+✏
= NIRS
12
✓
◆
⇣
⇣
⌘
⌘
i
F RN
✏
= NIRS + exp r i 1
1 NIRS
12
12
✓
◆
✓ ✓
◆◆
12
X
i
i
k
i
r(1 12
)
F CB
+✏
= e
NIRS +
exp
r
(er0 1) NIRS
12
12
12
k=i+1
✓
◆
✓ ✓
◆◆
12
X
i
i
k
i
r(1 12
)
F CB
✏
= e
NIRS +
exp
r
(er0 1) NIRS
12
12
12
k=i
Der Unterschied besteht also einfach in der jeweils fälligen Zinszahlung:
✓
◆
i
F RN
+✏
12
✓
◆
i
F CB
+✏
12
✓
i
F RN
12
✓
i
F CB
12
✏
✏
◆
◆
84
=
=
⇣
⇣
exp r i
(er0
1
12
⌘
1) NIRS
⌘
1 NIRS
0.038
0.032
100
150
200
250
0
50
100
150
200
250
-0.003 0.000
50
-0.007
Zinssatz r
Wert IRS + Cashflows IRS
0
Abbildung 16: Wert des IRS inklusive bereits getätigter IRS-Zahlungen
Die entsprechenden Sprünge für den IRS ergeben sich dann mit
✓
◆
✓
◆
i
i
IRS
+✏
IRS
✏
12
12
✓
◆
✓
◆ ✓
✓
◆
i
i
i
= F RN
+✏
F RN
✏
F CB
+✏
12
12
12
⇣
⇣
⌘
⌘
=
NIRS exp r i 1
1 (exp (r0 ) 1)
12
⇣
⇣
⌘⌘
= NIRS exp (r0 ) exp r i 1
.
F CB
✓
i
12
✏
◆◆
12
Beim ersten Refixing erwarten wir also keinen Sprung und im Verlauf werden die
Sprünge je höher, desto verschiedener der letzte Refixingzins vom Zins zu Laufzeitbeginn ist. Berücksichtigt man aber den Wert der fälligen Zahlungen, schreibt sie
auf ein verzinstes Bankkonto gut (bzw. zieht sie davon ab) und addiert diese Position zum Wert des IRS ergibt sich brutto das gewünschte Bild (Abbildung 16) eines
Produktes, das den Zinsverlauf sehr gut repliziert.
Absicherung des vega: Volatilitäts-Swaps und Varianz-Swaps
Mit Varianz-Swaps wollen wir das vega-Risiko hedgen. Volatilitäts- bzw. VarianzSwaps bieten die Möglichkeit, auf die zukünftige (beobachtete) Volatilität bzw. Varianz eines Indexkurses zu wetten. Anders als bei Direktinvestitionen oder bei Call85
bzw. Putoptionen geht es also nicht um das Spekulieren auf zukünftige Kursgewinne oder -verluste, sondern vielmehr darum, Vermutungen zur zukünftigen “Unruhe”
der Indexentwicklung auszunutzen. Im Grunde handelt es sich bei diesen Swaps einfach um Termingeschäfte auf die Volatilität bzw. Varianz. Volatilitäts-Swaps sind
nur unter vielerlei weiteren Annahmen zu bewerten. Aus diesem Grund sind heute
Varianz-Swaps verbreiteter. Diese lassen sich theoretisch durch ein bestimmtes Portfolio von unendlich vielen Put- und Calloptionen auf das entsprechende Underlying
replizieren und sind damit also auch ohne weitere Modellannahmen innerhalb des
BSM-Rahmens bewertbar.
Bei den nun folgenden Beschreibungen halten wir uns an die Veröffentlichung
von JPMorgan [5], aus der auch das in Abbildung 17 vorgestellte Beispielprodukt
stammt. Zunächst einige Definitionen:
TVS
Laufzeit des Swaps in Jahren
NVS
Nominal (“Vega-Amount”)
K2
Strike
NVS
2K
Variance-Amount (der Grund für diese Definition findet sich weiter unten)
Und hier noch der wichtigste Term, die “historische” oder “realisierte” Volatilität:
v
u
u 1 252·T
XV S
t
V (TV S ) :=
TV S k=1
log
S
k
252
Sk
1
252
!2
Wir betrachten speziell Varianzswaps mit einer Laufzeit von TV S = 1 Jahr. In diesem
Fall vereinfacht sich obiger Volatilitätsschätzer zu
v
!2
u 252
uX
Sk
V := V (1) = t
log 252
.
S
k 1
k=1
252
Hier und überall in diesem Text nehmen wir an, dass jedes Jahr aus 252 und jeder
Monat aus 21 Handelstagen besteht. Auf den Mittelwert, der in der statistischen
P
Varianzschätzung ja vorkommt (“ (xi x)2 /n”) wird hier verzichtet. Auf diese
Weise ist V 2 additiv über die Zeit: Leicht überprüft man nämlich, dass sich mit dieser
Definition die historische Varianz des ganzen Jahres (TV S = 1) zusammensetzen lässt
86
1.1. Payoff
A variance swap is an instrument which allows investors to trade future realized (or historical)
volatility against current implied volatility. As explained later in this document, only variance
—the squared volatility— can be replicated with a static hedge. [See Sections 2.2 and 3.2 for
more details.]
Sample terms are given in Exhibit 1.1.1 below.
Exhibit 1.1.1 — Variance Swap on S&P 500 : sample terms and conditions
VARIANCE SWAP ON S&P500
Instrument:
Swap
Trade Date:
TBD
Observation Start Date:
TBD
Observation End Date:
TBD
Variance Buyer:
TBD (e.g. JPMorganChase)
Variance Seller:
TBD (e.g. Investor)
Denominated Currency:
USD (“USD”)
Vega Amount:
100,000
Variance Amount:
3,125 ( determined as Vega Amount/(Strike*2) )
Underlying:
S&P500 (Bloomberg Ticker: SPX Index)
Strike Price:
16
Currency:
USD
Equity Amount:
T+3 after the Observation End Date, the Equity Amount will be calculated and paid in
accordance with the following formula:
Final Equity payment = Variance Amount * (Final Realized Volatility2 – Strike
Price2)
ABOUT
VARIANCE
SWAPS
SPX INDICATIVE TERMS AND CONDITIONS
KNOW
If the Equity Amount is positive the Variance Seller will pay the Variance Buyer the
Equity Amount.
If the Equity Amount is negative the Variance Buyer will pay the Variance Seller an
amount equal to the absolute value of the Equity Amount.
where
TO
252
t 1
NEED
Final Realised Volatility =
P
ln t
Pt 1
Expected _ N
2
100
Expected_N = [number of days], being the number of days which, as of the Trade Date, are
expected to be Scheduled Trading Days in the Observation Period
= The Official Closing of the underlying at the Observation Start Date
P0
= Either the Official Closing of the underlying in any observation date t or, at
Pt
Observation End Date, the Official Settlement Price of the Exchange-Traded
Contract
YOU
WHAT
JUST
t N
Calculation Agent:
Documentation:
JP Morgan Securities Ltd.
ISDA
Abbildung 17: Varianzswap, Beispielprodukt von JPMorgan
3
87
etwa als Konvexkombination der Varianz der ersten 4 und der letzten 8 Monate:
V2 =
252
X
S
log
Sk
1
252
k=1
4
252· 12
=
X
log
=
d
=
63 2
V
252
k
252
Sk
S
log
k=1
S
!
1
252
k=1
63
X
k
252
✓
k
252
Sk
1
252
63
252
!
!
◆
252
X
+
+
log
4
k=252· 12
+1
252
X
log
S
S
k
252
k
252
Sk
!
1
252
!
Sk 1
✓252
◆
252 63 2 252 63
+
V
252
252
k=64
Diesen Umstand können wir uns bei der Bewertung zunutze machen.
Gleich werden wir sehen, dass der Strike K so festgelegt wird, dass zum Zeitpunkt
des Vertragsabschlusses kein Geld den Besitzer wechselt - genau wie im vorigen
Kapitel bei den Zinsswaps. Dennoch unterscheidet man auch bei Varianz-Swaps
zwischen Käufer und Verkäufer. Der Käufer des Vertrags “kauft” in gewissem Sinne
die zukünftige Varianz und - falls diese grösser ist als der Strike K - erhält am Ende
der Laufzeit
N
· V (T )2
2K
K2 ,
ansonsten zahlt er dem Verkäufer den entsprechenden Betrag23 . Hier erscheint also
der - zunächst etwas überraschende, aber in der Praxis gängige - “Variance-Amount”Term
N
2K
anstelle des erwarteten simplen Nominalwerts N . Diese Messung des No-
minalwerts in Volatilitätseinheiten (denn genau das wird die Grössenordnung des
Strikes K sein) hat den Grund, dass die Händler eher an Effekten der Volatilitätsals an Effekten der Varianzänderung interessiert sind. Durch die Korrektur des Nominals, entspricht nun eine Erhöhung der Volatilität gegenüber dem Strike um einen
Prozentpunkt einer Erhöhung des Swap-Payoffs für den Käufer um
N
(K + 0.01)2
2K
K2 =
N
2K + 0.012 ⇡ 24 N.
2K
23
Hier ist die “Market Practice” genau in unserem Sinne: Die Long Position zeichnet den Volatilitätsverlauf ungefähr nach. Dies im Gegensatz zu den Zins-Swaps, wo wir den Käufer und Verkäufer
genau verdreht verwenden mussten, um diesen Effekt zu erreichen.
88
Das heisst, in einem gewissen Sinne erhält man für jeden Prozentpunkt, den die
Volatilität wächst, gerade den Betrag N .
Weiter erlaubt die Additivität des Schätzers V 2 eine einfache fortlaufende Bewertung
von Varianz-Swaps. Zum Beispiel bietet sich bei einem Swap mit Laufzeit ein Jahr
(T =1) nach drei Monaten (t = 3 · 21/252 = 3/12 = 0.25) mit Varianz-Amount 1
(N/(2K) = 1) folgendes Bild:
⇥ 2
EQ
0.25 V (1)
K2
⇤
=
63
X
k=1
log
S
k
252
Sk
1
252
!2
2
4
+ EQ
0.25
252
X
log
S
k
252
Sk
1
252
k=64
!2 3
5
K2
Die Summanden im Erwartungswert sind unabhängig von F 0.25 und ausserdem
gleich verteilt wie die entsprechende Summe beginnend bei k = 1. Das heisst
2
4
EQ
0.25
252
X
k=64
log
S
k
252
Sk
1
252
!2 3
2
5 = EQ 4
2
= EQ 4
252
X
k=64
252
X63
k=1
log
S
k
252
Sk
1
252
log
S
!2 3
k
252
Sk
1
252
5
!2 3
⇤
252 63 Q ⇥ 2
E V (0.75)
252
=
5
Und so erhalten wir als Wert des Varianz-Swaps nach einem Vierteljahr
e
r(1 0.25)
⇥ 2
EQ
0.25 V (1)
⇤
K2 = e
r(1 0.25)
⇥
⇤
0.25V 2 (0.25) + 0.75 EQ V 2 (0.75)
K2 .
Um dies berechnen zu können, fehlt nur noch eine Formel zur Bestimmung des fairen Strikes eines Varianzswaps mit Laufzeit TVS , also eine Formel für EQ [V 2 (TVS )].
Damit können wir dann einerseits den übrigen Erwarungswert berechnen, andererseits wissen wir dann, wie K zu wählen ist, so dass der Wert des Varianzswaps zum
Zeitpunkt 0 gleich null ist. Z bezeichne in der folgenden Rechnung wie immer eine
unter Q standardnormalverteilte Zufallsvariable.
24
Wir werden sehen: K ist in der Grössenordnung jährlicher Volatilitäten, also um 0.2, 0.3 herum.
89
⇥
⇤
EQ V (TV S )2 =
1
TVS
=
=
2
Sk
1
252
S
1
252
S0
!2 3
!2 3
5
5
/2) aus, ergibt sich für den fairen Strike
K =E
Q
⇥
⇤
2
V (TVS ) =
Denn nun gilt
e
EQ 4 log
k
252
◆2 #
r2
p
252 · E
Z+
252
252
✓  2
 2
◆
r2
Q
Q
2
252 · E
Z +E
+0
252
2522
✓ 2
◆
r22
252 ·
+
252 2522
r2
2
+ 2
252
=
2
S
Q
=
2
k=1
2
252TVS
· EQ 4log
TVS
"✓
=
Schreiben wir r2 (= r
252·T
XVS
rTVS NVS
Bedenkt man nun noch, dass
2K
(r
✓
2
+
⇥ 2
EQ
0 V (TVS )
2 /2)2
252
(r
2
/2)2
252
◆
.
⇤
K2 = 0
vernachlässigbar klein ist gegenüber
2
, erhal-
ten wir, dass der faire Strike K ziemlich genau der aktuellen (impliziten) Volatilität
entspricht. Wir setzen also - etwas ungenau, aber vertretbar und üblich - für den
Strike eines Varianzswaps mit Laufzeit TVS
K(TVS ) = .
Zusammen mit der oben im Beispiel beschriebenen Additivität erhalten wir so
für den Wert eines Varianz-Swaps mit Laufzeit ein Jahr zu den Zeitpunkten t =
0, 1/252, 2/252, ..., 251/252, 1
e
r(1 t)
⇥ 2
EQ
t V (TV )
wobei K 2 =
2
⇤
K2 = e
r(1 t)
t · V 2 (t) + (1
. Setzen wir nun für EQ [V 2 (1
90
⇥
t) · EQ V 2 (1
t)
⇤
K2 ,
t)] die zum Zeitpunkt t aktuelle
implizite, quadrierte Volatilität
2
t
ein und leiten die Bewertungsformel nach den
verschiedenen Parametern25 erhalten wir folgende zusammenfassende Proposition:
Proposition 10. Für den Wert eines Varianz-Swaps mit einer Laufzeit von einem
Jahr und Nominal NVS gilt für t = i/252, i = 0, 1, ..., Td
VS(t) = e
r(1 t)
t · V 2 (t) + (1
t) ·
2
t
K2
NVS
.
2K
Seine Sensitivitäten zu obigen Zeitpunkten t sind
deltaVS (t) = 0
gammaVS (t) = 0
rhoVS (t) =
(1
vegaVS (t) = (1
t
t) · VS(t)
t)e
r(1 t)
t
·
NVS
.
K
bezeichnet hier die implizite Volatilität zum Zeitpunkt t, K 2 :=
Strike und
2
0
den fairen
v
!2
u 252·t
u1 X
Sk
V (t) = t
log 252
t k=1
Sk 1
252
die historische Volatilität.
In Abbildung 18 sehen wir, dass das mit obiger Proposition konstruierte Produkt
den Volatilitätsverlauf gut abbildet.
In der Praxis wird “die” 26 implizite Volatilität bestimmt, indem man auf dem Markt
25
Ein Wort zur Sensitivität des Varianzswaps bezüglich des Underlying S: Unser Finanzmarktmodell wird letztlich tagesweise laufen. Entsprechend definierten wir den Schätzer V und entsprechend
den Wert für den VS nur tagesweise. Würden wir den Schätzer V kontinuierlich definieren, würde
der letzte Summand in der Bewertungsformel für Tag i ersetzt durch einen Intraday-Summanden
von der Form log(St /Sti 1 )2 . So wäre im Tagesverlauf das delta und das gamma durchaus hedgebar. Am Anfang des Tages i ist aber St = Sti 1 (Sti 1 interpretieren wir als Schlusskurs von Tag
i 1 und Startkurs von Tag i) und die Ableitung des Intraday-Summanden gleich null. Das macht
Sinn, denn schon eine Sekunde später- je nachdem ob dann St grösser oder kleiner Sti 1 ist - nimmt
das “Intraday-delta” ein nicht vorhersehbares Vorzeichen an. Das Finanzmarktverhalten innerhalb
eines Tages können wir im Simulationsmodell aus Gründen der beschränkten Rechenleistung aber
nicht berücksichtigen. Wir setzen also deltaVS = gammaVS = 0.
26
In Anführungsstrichen, denn in der Praxis zeigt sich, dass die Volatilität selber abhängt vom
Grad der “in-the-moneyness” oder “out-of the-moneyness” der betrachteten Optionen, ja sogar von
ihrer Restlaufzeit.
91
0.16
0.14
200
250
0
50
100
150
200
250
0
50
100
150
200
250
-4000
Volatilität sigma
0.12
150
-2000
100
40000 80000
Wert VSwap
50
0
Vega VSwap
0
Abbildung 18: Varianzswap mit Nominal (“Vega-Amount”) 100’000 und Strike 0.162 . Es zeigt sich
das gewünschte Bild: Der Swapwert zeichnet den Volatilitätsverlauf sehr ähnlich nach. Er rutscht
tief ins Negative ab, da die Long-Position des VS quasi die (tiefere) aktuelle Volatiltät “erhält” und
dafür die höhere vom Zeitpunkt 0 abgeben muss. vega scheint kaum von den Marktverhältnissen
beeinflusst zu werden und nimmt kontinuierlich-stabil aufs Laufzeitende hin ab.
beobachtete Preise mit der BSM-Formel numerisch nach
auflöst. In unseren Simu-
lationen modellieren wir die Volatilität durchaus stochastisch. Aber für die implizite
Volatilität als Bewertungsgrösse verwenden wir einen Schätzer, der vom bisherigen
Indexverlauf ausgeht: Ein gewichteter Durchschnitt der quadrierten Logreturns, das
Exponential Weighted Moving Average (EWMA). Wir setzen einen Anfangswert
0.
Dann definieren wir rekursiv
ˆk2 := ˆk2
1
+ (1
)Yk2 .
Mit dieser Grösse haben wir auch für die Abbildungen in diesem Kapitel alle Bewertungen vorgenommen. Zum EWMA-Schätzer siehe auch Seite 143.
3.4
Greeks der EIAs
Für den Wert des PEMG der verschiedenen EIA-Verträge betrachten wir nun die
Greeks - für eine Einmalprämie von einer Geldeinheit (P = 1). Und zwar - wie nun
schon mehrmals betont - betrachten wir hierzu partielle Ableitungen von e
92
r⌧
EQ [R]
G
anstelle von e
r⌧
EQ [(R
G)+ ] - ausser im PTP-Fall, dort haben wir ja den exak-
ten Wert. Da diese Ableitungen zum Teil seitenlang würden, geben wir sie nicht alle
explizit an, bieten dafür graphische Darstellungen von ihrem Verlauf; der Computer rechnet die entsprechenden Werte mit Hilfe des R-Pakets numDeriv schnell und
genau für uns aus. Wie immer in diesem Text bezeichne ⌧ die Restlaufzeit T
t.
Bei allen EIAs ähnlich ist das Verhalten von rho und vega. Je näher der Abschlusstermin rückt, umso kleiner sind sie. Denn r und
sind reine Bewertungsgrössen -
anders als S spielen sie für die “Schlussabrechnung” zur Zeit T keine Rolle mehr. Anders das delta: Kurz vor Ende, aber auch vor jedem Ratchet- bzw. Monitordatum
steigt es jeweils stark an - falls die Indexierungsmethode für das jeweilige Ratchetbzw. Monitorintervall werthaltig ist, denn dann ist das Verhalten des Indexkurses
entscheidend. Ist der Indexwert zu einem solchen Zeitpunkt tief im Vergleich zum
letzten Ratchettermin bzw. im Vergleich zu den letzten Monitordaten, das heisst,
kommt die Indexierungsmethode aller Wahrscheinlichkeit nach für das laufende Intervall nicht zur Anwendung, dann ist delta sehr klein, fast null. vega ist immer
positiv, denn je unsicherer die Zukunft, umso höher der Preis. rho ist tendentiell negativ, kann aber auch positiv sein und verschwindet gegen Ende der Laufzeit
zusammen mit vega.
Greeks der Point To Point EIA
Mit Proposition 3 auf Seite 31 und unter Verwendung der entsprechenden GreekFormeln für die Calloption erhalten wir die partiellen Ableitungen von für die PTPIndexierung leicht:
Proposition 11. Für den Wert der PTP-Indexierungsmethode zum Zeitpunkt t
⇥
⇤
vPTP (t) := e r⌧ E Q (RP T P )+ ergeben sich folgende Sensitivitäten:
d
v(t)
dSt
d
gammaP T P (t) =
(t)
dSt
d
rhoP T P (t) = v(t)
dr
d
vegaP T P (t) =
v(t)
d
deltaP T P (t) =
93
↵
(d1 )
S0
↵ (d1 )
p
=
S0
⌧ St
↵
=
(d1 )K⌧ e
S0
p
↵
=
St (d1 ) ⌧
S0
=
r⌧
(d2 )
Hier ist
S0
(G (1 ↵))
↵
log SKt + r1,2 ⌧
p
=
⌧
K =
d1,2
Beweis. Die PTP-Indexierung können wir mit K wie oben definiert schreiben als
↵
S0
·
c(⌧, St K). Setzt man die entsprechenden partiellen Ableitungen des Calloptionwertes
ein, ergeben sich die Formeln in der Proposition.
Auf eine Graphik wird hier verzichtet. Die Bilder entsprechen skaliert genau denjenigen von den Calloptionen auf Seite 77.
Greeks der Compound Ratchet EIA
Hier stellen wir das delta und das gamma analytisch dar.
Proposition 12. Für den Wert der Compound Ratchet Indexierung
vCR (t) := e
r⌧
EQ
t [RCR ]
ergeben sich für t 2 [ti0 1 , ti0 ) folgende Sensitivitäten:
deltaCR =
d
vCR
dSt
= e
·
gammaCR
r(T ti0 )
iY
0 1
i=1
↵
1
(d1 ) · 1 + ↵er
St i0 1
✓
St i
1+↵
St i 1
1
d2
=
vCR
dSt2
= e
·
i=1
c(
↵
wo
d1 :=
1
log St /Sti0 1 + r1 (ti0
p
ti0 t
.
94
N , 1, 1)
N i0
◆+ !
(d1 )
p
· 1 + ↵er
St i0 1 St t i 0 t
✓
◆+ !
St i
1+↵
1
,
St i 1
r(T ti0 )
iY
0 1
N
t)
N
c(
N , 1, 1)
N i0
Beweis. Die Formeln finden wir durch einfaches Ableiten der dritten Formel in Proposition 4. Diese Bewertung sei hier nochmals wiederholt:
vCR (t) = e
r(T t)
1 + ↵er(ti0
· 1+↵·e
r
N
c(
t)
c ti0
t,
!!
,1
St i 0 1
iY
0 1✓
↵
·
1+
St i
S
t
i
1
i=1
N i0
N , 1, 1)
St
St i
+
1
◆
für t 2 [ti0 1 , ti0 ).
Die einzige Frage ist, welche Terme wir eigentlich ableiten müssen! Was ist mit
diesen c( , 1, 1)? Das sind Calloptionwerte, die doch vom Underlying abhängen,
oder? Müssen wir diese Terme also nach S formal ableiten? Nein! Diese Ausdrücke
sind konstant in der Zeit. Auch eine Sekunde später wird hier immer dieselbe Zahl
stehen. Oder intuitiver: Die c( , 1, 1)-Terme bewerten Returns in Ratchetintervallen,
welche noch gar nicht begonnen haben. Für deren Bewertung spielt der Zinssatz oder
die Volatilität wohl eine Rolle, der aktuelle Wert des Underlying aber sicher nicht.
Der einzige Term, um den wir uns zu kümmern brauchen, ist also
c ti0
t,
St
St i 0
!
,1 .
1
Wir verwenden, dass für die Calloptionformel (siehe Seite 77) gilt
1
c(⌧, S, K).
K
c(⌧, S/K, 1) =
Und also gilt formal
d
c ti0
dSt
t,
St
St i 0
,1
1
!
=
1
St i0
deltac (ti0
t, St , Sti0 1 )
1
und entsprechend
d2
c ti0
dSt2
t,
St
St i0
,1
1
!
=
1
St i 0
gammac (ti0
t, St , Sti0 1 ).
1
Einsetzen der Calloption-Sensitivitäten von Seite 76 bringt uns zum Resultat.
Auf die analytische Darstellung von vegaCR und rhoCR verzichten wir hier: Die For95
Zinssatz r p.a.
0.040
0.030
r
6000
0.020
4000
2000
500
1000
1500
0
1000
Tage
Volatilität sigma p.a.
Wert CR-G
1500
1.0
EUR
0.35
0.6
0.25
0.4
0.15
sigma
500
Tage
0.45
0
0.8
Punkte
8000
0.050
Index
0
500
1000
1500
0
Tage
500
1000
1500
Tage
Abbildung 19: Die Wertentwicklung von e r(T t) EQ
G] mit Laufzeit T = 7 Jahre und
t [RCR
N =14 Ratchetterminen in einem historischen Marktumfeld. Die vertikalen punktierten Linien entsprechen den Ratchetdaten. Es lässt sich hier gut beobachten, wie der CR-Wert auf die Volatilität
reagiert.
meln werden ungefähr viermal so lang wie diejenigen in der Proposition. Stattdessen
kann man in Abbildung 20 einen beispielhaften Verlauf betrachten.
In den Abbildungen 19 und 20 fällt auf, dass der Wert des CR-Vertrags zwar stetig
verläuft, aber zumindest das delta, gamma und rho nicht: Jeweils zu den Ratchetterminen gibt es eine Diskontinuität. Das macht Sinn, denn hier werden die Karten
für das neue Ratchetintervall neu gemischt.
Greeks der Simple Ratchet EIA
Im Fall der Simple Ratchet EIAs ergeben sich die Sensitivitäten wegen der additiven
Struktur der Bewertungsformeln (siehe Seite 36) einfacher, und wir geben die GreekFormeln mit Ausnahme von rho explizit an:
96
Gamma CR
0e+00
0e+00
4e-07
2e-04
8e-07
Delta CR
500
1000
1500
0
500
1000
Tage
Tage
Rho CR
Vega CR
1500
0
-1.5
1
-1.0
2
-0.5
3
0.0
0
0
500
1000
1500
0
500
Tage
1000
1500
Tage
Abbildung 20: Die betrachteten Sensitivitäten einer CR-EIA mit Laufzeit T = 7 Jahre und
N = 14 Ratchetterminen in einem historischen Marktumfeld. Die vertikalen punktierten Linien
entsprechen den Ratchetdaten. delta und gamma verhalten sich “Ratchetintervall-weise” ähnlich wie die entsprechenden Calloptiongreeks. rho ist ziemlich klein im Vergleich zu vega (zur
Grössenordnung von rho und vega siehe S.74).
Proposition 13. Die Greeks der Simple Ratchet Indexierungsmethode für t 2 [ti0 1 , ti0 )
sind:
deltaSR (t) = e
gammaSR (t) = e
vegaSR (t) = e
r(T ti0 )
r(T
+e
St i 0
(d1 )
1
↵
(d1 )
ti0 tSti0 1 St
↵(N i0 ) p
N)
˜
N (d1 )
S02
p
tSt
t i0 ) ↵ t i 0
(d1 )
St i 0 1
r(T ti0 )
r(T t
↵
p
wobei
d1 =
d˜1 =
log(St /Sti0 1 ) + r1 (ti0
p
(ti0 t)
p
r1
N
2
r1 = r +
2
97
t)
Zinssatz p.a.
0.040
0.030
r
6000
0.020
4000
2000
500
1000
1500
0
1000
Tage
Tage
Volatilität p.a.
Wert SR-G
1500
0.6
0.45
EUR
0.35
0.4
0.25
0.3
0.15
sigma
500
0.7
0
0.5
Punkte
8000
0.050
Index
0
500
1000
1500
0
500
1000
Tage
1500
Tage
Abbildung 21: Die Wertentwicklung einer SR-EIA (genauer (e r⌧ E [RSR G])) mit Laufzeit T =
7 Jahre,Partizipationsrate ↵ = 0.6 und N =14 Ratchetterminen in einem historischen Marktumfeld.
Die vertikalen punktierten Linien entsprechen den Ratchetdaten.
Beweis. Die Formel, von der wir ableiten, ist
vSR (t) = e
r(T t)
✓
1+↵
iP
0 1⇣
i=1
+↵e
⌘+
St i
St i 1
r(T
r
1 + ↵(N i0 )e
⇣
⌘
t i0 )
c ti0 t, St St , 1
i0
N
c(
N , 1, 1)
◆
1
Wie im CR-Fall überlegen wir uns, dass für delta und gamma nur der letzte Summand eine Rolle spielt, leiten ihn - ebenfalls wie im CR-Fall beschrieben - formal
nach St ab und setzen die von Proposition 3.3 bekannten Sensitivitäten einer Calloption ein. Für das vega müssen wir den Term c(
N , 1, 1)
doch berücksichtigen. In
Bezug auf die Volatilität ist er natürlich nicht konstant. Wir ersetzen ihn also mit
der entsprechenden vega-Grösse einer Calloption.
In den Abbildungen 21 und 22 sind die Ergebnisse zu den SR-Sensitivitäten graphisch beispielhaft dargestellt. Vergleicht man den SR-Wertverlauf mit dem CRWertverlauf von Abbildung 19 fällt wieder ins Auge, dass der CR-Wert stets deutlich
über dem SR-Wert liegt. Das ist dem Zinseszinseffekt geschuldet. Umso erstaunlicher, dass in realen Verträgen oftmals nicht ganz klar ist, ob es sich nun um eine
Compound oder eine Simple Ratchet Indexierung handelt!
98
Gamma SR
2e-07
0e+00
500
1000
1500
0
500
1000
Tage
Tage
Rho SR
Vega SR
1500
2.0
0
0.0
-1.5
0.5
-1.0
1.0
-0.5
1.5
0.0
0.00000
0.00010
4e-07
0.00020
Delta SR
0
500
1000
1500
0
500
Tage
1000
1500
Tage
Abbildung 22: Die Entwicklung der betrachteten Sensitivitäten einer SR-EIA mit Laufzeit T =
7 Jahre und N =14 Ratchetterminen in einem historischen Marktumfeld. Vergleicht man diese
Graphiken mit den entsprechenden Abbildungen 19 und 20 zu den CR-EIAs zeigt sich ein recht
ähnlicher Verlauf. Im CR-Fall scheinen alle Werte (bis auf rho) einfach “grösser”.
Greeks der High Water Mark EIAs
Für die diskrete High Water Mark Garantie fanden wir zwar für den Zeitpunkt
0, aber nicht für die fortlaufende Bewertung eine analytische Formel. Für reine
Bewertungszwecke demonstrierten wir auf Seite 65, wie wir mittels geschickter Simulation dennoch zu brauchbaren Werten kommen können. Von Funktionen, deren
Werte man nur durch Monte Carlo Simulation schätzen kann, (partiell) abzuleiten
wäre ein ganzes Thema für sich. Eigene Versuche haben sich als derart Rechenzeitintensiv herausgestellt, dass sie für unsere angestrebten Simulationen unbrauchbar
wären. Deshalb schätzen wir die Sensitiviäten mit denjenigen, des auch in dieser
Hinsicht einfacheren kontinuierlichen Falles. Auch hier haben wir natürlich wieder
im Hinterkopf, dass die so entstehenden systematischen Abweichungen im nächsten Kapitel durch den Risikozuschlag wiederum Eingang in die Bewertung finden.
Für die kontinuierlichen HWM Bewertungen sind die partiellen Ableitungen zwar
unproblematisch, aber seitenlang. Wir verzichten deshalb hier auf ihre Darstellung
und zeigen dafür einige Grafiken zu den HWM-Sensitivitäten.
Von der Richtigkeit der Wertentwicklung in Abbildung 23 kann man sich leicht über-
99
Zinssatz p.a.
2000
0.020
4000
0.030
r
S
6000
0.040
8000
0.050
Index
500
1000
1500
0
1000
Tage
Volatilität p.a.
Wert HWM-G
0.6
1500
0.4
0.35
0.25
0.2
0.15
sigma
500
Tage
0.45
0
0
500
1000
1500
0
500
Tage
1000
1500
Tage
Abbildung 23: Die Wertentwicklung von e r⌧ EQ
G] für eine HWM-EIA mit kontinuierlit [R
chem Monitoring mit Laufzeit T = 7 Jahre. Die vertikalen Linien stellen nun einfach die Jahresanfänge dar - zur besseren Vergleichbarkeit der Grafiken. Als Partizipationsrate wurde hier 0.6
gewählt.
zeugen: Der Höchststand des Index liegt bei um 8000 Punkten. Gestartet ist er bei
etwa 5000 Punkten. Das ergibt einen Return von 8/5=1.6. Nun gibt es wegen der
Partizipationsrate ↵ = 0.6 noch einen Abstrich. Der Return von der Indexierungsmethode ist also 1+0.6·0.6 = 1.36. Den Betrag G = ·(1+rg )7 = 0.95·1.037 ⇡ 1.17
der LOC haben wir fix zur Verfügung. So haben wir am Ende eine Verpflichtung von
1.36 1.17 = 0.19 - wie der Endwert in der Grafik. In den Abbildung 24 zeigt sich nun
ein anderes Bild als bei den Ratchetgarantien: Alle Greeks sind nun kontinuierlich.
3.5
Hedging-Algorithmus
Mit obigen Bewertungen und Sensitivitäten von EIAs, Indextracker, Optionen, VarianzSwaps und Zins-Swaps sind wir nun bereit, um einen delta
gamma
rho
vega-
Hedgealgorithmus zu implementieren. Wie eingangs des Kapitels erwähnt, stellen
sich trotz der erfolgten Auswahl der Hedgeinstrumente immer noch eine Reihe ganz
praktischer Probleme. Darum seien hier einige Vorbemerkungen angebracht:
• Unsere Finanzmarktsimulation läuft letztlich tageweise. Entsprechend können
wir auch höchstens tageweise hedgen. Das wird aber nur in punktuellen Bei100
2e-08
0e+00
0
500
1000
1500
0
500
1000
Tage
Tage
Rho kont. HWM
Vega kont. HWM
1500
0.0
0.0
0.5
0.5
1.0
1.0
1.5
1.5
2.0
2.0
0.00000
l
Gamma kont. HWM
0.00010
Delta kont. HWM
0
500
1000
1500
0
Tage
500
1000
1500
Tage
Abbildung 24: Die Entwicklung der betrachteten Sensitivitäten einer HWM-EIA mit kontinuierlichem Monitoring mit Laufzeit T = 7 Jahre bezüglich des Marktumfelds von Abbildung 23. Im
letzten Viertel der Laufzeit sind alle Sensitivitäten sehr klein. Die Intuition hierzu ist, dass dann
das bisherige Monitor-Maximum bei etwa 8000 Punkten liegt, der Kurswert aber bei 4000. Es ist
im Modell derart unwahrscheinlich, dass der Index die 8000 nochmals übertrifft, dass der Wert
bereits völlig unempfindlich gegenüber Kurs- oder Volatilitätsänderungen ist.
1.5
0.5
EUR
2.5
Hedgeintervall
21
Tage
0
500
1000
1500
Tage
1.5
0.5
EUR
2.5
Hedgeintervall
7
Tage
0
500
1000
1500
Tage
Abbildung 25: Delta-Gamma-Rho-Vega-Hedge einer CR-EIA mit jährlichem Ratcheting (N = 7).
Die dicken Linien entsprechen e ⌧ r EQ
G]; die dünnen Linien entsprechen dem Wertverlauf
t [RCR
des Hedgeportfolios. Eine wöchentliche Anpassung des Hedge verbessert in diesem Beispiel die
Genauigkeit des Hedge. Typisch ist, dass die Schwierigkeiten fürs Absichern oftmals kurz vor
Ratchetdaten beginnen, denn hier können delta und gamma jeweils sehr hohe Werte annehmen.
101
spielen möglich sein. Für oftmaliges Simulieren ist das tägliche Hedging zu
langsam. Wir werden das Hedgeportfolio wöchentlich anpassen.
• Wir haben es gesehen: Auch wenn die Werte der EIAs “kontinuierlich” in
der Zeit sind, die dazugehörigen Sensitivitäten sind es nicht. Gerade um die
Ratchet- bzw. Monitordaten herum gibt es teilweise grosse Sprünge. An diesen
neuralgischen Daten müssen wir unser Hedgeportfolio also unbedingt anpassen.
• Wir gehen davon aus, dass wir das Portfolio täglich liquidieren und neu aufset-
zen können. Es stellen sich keine Handelsbeschränkungen, es gibt keine Transaktionskosten und keinen Bid-Ask-Spread ; alle Produkte sind beliebig teilbar.
• wS , wc , wIRS und wVS bezeichnen die Anteile von Indextracker, Calloption,
Interest Rate Swap und Varianz Swap in unserem Hedgeportfolio. Diese Anteile können natürlich auch negativ sein. Das bedeutet, wir sind “short” das
betreffende Produkt.
• Der Verleih- und der Schuldzins sind gleich; die Zinskurve ist konstant, das
heisst der Zinssatz hängt nicht von der Verleihdauer ab.
• Jede Woche startet eine neue Calloption (mit Strike gerade dem aktuellen
Indexwert), ein neuer IRS und ein neuer VS. Alle drei Produkte haben jeweils
ein Jahr Laufzeit. Solange halten wir sie aber nicht. Bereits in der nächsten
Woche liquidieren wir das gesamte Portfolio und setzen es ganz neu auf. Dies
vor allem aus programmiertechnischen Gründen. Dieses Vorgehen hat aber
auch den Vorteil, dass anfangs der Laufzeit die Greeks der Hedgeinstrumente
schön “gross” sind27 .
Nun gehen wir so vor: Zum Zeitpunkt 0 und dann zu jedem weiteren (wöchentlichen)
Hedgezeitpunkt stellen wir das Portfolio so auf, dass seine Sensitivitäten genau denen
unserer Garantie entsprechen. Wir haben also zu jedem Hedgezeitpunkt h0 < h1 < ...
folgendes inhomogene Gleichungssystem zu lösen (die Greeks, die verschwinden, sind
27
Werden einzelne Greeks zu klein, kann das Hedgeportfolio quasi explodieren. Zum Beispiel
gamma: Nur die Calloption hat ein gamma 6= 0. Gegen Ende der Laufzeit kann dieses gamma
sehr klein, fast null werden, was zu einer riesigen Calloption-Position führt, die die anderen Greeks
ebenfalls in abnorme Höhen treibt.
102
0.8
Werte
0.4
500
1000
1500
0
500
1000
Tage
Delta-Gamma-Rho-Hedge
Delta-Gamma-Rho-Vega-Hedge
1500
0.8
Werte
0.4
0.6
0.4
0.6
0.8
1.0
Tage
1.0
0
Werte
0.6
0.8
0.6
0.4
Werte
1.0
Delta-Gamma-Hedge
1.0
Delta-Hedge
0
500
1000
1500
0
Tage
500
1000
1500
Tage
Abbildung 26: Beispielhafte Wertverläufe des ungefähren PEMG einer SR-Indexierung (fette
Linie), das heisst e r⌧ EQ
G], zusammen mit dem Wert des Hedgeportfolios vor einem
t [REIA
historischen Markthintergrund mit ↵ = 0.7. Der Effekt der zusätzlichen Hedgeinstrumente ist
nicht zu übersehen. Auch hier kann man wiederum beobachten, dass Hedgefehler gerne kurz vor
den Ratchetdaten ihren Ursprung haben.
hier bereits weggelassen):
8
>
>
wS deltaS +wc deltac +wVS deltaVS
>
>
>
>
>
>
<wc gammac +wVS deltaVS
>
>
>
wc rhoc +wVS rhoVS +wIRS rhoIRS
>
>
>
>
>
:w vega +w vega
c
c
VS
VS
= deltaEIA
= gammaEIA
= rhoEIA
= vegaEIA
Wir erinnern daran, dass wir das delta und das gamma des Varianzswaps gleich
null setzten - siehe dazu die Fussnote auf Seite 91. Und so lässt sich obiges Gleichunssystem leicht auflösen. Das richtige Portfolio zu jedem Hedgezeitpunkt können
wir als einfache explizite Funktionen der Sensitivitäten der Hedgeinstrumente und
der EIAs darstellen. deltaS ersetzen wir gleich mit 1.
103
Das Hedgeportfolio
wS = deltaEIA wc deltac
gammaEIA
wc =
gammac
✓
◆
1
rhoVS
wIRS =
rhoEIA wc rhoc
(vegaEIA wc rhoc )
rhoIRS
vegaVS
1
wVS =
(vegaEIA wc vegac )
vegaVS
Zusammen mit den in diesem Kapitel vorgestellten Formeln für die verschiedenen
Sensitivitäten der Hedgeinstrumente und für die Greeks der EIAs wissen wir mit
obigem Gleichungssystem für jedes Hedgingdatum, wieviel von welchem Hedginginstrument wir halten sollten. Eine systematische vergleichende Untersuchung vom
Einfluss von Hedgeaufwand (das heisst Auswahl der abgesicherten Sensitivitäten
oder Anzahl Hedgingdaten) auf die Zuverlässigkeit des Hedge, kann hier nicht gegeben werden. Aber schon die mit dem beschriebenen Algorithmus produzierten
Versuche in den Abbildungen 25, 26 und 27 sind aufschlussreich. Sie zeigen das vermutete Bild: Je aufwändiger der Hedge, umso verlässlicher funktioniert er. Es gilt
also abzuwägen zwischen Genauigkeit und Aufwand. In der Praxis heisst Aufwand
Transaktions- und Verwaltungskosten. In unserem Fall heisst Aufwand Rechendauer. Wir beschränken uns also auf die vier vorgestellten Hedginginstrumente und auf
das wöchentliche Hedging. Im nächsten Kapitel werden wir versuchen, die verschiedenen Indexierungsmethoden so absichern. Aus der simulierten Verlustverteilung
dieses Vorgehens erhalten wir die Risikozuschläge für die definitive Bewertung der
EIAs.
104
Delta-Gamma-Hedge
60
40
Häufigkeit
0
-0.1
0.0
0.1
0.2
-0.2
-0.1
0.0
0.1
Fehler
Fehler
Delta-Gamma-Rho-Hedge
Delta-Gamma-Rho-Vega-Hedge
0.2
100
Häufigkeit
40
0
20
0
50
60
150
80
-0.2
Häufigkeit
20
40
30
20
0
10
Häufigkeit
50
Delta-Hedge
-0.2
-0.1
0.0
0.1
0.2
-0.2
-0.1
Fehler
0.0
0.1
0.2
Fehler
Abbildung 27: Jeweils fünfhundert Mal wurde hier unter dem im nächsten Kapitel vorgestellten
Finanzmarktmodell (FM) der Hedge der PEMG einer PTP-EIA mit Partizipationsrate ↵ = 0.8
simuliert. Je mehr Sensitivitäten wir berücksichtigen, desto kleiner wird die Streuung des Fehlers.
Die meiste Verbesserung bringt nach diesen Histogrammen der vega-Hedge, also das Absichern
gegen die Volatilitätsschwankungen.
4
Bewertung 2: Risikozuschlag
Im vorigen Kapitel haben wir einen Hedgingalgorithmus vorgestellt. Dieser leitete
sich letztlich aus dem BSM-Modell ab. Dabei wurde vielfach auf eigentlich falsche
oder zumindest ungenaue Annahmen hingewiesen. Einige dieser Fehlerquellen sind:
• Modellfehler
– Markt ist nicht kontinuierlich.
– Log-Returns sind nicht normalverteilt.
– “iid”-Annahme der Log-Returns ist falsch.
• Hedgingfehler
– Transaktionskosten schränken den Handel ein.
– Handel ist nur diskret möglich.
• Bewertungsapproximation: Beim Bewerten und beim Bilden der Greeks des
PEMG betrachteten wir ausser im PTP-Fall jeweils (R
G)+
105
G) anstelle von (R
Diese Fehler sind der Preis für eine analytische Lösung. Im folgenden Kapitel wollen
wir nun den Effekt dieser falschen Annahmen mittels Simulationen unter deutlich
realistischeren Modellannahmen untersuchen. Drei wichtige Bemerkungen vorab:
• In diesem Kapitel arbeiten wir nur noch unter dem “physikalischen” Wahrscheinlichkeitsmass P.
• Die betrachteten Modelle sind nun diskrete Modelle: Wir betrachten jeweils die
Tagesendstände des Index. Um dies auch symbolisch anzudeuten, indizieren
wir alle Prozesse nun mit k, nicht mehr mit t.
• Alle Parameter (ausser r) verstehen sich nun als tägliche Angaben. Td := 252·T
bezeichne nun die Laufzeit in Tagen. An einigen wenigen Stellen werden wir
aus Platzgründen auch für die Laufzeit in Tagen einfach T schreiben.
Wir betrachten ein Finanzmarktmodell, in dem sowohl die Volatilität als auch der
Zinssatz stochastisch abgebildet werden. Gerade bei derart langfristigen Verträgen
ist alles andere unrealistisch. Wir nehmen hier an, dass der Indexverlauf einem
Regime-Switching-Log-Normal-Modell folgt und der Zinssatz einem Cox-IngersollRoss-Modell. Was dies bedeutet und wie wir die Modelle kalibrieren wird in diesem
Kapitel genau erklärt. Gleich an dieser Stelle sei aber ein erster Überblick geboten:
Unser Finanzmarktmodell hat zwei Outputs, den Indexprozess (Sk )k=0,1,...,Td und
den Prozess der Zinssätze (rk )k=0,1,...,Td . Beide Prozesse werden von (korrellierten)
Brown’schen Bewegungen angetrieben, W 1 und W 2 ; eine dritte Zufallsquelle ist eine
Markovkette (⇢)k=0,1,...,Td
log
✓
1
Sk
Sk 1
rk+1
(⇢k )k=1,2,...,Td
- sie steuert die Volatilität:
◆
= µ⇢k
1
+
rk =  (µr
Wk1
p
rk ) + r rk Wk2
⇢k
1
Markovkette auf {1, 2};
nach ihrem Zustand bestimmen sich die Parameter µ1,2 und
Wki
:=Wki
Wki 1 , t
= 1, 1, ..., Td
106
1,2
Für die Kalibration des Modells verwenden wir Daten aus dem Zeitreihenservice der
Deutschen Bundesbank. Zunächst betrachten wir Maximum-Likelihood-Techniken.
Letztlich werden wir aber mit einem Bayes’schen Ansatz für jede Simulation von
neuem plausible Parameter erzeugen mittels Markovketten-Monte-Carlo.
4.1
Regime Switching Log Normal Modell
Wie beim BSM-Modell (manchmal schreiben wir hierfür auch LN-Modell) nimmt
man auch beim Regime Switching Log Normal Modell (RSLN-Modell) an, dass
die Logreturns normalverteilt sind. Wie weiter oben bereits erwähnt, ist einer der
Abstriche, die man im BSM-Rahmen machen muss, dass die in Zeitreihen beobachtbare Häufung von im absoluten Sinne grossen Werten (sogenanntes “VolatilitätsClustering”) nicht entsprechend im Modell abgebildet wird (siehe Abbildung 28.
Diesem Umstand versuchen Modelle mit stochastischer Volatilität Rechnung zu tragen. Ausgehend von dem Standardmodell mit konstanten Parametern
dS
= µdt + dWt
S
wird
t
stochastisch modelliert (z.B. Heston-Modell oder GARCH-Modelle, siehe
dazu etwa [7]). In dieser Arbeit beschränken wir uns auf die denkbar einfache Methode eines Modells mit nur zwei Volatilitätszuständen, sogenannten “Regimes”. In
dem Monograph von Hardy [12] werden Indizes auf vielerlei Arten modelliert, und
die Resultate werden verglichen. Die RSLN-Methode mit zwei Regimes schneidet
dort am besten ab.
Wie zuvor nehmen wir an, dass tägliche28 Log-Returns Y normalverteilt sind. Allerdings nicht jeden Tag gleich. An manchen Tagen ist Y nach N (µ1 ,
chen nach N (µ2 ,
2
2)
2
1 ),
an man-
verteilt. Gesteuert wird die Wahl durch eine Markovkette
28
Von Anfang an betrachten wir hier also ein diskretes Modell, denn das Ziel ist nun Simulation
und das können wir natürlich nur diskret. Das Betrachten täglicher Daten scheint ein naheliegender
Kompromiss zwischen möglichst “kontinuierlich” und doch noch “berechenbar”.
107
-0.05
0.00
0.05
0.10
Tägliche Logreturns
0
500
1000
1500
Tage
Abbildung 28: 7 Jahre tägliche Logreturns des DAX von Anfang 2003 bis Anfang 2010. Die
Voltilitätscluster, etwa Anfang 2003 oder Ende 2008, sind nicht zu übersehen.
(⇢k )0kT 2 {1, 2}, mit homogenen Übergangswahrscheinlichkeiten
p1,2 := P [⇢k = 2|⇢k
1
= 1] bzw.
p2,1 := P [⇢k = 1|⇢k
1
= 2]
Insgesamt hat das RSLN-Modell also 6 Parameter:
µ1 ,
1 , p1,2 , µ1 ,
2 , p2,1
Man beachte, dass die Erwartungswerte und Standardabweichungen sich nun auf
tägliche Werte beziehen, nicht wie bisher auf jährliche. Wie sich herausstellen wird,
ist die Kalibration des RSLN-Modells alles andere als trivial. Um dennoch sofort
eine Gefühl für ihre Grössenordnung zu bekommen und um ausserdem eine erste
exemplarische Simulation produzieren zu können, schätzen wir die Parameter in
einem ersten Schritt mehr oder weniger nach Gutdünken:
Wir betrachten dazu die Logreturns in Abbildung 28 und ordnen die Tage nach
blossem Auge blockweise den Regimes zu. Regime 1 sei das “extreme” Regime mit
hoher Volatilität und Regime 2 entsprechend das Regime mit niedriger Volatilität.
Die empirischen Momente der dem ersten Regime zugeordneten Blöcke verwenden
108
Historischer Indexverlauf
6000
-0.05
12000
0.05
18000
Historische Logreturns
0
500
1000
1500
0
1000
1500
LN-Modell Indexverlauf
6000
-0.04
0.00
10000
0.04
14000
LN-Modell Logreturns
500
0
500
1000
1500
0
1000
1500
RSLN-Modell Indexverlauf
-0.08
-0.02
2000 4000 6000
0.04
RSLN-Modell Logreturns
500
0
500
1000
1500
0
500
1000
1500
Abbildung 29: Jeweils sieben Jahre täglicher Daten. Sowohl in den historischen Daten, als auch in
der Realisation des RSLN-Modells können wir bei den Logreturns deutlich das sogenannte Volatilitätsclustering erkennen. Im reinen LN-Modell (ohne Regimes) wird dieser Effekt nicht abgebildet.
109
ACF
0.0
0.4
0.8
Autokorrelation der historische Logreturns
0
10
20
30
40
50
40
50
40
50
Lag
ACF
0.0
0.4
0.8
Autokorrelation der LN-Logreturns
0
10
20
30
Lag
ACF
0.0
0.4
0.8
Autokorrelation der RSLN-Logreturns
0
10
20
30
Lag
Abbildung 30: Die Autokorrelationsfunktionen der Zeitreihen von Abbildung 29. Die RSLNRealisation imitiert das Verhalten der historischen Daten sehr gut.
wir als Schätzer für µ1 und
1
und analog finden wir Schätzer für µ2 und
2.
Auf
diese - natürlich rein illustrative und wenig wissenschaftliche - Weise erhalten wir
µ̂1 ⇡
0.0030 ( 0.75 p. a.)
ˆ1 ⇡ 0.0353 (⇡ 0.56 p. a.)
µ̂2 ⇡ 0.0004 (0.10 p. a.)
ˆ2 ⇡ 0.0140 (⇡ 0.22 p. a.).
Als durchschnittliche Regime 1 - Blocklänge ergibt sich etwa 20 Tage; als durchschnittliche Regime 2 - Blocklänge etwa 100 Tage. Da die Regime-Längen geometrisch verteilt sind mit Parametern p1,2 bzw. p2,1 können wir diese plausibel schätzen
mit
p̂1,2 =
1
1
= 0.01 bzw. p̂2,1 =
= 0.05.
100
20
Mit diesen sechs Schätzern können wir nun Indexverläufe vom RSLN-Modell simulieren. Die Ergebnisse sind deutlich realistischer als mit dem BSM-Modell. Im
110
Vergleich sehen wir in Abbildung 29 jeweils sieben Jahre Werte und Logreturns
des historischen DAX, dann einer Simulation erzeugt mit konstanter Volatilität und
Drift (verwendet werden hier einfach die empirischen Momente von den Daten aus
Abbildung 28) und zuletzt eine Simulation erzeugt mit dem RSLN-Modells mit obigen naiven Schätzern. Die Regimes sind schön zu erkennen. Vielleicht gibt es in
dieser Realisation gar zu viele? Aber das ist eine Frage der Kalibration. Ausser Frage steht, dass wir dem historischen Bild qualitativ näher kommen als durch das
einfache LN-Modell.
Die Bilder machen auch deutlich, dass die Log-Returns Yk im RSLN-Modell natürlich nicht mehr unabhängig sind: Ist Yk2 gross, sind wir wahrscheinlich im Regime
2
mit hoher Volatilität und damit wird auch Yk+1
eher gross sein. Etwas akademischer
kommt das in den Bildern zur Autokorrelation (Abbildung 30) zum Ausdruck. Wir
halten also fest: Die Log-Returns im RSLN-Modell sind nicht unabhängig. Jedoch
sind sie immer noch stationär, wenn wir die Startverteilung für die Markovkette
entsprechend wählen. Mehr darüber im Abschnitt zur Kalibration.
4.2
Cox-Ingersoll-Ross: Stochastische Zinsmodellierung
Neben der Volatiltät wollen wir auch den Zinssatz, die Short Rate, stochastisch modellieren. Unter der Short Rate versteht man die Zahl r, so dass wir für die Investition einer Geldeinheit in einer sicheren Anlage über einen infinitisimalen Zeitraum dt
als Zins gerade r · dt erhalten. Dieses Objekt ist natürlich ein nicht beobachtbares,
theoretisches Konstrukt. Als Annäherung verwenden wir in unseren Bewertungen
annualisierte und log-transformierte Zinssätze für Dreimonatsfestgelder.
In Abbildung 31 erhält man einen Eindruck von Grössenordnung und Dynamik
des risikofreien Zinssatzes. Wir verwenden zur Modellierung das Cox-Ingersoll-Ross
(CIR) Modell. Hier folgt die Short-Rate einer auf den ersten Blick ähnlichen Dynamik wie der Index im BSM-Modell selber:
drt = (µr
,
r
rt )dt +
r
p
rt dWt2
und µr sind positive Konstanten.
W 2 ist eine Brown’sche Bewegung, korreliert mit der Brown’schen Bewegung W 1 ,
111
0.03
0.01
0.02
Zins
0.04
0.05
Dreimonatszinssätze
0
500
1000
1500
Tage
Abbildung 31: Täglich aktualisierte Zinsätze für Dreimonatsgelder von Anfang 2003 bis Ende
2009. Der Zinssatz zeigt zunächst ein relativ stabiles Bild um die 3% Marke herum, um dann 2008
auf etwa 5% anzusteigen und dann jäh abzustürzen auf die auch heute, im Frühjahr 2012, noch
gültigen Rekordtiefststände.
die den Index steuert. Für eine vorgegebene Korrelation % können wir W 2 konstruieren aus W 1 und einem Hilfsprozess W 3 - einer von W 1 unabhängigen Brown’schen
Bewegung, indem wir setzen
Wt2 := %Wt1 +
p
1
%2 Wt3 .
Nach der Charakterisierung von Lévy29 ist Wt2 eine Brown’sche Bewegung auf (⌦, F, P)
im Sinn von der Fussnote auf Seite 26. Durch einfaches Nachrechnen zeigt man
p
Cov (Wt1 , Wt2 ) = t%. Der Faktor rt in der stochastischen Differentialgleichung verhindert, dass rt negative Werte annimmt. Die Richtung der Drift wird bestimmt
durch das Vorzeichen von (µr
rt ). Das heisst, r drängt immer Richtung µr . Wie
stark diese sogenannte “Mean Reversion” ist, das bestimmt , der “Relaxationsparameter”. Siehe hierzu auch Abbildung 32. Zum Zweck der Simulation betrachten wir
nun die tagesweise diskretisierte Version dieses Modells, also
rk
rk
1
=  (µr
rk 1 ) +
29
r
p
rk 1 (Wk2
Wk2 1 ),
Sei M ein stetiges lokales Martingal auf (⌦, F, P), mit M0 = 0 und quadratischer Variation
< M >t = t. Dann ist M eine Brown’sche Bewegung auf (⌦, F, P). Siehe Theorem A.10.1 in [20].
112
Simulierter Zins
0.0285 0.0300 0.0315
kappa=0.05
0
500
1000
1500
1000
1500
1000
1500
0.034
0.030
0.026
Simulierter Zins
kappa=0.005
0
500
Simulierter Zins
0.022 0.026 0.030
kappa=0.0005
0
500
Abbildung 32: Dreierlei Simulationen über sieben Jahre vom CIR-Modell zur Verdeutlichung der
Mechanik des Relaxionsparameters . Bei allen drei Zeitreihen ist µr = 0.03 und r = 0.001
.
für k = 1, ..., Td .
Diese Version könnte nun negative Werte annehmen, was aber für eine typische
Parameterwahl höchst unwahrscheinlich ist.
Nun bemerken wir, dass wir sowohl beim diskreten Indexmodell als auch beim diskreten Zinssatzmodell nur allein die Zuwächse der jeweiligen Brown’schen Bewegung zur
Simulation brauchen. Wir ersetzen diese Zuwächse nun einfach durch standardnormalverteilte Zufallsvariablen (Zk1 )k=1,...,T und (Zk2 )k=1,...,T , wobei Cov(Zk1 , Zk2 ) ⌘ % für
k = 1, ..., T . Alle übrigen Kombinationen sind unabhängig. Im nächsten Abschnitt
fassen wir unser Finanzmarktmodell zusammen.
113
4.3
Finanzmarktmodell
Definition 10. Für fixe Startwerte s0 , r0 > 0 definieren wir das tagesweise Finanzmarktmodell (FM):
Finanzmarktmodell
(FM)
8
⇢k
P
>
>
<Sk = s0 exp
(µ⇢i +
i=1
>
>
: rk = r k
+  (µr
1
1
⇢i Z i )
rk 1 ) +
k = 1, 2, ..., T
0 0
iid
Z11 , Z12 , Z21 , Z22 , ..., ZT1d , ZT2d
(⇢k )k=0,1,...,Td
1
⇠ N 2 @0, @
r
2,
r
rk 1 Zk2
1 ⇢
⇢ 1
11
AA
= Markovkette auf {1, 2}
pi,j = P [⇢k = j|⇢k
1,
p
1
= i] , für (i, j) 2 {1, 2}2
> 0
µ1,2 2 R
µr ,  > 0
s0 , r0 > 0
Neben den Startwerten s0 , r0 und ⇢0 gilt es für unser Modell einen zehndimensionalen
Parametervektor
✓ := (µ1 ,
1 , p1,2 , µ1 ,
2 , p2,1 , %, , µr ,
r)
zu schätzen. Das ist nicht einfach. Hat man die Parameter und die Startwerte s0 ,
⇢0 und r0 aber erst einmal festgelegt, kann man von obigen Formeln leicht simulieren. Da wir in der Regel wohl “ab heute” simulieren, liegt es nahe, für s0 und r0
einfach die aktuellen realen Werte einzusetzen. Den Startwert für die (nicht direkt
beobachtbare) Zustandskette der Volatilitäten ⇢0 wählen wir zufällig, unabhängig
vom gegenwärtigen Zustand des Finanzmarktes, und zwar mit einer sogenannten
114
d
“stationären” Startverteilung, so dass ⇢0 = ⇢k , für k = 1, 2, 3, ..., Td . Denn so (und
nur so) ist der Prozess der Log-Returns Y ein stationärer Prozess - was unserer
Unwissenheit um den augenblicklichen Zustand des Prozesses am besten ausdrückt.
Als Verteilung von ⇢0 wählen wir also die stationäre Verteilung (siehe dazu auch
Seite 134 und folgende)von ⇢. Wir suchen also Wahrscheinlichkeiten ⇡1 := P [⇢0 = 1]
und ⇡2 := P [⇢0 = 2], so dass
⇡1 p1,1 + ⇡2 p2,1 = ⇡1
⇡1 p1,2 + ⇡2 p2,2 = ⇡2 .
Diese Gleichung hat die Lösung
⇡1 =
p2,1
p1,2
bzw. ⇡2 =
.
p1,2 + p2,1
p1,2 + p2,1
Wie das Kalibrieren des Parameterschätzers funktionieren kann, zeigen wir in den
nächsten Abschnitten.
4.4
Kalibrierung: Maximum Likelihood Schätzung
Die Kalibration des (FM)-Modells ist ziemlich aufwändig, und das Resultat - eine
rekursive Konstruktionsanleitung für die Log-Likelihoodfunktion - ziemlich unübersichtlich. Deshalb behandeln wir hier zunächst das RSLN- und das CIR-Modell
jeweils separat, und dann erst das (FM)-Modell.
MLE für RSLN
Für die erste Demonstration des RSLN-Modells weiter oben schätzten wir den Parametervektor
✓S := (µ1 ,
1 , p1,2 , µ2 ,
2 , p2,1 )
mehr oder weniger aus dem Bauch heraus. Das geht naürlich systematischer. Wir
wählen zunächst eine “Maximum Likelihood Estimation” - Herangehensweise (MLE).
MLE bedeutet: Man wählt für ein gegebenes Modell die im Lichte der vorliegenden
Daten plausibelsten Parameterwerte als Parameterschätzer. Die MLE ist im RSLN115
Fall nicht einfach, da - wie wir gesehen haben - im Modell die Logreturns nicht
unabhängig sind. Darum soll die Berechnung der entsprechende Likelihood-Funktion
im folgenden genau gezeigt werden:
Gegeben sei also eine Realisation
y := (yk )1kTd
des stochastischen Prozesses (Yk )1kTd der Logreturns.
f✓S : RTd 7! R+
0
bezeichne die entsprechende Wahrscheinlichkeitsdichte. Der MLE - Denkweise folgend schätzen wir den Parametervektor ✓S für gegebenes y durch
✓ˆSMLE := argmax✓S Ly (✓S ) := argmax✓S f✓S (y1 , ..., yTd ).
Ly ist die Likelihood-Funktion gegeben die Daten y. Dieses Maximierungsproblem
ist meist - und auch in unserem Fall - handlicher, wenn man statt Ly die logTransformation ly := log(Ly ) betrachtet. ly ist die sogenannte “Log-Likelihood” Funktion. Zu beachten ist hierbei, dass fast sicher Ly (✓) = f✓ (y) > 0 ist (unter der
Annahme, dass Y wirklich nach f verteilt ist), sonst hätte y ja gar nicht eintreten
können. Fast sicher haben wir also kein Problem mit dem Logarithmus!
Im Fall des einfachen LN-Modells ergibt sich durch die Unabhängigkeit der Komponenten die Log-Likelihood-Funktion sehr direkt:
!
⇢
1
(yk µ)2
p
lLN (µ, ) = log
exp
2 2
2⇡
k=1
✓
⇢
◆
Td
X
1
(yk µ)2
=
log p
exp
2 2
2⇡
k=1
✓
◆ X
Td
1
(yk µ)2
= Td log p
2 2
2⇡
k=1
Td ✓
log(2⇡)
1X
yk
=
Td
Td log( )
2
2 k=1
Td
Y
116
µ
◆2
Setzt man nun die partiellen Ableitungen nach µ und
gleich null, erhält man als
Parameterschätzungen die wenig überraschenden Grössen
µ̂
MLE
und
ˆ MLE =
Td
1 X
=
yk
Td k=1
v
u Td
uP
u (yk
t k=1
µ̂MLE )2
Td
.
Die entsprechenden Schätzer für den Parametervektor ✓S des RSLN-Modell zu finden, ist deutlich aufwändiger. Im folgenden halten wir uns an eine Idee aus Hardy
[12], führen die dort präsentierten Gedanken detailliert aus und erweitern sie im
folgenden auf das zusätzliche stochastische Zinsmodell.
Nun ist die Dichte der Zeitreihe nicht mehr Produkt der Randdichten. Um dennoch
eine Produktdarstellung der Likelihood-Funktion (bzw. eine Summendarstellung der
Log-Likelihood-Funktion) zu erhalten, schreiben wir zunächst durch iteratives Anwenden der Regel “f (x, y) = fX (x|y)fY (y)” die Likelihood-Funktion folgendermassen um
30
:
Ly (✓S ) = f✓S (y1 , ..., yTd )
= f✓S (yTd |y1 , ..., yTd 1 )f✓S (y1 , ..., yTd 1 )
= f✓S (yTd |y1 , ..., yTd 1 )f✓S (yTd 1 |y1 ..., yTd 2 )f✓S (y1 ..., yTd 2 )
= etc.
= f✓ (yTd |y1 , ..., yTd 1 )f✓S (yTd 1 |y1 ..., yTd 2 ) · ... · f✓S (y1 )
Wie üblich, vereinfachen wir L durch eine Logtransformation und erhalten so
ly (✓S ) := log f✓S (y1 ) +
Td
X
k=2
log f✓S (yk |y1 , y2 , ..., yk 1 ).
Führt man sich nochmals die Mechanik des RSLN-Modells vor das innere Auge,
30
Achtung: f✓S wird hier aus Gründen der Übersichtlichkeit “generisch” für fY , f(Y1 ,...,Yk ) , f(Yk ) ,
usw. verwendet: Die Dimension des Arguments bestimmt, welche Dichte gemeint ist. Die Dimension des Arguments reicht wegen der Stationärität, (i.e. f(Y1 ,...,Yn ) ⌘ f(Yk+1 ,Yk+2 ,...,Yk+n ) für
k = 1, 2, ..., Td n) zur Wohldefiniertheit dieser Schreibweise aus.
117
merkt man schnell, dass diese Summanden nicht ohne weiteres berechenbar sind; zu
diffus sind die Abhängigkeiten. Um fortfahren zu können, verwenden wir einen Trick
aus einer Veröffentlichung von Hamilton und Susmel von 1994 [13].
Ziel ist eine rekursive Darstellung der Summanden. Zunächst führen wir für k =
1, ..., Td und l = 0, ..., Td und A 2
(⇢k : k = 1, 2, ..., Td ) (zum Beispiel A = {⇢k =
1}) folgende Schreibweise ein:
d
P✓ [Y1  y1 , ..., Yk  yk , A]
dy1 ...dyk S
f✓ (y1 , y2 , ..., yk ; A) :=
Und entsprechend setzen wir für A, B 2
{⇢k = 1} und B = {⇢k
1
(⇢k : k = 1, 2, ..., Td ) (zum Beispiel A =
= 2}) mit f✓S (y1 , ..., yk ; B) > 0 setzen wir
f✓ (yk+1 , ..., yk+l ; A|y1 , ..., yk ; B) :=
f✓S (y1 , ..., yk+l ; A \ B)
f✓S (y1 , ..., yk ; B)
Insbesondere ist f✓S (A) einfach P✓S [A], zum Beispiel
f✓S (⇢0 = 1) = P✓S [⇢0 = 1].
So erhalten wir für den ersten Summanden (ohne log)
f✓S (y1 ) = f✓S (y1 ; ⇢1 = 1) + f✓S (y1 ; ⇢1 = 2)
= P [⇢1 = 1] f✓S (y1 |⇢1 = 1) + P [⇢1 = 2] f✓S (y1 |⇢1 = 2)
= P [⇢1 = 1] fN (µ1 ,
= ⇡1 p1,1 fN (µ1 ,
2
1)
+⇡1 p1,2 fN (µ2 ,
2
1)
(y1 ) + P [⇢1 = 2] fN (µ2 ,
(y1 ) + ⇡2 p2,1 fN (µ1 ,
2
2)
2
1)
(y1 ) + ⇡1 p2,2 fN (µ2 ,
2
2)
(y1 )
(y1 )
2
2)
(y1 ).
Das können wir für gegebene Parameterwerte einfach ausrechnen. Denn (⇡i )i=1,2 )
bezeichnet die gewählte stationäre Startverteilung der Markovkette (siehe Seite
4.3), pi,j Übergangswahrscheinlichkeiten und fN (µi ,
2
i)
bezeichnet eine entsprechen-
de Normaldichte. Die übrigen Summenden der ly -Funktion, wiederum exponiert,
118
alsof✓S (yk |y1 , ..., yk 1 ), schreiben wir für 2  k  N etwas umständlich:
f (yk |y1 , ..., yk 1 ) =
X
f✓S (yk ; ⇢k = i, ⇢k
(i,j)2{1,2}
1
= j|y1 , ..., yk 1 )
2
Für diese vier Summanden lässt sich nun eine rekursive Darstellung finden31 :
f✓S (yk ; ⇢k = i, ⇢k
1
= j|y1 , ..., yk 1 )
= f✓S (yk |y1 , ..., yk 1 ; ⇢k = i, ⇢k
1
= j, )f✓S (⇢k = i, ⇢k
= fN (µi ,
2
i)
(yk )f✓S (⇢k = i, ⇢k
= fN (µi ,
2
i)
(yk )f✓S (⇢k = i|y1 , ..., yk 1 ; ⇢k
= fN (µi ,
2
i)
(yk ) pj,i f✓S (⇢k
1
1
1
= j|y1 , ..., yk 1 )
= j|y1 , ..., yk 1 )
1
= j)f✓S (⇢k
1
= j|y1 , ..., yk 1 )
= j|y1 , ..., yk 1 )
Die ersten beiden Faktoren sind explizite Funktionen von ✓S . Der dritte und letzte
Faktor ist der Schlüssel zur Rekursion, denn für k = 2 finden wir
f✓S (⇢k
1
= j|y1 , ..., yk 1 ) = f✓S (⇢1 = j|y1 )
f✓S (⇢1 = j)
f✓S (y1 )
⇡1 p1,j + ⇡2 p2,j
,
2 (y1 )
j)
f✓S (y1 )
= f✓S (y1 ; ⇢1 = j)
= f N ( µj ,
wobei f✓S (y1 ) weiter oben bereits explizit berechnet wurde, und für k
f✓S (⇢k
1
= j|y1 , ..., yk 1 ) =
=
2
X
l=1
2
X
l=1
f✓S (⇢k
1
= j, ⇢k
2
3
= l|y1 , ..., yk 1 )
f✓S (yk 1 ; ⇢k 1 = j, ⇢k 2 = l|y1 , ..., yk 2 )
.
f✓S (yk 1 |y1 , ..., yk 2 )
Den Zähler dieser Summanden erhalten wir von obiger Rekursion. Also gilt für k
f✓S (⇢k
1
= j|y1 , ..., yk 1 ) =
2
X
fN (µj ,
2
j)
l=1
31
(yk 1 ) pl,j f✓S (⇢k
2
= l|y1 , ..., yk 2 )
f✓S (yk 1 |y1 , ..., yk 2 )
In dieser Rechnung wird wiederholt und vielleicht etwas versteckt verwendet, dass
“P (A \ B|C) = P (A|B \ C)P (B|C)00
119
3
All diese Überlegungen zusammenfassend erhalten wir folgende Proposition:
Proposition 14. Für die Log-Likelihood-Funktion l des RSLN-Modells bei gegebenen täglichen Logreturn-Daten (y1 , ..., yTd ) ,
l(✓S ) = log f✓S (y1 ) +
Td
X
k=2
log f✓S (yk |y1 , y2 , ..., yk 1 ),
gilt für die (exponierten) Summanden folgende Rekursion:
8
>
>
>
<f✓S (y1 ) =
P
(i,j)2{1,2}2
⇡i pi,j fN (µj ,
>
>
>
:f✓S (yk |y1 , y2 , ..., yk 1 ) =
1
(y1 )
P
(i,j)2{1,2}2
wobei wir die Terme f✓S (⇢k
f✓S (⇢k
2
j)
1
fN (µi ,
2
i)
(yk ) pj,i f✓S (⇢k
= j|y1 , ..., yk 1 ) für k
= j|y1 , ..., yk 1 ) =
2
X
fN (µj ,
2
j)
l=1
1
= j|y1 , ..., yk 1 ),
k
3 umformen zu
(yk 1 ) pl,j f✓S (⇢k
2
= l|y1 , ..., yk 2 )
f✓ (yk 1 |y1 , ..., yk 2 )
und für k = 2 zu
f✓S (⇢1 = j|y1 ) = fN (µj , 2 ) (y1 )
j
⇡1 p1,j + ⇡2 p2,j
f✓ (y1 )
mit
⇡1 =
p2,1
p1,2
bzw. ⇡2 =
.
p1,2 + p2,1
p1,2 + p2,1
So lässt sich die Log-Likelihood Function ly also berechnen. Eine analytische Lösung
für diese Funktion - geschweige denn von ihrer Maximierung - scheint es nicht zu
geben. Wir programmieren die Rekursion für ly und maximieren numerisch.
In Abbildung 33 finden sich drei Beispiele von historischen Zeitreihen samt dem
MLE- Parameter-Schätzer, den der Algorithmus für sie berechnet. Die Übergangswahrscheinlichkeiten ergeben sich in der Regel so, dass die Phasen mit niedriger
Volatilität im Mittel etwa drei- bis sechsmal länger sind als diejenigen mit hoher
Volatilität. Es ist auffällig, dass die Drift während des Regimes mit hoher Volatilität
immer negativ ist. Und wie extrem die Drift jeweils ist! Betrachtet man diese Werte
könnte man genausogut von einem positiven und einem negativen “Driftregime” wie
120
2,
-0.10
0.00
0.10
Tägliche Logreturns des DAX von Anfang 1991 bis Ende 1997
0
500
1000
1500
MLE: mu1=-0.0030 (-77%), sigma1=0.0235 (37%), p12=0.0187 (53), mu2=0.0013 (35%), sigma2= 0.0014 (15%), p21=0.0070 (143)
-0.10
0.00
0.10
Tägliche Logreturns des DAX von Anfang 1998 bis Ende 2004
0
500
1000
1500
MLE: mu1=-0.0010 (-25%), sigma1=0.0267 (42%), p12=0.0159 (62), mu2=0.0003 (9%), sigma2=0.0123 (19%), p21=0.0061 (163)
-0.10
0.00
0.10
Tägliche Logreturns des DAX von Anfang 2004 bis Ende 2010
0
500
1000
1500
MLE: mu1=-0.0020 (-50%), sigma1=0.0249 (39%), p12=0.0220 (45), mu2=0.0008 (20%), sigma2=0.0095 (15%), p21=0.0050 (200)
Abbildung 33: Von dreierlei Datensätzen wurde hier die Loglikelihoodfunktion mit Proposition 14 berechnet und numerisch maximiert. Unter den Graphiken finden wir die entsprechenden
Parameterschätzer. In Klammern stehen jeweils die annualisierten Werte der Parameter, bzw. bei
den Übergangswahrscheinlichkeiten die mittlere Regimedauer in Tagen.
121
von Volatilitätsregimes sprechen. Dieser Wechsel scheint genauso wichtig, wie derjenige der Volatilitäten. Die abnormal hohen Driftwerte lassen den Leser jedenfalls
sofort Fehler in der Kalibrierung vermuten. Im ersten abgebildeten Beispiel lesen wir
etwa von -77% bzw. +35% per anno! Gewichtet man diese Regime-weisen Driftparameter mit ihrer mittleren Geltungsdauer von 53 bzw. 143 Tagen ergibt sich aber
gerade ein durchschnittlicher Return in der gewohnten Grössenordnung:
53
143
( 0.77) +
0.35 ⇡ 4.7% p. a.
53 + 143
53 + 143
MLE und CIR
Für die MLE-Parameterschätzung im CIR-Modell gehen wir sehr ähnlich vor wie
im vorigen Abschnitt bei der entsprechenden Rechnung für das RSLN-Modell. Weil
nun aber die Volatilität-Regimes wegfallen, ist die Arbeit einfacher. Schätzen wollen
wir nun
✓r = (µr ,
r , ) .
Vom Modell auf Seite 114 wissen wir, dass für k = 1, ..., Td
rk |rk
1
⇠ N (1
)rk
1
+ µr ,
2
r rk 1
.
Sei g✓r nun die Dichte von (r1 , ..., rTd ). r0 sei fix gegeben. Wieder schreiben wir
diese gemeinsame Dichte als Produkt von bedingten (Rand-) Dichten und wieder
verwenden wir g✓r als “generisches” Symbol:
g✓r (r1 , ..., rTd ) = g✓r (rTd |r1 , ..., rTd 1 )g✓r (rTd 1 |r1 , ..., rTd 2 ) · · · g✓r (r1 )
Die Verteilung von rk hängt ja offenbar nur von rk
1
ab. So können wir also schreiben
g✓r (r1 , ..., rTd ) = g✓r (rTd |rTd 1 )g✓r (rTd 1 |rTd 2 ) · · · g✓r (r1 )
⇢
Td
Y
1
(rk (1 )rk 1 µr )2
/
exp
p
2 r2 rk 1
r rk 1
k=1
( T
) T
d
d
X
1
(rk (1 )rk 1 µr )2 Y
1
=
exp
p
Td
2 r2 rk 1
rk
r
k=1
k=1
122
.
1
Wieder betrachten wir die (unnormierte) Log-Transformierte der Dichte:
lr (✓r ) :=
Td log
Td
X
(rk
r
(1
k=1
)rk
2 r2 rk
1
µr )2
1
Td
Y
1
+ log
p
rk
k=1
1
!
Der letzte Term hängt nicht von ✓r ab. Wir setzen also
✓ˆrMLE := argmax✓r
Td log
r
Td
X
(rk
k=1
(1
)rk
2 r2 rk
1
µr )
1
2
!
.
Setzt man den Gradienten dieser Funktion gleich Null, erhält man folgende MLESchätzer:
Proposition 15. Gegeben die Daten (r0 , r1 , ..., rTd ) hat die Log-Likelihood-Funktion
lr für das CIR-Modell ein lokales Maximum in ✓ˆr = (µ̂r , ˆr , ̂), wo
r0 s2 + Td2 Td s3
Td2 s1 s2
s3 (1 ̂)Td
=
, i = 1, 2,
̂s2
Td
1 X
(rk (1 ̂)rk 1
=
Td k=1
rk 1
r T s2
̂ =
µ̂r
ˆr2
̂µ̂r )2
, i = 1, 2,
mit
s1 =
s2 =
s3 =
Td
X
k=1
Td
X
k=1
Td
X
k=1
rk 1 ,
1
rk
1
rk
rk
1
Beweis. Durch Nullsetzen des Gradienten suchen wir die lokalen Maxima der Loglikelihoodfunktion
lr (✓r ) =
Td log
r
Td
X
(rk
k=1
(1
)rk
2 r2 rk
123
1
1
µr )
2
+ log
Td
Y
k=1
p
1
rk
1
!
.
Ihre partiellen Ableitungen sind
T
d
X
d
rk
lr (✓r ) = 
dµr
k=1
d
lr (✓r ) =
d r
Td
+
r
)rk 1
2r
r k 1
Td
X
(rk
(1
rk
(1
µr
)rk 1
2r
r k 1
k=1
µr )2
)rk 1
3
r rk 1
k=1
Td
X
d
lr (✓r ) =
d
(1
µr
(rk
µr ).
1
Wir nehmen zunächst an, dass  6= 0 - dieser Spezialfall und seine Interpretation
wird am nach dem Beweis besprochen. Wenn  also ungleich Null, verschwindet der
Gradient genau dann, wenn
8T
d
P
rk
>
>
>
>
>
>
<k=1
Td r2
>
>
>
>
Td
P
>
rk
>
:
k=1
(1 )rk
rk 1
Td
P
k=1
1
µr
=0
(rk (1 )rk
rk 1
(1 )rk
rk 1
1
µr
µr )2
1
(rk
=0
µr ) = 0.
1
Aus der zweiten Gleichung folgt direkt, dass
2
r
Td
1 X
(rk
=
Td k=1
(1
)rk
rk 1
µr )2
1
.
Mit den Notationen aus der Proposition finden wir mit der ersten Gleichung
µr =
Td
P
k=1
rk
rk 1

Td (1
Td
P
k=1
)
=
s3
1
rk
Td (1
s2
)
.
1
Die dritte Gleichung schreiben wir zunächst etwas um:
0 =
=
Td
X
rk
k=1
Td
X
(rk
(1
(1
)rk
rk 1
)rk
1
1
µr
(rk
µr )
k=1
= rT
1
µr )
µr
Td
X
rk
k=1
r0 + s1
Td µr
µr s 3 + µr T d
124
(1
)rk
rk 1
1
µr Td + µ2r s2
µr
Bevor wir hier nun µr einsetzen und die Gleichung nach r auflösen, berechnen wir
µ2r etwas genauer.
µ2r =
=
=
1
2 s22
1
2 s22
s23
2 s22
s23
2s3 Td (1
) + Td2 (1
s23
2s3 Td + 2s3 Td  + Td2
2s3 Td 2s3 Td
Td2
+
+
2 s22
s22
2 s22
2 + 2 )
2Td2 + 2 Td2
2Td2 Td2
+ 2
s22
s2
Diesen Term setzen wir oben für µ2r ein und ersetzen µr mit (s3
Td (1
))/(s2 ).
µr s3 + µr Td µr Td + µ2r s2
Td (1 ) s3 Td (1 )
s3 Td (1 )
= rT r0 + s1
s3 +
Td
s2
s2
s2
✓ 2
◆
s3 Td (1 )
s3
2s3 Td 2s3 Td
Td2
2Td2 Td2
Td +
+
+ 2 2
+ 2 s2
s2
2 s22
2 s22
s22
 s2
s22
s2
2
2
2
s3 T d T d
Td
s3
T d s3 T d s3 T d s3
Td2
Td2
= rT r0 + s1
+
+
+
+
s2
s2
s2
s2
s2
s2
s2
s2
s2
Td s3 Td2 Td2 
s23
2s3 Td 2s3 Td
Td2
2Td2 Td2 
+
+
+
+
+
s2
s2
s2
s2
s2
s2
s2
s2
s2
0 = rT
r0 + s1
Td µr
s3
Td 
Den letzten Ausdruck multiplizieren wir mit s2 und sortieren die Summanden.
0 = rTd s2
r0 s2 + 2 s1 s2
Td2 + Td2
= (s1 s2
Td s3  + Td2 
Td s3  + Td2 
Td2 )2 + (rT s2
Td2 2 + s23
r0 s2 + Td2
Td2 2
s23 + Td s3
Td s3 + s3 Td
2s3 Td + 2s3 Td  + Td2
2Td2  + Td2 2
Td s3 )
 = 0 hatten wir anfangs ausgeschlossen. Und damit setzen wir
̂ =
rT s2
r0 s2 + Td2
Td2 s1 s2
T d s3
Setzen wir diesen Ausdruck in die Formeln für µr und
2
r
weiter oben ein, erhalten
wir die Behauptung32 .
32
Wir verzichten hier darauf zu zeigen, dass die entsprechende Hessematrix negativ definit und
damit das gefundene lokale Extremum in der Tat ein lokales Maximum ist. Da es sich bei unserer
Lösung um das einzige mögliche Extremum in R3+ handelt, erwarten wir ja eigentlich auch, dass hier
die Likelihoodfunktion im Lichte sinnvoller Daten ein M a x i m u m annimmt - wenn irgendetwas
am Modell dran sein soll!
125
Falls  = 0 findet sich ebenfalls (und sehr leicht) ein lokales Extremum der Loglikelihoodfunktion. Nimmt diese hier aber einen höheren Wert an als im ✓ˆr von der
Proposition, dann stellt sich grundsätzlich die Frage, ob wir überhaupt ein plausibles Modell für die vorliegenden Daten verwenden! Will man jedoch aus bestimmten
Gründen am CIR-Modell festhalten, hängt letzteres wegen  = 0 nicht mehr von µr
ab. Und der übrige Parameter, ˆr 2 , ergibt sich dann mit dem im Beweis nullgesetzten
Gradienten als
ˆr2 =
Td
1 X
(rk rk 1 )2
.
Td k=1
rk 1
Für den Fall  = 0 erhalten wir also das Spezialmodell
rk =
p
rk
1 ˆ r Zk .
Insgesamt funktioniert das Kalibrieren nun so: Ausgehend von Zinsdaten33 berechnen wir zunächst das lokale Maximum aus der Proposition ✓ˆr . Erhalten wir hier
drei positive Komponenten (was allermeistens der Fall ist), verwenden wir diesen
Vektor als MLE-Schätzer. Ist  oder µ kleiner gleich Null (was bei stark oszillierenden Zinsdaten der Fall sein kann), dann verwenden wir obiges Spezialmodell das entsprechend oszillierende Simulationen liefert. In Abbildung 34 sind dreierlei
Zinszeitreihen zusammen mit den von Ihnen erzeugten MLE-Schätzern dargestellt.
MLE und unser Finanzmarktmodell
Nun wollen wir uns an einen Parameterschätzer für das ganze Modell (FM), also
RSLN und CIR zusammen, wagen. Ein naiver, aber nicht ganz unplausibler Ansatz
wäre nun, ausgehend von den oben erhaltenen Schätzern einfach noch die Korrelation zwischen den Rauschtermen W 1 und W 2 zu schätzen. Hier stellt sich aber sofort
die Schwierigkeit, dass wir ja nicht wissen aus welchem Regime die vorliegenden
Werte der Logreturns stammen. Ausserdem wäre das kein wirklicher MLE-Schätzer
mehr, da man zuerst so tut, als wären Zins und Index unabhängig und dann erst die
Korrelation schätzt. Diesen Ansatz lassen wir also links liegen. Stattdessen reklizieren wir die Rekursionsidee von der RSLN-Kalibration. Die Dichte unserer Zeitreihe
33
Wir verwenden hier Tagesdurchschnitte der Dreimonatsgeldmarktsätze vom Frankfurter Bankplatz. Die entsprechenen Daten findet man online als Zeitreihe ST0107 im Zeitreihenservice der
Deutschen Bundesbank.
126
CIR-Simulation
0.030
0.025 0.035 0.045
0.040
Historische Zinssätze
0
500
1000
1500
0
500
1000
1500
Tage
mu_r=0.0313, sigma_r=0.0013, kappa=0.0012
CIR-Simulation
0.03
0.06
0.03 0.05 0.07
0.09
Historische Zinssätze
0
500
1000
1500
0
500
1000
1500
Tage
mu_r=0.0019, sigma_r=0.0011, kappa=0.0005
CIR-Simulation
0.024
0.020
0.035
0.030
0.050
Historische Zinssätze
0
500
1000
1500
0
500
1000
1500
Tage
mu_r=0.0571, sigma_r=0.0011, kappa=0.0001
Abbildung 34: Auf der linken Seite finden sich historische Zinsdaten - jeweils logtransformiert,
das heisst r := log(1+r), denn wir verstehen r ja als stetigen Zinssatz. Von diesen drei Datensätzen
wurden mit Proposition 32 die MLE-Parameterschätzer berechnet. Auf der rechten Seite finden sich
so erhaltenen Werte samt je einer beispielhaften Simulation. Dass die originalen Zinsverläufe weniger fraktalartig aussehen wir die simulierten, ist vor allem der unterschiedlichen Messgenauigkeit
geschuldet.
(Y1 , r1 , ..., YTd , rTd ) sei nun
h✓ : R2Td ! R+ , (y1 , r1 , ..., yTd , rTd ) 7! h✓ (y1 , r1 , ..., yTd , rTd ),
wo ✓ = ✓S ⇥ ✓r ⇥ % = (µ1 ,
1 , p1,2 , µ2 ,
2 , p2,1 , µr ,
r , %).
Wir blättern zurück zur
Berechnung der Log-Likelihood-Funktion im RSLN-Modell (Seite 117 und folgende)
und erkennen, dass wir h✓ genau analog manipulieren können.
Wir verwenden noch zusätzlich, dass unter (FM)
0
@
Yk
rk
1
A |⇢k , rk
1
00
⇠ N 2 @@
µ⇢k
(1
)rk
1
+ µr
1 0
A,@
2
⇢k
%
⇢k r
p
%
rk
1
⇢k r
p
rk
2
r rk 1 .
1
11
AA .
Für das ganze Modell ergibt sich so folgende Proposition mit einer Konstruktionsanleitung für die Log-Likelihood-Funktion:
127
Proposition 16. Für die Log-Likelihood-Funktion l des Finanzmarktmodells
8
⇢k
P
>
>
<Sk = s0 exp
(µ⇢i +
>
>
: rk = r k
i=1
1
+  (µr
1
⇢i Z i )
rk 1 ) +
r
p
rk 1 Zk2 ,
r0 = r0 ,
bei gegebenen Logreturn-Daten (y1 , ..., yTd ) und Zinsdaten (r0 , r1 , ..., rTd ) ,
l(✓) = log h✓ (y1 , r1 ) +
Td
X
k=2
log h✓ (yk , rk |y1 , r1 , y2 , r2 , ..., yk 1 , rk 1 ),
gilt für die (exponierten) Summanden folgende Rekursion:
X
h✓ (y1 , r1 ) =
(i,j)2{1,2}2
⇡i pi,j fN j,r0 (y1 , r1 )
und
h✓ (yk , rk |y1 , r1 , ..., yk 1 , rk 1 )
X
=
fNi,rk 1 (yk , rk ) pj,i h✓ (⇢k
1
= j|y1 , r1 , ..., yk 1 , rk 1 ), k
2
(i,j)2{1,2}2
wobei wir die Terme h✓ (⇢k
h✓ (⇢k
1
1
= j|y1 , r1 , ..., yk 1 , rk 1 ) für k
= j|y1 , r1 , ..., yk 1 , yk 1 ) =
3 umformen zu
2
X
fNj,rk 2 (yk 1 , rk 1 ) pl,j h✓ (⇢k
2
= l|y1 , r1 , ..., yk 2 , rk 2 )
h✓ (yk 1 |y1 , ..., yk 2 )
l=1
und für k = 2 zu
h✓ (⇢1 = j|y1 , r1 ) = fN j,r0 (y1 , r1 )
⇡1 p1,j + ⇡2 p2,j
h✓ (y1 , r1 )
mit
⇡1 =
p2,1
p1,2
bzw. ⇡2 =
.
p1,2 + p2,1
p1,2 + p2,1
und fN i,r bezeichne die Dichte einer zweidimensionalen normalverteilten Zufallsvariable mit Erwartungswert
0
@
µi
(1
)r + µr
128
1
A
und Kovarianzmatrix
0
@
2
i
%
i r
%
p
r
i
p 1
r r
A.
2
rr
Beweis. Genau analog zu den Ausführungen im RSLN-Fall.
Wiederum sparen wir uns die (ohnehin wohl vergebliche) Mühe von exakten Ableitungen und maximieren numerisch. Als Ausgangspunkte für die numerische Maximierung verwenden wir die MLE-Schätzer der separaten Modelle und eine Korrelation von 0. Unserer Erfahrung nach ergeben sich so immer sinnvolle Werte (also
Wahrscheinlichkeiten in (0, 1), positive Volatilitäten, usw.). Das heisst, die Maxima
der Likelihoodfunktion, werden in der Tat im Inneren ihres sinnvollen Definitionsbereichs angenommen. Das ist gut. Denn würde das Vorgehen ein Maximum an
einer Stelle in R10 beispielsweise mit unbrauchbarer dritter Komponente p1,2 > 1
liefern, hiesse das, das Maximum würde irgendwo am Rand des sinnvollen Definitionsbereichs (also zum Beispiel mit einer Übergangswahrscheinlichkeit gleich 1 oder
0, oder einer Volatilität gleich 0) angenommen. Diese Stelle zu finden wäre aber ein
grosser zusätzlicher Aufwand. Ausserdem sprächen solche Schätz-Ergebnisse gegen
unser Modell. Eine Übergangswahrscheinlichkeit von 0 etwa würde ja gerade bedeuten, dass es effektiv nur e i n Volatilitätsregime gäbe.
Abbildung 35 zeigt beispielhaft einen historischen Datensatz, die von diesen Daten
ausgehende MLE-Kalibration des Parametervektors ✓ und eine entsprechende Simulation unseres Finanzmarktmodells. Die Grössenordnung der Parameterschätzer ist
vergleichbar mit der entsprechenden Grössenordnung der separaten Schätzung. Die
Korrelation zwischen den Logreturns des Index und den Veränderungen des Aktionkurses ist hier und bei allen weiteren, nicht abgebildeten Schätzungen negativ. Eine
mögliche wirtschaftliche Erklärung für dieses Phänomen erhält man, indem man
Aktienpreise rein als diskontierte zukünftige Dividendenströme interpretiert. Steigt
der Diskontsatz, bei uns also r, sinkt entsprechend der Aktienkurs und damit unser
Index S.
4.5
Bayes-Schätzer und Markovketten-Monte-Carlo
Trotz der umfangreichen Berechnungen in den letzten Abschnitten haftet der Wahl
von ✓ˆMLE immer noch einige Unsicherheit an. Selbst gesetzten Falles, dass unser Mo129
Indexpunkte S
0
50
100
150
200
3600 4000 4400
FM-Indexsimulation
3700 3900 4100
Indexpunkte S
DAX 2003
250
0
150
200
250
0.02
-0.04
-0.01
Logreturns Y
0.02
0.00
0
50
100
150
200
250
0
50
50
100
150
200
150
200
250
200
250
0.0215
0.0205
Zinssatz r
0.0195
0
100
FM-Zinssimulation
0.0205
Zinssätze 2003
Zinssatz r
100
Logreturns der Indexsimulation
-0.03
Logreturns Y
Logreturns DAX 2003
50
250
0
50
100
150
Abbildung 35: Mit den links abgebildeten Index- und Zinsdaten eines Jahres berechneten wir
via Proposition 16 und numerischer Maximierung die MLE-Parameterschätzer
µ̂MLE
= 0.0127, ˆ1MLE = 0.0346, p̂MLE
1
1,2 = 0.0166,
MLE
MLE
MLE
µ̂2
= 0.0155, ˆ2
= 0.0084, p̂2,1 = 0.0040,
MLE
µ̂MLE
=
0.0207,
ˆ
= 0.0005, ̂MLE = 0.0003, %̂MLE = 0.3080.
r
r
In der rechten Spalte findet sich eine Simulation von (FM) mit gerade diesen Parametern. Zumindest mit blossem Auge sind nur beim Zinssatz qualitative Unterschiede zwischen Original und
Simulation zu erkennen. Und hier beim Zins ist das fraktalartigere Aussehen der Simulation auch
der kleineren Messgenauigkeit der historischen Zeitreihe geschuldet.
130
dell die Welt tatsächlich perfekt nachbildet: Der Parameterschätzer hängt ja doch
immer von einem einzigen ausgewählten Indexverlaufs ab, der ja selber nur einer
von vielen möglichen ist. Wir wissen nicht, wie “typisch” die verwendeten Daten tatsächlich sind. Diese Parameterunsicherheit können wir etwas abschwächen, indem
wir uns nicht auf einen bestimmten Wert von ✓ festlegen, sondern für jede Simulation einen neuen solchen Wert erzeugen. Wir betrachten ✓ selber als Zufallsvariable!
Diese Interpretation von Wahrscheinlichkeit eben als Grad von Unwissenheit nennt
man “bayesianisch”. Wir wissen ja nicht “nichts”. Wir haben auch ohne Experiment
eine ungefähre Vorstellung von der Lage eines gesuchten Parameters. Zum Beispiel
ist ein (täglicher) erwarteter Logreturn so um 0 herum und mit aller Wahrscheinlichkeit im absoluten Sinn kleiner als, sagen wir, 0.1. Diesen Kenntnisstand vor dem
Experiment repräsentieren wir durch die Wahl einer sogenannten “a-priori” Verteilung G. Dieses Einfliessenlassen von a-priori Wissen, macht die Bayes’sche Methode
so kraftvoll. Bei normalen MLE-Schätzern wird auf den Einsatz dieses Vorwissens
verzichtet. G gegeben die Daten nennen wir “a posteriori”-Verteilung. Mit dieser a
posteriori Verteilung können wir nun wiederum Punktschätzer oder Vertrauensintervalle berechnen. Oder eben für jede Finanzmarktsimulation aufs neue Parameter
von ihr simulieren und so der oben beschriebenen Parameterunsicherheit gerechter
werden.
Beispiel
Als “toy example” betrachten wir die Kalibrierung des gewöhnlichen Log-NormalModells, mit konstanter Volatilität und konstantem Zinssatz. Die Volatilität sei
sogar bekannt (darum “toy”). Sie liege bei 0.015 täglich. Den Erwartungswert
kennen wir nicht genau. Um seine Zufälligkeit auch symbolisch zu verdeutlichen
schreiben wir ihn fett µ .
Unser Beispielmodell für die täglichen Logreturns sei also
iid
µ, 0.0152 ), k = 1, ..., T.
Yk ⇠ N (µ
Wir wissen, dass µ so ungefähr “um die Null herum” liegt. Als a priori Verteilung
131
bietet sich deshalb eine Normalverteilung an mit Erwartungswert 0 und Varianz
2
µ.
gµ bezeichne die entsprechende a priori Dichte. Für die a posteriori Dichte
⇡µ gilt dann mit dem Satz von Bayes
⇡µ (µ) := gµ (µ|Y1 = y1 , ..., YT = yT )
g(µµ,Y ) µ, y
=
fY (y)
fY (y1 , ..., yT |µ)
=
gµ (µ).
fY (y)
Der Zähler im Bruch ist nichts anderes als die Likelihoodfunktion L im Lichte
der Daten y ausgewertet an der Stelle µ. Der Nenner ist bezüglich µ konstant.
Sieht man also von einer normierenden Konstante ab, können wir ihn weglassen
und also schreiben
⇡µ (µ) / Ly (µ) · gµ (µ).
Rechnet man dies mittels quadratischem Ergänzen aus und lässt die Faktoren,
die von µ nicht abhängen wiederum fallen, erhält man
⇡µ (µ) / exp
(
1
2c2
µ
2
µ
2
T
2
µ
yi
i=1
wobei
c :=
c2
T
X
+ 0.0152
!)
,
.
Die a-posteriori Verteilung ist in diesem einfachen Beispiel also wiederum eine
Normalverteilung. Ihr Erwartungswert ist
c
2
T
X
i=1
T µ2
yi =
y,
T µ2 + 0.0152
also quasi eine Konvexkombination des Datendurchschnitts y, d.h. des MLESchätzers, und des a-priori Erwartungswertes 0. Die Gewichtung wird gesteuert
über die Wahl der a priori Varianz
2
µ:
Ist die a priori Varianz sehr gross (das
bedeutet: kaum a-priori Wissen), dann ist der a posteriori Erwartungswert als
132
Punktschätzer gerade der MLE Schätzer y; ist die a priori Varianz sehr klein,
dann ist der Bayes-Schätzer gerade der a priori Erwartungswert, nämlich 0. In
der Regel wird natürlich eine a priori Varianz zwischen diesen beiden Extremen gewählt. Und natürlich könnten wir in jedem Fall ohne weiteres von dieser
Verteilung simulieren.
Analog zu diesem eindimensionalen Fall können wir auch den zehndimensionalen
Parametervektor unseres FM-Modells als zufällig betrachten mit einer a priori Verteilung. Zusammen mit Daten können wir dann eine a posteriori Verteilung konstruieren. Das Ergebnis wird aber nicht mehr derart einfach und geschlossen darstellbar
sein wie in obigem “toy example”. Was können wir dann mit der a posteriori Dichte
überhaupt anfangen? In der Tat war das Simulieren von hochdimensionalen Nichtstandardverteilungen bis vor nicht allzu langer Zeit noch so problematisch, dass
Simulationen von a posteriori Verteilungen erst seit relativ kurzem ein Rolle spielen.
Seit den 1980er Jahren ist ein raffiniertes Verfahren bekannt, das diese Schwierigkeiten löst: Das Markovketten-Monte-Carlo (MCMC).
4.6
Markovketten-Monte-Carlo
Anders als bei den meisten anderen Simulationsalgorithmen verzichtet man beim
Markovketten-Monte-Carlo (MCMC) von Anfang an auf unabhängige Simulationsergebnisse. Nicht nur das: Die geschickte Manipulierung der Abhängigkeiten von
aufeinanderfolgenden Simulationen liefert gerade den Schlüssel für das Funktionieren der Methode! Von der Markovkettentheorie weiss man, dass es für bestimmte
Markovketten (Xn )n2N eine eindeutige Verteilung
gibt, so dass P[Xn 2 A] ! (A)
für n ! 1. Ziel ist es nun, eine solche Markovkette (✓n )n2N auf R10 derart zu
konstruieren, dass dieses
gerade der a posteriori Verteilung, von der wir simulie-
ren möchten, entspricht. Für “grosse” n (um die genauen Konvergenzeigenschaften
kümmern wir uns hier nicht) ist es dann plausibel anzunehmen, dass dergestalt simulierte ✓n nach
verteilt sind. Auf den folgenden Seiten sei dieses Vorgehen formal
erläutert. Wir definieren für eine beliebige Menge X und dazugehörige -Algebra F
Übergangskerne und Markovketten:
133
Definition 11. Ein (Übergangs-)Kern P auf (X, F) ist eine Abbildung
P : X ⇥ F ! [0, 1],
so dass
a) P (x, ·) für alle x 2 X ein Wahrscheinlichkeitsmass ist, und
b) P (·, A) für alle A 2 F eine messbare Funktion ist.
Definition 12. Eine Markovkette auf (X, F) mit Startverteilung ⌫0 und Übergangskern P ist eine Folge (X0 , X1 , ...) von Zufallsvariablen mit Werten in X derart,
dass für alle A 2 F gilt:
8
>
<P[X0 2 A] = ⌫0 (A)
>
:P[Xn+1 2 A|Xn = xn , Xn
1
= xn 1 , ..., X0 = x0 ] = P[Xn+1 2 A|Xn = xn ] = P (xn , A)
Für unsere Zwecke wird X = R10 und F = B(R10 ) sein.
Definition 13. Eine Wahrscheinlichkeitsverteilung ⇧ heisst invariant oder stationär für eine Markovkette (X0 , X1 , ...) auf (X, F) mit Übergangskern P , wenn
P⇧ [X1 2 A] = ⇧(A) 8A 2 F,
wo (Xn )n
0
unter P⇧ eine Markovkette mit Übergangskern P und Startverteilung ⇧
sei.
Direkt aus dieser Definition lässt sich ableiten, dass
P[Xn 2 A] = ⇧(A) 8n
n0 ,
sobald Xn0 für irgendein n0 nach dem stationären ⇧ verteilt ist. In der Tat gilt in
bestimmten Fällen noch mehr: Es gibt genau eine stationäre Verteilung und genau
gegen diese konvergiert die Markovkette - wenn sie “irreduzibel” ist.
134
Definition 14. Eine Markovkette auf (X, F) heisst irreduzibel, wenn eine Wahr-
scheinlichkeitsverteilung ⌫ auf (X, F) existiert, so dass für alle x 2 X und für alle
A 2 F mit ⌫(A) > 0
Px [[n 1 {Xn 2 A}] > 0
gilt.
Das bedeutet, egal wo die Kette beginnt, mit positiver Wahrscheinlichkeit “kommt
sie überall hin”. Ist eine Markovkette (X0 , X1 , ...) auf X irreduzibel mit stationärer
Verteilung ⇧, dann34 ist ⇧ die einzige invariante Verteilung, und für alle möglichen
Startverteilungen
gilt
P [Xn 2 A] ! ⇧(A), für n ! 1, A 2 F .
Diesen Umstand wollen wir für die Simulation unseres Parametervektors ✓ verwenden. Bietet die Markovkettentheorie Theoreme zum Auffinden der stationären Verteilung für gegebenen Übergangskern, stehen wir nun quasi vor der umgekehrten
Aufgabe: Für gegebene Verteilung ⇧ (eben gegeben durch die a posteriori-Dichte
von ✓), suchen wir einen irreduziblen Übergangskern P , so dass ⇧ gerade die stationäre Verteilung ist. Das ist schwierig. Darum führen wir hier eine Eigenschaft
von Verteilungen ein, die für unsere Frage günstiger zu charakterisieren ist und die
hinreichend für Invarianz ist: Reversibilität.
Definition 15. Eine Wahrscheinlichkeitsverteilung ⇧ auf (X, F) heisst reversibel
für einen Übergangskern P , wenn
⇧(dx) · P (x, dy) = ⇧(dy) · P (y, dx).
d
Das heisst, unter Startverteilung ⇧ ist (X0 , X1 ) =(X1 , X0 ).
Leicht zeigt man, dass aus reversibel stationär folgt: Sei also ⇧ reversibel und A 2 F.
34
Die Voraussetzungen sind noch etwas schärfer; unter anderem muss die sogenannte Aperiodizität der Kette gefordert werden. Weil wir hier auf einem im Allgemeinen überabzählbaren
Zustandsraum X arbeiten, ist das ein ziemlich kompliziertes Konzept, auf dessen Präsentation wir
hier verzichten. In jedem Detail sind die Voraussetzungen für die folgende Aussage besprochen in
Theorem 1 von Abschnitt 3 in Tierney [26]
135
Dann gilt
P⇧ [X1 2 A] =
=
Z
P (x, A)⇧(dx)
X
Z Z
P (x, dy)⇧(dx)
x2X y2A
=
Z Z
P (y, dx)⇧(dy)
x2X y2A
= P (y, X)⇧(A)
= ⇧(A).
Nun können wir uns auf die Suche machen nach einem Übergangskern P , der irreduzibel ist, der das gegebene ⇧ als reversible (und damit invariante) Verteilung hat und
gemäss dem man einfach simulieren kann. Das daraus resultierende Vorgehen nennt
man “Metropolis-Hastings-Algorithmus”. Nach einer Vorschlagsverteilung Q wählen
wir einen “Vorschlag” Y für den nächsten Zustand der Markovkette. Wir nehmen
an, dass Q und ⇧ Dichten q und ⇡ haben. Q sei so gewählt, dass die Bedingung
⇡(x) · q(x, y) = 0 , ⇡(y)q(y, x) = 0
erfüllt ist. Den Vorschlag Y akzeptieren wir mit Wahrscheinlichkeit
✓
⇡(Y )q(Y, x)
a(x, Y ) := min 1,
⇡(x)q(x, Y )
◆
.
Ansonsten bleiben wir, wo wir sind. Der Übergangsalgorythmus in Pseudocode:
Metropolis-Hastings-Algorithmus
Aktueller Zustand der Kette: x
1. Simuliere Y ⇠ Q(x, ·) und (unabhängig hiervon) U ⇠ U[0, 1].
⇣
⌘
)q(Y,x)
2. Falls U  min 1, ⇡(Y
, setze Xn+1 := Y
⇡(x)q(x,Y )
Ansonsten setze Xn+1 := Xn = x
136
Berechnen wir den Übergangskern P , der diesem Algorithmus dann entspricht:
P (x, A) = P[Xn+1 2 A|Xn = x]
= P[Xn+1 2 A, U  a(x, Y )|Xn = x] + P[Xn+1 2 A, U > a(x, Y )|Xn = x]
= P[Y 2 A, U  a(x, Y )|Xn = x] + P[Xn 2 A, U > a(x, Y )|Xn = x]
Z Z
=
1ua(x,y) q(x, y)dudy + 1A (x)P[U > a(x, Y )|Xn = x]
y2A u2[0,1]
=
Z
y2A
0
a(x, y)q(x, y)dy + 1A (x) · @1
Z
y2X
1
a(x, y)q(x, y)dy A
Ausgeschrieben ergibt sich für den Kern P
Z
A
✓
min 1,
⇡(y)q(y, x)
⇡(x)q(x, y)
◆
0
q(x, y)dy+1A (x)·@1
Z
X
✓
min 1,
⇡(y)q(y, x)
⇡(x)q(x, y)
◆
1
q(x, y)dy A .
Man kann durch Nachrechnen zeigen, dass ⇧ für diesen Kern P eine reversible
(und damit stationäre) Verteilung ist. Für die Wahl der Vorschlagsverteilung Q gibt
es natürlich unendlich viele Möglichkeiten. Meist wird Q irreduzibel gewählt, weil
das eine hinreichende Bedingung für die Irreduzibilität von P ist. Wir wählen das
sogenannte “Random Walk Metropolis”. Hier ist q(x, y)dy ⇠ N d (x, ⌃). Ausserdem
hängt von der Wahl von Q die Geschwindigkeit ab, mit der P[Xn 2 A] gegen ⇡(A)
konvergiert. Dies ist meist gegeben, wenn die Akzeptierungswahrscheinlichkeit nicht
zu klein ist, i.e. q(x, y)/q(y, x) sollte nicht zu klein werden. Betrachten wir den
Mechanismus anhand des Beispiels aus dem vorigen Abschnitt bei der Arbeit:
137
Beispiel:
Als “toy example” berechneten wir auf Seite 131 die a posteriori Dichte des
Parameters µ für das Modell von Logreturns mit konstanter, bekannter Volatilität 0.015. Wählen wir für die a-priori Normalverteilung eine Varianz von 0.012
und gehen wir von 100 Datenpunkten y1 , ..., y100 aus, dann erhalten wir als aposteriori Verteilung
µ|Y1 = y1 , ..., YT = yT ⇠ N
✓
100 · 0.012
0.012 · 0.0152
y,
0.015 + 100 · 0.012 100 · 0.012 0.0152
◆
.
Davon können wir natürlich per Knopfdruck zufällige Realisationen erzeugen.
Wir wollen die Situation jedoch als Demonstration zum MCMC verwenden und
mit dem vorgestellten Metropolis-Hastings-Algorithmus simulieren. Zunächst
aber aufgepasst, denn wir haben nun mit gleich dreierlei Normaldichten zu tun:
• Die a-priori Dichte gµ von µ : Diese spielt nun keine Rolle mehr.
• Die a-posteriori Dichte ⇡ von µ : Von dieser wollen wir simulieren. Mit den
vorliegenden Daten gilt
⇡µ (µ) / exp
⇢
1
(µ
2 · 0.02862
0.0007)2
• Die Dichte q der Vorschlagsverteilung des Random-Walk-Metropolis: Den
Faustregeln in der Literatur folgend, wählen wir die Varianz der Vorschlags-
verteilung so, dass in etwa 20 Prozent der Fälle der neu simulierte Wert
akzeptiert wird. Ganz konkret verwenden wir eine Varianz von 0.07.
Wir brauchen aber den Algorithmus erfreulicherweise nicht selber zu programmieren. Etwa mit dem mcmc-Paket des Programms R kann man das Schema
einfach ablaufen lassen - und dennoch bis in die letzte Nuance kontrollieren. In
Abbildung 36 kann der Leser eine Kettenrealisation betrachten.
138
-0.2
-0.5
-0.4
-0.3
mu_k
-0.1
0.0
MCMC: toy example
0
20
40
60
80
100
120
k
Abbildung 36: Simulation einer N (0.0007, 0.02862 )-Zufallsvariable via Markovketten-MonteCarlo. Die gestrichelte Linie ist der Erwartungswert der Variable, die gepunkteten ihr 5% bzw.
das 95%-Quantil. Der Anfangswert der Kette wurde absichtlich möglichst “falsch” gewählt, so dass
sich das “Burn in” schön beobachten lässt. Damit die Kette auch die Tails der Verteilung besucht,
müsste man sie länger laufen lassen.
Zwei Bemerkungen seien noch nachgetragen:
Erstens berücksichtigt der Übergangsalgorithmus im R-Programm den Support der
Dichte ⇡, von der simuliert werden soll. Das heisst, wenn wir etwa von einer BetaVerteilung auf [0,1] simulieren wollen, ist die Vorschlagsverteilung Q “truncated normal”, links bei 0, rechts bei 1 gestutzt. So ist die Bedingung von Seite 136 an die
Vorschlagsdichte q erfüllt.
Zweitens ist in hochdimensionalen Situationen wie mit unserem 10-dimensionalen
Parametervektor, von dem simuliert werden soll, oft das Problem, dass der Simulationsalgorithmus zu häufig verwirft. Darum gehen wir (und das R-Programm) etwas
verfeinert vor und modifizieren den simulierten Vektor ✓n := (✓1n , ..., ✓dn ) immer komponentenweise. ⇡ ist nun die “a posteriori”-Verteilung von ✓ im Lichte der Daten. Auf
Kosten der exakten Ausdrucksweise, aber zugunsten der Übersichtlichkeit führen wir
die etwas saloppe Schreibweise
n
n
⇡i (y) := ⇡(✓1n+1 , ..., ✓in+1
1 , y, ✓i+1 , ..., ✓d )
ein. ⇡i wertet also die Dichte ⇡ aus, wobei alle Komponenten bis auf die i-te beim
139
aktuellen Wert der Kette fixiert sind. Analog definieren wir qi In unserem Fall sieht
also der Übergangsalgorithmus wie folgt aus:
1. Für i = 1, ..., d:
– Simuliere Yi ⇠ Qi (✓1n , ·) und unabhängig davon Ui ⇠ U[0, 1]
⇣
⌘
⇡i (Yi )q1 (Y1 ,✓1n )
– Falls Ui  min 1, ⇡1 (✓n )qi (✓n ,Yi ) , setze ✓in+1 := Yi .
i
Ansonsten setze
✓in+1
i
:= ✓in .
2. Setze ✓n+1 := (✓1n+1 , ..., ✓dn+1 )
Das ist zugegebener Weise etwas unübersichtlich, aber es funktioniert!
4.7
A-posteriori-Verteilung der Finanzmarktparameter
Nun treffen wir die letzten Vorbereitungen zum Simulieren vom Vektor der Finanzmarktparameter: Erstens müssen wir für jeden Parameterkomponenten eine a-priori
Verteilung festlegen. Zweitens müssen wir die a posteriori Verteilung berechnen. Betrachten wir den Parametervektor von (FM) also als Zufallsvariable ✓ . Wir nehmen
an, dass die Komponenten des Parametervektors
µ1 ,
✓ = (µ
1 , p 1,2 , µ 2 ,
2 , p 2,1 , µ r ,
r , , %)
unabhängig sind. In der Wahl der Verteilungen folgen wir dem jeweils naheliegendsten Vorgehen. Wo möglich, verwenden wir Normalverteilungen für die a priori Dichten. Die Übergangswahrscheinlichkeiten der Regimes sollten natürlich auf [0, 1] beschränkt sein; wir modellieren sie mit Betaverteilungen. Alle Volatilitäten und auch
der Relaxationsparameter  des CIR-Modells sind zwingend positiv; wir modellieren
sie mit Gammaverteilungen. Die Erwartungswerte und Varianzen der a priori Verteilungen erhalten wir, indem wir von verschiedenen zweijahresweisen Zeiträumen
MLE-Schätzer produzieren (siehe Abbildung 37). Die Lage und die Streuung dieser
Daten verstehen wir als Abbild der Parameterunsicherheit. Von diesen 40 Vektoren
140
p12
-0.006
0.000
0 5
0.010
0.030
0.040
0.00
0.003
0.012
0.016
0.00 0.02 0.04 0.06 0.08
Frequency
4
0 5
2
Frequency
0
0.08
0.12
25
kappa_r
6
15
10
5
Frequency
0.008
sigma_r
0
0.04
10
0
0.004
mu_r
0.00
5
Frequency
8
4
Frequency
0.001
0.20
p21
0
Frequency
0 2 4 6 8
-0.001
0.10
15
sigma2
12
mu2
0.020
15
-0.012
15
Frequency
8
4
0
5
10
Frequency
15
12
25
sigma1
0
Frequency
mu1
0.000
0.004
0.008
0.00
0.10
0.20
Abbildung 37: 40 Mal wurde hier ein MLE-Schätzer für ✓ berechnet - jeweils ausgehend von einem
zufällig ausgewählten Zweijahressatz von täglichen Daten (aus 1985-2011). Aus den Verteilungen
dieser Werte errechnen wir die Parameter für die a priori Verteilung von ✓ . Aus Platzgründen
lassen wir den Korrelationsparameter hier weg. Er ist quasi immer negativ und symmetrisch um
0.3 herum verteilt.
ausgehend kalibrieren wir die entsprechenden a priori Verteilungen. Zum Beispiel betrachten wir von allen 40 MLE-Schätzern die erste Komponente und deuten sie als
40 Realisationen von µ 1 . Den Durchschnitt und die empirische Standardabweichung
der 40 Werte verwenden wir als Normalparameter der a-priori Normalverteilung von
µ 1 . So erhalten wir folgende a-priori Verteilungen:
141
µ 1 ⇠ N ( 0.0013, 0.00142 )
1
⇠ Gamma35 (9, 395)
p 1,2 ⇠ Beta(2.1, 42.8)
µ 2 ⇠ N (0.0009, 0.00072 )
2
⇠ Gamma(15.8, 1581.4)
p 2,1 ⇠ Beta(2.7, 161.3)
µ r ⇠ N 0.038, 0.0102
r
⇠ Gamma(1.1, 456.1)
 ⇠ Gamma(0.5, 314.2)
% ⇠ N ( 0.231, 0.1092 )
Das Produkt der entsprechenden Dichten bezeichnen wir mit g. g ist also die a priori
Dichte von ✓ . Weiter sei h✓ die Dichte von (Y1 , r 1 , ..., YTd , r Td ) gegeben ✓ = ✓. Und
so ergibt sich als Dichte ⇡ der a-posteriori Verteilung des Parametervektors
µ1 ,
✓ = (µ
1 , p 1,2 , µ 2 ,
2 , p 2,1 , µ r ,
r , , %)
⇡(✓) := g(✓|Y1 = y1 , r 1 = r1 , ...., YTd = yTd , r Td = rTd )
/ h✓ (y1 , r1 , ..., yTd , rR ) · g(✓)
10
Y
= L(✓) ·
fi (✓i ),
k=1
wobei L die Likelihoodfunktion im Lichte der Daten (y1 , r1 , ..., yTd , rTd ) bezeichne
und fi die oben eingeführten Randdichten. Als Daten (y1 , r1 ), ..., (yTd , rTd ) verwenden wir hier diejenigen des letzten Jahres. So werden wir ein Stück weit dem Um35
Die Parametrisierung einer Gammaverteilung ist in der Literatur nicht ganz einheitlich. Wir
meinen: Die Dichte einer Gamma(k, ) mit Parametern k, > 0 ist
(
0,
x<0
f (x) =
k
(k 1)
x
exp(
x),
x 0.
(k)
142
stand gerecht, dass die Daten des letzten Jahres wohl eine bessere Annäherung an
die Zukunft darstellen als die Daten von vor 20 Jahren. Als Startwert der Markovkette wählen wir den “Durchschnitt” der berechneten MLE-Schätzer, also etwa den
a priori Erwartungswert des Parametervektors. Für die Vorschlagsverteilung Q der
Markovkette wählen wir wie weiter oben beschrieben eine (gestutzte, siehe Seite 139)
Normalverteilung mit dem Erwartungswert immer gerade am aktuellen Zustand der
Kette. Als Kovarianz für die Vorschlagsverteilung Q wählen wir gerade die empirische Kovarianz der berechneten MLE-Schätzer von Abbildung 37. So sind erstens
die Sprünge der Vorschlagsverteilung in einer angepassten Grössenordnung und ausserdem imitieren wir so immerhin ein bisschen die offensichtlichen Abhängigkeiten
zwischen den Komponenten des Parametervektors (ist zum Beispiel µ1 negativ und
besonders klein, dann ist µ2 besonders gross).
Mittels dem beschriebenen MCMC können wir nun jedenfalls von obiger a-posteriori
Dichte simulieren und erhalten so für jede neue (FM)-Simulation einen neuen Parametervektor. In Abbildung 38 kann man eine erzeugte Version dieser Markovkette
komponentenweise verfolgen.
Die Schätzung der impliziten Volatilität
Unser Finanzmarkmodell (FM) modelliert die Volatilität stochastisch mittels einer
Markovkette, die zufällig zwischen zwei Volatilitätsregimes abwechselt. Die Werte
dieser Markovkette, das heisst die Zustände der Volatilität sind für den Marktteilnehmer aber nicht beobachtbar. Er muss also entweder bei den anderen Händlern
“abschauen”, indem er die von deren Preisen implizierten Volatilitätsannahmen berechnet, oder er verwendet Schätzungen der historischen Volatilität. Das wird auch
unser Ansatz sein. Zur Schätzung der Varianz verwenden wir einen gewichteten
Durchschnitt der vergangenen quadrierten Logreturns, bei dem die Gewichte in die
Vergangenheit exponentiell abnehmen. Wir beginnen jeweils mit
0
:= 0.25, der
durchschnittlichen Volatilität der letzten sieben DAX-Jahre. Für alle weiteren Tage
k setzen wir rekursiv
ˆk2 := ˆk2
Ist
1
+ (1
)Yk2 .
gleich 1, haben wir einen konstanten Prozess, ist
= 0, dann haben wir einfach
den Prozess der quadrierten Logreturns. Je grösser , umso stärker gewichten wir
143
20
40
60
80
0.03
0.01
p12_k
0
20
40
60
80
100
0
20
40
60
80
MCMC: mu2
MCMC: sigma2
MCMC: p21
60
80
100
0.010
0.0100
40
p21_k
sigma2_k
20
0.014
k
0.0108
k
0.00102
k
100
0
20
40
60
80
100
0
20
40
60
80
k
k
k
MCMC: mu_r
MCMC: sigma_r
MCMC: kappa_r
100
0
20
40
60
k
80
100
0.000
0.015
kappa_k
0.0028
0.0022
sigma_r_k
0.032
0.029
mu_r_k
0.035
0
0.0240
100
0.00098
mu2_k
0
MCMC: p12
0.0220
sigma1_k
-0.0026
MCMC: sigma1
-0.0032
mu1_k
MCMC: mu1
0
20
40
60
k
80
100
0
20
40
60
80
100
k
Abbildung 38: Komponentenweise Darstellung der ersten 100 Zustände der Markovkette, mit
der wir von der a-posteriori Dichte des Parameters ✓ simulieren. Einige Komponenten scheinen das
Burn-In schon hinter sich zu haben, einige brauchen sicher noch einige Zeit.
144
0.3
0.02
0.5
Geschätzte Volatilität
0.1
0.00
Gewicht
lambda=0.96
50
100
150
200
250
0
1000
Tage
lambda=0.98
Geschätzte Volatilität
0.5
1500
0.3
0.010
0.1
0.000
Gewicht
500
Tage
0.020
0
50
100
150
200
250
0
500
1000
Tage
Tage
lambda=0.995
Geschätzte Volatilität
1500
0.25
0.0035
0.15
0.0015
Gewicht
0.35
0
0
50
100
150
200
250
0
Tage
500
1000
1500
Tage
Abbildung 39: Auf der linken Seite sehen wir die Gewichte des gleitenden Durchschnitts der
Exponential Weighted Average Methode zur Volatitlitätsschätzung für den Tag 252 mit dreierlei
Decay-Parametern . In der rechten Spalte finden sich die entsprechende Volatilitätsschätzung
bezüglich derselben historischen Daten über sieben Jahre. Die Kurven werden mit wachsendem
immer glatter. Man beachte auch die sich ändernde Skala.
die Vergangenheit, deren Einfluss aber in jedem Fall exponentiell schwindet. Das
Gewicht vom heutigen Tag 0 für die Volatilitätsschätzung am Tag n ist nämlich
gerade
n
= exp (n log( )). Deshalb nennt man die Methode Exponential Weighted
Moving Average (EWMA). In Abbildung 39 kann den Einfluss von
auf die kon-
kreten Gewichte und den Volatilitätsverlauf betrachten. Wir wählen
= 0.99. So ist
der Volatilitätsverlauf nicht allzu wild, aber immer noch sehr dynamisch. Berechnet
man den EWMA-Schätzer bezüglich Datenwerten, die im RSLN-Modell entstanden
sind, ergibt sich ein etwas anderes Bild, als dasjenige, das bezüglich historischer
Daten entsteht: Wie eine aufgepeitschte See sieht der geschätzte Volatilitätsverlauf
aus. Die Wellenkämme sind genau unsere einsetzenden hohen Volatilitätsregimes. In
“Wirklichkeit” ändern sich die impliziten Volatilitäten allmählicher.
Nun sind wir bereit um alle drei Parameter unseres Finanzmarktes zu simulieren.
Wir lassen die Markovkette laufen, wählen den tausendsten simulierten Vektor und
verwenden ihn als Parametervektor für unser Finanzmarktmodell (FM). Davon simulieren wir einen Indexpfad und den korrellierten Zinssatzpfad. Vom Indexpfad
schätzen wir wie oben beschrieben die Volatitilität. In Abbildung 10 finden sich
145
5000
15000
Index
0
500
1000
1500
1000
1500
Tage
0.03
0.05
0.07
Zinssatz
0
500
Tage
0.15
0.25
0.35
Geschätzte Volatilität
0
500
1000
1500
Tage
Abbildung 40: Fünf Realisationen des Finanzmarktmodells (FM) samt der geschätzten Volatilität. Zun̈ächst wurde wir beschrieben via einer Markovkette von der a posteriori Verteilung des
Parametervektors simuliert. Die Kette liessen wir 2000 Schritte machen und wählten dann für jede
der fünf abgebildeten beispielhaften (FM)-Realisationen zufällig einen Vektor aus den letzten 1000
Zuständen der Kette.
einige Realisationen.
4.8
Risikozuschläge
Im zweiten Kapitel berechneten wir die Werte der verschiedenen EIA-Verträge unter
den ziemlich optimistischen BSM-Annahmen, die uns zwar geschlossene Preisformeln
erlaubten, die aber zugleich so klar unrealistisch sind, dass wir sie nur unter dem
Vorbehalt verwendeten, die entstehenden Ungenauigkeiten in Form von Risikozuschlägen später zu berücksichtigen. Nun - endlich - sind wir gerüstet zum Bestimmen dieser Risikozuschläge. Für jeden Vertrag lassen wir unser Finanzmarktmodell
(FM) viele Male laufen, jedesmal mit einem neu simulierten Parametervektor. Für
den Risikozuschlag gibt es verschiedene Möglichkeiten. Wir wählen den sogenannten
“Expected Shortfall” - eine Weiterentwicklung eines der verbreitetsten Risikomasse,
dem sogenannten “Value at Risk”.
146
Definition 16. Für ↵ 2 (0, 1) ist der Value-at-Risk (VaR↵ ) eines zukünftigen
Verlusts L
VaR↵ := inf{q 2 R : P[L > q]  1
↵}.
Es handelt sich beim VaR↵ also einfach um das ↵-Quantil der Verteilung von L. Das
ist ein naheliegendes und entsprechend weitverbreitetes Risikomass. Die Verwendung
von VaR birgt selber aber wiederum Risiken. Man kann zeigen, dass es im Allgemeinen nicht subadditiv ist, und - was sofort einleuchtet - wie sich die Verteilung von
L “rechts von VaR↵ ” verhält, wird von dieser Kennzahl “ignoriert”. Deshalb werden
wir für unsere Risikozuschläge stattdessen den sogenannten “Expected Shortfall”
verwenden:
Definition 17. Für ↵ 2 (0, 1) ist der Expected Shortfall (ES↵ ) eines zukünftigen
Verlusts L mit E |L| < 1
ES↵ (L) :=
1
1
↵
Z1
VaRu (L)du.
↵
Hat L eine Dichte, findet man folgende, intuitivere Darstellung des Expected Shortfalls, nämlich
ES↵ (L) = E[L|L > VaR↵ (L)].
Ganz offenbar bildet diese Kennzahl auch das Verhalten der Verteilung “ganz rechts”
ab. Besonders gut anschaulich machen kann man das mit Grafiken wie in Abbildung 41. Zu dieser Umformung und zum Vergleich zwischen den beiden vorgestellten
Risikomassen siehe [7] .
Einen naheliegenden36 Schätzer für den Expected Shortfall unseres Hedgeverlustes
erhalten wir folgendermassen: Am Ende der Laufzeit lösen wir das Hedgeportfolio
auf und bezahlen hiervon den Überschuss von von Indexierungsmethode RT auf Lifeof-Contract-Garantie G, also den PEMG. Haben wir zu wenig Geld dafür, schreiben
36
Zur mathematischen Rechtfertigung dieses “naheliegenden” Schätzers findet sich etwa in [7]
folgendes Lemma, das eine Art Gesetz der grossen Zahlen für den Expected Shortfall darstellt:
Für eine Folge (Li )i2N von unabhängigen und gleichverteilten Zufallsvariablen gilt fast sicher
lim
n!1
P[n(1
i=1
[n(1
↵)]
Li,n
= ES↵ ,
↵)]
wo L1,n L2,n ··· Ln,n die Ordnungsstatistiken von L1 , ..., Ln bezeichnen. [n(1 ↵)] bezeichnet
die grösste natürliche Zahl kleiner gleich n(1 ↵).
147
0.00
0.05
0.10
0.15
0.20
0.25
Vergleich von Expected Shortfall und VaR
2.0
2.5
3.0
3.5
4.0
4.5
5.0
Abbildung 41: Hier sieht man gestrichelt die Dichte einer Normalverteilung und gepunktet die
Dichte einer Paretoverteilung. Die Parameter wurden so gewählt, dass die jeweiligen 95%-Quantile,
d.h. VaR0.95 , gerade gleich sind (durchgezogene Linie). Die jeweiligen Expected Shortfalls unterscheiden sich aber stark. In diesem Sinn “ignoriert” das Risikomass VaR das Verhalten der Verteilung in den Tails.
wir einen Verlust. Unsere Verlustvariable für den Hedge ist demnach
LHedge := (RT
G)+
HP .
HP steht für “Hedgeportfolio”. In dieser üblichen Darstellung sind Verluste positiv
und Gewinne negativ. Nun simulieren wir tausendmal von dieser Verlustvariable
und berechnen das 95%-Quantil dieser Realisationen. Weiter betrachten wir einzig
die Werte, die dieses Quantil übertreffen. Den Durchschnitt dieser Werte verwenden wir als Schätzer für den Expected Shortfall. Ungefähr in einem von zwanzig
Fällen schreiben wir einen Verlust in dieser Grössenordnung. Kein Grund, diesen
Zuschlag wirklich j e d e m Vertrag zu verrechnen. Nötig ist einfach die Existenz
eines Kapitalpolsters in der entsprechenden Höhe: Dieses (Risiko-)Kapital kommt
von Investoren, die sich auf das Risiko einlassen, in etwa einem von zwanzig Fällen
einen Grossteil ihres Kapital zu verlieren. Dafür bekommen sie “im Normalfall” eine
satte Rendite von, sagen wir, 25%. In unsere Bewertung fliesst also nicht der volle
148
geschätzte Expected Shortfall ein, sondern nur ein Viertel.
KK := 0.25 · e
r7
ˆ 0.95 [L]
ES
nennen wir im weiteren also “Kapitalkosten” oder auch “Risikozuschlag”.
4.9
Bewertung der EIAs: Die Break-Even Partizipationsrate
Woher kommt nun das Geld zur Finanzierung von Indexierungsmethode (d.h. Hedge⇥
⇤
portfolio) e rT EQ (R G)+ , LOC-Garantie G und Kapitalkosten KK für das Hedgingrisiko? Wir bekommen als Versicherer ja einfach die Einmalprämie (P = 1) des
Kunden und können hier nicht nachträglich noch Geld einfordern. Wir nehmen an,
der garantiert verzinste Prämienanteil
= 95% und der garantierte diskrete jähr-
liche Zins der LOC-Garantie r = 3% seien fix vorgegeben (etwa vom Marketing
oder von der Konkurrenz). Wie auf Seite 19 beschrieben, legen wir den grössten Teil
des Geldes fix risikofrei an. Von diesem Geld bezahlen wir am Ende der Laufzeit
die LOC-Garantie G = P 1.037 . Der Clou ist aber, dass wir für eine siebenjährige
risikofreie Anlage einen deutlich höheren Zins als nur die von uns garantierten 3%
erhalten. Sagen wir 6%37 . Das hiesse aber: Am Ende der Laufzeit hätten wir “zu
viel” auf dem “Sparkonto”. Also müssen wir am Anfang der Laufzeit nicht die vollen
= 95% fest anlegen, sondern nur
˜ :=
✓
1.03
1.06
◆7
·
= 77.70%
Wir nehmen also an, dass der Versicherer zum Finanzieren seines Hedgingprogramms
und seiner Risiken nicht nur über (1
)P = 0.05·P verfügt, sondern über (1 ˜)P =
0.223 · P . Das ist ein grosser Unterschied. Man beachte, dass dieser Effekt desto
grösser wird, umso länger die Laufzeit ist.
↵
Für eine Indexierungsmethode REIA
mit Laufzeit T = 7 sollte sich die Einmalprämie
37
Ein Wort zu den Zinssätzen: Wir rechnen nun mit dreierlei Zinsen: Erstens mit r, dem variablen
Zinssatz, mit dem wir im Modell die Short-Rate approximieren. Zweitens mit rg = 3% p. a., dem
garantierten Return. Drittens mit 6% p. a., dem Zins, den wir für eine langfristige Anlage erhalten.
Diese 6% interpretieren wir als exklusive Festgeldanlage für uns - quasi ausserhalb des Modells.
Genauso, wie wir nun also nicht im ganzen Modell r ⌘ 0.06 setzen, genauso diskontieren wir den
Wert der Hedgeinstrumente, der Indexierungsmethoden und des Hedgeverlustes wie gehabt mit
e r7 und nicht mit dem “exogenen” (1 + 0.06) 7 .
149
P = 1 Euro also zusammensetzen aus dem festanzulegenden Anteil
˜ := 0.78 Euro
dem approximierten38 fairen Preis für die Indexierungsmethode samt LOC (mit r :=
0.04,
:= 0.25)
e
r7
↵
EQ [REIA
G]
und den Kapitalkosten in Form eines Anteils der diskontierten Expected Shortfall Schätzung des Hedgingverlustes
KK = 0.25e
r7
ˆ P95% [L↵ ]
ES
Zur Justierung der Produkte verwenden wir die Partizipationsrate ↵. Wir suchen
also ein ↵⇤ , so dass
˜+e
rT
⇥ ↵⇤
EQ REIA
⇤
G + 0.25e
rT
⇥ ⇤⇤
ESP95% L↵ ⇡ 1.
↵⇤ nennen wir die “Break Even”-Partizipationsrate. Diese Gleichung lässt sich nicht
nach ↵⇤ auflösen. Wir folgen deshalb nun dem Vorgehen in der Praxis und versuchen durch wiederholtes vielfaches Simulieren diejenige Partizipationsrate ↵⇤ zu
finden, so dass wir den Break Even erreichen. In der folgenden Tabelle findet sich
der Gesamtwert einer PTP-EIA für verschiedene Partizipationsraten ↵, sowie die
geschätzte Break-Even-Partizipationsrate und der in der Wahl der Break-EvenPartizipationsrate enthaltene Risikozuschlag (KK).
PTP-EIA
↵ = 0.6
0.935
↵ = 0.7
↵ = 0.8
↵ = 0.9
↵⇤ = 0.750
KK
0.970
1.006
1.041
ca.1
0.006
Wir sehen: Mit steigender Partizipationsrate steigt auch der Gesamtwert der PTPEIA. Weiter ist die Break-Even-Partizipationsrate bei 74.3%: Steigt der Index beispielsweise während sieben Jahren von 5’000 auf 7’500 Punkte, erhält der Versi38
↵
↵
Approximiert wegen der Bewertung von REIA
G anstelle von (REIA
G)+ . Diese systematische
Unterbewertung wird mit dem Risikozuschlag wieder ausgeglichen.
150
cherungsnehmer einen Return von 74.3% · 50% = 37.15%. Das entspricht einem
Jahreszins von etwa 4.5%.
Die Kapitalkosten von ungefähr einem Hundertstel scheinen fast schon vernachlässigbar. Das ist falsch. Man muss diesen Wert nämlich in Bezug zum Preis für das
Hedgeportfolio sehen (⇡ 0.20), nicht in Bezug auf die Gesamtprämie P = 1. Die
Kapitalkosten entsprechen im PTP-Fall also ungefähr 5% des anfänglichen Hedgeportfoliowertes.
Sowohl bei den Ratchet EIAs als auch bei der diskreten HWM Indexierung richten wir ein besonderes Augenmerk auf die Anzahl Ratchet- bzw. Monitordaten N .
Wir haben schon im zweiten Kapitel gesehen welch grossen Einfluss die Wahl von
N auf die Bewertung der EIAs hat. Entsprechend werden wir auch starke Unterschiede bei den jeweiligen Break-Even-Partizipationsraten erwarten. Wegen unserer
tagesweisen Betrachtung sowie wegen der Notwendigkeit, dass diese Daten jeweils
auf Hedgingdaten fallen müssen, gibt es für unser N allerdings nur eingeschränkt
viele Möglichkeiten. Im betrachteten 7-Jahres Fall muss N also 7 · 252 = 22 · 32 · 72
teilen (damit die Monitordaten auf ganze Tage fallen) und der Abstand zwischen
den Monitordaten, 7 · 252/N , sollte durch 7 teilbar sein (damit die Monitordaten
immer auf Hedgingdaten fallen). Diese beiden Bedingungen sind genau dann erfüllt,
wenn N die Zahl 22 · 32 · 7 = 252 teilt. Das führt zu
N 2 {2, 3, 4, 6, 7, 9, 12, 14, 18, 21, 27, 28, ...}
- wohl genug, um einen Eindruck von den Abhängigkeiten zu erhalten. Wir betrachten die Fälle N = 2, 4, 7, 14, 21, 4239 . N = 7 entspricht einem jährlichen Ratcheting
bzw. Monitoring.
39
Zur Erinnerung: Unsere Jahre haben 252 Tage und besteht aus zwölf Monaten. Ein Monat hat
21 Tage und besteht aus drei Wochen. Eine Woche hat 7 Tage.
151
CR-EIAs
↵ = 0.2
↵ = 0.4
↵ = 0.6
↵ = 0.8
↵⇤ (N )
KK
N =2
0.738
0.830
0.928
1.030
0.675
0.034
N =4
0.762
0.885
1.022
1.172
0.531
0.027
N = 7 (jährl.)
0.790
0.952
1.139
1.353
0.439
0.014
N = 14 (halbjährl.)
0.842
1.080
1.371
1.728
0.333
0.008
N = 21
0.885
1.188
1.579
2.081
0.276
0.009
N = 42
0.988
1.474
2.167
3.154
0.202
0.009
Die Break-Even-Partizipationsraten fallen wie erwartet in N . Etwas unerwarteter
kommt, dass auch die Kapitalkosten in N zu fallen scheinen. Im letzten Kapitel,
wenn wir den Hedge unter dem Stationary Bootstrap testen, werden wir dieselbe
Beobachtung machen und eine Interpretation vorschlagen.
SR-EIAs
↵ = 0.2
↵ = 0.4
↵ = 0.6
↵ = 0.8
↵⇤ (N )
KK
N =2
0.735
0.821
0.906
0.992
0.685
0.034
N =4
0.756
0.862
0.968
1.074
0.610
0.027
N = 7 (jährl.)
0.780
0.910
1.041
1.171
0.518
0.013
N = 14 (halbjährl.)
0.823
0.996
1.168
1.341
0.399
0.006
N = 21
0.856
1.062
1.268
1.474
0.335
0.005
N = 42
0.931
1.212
1.493
1.774
0.246
0.005
Die Werte der SR-EIAs sind durchweg kleiner als diejenigen der CR-EIAs. Das macht
Sinn, denn wir erinnern uns: Der Compound Ratchet berücksichtigt Zinseszinseffekt,
der Simple Ratchet nicht. Das macht sich auch in den entsprechend höheren Partizipationsraten bemerkbar.
152
HWM-EIAs
↵ = 0.2
↵ = 0.4
↵ = 0.6
↵ = 0.8
↵⇤ (N )
KK
N =2
0.735
0.821
0.907
0.992
0.656
0.070
N =4
0.747
0.844
0.941
1.038
0.598
0.059
N = 7 (jährl.)
0.755
0.861
0.966
1.072
0.568
0.051
N = 14 (halbjährl.)
0.764
0.878
0.992
1.106
0.536
0.045
N = 21
0.768
0.886
1.005
1.123
0.525
0.040
N = 42
0.774
0.898
1.022
1.146
0.508
0.034
N = 1 (“kontinuierlich”)
0.790
0.930
1.070
1.210
0.462
0.026
Auch hier können wir wieder das Fallen sowohl der Break-Even-Partizipationsraten
als auch der Kapitalkosten in N beobachten. Der Effekt setzt sich bis in den kontinuierlichen Fall fort. Allerdings sind die Partizipationsraten deutlich höher als in
den Ratchet-Fällen - durchaus ein Verkaufsargument. Die Break Even Partizipationsrate von 0.474 für N = 1, kann man als untere Schranke für die diskreten Fälle
betrachten.
Bei allen betrachteten Produkten resultieren bei unseren Berechnungen im Vergleich
zur Praxis eher tiefe Partizipationsraten. Das hat verschiedene Gründe: Erstens gibt
es in der Praxis fast durchgängig Caps, also Gewinnschranken auf die Indexierungsmethode. Wir haben auf diese Verkomplizierung verzichtet. Zweitens kann der Versicherer das Risiko “bestandsweise” betrachten. Durch den Diversifikationseffekt fällt
der Risikozuschlag geringer aus. Drittens wählten wir mit 0.25 eine eher hohe anfängliche Volatilitätsannahme. Viertens entstammen diese höheren Partizipationsraten
zum Teil der Praxis vor dem Hintergrund des Hochzinsumfelds vergangener Zeiten:
Dann konnte man leicht einen höheren Zinsspread als die von uns verwendeten 3%
erzielen. Und mit einem höherem Zinsspread könnten wir unser ˜ senken, hätten so
mehr Geld zur Finanzierung der Option bzw. des Hedgingprogramms zur Verfügung
und würden entsprechend höhere Partizipationsraten anbieten.
Wählen wir nun also für jede Indexierungsmethode und jedes N die entsprechende
Break Even Partizipationsrate, dann haben wir einige Produkte, die so ausgestaltet
sein sollten, dass der Versicherer durch das bereigestellte Risikokapital mit grosser
153
Sicherheit vor Verlusten gefeit ist. Ob die Produkte halten, was sie versprechen,
wollen wir in einem letzten Kapitel mit einem Stresstest überprüfen. Denn auch der
RSLN-Ansatz, auf dem unser Finanzmarktmodell beruht, ist natürlich nicht restlos
realistisch.
4.10
Bemerkungen zum RSLN-Modell
Wir haben es gesehen: Das RSLN-Modell ist gewiss realitätsnäher als das einfache LN-Modell. Es erzeugt in Simulationen Eigenschaften, die wir bei tatsächlichen
Indexzeitreihen beobachten: Korrelation der benachbarten absoluten täglichen Logreturns und Häufung von extremen Werten. Und gerade in starken Änderungen
liegen die Gefahren für den Hedgealgorithmus. Denn umso schlechter stimmen die
linearen - beim gamma-Hedge quadratischen - Annäherungen der Sensitivitäten.
Aber dies darf nicht darüberhinweg täuschen, dass die “Tails” der Return-Verteilung
immer noch vergleichsweise harmlos sind. Um mit Benoît Mandelbrots Vokabular
zu sprechen: Indem wir immer noch an der Normalverteilung festhalten, bleiben wir
zugleich immer noch in der Domäne des “milden Zufalls” und sind noch weit entfernt
vom (realistischeren) “wilden Zufall”. Die Tagesverluste in den mit RSLN erzeugten
künstlichen Daten sind quasi beschränkt.
Eine von Mandelbrots Hauptbotschaften war zeitlebens, man müsse FinanzmarktLogreturns deshalb mit “Power-Tails” modellieren. In den letzten Jahrzehnten wurden viele verschiedene Wege beschritten, um auch in dieser Hinsicht realistischere
Modelle zu erhalten (ARMA, GARCH, ...). Wirklich durchgesetzt hat sich kein bestimmtes. Das Pricing in der Industrie (und das Hedging sowieso) geht fast immer
vom BSM-Modell aus. Die Gründe hierfür sind wohl vielfältiger Natur. Es ist dem
Menschen eben eigen, etwas, das funktioniert und mit dem er gelernt hat umzugehen, nicht ohne weiteres abzulegen. Dann der Herdentrieb: “Alle anderen machen es
auch so!” In der Tat, falls etwas schiefgeht, steht ein Händler wohl besser da, wenn er
nicht mit einem exotischen Modell arbeitet, das nur Mathematiker verstehen, sondern mit einem Modell, das jeder kennt und benutzt. Ein rein mathematischer Grund
könnte sein, dass man, je genauer man sich um die Tails bemüht, desto ungenauer
das Zentrum der Verteilung modelliert. Etwas heikler ist die wohl auch verbreitete
Betrachtungsweise durch das massenweise Anwenden des falschen Modells würden
154
dessen Ungenauigkeiten irgendwie “diversifiziert”.
In dieser Arbeit soll jedenfalls ein anderer, recht naheliegender Weg fort von der Normalverteilung führen, dessen Pfade dennoch noch nicht sehr ausgetreten sind, der
sich aber als durchaus kraftvoll und realistisch erweist und der in mancher Hinsicht
den anderen vorgestellten Modellen überlegen ist: Das Simulieren von historischen
Daten.
155
5
Stresstest
Abschliessend wollen wir die in den letzten Kapiteln vorgeschlagenen Produkte einem Stresstest unter “noch realistischeren” Bedingungen als unser Finanzmarktmodell (FM) (siehe Seite 114) unterziehen und so - letztlich Ziel der Arbeit - die
Abhängigkeit des Risikos von der Produktausgestaltung klären. Vorab aber ein Plädoyer für das Simulieren mittels historischer Daten:
Heutzutage ist es sehr einfach, sich ein Bild von der Verbreitung von Ideen zu machen
- einige Mausklicks genügen. Und auf diese Weise erkennt man eben auch schnell,
wie wenig Beachtung die völlig naheliegende Idee des Bootstrappens von historischen
Returndaten findet. In der gängigen Literatur zur Simulation von Finanzzeitreihen
werden die kompliziertesten Modelle und Kalibrierungsweisen vorgestellt und getestet; das zufällige Verwenden historischer Daten ist jeweils höchstens eine Randbemerkung wert. Vielleicht ist das Vorgehen zu einfach? Beim Experimentieren mit
dieser Mauerblümchen-Methode erkennt man jedenfalls nach wenigen Versuchen, wie
“realistisch” die Ergebnisse sind (graphisch, Autokorrelationsfunktion, VolatilitätsClustering, Extremwerte, etc.). Schon rein intuitiv scheint dieses Vorgehen doch
naheliegender zu sein als alles andere: Beim üblichen Vorgehen mit Modellwahl und
Kalibration steckt man Tausende von wertvollen Einzeldaten in einen Topf, kocht
sie auf eine Handvoll Parameter ein und würzt mit diesen dann ein Modell, das zunächst einmal herzlich wenig mit den Daten zu tun hat. Und dann ist man bereit zu
glauben, Simulationen oder Bewertungen, denen dieses Modell zugrunde liegt, hätten irgendetwas mit der Realität zu tun! Das ist überspitzt formuliert, und es gibt
natürlich Gründe (etwa Grenzwertsätze) für die Plausibilität von Modellen, aber ein
Marsmensch, dem das eine wie das andere neu wäre, hätte wohl mehr Verständnis
für das Verwenden von historischen Daten. Insofern ist die faktische Bedeutungslosigkeit dieser Methode in Lehre und Forschung doch seltsam. Vielleicht zu ist sie
einfach zu übersichtlich und wissenschaftlich zu wenig fruchtbar? In der Praxis jedenfalls ist das Verwenden von historischen Daten weiter verbreitet - etwa bei den
VaR-Modellen der Banken. Hier stösst das Konzept dann an Grenzen, wenn Daten
fehlen (etwa bei neuen Derivaten ohne Erfahrungswerte) oder wenn es zu Strukturbrüchen kommt (etwa bei Volatilitätssprüngen).
156
Die Frage nach dem “richtigen” Simulieren stellt sich natürlich in allen Wissenschaften; die Besonderheit, die in unserem Fall das Bootstrapping so kraftvoll macht, ist,
dass wir - zumindest bei Indizes - so ungeheuer viele Daten haben. Abertausende!
5.1
Stationary Bootstrap
Wir gehen von der plausiblen Annahme aus, dass die täglichen Logreturns zwar
nicht unabhängig, aber doch stationär verteilt sind. Das grundsätzliche Vorgehen ist
denkbar einfach: Wir haben also den Preis bzw. den Indexstand s0 zum Zeitpunkt t =
0 und ausserdem die Daten von n täglichen log-returns (Y1 , ..., Yn ). Hiervon wollen
wir folgendermassen einen Vektor (Y1⇤ , ..., Yn⇤⇤ ) konstruieren: Aus Indizes {1, 2, ..., n}
wählen wir zufällig ein I1 ⇠ U{1, 2, ..., n} und erhalten damit als ersten simulierten
Logreturn Y1⇤ := YI1 . Mit (relativ grosser) Wahrscheinlichkeit 1
p setzen wir dann
I2 := I1 +1. Ansonsten wählen wir wieder rein zufällig einen Wert I2 ⇠ U{1, 2, ..., n}.
Wir setzen wiederum Y2⇤ := YI2 . Das machen wir insgesamt n⇤ Mal. Hier das genaue
Vorgehen in Pseudocode:
SIMULIERE I1 ⇠ U{1, 2, ..., N }
FOR(i in 2 : N ⇤ )
SIMULIERE U ⇠ U[0, 1]
WENN(U  1
p) Ii := Ii
1
+ 140
SONST SIMULIEREIi ⇠ U{1, 2, ..., N }
SETZE Yi⇤ := YII
Mit diesem Vorgehen erhalten wir erstens überhaupt extreme Werte der täglichen
Vernänderungen von über 10%, sowie zweitens auch ihre typische Häufung - Symptom des Volatility-Clusterings (siehe Abbildung 42).
Wir wählen also ganze Daten-Blöcke aus, deren zufällige Länge geometrisch verteilt
ist. Die mittlere Blocklänge ist demnach 1/p. So fangen wir fast genau die Abhängigkeitsstruktur, die wir in der Datenzeitreihe beobachten (zum Beispiel via der
Autokorrelationsfunktion der quadrierten Werte), ein.
40
Falls Ii
1
= N , setzen wir Ii := 1
157
0.05
-0.05
0
500
1000
1500
1000
1500
1000
1500
-0.05
0.05
Tage
0
500
-0.05
0.05
Tage
0
500
Tage
Abbildung 42: Drei Simulationen täglicher Logreturns mit der Methode des Stationary Bootstraps über sieben Jahre. Für den Parameter p wurde der Wert 0.01 gewählt. Schon bei einem
oberflächlichen Vergleichen des oberen und des mittleren Beispiels kann man erkennen, dass hier
mindestens ein Block ziemlich ähnlich sein muss.
In der Praxis durchaus verbreitet ist das historische Backtesting: Man probiert Produkte und ihre beabsichtigte Absicherung anhand vergangener Daten aus. Das ist
durchaus eine einfache, gute Methode um schnell ein Gefühl für Grössenordnungen
und Abhängigkeiten zu bekommen, aber sie ist wenig geeignet für systematische
Untersuchungen - etwa für die Berechnung von Risikomassen. Den Stationary Bootstrap kann man als Verallgemeinerung dieser Methode verstehen. In den 1980er
Jahren schlug Künsch die Verwendung von zufälligen Datenblöcken mit fixer Länge
vor [18]. Einige Jahre später schlugen Politis und Romano als Weiterentwicklung
geometrisch-verteilte Blocklängen vor [21]. Diese variablen Blocklängen haben zwei
Vorteile gegenüber den fixen: Erstens sind die Resultate damit natürlich auch vielfältiger. Zweitens ist die Wahl der Übergangswahrscheinlichkeit p weniger heikel als die
Wahl der richtigen Blocklänge (siehe dazu die Untersuchungen in [21]). Die Situation ist vergleichbar mit den Überlegungen zur Parameterschätzung in Kapitel 4: Mit
einem fixen Parametervektor kann man sich ärger vertun als mit einem, den man
von Simulation zu Simulation neu zufällig erzeugt. Abzuwägen gilt es bei der Wahl
158
30
40
50
0
10
10
20
30
Lag
Lag
p=0.00001
p=0.01
ACF
0
0.0 0.2 0.4 0.6 0.8 1.0
ACF
20
20
30
40
50
0
Lag
40
50
40
50
0.0 0.2 0.4 0.6 0.8 1.0
10
0.0 0.2 0.4 0.6 0.8 1.0
0
ACF
p=0.2
0.0 0.2 0.4 0.6 0.8 1.0
ACF
Historische Logreturns
10
20
30
Lag
Abbildung 43: Die Autokorrelationsfunktion von quadrierten historischen täglichen Logreturns
sowie von dreierlei Stationary Bootstrap Simulationen mit verschiedenen Parametern p für die
Verteilung der Blocklängen. Wir müssen hier abwägen zwischen einem grossen p, das heisst einem
möglichst gutem Abbilden der Korrelationsstruktur der originalen Daten, und einem kleinen p, das
heisst möglichst verschiedenen Realisationen.
des Parameters p folgendes: Ist p sehr, sehr klein, sagen wir 0.0001, dann werden die
Simulationen die Abhängigkeitsstruktur der Originalzeitreihe perfekt widerspiegeln.
Aber dann sind unsere Blöcke sehr lang und die Realisationen werden sich kaum voneinander unterscheiden. Das heisst, wir haben zu wenig Streuung, zu wenig Zufall
für unsere Untersuchungen. Ist p dagegen sehr, sehr gross, sagen wir 0.2, erhalten
wir einen grossen Reichtum an Realisationen. Die Blöcke sind dann aber so kurz
bzw. es gibt dann so viele rein zufällige Übergänge zwischen den Daten, dass die
Abhängigkeitsstruktur deutlich schwächer ist als in der Originalzeitreihe. Als guten
Kompromiss verwenden wir p = 0.01. Man betrachte zu diesen Überlegungen auch
Abbildung 43.
Von den Logreturns ist es natürlich nur noch ein kleiner Schritt zu den entsprechenden Kursverläufen mit Startwert s0 :
S0⇤ := s0
FOR(i in 1 : N ) Si⇤ := Si⇤ 1 · exp(Yi⇤ )
159
Die Kraft des Stationary Bootstrap wird noch deutlicher, wenn wir dem Prozess
weitere Dimensionen hinzufügen. In unserem Fall also den Zinssatz r. Den Zinssatz
wollen wir aber nicht “pur” verwenden, sonst gäbe es zwischen den Blockgrenzen
allzugrosse Sprünge. Stattdessen verwenden wir auch hier die Veränderungen des
Zinssatzes, seine täglichen Logreturns Ykr := log (rk /rk 1 ). Daten sind nun die Paare
((Y1 , Y1r ), ..., (Yn , Ynr )). Wenn wir hiervon nach dem Stationary Bootstrap simulieren,
erhalten wir “automatisch” die richtige Korrelation zwischen den jeweiligen Veränderungen. In Abbildung 44 lassen sich zwei Realisationen dieser Simulationsmethode
betrachten.
Als letzter Vorteil des Stationary Bootstrap sei erwähnt, dass die Mechanik dieser
Art von Simulation wohl fast jedem einleuchtet; was es bedeutet von einem risikoneutralen Mass (oder sogar über verschiedene im Fall unvollständiger Märkte) zu
simulieren, ist ausserhalb mathematisch gebildeter Kreise wohl nur schwer vermittelbar.
Auf sehr einfache Weise können wir nun also Indexzeitreihen mit stationären, nicht
unabhängigen Zuwächsen erzeugen und diese Daten für das Testen unserer EIAProdukte nutzen.
5.2
Stresstest der Bewertungen und Hedging-Algorithmen
Wir betrachten nun die Situation am Laufzeitende. Wie im vorigen Kapitel sei P = 1
EUR die Einmalprämie,
= 0.95 sei der zu rg = 3% garantiert verzinste Anteil
davon (siehe hierzu die Bemerkungen auf Seite 149) und T = 7 Jahre die Laufzeit.
Wenn REIA den Return der betrachteten Indexierungsmethode und G =
· (1 +
rg )T die garantierte Auszahlung bezeichnet, dann sind wir unserem Kunden am
Laufzeitende
P · max(REIA , G) = max (R, 1.168)
schuldig.
Wieviel haben wir zu diesem Zeitpunkt? Erstens haben wir das Hedgeportfolio HP.
Es sollte so ungefähr den Wert (REIA
G) haben. Zweitens haben wir fast die
ganze Prämie am Anfang der Laufzeit risikofrei zu 6% p. a. angelegt. Wir hatten
160
Index
4000
4000
7000
6000
10000
Index
500
1000
1500
0
500
1000
Tage
Tage
Zinssatz
Zinssatz
1500
0.025
0.015
0.035
0.025
0
500
1000
1500
0
500
1000
1500
Tage
Tage
Logreturns
Logreturns
-0.10
-0.05
0.00
0.05
0.10
0
0
500
1000
1500
0
500
1000
Tage
1500
Tage
Abbildung 44: Zwei Beispiele einer Finanzmarktsimulation mit dem Stationary Bootstrap.
die Break-Even Partizipation gerade so gewählt, dass wir
˜ :=
✓
1.03
1.06
◆7
·
fix anlegen können und so am Ende der Laufzeit gerade G auf dem Festgeldkonto
haben. Unser Verlust - wiederum positiv ausgedrückt - ist zum Laufzeitende also
max(REIA , G)
HP
˜(1.06)7 = max(REIA , G)
HP G
Das ist natürlich nichts anderes als der Hedgingfehler LHedge von Seite 148, denn
max(REIA , G)
HP G = (REIA
G)+
G = LHedge .
Den Expected Shortfall dieser Variable schätzten wir bereits unter dem (FM)Modell. Dieser Schätzer bildete unser Risikokapitalanforderung. Die Kosten dafür,
ein Viertel des diskontierten Risikokapitals, flossen anfangs der Laufzeit in die Bestimmung der Kapitalkosten ein. Wir schätzen den Expected Shortfall des Hedging161
-0.05
0.05
N=2
0
500
1000
1500
2000
2500
3000
2000
2500
3000
Anzahl Simulationen
0.0
0.4
0.8
N=7
0
500
1000
1500
Anzahl Simulationen
0.010
0.020
N=42
0
200
400
600
800
1000
Anzahl Simulationen
Abbildung 45: Für die SR-EIA wurde hier für N = 2, 7, 42 jeweils 1’000 Mal der Verlust mit
Hedge simuliert und gleitend der empirische 95%-Expected Shortfall berechnet. Man beachte die
verschiedenen Skalierungen. Mehr Simulationen wären gewiss wünschenswert. Aber auch so dürfen
wir ausgehend von diesen Bildern eine gewisse Stabilität annehmen.
fehlers nun also wiederum. Diesmal allerdings unter dem Stationary Bootstrap. Die
Resultate sind zusammengefasst in Tabelle 1. Im folgenden sei Spalte für Spalte
erklärt, wie es zu den Einträgen kommt:
EIA Typ: Die verschiedenen auf Seite 17 und folgende beschriebenen Equity Indexed Annuities
Anzahl Monitor- bzw. Ratchetdaten N : Die Ratchet- und HWM-EIAs hängen
jeweils von N + 1 equidistanten Daten 0 = t0 < t1 < ... < tN = T ab. Je grösser N ,
umso wertvoller die Indexierungsart.
Break Even Partizipationsrate ↵⇤ : Was die Indexierungsmethode samt Risikozuschlag kosten darf, ist durch die Einmalprämie und die Garantiebedingung bereits
vorgegeben. Deshalb passen wir die Partizipationsrate an. Die Break Even Partizipationsrate ist gerade so gewählt, dass die Einmalprämie P = 1 am Anfang der
Laufzeit genau ausreicht zur Finanzierung von garantierter fester Anlage, Hedge
und Kapitalkosten. Siehe dazu Seite 149 und folgende.
162
-0.05
0.05
N=2
0
500
1000
1500
2000
2500
3000
2000
2500
3000
Anzahl Simulationen
0.0
0.4
0.8
N=7
0
500
1000
1500
Anzahl Simulationen
0.010
0.020
N=42
0
200
400
600
800
1000
Anzahl Simulationen
Abbildung 46: Für die SR-EIA wurde hier für N = 2, 7, 42 jeweils 3’000 Mal der Verlust ohne
Hedge simuliert und gleitend der empirische 95%-Expected Shortfall berechnet. Ausgehend von
diesen Bilder - man beachte die verschiedenen Skalierungen - scheinen die 3’000 Simulationen
ausreichend.
ES ohne Hedge: Man könnte ja auch die Möglichkeit ins Auge fassen, überhaupt
nicht zu hedgen. Die gesamte Prämie P = 1 legen wir anfangs der Laufzeit fix zu
6% p. a. an41 . Dann ist unser Verlust am Ende der Laufzeit max(REIA , G)
1.067 .
Den von 3’000 Simulationen geschätzte Expected Shortfall dieser Verlustvariable
nennen wir “ES ohne Hedge”. Auf Vertrauensintervalle verzichten wir hier. In Abbildung 46 erkennen wir, dass wir uns wohl ungefähr auf fünf Hundertstel genau auf
den Schätzer verlassen können.
41
Hier brauchen wir kein Geld mehr für ein Hedgeportfolio abzuzweigen. Darum stellte sich hier
die Frage nach der Wahl der Partizipationsrate. Ein gangbarer Weg wäre gewesen, die Partizipationsrate nun so zu wählen, dass e rT EQ [max(R, G)] = 1. Wir gehen einfacher vor, und verwenden
gerade das für den Hedge-Fall berechnete ↵⇤ aus der dritten Spalte. So wird der ES ohne Hedge
und der ES mit Hedge vergleichbarer und der Hedgeeffekt damit quantifizierbar. Dafür sind die
vertikalen Unterschiede in dieser Spalte nun etwas ungenau: Denn der Risikozuschlag, der ja in
die Break-Even Partizipationsrate einfliesst, ist unterschiedlich für unterschiedliche Produkte. Andererseits fliesst ja gerade in den Risikozuschlag nicht nur Kapitalkosten für den Hedgingverlust,
sondern auch eine Korrektur für das Bewerten via EQ [R] anstelle von EQ [max(R, G)] ein. Und
diese Korrektur ist ja auch für die Hedge-freie Bewertung nötig. So oder so: Die Resultate sind
so deutlich, dass die Interpretation auch mit leicht höheren Partizipationsraten gleich ausfallen
würde.
163
ES mit Hedge: Für jedes Produkt und die jeweilige Break Even Partizipation simulieren wir 1’000 Mal vom oben beschriebenen Hedgingfehler L (unter dem Stationary
Bootstrap). Von den 1’000 so erhaltenen Werten42 berechnen wir den empirischen
95%-Expected Shortfall (siehe Seite 147). Auch hier verzichten wir auf Vertrauensintervalle, denn wir kennen nicht nur die exakte Verlustverteilung nicht, auch eine
Normalapproximation macht hier wegen der Rechtsschiefe der Verteilung wohl wenig Sinn. Abbildung 46 können wir aber so interpretieren, dass wir uns etwa aufs
Zehntel genau auf diese Schätzer verlassen können.
Risikokapital (RK): Die simulierten Verluste sind mit Kapital gedeckt. Etwa jedes zwanzigste Mal rechnen wir ja sogar mit einem Verlust über das 95%-Quantil
hinaus. Genau dafür zahlten wir ja die Kapitalkosten! Und das Mittel dieser Werte
sollte in etwa dem im vorigen Kapitel unter dem (FM)-Modell ebenfalls mit 1’000
Simulationen geschätzten 95%-Expected Shortfall des Hedgeverlustes entsprechen.
Die genauen Werte für das Risikokapital haben wir nirgends präsentiert. Wir können
sie aber aus den jeweiligen Kapitalkosten KK zurückgewinnen durch
RK = 4 · er7 · KK ⇡ 5.293 · KK .
Für eine Definition der Kapitalkosten KK siehe Seite 149; für die konkreten Werte
siehe die Tabellen auf Seite 150 und folgende.
42
Hier wäre sicher eine grössere Zahl von Simulationen wünschenswert, aber die Rechenzeit
zusammen mit der relativ grossen Anzahl der nötigen Kennzahlen setzte uns Grenzen. Die “ES
mit Hedge”-Werte sind also nur unter Vorbehalt zu betrachten. Allerdings deutet Abbildung 46 ja
doch auf eine ordentliche Konvergenz der Schätzer hin. Und sicher ist, dass man die Tendenzen
gut genug ablesen kann.
164
ES
ohne Hedge
ES
mit Hedge
RK
↵⇤ = 0.750
2.992
0.044
0.034
PTP
-
CR
N
N
N
N
N
N
=2
=4
=7
= 14
= 21
= 42
↵⇤
↵⇤
↵⇤
↵⇤
↵⇤
↵⇤
= 0.675
= 0.531
= 0.439
= 0.331
= 0.276
= 0.202
2.115
1.273
0.880
0.554
0.176
0.161
0.177
0.137
0.063
0.041
0.039
0.038
0.182
0.145
0.072
0.046
0.049
0.046
SR
N
N
N
N
N
N
=2
=4
=7
= 14
= 21
= 42
↵⇤
↵⇤
↵⇤
↵⇤
↵⇤
↵⇤
= 0.740
= 0.610
= 0.518
= 0.399
= 0.335
= 0.246
1.544
0.963
0.603
0.375
0.251
0.126
0.177
0.125
0.050
0.023
0.025
0.022
0.182
0.143
0.069
0.030
0.027
0.026
HWM (diskret)
N
N
N
N
N
N
N
=2
=4
=7
= 14
= 21
= 42
=1
↵⇤
↵⇤
↵⇤
↵⇤
↵⇤
↵⇤
↵⇤
= 0.656
= 0.598
= 0.568
= 0.536
= 0.525
= 0.508
= 0.462
2.475
2.082
2.072
2.002
1.955
1.942
1.719
0.370
0.294
0.263
0.235
0.214
0.198
0.144
0.369
0.314
0.269
0.236
0.212
0.183
0.140
HWM (kont.)
Tabelle 1: Hier sind die Verlustrisiken der in dieser Arbeit betrachteten Produkte zusammenfassend dargestellt.
5.3
Resultate
Grundsätzlich kann man sagen: Die Produkte sind gut bewertet, denn das jeweilige
Risikokapital ist genau in der Grössenordnung des jeweiligen ES mit Hedge. In den
allermeisten Fällen ist das Risikokapital sogar etwas grösser. Dieses Resultat spricht
für die “Realitätsnähe” unseres (FM)-Modells, in welchem wir die Höhe des nötigen
Risikokapitals ja geschätzt hatten. Katalogartig seien hier weitere Ergebnisse, die
man von Tabelle 1 ablesen kann, präsentiert:
• Der Effekt des Hedging ist natürlich gewaltig. Der ES ohne Hedge ist in jedem
Fall etwa zehnmal grösser als mit Hedge. Zugleich sinkt der ES ohne Hedge in
N . Nur leicht im HWM-Fall, aber dramatisch bei den Ratchet-EIAs.
165
• Die CR-, SR- und HWM-EIAs können grob verstanden werden als Verallge-
meinerungen von PTP mit N > 1. Der Schritt von PTP zu einer der drei
ausgefeilteren EIAs (mit N = 2) ist zwar mit einem Sinken des ES ohne Hedge, aber zugleich mit einem deutlichen Anstieg des ES mit Hedge verbunden:
Für diesen Anstieg sehen wir zwei Gründe:
– Die Monitordaten bzw. die Ratchetdaten sind heikel für den Hedge, denn
kurz vor einem solchen Datum, verhalten sich die Sensitivitäten der EIAs
ähnlich wie diejenigen einer Calloption mit ebenso kurzer Restlaufzeit.
Das heisst, die delta und gamma sind tendenziell sehr gross. Grosse
Greeks bedeuten aber zugleich, dass der Fehler, der durch das immer
nur “lineare” (bzw. “quadratische” im Gamma-Fall) Replizieren entsteht,
besonders gross ist.
– Der Hauptgrund für das starke Ansteigen der verschiedenen Verlustkennzahlen ist aber der Umstand, dass wir aus analytischen Gründen
(REIA G) absichern anstelle der eigentlichen Verbindlichkeit (REIA G)+ .
Das heisst, am Ende der Laufzeit hat unser Hedging-Portfolio in etwa
den Wert (REIA
G). In den (seltenen) Fällen, wo am Ende der Laufzeit
REIA < G, stehen wir also mit einem leicht vergleichsweise grossen Hedgeverlust 0
(REIA
G) = G
REIA da. Bei der PTP-EIA gibt es diese
speziell grossen Verluste nicht, weil wir dort tatsächlich (REIA
G)+ hed-
gen. So erklärt sich der Sprung der “ES mit Hedge”-Kennzahl von PTP
zu N = 2.
• Deutlich erkennen wir, dass der ES mit Hedge in N sinkt. Bei den RatchetGarantien sinkt dieser ES sogar dramatisch, bei den HWM-EIAs deutlich weniger. Wir erklären diesen Effekt analog zum letzten Punkt.
– Die Gefahr für das Auftreten von REIA < G sinkt, wenn N steigt. Das
jeweilige ↵⇤ ist zwar immer gerade so angepasst, dass all die Produkte
ungefähr denselben Wert haben, das ändert aber nichts daran, dass die
Streuung um diesen Erwartungswert herum mit steigendem N kleiner
wird (das kann man etwa in der Spalte “ES ohne Hedge” ablesen).
166
– Das kann aber nicht der einzige Grund sein. Denn warum sollte der ES
mit Hedge sonst sogar unter den entsprechenden Wert bei der PTP-EIA
sinken (0.044)? Ein weiterer Grund für das Sinken des ES mit Hedge in N
ist, dass sich die weiter oben beschriebene Hedging-Problematik an den
Ratchet- bzw. Monitordaten je besser “diversifiziert”, desto mehr Ratchetbzw. Monitordaten es gibt.
• Vergleicht man das zur Verfügung stehende Risikokapital (also den Expected
Shortfall unter dem (FM)-Modell) mit dem ES mit Hedge (also dem Expected
Shortfall unter dem Stationary Bootstrap) fällt auf, dass unser Kapitalpolster
fast in jedem Fall gross genug ist. Diese Tendenz ist zu eindeutig, als dass sie
sich allein mit der Schätzungsungenauigkeit erklären liesse. Unter dem (FM)Modell scheint die LOC-Garantie etwas häufiger werthaltig zu sein (das heisst
REIA < G) als unter dem Stationary Bootstrap. Und der im vorletzten Punkt
beschriebene Effekt ist entsprechend bei der Risikokapitalschätzung ausgeprägter als beim ES mit Hedge. Für diese Begründung spricht auch, dass einzig
beim PTP-Fall, wo wir ja “exakt” hedgen, das Risikokapital zu klein ist für
den ES mit Hedge.
Festzuhalten ist aber vor allem, dass eben die Grössenordnung von Risikokapitel und ES mit Hedge dieselbe ist. Selbst wenn wir unseren Schätzern volles
Vertrauen schenkten: Eine etwas andere Datenwahl für die Kalibration des
(FM)-Modells bzw. für den Stationary Bootstrap könnte zu einer Umkehrung
der Verhältnisse führen (also Risikokapital immer etwas kleiner als mit Hedge).
• Die Simple Ratchet-EIAs sind weniger verlustanfällig als die Compound RatchetEIAs.
• Bei den HWM-EIAs sind sowohl ES mit Hedge als auch ohne jeweils am grössten, wenn man die Werte vergleicht mit den Ratchet-EIAs mit den entsprechen-
den N s. Erinnern wir uns: Bei den HWM-EIAs fanden wir keinen Weg, um die
exakten Sensitivitäten zu finden. Stattdessen berechneten wir die Greeks ausgehend von der Bewertungsformuel für die kontinuierliche HWM-Indexierung.
Der Einfluss dieser Approximation scheint hier aber nicht für die hohen Werte
ausschlaggebend zu sein: Mit dem ES o h n e Hedge haben die Sensitivitäten
167
ja gar nichts zu tun. Und beim ES mit Hedge ist finden wir ja beim kontinuierlichen HWM-Fall eine Kennzahl in derselben Grössenordnung - trotz korrekten
Sensitivitäten.
• Die kontinuierliche HWM-EIA bildet nicht nur in N , sondern auch bei der
Break Even Partizipationsrate, den Verlustrisikokennzahlen und dem Risikokapital offenbar einen Grenzwert ihrer diskreten Schwestern.
Wir haben es gesehen: Das Hedgen von (R
G) anstelle von (R
G)+ (nennen wir
dieses Vorgehen “Bewertungsapproximation”) hat einen grossen Einfluss auf unsere
Untersuchungen. Nachgetragen seien hier noch drei Kommentare speziell zu diesem
Umstand:
• Man darf die Resultate, die durch die Bewertungsapproximation entstehen,
keineswegs irgendwie als “künstliche” Effekte abtun, die isoliert in der vorliegenden Arbeit auftreten. Unsere Herangehensweise an die Bewertung und die
Absicherung von “diskreten” EIAs ist d i e Herangehensweise in der Literatur. Stellvertretend sei auch hier wieder auf das Standardwerk von Hardy
verwiesen [12].
• Der exakte Wert des PEMG, also e
r⌧
⇥
EQ
t (REIA
⇤
G)+ , ist natürlich immer
positiv. Man könnte nun versucht sein zu sagen: Warum hedgen wir denn nicht
also (REIA
G), aber sobald der Wert des Hedgeportfolios kleiner gleich Null
ist, liquidieren wir unsere Positionen in Indextracker, Calloptionen, IRS und
VS? Das ist leider kein ohne weiteres gangbarer Weg. Denn was, wenn der Wert
der Indexierungsmethode R wieder ansteigt? Dann reagiert unser Hedgeportfolio überhaupt nicht mehr und am Ende stünde man wiederum mit einem
happigen Verlust da. Für diese Vorgehensweise müsste man also zunächt klären, was ganz genau die Bedingungen für eine solche “Ausstiegsentscheidung”
sein sollen - abhängig vom Wert der Indexierungsmethode, dem Zeitpunkt, der
Volatilität ... Und dann gälte es, unsere “naive” Bewertungsapproximation mit
einem Hedge mit Ausstiegsmöglichkeit systematisch zu vergleichen.
• Zu guter Letzt sei hier betont, dass die Bewertungsapproximation nicht der
einzige Grund für die Effekte sein kann, sondern dass eben auch die oben
168
150
50
0
Häufigkeit
N=2
-0.05
0.00
0.05
0.10
0.15
0.20
0.10
0.15
0.20
0.10
0.15
0.20
Verlust mit Hedge
200
100
0
Häufigkeit
300
N=7
-0.05
0.00
0.05
Verlust mit Hedge
Häufigkeit
0
50 100
N=42
-0.05
0.00
0.05
Verlust mit Hedge
Abbildung 47: Für die SR-EIA wurde hier für N = 2, 7, 42 jeweils 1’000 Mal der Verlust mit Hedge
simuliert. Deutlich erkennen wir, wie die Rechtsschiefe - Effekt der Bewertungsapproximation - in N
abnimmt. Zugleich nimmt natürlich auch der Expected Shortfall (gestrichelt) ab. Die Lage der Verteilung, leicht rechts von null, ist Ausdruck der systematischen Unterschätzung
h des wahreni Wertes
+
durch die Bewertungsapproximation, das heisst e ⌧ Et [REIA G]  e ⌧ Et (REIA G) . Auch
dieser Effekt nimmt deutlich ab in N . Für N = 42 haben wir bereits eine “schöne” symmetrische
Glockenverteilung.
beschriebenen Hedgeschwierigkeiten kurz vor den Ratchet- bzw. Monitordaten
eine Rolle spielen. Weitere Hinweise für diese Sichtweise liefern Abbildungen 25
und 26.
Soweit also die Resultate, die wir mit aufwändigen Bewertungsformeln, realistischem
Hedgingalgorithmus, komplex zu kalibrierendem (FM)-Modell und elegantem Stationary Bootstrap in dieser Arbeit liefern konnten. In einem letzten kurzen Kapitel
wollen wir nun einerseits noch Vorschläge liefern, was diese Ergebnisse für die konkrete Produktgestaltung bedeuten könnten, und andererseits zeigen, was vielleicht
Schwächen unseres Vorgehen waren und an welchen Stellen man noch etwas weiterdenken könnte.
169
6
6.1
Schlussworte
Mögliche Folgerungen für Produktausgestaltung
Wir lagen mit unserer Vermutung im Vorwort also richtig: Ein Mehr an Ratchetbzw. Monitordaten verringert das Verlustrisiko des Produkts erheblich. Ja, nach
unseren Zahlen ist es sogar so, dass man Ratchet-EIAs mit grossem N sehr gut völlig ungehedgt lassen könnte! Aber ein monatliches Ratcheting zusammen mit einer
Partizipationsrate um die 10% wird Kunden wohl eher abschrecken als anziehen.
Solche Fragen müsste jedoch das Marketing klären. Setzt man - wie wir - auf ein
realistisches Modell für die Festlegung des Risikokapitals, lassen sich nach unseren
Ergebnissen mögliche Verluste in jedem Fall gut vorhersehen und entsprechend mit
einem Kapitalpolster abdecken. Bedenkt man, dass viele Kunden den Effekt des
Zinseszins unterschätzen bzw. auch gar keine Kenntnis haben von der Existenz der
jeweils anderen Ratchetmethode, sollte man als Versicherer wohl immer eher auf
Simple Ratchet Garantien setzen. Hier kann man höhere Partizipationsraten bieten,
und das Verlustrisiko ist geringer.
HWM-EIAs haben verkaufstechnisch sicher den Vorteil, dass ihr Mechanismus am
intuitivsten ist. Allerdings sehen wir in der Tabelle, dass diese Garantien die höchsten Verluste aufweisen - mit und ohne Hedge. Zugleich beobachten wir aber, dass wir
auch hier das Risikokapital sehr genau schätzen konnten. Und trotz der vergleichsweise hohen Kapitalkosten können wir bei HWM-EIAs grössere Partizipationsraten
als bei den Ratchet-EIAs anbieten, weil der faire Preis der Indexierungsmethode
günstiger ist.
Zusammenfassend:
Nach unseren Resultaten sinkt das Risiko - zum Teil massiv, wenn man die Anzahl
der Monitor- bzw. Ratchetdaten anhebt. Zugleich sinken aber die Partizipationsraten ähnlich deutlich. Und wenn die Partizipationsrate in den Bereich unter 40%
rutscht, werden wohl viele Kunden abwinken. Deshalb wird das Marketing - vor
allem die Partizipationsrate im Auge - versuchen N hinunterzudrücken. Das Risk
Management sollte sich hier entgegenstemmen.
170
6.2
Kritikpunkte und Ideen für Weiterarbeit
Drei Dinge, die in der Realität sehr wichtig sind für die Bewertung von EIAs bzw.
Optionenen, liessen wir der Einfachheit halber unberücksichtigt: Die Lapse Rates,
das Sterblichkeitsrisiko und die Transaktionskosten. Letztere dürften sich bei den
von uns gewählten Hedgeinstrumenten und unserem wöchentlichen Handel aber in
Grenzen halten. Lapse Rates und Sterblichkeitsrisiko gehören eher zur bestandsweisen Betrachtung von EIAs, die hier ebenfalls unbesprochen blieb. Eine rein mathematische Schwäche der Arbeit ist gewiss das fehlende Quantifizieren von Konvergenzgeschwindigkeiten bei den verschiedenen Schätzern oder auch beim MarkovkettenMonte-Carlo. Hier verliessen wir uns ganz auf graphische Methoden und Empirie.
Zudem sind die in den letzten beiden Kapiteln vorgestellten Resultate sehr empfindlich auf bestimmte Annahmen. Das soll hier nicht verschwiegen werden:
Die Wahl der Daten entscheidet über die Kalibration der (FM)-Parameter und über
das Verhalten des Stationary Bootstrap. Würde man hier einen anderen Zeitraum
betrachten, oder dieselben Untersuchungen in einem Jahr nochmals machen, ergäben sich freilich neue Resultate.
Die Wahl der Zinssätze (mal ganz abgesehen von der Modellierung der Short Rate),
nämlich die Wahl des garantierten Zinses (hier 3% p. a.) und dem für uns verfügbaren langfristigen Zins (hier 6% p. a.), entscheidet über den Zinsspread. Den
Hauptteil der Kosten für die Option zahlen wir von diesem Effekt. Veränderungen
des Zinsspread haben deshalb einen grossen Einfluss auf die Break Even Partizipationsrate. Dieser Einfluss wird umso grösser, je länger die Laufzeit der EIA ist. Bei
den Untersuchungen im Rahmen dieser Arbeit wurde ausserdem sehr deutlich, welch
grosse Rolle die Volatilitätsannahmen bei der Bewertung von Derivaten spielen. Es
ist völlig klar, dass ein Verzicht auf ihre stochastische Modellierung äusserst unrealistisch ist - gerade wenn man derart lange Zeiträume wie die Laufzeiten von EIAs
betrachtet. Wenn man sich - wie in dieser Arbeit - sehr zahlennah mit Bewertungen
beschäftigt hat und viele Wertverläufe mit Volatilitätsverläufen verglichen hat, der
weiss, dass die Volatilitätsentwicklung ganz entscheidend die Wertentwicklung von
Derivaten prägt. Phasenweise überdeckt der Einfluss der Volatilität sogar den Einfluss des Underlying! Entsprechend empfindlich sind alle Untersuchungsergebnisse
auf die Wahl des Volatilitätsparameters (im konstanten Fall) bzw. auf die Wahl des
171
Volatilität-Modells. Wir verwendeten in dieser Arbeit ein stochastisches Volatilitätsmodell mit zwei Regimes. Als Grösse für die implizierte Volatilität berechneten wir
ausgehend von der Indexenwicklung einen Schätzer mit der EWMA-Methode. Die
Wahl des Decayparameters
dieser Methode hat ebenfalls grossen Einfluss.
In einigen Punkte könnte ein geschickterer Programmierer die vorliegende Arbeit
wohl verbessern: Etwa bei der Berechnung unserer Formel für die diskrete HWMBewertung zum Zeitpunkt 0. Hier gilt es eine Summe über alle Partitionen der Zahl
N zu berechnen. Das gelang uns nur für N  60. Das Problem ist hier aber weniger die Rechenzeit als vielmehr die immense Matrixgrösse für die Auflistung der
Partitionen von N . Ein ambitionierter Programmierer könnte hier wohl einen Weg
finden, dass der Rechner nicht alle Partitionen abspeichert, sondern Stück für Stück
abarbeitet.
Andere der vorgestellten Methoden sind sehr Rechenzeit-intensiv. Etwa die rekursiv
programmierten Log-Likelihood Funktion für das (FM)-Modell. Soll der Computer
hiervon maximieren dauert das - je nach Anzahl a priori Daten - “ewig”. Auch das
Markovketten-Monte-Carlo, das für jeden Schritt ja auch unter anderem einen Wert
dieser Log-Likelihood Funktion benötigt, ist entsprechend langsam. Dabei bräuchte
es auch hier häufige Durchläufe, so dass man jeweils Parameter nachbessert kann
(zum Beispiel die Kovarianzmatrix der Vorschlagsverteilung).
Das Hauptproblem hinsichtlich Rechenzeit waren aber die Hedging-Durchläufe (bis
zu drei Stunden für 1000 Stück!). Das machte die konkreten Untersuchungen etwas
stockend und am Ende die Ergebnisse wegen mangelnder Wiederholungen weniger genau als gewünscht. Diese Schwierigkeiten stellen sich in zehn Jahren wohl
weniger deutlich. Hieran scheiterte auch ein systematischer Vergleich der verschiedenen Hedging-Kombinationen. So könnte man etwa ganz konkret die Frage klären, ob und wann es den rho-Hedge überhaupt braucht. Dieser schien uns den
kleinsten, manchmal kaum wahrnehmbaren Effekt zu haben. Das könnte aber auch
unserer Zinsmodellierung geschuldet sein. Denn sowohl das RSLN-Modell als auch
der Stationary Bootstrap erzeugen sehr realistische Kursverläufe, aber der “MeanReverting”-Ansatz des Cox-Ross-Ingersoll Modells ist über lange Zeiträume nicht
besonders überzeugend: Im Vergleich zu historischen Daten scheint der Zinsverlauf
zu stabil. Vielleicht wäre es einmal interessant, über ein Zinsmodell mit “Mean-
172
Regimes” nachzudenken? Etwa 1%, 3% und 6%?
Der ergebnismässige Höhepunkt dieser Arbeit ist Proposition 8. Hier wird eine neue,
exakte Formel zur Bewertung der diskreten HWM-Indexierungsmethode geliefert.
Leider fanden wir für die fortlaufende Bewertung keine entsprechend brauchbare
Formel. Darum schätzten wir die jeweiligen Werte. Die Sensitivitäten approximierten wir durch die leicht verfügbaren Greeks der kontinuierlichen HWM-Indexierung.
Hier wäre es interessant, den Fehler, der so entsteht, zu quantifizieren. Naheliegend,
aber wohl auch einiger vergleichender Untersuchung bedürfend, wäre eine Schätzung
der HWM-Greeks analog zum Schätzen des HWM-Wertes. Proposition 8 lässt sich
direkt auf das Analogon von HWM-EIAs in der Optionswelt, nämlich (diskreten)
Lookback-Optionen übertragen. Das scheint ein bislang unbekanntes Resultat zu
sein. Vielleicht könnte man mit dem “Permutationstrick” von Spitzer auch für die
BSM-Bewertung von (diskreten) Barrier-Optionen neue Lösungen finden.
In der Rückschau kann man insgesamt sagen: Das recht naive43 Hedging (zusammen
mit der Risikokapitalschätzung) funktionert eigentlich derart gut, dass die beschriebenen Partizipationsmöglichkeiten auf Aktienindizes samt Garantieversprechen für
den Versicherer gar kein besonders grosses Risiko mehr darstellen! Interessant wäre
nun, die in dieser Arbeit verwendeten Modelle, Kalibrierungsmethoden, Bewertungsansätze und Risikomanagementtechniken auf heiklere VA-Produkte zu übertragen:
Etwa VAs, bei denen das Geld regelmässig umgeschichtet wird zwischen einer risikolosen und einer riskanten Anlage, oder VAs, die sich auf einen eigens zusammengestellten Fond beziehen. Hier käme dann zusätzlich die Frage der Modellierung der
Abhängigkeiten ins Spiel (Copulas!). Ausserdem sind dann viel weniger Daten verfügbar, was das Kalibrieren der Modelle anspruchsvoller und die Verwendung von
historischen Techniken schwierig macht.
Abschliessend soll gesagt sein, dass alle in dieser Arbeit betrachteten Methoden
auch über die Verwendung auf EIAs hinaus interessant sind. Man kann den Text
lesen als beispielhafte Umsetzung von vielen Dingen, die man während eines mathematischen Masterstudiums mit Vertiefung in Risikomanagement kennenlernt. Und
vielleicht erkennt man wie der Autor: Manches wird in der Anwendung einfacher,
manches schwieriger als an der Wandtafel des Professors.
43
“naiv” wegen der Vollständigkeits-Annahme und der Bewertungsapproximation
173
Literatur
[1] V.M. Belyaev (2011)
Pricing Variable Annuity Contracts With High Water Mark Feature
Allianz Life, MN, USA
[2] Fischer Black, Myron Scholes (1979)
The Pricing of Options and Corporate Liabilities
Journal of Political Economy, Vol. 81, Nr. 3, S.637-654
[3] Mark Broadie, Paul Glasserman, S.G. Kou (1999)
Connecting discrete and continuous path-dependent options
Finance and Stochastics 3, 55–82
[4] Richard Durett (1996)
Probability: Theory and Examples, second edition
Duxberry Press
[5] S. Bossu, E. Strasser, R. Guichard (2005)
Just What You Need To Know About Variance Swaps
JPMorgan - Londen
[6] EIOPA (European Insurance And Occupational Pensions Authority) (2011)
Report on Variable Annuities
EIOPA-11/031
[7] Alexander McNeil, Rüdiger Frey, Paul Embrechts (2005)
Quantitative Risk Management
Princeton University Press
[8] Hans Föllmer and Alexander Schied (2004)
Stochastic Finance (second edition)
de Gruyter, Studies in Mathematics 27
[9] M. Barry Goldman, Howard B. Sosin and Mary Ann Gatto (1979)
Path Dependent Options: "Buy at the Low, Sell at the High"
The Journal of Finance, Vol.304, Nr.5, December 1979, S.1111-1127
174
[10] Robert Hankin (2005)
Additive Integer Partitions In R
Hankin RKS (2005). “Additive integer partitions in R.” Journal of Statistical
Software, Code Snippets, 16(1)
[11] Melanie Hauser (2010)
Dynamisches Hedging zur Absicherung des Garantierisikos bei indexgebundenen
Versicherungen
IFA-Schriftenreihe
[12] Mary Hardy (2003)
Investment Guarantees
John Wiley & Sons
[13] James Hamilton, Raul Susmel (1994) Autoregressive Conditional Heteroskedasticity and Changes in Regime
Journal of Econometrics, 64, 307-333
[14] Ming-hua Hsieh and Yu-fen Chiu (2007)
Monte Carlo Methods For Valuation Of Ratchet EIAs
John Wiley & Sons
[15] A.J.E.M. Jansen and J.S.H. van Leeuvaarden (2007)
Cumulants of the Maximum of the Gaussian Random Walk
Stochastic Processes and their Applications: Vol. 117, Nr. 12
[16] Tigran Kalberer and Kannoo Ravindran (editors) (2009)
Variable Annuities - A Global Perspective
Risk Books
[17] Olav Kallenberg (2002)
Foundations of Modern Probability, Second Edition
Springer
[18] Hansruedi Künsch (1989)
The Jackknife and the Bootstrap for General Stationary Observations
The Annals of Statistics, Vol.17, S.1217-1241
175
[19] Hansruedi Künsch (2011)
Stochastische Simulation
Skript zur Vorlesung des HS 10
[20] Marek Musiela und Marek Rutkowski (2005)
Martingale Methods in Financial Modelling
Springer
[21] Dimitris Politis und Joseph Romano (1994)
The Stationary Bootstrap
Journal of the American Statistical Society, Vol.89, Nr.428
[22] Frank Spitzer (1956)
A Combinatorial Lemma And Its Applications To Probability Theory
AMS 82, S.323-339
[23] Gerold Studer (2011)
Variable Annuities and Risk Management
Präsentation zum jährlichen Treffen der Schweizerischen Aktuarsvereinigung
[24] Tanja Stutz (2001)
The Pricing of Equity-Linked Life Insurance Policies
Diplomarbeit an der ETH Zürich
[25] Nassim Taleb (1997)
Dynamic Hedging
John Wiley & Sons
[26] Luke Tierney (1994)
Markov Chains for Exploring Posterior Distributions
The Annals of Statistics, Vol.22, Nr.4, S.1701-1728.
[27] Serena Tiong (2000)
Valuing Equity-Indexed Annuities
North American Actuarial Journal, Vol.4, Nr. 4
176
Verwendete Webseiten:
http://www.savewealth.com/retirement/annuities/history/ (17.10.2011)
http://www.savewealth.com/retirement/annuities/index/ (19.10.2011)
http://www.annuityadvantage.com/annuitydataequity.htm (19.10.2011)
http://www.indexannuity.org/rates_by_carrier.htm (19.10.2011)
http://www.risk.net/data/Pay_per_view/risk/technical/2000/risk_0100_volatility.pdf
(12.12.2011)
http://www.bundesbank.de/statistik/statistik_zeitreihen.php (11.1.2011)
Die im Schlussteil der Arbeit verwendeten Daten entstammen allesamt dem Datenservice der Deutschen Bundesbank. Alle für Bewertung, Kalibration und Simulation
benötigten Programme wurden mit dem offenen Statistikprogramm R geschrieben.
Auch alle diesbezüglichen Graphiken wurden mit R erstellt. Den zahllosen wahrscheinlich ziemlich namenlosen und sicherlich nicht besonders reichen Programmierern, die dieses grossartige Programm ins Leben gerufen haben, immer weiterentwickeln und ihre Arbeit dann frei zur Verfügung stellen, sei hier abschliessend noch
ein Kränzchen gewunden.
177
Zugehörige Unterlagen
Herunterladen