Skript Kapitel 1-3 - Universität des Saarlandes

Werbung
Derivative Finanzinstrumente
Klaus Schindler
Vorlesung an der Universität des Saarlandes
c Sommersemester 2017
Version 17.0
Inhaltsverzeichnis
Inhaltsverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.
1.1.
1.2.
1.2.1.
1.3.
1.3.1.
1.3.2.
Derivative Finanzinstrumente
Sprechweisen . . . . . . . . . . .
Zinsen . . . . . . . . . . . . . .
Anleihen . . . . . . . . . . . . .
Derivative Finanzinstrumente .
Terminkontrakte und Futures .
Optionen . . . . . . . . . . . . .
2.
2.1.
2.2.
2.3.
2.3.1.
2.3.2.
Arbitragebeziehungen
Arbitragefreiheit . . . . .
Terminkontrakte . . . . .
Optionen . . . . . . . . .
Put-Call-Parität . . . . .
Konvexitätseigenschaften
3.
3.1.
3.2.
3.3.
3.4.
3.5.
3.6.
3.7.
3.8.
3.9.
3.10.
Wahrscheinlichkeitsrechnung
Zufall und Ereignisse . . . . . . . . . .
σ-Algebren . . . . . . . . . . . . . . . .
Wahrscheinlichkeitsmaße . . . . . . . .
Zufallsvariablen und Messbarkeit . . . .
Verteilung von Zufallsgrößen . . . . . .
Approximationen der Normalverteilung
Momente einer Zufallsgröße . . . . . . .
Bedingte Wahrscheinlichkeit . . . . . .
Kovarianz, Korrelation . . . . . . . . .
Bedingte Erwartung . . . . . . . . . . .
4.
4.1.
4.1.1.
4.1.2.
4.1.3.
4.1.4.
4.1.5.
4.2.
Stochastische Prozesse I
Zeitdiskrete stochastische Prozesse . . . .
Arithmetische Binomialprozesse . . . . .
Arithmetische Trinomialprozesse . . . . .
Geometrische Binomialprozesse . . . . . .
Allgemeine Irrfahrten . . . . . . . . . . .
Binomialprozesse mit zustandsabhängigen
σ-Algebren und Information . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
Zuwächsen
. . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2
.
.
.
.
.
.
5
5
6
6
8
8
11
.
.
.
.
.
17
18
19
22
23
24
.
.
.
.
.
.
.
.
.
.
27
27
28
29
30
34
40
41
44
48
49
.
.
.
.
.
.
.
61
62
63
65
67
69
70
71
4.3.
Martingal-Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
74
5.
5.1.
5.2.
5.3.
5.4.
5.5.
Stochastische Prozesse II
Der Wiener-Prozess . . . . . . . . . . . .
Stochastische Integration . . . . . . . . .
Stochastische Differentialrechnung . . . .
Der Aktienkurs als stochastischer Prozess
Stochastische Differentiation . . . . . . .
79
79
82
85
89
90
6.
BLACK/SCHOLES-Optionsmodell
7.
Eine analytische Lösung für europäische Optionen
101
8.
8.1.
8.2.
8.3.
Das Binomialmodell für europäische Optionen
Aktien ohne Erträge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Aktien mit stetigen Erträgen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Aktien mit diskreten Erträgen . . . . . . . . . . . . . . . . . . . . . . . . . . .
105
105
108
109
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
95
9.
Amerikanische Optionen
113
Die vorzeitige Ausübung amerikanischer Calls . . . . . . . . . . . . . . . . . . . . . . 116
Put-Call-Parität für amerikanische Optionen . . . . . . . . . . . . . . . . . . . . . . . 118
10.
Das Trinomialmodell für amerikanische Optionen
121
11.
Optionsmanagement (Portfolio-Insurance)
125
Literaturverzeichnis
131
Anhang
134
A.
A.1.
A.2.
A.3.
Integrationstheorie
Funktionen von endlicher Variation . . . . . . . . . . . . . . . . . . . . . . . .
Riemann-Stieltjes-Integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Der Satz von Radon-Nikodym . . . . . . . . . . . . . . . . . . . . . . . . . . .
135
135
136
138
B.
B.1.
Der Satz von Girsanov
139
Martingal-Darstellungssatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
C.
Portfolio-Strategien
143
D.
Der Satz von Taylor
149
Index
151
K APITEL
1
Derivative Finanzinstrumente
Wir stellen in diesem Kapitel zunächst die wichtigsten Finanzinstrumente, die im Rahmen
dieser Vorlesung benötigt werden, vor. Zur Vermeidung von Schwierigkeiten gehen wir nur in
Ausnahmefällen auf Handelsusancen ein, obwohl diese den Preis eines Finanzinstrumentes
entscheidend beeinflussen können. In der Regel vermeiden wir diese Probleme durch Normierungen oder zum Teil unrealistische Vereinbarungen, wie z.B. fehlende Transaktionskosten.
Auch in der Praxis finden solche Vereinfachungen statt. Viele derivative Finanzinstrumente sind stark normiert, z.B. in Bezugsgröße, Laufzeit, Terminkurs, Ausübungskurs usw..
Dies vereinfacht den Handel, erhöht damit die Fungibilität und erleichtert die Bewertung
der Finanzinstrumente. Für den Kunden maßgeschneiderte, nicht normierte Finanzinstrumente werden als OTC-Derivate (OTC=over the counter) bezeichnet und meist nicht an
Terminbörsen gehandelt. Ihre Bewertung erfordert wegen der von der Norm abweichenden
Eigenschaften eine geeignete Anpassung der Standardmodelle.
1.1. Sprechweisen
Ein Portfolio (Portefeuille) ist die Zusammenfassung mehrerer Finanzinstrumente eines Investors zu einem Gesamtwert. Ein einzelnes Finanzinstrument innerhalb eines Portfolios
wird als Position bezeichnet. Hierbei unterscheidet man zwischen einer long und einer short
position. Im ersten Fall besteht die Position aus einem gekauften, im zweiten Fall aus einem
verkauften Objekt (z.B. einer verkauften Anleihe oder verkauften Option).
Als short selling werden short Positionen bezeichnet, bei denen man sich - unter Einschaltung einer Bank oder eines Brokers - Objekte, die einem nicht gehören, ausleiht und
verkauft. Der short seller verpflichtet sich damit gleichzeitig, dem Besitzer der Objekte während der Leihzeit alle anfallenden Erträge und am Ende - durch einen Rückkauf an der Börse
- die Objekte zu erstatten.
Das Schließen einer Position bedeutet, dass man die Wertentwicklung des Portfolios unabhängig von dieser Position macht. Dies kann durch Verkauf dieser Position oder durch
den Abschluss eines genauen Gegengeschäftes geschehen.
Als spot price (Marktpreis) bezeichnen wir den Preis, zu dem ein Objekt gegen sofortige
Zahlung und sofortige Auslieferung gehandelt wird1 .
1
Dies steht im Gegensatz zum sog. future price in Bemerkung 1.5 iii).
Derivative
Finanzinstrumente
1. Derivative Finanzinstrumente
Kapitel 1
Anleihen
1.2. Zinsen
Definition 1.1
Zinsen sind das Entgelt für die zeitweilige Überlassung einer Wertsumme2 . Üblicherweise
werden Zinsen zu diskreten Zeitpunkten - den Zinszuschlagsterminen (ZZT) - gutgeschrieben
und dann weiterverzinst (Zinseszins). In einer Zinsperiode (=Abstand benachbarter ZZTe)
wächst ein Anfangskapital KAnf bei einem Periodenzinssatz ip damit auf
KEnd = KAnf · (1 + ip )
Ist speziell ein nomineller Jahreszinssatz i bei ℓ ZZTen pro Jahr gegeben, d.h. liegt ein
i
Periodenzinssatz ip = vor, wächst ein Anfangskapital KAnf in einem Jahr insbesondere auf
ℓ
i
ℓ
KEnd = KAnf · (1 + )ℓ .
Im Grenzübergang ℓ −→ ∞, wo jeder Augenblick ein ZZT ist, spricht man von stetiger
Verzinsung. Dabei wächst das Anfangskapital in einem Jahr auf
KEnd = KAnf · ei .
i wird in diesem Fall als stetiger (Jahres-)Zins oder short rate bezeichnet.
❐
Da stetige Zinsen starke Rechenvorteile aufweisen (keine gemischte Zinsrechnung), wird
dies bei Finanzderivaten in Zukunft vorausgesetzt.
1.2.1. Anleihen
Als erstes Finanzinstrument betrachten wir Anleihen. Sie stellen wegen der vorab festgelegten Laufzeit im Prinzip ein einfaches Beispiel für ein Termingeschäft dar.
Definition 1.2
Der Besitzer einer Anleihe (Bond) erhält zu einem zukünftigen Zeitpunkt t⋆ (Fälligkeitszeitpunkt) einen vorher vereinbarten Betrag R, der als Nominal-, Nenn- oder Rückzahlungswert
der Anleihe bezeichnet wird. Werden außerdem zu diskreten Zeitpunkten t1 , . . . , tn vor t⋆
zusätzliche Couponzahlungen in Höhe C geleistet, spricht man von einer Couponanleihe,
andernfalls von einer Nullcouponanleihe (Zerobond).
❐
Bemerkung 1.3
i) Der Wert At einer Anleihe zum (aktuellen) Zeitpunkt t berechnet sich als Summe aller
mit dem Marktzins diskontierten zukünftigen Erträge, die mit der Anleihe verbunden
2
Diese Wertsumme muss nicht zwingend Geldform haben. Man betrachte als Beispiel etwa den Mietzins.
6
c Klaus Schindler SS 2017
Kapitel 1
1.2. Zinsen
sind. Geht man von n Couponzahlungen C zu den Zeitpunkten t1 , . . . , tn , einem Nominalwert R zum Fälligkeitszeitpunkt t⋆ und einem (konstanten) stetigen Marktzins
i aus, ergibt sich3
−i·(t⋆ −t)
At = R · e
+
n
X
ℓ=1
C · e−i·(tℓ −t) .
(1.1)
Hierbei ist deutlich zwischen dem aktuellen (stetigen) Marktzinssatz i und dem nominellen (stetigen) Zinssatz inom der Anleihe zu unterscheiden. Letzterer bezieht sich
immer auf den Nominalwert der Anleihe, d.h. der stetige nominelle Periodenzinssatz
der Anleihe ist4
inom = ln 1 +
C
R
und wird sich daher u.U. deutlich vom aktuellen Marktzinssatz i unterscheiden. Je
nach dem, ob der Kurs der Anleihe unter, über oder gleich dem Rückzahlungswert ist,
nennt man die Anleihe unter pari, über pari oder pari 5 .
Anders ausgedrückt bedeutet dies, dass die Rendite (= effektiver Zinssatz) einer „sicheren“ Anleihe, bei der alle Zahlungen mit Wahrscheinlichkeit 1 eintreten, gleich dem
aktuellen Marktzinssatz ist. Da die Couponzahlungen C und der Rückzahlungswert
R bekannt sind, stellt Gleichung (1.1) eine umkehrbar eindeutige Beziehung zwischen
dem Marktzins und dem Kurs einer Anleihe her, man spricht daher auch von Kursrechnung. Der Handel mit Anleihen ist daher ein Handel mit Zinssätzen. Gleichung (1.1)
zeigt außerdem, dass ein Steigen des Marktzinses zu einem Absinken der Anleihekurse
und umgekehrt ein Sinken des Marktzinses zu einem Anstieg der Anleihekurse führt.
Im Falle eines Zerobonds wird Gleichung (1.1) besonders einfach. Wegen C = 0 ist der
Wert des Zerobonds gleich dem diskontierten Rückzahlungswert
⋆ −t)
At = R · e−i·(t
(1.2)
.
Äquivalent hierzu gilt folgende Gleichung für den Marktzins
i=
ln(At ) − ln(R)
t − t⋆
Im Folgenden bezeichnen wir mit At den Kurs eines Zerobonds mit Rückzahlungswert
⋆
1. Für konstante stetige Zinsen gilt gemäß Gleichung (1.2) die Beziehung At = e−i·(t −t) ,
3
Hierbei gehen wir stillschweigend davon aus, dass Zinssatz und Laufzeit die gleiche Zeiteinheit verwenden.
Z.B. könnte i ein stetiger Jahreszinssatz sein und die Laufzeit in Jahren gemessen werden.
4
Hierbei wurde vorausgesetzt, dass die Couponzahlungen in regelmäßigem Abstand erfolgen. Ein direkter
Vergleich von inom und i macht außerdem nur Sinn, wenn dieser Abstand gleich der bei i verwendeten
Zeiteinheit ist.
5
Unter den in der letzten Fußnote erwähnten Voraussetzungen gilt, dass der Anleihekurs genau dann unter
pari ist (At < R), wenn inom < i gilt.
c Klaus Schindler SS 2017
7
Derivative
Finanzinstrumente
Grundlagen
Derivative
Finanzinstrumente
Kapitel 1
1. Derivative Finanzinstrumente
Terminkontrakte
d.h. At ist der stetige Abzinsungsfaktor für den Zeitraum t⋆ −t. Im Fall zeitabhängiger
deterministischer Zinsen i = i(t) gilt analog
At = exp
−
Z
t
t⋆
(1.3)
i(s)ds .
In differentieller Form lautet Gleichung (1.3)
dA
dt
= A · i(t)
bzw.
dA
A
= i(t) · dt
Im Folgenden werden wir, wenn nicht anders erwähnt, von einem konstanten stetigen
Zinssatz i und dem Zinsfaktor ei ausgehen. Bei nichtkonstanten Zinsen muss als Abzinsungsfaktor der Preis At eines Zerobond mit dem Nominalwert 1 verwendet werden.
ii) Der Kauf bzw. Verkauf einer Anleihe stellt nichts anderes, als das Verleihen bzw.
die Aufnahme von Geld zum aktuellen Zinssatz dar. Im Gegensatz zu Zerobonds, bei
denen der Verkäufer sich verpflichtet, die gesamten Schulden inklusive Zinsen auf einen
Schlag am Ende der Laufzeit zu Zahlen, erfolgen bei Couponanleihen zwischenzeitliche
(nominelle!) Zinszahlungen, die vorab durch die Coupons festgelegt sind. Hierdurch
wird das Ausfallrisiko verringert6 . Hier weisen Anleihen eine gewisse Ähnlichkeit zu
Terminkontrakten, bei denen man zwischen Forwards und Futures (siehe Definition
1.4) unterscheidet, auf. Forward-Kontrakte ähneln Zerobonds, da bei ihnen alle durch
den Kontrakt entstandenen Zahlungsverpflichtungen erst am Ende der Laufzeit erfüllt
werden. Futures, bei denen während der Laufzeit Marginzahlungen anfallen, besitzen
ein reduziertes Ausfallrisiko und ähneln daher Couponanleihen.
❐
1.3. Derivative Finanzinstrumente
Wir definieren nun die wichtigsten derivativen Finanzinstrumente. Die Bezeichnung Finanzderivat rührt daher, dass ihr Wert vom Wert anderer, an der Börse gehandelter Instrumente
abhängt. Die dem Derivat zu Grunde liegenden Instrumente bezeichnen wir in Zukunft als
underlying. Mathematisch gesehen sind Derivate also Funktionen, deren Inputvariablen als
underlying bezeichnet werden.
1.3.1. Terminkontrakte und Futures
Die im Folgenden definierten Terminkontrakte zählen zu den einfachsten unbedingten Termingeschäften. Diese müssen - im Gegensatz zu bedingten Termingeschäften wie z.B. Optionen - auf jeden Fall erfüllt werden.
6
Dies führt auch zum Unterschied zwischen effektivem Zinssatz (=Rendite) und nominellem Zinssatz.
8
c Klaus Schindler SS 2017
Kapitel 1
1.3. Derivative Finanzinstrumente
Definition 1.4
Ein Terminkontrakt ist ein Vertrag zwischen zwei Parteien, bei dem sich der Käufer bzw.
der Verkäufer des Kontraktes heute verpflichtet zu einem festgelegten zukünftigen Zeitpunkt
t⋆ ein Objekt zu einem heute vereinbarten Preis K (Terminkurs) zu kaufen (Terminkauf )
bzw. zu verkaufen (Terminverkauf ).
VK,t⋆ (St ) bezeichne den Wert dieses Terminkontraktes zum Zeitpunkt t, wobei St den spot
price des underlying bezeichne.
❐
Bemerkung 1.5
i) Um sich mit Termingeschäften vertraut zu machen, ist es am einfachsten, zunächst
nur den inneren Wert zu betrachten. Dieser gibt den Gewinn/Verlust an, den man bei
sofortiger Fälligkeit oder Ausübung des Geschäftes machen würde. Bei einem Terminkauf ist der innere Wert zum Zeitpunkt t gleich St −K, bei einem Terminverkauf gleich
K −St . Der pay-off ist speziell der innere Wert des Finanzinstrumentes am Verfallstag
t⋆ . Nachfolgende Skizze gibt den pay-off eines Terminkaufs und eines Terminverkaufs
in Abhängigkeit vom Preis St⋆ des Underlying an.
Pay-off
t⋆−
K
K
er
in
uf
S
ka
m
T
K
Kurs St⋆
T
m
er
in
v
er
k
a
uf
K
−
S
t⋆
−K
Man erkennt an den Pay-offs der unterschiedlichen Derivate sehr gut den Unterschied
zwischen bedingten und unbedingten Termingeschäften (siehe hierzu etwa Beispiel 1.8
i) im Abschnitt über Optionen).
ii) Der Forward Price Ft ist der Terminkurs zum Zeitpunkt t, für den der Wert des Terminkontraktes mit Fälligkeit t⋆ (siehe Satz 2.3) gleich Null ist, d.h. dass VFt ,t⋆ (St ) = 0
gilt. Bei Eröffnung eines Terminkontraktes wählt man den forward price als Terminkurs, so dass beim Kauf keine Zahlung erforderlich ist. Erst im Laufe der Zeit wird der
Kontrakt einen positiven oder negativen Wert annehmen, was sich auch darin äußert,
dass der forward price vom ursprünglichen forward price (=Terminkurs) abweicht.
Offensichtlich gilt Ft⋆ = St⋆ zum Fälligkeitszeitpunkt t⋆ .
c Klaus Schindler SS 2017
9
Derivative
Finanzinstrumente
Grundlagen
Derivative
Finanzinstrumente
Kapitel 1
1. Derivative Finanzinstrumente
Terminkontrakte
iii) Futures sind standardisierte Terminkontrakte mit täglichem Verlust- bzw. Gewinnausgleich (Margin), d.h. sie werden von Tag zu Tag erfüllt und nicht erst am Ende der
Laufzeit. Hierdurch wird das Erfüllungsrisiko ausgeschlossen bzw. stark gemindert,
weil eventuelle Verluste bei den Geschäftspartnern auf die Kursschwankungen eines
Tages beschränkt werden7 . Die Größe der täglichen Margin ist gleich der Änderung des
Future-Preises. Analog zum Forward Price ist der Future Price dabei der Terminkurs,
für den der Wert des Futures gleich Null ist. Forward- und Future-Price stimmen am
Ende der Laufzeit mit dem Preis des underlying überein.
iv) Die Spekulation (d.h. nicht abgesicherte Position) auf Terminmärkten weist wesentliche Unterschiede zur Spekulation auf den Spotmärkten auf. Z.B. erfordert der Erwerb
eines Terminkontraktes keine Anfangszahlung. Dies und die üblicherweise hohe Bezugsgröße versieht den Investor mit einem wesentlich höheren Leverage.
v) Da der pay-off negative Werte zulässt, kann der Wert von Terminkontrakten u. U.
negativ sein. Bei Optionen werden dagegen durch die Vertragsbedingungen negative
Pay-offs vermieden, wodurch eine Option immer einen nichtnegativen Wert besitzt
(siehe auch Bemerkung 2.8 (1)).
vi) Ein Terminverkauf darf nicht mit einem „short-selling“ verwechselt werden.
❐
Zur Erläuterung des Unterschieds zwischen Forward und Future betrachten wir im folgenden Beispiel zwei fiktive Öl-Terminkontrakte.
Beispiel 1.6
Wir betrachten in der folgenden Tabelle die Entwicklung des Ölpreises (in [$/Barrel]) in
den Jahren t = 0 bis t = 5, den Future-Preis und die zu leistenden Margins bei jährlichem
Settlement8 . Zum Vergleich ist in der letzten Spalte noch ein Terminkontrakt mit Terminkurs
K = 22, 04 [$/Barrel] angegeben. Beide Kontrakte sollen zum Zeitpunkt t⋆ = 5 fällig sein.
Zeitpunkt
t
Spotprice
St
Futureprice
Ft
0
1
2
3
4
5
17
18
16
15
14
14
22.04
22.16
18.70
16.64
14.75
14.00
Restlaufzeit
T = t⋆ − t
5
4
3
2
1
0
7
Das Verfahren wird als mark-to-market bezeichnet.
8
In der Praxis findet natürlich ein tägliches Settlement statt.
10
c Klaus Schindler SS 2017
Margin
Future
Forward
M = Ft − Ft−1
0
+0.12
−3.46
−2.06
−1.89
−0.75
−
−
−
−
−
−8.04
Kapitel 1
1.3. Derivative Finanzinstrumente
Die Tabelle zeigt, wie durch die zwischenzeitlichen Margins beim Future das Ausfallrisiko
im Vergleich zum Forward deutlich reduziert wird. Die Nettosumme der Marginzahlungen
liefert gerade liefert gerade die Abschlusszahlung beim Forward.
❐
1.3.2. Optionen
Definition 1.7
Eine Option ist ein Vertrag, der dem Käufer das Recht gibt, ein Objekt (underlying) am
Ende oder während eines festen Zeitraumes (Laufzeit) zu einem festgelegten Betrag (Ausübungspreis) zu kaufen (Kaufoption, Call) oder zu verkaufen (Verkaufsoption, Put). Ist die
Option erst am Ende der Laufzeit ausübbar, sprechen wir von einer europäischen Option,
bei jederzeitiger Ausübbarkeit von einer amerikanischen Option.
❐
Bemerkung 1.8
i) Um sich mit Optionen vertraut zu machen, ist es zunächst wieder am einfachsten,
nur den Pay-off, also den inneren Wert der Option zum Fälligkeitszeitpunkt t⋆ zu
betrachten. Bei einem gekauften Call bzw. Put mit Ausübungskurs K ist dieser gleich
max{St⋆ − K, 0} bzw. max{K − St⋆ , 0} und hat damit folgendes Aussehen:
Pay-off
−
K
,
}
0
⋆
a
{
t
S
ng
m
x
ll
o
C
l
a
K
Kurs St⋆
−K
Pay-off
K
P
ut
n
lo
g
m
a
x
{
S
−
K
t⋆
,0
}
K
c Klaus Schindler SS 2017
Kurs St⋆
11
Derivative
Finanzinstrumente
Grundlagen
Derivative
Finanzinstrumente
1. Derivative Finanzinstrumente
Kapitel 1
Optionen
Häufig arbeitet man anstelle des pay-off auch mit der sog. Ertrags- oder Gewinnfunktion, wo man den Pay-off noch mit der gezahlten oder erhaltenen Optionsprämie
verrechnet. Dies ist finanzmathematisch jedoch unkorrekt, weil hierbei Zahlungen, die
zu verschiedenen Zeitpunkten anfallen, ohne Berücksichtigung der Zinswirkung addiert
werden.
Ein Call short, d.h. der Verkauf einer Kaufoption mit Ausübungskurs K zum Preis
C0 , liefert dann folgenden Pay-off bzw. folgende Gewinnfunktion:
Pay-off
Call short
K
−
m
Kurs St⋆
a
x
{
S
K
−
t⋆
,0
}
=
m
i
n{
K
,
St
−
⋆
0
}
Ertrag
Call
t
or
sh
C0
K
Kurs St⋆
ii) Gerade zum ersten Verständnis von Portfolios, die sich aus mehreren Derivaten zusammen setzen, sind pay-off- bzw. Gewinn-Diagramme eine große Hilfe. Wir wollen
dies an Hand eines gekauften Straddle demonstrieren. Dies ist eine Position, die sich
aus je einem gekauften Call und Put mit gleichem Ausübungskurs K und gleicher
Laufzeit zusammensetzt. Das Gewinndiagramm zeigt, dass der Besitzer eines Straddle
auf steigende oder fallende Kurse setzt, da nur bei in etwa gleich bleibenden Kursen
Verluste eintreten. Bezeichnen wir die Call- bzw. Putprämie mit C0 bzw. P0 , so hat
das Gewinndiagramm eines Straddle folgendes Aussehen:
12
c Klaus Schindler SS 2017
Kapitel 1
1.3. Derivative Finanzinstrumente
Gewinn/Verlust
Straddle
✻
long Put
K
−P0
−C0
✲ Kurs St⋆
long Call
−(C0 + P0 )
iii) Liegt der Kurs des underlying über dem Ausübungskurs (S > K), so kann der Inhaber
eines amerikanischen Call das Objekt statt zum Preis S zu dem günstigeren Preis K
erwerben. Das Recht, das der amerikanische Call verbrieft, besitzt zu diesem Zeitpunkt
daher mindestens den Wert S − K. Analog hierzu muss der amerikanische Put im Fall
K > S mindestens den Wert K − S besitzen (siehe hierzu Bemerkung 2.8 (3) ).
Aus diesem Grund wird bei einer ersten Beurteilung von Optionen häufig mit dem
inneren Wert gearbeitet. Dieser innere Wert ist gleich max{S − K, 0} bei Calls und
max{K − S, 0} bei Puts. Er gibt an, was man jetzt bei Ausübung der Option erhalten
würde.
Ist der innere Wert einer Option positiv, d.h. ist S > K bei Calls bzw. S < K bei Puts,
spricht man von einer Option in-the-money. Gilt S ≈ K ist die Option at-the-money.
Im Fall S < K bei Calls bzw. S > K bei Puts, liegt eine out-of-the-money Option vor.
Der Betrag, um den der aktuelle Optionspreis den inneren Wert überschreitet, wird
als Zeitwert bezeichnet. Schon hier sei darauf hingewiesen, dass der Preis europäischer
Optionen unterhalb des inneren Wertes liegen kann (siehe dazu Kapitel 9).
iv) Derivative Finanzinstrumente können zur Spekulation, aber auch zur Absicherung
(Hedging) verwendet werden.
v) Im Gegensatz zu Optionen (contingent claim, limited liability) verpflichten Terminkontrakte (siehe Definition 1.4) zum Kauf oder Verkauf. Optionen werden daher auch als
bedingte und Terminkontrakte als unbedingte Termingeschäfte bezeichnet. In diesem
Sinne ist ein europäischer Call ein „bedingter Terminkauf“, ein europäischer Put ein
„bedingter Terminverkauf“. Da durch die Vertragsbedingungen bei Optionen negative
Pay-offs vermieden werden, ergibt sich der Pay-off einer Kauf- bzw. Verkaufsoption,
indem man alle negativen Pay-off-Werte beim Terminkauf bzw. -verkauf (Terminkurs
= Ausübungskurs) durch 0 ersetzt.
c Klaus Schindler SS 2017
13
Derivative
Finanzinstrumente
Grundlagen
Derivative
Finanzinstrumente
1. Derivative Finanzinstrumente
Kapitel 1
Optionen
vi) Neben den Standardoptionen (plain vanilla option) und deren Kombinationen werden
zum Teil wesentlich komplexere Optionen am Markt gehandelt. So zum Beispiel (Kurs)wegabhängige Optionen wie
- Asiatische Optionen (average rate option): der Ausübungskurs entsteht durch
Mittelung über die Kurse des underlying eines bestimmten Zeitraumes
- Lookback Optionen: der Ausübungskurs ist das Minimum bzw. Maximum der
Kurse des underlying über einen bestimmten Zeitraum
- Knockout Optionen: diese liefern eine konstante Zahlung (oder verfallen), wenn
das underlying bestimmter Schranken über- oder unterschreitet
Ein weiteres Beispiel für solche nicht standardisierte Optionen sind Optionen auf Optionen (compound option), bei denen das underlying selbst eine Option ist.
In diesem Zusammenhang sollte beachtet werden, dass viele Finanzgeschäfte einen
Optionsanteil besitzen (z.B. Wandelanleihen oder Bezugsrechte bei Aktien).
vii) Die Angabe der Optionswerte bezieht sich im folgenden immer auf den Bezug eines
Objektes, so dass in der Praxis bei der Optionspreisberechnung noch eine Multiplikation mit einem geeigneten Faktor erfolgen muss.
viii) In den nachfolgenden Beweisen werden der Einfachheit halber meistens Aktienoptionen, bei denen das underlying eine Aktie ist, betrachtet.
❐
Variablen der Bewertung und Notationen
Zeit: t = aktueller Zeitpunkt (oft auch t = 0), t⋆ = Fälligkeitszeitpunkt des Derivates. Die
Laufzeit des betrachteten Geschäftes ist dann T = t⋆ − t.
Preis des underlying: S bzw. St , S(t), (S, t)
Ausübungskurs (Basispreis) bzw. Terminkurs: K
Volatilität des underlying: σ, beschreibt das Schwankungsverhalten des underlying
Bestandshaltekosten des underlying:
Die Bestandshaltekosten ergeben sich als Summe aller Kosten (inklusive Opportunitätskosten), die der Besitzer des underlying tragen muss, verkleinert um eventuelle
Erträge, die der Besitzer eines underlying erhält. Überwiegen im Spezialfall die Erträge die Kosten, ergeben sich daher negative Bestandshaltekosten, d.h. im Fall B < 0
liegen Erträge, im Fall B > 0 Kosten vor!
14
c Klaus Schindler SS 2017
Kapitel 1
1.3. Derivative Finanzinstrumente
Wir unterscheiden diskrete Bestandshaltekosten B oder stetige Bestandshaltekosten b.
So sind für ein underlying mit stetigen Lagerhaltungskosten ℓ und stetiger Dividendenrendite d (jeweils in %, bezogen auf das underlying) die stetigen Bestandshaltekosten
b = i + ℓ − d. Der Zinssatz i stellt hierbei die Opportunitätskosten dar.
stetiger Zinssatz: i
eur
am
eur
am
Optionswerte: CK,t
⋆ und CK,t⋆ bzw. PK,t⋆ und PK,t⋆ bezeichnen die europäischen und amerikanischen Call- bzw. Putwerte mit Ausübungskurs K und Fälligkeitszeitpunkt t⋆ . Insgesamt gilt also
Optionspreis = Funktion(St , K, t, t⋆, σ, i)
c Klaus Schindler SS 2017
15
Derivative
Finanzinstrumente
Grundlagen
Arbitragebeziehungen
Zur Bewertung von Devisen, Zinsen, Wertpapieren, Derivaten und anderen Objekten auf
Finanzmärkten sind verschiedene ökonomische Theorien entwickelt worden. Zu erwähnen
sind in diesem Zusammenhang die Kaufkraftparitätstheorie für Wechselkurse, die Zinsstrukturtheorie, das CAPM (Capital-Asset-Pricing-Model) und das Black/Scholes-Modell
zur Bewertung von Derivaten.
Die Aussagen, die in den jeweiligen Modellen hergeleitet werden, basieren – wie alle wissenschaftlichen Modelle – auf bestimmten Denkansätzen. Eines der bekanntesten Grundaxiome, das wir im Folgenden auch stillschweigend voraussetzen, ist z.B., dass sich alle
Marktteilnehmer rational verhalten.
In den Gleichgewichtsmodellen (wie etwa dem CAPM) werden z.B. die Preise (bzw. Renditen) dadurch bestimmt, dass sie markträumend wirken, d.h. dass das Angebot gleich der
aggregierten Nachfrage ist.
In der Arbitragetheorie (wie etwa dem Black/Scholes-Modell) geht man davon aus, dass
eine Arbitrage (risikoloser Gewinn) nicht möglich ist, da diese sofort1 von den Marktteilnehmern erkannt und über eine Preisanpassung eliminiert würde.
In diesem und den nachfolgenden Kapiteln fordern wir diese Arbitragefreiheit und setzen
zusätzlich einen perfekt funktionierenden Markt (efficient-market-Hypothese) voraus.
Annahme:
Der Finanzmarkt funktioniert perfekt, d.h. Soll- und Habenzinsen sind gleich.
Es gibt keine Transaktionskosten, keine Steuern, keine Einschränkungen beim
short-selling und keine Arbitrage. Alle Wertpapiere sind beliebig teilbar.
Die unter diesen Voraussetzungen abgeleiteten Ergebnisse für Optionen und Terminkontrakte, die sich direkt aus den ökonomischen Eigenschaften dieser Finanzgeschäfte ergeben,
sind ohne weitere Annahmen gültig. Spätere mathematische Optionspreismodelle müssen
diesen Anforderungen genügen, andernfalls sind sie fehlerhaft. Wegen der einfacheren Darstellung gehen wir im folgenden immer davon aus, dass der Zinssatz während der Laufzeit konstant i ist. Ist dies nicht der Fall tritt an die Stelle des Diskontierungsfaktors
⋆
e−iT = e−i(t −t) der entsprechende Wert At eines Zerobonds (s. Bemerkung 1.3 i)).
1
Dies setzt den gleichen Informationsstand bei allen Marktteilnehmern und insbesondere eine unendlich große
Informationsgeschwindigkeit voraus.
17
Arbitragebeziehungen
K APITEL
2
ARBITRAGEBEZIEHUNGEN
Kapitel 2
Terminkontrakte
2.1. Arbitragefreiheit
Arbitragebeziehungen
Eine zentrale Eigenschaft, die sich aus der Arbitragefreiheit ergibt ist, dass zwei Portfolios, die zu einem bestimmten Zeitpunkt den gleichen Wert haben, auch zu jedem früheren
Zeitpunkt wertgleich sein müssen. Genauer gilt folgender Satz.
Satz 2.1
Hat ein Portfolio in einem perfekten Markt zu einem Zeitpunkt t⋆ (mit Sicherheit) einen
positiven Wert, so gilt dies auch zu jedem früheren Zeitpunkt, sofern das Portfolio nicht von
außen verändert werden kann.
❑
Beweis:
Bezeichne VP (t) den Wert eines Portfolios P zum Zeitpunkt t und gelte VP (t⋆ ) > 0. Dann
ist zu zeigen, dass gilt:
∀t 6 t⋆ : VP (t) > 0
Wir führen den Beweis indirekt, indem wir annehmen, dass VP (t) < 0 zu einem Zeitpunkt
t 6 t⋆ gilt.
Kauft man Portfolio P zum Zeitpunkt t, so bedeutet dies, dass man den Betrag −VP (t) > 0
erhält. Hält man Portfolio P bis zum Zeitpunkt t⋆ und verkauft es zum Zeitpunkt t⋆ (Dies
ist nur möglich, weil es nicht von außen verändert werden kann!), erhält man zusätzlich
noch den Betrag VP (t⋆ ) > 0. Insgesamt hat der Kauf des Portfolios einen risikolosen Gewinn
zum Zeitpunkt t⋆ in Höhe
⋆ −t)
−VP (t) ei(t
|
{z
>0
}
+ VP (t⋆ ) > 0
| {z }
>0
erbracht, was einen Widerspruch zur Arbitragefreiheit darstellt.
Bemerkung 2.2
Angewendet wird Satz 2.1 meistens in folgender Form:
Für zwei Portfolios A und B, die nicht von außen verändert werden können, gelten in einem
perfekten Markt folgende Aussagen:
VA (t⋆ ) 6 VB (t⋆ ) =⇒ ∀t 6 t⋆ : VA (t) 6 VB (t)
VA (t⋆ ) = VB (t⋆ ) =⇒ ∀t 6 t⋆ : VA (t) = VB (t)
Zum Beweis bilde man ein Portfolio P bestehend aus Portfolio B long und Portfolio A
short. Dann gilt VP (t⋆ ) = VB (t⋆ ) − VA (t⋆ ) > 0 und es kann Satz 2.1 angewendet werden. ❐
18
c Klaus Schindler SS 2017
Arbitragebeziehungen
Kapitel 2
2.2. Terminkontrakte
Satz 2.3
Sei K der Terminkurs eines zum Zeitpunkt t⋆ fälligen Terminkaufs auf ein underlying mit
dem Kurs St . Mit VK,t⋆ (St ) bezeichnen wir den Wert des Terminkaufs.
a) Fallen während der Laufzeit T =t⋆ −t auf das underlying nur diskrete Bestandshaltekosten2 im Gesamtwert Bt (bezogen auf den Zeitpunkt t) an, so gilt
VK,t⋆ (St ) = St − Bt − K· e−iT .
(2.1)
Der Forward Price Ft ist in diesem Fall gleich Ft = (St −Bt )· eiT .
b) Werden stetige Bestandshaltekosten b auf das Objekt vorausgesetzt, so gilt
VK,t⋆ (St ) = St · e(b−i)T −K· e−iT
(2.2)
Der Forward Price Ft ist in diesem Fall gleich Ft = St · ebT .
❑
Beweis:
Wir wollen der Einfachheit voraussetzen, dass das underlying eine Aktie mit diskreten Dividenden mit dem Barwert Dt bzw. stetigem Dividendenertrag d (also d = i − b) ist.
a) Wir betrachten zum Zeitpunkt t zwei Portfolios A und B mit folgendem Aussehen
Portfolio A : Terminkauf der Aktie zum Terminkurs K, fällig zum Zeitpunkt t⋆ .
Portfolio B: Kauf einer Aktie. Verkauf eines Zerobonds mit Nominalwert K und
eines Zerobonds mit Barwert Dt , Fälligkeitszeitpunkt jeweils t⋆ .
Da mit den Dividendenerträgen der Aktie in Portfolio B die Anleihe mit Barwert
Bt zurückgezahlt wird, haben beide Portfolios zum Zeitpunkt t⋆ den gleichen Wert,
nämlich St⋆ − K. Daher gilt zum Zeitpunkt t ebenfalls die Gleichheit, also
VK,t⋆ (St ) = St − Dt − K· e−iT .
b) Besitzt die Aktie eine stetige Dividendenrendite d kann ähnlich argumentiert werden.
Wieder betrachten wir zwei Portfolios A und B zum Zeitpunkt t, wobei A wie im
Beweis von Teil a) gewählt wird. Portfolio B hat folgendes Aussehen
Portfolio B: Kauf von e(b−i)T Aktien. Verkauf eines Zerobonds im Nominalwert K.
2
Man beachte, dass Bt < 0 gelten kann.
c Klaus Schindler SS 2017
19
Arbitragebeziehungen
2.2. Terminkontrakte
ARBITRAGEBEZIEHUNGEN
Kapitel 2
Terminkontrakte
Arbitragebeziehungen
Wird die Dividende direkt in die Aktie reinvestiert, enthält Portfolio B zum Zeitpunkt t⋆ genau eine Aktie. Unter Berücksichtigung der Anleihe hat Portfolio B zum
Zeitpunkt t⋆ den Wert St⋆ − K, d.h. den gleichen Wert wie Portfolio A . Daher muss
wie in Teil a) die Wertgleichheit der beiden Portfolios zum Zeitpunkt t gelten, also
VK,t⋆ (St ) = e(b−i)T ·St − K· e−iT .
Bemerkung 2.4
Der Beweis des letzten Satzes zeigt insbesondere, dass Terminkontrakte durch ein Portfolio
mit Anleihen und Objekten dupliziert werden können. Im Gegensatz zur dynamischen Duplikation (siehe Kapitel 6) wird der Aufbau des Duplikationsportfolios zu Beginn der Laufzeit
festgelegt und beibehalten, unabhängig davon, wie der spätere Kursverlauf aussieht. Entscheidend bei dieser Argumentation ist, dass kein Teil von Portfolio A oder Portfolio B
von außen verändert werden kann, wie zum Beispiel bei short-Positionen in amerikanischen
Calls oder Puts.
❐
Beispiel 2.5
i) Betrachte den Terminkauf einer 5-Jahres Anleihe, die zum Kurs 900 e gehandelt wird.
Der Terminkurs betrage 910 e, die Laufzeit des Kontraktes ein Jahr. Couponzahlungen
von 60 e fallen in 6 bzw. 12 Monaten (letztere kurz vor Fälligkeit des Kontraktes) an.
Der stetige Jahreszins für 6 bzw. 12 Monate betrage 9% bzw. 10%. In diesem Fall ist
1
St = 900, K = 910, i = 0.10, T = 1, D = 60· e−0.09· 2 +60· e−0.10 = 111.65
Der Wert des Terminkaufs ist dann3
VK,t⋆ (St ) = 900 − 111.65 − 910 e−0.10 = −35.05.
Der Käufer dieses Kontraktes erhält also Fall +35.05 e. Der Forward Price Ft beträgt
Ft = (St −D)· eiT = 788.35 e· e0.1 = 871.26 e.
ii) Betrachte einen Dollar Terminkauf. In diesem Fall liegt ein stetiger Dividendenertrag
d in Höhe des amerikanischen Zinssatzes vor. Bezeichnet S den Dollarkurs, i den
inländischen Zinssatz, so ist der Forward Price gleich
Ft = St · e(i−d)T .
Für i>d ergibt sich ein Report St < Ft (Zinsaufschlag), für i<d ergibt sich ein Deport
St > Ft (Zinsabschlag)4.
❐
3
Beim Kauf der Anleihe wird vorausgesetzt, dass keine Stückzinsen anfallen. Andernfalls ist der Wert des
Terminkaufs um die entsprechend abgezinste Größe zu verringern, da K um die Stückzinsen erhöht wird.
4
Preisnotiz, nicht Mengennotiz!
20
c Klaus Schindler SS 2017
Arbitragebeziehungen
Kapitel 2
2.2. Terminkontrakte
Beweis:
Nehmen wir an, dass der Future Kontrakt eine Laufzeit von n Tagen besitzt. K bezeichne
den Forward Price am Ende des 0-ten Tages (Kontraktbeginn), Fℓ sei der Future Price am
Ende des ℓ−ten Tages, ρ der stetige Tageszinssatz5 . Wir konstruieren zwei Portfolios.
Portfolio A : Kauf eines Zerobonds mit Nominalwert K und eines Terminkontraktes
mit Forward Price K. Fälligkeit jeweils in n Tagen.
Portfolio B: Kauf von Futures derart, dass zu Beginn des ℓ−ten Tages genau e(ℓ−n)ρ
Futures im Portfolio vorhanden sind (ℓ = 0, 1, . . . , n).
Kauf eines Zerobonds mit Nominalwert F0 und Fälligkeit in n Tagen.
Wir zeigen nun, dass beide Portfolios zum Zeitpunkt t⋆ den gleichen Wert haben.
Am Ende des n-ten Tages (= Verfallszeitpunkt t⋆ ) hat Portfolio A den Wert St⋆ . Der Wert
von Portfolio B zum Zeitpunkt t⋆ ergibt sich, indem wir den täglichen Gewinn (Verlust) der
Futureposition bis zum n-ten Tag aufzinsen und zur Anleiheposition addieren. Der Gewinn
(bzw. Verlust) der e(ℓ−n)ρ Futures am Tag ℓ ist (Fℓ − Fℓ−1 ) e(ℓ−n)ρ , aufgezinst also
(Fℓ − Fℓ−1 ) e(ℓ−n)ρ · e(n−ℓ)ρ = Fℓ − Fℓ−1 .
Der Gesamtgewinn(/verlust) der Futures am Ende von Tag n ist daher
n
X
ℓ=1
(Fℓ − Fℓ−1 ) = Fn − F0 .
Zusammen mit der Anleiheposition hat daher Portfolio B zum Zeitpunkt t⋆ den Wert
(Fn − F0 ) + F0 = Fn = St⋆ .
Da beide Portfolios zum Zeitpunkt t⋆ den gleichen Wert haben, muss dies auch für den
Zeitpunkt 0 gelten. Da die Futures und der Terminkontrakt zu Beginn den Wert 0 haben,
liefert die Wertgleichheit der beiden Portfolios K e−nρ = F0 e−nρ und damit K = F0 .
Der Beweis des letzten Satzes zeigt, dass bei konstanten Zinsen Forward-Kontrakte mittels Future-Kontrakten mit gleichem Verfallszeitpunkt in einem dynamischen Roll-overVerfahren dupliziert werden können. Das Verfahren soll im folgenden anhand der Ölkontrakte aus Beispiel 1.6 demonstriert werden.
5
Erfolgt das Settlement nicht täglich, sondern in anderen Perioden, läuft der Beweis entsprechend.
c Klaus Schindler SS 2017
21
Arbitragebeziehungen
Satz 2.6
Ist der Zinssatz während der Laufzeit konstant, so sind Future und Forward Price gleich. ❑
ARBITRAGEBEZIEHUNGEN
Kapitel 2
Optionen
Beispiel 2.7
Daten: i = 4.2%, ℓ = 1.0%, b = 5.2%, jeweils stetig p.a., t⋆ = 5, jährliches Settlement
Spotpreis St , Futurepreis Ft = St ebT .
Arbitragebeziehungen
t
St
Ft
Futureanzahl
ft im Jahr t
0
1
2
3
4
5
17
18
16
15
14
14
22.04
22.16
18.70
16.64
14.75
14.00
e−5i ≈ 0.81
e−4i ≈ 0.85
e−3i ≈ 0.88
e−2i ≈ 0.92
e−i ≈ 0.96
1
Restlaufzeit
T =t⋆ −t
5
4
3
2
1
0
Margin
total
aufgezinst
(Ft −Ft−1 ) · ft (Ft −Ft−1 )·ft · eiT
0
+0.12 e−4i
−3.46 e−3i
−2.06 e−2i
−1.89 e−i
−0.75
0
+0.12 e−4i e4i
−3.46 e−3i e3i
−2.06 e−2i e2i
−1.89 e−i ei
−0.75
−8.04
Zum Zeitpunkt t⋆ =5 ergibt sich als Preis für den Kauf eines Barrel Öls gerade der ursprüngliche Terminkurs K=S0 ebT =22.04 [ $/Barrel ].
Kosten für den Kauf von einem Barrel Öl:
Aufgezinste Futurekosten (Margins):
14.00 $
08.04 $
Total:
22.04 $
❐
2.3. Optionen
Wir wollen nun mit ähnlichen Methoden Aussagen für Optionen herleiten. Die elementarsten
dieser Aussagen geben wir im folgenden Satz ohne Beweis an, da sie eine einfache Übung
für den Umgang mit Arbitragetabellen darstellen.
Satz 2.8 (Elementareigenschaften von Optionen)
Für Optionen gelten folgende elementare Relationen
(1) Optionspreise sind nicht-negativ, da eine Ausübung nur stattfindet, wenn es im Interesse des Optionshalters liegt.
(2) Zum Verfallszeitpunkt t⋆ besitzen (die ansonsten gleiche) amerikanische und europäische Option denselben Wert, nämlich den inneren Wert.
(3) Eine amerikanische Option muss mindestens zu ihrem inneren Wert gehandelt werden.
Diese Relation gilt für europäische Optionen im allgemeinen nicht6 .
6
Grund hierfür ist, dass eine europäische Option nur indirekt über ein Termingeschäft zum heutigen Zeitpunkt
ausgeübt werden kann. Im Fall eines europäischen Call führt ein Terminverkauf mit Terminkurs K und
Fälligkeit t⋆ zu (St ebT −K) e−iT = St e−dT −K e−iT . Der hierbei auftretende Abzinsungsfaktor kann den
Optionspreis unter den inneren Wert der Option drücken (siehe hierzu Kapitel 9).
22
c Klaus Schindler SS 2017
Arbitragebeziehungen
Kapitel 2
2.3. Optionen
OK,t⋆2 (St⋆1 ) > Innerer Wert zum Zeitpunkt t⋆1 = OK,t⋆1 (St⋆1 )
Für europäische Optionen ist diese Aussage im allgemeinen nicht erfüllt.
(5) Eine amerikanische Option hat mindestens den gleichen Wert wie die ansonsten identische europäische Option.
(6) Calls bzw. Puts sind als Funktion des Ausübungskurses monoton fallend bzw. monoton
wachsend. Dies gilt für amerikanische und europäische Optionen.
❑
2.3.1. Put-Call-Parität
Satz 2.9 (Put-Call-Parität für europäische Optionen)
Ein Portfolio, das je einen europäischen Call long und einen europäischen Put short enthält, mit gleichem Verfallszeitpunkt t⋆ und Ausübungskurs K auf das gleiche underlying,
dupliziert einen Terminkauf mit Terminkurs K und Fälligkeit t⋆ . Insbesondere folgt:
a) Fallen während der Optionslaufzeit T =t⋆ −t auf das underlying Bestandshaltekosten
mit dem Barwert Bt an, so gilt:
CK,t⋆ (St ) − PK,t⋆ (St ) = St − K e−iT −Bt
b) Fallen während der Optionslaufzeit T =t⋆ −t auf das underlying stetige Bestandshaltekosten b auf das Objekt an, so gilt:
CK,t⋆ (St ) − PK,t⋆ (St ) = St e(b−i)T −K e−iT
❑
Beweis:
In beiden Fällen (diskrete/stetige Bestandshaltekosten) betrachten wir folgende Portfolios:
Portfolio A : 1.) Kaufe den Call
2.) Verkaufe den Put
Portfolio B: 1.) Terminkauf des Objekts zum Terminkurs K, Fälligkeit t⋆
Für den Wert der Portfolios zum Zeitpunkt t⋆ gilt dann:
Position
1.)
2.)
Summe
Portfolio A
Portfolio B
Wert zum Zeitpunkt t⋆
K < St⋆
K > St⋆
0
−(K − St⋆ )
St⋆ − K
0
Wert zum Zeitpunkt t⋆
K < St⋆
K > St⋆
St⋆ − K
St⋆ − K
St⋆ − K
Position
1.)
Summe
St⋆ − K
c Klaus Schindler SS 2017
St⋆ − K
St⋆ − K
23
Arbitragebeziehungen
(4) Bezeichnen OK,t⋆1 und OK,t⋆2 den Wert zweier - bis auf die Laufzeit - gleicher amerikanischer Optionen mit t⋆1 6 t⋆2 , so gilt OK,t⋆1 6 OK,t⋆2 . Dies folgt aus der Ungleichung
Kapitel 2
ARBITRAGEBEZIEHUNGEN
Optionen
Um Arbitragemöglichkeiten zu verhindern, müssen daher beide Portfolios zum Zeitpunkt t
den gleichen Wert haben, d.h. es gilt
Arbitragebeziehungen
CK,t⋆ (St ) − PK,t⋆ (St ) = VK,t⋆ (St ) .
Ersetzt man VK,t⋆ (St ) durch den in Satz 2.3 bestimmten Wert (siehe Formel (2.1) bzw.
(2.2)), erhält man die Behauptung.
Bemerkung 2.10
Man beachte, dass der Beweis des letzten Satzes nur für europäische Optionen funktioniert. Liegen amerikanische Optionen vor, muss mit einer vorzeitigen Ausübung des short
gehaltenen Call gerechnet werden.
❐
2.3.2. Konvexitätseigenschaften
Satz 2.11
Der Preis O einer Option (amerikanisch oder europäisch) ist als Funktion des Ausübungskurses konvex, d.h. es gilt
OλK1+(1−λ)K2 ,t⋆ (St ) 6 λOK1 ,t⋆ (St ) + (1 − λ)OK2,t⋆ (St ).
❑
Beweis:
Es genügt Calls zu betrachten. Für Puts läuft der Beweis analog.
Für λ ∈ [0, 1] und K1 < K2 betrachten wir folgendes Portfolio zum Zeitpunkt t:
1) Kaufe λ Calls mit Ausübungskurs K1
2) Kaufe (1−λ) Calls mit Ausübungskurs K2
3) Verkaufe 1 Call mit Ausübungskurs K := λK1 + (1−λ)K2
Dieses Portfolio besitzt zum Zeitpunkt t den Wert
λCK1,t⋆ (St ) + (1−λ)CK2 ,t⋆ (St ) − CλK1 +(1−λ)K2 ,t⋆ (St )
Liquidiert man das Portfolio vollständig zu einem beliebigen Zeitpunkt t̃ (etwa im Fall der
vorzeitigen Ausübung der short-Position im Fall amerikanischer Optionen), so ergibt sich
für den Wert des Portfolios:
Position
1)
2)
3)
Summe
24
St̃ 6 K1
0
0
0
0
Wert zum Zeitpunkt t̃
K1 < St̃ 6 K
K < St̃ 6 K2
λ(St̃ − K1 )
λ(St̃ − K1 )
0
0
0
−(St̃ − K)
λ(St̃ − K1 )
(1−λ)(K2 − St̃ )
c Klaus Schindler SS 2017
K2 < St̃
λ(St̃ − K1 )
(1−λ)(St̃ − K2 )
−(St̃ − K)
0
Arbitragebeziehungen
Kapitel 2
2.3. Optionen
λCK1 ,t⋆ (St ) + (1−λ)·CK2 ,t⋆ (St ) − CλK1 +(1−λ)K2 ,t⋆ (St ) > 0
Beispiel 2.12
Wir betrachten drei Kaufoptionen auf die SCHMERZBANK A.G. mit gleicher Laufzeit und
den Ausübungskursen K1 = 190 , K = 200 , K2 = 220. Die Optionspreise seien
Ausübungskurs
K1 = 190
K = 200
K2 = 220
Optionspreis
30.6 e
26.0 e
14.4 e
Nach dem letzten Satz muss gelten:
2
C ⋆ (St )
3 K1 ,t
+ 13 CK2 ,t⋆ (St ) > C 2 K1 + 1 K2 ,t⋆ (St )
3
3
Diese Bedingung ist verletzt und kann durch folgendes Arbitrageportfolio genutzt werden:
1) Kaufe
2
3
Calls mit Ausübungskurs K1
2) Kaufe
1
3
Calls mit Ausübungskurs K2
3) Verkaufe 1 Call mit Ausübungskurs K := 32 K1 + 31 K2
Zum jetzigen Zeitpunkt liefert dieses Portfolio den Cashflow +0.80 e. Zum Verfalls- bzw.
Liquidationszeitpunkt t̃ der Optionen liefert das Portfolio folgenden Payoff:
Position
1)
2)
3)
Summe
St̃ 6 190
0
0
0
0
Wert zum Zeitpunkt t̃
190 < St̃ 6 200 200 < St̃ 6 220
2
2
(St̃ − 190)
(St̃ − 190)
3
3
0
0
0
−(St̃ − 200)
2
1
(St̃ − 190)
(220 − St̃ )
3
3
220 < St̃
− 190)
− 220)
−(St̃ − 200)
0
2
(St̃
3
1
(St̃
3
Das Portfolio liefert für Aktienkurse St̃ zwischen 190 und 220 zusätzlich noch einen positiven
Cashflow von maximal
20
3
❐
e.
Satz 2.13
Für zwei europäische Calls (bzw. Puts) mit gleicher Laufzeit, gleichem Verfallsdatum t⋆ und
den Ausübungskursen K2 > K1 gilt:
0 6 CK1 ,t⋆ (St ) − CK2 ,t⋆ (St ) 6 e−iT (K2 − K1 )
c Klaus Schindler SS 2017
25
Arbitragebeziehungen
Da λ(St̃ − K1 ) > 0 und (1−λ)(K2 − St̃ ) > 0 gilt, ist der Wert des Portfolios zum Zeitpunkt t̃
größer gleich Null. Damit keine Arbitrage möglich ist, muss das Portfolio auch zum Zeitpunkt
t einen nichtnegativen Wert besitzen. Es gilt also
ARBITRAGEBEZIEHUNGEN
Kapitel 2
Optionen
bzw.
Arbitragebeziehungen
0 6 PK2 ,t⋆ (St ) − PK1 ,t⋆ (St ) 6 e−iT (K2 − K1 )
Sind die Optionswerte als Funktion des Ausübungskurses differenzierbar, folgt speziell
−1 6 − e−iT 6
∂C
∂K
6 0 bzw. 0 6
∂P
∂K
6 e−iT 6 1
❑
Beweis:
Es genügt, den Beweis für Calls zu führen. Hierzu betrachten wir folgendes Arbitrageportfolio zum Zeitpunkt t:
1) Kaufe einen Call mit Ausübungskurs K2
2) Verkaufe einen Call mit Ausübungskurs K1
3) Kaufe Anleihen im Nominalwert (K2 − K1 ) fällig zum Zeitpunkt t⋆ .
Zum Zeitpunkt t⋆ gilt für den Wert des Portfolios:
Position
1)
2)
3)
Summe
Wert zum Zeitpunkt t⋆
St⋆ 6 K1 K1 < St⋆ < K2
K2 6 St⋆
0
0
St⋆ − K2
0
−(St⋆ − K1 )
−(St⋆ − K1 )
K2 − K 1
K2 − K 1
K2 − K1
K2 − K 1
K2 − St⋆
0
Der Wert des Portfolios zum Zeitpunkt t⋆ ist offensichtlich nicht-negativ. Folglich muss
dies auch für den Wert zum Zeitpunkt t gelten, d.h.
e−iT (K2 − K1 ) + CK2 ,t⋆ (St ) − CK1 ,t⋆ (St ) > 0
26
c Klaus Schindler SS 2017
K APITEL
3
Wahrscheinlichkeitsrechnung
3.1. Zufall und Ereignisse
Lässt man einen Stein aus 10 m Höhe fallen, so kann mit den Newtonschen Gesetzen der Aufprallzeitpunkt berechnet werden, bevor das Experiment ausgeführt wird. Komplexe Systeme
(Aktienkurs zu einem bestimmten Zeitpunkt, Tageshöchsttemperatur an einem bestimmten
Ort) lassen sich dagegen nicht exakt (deterministisch) beschreiben, weil der - das System
bestimmende - zukünftige Umweltzustand zufällig ist und daher nur ungenau vorausgesagt
werden kann, wie sich das System zeitlich entwickelt.
Die meisten der in der Natur auftretenden Systeme besitzen diese komplexe innere Struktur, hängen also vom jeweils eintretenden Umweltzustand und damit mehr oder minder stark
vom Zufall ab. Sie können nicht befriedigend durch ein deterministisches Modell beschrieben werden. Zur Beschreibung dieser Systeme, die wegen ihrer Komplexität schwer oder
nur ungenau gemessen werden können, muss man daher Vermutungen (Prognosen) über
den zukünftigen nicht deterministischen, stochastischen Charakter unserer Umwelt abgeben. Genau genommen gibt es keine deterministischen Prozesse. Prozesse dieses Namens
haben lediglich die Eigenschaft, dass der Einfluss des Zufalls im Rahmen der Messgenauigkeit des jeweiligen Experimentes vernachlässigt werden kann.
Wegen dieser Unmöglichkeit, den zukünftigen Umweltzustand und alle damit verbundenen
Größen exakt vorherzusagen, ist man auch nur in der Lage, eine Bandbreite bzw. Teilmenge
von möglicherweise eintretenden Umweltzuständen anzugeben.
Definition 3.1
Ω bezeichne im Folgenden eine Menge von möglichen Umweltzuständen ω, deren Eintritt
nicht vorhersehbar ist. Ein Umweltzustand ω ∈ Ω ist dabei als Zusammenfassung aller
Zustände und Konstellationen, welche die betrachteten Größen beeinflussen, zu verstehen.
Die Menge Ω wird als Zustands- oder Ergebnisraum, Teilmengen von Ω werden als Ereignisse
bezeichnet. Ist ein Zustand ω ∈ Ω eingetreten, so sagen wir, „Das Ereignis A ist eingetreten“,
wenn ω ∈ A gilt. Im Fall ω ∈
/ A sagt man, „Das Ereignis A ist nicht eingetreten“. Ein
Ereignis wird als bekannt bezeichnet, wenn es eingetreten oder nicht eingetreten ist.
❐
Wahrscheinlichkeitsrechnung
Kapitel 3
Ereignisse und σ-Algebren
3.2. σ-Algebren
Mit dem Eintreten eines Zustandes ω sind nicht nur einzelne Ereignisse sondern auch zusammengesetzte Ereignisse bekannt1 . Sind nämlich A und B bekannte Ereignisse, so gilt dies
aus mengentheoretischen Gründen z.B. auch für ∁A, A ∩ B oder A ∪ B. Ein System A von
beobachtbaren Ereignissen, das diese mehr oder minder naheliegenden mengentheoretischen
Eigenschaften besitzt, wird als σ-Algebra bezeichnet. Genauer definiert man:
Wahrscheinlichkeitsrechnung
Definition 3.2
Ein System A von Teilmengen der Menge Ω heißt eine σ-Algebra in Ω, wenn es folgende
Eigenschaften erfüllt:
(A1) Ω ∈ A
(A2) A ∈ A =⇒ ∁A ∈ A
(A3) A1 , A2 , · · · ∈ A =⇒
∞
S
i=1
Ai ∈ A
Ein Paar (Ω, A), bestehend aus einem Zustandsraum Ω und einer σ-Algebra A ⊂ ℘(Ω) wird
als Messraum bezeichnet.
❐
Beispiel 3.3
Wir betrachten den Zustandsraum
Ω = {KKZ, KZK, ZKK, KZZ, ZZK, ZKZ, KKK, ZZZ}.
Interpretiert man die Einzelelemente von Ω als Ergebnis dreier aufeinanderfolgender Münzwürfe, wobei K für Kopf, und Z für Zahl steht, so beschreibt die Teilmenge
A := {KKK, KKZ, KZK, KZZ}
das Ereignis, dass im ersten Wurf Kopf, die Teilmenge
B := {KZK, ZZK, KZZ, ZZZ},
das Ereignis, dass im zweiten Wurf Zahl erscheint. Der Durchschnitt der beiden Ereignisse
A ∩ B = {KZZ, KZK} beschreibt dann das Ereignis, dass der 1. Wurf Kopf und der 2. Wurf
Zahl geliefert hat. Drei Beispiele für mögliche σ-Algebren in Ω sind:
A0 = {∅, Ω}
A1 =
A2 =
1
∅, Ω, {KKK, KKZ, KZK, KZZ}, {ZZZ, ZZK, ZKZ, ZKK}
℘(Ω)
❐
I.d.R. sind Ereignisse bekannt, nicht jedoch der eingetretene Zustand ω bzw. das eingetretene Elementarereignis {ω}. Dies führt u.a. zum Begriff der bedingten Wahrscheinlichkeit (siehe hierzu Abschnitt 3.8).
28
c Klaus Schindler SS 2017
Stochastik
Kapitel 3
3.3. Wahrscheinlichkeitsmaße
Zwar kann man i.A. nicht voraussagen, welche Ereignisse zukünftig eintreten, jedoch ist
es oft möglich, eine Einschätzung abzugeben, mit welchen Ereignissen in einer gegebenen
σ-Algebra eher zu rechnen ist und welche weniger plausibel sind. Dies wird präzisiert durch
die Angabe von Werten zwischen 0 und 1, die man als Wahrscheinlichkeit bezeichnet. Ist
A ⊂ Ω ein Ereignis, so bezeichne P(A) im Folgenden immer die (für einen Marktteilnehmer
subjektive) Wahrscheinlichkeit dafür, dass das Ereignis A eintritt. Man nennt P ein Wahrscheinlichkeitsmaß. Wiederum aufgrund mengentheoretischer Überlegungen macht es Sinn,
von diesem Maß gewisse Eigenschaften zu fordern. Sind z.B. A und B disjunkte Ereignisse,
d.h. sind die Mengen A und B disjunkt, sollte P(A ∪B)
·
= P(A) + P(B) gelten. Außerdem sollte die Wahrscheinlichkeit für alle Ereignisse aus der gegebenen σ-Algebra berechnet
werden können. Dies führt zu folgender Definition.
Definition 3.4
Sei A eine σ-Algebra im Zustandsraum Ω. Eine Funktion P : A → [0, 1] heißt Wahrscheinlichkeitsmaß auf A, wenn gilt
1.) P(Ω) = 1
2.) P ist σ-additiv, d.h. für jede Folge paarweise disjunkter Mengen A1 , A2 , . . . gilt:
P
∞
S
· Ai
i=1
=
∞
X
P(Ai ).
i=1
Das Tripel (Ω, A, P) wird als Wahrscheinlichkeitsraum bezeichnet.
❐
Beispiel 3.5
Betrachten wir Beispiel 3.3 mit der Annahme, dass bei jedem Münzwurf die Wahrscheinlichkeit für Kopf p und für Zahl q := 1−p sei. Im Fall der Unabhängigkeit der einzelnen Würfe
sind die Wahrscheinlichkeiten der (einelementigen) Elementarereignisse A = {ω} bekannt.
Z.B. gilt:
P({KKK}) = p3 , P({KZK}) = p2 q, P({ZZZ}) = q 3
Die Wahrscheinlichkeit eines beliebigen Ereignisses A ergibt sich dann nach Eigenschaft
2.) eines Wahrscheinlichkeitsmaßes als Summe der Wahrscheinlichkeiten der in A liegenden
Elementarereignisse, d.h.,
P(A) =
X
P({ω}).
ω∈A
Z.B. gilt
P({KKK, KKZ, KZK, KZZ}) = p3 + 2p2 q + pq 2 = p
was nur eine andere Formulierung dafür ist, dass die Wahrscheinlichkeit für Kopf im ersten
Wurf p beträgt. P ist also ein Wahrscheinlichkeitsmaß auf der σ-Algebra A = ℘(Ω).
❐
c Klaus Schindler SS 2017
29
Wahrscheinlichkeitsrechnung
3.3. Wahrscheinlichkeitsmaße
Wahrscheinlichkeitsrechnung
Kapitel 3
Wahrscheinlichkeitsmaße
Bemerkung 3.6
In einem Wahrscheinlichkeitsraum (Ω, A, P) gelten folgende häufig verwendete Eigenschaften
(siehe auch das Übungsprogramm).
i)
1) P(A∪B) + P(A∩B) = P(A) + P(B)
2) A ⊂ B =⇒ P(A) 6 P(B)
3) A ⊂ B =⇒ P(B\A) = P(B) − P(A)
ii) Für eine aufsteigende Folge von Mengen Aℓ
Wahrscheinlichkeitsrechnung
∞
ℓ=1
definiert man lim Aℓ :=
ℓ→∞
∞
S
Aℓ .
ℓ=1
Das Wahrscheinlichkeitsmaß P ist „stetig“, d.h. für jede „monoton wachsende“ Folge
A1 ⊂ A2 ⊂ A3 . . . von Ereignissen aus A, gilt
lim P(Aℓ ) = P(lim Aℓ ) .
ℓ→∞
ℓ→∞
iii) Bei der konkreten Bestimmung des Wahrscheinlichkeitsmaßes sind zwei Konzepte zu
unterscheiden. Zum einen die subjektive Wahrscheinlichkeit, die angibt, wieviel man
auf das Eintreten eines Ereignisses wetten würde und im Gegensatz hierzu die Laplacesche Wahrscheinlichkeit, die über die relative Häufigkeit berechnet wird.
❐
3.4. Zufallsvariablen und Messbarkeit
So elegant und allgemein das Konzept des Wahrscheinlichkeitsraumes gehalten ist2 , so wenig
praktikabel erscheint es, da eine vollständige Bestimmung des gesamten Zustandsraumes Ω
auf Grund seiner Komplexität i.A. unmöglich oder viel zu aufwändig wäre3 . Man wird sich
daher nur auf die Daten bzw. Ereignisse konzentrieren, an denen man wirklich interessiert ist.
Diese Größen, wie z.B. Aktienkurse oder Temperaturen, deren Werte direkt vom jeweiligen
zufälligen zukünftigen Umweltzustand abhängen, bezeichnet man als Zufallsgrößen.
Definition 3.7
Eine Abbildung auf dem Zustandsraum Ω
Z:Ω→
R
d
mit
ω 7→ Z(ω)
bezeichnet man als Zufallsgröße. Im Fall d=1 spricht man von einer Zufallsvariable. Im Fall
d>1 ist Z ein Vektor von Zufallsvariablen, d.h. es gilt Z = (Z1 , . . . , Zd ) und man spricht
von einem d-dimensionalen Zufallsvektor.
❐
2
Dieses grundlegende axiomatische Modell geht auf den russischen Mathematiker Kolmogoroff zurück.
3
Warum bzw. wie sollte man Informationen über die momentane Zahl der Neutrinos sammeln?
30
c Klaus Schindler SS 2017
Stochastik
Kapitel 3 3.4. Zufallsvariablen und Messbarkeit
Beispiel 3.8
i) Sei (Ω, A) ein Messraum. Einfachstes Beispiel einer Zufallsvariablen ist die Indikatorfunktion A : Ω → einer Menge A ⊂ Ω. Diese Funktion ist definiert durch
R
A (ω)
:=


1 falls ω ∈ A
 0 falls ω 6∈ A
A (ω)
✻
✛
ω✲
✲
A
Ω
Treppenfunktionen (siehe folgende Skizze für eine Treppenfunktion mit n=5 Stufen)
sind Linearkombinationen von Indikatorfunktionen, also Funktionen der Form
T :=
n
X
k=1
αk ·
Ak
R
mit αk ∈ , Ak ⊂Ω .
α2
✻T (ω)
α5
α1
α3
✛
A1
✲✛
✲✛ A3 ✲✛
A2
A4
✲✛A5✲
ω✲
Ω
α4
ii) Sei Ω := {KKZ, KZK, ZKK, KZZ, ZZK, ZKZ, KKK, ZZZ} wie in Beispiel 3.3. S0 , u und
d seien vorgegebene reelle Zahlen mit 0<d<u. Wir definieren Z : Ω → durch:
R
Z(ω) :=













S0 ·u3
S0 ·u2d
S0 ·ud2
S0 ·d3
falls
falls
falls
falls
ω
ω
ω
ω
= KKK
∈ {KKZ, KZK, ZKK}
∈ {KZZ, ZZK, ZKZ}
= ZZZ
Z ist eine Zufallsvariable4 auf dem Zustandsraum Ω.
4
Wählt man S0 als festen Vektor des
❐
Rd liefert das Beispiel einen Zufallsvektor.
c Klaus Schindler SS 2017
31
Wahrscheinlichkeitsrechnung
1
Wahrscheinlichkeitsrechnung
Kapitel 3
Wahrscheinlichkeitsmaße
Statt alle möglichen Ereignisse zu betrachten, wird man seine Aufmerksamkeit auf die
Ereignisse konzentrieren, die mit einer gegebenen Zufallsgröße Z zu tun haben. Da auf
Grund des vorher schon erwähnten nicht vorhersehbaren stochastischen Charakters unserer
Umwelt nur eine Bandbreite von in Frage kommenden zukünftigen Umweltzuständen angegeben werden kann (Ereignisse), ist es bei einer gegebenen ZV Z auch sinnvoller, nach dem
Eintreten eines Intervalls von Werten von Z, statt nach dem Eintreten einzelner Werte zu
fragen. Von Interesse sind also vor allem die Ereignisse in Ω, für die Z Werte innerhalb eines
vorgegebenen Intervalls annimmt, also die Urbilder
Wahrscheinlichkeitsrechnung
Z −1 (]−∞, x]) = {ω∈Ω | −∞ < Z(ω) 6 x} =: {Z 6 x}.
„Beherrschbar“ ist eine Zufallsgröße Z nur, wenn diese Ereignisse beobachtbar bzw. „messbar“ sind, d.h. wenn man die Eintrittswahrscheinlichkeit dieser Ereignisse berechnen kann.
Mathematisch bedeutet dies, dass sie im Definitionsbereich des Wahrscheinlichkeitsmaßes
liegen, also Elemente der σ-Algebra sein müssen. Diese Messbarkeit ist eine Minimalforderung, die wir in Zukunft von allen Zufallsgrößen verlangen werden.
Definition 3.9
Eine Zufallsgröße Z : Ω →
∀x ∈
R
d
R
d
heißt5 messbar bzgl. der σ-Algebra A, wenn gilt:
: {Z6x} ∈ A.
Hierbei ist {Z 6 x} eine Kurznotation für die Menge der Umweltzustände ω∈Ω, die bei der
Funktion Z = (Z1 , . . . , Zd ) zu Werten unterhalb von x = (x1 , . . . , xd ) führen, d.h.:
{Z 6 x} = {ω∈Ω | Z(ω) 6 x} = {ω∈Ω | Z1 (ω) 6 x1 , . . . , Zd (ω) 6 xd }.
Beispiel 3.10
i) Die Indikatorfunktion
A (ω)
=
A
:Ω→
❐
R aus Beispiel 3.8 i) definiert durch


1 falls ω ∈ A
 0 falls ω 6∈ A
ist genau dann messbar bzgl. einer σ-Algebra A, wenn A ∈ A gilt. Es ist nämlich
{
5
A




Ω falls
16x
6 x} = ∁A falls 0 6 x < 1



∅ falls
x<0
Da die von den Intervallen in R erzeugte σ-Algebra nach dem französischen Mathematiker E.Borel benannt
ist, spricht man auch von einer Borel-messbaren Funktion. Da diese σ-Algebra von rationalen Intervallen
erzeugt wird, genügt es, Ereignisse {Z 6 x} mit rationalem x zu untersuchen.
32
c Klaus Schindler SS 2017
Stochastik
Kapitel 3 3.4. Zufallsvariablen und Messbarkeit
ii) Sei die ZV Z : Ω →
Z(ω) :=













R definiert wie in Beispiel 3.8, d.h. gelte
S0 ·u3
S0 ·u2d
S0 ·ud2
S0 ·d3
falls
falls
falls
falls
ω
ω
ω
ω
= KKK
∈ {KKZ, KZK, ZKK}
∈ {KZZ, ZZK, ZKZ}
= ZZZ
Wahrscheinlichkeitsrechnung
Für die Messbarkeit von Z sind die Mengen {ω∈Ω | Z(ω) 6 x} zu bestimmen. Beachtet
man, dass wegen 0 < d < u die Relation
0 < S0 ·d3 < S0 ·ud2 < S0 ·u2 d < S0 ·u3
gilt, folgt
{Z 6 x} =



















für
{ZZZ}
für
{KZZ, ZZK, ZKZ, ZZZ}
für
{KZZ, ZZK, ZKZ, ZZZ, KKZ, KZK, ZKK} für
Ω
für
∅
S0 ·d3
S0 ·ud2
S0 ·u2 d
S0 ·u3
6
6
6
6
x
x
x
x
x
< S0 ·d3
< S0 ·ud2
< S0 ·u2 d
< S0 ·u3
Damit ist Z nicht messbar bzgl. der σ-Algebra
A1 = ∅, Ω, {KKK, KKZ, KZK, KZZ}, {ZZZ, ZZK, ZKZ, ZKK}
aus Beispiel 3.3, jedoch (trivialerweise) messbar bzgl. der σ-Algebra
℘(Ω).
❐
Bemerkung 3.11
Am einfachsten ist die Messbarkeit einer Zufallsgröße Z dadurch zu garantieren, dass
man für A die kleinste σ-Algebra wählt, die von allen Mengen der Form {Z 6 x} erzeugt wird. Man nennt sie die von Z = (Z1 , . . . , Zn ) erzeugte σ-Algebra und schreibt
σ(Z) oder σ(Z1 , . . . , Zn ). A enthält nur die Ereignisse (Informationen), die durch Beobachtung der ZV Z1 , . . . , Zn zur Verfügung stehen (Informationseffizienz). In Beispiel
3.10 ii) ist dies die σ-Algebra, die von den Ereignissen {ZZZ}, {KZZ, ZZK, ZKZ, ZZZ} und
{KZZ, ZZK, ZKZ, ZZZ, KKZ, KZK, ZKK} erzeugt wird.
❐
Auf folgende häufig gebrauchte Eigenschaften messbarer Funktionen sei kurz hingewiesen.
Satz 3.12
ist genau dann A-messbar, wenn eine der folgenden vier äquivalenten
a) f : Ω →
Bedingungen erfüllt ist:
R
i) ∀α∈
R : {f 6 α} ∈ A
c Klaus Schindler SS 2017
33
Wahrscheinlichkeitsrechnung
Kapitel 3
Wahrscheinlichkeitsmaße
R : {f > α} ∈ A
iii) ∀α∈R : {f > α} ∈ A
iv) ∀α∈R : {f < α} ∈ A
b) Sind f, g : Ω → R zwei A-messbare Funktionen, so liegen die Mengen {f
ii) ∀α∈
< g},
{f 6 g}, {f = g} und {f 6= g} in A. Hierbei ist {f < g} die Kurzdarstellung der
Menge {ω∈Ω | f (ω) < g(ω)}. Die übrigen Mengen sind analog zu verstehen.
Wahrscheinlichkeitsrechnung
c) Alle „algebraisch zulässigen Verknüpfungen“ (z.B. Produkte und Linearkombinationen) messbarer Funktionen liefern wiederum messbare Funktionen.
d) Ist (fk )∞
k=1 eine Folge A-messbarer Funktionen auf Ω, so ist jede der folgenden Funk6
tionen A-messbar:
i) sup fk
ii) inf fk
k→∞
k→∞
iii) lim fk
❑
k→∞
Die Charakterisierung von Zufallsvariablen erfolgt überwiegend durch Kenngrößen (Momente) wie Erwartungswert oder Varianz, deren Wert durch Integration der Zufallsgrößen
berechnet wird. Diese Integration erfolgt analog zum Riemann-Integral (siehe Bemerkung
3.20). Man definiert zunächst das Integral für Treppenfunktionen und approximiert anschließend die zu integrierende Zufallsgröße durch Treppenfunktionen. Wesentlich ist hierbei
folgender Approximationssatz (zum Beweis siehe Anhang Satz A.6).
Satz 3.13
Sei f eine messbare Funktion auf dem Messraum (Ω, A). Dann existiert eine Folge (Tn )∞
n=1
messbarer Treppenfunktionen, die punktweise gegen f konvergiert, d.h. für jedes ω∈Ω gilt
lim Tn (ω) = f (ω).
❑
n→∞
3.5. Verteilung von Zufallsgrößen
Definition 3.14
Sei Z : Ω → d eine messbare Zufallsgröße auf dem Messraum (Ω, A). Die Eintrittswahrscheinlichkeiten aller zu Z = (Z1 , . . . , Zd ) gehörenden Ereignisse7 wird Wahrscheinlichkeitsverteilung oder (kumulative) Verteilung der Zufallsgröße Z genannt. Die gesamte Verteilung
wird bereits durch die Funktion
R
FZ :
R
d
→ [0, 1]
x 7→ FZ (x) := P({Z 6 x}) = P({Z1 6 x1 , . . . , Zd 6 xd }),
6
7
Die Funktionen sind dabei punktweise definiert, also z.B.
lim fk (x) = lim fk (x).
k→∞
k→∞
Dazu gehören z.B. auch Ereignisse der Form {a 6 Z 6 b}, deren Vereinigung usw.
34
c Klaus Schindler SS 2017
Stochastik
Kapitel 3
3.5. Verteilung von Zufallsgrößen
bestimmt, weswegen FZ als Verteilungsfunktion der Zufallsgröße Z bezeichnet8 wird. FZ (x)
gibt an, wie groß die Wahrscheinlichkeit ist, dass Z Werte im d-dimensionalen Intervall
(Quader) ] − ∞, x1 ] × · · · × ] − ∞, xd ] annimmt. Ist FZ differenzierbar, so wird FZ′ als Wahrscheinlichkeitsdichte oder kurz Dichte von Z bezeichnet9 .
❐
Beispiel 3.15
definiert wie in Beispiel 3.8 ii) bzw. 3.10 ii). Zur Bestimmung der
Sei die ZV Z : Ω →
Verteilungsfunktion sind die Werte FZ (x) = P({Z 6 x}) zu bestimmen. Wegen
R
P(∅) = 0
Wahrscheinlichkeitsrechnung
P({ZZZ}) = q 3
P({KZZ, ZZK, ZKZ, ZZZ}) = q 3 + 3pq 2
P({KZZ, ZZK, ZKZ, ZZZ, KKZ, KZK, ZKK }) = q 3 + 3pq 2 + 3p2 q
P(Ω) = q 3 + 3pq 2 + 3p2 q + p3 = 1
ist die Verteilungsfunktion FZ der Zufallsvariablen Z gegeben durch:
FZ (x) = P({Z 6 x}) =



















0
q3
q 3 + 3pq 2
q 3 + 3pq 2 + 3p2 q
1
für
für
für
für
für
S0 ·d3
S0 ·ud2
S0 ·u2 d
S0 ·u3
6
6
6
6
x
x
x
x
x
< S0 ·d3
< S0 ·ud2
< S0 ·u2 d
< S0 ·u3
Der Graph von FZ hat folgendes für diskrete Zufallsvariablen typische Aussehen (siehe hierzu
das allgemeine Beispiel 3.17 iv) bzw. v)):
FZ (x)
✻
q 3 + 3pq 2 + 3p2 q + p3
1
q 3 + 3pq 2 + 3p2 q
q 3 + 3pq 2
q3
✲x
3
2
S0 d S0 ud
2
S0 u d
S0 u
3
❐
Bemerkung 3.16
i) Verteilungsfunktionen sind typischerweise rechtsseitig stetig, mit linksseitigem Grenzwert und werden in der Literatur häufig mit dem französischen Akronym cadlàg („continue à droite limite à gauche“) bezeichnet.
8
Man spricht auch von der gemeinsamen Verteilungsfunktion der Zufallsvariablen Z1 bis Zd .
9
Besitzt Z = (Z1 , . . . , Zd ) eine Dichte, so auch die einzelnen Komponenten Zi .
c Klaus Schindler SS 2017
35
Wahrscheinlichkeitsrechnung
Kapitel 3
Wahrscheinlichkeitsmaße
ii) Da der, das zufällige Geschehen steuernde Wahrscheinlichkeitsraum (Ω, A, P) i.a. nicht
bzw. nicht vollständig bekannt ist, bieten Verteilungsfunktionen eine besonders einfache Möglichkeit, die Wahrscheinlichkeiten P({a<Z6b}) berechnen. Unter Verwendung
des Riemann-Stieltjes-Integral gilt nämlich (sofern FZ stetig ist)
A.5 f)
P({a < Z 6 b}) = FZ (b) − FZ (a) =
Z
b
a
dFZ (x).
Ist die Verteilungsfunktion FZ differenzierbar, lassen sich diese Wahrscheinlichkeiten
als Riemann-Integral berechnen, da nach Satz A.5 d) des Anhangs gilt
Wahrscheinlichkeitsrechnung
Z
b
a
A.5 d)
dFZ (x) =
Z
b
a
FZ′ (x)dx .
Ist FZ stetig differenzierbar, d.h. ist FZ′ sogar stetig, gilt für infinitesimale Änderungen
dx insbesondere
P({x < Z 6 x+dx}) = FZ (x+dx) − FZ (x) = FZ′ (x)dx = dFZ (x) .
Die Dichte FZ′ (x) ist also ein Maß dafür, wie groß die Chance ist, dass Z einen Wert
in der Nähe von x annimmt. FZ′ (x) gibt in diesem Fall nicht an, wie groß die Wahrscheinlichkeit ist, dass Z den Wert x annimmt. Für stetiges FZ′ gilt nämlich nach dem
Hauptsatz der Differential- und Integralrechnung
P({Z=x}) =
Z
x
x
FZ′ (t)dt = FZ (x) − FZ (x) = 0
iii) Die Verteilung FZ einer Zufallsvariable Z wird oft auch das Bildmaß von P unter Z
genannt und dann mit PZ oder Z(P) bezeichnet, weil Z das Wahrscheinlichkeitsmaß
P auf die reellen Zahlen „transportiert“. D.h., durch
PZ (]a, b]) := P({a < Z 6 b}) =
Z
b
a
dFZ (x)
wird ein Wahrscheinlichkeitsmaß auf der von den Intervallen (Quadern) erzeugten σAlgebra (Borelmengen) definiert. Alle Integrale bzgl. PZ können mit Hilfe des von der
Verteilungsfunktion FZ erzeugten Riemann-Stieltjes-Integrals berechnet werden. (Die
genaue Aussage findet man in Bemerkung 3.20 ii) - iv).) In diesem Sinne gestattet es
der Verteilungsbegriff, die Arbeit mit mehreren unterschiedlichen Zufallsgrößen (auf
evtl. verschiedenen Zustandsräumen) auf einen gemeinsamen Raum zu übertragen.
Existiert eine Dichte ϕ, gilt also PZ (]a, b]) =
Differentialschreibweise durch
dPZ (x) = ϕ(x)dx
oder
dPZ (x)
dx
Rb
a
dPZ (x) =
Rb
a
ϕ(x)dx, wird dies oft in
= ϕ(x)
notiert. Unter welchen Voraussetzungen für zwei beliebige Maße Q und P eine Dichtefunktion ϕ mit dQ = ϕdP existiert, wird im Satz von Radon-Nikodym (siehe Anhang
Satz A.7) geklärt.
36
c Klaus Schindler SS 2017
Stochastik
Kapitel 3
3.5. Verteilung von Zufallsgrößen
iv) Bei gleicher Zufallsvariable X führt eine Änderung des Wahrscheinlichkeitsmaßes zu
einer Änderung der Verteilung. Andererseits können unterschiedliche Zufallsgrößen die
gleiche Verteilung besitzen. Hierzu betrachte man folgendes Beispiel.
Definiert man bei dem Würfelexperiment in Beispiel 3.8 zwei verschiedene Zufallsvariablen X und Y durch
Y (ω) :=
2 falls ω ∈ {KKK, KKZ}
,
 0 sonst


2 falls ω ∈ {ZZZ, ZZK}
,
 0 sonst
so produziert X mit Wahrscheinlichkeit p2 den Wert 2 und mit Wahrscheinlichkeit
1 − p2 den Wert 0. Y dagegen liefert mit Wahrscheinlichkeit q 2 den Wert 2 und mit
Wahrscheinlichkeit 1 − q 2 den Wert 0. Offensichtlich hängen die Verteilungen von der
„Kopfwahrscheinlichkeit“ p, also vom Wahrscheinlichkeitsmaß P ab. Damit besitzen
1
❐
X und Y genau dann die gleiche Verteilung, wenn p = q = gilt.
2
Beispiel 3.17
i) Normalverteilungen stellen die wichtigste Klasse von Verteilungen mit Dichten dar
(Man beachte hierzu auch Abschnitt 3.6.). Sie sind durch zwei Parameter µ, σ 2 charakterisiert. Die Wahrscheinlichkeitsdichten lauten
ϕµ,σ2 (x) = √
1
2πσ
· e−
2
(x−µ)2
2σ 2
.
x2
Die Verteilung mit Dichte ϕ0,1 (x) = √12π · e− 2 , für die also µ=0, σ 2 =1 gilt, heißt
Standardnormalverteilung. Es gilt folgender Zusammenhang:
ϕµ,σ2 (x) =
1
σ
ϕ0,1
x−µ
σ
Für die Aussage „Z ist normalverteilt mit Parametern µ, σ 2 “ hat sich die Schreibweise
„Z ∼ Nµ,σ2 “ oder „Z ∼ Nµ,σ “ eingebürgert. Mit N (x) bezeichnen wir im Folgenden
auch den Wert der Standardnormalverteilung an der Stelle x, also
N (x) =
Z
x
−∞
ϕ0,1 (t)dt =
1
√
2π
Z
x
t2
−∞
e−( 2 ) dt.
ii) Analog zum eindimensionalen Fall heißt der Zufallsvektor Z = (Z1 , . . . , Zd ) d-dimensional
normalverteilt (oder: Z1 , . . . , Zd sind gemeinsam normalverteilt), wenn die mehrdimensionale Verteilungsfunktion FZ eine Dichte ϕ besitzt, die folgendes Aussehen hat:
ϕ(x) =
s
det Σ−1
(2π)d
· e− 2 (x−µ) Σ
1
t
−1
(x−µ)
Hierbei ist µ der Erwartungsvektor und Σ die sog. Varianz-Kovarianzmatrix.
c Klaus Schindler SS 2017
37
Wahrscheinlichkeitsrechnung
X(ω) :=


Wahrscheinlichkeitsrechnung
Kapitel 3
Wahrscheinlichkeitsmaße
iii) Eine ZV Z heißt lognormalverteilt, wenn ln(Z) normalverteilt ist. Anders ausgedrückt:
„Ist Y normalverteilt, so ist Z = eY lognormalverteilt“.
Besitzt Y eine Nµ,σ2 -Verteilung, so ist die Dichte von Z = eY gegeben durch
f (x) =

 1 ·ϕ 2 (ln(x))
x µ,σ

0
für x > 0
für x 6 0
Wahrscheinlichkeitsrechnung
iv) Die Verteilung einer diskreten ZV Z, die - wie etwa in Beispiel 3.7 - nur endlich viele
verschiedene Werte z1 < z2 < · · · < zn annimmt10 , wird vollständig bestimmt durch
die Wahrscheinlichkeiten P({Z=zk }), wegen
{Z6x} =
S
·
zk 6x
{Z=zk }.
Die Verteilungsfunktion weist deswegen an den Stellen z=zk Sprünge der Höhe P({Z=zk })
auf. Es gilt nämlich
P({a < Z 6 b}) =
X
P({Z=zk }),
also FZ (x) = P({Z6x}) =
X
P({Z=zk }) .
zk 6x
a<zk 6b
Die folgende Skizze zeigt das prinzipielle Aussehen der Verteilungsfunktion solcher
diskreter Zufallsgrößen.
FZ (x)
✻
P({Z=z1 }) + P({Z=z2 })
P({Z=z1 })
z1
z2
z3
z4
Speziell gilt für die Verteilungsfunktion einer Indikatorfunktion




0
falls x < 0
F A (x) = 1 − P(A) falls 0 6 x < 1



1
falls 1 6 x
10
Dies ist automatisch erfüllt, wenn z.B. Ω endlich ist.
38
c Klaus Schindler SS 2017
✲x
z5 . . . . . .
A
(A ∈ A):
Stochastik
Kapitel 3
3.5. Verteilung von Zufallsgrößen
F A (x)
✻
1
1 − P(A)
✲x
1
v) Die einfachsten Beispiele von Zufallsgrößen, die nur endlich viele Werte annehmen, bilden Zufallsgrößen, die nur 2 bzw. 3 Werte annehmen können, z.B. ±1 oder −1, 0, +1.
Sie bilden die Basis der Bi- bzw. Trinomialverfahren, mit deren Hilfe auf dem Rechner diskrete Zufallsprozesse erzeugt werden können (siehe Kapitel 5). In diesem Zusammenhang treten binomialverteilte Zufallsgrößen auf. Sind Y1 , . . . , Yn unabhängige
Zufallsgrößen11 , die nur die beiden Werte 0 und 1 annehmen, mit der Verteilung
P({Yk =1}) = p , P({Yk =0}) = 1−p ,
so ist ihre Summe Z :=
n
P
k=1
k = 1, . . . , n ,
Yk , d.h. die Anzahl der Einsen in der Stichprobe Y1 , . . . , Yn ,
binomialverteilt mit Parametern n, p, d.h. es gilt
Z=
n
X
k=1
Yk , P({Z=m}) =
n m
p (1−p)n−m
m
, FZ (x) =
X n
k6x
k
pk (1−p)n−k .
Für die Aussage „Z ist binomialverteilt mit Parametern n, p“ hat sich die Schreibweise
„Z ist Bn,p -verteilt“ eingebürgert.
❐
Bemerkung 3.18
Eine Bn,p -verteilte Zufallsgröße Y kann näherungsweise durch eine Nnp,np(1−p) -verteilte Zufallsgröße Z ersetzt werden, wenn n groß ist, in dem Sinn (siehe Bemerkung 3.20 v)), dass
P({a < Y < b}) ≈ P({a < Z < b}) .
(3.1)
Eine genauere Aussage liefert der zentrale Grenzwertsatz, der allgemein für unabhängige und
identisch verteilte Zufallsvariablen gilt. In der klassischen Statistik macht man sich dieses
Ergebnis zunutze, um die für größere n aufwändige Berechnung von Binomialwahrscheinlichkeiten zu umgehen. Umgekehrt weist die approximative Austauschbarkeit von binomialund normalverteilten Zufallsgrößen aber auch einen Weg, auf der Normalverteilung aufbauende stetige Zufallsprozesse durch Binomialprozesse anzunähern. Diese sind auf dem
Rechner leicht zu simulieren und werden bei der Modellierung des zeitlichen Verlaufs von
Aktienkursen benötigt.
❐
11
Dies soll bedeuten, dass sich die Werte der einzelnen Zufallsvariablen Yi nicht gegenseitig beeinflussen. Für
eine genauere Definition siehe Abschnitt 3.8 auf Seite 44.
c Klaus Schindler SS 2017
39
Wahrscheinlichkeitsrechnung
0
Wahrscheinlichkeitsrechnung
Kapitel 3
Normalverteilung
3.6. Approximationen der Normalverteilung
Die Berechnung der Werte der Normalverteilung N bereitet Probleme, da das Integral
N (x) =
1
2π
Z
x
−∞
t2
e−( 2 ) dt
nicht exakt berechnet werden kann. Bei praktischen Anwendungen ist man daher auf Approximationen der Normalverteilung angewiesen. In der Literatur (beispielsweise [13]) findet
man verschiedene Näherungsformeln. Nachfolgend wollen wir einige vorstellen12 .
x2
Wahrscheinlichkeitsrechnung
a) N (x) ≈ 1 − (a1 t + a2 t2 + a3 t3 ) e− 2 ,
t=
1
,
1 + bx
mit
b = 0.332672527,
a1 = 0.17401209, a2 = −0.04793922, a3 = 0.373927817.
Der Approximationsfehler hat unabhängig von x die Größenordnung O(10−5).
x2
b) N (x) ≈ 1 − (a1 t + a2 t2 + a3 t3 + a4 t4 + a5 t5 ) e− 2 ,
t=
1
,
1 + bx
mit
b = 0.231641888,
a1 = 0.127414796,
a2 = −0.142248368, a3 = 0.71070687,
a4 = −0.726576013, a5 = 0.530702714.
Der Fehler dieser Approximation liegt unabhängig von x bei O(10−7).
c) N (x) ≈ 1 −
1
2(a1 x + a2 x2 + a3 x3 + a4 x4 + a5 x5 )8
,
mit
a1 = 0.099792714,
a2 = −0.044320135, a3 = 0.009699203,
a4 = −0.000098615, a5 = 0.00581551.
Der Fehler dieser Approximation liegt unabhängig von x bei O(10−5).
d) Als letzte Möglichkeit wollen wir hier noch die Taylorreihendarstellung angeben:
∞
x2n+1
1 X
(−1)n n
n!2 (2n + 1)
2π n=0
x3
1
x5
x7
√
x− 1 + 2 − 3
1!2 3
2!2 5
3!2 7
2π
N (x) =
1
2
+√
=
1
2
+
+··· .
Mit Hilfe dieser Reihe kann die Normalverteilung beliebig genau angenähert werden,
wobei natürlich mit der Genauigkeit auch die Anzahl der benötigten Summanden und
somit die Anzahl der arithmetischen Operationen steigt.
Ein Vergleich aller vier Näherungsformeln ist in der Tabelle 1 enthalten. Die Taylorreihe
wurde beim ersten Summanden, der betragsmäßig kleiner als 10−5 ist, abgebrochen. Die
Spalte „iter“ gibt dabei die Nummer des letzten Summanden der Taylorreihe an.
12
Die Formeln gelten für x > 0. Für x < 0 ist N (x) = 1 − N (−x) anzuwenden.
40
c Klaus Schindler SS 2017
Stochastik
Kapitel 3
3.7. Momente einer Zufallsgröße
Methode-a
0.8413517179
0.8643435425
0.8849409364
0.9032095757
0.9192515822
0.9331983332
0.9452030611
0.9554336171
0.9640657107
0.9712768696
0.9772412821
x
1.0
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
2.0
Methode-b
0.8413447362
0.8643338948
0.8849302650
0.9031994476
0.9192432862
0.9331927690
0.9452007087
0.9554345667
0.9640697332
0.9712835061
0.9772499371
Methode-c
0.8413516627
0.8643375717
0.8849298369
0.9031951398
0.9192361959
0.9331845052
0.9451929907
0.9554288709
0.9640670474
0.9712842148
0.9772538334
Methode-d
0.8413441191
0.8643341004
0.8849309179
0.9031993341
0.9192427095
0.9331930259
0.9452014728
0.9554342221
0.9640686479
0.9712839202
0.9772496294
iter
6
7
7
8
8
9
9
10
10
11
12
Tabelle 1
3.7. Momente einer Zufallsgröße
Momente sind Kenngrößen von Zufallsvariablen. Die zwei wichtigsten Momente sind der
Erwartungswert und die Varianz. Erwartungswert und Varianz bestimmen im Allgemeinen
eine Verteilung nicht eindeutig, sie können aber einen ersten Eindruck von der Verteilung
vermitteln.
Da es unmöglich ist, vorab anzugeben, welchen Funktionswert eine stochastische nicht
deterministische Größe annimmt („realisiert“), liegt es nahe, bei einer ZV den „mittleren“
Funktionswert anzugeben. Für eine deterministische Funktion f :
→ , mit dem endlichen Definitionsbereich = {x1 , . . . , xn }, ist dies die Summe der Funktionswerte, gewichtet
1
mit der relativen Häufigkeit ihres Auftretens13
D R
D
n
n
X
1
f¯ :=
n
f (xk ) .
k=1
D
= [a, b] wird f¯ entsprechend durch das Integral
Bei nicht-endlichem Definitionsbereich
dx
als relative Häufigkeit interpretiert werden kann
von f definiert, wobei der „Faktor“
f¯ :=
1
b−a
Z
b
a
b−a
f (x)dx.
Der im Mittel zu erwartende Funktionswert einer Zufallsvariablen Z wird analog definiert
als Summe bzw. Integral aller möglichen Werte x, die Z annehmen kann, gewichtet mit der
jeweiligen Eintrittswahrscheinlichkeit P({x < Z 6 x + dx}) = dFZ (x), also
Z :=
13
Z
R
xdFZ (x)
Da bei der deterministischen Funktion f alle Funktionswerte f (xk ) gleich „wahrscheinlich“ verteilt sind,
kann der Faktor n1 als Eintrittswahrscheinlichkeit und f¯ als Erwartungswert interpretiert werden.
c Klaus Schindler SS 2017
41
Wahrscheinlichkeitsrechnung
Approximation der Normalverteilung
Wahrscheinlichkeitsrechnung
Kapitel 3
Erwartungswert, Varianz
Dieser Wert ist ein Maß dafür, in welchem Bereich mit den Werten von Z zu rechnen ist
und stellt die unter der momentan gegebenen Wahrscheinlichkeitsinformation bestmögliche
Prognose dar, die über den Ausgang des Zufallsexperimentes Z gemacht werden kann (Man
beachte hierzu auch den Abschnitt 3.8 auf Seite 44 ff.).
Definition 3.19
a) Der Erwartungswert
definiert durch:
Wahrscheinlichkeitsrechnung
E[Z] =
Z
Rd
E(Z) einer Zufallsgröße Z ist ihr mittlerer Funktionswert. Er ist
xdFZ (x)
b) Die Varianz var(Z) einer Zufallsgröße Z ist ein Maß dafür, wie stark Z im Mittel um
ihren Erwartungswert herum variiert (streut). Man definiert sie daher als erwartete
quadratische Abweichung, die Z vom eigenen Erwartungswert besitzt, d.h.
E
var(Z) =
E
|Z − (Z)|
2
Die Varianz besitzt als quadratische Größe eine andere Einheit als Z. Ein besseres
Gefühl für die Größe der Variabilität von Z liefert daher die Standardabweichung
s(Z), die wie (Z) in derselben Einheit wie Z gemessen wird.
E
s(Z) :=
q
var(Z) .
❐
Bemerkung 3.20
i) Da der Erwartungswert einer Zufallsvariable sehr stark vom vorgegebenen Wahrscheinlichkeitsmaß abhängt, sollte im Zweifelsfall P geschrieben werden.
E
ii) Der Umweg über Verteilungsfunktionen wird vermieden, wenn man die klassische Integrationstheorie auf Funktionen Z : Ω → verallgemeinert, indem man den Definitionsbereich Ω in kleine Teilmengen dω zerlegt und dann Z durch Treppenfunktionen
approximiert (siehe nachfolgende Skizze). Das Integral einer Treppenfunktion T ist
dabei wie üblich als Summe aller durch T gegebenen „Rechteckflächen“ definiert. Diese ergibt sich als „Grundseite mal Höhe“, wobei die „Größe“ der Grundseite dω in
Ermangelung eines Längenbegriffs auf Ω durch P(dω) gemessen wird. Das Maß des
Rechtecks ist daher Z(ω)P (dω) (siehe nachfolgende Skizze). Formal erhält man14 :
R
E(Z) =
Z
Ω
Z(ω)P (dω) =
Z
Ω
Z(ω)dP (ω).
Wesentlich bei dieser Integration ist, dass sich jede messbare Funktion als Grenzwert
von messbaren Treppenfunktionen darstellen lässt (siehe Satz 3.13).
14
Wir verwenden hierbei analog zur Integralrechnung die Schreibweise dP (ω) für P (dω).
42
c Klaus Schindler SS 2017
Stochastik
Kapitel 3
Z(ω)
3.7. Momente einer Zufallsgröße
Z(ω)P(dω)
✻
✠
E(Z)
✲
ω∈Ω
dω
Das so definierte Integral stellt eine Verallgemeinerung des Riemann-Integrals dar und
besitzt z.T. deutlich „angenehmere“ Eigenschaften als dieses. Z.B. gilt (ohne auf die
genauen Voraussetzungen einzugehen):
lim
Z
n→∞ Ω
fn dµ =
Z
lim fn dµ
Ω n→∞
R
iii) Nimmt die Zufallsgröße Z : Ω → d nur endlich viele Werte z1 , . . . , zn an15 , gilt nach
Beispiel 3.17 iv) und Satz A.5 g) (siehe Anhang):
E(Z) =
Z
A.5 g)
Rd
xdFZ (x) =
n
X
k=1
zk P ({Z = zk })
iv) Besitzt Z die Verteilungsfunktion FZ und ist g(Z) eine Funktion der Zufallsvariablen
Z, so gilt für den Erwartungswert von g(Z), sofern dieser existiert
E(g(Z)) =
Z
+∞
−∞
g(x)dFZ (x).
Insbesondere ergeben sich daraus folgende Spezialfälle:
E(Z)
=
E(Z )
=
2
var(Z) =
=
=
E(
A)
=
Z
+∞
−∞
Z
+∞
−∞
Z
xdFZ (x),
x2 dFZ (x)
[x − (Z)]2 dFZ (x)
−∞
Z +∞
|
E
+∞
−∞
E
2
x dFZ (x) − 2 (Z)
{z
E
= (Z 2 )
}
E(Z ) − [E(Z)]
2
Z
+∞
−∞
2
Z
|
+∞
−∞
E
2
xdFZ (x) + [ (Z)]
{z
E
= (Z)
}
(Varianz-Zerlegungssatz)
Z
|
+∞
−∞
dFZ (x)
{z
=1
}
3.17
xdF A (x) = P(A).
Die letzte Gleichung zeigt insbesondere, dass die Wahrscheinlichkeit eines Ereignisses
gleich dem Erwartungswert der Indikatorfunktion des Ereignisses ist.
15
Dies ist automatisch erfüllt, wenn Ω endlich ist.
c Klaus Schindler SS 2017
43
Wahrscheinlichkeitsrechnung
|{z}
Wahrscheinlichkeitsrechnung
Kapitel 3
Bedingte Wahrscheinlichkeit
v) Eine Nµ,σ2 -verteilte Zufallsgröße Z hat Mittelwert µ und Varianz σ 2 . Der 2σ-Bereich
um µ enthält mit mehr als 95% Wahrscheinlichkeit Beobachtungen von Z
P({µ−2σ < Z < µ+2σ}) > 0, 95 .
Eine Bn,p -verteilte Zufallsgröße Z hat Erwartungswert np und Varianz np(1−p). Die
Approximation (3.1) in Bemerkung 3.18 ist also so gewählt, dass die näherungsweise
einander ersetzenden binomial- und normalverteilten Zufallsgrößen identische Erwartungswerte und Varianzen besitzen. Die folgende Tabelle liefert die Erwartungswerte
und Varianzen der bisher behandelten Verteilungen.
Wahrscheinlichkeitsrechnung
Verteilung von Z
E(Z)
var(Z)
Dichte von Z
Nµ,σ2 -Normalverteilung
µ
σ2
ϕµ,σ2 (x)
Lognormalverteilung Z = eY
mit (Y ) = µ, var(Y ) = σ 2
Bn,p
E
e(µ+
σ2
)
2
2
(e(σ ) −1) e(2µ+σ
np
np(1−p)
N
2)
1
ϕ 2 (ln(x))
x µ,σ
keine
E
vi) Allgemeiner werden
für eine
ZV Z und n∈ die Größen (sofern existent) (|Z|n ),
h
n i
Z−E(Z)
als n-tes Moment bzw. n-tes zentriertes Moment von
(Z n ) bzw.
Z bezeichnet. Insbesondere ist der Erwartungswert das erste Moment, die Varianz
das zweite zentrierte Moment. Vereinfacht gesprochen ist eine Verteilung durch die
Kenntnis aller Momente eindeutig bestimmt.
❐
E
E
3.8. Bedingte Wahrscheinlichkeit
Interessiert man sich für mehrere Ereignisse gleichzeitig (z.B. die Kurse verschiedener Aktien), so ist es von großem Interesse zu erfahren, ob ein Zusammenhang zwischen diesen
besteht und wie diese Abhängigkeit gemessen werden kann. Der intuitive Begriff der Unabhängigkeit zweier Ereignisse A, B wird präzisiert durch die folgende Überlegung.
Nehmen wir an, dass ein Experiment durchgeführt wird, bei dem wir uns für das Ereignis A interessieren. Der Ausgang des Experimentes sei ω, was wir jedoch nicht oder nicht
vollständig erkennen können. Wahrnehmbar sind stattdessen nur die Auswirkungen des eingetretenen Zustandes auf andere messbare Zufallsgrößen, d.h. wir erfahren nur, dass ein
anderes Ereignis B eingetreten ist16 , also ω ∈ B gilt. I.A. wird diese zusätzliche Information
unsere Einschätzung über die Eintrittswahrscheinlichkeit des Ereignisses A verändern, da
diese ab sofort relativ zu B gemessen werden muss. Sie ist 0, wenn A und B disjunkt sind
und 1, wenn B ⊂ A gilt, da dann A ebenfalls eingetreten ist. Allgemein werden wir A um
so wahrscheinlicher halten, je „größer“ der „Anteil“ der Menge B in der Menge A, d.h. je
größer A ∩ B ist.
16
I.A. werden natürlich mehrere andere Ereignisse beobachtet.
44
c Klaus Schindler SS 2017
Stochastik
Kapitel 3
3.8. Bedingte Wahrscheinlichkeit
B
A
A∩
B
P(A ∩ B)
.
P(B)
Wir werden die Ereignisse A und B als unabhängig empfinden, wenn diese relative Wahrscheinlichkeit P(A) ist, d.h. wenn die Kenntnis über ω ∈ B unsere Einschätzung für das
Eintreten von A nicht ändert. Dies führt zu folgender Definition.
Definition 3.21
Ist (Ω, A, P) ein Wahrscheinlichkeitsraum und B ∈ A ein Ereignis mit P(B) > 0, so ist
P(· | B) : A → [0, 1]
A 7→ P(A|B) :=
P(A ∩ B)
P(B)
ein Wahrscheinlichkeitsmaß auf (Ω, A), welches bedingte Wahrscheinlichkeit unter (der Hypothese) B genannt und mit P(· | B) bezeichnet wird.
a) Zwei Ereignisse A, B ∈ A heißen unabhängig, wenn gilt:
P(A ∩ B) = P(A) · P(B).
Im Fall P(B) > 0 ist dies genau dann erfüllt, wenn P(A|B) = P(A) gilt.
Allgemeiner heißt eine Folge von Ereignissen (Ai )i∈I unabhängig, wenn für jede endliche Teilmenge J ⊂ I gilt:
P
T
i∈J
Ai =
Y
P(Ai )
i∈J
b) Eine Folge von σ-Algebren (Ai )i∈I heißt unabhängig, wenn jede Folge von Ereignissen
(Ai )i∈I mit Ai ∈ Ai für i ∈ I unabhängig ist.
c) Eine Folge von Zufallsvariablen
(Zi )i∈I heißt unabhängig, wenn die von ihnen erzeugte
Folge von σ-Algebren σ(Zi )
unabhängig ist.
❐
i∈I
c Klaus Schindler SS 2017
45
Wahrscheinlichkeitsrechnung
Unsere Einschätzung für das Eintreten von A unter der Annahme, dass B mit P(B) > 0
eingetreten ist, lautet daher
Wahrscheinlichkeitsrechnung
Kapitel 3
Unabhängigkeit
Beispiel 3.22
Betrachten wir einen zweifachen Münzwurf mit der Wahrscheinlichkeit p für Kopf K und
der Wahrscheinlichkeit q := 1 − p für Zahl Z bei jedem Wurf (0 < p < 1).
i) Gegeben seien die Ereignisse A := „Einmal Kopf, einmal Zahl“ und B := „Kopf beim
ersten Wurf“, d.h.
A = {KZ, ZK}, B = {KK, KZ}.
Dann gilt
Wahrscheinlichkeitsrechnung
P(A)
P(B)
P(A) · P(B)
P(A ∩ B)
=
=
=
=
2pq
p2 + pq = p(p + q) = p
2p2 q
pq,
so dass A und B genau dann unabhängig sind, wenn 2p2 q = pq gilt. Dies ist äqui1
valent zu p = . Man erkennt hier, dass die Unabhängigkeit von Ereignissen vom
2
Wahrscheinlichkeitsmaß abhängt.
Erfährt man, dass im ersten Wurf Kopf gefallen ist (B ist eingetroffen), so ist die
bedingte Wahrscheinlichkeit für A
P(A | B) =
Ist p = q =
1
2
P(A ∩ B)
P(B)
=
pq
p
folgt P(A | B) =
= q.
1
,
2
was in diesem Fall nicht weiter überraschend ist,
da die Wahrscheinlichkeit für Zahl im zweiten Wurf
1
2
beträgt.
Geht man jedoch von einer „Kopfwahrscheinlichkeit“ p = 0, 01 aus, so ist die Eintrittswahrscheinlichkeit von A (vor dem ersten Wurf) ziemlich gering, es gilt P(A) = 0, 0198.
Hier führt die Information, dass B (Kopf) im ersten Wurf eingetreten ist, für A zur
bedingten Wahrscheinlichkeit
P(A | B) = q = 0, 99.
Dies liegt daran, dass im zweiten Wurf eine sehr hohe Wahrscheinlichkeit für Zahl und
damit für A vorliegt.
ii) Wir betrachten die σ-Algebren
G =
H =
46
∅, Ω, {KKK, KKZ, KZK, KZZ}, {ZKK, ZKZ, ZZK, ZZZ}
∅, Ω, {KKK, ZKK, KKZ, ZKZ}, {KZK, ZZK, KZZ, ZZZ}
c Klaus Schindler SS 2017
Stochastik
Kapitel 3
3.8. Bedingte Wahrscheinlichkeit
Bemerkung 3.23
i) Zwei Ereignisse A und B sind genau dann unabhängig, wenn die von ihnen erzeugten
σ-Algebren σ(A) := {∅, Ω, A, ∁A} und σ(B) := {∅, Ω, B, ∁B} unabhängig sind.
ii) Die Abhängigkeit oder Unabhängigkeit von Ereignissen, σ-Algebren oder Zufallsvariablen wird wesentlich vom betrachteten Wahrscheinlichkeitsmaß bestimmt, wie etwa
Beispiel 3.22 i) zeigt.
iii) Zwei Zufallsgrößen Z1 , Z2 sind nach Definition 3.21 genau dann unabhängig, wenn
P({a1 < Z1 < b1 , a2 < Z2 < b2 }) = P({a1 < Z1 < b1 } ∩ {a2 < Z2 < b2 })
= P({a1 < Z1 < b1 }) · P({a2 < Z2 < b2 }),
R
für alle ai , bi ∈ gilt, d.h., Wahrscheinlichkeiten von Ereignissen, die vom Wert des
Zufallsvektors Z=(Z1 , Z2 ) abhängen, lassen sich faktorisieren. In diesem Fall ist die
gemeinsame Verteilung von Z gleich dem Produkt der eindimensionalen Verteilungen
von Z1 und Z2 (Randverteilungen), d.h. es gilt
FZ (x1 , x2 ) = FZ1 (x1 ) · FZ2 (x2 ) .
Besitzt Z sogar eine Dichte, ist diese daher das Produkt der Dichten von Z1 und
Z2 . Grob gesprochen sind also zwei Zufallsgrößen Z1 und Z2 unabhängig, wenn jedes
Ereignis, das durch Z1 definiert ist, unabhängig von jedem Ereignis ist, das durch Z2
gegeben ist. Für eine genauere Aussage beachte man Satz 3.25.
iv) Die häufig auftretenden bedingten Wahrscheinlichkeiten der Form
P{a1 < Z1 < b1 | a2 < Z2 < b2 }
spiegelt unsere Einschätzung wider, mit welchen Werten von Z1 wir eher rechnen bzw.
welche wir für unplausibel halten, wenn wir schon wissen, dass eine andere Zufallsgröße
Z2 bestimmte Werte angenommen hat. Unsere Meinung über die Wahrscheinlichkeiten
der Werte von Z1 wird durch unsere Vorabinformation über Z2 nicht geändert, wenn
Z1 gar nicht von Z2 abhängt, wenn also Z1 und Z2 unabhängig sind.
❐
c Klaus Schindler SS 2017
47
Wahrscheinlichkeitsrechnung
G und H enthalten die Information, die sich bei einem dreimaligen Münzwurf durch
den ersten bzw. zweiten Wurf ergeben, nämlich Kopf oder Zahl im ersten bzw. Kopf
oder Zahl im zweiten Wurf. Nach dem ersten Wurf steht für alle Ereignisse aus G nicht jedoch für die Ereignisse aus H - fest, ob sie eingetreten sind oder nicht. Dies
liegt an der Unabhängigkeit der beiden σ-Algebren, da bei einer Serie von Würfen die
einzelnen Würfe unabhängig voneinander erfolgen und so die Wahrscheinlichkeit für
eine bestimmte Wurfserie das Produkt der einzelnen Wurfwahrscheinlichkeiten ist. ❐
Wahrscheinlichkeitsrechnung
Kapitel 3
Kovarianz, Korrelation
Definition 3.24
Sind Z1 , . . . , ZN unabhängige Zufallsgrößen, die alle die gleiche Verteilung haben, d.h.
R : P({a < Z
∀i, j∀a, b ∈
i
6 b}) = P({a < Zj 6 b}),
so nennen wir sie unabhängig identisch verteilt (kurz: u.i.v.).
❐
Wahrscheinlichkeitsrechnung
Ohne auf die genauen Voraussetzungen einzugehen, zitieren wir zwei intuitiv verständliche
Eigenschaften unabhängiger Zufallsgrößen. Zum Beweis genügt es, Indikatorfunktionen zu
betrachten, da messbare Funktionen Grenzwerte von Treppenfunktionen sind (siehe Satz
3.13).
Satz 3.25
Sind Z1 , Z2 unabhängige Zufallsvariablen und g, h :
R → R stetige Funktionen, so gilt:
a) Die Zufallsvariablen g(Z1 ) und h(Z2 ) sind ebenfalls unabhängig.
b)
E g(Z )·h(Z )
h
1
2
i
=
E[g(Z )]·E[h(Z )]. Insbesondere gilt E[Z ·Z ] = E[Z ]·E[Z ].
1
2
1
2
1
2
❑
Dem folgenden Satz kommt im wahrsten Sinne des Wortes eine „zentrale“ Bedeutung
innerhalb der Wahrscheinlichkeitstheorie zu.
Satz 3.26 (Zentraler Grenzwertsatz)
Sei X1 , X2 , X3 , . . . eine Folge u.i.v. Zufallsvariablen mit endlichem Erwartungswert µ und
endlicher Standardabweichung σ > 0. Definiert man die Partialsummen Sn := X1 +· · ·+Xn ,
so konvergiert für n → ∞ die Verteilung von
Sn − n · µ
√
σ n
1
= √
σ n
n
X
i=1
(Xi − µ)
gegen die Standardnormalverteilung N0,1 .
❑
3.9. Kovarianz, Korrelation
Liegen zwei ZV nicht unabhängige Z1 , Z2 vor, ist die Frage, ob es möglich ist, den Grad der
Abhängigkeit zu messen. Ein mögliches Maß für die Abhängigkeit von Z1 , Z2 ergibt sich aus
folgender Überlegung:
Z − (Z)beschreibt die
Abweichung
der Zufallsgröße Z von ihrem Prognosewert (Z).
E
E
Daher ist Z1 − (Z1 )
E
E
Z2 − (Z2 ) ein Maß für das gemeinsame Abweichungsverhalten,
dessen Vorzeichen angibt, ob beide tendenziell in die gleiche (+) oder in die entgegengesetzte
Richtung (−) ihres jeweiligen Erwartungswertes abweichen.
Definition 3.27
Wir definieren die Kovarianz cov(Z1 , Z2 ) bzw. die Korrelation corr(Z1 , Z2 ) der Zufallsvariablen Z1 und Z2 durch
48
c Klaus Schindler SS 2017
Stochastik
Kapitel 3
3.10. Bedingte Erwartung
cov(Z1 , Z2 ) =
E (Z − E(Z ))(Z − E(Z ))
corr(Z1 , Z2 ) =
cov(Z1 , Z2 )
s(Z1 ) · s(Z2 )
bzw.
1
1
2
2
=
E[Z
1
E
E
· Z2 ] − [Z1 ] · [Z2]
.
❐
ii) Die Abhängigkeit von ZV kann in komplizierter Form vorliegen, die durch die Kovarianz nur eingeschränkt zu erfassen ist. Sind jedoch Z1 , Z2 speziell gemeinsam (bivariat)
normalverteilt, gibt die Kovarianz in der Tat den Grad ihrer Abhängigkeit an. In
diesem Fall ist Unabhängigkeit gleichbedeutend mit Korrelation gleich Null, während
vollständige Abhängigkeit gleichbedeutend mit Korrelation +1 (Z1 ist groß, wenn Z2
groß ist) oder Korrelation −1 (Z1 ist groß, wenn Z2 klein ist) ist.
iii) Aus der Definition folgt direkt die Bilinearität der Kovarianz:
cov(
n
P
i=1
λi Xi , Z) =
n
P
i=1
λi · cov(Xi , Z) = cov(Z,
n
P
i=1
λ i Xi ) .
iv) Für unabhängige Zufallsgrößen Z1 , . . . , ZN gilt allgemein
cov(Zi , Zj ) = 0
für i 6= j ,
woraus eine nützliche Rechenregel für unabhängige ZVen folgt
X
N
var
j=1
Zj =
N
X
var(Zj ) .
j=1
Für normalverteilte Zufallsvariablen gilt die Umkehrung dieser Aussage, d.h. in diesem
Fall folgt aus cov(Z1 , Z2 )=0 schon die Unabhängigkeit von Z1 und Z2 . Für beliebige
Zufallsvariablen ist dieser Schluss jedoch falsch.
❐
3.10. Bedingte Erwartung
Die Verwendung unterschiedlicher Informationen wird zu unterschiedlichen Einschätzungen
der Zukunft, d.h. zu verschiedenen Wahrscheinlichkeitsmaßen führen. Implizit werden damit
auch die Vorhersagen (Erwartungswerte) für eine vorgegebene ZV Z verändert. Der Begriff
der bedingten Erwartung - eine Erweiterung des Erwartungswertbegriffs - berücksichtigt den
jeweiligen Informationsstand und führt zum Begriff des Martingals.
c Klaus Schindler SS 2017
49
Wahrscheinlichkeitsrechnung
Bemerkung 3.28
i) Die Korrelation hat den Vorteil, immer zwischen −1 und +1 zu liegen und skaleninvariant (dimensionsunabhängig) zu sein.
Wahrscheinlichkeitsrechnung
Kapitel 3
Bedingte Erwartung
Wie im Abschnitt 3.8 gesehen, führt eine neue Information, z.B. ein Ereignis B zu einer
Veränderung des bisherigen Wahrscheinlichkeitsmaßes P und damit zu einer Neubewertung
der bisherigen Meinungen und Prognosen17 . Vom Zeitpunkt des Eintretens von B sind daher alle ZV mit Hilfe dieses revidierten Maßes zu bewerten. Man spricht vom bedingten
Wahrscheinlichkeitsmaß und bezeichnet es mit P(·|B). Folgerichtig tritt an die Stelle des
Erwartungswertes P (Z) einer ZV Z der bedingte Erwartungswert P(·|B) (Z) und an die
Stelle der Verteilungsfunktion FZ tritt die bedingte Verteilungsfunktion FZ|B .
E
E
Definition 3.29
Sei Z : Ω → d eine Zufallsvariable und B ∈ A mit P(B) > 0.
Wahrscheinlichkeitsrechnung
R
a) Die Verteilungsfunktion von Z bzgl. des bedingten Wahrscheinlichkeitsmaßes P(·|B)
wird als bedingte Verteilungsfunktion von Z unter (der Hypothese) B bezeichnet und
man schreibt FZ|B . Es gilt also
FZ|B (x) := P {Z 6 x} | B =
P {Z 6 x} ∩ B
P(B)
.
b) Der Erwartungswert einer Zufallsvariable Z bzgl. des bedingten Wahrscheinlichkeitsmaßes P(·|B) wird als bedingter Erwartungswert von Z unter (der Hypothese) B bezeichnet und man schreibt [Z | B]. Es gilt also
E
E[Z | B] =
Z
Ω
Z(ω)dP(ω|B) =
Z
Rd
xdFZ|B (x).
❐
Bemerkung 3.30
Nach Bemerkung 3.20 gilt für jedes Ereignis A bei gegebenem Wahrscheinlichkeitsmaß Q
E
Q
h
A
i
= Q(A),
also insbesondere für Q = P(·|B):
E[
Wegen
A |B]
A∩B
E
=
=
P(·|B) ( A )
A
P(A|B) =
=
=
17
·
B
= P(A|B)
(3.2)
folgt aber:
1
P(A ∩ B)
P(B)
Z
1
A∩B (ω)dP(ω)
P(B) Ω
Z
B (ω)
dP(ω)
A (ω) ·
P(B)
Ω
Man kann B auch als mögliches zukünftiges Ereignis betrachten und fragen, wie sich die Einschätzung über
die Wahrscheinlichkeiten verändert, falls dieses Ereignis eintritt.
50
c Klaus Schindler SS 2017
Stochastik
Kapitel 3
3.10. Bedingte Erwartung
Einsetzen in Gleichung (3.2) liefert
E[
A |B] =
Z
A (ω)
Ω
·
B (ω)
P(B)
dP(ω).
Da sich jede messbare Funktion als Linearkombination von Indikatorfunktionen approximieren lässt, gilt diese Beziehung auch für beliebige Zufallsvariablen Z, d.h. es gilt
E[Z | B]
P(·|B) (Z)
E
=
P
Z·
B
P(B)
(3.3)
ist also eine Dichtefunktion von P(·|B) bzgl. P (·). In Kurzform wird dies in der fol-
genden Form notiert:
P(·|B) =
B
P(B)
· P(·)
oder
P(dω|B) =
B
P(B)
· P(dω).
Dies bedeutet, dass der Erwartungswert einer ZV Z bzgl. des bedingten Wahrscheinlichkeitsmaßes P(·|B) gleich dem Erwartungswert von Z · B bzgl. des ursprünglichen WahrP(B)
scheinlichkeitsmaßes P ist. Zieht man in Gleichung (3.3) den konstanten Faktor
erhält man folgende Darstellung
E[Z | B]
=
1
·
P(B)
E
P [Z
·
B]
1
P(B)
vor,
(3.4)
Gleichung (3.4) zeigt, dass der bedingte Erwartungswert nichts anderes als eine gewichtete
Mittelung der Funktionswerte über der Menge B und damit eine Verallgemeinerung des
Erwartungswertes (über Ω) ist. [Z|B] gibt an, mit welchem Wert von Z gerechnet wird,
wenn das Ereignis B eingetreten ist (bzw. eintreten würde).
❐
E
Versucht man die Überlegungen aus Bemerkung 3.30 zu verallgemeinern, erweist sich die
Voraussetzung P(B) > 0 als großes Hindernis, da die uns interessierenden Ereignisse der
Form {Z = x} die Eintrittswahrscheinlichkeit 0 haben, wenn Z eine stetige Verteilung besitzt. Zudem wird i.A. nicht nur ein Ereignis (mit B ist z.B. auch ∁B bekannt), sondern im
Extremfall eine ganze σ-Algebra I von Ereignissen (Informationen) vorliegen, z.B. die von
vorgegebenen ZV Z1 , . . . , Zn erzeugte σ-Algebra σ(Z1 , . . . , Zn ).
Da das Eintreten von Ereignissen vom eingetretenen Umweltzustand ω abhängt, wird man
eine bedingte Erwartung als eine von ω und der gegebenen Informationsmenge I abhängige Zufallsgröße definieren, die u.a. Gleichung (3.4) genügt. Wir wollen diese allgemeine
Definition der bedingten Erwartung zunächst in einem Spezialfall motivieren.
Hierzu gehen wir davon aus, dass B1 , B2 , . . . eine Folge disjunkter Mengen mit P(Bi ) > 0
S
und · Bi = Ω ist18 . Als Informations-σ-Algebra betrachten wir die von den Bi erzeugte
σ-Algebra I := σ(B1 , B2 , . . . ). B(ω) bezeichne das - auf Grund der Disjunktheit - eindeutig
bestimmte Ereignis Bj , das den Umweltzustand ω∈Ω enthält.
18
Man spricht von einer Zerlegung von Ω. Durch die Disjunktheit wird erreicht, dass jeder Umweltzustand in
genau einem Ereignis Bj liegt.
c Klaus Schindler SS 2017
51
Wahrscheinlichkeitsrechnung
B
P(B)
E
=
Wahrscheinlichkeitsrechnung
Kapitel 3
Bedingte Erwartung
R
Ist Z : Ω → d eine ZV, so definieren wir gemäß voriger Überlegung die bedingte Erwartung von Z bezüglich der σ-Algebra I als Zufallsgröße Y : Ω → d gegeben durch
Y (ω) :=
R
E[Z | B(ω)].
Da Y für alle ω ∈ Bi den konstanten Wert
Y =
X
i
E[Z|B ] ·
i
E[Z|B ] annimmt, gilt offensichtlich
i
(3.5)
Bi .
Wahrscheinlichkeitsrechnung
Daraus ergeben sich zwei charakteristische Eigenschaften von Y
1.) Y ist I-messbar und
2.) ∀A ∈ I :
Z
A
Z(ω)dP(ω) =
Z
Y (ω)dP(ω).
A
Eigenschaft 1.) folgt direkt aus der Darstellung in Gleichung (3.5). Zum Nachweis von Eigenschaft 2.) betrachten wir ein beliebiges Ereignis A∈I. Wegen I = σ(B1 , B2 , . . . ) und
S
der Disjunktheit der Bi lässt sich A in der Form A= · Bj darstellen. Aus der paarweisen
j∈J
Disjunktheit der Mengen Bi ergibt sich dann
Z
A
Y (ω)dP(ω)
=
=
=
=
XZ
j∈J
Bj
j∈J
Ω
j∈J
Ω
XZ
Ω
j∈J
=
X
j∈J
Gl. (3.4)
=
j∈J
=
Y (ω)
Z
A
i
Bj (ω)dP(ω)
E[Z|B ] · |
i
E[Z|B ] ·
j
E[Z|B ]
j
XZ
Bj
≡ 0 für i6=j und damit:
Y (ω)dP(ω)
XZ X
XZ
Bi ·
Z
|Ω
Bi (ω)
·
{z
Bj (ω) dP(ω)
=0 für i6=j
Bj (ω)dP(ω)
}
Bj (ω)dP(ω)
Z(ω)dP(ω)
{z
P(Bj )
}
Bj
Z(ω)dP(ω)
Eigenschaften 1.) und 2.) sind typisch für die bedingte Erwartung und gestatten daher,
diesen Begriff für beliebige σ-Algebren I zu definieren19 . Dies führt zu folgendem Satz (bzw.
Definition).
19
Entscheidend geht dabei der Satz von Radon-Nikodym ein (siehe Anhang A.7). Dieser besagt grob gesprochen,
dass bei zwei
R
R vorgegebenen Maßen P und Q eine Dichtefunktion f mit dQ = f · dP existiert, d.h.
Z(ω)dQ(ω) = Z(ω)f (ω)dP(ω).
52
c Klaus Schindler SS 2017
Stochastik
Kapitel 3
3.10. Bedingte Erwartung
Satz 3.31
Sei Z eine integrierbare Zufallsvariable auf (Ω, A, P) und I ⊂ A eine σ-Algebra. Dann
existiert bis auf P-fast-sichere Gleichheit genau eine Zufallsvariable Y auf Ω, welche folgende
zwei Bedingungen erfüllt:
1.) Y ist I-messbar
A
Y dP =
Z
A
ZdP.
Man bezeichnet Y als bedingte Erwartung von Z unter der Information (Hypothese) I und
schreibt Y = [Z|I] oder Y = I [Z]. Wird speziell I von den Zufallsvariablen Z1 , . . . , Zn
erzeugt, d.h. gilt I = σ(Z1 , . . . , Zn ), schreibt man [Z | Z1 , . . . , Zn ].
❑
E
E
E
Bemerkung 3.32
i) Wählt man in Eigenschaft 2.) von Satz 3.31 speziell A = Ω, so folgt
E E[Z | I]
=
E[Z].
E[Z|I] ist daher ein unverzerrter I-messbarer Schätzer von Z. Eine ZV Z zu prognostizieren heißt also, eine andere ZV Y zu bestimmen, die
1.) I-messbar, d.h. an die gegebene Informationsmenge I in dem Sinne angepasst
ist, dass sie nicht mehr als die vorhandene Information enthält und
2.) die „bestmögliche“ Approximation für Z ist, d.h. Z und Y liefern für jedes Ereignis A aus der Informationsmenge I die gleichen bedingten Erwartungswerte
E[Y | A] = E[Z | A]
⇐⇒
Z
A
Y (ω)dP(ω) =
Z
A
Z(ω)dP(ω)
Betrachtet man speziell die Informationsmenge I0 = {∅, Ω}, d.h. liegt keine Information vor, so ist in diesem Sinn die konstante ZV Y ≡ (Z) mit
E
Y : ω 7→
E(Z),
die beste I0 -messbare Vorhersage für Z. Es gilt in diesem Fall also
(siehe hierzu auch Satz 3.35).
E[Z | I ] ≡ E[Z]
0
ii) Eigenschaft 2.) der bedingten Erwartung liefert folgende äquivalente Formulierung.
Eine I-messbare ZV Z0 ist genau dann gleich der bedingten Erwartung
∀I-messbaren X :
Z
Ω
XZ0 dP =
Z
Ω
XZdP
E[Z | I], wenn
(3.6)
Dies folgt daraus, dass jede I-messbare ZV X mittels Linearkombinationen von Indikatorfunktionen A approximiert werden kann.
c Klaus Schindler SS 2017
53
Wahrscheinlichkeitsrechnung
2.) ∀A∈I :
Z
Wahrscheinlichkeitsrechnung
Kapitel 3
Bedingte Erwartung
iii) Es sei nochmals darauf hin gewiesen, dass die bedingte Erwartung eine Zufallsgröße
und daher nur bis auf Mengen vom Maß 0 eindeutig bestimmt ist. Insbesondere ist die
bedingte Erwartung abhängig vom vorgegebenen Wahrscheinlichkeitsmaß, das daher
zur Vermeidung von Zweideutigkeiten in manchen Situationen mit angegeben wird.
Man schreibt dann z.B. P [Z | I]. Im Falle eines Maßwechsels ändert sich daher auch
die bedingte Erwartung (siehe hierzu auch Satz 3.36).
❐
E
Wahrscheinlichkeitsrechnung
Beispiel 3.33
Wir betrachten folgendes Zufallsexperiment. Man wirft eine Münze. Fällt Zahl Z ist das
Experiment beendet. Fällt dagegen Kopf K wird ein Bleistift auf eine horizontale Ebene
geworfen und der Winkel α zwischen der Bleistiftspitze und Richtung Norden gemessen. Die
Ergebnismenge lautet also Ω = {Z} ∪ {(K, α) | α∈[0, π]}. Wir definieren nun auf Ω die ZV
Z : Ω → durch
R
Z(ω) :=


−1 falls ω = Z
 α falls ω = (K, α)
Will man den Erwartungswert
von Z berechnen, bietet sich die in Bemerkung 3.32 i) er[Z|I] bedingter Erwartungen mit einer geeignet gewählten
wähnte Eigenschaft [Z] =
E
EE
σ-Algebra I an. Bezeichnet B das Ereignis, dass Zahl beim Münzwurf fällt, wählen wir die
σ-Algebra20 I := {∅, Ω, B, ∁B}. Wie zu Beginn dieses Abschnittes gesehen, gilt
E[Z | I] = E[Z | B]·
B
E
+ [Z | ∁B]·
∁B
Beträgt die Wahrscheinlichkeit für Zahl p, so ergibt sich wegen
[ ∁B ] = P (∁B) = 1−p der Erwartungswert von Z durch
E
E[Z]
=
=
=
E[
B]
= P (B) = p und
E E[Z | I]
E E[Z | B]· + E[Z | ∁B]·
E[Z | B] · p + E[Z | ∁B] · (1−p)
= −p +
∁B
B
π
2
· (1−p)
Hierbei wurde verwendet, dass für den Fall des Eintretens von B der Erwartungswert von
π
Z gleich −1 ist und beim Wurf des Bleistiftes der Erwartungswert beträgt.
❐
2
Der folgende Satz präzisiert, in welchem Sinn die bedingte Erwartung
Vorhersage für Z bei gegebener Information I ist.
20
I ist gleich der von der Indikatorfunktion
54
B
erzeugten σ-Algebra σ(
c Klaus Schindler SS 2017
B ).
E[Z|I] die beste
Stochastik
Kapitel 3
3.10. Bedingte Erwartung
Satz 3.34
Sei Z eine quadratintegrierbare ZV auf dem Wahrscheinlichkeitsraum (Ω, A, P) und I ⊂ A
E[Z|I] den Erwartungswert E |Z − Y |
I-messbaren Zufallsvariablen auf Ω, d.h. es gilt
Z
E
−
E
2 [Z|I]
=
min
Y
I−messbar
E |Z − Y |
2
2
in der Menge der
❑
Im folgenden Satz werden einige später benötigte Eigenschaften der bedingten Erwartung
zusammengestellt. Sie zeigen, dass der Übergang von Z zu [Z|I] als eine Art „Glättung“
von Z bzgl. I angesehen werden kann. Mit dieser Glättung ist im Sinne unserer bisherigen
Interpretationen ein Verlust an Information über Z verbunden.
E
Satz 3.35
Seien Z, Z1 , Z2 integrierbare Zufallsvariablen auf (Ω, A, P) und I ⊂ A eine σ-Algebra in A.
Dann gelten die folgenden Aussagen P-fast sicher:
E
b) Gilt Z > Z P-fast sicher, so gilt E[Z |I] > E[Z |I].
c) Gilt Z > 0 P-fast sicher und E[Z|I] = 0 P-fast sicher, so folgt Z = 0.
a)
E[α·Z
1
E
+ β·Z2 |I] = α· [Z1 |I] + β· [Z2 |I]
2
1
2
1
d) Ist g(x1 , x2 ) eine stetige Funktion und X eine I-messbare ZV auf Ω, so gilt
[g(Z, c)|I] E[g(Z, X)|I] = E
Insbesondere folgt
.
c=X
E[X·Z | I] = X · E[Z|I], E[X|I] = E[X|A] = X
und
E[1|I] = E[1|A] = 1.
e) Für σ-Algebren H ⊂ I ⊂ A gilt das sog. Tower Law:
E E[Z|I] H
=
E[Z|H] = E E[Z|H] I
d)
f) Sind die ZV Z und die σ-Algebra I stochastisch unabhängig, d.h. sind σ(Z) und I
unabhängig, so gilt
E[Z|I] = E[Z].
❑
Da wir häufig verschiedene Wahrscheinlichkeitsmaße auf Ω betrachten, ist es nützlich zu
wissen, wie sich die bedingten Erwartungen bei einem Maßwechsel verändern. Seien hierzu Q
c Klaus Schindler SS 2017
55
Wahrscheinlichkeitsrechnung
eine σ-Algebra. Dann minimiert
Wahrscheinlichkeitsrechnung
Kapitel 3
Bedingte Erwartung
und P zwei Wahrscheinlichkeitsmaße. Q besitze bzgl. P die Dichte f , d.h. es gilt21 dQ = f ·dP
bzw. in Integralform
Z
Ω
Z(ω)dQ(ω) =
Z
Ω
Z(ω)f (ω)dP(ω)
(3.7)
Daraus folgt (sofern Q(B) > 0):
E
1
Q(B)
P(B)
Q(B)
P(B)
Q(B)
Gl (3.4)
Q [Z|B]
=
=
Wahrscheinlichkeitsrechnung
=
Z
B
·
·
Z(ω)dQ(ω)
1
P(B)
E
·
Z
B
Z(ω)f (ω)dP(ω)
P [Z·f |B]
Setzt man in Gleichung (3.7) speziell Z =
Q(B) =
Z
B (ω)dQ(ω)
Ω
=
Z
Ω
(3.8)
B
erhält man
B (ω)f (ω)dP(ω)
= P(B)
E
P [f |B],
und Division liefert
1
.
P [f |B]
P(B)
=
Q(B)
E
Einsetzen in Gleichung (3.8) ergibt schließlich
E
Q [Z|B]
EP [Z·f |B]
EP [f |B]
=
.
Dieses Ergebnis lässt sich wie bei der Konstruktion der bedingten Erwartung auf beliebige
σ-Algebren verallgemeinern und liefert folgenden Satz.
Satz 3.36 (Regel von Bayes)
Seien Q und P zwei Wahrscheinlichkeitsmaße auf (Ω, A) mit dQ = f · dP und sei I eine
σ-Algebra in A. Ist Z eine A-messbare Zufallsvariable, so gilt:
E
Q [Z|I]
=
E [Z·f |I]
E [f |I]
P
❑
P
Beweis:
Wir beweisen zunächst die Gleichung
E
Q
21
1 f I
=
1
.
P [f | I]
E
(3.9)
f wird in der Literatur als Radon-Nikodym-Ableitung bezeichnet und mit
56
c Klaus Schindler SS 2017
dQ
dP
notiert.
Stochastik
Kapitel 3
3.10. Bedingte Erwartung
E
1
ergibt sich aus der I-Messbarkeit von P [f | I]. Z.z. bleibt
Die I-Messbarkeit von E [f
P |I]
die Integraleigenschaft 2.) der bedingten Erwartung. Sei hierzu A∈I beliebig. Dann gilt
Ω
A·
E
Q
1 I ·
f E
P [f |I] dQ
EP [f |I] I-messbar
=
Ω
EQ
Definition
=
Z
Ω
Z
1
·dQ=dP
f
=
Ω
Z
EP
Definition
=
ZΩ
f ·dP=dQ
=
Also gilt
E
Q
1 I ·
f E
P [f |I]
=
E
Q [1
Z
Ω
A·
E
Q
1
f
E
A
·
1
f
A
·
E
A
· f dP
A
· 1 dQ
·
·
E
P [f |I]
P [f |I]
P [f |I] I dQ
dQ
dP
Wahrscheinlichkeitsrechnung
Z
| I] = 1
Mit Gleichung (3.9) können wir nun die gesuchte Gleichung
E
Q [Z|I]
=
E [Z·f |I]
E [f |I]
P
P
beweisen. Sei hierzu wieder A∈I beliebig. Dann gilt
Z
Ω
A
· Z dQ
dQ=f ·dP
=
Definition
=
EP
=
=
EQ
EP[Zf |I] I-messbar
=
(3.9)
=
ZΩ
Ω
dP= f1 ·dQ
Definition
Z
Z
Ω
Z
Ω
Z
Ω
Z
Ω
A
· Z · f dP
A
·
A
·
A
A
A
E
P [Z·f
| I] dP
E [Zf |I] · f1 dQ
1 · E E [Zf |I] · I dQ
f
1 · E [Zf |I] · E
I dQ
f 1
· E [Zf |I] ·
E [f |I] dQ
P
Q
P
P
Q
P
P
E [Zf |I]
Damit erfüllt EP [f |I] Eigenschaft 2.) der bedingten Erwartung von Z. Die I-Messbarkeit,
P
d.h. Eigenschaft 1.) der bedingten Erwartung, ergibt sich aus der Messbarkeit von
und P [f |I].
E
E
P [Zf |I]
Es liegt nun nahe, auch andere Begriffe, die vom gegebenen Wahrscheinlichkeitsmaß beeinflusst werden in Abhängigkeit von der gegebenen Informations-σ-Algebra I zu definieren. Hierzu soll zunächst die bzgl. eines einzelnen Ereignisses B bedingte Wahrscheinlichkeit
P(·|B) (siehe Abschnitt 3.8) verallgemeinert werden, d.h. wir wollen die bzgl. einer σ-Algebra
I bedingte Wahrscheinlichkeit P(·|I) definieren. Wie schon im Fall der bedingten Erwartung
ist die bedingte Wahrscheinlichkeit eine Zufallsvariable. Da im unbedingten Fall
P(A) =
E[
A]
c Klaus Schindler SS 2017
57
Wahrscheinlichkeitsrechnung
Kapitel 3
Bedingte Erwartung
gilt, liegt es nahe, die bzgl. der σ-Algebra I bedingte Wahrscheinlichkeit folgendermaßen zu
definieren.
Definition 3.37
Die bzgl. der σ-Algebra I bedingte Wahrscheinlichkeit P(.|I) ist definiert durch
P(·|I) : A → {Z | Z ist I-messbare ZV}
A 7→ P(A|I) := [ A |I] .
E
Wahrscheinlichkeitsrechnung
Wird speziell I von den Zufallsvariablen Z1 , . . . , Zn erzeugt, d.h. gilt I = σ(Z1 , . . . , Zn ),
schreibt man P(·|Z1 , . . . , Zn ).
❐
Bemerkung 3.38
i) Es sei nochmals darauf hingewiesen, dass für jedes Ereignis A ∈ A die bedingte Wahrscheinlichkeit P(A|I) = [ A |I] eine ZV ist. Da nach Eigenschaft 2.) der bedingten
Erwartung
E
Z
G
E[Z|I](ω)dP(ω) =
Z
G
Z(ω)dP(ω) =
Z
für alle G ∈ I gilt, heißt dies speziell für Z =
Z
G
Z
P(A|I)(ω)dP(ω) =
ZG
2.)
=
E[
ZG
=
Ω
Z(ω) ·
Ω
G (ω)dP(ω)
A
A |I](ω)dP(ω)
A (ω)dP(ω)
A (ω)
·
G (ω)dP(ω)
= P(A ∩ G)
ii) Die bedingte Wahrscheinlichkeit P(A|I) weist zum Wahrscheinlichkeitsmaß P analoge
Eigenschaften auf, z.B.:
1.) Für alle A ∈ A gilt: ∀ω∈Ω : 0 6 P(A|I)(ω) 6 1.
2.) Ist (Aℓ )∞
ℓ=1 eine Folge disjunkter Mengen in A, so gilt
P
∞
S
·
Aℓ |I (ω) =
ℓ=1
∞
X
ℓ=1
P(Aℓ |I)(ω)
3.) Für A, B ∈ A mit A ⊂ B gilt
P(B\A|I)(ω) = P(B|I)(ω) − P(A|I)(ω)
4.) Ist (Aℓ )∞
ℓ=1 eine isotone Folge mit lim Aℓ = A, so folgt die Stetigkeitsaussage
ℓ→∞
P(A|I)(ω) = P( lim Aℓ |I)(ω) = lim P(Aℓ |I)(ω)
ℓ→∞
58
ℓ→∞
c Klaus Schindler SS 2017
❐
Stochastik
Kapitel 3
3.10. Bedingte Erwartung
Mit Hilfe der bedingten Wahrscheinlichkeit P(·|I) kann nun auch analog zum „klassischen“
Fall der Begriff der bedingten Verteilung bzw. der bedingten Verteilungsfunktion eingeführt
werden. Im unbedingten Fall ist die Verteilungsfunktion FZ der ZV Z definiert durch
FZ (x) = P({Z6x}),
was folgende Definition nahe legt.
FZ|I (x) = P({Z6x} | I) =
E[
{Z6x}
| I].
Wird speziell I von den Zufallsvariablen Z1 , . . . , Zn erzeugt, d.h. gilt I = σ(Z1 , . . . , Zn ),
❐
schreibt man FZ|Z1 ,...,Zn .
Bemerkung 3.40
i) Da die bedingte Wahrscheinlichkeit P(A|I) für jedes Ereignis A eine ZV ist, stellt FZ|I
eine Funktion in zwei Variablen dar. Genauer gilt
FZ|I : Ω ×
R
→ [0,
1]
(ω, x) 7→
FZ|I (x) (ω) = P({Z6x}|I)(ω)
ii) Analog zur bedingten Wahrscheinlichkeit weist auch die bedingte Verteilungsfunktion
ähnliche Eigenschaften wie die unbedingte Verteilungsfunktion auf. So lässt sich der
(unbedingte) Erwartungswert [Z] als Riemann-Stieltjes-Integral bzgl. der (unbedingten) Verteilungsfunktion darstellen, denn es gilt nach Definition 3.19 (siehe Kapitel 3,
Abschnitt 3.7)
E
E[Z] =
Z
R
xdFZ (x).
dFZ (x) ist dabei zu lesen als FZ (x+dx) − FZ (x) = P({x < Z 6 x+dx}). Die analoge
Aussage gilt für die bedingte Erwartung:
E[Z|I](ω) =
Z
R
xdFZ|I (x)(ω) =
Z
R
xP({x < Z 6 x+dx}|I)(ω).
❐
Beispiel 3.41
Wir betrachten erneut Beispiel 3.33 mit Ω = {Z} ∪ ({K} × [0, π]) = {Z} ∪ {(K, α) | α∈[0, π]}
und der ZV Z : Ω → , definiert durch:
Z(ω) :=


R
−1 falls ω = Z
 α falls ω = (K, α)
c Klaus Schindler SS 2017
59
Wahrscheinlichkeitsrechnung
Definition 3.39
Die bedingte Verteilungsfunktion FZ|I der ZV Z unter der Hypothese I ist definiert durch
Wahrscheinlichkeitsrechnung
Kapitel 3
Bedingte Erwartung
I sei die von dem Ereignis B = {Z} erzeugte σ-Algebra, d.h. I = σ( B ) = {∅, B, ∁B, Ω}.
Wir bestimmen die bedingte Verteilungsfunktion FZ|I . Hierzu berechnen wir zunächst die
Ereignisse {Z6x}. Es gilt







{Z6x} = 





falls
falls
falls
falls
∅
B
B ∪ ({K} × [0, x])
Ω
x < −1
−1 6 x < 0
06x<π
π6x
E[·|I] = E[·|B] · + E[·|∁B] ·
E[ |B] · + E[ |∁B] ·
Wie in Beispiel 3.33 gesehen, gilt
Wahrscheinlichkeitsrechnung
P(A|I) =
E[
A |I]
=
=
B
A
B
P(A ∩ B)
P(B)
·
B
und daher
∁B
A
+
∁B
P(A ∩ ∁B)
P(∁B)
·
∁B
Damit ergibt sich schließlich
FZ|I (x) = P({Z6x}|I)
=
=
60
P({Z6x} ∩ B)
P(B)













∅
≡0
B
B +
Ω
x
π
∁B
≡1
·
B
+
P({Z6x} ∩ ∁B)
P(∁B)
·
∁B
falls
x < −1
falls −1 6 x < 0
falls 0 6 x < π
falls
π6x
❐
c Klaus Schindler SS 2017
Literaturverzeichnis
[1] Bachelier, L., Théorie de la spéculation, volume 3 of Annales de l’Ecole Normale
Supérieure. Gauthier-Villars, Paris (1900)
[2] Bauer, H., Wahrscheinlichkeitstheorie. 4. Aufl., De Gruyter, Berlin, New York (1991)
[3] Baxter, M., Rennie, A., Financial Calculus: An Introduction to Derivative Pricing.
Cambridge University Press, Cambridge (1998)
[4] Black, F., Scholes, M., The Pricing of Options and Corporate Liabilities. Journal of
Political Economy 81 (1973), 637-654
[5] Cox, John C., Rubinstein, Mark., Option Markets. Englewood Cliffs (1985)
[6] Dalang, R.C., Morton, A., Willinger, W., Equivalent Martingale Measures and NoArbitrage in Stochastic Securities Market Models. Stochastics and Stochastics Reports
29 (1990), 185-201
[7] Delbaen, F., Schachermayer, W., A General Version of The Fundamental Theorem of
Asset Pricing. Mathematische Annalen 300 (1994), 463-520
[8] Delbaen, F., Schachermayer, W., The Fundamental Theorem of Asset Pricing for Unbounded Stochastic Processes. Mathematische Annalen 312 (1998), 215-250
[9] Duffie, D, Dynamic Asset Pricing. Princeton University Press (1996) 2. Aufl.
[10] Elliott, R. J.,Kopp, P. E., Hafner, C., Mathematics of Financial Markets. Springer, New
York, Berlin, Heidelberg (1991)
[11] Franke, J., Härdle, W., Hafner, C., Einführung in die Statistik der Finanzmärkte. Springer, New York, Berlin, Heidelberg - 2. Auflage (2008)
[12] Harrison, J.M., Kreps, D.M., Martingales and Arbitrage in Multiperiod Securities Markets. Journal of Economic Theory 20 (1979), 381-408
[13] Hastings, Cecil jr. u.a., Approximations for digital computers. Princeton University
Press. Princeton (1955)
131
Literatur
[14] Hull, John. Options, Futures and other Derivative Securities. Englewood Cliffs: Prentice
Hall. 8. Auflage (2010)
Literatur
[15] Ingersoll, Jonathan, Theory of financial decision making. Rowman & Littlefield, Totawa
(New Jersey). (1987)
[16] Irle, Albrecht, Finanzmathematik: Die Bewertung von Derivaten. Teubner Studienbücher. Stuttgart (1998)
[17] Jarrow, Robert A., Rudd, Andrew, Option Pricing. Homewood, Ill. (1983)
[18] Karatzas, Ioannis, Lectures on Mathematical Finance. CRM Monograph Series Vol. 8,
American Mathematical Society (1997)
[19] Karatzas, Ioannis, Shreve, Steven E., Methods of Mathematical Finance. Springer, New
York, Berlin, Heidelberg (1999)
[20] Karatzas, Ioannis, Shreve, Steven E., Brownian Motion and Stochastic Calculus. Springer, New York, Berlin, Heidelberg (1991) 2. Aufl.
[21] Malliaris, A. G., Brock, W.A.., Stochastic Methods in Economics and Finance. NorthHolland (1982)
[22] Merton, R. C., Continuous-Time Finance. Blackwell, Oxford (1990)
[23] Merton, R. C., Theory of Rational Option Pricing. Bell J. Econom. Management Sci.
4, 141-183 (1973)
[24] Musiela, Marek, Rutkowski, Marek, Martingale Methods in Financial Modelling. Springer, New York, Berlin, Heidelberg (1998)
[25] Neftci, Salih N., An Introduction to the Mathematics of Financial Derivatives. Academic Press (1996)
[26] Nielsen, L.N.., Pricing and Hedging of Derivative Securities. Oxford University Press
(1999)
[27] Pliska, S. R., Introduction to Mathematical Finance: Discrete Time Modells. Blackwell,
Oxford (1997)
[28] Samarskij, A.A., Theorie der Differenzenverfahren. Akademischer Verlagsgesellschaft
Geest u. Portig K.-G.. Leipzig (1984)
[29] Sandmann, Klaus, Einführung in die Stochastik der Finanzmärkte. Springer, New York,
Berlin, Heidelberg (1999)
[30] Welcker, Johannes, Kloy, Jörg W., Schindler, Klaus, Professionelles Optionsgeschäft.
Verlag Moderne Industrie, Zürich (1992) 3. Aufl.
Literatur
132
c Klaus Schindler SS 2017
Literatur
[31] v. Weizsäcker, H., Winkler, G., Stochastic Integrals. Vieweg & Sohn, Braunschweig,
Wiesbaden (1990)
c Klaus Schindler SS 2017
133
Literatur
[32] Wilmott, Dewynne, Howison, Option Pricing: Mathematical Models and Computation.
Oxford Financial Press. (1993)
Integrationstheorie
Definition A.1
Unter einer Zerlegung Z des Intervalls [a, b] versteht man eine Menge Z := {t0 , t1 , . . . , tn }
von Punkten tj mit a = t0 < t1 < . . . < tn = b. Hierdurch wird das Intervall [a, b] in n
Teilintervalle [tk , tk+1 ] (k = 0, 2, . . . , n − 1) zerlegt. |Z | := max(tk+1 − tk ), d.h. die Länge des
k
größten auftretenden Teilintervalls und wird als Feinheit der Zerlegung Z bezeichnet. ❐
A.1. Funktionen von endlicher Variation
Definition A.2
Für eine Funktion α : [a, b] −→
und eine Zerlegung Z := {t0 , t1 , . . . , tn } definiert man
die Variation von α bzgl. Z durch:
R
V (Z ) :=
n−1
X
k=0
|α(tk+1) − α(tk )|
V := sup V (Z ) heißt totale Variation von α auf [a, b]. Gilt V < ∞, so heißt α von endlicher
Z
Variation auf [a, b].
Satz A.3
Für eine Funktion α : [a, b] −→
❐
R gilt:
a) α monoton =⇒ α von endlicher Variation.
b) α Lipschitz-stetig =⇒ α von endlicher Variation.
c) α von endlicher Variation =⇒ α beschränkt.
Außerdem sind Summe, Differenz und Produkt von Funktionen von endlicher Variation
selbst wieder von endlicher Variation.
❑
135
Integrationstheorie
A NHANG
A
Anhang A
Riemann-Stieltjes-Integral
A.2. Riemann-Stieltjes-Integral
Definition A.4
Es seien die Funktionen f, α : [a, b] → und eine Zerlegung Z := {t0 , t1 , . . . , tn } gegeben.
Wähle für k = 0, 1, . . . , n−1 Zwischenstellen τk ∈ [tk , tk+1 ] und bilde:
R
I(Z , τ ) :=
n−1
X
k=0
f (τk ) · (α(tk+1) − α(tk ))
Konvergiert I(Z , τ ) für |Z | → 0 gegen einen Grenzwert I, der weder von der gewählten
Zerlegung Z noch von der Wahl der Zwischenstellen τk abhängt, so nennt man I das
Riemann-Stieltjes-Integral von f . Man schreibt:
I=
Z
b
f (t)dα(t).
a
Für α(t) = t ergibt sich das Riemann-Integral als Spezialfall des Stieltjes-Integrals.
❐
Satz A.5 (Eigenschaften des Riemann-Stieltjes-Integrals)
a) Existieren die entsprechenden Integrale auf der rechten Seite, so gelten die Linearitätseigenschaften:
Z
b
a
Z b
a
(k1 · f + k2 · g) dα = k1
f d(c1 · α + c2 · β) = c1
Z
a
Z b
b) Existiert für a < c < b das Integral
es gilt:
Z
b
a
f dα =
Z
c
a
f dα +
Z
b
a
f dα + k2
f dα + c2
Rb
a
Z
b
a
Z b
a
R)
∈ R)
g dα (k1 , k2 ∈
f dβ
(c1 , c2
f dα, so auch die Integrale
Rc
a
f dα,
Rb
c
f dα und
b
c
f dα
c) Ist f auf [a, b] stetig und α von endlicher Variation, so existiert
Z
b
a
f dα.
d) Ist f auf [a, b] stetig und α differenzierbar mit beschränkter Ableitung, so gilt:
Z
b
a
f (t)dα(t) =
Z
b
a
f (t) · α′ (t)dt
e) Partielle Integration:
R
R
Existiert ab f dg oder ab gdf , so auch das jeweils andere Integral und es gilt:
Z
b
a
f dg +
Z
b
a
gdf = f g
f) Ist α stetig, so gilt
Integrationstheorie
136
Z
b
a
b
a
dα(t) = α(b) − α(a)
c Klaus Schindler SS 2017
Integration
Anhang A
g) Sei f stetig auf [a, b] und α abschnittsweise konstant mit Sprungstellen (ck )m
k=1 , dann
ist:
Z
b
a
m
X
f dα =
k=1
−
f (ck ) · α(c+
k ) − α(ck )
{z
|
Sprunghöhe
}
❑
Satz A.6
Sei f eine messbare Funktion auf dem Messraum (Ω, A). Dann existiert eine Folge (Tn )∞
n=1
messbarer Treppenfunktionen, die punktweise gegen f konvergiert, d.h. für jedes ω ∈ Ω gilt
lim Tn (ω) = f (ω).
❑
n→∞
Beweis:
Wegen f = f + − f − genügt es, f > 0 anzunehmen und zu zeigen, dass eine monoton
∞
wachsende Folge (Tn )n=1
mit lim Tn (x) = f (x) existiert.
n→∞
Für n ∈
und i ∈
mit 1 6 i 6 n · 2n definieren wir hierzu im Definitionsbereich die
messbaren Mengen
N
N
En,i := x ∈ Ω
i−1
2n
6 f (x) <
i
2n
und Fn := {x | f (x) > n} .
Die Mengen En,i sind gerade die Urbilder der Zerlegung des Intervalls [0, n[ im Bildbereich
1
von f in 2n Teilintervalle der Länge n , wohingegen Fn das Urbild von [n, +∞[ ist.
2
Wegen der Messbarkeit von f sind die Mengen En,i und Fn Elemente der σ-Algebra A.
Für festes n ∈ sind die Mengen En,i (i = 1, . . . , n2n ) und Fn offensichtlich disjunkt. Wir
definieren nun
N
Tn :=
n
n2
X
i=1
i−1
2n
·
En,i
+n·
Fn
,
und zeigen, dass Tn (x) 6 Tn+1 (x) für alle x ∈ Ω und n ∈
die Fälle f (x) > n+1 und 0 6 f (x) < n+1.
N gilt. Hierzu unterscheiden wir
Ist f (x) > n+1, so ergibt sich nach Definition der Tn
Tn (x) = n < n+1 = Tn+1 (x) 6 f (x) .
k−1
k
Ist 0 6 f (x) < n+1, so liegt x in genau einer Menge En+1,k , d.h. es ist n+1 6 f (x) < n+1 ,
2
2
wobei 1 6 k 6 (n+1)2n+1 eindeutig bestimmt ist. Nach Definition von Tn+1 folgt daher
Tn+1 (x) =
k−1
2n+1
·
(x)
En+1,k
=
k−1
2n+1
6 f (x) .
Ist k ungerade, gilt k = 2j − 1, woraus x ∈ En,j folgt und daher
j−1
2n
=
2j − 2
2n+1
=
k−1
2n+1
= Tn+1 (x) .
c Klaus Schindler SS 2017
137
Integrationstheorie
Tn (x) =
Anhang A
Der Satz von Radon-Nikodym
Ist k gerade, gilt k = 2j, woraus ebenfalls x ∈ En,j folgt und daher
Tn (x) =
j−1
2n
=
2j − 2
2n+1
=
k−2
2n+1
<
k−1
2n+1
= Tn+1 (x) .
Um die Konvergenz lim Tn (x) = f (x) zu überprüfen, betrachten wir zunächst den Fall
n→∞
f (x) = +∞. Dann gilt Tn (x) = n, und die Behauptung ist erfüllt. Gelte daher f (x) < ∞.
Für alle n > f (x) existiert dann ein k mit x ∈ En,k und daher
Tn (x) =
k−1
2n+1
6 f (x) <
k
2n+1
Dies liefert 0 6 f (x) − Tn (x) <
=
1
2n+1
k−1
2n+1
+
1
2n+1
= Tn (x) +
1
2n+1
.
n→∞
−→ 0.
A.3. Der Satz von Radon-Nikodym
Satz A.7 (Radon-Nikodym)
Seien λ und µ positive Maße auf dem Maßraum (Ω, A) mit
i) 0 < µ(Ω) < ∞ und 0 < λ(Ω) < ∞
ii) λ ist absolut stetig bzgl. µ, d.h. es gilt µ(A) = 0 =⇒ λ(A) = 0 für alle A ∈ A
(Schreibweise: λ ≪ µ).
Dann existiert eine nichtnegative A-messbare Funktion h auf Ω, so dass gilt:
∀A ∈ A : λ(A) =
Z
A
hdµ.
Insbesondere gilt für alle messbaren Funktionen f :
Z
f dλ =
Z
f · hdµ.
❑
Bemerkung A.8
Man verwendet im Satz von Radon-Nikodym häufig die Kurzschreibweise λ = h · µ und
nennt h die Dichte von λ bzgl. µ. Verursacht durch die Konstruktion wird h auch als Radondλ
Nikodym-Ableitung bezeichnet. In diesem Fall schreibt man h = .
❐
dµ
Integrationstheorie
138
c Klaus Schindler SS 2017
Der Satz von Girsanov
Beispiel B.1
Seien Z1 , . . . , Zn unabhängige, standardnormalverteilte Zufallsvariablen auf dem Maßraum
(Ω, A, P) und µ1 , . . . , µn ∈ . Dann wird durch
R
n
P
Q(dω) := ξ(ω) · P(dω)
mit ξ(ω) := ei=1
µi Zi (ω)− 12 µ2i
ein zu P äquivalentes Wahrscheinlichkeitsmaß Q definiert. Für die Verteilung der Z1 , . . . , Zn
unter dem neuen Maß Q gilt dann:
Q(Z1 ∈ dz1 , . . . , Zn ∈ dzn ) = e
n
P
i=1
n
P
= ei=1
=
µi zi − 21 µ2i
µi zi − 12 µ2i
1
n
(2π) 2
e
− 12
·P(Z1 ∈ dz1 , . . . , Zn ∈ dzn )
1
n
(2π) 2
·
n
P
e
(zi −µi )2
i=1
− 21
n
P
i=1
zi2
dz1 . . . dzn
dz1 . . . dzn ,
d.h. die Z1 , . . . , Zn sind bzgl. Q unabhängig und normalverteilt mit den Erwartungswerf := Z − µ
ten Q (Zi ) = µi und Q [(Zi − µi )2 ] = 1. Damit sind die Zufallsvariablen Z
i
i
i
unabhängige, standardnormalverteilte Zufallsvariablen auf dem Maßraum (Ω, A, Q).
❐
E
E
Beim Übergang von P zu Q durch Multiplikation mit ξ verändern sich also die Erwartungswerte der normalverteilten Zufallsvariablen, während die Volatilitätsstruktur bemerkenswerter Weise unbeeinflusst bleibt.
Der Satz von Girsanov verallgemeinert diese Methode nun auf den stetigen Fall, d.h. er
konstruiert zu einer vorgegebenen P-Brownschen Bewegung Wt ein äquivalentes Maß Q und
einen geeignet angepassten Prozess W∗t , so dass dieser eine Q-Brownsche Bewegung darstellt.
Dabei tritt an die Stelle der (beliebig vorgegebenen) Erwartungswerte µi eine („beliebig“
vorgegebene) Drift, also ein stochastischer Prozess Xt .
Satz B.2 (Girsanov)
Es sei (Ω, A, P) ein Wahrscheinlichkeitsraum, (Wt )t∈T eine Brownsche Bewegung bezüglich
P, (It )t∈T eine Filtration in A und (Xt )t∈T ein adaptierter stochastischer Prozess. Ist dann
der durch
Z
ξt := exp(
0
t
Xu dWu −
1
2
Z
0
t
Xu2 du)
für alle t ∈
T
139
Der Satz von
Girsanov
A NHANG
B
Anhang B
Martingal-Darstellungssatz
definierte Prozess (ξt )t∈T ein Martingal bezüglich P und (It )t∈T , so ist der durch
W∗t
:= Wt −
Z
t
0
Xu du
für alle t ∈ [0, T ]
definierte Prozess (W∗t )t∈T ein Wiener Prozess bezüglich der Filtration (It )t∈T und dem
durch
Q := ξT · P
definierten1 , zu P äquivalenten Wahrscheinlichkeitsmaß Q.
❑
Der Satz von Girsanov besagt also, dass zu einer P-Brownschen Bewegung Wt ein äquivalentes Wahrscheinlichkeitsmaß Q gefunden werden kann, so dass Wt als Q-Brownsche
Bewegung zur Zeit t die Drift Xt besitzt.
Bemerkung B.3
Mit den obigen Bezeichnungen ist (ξt )t∈T jedenfalls dann ein Martingal bezüglich P und
(It )t∈T , wenn die sogenannte Novikov-Bedingung
E
P
exp(
Z
t
0
Xu2 du)
<∞
für alle t ∈ [0, T ]
erfüllt ist, d.h. wenn Xt nicht zu stark schwankt.
❐
B.1. Martingal-Darstellungssatz
Ein weiteres wichtiges Hilfsmittel zur Herleitung der Black-Scholes-Formel mittels Martingaltheorie stellt das Martingal-Repräsentations-Theorem dar. Es besagt, dass jedes QMartingal unter gewissen Voraussetzungen mittels eines quadratisch integrierbaren Prozesses durch ein vorgegebenes Q-Martingal repräsentiert wird. Genauer gilt:
Satz B.4
Sei (Mt )t∈T ein Martingal bezüglich des Wahrscheinlichkeitsmaßes Q und der Filtration
(It )t∈T , für dessen Volatilitätsprozess (σt )t∈T Q-fast sicher σt 6= 0 für alle t ∈
gilt. Ist
dann (Nt )t∈T ein weiteres Martingal bezüglich Q und (It )t∈T , so existiert ein (eindeutig
R
bestimmter) an (It )t∈T adaptierter stochastischer Prozess (Ht )t∈T mit 0T Ht2 σt2 dt < ∞, so
dass gilt:
T
Nt = N0 +
1
Dies bedeutet
Der Satz von
Girsanov
140
R
Ω
Z
0
t
Hs dMs .
A (ω)dQ(ω)
= Q(A) :=
❑
R
Ω
A (ω)ξT dP(ω)
= EP (
c Klaus Schindler SS 2017
A ξT )
für alle A ∈ A
Stochastik
Anhang B
Beispiel B.5
Wie eine leichte Rechnung zeigt (Übung!), ist der Standard-Wiener-Prozess (Wt )t∈T bezüglich eines Wahrscheinlichkeitsmaßes P ein Martingal bezüglich P und der von ihm erzeugten
Filtration (It )t∈T . Ist nun (Xt )t∈T ein weiteres Martingal bezüglich P und (It )t∈T , so gibt
es nach obigem Satz einen an (It )t∈T adaptierten stochastischen Prozess (Ht )t∈[0,T ] , so dass
Xt = X0 +
Z
t
0
Hs dWs .
❐
Bemerkung B.6
Schreibt man den letzten Ausdruck in differentieller Form, so erhält man
dXt = Ht dWt .
c Klaus Schindler SS 2017
141
Der Satz von
Girsanov
Das Beispiel zeigt also erneut, dass ein Martingal keine Drift aufweisen kann (vgl. Beispiel
4.18 ii)).
❐
Portfolio-Strategien
Grundlegende Begriffe
T
Das Portfolio eines Marktteilnehmers zum Zeitpunkt t ∈ , d.h. die Anzahl der einzelnen
Marktwerte (Kontrakte) in seinem Portfolio zum Zeitpunkt t, ist oft, wie z.B. beim dynamischen Duplikationsprozess bei der Herleitung der Black/Scholes-DGL, abhängig von
dem Preisverlauf (Ss )s<t bis zu diesem Zeitpunkt t, also von der Information, die zu diesem Zeitpunkt zur Verfügung steht. Deshalb ist es naheliegend, seine Strategie, d.h. den
zeitlichen Verlauf seiner Portfolio-Bestandes, ebenfalls als einen an (It )t∈T adaptierten ddimensionalen stochastischen Prozess (φt )t∈T zu modellieren. Dabei gibt φit (ω) an, wieviel
von Wertpapier i zum Zeitpunkt t bei Umweltzustand ω im Portfolio vorhanden ist, wobei negative Werte für eine entsprechende Zahl an Leerverkäufen des jeweiligen Kontraktes
stehen.
Definition C.1
Sei M = (Ω, A, P, , (It )t∈T , (St )t∈T ) ein Marktmodell. Dann heißt ein an die Filtration (It )t∈T adaptierter d-dimensionaler stochastischer Prozess φ = (φt )t∈T eine PortfolioStrategie.
d
P
Der stochastische Prozess (V (φt ))t∈T mit V (φt ) := φt ∗ St =
φit Sti heißt der Wert der
i=1
Strategie φ = (φt )t∈T .
❐
T
Beispiel C.2
Man betrachte das Black-Scholes-Modell, d.h. auf dem Markt werden zwei Finanzinstrumente gehandelt: Ein risikobehafteter Wert S (Aktie) und ein risikoloser Wert B (Zerobond).
Wie in Kapitel 5.4 wird dabei der Aktienkurs (St ) als geometrisch Brownsche Bewegung
definiert, so dass er der stochastischen Differentialgleichung
dSt = St (µdt + σdWt )
(C.1)
genügt, wobei S0 > 0, µ und σ reelle Konstanten sowie (Wt ) eine Brownsche Bewegung auf
einem filtrierten W-Raum (Ω, A, P, , (It )t∈T ) mit It := σ(Ws , s 6 t) seien. Der Kurs des
Zerobonds Bt genüge der Differentialgleichung
T
dBt = rBt dt
143
Portfolio-Strategien
A NHANG
C
Anhang C
Black-Scholes
mit konstantem reellen r. Ohne weiteres kann B0 = 1 angenommen werden, so dass sich
Bt = ert ergibt.
Das zugehörige Marktmodell lautet also
T
MBS = (Ω, A, P, , (It )t∈T , (St )t∈T ), wobei St := (St , Bt )T .
Der zweidimensionale stochastische Prozess (φt )t∈T mit φt = (at , bt ) beschreibe nun eine
Portfolio-Strategie, in der at (ω) die Anzahl der Aktien und bt (ω) die Anzahl der Anleihen
im Portfolio zum Zeitpunkt t bei Umweltzustand ω angibt. Dann ergibt sich der Wert des
Portfolios zum Zeitpunkt t als die Zufallsvariable
V (φt ) = at St + bt Bt .
❐
Von besonderer Bedeutung sind Portfolio-Strategien, die - wenn einmal initialisiert - während ihrer Laufzeit keine Cash-Flows aufweisen, d.h. die beim Umschichten des Portfolios
keine Zahlungen notwendig machen. Dies bedeutet, dass eventuelle Rückflüsse (durch Verkauf von Wertpapieren, Dividenden o.ä.) sich mit erforderlichen Zuschüssen (durch zusätzlichen Kauf von Wertpapieren, Bestandshaltekosten o.ä.) genau ausgleichen. Man spricht
daher von selbstfinanzierenden Strategien. Nach außen hin hat man den Eindruck, als ob
die Wertänderung dieser Portfolios nur durch die Kursänderung der beteiligten Wertpapiere
verursacht wird. Formal ergibt sich folgende Definition.
Definition C.3
Sei M = (Ω, A, P, , (It )t∈T , (St )t∈T ) ein Marktmodell und φ = (φt )t∈T eine PortfolioStrategie mit Wert (V (φt ))t∈T . Dann heißt φ
T
a) selbstfinanzierend, wenn P-fast sicher dV (φt ) = φt ∗ dSt =
d
X
φit dSti gilt,
i=1
b) zulässig, wenn P-fast sicher V (φt ) > 0 gilt.
❐
Anwendung auf das Black-Scholes-Modell
Im folgenden werde das Black-Scholes-Modell MBS aus Beispiel C.2 betrachtet. Die sich
anschließenden Ausführungen zeigen, dass auf einem solchen Markt keine Arbitrage möglich
ist, genauer: Es gibt keine zulässige selbstfinanzierende Strategie mit Anfangswert V (φ0 ) =
0, deren Endwert V (φT ) mit positiver Wahrscheinlichkeit positiv ist.
Portfolio-Strategien
144
c Klaus Schindler SS 2017
Portfolio-Strategien
Anhang C
Lemma C.4
Im Black-Scholes-Modell MBS = (Ω, A, P, , (It )t∈T , (St , Bt )t∈T ) ist die Portfoliostrategie
(at , bt ) genau dann selbstfinanzierend, wenn der diskontierte Prozess1 (Ṽt )t∈T mit Ṽt = e−rt Vt
der stochastischen DGL
T
dṼt = at dS̃t
genügt, wobei S̃t = e−rt St den diskontierten Aktienkurs beschreibe.
❑
Beweis:
Einfache Rechnung (Übungsaufgabe).
Mit Hilfe des Satzes von Girsanov wird nun ein zu P äquivalentes Maß Q konstruiert, unter
welchem der Prozess des diskontierten Aktienkurses ein Martingal ist. Unter Beachtung von
(C.1) ergibt sich
dS̃t = S̃t [(µ − r)dt + σdWt ].
(C.2)
Setzt man nun
∀t ∈
T:X
t
:= −
µ−r
,
σ
so ist die Novikov-Bedingung (vgl. Bemerkung B.3) sicherlich erfüllt. Daher ist für Q mit
dQ
= ξT := exp
dP
= exp
Z
0
T
Xu dWu −
µ−r
WT
−
σ
−
1
2
Z
0
T
Xu2 du
!
1 µ − r 2
T
2
σ
µ−r
nach dem Satz von Girsanov (W∗t )t∈T mit W∗t := Wt +
t eine Q-Brownsche Bewegung.
σ
∗
Wegen (C.2) gilt damit nach der Definition von Wt
dS̃t = S̃t σdW∗t .
(C.3)
Nach dem Lemma von Itô (vgl. Beispiel 5.12) löst
S̃t = S̃0 exp
Z
t
0
σdW∗u
−
1
2
Z
t
0
2
σ du
die stochastische DGL. Da σ konstant ist, gilt für alle t ∈
E
exp
Z
0
t
σ 2 du
< ∞.
Z
Nach Bemerkung B.3 ist damit exp
t
σdW∗u −
0
1
2
Z
t
σ 2 du , also auch S̃t ein Q-Martingal.
0
Wenn wie hier aus dem Kontext ersichtlich, verzichtet man auf die explizite Angabe der zugehörigen Strategie
und schreibt kurz Vt statt V (a, b)t .
c Klaus Schindler SS 2017
145
Portfolio-Strategien
1
T die Novikov-Bedingung
Anhang C
Black-Scholes
Q stellt also bezüglich (Set )t∈T ein zu P äquivalentes Martingalmaß dar.2
Aus der Definition von (W∗t )t∈T ergibt sich mit Hilfe von (C.1)
dSt = St (rdt + σdW∗t ),
d.h. unter dem Maß Q entspricht der erwartete Ertrag des risikobehafteten Wertpapiers
gerade dem sicheren Ertrag der risikolosen Anleihe. Deshalb nennt man das Martingalmaß
Q auch das risikoneutrale Wahrscheinlichkeitsmaß und im Gegensatz dazu P das objektive
oder physische Wahrscheinlichkeitsmaß des Black-Scholes-Marktes.
Nun ist aufgrund der Q-Martingaleigenschaft von Set wegen Lemma C.4 in Verbindung
mit Satz 4.25 f) der diskontierte Wert einer selbstfinanzierenden Strategie Vet aber selbst ein
lokales Q-Martingal. Deshalb ist der Wert jeder zulässigen selbstfinanzierenden Strategie als
nichtnegativen lokales Q-Martingal ein Q-Supermartingal. Folglich gilt: Ist der Anfangswert
einer zulässigen selbstfinanzierenden Strategie gleich Null, so muss ihr Wert auch zu jedem
späteren Zeitpunkt t gleich Null sein. Mittels einer zulässigen selbstfinanzierenden Strategie
ist also kein risikoloser Gewinn zu realisieren: Der Black-Scholes-Markt ist arbitragefrei.
Der folgende Satz stellt das wichtigste Hilfsmittel zur Bewertung europäischer Optionen
mit Hilfe des Black-Scholes-Modelles dar. Er sichert die Existenz einer die Option duplizierenden, zulässigen selbstfinanzierenden Strategie, deren Wert daher mittels Martingaltheorie
berechnet wird.
Satz C.5
Gegeben sei das Black-Scholes Modell MBS mit := [0, T ]. Die Funktion X beschreibe den
Wert einer europäischen Option zum Verfallszeitpunkt T und sei Q-integrierbar.
T
a) Dann existiert eine zulässige selbstfinanzierende Strategie (at , bt )t∈T , welche X dupliziert und deren Wert (Vt )t∈T für alle t ∈ gegeben ist durch
T
Vt =
E
−r(T −t)
Q [e
X | It ].
(C.4)
b) Schreibt sich in a) der Wert Vt in Abhängigkeit von t und St als eine Funktion Vt =
F (t, St ) mit F ∈ C 1,2 ( × [0, ∞[), so gilt für die zugehörige Strategie
T
at =
∂F (t, St )
.
∂St
❑
Beweis:
a) Man definiere (Vt )t∈T durch (C.4). Die Wohldefiniertheit folgt aus der Q-Integrierbarkeit
von X. Wegen
2
Vet = e−rt Vt =
E
−rT
Q [e
X | It ]
Es lässt sich zeigen, dass es als solches eindeutig bestimmt ist.
Portfolio-Strategien
146
c Klaus Schindler SS 2017
Portfolio-Strategien
Anhang C
erkennt man Vet im Vergleich mit Beispiel 4.18 iii) als Q-Martingal. Man beachte hierzu,
dass e−rT X genauso wie X nur von Umweltzuständen zum Zeitpunkt T abhängig ist
und somit als Zufallsvariable auf (Ω, IT , Q) aufgefasst werden kann.
(It )t∈T stellt gleichzeitig die natürliche Filtration für den Wiener Prozess (W∗ )t∈T dar,
welcher, wie oben gesehen, ebenfalls ein Q-Martingal ist. Somit existiert nach Satz
B.4 über die Martingal-Repräsentation ein an (It )t∈T adaptierter Prozess (Ht )t∈T mit
RT 2 2
gilt:
0 Ht σ dt < ∞ Q-fast sicher, so dass für alle t ∈
T
Vet = Ve0 +
Z
0
t
Hs dW∗s = V0 +
Nun setze man für alle t ∈
at :=
Ht
σ · Set
,
T
Z
0
t
Hs dW∗s .
bt := Vet − at Set .
Dann gilt nach einfacher Rechnung für alle t ∈
T
at St + bt Bt = Vt
und (at , bt )t∈T ist eine X duplizierende Strategie. Weiter gilt mit (C.3) für alle t ∈
T
at dSet = at Set σdW∗t = Ht dW∗t = dVet ,
d.h. (at , bt )t∈T ist nach Lemma C.4 selbstfinanzierend. Aufgrund der Nichtnegativität
von X und der Definition von Vt ist (at , bt )t∈T überdies zulässig.
b) Für Vt = F (t, St ) mit F ∈ C 1,2 (
T × [0, ∞[) gilt nach dem Lemma von Itô:
dVet = d(e−rt F (t, St ))
∂(e−rt F (t, St ))
=
dSt + A(t, St )dt
∂St
∂F (t, St ) −rt
e St (rdt + σdW∗t ) + A(t, St )dt
=
∂St
∂F (t, St ) e
e S )dt
=
St σdW∗t + A(t,
t
∂St
∂F (t, St ) e
e S )dt.
dSt + A(t,
=
t
∂St
c Klaus Schindler SS 2017
147
Portfolio-Strategien
e S ) verDa jedoch sowohl Vet als auch Set Q-Martingale sind, muss der Driftterm A(t,
t
schwinden. Nach Teil (a) des Satzes ist die zugehörige Strategie selbstfinanzierend und
somit folgt nun mit Lemma C.4 die Behauptung.
Anhang C
Black-Scholes
Bemerkung C.6
Mit den Bezeichnungen des vorangegangenen Satzes heißt Vt der faire Preis für die Option X
zum Zeitpunkt t, denn bei diesem Preis ist nach den vorausgegangenen Überlegungen weder
für den Käufer noch den Verkäufer der Option Arbitrage möglich. Gleichung (C.4) heißt
risikoneutrale Bewertungsformel, da sich der faire Preis der Option als (bedingte) Erwartung
des (abgezinsten) Optionswertes zum Ende der Laufzeit bezüglich des risikoneutralen Maßes
des Black-Scholes-Modelles errechnet.
❐
Auf die folgende aus dem letzten Satz resultierende Aussage wurde schon in Kapitel 7 als
Satz 7.1 formuliert.
Folgerung C.7
Es gelten die Bezeichnungen des vorangegangenen Satzes. Ist der Wert X der europäischen
Option zum Zeitpunkt T eine Funktion X = f (ST ) in Abhängigkeit vom Aktienkurs ST , so
gilt Vt = F (t, St ), wobei F für x ∈ [0, ∞[ und t ∈ = [0, T ] definiert ist durch
−r(T −t)
F (t, x) = e
Z
+∞
−∞
T
−y
√
2
(r− σ2 )(T −t)+σy T −t e 2
2
f xe
√ dy
2π
.
(C.5)
❐
Beweis:
Bezüglich Q besitzt (St ) Drift r und somit gilt
St = S0 e(r−
σ2
)t+σW∗t
2
.
Damit schreibt sich ST in der Form
ST = St (ST St−1 ) = St e(r−
σ2
)(T −t)+σ(W ∗T −W∗t )
2
.
Da St bezüglich It messbar und W∗T − W∗t von It unabhängig ist, erhält man
Vt =
=
=
E
E
E
−r(T −t)
Q [e
Q
Q
f (ST ) | It ]
e−r(T −t) f (St e(r−
e−r(T −t) f (x e(r−
σ2
)(T −t)+σ(W ∗T −W∗t )
2
σ2
)(T −t)+σ(W ∗T −W∗t )
2
) | It
)
x=St
Hieraus errechnet sich schließlich Vt = F (t, St ).
Beispiel C.8
Man betrachte nun einen europäischen Call X = max{0, ST − K}. Mittels (C.5) berechnet
sich dessen Wert zum Zeitpunkt t zu der aus Kapitel 7 bekannten Black-Scholes-Formel.
C(t, St ) := Vt = ST N (d1 ) − K e−r(T −t) N (d2 )
mit
2
ln( SKT ) + (r + σ2 )(T − t)
√
d1 :=
,
σ T −t
Portfolio-Strategien
148
2
ln( SKT ) + (r − σ2 )(T − t)
√
d2 :=
.
σ T −t
c Klaus Schindler SS 2017
❐
Der Satz von Taylor
Differenzierbare Funktionen können vollständig „rekonstruiert“ werden, wenn die Ableitungen dieser Funktion an einer Stelle des Definitionsbereiches bekannt sind. Dies ist in
vereinfachter Form die Aussage des Satzes von Taylor, der oft dazu verwendet wird, eine
gegebene Funktion mittels Polynomen zu approximieren. Die beiden folgenden Sätze beschreiben dieses Ergebnis für Funktionen in einer und in zwei Variablen ohne näher auf die
mathematischen Voraussetzungen einzugehen. Außerdem wird auf die ebenfalls mögliche
Fehlerabschätzung verzichtet.
Satz D.1 (Satz von Taylor in einer Veränderlichen)
Für eine Funktion f (x) in einer Veränderlichen gilt
f (x) = f (x0 ) +
f ′′ (x0 )
f ′ (x0 )
(x − x0 ) +
(x − x0 )2
1!
2!
+
f ′′′ (x0 )
(x − x0 )3
3!
+···
oder in Kurzform (mit ∆f := f (x) − f (x0 ) und ∆x := x − x0 ):
∆f =
f ′′ (x0 )
f ′ (x0 )
∆x +
(∆x)2
1!
2!
+
f ′′′ (x0 )
(∆x)3
3!
+···
❑
Satz D.2 (Satz von Taylor in zwei Veränderlichen)
Für eine Funktion f (x, y) in zwei Veränderlichen gilt
f (x, y) = f (x0 , y0 ) +
= f (x0 , y0 ) +
1
+
2
f ′ (x0 , y0 ) x − x0
f ′′ (x0 , y0 ) x − x0
+ (x − x0 , y − y0 )
+···
y − y0
y − y0
1!
2!
∂f (x0 , y0 )
∂f (x0 , y0 )
(x − x0 ) +
(y − y0 )
∂x
∂y
∂ 2 f (x0 , y0 )
(x − x0 )2
∂x2
∂ 2 f (x0 , y0 )
∂ 2 f (x0 , y0 )
+2
(y − y0 )2
(x − x0 )(y − y0 ) +
∂x∂y
∂y 2
+···
oder in Kurzform (mit ∆f := f (x, y) − f (x0 , y0 ), ∆x := x − x0 und ∆y := y − y0 ):
∆f =
∂f
∂f
∆x + ∆y
∂x
∂y
+
1
2
∂2f
(∆x)2
∂x2
+2
∂2f
∆x∆y
∂x∂y
+
∂2f
(∆y)2
∂y 2
+···
❑
149
Anhang
A NHANG
D
Herunterladen