Quantitatives Risikomanagement - Bergische Universität Wuppertal

Werbung
Quantitatives Risikomanagement
Korrelation und Abhängigkeit im Risikomanagement:
Eigenschaften und Irrtümer
von
Jan Hahne und Wolfgang Tischer
Bergische Universität Wuppertal
Dozent: M.Sc. Brice Hakwa
21. August 2011
Inhaltsverzeichnis
1 Einleitung
1
2 Copula
2.1 Definition der Copula . . . . . . . . . . .
2.2 Der Satz von Sklar . . . . . . . . . . . . .
2.3 Invarianz unter streng monoton steigenden
2.4 Beispiele für Copulas . . . . . . . . . . . .
2.4.1 Die Gauß-Copula . . . . . . . . . .
2.4.2 Die Gumbel-Copula . . . . . . . .
2
2
3
5
5
5
6
. . . . . . . . . . .
. . . . . . . . . . .
Transformationen
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 Konzepte der Abhängigkeitsmodellierung
3.1 Lineare Korrelation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.1 Definition der linearen Korrelation . . . . . . . . . . . . . . . . . . . .
3.1.2 Vor- und Nachteile der linearen Korrelation . . . . . . . . . . . . . . .
Exkurs: Sphärische und elliptische Verteilungen . . . . . . . . . . . . . . . . .
E.1 Sphärische Verteilungen . . . . . . . . . . . . . . . . . . . . . . .
E.2 Elliptische Verteilungen . . . . . . . . . . . . . . . . . . . . . . .
E.3 Korrelation und Kovarianz als natürliche Abhängigkeitsmaße in
Welt elliptischer Verteilungen . . . . . . . . . . . . . . . . . .
E.4 Kovarianz und elliptische Verteilungen im Risikomanagement . .
3.2 Alternative Abhängigkeitsmaße . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.1 Komonotonie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.1.1 Fundamentale Copulas . . . . . . . . . . . . . . . . . . . . .
3.2.1.2 Die Schranken von Fréchet . . . . . . . . . . . . . . . . . . .
3.2.2 Rangkorrelation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.3 Tail Abhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.3.1 Definition der Tail Abhängigkeit . . . . . . . . . . . . . . . .
3.2.3.2 Tail-Abhängigkeitskoeffizienten für Beispiel-Copulas . . . . .
3.2.4 Konkordanz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4 Irrtümer bzgl. Korrelation und
4.1 Irrtum 1 . . . . . . . . . .
4.2 Irrtum 2 . . . . . . . . . .
4.3 Irrtum 3 . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
. . .
. . .
. . .
. . .
. . .
der
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
Abhängigkeit
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
7
7
7
9
9
10
11
12
14
14
15
15
16
17
18
20
21
23
23
24
25
5 Fazit
26
Literaturverzeichnis
27
1 Einleitung
Diese Ausarbeitung thematisiert die Modellierung von Abhängigkeiten in Anlehnung an die Arbeit „Correlation And Depedency In Risk Management: Properties And Pitfalls“ von Embrechts,
McNeil und Straumann.
Die Modellierung von Abhängigkeiten zwischen Zufallsvariablen gehört zu den grundlegenden
Aufgabenstellungen in wirtschaftsmathematischen Anwendungsbereichen. Mathematische Modelle finden dabei heutzutage nicht nur in der Finanz- und Versicherungsbranche Anwendung. Sie
gewinnen auch in Industrie-Unternehmen mit integriertem Risikomanagement immer größere Bedeutung, da Risiken durch Zufallsvariablen beschrieben werden können und mithilfe von Abhängigkeitsmaßen das Zusammenspiel verschiedener solcher Risiken modelliert werden kann.
Typischerweise wird zur Modellierung von Abhängigkeiten das Maß der linearen Korrelation herangezogen. Im Verlauf dieser Arbeit wird sich zeigen, dass mit der Verwendung der linearen Korrelation zur Beschreibung von Abhängigkeiten durchaus einige Vorteile einhergehen. Besonders
im Hinblick auf bestimmte Verteilungsklassen erweist sie sich als sehr geeignet. Wie diese Ausarbeitung jedoch auch aufzeigt, ist bei der Verwendung der linearen Korrelation Vorsicht geboten.
Es werden verschiedene Nachteile dieses Abhängigkeitsmaßes aufgezeigt, welche deutlich machen,
dass andere Arten solcher Maße für bestimmte Anwendungsgebiete sinnvoller sein können.
Einige alternative Abhängigkeitsmaße lassen sich mit Kenntnissen über sogenannte Copulas herleiten, weshalb in Kapitel 2 zunächst die Grundlagen dieses Themas angeführt werden. In dieser
Ausarbeitung werden speziell vier solcher alternativer Maße vorgestellt; es handelt sich um:
• Komonotonie
• Rangkorrelation
• Tail Abhängigkeit
• Konkordanz
Abschließend werden drei klassische Irrtümer bezüglich linearer Korrelation und der Abhängigkeit
zwischen Zufallsvariablen präsentiert, die in der Arbeit von Embrechts, McNeil und Straumann
zum Ausdruck kommen.
1
2 Copula
Zu Beginn dieser Ausarbeitung sollen zunächst einmal wichtige Grundlagen geschaffen werden, die
für das Verständnis der späteren Ausführungen von großer Bedeutung sind. Verschiedenste Maße
zur Modellierung von Abhängigkeiten zwischen Zufallsvariablen lassen sich mithilfe von Copulas
formulieren. Aus diesem Grund werden die wichtigsten Aspekte der Copulas in diesem Abschnitt
angeführt.
2.1 Definition der Copula
Gegeben seien n Zufallsvariablen X1 , . . . , Xn . Die Abhängigkeit zwischen diesen Zufallsvariablen
wird bekanntermaßen vollständig durch ihre gemeinsame Verteilungsfunktion F beschrieben.1
F (x1 , . . . , xn ) = P (X1 ≤ x1 , . . . , Xn ≤ xn )
Geht man beispielsweise davon aus, dass mit den Zufallsvariablen X1 , X2 zwei Risiken modelliert
werden sollen, so lässt sich mithilfe der gemeinsamen Verteilungsfunktion F z.B. die wichtige Frage
klären, „wie hoch die Wahrscheinlichkeit ist, gleichzeitig sowohl beim Risiko X1 einen Verlust
von höchstens x1 als auch beim Risiko X2 einen Verlust von höchstens x2 zu erleiden“.2 Die
grundsätzliche Idee ist es also, die Modellierung der Abhängigkeit zwischen Zufallsvariablen in
geeigneter Weise auf die gemeinsame Verteilungsfunktion zurückzuführen. Dafür wird zunächst
der folgende Satz benötigt.
Satz 2.1. 3 Sei X eine Zufallsvariable mit zugehöriger Verteilungsfunktion F . Sei weiterhin F −1
die Quantilfunktion zu F , also
F −1 (α) = inf {x | F (x) ≥ α},
wobei α ∈ (0, 1). Dann gilt
1. Für jede standard-gleichverteilte Zufallsvariable U ∼ U (0, 1) ist F −1 (U ) ∼ F .
2. Wenn F stetig ist, so ist die Zufallsvariable F (X) standard-gleichverteilt, also F (X) ∼
U (0, 1).
Unter der Voraussetzung, dass die X1 , . . . , Xn stetige Randverteilungsfunktionen F1 , . . . , Fn besitzen, kann man den Vektor X = (X1 , . . . , Xn )0 mithilfe des Punktes zwei aus dem obigen Satz
derart transformieren, dass jede Komponente eine standard-gleichverteilte Randverteilung besitzt.
Benötigt wird hierfür eine Transformation T : Rn → Rn , die das Tupel (x1 , . . . , xn )0 abbildet auf
(F1 (x1 ), . . . , Fn (xn ))0 . Dann gilt:
F (x1 , . . . , xn ) = P (F1 (X1 ) ≤ F1 (x1 ), . . . , Fn (Xn ) ≤ Fn (xn )) = C(F1 (x1 ), . . . , Fn (xn )).
Dabei stellt C die gemeinsame Verteilungsfunktion des transformierten Vektors (F1 (X1 ), . . . , Fn (Xn ))0
dar. Man nennt C die Copula des Zufallsvektors (X1 , . . . , Xn )0 .4
1
Vgl. [2] S. 4
[1] S. 265
3
Vgl. [2] S. 4
4
Vgl. [2] S. 4
2
2
Definition 2.1. 5 Eine n-dimensionale Copula ist eine Verteilungsfunktion eines Zufallsvektors
X ∈ Rn , deren Randverteilungen alle (0,1)-gleichverteilt sind.
Bemerkung 2.1. Äquivalent zur obigen Definition kann eine Copula definiert werden als Funktion C : [0, 1]n → [0, 1] mit drei Eigenschaften:
1. C(x1 , . . . , xn ) ist monoton steigend in jeder Komponente xi .
2. C(1, . . . , 1, xi , 1, . . . , 1) = xi ∀ i ∈ {1, . . . , n}, xi ∈ [0, 1].
3. Für alle (a1 , . . . , an ), (b1 , . . . , bn ) ∈ [0, 1]n , mit ai ≤ bi gilt:
2
P
i1 =1
...
2
P
(−1)i1 +...+in C(x1i1 , . . . , xnin ) ≥ 0,
in =1
mit xj1 = aj und xj2 = bj ∀ j ∈ {1, . . . , n}.
Diese Summe kann interpretiert werden als:
P (a1 ≤ X1 ≤ b1 , . . . , an ≤ Xn ≤ bn ) ≥ 0.
Es kann also festgehalten werden, dass die Idee bei Verwendung einer Copula ist, die gemeinsame
Verteilungsfunktion F , welche die Abhängigkeitsstrutktur vollständig wiederspiegelt, in zwei Komponenten aufzuteilen. Die Copula ermöglicht eine sehr flexible Modellierung da hier die Verteilung
der einzelnen Zufallsvariablen über die eindimensionalen Randverteilungen festgelegt werden kann,
während der Copula einzig die Rolle zukommt, die Abhängigkeit zwischen den Zufallsvariablen zu
definieren.
2.2 Der Satz von Sklar
Der Satz von Sklar ist der wohl bedeutendste Satz in Bezug auf Copulas. Seine Bedeutung für die
Abhängigkeitsmodellierung mittels Copulas soll in diesem Abschnitt verdeutlicht werden.
Satz 2.2.
6
1. Sei F eine multivariate Verteilungsfunktion mit Randverteilungsfunktionen F1 , . . . , Fn . So
existiert eine Copula C : [0, 1]n → [0, 1], sodass für alle x1 , . . . , xn ∈ R gilt
F (x1 , . . . , xn ) = C(F1 (x1 ), . . . , Fn (xn )).
Die Herleitung hierfür wurde bereits in Abschnitt 2.1 erläutert.
Falls F1 , . . . , Fn stetig sind, so ist die Copula C sogar eindeutig bestimmt.
2. Seien nun umgekehrt eine Copula C sowie die eindimensionalen Verteilungsfunktionen
F1 , . . . , Fn gegeben, dann ist die durch
F (x1 , . . . , xn ) = C(F1 (x1 ), . . . , Fn (xn )).
definierte Verteilungsfunktion eine multivariate Verteilung mit den vorgegebenen Randverteilungen F1 , . . . , Fn .
Im Folgenden sollen die beiden zentralen Aussagen dieses Satzes erläutert werden.7
5
Vgl. [2] S. 4
Vgl. [1] S. 266
7
Vgl. [1] S. 266
6
3
Der erste Teil des Satzes gibt an, dass es möglich ist eine beliebige multivariate Verteilung in ihre
Randverteilungen einerseits und in eine Copula andererseits aufzuteilen.
eindimensionale Randverteilungen
F 1 ,…,F n
multivariate Verteilungsfunktion
F
Copula
C
Abbildung 2.1: Visualisierung des Satzes von Sklar (1.)
Der Satz von Sklar gibt jedoch lediglich an, dass die oben dargestellte Überführung möglich
ist. Wie dies umgesetzt werden kann, wird hingegen nicht deutlich. Es ist jedoch klar, dass
bei gegebener multivariater Verteilungsfunktionen die eindimensionalen Randverteilungen bestimmt werden können. Um bei bekannter multivariater Verteilung F , sowie der Randverteilungen F1 , . . . , Fn zu einer Copula C zu gelangen, sind folgende Überlegungen möglich. Sind nämlich
Zufallsvariablen X1 , . . . , Xn mit zugehörigen Verteilungsfunktionen F1 , . . . , Fn gegeben und sei
ui = P (Xi ≤ xi ) = Fi (xi ) und daher ui ∈ [0, 1] für alle i ∈ {1, . . . , n}, so folgt:
C(u1 , . . . , un ) = F (F1−1 (u1 ), . . . , Fn−1 (un )).
Der zweite Teil des Satzes stellt quasi eine Umkehrung des ersten Teiles dar. Hier bietet der
Satz von Sklar eine Möglichkeit, aus n gegebenen einzelnen Verteilungen und einer Copula eine
gemeinsame Verteilungsfunktion zu konstruieren.8
Dies kann einfach umgesetzt werden, indem man die einzelnen Verteilungsfunktionen F1 , . . . , Fn
in die gegebene Copula C einsetzt. Die dadurch erhaltene Funktion F ist dann eine gemeinsame
Verteilungsfunktion, die tatsächlich die F1 , . . . , Fn als Randverteilungen besitzt.
eindimensionale Randverteilungen
F 1 ,…,F n
multivariate Verteilungsfunktion
F
Copula
C
Abbildung 2.2: Visualisierung des Satzes von Sklar (2.)
„Aus Sicht des Risikomanagements ist die Aussage 2. einer der Hauptgründe, die für den Einsatz
von Copulas sprechen, denn sie gestattet es, die Modellierung des gemeinsamen Risikos [modelliert
durch Zufallsvariablen] in zwei getrennte Schritte aufzuteilen:
• Modellierung der Einzelrisiken, d.h. der Verteilungen F1 , . . . , Fn
• Wahl eines geeigneten Copula-Modells C, das alle Informationen über die Abhängigkeiten
zwischen den Einzelrisiken enthält.“ 9
8
9
Vgl. [1] S. 266
[1] S. 266-267
4
Fasst man dabei die Risiken mithilfe von Copulas zusammen, geht keinerlei Information über die
Einzelrisiken verloren, da die Einzelverteilungen gemäß Satz 2.2 als Randverteilungen erhalten
bleiben.10
2.3 Invarianz unter streng monoton steigenden Transformationen
Copulas besitzen eine Eigenschaft, die für praktische Anwendungen sehr nützlich ist. Die Abhängigkeitsstruktur, welche durch eine Copula ausgedrückt wird, ist invariant unter streng monoton
steigenden, stetigen Transformationen T : R → R der Randverteilungen.11
Satz 2.3. 12 Sei C die Copula zu (X1 , . . . , Xn )0 . Dann ist C für alle streng monoton steigenden,
stetigen Transformationen T1 , . . . , Tn ebenfalls die Copula zu (T1 (X1 ), . . . , Tn (Xn ))0 .
Bemerkung 2.2. 13 Falls sämtliche Randverteilungen von X stetig sind, kann im obigen Satz
auf die Stetigkeit der Transformationen verzichtet werden.
Diese Eigenschaft der Copulas bietet - besonders im Hinblick auf die Modellierung von Risiken
- enorme Vorteile. Hat man z.B. die Abhängigkeit von Verlusten mehrerer Einzelrisiken mittels
einer Copula modelliert und verwendet dabei absolute Euro-Beträge, so kann bei dem Übergang
zu einem Modell in Dollar-Beträgen weiterhin dieselbe Copula verwendet werden. Die Randverteilungen, die die Verteilungen der Einzelrisiken modellieren, müssen hingegen in der Regel an die
neuen Skalen angepasst werden.14
2.4 Beispiele für Copulas
In diesem Abschnitt sollen zwei klassische Beispiele für häufig verwendete Copulas vorgestellt
werden.15 Zur Vereinfachung werden dabei ausschließlich zweidimensionale Copulas betrachtet.16
Sind also zwei Zufallsvariablen X und Y mit zugehörigen Verteilungsfunktionen F1 und F2 gegeben. Sei u1 = P (X ≤ x) = F1 (x) und u2 = P (Y ≤ y) = F2 (y), also u1 , u2 ∈ [0, 1]. Wie in
Abschnitt 2.2 gezeigt wurde gilt dementsprechend:
C(u1 , u2 ) = F (F1−1 (u1 ), F2−1 (u2 )).
2.4.1 Die Gauß-Copula
Bei der Gauß-Copula sind die Randverteilungen F1 und F2 als univariate Normalverteilungen
vorgegeben. Die gemeinsame Verteilung F , stellt hier die bivariate Normalverteilung dar.
Definition 2.2. Sei Φρ die Verteilungsfunktion der bivariaten Normalverteilung N2 (0, Ψ), wobei
1 ρ
Ψ=
ρ 1
10
Vgl. [1] S. 267
Vgl. [2] S. 6
12
Vgl. [2] S. 6
13
Vgl. [2] S. 6
14
Vgl. [2] S. 267
15
Für weitere Beispiele verweisen wir auf [1].
16
Vgl. [1] S. 268-271
11
5
die Korrelationsmatrix mit Korrelationskoeffizienten ρ = ρ(X, Y ) = √
Cov(X,Y )
Var(X)·Var(Y )
darstellt.
Es bezeichne weiterhin Φ die Verteilungsfunktion der univariaten Normalverteilung. Dann ergibt
sich die Gauß-Copula gemäß (*) als:
CρGa (u1 , u2 ) = Φρ (Φ−1 (u1 ), Φ−1 (u2 )).
Dies lässt sich formulieren als:
R Φ−1 (u ) R Φ−1 (u )
CρGa (u1 , u2 ) = −∞ 1 −∞ 2
√1
2π
1−ρ
exp
2
−(s21 −2ρs1 s2 +s22 )
2(1−ρ2 )
ds1 ds2 .
Die Darstellung der Gauß-Copula in einer geschlossenen Form ist also nicht möglich. Zur Berechnung bedarf es daher Methoden der numerischen Integration.
Sind anders herum die Gauß-Copula sowie zwei normalverteilte Risiken X und Y mit den Verteilungsfunktionen F1 und F2 und Korrelationskoeffizient ρ gegeben, so ergibt sich:
F (x, y) = CρGa (F1 (x), F2 (y)).
Dabei stellt F nun die multivariate Normalverteilung dar. „Das heißt, die Gauß-Copula ist genau
diejenige Copula, die mehrere univariate Normalverteilungen zu einer multivariaten Normalverteilung zusammenführt.“ 17 Das heißt:
Φρ (x, y) = CρGa (Φ(x), Φ(y)).
2.4.2 Die Gumbel-Copula
Ein weiteres oft verwendetes Beispiel für eine Copula ist die sogenannte Gumbel-Copula.
Definition 2.3.
18
Für einen Parameter Θ ∈ (0, 1] ist die Gumbel-Copula definiert durch:
Θ 1
1
Gu
Θ
Θ
CΘ (u1 , u2 ) = exp − (−log u1 ) + (−log u2 ) )
.
Im Gegensatz zu der im vorigen Abschnitt vorgestellten Gauß-Copula existiert für die GumbelCopula also eine explizite Darstellungsweise, welche die Berechnung ohne Einsatz aufwändiger
numerischer Integrationsmethoden ermöglicht.
Wird die Abhängigkeit zwischen Zufallsvariablen mittels der Gumbel-Copula modelliert, ist es
mithilfe des Parameters Θ möglich, sämtliche positiven Abhängigkeitsstrutkturen zwischen Unabhängigkeit (Θ = 1) und perfekter Abhängigkeit (Θ → 0) abzudecken.
17
18
[1] S. 269
Vgl. [2] S. 5
6
3 Konzepte der Abhängigkeitsmodellierung
In diesem Hauptkapitel werden verschiedene Konzepte der Abhängigkeitsmodellierung zwischen
Zufallsvariablen vorgestellt. Dabei werden für jedes Maß zunächst die nötigen Definitionen sowie wichtige Eigenschaften angeführt, um anschließend wesentliche Unterschiede zwischen den
verschiedenen Abhängigkeitsmaßen sowie deren jeweilige Vor- und Nachteile deutlich zu machen.
3.1 Lineare Korrelation
Das wohl am häufigsten verwendete Maß zur Modellierung von Abhängigkeiten zwischen Zufallsvariablen stellt die Korrelation dar. Die Idee dieses Maßes ist es, die Stärke des linearen Zusammenhangs zwischen zwei Zufallsvariablen in Form einer Maßzahl - dem Korrelationskoeffizienten
- auszudrücken.
3.1.1 Definition der linearen Korrelation
Definition 3.1. Der Pearsonsche bzw. lineare Korrelationskoeffizient zweier Zufallsvariablen X
und Y (mit 0 < Var(X) < ∞ und 0 < Var(Y ) < ∞), ist definiert als:
Cov(X, Y )
ρ(X, Y ) = p
Var(X) · Var(Y )
„Die Korrelation ist also die durch das Produkt der Standardabweichungen normierte Kovarianz;
es gilt stets ρ(X, Y ) ∈ [−1, 1].“ 19
In Abhängigkeit des Korrelationskoeffizienten werden drei spezielle Fälle unterschieden:
• Ist ρ(X, Y ) = 0, so spricht man von unkorrelierten Zufallsvariablen. Es besteht also kein
linearer Zusammenhang zwischen X und Y .
• Im Fall ρ(X, Y ) = +1 handelt es sich um perfekte lineare Abhängigkeit im positiven Sinn.
• Gilt hingegen ρ(X, Y ) = −1, so liegt perfekte lineare Abhängigkeit im negativen Sinn vor.
Bemerkung 3.1. Um von dem Fall zweier Zufallsvariablen X und Y auf den allgemeineren Fall
von n Zufallsvariablen X = (X1 , . . . , Xn )0 überzugehen, werden zwei Matrizen eingeführt. Die
Kovarianzmatrix Cov(X) bzw. die Korrelationsmatrix ρ(X) enthält an Position (i, j) den Eintrag
Cov(Xi , Xj ) bzw. ρ(Xi , Xj ).
3.1.2 Vor- und Nachteile der linearen Korrelation
Die Tatsache, dass die lineare Korrelation derart häufig als Abhängigkeitsmaß eingesetzt wird, hat
mehrere Gründe.20 Zunächst einmal kann festgehalten werden, dass der Korrelationskoeffizient in
der Regel sehr einfach zu bestimmen ist, da die Berechnung der zweiten Momente für viele bivariate
Verteilungen sehr einfach ist. Dahingegen ist die Bestimmung vieler der im weiteren Verlauf der
Ausarbeitung vorgestellten Maße komplizierter.
19
20
[1] S. 250
Vgl. [2] S. 7
7
Zudem kann die Bestimmung der Korrelation von linear transformierten Zufallsvariablen sehr
elegant erfolgen, wie folgende Ausführungen zeigen.21
Seien a, c ∈ R \ {0} und b, d ∈ R. Dann ist
Cov(aX + b, cY + d) = ac · Cov(X, Y )
und daher
ρ(aX + b, cY + d) =
a c
·
· ρ(X, Y )
|a| |c|
Das bedeutet insbesondere, dass die Korrelation invariant unter positiven affinen Transformationen ist, da im Falle a, c > 0 gilt: ρ(aX + b, cY + d) = ρ(X, Y ).
Ein weiterer Grund für die Beliebtheit der Korrelation ist, dass für multivariate sphärische und elliptische Verteilungen die gesamte Abhängigkeitsstruktur zweier Zufallsvariablen vollständig durch
die Korrelation beschrieben werden kann.22 Insbesondere gilt für eine elliptisch verteilte Zufallsvariable X also, dass sie endliche Varianz besitzt - also V ar(X) < ∞ - sodass der lineare Korrelationskoeffizient für elliptische Verteilungen wohldefiniert ist. Zu dieser Klasse von Verteilungen zählt
unter anderem die multivariate Normalverteilung, die aufgrund ihrer vielseitigen Anwendungsbereiche den Einsatz des Korrelationskoeffizienten als Abhängigkeitsmaß oftmals sehr sinnvoll macht.
Wie man zu dieser zentralen Aussage gelangt wird in dem nachfolgenden Exkurs verdeutlicht.
Jedoch gehen mit der Verwendung der Korrelation als Abhängigkeitsmaß auch einige Probleme
und Irrtümer einher.23 Besitzt eine Zufallsvariable X eine Verteilung, bei der die Varianz nicht
endlich ist, wie es z.B. bei den „heavy-tailed“ Verteilungen der Fall ist, so ist der Korrelationskoeffizient nicht definiert. Diese Eigenschaft schränkt die Anwendbarkeit der Korrelation als Abhängigkeitsmaß ein und verursacht beispielsweise dann Probleme, wenn Verteilungen mit hohen
Wahrscheinlichkeiten für extreme Ereignisse vorliegen.
Ein großer Nachteil der Korrelation ist, dass diese lediglich den linearen Zusammenhang zwischen
Zufallsvariablen misst, sodass nichtlineare Abhängigkeiten nicht erkannt werden. Dies hat zur
Folge, dass ρ(X, Y ) = 0 nicht unbedingt bedeutet, dass die beiden Zufallsvariablen X und Y
unabhängig sind, jedoch kann ein linearer Zusammenhang ausgeschlossen werden. Sind X und Y
hingegen unabhängig, so besteht überhaupt kein Zusammenhang zwischen diesen beiden Zufallsvariablen, also auch kein linearer. Es ist klar, dass dann stets ρ(X, Y ) = 0 gilt. Der einzige Fall, in
dem Unkorreliertheit mit Unabhängigkeit einhergeht ist, falls sowohl die gemeinsame Verteilung,
als auch die Randverteilungen normalverteilt sind.
Des Weiteren ist anzumerken, dass die Korrelation, wie oben gezeigt, zwar invariant unter positiven affinen Transformationen ist, jedoch nicht unter nichtlinearen streng monoton steigenden
Transformationen T : R → R. Das bedeutet, dass i.A. ρ(T (X), T (Y )) 6= ρ(X, Y ) ist. In Kapitel
2.2 wurde bereits gezeigt, dass diese Eigenschaft für Copulas hingegen sehr wohl gilt.
Die nachfolgende Abbildung 3.1 fasst das bedeutendste Problem in Bezug auf die Verwendung
der Korrelation als Abhängigkeitsmaß zusammen. Obwohl sowohl dem linken, als auch dem rechten Plot die selben Randverteilungen und die gleiche Korrelation zugrunde liegen, ist deutlich zu
erkennen, dass sich die Abhängigkeitsstrukturen unterscheiden. Dies bedeutet, dass es für zwei
Zufallsvariablen X und Y , deren Verteilungen und Korrelationskoeffizient bekannt sind i.A., eine
Vielzahl von Verteilungsmodellen gibt, die die geforderten Randverteilungen sowie die vorgegebene Korrelation erfüllen.24 Unter Verwendung der Korrelation allein, kann also die Abhängigkeit
zwischen Zufallsvariablen i.A. also nicht exakt beschrieben werden.
21
Vgl.
Vgl.
23
Vgl.
24
Vgl.
22
[1]
[1]
[2]
[1]
S.
S.
S.
S.
254
254
7-8 und [1] S. 254
254
8
Abbildung 3.1: Realisationen zweier Zufallsvariablen mit identischer Randverteilung und gleicher
Korrelation, aber unterschiedlicher Abhängigkeitsstruktur.25
Exkurs: Sphärische und elliptische Verteilungen
Wie in Abschnitt 3.1.2 bereits angesprochen, ist es für den Spezialfall sphärisch bzw. elliptisch
verteilter Zufallsvariablen möglich, die komplette Abhängigkeitsstruktur mittels der linearen Korrelation auszudrücken. Um deutlich zu machen, warum die Korrelation für diese Verteilungen
ein sinnvolles Maß zur Modellierung von Abhängigkeiten zwischen Zufallsvariablen bietet, ist es
erforderlich diese näher zu betrachten.
E.1 Sphärische Verteilungen
Sphärische Verteilungen stellen eine Erweiterung der multivariaten Normalverteilung Nn (0, I)
dar. Sie bilden also eine Klasse symmetrischer Verteilungen für unkorrelierte Zufallsvariablen
(Kovarianzmatrix entspricht Einheitsmatrix) mit Mittelwert null.26
Definition 3.2. 27 Ein Zufallsvektor X = (X1 , . . . , Xn )0 hat eine sphärische Verteilung, wenn für
jede orthogonale Matrix U ∈ Rn×n (also U 0 U = U U 0 = In×n ) die folgende Gleichung erfüllt ist.
d
U X = X2
d
Bemerkung 3.2. A = B bedeutet dabei „A besitzt dieselbe Verteilung wie B“.
Definition 3.3. 28 Für alle t ∈ Rn ist die charakteristische Funktion ψ : Rn → C einer ndimensionalen Zufallsvariablen X definiert als:
ψX (t) = E(exp(it0 X))
Die charakteristische Funktion sphärischer Verteilungen nimmt eine sehr einfache Form an, denn
25
Quelle: [3] S.16
Vgl. [2] S. 8
27
Vgl. [2] S. 8
28
Vgl. [2] S. 8
26
9
+
0
2
2
es existiert eine Funktion γ : R+
0 → R0 , sodass ψ(t) = γ(t t) = γ(t1 + . . . + tn ). Die Funktion γ
wird auch als charakteristischer Generator der sphärischen Verteilung bezeichnet.29 Man schreibt
daher auch:
X ∼ Sn (γ).
Bemerkung 3.3.
30
• Es gilt zu beachten, dass sphärische Verteilungen i.A. Verteilungen unkorrelierter - nicht
jedoch unabhängigier - Zufallsvariablen darstellen.
• Die multivariate Normalverteilung ist die einzgie Verteilung unter den sphärischen Verteilungen, bei der die Zufallsvariablen auch unabhängig sind.
d
• X ∼ Sn (γ) ist äquivalent zu X = RU , wobei U auf der Einheitskugel Sn−1 = {x ∈ R|x0 x =
1} gleichverteilt ist und R ≥ 0 eine von U unabhängige Zufallsvariable darstellt. Sphärische
Verteilungen können also interpretiert werden als n-dimensionale Gleichverteilungen auf
Umgebungen mit verschiedenen Radien.
E.2 Elliptische Verteilungen
P
Elliptische Verteilungen stellen eine Erweiterung der multivariaten Normalverteilung Nn (µ, )
dar. Mathematisch gesehen ergeben sich die elliptischen Verteilungen als affine Transformationen
sphärischer Verteilungen im Rn .31 P
Sie bilden also eine Klasse symmetrischer Verteilungen mit
Mittelwert µ und Kovarianzmatrix .
Definition 3.4. 32 Sei eine affine Transformation T : Rn → Rn , x 7→ Ax + µ, A ∈ Rn×n , µ ∈ Rn
gegeben. Ein Zufallsvektor X ∈ Rn hat eine elliptische Verteilung, falls X = T (Y ), wobei Y ∼
Sn (γ).
Die charakteristische Funktion ist gegeben als:
P
ψ(t) = E(exp(it0 X)) = E(exp(it0 (AY + µ)) = exp(it0 µ)exp(i(A0 t)0 Y ) = exp(it0 µ)γ(t0 t),
P
mit
= AA0 . Dass ein Zufallsvektor X eine elliptische Verteilung besitzt, wird folgendermaßen
ausgedrückt:
P
X ∼ En (µ, , γ).
Bemerkung 3.4.
33
• Die Kenntnis
über die Verteilung von X bestimmt lediglich den Parameter µ in eindeutiger
P
Weise.
und γ sind hingegen lediglich bis auf eine positive Konstante bestimmt.
P
• Es ist möglich
so zu wählen, dass sie die Kovarianzmatrix von X darstellt. Sei dazu
P
P
d
X ∼ En (µ, , γ), sodass X = AY + µ, mit
= AA0 und Y ∼ Sn (γ). Laut Bemerkung 2.3
d
gilt daher Y = RU , wobei U auf der Einheitskugel Sn−1 gleichverteilt ist und R ≥ 0 eine
von U unabhängige Zufallsvariable darstellt. Falls E(R2 ) < ∞, so ist:
29
Vgl.
Vgl.
31
Vgl.
32
Vgl.
33
Vgl.
30
[2]
[2]
[2]
[2]
[2]
S.
S.
S.
S.
S.
8
9
9
9
9
10
∗ E(X) = µ
0
2
P
2
)
)
∗ Cov(X) = AA E(R
= E(R
, da Cov(U ) =
n
n
P
gewährleistet man Cov(X) = .
In×n
n .
u
Durch Wahl von γ̃ = γ( n/E(R
2) )
• Das bedeutet, dass eine elliptische Verteilung eindeutig definiert wird durch Kenntnis des
Mittelwerts, der Kovarianzmatrix und des charakteristischen Generators. Dies heißt insbesondere, dass die Varianz einer elliptisch verteilten Zufallsvariable X endlich ist. Aus diesem
Grund ist der lineare Korrelationskoeffizient für elliptische Verteilungen wohldefiniert.
E.3 Korrelation und Kovarianz als natürliche Abhängigkeitsmaße in der Welt elliptischer Verteilungen
In diesem Abschnitt werden einige Gründe angeführt, die deutlich machen, dass die Korrelation
und die Kovarianz in gewisser Hinsicht „natürliche Abhängigkeitsmaße“ in der Welt elliptischer
Verteilungen sind.34
Eine sehr nützliche Eigenschaft der elliptischen Verteilungen ist, dass bei Kenntnis des Mittelwerts, der Kovarianzmatrix und des charakteristischen Generators einer elliptisch verteilten Zufallsvariablen X die entsprechenden Parameter für Linearkombinationen, die Randverteilungen
und bedingte Verteilungen von X leicht zu bestimmen sind. Die folgenden Eigenschaften fassen
dies zusammen:35
• Jede Linearkombination eines elliptisch verteilten Zufallsvektors ist selbst wieder elliptisch
verteiltPund besitzt dabei sogar den selben charakteristischen Generator.
P 0 Sei dafür X ∼
m×n
m
En (µ, , γ), B ∈ R
und b ∈ R , so ist BX + b ∼ Em (Bµ + b, B B , γ).
Die X1 , . . . , Xn sind alle symmetrisch verteilte Zufallsvariablen des selben Typs. Letzteres
d
bedeutet Xi = aXj + b mit a > 0 und b ∈ R.
• Die Randverteilungen elliptischer Verteilungen sind ebenfalls
elliptisch und auch sie besitzen
P
X1
den selben charakteristischen Generator. Sei also X =
∼ En (µ, , γ), mit X1 ∈ Rp
X2
µ1
q
und X2 ∈ R , wobei p + q = n ist. Sei weiterhin E(X) = µ =
, mit µ1 ∈ Rp und
µ2
P
P P
P
P
q
11
P12 . Dann ist X1 ∼ Ep (µ1 , 11 , γ) sowie X2 ∼ Eq (µ2 , 22 , γ).
µ2 ∈ R und
= P
21
22
P
• Sei die Kovarianzmatrix
als positiv definit vorausgesetzt. Dann ist die bedingte Verteilung
X1 unter X2 auch elliptisch verteilt - im Gegensatz zu den beiden oberenP
Punkten allerdings
i.A. mit einem
anderen
charakteristischen
Generator:
X
|X
∼
E
(µ
,
11.2 , γ̃). Dabei ist
P P−1
P
P
P 1 P2−1 P p 1.2
µ1.2 = µ1 + 12 22 (X2 − µ2 ) und 11.2 = 11 − 12 22 21 .
Lediglich für den Spezialfall der multivariaten Normalverteilung, bei der Unkorreliertheit
der Unabhängigkeit entspricht, bleibt der Generator auch hier gleich.
Da sämtliche Randverteilungen vom selben Typ sind, wird eine elliptische Verteilung in eindeutiger
Weise durch den Mittelwert, die Kovarianzmatrix sowie die Kenntnis über den Verteilungstyp
bestimmt. Oder anders ausgedrückt: die gesamte Abhängigkeitsstruktur einer stetigen, elliptischen
Verteilung ist eindeutig festgelegt durch die Korrelationsmatrix und den Verteilungstypen.36 Das
bedeutet, dass für stetige und elliptisch verteilte Zufallsvariablen jegliche Form von Abhängigkeit
zwischen diesen Zufallsvariablen komplett über die Korrelation beschrieben werden kann. Diese
34
Vgl. [2] S. 10
Vgl. [2] S. 10
36
Vgl. [2] S. 11
35
11
zentrale Folgerung macht die besondere Stellung der Korrelation in der Welt der elliptischen
Verteilungen deutlich - sie stellt hier das ideale Abhängigkeitsmaß dar.
E.4 Kovarianz und elliptische Verteilungen im Risikomanagement
Ein weiterer bedeutender Aspekt elliptischer Verteilungen ist, dass diese die Umsetzung vieler
mathematischer Standard-Modelle zulassen. Neben dem Einsatz in der Finanzmathematik macht
man sich diese Eigenschaft auch im Bereich des Risikomanagements zu nutzen, da elliptische
Verteilungen den Einsatz des Value-at-Risk als Risikomaß ebenso unterstützen, wie beispielsweise
die Portfoliooptimierung nach Markowitz.37
Um zu veranschaulichen warum die Verwendung des Value-at-Risk in der Welt elliptischer Verteilungen sehr sinnvoll ist, betrachten wir im Folgenden einen elliptisch verteilten Zufallsvektor
X = (X1 , . . . , Xn )0 , wobei Xi für ein Risiko i steht. Es ist nun möglich eine Menge linearer
Portfolios Z aus diesen Risiken zusammenzustellen:
{Z =
n
P
λi Xi |λi ∈ R}.
i=1
Die Verteilungsfunktion von Portfolio Z ist gegeben durch FZ und der Value-at-Risk dieses Portfolios lässt sich zu vorgegebener Wahrscheinlichkeit α bekanntermaßen berechnen als:
V aRα (Z) = FZ−1 (α) = inf{z ∈ R|FZ (z) ≥ α}.
Für die weiteren Überlegungen sind zunächst zwei Definitionen nötig.
Definition 3.5.
38
Ein Risikomaß ist eine Funktion ζ mit:
X 7→ ζ(X).
Das heißt ein Risikomaß ordnet jedem Risiko X eine reelle Zahl zu.
Definition 3.6. 39 Ein kohärentes Risikomaß ζ (nach Artzner, Delbaen, Eber und Heath) ist ein
Risikomaß mit folgenden Eigenschaften:
1. Positivität: Für jede positive Zufallsvariable X ≥ 0 gilt: ζ(X) ≥ 0.
Einem Risiko, welches niemals zu Gewinnen führt, wird immer ein nichtnegativer Wert
zugeordnet.
2. Subadditivität: Für zwei Zufallsvariablen X und Y gilt: ζ(X + Y ) ≤ ζ(X) + ζ(Y ).
Fasst man zwei Risiken zu einem Portfolio aus ebendiesen Risiken zusammen, so entsteht
niemals zusätzliches Risiko. Durch den Diversifikationseffekt vermindert sich das Risiko des
Portfolios potentiell.
3. Positive Homogenität: Für jedes λ ≥ 0 ist: ζ(λX) = λζ(X).
Ist ein Verlust λ-mal so groß wie ein anderer Verlust, so wird das Risiko auch λ-mal so stark
bewertet.
37
Vgl. [2] S. 11
Vgl. [1] S. 103
39
Vgl. [2] S. 13
38
12
4. Translationsinvarianz: Für jedes a ∈ R gilt: ζ(X + a) = ζ(X) + a.
Erhöht (bzw. vermindert) sich der Verlust um einen konstanten Faktor a, so erhöht (bzw.
vermindert) sich der Risikowert um denselben Wert.
Es ist sofort ersichtlich, dass die Eigenschaften kohärenter Risikomaße sehr wünschenswert sind,
da sie ein Risikomaß sehr realitätsnah werden lassen.
Nun ist es so, dass der Value-at-Risk i.A. kein kohärentes Risikomaß darstellt, da er die Subadditivitätsbedingung nicht erfüllt. Für elliptische Verteilungen ist jedoch auch diese Eigenschaft erfüllt
(denn: X und Y elliptisch ⇒ X + Y elliptsch) und der VaR bildet tatsächlich ein kohärentes
Risikomaß mit den wünschenswerten Eigenschaften aus Definition 3.6.40 Der Beweis hierfür kann
[2] entnommen werden. Es ist klar, dass man nur dann einen möglichst genauen und realistischen
Wert für den Value-at-Risk erhält, wenn man in der Lage ist die Abhängigkeiten der Realität auch
im Modell möglichst genau zu beschreiben. Dies ist - wie gezeigt wurde - mit dem linearen Korrelationskoeffizienten als Abhängigkeitsmaß jedoch nur für elliptische Verteilungen gegeben. Die
Verwendung des Value-at-Risk als Risikomaß für das oben definierte Portfolio Z ist in der Welt elliptisch verteilter Risiken also äußerst sinnvoll.41 Zur Abhängigkeitsmodellierung nicht-elliptischer
Verteilungen sollte der lineare Korrelationskoeffizient jedoch nicht verwendet werden.
40
41
Vgl. [1] S. 104
Vgl. [2] S. 12
13
3.2 Alternative Abhängigkeitsmaße
Im Abschnitt zur linearen Korrelation wurde deutlich, dass sich Abhängigkeiten zwischen elliptisch
verteilten Zufallsvariablen in idealer Weise unter Verwendung des linearen Korrelationskoeffizienten beschreiben lassen. In diesem Fall ist es also (beispielsweise mit einer Monte-Carlo-Simulation)
möglich den Value-at-Risk zuverlässig anhand der Randverteilungen und der Korrelation zu bestimmen.
Im Allgemeinen hat man es aber nicht mit elliptisch verteilten Zufallsvariablen zu tun. Gesucht
sind also weitere Maße, die es erlauben die tatsächliche Abhängigkeitstruktur zwischen Zufallsvariablen genauer zu beschreiben. Diese anderen Maße lassen sich in unterschiedlicher Art und Weise
mithilfe von Copulas formulieren. Der Value-at-Risk kann dann ebenfalls mithilfe einer MonteCarlo-Simulation bestimmt werden und zwar anhand der Randverteilungen und der zugehörigen
Copula.
Auswirkungen auf den Value-at-Risk
Für den Value-at-Risk bedeutet das zunächst, dass dann auch Abhängigkeiten Beachtung finden, die durch den linearen Korrelationskoeffizienten nicht erfasst wurden. Die rein intuitive Folge
daraus: Gegenüber einer Berechnung mit der linearen Korrelation verstärken sich positive Abhängigkeiten und negative Abhängigkeiten schwächen sich noch weiter ab. Der Value-at-Risk wird also
bei positiven Abhängigkeiten größer, weil in dem Wert nun auch noch das Risiko beachtet wird,
was der lineare Korrelationskoeffizient nicht erfasst hat. Das ist also durchaus wünschenswert,
wenn man an einem möglichst realitätsnahen Modell interessiert ist um nicht von unerkannten
Risiken überrascht zu werden.
Im Folgenden werden einige solche alternative Abhängigkeitsmaße vorgestellt.
3.2.1 Komonotonie
Zunächst wird mit der Komonotonie ein sehr allgemeines Maß für perfekte Abhängigkeit betrachtet.
Definition 3.7. Zwei Risiken X und Y werden komonoton genannt, wenn es eine Zufallsvariable
Z und zwei monoton steigende Funktionen f1 und f2 gibt, sodass
X = f1 (Z) und Y = f2 (Z)
gilt. Wenn f1 eine monoton steigende Funktion ist und f2 monoton fällt, so spricht man von
kontramonotonen Zufallsvariablen.
Konkret bedeutet dies, dass die Entwicklung der beiden Risiken komplett von einem einzigen
gemeinsamen Faktor abhängt. Im Fall der Komonotonie können sich diese Risiken also niemals
ausgleichen, so dass man dies als „extremste“ Form der positiven Abhängigkeit bezeichnen kann.42
Steigt hingegen das eine Risiko bei zwei kontramonotonen Risiken, so fällt das andere, so dass
man hier von extremster negativer Abhängigkeit sprechen kann.
Bemerkung 3.5. Sind X und Y komonotone Zufallsvariablen, dann gilt V aRα (X + Y ) =
V aRα (X) + V aRα (Y ).43
42
43
Vgl. [1] S. 102
Vgl. [2] S. 27
14
3.2.1.1 Fundamentale Copulas
Komonotonie und Kontramonotonie lassen sich - zumindest im zweidimensionalen Fall - durch
bestimmte Copulas modellieren. Zusammen mit der Unabhängigkeits-Copula bilden diese zwei
Copulas die Gruppe der fundamentalen Copulas. Im Folgenden werden die fundamentalen zweidimensionalen Copulas vorgestellt.
Definition 3.8. Die Komonotonie-Copula Co wird für alle (u1 , u2 ) ∈ [0, 1]2 definiert durch:
Co (u1 , u2 ) = min(u1 , u2 ).
Definition 3.9. Die Kontramonotonie-Copula Cu wird für alle (u1 , u2 ) ∈ [0, 1]2 definiert durch:
Cu (u1 , u2 ) = max(u1 + u2 − 1, 0).
Die Richtigkeit der beiden Copulas garantiert uns der nachfolgende Satz, für dessen Beweis wir
auf [2] verweisen.
Satz 3.1.
44
Sei Cu (bzw. Co ) eine zu dem Zufallsvektor (X1 , X2 )0 gehörige Copula. Dann existieren zwei
monotone Funktionen f1 und f2 und eine Zufallsvariable Z, so dass
(X1 , X2 )0 = (f1 (Z), f2 (Z))0
mit f1 steigend und f2 fallend (bzw. f1 und f2 beide steigend).
Wie man unschwer erkennt, entspricht dies genau unserer Definition von Komonotonie und Kontramonotonie. Die Copulas erzeugen also wirklich diese Abhängigkeitsstrukturen.
Definition 3.10. Die Unabhängigkeits-Copula Cid wird für alle (u1 , u2 ) ∈ [0, 1]2 definiert durch:
Cid (u1 , u2 ) = u1 · u2 .
Für stochastisch unabhängige Zufallsvariablen X1 und X2 ist dies wirklich die richtige Copula, da
nach dem Satz von Sklar
Cid (u1 , u2 ) = Cid (F1 (x1 ), F2 (x2 )) = F (x1 , x2 )
gilt und außerdem für zwei unabhängige Zufallsvariabeln X1 und X2 bekanntermaßen
F (x1 , x2 ) = F1 (x1 ) · F2 (x2 ) = u1 · u2 .
gilt.
3.2.1.2 Die Schranken von Fréchet
Mit Hilfe dieser drei Copulas lassen sich also die drei Extremfälle der Abhängigkeitsmodellierung
(komplette negative Abhängigkeit, Unabhängigkeit und komplette positive Abhängigkeit) darstellen. Dadurch stehen sie zu vielen anderen Copulas in einer interessanten Beziehung. Als Beispiel
hierfür sei die Beziehung zur Gumbel-Copula aus Abschnitt 2.4.2 genannt, die gewissermaßen
zwischen der Unabhängigkeitscopula Cid und der Komonotonie-Copula Co interpoliert.45
44
45
[2] S. 14
Vgl. [1] S. 270
15
Eine wichtige weitere solche Beziehung liefern die Fréchet Schranken. Diese werden hier zunächst
wieder allgemein (d.h. nicht nur für den zweidimensionalen Fall) definiert.
Satz 3.2. Für jede n-dimensionale Copula C(u1 , ..., un ) gilt
max{u1 + ... + un + 1 − n , 0} ≤ C(u1 , ..., un ) ≤ min{u1 , ..., un }
Bemerkung 3.6. Im zweidimensionalen Fall gilt also genau Cu ≤ C(u1 , u2 ) ≤ Co , d.h. dass alle
anderen Copulas zwischen der Kontramonotonie-Copula und der Komonotonie-Copula liegen. Für
höhere Dimensionen sind die Schranken ähnlich zu interpretieren, jedoch ist die untere Schranke
keine Copula mehr - die obere Schranke hingegen schon.46
Zusammenfassend ist Komonotonie bzw. Kontramonotonie ein Abhängigkeitsmaß, das sehr viel
allgemeiner definiert ist als z.B. die Korrelation und damit nicht nur lineare sondern jede Form
von (perfekter) Abhängigkeit erkennt. Das Maß ist zudem kompatibel mit der Copula-Theorie, so
dass es möglich ist die gemeinsame Verteilungsfunktion von zwei (oder mehreren) komonotonen
Risiken mit bekannten Randverteilungen zu berechnen.
3.2.2 Rangkorrelation
Ein weiteres Abhängigkeitsmaß ist die Rangkorrelation. Wie diese genau definiert ist und welche
Vorteile sie gegenüber der linearen Korrelation bietet, soll in diesem Abschnitt kurz erläutert
werden.
Definition 3.11. Seien X und Y Zufallsvariablen mit den Verteilungsfunktionen F1 und F2 und
F ihre gemeinsame Verteilungsfunktion. Der Spearmansche Rangkorrelationskoeffizient von X und
Y ergibt sich als
ρS (X, Y ) = ρ(F1 (X), F2 (Y ))
wobei ρ den linearen Korrelationskoeffizienten bezeichnet.
Neben dem Spearmanschen Rangkorrelationskoeffizienten existiert der Kendallsche Rangkorrelationskoeffizient. Beide haben - wie wir später sehen werden - ähnliche Eigenschaften.
Definition 3.12. Seien (X1 , Y1 )0 und (X2 , Y2 )0 zwei unabhängige Paare von Zufallsvariablen und
F jeweils ihre gemeinsame Verteilungsfunktion. Der Kendallsche Rangkorrelationskoeffizient ergibt
sich dann als
ρτ (X, Y ) = P [(X1 − X2 )(Y1 − Y2 ) > 0] − P [(X1 − X2 )(Y1 − Y2 ) < 0].
Bemerkung 3.7.
• Wenn n > 2 Zufallsvariablen betrachtet werden sollen, werden die paarweisen Korrelationen
- genau wie bei der linearen Korrelation - in eine n × n-Matrix geschrieben.
• Während die lineare Korrelation den Grad linearer Abhängigkeit zwischen Zufallsvariablen
misst, sind sowohl der Kendallsche als auch der Spearmansche Rangkorrelationskoeffizient
in der Lage, den Grad monotoner Abhängigkeiten zu messen.
46
Vgl. [3] S.20
16
Der folgende Satz liefert die wichtigsten Eigenschaften der Rangkorrelation und verdeutlicht die
Unterschiede zur linearen Korrelation.
Satz 3.3.
47
Seien X und Y Zufallsvariablen mit den Randverteilungen F1 und F2 , gemeinsamer Verteilungsfunktion F und Copula C. Dann gilt:
1. ρS (X, Y ) = ρS (Y, X) und ρτ (X, Y ) = ρτ (Y, X)
2. X und Y unabhängig ⇒ ρS (X, Y ) = ρτ (X, Y ) = 0
3. −1 ≤ ρS (X, Y ), ρτ (X, Y ) ≤ +1
R1R1
4. ρS (X, Y ) = 12 · 0 0 (C(x, y) − x · y) dxdy
5. ρτ (X, Y ) = 4 ·
R1R1
0
0
C(u, v) dC(u, v) − 1
6. ρS und ρτ sind invariant unter streng monotonen Transformationen T : R → R, d.h.
(
δ(X, Y ) falls T steigend
δ(T (X), Y ) =
δ ∈ {ρS , ρτ }
−δ(X, Y ) falls T fallend
7. ρS (X, Y ) = ρτ (X, Y ) = 1 ⇔ C = Co
8. ρS (X, Y ) = ρτ (X, Y ) = −1 ⇔ C = Cu
Die Punkte 1, 2 und 3 sind Eigenschaften, die wir bereits von dem linearen Korrelationskoeffizienten kennen. Interessant sind daher vor allen Dingen die übrigen Punkte, die allesamt wünschenswerte Eigenschaften an ein Abhängigkeitsmaß darstellen, welche der lineare Korrelationskoeffizient nicht erfüllen kann. Der größte Vorteil der Rangkorrelation gegenüber der linearen Korrelation
ist, dass die beiden Rangkorrelationskoeffizienten ausschließlich von der zu den Zufallsvariablen
gehörigen Copula abhängen (Eigenschaft 4 bzw. 5) und daher auch sie invariant unter streng monotonen Transformationen sind. Des Weiteren ermöglichen die Eigenschaften 7 und 8 eine elegante
Messung perfekter Abhängigkeit. Der größte Nachteil ist, dass es sich im Gegensatz zur linearen
Korrelation, die unmittelbar von der Varianz und der Kovarianz abhängt, bei den Rangkorrelationskoeffizienten nicht um eine momentbasierte Korrelation handelt.
3.2.3 Tail Abhängigkeit
Eine Fragestellung, die im Risikomanagement von großer Bedeutung ist, beschäftigt sich damit, die
Wahrscheinlichkeit für das gleichzeitige Eintreten mehrerer extremer Ereignisse anzugeben. Anders
als bei den bisher vorgestellten Maßzahlen, bei denen das Ziel war die gesamte Abhängigkeit
zwischen zwei Zufallsvariablen X und Y auszudrücken, geht es im Rahmen der Tail Abhängigkeit
vielmehr darum Maßzahlen für die Abhängigkeit von extremen Ereignissen zu bestimmen.48 Wie
Abbildung 3.2 verdeutlicht, geht es also um die Frage, wie die Abhängigkeitsstruktur in den
Randbereichen einer Verteilung in Form einer geeigneten Maßzahl formuliert werden kann.
47
48
[2] S. 16
Vgl. [1] S. 280
17
Abbildung 3.2: Realisationen zweier Zufallsvariablen mit identischer Randverteilung und gleicher
Korrelation, aber unterschiedlicher Abhängigkeitsstruktur. Die Tails sind anhand
der Kreise zu erkennen.49
3.2.3.1 Definition der Tail Abhängigkeit
Seien im Folgenden also zwei Zufallsvariablen X und Y (die beispielsweise Risiken modellieren)
sowie deren stetige Randverteilungen F1 und F2 gegeben. Man interessiert sich für die bedingte
Wahrscheinlichkeit P (X ≤ a|Y ≤ b), dass Risiko X höchstens zu einem Verlust von a führt, unter
der Bedingung, dass Risiko Y höchstens einen Verlust von b erleidet.50 Das kann bekanntlich
folgendermaßen formuliert werden:
P (X ≤ a|Y ≤ b) =
P (X ≤ a, Y ≤ b)
.
P (Y ≤ b)
Bei bekannter Copula C von X und Y ist es nach dem Satz von Sklar möglich, eine gemeinsame
Verteilungsfunktion F zu finden, die F1 und F2 als Randverteilungen besitzt:
P (X ≤ a|Y ≤ b) =
C(F1 (a), F2 (b))
.
F2 (b)
O.B.d.A. treten die Ereignisse X ≤ a bzw. Y ≤ b mit derselben Wahrscheinlichkeit α ein d.h.:
α = P (X ≤ a) = F1 (a) und α = P (Y ≤ b) = F2 (b).
Aufgrund der Stetigkeit der Randverteilungen folgt damit:
a = F1−1 (α) und b = F2−1 (α).
Es gilt also:
P (X ≤ a|Y ≤ b) =
C(F1 (F1−1 (α)), F2 (F2−1 (α)))
C(α, α)
=
.
−1
α
F2 (F2 (α))
Wird nun der Grenzwert für α → 0 gebildet (falls dieser existiert), so ergibt sich ergibt sich der
untere Tail-Abhängigkeitskoeffizient als Grenzwert.
49
50
Quelle: [3] S.4
Vgl. [1] S. 280
18
Definition 3.13. 51 Seien X und Y zwei stetige Zufallsvariablen. Bei bekannter Copula C ergibt
sich der untere Tail-Abhängigkeitskoeffizient als:
C(α, α)
,
α→0
α
λL = lim
wenn der Grenzwert existiert und λL ∈ [0, 1] ist.
Mit Hilfe des unteren Tail-Abhängigkeitskoeffizienten können nun Aussagen über die Wahrscheinlichkeit gemacht werden, dass Risiko X höchstens zu einem Verlust von a führt, unter der Bedingung, dass Risiko Y höchstens einen Verlust von b erleidet. Ist es hingegen das Ziel, Aussagen über
die Wahrscheinlichkeit zu erhalten, dass das Risiko X einen sehr hohen Verlust erleidet (X > a)
unter der Bedingung, dass auch Risiko Y einen hohen Verlust verursacht hat (Y > b), so wird der
obere Tail-Abhängigkeitskoeffizient benötigt. Dieser kann sehr ähnlich hergeleitet werden. Jedoch
wird zunächst einmal die Aussage des folgenden Satzes benötigt.
Satz 3.4.
52
Seien zwei Zufallsvariablen X und Y gegeben. Dann gilt:
P (X > a|Y > b) = 1 − P (X ≤ a) − P (Y ≤ b) + P (X ≤ a, Y ≤ b).
Damit folgt unmittelbar:
P (X > a|Y > b) =
P (X > a, Y > b)
1 − P (X ≤ a) − P (Y ≤ b) + P (X ≤ a, Y ≤ b)
=
.
P (Y > b)
1 − P (Y ≤ b)
Äquivalent zu den obigen Ausführungen ist dann wieder:
α = P (X ≤ a) = F1 (a) und α = P (Y ≤ b) = F2 (b).
und aufgrund der Stetigkeit der Randverteilungen somit:
a = F1−1 (α) und b = F2−1 (α).
Also in Copula-Schreibweise:
1 − P (X ≤ a) − P (Y ≤ b) + P (X ≤ a, Y ≤ b)
| {z } | {z } |
{z
}
α
α
C(α,α)
1 − P (Y ≤ b)
| {z }
.
α
Wird der Grenzwert für α → 1 gebildet (falls dieser existiert), so ergibt sich ergibt sich der obere
Tail-Abhängigkeitskoeffizient als Grenzwert.
Definition 3.14. 53 Seien X und Y zwei stetige Zufallsvariablen. Bei bekannter Copula C ergibt
sich der obere Tail-Abhängigkeitskoeffizient als:
1 − 2α + C(α, α)
,
α→1
1−α
λU = lim
falls der Grenzwert existiert und λU ∈ [0, 1] ist.
51
Vgl. [1] S. 281
Vgl. [1] S. 283
53
Vgl. [1] S. 281
52
19
Bemerkung 3.8.
54
• λL = 0 bedeutet asymptotische Unabhängigkeit im unteren Tail.
• λU = 0 bedeutet asymptotische Unabhängigkeit im oberen Tail.
• λL ∈ (0, 1] weist auf Abhängigkeit im unteren Tail hin.
• λU ∈ (0, 1] weist auf Abhängigkeit im oberen Tail hin.
• Je größer λL (bzw. λU ) ist, desto größer ist die Abhängigkeit im unteren (bzw. oberen) Tail.
Bemerkung 3.9.
55
• Die Tail Abhängigkeit hängt ausschließlich von der Copula ab. Die Invarianz unter streng
monoton steigenden Transformationen überträgt sich daher, genau wie bei der Rangkorrelation, von der Copula auf die Tail Abhängigkeit.
• Die Abhängigkeiten in den Tails werden durch verschiedene Copulas in unterschiedlicher Art
und Weise modelliert. So existieren beispielsweise Copulas, welche Abhängigkeit im unteren
Tail besitzen und solche, die im unteren Tail asymptotische Unabhängigkeit modellieren.
Bei der Wahl eines geeigneten Copula-Modells ist das Tail-Verhalten der entsprechenden
Copula ein entscheidender Auswahlfaktor, insbesondere dann, wenn die Wahrscheinlichkeit
für gemeinsam auftretende extreme Ereignisse relativ groß ist.
3.2.3.2 Tail-Abhängigkeitskoeffizienten für Beispiel-Copulas
Wie in Bemerkung 3.9 beschrieben wurde, kann die Tail-Abhängigkeit für verschiedene Copulas
sehr unterschiedlich ausfallen. In diesem Abschnitt sollen einige Tail-Abhängigkeitskoeffizienten
beispielhaft dargestellt werden.56 Die Unterschiede in der Modellierung der Tails bei den verschiedenen Copulas werden dadurch ersichtlich.
Unabhängigkeits-Copula: Für die Unabhängigkeits-Copula gilt:
λL = 0 und λU = 0.
Dies ist nicht weiter verwunderlich, da es bedeutet, dass die Unabhängigkeits-Copula auch asymptotische Unabhängigkeit in den Tails modelliert.
Komonotonie-Copula: Für die Komonotonie-Copula gilt:
λL = 1 und λU = 1.
Auch dies ist logisch, da es bedeutet, dass die Komonotonie-Copula auch asymptotisch totale
Abhängigkeit erzeugt.
Kontramonotonie-Copula: Für die Kontramonotonie-Copula gilt:
λL = 0 und λU = 0.
Sie modelliert also asymptotische Unabhängigkeit.
54
Vgl. [1] S. 281
Vgl. [4] S. 48
56
Vgl. [1] S. 281 und [2] S. 18-19
55
20
Gauß-Copula: Ist der Korrelationskoeffizient ρ 6= |1|, so gilt für die Gauß-Copula:
λL = 0 und λU = 0.
Das bedeutet aber, dass selbst dann, wenn zwei Risiken durch die Gauß-Copula mit extrem starker
Korrelation (aber ρ 6= |1|) gekoppelt sind, extreme Verluste nahezu unabhängig in den beiden
Risiken eintreten. „Insofern eignet sich die Gauß-Copula nicht zur Modellierung von Risiken, die
eine Tail-Abhängigkeit besitzen.“ 57
Gumbel-Copula: Für die Gumbel-Copula mit Parameter Θ ∈ (0, 1] gilt:
λL = 0 und λU = 2 − 2Θ .
Während im unteren Tail also asymptotische Unabhängigkeit vorliegt, liegt im oberen Tail für
Θ < 1 asymptotische Abhängigkeit vor. Für Θ → 0 strebt der obere Tail-Abhängigkeitskoeffizient
gegen 1.
3.2.4 Konkordanz
Die Konkordanz zeichnet sich durch eine etwas andere Sichtweise auf Abhängigkeiten zwischen
Zufallsvariablen X und Y aus als es bei den bisher vorgestellten Maßen der Fall war. Hier geht es
nicht darum die Stärke der Abhängigkeit festzustellen, sondern einzig und allein darum anzugeben
ob die Abhängigkeit zwischen X und Y positiv oder negativ ist. Im Falle positiver Abhängigkeit
spricht man von Konkordanz, bei negativer Abhängigkeit hingegen von Diskordanz.58
Grundsätzlich stellt sich an dieser Stelle die Frage, wie eine positive (bzw. negative) Abhängigkeit
überhaupt definiert werden kann. Aus den bisherigen Ausführungen dieser Arbeit könnte man sich
vorstellen, dass beispielsweise positive Abhängigkeit genau dann vorliegt, wenn ρ(X, Y ) > 0 (oder
ρS (X, Y ) > 0 bzw. ρτ (X, Y ) > 0) ist. In der Regel wird positive (bzw. negative) Abhängigkeit
jedoch anders definiert. Zwei solcher Konzepte werden im Folgenden vorgestellt.59
Definition 3.15. 60 Zwei Zufallsvariablen X und Y werden positiv quadrant abhängig (PQA)
genannt, wenn für alle x, y ∈ R gilt:
P (X ≤ x, Y ≤ y) ≥ P (X ≤ x) · P (Y ≤ y).
Bemerkung 3.10.
61
• Positive quadrant Abhängigkeit ist ein geeignetes Konzept um positive Abhängigkeit zwischen Zufallsvariablen X und Y auszudrücken, da X und Y mit höherer Wahrscheinlichkeit
beide große (bzw. kleine) Werte annehmen als im Falle der Unabhängigkeit zwischen X und
Y.
• Wird die Ungleichung in Definition 3.15 umgekehrt, so spricht man von negativ quadrant
abhängigen Zufallsvariablen.
57
[1] S. 281
Vgl. [2] S.
59
Vgl. [2] S.
60
Vgl. [2] S.
61
Vgl. [5] S.
58
20
20
20
145
21
Definition 3.16. 62 Zwei Zufallsvariablen X und Y werden positiv assoziiert (PA) genannt,
wenn für alle reellwertigen, messbaren Funktionen g1 und g2 , die monoton steigend in beiden
Komponenten sind und für die die nachfolgenden Erwartungswerte definiert sind, gilt:
E(g1 (X, Y ) · g2 (X, Y )) ≥ E(g1 (X, Y )) · E(g2 (X, Y )).
Bemerkung 3.11.
63
• Die obige Definition für (PA) ist äquivalent zu:
Cov(g1 (X, Y ), g2 (X, Y )) ≥ 0.
Dies macht deutlich, dass auch die Positive Assoziation ein geeignetes Konzept darstellt, um
positive Abhängigkeit zwischen Zufallsvariablen X und Y zu beschreiben.
• Wird die Ungleichung in Definition 3.16 umgekehrt, so spricht man von negativ assoziierten
Zufallsvariablen.
Bemerkung 3.12.
64
• Sowohl (PQA), als auch (PA) sind, genau wie die Rangkorrelation und die Tail Abhängigkeit,
invariant unter monoton steigenden Transformationen.
• (PQA) und (PA) sind stärkere Bedingungen an die Abhängigkeit zwischen Zufallsvariablen als die bereits bekannten Korrelationskoeffizienten. Dies wird auch durch die folgende
Darstellung geschildert, die ebenfalls ausdrückt, dass Komonotonie die stärkste Form von
Konkordanz bzw. positiver Abhängigkeit ist:
Komonotonie ⇒ (PA) ⇒ (PQA) ⇒ ρ(X, Y ) ≥ 0, ρS (X, Y ) ≥ 0, ρτ (X, Y ) ≥ 0
62
Vgl. [2] S. 20
Vgl. [5] S. 144
64
Vgl. [2] S. 21
63
22
4 Irrtümer bzgl. Korrelation und Abhängigkeit
Abschließend sollen in diesem Kapitel drei bekannte Irrtümer bzgl. Korrelation und Abhängigkeit
klargestellt werden. Dazu wird - mit Hilfe des Wissens aus den vorherigen Kapiteln - zu jedem
dieser Irrtümern ein Gegenbeispiel konstruiert. Hierbei werden immer zwei Zufallsvariablen X und
Y mit Randverteilungen F1 und F2 und gemeinsamer Verteilungsfunktion F betrachtet.
4.1 Irrtum 1
„Die gemeinsame Verteilungsfunktion F kann mithilfe der Randverteilungen F1 und F2 und der
Korrelation zwischen den Zufallsvariablen X und Y bestimmt werden.“
Betrachtet man bloß elliptische Verteilungen oder die multivariate Normalverteilung so stellt man
fest, dass diese Aussage hier durchaus gilt. Problematisch wird es aber wenn man diese spezielle
Gruppe von Verteilungen verlässt. Wie Abbildung 3.1 schon zeigen konnte ist es möglich zwei
Paare von Zufallsvariablen mit identischen Randverteilung und gleicher Korrelation zu entwerfen,
deren Abhängigkeitsstruktur sich unterscheidet.
Ein konkretes Beispiel hierfür ist das folgende.
Beispiel 4.1.
65
Wir betrachten hierfür zwei verschiedene gemeinsame Verteilungen mit Gamma(3,1)-Randverteilungen
(G3,1 ) und derselben Korrelation ρ = 0, 7. Diese Eigenschaften können wir sowohl mit der Gaußals auch mit der Gumbel-Copula erreichen, wenn wir die Parameter ρ bzw. θ (Vgl. Abschnitt 2.4)
geeignet wählen. So erhalten wir
FGa (x, y) = C Ga
ρ (G3,1 (x), G3,1 (y))
FGu (x, y) = CθGu (G3,1 (x), G3,1 (y))
mit ρ = 0, 71 und θ = 0, 54. Diese Werte kann man anhand einer stochastischen Simulation
errechnen.66
Aus Abschnitt 3.2.3.2 wissen wir, dass die beiden Copulas unterschiedliche Tail-Abhängigkeiten
besitzen. Während die Gauß-Copula keine Tail-Abhängigkeiten aufweist, ist die Gumbel-Copula
für θ < 1 asymptotisch abhängig. Um das zu verdeutlichen betrachten wir die bedingte Wahrscheinlichkeit P [X > u|Y > u] mit u = V aR0,99 (X) = V aR0,99 (Y ) = G−1
3,1 (0, 99) unter den beiden
Modellen.
Nach einer empirischen Schätzung gilt ungefähr
PFGa [X > u|Y > u] = 1/3
PFGu [X > u|Y > u] = 3/4.
Es zeigt sich also, dass es im Gumbel-Modell deutlich wahrscheinlicher ist, dass auch das zweite
Risiko die Schwelle u überschreitet, wenn sie vom ersten Risiko überschritten wurde. Es gibt also
weniger Diversifikation im Gumbel-Modell.67
65
Vgl. [2] S. 22
[2] S. 22
67
[2] S. 23
66
23
Analytisch eine Aussage über den VaR der Summe X + Y unter den beiden Modellen zu treffen
ist schwierig, aber anhand von Simulationen lässt sich belegen, dass das Gumbel-Modell eine
höhere Anzahl an großen Resultaten für den VaR liefert.68 Gerade wenn es um die Einschätzung
von extremen Verlusten geht, gibt es also einen entscheidenden Unterschied zwischen den beiden
Modellen, der sich in den Randverteilungen und der Korrelation nicht bemerkbar macht.
4.2 Irrtum 2
„Seien F1 und F2 gegeben. Die lineare Korrelation zwischen X und Y kann - bei einer geeigneten
Spezifikation von F - alle Korrelationen zwischen -1 und 1 annehmen.“
Diese Aussage ist nicht wahr, wie das folgende Gegenbeispiel beweist.
Beispiel 4.2.
69
Sei X ∼ LN (0, 1) und Y ∼ LN (0, σ 2 ) mit σ > 0. Wir sind nun an dem minimalen Wert ρmin
und dem maximalen Wert ρmax interessiert, den die Korrelation unter diesen Randverteilungen
annehmen kann.
Da ρmin = ρ(eZ , e−σZ ) und ρmax = ρ(eZ , eσZ ) mit Z ∼ N (0, 1) gilt, lassen sich diese Werte
analytisch bestimmen als:
e−σ − 1
ρmin = p
(e − 1) · (eσ2 − 1)
eσ − 1
ρmax = p
(e − 1) · (eσ2 − 1)
Die folgende Grafik zeigt die Werte von ρmin und ρmax für verschiedene σ-Werte.
1
minimale Korrelation
maximale Korrelation
0,8
0,6
Korrelation
0,4
0,2
0
1
2
3
4
-0,2
-0,4
-0,6
-0,8
-1
sigma
Abbildung 4.1: ρmin und ρmax für verschiedene σ-Werte.70
68
[2] S. 23
Vgl. [2] S. 24
70
Vgl. [2] S. 25
69
24
5
Dieses Beispiel zeigt damit eindeutig, dass nicht immer alle Werte zwischen -1 und 1 erreicht
werden können. Es zeigt aber sogar noch etwas mehr, denn man sieht, dass limσ→∞ ρmin =
limσ→∞ ρmax = 0.
So wie wir X und Y gewählt haben sind diese jedoch komonoton (oder kontramonoton) und
damit im stärksten Sinne abhängig. Wir sehen also wie ungeeignet die Korrelation in diesem Fall
als Abhängigkeitsmaß ist: Trotz extremer Abhängigkeit liegt die Korrelation für hohe σ ganz nah
bei 0.
4.3 Irrtum 3
„Der Value-at-Risk eines linearen Portfolios X + Y wird am größten, wenn ρ(X, Y ) maximal ist,
also wenn X und Y komonoton sind.“
Dass diese Aussage falsch ist, wird schnell klar, wenn wir zwei Sachverhalte betrachten, die sich
im Laufe der Ausarbeitung gezeigt haben. Laut Bemerkung 3.5 gilt für zwei komonotone Zufallsvariablen V aRα (X + Y ) = V aRα (X) + V aRα (Y ). Außerdem wissen wir, dass der Value-at-Risk
für nicht-elliptische Verteilungen die Subadditivitäts-Eigenschaft nicht erfüllt, d.h. es existieren
zwei Zufallsvariablen X und Y so dass V aRα (X + Y ) > V aRα (X) + V aRα (Y ).
Für elliptische Verteilungen hingegen gilt die Subadditivitäts-Eigenschaft und damit auch die
obige Aussage. Eine obere Schranke für den Value-at-Risk bei nicht-elliptischen Verteilungen zu
finden ist aber auch möglich, dafür verweisen wir auf [2].
Abschließend wollen wir noch ein Beispiel betrachten, bei dem sich der Value-at-Risk besonders
interessant verhält.
Beispiel 4.3.
71
Seien X und Y zwei unabhängige Zufallsvariablen mit derselben Verteilung F1/2 = 1 − x−1/2 ,
x ≥ 1. Hierbei handelt es sich um eine extreme heavy-tailed Verteilung ohne endlichen Mittelwert.
Nun betrachten wir die zwei Risiken X + Y (unabhängig) und 2 · X(komonoton). Man kann
abschätzen, dass
√
2· z−1
P [X + Y ≤ z] = 1 −
< P [2X ≤ z]
z
für z > 2. Daraus folgt dann
V aRα (X + Y ) > V aRα (2X) = V aRα (X) + V aRα (Y ).
Das bedeutet, dass in diesem Fall aus Sicht des VaR Unabhängigkeit schlechter ist, als perfekte
positive Abhängigkeit - ganz unabhängig von der Wahl von α. Es gibt also hier keinerlei Diversifikationseffekt, sondern es ist sogar besser zwei „gleiche“ Risiken einzugehen.
71
Vgl. [2] S. 29
25
5 Fazit
Ziel dieser Ausarbeitung war es, in Anlehnung an die Arbeit Embrechts’, McNeils und Straumanns
einen Überblick über verschiedene Möglichkeiten zur Modellierung von Abhängigkeiten zwischen
Zufallsvariablen zu bieten.
Einleitend wurde das Konzept der linearen Korrelation vorgestellt und betont, dass diese lediglich
für elliptische Verteilungen ein besonders geeignetes Maß darstellt, da innerhalb dieser Verteilungsklasse die gesamte Abhängigkeitsstruktur zweier Zufallsvariablen vollständig durch den linearen
Korrelationskoeffizienten beschrieben werden kann. Da der Klasse elliptischer Verteilungen auch
die multivariate Normalverteilung zugeordnet ist, und diese vielseitige Anwendungsbereiche bietet,
ist der Einsatz des linearen Korrelationskoeffizienten als Abhängigkeitsmaß oftmals sehr sinnvoll.
Darüber hinaus wurde deutlich gemacht, dass das Risikomaß Value-at-Risk, welches i.A. nicht
kohärent ist, für elliptische Verteilungen tatsächlich ein kohärentes Risikomaß darstellt und somit
viele wünschenswerte Eigenschaften erfüllt.
Die Ausführungen zeigen weiterhin, dass für den Fall, dass die Zufallsvariablen - deren Abhängigkeit zu modellieren ist - keiner elliptischen Verteilung unterliegen, andere Abhängigkeitsmaße als
die lineare Korrelation geeigneter sind. Deren Unterschiede sowie Vor- und Nachteile gegenüber
der linearen Korrelation wurden im Rahmen dieser Arbeit aufgezeigt, sodass sich dem Leser eine
breite Übersicht über geeignete Abhängigkeitsmaße für verschiedene Modellierungen in der Praxis
bietet.
Das abschließende Kapitel verdeutlicht noch einmal, dass mit der intuitiven Gleichsetzung der
Begriffe Abhängigkeit und Korrelation einige Irrtümer einhergehen und daher gerade bei nichtelliptischen Verteilungen Vorsicht geboten ist.
26
Literaturverzeichnis
[1] Cottin, Claudia und Döhler, Sebastian (2009): Risikoanalyse: Modellierung, Beurteilung und
Management von Risiken mit Praxisbeispielen, Vieweg+Teubner
[2] Embrechts, Paul und McNeil, Alexander und Straumann, Daniel (1999): Correlation and Dependence in Risk Management: Properties and Pitfalls, unbekannt
[3] Neslehova, Johanna (2006): Eine Einführung in Copulas, unbekannt
[4] Niehof, Martin (2009): Modellierung von stochastischen Abhängigkeiten mittels Copulas, unbekannt
[5] Pham, Hoang (2003): Handbook of Reliability Engineering, Springer
27
Herunterladen