Ludwig-Maximilians-Universität Konvexe Analysis mit Anwendung

Werbung
Ludwig-Maximilians-Universität
Konvexe Analysis mit Anwendung
auf Risikofunktionale
Prof. Dr. G. Svindland
Inhaltsverzeichnis
1 Einführung in die konvexen Risikomaße
1.1 Konvexe Risikomaße/Motivation . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Darstellung (konvexer) Risikomaße mittels Aktzeptanzmengen . . . . . . . . .
2 Lokalkonvexe Vektorräume/ Duale Paare/ Konvexe Dualität
2.1 Duale Paare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Konvergenz in topologischen Räumen . . . . . . . . . . . . . . .
2.3 Trennungssätze in lokalkonvexen Räumen . . . . . . . . . . . . .
2.4 Darstellung konvexer Funktionen . . . . . . . . . . . . . . . . . .
2.5 Dualräume der Lp -Räume . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
5
7
7
10
15
18
23
3 Anwendung auf konvexe Risikomaße
28
4 Verteilungsinvariante Risikomaße
4.1 Anwendung: Optimal Risk Sharing /Equilibria . . . . . . . . . . . . . . . . .
59
79
3
1
Einführung in die konvexen Risikomaße
1.1
Konvexe Risikomaße/Motivation
• Berechnung von Risikokapitalrücklagen (Versicherung/ Banken, Solvency II/ Basel III,
etc.)
• Portfoliooptimierung unter Nebenbedingungen
..
.
Grundlegendes Finanzmarktmodell
Gegeben sei ein 1-Perioden Modell, in dem zukünftige Auszahlungsprofile durch Zufallsvariablen (ZV’en) auf einem vorgegeben Wahrscheinlichkeitsraum (W-Raum) (Ω, F, P) modelliert
werden.
• Ω=
b Zukünftige Zustände
• F=
b σ-Algebra/ verfügbare Information
• P=
b objektives“ W-Maß
”
Annahmen/ Auszahlungsprofile:
• X : Ω → R F-meßbar (ZV)
• X(ω) Auszahlung im Zustand ω ∈ Ω
• Auszahlungen sind bereits diskontiert, d.h. Geldwert heute= Geldwert morgen
• Negative Werte von X sind Verluste, positive sind Gewinne
• Wir identifizieren Auszahlungsprofile, die sich nur auf einer P- Nullmenge unterscheiden
• Wir nehmen an, dass alle Auszahlungsprofile beschränkt sind, d.h.
∃c > 0 : P (|X| > c) = 0
(Relaxierung hiervon später)
⇒ Der Raum der Auszahlungsprofile entspricht
L∞ := L∞ (Ω, F, P) = L ∞ (Ω, F, P)/N
L ∞ := L ∞ (Ω, F, P) = {X : Ω → R F-meßbar, ∃c > 0 : P (|X| > c) = 0}
Äquivalenzrelation auf L ∞ :
∼:
X ∼ Y ⇐⇒ P(X 6= Y ) = 0.
Norm auf L ∞ :
kXk∞ := esssup |X| = inf {m ∈ R : P (|X| > m) = 0} .
Erinnerung:
esssup Y := inf {m ∈ R : P(Y > m) = 0}
essinf Y := sup {m ∈ R : P(Y < m) = 0}
1
Bemerkung. (L∞ , k · k∞ ) ist ein Banachraum (vollständiger normierter Raum).
Beweis. Übung!
Idee: Zur konsistenten“ Risikomessung wollen wir ein Funktional ρ : L∞ → R mit guten“
”
”
Eigenschaften definieren, welches den Geldbetrag ρ(X) angibt, den wir benötigen um das
Auszahlungsprofil X ∈ L∞ abzusichern/ akzeptabel zu machen.
Beispiel (VaRα (Value at Risk)). Sei α ∈ (0, 1) und für X ∈ L∞ sei
+
qX
(α) = sup {x : P(X < x) ≤ α}
= inf {x : P(X ≤ x) > α}
Rechtsstetiges α-Quantil,
dann ist der Value at Risk definiert als
+
VaRα (X) := −qX
(α).
y
y
1
1
FX (x) = P(X ≤ x)
FX (x)
α
+
qX
(α)
x
x
−
+
qX
(α) qX
(α)
−
qX
(α) = sup {x : P(X < x) < α} = inf {x : P(X ≤ x) ≥ α}
Bemerkung. VaRα (X) = inf {m ∈ R : P(X + m) < 0) ≤ α} (Übung!) Kleinstes Kapital,
dass zu X hinzugefügt werden muss, damit die Verlustwahrscheinlichkeit kleiner α ist. Typische Größen für α sind 0.5% oder 0.1%
Definition 1.1. Eine Funktion ρ : L∞ → R heißt (monetäres) Risikomaß (RM), falls es
folgende Eigenschaften hat:
i) Monotonie (Eigentlich Antitonie): X, Y ∈ L∞ mit X ≤ Y (P-f.s.) ⇒ ρ(X) ≥ ρ(Y )
ii) Translationsinvarianz/ Cash-Invarianz: X ∈ L∞ , m ∈ R : ρ(X + m) = ρ(X) − m.
Bemerkung.
• ρ(X + ρ(X)) = ρ(X) − ρ(X) = 0. D.h. X + ρ(X) ist akzeptabel im Sinne, dass
X + ρ(X) ∈ Aρ := {Y ∈ L∞ : ρ(Y ) ≤ 0} .
Dies erlaubt die Interpretation von ρ als Kapitalanforderung.
Aρ ist die Akzeptanzmenge von ρ und beschreibt die risikolosen Auszahlungsprofile.
2
• VaRα ist ein Risikomaß laut Definition 1.1.
Weitere vernünftige Anforderungen an ein Risikomaß:
Diversifikation: Angenommen wir können in X oder Y oder λX + (1 − λ)Y, λ ∈ (0, 1),
investieren. Dann sollte Diversifikation, d.h. Investition in λX + (1 − λ)Y, nicht bestraft
werden. D.h. ρ sollte quasi-konvex sein:
ρ (λX + (1 − λ)Y ) ≤ max {ρ(X), ρ(Y )} .
Lemma 1.2. Sei ρ : L∞ → R ein Risikomaß. Dann gilt:
1) ρ ist 1-Lipschitzstetig bzgl. k · k∞ , d.h. |ρ(X) − ρ(Y )| ≤ kX − Y k∞ .
2) Ist ρ quasi-konvex, so ist ρ konvex.
(Konvexität: ∀X, Y ∈ L∞ , λ ∈ [0, 1] gilt: ρ (λX + (1 − λ)Y ) ≤ λρ(X) + (1 − λ)ρ(Y )).
Beweis. Zu 1): X = X + Y − Y ≤ Y + kX − Y k∞
Aus der Monotonie und der Translationsinvarianz folgt:
ρ(Y ) − kX − Y k∞ = ρ (Y + kX − Y k∞ ) ≤ ρ(X)
⇒ ρ(Y ) − ρ(X) ≤ kX − Y k∞ .
Analog kann man zeigen, dass ρ(X) − ρ(Y ) ≤ kX − Y k∞ .
Zu 2):
ρ (λ(X + ρ(X)) + (1 − λ)(Y + ρ(Y )))
Quasikonvexität
≤
max{ρ(X + ρ(X)), ρ(Y + ρ(Y ))} = 0
|
{z
} |
{z
}
=0
Translationsinv.
⇒
=0
ρ (λX + (1 − λ)Y ) ≤ λρ(X) + (1 − λ)ρ(Y ).
Definition 1.3. Ein Risikomaß heißt kohärent, falls es quasi-konvex und positiv homogen
(d.h X ∈ L∞ , t ≥ 0 : ρ(t · X) = tρ(X)) ist.
Beispiele/ Gegenbeispiele.
• VaRα ist ein Risikomaß, aber nicht konvex (quasi-konvex). Sei α = 1.5% (=0.015), X
und Y unabhängig identisch verteilt mit

(

mit W-keit 0.9801
100
100
mit W-keit 0.99 1
1
X=
, X+ Y = 0
mit W-keit 0.0198 .

2
−100
mit W-keit 0.01 2

−100
mit W-keit 0.0001
⇒ VaR0.015 (X) = VaR0.015 (Y ) = −100 und VaR0.015
3
1
2X
+ 12 Y = 0.
1
FX = FY
F 12 X+ 12 Y
0.01
α
0.0199
0.0001
-100
100
Abbildung 1.1: Illustration vom ersten Beispiel.
Bemerkung. Eingeschränkt auf die Klasse der normalverteilten ZV’en ist VaRα konvex für α ≤ 0.5 (Für α ≥ 0.5 ist VaRα konkav).
Beweis. Sei α ≤ 0.5, X ∼ N (µX , σX ) und Y ∼ N (µY , σY ). Dann gilt
VaRα λX + (1 − λ)Y = −qλX+(1−λ)Y (α)
= −q0,1 (α)σλX+(1−λ)Y − µλX+(1−λ)Y
1
2
+ (1 − λ)2 σY2 + 2λ(1 − λ)σX σY ρX,Y 2 −µλX+(1−λ)Y
= −q0,1 (α) λ2 σX
| {z } |
{z
}
≥0 für α≤0
→max für ρX,Y =1
≤ −q0,1 (α) (λσX + (1 − λ)σY )2
1
2
= λ VaRα (X) + (1 − λ) VaRα (Y ),
− λµX − (1 − λ)µY
wobei q0,1 (α) das α-Quantil einer standardnormalverteilten Zufallsvariable ist (da die
Verteilungsfunktion stetig ist brauchen wir hier nicht das rechtsstetige Quantil zu betrachten) und ρX,Y ist der Korrelationskoeffizient von X und Y . Damit ist die Konvexität für α ≤ 0 bewiesen und die Konkavität für α ≥ 0 folgt analog.
Rα +
Rα
(s) d s = α1 0 Vars (X) d s ist ein kohärentes
• Average Value at Risk: AVaRα (X) := − α1 0 qX
RM. (Siehe später).
1/2
• Standardabweichung: σX := E (X − E[X])2
ist weder monoton noch translationsinvariant.
• Mean-Variance: ρ(X) := E[−X] + σX ist translationsinvariant, aber nicht monoton
(Übung).
q • Semi-Deviation RM: ρ(X) := −E[X] + β E (X − E[X])2− ist ein kohärentes RM,
falls β ∈ [0, 1] (Übung).
• Entropisches RM: β > 0, ρ(X) = β1 log E e−βx ist ein konvexes RM (siehe später),
welches nicht kohärent ist (Übung).
4
1.2
Darstellung (konvexer) Risikomaße mittels Aktzeptanzmengen
Definition 1.4. Sei ρ : L∞ → R ein Risikomaß.
Aρ := {Y ∈ L∞ : ρ(Y ) ≤ 0}
heißt die Akzeptanzmenge von ρ. Sei A ⊂ L∞ . Wir definieren
ρA : L∞ → R, X 7→ inf {m ∈ R : X + m ∈ A} ,
wobei inf ∅ := ∞.
(Übung: Zeige, dass ∀X ∈ L∞ , m ∈ R : ρA (X + m) = ρA (X) − m).
Satz 1.5. Sei ρ ein RM. Es gilt:
i) Aρ =
6 ∅; inf {m ∈ R : m ∈ Aρ } > −∞; Ist X ∈ Aρ , Y ∈ L∞ mit Y ≥ X ⇒ Y ∈ Aρ .
Aρ ⊂ L∞ ist abgeschlossen.
ii) ρ = ρAρ
iii) ρ ist konvex ⇐⇒ Aρ ist konvex
iv) ρ ist positiv homogen ⇐⇒ Aρ ist ein Kegel (d.h. ∀X ∈ Aρ , ∀t ≥ 0 : tX ∈ Aρ ). Insbesondere ist ρ kohärent genau dann, wenn Aρ ein konvexer Kegel ist.
Beweis. i) Übung.
ii)
ρAρ
= inf {m ∈ R : X + m ∈ Aρ } = inf {m ∈ R : ρ(X + m) ≤ 0}
= inf {m ∈ R : ρ(X) ≤ m} = ρ(X)
iii) ⇒“: Klar.
”
⇐“: Seien m1 , m2 ∈ R derart, dass X + m1 ∈ Aρ und Y + m2 ∈ Aρ . Dann ist λ(X + m1 ) +
”
(1 − λ)(Y + m2 ) ∈ Aρ (da Aρ konvex ist).
⇒ λm1 + (1 − λ)m2 ∈ {m ∈ R : (λX + (1 − λ)Y ) + m ∈ Aρ }
ii)
⇒ ρ(λX + (1 − λ)Y ) = ρAρ (λX + (1 − λ)Y )
≤ λ inf {m1 : X + m1 ∈ Aρ } + (1 − λ) inf {m2 : X + m2 ∈ Aρ }
= λρ(X) + (1 − λ)ρ(Y ).
iv) Übung.
Satz 1.6. Sei ∅ =
6 A ⊂ L∞ mit
a) inf {m ∈ R : m ∈ A} > −∞ und
b) X ∈ A, Y ∈ L∞ , Y ≥ X ⇒ Y ∈ A.
5
Dann gilt:
i) ρA ist ein RM.
ii) Ist A konvex, so ist ρA ein konvexes RM.
iii) Ist A ein Kegel, so ist ρA positiv homogen. Insb.: Ist A ein konvexer Kegel, so ist ρA
kohärent.
iv) A ⊂ Aρ . Ist A abgeschlossen (bzgl. k · k∞ ), so gilt A = Aρ .
Beweis. i)-iii): Übung.
iv): X ∈ A ⇒ 0 ∈ {m ∈ R : X + m ∈ A} ⇒ ρA (X) ≤ 0.
k·k∞
Sei (mn )n∈N ⊂ R derart, dass X + mn ∈ A ∀n ∈ N und mn → ρA (X). D.h. X + mn →
X + ρA (X). Da A abgeschlossen ist, folgt X + ρA (X) ∈ A. Da ρA (X) ≤ 0, folgt mit b), dass
X ∈ A.
6
2
Lokalkonvexe Vektorräume/ Duale Paare/ Konvexe Dualität
2.1
Duale Paare
Definition 2.1. Seien X, X 0 zwei Vektorräume (VR) und sei h·, ·i : X × X 0 → R, (x, x0 ) 7→
hx, x0 i eine Funktion mit folgenden Eigenschaften:
i) X 0 3 x0 7→ hx, x0 i ist linear für jedes x ∈ X
ii) X 3 x 7→ hx, x0 i ist linear für jedes x0 ∈ X 0
(Bilinearform)
iii) Falls hx, x0 i = 0 für alle x0 ∈ X 0 ⇒ x = 0
iv) Falls hx, x0 i = 0 für alle x ∈ X ⇒ x0 = 0
(Punktetrennende Eigenschaft).
Dann heißt hX, X 0 i ein duales Paar.
Bemerkung. Punktetrennend: Falls z.B. x, y ∈ X mit x 6= y, d.h. x − y 6= 0, impliziert iii),
dass es ein x0 ∈ X 0 gibt mit hx − y, x0 i 6= 0, also hx, x0 i 6= hy, x0 i. Das lineare Funktional
h·, x0 i : X → R, x 7→ hx, x0 i trennt also x und y voneinander.
Beispiel.
i) hRn , Rn i mit hx, yi :=
Pn
i=1 xi yi .
(Euklidisches Skalarprodukt)
ii) Sei (V, k · k) ein normierter VR und
V ∗ := {l : V → R : l ist linear und stetig}
der zugehörige Dualraum.
⇒ hV, V ∗ i ist ein duales Paar mit h·, ·i : V × V ∗ → R, hv, li = l(v).
[hv, k · l1 + l2 i := k · l1 (v) + l2 (v) für k ∈ R].
(Siehe Funktionalanalysis Vorlesung: Hahn-Banach Trennsätze) Details: Übung.
1
iii) Wichtiges Bsp. hierfür: hLp , Lq i, wobei p1 + 1q = 1, Lp := Lp (Ω, F, P), p ∈ [1, ∞), ∞
:= 0
p
q
und h·, ·i : L × L → R, hX, Zi = E[XZ], denn laut Rieszem Darstellungssatz gilt
∗
(Lp )∗ ∼
= Lq , d.h. zu jedem l ∈ (Lp ) gibt es genau ein Z ∈ Lq derart, dass ∀X ∈ Lp :
l(X) = E(XZ). (Siehe später).
iv) Allerdings ist für p ∈ [1, ∞) und r ∈ [q, ∞), wobei
Paar (mit hX, Zi = E[XZ]), denn
1
p
+
1
q
= 1, auch hLp , Lr i ein duales
(a) Bilinearität ist klar aus den Eigenschaften von E[·]. Die Wohldefiniertheit folgt aus
Lr ⊂ Lq und iii).
(b) Laut iii) trennt L∞ die Punkte von L1 und umgekehrt, also trennt Lr ⊃ L∞ die
Punkte von Lp ⊂ L1 und umgekehrt.
7
Sei nun hX, X 0 i ein duales Paar. Für x0 ∈ X 0 ist die Abbildung
px0 (x) := hx, x0 i, x ∈ X,
eine Seminorm auf X( und analog ist für x ∈ X die Abbildung
px (x0 ) := hx, x0 i, x0 ∈ X 0 ,
eine Seminorm auf X 0 .) (Übung)
Seminorm: Es gilt
i) px0 (0) = 0
ii) px0 (tx) = tpx0 (x) ∀t ≥ 0
iii) px0 (x + y) ≤ px0 (x) + px0 (y).
Bemerkung. Eine Seminorm ist eine Norm genau dann, wenn px0 (x) = 0 ⇐⇒ x = 0.
Die Familie von Seminormen {px0 : x0 ∈ X 0 } induziert eine Topologie auf X durch die Nullumgebungsbasis
U := Uε,I := x : px0 (x) < ε für alle x0 ∈ I : ε > 0, I ⊂ X 0 endlich .
D.h. eine Menge O ⊂ X ist offen, falls ∀x ∈ O∃Uε,I ∈ U mit x + Uε,I ⊂ O, bzw. mit anderen
Worten ∀x ∈ O existiert I = {x01 , ..., x0n } ⊂ X 0 mit {y : ∀i = 1, ..., n, |hy, x0i i − hx, x0i i| < ε} ⊂
O.
Definition 2.2. Die oben konstruierte Topologie heißt die von X 0 auf X induzierte Topologie
und wird mit σ (X, X 0 ) bezeichnet.
In der Tat ist σ (X, X 0 ) eine Topologie, denn:
i) ∅, X ∈ σ (X, X 0 )
ii) Seien Uε1 ,I1 , ..., Uεm ,Im ∈ U, dann gilt
I=
m
S
Ii .
m
T
i=1
Uεi ,Ii ⊃ Uε,I mit ε := min {ε1 , ..., εm } und
i=1
⇒ σ (X, X 0 ) ist abgeschlossen unter endlicher Schnittbildung.
iii) σ (X, X 0 ) ist offensichtlich abgeschlossen unter Bildung beliebiger Vereinigungen von
Mengen aus σ (X, X 0 ).
(Details: Übung).
Definition 2.3. Sei (X, τ ) ein topologischer Vektorraum. (X, τ ) heißt lokalkonvexer Vektorraum, falls jede offene Umgebung um 0 ∈ X eine konvexe offene Umgebung um 0 enthält.
Bemerkung. (X, σ (X, X 0 )) ist ein lokalkonvexer topologischer Vektorraum, denn
8
• σ (X, X 0 ) ist lokal konvex (und zwar ist die konvexe offene Umgebung ein Uε,I )
• (X, σ (X, X 0 )) ist ein topologischer VR, d.h. +“ und ·“ (skalar mult.) sind stetig.
”
”
• Für + : X × X → X:
Sei O ⊂ X offen (O ∈ σ (X, X 0 )) und sei (x, y) ∈ +−1 (O). Wähle Uε,I ∈ U derart,
dass x + y + Uε,I ⊂ O. Dann ist (x, y) + Uε/2,I + Uε/2,I ⊂ +−1 (O). Also ist +−1 (O)
offen.
• Für · : R × X → X:
Wähle wieder O ∈ σ (X, X 0 ) und
kx + Uε,I ⊂ O. Zeige, dass
ε
k − ,k +
δ
(k, x) ∈ ·−1 (O). Dann gibt es Uε,I ∈ U mit
ε
× ({x} + Uε̂,I ) ⊂ O
δ
ε
∧ 3ε und δ := 3 (maxx0 ∈I |hx, x0 i| ∨ 1) ∨ ε.
für ε̂ := 3|k|
Denn für alle x0 ∈ I und (l, y) ∈ k − δε , k + δε × ({x} + Uε̂,I ) gilt
|hly, x0 i − hkx, x0 i| = |h(l − k + k)(y − x + x), x0 i − hkx, x0 i|
≤ |h(l − k)(y − x), x0 i| + |hk(y − x), x0 i| + |h(l − k)x, x0 i|
≤ |l − kkhy − x, x0 i| + |kkhy − x, x0 i| + |l − kkhx, x0 i|
ε
ε
< ε̂ + |k|ε̂ + |hx, x0 i| < ε
δ
δ
Außerdem gilt, dass
• σ (X, X 0 ) ist Hausdorff, d.h. für alle x, y, ∈ X mit x 6= y gibt es Ox , Oy ∈ σ (X, X 0 ) mit
x ∈ Ox , y ∈ Oy und Ox ∩ Oy = ∅. (Das folgt aus der punktetrennenden Eigenschaft von
X 0 ).
Definition 2.4. Analog zu oben definiert die Familie von Seminormen {px : x ∈ X} auf X 0
eine Topologie σ (X 0 , X) auf X 0 . Diese heißt die von X auf X 0 induzierte Topologie.
Definition 2.5. Ist X ein normierter Vektorraum (Banachraum) und X 0 = X ∗ der zugehörige Dualraum (d.h. der Raum der linearen stetigen Funktionale auf X), so heißt σ(X, X 0 )
schwache’”Topologie auf X und σ(X 0 , X) heißt schwach∗“ Topologie.
”
”
Bemerkung. Die Symmetrie in der Definition eines dualen Paares impliziert, dass die obigen Aussagen auch für σ (X 0 , X) gelten. Insbesondere ist (X 0 , σ (X 0 , X)) ein lokalkonvexer
topologischer VR.
Satz 2.6. Sei hX, X 0 i ein duales Paar. Dann ist der Dualraum von (X, σ (X, X 0 )) gerade X 0 . D.h. ist l : X → R linear und σ (X, X 0 )-stetig, so gibt es genau ein x0 ∈ X 0 mit
l(x) = hx, x0 i für alle x ∈ X und jedes x0 ∈ X 0 definiert über X 3 x 7→ hx, x0 i ein lineares
σ (X, X 0 )-stetiges Funktional auf (X, σ (X, X 0 )). in Zeichen: (X, σ (X, X 0 ))∗ = X 0 . Analog
gilt: (X 0 , σ (X 0 , X))∗ = X.
9
Beweis. Sei l : X → R ein σ (X, X 0 )-stetiges lineares Funktional. Da l stetig ist, gibt
es eine
0
−1
offene Menge V ∈ σ (X, X ) mit 0 ∈ V und l(V ) ⊂ (−1, 1) z.B. V = l (−1, 1) . D.h. es
existiert ein ε > 0 und ein I = {x01 , ..., x0n } ⊂ X 0 mit Uε,I ⊂ V . Insbesondere gilt
x ∈ Uε,I ⇐⇒ ∀i = 1, ..., n : |hx, x0i i| < ε
=⇒ |l(x)| ≤ 1 (denn l(Uε,I ) ⊂ (−1, 1)).
Sei nun
x∈
\
i=1,..,n

ker x0i =
\
i=1,...,n

kerh·, x0i i ⊂ Uε,I ,
d.h insbesondere auch hαx, x0i i = 0 für alle i = 1, ..., n und α ∈ R. Dann ist aber für jedes
α > 0 |l(αx)| = α|l(x)| ≤ 1 und somit muss l(x) = 0 gelten. Folglich ist
\
ker x0i ⊂ ker l.
i=1,...,n
P
⇒ l = h·, ni=1 αi x0i i für geeignete αi ∈ R.
Denn: T : X → Rn , T (x) = (hx, x01 i, ..., hx, x0n i) ist linear. T (X) ist ein linearer Unterraum von Rn . Aufsolchem istTψ : T (X) → R, ψ (hx, x01 i, ..., hx, x0n i) := l(x) linear und
ker x0i ⊂ ker l. Denn angenommen (hx, x01 i, ..., hx, x0n i) =
wohldefiniert. Letzteres, da
i=1,...,n
T
x0i ⊂ ker l.
(hy, x01 i, ..., hy, x0n i), dann ist x − y ∈ ker
i=1,...,n
⇒ l(x − y) = 0 ⇐⇒ l(x) = l(y).
Setze ψ irgendwie (z.B. durch 0) auf Rn fort. Dann ist ψ alsoP
ein lineares Funktional auf Rn .
n
D.h. ψ =α
b = (α1 , ..., αn ) ∈ R bzw. genauer ψ(a) = ha, αi = ni=1 ai αi (jetzt entspricht h·, ·i
dem euklidischen Skalarprodukt auf Rn !) für alle a ∈ Rn . Also
l(x) =
n
X
i=1
αi hx, x0i i = hx,
n
X
αi x0i i.
|i=1{z }
=:x0 ∈X 0
Angenommen es gäbe x0 , y 0 ∈ X 0 mit L(x) = hx, x0 i = hx, y 0 i für alle x ∈ X.
⇒ ∀x ∈ X : hx, x0 − y 0 i = 0 ⇒ x0 − y 0 = 0 (punktetrennende Eigenschaft). Somit gibt es
zu l genau ein x0 ∈ X 0 mit l(·) = h·, x0 i. Es bleibt zu zeigen, dass jedes x0 ∈ X 0 ein lineares
σ(X, X 0 )-stetiges Funktional auf X über X 3 x 7→ hx, x0 i definiert. Linearität ist hierbei
offensichtlich, wegen der Eigenschaften von h·, ·i. Zur σ(X, X 0 )-Stetigkeit: Siehe später.
2.2
Konvergenz in topologischen Räumen
Erinnerung: Umgebungsbasis: Sei τ eine Topologie auf dem Raum X, d.h. (X, τ ) ein topologischer Raum. Eine Menge von Mengen Ux ⊂ τ heißt Umgebungsbasis von x ∈ X, falls
∀V ∈ Ux : x ∈ V und falls es zu jeder Umgebung U von x ein V ∈ Ux gibt mit V ⊂ U .
(Eine Umgebungsbasis existiert immer, d.h. in jedem topologischen Raum (X, τ ) für alle
10
x ∈ X (Übung)!)
Umgebung: Eine Menge U heißt Umgebung von x ∈ X, falls x ∈ U und es gibt V ∈ τ mit
x ∈ V ⊂ U.
Problem: Besitzt die Topologie keine abzählbare Umgebungsbasis, so ist im allgemeinen die
topologische Konvergenz (im Sinne von Randpunkten von Mengen) nicht äquivalent zur Folgenkonvergenz.
Beispiel.
• Sei (V, k · k) ein normierter Vektorraum. Dann ist die Normtopologie (kanonische Topologie) auf V gegeben durch die Nullumgebungsbasis
1
U :=
y ∈ V : kyk <
:n∈N .
n
Diese ist abzählbar.
• Ist (X, d) ein metrischer Raum, so ist
1
y ∈ X : kd(y, x)k <
Ux :=
:n∈N
n
eine abzählbare Umgebungsbasis.
• In allgemeinen lokalkonvexen Räumen ist dies jedoch nicht der Fall. Z.B. hLp , Lr i mit
r > q, wobei p ∈ [1, ∞) und p1 + 1q = 1.
D.h. im allgemeinen Netze/ Filter statt Folgen.
Definition 2.7. Sei (I, ≥) eine gerichtete Menge, d.h. es existiert eine reflexive und transitive
Binärrelation “≥“ auf I (d.h. x ≥ x und x ≥ y, y ≥ z ⇒ x ≥ z), so dass für alle α, β ∈ I ein
γ ∈ I existiert mit γ ≥ α und γ ≥ β. (obere Schranke)
Ein Netz auf (X, τ ) ist eine Abbildung
x:
I
|{z}
=Indexmenge
b
Notation: (xi )i∈I .
→ X.
Beispiel.
• I = N mit ≥. D.h Folgen sind Netze.
• I = Ux = Umgebungsbasis um x ∈ X mit ⊆“ (Inklusion). D.h. U ≥ V ⇐⇒ U ⊆ V .
”
(Übung)
Ein Netz (xi )i∈I konvergiert gegen einen Punkt x, wenn es letzlich in jeder Umgebung
von x liegt, d.h. zu jeder Umgebung V von x existiert ein α0 ∈ I, so dass xα ∈ U für alle
α ≥ α0 .
τ
In Zeichen: xi → x (oder xi → x). x heißt Grenzwert des Netzes (xi )i∈I .
11
Satz 2.8. Sei (X, τ ) ein topologischer Raum und A ⊂ X. Dann ist x ∈ cl(A) genau dann,
wenn es ein Netz (xi )i∈I ⊂ A gibt mit xi → x.
Beweis. Sei x ∈ cl(A) und sei Ux eine Umgebungsbasis um x. Da für alle V ∈ Ux : A ∩ V 6=
∅ (Def. Randpunkt!), existiert ein Punkt xV ∈ A ∩ V . (xV )V ∈Ux ist ein Netz (s.o) mit
τ
(xV )V ∈Ux ⊂ A und xV → x.
τ
Umgekehrt, ist (xi )i∈I ⊂ A ein Netz mit xi → x, so folgt offensichtlich, dass für jede Umgebung V von x, A ∩ V 6= ∅ gilt. Also ist x ∈ cl(A).
Beispiel (Folgen reichen nicht aus).
X = R. Definiere die Topologie τ auf R wie folgt:
Sei A ∈ τ genau dann, wenn für alle x ∈ A ∃U ⊂ R offen in der üblichen Topologie (von
| · | induziert), C ⊂ R abzählbar, so dass x ∈ U \C ⊂ A. τ ist eine Topologie (Übung). Die
einzigen konvergenten Folgen in dieser Topologie sind Folgen, die schließlich konstant sind
(d.h. ∃n0 ∈ N : xn = xn+1 , ∀n ≥ n0 ). (Übung)
(Übung: Finde den Abschluss von (0, 1) in τ ).
Definition 2.9. Sei (xi )i∈I ein Netz. (yλ )λ∈Λ heißt Teilnetz von (xi )i∈I , falls es eine Funktion
ϕ : Λ → I gibt derart, dass
i) yλ = xϕ(λ) für alle λ ∈ Λ und
ii) ∀α0 ∈ I, ∃λ0 ∈ Λ : λ ≥ λ0 ⇒ ϕ(λ) ≥ α0 .
Beispiel. Jede Teilfolge ist ein Teilnetz.
Ein Punkt x heißt Häufungspunkt eines Netzes (xi )i∈I , falls es für jede Umgebung V um
x und jedes α ∈ I ein β ≥ α gibt mit xβ ∈ V .
Satz 2.10. Sei (X, τ ) ein topologischer Raum und (xi )i∈I ⊂ X ein Netz. Dann ist x ein
Häufungspunkt von (xi )i∈I genau dann, wenn es ein Teilnetz (yλ )λ∈Λ von (xi )i∈I gibt, welches
gegen x konvergiert.
Beweis. Sei x ein Häufungspunkt von (xi )i∈I und Ux eine Umgebungsbasis von x.
Bemerke, dass Λ := I × Ux eine gerichtete Menge ist mit (α, V ) ≥ (β, V̂ ) ⇐⇒ α ≥ β und
V ≥ V̂ , wobei ≥“ die jeweilige Relation auf V und Ux ist.
”
Wähle ϕ(α, V ) ∈ I mit ϕ(α, V ) ≥ α derart, dass xϕ(α,V ) ∈ V und definiere das Teilnetz
τ
(yα,V )(α,V )∈I×Ux durch yα,V := xϕ(α,V ) . Dann gilt: yα,V → x.
(Denn für alle (β, V̂ ) ≥ (α, V ) gilt insbesondere V̂ ⊆ V )
Sei umgekehrt x der Grenzwert eines Teilnetzes (yλ )λ∈Λ von (xi )i∈I . Sei V eine Umgebung
von x und α0 ∈ I beliebig. Sei ϕ : Λ → I die Abbildung aus der Definition 2.9 eines Teilnetzes.
Außerdem sei λ0 ∈ Λ derart, dass yλ ∈ V für alle λ ≥ λ0 . Laut ii) aus der Definition 2.9 gibt
es ein λ1 ∈ Λ so, dass ϕ(λ) ≥ α0 für alle λ ≥ λ1 . Wenn nun λ2 ≥ λ1 und λ2 ≥ λ0 ( so ein λ2
gibt es, da Λ eine gerichtete Menge ist), dann erfüllt der Index β = ϕ(λ2 ), dass β ≥ α0 und
xβ = xϕ(λ2 ) = yλ2 ∈ V . Also ist x ein Häufungspunkt von (xi )i∈I .
12
Bemerkung. Ein Netz (xi )i∈I konvergiert genau dann gegen eine Punkt x, wenn jedes Teilnetz von (xi )i∈I gegen x konvergiert.
Satz 2.11. Seien (X, τ ), (Y, σ) topologische Räume und f : X → Y eine Abbildung. Folgende
Bedingungen sind äquivalent:
i) f ist stetig (τ -σ-stetig)
ii) Für jedes Netz (xi )i∈I gilt:
τ
σ
xi → x ⇒ f (xi ) → f (x).
Beweis. i) ⇒ ii):
τ
σ
Angenommen f ist stetig und xi → x, aber f (xi ) 9 f (x). D.h. es existiert eine offene
Umgebung V ⊂ Y von f (x) und zu jedem α0 ∈ I ein β ≥ α0 mit
f −1 (V )
| {z }
f (xβ ) ∈
/ V ⇐⇒ xβ ∈
/
Umgebung von x, da f stetig ist
τ
zu xi → x.
ii) ⇒ i):
Sei V ⊂ Y abgeschlossen. Sei (xi )i∈I ⊂ f −1 (V ) ein Netz, welches gegen x ∈ X konvergiert. Da
σ
laut ii) f (xi ) → f (x) und (f (xi ))i∈I ⊂ V , folgt f (x) ∈ V (Satz 2.8) und somit x ∈ f −1 (V ).
Also ist f −1 (V ) abgeschlossen (Satz 2.8).
Bemerkung. Sei hX, X 0 i ein duales Paar. Dann ist
σ(X,X 0 )
xi −→ x ⇐⇒ hxi , x0 i → hx, x0 i (in R) für alle x0 ∈ X 0 .
Deshalb heißt σ(X, X 0 ) auch Topologie der
punktweisen Konvergenz in x0 ∈ X 0 und σ(X 0 , X) die Topologie der punktweisen Konvergenz
in x ∈ X.
Insbesondere sind die Abbildungen
X 3 x 7→ hx, x0 i bzw.
X 0 3 x0 7→ hx, x0 i
σ(X, X 0 )- bzw. σ(X 0 , X)-stetig.
Letztere Bemerkung vollendet den Beweis von Satz 2.6.
Satz 2.12. Sei (X, τ ) ein topologischer Raum, welcher Hausdorff ist und sei K ⊂ X kompakt
(d.h. jede offene Überdeckung von K enthält eine endliche Teilüberdeckung). Außerdem sei
x∈
/ K. Dann gibt es zwei disjunkte offene Mengen U und V derart, dass K ⊂ U und x ∈ V .
Insbesondere sind kompakte Teilmengen von Hausdorffräumen stets abgeschlossen.
13
Beweis. Die Hausdorffeigenschaft impliziert, dass es zu jedem y ∈ K offene Umgebungen Uy
und Vy mit Uy ∩Vy = ∅ und y ∈ Uy und x ∈ Vy gibt. Offensichtlich ist {Uy : y ∈ K} eine offene
n
S
Uyi
Überdeckung von K. Sei also Uy1 , ..., Uyn eine Teilüberdeckung von K. Dann ist U :=
n
T
offen mit K ⊂ U und auch V :=
i=1
i=1
Vyi offen mit x ∈ V . Außerdem gilt U ∩ V = ∅.
Satz 2.13. Sei (X, τ ) ein Hausdorffraum und V ⊂ X. Folgende Eigenschaften sind äquivalent:
i) V ist kompakt.
ii) V ist abgeschlossen und für jede Familie
T (Ai )i∈I von abgeschlossenen Teilmengen von V
mit der endlichen ∩-Eigenschaft gilt
Ai 6= ∅.
i∈I
T
(endliche ∩-Eigenschaft:
Aj 6= ∅ für alle J ⊂ I endlich).
j∈J
iii) Jedes Netz (xi )i∈I ⊂ V hat mindestens einen Häufungspunkt.
iv) Jedes Netz (xi )i∈I ⊂ V hat ein konvergentes Teilnetz.
Beweis. i) ⇐⇒ ii): Übung.
iii) ⇐⇒ iv): Satz 2.10.
ii) ⇒ iii):
Sei (xi )i∈I ⊂ V ein Netz und definiere
Fα := {xβ : β ≥ α} , α ∈ I.
von abgeschlossenen Teilmengen von V hat die endliche ∩-Eigenschaft
n
T
aus ii), da zu α1 , ..., αn ∈ I immer β ≥ αi für alle i = 1, ..., n existiert und Fβ ⊂
Fαi ⊂
Die Familie F α
n
T
α∈I
i=1
F αi .
i=1
ii)
⇒ ∃x ∈
T
α∈I
F α , d.h. x ist Häufungspunkt von (xi )i∈I .
iii) ⇒ ii):
Sei (Ai )i∈I(eine Familie von abgeschlossenen
Teilmengen von V mit der endlichen ∩-Eigenschaft.
)
T
Sei G :=
Aj : J ⊂ I endlich . Dann ist G mit der Inklusion ⊆“ eine gerichtete Menge.
”
j∈J
Zu UT∈ G wähle xU ∈ U . Das Netz (xU )U ∈G hat laut iii) einen Häufungspunkt x. Es folgt
x∈
Ai . (Übung)
i∈I
(z.B. mittels eines konvergenten Teilnetzes (yλ )λ∈Λ (Satz 2.10), welches schließlich für jedes
i in Ai liegen muss (wähle λ0 mit ϕ(λ) ≥ Ai ∈ G für alle λ ≥ λ0 ), also muss auch der
Grenzwert x in Ai liegen.
14
2.3
Trennungssätze in lokalkonvexen Räumen
Satz 2.14 (Hahn-Banach, Version der linearen Algebra).
Sei X ein Vektorraum und p : X → R eine konvexe Funktion. Außerdem sei M ⊂ X ein
Unterraum und ˆl : M → R eine lineare Funktion mit ˆl(x) ≤ p(x) für alle x ∈ M . Dann gibt
es eine lineare Fortsetzung l von ˆl auf X mit l(x) ≤ p(x) für alle x ∈ X.
(Bemerke: In Satz 2.14 ist keine Topologie und somit keine Stetigkeit im Spiel).
Beweis. Transfinite Induktion, siehe Funktionalanalysis Vorlesung.
Satz 2.15 (Trennungssatz in topologischen Vektorräumen).
Sei (X, τ ) ein topologischer Vektorraum, ∅ =
6 U ⊂ X, ∅ =
6 V ⊂ X mit U, V konvex, U ∩ V = ∅
und int U 6= ∅. Dann existiert ein lineares stetiges Funktional l : X → R mit
sup l(u) ≤ inf l(v) (schwache Trennung) und
v∈V
u∈U
l(u) < l(v) für mindestens ein u ∈ U und v ∈ V (d.h. insbesondere l 6= 0) .
Beweis. U − V = {u − v : u ∈ U, v ∈ V } =
6 ∅ ist konvex und int(U − V ) 6= ∅, (denn U − {v} ⊂
U − V und U − {v} = ρ−1 (U ) für die stetige Funktion ρ : X → X, u 7→ u + v (topologischer
Vektorraum!!)).
Sei z ∈ int(U − V ) ⇒ C := U − V − {z} ist nicht-leer, konvex, 0 ∈ int C und −z ∈
/ C
(ansonsten 0 ∈ int(U
−
V
)
⇒
U
∩
V
=
6
∅).
Sei pC (X) := inf λ > 0 : λx ∈ C , x ∈ X (Minkowski- Funktional). pC : X → R+ ist positiv
homogen, subadditiv, also insbesondere konvex. (Übung)
Es ist pC (−z) ≥ 1, denn anderenfalls existiert 0 < α < 1, y ∈ C mit −z = αy und somit
−z = αy + (1 − α) · |{z}
0 ∈C .
∈C
Weiter ist pC (x) ≤ 1 für alle x ∈ C.
Sei nun M := {t · (−z) : t ∈ R} ⊂ X und ˆl : M → R gegeben durch ˆl (t(−z)) = t. Dann
ist ˆl linear mit ˆl ≤ pC auf M , denn für t ≥ 0 : pC (t(−z)) = tpc (−z) ≥ t = ˆl (t(−z)) (da
pC (−z) ≥ 1 (s.o.)) und für t < 0 : ˆl (t(−z)) = t < 0 ≤ pC (t(−z)).
Laut Satz 2.14 gibt es eine lineare Fortsetzung l : X → R von ˆl mit l ≤ pC auf ganz X. Seien
u ∈ U , v ∈ V , dann gilt:
l(u) = l(u − v − z) + l(v) + l(z)
≤ pC (u − v − z) + l(v) + l(z)
= pC (u
v − z}) − 1 + l(v), denn l(z) = ˆl ((−1)(−z)) = −1
| −{z
∈C
≤ 1 − 1 + l(v) = l(v).
⇒ supu∈U l(u) ≤ inf v∈V l(v).
Seien nun u ∈ U und v ∈ V mit z = u − v
⇒l(u − v) = l(z) = l ((−1)(−z)) = −1
⇒l(u) = −1 + l(v), also l(u) < l(v).
15
Es bleibt zu zeigen, dass l stetig ist:
Sei hierzu û ∈ int U . Dann ist 0 ∈ int(U − {û}) und l ist auf U − {û} von oben durch eine
Konstante K > 0 beschränkt, denn für alle u ∈ U gilt:
l(u − û) = l(u) − l(û) ≤ inf l(v) − l(û) < K, für geeignetes K > 0.
v∈V
Da ·“ stetig ist, existiert eine absorbierende offene Menge U 0 mit 0 ∈ U 0 ⊂ (U − {û}).
”
(Absorbierend heißt, dass für alle x ∈ X ein λ > 0 existiert, so dass λx ∈ U 0 ) (Übung, denn
für alle x ∈ X, {0} × {x} ⊂ ·−1 (U − {û})).
U 00 := U 0 ∩ (−U 0 ) ist offen und symmetrisch (U 00 = U 00 ∩ (−U 00 )) mit 0 ∈ U 00 , und es gilt
l|U 00 ≤ K
|l(u)| ≤ K, ∀u ∈ U 00 ,
denn l(u) ≤ K und l(−u) ≤ K für alle u ∈ U 00 ⊂ U − {û}. Sei nun x ∈ X beliebig und ε > 0.
Wähle y ∈ {x} + Kε U 00 , dann gilt: |l(y) − l(x)| = |l(y − x)| ≤ Kε K = ε.
⇒ l ist stetig.
Bemerkung. Es gibt topologische VR derart, dass 0 das einzige lineare stetige Funktional
auf X ist bzw. X die einzige nicht-leere offene konvexe Menge in sich.
Zur Äquivalenz der letzten beiden Aussagen:
i) Sei 0 das einzige stetige lineare Funktional und ∅ =
6 U $ X offen und konvex. Satz 2.15
impliziert die Existenz eines stetigen linearen Funktionals l 6= 0, welches z.B. U von {v}
schwach trennt für ein v ∈ U C = X\U .
ii) Sei X die einzige nicht-leere offene konvexe Menge in sich selbst. Angenommen es gäbe
ein lineares stetiges Funktional l : X → R mit l 6= 0. Dann existiert ein x ∈ X mit
l(x) > 0. Sei ε ∈ (0, l(x)). Dann ist U := l−1 (ε, ∞) offen und konvex und x ∈ U , aber
0∈
/ U , d.h. U $ X.
Beispiel. X = L0 := L0 (Ω, F, P) := L 0 /N , wobei L 0 := L 0 (Ω, F, P)
:= {ZV’en über (Ω, F, P)} und ∼“ wie oben (x ∼ y ⇐⇒ P(x = y) = 1). Hierbei sei der
”
W-Raum (Ω, F, P) nicht-atomar, also z.B. ((0, 1], L (0, 1], λ), d.h. es gibt eine ZV mit stetiger
Verteilungsfunktion.
Sei d(x, y) := E [|x − y| ∧ 1], x, y, ∈ L0 . d ist eine Metrik auf L0 und (L0 , d) ist ein vollständiger
metrischer Raum und somit ein topologischer VR mit der durch d induzierten Metrik τd . Insbesondere finden wir immer abzählbare Umgebungsbasen, d.h wir können mit Folgen statt
mit Netzen argumentieren.
d
P
Bemerke: xn → x ⇐⇒ xn → x, d.h. τd ist die Topologie der stochastischen Konvergenz.
Aber: Angenommen es gibt U $ L0 offen und konvex mit U 6= ∅. O.b.d.A. 0 ∈ U (denn für
u ∈ U ist 0 ∈ U − {u} offen und konvex). Dann gibt es laut Satz 2.15 ein lineares stetiges
Funktional l 6= 0 mit l(v) ≤ inf u∈U l(u), wobei v ∈ X\U . Da U offen ist, gibt es ein r > 0 mit
Kr := x ∈ L0 : d(x, 0) = E [|x| ∧ 1] < r ⊂ U.
Sei A ∈ F mit P(A) < r, dann gilt für x := t1A , wobei t ∈ R mit |t| ≥ 1, dass d(x, 0) =
E [|x| ∧ 1] = P(A) < r, also x ∈ Kr ⊂ U .
16
⇒ l(v) ≤ l(t1A ) = tl(1A ), ∀t ∈ R mit |t| > 1 und A ∈ F mit P(A) < r.
⇒ l(1A ) = 0 für alle A ∈ F mit P(A) < r
⇒ l(x) = 0 für alle einfachen ZV’en (dicht in (L0 , d))
Stetigkeit von l
⇒
l(x) = 0 ∀x ∈ L0 , d.h. l ≡ 0.
Folglich ist L0 die einzige nicht-leere konvexe offene Menge in (L0 , τd ) und 0 das einzige stetige lineare Funktional L0 → R. (Details: Übung)
; Risikomaße auf L0 sind schwierig, siehe später!
Zentral für unsere Analyse konvexer Funktionen ist die folgende Version des Trennungssatzes:
Satz 2.16 (Strikte Trennung in lokalkonvexen Räumen).
Sei (X, τ ) ein lokalkonvexer Raum. Außerdem seien U, V ⊂ X nichtleer, konvex mit U ∩ V =
∅, wobei U abgeschlossen und V kompakt ist. Dann gibt es ein stetiges lineares Funktional
l : X → R derart, dass
sup l(u) < inf l(v)
(strikte Trennung).
v∈V
u∈U
Beweis. V − U ist nichtleer, konvex und abgeschlossen (!).
Zur Abgeschlossenheit: Sei (vα − uα )α∈I ⊂ V − U ein Netz mit vα − uα → z. Da V kompakt
ist existiert ein Teilnetz (vαβ )β∈Λ von (vα )α∈I , welches gegen ein v ∈ V konvergiert (Satz
τ
2.13). Die Stetigkeit von +“ impliziert nun, dass U 3 uαβ = vαβ − (vαβ − uαβ ) → v − z. Da
”
U abgeschlossen ist, gilt u := −z + v ∈ U und somit z = v − u ∈ V − U .
Da V − U abgeschlossen ist mit 0 ∈
/ V − U , folgt dass (V − U )c = X\(V − U ) offen ist mit
c
0 ∈ (V − U ) . Da (X, τ ) lokalkonvex ist, gibt es eine konvexe offene Umgebung A um 0 mit
A ⊂ (V − U )c . D.h. insbesondere A ∩ (V − U ) = ∅. Nun können wir Satz 2.15 anwenden und
schließen auf die Existenz eines nicht-trivialen stetigen linearen Funktionals l : X → R mit
sup l(a) ≤
a∈A
inf
b∈(V −U )
l(b).
D.h. l(a) ≤ l(v) − l(u) für alle a ∈ A und v ∈ V, u ∈ U .
Da A absorbierend ist (Stetigkeit von ·“), gibt es ein a0 ∈ A mit l(a0 ) > 0. (Wähle irgendein
”
x ∈ X mit l(x) > 0 und stauche nach A).
Dann gilt: l(v) ≥ l(u) + l(a0 ) für alle v ∈ V und u ∈ U , d.h.
inf (v) ≥ sup l(u) + l(a0 ) > sup l(u).
v∈V
u∈U
u∈U
Beispiel. Zwei abgeschlossene konvexe Mengen, die sich nicht strikt trennen lassen. Siehe
Abbildung 2.1.
17
V
U
Abbildung 2.1: Die Mengen U und V sind abgeschlossene Mengen, die von
schlossen werden.
1
x
bzw − x1 einge-
Lemma 2.17. Sei (X, τ ) ein lokalkonvexer Raum. Für jedes stetige lineare Funktional l :
X → R und α ∈ R sei HLα := {x ∈ X : l(x) ≥ α} der zugehörige abgeschlossene Halbraum.
A ⊂ X ist konvex und abgeschlossen genau dann, wenn
\
A=
{Hlα : l ∈ (X, τ )∗ , α ∈ R mit A ⊆ Hlα } ,
wobei (X, τ )∗ := {stetige lineare Funktionale X → R}.
Beweis. ⇐“: Trivial.
”
⇒“: \
Die Aussage ist klar für A = ∅. Sei also A 6= ∅. Offensichtlich gilt
”
A ⊆
{Hlα : l ∈ (X, τ )∗ , α ∈ R mit A ⊆ Hlα } . Ist x ∈ X\A. Dann gibt es laut Satz 2.16
|
{z
}
=:H
ein l ∈ (X, τ )∗ mit l(x) < inf a∈A l(a) (strikte Trennung von A und {x}). Wähle α ∈
/ Hlα . Ist A = X, so ist H = H00 = X der einzige
(l(x), inf a∈A l(a)) ⇒ A ⊂ Hlα und x ∈
Halbraum, der X enthält und die Aussage gilt trivialerweise. Es folgt A = H.
Korollar 2.18. Sei (V, k · k) ein normierter Raum und V ∗ sein Dualraum. Eine konvexe
Menge ist bzgl. der Normtopologie abgeschlossen genau dann, wenn sie bzgl. σ(V, V ∗ ) abgeschlossen ist.
∗
∗
Beweis. V, k·k und V, σ(V, V ∗ ) sind beide lokalkonvexe Räume mit V, k·k = V, σ(V, V ∗ ) .
Wende Lemma 2.17 an.
2.4
Darstellung konvexer Funktionen
Definition 2.19. Sei hX, X 0 i ein duales Paar. Eine Funktion f : X → [−∞, ∞] = R ∪ {±∞}
ist:
i) konvex, falls für alle x, y ∈ X und alle λ ∈ [0, 1]:
f (λx + (1 − λ)y) ≤ λf (x) + (1 − λ)f (y),
wann immer die rechte Seite wohldefiniert ist.
18
ii) unterhalbstetig, falls alle Niveaumengen
Ek := {x ∈ X : f (x) ≤ k} , k ∈ R,
abgeschlossen sind in (X, σ(X, X 0 )).
Beispiele/ Gegenbeispiele. Siehe Abbildung 2.2.
k
k
x
x
(a) Eine Funktion, die uhs ist.
(b) Eine Funktion, die nicht uhs ist (, aber ohs).
∞
∞
epif
k
(c) Eine konvexe Funktion die nicht uhs ist.
Abbildung 2.2: Beispiele/ Gegenbeispiele für unterhalbstetige Funktionen.
Bemerkung.
i) f konvex ⇐⇒ epi f := {(x, a) ∈ X × R : f (x) ≤ a} ist konvex
ii)
f unterhalbstetig ⇐⇒ epi f ist abgeschlossen in X × R
σ(X,X 0 )
⇐⇒ xi −→ x ⇒ lim inf f (xi ) ≥ f (x),
i∈I
(wobei lim inf f (xi ) := sup inf f (xβ )).
i∈I
i∈I β≥i
19
iii) analog: f oberhalbstetig, falls alle Ok := {x ∈ X : f (x) ≥ k}, k ∈ R, abgeschlossen sind
σ(X,X 0 )
⇐⇒ xi −→ x ⇒ lim sup f (xi ) = inf sup f (xβ ) ≤ f (x)
i∈I β≥i
i∈I
Insbesondere: f stetig ⇐⇒ f ober- und unterhalbstetig.
Definition 2.20. Sei f : X → [−∞, ∞] eine Funktion.
i) Die zu f duale (konjugierte) Funktion f ∗ : X 0 → [−∞, ∞] ist gegeben durch
f ∗ (x0 ) = sup hx, x0 i − f (x), x0 ∈ X 0 .
x∈X
ii) Die biduale (bikonjugierte) Funktion f ∗∗ : X → [−∞, ∞] von f ist gegeben durch:
f ∗∗ (x) := sup
x0 ∈X 0
hx, x0 i − f ∗ (x0 )
|
{z
}
, x ∈ X.
stetige affine Minoranten von f“
”
Illustration:
y
f (x)
mx − c
x
bester“/ nächster“ (approximativ)
”
”
y−Achsenabschnitt zur
Steigung m
∀x :
mx − c ≤ f (x)
⇒ ∀x :
c ≥ mx − f (x)
⇒ c ≥ sup mx − f (x)
x
|
{z
}
=:f ∗ (m)
Bemerkung.
• f ∗ und f ∗∗ sind konvex
σ(X 0 ,X)
• f ∗ ist σ(X 0 , X) unterhalbstetig (uhs), denn für x0i −→ x0 gilt:
∗ 0
0
0
f (x ) = sup hx, x i − f (x) = sup limhx, xi i − f (x)
x∈X
x∈X i∈I
0
≤ lim inf suphx, xi i − f (x) = lim inf f ∗ (x0i ).
i∈I
i∈I
20
• analog ist f ∗∗ σ(X, X 0 )-uhs.
Frage: Wann ist f = f ∗∗ ?
Offensichtlich ist f konvex und uhs eine notwendige Voraussetzung. Sie ist aber in der Tat
auch hinreichend:
Satz 2.21 (Fenchel, Moreau, Rockafellar).
Sei f : X → R ∪ {±∞} eine Funktion. Folgende Eigenschaften sind äquivalent:
i) f = f ∗∗
ii) f ist konvex und σ(X, X 0 )-uhs und falls
{x ∈ X : f (x) = −∞} =
6 ∅ ⇒ f ≡ −∞.
Bemerkung. Zu ii): {x ∈ X : f (x) = −∞} =
T
k∈R
Ek , wobei wie oben Ek := {x ∈ X : f (x) ≤ k},
k ∈ R.
E−∞ := {x ∈ X : f (x) = −∞} ist konvex und abgeschlossen. Angenommen es gäbe ein y ∈ X
mit f (y) ∈ R, dann ist für alle x ∈ E−∞ und λ ∈ (0, 1):
f (λx + (1 − λ)y)
konvex
≤
λ f (x) +(1 − λ) f (y) = −∞,
|{z}
|{z}
=−∞
also λx + (1 − λ)y ∈
{z
}
|
λ&0
−→ y
E−∞
| {z }
∈R
und somit auch y ∈ E−∞ .
abgeschlossen
⇒ Ist f konvex, uhs und E−∞ 6= ∅, so ist f (x) ∈ {−∞, ∞} für alle x ∈ X und E−∞ ist
konvex und abgeschlossen.
Beweis von Satz 2.21. i) ⇒ ii): Das ist klar laut der Bemerkung oben und da E−∞ 6= ∅ ⇒
f ∗ ≡ ∞ ⇒ f ∗∗ ≡ −∞.
ii) ⇒ i):
a) Zeige zunächst, dass f ∗∗ ≤ f :
f ∗∗ (x) = sup hx, x0 i − f ∗ (x0 )
x0 ∈X 0
= sup hx, x0 i −
x0 ∈X 0
sup hy, x0 i − f (y)
y∈X
!
y=x
≤ sup hx, x0 i − hx, x0 i + f (x) = f (x)
x0 ∈X 0
b) Zeige nun, dass f ≤ f ∗∗ . Sei E−∞ = ∅ und f 6≡ ∞. epi f := {(x, a) ∈ X ×R : f (x) ≤ a} =
6 ∅
ist konvex und abgeschlossen. Ist (x, b) ∈
/ epi f , dann gibt es laut Satz 2.16 (strikte Trennung)
ein lineares stetiges Funktional (x0 , α) ∈ X 0 × R mit
sup
(x,a)∈epi f
hx, x0 i + αa < k < hx, x0 i + αb, für ein k ∈ R
21
(2.1)
(denn (X × R)∗ ∼
= X 0 × R).
1. Fall: f (x) < ∞.
D.h. insbesondere (x, f (x)) ∈ epi f während ∀ε > 0: (x, f (x) − ε) ∈
/ epi f . Mit b = f (x) − ε
in (2.1) gilt
sup hx, x0 i + αa < hx, x0 i + α (f (x) − ε)
(x,a)∈epi f
und somit
sup hx, x0 i + αf (x) < hx, x0 i + α (f (x) − ε)
x∈X
f (x)<∞
x = x liefert: α(f (x) − f (x) + ε) < 0 ⇒ α < 0.
x0
x0
⇒ sup hx,
i − f (x) < hx,
i − f (x) + ε.
|α|
|α|
x∈X
{z
}
|
=f ∗ (x0 /|α|)
⇒ f (x) − ε < hx,
x0
i − f∗
|α|
x0
|α|
≤ f ∗∗ (x).
ε & 0 liefert f (x) ≤ f ∗∗ (x). Mit a) folgt, dass f (x) = f ∗∗ (x) für alle x ∈ X mit f (x) < ∞.
2. Fall: f (x) = ∞.
Dann ist (x, b) ∈
/ epi f für alle b ∈ R. Sei (x0 , α) wie in (2.1). Wäre α > 0, so wäre für
jedes x ∈ X mit f (x) < ∞ und somit (x, f (x) + t) ∈ epi f für alle t ≥ 0 die Beziehung
hx, x0 i + α(f (x) + t) < hx, x0 i + b für alle t ≥ 0 ein Widerspruch.
|
{z
}
t%∞
−→ ∞
Also muss α ≤ 0 gelten. Ist α < 0, so folgt
x0
x0
i − f (x) < hx,
i − b bzw.
|α|
|α|
x∈X
0
x
x0
b < hx,
i − f∗
≤ f ∗∗ (x).
|α|
|α|
sup hx,
Angenommen α = 0. Im Fall 1. haben wir schon gezeigt, dass f ∗∗ (x) = f (x) für alle x ∈
dom f := {x ∈ X : f (x) < ∞}. D.h. es existiert ein y 0 ∈ X mit f ∗ (y 0 ) < ∞ und
hx, y 0 i − f ∗ (y 0 ) (≤ f ∗∗ (x)) ≤ f (x)
für alle x ∈ X.
Dann ist mit (2.1)
hx, y 0 i − f ∗ (y 0 ) + c( hx, x0 i − k ) ≤ f (x)
| {z }
für alle x ∈ X
(2.2)
<0 ∀x∈dom f
und wir können c > 0 so groß wählen, dass
hx, y 0 i − f ∗ (y 0 ) + c(hx, x0 i − k ) > b.
| {z }
>0 laut (2.1)
22
(2.3)
Es ist z 0 := y 0 + cx0 ∈ X 0 und mit (2.2) folgt, dass
f ∗ (z 0 ) = sup hx, z 0 i − f (x) ≤ sup hx, z 0 i − hx, z 0 i + f ∗ (y 0 ) + ck
x∈X
x∈X
∗
0
≤ ck + f (y )
und somit
f ∗∗ (x) ≥ hx, z 0 i − f ∗ (z 0 )
≥ hx, z 0 i − ck − f ∗ (y 0 ) > b.
nach (2.3). Da b beliebig groß war, folgt wieder, dass f ∗∗ (x) = ∞.
a)+b)⇒ f = f ∗∗ .
2.5
Dualräume der Lp -Räume
Lemma 2.22. Seien p, q ∈ [1, ∞] mit p1 + 1q = 1, wobei 10 := ∞ und
definiert
lZ : Lp → R, X 7→ E[ZX]
1
∞
:= 0. Ist Z ∈ Lq , so
ein lineares stetiges Funktional auf Lp .
Beweis. Erinnerung: Hölder’sche Ungleichung:
X ∈ Lp , Z ∈ Lq : |E[XZ]| ≤ kXkp kZkq
(< ∞).
Es folgen:
1) die Wohldefiniertheit von lZ
Lp
2) die Stetigkeit von lZ , denn für Xn → X gilt
n%∞
|lZ (Xn ) − lZ (X)| = |E[(Xn − X)Z]| ≤ kXn − Xkp kZkq −→ 0.
|
{z
}
→0
Satz 2.23. Sei p ∈ [1, ∞) und q ∈ (1, ∞] mit p1 + 1q = 1 (d.h. q = ∞, falls p = 1). Dann
definiert
T : Lq → (Lp )∗ , T (Z) = lZ
mit lZ wie in Lemma 2.22 ein isometrischen Isomorphismus. Es ist also
(Lp )∗ ∼
= Lq .
23
Beweis. Laut Lemma 2.22 ist T wohldefiniert. Es bleiben die Isometrie und Surjektivität zu
zeigen.
i) Isometrie:
q/p
|Z|
Z
∈ Lp mit kXkp = 1 (Übung). Also gilt
Sei p ∈ (1, ∞). Dann ist X = |Z|
kZkq
|||lZ ||| = sup |E[XZ]| ≥ E[ZX]
(Übung)
X∈Lp
=
kZkq ,
kXkp =1
wobei |||·||| die Operatornorm ist. Andererseits folgt wieder aus der Hölder’schen Ungleichung,
dass
|||lZ ||| ≤ kZkq .
Somit gilt |||lZ ||| = kZkq .
Ist p = 1 und somit Z ∈ L∞ , so ist aufgrund der Hölder’schen Ungleichung wieder |||lZ ||| ≤
kZk∞ . Andererseits sei für ε > 0
Xε :=
1Aε sgn(z)
P(Aε )
mit Aε := {|Z| > kZk∞ − ε} .
Dann gilt Xε ∈ L1 , kXε k1 = 1 und
ε&0
|E[ZXε ]| ≥ kZk∞ − ε −→ kZk∞ .
ii) Surjektivität:
Sei l ∈ (Lp )∗ . Betrachte die Funktion
µ : F → R, µ(A) = l(1A ).
Dann ist ein µ ein signiertes Maß mit µ P (Übung). Laut dem Satz von Radon-Nikodym
existiert somit eine Dichte Z ∈ L1 mit
µ(A) = E[Z1A ] für alle A ∈ F.
Laut Lemma 2.22 ist lZ : L∞ 3 X 7→ E[ZX] ein lineares stetiges Funktional. Aus der
Linearität folgt, dass lZ und l auf allen einfachen ZV’en übereinstimmen. Da auch l auf
(L∞ , k · k∞ ) stetig ist (denn k · k∞ -Konvergenz impliziert k · kp - Konvergenz auf L∞ ⊂ Lp )
und die einfachen ZV’en in (L∞ , k · k∞ ) dicht liegen, folgt dass
l|L∞ = lZ .
(2.4)
Wir zeigen nun, dass lZ stetig auf ganz Lp ausgedehnt werden kann qmit lZ = l und dass
0
Z ∈ Lq . Sei hierzu zunächst p ∈ (1, ∞) und somit q < ∞. Sei X =: |Z|
Z (mit 0 := 0). Dann
gilt:
|Z|pq
q
p
q
|X| =
= |Z| = XZ
p=
.
|Z|p
q−1
24
Betrachte An := {|Z| ≥ n}. Dann ist X1An ∈ L∞ für alle n ∈ N und mit (2.4) gilt:
E[|Z|q 1An ] = E[XZ1An ] = lZ (X1An )
= l(X1An ) ≤ |||l||| · kX1An kp
= |||l|||E[|X|1An ]1/p = |||l|||E[|Z|q 1An ]1/p
⇒ E[|Z|q 1An ]1/q ≤ |||l|||
∀n ∈ N
n→∞
Mit Hilfe der monotonen Konvergenz erhalten wir E[|Z|q 1An ]1/q −→ E[|Z|q ]1/q = kZkq und
somit
kZkq ≤ |||l|||
∀n ∈ N.
Im Falle q = ∞ (d.h. p = 1) betrachte A := {|Z| > |||l|||}.
0
1
Angenommen es wäre P(A) > 0. Sei X := |Z|
Z 1A 0 := 0 . Dann ist X ∈ L und
|||l|||P(A) < E[|Z|1A ] = E[XZ] = l(X) ≤ |||l||| · kXk1 .
| {z }
=P(A)
⇒ |Z| > |||l||| (P-f.s.) und somit Z ∈ L∞ .
Schließlich folgt, dass lZ : Lp 3 X 7→ E[ZX] ein lineares stetiges Funktional auf Lp ist
(Lemma 2.22), welches nach (2.4) auf der dichten Teilmenge L∞ von (Lp , k · kp ) mit l
übereinstimmen. Also gilt lZ = l auf ganz Lp .
Lemma 2.22 zeigt, dass L1 ⊆ (L∞ , k · k∞ )∗“. Wie sieht (L∞ , k · k∞ )∗ aus? In der Tat ist
∗
1 ”
∞
∗
∞ ) größer als L . Zur Charakterisierung von (L , k · k∞ ) benötigen wir die Menge
der endlich additiven signierten Maße auf F:
(L∞ , k · k
Definition 2.24. Eine Abbildung µ : F → R heißt endlich additives signiertes Maß, falls
i) µ(∅) = 0
ii) für paarweise disjunkte Mengen A1 , ..., An ∈ F gilt
!
n
n
[
X
µ
Ai =
µ(Ai )
(endlich additiv)
i=1
i=1
Nimmt µ nur nicht-negative Werte an, so heißt µ ein endlich additives Maß.
Die totale Variation kµkVar eines endlich additiven signierten Maßes µ ist gegeben durch
)
( n
X
kµkVar := sup
µ(Ai ) : A1 , ..., An ∈ F, Ai ∩ Aj = ∅ für i 6= j, n ∈ N .
i=1
Sei
ba := {µ : F → R :µ ist ein endliches additives signiertes Maß mit kµkVar < ∞
und P(A) = 0 ⇒ µ(A) = 0}.
Dann definiert jedes µ ∈ ba wie folgt ein lineares stetiges Funktional auf L∞ :
25
i) Sei zunächst X =
Definiere
n
P
i=1
ai 1Ai ∈ L∞ mit ai ∈ R und Ai ∈ F mit Ai ∩ Aj = ∅ für i 6= j.
hµ, Xi :=
n
X
ai µ(Ai ).
i=1
Das ist wohldefiniert, d.h. hµ, Xi ist unabhängig von der Darstellung der einfachen ZV
X (Übung). Es ist
n
X
|hµ, Xi| ≤ kXk∞ µ(Ai )
i=1
≤ kXk∞ kµkVar .
Also ist hµ, ·i ein lineares stetiges Funktional auf (E, k · k∞ ), wobei E ⊂ L∞ die Menge
der einfachen ZV’en bezeichnet.
ii) Setze hµ, ·i eindeutig zu einem linearen stetigen Funktional auf ganz L∞ fort. (D.h. zu
k·k∞
X ∈ L∞ wähle (Xn )n∈N ⊂ E mit Xn → X und setze hµ, Xi := limn%∞ hµ, Xi. Dies ist
unabhängig von der approximierenden Folge (Xn )n∈N von X (Übung)).
Insbesondere gilt |hµ, Xi| ≤ kXk∞ kµkVar für alle X ∈ L∞ .
Ist µ ein endlich additives Maß (µ(A) ≥ 0 für alle A ∈ F), so schreibt man auch
Z
X d µ := hµ, Xi für X ∈ L∞ .
Satz 2.25. Die Abbildung
T : ba → (L∞ )∗ , T (µ)(X) = hµ, Xi,
ist ein isometrischer Isomorphismus des Banachraums (ba, k · kVar ) nach ((L∞ )∗ , ||| · |||), d.h.
(L∞ )∗ ∼
= ba.
Bemerkung.
• Der Dualraum V ∗ eines normierten Raumes (V, k · k) ist mit der Operatornorm
||| · ||| immer ein Banachraum. (d.h. vollständig). Das liegt an der Vollständigkeit von
R (Wiederholung aus der Funktionalanalysis Vorlesung, Übung).
• (ba, k · kVar ) ist ein normierter Raum (Übung). Aus der isometrischen Isomorphie von
ba und (L∞ )∗ (Satz 2.25) und der ersten Bemerkung folgt nun die Vollständigkeit von
(ba, k · kVar ), d.h. es ist ein Banachraum.
Beweis von Satz 2.25. Die Wohldefiniertheit von T folgt aus der Konstruktion von hµ, ·i. T ist
eine Isometrie, denn es gilt einerseits |hµ, Xi| ≤ kµkVar für alle X ∈ L∞ mit
kXk∞ = 1 (s.o.)
und andererseits für jede Folge von paarweise disjunkten Zerlegungen An1 , ..., Anm(n)
n∈N
26
von Ω mit
m(n)
P
i=1
m(n)
P
i=1
n%∞
|µ(Ani )| −→ kµkVar , dass Xn =
n%∞
m(n)
P
i=1
sgn (µ(Ani )) 1Ani ∈ L∞ und |hµ, Xn i| =
|µ(Ani )| −→ kµkVar . Also |||T (µ)||| = kµkVar .
Für den Beweis der Surjektivität von T sei l ∈ (L∞ )∗ . Dann ist µ(A) := l(1A ), A ∈ F, ein
endlich additives signiertes Maß mit P(A) = 0 ⇒ µ(A) = 0.
Da l stetig ist, gilt |||l||| < ∞ und wie oben folgt, dass
( n
)
X
kµkVar = sup
l(1Ai ) : A1 , ..., An ∈ F, Ai ∩ Aj = ∅ für i 6= j, n ∈ N
i=1
=
sup
kXk∞ =1
|l(X)| = |||l||| < ∞.
Also ist µ ∈ ba. Aus der Linearität von hµ, ·i und l folgt wiederum, dass ∀X ∈ E =
{einfache ZV’en}:
hµ, Xi = l(X).
Da E ⊂ L∞ dicht ist und sowohl X 7→ hµ, Xi als auch l stetig sind, folgt
l(X) = hµ, Xi für alle X ∈ L∞ .
Bemerkung.
• Für p, q ∈ (1, ∞) mit
1
p
+
1
q
= 1 ist das duale Paar hLp , Lq i reflexiv, d.h.
(Lp , k · kp )∗ ∼
= Lq und (Lq , k · kq )∗ ∼
= Lp
• hL1 , L∞ i ist nicht reflexiv (Sätze 2.23 und 2.25).
27
(Satz 2.23).
3
Anwendung auf konvexe Risikomaße
Seien p, q ∈ [1, ∞] mit
Korollar 2.18 gilt:
1
p
+
1
q
= 1 und sei f : Lp → (−∞, ∞] eine konvexe Funktion. Laut
f ist k · kp -uhs ⇐⇒f ist σ(Lp , Lq )-uhs, falls p < ∞
bzw. σ(L∞ , ba)-uhs, falls p = ∞.
Lemma 3.1. Seien p, q ∈ [1, ∞] mit p1 + 1q = 1 und sei f : Lp → (−∞, ∞] eine konvexe uhs
(bzgl. k · kp ) Funktion mit 0 ∈ dom f := {X ∈ Lp : f (X) < ∞}.
i) f ist antiton (d.h. X ≥ Y ⇒ f (X) ≤ f (Y )) genau dann, wenn
f (X) = sup E[ZX] − f ∗ (Z), X ∈ Lp , bzw.
p<∞:
Z∈Lq−
p=∞:
f (X) = sup hµ, Xi − f ∗ (µ), X ∈ L∞ ,
µ∈ba−
wobei Lq− := {Z ∈ Lq : Z ≤ 0} bzw. ba− := {µ ∈ ba : ∀X ∈ L∞
+ : hµ, Xi ≤ 0}.
ii) f ist monoton (d.h. X ≥ Y ⇒ f (X) ≥ f (Y )) genau dann, wenn
p<∞:
f (X) = sup E[ZX] − f ∗ (Z), X ∈ Lp , bzw.
Z∈Lq+
p=∞:
f (X) = sup hµ, Xi − f ∗ (µ), X ∈ L∞ ,
µ∈ba+
wobei Lq+ := {Z ∈ Lq : Z ≥ 0} bzw. ba+ := {µ ∈ ba : ∀X ∈ L∞
+ : hµ, Xi ≥ 0}.
Beweis. i) Sei p = ∞:
Angenommen f (X) = sup (hµ, Xi − f ∗ (µ)). Seien X, Y ∈ L∞ mit X ≥ Y . Dann gilt:
µ∈ba−
f (X) = sup hµ, X − Y i +hµ, Y i − f ∗ (µ)
{z }
µ∈ba− |
≤0, da µ∈ba−
≤ sup hµ, Y i − f ∗ (µ) = f (Y ).
µ∈ba−
D.h. f ist antiton.
Ist f antiton und sei µ ∈ ba und X ∈ L∞
+ mit hµ, Xi > 0. Dann ist
f ∗ (µ) = sup hµ, Xi − f (X) ≥ sup thµ, Xi − f (tX)
| {z }
t≥0
X∈L∞
≤0
≥ sup t hµ, Xi −f (0) = ∞.
t>0 | {z }
>0
Mit Satz 2.21 folgt, dass
f (X) = f ∗∗ (X) = sup hµ, Xi − f ∗ (µ) = sup hµ, Xi − f ∗ (µ),
µ∈ba
µ∈ba−
denn f ∗ (µ) = ∞ für alle µ ∈ ba \ ba− .
Analog zeigt man die Behauptung für p < ∞ und den Fall 2 (Übung).
28
Lemma 3.2. Seien p, q, r ∈ [1, ∞] mit p1 + 1q = 1, r ≥ q und sei f : Lp → (−∞, ∞] eine
konvexe σ(Lp , Lr )-uhs Funktion mit 0 ∈ dom f .
i) f ist antiton genau dann, wenn
f (X) = sup E[ZX] − f ∗ (Z), X ∈ Lp ,
Z∈Lr−
∗
r
wobei f (Z) = sup E[ZX] − f (X), Z ∈ L .
X∈Lp
ii) f ist monoton genau dann, wenn
f (X) = sup E[ZX] − f ∗ (Z), X ∈ Lp .
Z∈Lr+
Beweis. Wie für das Lemma 3.1.
Lemma 3.3. Seien p, q, r ∈ [1, ∞] mit
konvexe Funktion mit 0 ∈ dom f .
1
p
+
1
q
= 1, r ≥ q und sei f : Lp → (−∞, ∞] eine
i) Ist f k · kp -uhs, so ist f cash-additiv (∀X ∈ Lp , m ∈ R : f (X + m) = f (X) − m) genau
dann, wenn
p<∞:
f (X) = sup E[ZX] − f ∗ (Z), X ∈ Lp ,
Z∈Lq
E[Z]=−1
p=∞:
f (X) =
sup hµ, Xi − f ∗ (µ), X ∈ L∞ .
µ∈ba
hµ,1i=−1
ii) Ist f σ(Lp , Lr )-uhs, so ist f cash-additiv genau dann, wenn
f (X) =
sup
Z∈Lr
E[ZX] − f ∗ (Z), X ∈ Lp .
E[Z]=−1
(Analog haben Funktionen mit f (X + m) = f (X) + m eine Darstellung über Z ∈ Lr mit
E[Z] = 1 bzw. µ ∈ ba mit hµ, 1i = 1 (Übung).)
Beweis. i) Sei p = ∞:
Ist f (X) = sup hµ, Xi − f ∗ (µ), so gilt:
µ∈ba
hµ,1i=−1
f (X + m) =
sup hµ, Xi − f ∗ (µ) + m hµ, 1i
| {z }
µ∈ba
hµ,1i=−1
=−1
= f (X) − m.
29
Ist umgekehrt f cash-additiv, so gilt für alle µ ∈ ba mit hµ, 1i =
6 −1:
f ∗ (µ) = sup hµ, Xi − f (X) ≥ sup hµ, mi − f (m)
| {z }
X∈L∞
m∈R
=f (0)−m
= sup m hµ, 1i + 1 − f (0) = ∞.
| {z }
m∈R
6=0
Die anderen Fälle folgen analog (Übung).
Bemerke die Universalität der verwendeten Argumente in den Lemmata 3.1-3.3.
Satz 3.4. Eine Abbildung ρ : L∞ → R ist ein konvexes Risikomaß genau dann, wenn
Z
(3.1)
ρ(X) = sup −X d µ −α(µ), X ∈ L∞ ,
µ∈C
| {z }
=hµ,−Xi
wobei ∅ =
6 C ⊂ M1,f := {µ ∈ ba+ : hµ, 1i = 1} = {endliche additive W-maße absolutstetig zu P}
und α : C → R mit inf µ∈C α(µ). Insbesondere kann in (3.1) die konvexe Menge C = − dom ρ∗
und die konvexe Funktion α(µ) = αmin (µ) := ρ∗ (−µ), µ ∈ − dom ρ∗ , gewählt werden. αmin
ist die minimale Penaltyfunktion“, d.h. für jede Funktion α wie in (3.1) gilt α(µ) ≥ αmin (µ)
”
für alle µ ∈ C .
Beweis. ⇐“: Wie in den Lemmata 3.1-3.3 folgt, dass ρ wie in (3.1) definiert ein konvexes
”
Risikomaß ist (auch, wenn α nicht unbedingt die Duale von ρ ist).
⇒“: Sei ρ ein konvexes RM. Dann ist laut Lemma 3.1 und 3.3 (ρ ist k · k∞ -stetig also
”
insbesondere k · k∞ -uhs)
ρ(X) =
sup hµ, Xi − ρ∗ (µ) = sup h−µ, Xi − ρ∗ (−µ)
µ∈ba−
hµ,1i=−1
= sup
µ∈M1,f
Z
µ∈M1,f
∗
−X d µ − ρ (−µ) =
sup
−µ∈dom ρ∗
Z
−X d µ − αmin (µ).
Da ρ∗ konvex ist, ist C := − dom ρ∗ konvex und auch αmin : C → R.
Für die letzte Aussage des Satzes nehmen wir an, das konvexe RM ρ lasse sich durch α und
C wie in (3.1) darstellen. Dann gilt für jedes µ ∈ C :
αmin (µ) = ρ∗ (−µ) = sup −hµ, Xi − ρ(X)
X∈L∞
= sup −hµ, Xi − sup he
µ, −Xi − α(e
µ)
X∈L∞
µ
e=µ
≤
µ
e∈C
sup −hµ, Xi + hµ, Xi + α(µ)
X∈L∞
= α(µ).
30
Lemma 3.5. Sei ρ : L∞ → R ein konvexes RM. Dann ist für alle µ ∈ M1,f :
Z
αmin (µ) = sup
−X d µ,
X∈Aρ
wobei Aρ := {X ∈ L∞ : ρ(X) ≤ 0} die Akzeptanzmenge von ρ bezeichnet.
Beweis.
αmin (µ) = ρ∗ (−µ) = sup hµ, −Xi − ρ(X)
X∈L∞
= sup hµ, −(X + ρ(X))i = sup hµ, −Xi.
| {z }
X∈L∞
X∈Aρ
∈Aρ
Satz 3.6. Eine Abbildung ρ : L∞ → R ist ein kohärentes Risikomaß genau dann, wenn
Z
ρ(X) = sup −X d µ, X ∈ L∞ ,
(3.2)
µ∈C
wobei ∅ =
6 C ⊂ M1,f . Ist ρ ein kohärentes RM, so kann in der Darstellung (3.2) immer die
konvexe und abgeschlossene Menge C = − dom ρ∗ gewählt werden.
Beweis. Offensichtlich ist ρ wie in (3.2) definiert ein kohärentes RM. Sei nun ρ ein kohärentes
RM, dann ist es insbesondere ein konvexes RM und somit gilt nach Satz 3.4
ρ(X) =
sup hµ, −Xi − αmin (µ).
µ∈dom ρ∗
Nun ist Aρ ein Kegel und mit Lemma 3.5 folgt, dass
t>0
αmin (µ) = sup hµ, −Xi = sup hµ, −tXi = tαmin (µ)
X∈Aρ
X∈Aρ
für jedes µ ∈ M1 und jedes t > 0. Also ist αmin (µ) = {0, ∞}. Nun ist
C := {µ ∈ M1,f : αmin (µ) = 0} = − {µ ∈ ba : ρ∗ (µ) ≤ 0} = − dom ρ∗
|
{z
}
Niveaumenge von ρ∗
konvex und abgeschlossen.
Beispiel.
ρ(X) = sup
µ∈M1,f
Z
−X d µ = − essinf X.
31
Bemerkung. Problematischer Dualraum ba“
”
Erinnerung:
µ ∈ M1,f ist σ-additiv ⇐⇒ Für alle An & ∅ gilt: µ(An ) & 0
T
(An & ∅ : (An )n∈N ⊂ F, µ(An ) > 0, An ⊃ An+1 , n An = ∅) .
D.h. ist µ ∈ M1,f nicht σ-additiv, so gibt es An & ∅ mit lim µ(An ) = ε > 0.
n%∞
Sind solche singulären µ als Preisregel sinnvoll? Wann lässt sich ein konvexes RM ρ : L∞ → R
über W-maße darstellen?
Satz 3.7. Sei ρ : L∞ → R ein konvexes Risikomaß. Es gibt eine Darstellung
ρ(X) = sup EQ [−X] − α(Q), X ∈ L∞ ,
(3.3)
Q∈C
von ρ über W-maße aus C ⊂ M1 := {W-maße Q über (Ω, F) mit Q P} mit α : C → R
genau dann, wenn ρ σ(L∞ , L1 )-uhs ist, welches wiederum äquivalent zur Abgeschlossenheit
von Aρ in σ(L∞ , L1 ) ist. Ist ρ σ(L∞ , L1 )-uhs, so kann in der Darstellung (3.3)
dQ
dQ
∗
∗
C = Q ∈ M1 : −
∈ dom ρ
und α(Q) = αmin (Q) = ρ −
dP
dP
gewählt werden. Für jedes C und α wie in (3.3) gilt
α(Q) ≥ αmin (Q) für alle Q ∈ C .
Beweis. ρ wie in (3.3) ist offensichtlich ein konvexes RM. Außerdem ist ρ σ(L∞ , L1 )-uhs. (?)
Die umgekehrte Richtung folgt wie im Beweis von Satz 3.4. Ist ρ σ(L∞ , L1 )-uhs, so ist Aρ =
E0 = {X : ρ(X) ≤ 0} abgeschlossen. Ist umgekehrt Aρ abgeschlossen, dann ist auch
Ek = {X ∈ L∞ : ρ(X) ≤ k} = {X ∈ L∞ : ρ(X + k) ≤ 0}
= E0 − k = Aρ − k
abgeschlossen, k ∈ R.
Also ist ρ σ(L∞ , L1 )-uhs. Der Rest folgt analog zum Beweis von Satz 3.4.
Bemerkung.
• Die zu Satz 3.6 analoge Version von Satz 3.7 im kohärenten Fall gilt natürlich auch.
• Problematische Topologie σ(L∞ , L1 ), da sie nicht der schwachen Topologie σ(L∞ , ba)
entspricht und somit die konvexen abgeschlossenen Mengen in der Normtopologie nicht
unbedingt in σ(L∞ , L1 ) abgeschlossen sein müssen.
Überprüfung der Abgeschlossenheit auch nicht trivial (a priori: Netze statt Folgen),
jedoch gibt es glücklicherweise folgende Charakterisierung:
Satz 3.8. Sei ρ : L∞ → R ein konvexes Risikomaß. Folgende Eigenschaften sind äquivalent:
i) Aρ ist σ(L∞ , L1 )-abgeschlossen
32
ii) ρ ist stetig von oben“, d.h. falls Xn & X P-f.s., dann folgt ρ(Xn ) % ρ(X). (Nicht zu
”
verwechseln mit oberhalbstetig)
P-f.s.
iii) ρ hat die Fatou-Eigenschaft: Für jede beschränkte Folge (Xn )n∈N ⊂ L∞ mit Xn −→
X ∈ L∞ gilt
ρ(X) ≤ lim inf ρ(Xn ).
n%∞
Beweis. i) ⇒ ii):
Sei Xn & X. Mit Satz 3.7 gilt:
ρ(X) = sup (EQ [−X] − α(Q)) , C ⊂ M1
Q∈C
= sup lim inf EQ [−Xn ] − α(Q) (maj. Konvergenz X ≤ Xn ≤ X1 )
Q∈C n%∞
≤ lim inf sup EQ [−Xn ] − α(Q)
n%∞ Q∈C
= lim inf ρ(Xn )
Monotonie, da Xn ≥X
≤
n%∞
ρ(X)
⇒ ρ(Xn ) % ρ(X).
ii) ⇒ iii):
Sei (Xn )n∈N ⊂ L∞ beschränkt mit Xn → X ∈ L∞ P-f.s. Dann ist Yn := sup Xm ∈ L∞ und
m≥n
es gilt Yn & X. Mit ii) folgt nun, dass
ρ(X) = lim ρ(Yn )
Monotonie
≤
n%∞
lim inf ρ(Xn ).
n%∞
iii) ⇒ ii):
Falls Xn & X P-f.s., so ist X ≤ Xn ≤ X1 , also ist (Xn )n∈N beschränkt und daher
lim inf ρ(Xn )
n%∞
Monotonie
≤
iii)
ρ(X) ≤ lim inf ρ(Xn )
n%∞
⇒ ρ(X) = lim ρ(Xn ).
n%∞
iii) ⇒ i):
Hierzu benötigen wir den
Satz von Krein-Šmulian:
Sei B ein Banachraum und sei C ⊂ B ∗ konvex. Dann ist C σ(B ∗ , B)-abgeschlossen genau
dann, wenn
C ∩ {x∗ ∈ B ∗ : |||x∗ ||| ≤ r}
σ(B ∗ , B)-abgeschlossen ist für alle r > 0.
D.h. um zu zeigen, dass Aρ σ(L∞ , L1 )-abgeschlossen ist, genügt es zu zeigen, dass
Cr := Aρ ∩ {X ∈ L∞ : kXk∞ ≤ r}
abgeschlossen ist in (L1 , k · k1 ) (!). Denn:
33
• B = (L1 , k · k1 ), B ∗ = (L∞ , k · k∞ ), Aρ ⊂ L∞ ist konvex, also ist
Aρ σ(L∞ , L1 )-abgeschlossen ⇐⇒ Cr ist σ(L∞ , L1 )-abgeschlossen für alle r > 0.
• Die Inklusion
L∞ , σ(L∞ , L1 ) ,→ L1 , σ(L1 , L∞ )
ist stetig, denn
Xα
σ(L∞ ,L1 )
−→
X ⇐⇒ E[Xα Z] → E[XZ] für alle Z ∈ L1
⇒ E[Xα Z] → E[XZ] für alle Z ∈ L∞ ⊂ L1
⇐⇒ Xα
σ(L1 ,L∞ )
−→
X (als Netz in L1 ).
Also: Cr in (L1 , k · k1 ) abgeschlossen für alle r > 0 ⇐⇒ Cr ist σ(L1 , L∞ ) abgeschlossen
für alle r > 0 (da Cr konvex ist und konvexe, abgeschlossene Mengen in der Norm und
in der schwachen Topologie identisch sind).
⇒ Cr ist abgeschlossen in L∞ , σ(L∞ , L1 ) für alle r > 0 (Stetigkeit der Inklusion).
⇐⇒ Aρ ist σ(L∞ , L1 )-abgeschlossen (Krein-Šmulian).
Zur Abgeschlossenheit von Cr in (L1 , k · k1 ):
k·k1
P-f.s.
Sei (Xn )n∈N ⊂ Cr mit Xn −→ X(∈ L1 ). O.E. auch Xn −→ X (ansonsten gehe zu einer
Teilfolge über).
Außerdem ist |X| = limn%∞ |Xn | ≤ r (P-f.s.), also kXk∞ ≤ r, d.h. X ∈ Cr . Mit iii) folgt
ρ(X) ≤ lim inf n%∞ ρ(Xn ) ≤ 0, also X ∈ Aρ . Folglich ist Cr abgeschlossen in (L1 , k · k1 ).
Zum Beweis des Satzes von Krein-Šmulian.
• Satz von Banach-Alaoglu:
Ist (V, k · k) ein normierter Raum, so ist
Kr := {x∗ ∈ V ∗ : |||x∗ ||| ≤ r} , r > 0, σ(V ∗ , V )-kompakt.
• Definiere eine Topologie τ auf B ∗ mit σ(B ∗ , B) ⊂ τ (d.h. alle offenen bzw. alle σ(B ∗ , B)abgeschlossenen Mengen sind auch in τ offen bzw. abgeschlossen) und ist A ⊂ B, so
dass A ∩ {x∗ ∈ B ∗ : |||x∗ ||| ≤ r} abgeschlossen ist für alle r > 0 in σ(B ∗ , B), dann ist
A abgeschlossen in τ . (Das ist sinnvoll wegen des ersten Punktes).
• Zeige, dass die linearen stetigen Funktionale beider Topologien auf B ∗ übereinstimmen,
d.h.
(B ∗ , τ )∗ = (B ∗ , σ(B ∗ , B))∗ (∼
= B) .
Lemma 2.17
,→
(A ⊂ B ∗ ist konvex und τ -abgeschlossen ⇐⇒ A ⊂ B ∗ ist konvex und
∗
σ(B , B)-abgeschlossen).
34
Die Situation auf Lp , p ∈ [1, ∞).
Beispiel. Sei ρ(X) = E[−X] + δ(X − |L∞ ), X ∈ Lp ,
wobei X − := −(X ∧ 0) und für eine Menge C ⊂ Lp :
(
0
, falls X ∈ C
δ(X|C ) :=
(konvexanalytische Indikatorfunktion)
∞
, sonst
[Übung: Sei f (X) = δ(X|C ). Berechne f ∗ ]
ρ ist cash-additiv, monoton (antiton), konvex, positiv homogen
,→ ρ ist ein kohärentes Risikomaß auf Lp (, welches den Wert ∞ annimmt).
Aber: ρ ist nicht uhs auf (Lp , k · kp ), denn
Aρ = {X ∈ Lp : E[X] ≥ 0} % Aρ .
(Übung)
,→ Keine duale Darstellung, es sei denn uhs wird gefordert.
Satz 3.9. Sei ρ : Lp → (−∞, ∞] ein konvexes Risikomaß, welches k · kp -uhs ist (bzw.
äquivalent dazu: Aρ ist abgeschlossen in der k · kp -Topologie). Dann ist
ρ(X) =
sup
Z∈Lq−
E[Z]=−1
wobei M1p := {Q ∈ M1 :
E[ZX] − ρ∗ (Z) = sup EQ [−X] − αmin (Q),
Q∈M1p
∈ Lq } und α : M1p → (−∞, ∞] mit
dQ
∗
αmin (Q) = ρ −
= sup EQ [−X].
dP
X∈Aρ
dQ
dP
p
. Die dem Satz 3.4 entsprechende Umkehrung und die Minimalitätseigenschaft
Hierbei ist q = p−1
von αmin gelten auch, sowie eine dem Satz 3.6 entsprechende Version für kohärente k · kp -uhs
RM.
Beweis. Übung:
Wann ist die affine Minorante eine Tangente“?
”
Subdifferenzierbarkeit: Sei hX, X 0 i ein duales Paar und f : X → (−∞, ∞] eine konvexe
Funktion. Der Subgradient von f an der Stelle x ∈ dom f (= {x ∈ X : f (x) < ∞}) ist
∂f (x) := x0 ∈ X 0 |∀x ∈ X : f (x) ≥ f (x) − hx − x, x0 i
= x0 ∈ X 0 |f (x) + f ∗ (x0 ) = hx, x0 i
[Beweis der letzten Gleichung:
∀x ∈ X f (x) ≥ f (x) − hx − x, x0 i ⇐⇒ hx, x0 i − f (x) ≥ f ∗ (x0 ) ⇐⇒ f ∗ (x0 ) = hx, x0 i − f (x)]
|
{z
}
≤f ∗ (x0 )
35
f (x)
b
b
f (x)
hx − x, x′ i + f (x)
b
x
x
Abbildung 3.1: Illustration zur Definition des Subgradienten
/ dom f ist ∂f (x) = ∅.
und für x ∈
Analog wird der Subgradient einer konvexen Funktion f 0 : X 0 → (−∞, ∞] definiert, d.h.
∂f 0 (x0 ) := x ∈ X|∀x0 ∈ X 0 : f 0 (x0 ) ≥ f (x0 ) − hx0 − x0 , xi
= x ∈ X|f 0 (x0 ) + f 0∗ (x) = hx0 , xi
Insbesondere: Ist f = f ∗∗ , so folgt x0 ∈ ∂f (x) ⇐⇒ x ∈ ∂f ∗ (x0 ).
Bemerkung. ∂f (x) = ∅ ist möglich und häufig der Fall!
Satz 3.10. Sei f : X → (−∞, ∞] konvex. Außerdem sei f stetig bei x ∈ dom f . Dann gilt
∂f (x) 6= ∅.
Beweis. Da f bei x stetig ist, existiert eine offene Umgebung O ⊂ σ(X, X 0 ) um x mit
f (O) ⊆ (f (x) − ε, f (x) + ε) für irgendein ε > 0.
Dann ist
O × (f (x) + ε, ∞) ⊂ epi f.
|
{z
}
offen in X×R
D.h. die konvexe Menge epi f erfüllt int(epi f ) 6= ∅. Sei V := {(x, y) : y < f (x)} ⊂ X × R.
Dann ist V konvex, V ∩ epi f = ∅. Also können wir V und epi f durch ein lineares stetiges
Funktional (x0 , α) ∈ X × R schwach trennen:
sup hx, x0 i + αy ≤
y<f (x)
inf
(x,a)∈epi f
hx, x0 i + αa
(3.4)
mit hx, x0 i + αŷ < hx, x0 i + αa für mindestens ein (x, ŷ) ∈ V und (x, a) ∈ epi f . Da (x, a) 7→
hx, x0 i + αa stetig ist, folgt auch
hx, x0 i + αf (x) ≤
inf
(x,a)∈epi f
36
hx, x0 i + αa.
(3.5)
Trennendes Funktional von V und epif
f (x) + ε
f (x)
b
f (x)
V = {(x, y) : y < f (x)}
O
x
(a) Illustration der Menge O × (f (x) + ε, ∞)
(b) Illustration der Beweisidee von Satz 3.10
Sei (x, k) ∈ int epi f . Dann gibt es ein δ > 0 und eine endliche Menge F ⊂ X 0 derart, dass
{(x, k)} +
(Uδ,F × (−δ, δ))
|
{z
}
⊂ epi f.
offen, konvex, symmetrisch, absorbierend
Sei nun z ∈ Uδ,F , dann ist ±z, 2δ ∈ Uδ,F × (−δ, δ) und laut (3.5):
δ
δ
0
0
0
hx, x i + αf (x) ≤ hx ± z, x i + α k +
⇐⇒ ∓hz, x i ≤ α k − f (x) +
2
2
(3.6)
Angenommen x0 6= 0. Wähle das z ∈ Uδ,F so, dass hz, x0 i =
6 0 (so ein z muss existieren, da
Uδ,F absorbierend ist und hx0 , zi = 0 für alle z ∈ Uδ,F somit x0 = 0 implizieren würde). Dann
impliziert (3.6), dass α 6= 0 und sogar α > 0, denn k − f (x) + 2δ > 0.
Ist x0 = 0, so ist α 6= 0, da (x0 , α) nicht trivial sein kann (siehe (3.4)) und aus (3.5) folgt
αf (x) ≤ inf αa, d.h. wiederum α > 0.
a≥f (x)
Folglich können wir (3.5) umschreiben:
hx,
x0
x0
i + f (x) ≤
inf hx, i + a
α
α
(x,a)∈epi f
und insbesondere für alle x ∈ dom f :
hx,
x0
x0
i + f (x) ≤ hx, i + f (x)
α
α
f (x) ≥ f (x) + hx − x,
bzw.
x0
i
α
0
D.h. − xα ∈ ∂f (x).
Korollar 3.11. Sei ρ : (L∞ , k · k∞ ) → R ein konvexes Risikomaß. Dann ist ∂ρ(X) 6= ∅ für
alle X ∈ L∞ . D.h. insbesondere ist
Z
−X d µ − αmin (µ), X ∈ L∞ .
ρ(X) = max
µ∈M1,f
37
Beweis. ρ ist laut Lemma 1.2 stetig. Wende Satz 3.10 an.
Bemerkung. Hat ρ die Fatou-Eigenschaft, d.h. ρ ist σ(L∞ , L1 )-unterhalbstetig, dann ist
nicht automatisch klar, dass ∂ρ(X) 6= ∅ (in σ(L∞ , L1 )) für alle X ∈ L∞ , da ρ nicht notwendigerweise σ(L∞ , L1 )-stetig ist.
Beispiel. ρworst (X) := − essinf X, X ∈ L∞ . ρworst ist ein kohärentes Risikomaß auf L∞ ,
welches die Fatou-Eigenschaft besitzt. Laut Korollar 3.11, sowie Satz 3.8 (und Satz 3.7) gilt
Z
in σ(L∞ ,ba)
in σ(L∞ ,L1 )
ρworst (X)
=
max
−X d µ
=
sup EQ [−X], X ∈ L∞ .
µ∈M1,f
Q∈M1
• Ist X so, dass P(X
X}) > 0. Dann ist QX mit
| = essinf
{z
d QX
dP
=
1A X
P(AX )
ein Wahrschein-
=:AX
lichkeitsmaß, QX P, also ist QX ∈ M1 und EQX [−X] = − essinf X = ρworst (X).
⇒ −QX ∈ ∂ρ(X).
• Ist X so, dass P(X = essinf X) = 0, dann ist ∂ρ(X) 6= ∅ in σ(L∞ , ba), d.h. es existiert
ein µ ∈ M1,f mit
Z
−X d µ = ρworst .
(3.7)
∞
1
Aber: ∂ρ(X) = ∅ in σ(L
D.h. das µ in (3.7) muss singulär sein, es
, L ) (siehe oben).
1
gilt nämlich für An := X < essinf X + n , dass lim µ(An ) > 0.
n%∞
Hinreichend für eine Darstellung des konvexen RM ρ : L∞ → R als Maximum über
W-maße ist die Stetigkeit von unten“, d.h.
”
Xn % X ⇒ ρ(Xn ) & ρ(X).
Lemma 3.12. Sei das konvexe RM ρ : L∞ → R stetig von unten. Dann ist für alle X ∈ L∞ :
∂ 1 ρ(X) = Z ∈ L1 : ρ(X) ≥ ρ(X) − E[Z(X − X)] 6= ∅
(Subgradient in hL∞ , L1 i). Insbesondere gilt
ρ(X) = max EQ [−X] − αmin (Q), X ∈ L∞ .
Q∈M1
Beweis. Sei µ ∈ M1,f \M1 und sei An & ∅ mit limn%∞ µ(An ) =: ε > 0 (so eine Folge
(An )n∈N ⊂ F muss es geben, da µ ansonsten σ-additiv wäre). Dann gilt für jedes t > 0:
Z
Z
∗
αmin (µ) = ρ (−µ) = sup
−X d µ − ρ(X) ≥ sup t1An d µ −ρ(−t1An )
X∈L∞
n∈N
| {z }
=tµ(An )≥tε
n groß genug
≥
tε − ρ(0) − δ, für ein δ > 0.
⇒ αmin (µ) = ∞. Nun folgt die Behauptung aus Korollar 3.11.
38
Beispiel. ρworst (X) = − essinf X. Sei An & ∅, also 1An % 0, aber ρworst (−1An ) = − essinf −1An =
1 > ρworst (0) = 0.
In der Tat ist die Stetigkeit von unten“ zumindest schwächer als die σ(L∞ , L1 )-Stetigkeit
”
von ρ, welche laut Satz 3.10 insbesondere eine Darstellung wie in Lemma 3.12 implizieren
würde. Denn:
Satz 3.13. Sei ρ : L∞ → R ein konvexes Risikomaß. Betrachte folgende Eigenschaften:
i) ρ ist σ(L∞ , L1 )-stetig.
ii) ρ ist stetig von unten.
iii) dom αmin ⊆ M1 (, wobei αmin : M1,f → (−∞, ∞] mit αmin (µ) = ρ∗ (−µ), d.h. αmin in
der hL∞ , bai-Dualität)
iv) ρ hat die Lebesgue-Eigenschaft, d.h. für jede beschränkte Folge (Xn )n∈N ⊂ L∞ mit
P-f.s.
n%∞
Xn −→ X ∈ L∞ gilt ρ(Xn ) −→ ρ(X).
v) ρ ist σ(L∞ , L1 )-uhs ( stetig von oben“).
”
Dann gilt: i) ⇒ ii) ⇐⇒ iii) ⇐⇒ iv) ⇒ v).
σ(L∞ ,L1 )
Beweis. i) ⇒ ii): Xn % X =⇒ Xn −→ X.
ii) ⇒ iii): Siehe Beweis von Lemma 3.12.
ii) ⇒ v):
Zunächst impliziert die Stetigkeit von unten nach Lemma 3.12 und Satz 3.8 die Stetigkeit
von oben, d.h. die σ(L∞ , L1 )-uhs von ρ.
ii) ⇒ iv):
P-f.s.
Sei (Xn )n∈N ⊂ L∞ beschränkt mit Xn −→ X. Da ρ σ(L∞ , L1 )-uhs ist, gilt ρ(X) ≤ lim inf ρ(Xn )
n%∞
(Satz 3.8 iii)).
Andererseits ist Yn := inf Xm ≤ X mit Yn % X. Also ρ(Yn ) & ρ(X), wegen der Stetigkeit
m≥n
von unten. D.h.
ρ(X) = lim sup ρ(Yn )
Monotonie
≥
n%∞
lim sup ρ(Xn ).
n%∞
iv) ⇒ ii):
Sei (Xn )n∈N ⊂ L∞ mit Xn % X ∈ L∞ . Dann ist X1 ≤ Xn ≤ X, also (Xn )n∈N beschränkt
und somit gilt laut iv) ρ(Xn ) → ρ(X), wobei die Monotonie impliziert, dass in der Tat
ρ(Xn ) & ρ(X).
ii) ⇒ iii): Wiederhole den Beweis von Lemma 3.12.
iii) ⇒ ii):
Sei Xn % X ∈ L∞ . Bemerke, dass für ε > 0:
Z
ρ(Xn ) < −Xn d µ − αmin (µ) + ε
39
⇐⇒ αmin (µ) <
D.h. für alle n ∈ N ist:
Z
−Xn d µ − ρ(Xn ) + ε ≤ kX1 k∞ ∨ kXk∞ − ρ(X) + ε =: c
ρ(Xn ) = max
µ∈Ec
Z
−Xn d µ − αmin (µ), wobei
Ec := {µ ∈ M1 : αmin (µ) ≤ c} = {µ ∈ ba : ρ∗ (−µ) ≤ c} = − {µ ∈ ba : ρ∗ (µ) ≤ c}
und analog auch
ρ(X) = max
µ∈Ec
Zeige:
Z
−Xn d µ →
Z
Z
−X d µ
⇒ lim ρ(Xn ) = lim max
n%∞
−X d µ − αmin (µ).
n%∞ µ∈Ec
Z
= max lim
µ∈Ec n%∞
|R
Z
gleichmäßig auf Ec
(3.8)
−Xn d µ − αmin (µ)
−Xn d µ −αmin (µ) = ρ(X)
{z
}
= −X d µ, da µ∈M1
und wegen der Monotonie: ρ(Xn ) & ρ(X).
Zu (3.8): Fakt: B1 := {µ ∈ ba : kµkVar ≤ 1} ⊂ ba ist σ(ba, L∞ ) kompakt nach dem Satz von
Banach-Alaoglu (siehe später/unten). Ist µ ∈ M1,f , dann gilt:
kµkVar = |||hµ, ·i||| =
sup
kXk∞ =1
|hµ, Xi| ≤ kXk∞ hµ, Xi = 1
| {z } | {z }
=1
=1
uns somit kµkVar = 1, (denn k1k∞ = 1). Also ist M1,f ⊂ B1 . Damit ist auch die abgeschlossene Menge Ec ⊆ M1,f ⊆ B1 σ(ba, L∞ )-kompakt(, denn Ec ist eine Niveaumenge der
σ(ba, L∞ )-uhs Abbildung ρ∗ (−·) (s.o.)).
Nun ist andererseits Ec ⊂ M1 und für jedes ε > 0 erfüllen die abgeschlossenen Mengen
ε
die Eigenschaften Kn+1
Knε := {Q ∈ Ec : EQ [Xn ] ≤ EQ [X] − ε}
T ε
Kn = ∅ (majorisierte Konvergenz). Aus der Kom⊂ Knε und
n∈N
paktheit von Ec folgt, dass es ein n0 ∈ N geben muss mit Knε 0 = ∅ (endliche ∩-Eigenschaft).
Damit ist (3.8) gezeigt. (Dini’s Lemma).
Satz 3.14 (Banach-Alaoglu).
Sei (V, k · k) ein normierter Raum. Dann ist
BV ∗ := {l ∈ V ∗ : |||l||| ≤ 1}
40
σ(V ∗ , V )-kompakt.
Beweis. Betrachte die Abbildung
φ : (V ∗ , σ(V, V ∗ )) → RV , τp , l 7→ (l(v))v∈V ,
wobei τp die Topologie der punktweisen Konvergenz auf RV bezeichnet. φ ist injektiv und
φ−1 : φ (V ∗ ) → V ∗ , (l(v))v∈V 7→ l
ist stetig bzgl. τp (σ(V ∗ , V ) ist die Topologie der punktweisen Konvergenz li
li (v) → l(v), ∀v ∈ V ).
Für v ∈ V betrachte
n
o h
i
Kv := λ ∈ R : |λ| ≤ kvk = − kvk, kvk .
σ(V ∗ ,V )
−→
l ⇐⇒
Kv ist kompakt, also ist auch
K :=
Y
v∈V
Kv = f ∈ RV : fv ∈ Kv , ∀v ∈ V
kompakt in RV (Satz von Tichonov).
Da für alle l ∈ BV ∗ gilt: |l(v)| ≤ |||l||| · kvk ≤ kvk für alle v ∈ V , folgt, dass φ(BV ∗ ) ⊂ K.
Es bleibt zu zeigen, dass φ(BV ∗ ) abgeschlossen ist, denn dann ist φ(BV ∗ ) als abgeschlossene
Teilmenge der kompakten Menge K selbst kompakt und BV ∗ = φ−1 (φ(BV ∗ )) als Bild einer
kompakten Menge unter einer stetigen Abbildung wiederum kompakt in (V ∗ , σ(V ∗ , V )).
τp
Sei hierzu (fi )i∈I ⊂ φ(BV ∗ ) ein Netz mit fi → f ∈ Rv . Dann ist l : V → R mit l(v) = fv , eine
lineare Abbildung von V nach R (Übung!). Außerdem gilt für alle v ∈ V mit kvk = 1, dass
|l(v)| = lim |(fi )v | ≤ 1 ⇒ |||l||| ≤ 1.
i
D.h. l ist eine stetige lineare Abbildung auf V mit l ∈ BV ∗ bzw. f ∈ φ(BV ∗ ). Folglich ist
φ(BV ∗ ) abgeschlossen.
Allgemeiner: Ist X ein lokalkonvexer Raum, so ist für jede Null-Umgebung U , die Polare
O̊ = {l ∈ X ∗ : |l(u)| ≤ 1 ∀u ∈ U } σ(X ∗ , X)-kompakt.
Um die Situation der Subdifferenzierbarkeit konvexer RM auf Lp , p ∈ [1, ∞), zu verstehen,
benötigen wir ein paar Hilfsresultate: Sei hierzu wieder hX, X 0 i ein duales Paar.
Lemma 3.15. Sei f : X → (−∞, ∞] eine konvexe Funktion und sei f von oben beschränkt
auf einer offenen Umgebung um den Punkt x ∈ X. Dann ist f stetig bei x.
Beweis. O.b.d.A. x = 0 und f (0) = 0. (denn fe(x) := f (x+x)−f (x) ist konvex mit fe(0) = 0.)
Sei U eine offene Umgebung um 0 derart, dass f (x) ≤ a < ∞ für alle x ∈ U . Sei W :=
U ∩ (−U ) (symmetrische 0-Umgebung) und sei ε ∈ (0, 1). Falls x ∈ ε · W , dann gilt:
x
x
x
∈ W ⊂ U ⇒ f (x) = f (1 − ε) · 0 + ε ·
≤ (1 − ε)f (0) + ε · f
≤ε·a
ε
ε
ε
41
und
−
x
1
ε x
∈ W ⇒ 0 = f (0) = f
x+
−
ε
1+ε
1+ε
ε
1
ε
x
1
ε
≤
f (x) +
f −
≤
f (x) +
a
1+ε
1+ε
ε
1+ε
1+ε
⇒ f (x) ≥ −ε · a
Also |f (x)| ≤ ε · a für alle x ∈ ε · W , woraus die Stetigkeit von f bei 0 folgt.
Satz 3.16. Sei f : X → (−∞, ∞] eine konvexe Funktion. Äquivalent sind:
i) Es gibt eine offene Menge U 6= ∅ auf der f von oben durch eine Konstante a ∈ R
beschränkt ist.
ii) int dom f 6= ∅ und f ist stetig bei x für jedes x ∈ int dom f .
Beweis. ii) ⇒ i):
Sei x ∈ int dom f und U eine offene Umgebung um x mit f (U ) ⊆ (−∞, f (x) + ε) für ein
| {z }
=:a
ε > 0 (Stetigkeit bei x). U und a erfüllen i).
i) ⇒ ii):
U ⊂ int dom f . Aus Lemma 3.15 folgt, dass f stetig ist bei jedem x ∈ U . Sei nun u ∈ int dom f
(beliebig). Wähle x ∈ U . Dann existiert δ > 1 derart, dass w := x + δ(u − x) ∈ int dom f .
Sei h : X → X mit h(y) := 1δ w + (1 − 1δ )y. Dann gilt
1
1
1
1
h(x) = w + 1 −
x = (x + δ(u − x)) + x − x = u
δ
δ
δ
δ
O := h(U ) ist offen (als Bild einer affinen Abbildung) mit u ∈ O. Zeige, dass f auf O von
oben beschränkt ist. Für jedes y ∈ O gilt:
f (y)
für ein z∈U
mit h(z)=y
=
1
1
1
1
f (h(z)) = f
w+ 1−
z ≤ f (w) + 1 −
f (z)
δ
δ
δ
δ
1
1
a =: e
a
≤ f (w) + 1 −
δ
δ
D.h. f ist auf O durch e
a von oben beschränkt und somit stetig bei u ∈ int dom f (Lemma
3.15).
Korollar 3.17. Sei (B, k · k) ein Banachraum und f : B → (−∞, ∞] konvex und uhs. Dann
ist f stetig bei jedem x ∈ int dom f und ∂f (x) 6= ∅ für jedes x ∈ int dom f . (int dom f = ∅ ist
möglich.)
Beweis. Ist int dom f = ∅, so ist nichts zu zeigen. Sei nun int dom f 6= ∅ und x ∈ int dom f .
O.b.d.A. x = 0. Sei a ∈ R mit f (0) < a. Dann ist C := {x ∈ B : f (x) ≤ a} abgeschlossen und
42
konvex, da f konvex und uhs ist. Außerdem ist C absorbierend, da für jedes x ∈ B f|R·{x}
stetig bei 0 ist. Denn sei t ∈ (0, 1) mit tx ∈ dom f mit
f (λx) ≤
λ
1−λ
1−λ
f (tx) +
f (0) ≤ |f (tx)| +
f (0) =: e
a, für alle λ ∈ (0, t).
t
t
t
D.h. f|R·{x} ist stetig bei 0 ∈ int dom f|R·{x} laut Satz 3.16. Betrachte W := C ∩ (−C ). Somit
ist W konvex, abgeschlossen, absorbierend und symmetrisch. Dann ist 0 ∈ int W (Betrachte
Wn := n · W . Dann folgt, dass
B=
[
Wn
Satz von Baire
=⇒
int Wn0 6= ∅ für ein n0 ∈ N
=⇒
int W 6= ∅
n∈N
=⇒
0 ∈ int W (Symmetrie und Konvexität von W ).)
Und somit ist f auf der offenen Umgebung int W um 0 beschränkt (durch a). Also folgt die
Behauptung aus Satz 3.16.
Bemerkung.
• Das obige Korollar gilt auch auf jedem lokalkonvexen Raum auf dem der Satz von Baire
Gültigkeit hat. (,→ allgemeiner: Barrelled space, espace tonné, tonnelierter Raum). Das
sind die lokalkonvexen Räume derart, dass jede konvexe, abgeschlossene, absorbierende,
symmetrische Menge W mit 0 ∈ W eine Null-Umgebung ist (0 ∈ int W ).
• Wir haben gesehen, dass ρworst (X) = − essinf X auf (L∞ , σ(L∞ , L1 )) nicht stetig ist,
da ∂ρworst (X) = ∅ für manche X ∈ L∞ (z.B. diejenigen, so dass P(X = essinf X) = 0),
(Satz 3.10). Andererseits ist ρworst σ(L∞ , L1 )-uhs (und auch konvex) mit int dom ρworst =
dom ρworst = L∞ .
Folglich kann (L∞ , σ(L∞ , L1 )) kein tonnelierter Raum sein, d.h. der Satz von Baire gilt
nicht.
[Erinnerung:
• Eine Teilmenge M ⊂ X eines topologischen Raumes (X, τ ) heißt nirgends dicht, falls
int M = ∅.
• M heißt
S von 1ter Kategorie, falls es eine Folge (Mn )n∈N nirgends dichter Mengen mit
M = n∈N Mn gibt.
• M heißt von 2ter Kategorie, falls M nicht von 1ter Kategorie ist.
Satz von Baire: Ein vollständiger metrischer Raum (allgemeiner: tonnelierter Raum) ist von
2ter Kategorie in sich selbst.]
Satz 3.18. Sei ρ : Lp → (−∞, ∞] ein konvexes Risikomaß, wobei p ∈ [1, ∞). Dann sind
äquivalent:
43
i) int dom ρ 6= ∅.
ii) ρ ist stetig (bzgl. k · kp ) in mindestens einem Punkt x ∈ dom ρ.
iii) dom ρ = Lp .
iv) dom ρ = Lp und ρ ist stetig.
v) ∂ρ(X) 6= ∅ für alle X ∈ Lp .
Beweis. ii) ⇒ i): Klar
i) ⇒ iii):
e ∈ Lp mit ρ(X)
e = ∞. Da dom ρ konvex ist und int dom ρ 6= ∅
Angenommen es existiert X
e und dom ρ schwach trennen. D.h. es existiert ein Z ∈ Lq
laut Voraussetzung, können wir {X}
(wobei p1 + 1q = 1) mit Z 6= 0 und
e
sup E[ZY ] ≤ E[Z X].
Y ∈dom ρ
Monotonie
Da L∞ ⊂ dom ρ (denn ρ(0) < ∞ und ρ(X)
≤
kXk∞ + ρ(0) für alle X ∈ L∞ ) gilt
e für alle X ∈ L∞ und t ∈ R. X = 1{Z>0} bzw. X = 1{Z<0} zeigt, dass
tE[ZX] ≤ E[Z X]
Z = 0 Widerspruch. Also gilt dom ρ = Lp .
iii) ⇒ iv):
Sei Bε := {Y ∈ Lp : kY kp < ε}. Gäbe es ein ε > 0 derart, dass ρ von oben auf Bε beschränkt
ist, so würde aus Satz 3.16 folgen, dass ρ stetig ist auf int dom ρ = Lp . Angenommen ρ ist
unbeschränkt von oben auf Bε für jedes ε > 0. Wähle eine Folge (Xn )n∈N ⊂ Lp mit Xn ∈ B 1n
2
und ρ(Xn ) ≥ n. Sei Yn := X1 ∧ X2 ∧ ... ∧ Xn = inf Xm . Dann gilt
m≤n
kYn kp ≤ k
≤
n
X
i=1
n
X
i=1
Xi 1{Xi =Yn } kp
kXi kp ≤
Minkowski-Ungleichung
≤
n
X
i=1
n
X
1
≤ 1.
2n
kXi 1{Xi =Yn } kp
i=1
Sei weiter Y = lim Yn = inf Xn . Mit dem Lemma von Fatou folgt, dass
n%∞
n∈N
p
p
E [|Y | ] = E lim inf |Yn |
n%∞
≤ lim inf E [|Yn |p ] ≤ 1,
n%∞
also Y ∈ Lp und wegen der Monotonie von ρ
ρ(Y ) ≥ ρ(Yn ) ≥ ρ(Xn ) ≥ n für jedes n ∈ N.
Folglich ist ρ(Y ) = ∞, welches ein Widerspruch zu dom ρ = Lp ist.
iv) ⇒ v): Satz 3.10
iv) ⇒ ii): Klar.
v) ⇒ iii): Falls ∂f (x) 6= ∅ für alle X ∈ Lp , dann ist dom ρ = Lp .
44
Lemma 3.19. Ist ρ : Lp → (−∞, ∞] eine konvexe und monotone/ antitone Funktion, wobei
p ∈ [1, ∞), so ist f automatisch auf int dom f stetig.
Beweis. Siehe iii)⇒ iv) von Satz 3.18.
Beispiel. 1) Entropisches Risikomaß:
ρβ (X) :=
Sei
h
i
1
log E e−βX , X ∈ Lp , β > 0.
β
dQ
log
H(Q|P) := E
dP
dQ
dP
dQ
= EQ log
für Q ∈ M1 .
dP
H(Q|P) heißt die relative Entropie“.
”
(Übung: a) H(Q|P) ≥ 0 ∀Q ∈ M1 und b) H(Q|P) = 0 ⇐⇒ Q = P.)
Auf L∞ :
• ρβ ist stetig von unten (maj. Konvergenz)
• Zeige: ρβ (X) = max EQ [−X] − β1 H(Q|P), X ∈ L∞ .
Q∈M1
Beweis:
Für X ∈ L∞ sei PX ∼ P gegeben durch
d PX
e−βX
=
.
dP
E [e−βX ]
Dann ist
log
dQ
dQ
d PX
= log
+
log
dP
d PX
dP
und
dQ
=
H(Q|P) = EQ log
dP
dQ
d PX
+E
log
EQ log
Q
d PX
dP
|
{z
}
≥0 (=0 falls Q=PX )
≥ EQ
d PX
log
dP
h
i
= EQ [−βX] − log E e−βX
=⇒
h
i
1
1
log E e−βX ≥ EQ [−X] − H(Q|P) für alle Q ∈ M1 .
β
β
Andererseits ist für Q = PX (3.9) eine Gleichung, d.h.
h
i
1
1
log E e−βX = EPX [−X] − H(PX |P) ⇒ Beh.
β
β
Auf Lp :
45
(3.9)
• ρβ (X) = sup EQ [−X] − β1 H(Q|P), X ∈ Lp .
Q∈M1p
Beweis hiervon später.
• ρβ ist uhs (Lemma von Fatou)
Zu den Subgradienten: Auf L∞ :
−PX ∈ ∂ρβ (X) für alle X ∈ L∞ (s.o.)
In der Tat ∂ρβ (X) = {−PX }. Denn:
• ∂ρβ (X) ist konvex. (Der Subgradient einer konvexen Funktion ist konvex, Übung)
• H(Q|P) ist strikt konvex, d.h. H(λQ + (1 − λ)Q̂|P) < λH(Q|P) + (1 − λ)H(Q̂|P) für
Q 6= Q̂. (Übung)
• Angenommen es gäbe Q, Q̂ ∈ M1 mit −Q, −Q̂ ∈ ∂ρβ (X), dann wäre
Qλ := λQ + (1 − λ)Q̂ ∈ ∂ρβ (X) ∀λ ∈ [0, 1]
und für λ ∈ (0, 1) wäre
1
ρβ (X) = EQλ [−X] − H(Qλ |P)
β
1
1
> λ EQ [−X] − H(Q|P) + (1 − λ) EQ̂ [−X] − H(Q̂|P) = ρβ (X)
β
β
Auf Lp : ∂ρβ (X) = {−PX } für alle X ∈ Lp mit e−βX ∈ Lq , aber ∂ρβ (X) = ∅ für alle X ∈ Lp
mit e−βX ∈
/ Lq .
Man kann zeigen, dass
Q ∈ ∂ρβ (X) ⇒
dQ
e−βX
=
für alle X ∈ Lp .
dP
E [e−βX ]
Ist z.B. p = 1, so folgt ∂ρβ (X) = ∅ für alle nach unten unbeschränkten X.
2) Average Value at Risk:
Sei α ∈ (0, 1]. Definiere für X ∈ Lp :
Z
Z
1 α +
1 α
AVaRα (X) :=
−qX (s) d s =
VaRs (X) d s
α 0
α 0
(Übung) 1
=
E (q − X)+ − q,
α
−
+
wobei q ein α-quantil von X ist (q ∈ qX (α), qX
(α) ).
Üblich: AVaR0 (X) := − essinf X = ρworst (X).
46
Satz 3.20. Sei α ∈ (0, 1]. Dann gilt:
AVaRα (X) = max EQ [−X], X ∈ Lp ,
Q∈Qα
wobei
Qα :=
dQ
1
Q ∈ M1 :
≤
dP
α
⊆ M11 , d.h. beschränkte Dichten .
Insbesondere ist AVaRα ein kohärentes Risikomaß, welches stetig auf Lp ist und auf L∞ die
Lebesgue-Eigenschaft hat( Stetigkeit von unten“).
”
R1
Beweis. α = 1: Q1 = {P} und 11 0 −qX (s) d s = E[−X].
α ∈ (0, 1): Sei
ρ(X) := sup EQ [−X], X ∈ L1 .
Q∈Qα
Dann ist ρ ein kohärentes Risikomaß auf L1 mit ρ(X) ≤ E[X − ] · α1 und somit dom ρ = L1 .
Also ist ρ stetig und überall subdifferenzierbar, also ist insbesondere
ρ(X) = max EQ [−X], X ∈ L1 .
Q∈Qα
Offensichtlich ist auch AVaRα stetig auf L1 . Zeige:
ρ(X) = AVaRα (X) für alle X ∈ L∞ .
(3.10)
Stetigkeit
⇒ ρ = AVaRα , da L∞ ⊂ L1 dicht.
Zu (3.10): Sei X ∈ L∞ mit P(X < 0) = 1 und sei PX ∼ P gegeben durch
d PX
X
=
.
dP
E[X]
Dann ist
ρ(X) = max EQ [−X] = max EPX
Q∈Qα
Q∈Qα
= E[−X] max EPX
Q∈Qα
=
dQ
dP
E[−X]
max EPX [ρ],
ρ∈A
α
−X
|{z}
X
dQ dP
d P d PX
=E[−X]· ddPP
+
+
wobei A := {0 ≤ ρ ≤ 1 : E[ρ] = α}. Da P(X < qX
(α)) ≤ α < 1 = P(X < 0), folgt qX
(α) < 0.
Sei
ρ0 := 1{X<q+ (α)} + k1{X=q+ (α)} ,
X
wobei

+
 α−P(X<qX (α))
+
P(X=qX (α))
k=
0
X
+
, P X = qX
(α) > 0
, sonst
47
.
d QX
dP
:= α1 ρ0 gilt QX ∈ Qα und
Z
h ρ i
1 α +
0
EQX [−X] = E − X = −
q (s) d s = AVaRα (X).
α
α 0 X
Bemerke, dass für
(Siehe später für eine Rechnung, Korollar 3.21)
(D.h. AVaRα (X) ≤ ρ(X).) Außerdem ist ρ0 ∈ A.
Für alle ρ ∈ A gilt:
(ρ0 − ρ)
q + (α)
d PX
− X
dP
E[X]
+
(ρ0 − ρ) X − qX
(α)
=
E[X]
| {z }
(!)
≥
Fälle durchgehen
0.
<0
Also
EPX
d PX
[(ρ0 − ρ)] = E (ρ0 − ρ)
dP
ρ0 − ρ +
≥E
q (α) = 0
E[X] X
D.h. EPX [ρ0 ] = max EPX [ρ] bzw.
ρ∈A
X
EPX [ρ0 ] = EQX [−X] = AVaRα (X) (s.o.)
ρ(X) = E −
α
Für beliebiges X ∈ L∞ folgt nun, dass
AVaRα (X) = AVaRα (X − kXk∞ − 1) − kXk∞ − 1
= ρ (X − kXk∞ − 1) − kXk∞ − 1 = ρ(X)
Für allgemeines p ∈ [1, ∞] folgt die Behauptung, da Lp ⊂ L1 , k · kp -Konvergenz k · k1 Konvergenz impliziert und da Qα ⊂ M11 ⊂ M1p .
Korollar 3.21. AVaRα (X) = EQX [−X], X ∈ L1 , wobei QX ∈ Qα gegeben ist durch
und
−
d QX
1
+
=
1{X<q} + k1{X=q} mit q ∈ qX
(α), qX
(α)
dP
α
k=
( α−P(X<q)
, P (X = q) > 0
P(X=q)
0
, sonst
X
Insbesondere − ddQP ∈ AVaR∗α (X).
48
.
Beweis.
1 E (q − X)+ − q
α
1 = E (q − X)+ − αq
α
1 = E (q − X)1{X<q} − αq
α
1 =
E (−X)1{X<q} +
α
(
AVaRα (X) =
0
−E X · k1{X=q}
=
=
q (P(X < q) − α)
|
{z
}
1 E −X 1{X<q} + k1{X=q} .
α
, falls P (X = q) = 0
, falls P (X = q) > 0
Beispiel (Semi-Deviation-RM).
Sei
ρpδ (X) := E[−X] + δk(X − E[X])− kp , X ∈ L1 , p ∈ [1, ∞), δ ∈ (0, 1].
Dann ist ρpδ ein kohärentes Risikomaß, welches uhs (Lemma von Fatou) auf jedem (Lr , k · kr )
ist mit r ≥ 1 und stetig auf jedem (Ls , k · ks ) mit s ≥ p ist. (Übung)
Auf L∞ ist ρpδ stetig von unten, denn für p < ∞ folgt dies sofort aus dem Satz von der
majorisierten Konvergenz.
Satz 3.22. Seien q :=
p
p−1
(= ∞, falls p = 1) und
P := {1 + δ(g − E[g])|g ≥ 0, kgkq ≤ 1}
dQ
p
p dQ
p
1
⊂ D1 := Z ∈ L : ∃Q ∈ M1 :
=Z =
: Q ∈ M1 .
dP
dP
Dann gilt:
ρpδ (X) = max E[−ZX] = maxp EQ [−X], X ∈ Lp .
Z∈P
Q∈M1
dQ
∈P
dP
Außerdem ist ρpδ (X) = E[ZX X] für ZX ∈ P mit
(
∈P
, falls X = Konstante
ZX =
,
1 + δ (gX − E[gX ])
, sonst
wobei
gX =


(X−E[X])p−1
−
k(X−E[X])− kp−1
p
1
{X<E[X]}
, falls p > 1
, falls p = 1
49
.
Beweis. Sei g ≥ 0 mit kgkq ≤ 1, dann gilt offensichtlich Zg := (1 + δ(g − E[g])) ∈ Lq mit
E[Zg ] = 1 und
Zg ≥ 1 − δE[g]
Jenssen
≥
Also ist P ⊆ D1p .
Außerdem gilt für X ∈ Lp mit E[X] = 0, dass
1 − δkgkq ≥ 0.
E [− (1 + δ (g − E[g])) X] = E[−X] −δE[gX] + δE[g] E[X]
| {z }
| {z }
=0
=0
Hölder
≤ δE[gX− ]
≤
δ kgkq kX− kp ≤ δkX− kp = ρpδ (X),
|{z}
≤1
und für X 6= Konstante
E[gX X] =
also
h
i
p−1
E X−
X
kX− kp−1
p
=−
p
E X−
kX− kp−1
p
= −kXkp
i
E − 1 + δ(gX − E[gX ]) X = −δE[gX X] = δkX− kp = ρpδ (X),
|
{z
}
h
wobei gX ≥ 0 und
=ZX
1
p
q
(p−1)· p−1
 E X−

 = 1,
kgX kq = 
p


(p−1)· p−1
kX− kp

d.h. ZX ∈ P.
Schließlich ist für beliebiges X ∈ Lp mit X 6= Konstante
ρpδ (X) = ρpδ (X − E[X]) − E[X] ≥ E [−Z(X − E[X])] − E[X] = E[−ZX]
für alle Z ∈ P und
h
i
ρpδ (X) = ρpδ (X − E[X]) − E[X] = E − Z(X−E[X]) (X − E[X]) − E[X] = E[−ZX X].
| {z }
!
=ZX
Der Fall X = Konstante ist offensichtlich.
Beispiel (optimales Risksharing: 1 ≤ p ≤ ∞).
• Wir betrachten einen Markt, der aus n Agenten besteht.
• Jeder Agent i ∈ {1, .., n} wird beschrieben durch ein konvexes Risikomaß ρi : Lp →
(−∞, ∞] und ein Anfangsportfolio/ Anfangsrisiko Wi ∈ Lp .
50
• W := W1 + ... + Wn ist das aggregierte Portfolio.
Problem: Finde eine möglichst optimale Reallokation von W , d.h. löse
n
X
i=1
ρi (Yi ) → min
(P)
unter den Nebenbedingungen (Y1 , ..., Yn ) ∈ (Lp )n und
n
X
Yi = W
(clearing of the market).
i=1
Bemerkung.
• optimal“ heißt hier zunächst optimal aus der Sicht des Gesamtmarkts/ der Gesell”
schaft.
P
• (Y1 , ..., Yn ) ∈ (Lp )n mit ni=1 Yi = W heißt (Re-)Allokation von W
In der Tat: Ist (Ye1 , ..., Yen ) eine Allokation von W , welche (P) löst. Dann ist (Ye1 , ..., Yen )
Pareto optimal, d.h. es gibt keine Allokation (Y1 , ..., Yn ) von W mit ρi (Yi ) ≤ ρ(Yei ) für alle i = 1, ..., n und ρi (Yi ) < ρ(Yei ) für mindestens ein j ∈ {1, ..., n}. (Übung)
Definition 3.23.
n
n
i=1
i=1
ρi : Lp → [−∞, ∞], ρi (X) =
inf p
n
X
Yi ∈L
i=1
n
P
Yi =X
ρi (Yi ), X ∈ Lp ,
i=1
heißt die (infimale) Konvolution von ρ1 , ..., ρn .
n
(Andere Schreibweise ρi = ρ1 ρ2 ... ρn )
i=1
Bemerkung. (Ye1 , ..., Yen ) ist eine Lösung von (P) genau dann, wenn
n
ρi (W ) =
i=1
i=1
Eigenschaften von ni=1 ρi :
1)
n
X
n
ρi (Yei ).
ρi = ((... ((ρ1 ρ2 ) ρ3 ) ...) ρn )
i=1
(Assoziativität),
wobei f g(X) = inf p f (X − Y ) + g(Y ), X ∈ Lp die (infimale) Konvolution von f und g
Y ∈L
ist.
2) ni=1 ρi ist konvex.
51
3) ni=1 ρi ist cash-additiv, denn es gilt für X ∈ Lp und a ∈ R
ρ1 ρ2 (X + a) = inf p ρ1 (X + a − Y ) + ρ2 (Y )
Cash-Add. von ρ1
inf ρ1 (X − Y ) + ρ2 (Y ) − a
=
Y ∈L
Y ∈Lp
= ρ1 ρ2 (X) − a
Nun schließe die Cash- Additivität via 1).
e ∈ Lp mit X ≤ X
e gilt:
4) ni=1 ρi ist monoton, denn für X, X
e − Y ) + ρ2 (Y ) = ρ1 ρ2 (X)
e
ρ1 ρ2 (X) = inf p ρ1 (X − Y ) + ρ2 (Y ) ≥ inf p ρ1 (X
Y ∈L
Y ∈L
Wende wieder 1) an, um auf die Monotonie von ni=1 ρi zu schließen.
5) ( Tieferer Grund für 3),4)“) Es gilt:
”
n
ρi
i=1
und somit
dom
n
ρi
i=1
∗
=
∗
=
n
X
ρ∗i
i=1
n
\
dom ρ∗i .
i=1
Denn sei z.B. p = ∞ und µ ∈ ba. Dann ist
∗
n
n
ρi (µ) = sup hµ, Xi − ρi
i=1
i=1
X∈L∞
= sup hµ, Xi −
X∈L∞
inf
n
X
Yi ∈L∞
i=1
n
P
Yi =X
ρi (Yi )
i=1
= sup
sup
n
X
X∈L∞ Yi ∈L∞ i=1
n
P
Yi =X
hµ, Yi i − ρi (Yi )
i=1
=
n
X
sup hµ, Yi i − ρi (Yi ) =
i=1 Yi
∈L∞
n
X
ρ∗i (µ).
i=1
Analog für p < ∞.
n
6) dom ρi =
i=1
n
P
dom ρi (Übung)
i=1
7) D.h., falls ni=1 ρi > −∞, dann ist ni=1 ρi selbst wieder ein konvexes Risikomaß auf Lp .
Sind alle ρi uhs und ni=1 ρi uhs (z.B. immer erfüllt auf L∞ ) so gilt für p < ∞:
n
ρi (X) = sup EQ [−X] − αmin (Q), X ∈ Lp ,
i=1
Q∈M1p
52
wobei
∗ dQ
αmin (Q) = ρi
−
i=1
dP
n
X
dQ
=
ρ∗i −
dP
n
i=1
=
n
X
i=1
i
αmin
(Q), Q ∈ M1p ,
i
und αmin
die minimale Straffunktion von ρi ist. Analoge Aussage gilt für p = ∞.
Lemma 3.24. Sei p ∈ [1, ∞]. Betrachte folgende Eigenschaften einer Allokation (Ye1 , ..., Yen )
von W ∈ Lp :
P
i) (Ye1 , ..., Yen ) löst (P), d.h. ni=1 ρi (W ) = ni=1 ρi (Yei ).
ii) ∂ ni=1 ρi (W ) =
n
T
i=1
∂i (Yei ) 6= ∅.
Ist p = ∞, so gilt i) ⇐⇒ ii). Ist p < ∞, so gilt stets ii) ⇒ i).
Beweis. Sei p = ∞:
i) ⇒ ii):
P
Da ni=1 ρi (W ) = ni=1 ρi (Yei ) ∈ R und somit dom ni=1 ρi = L∞ (Cash-Additivität, Monotonie), ist ni=1 ρi ein konvexes Risikomaß auf L∞ und somit insbesondere stetig. Also existiert
ein µ ∈ M1,f mit −µ ∈ ∂ ni=1 ρi (W ). Es gilt:
n
X
i=1
n
ρi (Yei ) = ρi (W ) =
i=1
Eig. 5) oben
=
=
n Z
X
i=1
ii) ⇒ i):
⇒ ρi (Yei ) =
Z
Z
Z
−W d µ − αmin (µ)
−W d µ −
−Yei d µ −
n
X
i=1
i
αmin
(µ)
i
αmin
(µ)
≤
n
X
i=1
ρi (Yei )
i
−Yei d µ − αmin
(µ) ⇒ −µ ∈ ∂ρi (Yei ).
53
Sei µ ∈ M1,f mit −µ ∈
n
T
i=1
∂ρi (Yei ). Dann ist
n
X
i=1
ρi (Yei ) =
n Z
X
i
−Yei d µ − αmin
(µ)
Zi=1
= −W d µ − αmin (µ)
n
≤ ρi (W ) ≤
i=1
n
⇒ ρi (W ) =
i=1
Sei p < ∞:
ii) ⇒ i):
Sei Q ∈ M1 mit − dd Q
P ∈
n
T
i=1
n
X
i=1
n
X
i=1
ρi (Yei )
ρi (Yei ).
∂ρi (Yei ). Dann gilt:
n
X
i=1
ρi (Yei ) =
n
X
i=1
i
EQ [−Yei ] − αmin
(Q)
= EQ [−W ] − αmin (Q)
∗∗
n
≤ ρi
(W )
i=1
n
≤ ρi (W ) ≤
i=1
n
⇒ ρi (W ) =
i=1
n
X
i=1
n
X
i=1
ρi (Yei )
ρi (Yei ).
Beispiel (Zwei entropische Risikomaße auf L∞ ).
h
i
1
log E e−βX , X ∈ L∞ , β > 0
β
1
= max EQ [−X] −
H(Q|P)
| {z }
Q∈M1
β
ρβ (X) =
(!) β
=αmin (Q)
Es gilt ρβ (X)
Jensen
≥
1
β
rel. Entropie.
log e−βE[X] = −E[X]. Also
ρβ ργ (W ) = inf∞ ρβ (W − Y ) + ργ (Y ) ≥ −E[W ] > −∞.
Y ∈L
54
Außerdem ist
ρβ ργ
αmin
Also ist ρβ ργ = ρ
γβ
γ+β
1
1
= H(Q|P) + H(Q|P) =
β
γ
γ+β
=
H(Q|P).
γβ
1
1
+
β γ
H(Q|P)
(W ).
Wie sehen die optimalen Allokationen aus?
Z.B. über Subgradienten:
γβ
− γ+β
W
e
h
γβ
− γ+β
W
E e
e−β Y1
e−γ Y2
h
i= h
i.
E e−β Ye1
E e−γ Ye2
e
i=
e
γβ
γ
γβ
Ansatz: Yei = ai W für ai ∈ R. ,→ βa1 = γ+β
⇒ a1 = γ+β
und γa2 = γ+β
⇒ a2 =
Lemma 3.24 e e
γ
β
⇒
(Y1 , Y2 ) = γ+β W, γ+β W löst das optimale Allokationsproblem (P).
β
γ+β .
e ∼ P mit P
e 6= P. Dann erfüllen
Beispiel. Sei P
(
)
(
)
e
e
dP
dP
> 1 und B :=
<1 ,
A :=
dP
dP
dass P(A) > 0 und P(B) > 0.
Seien weiter
∞
ρ1 (X) := EP
e [−X] und ρ2 (X) := EP [−X], X ∈ L .
ρ1 und ρ2 sind kohärente Risikomaße. Es gilt
ρ1 ρ2 (0)
=
=
Y =t·1B
≤
inf EP
e [Y ] + EP [−Y ]
!#
"
e
dP
−1
inf EP Y
Y ∈L∞
dP
"
! #
e
dP
inf t EP
− 1 1B = −∞.
t>0
dP
|
{z
}
Y ∈L∞
<0
,→ Es gibt keine optimalen Allokationen von 0. Insbesondere muss ρ1 ρ2 ≡ −∞ sein, d.h. es
gibt keine optimalen Allokationen von irgendeinem W ∈ L∞ .
Equilibria/ Wie kommen Preise zustande? p = ∞.
Sei W = W1 + ... + Wn das aggregierte Portfolio.
(Ye1 , ..., Yen ; µ) heißt Equilibrium, falls
a) (Ye1 , ..., Yen ) eine Allokation von W ist
55
b) µ ∈ M1,f (Preisregel)
R
R
c) Yei d µ ≤ Wi d µ (Budget Restriktion)
R
n
o
R
d) ρi (Yei ) = inf ρi (Yi ) Yi d µ ≤ Wi d µ , i = 1, ..., n.
Lemma 3.25. Sei p = ∞. Äquivalent sind:
i) (Ye1 , ..., Yen ; µ) ist ein Equilibrium.
n
R
T
ii) Die Allokation (Ye1 , ..., Yen ) von W löst (P) und es gilt −µ ∈
ρi (Yei ) und Yei d µ ≤
i=1
R
Wi d µ für alle i = 1, ..., n.
n
T
Insbesondere ist für eine gegebene Lösung (Y1 , ..., Yn ) von (P) und −µ ∈
ρi (Yi ) das (n+1)i=1
R
Tupel (Ye1 , ..., Yen ; µ) stets ein Equilibrium, wobei Yei := Yi + (Wi − Yi ) d µ.
Beweis. i) ⇒ ii):
Sei (Ye1 , ..., Yen ; µ) ein Equilibrium. Aufgrund der Cash-Additivität und d) folgt, dass
Z
Z
e
Yi d µ = Wi d µ.
Außerdem gilt:
ρi (Yei ) =
inf
R
∞
Y ∈L
R
Y d µ= Wi d µ
= inf∞ ρi (Y ) −
Y ∈L
⇒
Z
ρi (Y ) = inf∞ ρi Y +
Y ∈L
Z
Wi d µ +
−Wi d µ − ρi (Yei ) = sup
Y ∈L∞
|
Z
Z
Z
(Wi − Y ) d µ
Y dµ
n
\
−Y d µ − ρi (Y ) ⇒ −µ ∈
∂ρi (Yei ).
i=1
{z
}
=ρ∗i (−µ)=αimin (µ)
Die Behauptung folgt nun aus Lemma 3.24.
ii) ⇒ i) und die letzte Aussage:
Sei (Y1 , ..., Yn ) eine Lösung von (P) und −µ ∈
n
P
i=1
ci = 0 gilt
n
X
ρi (Yi + ci ) =
i=1
n
T
i=1
n
X
i=1
56
ρi (Yi ). Bemerke, dass für ci ∈ R mit
ρi (Yi ) + 0.
R
P R
Also ist auch (Ye1 , ..., Yen ) eine Lösung von (P), wobei Yei := Yi + (Wi − Yi ) d µ, denn ni=1 (Wi −
Yi ) d µ = 0. (Ye1 , ..., Yen ; µ) erfüllt a), b) und c).
Außerdem ist −µ ∈ ∂ρi (Yei ) für alle i = 1, ..., n, [denn
Z
e
ρi (Yi ) = ρi (Yi ) − (Wi − Yi ) d µ
Z
Z
i
= −Yi d µ − αmin (µ) − (Wi − Yi ) d µ
Z
i
= −Yei d µ − αmin
(µ).]
Also gilt für alle Y ∈ L∞ mit
ρi (Yei )
Subgrad.-Ungl.
≤
=
R
Y dµ ≤
R
Wi d µ:
ρi (Y ) + h−µ, Yei − Y i
ρi (Y ) + h−µ, Wi − Y i , denn
|R
{z
}
= −(Wi −Y ) d µ≤0
≤
ρi (Y ).
Z
Yei d µ =
Z
Wi d µ
Es folgt d).
Beispiel. Gegeben seien zwei entropische Risikomaße zu den Parametern β, γ > 0 wie oben.
Dann ist
γ
β
W + c1 ,
W + c2 ; Q
γ+β
γ+β
ein Equilibrium, wobei Q ∼ P gegen ist durch
− γβ W
dQ
γ
e γ+β
= h γβ i und c1 = −c2 = EQ W1 −
W .
−
W
dP
γ+β
E e γ+β
Beispiel. Gegeben seien zwei AVaR- Agenten. Ferner sei α, β ∈ (0, 1] mit α ≥ β. Es gilt
AVaRγ (X) ≥ E[−X] für alle γ ∈ (0, 1] (Übung!).
⇒ AVaRα AVaRβ > −∞.
Da dom AVaRα AVaRβ = dom AVaRα + dom AVaRβ = L1 (Satz 3.20), folgt dass AVaRα AVaRβ
{z
} |
|
{z
}
=L1
=L1
ein stetiges kohärentes (!) Risikomaß auf L1 ist mit minimaler Straffunktion
β
α
αmin (Q) = αmin
(Q) + αmin
(Q)
(
0
, falls Q ∈ Qα ∩ Qβ
=
,
∞
, sonst
wobei
dQ
1 1
≤ ∧
= Qα .
Qα ∩ Qβ = Q ∈ M1 :
dP
α β
57
⇒ AVaRα AVaRβ = AVaRα .
Also ist für W ∈ L1 immer (W + c, −c) eine optimale Allokation, wobei c ∈ R und (W +
ĉ, −ĉ; Q) ein Equilibrium, falls
dQ
1
1{W <q} + k1{W =q}
=
dP
α
mit
q∈
−
+
qW
(α), qW
(α)
und ĉ = EQ [W1 − W ].
und k =
( α−P(X<q)
P(X=q)
0
58
, falls P(X = q) > 0
, sonst
4
Verteilungsinvariante Risikomaße
Anforderungen an den W-Raum (Ω, F, P):
Ab jetzt ist (Ω, F, P) immer nicht-atomar/ atomlos, d.h. es existiert eine ZV X : Ω → R mit
stetiger Verteilungsfunktion.
Wir schreiben für zwei ZV’en X, Y :
d
X = Y ⇐⇒ PX = PY ,
wobei PX die Verteilung von X unter P ist, d.h. ∀A ∈ B(R) : PX (A) := P(X ∈ A).
Definition 4.1. Sei f : Lp → [−∞, ∞], p ∈ [1, ∞], eine Funktion. f heißt verteilungsinvariant,
falls für X, Y ∈ Lp gilt:
d
X = Y ⇒ f (X) = f (Y ).
Beispiel (Für verteilungsinvariante Risikomaße).
Rα
• AVaRα (X) = α1 0 −qX (s) d s.
• Entropisches Risikomaß: ρβ (X) = β1 log E e−βX .
• Semi-Deviation-RM: ρpδ (X) = E[−X] + δk(X − E[X])− kp
• VaRα
• Risikomaße, die durch
die expected utility gegeben sind, d.h.
X ∈ Aρ ⇐⇒ E u(x) ≥ c (s.o.)
Beispiel (Für ein nicht verteilungsinvariantes Risikomaß).
e 6= P.
mit P
e
ρ(X) = EP
e [−X], wobei P ∼ P
Erstes Ziel:
Behauptung: Jedes verteilungsinvariante konvexe Risikomaß ρ : L∞ → R ist automatisch
σ(L∞ , L1 )-uhs, in der Tat sogar σ(L∞ , Lr )-uhs für alle r ∈ [1, ∞], d.h. auch σ(L∞ , L∞ )-uhs.
,→ Darstellung über absolutstetige W-maße mit beschränkten Dichten.
,→ Eins zu Eins Zusammenhang zwischen uhs verteilungsinvarianten konvexen Risikomaßen
auf L1 ↔ Lp ↔ L∞ , p ∈ [1, ∞].
Hierfür müssen wir die Verteilungsinvarianz näher studieren:
Lemma 4.2. Sei U eine auf (0, 1) gleichverteilte ZV, d.h.
P(U ≤ x) = x
∀x ∈ (0, 1)
P(U ≤ x) = 0
∀x ≤ 0
P(U ≤ x) = 1
∀x ≥ 1.
Außerdem
sei X eine ZV und qX : (0, 1) → R eine Quantilfunktion von X, d.h. qX (s) ∈
−
+
qX (s), qX
(s) für alle s ∈ (0, 1). Dann gilt
d
qX (U ) = X.
59
Beweis. qX ist monoton wachsend, also meßbar und somit ist qX (U ) eine ZV. Außerdem gilt:
(0, FX (x)) ⊂ {s ∈ (0, 1) : qX (s) ≤ x} ⊆ (0, FX (x)] .
Also
FX (x) = P (U ∈ (0, FX (x))) ≤ P (U ∈ {s ∈ (0, 1) : qX (s) ≤ x})
= P (qX (U ) ≤ x) ≤ P (U ∈ (0, FX (x)]) = FX (x).
⇒ FqX (U ) (x) = FX (x).
Lemma 4.3. Sei X eine ZV mit stetiger Verteilungsfunktion FX . Dann ist U := FX (X)
gleichverteilt auf (0, 1) und X = qX (U ) P-f.s.
d
e gleichverteilt auf (0, 1). Dann gilt X
e := qX (U
e) =
Beweis. Sei U
X (Lemma 4.2) und somit
d
e
e
auch U = FX (X) = FX (X) = U , da FX stetig ist und somit FX ◦ qX = Id (Übung).
+
+
Außerdem ist qX
(FX (t)) ≥ t und somit qX (U ) = qX
(U ) ≥ X P-f.s., während E[X] =
E[qX (U )].
Also muss qX (U ) = X P-f.s. gelten.
Lemma 4.4. Seien X, Y zwei ZV’en mit X = f (Y ) für eine meßbare Funktion f : R → R
und seien qX , qY : (0, 1) → R Quantilfunktionen von X und Y . Ist f monoton wachsend, so
ist f (qY ) eine Quantilfunktion von X und es gilt
qX (t) = qf (Y ) (t) = f (qY (t)) für fast alle t ∈ (0, 1).
Ist f monoton fallend, so ist f (qY (1 − t)) eine Quantilfunktion von X und es gilt
qX (t) = qf (Y ) (t) = f (qY (1 − t)) für fast alle t ∈ (0, 1).
Beweis. Sei f monoton fallend und q(t) := f (qY (1 − t)), t ∈ (0, 1).
FX (q(t)) = P (f (Y ) ≤ f (qY (1 − t))) ≥ P (Y ≥ qY (1 − t)) = 1 − P (Y < qY (1 − t))
≥ 1 − (1 − t) = t ≥ P(Y > qY (1 − t)) ≥ P(f (Y ) < q(t)) = FX (q(t)−)
−
+
(t)
(t), qX
⇒ q(t) ∈ qX
und somit ist q eine Quantilfunktion von X.
Analog beweist man den Fall: f monoton wachsend.
60
1
1
FX
FX
t
t
−
qX
x
q(t)−
q(t)+
֒→ q(t) = x
q(t)−
−
q(t)+
+
֒→ q(t) qX
(t), qX
(t)
1
FX
t
x
q(t)−
q(t)+
֒→ q(t) = x
Abbildung 4.1: Illustration zu den Beweisen der Lemmata 4.2-4.4.
61
+
qX
Lemma 4.5. Sei C ⊂ L∞ eine verteilungsinvariante, konvexe, k · k∞ -abgeschlossene Menge
d
(verteilungsinvariant heißt, dass X ∈ C, Y ∈ L∞ mit Y = X ⇒ Y ∈ C). Dann gilt für alle
Unter-σ-Algebren G ⊂ F und für alle X ∈ C, dass E[X|G] ∈ C.
Beweis. 1) Sei zunächst G = {∅, Ω}. Des weiteren sei X ∈ C und ε > 0. O.b.d.A. X ≥ 0
(ansonsten verschiebe C nach C + kXk∞ ). Definiere


,s=0
essinf X
−
qX : [0, 1] → R, qX (s) = qX
(s)
, s ∈ (0, 1) .


esssup X
,s=1
Dann ist 0 ≤ qX (s) ≤ qX (1) = kXk∞ < ∞. Sein nun n ∈ N derart, dass qXn(1) ≤ ε und
1
i
seien Ai := i−1
n , n für i = 1, ..., n − 1 und An := 1 − n , 1 . Außerdem sei B1 , ..., Bn ∈ F
1
eine Zerlegung von Ω derart, dass P(Bk ) = n für alle k = 1, ..., n. Da (Ω, F, P(·|Bk ))
atomlos ist (Übung), gibt es zu jedem k eine ZV Ujk , welche auf Aj gleichverteilt ist
unter P(·|Bk ), d.h. P(Ujk ≤ s|Bk ) = ns − j + 1, s ∈ Aj . Dann ist für jede Permutation
n
P
k 1
π : {1, ..., n} → {1, ..., n} die ZV U π :=
Uπ(k)
Bk gleichverteilt auf (0, 1) unter P.
Xπ
d
(U π ) =
Daher gilt
:= qX
Da C konvex ist, ist auch
X und somit
Xn :=
k=1
Xπ ∈
C.
1 X π
X ∈ C,
n!
π∈Sn
wobei Sn die Menge der Permutationen π : {1, ..., n} → {1, ..., n} bezeichnet.
n
P
k
Bemerke, dass X π =
qX Uπ(k)
1Bk . Mit der Monotonie der Quantilfunktion folgt
nun, dass
k=1
kXn − E[X]k∞ = kXn −
Z
1
qX (s) d sk∞
0
n 1X
i
i−1
≤
qX
− qX
n
n
n
i=1
=
qX (1)
≤ ε.
n
R1
(Fallunterscheidung Xn R 0 qX (s) d s und dann mit der Monotonie von qX abschätzen.
Es gibt (n − 1)! Permutationen mit π(k w ) = i, wobei k w ∈ {1, ..., n} mit 1Bkw (w) = 1.)
k·k∞
Da ε > 0 beliebig gewählt war, folgt, dass Xn −→ E[X] für n % ∞ und somit E[X] ∈ C,
wegen der Abgeschlossenheit von C.
2) Sei nun G = σ(D1 , ..., Dr ) für irgendeine endliche Zerlegung D1 , ..., Dr ∈ F von Ω mit
P(Di ) > 0 für alle i = 1, ..., r. Betrachte die W-Räume (Di , Fi , Pi ), i = 1, ..., r, wobei
P(A)
Fi := {A ∩ Di |A ∈ F} und Pi : Fi → [0, 1], A 7→ P(D
. Alle (Di , Fi , Pi ) sind nichtatomar
i)
∞
und die Mengen Ci := {Y|Di : Y ∈ C} ⊂ L (Di , Fi , Pi ) sind verteilungsinvariant und
62
konvex. Wie in Schritt 1) gibt es Xni =
1
n!
P
π∈Sn
X i,π ∈ Ci derart, dass X i,π und X|Di unter
Pi identisch verteilt sind für alle π ∈ Sn und dass
kXni − EPi X|Di k∞ ≤ ε
für ein beliebiges vorgegebenes ε > 0. Sei
Xn :=
r
X
Xni 1Di =
π∈Sn i=1
i=1
Dann ist Xn ∈ C, da
r
P
r
1 X X i,π
X 1Di .
n!
d
X i,π 1Di = X. Außerdem gilt
i=1
kXn − E[X|G]k∞ = kXn −
r
X
i=1
EPi X|Di 1Di k∞ ≤ ε.
Die Abgeschlossenheit von C impliziert wieder, dass E[X|G] ∈ C.
3) Sei G ⊂ F irgendeine Unter-σ-Algebra. Dann gibt es eine Folge von endlichen Unter-σAlgebren Gn ⊂ F, n ∈ N, (d.h. Unter-σ-Algebren wie in 2)) mit
n%∞
kE[X|Gn ] − E[X|G]k∞ −→ 0
(Übung).
Also folgt die Behauptung des Lemmas aus dem Schritt 2) und der Abgeschlossenheit von
C.
Satz 4.6. Sei C ⊂ L∞ eine verteilungsinvariante, konvexe, k · k∞ -abgeschlossene Menge.
Dann ist C σ(L∞ , Lr )-abgeschlossen für jedes r ∈ [1, ∞].
Beweis. 1) Sei G ⊂ F eine Unter-σ-Algebra. Wir definieren den (bedingte Erwartung) Operator E[·|A] auf ba wie folgt: E[·|G] : ba → ba, wobei E[µ|G] gegeben ist durch
∀X ∈ L∞ : hE[µ|G], Xi = hµ, E[X|G]i.
(Dies stimmt für µ ∈ L1 ⊂ ba“ mit der normalen“ bedingten Erwartung überein
”
”
(Übung))
Ist G endlich, d.h. G = σ(A1 , ..., An ) für eine Zerlegung A1 , ..., An ∈ F von Ω mit P(Ai ) > 0
für alle i = 1, ..., n, so gilt E[µ|G] ∈ L∞ für alle µ ∈ ba, denn für alle X ∈ L∞ gilt:
hE[µ|G], Xi = hµ, E[X|G]i =
D.h.
n
X
E[X1Ai ]
i=1
n
X
µ(Ai )
1A ∈ L∞ .
E[µ|G] =
P(Ai ) i
i=1
63
µ(Ai )
.
P(Ai )
2) Ist C = ∅, so ist nichts zu zeigen. Sei also C 6= ∅. Sei (Xi )i∈I ⊂ C ein Netz, welches
in σ(L∞ , Lr ) gegen X ∈ L∞ konvergiert, d.h. E[Xi Z] → E[XZ] für alle Z ∈ Lr . Ist G
endlich, so gilt nach 1), dass
h E[µ|G] , Xi i = E [E[µ|G]Xi ] → E [E[µ|G]X] = hE[µ|G], Xi
| {z }
∈L∞ ⊂Lr
für alle µ ∈ ba. Da aber
hE[µ|G], Xi i = hµ, E[Xi |G]i und hE[µ|G], Xi = hµ, E[X|G]i,
folgt, dass das Netz (E[Xi |G])i∈I in σ(L∞ , ba) gegen E[X|A] konvergiert. Da laut Lemma
4.5 E[Xi |G] ∈ C für alle i ∈ I, folgt E[X|G] ∈ C, da C σ(L∞ , ba)-abgeschlossen ist
(Korollar 2.18). Also ist E[X|G] ∈ C für jede endliche Unter-σ-Algebra G ⊂ F. Wähle
k·k∞
eine Folge (Gn )n∈N von endlichen Unter-σ-Algebren von F derart, dass E[X|Gn ] −→ X.
Dann folgt wiederum aus der k · k∞ -Abgeschlossenheit von C, dass X ∈ C. D.h. C ist
σ(L∞ , Lr )-abgeschlossen.
Korollar 4.7. Sei f : L∞ → (−∞, ∞] eine verteilungsinvariante, konvexe, k · k∞ -uhs Funktion. Dann ist f σ(L∞ , Lr )-uhs für jedes r ∈ [1, ∞].
Beweis. Die Niveaumengen Ek := {X ∈ L∞ : f (X) ≤ k}, k ∈ R, sind verteilungsinvariant,
konvex und k · k∞ -abgeschlossen. Wende Satz 4.6 an.
Korollar 4.8. Jedes verteilungsinvariante konvexe Risikomaß ρ : L∞ → R ist automatisch σ(L∞ , Lr )-uhs für jedes r ∈ [1, ∞] und erfüllt somit insbesondere immer die FatouEigenschaft.
Satz 4.9 (Hardy-Littlewood-Ungleichung).
Seien X, Y zwei ZV’en. Dann gilt:
Z 1
Z
qX (1 − s)qY (s) d s ≤ E[XY ] ≤
0
1
qX (s)qY (s) d s,
(4.1)
0
−
+
(s) ∀s ∈ (0, 1)
wobei qX , qY : (0, 1) → R Quantilfunktionen von X bzw. Y sind qX (s) ∈ qX
(s), qX
und sofern alle vorkommenden Integrale wohldefiniert sind.
Falls X = f (Y ) für eine meßbare Funktion f : R → R ist und die untere (obere) Schranke
von (4.1) endlich ist, so wird diese untere (obere) Schranke genau dann angenommen, falls
f monoton fallend (wachsend) gewählt werden kann.
64
Beweis. Seien zunächst X, Y ≥ 0.
Z ∞
Z ∞
1{Y >y} d y
E[XY ]
=
E
1{X>x} d x
0
0
Z ∞Z ∞
Fubini
P(X > x, Y > y) d x d y
=
0
0
Z ∞Z ∞
+
≥
P(X > x) − P(Y ≤ y) d x d y
| {z } | {z }
0
0
=
Z
=
=
=
=FY (y)
1{FY (y)≤s} 1{s≤1−FX (x)} d s d x d y
Z ∞
Z 1 Z ∞
1{s≤1−FX (x)} d x d s
1{FY (y)≤s} d y
0
0
0
Z 1
+
qY+ (s)qX
(1 − s) d s
0
Z 1
qY (s)qX (1 − s) d s,
0
Fubini
=1−FX (x)
∞Z ∞Z 1
0
0
0
R∞
+
(s)
wobei die vorletzte Gleichung gilt, da 0 1{FX (x)≤s} d x = sup{x ≥ 0 : FX (x) ≤ s} = qX
und analog für Y .
R1
Analog folgt aus P(X < x, Y < y) ≤ P(X > x) ∧ P(Y > y) = 0 1{FX (x)≤s} 1{FY (y)≤s} d s,
dass
Z 1
E[XY ] ≤
qX (s)qY (s) d s.
0
Ist X = f (Y ), dann ist
E[XY ] = E [f (Y )Y ] =
Z
R
f (y)yPY (d y) =
Z
1
f (qY (s)) qY (s) d s,
0
denn qY : (0, 1) → R hat dieselbe Verteilung unter dem Lebesguemaß wie Y unter P (Übung!).
Ist f monoton fallend, so gilt :
Z 1
Z 1
Z 1
qf (Y ) (1 − s)qY (s) d s =
qX (1 − s)qY (s) d s,
f (qY (s)) qY (s) d s =
0
0
0
bzw. ist f monoton wachsend, so gilt:
Z 1
Z
f (qY (s)) qY (s) d s =
0
1
qf (Y ) (s)qY (s) d s =
0
Z
1
qX (s)qY (s) d s.
0
Umgekehrt:
R1
Sei X = f (Y ) und −∞ < E[XY ] = 0 qY (s)qX (s) d s < ∞. Wir zeigen, dass X = fe(Y )
65
P-f.s., wobei fe monoton wachsend ist mit


qX (FY (x))




FYR(x)
1
qX (s) d s
fe(x) := FY (x)−F
Y (x−)


FY (x−)


0
, falls x ≥ 0 und FY stetig bei x ist
, falls x ≥ 0 und FY nicht stetig bei x ist .
, sonst
Es ist fe(qY ) = Eλ [qX |σ(qY )].
(qX , qY : (0, 1) → R sind ZV’en auf dem W-Raum ((0, 1), L (0, 1), λ).)
( Unstetigkeitsstellen von FY ⇐⇒ Flächen von qY ↔ Atom in σ(qY )“
”
Stetigkeitsstellen von FY ↔ fe(qY (s)) = qX (FY (qY (s))) = qX (s).)
Wir erhalten:
Z
Z 1
qX (s)qY (s) d s
f (qY (s)) qY (s) d s =
0
0
= Eλ [qX qY ] = Eλ qY Eλ [qX |σ(qY )]
Z ∞
e
= Eλ [f (qY )qY ] =
fe(y)y d PY (y)
∞
f (y)y d PY (y) =
0
Z
1
0
Ein analoges Argument liefert die Behauptung für die untere Schranke (Übung).
Seien nun X, Y beliebige ZV’en derart, dass E[XY ] wohldefiniert ist. Es gilt:
E[XY ] = E X + Y + − E X + Y − − E X − Y + + E X − Y −
Z 1
Z 1
≤
qX + (s)qY + (s) d s −
qX + (s)qY − (1 − s) d s
0
0
Z 1
Z 1
−
qX − (1 − s)qY + (s) d s +
qX − (1 − s)qY − (1 − s) d s
0
0
Z 1
=
qX (s)qY (s) d s,
0
denn qZ + (s) = (qZ (s))+ und qZ − (s) = (qZ (1 − s))− .
Analog folgt
Z
1
E[XY ] ≥
0
qX (1 − s)qY (s) d s.
Ist X = f (Y ), so folgt der letzte Teil der Aussage von Satz 4.9 für allg. X, Y aus XY + =
f (Y + )Y + und XY − = f (−Y − )Y − und den obigen Betrachtungen. (Übung)
Lemma 4.10. Seien p, q ∈ [1, ∞] mit
Dann gilt:
1
p
+
1
q
e ]=
sup E[XY
d
e =X
X
= 1. Des Weiteren seien X ∈ Lp und Y ∈ Lq .
Z
1
0
66
qX (s)qY (s) d s.
Beweis. i) Angenommen FY ist stetig. Dann ist U := FY (Y ) gleichverteilt auf (0, 1) und
e = qX (U ), dass
Y = qY (U ) P-f.s. (Lemma 4.3). Also gilt für X
Z 1
e
qX (s)qY (s) d s
E[XY ] = E[qX (U )qY (U )] =
0
und die Behauptung folgt aus Satz 4.9 (Hardy-Littlewood-Ungleichung).
ii) Angenommen FY ist nicht stetig. Sei D die Menge aller y ∈ R mit P(Y = y) > 0. D ist
abzählbar (Übung).
O.B.d.A. 0 ∈
/ D. Sei Ay := {Y =
y}, y ∈ D. Da (Ω, F, P) atomlos ist, gibt es zu jedem
y ∈ D eine ZV Uy , welche auf 0, |y|
2 ∧ 1 gleichverteilt ist unter dem W-maß P(·|Ay )
(Übung). Die Verteilungsfunktion der ZV’en
Yn := Y −
1X
sgn(y)Uy 1Ay , n ∈ N,
n
y∈D
sind stetig. Denn für z ∈ R:
P(Yn = z) = P(Yn = z, Y ∈
/ D) + P(Yn = z, Y ∈ D)
X
= P(Y = z, Y ∈
/ D) +
P(Y = y, Uy = (z − y)n sgn(y))
|
{z
}
|
{z
}
y∈D
=0
=0, da Uy gleichverteilt ist
= 0.
n%∞
Bemerke, dass Y ± − 1 ≤ Yn± ≤ Y ± und das Yn −→ Y P-f.s. und in Lq (majorisierte
Konvergenz).
n%∞
Außerdem gilt qX (s)qYn (s) −→ qX (s)qY (s) fast überall mit |qX (s)qYn (s)| ≤ |qX (s)qY (s)|
und
Z
1
0
|qX (s)| · |qY (s)| d s < ∞ = E [|qX (U )| · |qY (U )|]
Hölder
≤
kXkp kY kq
für eine auf (0, 1) gleichverteilte ZV U . Also folgt aus der majorisierten Konvergenz, dass
Z 1
Z 1
i)
e n ] = sup E[XY
e ],
qX (s)qY (s) d s = lim
qX (s)qYn (s) d s = lim sup E[XY
0
n%∞ 0
denn
e n ] − E[XY
e ]|
|E[XY
n%∞
Hölder
≤
d
e =X
X
d
e =X
X
1
kXkp kYn − Y kq ≤ kXkp .
n
Satz 4.11. Sei p ∈ [1, ∞] und f : Lp → (−∞, ∞] ein konvexe k · kp -uhs Funktion. Dann sind
äquivalent:
i) f ist verteilungsinvariant
67
ii) f ∗ ist verteilungsinvariant, falls p < ∞, bzw. f ∗ |L1 ist verteilungsinvariant und f ist
σ(L∞ , L1 )-uhs, falls p = ∞.
Beweis. i)⇒ii)“:
”p
Sei q = 1−p
und angenommen f ist verteilungsinvariant. Dann gilt für Z ∈ Lq :
f ∗ (Z) = sup E[XZ] − f (X)
X∈Lp
e − f (X)
e
= sup sup E[XZ]
X∈Lp e d
X =X
= sup
X∈Lp
e
sup E[XZ]
d
e =X
X
Korollar 4.10
=
!
sup
X∈Lp
Z
− f (X)
1
0
qX (s)qZ (s) d s − f (X),
welches nur von der Verteilung von Z abhängt.
ii)⇒i)“:
”
Ist umgekehrt f ∗ verteilungsinvariant und f ist σ(L∞ , L1 )-uhs, falls p = ∞, so ist
f (X) = sup E[XZ] − f ∗ (Z)
Z∈Lq
!
e − f ∗ (Z)
= sup sup E[X Z]
Z∈Lq
= sup
Z∈Lq
Z
d
e=Z
Z
1
0
qX (s)qZ (s) d s − f ∗ (Z).
Korollar 4.12. Sei p ∈ [1, ∞] und ρ : Lp → (−∞, ∞] ein k · kp -uhs konvexes Risikomaß.
Dann sind äquivalent:
i) ρ ist verteilungsinvariant
ii) αmin ist verteilungsinvariant, falls p < ∞, bzw. αmin |M1 ist verteilungsinvariant und ρ
ist σ(L∞ , L1 )-uhs, falls p = ∞.
Definition 4.13.
• konkave Ordnung ≥C auf L1 : Seien X, Y ∈ L1 :
X ≥C Y ⇐⇒ E[u(X)] ≥ E[u(Y )]
für alle konkaven Funktionen u : R → R.
• Second Order Stochastic Dominance: ≥ssd auf L1 . Seien X, Y ∈ L1 :
X ≥ssd Y ⇐⇒ E[u(X)] ≥ E[u(Y )]
für alle konkaven und monoton wachsenden Funktionen u : R → R (Nutzenfunktionen).
68
Bemerkung.
• X ≥C Y ⇒ X ≥ssd Y .
• E[X|G] ≥C X (und somit auch in ≥ssd )(Jenssen’sche Ungleichung).
Satz 4.14. Seien X, Y ∈ L1 . Dann sind äquivalent:
1) X ≥ssd Y
2) Für alle c ∈ R gilt
Z
R
3) Für alle c ∈ R gilt
+
(c − x) d PX (x) ≤
Z
c
−∞
4) Für alle 0 ≤ t ≤ 1 gilt
Z
0
FX (x) d x ≤
t
qX (s) d s ≥
Z
R
Z
(c − x)+ d PY (x).
c
FY (x) d x.
−∞
Z
t
qY (s) d s.
0
(Hierbei sind qX , qY : (0, 1) → R Quantilfunktionen von X bzw. Y )
Beweis. 1) ⇒ 2):
uc (x) := −(c − x)+ ist konkav und monoton wachsend. Also ist
Z
Z
− (c − x)+ d PX (x) = E[uc (X)] ≥ E[uc (Y )] = − (c − x)+ d PY (x).
R
R
2) ⇒ 1):
Sei u : R → R konkav und monoton wachsend. Ist E[u(Y )] = −∞, so gilt offensichtlich
Jenssen
E[u(X)] ≥ E[u(Y )] (Bemerke E[u(Y )] ≤ u (E[Y ]), d.h. E[u(Y )] ∈ [−∞, ∞)).
Angenommen E[u(Y )] > −∞. Wähle ein b ∈ R. Es ist
Z b
0
u(x) = u(b) − u+ (b)(b − x) −
(z − x)+ d γ(z), x ∈ R,
−∞
wobei das Maß γ gegeben ist durch γ ([s, t)) = −u0+ (t)+u0+ (s), s < t, und u0+ die rechtsstetige
Ableitung von u bezeichnet. (u0 ist monoton fallend). Denn
Z b
Z b
+
(z − x) d γ(z) =
(z − x)1{x≤z} d γ(z)
−∞
=
−∞
b Z
Z
−∞
Fubini
=
Z
R
R
1{x≤y≤z} d y d γ(z)
−u0+ (b) + u0+ (y) 1{x≤y≤b} d y
= −u0+ (b)(b − x) + u(b) − u(x),
69
denn u ist fast überall differenzierbar, d.h. der Hauptsatz gilt. Damit folgt:
Z b
Z b Z b
+
0
(z − x) d γ(z) d PY (x)
u(b) − u+ (b)(b − x) −
u(x) d PY (x)
=
−∞
−∞
u(b)P(Y ≤ b) − u0+ (b)
=
Fubini
Z
−∞
b
−∞
Z
(b − x) d PY (x) −
Z
Z
b
Z
b
−∞ −∞
b Z
(z − x)+ d γ(z) d PY (x)
=
u(b)P(Y ≤ b) − u0+ (b)
2)
u(b) P(Y ≤ b) − P(X ≤ b) + u(b)P(X ≤ b)
Z
Z b Z
0
+
−u+ (b) (b − x) d PX (x) −
(z − x)+ d PX (x) d γ(z)
≤
R
(b − x)+ d PY (x) −
R
−∞
... = u(b) P(Y ≤ b) − P(X ≤ b) +
=
−∞
R
(z − x)+ d PY (x) d γ(z)
R
Z
b
u(x) d PX (x)
−∞
Da u konkav ist, gilt u(x) ≤ u0 (0)x + c für ein c > 0. Also erhalten wir (da b > 0 und u ↑):
|u(b)| · |P(Y ≤ b) − P(X ≤ b)| ≤ |u(0)| ∨ u0+ (0) b + c · P(Y > b) ∨ P(X > b) ,
| {z }
≥0
denn
(
≤ 1 − P(X ≤ b)
P(Y ≤ b) − P(X ≤ b)
≥ P(Y ≤ b) − 1
Nun gilt
und für b > 0:
b%∞
|u(0)| P(Y > b) ∨ P(X > b) −→ 0
0 ≤ u0+ (0)b + c P(Y > b) ≤
und analog gilt
Insgesamt folgt also, dass
.
b%∞
E[Y 1{Y >b} ]
|
{z
}
−→ 0 (maj. Konvergenz)
b%∞
u0 (0) + c P(Y > b) −→ 0
| {z }
b%∞
−→ 0
b%∞
0 ≤ u0+ (0)b + c P(X > b) −→ 0.
b%∞
|u(b)| · P(Y ≤ b) − P(X ≤ b) −→ 0,
und somit folgt aus (4.2) für b → ∞, dass
Z
Z
E[u(Y )] =
u(x) d PY (x) ≤
u(x) d PX (x) = E[u(X)].
R
R
70
(4.2)
2) ⇐⇒ 3):
Z
Z
c
FX (x) d x
=
−∞
−∞
Fubini
=
ψX (y) :=
Z
y
FX (z) d z
Z Z
ZR
=
3) ⇐⇒ 4):
c
R
Z
x
d PX (z) d x
−∞
R
1{z≤x≤c} d x d PX (z)
(c − z)1{z≤c} d PX (z) =
siehe 2) ⇐⇒ 3)
=
−∞
ist konvex und monoton wachsend. Es gilt:
E (y − X)+ =
Z
Z
R
(c − z)+ d PX (z).
1
0
(y − qX (t))+ d s, y ∈ R,
∗
ψX ≤ ψY ⇐⇒ ψX
≥ ψY∗ ,
denn für y ∈ R:
∗
ψX
(y) = sup xy − ψX (x) ≥ sup xy − ψY (x) = ψY∗ (y)
x∈R
und umgekehrt wegen
∗∗
ψX
x∈R
ψY∗∗
= ψY . Zeige:
= ψX und

y

R q (s) d s
,0≤y≤1
X
∗
ψX
(y) = 0
.

∞
, sonst
∗ (y) = ∞, falls y ∈
ψX
/ [0, 1], da ψX monoton wachsend ist mit maximaler Steigung 1.
Z 1
∗
ψX (1) = sup x − ψX (x) = sup
x − (x − qX (s))+ d s
x∈R
x∈R
0
Z
1
= lim
x − (x − qX (s))1[−∞,x] (qX (s)) d s
x→∞ 0
Z 1
=
qX (s) d s.
0
Sei y ∈ (0, 1) und f (x) = xy − ψX (x), x ∈ R. Es gilt f+0 (x) = y − FX (x) und f−0 (x) =
y − FX (x−). x
b ist ein Maximum von f , falls f+0 (b
x) ≤ 0 und f−0 (b
x) ≥ 0. D.h. x
b ist ein
y-Quantil von X, denn FX (b
x) ≥ y ≥ FX (b
x−). Also
Z 1
+
ψX (b
x) = ψX (qX (y)) =
x
b −qX (s) d s
|{z}
0
=
Z
0
y
=qX (y)
+
x
b − qX (s) d s = x
by −
71
Z
0
y
qX (s) d s.
⇒
∗
ψX
(y)
Ist y = 0, so gilt
=x
by − ψX (b
x) =
Z
y
qX (s) d s.
0
∗
ψX
(0) = sup −ψX (x) = sup − E (x − X)+
|
{z
}
x∈R
x∈R
≥0
= lim −E (x − X)+ = 0
x→−∞
Z 0
qX (s) d s.
=
0
Korollar 4.15.
X ≥C Y ⇐⇒ X ≥ssd Y und E[X] = E[Y ].
Beweis. ⇒“:
”
X ≥ssd Y ist klar (siehe Bemerkung oben). Außerdem sind sowohl IdR als auch − IdR konkav.
Daher folgt E[−X] ≥ E[−Y ] und E[X] ≥ E[Y ], also E[X] = E[Y ].
⇐“:
”
Da X ≥ssd Y gilt E u(X) ≥ E u(Y ) für alle konkaven, monoton wachsenden u : R → R.
Sei nun u : R → R konkav und monoton fallend. Wir zeigen, dass auch in diesem Falle
E u(X) ≥ E u(Y ) gilt. Dann folgt aber, dass E u(X) ≥ E u(Y ) für alle konkaven
u:
R → R, also X ≥C Y . Sei also u : R → R konkav und monoton fallend und E u(Y ) > −∞.
Wie im Beweis von Satz 4.14 2) ⇒ 1) gilt für b ∈ R
Z b
0
u(x) = u(b) − u+ (b)(b − x) −
(z − x)+ d γ(z), x ∈ R,
−∞
wobei das Maß γ gegeben ist durch
γ [s, t) = −u0+ (t) + u0+ (s), s > t,
und u0+ die rechtsseitige Ableitung von u bezeichent.
Bemerke, dass u0+ ≤ 0 und monoton fallend ist, d.h. |u0+ | = −u0+ ist ≥ 0 und monoton
wachsend. Nun folgt:
Z
Z Z b
0
+
E u(Y )
=
u(x) d PY (x) =
u(b) − u+ (b)(b − x) −
(z − x) d γ(z) d PY (x)
R
Fubini
=
u(b) −u0+ (b) b −
| {z }
≥0
≤
=
u0+ (b)
Z
R
x d PY (x) −
| R {z
}
=E[Y ]=E[X]
Z
(z − x)+ d PY (x) d γ(z)
−∞ R
| R
{z
}
Z
Z
b−
x d PX (x) −
u(b) −
R
Z
... =
u(x) d PX (x) = E u(x) .
R
72
−∞
Z
b
≥ R (z−x)+ d PX (x)
nach Satz 4.14 2)
b
−∞
Z
R
(z − x)+ d PX (x) d γ(z)
Satz 4.16. X, Y ∈ L1 :
i)
Z
X ≥ssd Y ⇐⇒
1
0
qX (s)f (s) d s ≤
Z
1
qY (s)f (s) d s
0
für alle monoton wachsenden f : (0, 1) → (−∞, 0], so dass beide Integrale endlich sind.
ii)
X ≥C Y ⇐⇒
Z
1
0
qX (s)f (s) d s ≤
Z
1
qY (s)f (s) d s
0
für alle monoton wachsenden f : (0, 1) → R, so dass beide Integrale endlich sind.
Beweis. i) ⇐“:
”
−1(0,t] (·) ist monoton wachsend für alle 0 < t ≤ 1 und somit gilt:
−
Z
t
0
qX (s) d s ≤ −
Z
0
t
qY (s) d s für alle 0 ≤ t ≤ 1.
Wende Satz 4.14 an.
i) ⇒“:
”
Sei X ≥ssd Y . Angenommen f : (0, 1) → (−∞, 0] ist einfach, d.h.
n−1
X
f (s) =
ai 1(ti−1 ,ti ] (s) + an 1(tn−1 ,1) ,
i=1
wobei t0 = 0 < t1 < ... < tn = 1 und ai ∈ R mit a1 ≤ a2 ≤ ... ≤ an ≤ 0. Aus Satz 4.14 folgt,
dass
Z 1
Z 1
an
qX (s) d s ≤ an
qY (s) d s
0
und für j = 1, ..., n − 1:
(aj − aj+1 )
|
{z
}
≤0
Z
0
tj
qX (s) d s ≤ (aj − aj+1 )
0
Z
tj
qY (s) d s.
0
Aufsummieren ergibt:
n−1
X
j=1
(aj − aj+1 )
Z
0
tj
qX (s) d s + an
Z
0
1
qX (s) d s ≤
=
n−1
X
j=1
n
X
j=1
73
(aj − aj+1 )
aj
Z
Z
tj
qY (s) d s + an
0
tj
tj−1
qY (s) d s =
Z
1
qY (s) d s
0
Z
0
1
qY (s)f (s) d s
⇐⇒
Z
1
qX (s)f (s) d s ≤
0
Z
1
qY (s)f (s) d s.
0
Für allgemeines f : (0, 1) → (−∞, 0], monoton wachsend, approximiere f durch einfache
Funktionen
(
− i−1
, falls f (s) ∈ − 2ik , − i−1
, i = 1, ..., k2k
k
k
2
2
fk (s) :=
, k ∈ N.
−k
, sonst
Dann gilt fk → f punktweise und |fk | ≤ |f | für alle k ∈ N. Also folgt mit der majorisierten
Konvergenz, dass
Z 1
Z 1
qY (s)fk (s) d s
qY (s)f (s) d s = lim
k%∞ 0
0
Z 1
Z 1
qX (s)f (s) d s.
qX (s)fk (s) d s =
≥ lim
k%∞ 0
ii) ⇐“:
”
Es folgt X ≥ssd Y und
E[X] =
Z
qX (s) · 1 d s ≤
Z
qX (s) · (−1) d s ≤
Z
0
bzw.
E[−X] =
Z
0
0
1
1
1
qY (s) · 1 d s = E[Y ]
0
0
1
qY (s) · (−1) d s = E[−Y ]
also E[X] = E[Y ] und somit X ≥C Y laut Korollar 4.15.
ii) ⇒“:
R1
R1
”
Sei X ≥C Y . Laut Korollar 4.15 gilt X ≥ssd Y und 0 qX (s) d s = 0 qY (s) d s. Es folgt
R1
R1
q
(s)f
(s)
d
s
≤
X
0 qY (s)f (s) d s für alle f : (0, 1) → R, ↑, welche von oben beschränk sind.
0
Denn ist K eine solche obere Schranke für f , dann ist f − K ≤ 0 und somit gilt:
Z 1
Z 1
Z 1
qX (s)f (s) d s =
qX (s) f (s) − K d s +
qX (s)K d s
0
0
0
|
{z
} |
{z
}
X≥ssd Y , i)R
1
≤
0 qY
≤
Z
(s)(f (s)−K) d s
=K
R1
0
qY (s) d s
1
qY (s)f (s) d s.
0
Nun liefert die monotone Konvergenz die Behauptung für allgemeines f : (0, 1) → R, ↑.
Satz 4.17. Sei f : Lp → (−∞, ∞] eine k · kp -uhs konvexe Funktion, p ∈ [1, ∞]. Folgende
Eigenschaften sind äquivalent:
i) f ist verteilungsinvariant.
ii) f ist ≥C -antiton, d.h. X ≥C Y ⇒ f (X) ≤ f (Y ).
74
Ist f zusätzlich antiton bzgl. der P-f.s. Ordnung (d.h. X ≥ Y ⇒ f (X) ≤ f (Y )), so sind i)
und ii) äquivalent zu
iii) f ist ≥ssd -antiton (d.h. X ≥ssd Y ⇒ f (X) ≤ f (Y )).
Beweis. i) ⇒ ii):
Sei X ≥C Y . Dann ist
f (X)
=
sup
Z∈Lq
Satz 4.16 ii)
wobei q ∈ [1, ∞] mit
ii) ⇒ i):
1
p
+
1
q
Z
0
Z
≥
Z∈Lq
=
f (Y ),
sup
1
1
0
qX (s)qZ (s) d s − f ∗ (Z)
qY (s)qZ (s) d s − f ∗ (Z)
= 1, d.h. insbesondere q = 1, falls p = ∞.
d
Ist X = Y , so gilt X ≥C Y und Y ≥C X und somit f (X) ≤ f (Y ) und f (X) ≥ f (Y ), also
f (X) = f (Y ).
Sei f nun antiton bzgl. der P-f.s. Ordnung:
i) ⇒ iii):
Die Antitonie von f impliziert, dass f ∗ ⊆ Lq− (Lemma 3.1). Also folgt die Behauptung wie i)
⇒ ii) aus dem Satz 4.16 i) und
Z 1
qX (s)qZ (s) d s − f ∗ (Z).
f (X) = sup
Z∈Lq−
iii) ⇒ ii):
0
d
Klar, Übung. (X = Y , X ≥ssd Y und Y ≥ssd X)
Korollar 4.18 (Version von Lemma 4.5 für p ∈ [1, ∞)).
Sei p ∈ [1, ∞). Ist C ⊂ Lp eine verteilungsinvariante, konvexe, k · kp -abgeschlossene Menge.
Dann gilt für alle Unter-σ-Algebren A ⊂ F und für alle X ∈ C, dass E[X|G] ∈ C.
Beweis.
(
0
f (X) := δ(X|C) =
∞
, falls X ∈ C
, X ∈ Lp ,
, sonst
ist konvex, verteilungsinvariant und k · kp -unterhalbstetig, da {X|f (X) ≤ k} = Ek = ∅ für
k < 0 und Ek = C für k ≥ 0. (C ist k · kp -abgeschlossen)
Satz 4.17
⇒ f ist ≥C -antiton.
Da E[X|G] ≥C X (Jenssen’sche Ungleichung), folgt
0 ≤ δ E[X|G]C = f E[X|G] ≤ f (X) = δ(X|C) = 0
und somit δ E[X|G]C = 0, also E[X|G] ∈ C, falls X ∈ C.
75
Bemerkung. Satz 4.17 impliziert, dass verteilungsinvariante uhs konvexe Risikomaße auf
Lp stets ≥C - und ≥ssd -antiton sind.
Korollar 4.19. Sei ρ : Lp → (−∞, ∞] ein verteilungsinvariantes k · kp -uhs konvexes Risikomaß. Dann gilt:
i) ∀X ∈ Lp und für alle Unter-σ-Algebren G ⊂ F:
ρ E[X|G] ≤ ρ(X).
ii) ∀X ∈ Lp : ρ(X) ≥ −E[X] + ρ(0)
iii) ρ∗ (−1) = −ρ(0) bzw. αmin (P) = −ρ(0)
k·kp
iv) Sei für X ∈ Lp Xm = E[X|Gm ] für Unter-σ-Algebren Gm ⊂ F mit Xm −→ X. Dann gilt
ρ(X) = lim ρ(Xm ).
m%∞
Beweis. Zu i):
E[X|G] ≥C X (Jenssen’sche Ungleichung). Wende Satz 4.17 an.
Zu ii):
G = {∅, Ω} und i) ergeben:
ρ(X) ≥ ρ E[X] = −E[X] + ρ(0)
Zu iii):
X=0
ρ∗ (−1) = sup E[−X] − ρ(X) = −ρ(0).
{z
}
X∈Lp |
≤−ρ(0) laut ii)
Zu iv):
uhs und Satz 4.17 (bzw. i)) implizieren, dass
ρ(X) ≤ lim inf ρ(Xm ) und lim sup ρ(Xm ) ≤ ρ(X)
m%∞
m%∞
⇒ ρ(X) = limm%∞ ρ(Xm ).
Korollar 4.20. Seien ρ1 , ..., ρn : Lp → (−∞, ∞] verteilungsinvariante, uhs, konvexe Risikomaße. Dann gilt stets:
n
ρi (X) =
i=1
inf p
n
X
Xi ∈L
X1 +...+Xn =X i=1
ρi (Xi ) ≥ E[−X] +
n
X
ρi (0) .
|i=1 {z }
n
i=1
=−αmin
n
Insbesondere ist ρi stets ein konvexes Risikomaß.
i=1
76
ρi
(P)
Beweis.
n
ρi (X) =
i=1
inf p
n
X
Xi ∈L
X1 +...+Xn =X i=1
ρi (Xi )
Korollar 4.19
≥
inf p
n
X
Xi ∈L
X1 +...+Xn =X |i=1
E[−Xi ] +ρi (0)
{z
=E[−X]
= E[−X] +
n
X
ρi (0).
}
i=1
Bemerkung.
n
• Insbesondere kann man zeigen, dass ρi wie in Korollar 4.20 stets uhs ist und somit
i=1
∗
n
n
P
ρ∗i (s.o.) (ρ∗i ist verteilungsinvariant für
auch verteilungsinvariant, da ρi
=
i=1
i=1
jedes i) verteilungsinvariant ist (Satz 4.11).
n
• Außerdem kann gezeigt werden, dass das Problem ρi (X) =
i=1
n
P
ρ(X i ) (für eine Allo-
i=1
kation (X 1 , ..., X n ) von X) stets eine Lösung besitzt, d.h. zu jedem X gibt es Pareto
optimale Allokationen.
• Equilibria sind etwas schwieriger außerhalb von L∞ . Auf L∞ haben wir den Zusammenhang zwischen Pareto Optima und Equilibria bereits geklärt.
Frage: Wie hängen Risikomaße auf Lp und L∞ zusammen?
• Ist ρ : Lp → (−∞, ∞] ein konvexes Risikomaß, so ist stets ρ|L∞ ein konvexes Risikomaß
auf L∞ (Übung).
• Sei umgekehrt ein konvexes Risikomaß ρ : L∞ → R vorgegeben. Suche ein (uhs) konvexes Risikomaß ρp : Lp → (−∞, ∞] mit ρp|L∞ = ρ. Dieses Problem hat im allgemeinen
alles zwischen keiner und beliebig vielen Lösungen.
Der verteilungsinvariante Fall ist jedoch besonders:
Satz 4.21. Sei ρ∞ : L∞ → R ein verteilungsinvariantes konvexes Risikomaß. Dann gibt
es zu jedem p ∈ [1, ∞) genau ein uhs verteilungsinvariantes konvexes Risikomaß ρp : Lp →
(−∞, ∞] derart, dass
ρp|L∞ = ρ∞ .
p
∞
Dual gilt αmin
= αmin
, d.h für alle Q ∈ M1p ist
|M p
1
dQ
p
∞
αmin
(Q) = (ρp )∗ −
= (ρ∞ )∗ (−Q) = αmin
(Q),
dP
77
∞ bzw. αp
p
wobei αmin
min die jeweilige minimale Straffunktion bezeichnet. ρ ist gegeben durch:
∞
ρp (X) = sup EQ [−X] − αmin
(Q).
Q∈M1p
Letztlich ist für alle p ∈ [1, ∞]: ρp = ρ1|Lp .
Bemerkung. Ein analoges Resultat gilt in der Tat für jede verteilungsinvariante uhs konvexe
Funktion f : L∞ → (−∞, ∞].
Beweis von Satz 4.21.
∞ (Q), X ∈ Lp :
Betrachte ρp (X) = sup EQ [−X] − αmin
Q∈M1p
i) ρp = ρ∞ auf L∞ : Denn laut Korollar 4.8 ist ρ∞ σ(L∞ , Lq )-uhs für jedes q ∈ [1, ∞] mit
1
1
∞
p + q = 1. Also gilt für X ∈ L :
∞
ρ∞ (X) = sup EQ [−X] − αmin
(Q) = ρp (X).
Q∈M1p
p
∞
ii) αmin
= αmin
|M1p
: Es ist für Q ∈ M1p :
p
αmin
(Q)
=
sup EQ [−X] − ρp (X)
∞ b
sup EQ [−X] − sup EQ
b [−X] − αmin (Q)
X∈Lp
=
X∈Lp
b
Q=Q
≤
p
b
Q∈M
1
∞
αmin
(Q)
und
p
(Q) = sup EQ [−X] − ρp (X)
αmin
X∈Lp
≥ sup EQ [−X] − ρp (X)
| {z }
X∈L∞
i)
=ρ∞ (X)
∞
= αmin
(Q).
p
∞
Also αmin
= αmin
|M1p
.
p
∞
∞
iii) Da αmin
verteilungsinvariant ist (Satz 4.11) und somit auch αmin
= αmin
|M1p
|M1p
p
verteilungsinvariant ist, folgt die Verteilungsinvarianz von ρ (Satz 4.11).
iv) Es bleibt die Eindeutigkeit von ρp zu zeigen:
Sei hierzu g : Lp → (−∞, ∞] eine uhs verteilungsinvariante konvexe Funktion mit g|L∞ =
78
m
ρ∞ . Für jedes X ∈ Lp und m ∈ N gibt es eine endliche Zerlegung Am
1 , ..., An(m) von Ω
m
(d.h. Am
i ∩ Aj = ∅ für i 6= j,
n(m)
S
j=1
m
Am
j = Ω und P(Aj ) > 0) derart, dass
∞
m
Xm := E X σ(Am
1 , ..., An(m) ) ∈ L
einen Lp -Abstand kleiner als
4.17 implizieren:
1
m
zu X hat, d.h. kX − Xm kp ≤
1
m.
Die uhs von g und Satz
g(X) ≤ lim inf g(Xm ) ≤ lim sup g(Xm ) ≤ g(X).
m%∞
m%∞
Also g(X) = lim g(Xm ). Da dies inbesondere auch für ρp gilt erhalten wir:
m%∞
g(X) = lim g(Xm ) = lim ρ∞ (Xm ) = lim ρp (Xm ) = ρp (X).
m%∞
m%∞
m%∞
D.h. g = ρp . Die Wahl g = ρ1|Lp zeigt, dass inbesondere ρp = ρ1|Lp .
4.1
Anwendung: Optimal Risk Sharing /Equilibria
• Agent 1: ρ1 (X) = AVaRα (X), X ∈ L∞ , α ∈ (0, 1).
• Agent 2: ρ2 ist ein verteilungsinvariantes konvexes Risikomaß auf L∞ , welches zudem
folgende Eigenschaften hat:
1) ρ2 ist strikt monoton: D.h. falls X ≥ Y und P(X > Y ) > 0 ⇒ ρ(X) < ρ(Y ).
2) ρ2 ist strictly risk averse conditional on lower tail events“ (sraclte):
”
Sei X ∈ L∞ und A ∈ F mit P(A) > 0.
Dann ist A ein lower tail event von X, falls essinf A X < esssupA X ≤ essinf AC X.
ρ2 heißt sraclte, falls
ρ(X) > ρ X1AC +E(X|A)1A für jedes X ∈ L∞ und jedes lower tail event A von X.
3) ρ2 ist stetig von unten (Lebesgue-Eigenschaft bzw. dom ρ∗2 ⊂ M1 ).
Beispiel. ρ2 = Entropisches Risikomaß, Semi-Deviation Risikomaß, ...etc.
Lemma 4.22. Sei ρ : L∞ → R ein verteilungsinvariantes konvexes Risikomaß, welches stetig
von unten ist. Ist ρ zudem strikt monoton, dann gilt für alle Z ∈ ∂ρ(X), dass Z < 0 P-f.s.
Beweis. A := {Z = 0}.
ρ(X + 1A )
Subgrad.unglg
≥
ρ(X) + E Z(X + 1A − X) = ρ(X)
{z
}
|
=0
strikte Monotonie
=⇒
P(A) = 0.
79
Lemma 4.23. Sei ρ wie in Lemma 4.22. Dann gibt es zu jedem X ∈ L∞ eine monoton
wachsende Funktion h : R → (−∞, 0] derart, dass h(X) ∈ ∂ρ(X).
X
(D.h. QX gegeben durch ddQP = −h(X) erfüllt ρ(X) = EQX (−X) − αmin (QX ).
Beispiel:
d QX
dP
=
e−βX
E(e−βX )
,→ h(y) =
e−βy
E(e−βX )
)
Beweis. Wir wissen, dass ∂ρ(X) 6= ∅ und ∂ρ(X) ⊂ {Z ∈ L1− : E(Z) = −1} , −M1 . Sei also
Z ∈ ∂ρ(X) und h : R → (−∞, 0] sei meßbar mit h(X) = E(Z|X). Da E(Z|X) ≥C Z und
ρ∗ eine verteilungsinvariante, konvexe, uhs Funktion ist, also insbesondere ≥C -antiton, folgt,
dass
ρ(X) = E(ZX) − ρ∗ (Z) ≤ E E(Z|X)X − ρ∗ E(Z|X) ≤ ρ(X)
,→ h(X) = E(Z|X) ∈ ∂ρ(X). Außerdem gilt:
ρ(X) ≥
sup E(Y X) − ρ h(X) =
∗
d
Y =h(X)
Z
1
0
≥ E h(X)X − ρ∗ h(X) = ρ(X)
R1
⇒ E h(X)X = 0 qh(X) (t)qX (t) d t
Satz 4.9
⇒
qh(X) (t)qX (t) d t − ρ∗ h(X)
h ist monoton wachsend.
Lemma 4.24. Sei ρ wie in Lemma 4.22 und zudem sraclte. Außerdem sei Z ∈ ∂ρ(X), wobei
X = f (W ), Z = h(W ) für W ∈ L∞ und monoton wachsende Funktionen f : R → R bzw.
h : R → (−∞, 0]. Dann gilt für A = {Z = essinf Z}:
Falls P(A) > 0, dann ist X konstant auf A.
Beweis. Angenommen P(A) > 0 und X ist nicht konstant auf A. Dann ist A ein lower tail
event von X. Also wissen wir, dass
ρ(X) > ρ x1AC + E(X|A)1A .
|
{z
}
:=X
Andererseits:
E(ZX) = E(ZX1AC ) +
ρ(X) ≥ ρ(X) + E Z(X − X)
|
{z
}
E(ZX1A )
= E(ZX)
| {z }
A)
= essinf Z · E(X1
P(A) P(A)
= E E(X|A)Z1A
=0
Satz 4.25. Die komonotonen Lösungen des optimalen Allokationsproblems (P) (in unserer
Situation) haben folgende Form:
(X1 , X2 ) = − (W − l)− + k, W ∨ l − k für k, l ∈ R.
80
Beweisskizze. Seien (X1 , X2 ) = f (W ), g(W ) , wobei f, g : R → R monoton wachsend und
f + g = Id eine komonotone Lösung von (P) ist, d.h.
ρ1 ρ2 (W ) = ρ1 (X1 ) + ρ2 (X2 ).
Außerdem sei Z = h(W ) ∈ ∂ρ1 ρ2 (W ) = ∂ρ1 (X1 ) ∩ ∂ρ2 (X2 ), (siehe Lemma 3.24) wobei
h : R → (−∞, 0] monoton wachsend ist.
Bemerke:
Z α
Z 1
1
qX (t) d t,
qX (t) d ϕ(t) = −
AVaRα (X) = −
α
0
0
wobei ϕ(t) = αt ∧ 1, t ∈ [0, 1] eine concave distortion“ ist.
”
Wir wissen:
Z
Z 1
Z 1
qZ (t)qX1 (t) d t =
qX1 (t) d ϕ(t) = ρ1 (X1 ) = AVaRα (X1 ) = E(ZX1 ) =
−
0
0
wobei ψ(t) =
R1
0
qZ (s) d s ≥ −1.
=⇒
Z
|
0
1
qX1 (t) d ψ(t) +
{z
R1
”
0
qX1 (t) d ψ(t),
0
1
0
qX1 (t) d ϕ(t) = 0
}
qX1 (t) ψ 0 (t)+ϕ0 (t) d t“
partielle Integration
=⇒
Z
1
Z
0
1
φ(t) + ϕ(t) d qX1 (t) = 0
(∗)
Da Z ∈ ∂ρ1 (X1 ), wissen wir, dass Z ≥ − α1 (siehe Satz 3.20) (dom ρ∗1 ⊂ {Z ∈ L1− : Z ≥ − α1 }).
⇒ qZ (t) ≥ − α1 ⇒ ψ(t) ≥ − αt ⇒ ψ ≥ −ϕ ⇔ ψ + ϕ ≥ 0
(∗)
=⇒ qX1 ist konstant auf {ψ + ϕ > 0}.
β := inf{t : ϕ(t) + ψ(t) > 0} ⊂ [0, α]
(−ψ(t) < 1 für alle t < 1, da Z < 0 P-f.s).
D.h. qX1 ist konstant auf (β, 1]. Ist β > 0, dann gilt für alle t ∈ [0, β], dass
t
ϕ(t) = = −
α
Z
0
t
qZ (t) d t =⇒ qZ (t) = −
Lemma 4.24
1
= essinf Z für alle t ∈ [0, β].
α
ρ2 sraclte
=⇒
X ist konstant auf {Z = essinf Z}.
X1 = f (W ), X2 = g(W ), Z = h(W ), f, g, h ↑
,→ X1 ist konstant auf W −1 (l, ∞), wobei l = qW (β) qX1 = qf (W ) = f (qW ) und Z =
h(W ) = essinf Z ist konstant auf W −1 (−∞, l], also ist X2 konstant auf W −1 (−∞, l].
,→ Die Behauptung.
81
Abbildung 4.2: Illustration von ϕ, ψ und β aus dem Beweis von Satz 4.25.
82
Herunterladen