Ludwig-Maximilians-Universität Konvexe Analysis mit Anwendung auf Risikofunktionale Prof. Dr. G. Svindland Inhaltsverzeichnis 1 Einführung in die konvexen Risikomaße 1.1 Konvexe Risikomaße/Motivation . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Darstellung (konvexer) Risikomaße mittels Aktzeptanzmengen . . . . . . . . . 2 Lokalkonvexe Vektorräume/ Duale Paare/ Konvexe Dualität 2.1 Duale Paare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Konvergenz in topologischen Räumen . . . . . . . . . . . . . . . 2.3 Trennungssätze in lokalkonvexen Räumen . . . . . . . . . . . . . 2.4 Darstellung konvexer Funktionen . . . . . . . . . . . . . . . . . . 2.5 Dualräume der Lp -Räume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 5 7 7 10 15 18 23 3 Anwendung auf konvexe Risikomaße 28 4 Verteilungsinvariante Risikomaße 4.1 Anwendung: Optimal Risk Sharing /Equilibria . . . . . . . . . . . . . . . . . 59 79 3 1 Einführung in die konvexen Risikomaße 1.1 Konvexe Risikomaße/Motivation • Berechnung von Risikokapitalrücklagen (Versicherung/ Banken, Solvency II/ Basel III, etc.) • Portfoliooptimierung unter Nebenbedingungen .. . Grundlegendes Finanzmarktmodell Gegeben sei ein 1-Perioden Modell, in dem zukünftige Auszahlungsprofile durch Zufallsvariablen (ZV’en) auf einem vorgegeben Wahrscheinlichkeitsraum (W-Raum) (Ω, F, P) modelliert werden. • Ω= b Zukünftige Zustände • F= b σ-Algebra/ verfügbare Information • P= b objektives“ W-Maß ” Annahmen/ Auszahlungsprofile: • X : Ω → R F-meßbar (ZV) • X(ω) Auszahlung im Zustand ω ∈ Ω • Auszahlungen sind bereits diskontiert, d.h. Geldwert heute= Geldwert morgen • Negative Werte von X sind Verluste, positive sind Gewinne • Wir identifizieren Auszahlungsprofile, die sich nur auf einer P- Nullmenge unterscheiden • Wir nehmen an, dass alle Auszahlungsprofile beschränkt sind, d.h. ∃c > 0 : P (|X| > c) = 0 (Relaxierung hiervon später) ⇒ Der Raum der Auszahlungsprofile entspricht L∞ := L∞ (Ω, F, P) = L ∞ (Ω, F, P)/N L ∞ := L ∞ (Ω, F, P) = {X : Ω → R F-meßbar, ∃c > 0 : P (|X| > c) = 0} Äquivalenzrelation auf L ∞ : ∼: X ∼ Y ⇐⇒ P(X 6= Y ) = 0. Norm auf L ∞ : kXk∞ := esssup |X| = inf {m ∈ R : P (|X| > m) = 0} . Erinnerung: esssup Y := inf {m ∈ R : P(Y > m) = 0} essinf Y := sup {m ∈ R : P(Y < m) = 0} 1 Bemerkung. (L∞ , k · k∞ ) ist ein Banachraum (vollständiger normierter Raum). Beweis. Übung! Idee: Zur konsistenten“ Risikomessung wollen wir ein Funktional ρ : L∞ → R mit guten“ ” ” Eigenschaften definieren, welches den Geldbetrag ρ(X) angibt, den wir benötigen um das Auszahlungsprofil X ∈ L∞ abzusichern/ akzeptabel zu machen. Beispiel (VaRα (Value at Risk)). Sei α ∈ (0, 1) und für X ∈ L∞ sei + qX (α) = sup {x : P(X < x) ≤ α} = inf {x : P(X ≤ x) > α} Rechtsstetiges α-Quantil, dann ist der Value at Risk definiert als + VaRα (X) := −qX (α). y y 1 1 FX (x) = P(X ≤ x) FX (x) α + qX (α) x x − + qX (α) qX (α) − qX (α) = sup {x : P(X < x) < α} = inf {x : P(X ≤ x) ≥ α} Bemerkung. VaRα (X) = inf {m ∈ R : P(X + m) < 0) ≤ α} (Übung!) Kleinstes Kapital, dass zu X hinzugefügt werden muss, damit die Verlustwahrscheinlichkeit kleiner α ist. Typische Größen für α sind 0.5% oder 0.1% Definition 1.1. Eine Funktion ρ : L∞ → R heißt (monetäres) Risikomaß (RM), falls es folgende Eigenschaften hat: i) Monotonie (Eigentlich Antitonie): X, Y ∈ L∞ mit X ≤ Y (P-f.s.) ⇒ ρ(X) ≥ ρ(Y ) ii) Translationsinvarianz/ Cash-Invarianz: X ∈ L∞ , m ∈ R : ρ(X + m) = ρ(X) − m. Bemerkung. • ρ(X + ρ(X)) = ρ(X) − ρ(X) = 0. D.h. X + ρ(X) ist akzeptabel im Sinne, dass X + ρ(X) ∈ Aρ := {Y ∈ L∞ : ρ(Y ) ≤ 0} . Dies erlaubt die Interpretation von ρ als Kapitalanforderung. Aρ ist die Akzeptanzmenge von ρ und beschreibt die risikolosen Auszahlungsprofile. 2 • VaRα ist ein Risikomaß laut Definition 1.1. Weitere vernünftige Anforderungen an ein Risikomaß: Diversifikation: Angenommen wir können in X oder Y oder λX + (1 − λ)Y, λ ∈ (0, 1), investieren. Dann sollte Diversifikation, d.h. Investition in λX + (1 − λ)Y, nicht bestraft werden. D.h. ρ sollte quasi-konvex sein: ρ (λX + (1 − λ)Y ) ≤ max {ρ(X), ρ(Y )} . Lemma 1.2. Sei ρ : L∞ → R ein Risikomaß. Dann gilt: 1) ρ ist 1-Lipschitzstetig bzgl. k · k∞ , d.h. |ρ(X) − ρ(Y )| ≤ kX − Y k∞ . 2) Ist ρ quasi-konvex, so ist ρ konvex. (Konvexität: ∀X, Y ∈ L∞ , λ ∈ [0, 1] gilt: ρ (λX + (1 − λ)Y ) ≤ λρ(X) + (1 − λ)ρ(Y )). Beweis. Zu 1): X = X + Y − Y ≤ Y + kX − Y k∞ Aus der Monotonie und der Translationsinvarianz folgt: ρ(Y ) − kX − Y k∞ = ρ (Y + kX − Y k∞ ) ≤ ρ(X) ⇒ ρ(Y ) − ρ(X) ≤ kX − Y k∞ . Analog kann man zeigen, dass ρ(X) − ρ(Y ) ≤ kX − Y k∞ . Zu 2): ρ (λ(X + ρ(X)) + (1 − λ)(Y + ρ(Y ))) Quasikonvexität ≤ max{ρ(X + ρ(X)), ρ(Y + ρ(Y ))} = 0 | {z } | {z } =0 Translationsinv. ⇒ =0 ρ (λX + (1 − λ)Y ) ≤ λρ(X) + (1 − λ)ρ(Y ). Definition 1.3. Ein Risikomaß heißt kohärent, falls es quasi-konvex und positiv homogen (d.h X ∈ L∞ , t ≥ 0 : ρ(t · X) = tρ(X)) ist. Beispiele/ Gegenbeispiele. • VaRα ist ein Risikomaß, aber nicht konvex (quasi-konvex). Sei α = 1.5% (=0.015), X und Y unabhängig identisch verteilt mit ( mit W-keit 0.9801 100 100 mit W-keit 0.99 1 1 X= , X+ Y = 0 mit W-keit 0.0198 . 2 −100 mit W-keit 0.01 2 −100 mit W-keit 0.0001 ⇒ VaR0.015 (X) = VaR0.015 (Y ) = −100 und VaR0.015 3 1 2X + 12 Y = 0. 1 FX = FY F 12 X+ 12 Y 0.01 α 0.0199 0.0001 -100 100 Abbildung 1.1: Illustration vom ersten Beispiel. Bemerkung. Eingeschränkt auf die Klasse der normalverteilten ZV’en ist VaRα konvex für α ≤ 0.5 (Für α ≥ 0.5 ist VaRα konkav). Beweis. Sei α ≤ 0.5, X ∼ N (µX , σX ) und Y ∼ N (µY , σY ). Dann gilt VaRα λX + (1 − λ)Y = −qλX+(1−λ)Y (α) = −q0,1 (α)σλX+(1−λ)Y − µλX+(1−λ)Y 1 2 + (1 − λ)2 σY2 + 2λ(1 − λ)σX σY ρX,Y 2 −µλX+(1−λ)Y = −q0,1 (α) λ2 σX | {z } | {z } ≥0 für α≤0 →max für ρX,Y =1 ≤ −q0,1 (α) (λσX + (1 − λ)σY )2 1 2 = λ VaRα (X) + (1 − λ) VaRα (Y ), − λµX − (1 − λ)µY wobei q0,1 (α) das α-Quantil einer standardnormalverteilten Zufallsvariable ist (da die Verteilungsfunktion stetig ist brauchen wir hier nicht das rechtsstetige Quantil zu betrachten) und ρX,Y ist der Korrelationskoeffizient von X und Y . Damit ist die Konvexität für α ≤ 0 bewiesen und die Konkavität für α ≥ 0 folgt analog. Rα + Rα (s) d s = α1 0 Vars (X) d s ist ein kohärentes • Average Value at Risk: AVaRα (X) := − α1 0 qX RM. (Siehe später). 1/2 • Standardabweichung: σX := E (X − E[X])2 ist weder monoton noch translationsinvariant. • Mean-Variance: ρ(X) := E[−X] + σX ist translationsinvariant, aber nicht monoton (Übung). q • Semi-Deviation RM: ρ(X) := −E[X] + β E (X − E[X])2− ist ein kohärentes RM, falls β ∈ [0, 1] (Übung). • Entropisches RM: β > 0, ρ(X) = β1 log E e−βx ist ein konvexes RM (siehe später), welches nicht kohärent ist (Übung). 4 1.2 Darstellung (konvexer) Risikomaße mittels Aktzeptanzmengen Definition 1.4. Sei ρ : L∞ → R ein Risikomaß. Aρ := {Y ∈ L∞ : ρ(Y ) ≤ 0} heißt die Akzeptanzmenge von ρ. Sei A ⊂ L∞ . Wir definieren ρA : L∞ → R, X 7→ inf {m ∈ R : X + m ∈ A} , wobei inf ∅ := ∞. (Übung: Zeige, dass ∀X ∈ L∞ , m ∈ R : ρA (X + m) = ρA (X) − m). Satz 1.5. Sei ρ ein RM. Es gilt: i) Aρ = 6 ∅; inf {m ∈ R : m ∈ Aρ } > −∞; Ist X ∈ Aρ , Y ∈ L∞ mit Y ≥ X ⇒ Y ∈ Aρ . Aρ ⊂ L∞ ist abgeschlossen. ii) ρ = ρAρ iii) ρ ist konvex ⇐⇒ Aρ ist konvex iv) ρ ist positiv homogen ⇐⇒ Aρ ist ein Kegel (d.h. ∀X ∈ Aρ , ∀t ≥ 0 : tX ∈ Aρ ). Insbesondere ist ρ kohärent genau dann, wenn Aρ ein konvexer Kegel ist. Beweis. i) Übung. ii) ρAρ = inf {m ∈ R : X + m ∈ Aρ } = inf {m ∈ R : ρ(X + m) ≤ 0} = inf {m ∈ R : ρ(X) ≤ m} = ρ(X) iii) ⇒“: Klar. ” ⇐“: Seien m1 , m2 ∈ R derart, dass X + m1 ∈ Aρ und Y + m2 ∈ Aρ . Dann ist λ(X + m1 ) + ” (1 − λ)(Y + m2 ) ∈ Aρ (da Aρ konvex ist). ⇒ λm1 + (1 − λ)m2 ∈ {m ∈ R : (λX + (1 − λ)Y ) + m ∈ Aρ } ii) ⇒ ρ(λX + (1 − λ)Y ) = ρAρ (λX + (1 − λ)Y ) ≤ λ inf {m1 : X + m1 ∈ Aρ } + (1 − λ) inf {m2 : X + m2 ∈ Aρ } = λρ(X) + (1 − λ)ρ(Y ). iv) Übung. Satz 1.6. Sei ∅ = 6 A ⊂ L∞ mit a) inf {m ∈ R : m ∈ A} > −∞ und b) X ∈ A, Y ∈ L∞ , Y ≥ X ⇒ Y ∈ A. 5 Dann gilt: i) ρA ist ein RM. ii) Ist A konvex, so ist ρA ein konvexes RM. iii) Ist A ein Kegel, so ist ρA positiv homogen. Insb.: Ist A ein konvexer Kegel, so ist ρA kohärent. iv) A ⊂ Aρ . Ist A abgeschlossen (bzgl. k · k∞ ), so gilt A = Aρ . Beweis. i)-iii): Übung. iv): X ∈ A ⇒ 0 ∈ {m ∈ R : X + m ∈ A} ⇒ ρA (X) ≤ 0. k·k∞ Sei (mn )n∈N ⊂ R derart, dass X + mn ∈ A ∀n ∈ N und mn → ρA (X). D.h. X + mn → X + ρA (X). Da A abgeschlossen ist, folgt X + ρA (X) ∈ A. Da ρA (X) ≤ 0, folgt mit b), dass X ∈ A. 6 2 Lokalkonvexe Vektorräume/ Duale Paare/ Konvexe Dualität 2.1 Duale Paare Definition 2.1. Seien X, X 0 zwei Vektorräume (VR) und sei h·, ·i : X × X 0 → R, (x, x0 ) 7→ hx, x0 i eine Funktion mit folgenden Eigenschaften: i) X 0 3 x0 7→ hx, x0 i ist linear für jedes x ∈ X ii) X 3 x 7→ hx, x0 i ist linear für jedes x0 ∈ X 0 (Bilinearform) iii) Falls hx, x0 i = 0 für alle x0 ∈ X 0 ⇒ x = 0 iv) Falls hx, x0 i = 0 für alle x ∈ X ⇒ x0 = 0 (Punktetrennende Eigenschaft). Dann heißt hX, X 0 i ein duales Paar. Bemerkung. Punktetrennend: Falls z.B. x, y ∈ X mit x 6= y, d.h. x − y 6= 0, impliziert iii), dass es ein x0 ∈ X 0 gibt mit hx − y, x0 i 6= 0, also hx, x0 i 6= hy, x0 i. Das lineare Funktional h·, x0 i : X → R, x 7→ hx, x0 i trennt also x und y voneinander. Beispiel. i) hRn , Rn i mit hx, yi := Pn i=1 xi yi . (Euklidisches Skalarprodukt) ii) Sei (V, k · k) ein normierter VR und V ∗ := {l : V → R : l ist linear und stetig} der zugehörige Dualraum. ⇒ hV, V ∗ i ist ein duales Paar mit h·, ·i : V × V ∗ → R, hv, li = l(v). [hv, k · l1 + l2 i := k · l1 (v) + l2 (v) für k ∈ R]. (Siehe Funktionalanalysis Vorlesung: Hahn-Banach Trennsätze) Details: Übung. 1 iii) Wichtiges Bsp. hierfür: hLp , Lq i, wobei p1 + 1q = 1, Lp := Lp (Ω, F, P), p ∈ [1, ∞), ∞ := 0 p q und h·, ·i : L × L → R, hX, Zi = E[XZ], denn laut Rieszem Darstellungssatz gilt ∗ (Lp )∗ ∼ = Lq , d.h. zu jedem l ∈ (Lp ) gibt es genau ein Z ∈ Lq derart, dass ∀X ∈ Lp : l(X) = E(XZ). (Siehe später). iv) Allerdings ist für p ∈ [1, ∞) und r ∈ [q, ∞), wobei Paar (mit hX, Zi = E[XZ]), denn 1 p + 1 q = 1, auch hLp , Lr i ein duales (a) Bilinearität ist klar aus den Eigenschaften von E[·]. Die Wohldefiniertheit folgt aus Lr ⊂ Lq und iii). (b) Laut iii) trennt L∞ die Punkte von L1 und umgekehrt, also trennt Lr ⊃ L∞ die Punkte von Lp ⊂ L1 und umgekehrt. 7 Sei nun hX, X 0 i ein duales Paar. Für x0 ∈ X 0 ist die Abbildung px0 (x) := hx, x0 i, x ∈ X, eine Seminorm auf X( und analog ist für x ∈ X die Abbildung px (x0 ) := hx, x0 i, x0 ∈ X 0 , eine Seminorm auf X 0 .) (Übung) Seminorm: Es gilt i) px0 (0) = 0 ii) px0 (tx) = tpx0 (x) ∀t ≥ 0 iii) px0 (x + y) ≤ px0 (x) + px0 (y). Bemerkung. Eine Seminorm ist eine Norm genau dann, wenn px0 (x) = 0 ⇐⇒ x = 0. Die Familie von Seminormen {px0 : x0 ∈ X 0 } induziert eine Topologie auf X durch die Nullumgebungsbasis U := Uε,I := x : px0 (x) < ε für alle x0 ∈ I : ε > 0, I ⊂ X 0 endlich . D.h. eine Menge O ⊂ X ist offen, falls ∀x ∈ O∃Uε,I ∈ U mit x + Uε,I ⊂ O, bzw. mit anderen Worten ∀x ∈ O existiert I = {x01 , ..., x0n } ⊂ X 0 mit {y : ∀i = 1, ..., n, |hy, x0i i − hx, x0i i| < ε} ⊂ O. Definition 2.2. Die oben konstruierte Topologie heißt die von X 0 auf X induzierte Topologie und wird mit σ (X, X 0 ) bezeichnet. In der Tat ist σ (X, X 0 ) eine Topologie, denn: i) ∅, X ∈ σ (X, X 0 ) ii) Seien Uε1 ,I1 , ..., Uεm ,Im ∈ U, dann gilt I= m S Ii . m T i=1 Uεi ,Ii ⊃ Uε,I mit ε := min {ε1 , ..., εm } und i=1 ⇒ σ (X, X 0 ) ist abgeschlossen unter endlicher Schnittbildung. iii) σ (X, X 0 ) ist offensichtlich abgeschlossen unter Bildung beliebiger Vereinigungen von Mengen aus σ (X, X 0 ). (Details: Übung). Definition 2.3. Sei (X, τ ) ein topologischer Vektorraum. (X, τ ) heißt lokalkonvexer Vektorraum, falls jede offene Umgebung um 0 ∈ X eine konvexe offene Umgebung um 0 enthält. Bemerkung. (X, σ (X, X 0 )) ist ein lokalkonvexer topologischer Vektorraum, denn 8 • σ (X, X 0 ) ist lokal konvex (und zwar ist die konvexe offene Umgebung ein Uε,I ) • (X, σ (X, X 0 )) ist ein topologischer VR, d.h. +“ und ·“ (skalar mult.) sind stetig. ” ” • Für + : X × X → X: Sei O ⊂ X offen (O ∈ σ (X, X 0 )) und sei (x, y) ∈ +−1 (O). Wähle Uε,I ∈ U derart, dass x + y + Uε,I ⊂ O. Dann ist (x, y) + Uε/2,I + Uε/2,I ⊂ +−1 (O). Also ist +−1 (O) offen. • Für · : R × X → X: Wähle wieder O ∈ σ (X, X 0 ) und kx + Uε,I ⊂ O. Zeige, dass ε k − ,k + δ (k, x) ∈ ·−1 (O). Dann gibt es Uε,I ∈ U mit ε × ({x} + Uε̂,I ) ⊂ O δ ε ∧ 3ε und δ := 3 (maxx0 ∈I |hx, x0 i| ∨ 1) ∨ ε. für ε̂ := 3|k| Denn für alle x0 ∈ I und (l, y) ∈ k − δε , k + δε × ({x} + Uε̂,I ) gilt |hly, x0 i − hkx, x0 i| = |h(l − k + k)(y − x + x), x0 i − hkx, x0 i| ≤ |h(l − k)(y − x), x0 i| + |hk(y − x), x0 i| + |h(l − k)x, x0 i| ≤ |l − kkhy − x, x0 i| + |kkhy − x, x0 i| + |l − kkhx, x0 i| ε ε < ε̂ + |k|ε̂ + |hx, x0 i| < ε δ δ Außerdem gilt, dass • σ (X, X 0 ) ist Hausdorff, d.h. für alle x, y, ∈ X mit x 6= y gibt es Ox , Oy ∈ σ (X, X 0 ) mit x ∈ Ox , y ∈ Oy und Ox ∩ Oy = ∅. (Das folgt aus der punktetrennenden Eigenschaft von X 0 ). Definition 2.4. Analog zu oben definiert die Familie von Seminormen {px : x ∈ X} auf X 0 eine Topologie σ (X 0 , X) auf X 0 . Diese heißt die von X auf X 0 induzierte Topologie. Definition 2.5. Ist X ein normierter Vektorraum (Banachraum) und X 0 = X ∗ der zugehörige Dualraum (d.h. der Raum der linearen stetigen Funktionale auf X), so heißt σ(X, X 0 ) schwache’”Topologie auf X und σ(X 0 , X) heißt schwach∗“ Topologie. ” ” Bemerkung. Die Symmetrie in der Definition eines dualen Paares impliziert, dass die obigen Aussagen auch für σ (X 0 , X) gelten. Insbesondere ist (X 0 , σ (X 0 , X)) ein lokalkonvexer topologischer VR. Satz 2.6. Sei hX, X 0 i ein duales Paar. Dann ist der Dualraum von (X, σ (X, X 0 )) gerade X 0 . D.h. ist l : X → R linear und σ (X, X 0 )-stetig, so gibt es genau ein x0 ∈ X 0 mit l(x) = hx, x0 i für alle x ∈ X und jedes x0 ∈ X 0 definiert über X 3 x 7→ hx, x0 i ein lineares σ (X, X 0 )-stetiges Funktional auf (X, σ (X, X 0 )). in Zeichen: (X, σ (X, X 0 ))∗ = X 0 . Analog gilt: (X 0 , σ (X 0 , X))∗ = X. 9 Beweis. Sei l : X → R ein σ (X, X 0 )-stetiges lineares Funktional. Da l stetig ist, gibt es eine 0 −1 offene Menge V ∈ σ (X, X ) mit 0 ∈ V und l(V ) ⊂ (−1, 1) z.B. V = l (−1, 1) . D.h. es existiert ein ε > 0 und ein I = {x01 , ..., x0n } ⊂ X 0 mit Uε,I ⊂ V . Insbesondere gilt x ∈ Uε,I ⇐⇒ ∀i = 1, ..., n : |hx, x0i i| < ε =⇒ |l(x)| ≤ 1 (denn l(Uε,I ) ⊂ (−1, 1)). Sei nun x∈ \ i=1,..,n ker x0i = \ i=1,...,n kerh·, x0i i ⊂ Uε,I , d.h insbesondere auch hαx, x0i i = 0 für alle i = 1, ..., n und α ∈ R. Dann ist aber für jedes α > 0 |l(αx)| = α|l(x)| ≤ 1 und somit muss l(x) = 0 gelten. Folglich ist \ ker x0i ⊂ ker l. i=1,...,n P ⇒ l = h·, ni=1 αi x0i i für geeignete αi ∈ R. Denn: T : X → Rn , T (x) = (hx, x01 i, ..., hx, x0n i) ist linear. T (X) ist ein linearer Unterraum von Rn . Aufsolchem istTψ : T (X) → R, ψ (hx, x01 i, ..., hx, x0n i) := l(x) linear und ker x0i ⊂ ker l. Denn angenommen (hx, x01 i, ..., hx, x0n i) = wohldefiniert. Letzteres, da i=1,...,n T x0i ⊂ ker l. (hy, x01 i, ..., hy, x0n i), dann ist x − y ∈ ker i=1,...,n ⇒ l(x − y) = 0 ⇐⇒ l(x) = l(y). Setze ψ irgendwie (z.B. durch 0) auf Rn fort. Dann ist ψ alsoP ein lineares Funktional auf Rn . n D.h. ψ =α b = (α1 , ..., αn ) ∈ R bzw. genauer ψ(a) = ha, αi = ni=1 ai αi (jetzt entspricht h·, ·i dem euklidischen Skalarprodukt auf Rn !) für alle a ∈ Rn . Also l(x) = n X i=1 αi hx, x0i i = hx, n X αi x0i i. |i=1{z } =:x0 ∈X 0 Angenommen es gäbe x0 , y 0 ∈ X 0 mit L(x) = hx, x0 i = hx, y 0 i für alle x ∈ X. ⇒ ∀x ∈ X : hx, x0 − y 0 i = 0 ⇒ x0 − y 0 = 0 (punktetrennende Eigenschaft). Somit gibt es zu l genau ein x0 ∈ X 0 mit l(·) = h·, x0 i. Es bleibt zu zeigen, dass jedes x0 ∈ X 0 ein lineares σ(X, X 0 )-stetiges Funktional auf X über X 3 x 7→ hx, x0 i definiert. Linearität ist hierbei offensichtlich, wegen der Eigenschaften von h·, ·i. Zur σ(X, X 0 )-Stetigkeit: Siehe später. 2.2 Konvergenz in topologischen Räumen Erinnerung: Umgebungsbasis: Sei τ eine Topologie auf dem Raum X, d.h. (X, τ ) ein topologischer Raum. Eine Menge von Mengen Ux ⊂ τ heißt Umgebungsbasis von x ∈ X, falls ∀V ∈ Ux : x ∈ V und falls es zu jeder Umgebung U von x ein V ∈ Ux gibt mit V ⊂ U . (Eine Umgebungsbasis existiert immer, d.h. in jedem topologischen Raum (X, τ ) für alle 10 x ∈ X (Übung)!) Umgebung: Eine Menge U heißt Umgebung von x ∈ X, falls x ∈ U und es gibt V ∈ τ mit x ∈ V ⊂ U. Problem: Besitzt die Topologie keine abzählbare Umgebungsbasis, so ist im allgemeinen die topologische Konvergenz (im Sinne von Randpunkten von Mengen) nicht äquivalent zur Folgenkonvergenz. Beispiel. • Sei (V, k · k) ein normierter Vektorraum. Dann ist die Normtopologie (kanonische Topologie) auf V gegeben durch die Nullumgebungsbasis 1 U := y ∈ V : kyk < :n∈N . n Diese ist abzählbar. • Ist (X, d) ein metrischer Raum, so ist 1 y ∈ X : kd(y, x)k < Ux := :n∈N n eine abzählbare Umgebungsbasis. • In allgemeinen lokalkonvexen Räumen ist dies jedoch nicht der Fall. Z.B. hLp , Lr i mit r > q, wobei p ∈ [1, ∞) und p1 + 1q = 1. D.h. im allgemeinen Netze/ Filter statt Folgen. Definition 2.7. Sei (I, ≥) eine gerichtete Menge, d.h. es existiert eine reflexive und transitive Binärrelation “≥“ auf I (d.h. x ≥ x und x ≥ y, y ≥ z ⇒ x ≥ z), so dass für alle α, β ∈ I ein γ ∈ I existiert mit γ ≥ α und γ ≥ β. (obere Schranke) Ein Netz auf (X, τ ) ist eine Abbildung x: I |{z} =Indexmenge b Notation: (xi )i∈I . → X. Beispiel. • I = N mit ≥. D.h Folgen sind Netze. • I = Ux = Umgebungsbasis um x ∈ X mit ⊆“ (Inklusion). D.h. U ≥ V ⇐⇒ U ⊆ V . ” (Übung) Ein Netz (xi )i∈I konvergiert gegen einen Punkt x, wenn es letzlich in jeder Umgebung von x liegt, d.h. zu jeder Umgebung V von x existiert ein α0 ∈ I, so dass xα ∈ U für alle α ≥ α0 . τ In Zeichen: xi → x (oder xi → x). x heißt Grenzwert des Netzes (xi )i∈I . 11 Satz 2.8. Sei (X, τ ) ein topologischer Raum und A ⊂ X. Dann ist x ∈ cl(A) genau dann, wenn es ein Netz (xi )i∈I ⊂ A gibt mit xi → x. Beweis. Sei x ∈ cl(A) und sei Ux eine Umgebungsbasis um x. Da für alle V ∈ Ux : A ∩ V 6= ∅ (Def. Randpunkt!), existiert ein Punkt xV ∈ A ∩ V . (xV )V ∈Ux ist ein Netz (s.o) mit τ (xV )V ∈Ux ⊂ A und xV → x. τ Umgekehrt, ist (xi )i∈I ⊂ A ein Netz mit xi → x, so folgt offensichtlich, dass für jede Umgebung V von x, A ∩ V 6= ∅ gilt. Also ist x ∈ cl(A). Beispiel (Folgen reichen nicht aus). X = R. Definiere die Topologie τ auf R wie folgt: Sei A ∈ τ genau dann, wenn für alle x ∈ A ∃U ⊂ R offen in der üblichen Topologie (von | · | induziert), C ⊂ R abzählbar, so dass x ∈ U \C ⊂ A. τ ist eine Topologie (Übung). Die einzigen konvergenten Folgen in dieser Topologie sind Folgen, die schließlich konstant sind (d.h. ∃n0 ∈ N : xn = xn+1 , ∀n ≥ n0 ). (Übung) (Übung: Finde den Abschluss von (0, 1) in τ ). Definition 2.9. Sei (xi )i∈I ein Netz. (yλ )λ∈Λ heißt Teilnetz von (xi )i∈I , falls es eine Funktion ϕ : Λ → I gibt derart, dass i) yλ = xϕ(λ) für alle λ ∈ Λ und ii) ∀α0 ∈ I, ∃λ0 ∈ Λ : λ ≥ λ0 ⇒ ϕ(λ) ≥ α0 . Beispiel. Jede Teilfolge ist ein Teilnetz. Ein Punkt x heißt Häufungspunkt eines Netzes (xi )i∈I , falls es für jede Umgebung V um x und jedes α ∈ I ein β ≥ α gibt mit xβ ∈ V . Satz 2.10. Sei (X, τ ) ein topologischer Raum und (xi )i∈I ⊂ X ein Netz. Dann ist x ein Häufungspunkt von (xi )i∈I genau dann, wenn es ein Teilnetz (yλ )λ∈Λ von (xi )i∈I gibt, welches gegen x konvergiert. Beweis. Sei x ein Häufungspunkt von (xi )i∈I und Ux eine Umgebungsbasis von x. Bemerke, dass Λ := I × Ux eine gerichtete Menge ist mit (α, V ) ≥ (β, V̂ ) ⇐⇒ α ≥ β und V ≥ V̂ , wobei ≥“ die jeweilige Relation auf V und Ux ist. ” Wähle ϕ(α, V ) ∈ I mit ϕ(α, V ) ≥ α derart, dass xϕ(α,V ) ∈ V und definiere das Teilnetz τ (yα,V )(α,V )∈I×Ux durch yα,V := xϕ(α,V ) . Dann gilt: yα,V → x. (Denn für alle (β, V̂ ) ≥ (α, V ) gilt insbesondere V̂ ⊆ V ) Sei umgekehrt x der Grenzwert eines Teilnetzes (yλ )λ∈Λ von (xi )i∈I . Sei V eine Umgebung von x und α0 ∈ I beliebig. Sei ϕ : Λ → I die Abbildung aus der Definition 2.9 eines Teilnetzes. Außerdem sei λ0 ∈ Λ derart, dass yλ ∈ V für alle λ ≥ λ0 . Laut ii) aus der Definition 2.9 gibt es ein λ1 ∈ Λ so, dass ϕ(λ) ≥ α0 für alle λ ≥ λ1 . Wenn nun λ2 ≥ λ1 und λ2 ≥ λ0 ( so ein λ2 gibt es, da Λ eine gerichtete Menge ist), dann erfüllt der Index β = ϕ(λ2 ), dass β ≥ α0 und xβ = xϕ(λ2 ) = yλ2 ∈ V . Also ist x ein Häufungspunkt von (xi )i∈I . 12 Bemerkung. Ein Netz (xi )i∈I konvergiert genau dann gegen eine Punkt x, wenn jedes Teilnetz von (xi )i∈I gegen x konvergiert. Satz 2.11. Seien (X, τ ), (Y, σ) topologische Räume und f : X → Y eine Abbildung. Folgende Bedingungen sind äquivalent: i) f ist stetig (τ -σ-stetig) ii) Für jedes Netz (xi )i∈I gilt: τ σ xi → x ⇒ f (xi ) → f (x). Beweis. i) ⇒ ii): τ σ Angenommen f ist stetig und xi → x, aber f (xi ) 9 f (x). D.h. es existiert eine offene Umgebung V ⊂ Y von f (x) und zu jedem α0 ∈ I ein β ≥ α0 mit f −1 (V ) | {z } f (xβ ) ∈ / V ⇐⇒ xβ ∈ / Umgebung von x, da f stetig ist τ zu xi → x. ii) ⇒ i): Sei V ⊂ Y abgeschlossen. Sei (xi )i∈I ⊂ f −1 (V ) ein Netz, welches gegen x ∈ X konvergiert. Da σ laut ii) f (xi ) → f (x) und (f (xi ))i∈I ⊂ V , folgt f (x) ∈ V (Satz 2.8) und somit x ∈ f −1 (V ). Also ist f −1 (V ) abgeschlossen (Satz 2.8). Bemerkung. Sei hX, X 0 i ein duales Paar. Dann ist σ(X,X 0 ) xi −→ x ⇐⇒ hxi , x0 i → hx, x0 i (in R) für alle x0 ∈ X 0 . Deshalb heißt σ(X, X 0 ) auch Topologie der punktweisen Konvergenz in x0 ∈ X 0 und σ(X 0 , X) die Topologie der punktweisen Konvergenz in x ∈ X. Insbesondere sind die Abbildungen X 3 x 7→ hx, x0 i bzw. X 0 3 x0 7→ hx, x0 i σ(X, X 0 )- bzw. σ(X 0 , X)-stetig. Letztere Bemerkung vollendet den Beweis von Satz 2.6. Satz 2.12. Sei (X, τ ) ein topologischer Raum, welcher Hausdorff ist und sei K ⊂ X kompakt (d.h. jede offene Überdeckung von K enthält eine endliche Teilüberdeckung). Außerdem sei x∈ / K. Dann gibt es zwei disjunkte offene Mengen U und V derart, dass K ⊂ U und x ∈ V . Insbesondere sind kompakte Teilmengen von Hausdorffräumen stets abgeschlossen. 13 Beweis. Die Hausdorffeigenschaft impliziert, dass es zu jedem y ∈ K offene Umgebungen Uy und Vy mit Uy ∩Vy = ∅ und y ∈ Uy und x ∈ Vy gibt. Offensichtlich ist {Uy : y ∈ K} eine offene n S Uyi Überdeckung von K. Sei also Uy1 , ..., Uyn eine Teilüberdeckung von K. Dann ist U := n T offen mit K ⊂ U und auch V := i=1 i=1 Vyi offen mit x ∈ V . Außerdem gilt U ∩ V = ∅. Satz 2.13. Sei (X, τ ) ein Hausdorffraum und V ⊂ X. Folgende Eigenschaften sind äquivalent: i) V ist kompakt. ii) V ist abgeschlossen und für jede Familie T (Ai )i∈I von abgeschlossenen Teilmengen von V mit der endlichen ∩-Eigenschaft gilt Ai 6= ∅. i∈I T (endliche ∩-Eigenschaft: Aj 6= ∅ für alle J ⊂ I endlich). j∈J iii) Jedes Netz (xi )i∈I ⊂ V hat mindestens einen Häufungspunkt. iv) Jedes Netz (xi )i∈I ⊂ V hat ein konvergentes Teilnetz. Beweis. i) ⇐⇒ ii): Übung. iii) ⇐⇒ iv): Satz 2.10. ii) ⇒ iii): Sei (xi )i∈I ⊂ V ein Netz und definiere Fα := {xβ : β ≥ α} , α ∈ I. von abgeschlossenen Teilmengen von V hat die endliche ∩-Eigenschaft n T aus ii), da zu α1 , ..., αn ∈ I immer β ≥ αi für alle i = 1, ..., n existiert und Fβ ⊂ Fαi ⊂ Die Familie F α n T α∈I i=1 F αi . i=1 ii) ⇒ ∃x ∈ T α∈I F α , d.h. x ist Häufungspunkt von (xi )i∈I . iii) ⇒ ii): Sei (Ai )i∈I(eine Familie von abgeschlossenen Teilmengen von V mit der endlichen ∩-Eigenschaft. ) T Sei G := Aj : J ⊂ I endlich . Dann ist G mit der Inklusion ⊆“ eine gerichtete Menge. ” j∈J Zu UT∈ G wähle xU ∈ U . Das Netz (xU )U ∈G hat laut iii) einen Häufungspunkt x. Es folgt x∈ Ai . (Übung) i∈I (z.B. mittels eines konvergenten Teilnetzes (yλ )λ∈Λ (Satz 2.10), welches schließlich für jedes i in Ai liegen muss (wähle λ0 mit ϕ(λ) ≥ Ai ∈ G für alle λ ≥ λ0 ), also muss auch der Grenzwert x in Ai liegen. 14 2.3 Trennungssätze in lokalkonvexen Räumen Satz 2.14 (Hahn-Banach, Version der linearen Algebra). Sei X ein Vektorraum und p : X → R eine konvexe Funktion. Außerdem sei M ⊂ X ein Unterraum und ˆl : M → R eine lineare Funktion mit ˆl(x) ≤ p(x) für alle x ∈ M . Dann gibt es eine lineare Fortsetzung l von ˆl auf X mit l(x) ≤ p(x) für alle x ∈ X. (Bemerke: In Satz 2.14 ist keine Topologie und somit keine Stetigkeit im Spiel). Beweis. Transfinite Induktion, siehe Funktionalanalysis Vorlesung. Satz 2.15 (Trennungssatz in topologischen Vektorräumen). Sei (X, τ ) ein topologischer Vektorraum, ∅ = 6 U ⊂ X, ∅ = 6 V ⊂ X mit U, V konvex, U ∩ V = ∅ und int U 6= ∅. Dann existiert ein lineares stetiges Funktional l : X → R mit sup l(u) ≤ inf l(v) (schwache Trennung) und v∈V u∈U l(u) < l(v) für mindestens ein u ∈ U und v ∈ V (d.h. insbesondere l 6= 0) . Beweis. U − V = {u − v : u ∈ U, v ∈ V } = 6 ∅ ist konvex und int(U − V ) 6= ∅, (denn U − {v} ⊂ U − V und U − {v} = ρ−1 (U ) für die stetige Funktion ρ : X → X, u 7→ u + v (topologischer Vektorraum!!)). Sei z ∈ int(U − V ) ⇒ C := U − V − {z} ist nicht-leer, konvex, 0 ∈ int C und −z ∈ / C (ansonsten 0 ∈ int(U − V ) ⇒ U ∩ V = 6 ∅). Sei pC (X) := inf λ > 0 : λx ∈ C , x ∈ X (Minkowski- Funktional). pC : X → R+ ist positiv homogen, subadditiv, also insbesondere konvex. (Übung) Es ist pC (−z) ≥ 1, denn anderenfalls existiert 0 < α < 1, y ∈ C mit −z = αy und somit −z = αy + (1 − α) · |{z} 0 ∈C . ∈C Weiter ist pC (x) ≤ 1 für alle x ∈ C. Sei nun M := {t · (−z) : t ∈ R} ⊂ X und ˆl : M → R gegeben durch ˆl (t(−z)) = t. Dann ist ˆl linear mit ˆl ≤ pC auf M , denn für t ≥ 0 : pC (t(−z)) = tpc (−z) ≥ t = ˆl (t(−z)) (da pC (−z) ≥ 1 (s.o.)) und für t < 0 : ˆl (t(−z)) = t < 0 ≤ pC (t(−z)). Laut Satz 2.14 gibt es eine lineare Fortsetzung l : X → R von ˆl mit l ≤ pC auf ganz X. Seien u ∈ U , v ∈ V , dann gilt: l(u) = l(u − v − z) + l(v) + l(z) ≤ pC (u − v − z) + l(v) + l(z) = pC (u v − z}) − 1 + l(v), denn l(z) = ˆl ((−1)(−z)) = −1 | −{z ∈C ≤ 1 − 1 + l(v) = l(v). ⇒ supu∈U l(u) ≤ inf v∈V l(v). Seien nun u ∈ U und v ∈ V mit z = u − v ⇒l(u − v) = l(z) = l ((−1)(−z)) = −1 ⇒l(u) = −1 + l(v), also l(u) < l(v). 15 Es bleibt zu zeigen, dass l stetig ist: Sei hierzu û ∈ int U . Dann ist 0 ∈ int(U − {û}) und l ist auf U − {û} von oben durch eine Konstante K > 0 beschränkt, denn für alle u ∈ U gilt: l(u − û) = l(u) − l(û) ≤ inf l(v) − l(û) < K, für geeignetes K > 0. v∈V Da ·“ stetig ist, existiert eine absorbierende offene Menge U 0 mit 0 ∈ U 0 ⊂ (U − {û}). ” (Absorbierend heißt, dass für alle x ∈ X ein λ > 0 existiert, so dass λx ∈ U 0 ) (Übung, denn für alle x ∈ X, {0} × {x} ⊂ ·−1 (U − {û})). U 00 := U 0 ∩ (−U 0 ) ist offen und symmetrisch (U 00 = U 00 ∩ (−U 00 )) mit 0 ∈ U 00 , und es gilt l|U 00 ≤ K |l(u)| ≤ K, ∀u ∈ U 00 , denn l(u) ≤ K und l(−u) ≤ K für alle u ∈ U 00 ⊂ U − {û}. Sei nun x ∈ X beliebig und ε > 0. Wähle y ∈ {x} + Kε U 00 , dann gilt: |l(y) − l(x)| = |l(y − x)| ≤ Kε K = ε. ⇒ l ist stetig. Bemerkung. Es gibt topologische VR derart, dass 0 das einzige lineare stetige Funktional auf X ist bzw. X die einzige nicht-leere offene konvexe Menge in sich. Zur Äquivalenz der letzten beiden Aussagen: i) Sei 0 das einzige stetige lineare Funktional und ∅ = 6 U $ X offen und konvex. Satz 2.15 impliziert die Existenz eines stetigen linearen Funktionals l 6= 0, welches z.B. U von {v} schwach trennt für ein v ∈ U C = X\U . ii) Sei X die einzige nicht-leere offene konvexe Menge in sich selbst. Angenommen es gäbe ein lineares stetiges Funktional l : X → R mit l 6= 0. Dann existiert ein x ∈ X mit l(x) > 0. Sei ε ∈ (0, l(x)). Dann ist U := l−1 (ε, ∞) offen und konvex und x ∈ U , aber 0∈ / U , d.h. U $ X. Beispiel. X = L0 := L0 (Ω, F, P) := L 0 /N , wobei L 0 := L 0 (Ω, F, P) := {ZV’en über (Ω, F, P)} und ∼“ wie oben (x ∼ y ⇐⇒ P(x = y) = 1). Hierbei sei der ” W-Raum (Ω, F, P) nicht-atomar, also z.B. ((0, 1], L (0, 1], λ), d.h. es gibt eine ZV mit stetiger Verteilungsfunktion. Sei d(x, y) := E [|x − y| ∧ 1], x, y, ∈ L0 . d ist eine Metrik auf L0 und (L0 , d) ist ein vollständiger metrischer Raum und somit ein topologischer VR mit der durch d induzierten Metrik τd . Insbesondere finden wir immer abzählbare Umgebungsbasen, d.h wir können mit Folgen statt mit Netzen argumentieren. d P Bemerke: xn → x ⇐⇒ xn → x, d.h. τd ist die Topologie der stochastischen Konvergenz. Aber: Angenommen es gibt U $ L0 offen und konvex mit U 6= ∅. O.b.d.A. 0 ∈ U (denn für u ∈ U ist 0 ∈ U − {u} offen und konvex). Dann gibt es laut Satz 2.15 ein lineares stetiges Funktional l 6= 0 mit l(v) ≤ inf u∈U l(u), wobei v ∈ X\U . Da U offen ist, gibt es ein r > 0 mit Kr := x ∈ L0 : d(x, 0) = E [|x| ∧ 1] < r ⊂ U. Sei A ∈ F mit P(A) < r, dann gilt für x := t1A , wobei t ∈ R mit |t| ≥ 1, dass d(x, 0) = E [|x| ∧ 1] = P(A) < r, also x ∈ Kr ⊂ U . 16 ⇒ l(v) ≤ l(t1A ) = tl(1A ), ∀t ∈ R mit |t| > 1 und A ∈ F mit P(A) < r. ⇒ l(1A ) = 0 für alle A ∈ F mit P(A) < r ⇒ l(x) = 0 für alle einfachen ZV’en (dicht in (L0 , d)) Stetigkeit von l ⇒ l(x) = 0 ∀x ∈ L0 , d.h. l ≡ 0. Folglich ist L0 die einzige nicht-leere konvexe offene Menge in (L0 , τd ) und 0 das einzige stetige lineare Funktional L0 → R. (Details: Übung) ; Risikomaße auf L0 sind schwierig, siehe später! Zentral für unsere Analyse konvexer Funktionen ist die folgende Version des Trennungssatzes: Satz 2.16 (Strikte Trennung in lokalkonvexen Räumen). Sei (X, τ ) ein lokalkonvexer Raum. Außerdem seien U, V ⊂ X nichtleer, konvex mit U ∩ V = ∅, wobei U abgeschlossen und V kompakt ist. Dann gibt es ein stetiges lineares Funktional l : X → R derart, dass sup l(u) < inf l(v) (strikte Trennung). v∈V u∈U Beweis. V − U ist nichtleer, konvex und abgeschlossen (!). Zur Abgeschlossenheit: Sei (vα − uα )α∈I ⊂ V − U ein Netz mit vα − uα → z. Da V kompakt ist existiert ein Teilnetz (vαβ )β∈Λ von (vα )α∈I , welches gegen ein v ∈ V konvergiert (Satz τ 2.13). Die Stetigkeit von +“ impliziert nun, dass U 3 uαβ = vαβ − (vαβ − uαβ ) → v − z. Da ” U abgeschlossen ist, gilt u := −z + v ∈ U und somit z = v − u ∈ V − U . Da V − U abgeschlossen ist mit 0 ∈ / V − U , folgt dass (V − U )c = X\(V − U ) offen ist mit c 0 ∈ (V − U ) . Da (X, τ ) lokalkonvex ist, gibt es eine konvexe offene Umgebung A um 0 mit A ⊂ (V − U )c . D.h. insbesondere A ∩ (V − U ) = ∅. Nun können wir Satz 2.15 anwenden und schließen auf die Existenz eines nicht-trivialen stetigen linearen Funktionals l : X → R mit sup l(a) ≤ a∈A inf b∈(V −U ) l(b). D.h. l(a) ≤ l(v) − l(u) für alle a ∈ A und v ∈ V, u ∈ U . Da A absorbierend ist (Stetigkeit von ·“), gibt es ein a0 ∈ A mit l(a0 ) > 0. (Wähle irgendein ” x ∈ X mit l(x) > 0 und stauche nach A). Dann gilt: l(v) ≥ l(u) + l(a0 ) für alle v ∈ V und u ∈ U , d.h. inf (v) ≥ sup l(u) + l(a0 ) > sup l(u). v∈V u∈U u∈U Beispiel. Zwei abgeschlossene konvexe Mengen, die sich nicht strikt trennen lassen. Siehe Abbildung 2.1. 17 V U Abbildung 2.1: Die Mengen U und V sind abgeschlossene Mengen, die von schlossen werden. 1 x bzw − x1 einge- Lemma 2.17. Sei (X, τ ) ein lokalkonvexer Raum. Für jedes stetige lineare Funktional l : X → R und α ∈ R sei HLα := {x ∈ X : l(x) ≥ α} der zugehörige abgeschlossene Halbraum. A ⊂ X ist konvex und abgeschlossen genau dann, wenn \ A= {Hlα : l ∈ (X, τ )∗ , α ∈ R mit A ⊆ Hlα } , wobei (X, τ )∗ := {stetige lineare Funktionale X → R}. Beweis. ⇐“: Trivial. ” ⇒“: \ Die Aussage ist klar für A = ∅. Sei also A 6= ∅. Offensichtlich gilt ” A ⊆ {Hlα : l ∈ (X, τ )∗ , α ∈ R mit A ⊆ Hlα } . Ist x ∈ X\A. Dann gibt es laut Satz 2.16 | {z } =:H ein l ∈ (X, τ )∗ mit l(x) < inf a∈A l(a) (strikte Trennung von A und {x}). Wähle α ∈ / Hlα . Ist A = X, so ist H = H00 = X der einzige (l(x), inf a∈A l(a)) ⇒ A ⊂ Hlα und x ∈ Halbraum, der X enthält und die Aussage gilt trivialerweise. Es folgt A = H. Korollar 2.18. Sei (V, k · k) ein normierter Raum und V ∗ sein Dualraum. Eine konvexe Menge ist bzgl. der Normtopologie abgeschlossen genau dann, wenn sie bzgl. σ(V, V ∗ ) abgeschlossen ist. ∗ ∗ Beweis. V, k·k und V, σ(V, V ∗ ) sind beide lokalkonvexe Räume mit V, k·k = V, σ(V, V ∗ ) . Wende Lemma 2.17 an. 2.4 Darstellung konvexer Funktionen Definition 2.19. Sei hX, X 0 i ein duales Paar. Eine Funktion f : X → [−∞, ∞] = R ∪ {±∞} ist: i) konvex, falls für alle x, y ∈ X und alle λ ∈ [0, 1]: f (λx + (1 − λ)y) ≤ λf (x) + (1 − λ)f (y), wann immer die rechte Seite wohldefiniert ist. 18 ii) unterhalbstetig, falls alle Niveaumengen Ek := {x ∈ X : f (x) ≤ k} , k ∈ R, abgeschlossen sind in (X, σ(X, X 0 )). Beispiele/ Gegenbeispiele. Siehe Abbildung 2.2. k k x x (a) Eine Funktion, die uhs ist. (b) Eine Funktion, die nicht uhs ist (, aber ohs). ∞ ∞ epif k (c) Eine konvexe Funktion die nicht uhs ist. Abbildung 2.2: Beispiele/ Gegenbeispiele für unterhalbstetige Funktionen. Bemerkung. i) f konvex ⇐⇒ epi f := {(x, a) ∈ X × R : f (x) ≤ a} ist konvex ii) f unterhalbstetig ⇐⇒ epi f ist abgeschlossen in X × R σ(X,X 0 ) ⇐⇒ xi −→ x ⇒ lim inf f (xi ) ≥ f (x), i∈I (wobei lim inf f (xi ) := sup inf f (xβ )). i∈I i∈I β≥i 19 iii) analog: f oberhalbstetig, falls alle Ok := {x ∈ X : f (x) ≥ k}, k ∈ R, abgeschlossen sind σ(X,X 0 ) ⇐⇒ xi −→ x ⇒ lim sup f (xi ) = inf sup f (xβ ) ≤ f (x) i∈I β≥i i∈I Insbesondere: f stetig ⇐⇒ f ober- und unterhalbstetig. Definition 2.20. Sei f : X → [−∞, ∞] eine Funktion. i) Die zu f duale (konjugierte) Funktion f ∗ : X 0 → [−∞, ∞] ist gegeben durch f ∗ (x0 ) = sup hx, x0 i − f (x), x0 ∈ X 0 . x∈X ii) Die biduale (bikonjugierte) Funktion f ∗∗ : X → [−∞, ∞] von f ist gegeben durch: f ∗∗ (x) := sup x0 ∈X 0 hx, x0 i − f ∗ (x0 ) | {z } , x ∈ X. stetige affine Minoranten von f“ ” Illustration: y f (x) mx − c x bester“/ nächster“ (approximativ) ” ” y−Achsenabschnitt zur Steigung m ∀x : mx − c ≤ f (x) ⇒ ∀x : c ≥ mx − f (x) ⇒ c ≥ sup mx − f (x) x | {z } =:f ∗ (m) Bemerkung. • f ∗ und f ∗∗ sind konvex σ(X 0 ,X) • f ∗ ist σ(X 0 , X) unterhalbstetig (uhs), denn für x0i −→ x0 gilt: ∗ 0 0 0 f (x ) = sup hx, x i − f (x) = sup limhx, xi i − f (x) x∈X x∈X i∈I 0 ≤ lim inf suphx, xi i − f (x) = lim inf f ∗ (x0i ). i∈I i∈I 20 • analog ist f ∗∗ σ(X, X 0 )-uhs. Frage: Wann ist f = f ∗∗ ? Offensichtlich ist f konvex und uhs eine notwendige Voraussetzung. Sie ist aber in der Tat auch hinreichend: Satz 2.21 (Fenchel, Moreau, Rockafellar). Sei f : X → R ∪ {±∞} eine Funktion. Folgende Eigenschaften sind äquivalent: i) f = f ∗∗ ii) f ist konvex und σ(X, X 0 )-uhs und falls {x ∈ X : f (x) = −∞} = 6 ∅ ⇒ f ≡ −∞. Bemerkung. Zu ii): {x ∈ X : f (x) = −∞} = T k∈R Ek , wobei wie oben Ek := {x ∈ X : f (x) ≤ k}, k ∈ R. E−∞ := {x ∈ X : f (x) = −∞} ist konvex und abgeschlossen. Angenommen es gäbe ein y ∈ X mit f (y) ∈ R, dann ist für alle x ∈ E−∞ und λ ∈ (0, 1): f (λx + (1 − λ)y) konvex ≤ λ f (x) +(1 − λ) f (y) = −∞, |{z} |{z} =−∞ also λx + (1 − λ)y ∈ {z } | λ&0 −→ y E−∞ | {z } ∈R und somit auch y ∈ E−∞ . abgeschlossen ⇒ Ist f konvex, uhs und E−∞ 6= ∅, so ist f (x) ∈ {−∞, ∞} für alle x ∈ X und E−∞ ist konvex und abgeschlossen. Beweis von Satz 2.21. i) ⇒ ii): Das ist klar laut der Bemerkung oben und da E−∞ 6= ∅ ⇒ f ∗ ≡ ∞ ⇒ f ∗∗ ≡ −∞. ii) ⇒ i): a) Zeige zunächst, dass f ∗∗ ≤ f : f ∗∗ (x) = sup hx, x0 i − f ∗ (x0 ) x0 ∈X 0 = sup hx, x0 i − x0 ∈X 0 sup hy, x0 i − f (y) y∈X ! y=x ≤ sup hx, x0 i − hx, x0 i + f (x) = f (x) x0 ∈X 0 b) Zeige nun, dass f ≤ f ∗∗ . Sei E−∞ = ∅ und f 6≡ ∞. epi f := {(x, a) ∈ X ×R : f (x) ≤ a} = 6 ∅ ist konvex und abgeschlossen. Ist (x, b) ∈ / epi f , dann gibt es laut Satz 2.16 (strikte Trennung) ein lineares stetiges Funktional (x0 , α) ∈ X 0 × R mit sup (x,a)∈epi f hx, x0 i + αa < k < hx, x0 i + αb, für ein k ∈ R 21 (2.1) (denn (X × R)∗ ∼ = X 0 × R). 1. Fall: f (x) < ∞. D.h. insbesondere (x, f (x)) ∈ epi f während ∀ε > 0: (x, f (x) − ε) ∈ / epi f . Mit b = f (x) − ε in (2.1) gilt sup hx, x0 i + αa < hx, x0 i + α (f (x) − ε) (x,a)∈epi f und somit sup hx, x0 i + αf (x) < hx, x0 i + α (f (x) − ε) x∈X f (x)<∞ x = x liefert: α(f (x) − f (x) + ε) < 0 ⇒ α < 0. x0 x0 ⇒ sup hx, i − f (x) < hx, i − f (x) + ε. |α| |α| x∈X {z } | =f ∗ (x0 /|α|) ⇒ f (x) − ε < hx, x0 i − f∗ |α| x0 |α| ≤ f ∗∗ (x). ε & 0 liefert f (x) ≤ f ∗∗ (x). Mit a) folgt, dass f (x) = f ∗∗ (x) für alle x ∈ X mit f (x) < ∞. 2. Fall: f (x) = ∞. Dann ist (x, b) ∈ / epi f für alle b ∈ R. Sei (x0 , α) wie in (2.1). Wäre α > 0, so wäre für jedes x ∈ X mit f (x) < ∞ und somit (x, f (x) + t) ∈ epi f für alle t ≥ 0 die Beziehung hx, x0 i + α(f (x) + t) < hx, x0 i + b für alle t ≥ 0 ein Widerspruch. | {z } t%∞ −→ ∞ Also muss α ≤ 0 gelten. Ist α < 0, so folgt x0 x0 i − f (x) < hx, i − b bzw. |α| |α| x∈X 0 x x0 b < hx, i − f∗ ≤ f ∗∗ (x). |α| |α| sup hx, Angenommen α = 0. Im Fall 1. haben wir schon gezeigt, dass f ∗∗ (x) = f (x) für alle x ∈ dom f := {x ∈ X : f (x) < ∞}. D.h. es existiert ein y 0 ∈ X mit f ∗ (y 0 ) < ∞ und hx, y 0 i − f ∗ (y 0 ) (≤ f ∗∗ (x)) ≤ f (x) für alle x ∈ X. Dann ist mit (2.1) hx, y 0 i − f ∗ (y 0 ) + c( hx, x0 i − k ) ≤ f (x) | {z } für alle x ∈ X (2.2) <0 ∀x∈dom f und wir können c > 0 so groß wählen, dass hx, y 0 i − f ∗ (y 0 ) + c(hx, x0 i − k ) > b. | {z } >0 laut (2.1) 22 (2.3) Es ist z 0 := y 0 + cx0 ∈ X 0 und mit (2.2) folgt, dass f ∗ (z 0 ) = sup hx, z 0 i − f (x) ≤ sup hx, z 0 i − hx, z 0 i + f ∗ (y 0 ) + ck x∈X x∈X ∗ 0 ≤ ck + f (y ) und somit f ∗∗ (x) ≥ hx, z 0 i − f ∗ (z 0 ) ≥ hx, z 0 i − ck − f ∗ (y 0 ) > b. nach (2.3). Da b beliebig groß war, folgt wieder, dass f ∗∗ (x) = ∞. a)+b)⇒ f = f ∗∗ . 2.5 Dualräume der Lp -Räume Lemma 2.22. Seien p, q ∈ [1, ∞] mit p1 + 1q = 1, wobei 10 := ∞ und definiert lZ : Lp → R, X 7→ E[ZX] 1 ∞ := 0. Ist Z ∈ Lq , so ein lineares stetiges Funktional auf Lp . Beweis. Erinnerung: Hölder’sche Ungleichung: X ∈ Lp , Z ∈ Lq : |E[XZ]| ≤ kXkp kZkq (< ∞). Es folgen: 1) die Wohldefiniertheit von lZ Lp 2) die Stetigkeit von lZ , denn für Xn → X gilt n%∞ |lZ (Xn ) − lZ (X)| = |E[(Xn − X)Z]| ≤ kXn − Xkp kZkq −→ 0. | {z } →0 Satz 2.23. Sei p ∈ [1, ∞) und q ∈ (1, ∞] mit p1 + 1q = 1 (d.h. q = ∞, falls p = 1). Dann definiert T : Lq → (Lp )∗ , T (Z) = lZ mit lZ wie in Lemma 2.22 ein isometrischen Isomorphismus. Es ist also (Lp )∗ ∼ = Lq . 23 Beweis. Laut Lemma 2.22 ist T wohldefiniert. Es bleiben die Isometrie und Surjektivität zu zeigen. i) Isometrie: q/p |Z| Z ∈ Lp mit kXkp = 1 (Übung). Also gilt Sei p ∈ (1, ∞). Dann ist X = |Z| kZkq |||lZ ||| = sup |E[XZ]| ≥ E[ZX] (Übung) X∈Lp = kZkq , kXkp =1 wobei |||·||| die Operatornorm ist. Andererseits folgt wieder aus der Hölder’schen Ungleichung, dass |||lZ ||| ≤ kZkq . Somit gilt |||lZ ||| = kZkq . Ist p = 1 und somit Z ∈ L∞ , so ist aufgrund der Hölder’schen Ungleichung wieder |||lZ ||| ≤ kZk∞ . Andererseits sei für ε > 0 Xε := 1Aε sgn(z) P(Aε ) mit Aε := {|Z| > kZk∞ − ε} . Dann gilt Xε ∈ L1 , kXε k1 = 1 und ε&0 |E[ZXε ]| ≥ kZk∞ − ε −→ kZk∞ . ii) Surjektivität: Sei l ∈ (Lp )∗ . Betrachte die Funktion µ : F → R, µ(A) = l(1A ). Dann ist ein µ ein signiertes Maß mit µ P (Übung). Laut dem Satz von Radon-Nikodym existiert somit eine Dichte Z ∈ L1 mit µ(A) = E[Z1A ] für alle A ∈ F. Laut Lemma 2.22 ist lZ : L∞ 3 X 7→ E[ZX] ein lineares stetiges Funktional. Aus der Linearität folgt, dass lZ und l auf allen einfachen ZV’en übereinstimmen. Da auch l auf (L∞ , k · k∞ ) stetig ist (denn k · k∞ -Konvergenz impliziert k · kp - Konvergenz auf L∞ ⊂ Lp ) und die einfachen ZV’en in (L∞ , k · k∞ ) dicht liegen, folgt dass l|L∞ = lZ . (2.4) Wir zeigen nun, dass lZ stetig auf ganz Lp ausgedehnt werden kann qmit lZ = l und dass 0 Z ∈ Lq . Sei hierzu zunächst p ∈ (1, ∞) und somit q < ∞. Sei X =: |Z| Z (mit 0 := 0). Dann gilt: |Z|pq q p q |X| = = |Z| = XZ p= . |Z|p q−1 24 Betrachte An := {|Z| ≥ n}. Dann ist X1An ∈ L∞ für alle n ∈ N und mit (2.4) gilt: E[|Z|q 1An ] = E[XZ1An ] = lZ (X1An ) = l(X1An ) ≤ |||l||| · kX1An kp = |||l|||E[|X|1An ]1/p = |||l|||E[|Z|q 1An ]1/p ⇒ E[|Z|q 1An ]1/q ≤ |||l||| ∀n ∈ N n→∞ Mit Hilfe der monotonen Konvergenz erhalten wir E[|Z|q 1An ]1/q −→ E[|Z|q ]1/q = kZkq und somit kZkq ≤ |||l||| ∀n ∈ N. Im Falle q = ∞ (d.h. p = 1) betrachte A := {|Z| > |||l|||}. 0 1 Angenommen es wäre P(A) > 0. Sei X := |Z| Z 1A 0 := 0 . Dann ist X ∈ L und |||l|||P(A) < E[|Z|1A ] = E[XZ] = l(X) ≤ |||l||| · kXk1 . | {z } =P(A) ⇒ |Z| > |||l||| (P-f.s.) und somit Z ∈ L∞ . Schließlich folgt, dass lZ : Lp 3 X 7→ E[ZX] ein lineares stetiges Funktional auf Lp ist (Lemma 2.22), welches nach (2.4) auf der dichten Teilmenge L∞ von (Lp , k · kp ) mit l übereinstimmen. Also gilt lZ = l auf ganz Lp . Lemma 2.22 zeigt, dass L1 ⊆ (L∞ , k · k∞ )∗“. Wie sieht (L∞ , k · k∞ )∗ aus? In der Tat ist ∗ 1 ” ∞ ∗ ∞ ) größer als L . Zur Charakterisierung von (L , k · k∞ ) benötigen wir die Menge der endlich additiven signierten Maße auf F: (L∞ , k · k Definition 2.24. Eine Abbildung µ : F → R heißt endlich additives signiertes Maß, falls i) µ(∅) = 0 ii) für paarweise disjunkte Mengen A1 , ..., An ∈ F gilt ! n n [ X µ Ai = µ(Ai ) (endlich additiv) i=1 i=1 Nimmt µ nur nicht-negative Werte an, so heißt µ ein endlich additives Maß. Die totale Variation kµkVar eines endlich additiven signierten Maßes µ ist gegeben durch ) ( n X kµkVar := sup µ(Ai ) : A1 , ..., An ∈ F, Ai ∩ Aj = ∅ für i 6= j, n ∈ N . i=1 Sei ba := {µ : F → R :µ ist ein endliches additives signiertes Maß mit kµkVar < ∞ und P(A) = 0 ⇒ µ(A) = 0}. Dann definiert jedes µ ∈ ba wie folgt ein lineares stetiges Funktional auf L∞ : 25 i) Sei zunächst X = Definiere n P i=1 ai 1Ai ∈ L∞ mit ai ∈ R und Ai ∈ F mit Ai ∩ Aj = ∅ für i 6= j. hµ, Xi := n X ai µ(Ai ). i=1 Das ist wohldefiniert, d.h. hµ, Xi ist unabhängig von der Darstellung der einfachen ZV X (Übung). Es ist n X |hµ, Xi| ≤ kXk∞ µ(Ai ) i=1 ≤ kXk∞ kµkVar . Also ist hµ, ·i ein lineares stetiges Funktional auf (E, k · k∞ ), wobei E ⊂ L∞ die Menge der einfachen ZV’en bezeichnet. ii) Setze hµ, ·i eindeutig zu einem linearen stetigen Funktional auf ganz L∞ fort. (D.h. zu k·k∞ X ∈ L∞ wähle (Xn )n∈N ⊂ E mit Xn → X und setze hµ, Xi := limn%∞ hµ, Xi. Dies ist unabhängig von der approximierenden Folge (Xn )n∈N von X (Übung)). Insbesondere gilt |hµ, Xi| ≤ kXk∞ kµkVar für alle X ∈ L∞ . Ist µ ein endlich additives Maß (µ(A) ≥ 0 für alle A ∈ F), so schreibt man auch Z X d µ := hµ, Xi für X ∈ L∞ . Satz 2.25. Die Abbildung T : ba → (L∞ )∗ , T (µ)(X) = hµ, Xi, ist ein isometrischer Isomorphismus des Banachraums (ba, k · kVar ) nach ((L∞ )∗ , ||| · |||), d.h. (L∞ )∗ ∼ = ba. Bemerkung. • Der Dualraum V ∗ eines normierten Raumes (V, k · k) ist mit der Operatornorm ||| · ||| immer ein Banachraum. (d.h. vollständig). Das liegt an der Vollständigkeit von R (Wiederholung aus der Funktionalanalysis Vorlesung, Übung). • (ba, k · kVar ) ist ein normierter Raum (Übung). Aus der isometrischen Isomorphie von ba und (L∞ )∗ (Satz 2.25) und der ersten Bemerkung folgt nun die Vollständigkeit von (ba, k · kVar ), d.h. es ist ein Banachraum. Beweis von Satz 2.25. Die Wohldefiniertheit von T folgt aus der Konstruktion von hµ, ·i. T ist eine Isometrie, denn es gilt einerseits |hµ, Xi| ≤ kµkVar für alle X ∈ L∞ mit kXk∞ = 1 (s.o.) und andererseits für jede Folge von paarweise disjunkten Zerlegungen An1 , ..., Anm(n) n∈N 26 von Ω mit m(n) P i=1 m(n) P i=1 n%∞ |µ(Ani )| −→ kµkVar , dass Xn = n%∞ m(n) P i=1 sgn (µ(Ani )) 1Ani ∈ L∞ und |hµ, Xn i| = |µ(Ani )| −→ kµkVar . Also |||T (µ)||| = kµkVar . Für den Beweis der Surjektivität von T sei l ∈ (L∞ )∗ . Dann ist µ(A) := l(1A ), A ∈ F, ein endlich additives signiertes Maß mit P(A) = 0 ⇒ µ(A) = 0. Da l stetig ist, gilt |||l||| < ∞ und wie oben folgt, dass ( n ) X kµkVar = sup l(1Ai ) : A1 , ..., An ∈ F, Ai ∩ Aj = ∅ für i 6= j, n ∈ N i=1 = sup kXk∞ =1 |l(X)| = |||l||| < ∞. Also ist µ ∈ ba. Aus der Linearität von hµ, ·i und l folgt wiederum, dass ∀X ∈ E = {einfache ZV’en}: hµ, Xi = l(X). Da E ⊂ L∞ dicht ist und sowohl X 7→ hµ, Xi als auch l stetig sind, folgt l(X) = hµ, Xi für alle X ∈ L∞ . Bemerkung. • Für p, q ∈ (1, ∞) mit 1 p + 1 q = 1 ist das duale Paar hLp , Lq i reflexiv, d.h. (Lp , k · kp )∗ ∼ = Lq und (Lq , k · kq )∗ ∼ = Lp • hL1 , L∞ i ist nicht reflexiv (Sätze 2.23 und 2.25). 27 (Satz 2.23). 3 Anwendung auf konvexe Risikomaße Seien p, q ∈ [1, ∞] mit Korollar 2.18 gilt: 1 p + 1 q = 1 und sei f : Lp → (−∞, ∞] eine konvexe Funktion. Laut f ist k · kp -uhs ⇐⇒f ist σ(Lp , Lq )-uhs, falls p < ∞ bzw. σ(L∞ , ba)-uhs, falls p = ∞. Lemma 3.1. Seien p, q ∈ [1, ∞] mit p1 + 1q = 1 und sei f : Lp → (−∞, ∞] eine konvexe uhs (bzgl. k · kp ) Funktion mit 0 ∈ dom f := {X ∈ Lp : f (X) < ∞}. i) f ist antiton (d.h. X ≥ Y ⇒ f (X) ≤ f (Y )) genau dann, wenn f (X) = sup E[ZX] − f ∗ (Z), X ∈ Lp , bzw. p<∞: Z∈Lq− p=∞: f (X) = sup hµ, Xi − f ∗ (µ), X ∈ L∞ , µ∈ba− wobei Lq− := {Z ∈ Lq : Z ≤ 0} bzw. ba− := {µ ∈ ba : ∀X ∈ L∞ + : hµ, Xi ≤ 0}. ii) f ist monoton (d.h. X ≥ Y ⇒ f (X) ≥ f (Y )) genau dann, wenn p<∞: f (X) = sup E[ZX] − f ∗ (Z), X ∈ Lp , bzw. Z∈Lq+ p=∞: f (X) = sup hµ, Xi − f ∗ (µ), X ∈ L∞ , µ∈ba+ wobei Lq+ := {Z ∈ Lq : Z ≥ 0} bzw. ba+ := {µ ∈ ba : ∀X ∈ L∞ + : hµ, Xi ≥ 0}. Beweis. i) Sei p = ∞: Angenommen f (X) = sup (hµ, Xi − f ∗ (µ)). Seien X, Y ∈ L∞ mit X ≥ Y . Dann gilt: µ∈ba− f (X) = sup hµ, X − Y i +hµ, Y i − f ∗ (µ) {z } µ∈ba− | ≤0, da µ∈ba− ≤ sup hµ, Y i − f ∗ (µ) = f (Y ). µ∈ba− D.h. f ist antiton. Ist f antiton und sei µ ∈ ba und X ∈ L∞ + mit hµ, Xi > 0. Dann ist f ∗ (µ) = sup hµ, Xi − f (X) ≥ sup thµ, Xi − f (tX) | {z } t≥0 X∈L∞ ≤0 ≥ sup t hµ, Xi −f (0) = ∞. t>0 | {z } >0 Mit Satz 2.21 folgt, dass f (X) = f ∗∗ (X) = sup hµ, Xi − f ∗ (µ) = sup hµ, Xi − f ∗ (µ), µ∈ba µ∈ba− denn f ∗ (µ) = ∞ für alle µ ∈ ba \ ba− . Analog zeigt man die Behauptung für p < ∞ und den Fall 2 (Übung). 28 Lemma 3.2. Seien p, q, r ∈ [1, ∞] mit p1 + 1q = 1, r ≥ q und sei f : Lp → (−∞, ∞] eine konvexe σ(Lp , Lr )-uhs Funktion mit 0 ∈ dom f . i) f ist antiton genau dann, wenn f (X) = sup E[ZX] − f ∗ (Z), X ∈ Lp , Z∈Lr− ∗ r wobei f (Z) = sup E[ZX] − f (X), Z ∈ L . X∈Lp ii) f ist monoton genau dann, wenn f (X) = sup E[ZX] − f ∗ (Z), X ∈ Lp . Z∈Lr+ Beweis. Wie für das Lemma 3.1. Lemma 3.3. Seien p, q, r ∈ [1, ∞] mit konvexe Funktion mit 0 ∈ dom f . 1 p + 1 q = 1, r ≥ q und sei f : Lp → (−∞, ∞] eine i) Ist f k · kp -uhs, so ist f cash-additiv (∀X ∈ Lp , m ∈ R : f (X + m) = f (X) − m) genau dann, wenn p<∞: f (X) = sup E[ZX] − f ∗ (Z), X ∈ Lp , Z∈Lq E[Z]=−1 p=∞: f (X) = sup hµ, Xi − f ∗ (µ), X ∈ L∞ . µ∈ba hµ,1i=−1 ii) Ist f σ(Lp , Lr )-uhs, so ist f cash-additiv genau dann, wenn f (X) = sup Z∈Lr E[ZX] − f ∗ (Z), X ∈ Lp . E[Z]=−1 (Analog haben Funktionen mit f (X + m) = f (X) + m eine Darstellung über Z ∈ Lr mit E[Z] = 1 bzw. µ ∈ ba mit hµ, 1i = 1 (Übung).) Beweis. i) Sei p = ∞: Ist f (X) = sup hµ, Xi − f ∗ (µ), so gilt: µ∈ba hµ,1i=−1 f (X + m) = sup hµ, Xi − f ∗ (µ) + m hµ, 1i | {z } µ∈ba hµ,1i=−1 =−1 = f (X) − m. 29 Ist umgekehrt f cash-additiv, so gilt für alle µ ∈ ba mit hµ, 1i = 6 −1: f ∗ (µ) = sup hµ, Xi − f (X) ≥ sup hµ, mi − f (m) | {z } X∈L∞ m∈R =f (0)−m = sup m hµ, 1i + 1 − f (0) = ∞. | {z } m∈R 6=0 Die anderen Fälle folgen analog (Übung). Bemerke die Universalität der verwendeten Argumente in den Lemmata 3.1-3.3. Satz 3.4. Eine Abbildung ρ : L∞ → R ist ein konvexes Risikomaß genau dann, wenn Z (3.1) ρ(X) = sup −X d µ −α(µ), X ∈ L∞ , µ∈C | {z } =hµ,−Xi wobei ∅ = 6 C ⊂ M1,f := {µ ∈ ba+ : hµ, 1i = 1} = {endliche additive W-maße absolutstetig zu P} und α : C → R mit inf µ∈C α(µ). Insbesondere kann in (3.1) die konvexe Menge C = − dom ρ∗ und die konvexe Funktion α(µ) = αmin (µ) := ρ∗ (−µ), µ ∈ − dom ρ∗ , gewählt werden. αmin ist die minimale Penaltyfunktion“, d.h. für jede Funktion α wie in (3.1) gilt α(µ) ≥ αmin (µ) ” für alle µ ∈ C . Beweis. ⇐“: Wie in den Lemmata 3.1-3.3 folgt, dass ρ wie in (3.1) definiert ein konvexes ” Risikomaß ist (auch, wenn α nicht unbedingt die Duale von ρ ist). ⇒“: Sei ρ ein konvexes RM. Dann ist laut Lemma 3.1 und 3.3 (ρ ist k · k∞ -stetig also ” insbesondere k · k∞ -uhs) ρ(X) = sup hµ, Xi − ρ∗ (µ) = sup h−µ, Xi − ρ∗ (−µ) µ∈ba− hµ,1i=−1 = sup µ∈M1,f Z µ∈M1,f ∗ −X d µ − ρ (−µ) = sup −µ∈dom ρ∗ Z −X d µ − αmin (µ). Da ρ∗ konvex ist, ist C := − dom ρ∗ konvex und auch αmin : C → R. Für die letzte Aussage des Satzes nehmen wir an, das konvexe RM ρ lasse sich durch α und C wie in (3.1) darstellen. Dann gilt für jedes µ ∈ C : αmin (µ) = ρ∗ (−µ) = sup −hµ, Xi − ρ(X) X∈L∞ = sup −hµ, Xi − sup he µ, −Xi − α(e µ) X∈L∞ µ e=µ ≤ µ e∈C sup −hµ, Xi + hµ, Xi + α(µ) X∈L∞ = α(µ). 30 Lemma 3.5. Sei ρ : L∞ → R ein konvexes RM. Dann ist für alle µ ∈ M1,f : Z αmin (µ) = sup −X d µ, X∈Aρ wobei Aρ := {X ∈ L∞ : ρ(X) ≤ 0} die Akzeptanzmenge von ρ bezeichnet. Beweis. αmin (µ) = ρ∗ (−µ) = sup hµ, −Xi − ρ(X) X∈L∞ = sup hµ, −(X + ρ(X))i = sup hµ, −Xi. | {z } X∈L∞ X∈Aρ ∈Aρ Satz 3.6. Eine Abbildung ρ : L∞ → R ist ein kohärentes Risikomaß genau dann, wenn Z ρ(X) = sup −X d µ, X ∈ L∞ , (3.2) µ∈C wobei ∅ = 6 C ⊂ M1,f . Ist ρ ein kohärentes RM, so kann in der Darstellung (3.2) immer die konvexe und abgeschlossene Menge C = − dom ρ∗ gewählt werden. Beweis. Offensichtlich ist ρ wie in (3.2) definiert ein kohärentes RM. Sei nun ρ ein kohärentes RM, dann ist es insbesondere ein konvexes RM und somit gilt nach Satz 3.4 ρ(X) = sup hµ, −Xi − αmin (µ). µ∈dom ρ∗ Nun ist Aρ ein Kegel und mit Lemma 3.5 folgt, dass t>0 αmin (µ) = sup hµ, −Xi = sup hµ, −tXi = tαmin (µ) X∈Aρ X∈Aρ für jedes µ ∈ M1 und jedes t > 0. Also ist αmin (µ) = {0, ∞}. Nun ist C := {µ ∈ M1,f : αmin (µ) = 0} = − {µ ∈ ba : ρ∗ (µ) ≤ 0} = − dom ρ∗ | {z } Niveaumenge von ρ∗ konvex und abgeschlossen. Beispiel. ρ(X) = sup µ∈M1,f Z −X d µ = − essinf X. 31 Bemerkung. Problematischer Dualraum ba“ ” Erinnerung: µ ∈ M1,f ist σ-additiv ⇐⇒ Für alle An & ∅ gilt: µ(An ) & 0 T (An & ∅ : (An )n∈N ⊂ F, µ(An ) > 0, An ⊃ An+1 , n An = ∅) . D.h. ist µ ∈ M1,f nicht σ-additiv, so gibt es An & ∅ mit lim µ(An ) = ε > 0. n%∞ Sind solche singulären µ als Preisregel sinnvoll? Wann lässt sich ein konvexes RM ρ : L∞ → R über W-maße darstellen? Satz 3.7. Sei ρ : L∞ → R ein konvexes Risikomaß. Es gibt eine Darstellung ρ(X) = sup EQ [−X] − α(Q), X ∈ L∞ , (3.3) Q∈C von ρ über W-maße aus C ⊂ M1 := {W-maße Q über (Ω, F) mit Q P} mit α : C → R genau dann, wenn ρ σ(L∞ , L1 )-uhs ist, welches wiederum äquivalent zur Abgeschlossenheit von Aρ in σ(L∞ , L1 ) ist. Ist ρ σ(L∞ , L1 )-uhs, so kann in der Darstellung (3.3) dQ dQ ∗ ∗ C = Q ∈ M1 : − ∈ dom ρ und α(Q) = αmin (Q) = ρ − dP dP gewählt werden. Für jedes C und α wie in (3.3) gilt α(Q) ≥ αmin (Q) für alle Q ∈ C . Beweis. ρ wie in (3.3) ist offensichtlich ein konvexes RM. Außerdem ist ρ σ(L∞ , L1 )-uhs. (?) Die umgekehrte Richtung folgt wie im Beweis von Satz 3.4. Ist ρ σ(L∞ , L1 )-uhs, so ist Aρ = E0 = {X : ρ(X) ≤ 0} abgeschlossen. Ist umgekehrt Aρ abgeschlossen, dann ist auch Ek = {X ∈ L∞ : ρ(X) ≤ k} = {X ∈ L∞ : ρ(X + k) ≤ 0} = E0 − k = Aρ − k abgeschlossen, k ∈ R. Also ist ρ σ(L∞ , L1 )-uhs. Der Rest folgt analog zum Beweis von Satz 3.4. Bemerkung. • Die zu Satz 3.6 analoge Version von Satz 3.7 im kohärenten Fall gilt natürlich auch. • Problematische Topologie σ(L∞ , L1 ), da sie nicht der schwachen Topologie σ(L∞ , ba) entspricht und somit die konvexen abgeschlossenen Mengen in der Normtopologie nicht unbedingt in σ(L∞ , L1 ) abgeschlossen sein müssen. Überprüfung der Abgeschlossenheit auch nicht trivial (a priori: Netze statt Folgen), jedoch gibt es glücklicherweise folgende Charakterisierung: Satz 3.8. Sei ρ : L∞ → R ein konvexes Risikomaß. Folgende Eigenschaften sind äquivalent: i) Aρ ist σ(L∞ , L1 )-abgeschlossen 32 ii) ρ ist stetig von oben“, d.h. falls Xn & X P-f.s., dann folgt ρ(Xn ) % ρ(X). (Nicht zu ” verwechseln mit oberhalbstetig) P-f.s. iii) ρ hat die Fatou-Eigenschaft: Für jede beschränkte Folge (Xn )n∈N ⊂ L∞ mit Xn −→ X ∈ L∞ gilt ρ(X) ≤ lim inf ρ(Xn ). n%∞ Beweis. i) ⇒ ii): Sei Xn & X. Mit Satz 3.7 gilt: ρ(X) = sup (EQ [−X] − α(Q)) , C ⊂ M1 Q∈C = sup lim inf EQ [−Xn ] − α(Q) (maj. Konvergenz X ≤ Xn ≤ X1 ) Q∈C n%∞ ≤ lim inf sup EQ [−Xn ] − α(Q) n%∞ Q∈C = lim inf ρ(Xn ) Monotonie, da Xn ≥X ≤ n%∞ ρ(X) ⇒ ρ(Xn ) % ρ(X). ii) ⇒ iii): Sei (Xn )n∈N ⊂ L∞ beschränkt mit Xn → X ∈ L∞ P-f.s. Dann ist Yn := sup Xm ∈ L∞ und m≥n es gilt Yn & X. Mit ii) folgt nun, dass ρ(X) = lim ρ(Yn ) Monotonie ≤ n%∞ lim inf ρ(Xn ). n%∞ iii) ⇒ ii): Falls Xn & X P-f.s., so ist X ≤ Xn ≤ X1 , also ist (Xn )n∈N beschränkt und daher lim inf ρ(Xn ) n%∞ Monotonie ≤ iii) ρ(X) ≤ lim inf ρ(Xn ) n%∞ ⇒ ρ(X) = lim ρ(Xn ). n%∞ iii) ⇒ i): Hierzu benötigen wir den Satz von Krein-Šmulian: Sei B ein Banachraum und sei C ⊂ B ∗ konvex. Dann ist C σ(B ∗ , B)-abgeschlossen genau dann, wenn C ∩ {x∗ ∈ B ∗ : |||x∗ ||| ≤ r} σ(B ∗ , B)-abgeschlossen ist für alle r > 0. D.h. um zu zeigen, dass Aρ σ(L∞ , L1 )-abgeschlossen ist, genügt es zu zeigen, dass Cr := Aρ ∩ {X ∈ L∞ : kXk∞ ≤ r} abgeschlossen ist in (L1 , k · k1 ) (!). Denn: 33 • B = (L1 , k · k1 ), B ∗ = (L∞ , k · k∞ ), Aρ ⊂ L∞ ist konvex, also ist Aρ σ(L∞ , L1 )-abgeschlossen ⇐⇒ Cr ist σ(L∞ , L1 )-abgeschlossen für alle r > 0. • Die Inklusion L∞ , σ(L∞ , L1 ) ,→ L1 , σ(L1 , L∞ ) ist stetig, denn Xα σ(L∞ ,L1 ) −→ X ⇐⇒ E[Xα Z] → E[XZ] für alle Z ∈ L1 ⇒ E[Xα Z] → E[XZ] für alle Z ∈ L∞ ⊂ L1 ⇐⇒ Xα σ(L1 ,L∞ ) −→ X (als Netz in L1 ). Also: Cr in (L1 , k · k1 ) abgeschlossen für alle r > 0 ⇐⇒ Cr ist σ(L1 , L∞ ) abgeschlossen für alle r > 0 (da Cr konvex ist und konvexe, abgeschlossene Mengen in der Norm und in der schwachen Topologie identisch sind). ⇒ Cr ist abgeschlossen in L∞ , σ(L∞ , L1 ) für alle r > 0 (Stetigkeit der Inklusion). ⇐⇒ Aρ ist σ(L∞ , L1 )-abgeschlossen (Krein-Šmulian). Zur Abgeschlossenheit von Cr in (L1 , k · k1 ): k·k1 P-f.s. Sei (Xn )n∈N ⊂ Cr mit Xn −→ X(∈ L1 ). O.E. auch Xn −→ X (ansonsten gehe zu einer Teilfolge über). Außerdem ist |X| = limn%∞ |Xn | ≤ r (P-f.s.), also kXk∞ ≤ r, d.h. X ∈ Cr . Mit iii) folgt ρ(X) ≤ lim inf n%∞ ρ(Xn ) ≤ 0, also X ∈ Aρ . Folglich ist Cr abgeschlossen in (L1 , k · k1 ). Zum Beweis des Satzes von Krein-Šmulian. • Satz von Banach-Alaoglu: Ist (V, k · k) ein normierter Raum, so ist Kr := {x∗ ∈ V ∗ : |||x∗ ||| ≤ r} , r > 0, σ(V ∗ , V )-kompakt. • Definiere eine Topologie τ auf B ∗ mit σ(B ∗ , B) ⊂ τ (d.h. alle offenen bzw. alle σ(B ∗ , B)abgeschlossenen Mengen sind auch in τ offen bzw. abgeschlossen) und ist A ⊂ B, so dass A ∩ {x∗ ∈ B ∗ : |||x∗ ||| ≤ r} abgeschlossen ist für alle r > 0 in σ(B ∗ , B), dann ist A abgeschlossen in τ . (Das ist sinnvoll wegen des ersten Punktes). • Zeige, dass die linearen stetigen Funktionale beider Topologien auf B ∗ übereinstimmen, d.h. (B ∗ , τ )∗ = (B ∗ , σ(B ∗ , B))∗ (∼ = B) . Lemma 2.17 ,→ (A ⊂ B ∗ ist konvex und τ -abgeschlossen ⇐⇒ A ⊂ B ∗ ist konvex und ∗ σ(B , B)-abgeschlossen). 34 Die Situation auf Lp , p ∈ [1, ∞). Beispiel. Sei ρ(X) = E[−X] + δ(X − |L∞ ), X ∈ Lp , wobei X − := −(X ∧ 0) und für eine Menge C ⊂ Lp : ( 0 , falls X ∈ C δ(X|C ) := (konvexanalytische Indikatorfunktion) ∞ , sonst [Übung: Sei f (X) = δ(X|C ). Berechne f ∗ ] ρ ist cash-additiv, monoton (antiton), konvex, positiv homogen ,→ ρ ist ein kohärentes Risikomaß auf Lp (, welches den Wert ∞ annimmt). Aber: ρ ist nicht uhs auf (Lp , k · kp ), denn Aρ = {X ∈ Lp : E[X] ≥ 0} % Aρ . (Übung) ,→ Keine duale Darstellung, es sei denn uhs wird gefordert. Satz 3.9. Sei ρ : Lp → (−∞, ∞] ein konvexes Risikomaß, welches k · kp -uhs ist (bzw. äquivalent dazu: Aρ ist abgeschlossen in der k · kp -Topologie). Dann ist ρ(X) = sup Z∈Lq− E[Z]=−1 wobei M1p := {Q ∈ M1 : E[ZX] − ρ∗ (Z) = sup EQ [−X] − αmin (Q), Q∈M1p ∈ Lq } und α : M1p → (−∞, ∞] mit dQ ∗ αmin (Q) = ρ − = sup EQ [−X]. dP X∈Aρ dQ dP p . Die dem Satz 3.4 entsprechende Umkehrung und die Minimalitätseigenschaft Hierbei ist q = p−1 von αmin gelten auch, sowie eine dem Satz 3.6 entsprechende Version für kohärente k · kp -uhs RM. Beweis. Übung: Wann ist die affine Minorante eine Tangente“? ” Subdifferenzierbarkeit: Sei hX, X 0 i ein duales Paar und f : X → (−∞, ∞] eine konvexe Funktion. Der Subgradient von f an der Stelle x ∈ dom f (= {x ∈ X : f (x) < ∞}) ist ∂f (x) := x0 ∈ X 0 |∀x ∈ X : f (x) ≥ f (x) − hx − x, x0 i = x0 ∈ X 0 |f (x) + f ∗ (x0 ) = hx, x0 i [Beweis der letzten Gleichung: ∀x ∈ X f (x) ≥ f (x) − hx − x, x0 i ⇐⇒ hx, x0 i − f (x) ≥ f ∗ (x0 ) ⇐⇒ f ∗ (x0 ) = hx, x0 i − f (x)] | {z } ≤f ∗ (x0 ) 35 f (x) b b f (x) hx − x, x′ i + f (x) b x x Abbildung 3.1: Illustration zur Definition des Subgradienten / dom f ist ∂f (x) = ∅. und für x ∈ Analog wird der Subgradient einer konvexen Funktion f 0 : X 0 → (−∞, ∞] definiert, d.h. ∂f 0 (x0 ) := x ∈ X|∀x0 ∈ X 0 : f 0 (x0 ) ≥ f (x0 ) − hx0 − x0 , xi = x ∈ X|f 0 (x0 ) + f 0∗ (x) = hx0 , xi Insbesondere: Ist f = f ∗∗ , so folgt x0 ∈ ∂f (x) ⇐⇒ x ∈ ∂f ∗ (x0 ). Bemerkung. ∂f (x) = ∅ ist möglich und häufig der Fall! Satz 3.10. Sei f : X → (−∞, ∞] konvex. Außerdem sei f stetig bei x ∈ dom f . Dann gilt ∂f (x) 6= ∅. Beweis. Da f bei x stetig ist, existiert eine offene Umgebung O ⊂ σ(X, X 0 ) um x mit f (O) ⊆ (f (x) − ε, f (x) + ε) für irgendein ε > 0. Dann ist O × (f (x) + ε, ∞) ⊂ epi f. | {z } offen in X×R D.h. die konvexe Menge epi f erfüllt int(epi f ) 6= ∅. Sei V := {(x, y) : y < f (x)} ⊂ X × R. Dann ist V konvex, V ∩ epi f = ∅. Also können wir V und epi f durch ein lineares stetiges Funktional (x0 , α) ∈ X × R schwach trennen: sup hx, x0 i + αy ≤ y<f (x) inf (x,a)∈epi f hx, x0 i + αa (3.4) mit hx, x0 i + αŷ < hx, x0 i + αa für mindestens ein (x, ŷ) ∈ V und (x, a) ∈ epi f . Da (x, a) 7→ hx, x0 i + αa stetig ist, folgt auch hx, x0 i + αf (x) ≤ inf (x,a)∈epi f 36 hx, x0 i + αa. (3.5) Trennendes Funktional von V und epif f (x) + ε f (x) b f (x) V = {(x, y) : y < f (x)} O x (a) Illustration der Menge O × (f (x) + ε, ∞) (b) Illustration der Beweisidee von Satz 3.10 Sei (x, k) ∈ int epi f . Dann gibt es ein δ > 0 und eine endliche Menge F ⊂ X 0 derart, dass {(x, k)} + (Uδ,F × (−δ, δ)) | {z } ⊂ epi f. offen, konvex, symmetrisch, absorbierend Sei nun z ∈ Uδ,F , dann ist ±z, 2δ ∈ Uδ,F × (−δ, δ) und laut (3.5): δ δ 0 0 0 hx, x i + αf (x) ≤ hx ± z, x i + α k + ⇐⇒ ∓hz, x i ≤ α k − f (x) + 2 2 (3.6) Angenommen x0 6= 0. Wähle das z ∈ Uδ,F so, dass hz, x0 i = 6 0 (so ein z muss existieren, da Uδ,F absorbierend ist und hx0 , zi = 0 für alle z ∈ Uδ,F somit x0 = 0 implizieren würde). Dann impliziert (3.6), dass α 6= 0 und sogar α > 0, denn k − f (x) + 2δ > 0. Ist x0 = 0, so ist α 6= 0, da (x0 , α) nicht trivial sein kann (siehe (3.4)) und aus (3.5) folgt αf (x) ≤ inf αa, d.h. wiederum α > 0. a≥f (x) Folglich können wir (3.5) umschreiben: hx, x0 x0 i + f (x) ≤ inf hx, i + a α α (x,a)∈epi f und insbesondere für alle x ∈ dom f : hx, x0 x0 i + f (x) ≤ hx, i + f (x) α α f (x) ≥ f (x) + hx − x, bzw. x0 i α 0 D.h. − xα ∈ ∂f (x). Korollar 3.11. Sei ρ : (L∞ , k · k∞ ) → R ein konvexes Risikomaß. Dann ist ∂ρ(X) 6= ∅ für alle X ∈ L∞ . D.h. insbesondere ist Z −X d µ − αmin (µ), X ∈ L∞ . ρ(X) = max µ∈M1,f 37 Beweis. ρ ist laut Lemma 1.2 stetig. Wende Satz 3.10 an. Bemerkung. Hat ρ die Fatou-Eigenschaft, d.h. ρ ist σ(L∞ , L1 )-unterhalbstetig, dann ist nicht automatisch klar, dass ∂ρ(X) 6= ∅ (in σ(L∞ , L1 )) für alle X ∈ L∞ , da ρ nicht notwendigerweise σ(L∞ , L1 )-stetig ist. Beispiel. ρworst (X) := − essinf X, X ∈ L∞ . ρworst ist ein kohärentes Risikomaß auf L∞ , welches die Fatou-Eigenschaft besitzt. Laut Korollar 3.11, sowie Satz 3.8 (und Satz 3.7) gilt Z in σ(L∞ ,ba) in σ(L∞ ,L1 ) ρworst (X) = max −X d µ = sup EQ [−X], X ∈ L∞ . µ∈M1,f Q∈M1 • Ist X so, dass P(X X}) > 0. Dann ist QX mit | = essinf {z d QX dP = 1A X P(AX ) ein Wahrschein- =:AX lichkeitsmaß, QX P, also ist QX ∈ M1 und EQX [−X] = − essinf X = ρworst (X). ⇒ −QX ∈ ∂ρ(X). • Ist X so, dass P(X = essinf X) = 0, dann ist ∂ρ(X) 6= ∅ in σ(L∞ , ba), d.h. es existiert ein µ ∈ M1,f mit Z −X d µ = ρworst . (3.7) ∞ 1 Aber: ∂ρ(X) = ∅ in σ(L D.h. das µ in (3.7) muss singulär sein, es , L ) (siehe oben). 1 gilt nämlich für An := X < essinf X + n , dass lim µ(An ) > 0. n%∞ Hinreichend für eine Darstellung des konvexen RM ρ : L∞ → R als Maximum über W-maße ist die Stetigkeit von unten“, d.h. ” Xn % X ⇒ ρ(Xn ) & ρ(X). Lemma 3.12. Sei das konvexe RM ρ : L∞ → R stetig von unten. Dann ist für alle X ∈ L∞ : ∂ 1 ρ(X) = Z ∈ L1 : ρ(X) ≥ ρ(X) − E[Z(X − X)] 6= ∅ (Subgradient in hL∞ , L1 i). Insbesondere gilt ρ(X) = max EQ [−X] − αmin (Q), X ∈ L∞ . Q∈M1 Beweis. Sei µ ∈ M1,f \M1 und sei An & ∅ mit limn%∞ µ(An ) =: ε > 0 (so eine Folge (An )n∈N ⊂ F muss es geben, da µ ansonsten σ-additiv wäre). Dann gilt für jedes t > 0: Z Z ∗ αmin (µ) = ρ (−µ) = sup −X d µ − ρ(X) ≥ sup t1An d µ −ρ(−t1An ) X∈L∞ n∈N | {z } =tµ(An )≥tε n groß genug ≥ tε − ρ(0) − δ, für ein δ > 0. ⇒ αmin (µ) = ∞. Nun folgt die Behauptung aus Korollar 3.11. 38 Beispiel. ρworst (X) = − essinf X. Sei An & ∅, also 1An % 0, aber ρworst (−1An ) = − essinf −1An = 1 > ρworst (0) = 0. In der Tat ist die Stetigkeit von unten“ zumindest schwächer als die σ(L∞ , L1 )-Stetigkeit ” von ρ, welche laut Satz 3.10 insbesondere eine Darstellung wie in Lemma 3.12 implizieren würde. Denn: Satz 3.13. Sei ρ : L∞ → R ein konvexes Risikomaß. Betrachte folgende Eigenschaften: i) ρ ist σ(L∞ , L1 )-stetig. ii) ρ ist stetig von unten. iii) dom αmin ⊆ M1 (, wobei αmin : M1,f → (−∞, ∞] mit αmin (µ) = ρ∗ (−µ), d.h. αmin in der hL∞ , bai-Dualität) iv) ρ hat die Lebesgue-Eigenschaft, d.h. für jede beschränkte Folge (Xn )n∈N ⊂ L∞ mit P-f.s. n%∞ Xn −→ X ∈ L∞ gilt ρ(Xn ) −→ ρ(X). v) ρ ist σ(L∞ , L1 )-uhs ( stetig von oben“). ” Dann gilt: i) ⇒ ii) ⇐⇒ iii) ⇐⇒ iv) ⇒ v). σ(L∞ ,L1 ) Beweis. i) ⇒ ii): Xn % X =⇒ Xn −→ X. ii) ⇒ iii): Siehe Beweis von Lemma 3.12. ii) ⇒ v): Zunächst impliziert die Stetigkeit von unten nach Lemma 3.12 und Satz 3.8 die Stetigkeit von oben, d.h. die σ(L∞ , L1 )-uhs von ρ. ii) ⇒ iv): P-f.s. Sei (Xn )n∈N ⊂ L∞ beschränkt mit Xn −→ X. Da ρ σ(L∞ , L1 )-uhs ist, gilt ρ(X) ≤ lim inf ρ(Xn ) n%∞ (Satz 3.8 iii)). Andererseits ist Yn := inf Xm ≤ X mit Yn % X. Also ρ(Yn ) & ρ(X), wegen der Stetigkeit m≥n von unten. D.h. ρ(X) = lim sup ρ(Yn ) Monotonie ≥ n%∞ lim sup ρ(Xn ). n%∞ iv) ⇒ ii): Sei (Xn )n∈N ⊂ L∞ mit Xn % X ∈ L∞ . Dann ist X1 ≤ Xn ≤ X, also (Xn )n∈N beschränkt und somit gilt laut iv) ρ(Xn ) → ρ(X), wobei die Monotonie impliziert, dass in der Tat ρ(Xn ) & ρ(X). ii) ⇒ iii): Wiederhole den Beweis von Lemma 3.12. iii) ⇒ ii): Sei Xn % X ∈ L∞ . Bemerke, dass für ε > 0: Z ρ(Xn ) < −Xn d µ − αmin (µ) + ε 39 ⇐⇒ αmin (µ) < D.h. für alle n ∈ N ist: Z −Xn d µ − ρ(Xn ) + ε ≤ kX1 k∞ ∨ kXk∞ − ρ(X) + ε =: c ρ(Xn ) = max µ∈Ec Z −Xn d µ − αmin (µ), wobei Ec := {µ ∈ M1 : αmin (µ) ≤ c} = {µ ∈ ba : ρ∗ (−µ) ≤ c} = − {µ ∈ ba : ρ∗ (µ) ≤ c} und analog auch ρ(X) = max µ∈Ec Zeige: Z −Xn d µ → Z Z −X d µ ⇒ lim ρ(Xn ) = lim max n%∞ −X d µ − αmin (µ). n%∞ µ∈Ec Z = max lim µ∈Ec n%∞ |R Z gleichmäßig auf Ec (3.8) −Xn d µ − αmin (µ) −Xn d µ −αmin (µ) = ρ(X) {z } = −X d µ, da µ∈M1 und wegen der Monotonie: ρ(Xn ) & ρ(X). Zu (3.8): Fakt: B1 := {µ ∈ ba : kµkVar ≤ 1} ⊂ ba ist σ(ba, L∞ ) kompakt nach dem Satz von Banach-Alaoglu (siehe später/unten). Ist µ ∈ M1,f , dann gilt: kµkVar = |||hµ, ·i||| = sup kXk∞ =1 |hµ, Xi| ≤ kXk∞ hµ, Xi = 1 | {z } | {z } =1 =1 uns somit kµkVar = 1, (denn k1k∞ = 1). Also ist M1,f ⊂ B1 . Damit ist auch die abgeschlossene Menge Ec ⊆ M1,f ⊆ B1 σ(ba, L∞ )-kompakt(, denn Ec ist eine Niveaumenge der σ(ba, L∞ )-uhs Abbildung ρ∗ (−·) (s.o.)). Nun ist andererseits Ec ⊂ M1 und für jedes ε > 0 erfüllen die abgeschlossenen Mengen ε die Eigenschaften Kn+1 Knε := {Q ∈ Ec : EQ [Xn ] ≤ EQ [X] − ε} T ε Kn = ∅ (majorisierte Konvergenz). Aus der Kom⊂ Knε und n∈N paktheit von Ec folgt, dass es ein n0 ∈ N geben muss mit Knε 0 = ∅ (endliche ∩-Eigenschaft). Damit ist (3.8) gezeigt. (Dini’s Lemma). Satz 3.14 (Banach-Alaoglu). Sei (V, k · k) ein normierter Raum. Dann ist BV ∗ := {l ∈ V ∗ : |||l||| ≤ 1} 40 σ(V ∗ , V )-kompakt. Beweis. Betrachte die Abbildung φ : (V ∗ , σ(V, V ∗ )) → RV , τp , l 7→ (l(v))v∈V , wobei τp die Topologie der punktweisen Konvergenz auf RV bezeichnet. φ ist injektiv und φ−1 : φ (V ∗ ) → V ∗ , (l(v))v∈V 7→ l ist stetig bzgl. τp (σ(V ∗ , V ) ist die Topologie der punktweisen Konvergenz li li (v) → l(v), ∀v ∈ V ). Für v ∈ V betrachte n o h i Kv := λ ∈ R : |λ| ≤ kvk = − kvk, kvk . σ(V ∗ ,V ) −→ l ⇐⇒ Kv ist kompakt, also ist auch K := Y v∈V Kv = f ∈ RV : fv ∈ Kv , ∀v ∈ V kompakt in RV (Satz von Tichonov). Da für alle l ∈ BV ∗ gilt: |l(v)| ≤ |||l||| · kvk ≤ kvk für alle v ∈ V , folgt, dass φ(BV ∗ ) ⊂ K. Es bleibt zu zeigen, dass φ(BV ∗ ) abgeschlossen ist, denn dann ist φ(BV ∗ ) als abgeschlossene Teilmenge der kompakten Menge K selbst kompakt und BV ∗ = φ−1 (φ(BV ∗ )) als Bild einer kompakten Menge unter einer stetigen Abbildung wiederum kompakt in (V ∗ , σ(V ∗ , V )). τp Sei hierzu (fi )i∈I ⊂ φ(BV ∗ ) ein Netz mit fi → f ∈ Rv . Dann ist l : V → R mit l(v) = fv , eine lineare Abbildung von V nach R (Übung!). Außerdem gilt für alle v ∈ V mit kvk = 1, dass |l(v)| = lim |(fi )v | ≤ 1 ⇒ |||l||| ≤ 1. i D.h. l ist eine stetige lineare Abbildung auf V mit l ∈ BV ∗ bzw. f ∈ φ(BV ∗ ). Folglich ist φ(BV ∗ ) abgeschlossen. Allgemeiner: Ist X ein lokalkonvexer Raum, so ist für jede Null-Umgebung U , die Polare O̊ = {l ∈ X ∗ : |l(u)| ≤ 1 ∀u ∈ U } σ(X ∗ , X)-kompakt. Um die Situation der Subdifferenzierbarkeit konvexer RM auf Lp , p ∈ [1, ∞), zu verstehen, benötigen wir ein paar Hilfsresultate: Sei hierzu wieder hX, X 0 i ein duales Paar. Lemma 3.15. Sei f : X → (−∞, ∞] eine konvexe Funktion und sei f von oben beschränkt auf einer offenen Umgebung um den Punkt x ∈ X. Dann ist f stetig bei x. Beweis. O.b.d.A. x = 0 und f (0) = 0. (denn fe(x) := f (x+x)−f (x) ist konvex mit fe(0) = 0.) Sei U eine offene Umgebung um 0 derart, dass f (x) ≤ a < ∞ für alle x ∈ U . Sei W := U ∩ (−U ) (symmetrische 0-Umgebung) und sei ε ∈ (0, 1). Falls x ∈ ε · W , dann gilt: x x x ∈ W ⊂ U ⇒ f (x) = f (1 − ε) · 0 + ε · ≤ (1 − ε)f (0) + ε · f ≤ε·a ε ε ε 41 und − x 1 ε x ∈ W ⇒ 0 = f (0) = f x+ − ε 1+ε 1+ε ε 1 ε x 1 ε ≤ f (x) + f − ≤ f (x) + a 1+ε 1+ε ε 1+ε 1+ε ⇒ f (x) ≥ −ε · a Also |f (x)| ≤ ε · a für alle x ∈ ε · W , woraus die Stetigkeit von f bei 0 folgt. Satz 3.16. Sei f : X → (−∞, ∞] eine konvexe Funktion. Äquivalent sind: i) Es gibt eine offene Menge U 6= ∅ auf der f von oben durch eine Konstante a ∈ R beschränkt ist. ii) int dom f 6= ∅ und f ist stetig bei x für jedes x ∈ int dom f . Beweis. ii) ⇒ i): Sei x ∈ int dom f und U eine offene Umgebung um x mit f (U ) ⊆ (−∞, f (x) + ε) für ein | {z } =:a ε > 0 (Stetigkeit bei x). U und a erfüllen i). i) ⇒ ii): U ⊂ int dom f . Aus Lemma 3.15 folgt, dass f stetig ist bei jedem x ∈ U . Sei nun u ∈ int dom f (beliebig). Wähle x ∈ U . Dann existiert δ > 1 derart, dass w := x + δ(u − x) ∈ int dom f . Sei h : X → X mit h(y) := 1δ w + (1 − 1δ )y. Dann gilt 1 1 1 1 h(x) = w + 1 − x = (x + δ(u − x)) + x − x = u δ δ δ δ O := h(U ) ist offen (als Bild einer affinen Abbildung) mit u ∈ O. Zeige, dass f auf O von oben beschränkt ist. Für jedes y ∈ O gilt: f (y) für ein z∈U mit h(z)=y = 1 1 1 1 f (h(z)) = f w+ 1− z ≤ f (w) + 1 − f (z) δ δ δ δ 1 1 a =: e a ≤ f (w) + 1 − δ δ D.h. f ist auf O durch e a von oben beschränkt und somit stetig bei u ∈ int dom f (Lemma 3.15). Korollar 3.17. Sei (B, k · k) ein Banachraum und f : B → (−∞, ∞] konvex und uhs. Dann ist f stetig bei jedem x ∈ int dom f und ∂f (x) 6= ∅ für jedes x ∈ int dom f . (int dom f = ∅ ist möglich.) Beweis. Ist int dom f = ∅, so ist nichts zu zeigen. Sei nun int dom f 6= ∅ und x ∈ int dom f . O.b.d.A. x = 0. Sei a ∈ R mit f (0) < a. Dann ist C := {x ∈ B : f (x) ≤ a} abgeschlossen und 42 konvex, da f konvex und uhs ist. Außerdem ist C absorbierend, da für jedes x ∈ B f|R·{x} stetig bei 0 ist. Denn sei t ∈ (0, 1) mit tx ∈ dom f mit f (λx) ≤ λ 1−λ 1−λ f (tx) + f (0) ≤ |f (tx)| + f (0) =: e a, für alle λ ∈ (0, t). t t t D.h. f|R·{x} ist stetig bei 0 ∈ int dom f|R·{x} laut Satz 3.16. Betrachte W := C ∩ (−C ). Somit ist W konvex, abgeschlossen, absorbierend und symmetrisch. Dann ist 0 ∈ int W (Betrachte Wn := n · W . Dann folgt, dass B= [ Wn Satz von Baire =⇒ int Wn0 6= ∅ für ein n0 ∈ N =⇒ int W 6= ∅ n∈N =⇒ 0 ∈ int W (Symmetrie und Konvexität von W ).) Und somit ist f auf der offenen Umgebung int W um 0 beschränkt (durch a). Also folgt die Behauptung aus Satz 3.16. Bemerkung. • Das obige Korollar gilt auch auf jedem lokalkonvexen Raum auf dem der Satz von Baire Gültigkeit hat. (,→ allgemeiner: Barrelled space, espace tonné, tonnelierter Raum). Das sind die lokalkonvexen Räume derart, dass jede konvexe, abgeschlossene, absorbierende, symmetrische Menge W mit 0 ∈ W eine Null-Umgebung ist (0 ∈ int W ). • Wir haben gesehen, dass ρworst (X) = − essinf X auf (L∞ , σ(L∞ , L1 )) nicht stetig ist, da ∂ρworst (X) = ∅ für manche X ∈ L∞ (z.B. diejenigen, so dass P(X = essinf X) = 0), (Satz 3.10). Andererseits ist ρworst σ(L∞ , L1 )-uhs (und auch konvex) mit int dom ρworst = dom ρworst = L∞ . Folglich kann (L∞ , σ(L∞ , L1 )) kein tonnelierter Raum sein, d.h. der Satz von Baire gilt nicht. [Erinnerung: • Eine Teilmenge M ⊂ X eines topologischen Raumes (X, τ ) heißt nirgends dicht, falls int M = ∅. • M heißt S von 1ter Kategorie, falls es eine Folge (Mn )n∈N nirgends dichter Mengen mit M = n∈N Mn gibt. • M heißt von 2ter Kategorie, falls M nicht von 1ter Kategorie ist. Satz von Baire: Ein vollständiger metrischer Raum (allgemeiner: tonnelierter Raum) ist von 2ter Kategorie in sich selbst.] Satz 3.18. Sei ρ : Lp → (−∞, ∞] ein konvexes Risikomaß, wobei p ∈ [1, ∞). Dann sind äquivalent: 43 i) int dom ρ 6= ∅. ii) ρ ist stetig (bzgl. k · kp ) in mindestens einem Punkt x ∈ dom ρ. iii) dom ρ = Lp . iv) dom ρ = Lp und ρ ist stetig. v) ∂ρ(X) 6= ∅ für alle X ∈ Lp . Beweis. ii) ⇒ i): Klar i) ⇒ iii): e ∈ Lp mit ρ(X) e = ∞. Da dom ρ konvex ist und int dom ρ 6= ∅ Angenommen es existiert X e und dom ρ schwach trennen. D.h. es existiert ein Z ∈ Lq laut Voraussetzung, können wir {X} (wobei p1 + 1q = 1) mit Z 6= 0 und e sup E[ZY ] ≤ E[Z X]. Y ∈dom ρ Monotonie Da L∞ ⊂ dom ρ (denn ρ(0) < ∞ und ρ(X) ≤ kXk∞ + ρ(0) für alle X ∈ L∞ ) gilt e für alle X ∈ L∞ und t ∈ R. X = 1{Z>0} bzw. X = 1{Z<0} zeigt, dass tE[ZX] ≤ E[Z X] Z = 0 Widerspruch. Also gilt dom ρ = Lp . iii) ⇒ iv): Sei Bε := {Y ∈ Lp : kY kp < ε}. Gäbe es ein ε > 0 derart, dass ρ von oben auf Bε beschränkt ist, so würde aus Satz 3.16 folgen, dass ρ stetig ist auf int dom ρ = Lp . Angenommen ρ ist unbeschränkt von oben auf Bε für jedes ε > 0. Wähle eine Folge (Xn )n∈N ⊂ Lp mit Xn ∈ B 1n 2 und ρ(Xn ) ≥ n. Sei Yn := X1 ∧ X2 ∧ ... ∧ Xn = inf Xm . Dann gilt m≤n kYn kp ≤ k ≤ n X i=1 n X i=1 Xi 1{Xi =Yn } kp kXi kp ≤ Minkowski-Ungleichung ≤ n X i=1 n X 1 ≤ 1. 2n kXi 1{Xi =Yn } kp i=1 Sei weiter Y = lim Yn = inf Xn . Mit dem Lemma von Fatou folgt, dass n%∞ n∈N p p E [|Y | ] = E lim inf |Yn | n%∞ ≤ lim inf E [|Yn |p ] ≤ 1, n%∞ also Y ∈ Lp und wegen der Monotonie von ρ ρ(Y ) ≥ ρ(Yn ) ≥ ρ(Xn ) ≥ n für jedes n ∈ N. Folglich ist ρ(Y ) = ∞, welches ein Widerspruch zu dom ρ = Lp ist. iv) ⇒ v): Satz 3.10 iv) ⇒ ii): Klar. v) ⇒ iii): Falls ∂f (x) 6= ∅ für alle X ∈ Lp , dann ist dom ρ = Lp . 44 Lemma 3.19. Ist ρ : Lp → (−∞, ∞] eine konvexe und monotone/ antitone Funktion, wobei p ∈ [1, ∞), so ist f automatisch auf int dom f stetig. Beweis. Siehe iii)⇒ iv) von Satz 3.18. Beispiel. 1) Entropisches Risikomaß: ρβ (X) := Sei h i 1 log E e−βX , X ∈ Lp , β > 0. β dQ log H(Q|P) := E dP dQ dP dQ = EQ log für Q ∈ M1 . dP H(Q|P) heißt die relative Entropie“. ” (Übung: a) H(Q|P) ≥ 0 ∀Q ∈ M1 und b) H(Q|P) = 0 ⇐⇒ Q = P.) Auf L∞ : • ρβ ist stetig von unten (maj. Konvergenz) • Zeige: ρβ (X) = max EQ [−X] − β1 H(Q|P), X ∈ L∞ . Q∈M1 Beweis: Für X ∈ L∞ sei PX ∼ P gegeben durch d PX e−βX = . dP E [e−βX ] Dann ist log dQ dQ d PX = log + log dP d PX dP und dQ = H(Q|P) = EQ log dP dQ d PX +E log EQ log Q d PX dP | {z } ≥0 (=0 falls Q=PX ) ≥ EQ d PX log dP h i = EQ [−βX] − log E e−βX =⇒ h i 1 1 log E e−βX ≥ EQ [−X] − H(Q|P) für alle Q ∈ M1 . β β Andererseits ist für Q = PX (3.9) eine Gleichung, d.h. h i 1 1 log E e−βX = EPX [−X] − H(PX |P) ⇒ Beh. β β Auf Lp : 45 (3.9) • ρβ (X) = sup EQ [−X] − β1 H(Q|P), X ∈ Lp . Q∈M1p Beweis hiervon später. • ρβ ist uhs (Lemma von Fatou) Zu den Subgradienten: Auf L∞ : −PX ∈ ∂ρβ (X) für alle X ∈ L∞ (s.o.) In der Tat ∂ρβ (X) = {−PX }. Denn: • ∂ρβ (X) ist konvex. (Der Subgradient einer konvexen Funktion ist konvex, Übung) • H(Q|P) ist strikt konvex, d.h. H(λQ + (1 − λ)Q̂|P) < λH(Q|P) + (1 − λ)H(Q̂|P) für Q 6= Q̂. (Übung) • Angenommen es gäbe Q, Q̂ ∈ M1 mit −Q, −Q̂ ∈ ∂ρβ (X), dann wäre Qλ := λQ + (1 − λ)Q̂ ∈ ∂ρβ (X) ∀λ ∈ [0, 1] und für λ ∈ (0, 1) wäre 1 ρβ (X) = EQλ [−X] − H(Qλ |P) β 1 1 > λ EQ [−X] − H(Q|P) + (1 − λ) EQ̂ [−X] − H(Q̂|P) = ρβ (X) β β Auf Lp : ∂ρβ (X) = {−PX } für alle X ∈ Lp mit e−βX ∈ Lq , aber ∂ρβ (X) = ∅ für alle X ∈ Lp mit e−βX ∈ / Lq . Man kann zeigen, dass Q ∈ ∂ρβ (X) ⇒ dQ e−βX = für alle X ∈ Lp . dP E [e−βX ] Ist z.B. p = 1, so folgt ∂ρβ (X) = ∅ für alle nach unten unbeschränkten X. 2) Average Value at Risk: Sei α ∈ (0, 1]. Definiere für X ∈ Lp : Z Z 1 α + 1 α AVaRα (X) := −qX (s) d s = VaRs (X) d s α 0 α 0 (Übung) 1 = E (q − X)+ − q, α − + wobei q ein α-quantil von X ist (q ∈ qX (α), qX (α) ). Üblich: AVaR0 (X) := − essinf X = ρworst (X). 46 Satz 3.20. Sei α ∈ (0, 1]. Dann gilt: AVaRα (X) = max EQ [−X], X ∈ Lp , Q∈Qα wobei Qα := dQ 1 Q ∈ M1 : ≤ dP α ⊆ M11 , d.h. beschränkte Dichten . Insbesondere ist AVaRα ein kohärentes Risikomaß, welches stetig auf Lp ist und auf L∞ die Lebesgue-Eigenschaft hat( Stetigkeit von unten“). ” R1 Beweis. α = 1: Q1 = {P} und 11 0 −qX (s) d s = E[−X]. α ∈ (0, 1): Sei ρ(X) := sup EQ [−X], X ∈ L1 . Q∈Qα Dann ist ρ ein kohärentes Risikomaß auf L1 mit ρ(X) ≤ E[X − ] · α1 und somit dom ρ = L1 . Also ist ρ stetig und überall subdifferenzierbar, also ist insbesondere ρ(X) = max EQ [−X], X ∈ L1 . Q∈Qα Offensichtlich ist auch AVaRα stetig auf L1 . Zeige: ρ(X) = AVaRα (X) für alle X ∈ L∞ . (3.10) Stetigkeit ⇒ ρ = AVaRα , da L∞ ⊂ L1 dicht. Zu (3.10): Sei X ∈ L∞ mit P(X < 0) = 1 und sei PX ∼ P gegeben durch d PX X = . dP E[X] Dann ist ρ(X) = max EQ [−X] = max EPX Q∈Qα Q∈Qα = E[−X] max EPX Q∈Qα = dQ dP E[−X] max EPX [ρ], ρ∈A α −X |{z} X dQ dP d P d PX =E[−X]· ddPP + + wobei A := {0 ≤ ρ ≤ 1 : E[ρ] = α}. Da P(X < qX (α)) ≤ α < 1 = P(X < 0), folgt qX (α) < 0. Sei ρ0 := 1{X<q+ (α)} + k1{X=q+ (α)} , X wobei + α−P(X<qX (α)) + P(X=qX (α)) k= 0 X + , P X = qX (α) > 0 , sonst 47 . d QX dP := α1 ρ0 gilt QX ∈ Qα und Z h ρ i 1 α + 0 EQX [−X] = E − X = − q (s) d s = AVaRα (X). α α 0 X Bemerke, dass für (Siehe später für eine Rechnung, Korollar 3.21) (D.h. AVaRα (X) ≤ ρ(X).) Außerdem ist ρ0 ∈ A. Für alle ρ ∈ A gilt: (ρ0 − ρ) q + (α) d PX − X dP E[X] + (ρ0 − ρ) X − qX (α) = E[X] | {z } (!) ≥ Fälle durchgehen 0. <0 Also EPX d PX [(ρ0 − ρ)] = E (ρ0 − ρ) dP ρ0 − ρ + ≥E q (α) = 0 E[X] X D.h. EPX [ρ0 ] = max EPX [ρ] bzw. ρ∈A X EPX [ρ0 ] = EQX [−X] = AVaRα (X) (s.o.) ρ(X) = E − α Für beliebiges X ∈ L∞ folgt nun, dass AVaRα (X) = AVaRα (X − kXk∞ − 1) − kXk∞ − 1 = ρ (X − kXk∞ − 1) − kXk∞ − 1 = ρ(X) Für allgemeines p ∈ [1, ∞] folgt die Behauptung, da Lp ⊂ L1 , k · kp -Konvergenz k · k1 Konvergenz impliziert und da Qα ⊂ M11 ⊂ M1p . Korollar 3.21. AVaRα (X) = EQX [−X], X ∈ L1 , wobei QX ∈ Qα gegeben ist durch und − d QX 1 + = 1{X<q} + k1{X=q} mit q ∈ qX (α), qX (α) dP α k= ( α−P(X<q) , P (X = q) > 0 P(X=q) 0 , sonst X Insbesondere − ddQP ∈ AVaR∗α (X). 48 . Beweis. 1 E (q − X)+ − q α 1 = E (q − X)+ − αq α 1 = E (q − X)1{X<q} − αq α 1 = E (−X)1{X<q} + α ( AVaRα (X) = 0 −E X · k1{X=q} = = q (P(X < q) − α) | {z } 1 E −X 1{X<q} + k1{X=q} . α , falls P (X = q) = 0 , falls P (X = q) > 0 Beispiel (Semi-Deviation-RM). Sei ρpδ (X) := E[−X] + δk(X − E[X])− kp , X ∈ L1 , p ∈ [1, ∞), δ ∈ (0, 1]. Dann ist ρpδ ein kohärentes Risikomaß, welches uhs (Lemma von Fatou) auf jedem (Lr , k · kr ) ist mit r ≥ 1 und stetig auf jedem (Ls , k · ks ) mit s ≥ p ist. (Übung) Auf L∞ ist ρpδ stetig von unten, denn für p < ∞ folgt dies sofort aus dem Satz von der majorisierten Konvergenz. Satz 3.22. Seien q := p p−1 (= ∞, falls p = 1) und P := {1 + δ(g − E[g])|g ≥ 0, kgkq ≤ 1} dQ p p dQ p 1 ⊂ D1 := Z ∈ L : ∃Q ∈ M1 : =Z = : Q ∈ M1 . dP dP Dann gilt: ρpδ (X) = max E[−ZX] = maxp EQ [−X], X ∈ Lp . Z∈P Q∈M1 dQ ∈P dP Außerdem ist ρpδ (X) = E[ZX X] für ZX ∈ P mit ( ∈P , falls X = Konstante ZX = , 1 + δ (gX − E[gX ]) , sonst wobei gX = (X−E[X])p−1 − k(X−E[X])− kp−1 p 1 {X<E[X]} , falls p > 1 , falls p = 1 49 . Beweis. Sei g ≥ 0 mit kgkq ≤ 1, dann gilt offensichtlich Zg := (1 + δ(g − E[g])) ∈ Lq mit E[Zg ] = 1 und Zg ≥ 1 − δE[g] Jenssen ≥ Also ist P ⊆ D1p . Außerdem gilt für X ∈ Lp mit E[X] = 0, dass 1 − δkgkq ≥ 0. E [− (1 + δ (g − E[g])) X] = E[−X] −δE[gX] + δE[g] E[X] | {z } | {z } =0 =0 Hölder ≤ δE[gX− ] ≤ δ kgkq kX− kp ≤ δkX− kp = ρpδ (X), |{z} ≤1 und für X 6= Konstante E[gX X] = also h i p−1 E X− X kX− kp−1 p =− p E X− kX− kp−1 p = −kXkp i E − 1 + δ(gX − E[gX ]) X = −δE[gX X] = δkX− kp = ρpδ (X), | {z } h wobei gX ≥ 0 und =ZX 1 p q (p−1)· p−1 E X− = 1, kgX kq = p (p−1)· p−1 kX− kp d.h. ZX ∈ P. Schließlich ist für beliebiges X ∈ Lp mit X 6= Konstante ρpδ (X) = ρpδ (X − E[X]) − E[X] ≥ E [−Z(X − E[X])] − E[X] = E[−ZX] für alle Z ∈ P und h i ρpδ (X) = ρpδ (X − E[X]) − E[X] = E − Z(X−E[X]) (X − E[X]) − E[X] = E[−ZX X]. | {z } ! =ZX Der Fall X = Konstante ist offensichtlich. Beispiel (optimales Risksharing: 1 ≤ p ≤ ∞). • Wir betrachten einen Markt, der aus n Agenten besteht. • Jeder Agent i ∈ {1, .., n} wird beschrieben durch ein konvexes Risikomaß ρi : Lp → (−∞, ∞] und ein Anfangsportfolio/ Anfangsrisiko Wi ∈ Lp . 50 • W := W1 + ... + Wn ist das aggregierte Portfolio. Problem: Finde eine möglichst optimale Reallokation von W , d.h. löse n X i=1 ρi (Yi ) → min (P) unter den Nebenbedingungen (Y1 , ..., Yn ) ∈ (Lp )n und n X Yi = W (clearing of the market). i=1 Bemerkung. • optimal“ heißt hier zunächst optimal aus der Sicht des Gesamtmarkts/ der Gesell” schaft. P • (Y1 , ..., Yn ) ∈ (Lp )n mit ni=1 Yi = W heißt (Re-)Allokation von W In der Tat: Ist (Ye1 , ..., Yen ) eine Allokation von W , welche (P) löst. Dann ist (Ye1 , ..., Yen ) Pareto optimal, d.h. es gibt keine Allokation (Y1 , ..., Yn ) von W mit ρi (Yi ) ≤ ρ(Yei ) für alle i = 1, ..., n und ρi (Yi ) < ρ(Yei ) für mindestens ein j ∈ {1, ..., n}. (Übung) Definition 3.23. n n i=1 i=1 ρi : Lp → [−∞, ∞], ρi (X) = inf p n X Yi ∈L i=1 n P Yi =X ρi (Yi ), X ∈ Lp , i=1 heißt die (infimale) Konvolution von ρ1 , ..., ρn . n (Andere Schreibweise ρi = ρ1 ρ2 ... ρn ) i=1 Bemerkung. (Ye1 , ..., Yen ) ist eine Lösung von (P) genau dann, wenn n ρi (W ) = i=1 i=1 Eigenschaften von ni=1 ρi : 1) n X n ρi (Yei ). ρi = ((... ((ρ1 ρ2 ) ρ3 ) ...) ρn ) i=1 (Assoziativität), wobei f g(X) = inf p f (X − Y ) + g(Y ), X ∈ Lp die (infimale) Konvolution von f und g Y ∈L ist. 2) ni=1 ρi ist konvex. 51 3) ni=1 ρi ist cash-additiv, denn es gilt für X ∈ Lp und a ∈ R ρ1 ρ2 (X + a) = inf p ρ1 (X + a − Y ) + ρ2 (Y ) Cash-Add. von ρ1 inf ρ1 (X − Y ) + ρ2 (Y ) − a = Y ∈L Y ∈Lp = ρ1 ρ2 (X) − a Nun schließe die Cash- Additivität via 1). e ∈ Lp mit X ≤ X e gilt: 4) ni=1 ρi ist monoton, denn für X, X e − Y ) + ρ2 (Y ) = ρ1 ρ2 (X) e ρ1 ρ2 (X) = inf p ρ1 (X − Y ) + ρ2 (Y ) ≥ inf p ρ1 (X Y ∈L Y ∈L Wende wieder 1) an, um auf die Monotonie von ni=1 ρi zu schließen. 5) ( Tieferer Grund für 3),4)“) Es gilt: ” n ρi i=1 und somit dom n ρi i=1 ∗ = ∗ = n X ρ∗i i=1 n \ dom ρ∗i . i=1 Denn sei z.B. p = ∞ und µ ∈ ba. Dann ist ∗ n n ρi (µ) = sup hµ, Xi − ρi i=1 i=1 X∈L∞ = sup hµ, Xi − X∈L∞ inf n X Yi ∈L∞ i=1 n P Yi =X ρi (Yi ) i=1 = sup sup n X X∈L∞ Yi ∈L∞ i=1 n P Yi =X hµ, Yi i − ρi (Yi ) i=1 = n X sup hµ, Yi i − ρi (Yi ) = i=1 Yi ∈L∞ n X ρ∗i (µ). i=1 Analog für p < ∞. n 6) dom ρi = i=1 n P dom ρi (Übung) i=1 7) D.h., falls ni=1 ρi > −∞, dann ist ni=1 ρi selbst wieder ein konvexes Risikomaß auf Lp . Sind alle ρi uhs und ni=1 ρi uhs (z.B. immer erfüllt auf L∞ ) so gilt für p < ∞: n ρi (X) = sup EQ [−X] − αmin (Q), X ∈ Lp , i=1 Q∈M1p 52 wobei ∗ dQ αmin (Q) = ρi − i=1 dP n X dQ = ρ∗i − dP n i=1 = n X i=1 i αmin (Q), Q ∈ M1p , i und αmin die minimale Straffunktion von ρi ist. Analoge Aussage gilt für p = ∞. Lemma 3.24. Sei p ∈ [1, ∞]. Betrachte folgende Eigenschaften einer Allokation (Ye1 , ..., Yen ) von W ∈ Lp : P i) (Ye1 , ..., Yen ) löst (P), d.h. ni=1 ρi (W ) = ni=1 ρi (Yei ). ii) ∂ ni=1 ρi (W ) = n T i=1 ∂i (Yei ) 6= ∅. Ist p = ∞, so gilt i) ⇐⇒ ii). Ist p < ∞, so gilt stets ii) ⇒ i). Beweis. Sei p = ∞: i) ⇒ ii): P Da ni=1 ρi (W ) = ni=1 ρi (Yei ) ∈ R und somit dom ni=1 ρi = L∞ (Cash-Additivität, Monotonie), ist ni=1 ρi ein konvexes Risikomaß auf L∞ und somit insbesondere stetig. Also existiert ein µ ∈ M1,f mit −µ ∈ ∂ ni=1 ρi (W ). Es gilt: n X i=1 n ρi (Yei ) = ρi (W ) = i=1 Eig. 5) oben = = n Z X i=1 ii) ⇒ i): ⇒ ρi (Yei ) = Z Z Z −W d µ − αmin (µ) −W d µ − −Yei d µ − n X i=1 i αmin (µ) i αmin (µ) ≤ n X i=1 ρi (Yei ) i −Yei d µ − αmin (µ) ⇒ −µ ∈ ∂ρi (Yei ). 53 Sei µ ∈ M1,f mit −µ ∈ n T i=1 ∂ρi (Yei ). Dann ist n X i=1 ρi (Yei ) = n Z X i −Yei d µ − αmin (µ) Zi=1 = −W d µ − αmin (µ) n ≤ ρi (W ) ≤ i=1 n ⇒ ρi (W ) = i=1 Sei p < ∞: ii) ⇒ i): Sei Q ∈ M1 mit − dd Q P ∈ n T i=1 n X i=1 n X i=1 ρi (Yei ) ρi (Yei ). ∂ρi (Yei ). Dann gilt: n X i=1 ρi (Yei ) = n X i=1 i EQ [−Yei ] − αmin (Q) = EQ [−W ] − αmin (Q) ∗∗ n ≤ ρi (W ) i=1 n ≤ ρi (W ) ≤ i=1 n ⇒ ρi (W ) = i=1 n X i=1 n X i=1 ρi (Yei ) ρi (Yei ). Beispiel (Zwei entropische Risikomaße auf L∞ ). h i 1 log E e−βX , X ∈ L∞ , β > 0 β 1 = max EQ [−X] − H(Q|P) | {z } Q∈M1 β ρβ (X) = (!) β =αmin (Q) Es gilt ρβ (X) Jensen ≥ 1 β rel. Entropie. log e−βE[X] = −E[X]. Also ρβ ργ (W ) = inf∞ ρβ (W − Y ) + ργ (Y ) ≥ −E[W ] > −∞. Y ∈L 54 Außerdem ist ρβ ργ αmin Also ist ρβ ργ = ρ γβ γ+β 1 1 = H(Q|P) + H(Q|P) = β γ γ+β = H(Q|P). γβ 1 1 + β γ H(Q|P) (W ). Wie sehen die optimalen Allokationen aus? Z.B. über Subgradienten: γβ − γ+β W e h γβ − γ+β W E e e−β Y1 e−γ Y2 h i= h i. E e−β Ye1 E e−γ Ye2 e i= e γβ γ γβ Ansatz: Yei = ai W für ai ∈ R. ,→ βa1 = γ+β ⇒ a1 = γ+β und γa2 = γ+β ⇒ a2 = Lemma 3.24 e e γ β ⇒ (Y1 , Y2 ) = γ+β W, γ+β W löst das optimale Allokationsproblem (P). β γ+β . e ∼ P mit P e 6= P. Dann erfüllen Beispiel. Sei P ( ) ( ) e e dP dP > 1 und B := <1 , A := dP dP dass P(A) > 0 und P(B) > 0. Seien weiter ∞ ρ1 (X) := EP e [−X] und ρ2 (X) := EP [−X], X ∈ L . ρ1 und ρ2 sind kohärente Risikomaße. Es gilt ρ1 ρ2 (0) = = Y =t·1B ≤ inf EP e [Y ] + EP [−Y ] !# " e dP −1 inf EP Y Y ∈L∞ dP " ! # e dP inf t EP − 1 1B = −∞. t>0 dP | {z } Y ∈L∞ <0 ,→ Es gibt keine optimalen Allokationen von 0. Insbesondere muss ρ1 ρ2 ≡ −∞ sein, d.h. es gibt keine optimalen Allokationen von irgendeinem W ∈ L∞ . Equilibria/ Wie kommen Preise zustande? p = ∞. Sei W = W1 + ... + Wn das aggregierte Portfolio. (Ye1 , ..., Yen ; µ) heißt Equilibrium, falls a) (Ye1 , ..., Yen ) eine Allokation von W ist 55 b) µ ∈ M1,f (Preisregel) R R c) Yei d µ ≤ Wi d µ (Budget Restriktion) R n o R d) ρi (Yei ) = inf ρi (Yi ) Yi d µ ≤ Wi d µ , i = 1, ..., n. Lemma 3.25. Sei p = ∞. Äquivalent sind: i) (Ye1 , ..., Yen ; µ) ist ein Equilibrium. n R T ii) Die Allokation (Ye1 , ..., Yen ) von W löst (P) und es gilt −µ ∈ ρi (Yei ) und Yei d µ ≤ i=1 R Wi d µ für alle i = 1, ..., n. n T Insbesondere ist für eine gegebene Lösung (Y1 , ..., Yn ) von (P) und −µ ∈ ρi (Yi ) das (n+1)i=1 R Tupel (Ye1 , ..., Yen ; µ) stets ein Equilibrium, wobei Yei := Yi + (Wi − Yi ) d µ. Beweis. i) ⇒ ii): Sei (Ye1 , ..., Yen ; µ) ein Equilibrium. Aufgrund der Cash-Additivität und d) folgt, dass Z Z e Yi d µ = Wi d µ. Außerdem gilt: ρi (Yei ) = inf R ∞ Y ∈L R Y d µ= Wi d µ = inf∞ ρi (Y ) − Y ∈L ⇒ Z ρi (Y ) = inf∞ ρi Y + Y ∈L Z Wi d µ + −Wi d µ − ρi (Yei ) = sup Y ∈L∞ | Z Z Z (Wi − Y ) d µ Y dµ n \ −Y d µ − ρi (Y ) ⇒ −µ ∈ ∂ρi (Yei ). i=1 {z } =ρ∗i (−µ)=αimin (µ) Die Behauptung folgt nun aus Lemma 3.24. ii) ⇒ i) und die letzte Aussage: Sei (Y1 , ..., Yn ) eine Lösung von (P) und −µ ∈ n P i=1 ci = 0 gilt n X ρi (Yi + ci ) = i=1 n T i=1 n X i=1 56 ρi (Yi ). Bemerke, dass für ci ∈ R mit ρi (Yi ) + 0. R P R Also ist auch (Ye1 , ..., Yen ) eine Lösung von (P), wobei Yei := Yi + (Wi − Yi ) d µ, denn ni=1 (Wi − Yi ) d µ = 0. (Ye1 , ..., Yen ; µ) erfüllt a), b) und c). Außerdem ist −µ ∈ ∂ρi (Yei ) für alle i = 1, ..., n, [denn Z e ρi (Yi ) = ρi (Yi ) − (Wi − Yi ) d µ Z Z i = −Yi d µ − αmin (µ) − (Wi − Yi ) d µ Z i = −Yei d µ − αmin (µ).] Also gilt für alle Y ∈ L∞ mit ρi (Yei ) Subgrad.-Ungl. ≤ = R Y dµ ≤ R Wi d µ: ρi (Y ) + h−µ, Yei − Y i ρi (Y ) + h−µ, Wi − Y i , denn |R {z } = −(Wi −Y ) d µ≤0 ≤ ρi (Y ). Z Yei d µ = Z Wi d µ Es folgt d). Beispiel. Gegeben seien zwei entropische Risikomaße zu den Parametern β, γ > 0 wie oben. Dann ist γ β W + c1 , W + c2 ; Q γ+β γ+β ein Equilibrium, wobei Q ∼ P gegen ist durch − γβ W dQ γ e γ+β = h γβ i und c1 = −c2 = EQ W1 − W . − W dP γ+β E e γ+β Beispiel. Gegeben seien zwei AVaR- Agenten. Ferner sei α, β ∈ (0, 1] mit α ≥ β. Es gilt AVaRγ (X) ≥ E[−X] für alle γ ∈ (0, 1] (Übung!). ⇒ AVaRα AVaRβ > −∞. Da dom AVaRα AVaRβ = dom AVaRα + dom AVaRβ = L1 (Satz 3.20), folgt dass AVaRα AVaRβ {z } | | {z } =L1 =L1 ein stetiges kohärentes (!) Risikomaß auf L1 ist mit minimaler Straffunktion β α αmin (Q) = αmin (Q) + αmin (Q) ( 0 , falls Q ∈ Qα ∩ Qβ = , ∞ , sonst wobei dQ 1 1 ≤ ∧ = Qα . Qα ∩ Qβ = Q ∈ M1 : dP α β 57 ⇒ AVaRα AVaRβ = AVaRα . Also ist für W ∈ L1 immer (W + c, −c) eine optimale Allokation, wobei c ∈ R und (W + ĉ, −ĉ; Q) ein Equilibrium, falls dQ 1 1{W <q} + k1{W =q} = dP α mit q∈ − + qW (α), qW (α) und ĉ = EQ [W1 − W ]. und k = ( α−P(X<q) P(X=q) 0 58 , falls P(X = q) > 0 , sonst 4 Verteilungsinvariante Risikomaße Anforderungen an den W-Raum (Ω, F, P): Ab jetzt ist (Ω, F, P) immer nicht-atomar/ atomlos, d.h. es existiert eine ZV X : Ω → R mit stetiger Verteilungsfunktion. Wir schreiben für zwei ZV’en X, Y : d X = Y ⇐⇒ PX = PY , wobei PX die Verteilung von X unter P ist, d.h. ∀A ∈ B(R) : PX (A) := P(X ∈ A). Definition 4.1. Sei f : Lp → [−∞, ∞], p ∈ [1, ∞], eine Funktion. f heißt verteilungsinvariant, falls für X, Y ∈ Lp gilt: d X = Y ⇒ f (X) = f (Y ). Beispiel (Für verteilungsinvariante Risikomaße). Rα • AVaRα (X) = α1 0 −qX (s) d s. • Entropisches Risikomaß: ρβ (X) = β1 log E e−βX . • Semi-Deviation-RM: ρpδ (X) = E[−X] + δk(X − E[X])− kp • VaRα • Risikomaße, die durch die expected utility gegeben sind, d.h. X ∈ Aρ ⇐⇒ E u(x) ≥ c (s.o.) Beispiel (Für ein nicht verteilungsinvariantes Risikomaß). e 6= P. mit P e ρ(X) = EP e [−X], wobei P ∼ P Erstes Ziel: Behauptung: Jedes verteilungsinvariante konvexe Risikomaß ρ : L∞ → R ist automatisch σ(L∞ , L1 )-uhs, in der Tat sogar σ(L∞ , Lr )-uhs für alle r ∈ [1, ∞], d.h. auch σ(L∞ , L∞ )-uhs. ,→ Darstellung über absolutstetige W-maße mit beschränkten Dichten. ,→ Eins zu Eins Zusammenhang zwischen uhs verteilungsinvarianten konvexen Risikomaßen auf L1 ↔ Lp ↔ L∞ , p ∈ [1, ∞]. Hierfür müssen wir die Verteilungsinvarianz näher studieren: Lemma 4.2. Sei U eine auf (0, 1) gleichverteilte ZV, d.h. P(U ≤ x) = x ∀x ∈ (0, 1) P(U ≤ x) = 0 ∀x ≤ 0 P(U ≤ x) = 1 ∀x ≥ 1. Außerdem sei X eine ZV und qX : (0, 1) → R eine Quantilfunktion von X, d.h. qX (s) ∈ − + qX (s), qX (s) für alle s ∈ (0, 1). Dann gilt d qX (U ) = X. 59 Beweis. qX ist monoton wachsend, also meßbar und somit ist qX (U ) eine ZV. Außerdem gilt: (0, FX (x)) ⊂ {s ∈ (0, 1) : qX (s) ≤ x} ⊆ (0, FX (x)] . Also FX (x) = P (U ∈ (0, FX (x))) ≤ P (U ∈ {s ∈ (0, 1) : qX (s) ≤ x}) = P (qX (U ) ≤ x) ≤ P (U ∈ (0, FX (x)]) = FX (x). ⇒ FqX (U ) (x) = FX (x). Lemma 4.3. Sei X eine ZV mit stetiger Verteilungsfunktion FX . Dann ist U := FX (X) gleichverteilt auf (0, 1) und X = qX (U ) P-f.s. d e gleichverteilt auf (0, 1). Dann gilt X e := qX (U e) = Beweis. Sei U X (Lemma 4.2) und somit d e e auch U = FX (X) = FX (X) = U , da FX stetig ist und somit FX ◦ qX = Id (Übung). + + Außerdem ist qX (FX (t)) ≥ t und somit qX (U ) = qX (U ) ≥ X P-f.s., während E[X] = E[qX (U )]. Also muss qX (U ) = X P-f.s. gelten. Lemma 4.4. Seien X, Y zwei ZV’en mit X = f (Y ) für eine meßbare Funktion f : R → R und seien qX , qY : (0, 1) → R Quantilfunktionen von X und Y . Ist f monoton wachsend, so ist f (qY ) eine Quantilfunktion von X und es gilt qX (t) = qf (Y ) (t) = f (qY (t)) für fast alle t ∈ (0, 1). Ist f monoton fallend, so ist f (qY (1 − t)) eine Quantilfunktion von X und es gilt qX (t) = qf (Y ) (t) = f (qY (1 − t)) für fast alle t ∈ (0, 1). Beweis. Sei f monoton fallend und q(t) := f (qY (1 − t)), t ∈ (0, 1). FX (q(t)) = P (f (Y ) ≤ f (qY (1 − t))) ≥ P (Y ≥ qY (1 − t)) = 1 − P (Y < qY (1 − t)) ≥ 1 − (1 − t) = t ≥ P(Y > qY (1 − t)) ≥ P(f (Y ) < q(t)) = FX (q(t)−) − + (t) (t), qX ⇒ q(t) ∈ qX und somit ist q eine Quantilfunktion von X. Analog beweist man den Fall: f monoton wachsend. 60 1 1 FX FX t t − qX x q(t)− q(t)+ ֒→ q(t) = x q(t)− − q(t)+ + ֒→ q(t) qX (t), qX (t) 1 FX t x q(t)− q(t)+ ֒→ q(t) = x Abbildung 4.1: Illustration zu den Beweisen der Lemmata 4.2-4.4. 61 + qX Lemma 4.5. Sei C ⊂ L∞ eine verteilungsinvariante, konvexe, k · k∞ -abgeschlossene Menge d (verteilungsinvariant heißt, dass X ∈ C, Y ∈ L∞ mit Y = X ⇒ Y ∈ C). Dann gilt für alle Unter-σ-Algebren G ⊂ F und für alle X ∈ C, dass E[X|G] ∈ C. Beweis. 1) Sei zunächst G = {∅, Ω}. Des weiteren sei X ∈ C und ε > 0. O.b.d.A. X ≥ 0 (ansonsten verschiebe C nach C + kXk∞ ). Definiere ,s=0 essinf X − qX : [0, 1] → R, qX (s) = qX (s) , s ∈ (0, 1) . esssup X ,s=1 Dann ist 0 ≤ qX (s) ≤ qX (1) = kXk∞ < ∞. Sein nun n ∈ N derart, dass qXn(1) ≤ ε und 1 i seien Ai := i−1 n , n für i = 1, ..., n − 1 und An := 1 − n , 1 . Außerdem sei B1 , ..., Bn ∈ F 1 eine Zerlegung von Ω derart, dass P(Bk ) = n für alle k = 1, ..., n. Da (Ω, F, P(·|Bk )) atomlos ist (Übung), gibt es zu jedem k eine ZV Ujk , welche auf Aj gleichverteilt ist unter P(·|Bk ), d.h. P(Ujk ≤ s|Bk ) = ns − j + 1, s ∈ Aj . Dann ist für jede Permutation n P k 1 π : {1, ..., n} → {1, ..., n} die ZV U π := Uπ(k) Bk gleichverteilt auf (0, 1) unter P. Xπ d (U π ) = Daher gilt := qX Da C konvex ist, ist auch X und somit Xn := k=1 Xπ ∈ C. 1 X π X ∈ C, n! π∈Sn wobei Sn die Menge der Permutationen π : {1, ..., n} → {1, ..., n} bezeichnet. n P k Bemerke, dass X π = qX Uπ(k) 1Bk . Mit der Monotonie der Quantilfunktion folgt nun, dass k=1 kXn − E[X]k∞ = kXn − Z 1 qX (s) d sk∞ 0 n 1X i i−1 ≤ qX − qX n n n i=1 = qX (1) ≤ ε. n R1 (Fallunterscheidung Xn R 0 qX (s) d s und dann mit der Monotonie von qX abschätzen. Es gibt (n − 1)! Permutationen mit π(k w ) = i, wobei k w ∈ {1, ..., n} mit 1Bkw (w) = 1.) k·k∞ Da ε > 0 beliebig gewählt war, folgt, dass Xn −→ E[X] für n % ∞ und somit E[X] ∈ C, wegen der Abgeschlossenheit von C. 2) Sei nun G = σ(D1 , ..., Dr ) für irgendeine endliche Zerlegung D1 , ..., Dr ∈ F von Ω mit P(Di ) > 0 für alle i = 1, ..., r. Betrachte die W-Räume (Di , Fi , Pi ), i = 1, ..., r, wobei P(A) Fi := {A ∩ Di |A ∈ F} und Pi : Fi → [0, 1], A 7→ P(D . Alle (Di , Fi , Pi ) sind nichtatomar i) ∞ und die Mengen Ci := {Y|Di : Y ∈ C} ⊂ L (Di , Fi , Pi ) sind verteilungsinvariant und 62 konvex. Wie in Schritt 1) gibt es Xni = 1 n! P π∈Sn X i,π ∈ Ci derart, dass X i,π und X|Di unter Pi identisch verteilt sind für alle π ∈ Sn und dass kXni − EPi X|Di k∞ ≤ ε für ein beliebiges vorgegebenes ε > 0. Sei Xn := r X Xni 1Di = π∈Sn i=1 i=1 Dann ist Xn ∈ C, da r P r 1 X X i,π X 1Di . n! d X i,π 1Di = X. Außerdem gilt i=1 kXn − E[X|G]k∞ = kXn − r X i=1 EPi X|Di 1Di k∞ ≤ ε. Die Abgeschlossenheit von C impliziert wieder, dass E[X|G] ∈ C. 3) Sei G ⊂ F irgendeine Unter-σ-Algebra. Dann gibt es eine Folge von endlichen Unter-σAlgebren Gn ⊂ F, n ∈ N, (d.h. Unter-σ-Algebren wie in 2)) mit n%∞ kE[X|Gn ] − E[X|G]k∞ −→ 0 (Übung). Also folgt die Behauptung des Lemmas aus dem Schritt 2) und der Abgeschlossenheit von C. Satz 4.6. Sei C ⊂ L∞ eine verteilungsinvariante, konvexe, k · k∞ -abgeschlossene Menge. Dann ist C σ(L∞ , Lr )-abgeschlossen für jedes r ∈ [1, ∞]. Beweis. 1) Sei G ⊂ F eine Unter-σ-Algebra. Wir definieren den (bedingte Erwartung) Operator E[·|A] auf ba wie folgt: E[·|G] : ba → ba, wobei E[µ|G] gegeben ist durch ∀X ∈ L∞ : hE[µ|G], Xi = hµ, E[X|G]i. (Dies stimmt für µ ∈ L1 ⊂ ba“ mit der normalen“ bedingten Erwartung überein ” ” (Übung)) Ist G endlich, d.h. G = σ(A1 , ..., An ) für eine Zerlegung A1 , ..., An ∈ F von Ω mit P(Ai ) > 0 für alle i = 1, ..., n, so gilt E[µ|G] ∈ L∞ für alle µ ∈ ba, denn für alle X ∈ L∞ gilt: hE[µ|G], Xi = hµ, E[X|G]i = D.h. n X E[X1Ai ] i=1 n X µ(Ai ) 1A ∈ L∞ . E[µ|G] = P(Ai ) i i=1 63 µ(Ai ) . P(Ai ) 2) Ist C = ∅, so ist nichts zu zeigen. Sei also C 6= ∅. Sei (Xi )i∈I ⊂ C ein Netz, welches in σ(L∞ , Lr ) gegen X ∈ L∞ konvergiert, d.h. E[Xi Z] → E[XZ] für alle Z ∈ Lr . Ist G endlich, so gilt nach 1), dass h E[µ|G] , Xi i = E [E[µ|G]Xi ] → E [E[µ|G]X] = hE[µ|G], Xi | {z } ∈L∞ ⊂Lr für alle µ ∈ ba. Da aber hE[µ|G], Xi i = hµ, E[Xi |G]i und hE[µ|G], Xi = hµ, E[X|G]i, folgt, dass das Netz (E[Xi |G])i∈I in σ(L∞ , ba) gegen E[X|A] konvergiert. Da laut Lemma 4.5 E[Xi |G] ∈ C für alle i ∈ I, folgt E[X|G] ∈ C, da C σ(L∞ , ba)-abgeschlossen ist (Korollar 2.18). Also ist E[X|G] ∈ C für jede endliche Unter-σ-Algebra G ⊂ F. Wähle k·k∞ eine Folge (Gn )n∈N von endlichen Unter-σ-Algebren von F derart, dass E[X|Gn ] −→ X. Dann folgt wiederum aus der k · k∞ -Abgeschlossenheit von C, dass X ∈ C. D.h. C ist σ(L∞ , Lr )-abgeschlossen. Korollar 4.7. Sei f : L∞ → (−∞, ∞] eine verteilungsinvariante, konvexe, k · k∞ -uhs Funktion. Dann ist f σ(L∞ , Lr )-uhs für jedes r ∈ [1, ∞]. Beweis. Die Niveaumengen Ek := {X ∈ L∞ : f (X) ≤ k}, k ∈ R, sind verteilungsinvariant, konvex und k · k∞ -abgeschlossen. Wende Satz 4.6 an. Korollar 4.8. Jedes verteilungsinvariante konvexe Risikomaß ρ : L∞ → R ist automatisch σ(L∞ , Lr )-uhs für jedes r ∈ [1, ∞] und erfüllt somit insbesondere immer die FatouEigenschaft. Satz 4.9 (Hardy-Littlewood-Ungleichung). Seien X, Y zwei ZV’en. Dann gilt: Z 1 Z qX (1 − s)qY (s) d s ≤ E[XY ] ≤ 0 1 qX (s)qY (s) d s, (4.1) 0 − + (s) ∀s ∈ (0, 1) wobei qX , qY : (0, 1) → R Quantilfunktionen von X bzw. Y sind qX (s) ∈ qX (s), qX und sofern alle vorkommenden Integrale wohldefiniert sind. Falls X = f (Y ) für eine meßbare Funktion f : R → R ist und die untere (obere) Schranke von (4.1) endlich ist, so wird diese untere (obere) Schranke genau dann angenommen, falls f monoton fallend (wachsend) gewählt werden kann. 64 Beweis. Seien zunächst X, Y ≥ 0. Z ∞ Z ∞ 1{Y >y} d y E[XY ] = E 1{X>x} d x 0 0 Z ∞Z ∞ Fubini P(X > x, Y > y) d x d y = 0 0 Z ∞Z ∞ + ≥ P(X > x) − P(Y ≤ y) d x d y | {z } | {z } 0 0 = Z = = = =FY (y) 1{FY (y)≤s} 1{s≤1−FX (x)} d s d x d y Z ∞ Z 1 Z ∞ 1{s≤1−FX (x)} d x d s 1{FY (y)≤s} d y 0 0 0 Z 1 + qY+ (s)qX (1 − s) d s 0 Z 1 qY (s)qX (1 − s) d s, 0 Fubini =1−FX (x) ∞Z ∞Z 1 0 0 0 R∞ + (s) wobei die vorletzte Gleichung gilt, da 0 1{FX (x)≤s} d x = sup{x ≥ 0 : FX (x) ≤ s} = qX und analog für Y . R1 Analog folgt aus P(X < x, Y < y) ≤ P(X > x) ∧ P(Y > y) = 0 1{FX (x)≤s} 1{FY (y)≤s} d s, dass Z 1 E[XY ] ≤ qX (s)qY (s) d s. 0 Ist X = f (Y ), dann ist E[XY ] = E [f (Y )Y ] = Z R f (y)yPY (d y) = Z 1 f (qY (s)) qY (s) d s, 0 denn qY : (0, 1) → R hat dieselbe Verteilung unter dem Lebesguemaß wie Y unter P (Übung!). Ist f monoton fallend, so gilt : Z 1 Z 1 Z 1 qf (Y ) (1 − s)qY (s) d s = qX (1 − s)qY (s) d s, f (qY (s)) qY (s) d s = 0 0 0 bzw. ist f monoton wachsend, so gilt: Z 1 Z f (qY (s)) qY (s) d s = 0 1 qf (Y ) (s)qY (s) d s = 0 Z 1 qX (s)qY (s) d s. 0 Umgekehrt: R1 Sei X = f (Y ) und −∞ < E[XY ] = 0 qY (s)qX (s) d s < ∞. Wir zeigen, dass X = fe(Y ) 65 P-f.s., wobei fe monoton wachsend ist mit qX (FY (x)) FYR(x) 1 qX (s) d s fe(x) := FY (x)−F Y (x−) FY (x−) 0 , falls x ≥ 0 und FY stetig bei x ist , falls x ≥ 0 und FY nicht stetig bei x ist . , sonst Es ist fe(qY ) = Eλ [qX |σ(qY )]. (qX , qY : (0, 1) → R sind ZV’en auf dem W-Raum ((0, 1), L (0, 1), λ).) ( Unstetigkeitsstellen von FY ⇐⇒ Flächen von qY ↔ Atom in σ(qY )“ ” Stetigkeitsstellen von FY ↔ fe(qY (s)) = qX (FY (qY (s))) = qX (s).) Wir erhalten: Z Z 1 qX (s)qY (s) d s f (qY (s)) qY (s) d s = 0 0 = Eλ [qX qY ] = Eλ qY Eλ [qX |σ(qY )] Z ∞ e = Eλ [f (qY )qY ] = fe(y)y d PY (y) ∞ f (y)y d PY (y) = 0 Z 1 0 Ein analoges Argument liefert die Behauptung für die untere Schranke (Übung). Seien nun X, Y beliebige ZV’en derart, dass E[XY ] wohldefiniert ist. Es gilt: E[XY ] = E X + Y + − E X + Y − − E X − Y + + E X − Y − Z 1 Z 1 ≤ qX + (s)qY + (s) d s − qX + (s)qY − (1 − s) d s 0 0 Z 1 Z 1 − qX − (1 − s)qY + (s) d s + qX − (1 − s)qY − (1 − s) d s 0 0 Z 1 = qX (s)qY (s) d s, 0 denn qZ + (s) = (qZ (s))+ und qZ − (s) = (qZ (1 − s))− . Analog folgt Z 1 E[XY ] ≥ 0 qX (1 − s)qY (s) d s. Ist X = f (Y ), so folgt der letzte Teil der Aussage von Satz 4.9 für allg. X, Y aus XY + = f (Y + )Y + und XY − = f (−Y − )Y − und den obigen Betrachtungen. (Übung) Lemma 4.10. Seien p, q ∈ [1, ∞] mit Dann gilt: 1 p + 1 q e ]= sup E[XY d e =X X = 1. Des Weiteren seien X ∈ Lp und Y ∈ Lq . Z 1 0 66 qX (s)qY (s) d s. Beweis. i) Angenommen FY ist stetig. Dann ist U := FY (Y ) gleichverteilt auf (0, 1) und e = qX (U ), dass Y = qY (U ) P-f.s. (Lemma 4.3). Also gilt für X Z 1 e qX (s)qY (s) d s E[XY ] = E[qX (U )qY (U )] = 0 und die Behauptung folgt aus Satz 4.9 (Hardy-Littlewood-Ungleichung). ii) Angenommen FY ist nicht stetig. Sei D die Menge aller y ∈ R mit P(Y = y) > 0. D ist abzählbar (Übung). O.B.d.A. 0 ∈ / D. Sei Ay := {Y = y}, y ∈ D. Da (Ω, F, P) atomlos ist, gibt es zu jedem y ∈ D eine ZV Uy , welche auf 0, |y| 2 ∧ 1 gleichverteilt ist unter dem W-maß P(·|Ay ) (Übung). Die Verteilungsfunktion der ZV’en Yn := Y − 1X sgn(y)Uy 1Ay , n ∈ N, n y∈D sind stetig. Denn für z ∈ R: P(Yn = z) = P(Yn = z, Y ∈ / D) + P(Yn = z, Y ∈ D) X = P(Y = z, Y ∈ / D) + P(Y = y, Uy = (z − y)n sgn(y)) | {z } | {z } y∈D =0 =0, da Uy gleichverteilt ist = 0. n%∞ Bemerke, dass Y ± − 1 ≤ Yn± ≤ Y ± und das Yn −→ Y P-f.s. und in Lq (majorisierte Konvergenz). n%∞ Außerdem gilt qX (s)qYn (s) −→ qX (s)qY (s) fast überall mit |qX (s)qYn (s)| ≤ |qX (s)qY (s)| und Z 1 0 |qX (s)| · |qY (s)| d s < ∞ = E [|qX (U )| · |qY (U )|] Hölder ≤ kXkp kY kq für eine auf (0, 1) gleichverteilte ZV U . Also folgt aus der majorisierten Konvergenz, dass Z 1 Z 1 i) e n ] = sup E[XY e ], qX (s)qY (s) d s = lim qX (s)qYn (s) d s = lim sup E[XY 0 n%∞ 0 denn e n ] − E[XY e ]| |E[XY n%∞ Hölder ≤ d e =X X d e =X X 1 kXkp kYn − Y kq ≤ kXkp . n Satz 4.11. Sei p ∈ [1, ∞] und f : Lp → (−∞, ∞] ein konvexe k · kp -uhs Funktion. Dann sind äquivalent: i) f ist verteilungsinvariant 67 ii) f ∗ ist verteilungsinvariant, falls p < ∞, bzw. f ∗ |L1 ist verteilungsinvariant und f ist σ(L∞ , L1 )-uhs, falls p = ∞. Beweis. i)⇒ii)“: ”p Sei q = 1−p und angenommen f ist verteilungsinvariant. Dann gilt für Z ∈ Lq : f ∗ (Z) = sup E[XZ] − f (X) X∈Lp e − f (X) e = sup sup E[XZ] X∈Lp e d X =X = sup X∈Lp e sup E[XZ] d e =X X Korollar 4.10 = ! sup X∈Lp Z − f (X) 1 0 qX (s)qZ (s) d s − f (X), welches nur von der Verteilung von Z abhängt. ii)⇒i)“: ” Ist umgekehrt f ∗ verteilungsinvariant und f ist σ(L∞ , L1 )-uhs, falls p = ∞, so ist f (X) = sup E[XZ] − f ∗ (Z) Z∈Lq ! e − f ∗ (Z) = sup sup E[X Z] Z∈Lq = sup Z∈Lq Z d e=Z Z 1 0 qX (s)qZ (s) d s − f ∗ (Z). Korollar 4.12. Sei p ∈ [1, ∞] und ρ : Lp → (−∞, ∞] ein k · kp -uhs konvexes Risikomaß. Dann sind äquivalent: i) ρ ist verteilungsinvariant ii) αmin ist verteilungsinvariant, falls p < ∞, bzw. αmin |M1 ist verteilungsinvariant und ρ ist σ(L∞ , L1 )-uhs, falls p = ∞. Definition 4.13. • konkave Ordnung ≥C auf L1 : Seien X, Y ∈ L1 : X ≥C Y ⇐⇒ E[u(X)] ≥ E[u(Y )] für alle konkaven Funktionen u : R → R. • Second Order Stochastic Dominance: ≥ssd auf L1 . Seien X, Y ∈ L1 : X ≥ssd Y ⇐⇒ E[u(X)] ≥ E[u(Y )] für alle konkaven und monoton wachsenden Funktionen u : R → R (Nutzenfunktionen). 68 Bemerkung. • X ≥C Y ⇒ X ≥ssd Y . • E[X|G] ≥C X (und somit auch in ≥ssd )(Jenssen’sche Ungleichung). Satz 4.14. Seien X, Y ∈ L1 . Dann sind äquivalent: 1) X ≥ssd Y 2) Für alle c ∈ R gilt Z R 3) Für alle c ∈ R gilt + (c − x) d PX (x) ≤ Z c −∞ 4) Für alle 0 ≤ t ≤ 1 gilt Z 0 FX (x) d x ≤ t qX (s) d s ≥ Z R Z (c − x)+ d PY (x). c FY (x) d x. −∞ Z t qY (s) d s. 0 (Hierbei sind qX , qY : (0, 1) → R Quantilfunktionen von X bzw. Y ) Beweis. 1) ⇒ 2): uc (x) := −(c − x)+ ist konkav und monoton wachsend. Also ist Z Z − (c − x)+ d PX (x) = E[uc (X)] ≥ E[uc (Y )] = − (c − x)+ d PY (x). R R 2) ⇒ 1): Sei u : R → R konkav und monoton wachsend. Ist E[u(Y )] = −∞, so gilt offensichtlich Jenssen E[u(X)] ≥ E[u(Y )] (Bemerke E[u(Y )] ≤ u (E[Y ]), d.h. E[u(Y )] ∈ [−∞, ∞)). Angenommen E[u(Y )] > −∞. Wähle ein b ∈ R. Es ist Z b 0 u(x) = u(b) − u+ (b)(b − x) − (z − x)+ d γ(z), x ∈ R, −∞ wobei das Maß γ gegeben ist durch γ ([s, t)) = −u0+ (t)+u0+ (s), s < t, und u0+ die rechtsstetige Ableitung von u bezeichnet. (u0 ist monoton fallend). Denn Z b Z b + (z − x) d γ(z) = (z − x)1{x≤z} d γ(z) −∞ = −∞ b Z Z −∞ Fubini = Z R R 1{x≤y≤z} d y d γ(z) −u0+ (b) + u0+ (y) 1{x≤y≤b} d y = −u0+ (b)(b − x) + u(b) − u(x), 69 denn u ist fast überall differenzierbar, d.h. der Hauptsatz gilt. Damit folgt: Z b Z b Z b + 0 (z − x) d γ(z) d PY (x) u(b) − u+ (b)(b − x) − u(x) d PY (x) = −∞ −∞ u(b)P(Y ≤ b) − u0+ (b) = Fubini Z −∞ b −∞ Z (b − x) d PY (x) − Z Z b Z b −∞ −∞ b Z (z − x)+ d γ(z) d PY (x) = u(b)P(Y ≤ b) − u0+ (b) 2) u(b) P(Y ≤ b) − P(X ≤ b) + u(b)P(X ≤ b) Z Z b Z 0 + −u+ (b) (b − x) d PX (x) − (z − x)+ d PX (x) d γ(z) ≤ R (b − x)+ d PY (x) − R −∞ ... = u(b) P(Y ≤ b) − P(X ≤ b) + = −∞ R (z − x)+ d PY (x) d γ(z) R Z b u(x) d PX (x) −∞ Da u konkav ist, gilt u(x) ≤ u0 (0)x + c für ein c > 0. Also erhalten wir (da b > 0 und u ↑): |u(b)| · |P(Y ≤ b) − P(X ≤ b)| ≤ |u(0)| ∨ u0+ (0) b + c · P(Y > b) ∨ P(X > b) , | {z } ≥0 denn ( ≤ 1 − P(X ≤ b) P(Y ≤ b) − P(X ≤ b) ≥ P(Y ≤ b) − 1 Nun gilt und für b > 0: b%∞ |u(0)| P(Y > b) ∨ P(X > b) −→ 0 0 ≤ u0+ (0)b + c P(Y > b) ≤ und analog gilt Insgesamt folgt also, dass . b%∞ E[Y 1{Y >b} ] | {z } −→ 0 (maj. Konvergenz) b%∞ u0 (0) + c P(Y > b) −→ 0 | {z } b%∞ −→ 0 b%∞ 0 ≤ u0+ (0)b + c P(X > b) −→ 0. b%∞ |u(b)| · P(Y ≤ b) − P(X ≤ b) −→ 0, und somit folgt aus (4.2) für b → ∞, dass Z Z E[u(Y )] = u(x) d PY (x) ≤ u(x) d PX (x) = E[u(X)]. R R 70 (4.2) 2) ⇐⇒ 3): Z Z c FX (x) d x = −∞ −∞ Fubini = ψX (y) := Z y FX (z) d z Z Z ZR = 3) ⇐⇒ 4): c R Z x d PX (z) d x −∞ R 1{z≤x≤c} d x d PX (z) (c − z)1{z≤c} d PX (z) = siehe 2) ⇐⇒ 3) = −∞ ist konvex und monoton wachsend. Es gilt: E (y − X)+ = Z Z R (c − z)+ d PX (z). 1 0 (y − qX (t))+ d s, y ∈ R, ∗ ψX ≤ ψY ⇐⇒ ψX ≥ ψY∗ , denn für y ∈ R: ∗ ψX (y) = sup xy − ψX (x) ≥ sup xy − ψY (x) = ψY∗ (y) x∈R und umgekehrt wegen ∗∗ ψX x∈R ψY∗∗ = ψY . Zeige: = ψX und y R q (s) d s ,0≤y≤1 X ∗ ψX (y) = 0 . ∞ , sonst ∗ (y) = ∞, falls y ∈ ψX / [0, 1], da ψX monoton wachsend ist mit maximaler Steigung 1. Z 1 ∗ ψX (1) = sup x − ψX (x) = sup x − (x − qX (s))+ d s x∈R x∈R 0 Z 1 = lim x − (x − qX (s))1[−∞,x] (qX (s)) d s x→∞ 0 Z 1 = qX (s) d s. 0 Sei y ∈ (0, 1) und f (x) = xy − ψX (x), x ∈ R. Es gilt f+0 (x) = y − FX (x) und f−0 (x) = y − FX (x−). x b ist ein Maximum von f , falls f+0 (b x) ≤ 0 und f−0 (b x) ≥ 0. D.h. x b ist ein y-Quantil von X, denn FX (b x) ≥ y ≥ FX (b x−). Also Z 1 + ψX (b x) = ψX (qX (y)) = x b −qX (s) d s |{z} 0 = Z 0 y =qX (y) + x b − qX (s) d s = x by − 71 Z 0 y qX (s) d s. ⇒ ∗ ψX (y) Ist y = 0, so gilt =x by − ψX (b x) = Z y qX (s) d s. 0 ∗ ψX (0) = sup −ψX (x) = sup − E (x − X)+ | {z } x∈R x∈R ≥0 = lim −E (x − X)+ = 0 x→−∞ Z 0 qX (s) d s. = 0 Korollar 4.15. X ≥C Y ⇐⇒ X ≥ssd Y und E[X] = E[Y ]. Beweis. ⇒“: ” X ≥ssd Y ist klar (siehe Bemerkung oben). Außerdem sind sowohl IdR als auch − IdR konkav. Daher folgt E[−X] ≥ E[−Y ] und E[X] ≥ E[Y ], also E[X] = E[Y ]. ⇐“: ” Da X ≥ssd Y gilt E u(X) ≥ E u(Y ) für alle konkaven, monoton wachsenden u : R → R. Sei nun u : R → R konkav und monoton fallend. Wir zeigen, dass auch in diesem Falle E u(X) ≥ E u(Y ) gilt. Dann folgt aber, dass E u(X) ≥ E u(Y ) für alle konkaven u: R → R, also X ≥C Y . Sei also u : R → R konkav und monoton fallend und E u(Y ) > −∞. Wie im Beweis von Satz 4.14 2) ⇒ 1) gilt für b ∈ R Z b 0 u(x) = u(b) − u+ (b)(b − x) − (z − x)+ d γ(z), x ∈ R, −∞ wobei das Maß γ gegeben ist durch γ [s, t) = −u0+ (t) + u0+ (s), s > t, und u0+ die rechtsseitige Ableitung von u bezeichent. Bemerke, dass u0+ ≤ 0 und monoton fallend ist, d.h. |u0+ | = −u0+ ist ≥ 0 und monoton wachsend. Nun folgt: Z Z Z b 0 + E u(Y ) = u(x) d PY (x) = u(b) − u+ (b)(b − x) − (z − x) d γ(z) d PY (x) R Fubini = u(b) −u0+ (b) b − | {z } ≥0 ≤ = u0+ (b) Z R x d PY (x) − | R {z } =E[Y ]=E[X] Z (z − x)+ d PY (x) d γ(z) −∞ R | R {z } Z Z b− x d PX (x) − u(b) − R Z ... = u(x) d PX (x) = E u(x) . R 72 −∞ Z b ≥ R (z−x)+ d PX (x) nach Satz 4.14 2) b −∞ Z R (z − x)+ d PX (x) d γ(z) Satz 4.16. X, Y ∈ L1 : i) Z X ≥ssd Y ⇐⇒ 1 0 qX (s)f (s) d s ≤ Z 1 qY (s)f (s) d s 0 für alle monoton wachsenden f : (0, 1) → (−∞, 0], so dass beide Integrale endlich sind. ii) X ≥C Y ⇐⇒ Z 1 0 qX (s)f (s) d s ≤ Z 1 qY (s)f (s) d s 0 für alle monoton wachsenden f : (0, 1) → R, so dass beide Integrale endlich sind. Beweis. i) ⇐“: ” −1(0,t] (·) ist monoton wachsend für alle 0 < t ≤ 1 und somit gilt: − Z t 0 qX (s) d s ≤ − Z 0 t qY (s) d s für alle 0 ≤ t ≤ 1. Wende Satz 4.14 an. i) ⇒“: ” Sei X ≥ssd Y . Angenommen f : (0, 1) → (−∞, 0] ist einfach, d.h. n−1 X f (s) = ai 1(ti−1 ,ti ] (s) + an 1(tn−1 ,1) , i=1 wobei t0 = 0 < t1 < ... < tn = 1 und ai ∈ R mit a1 ≤ a2 ≤ ... ≤ an ≤ 0. Aus Satz 4.14 folgt, dass Z 1 Z 1 an qX (s) d s ≤ an qY (s) d s 0 und für j = 1, ..., n − 1: (aj − aj+1 ) | {z } ≤0 Z 0 tj qX (s) d s ≤ (aj − aj+1 ) 0 Z tj qY (s) d s. 0 Aufsummieren ergibt: n−1 X j=1 (aj − aj+1 ) Z 0 tj qX (s) d s + an Z 0 1 qX (s) d s ≤ = n−1 X j=1 n X j=1 73 (aj − aj+1 ) aj Z Z tj qY (s) d s + an 0 tj tj−1 qY (s) d s = Z 1 qY (s) d s 0 Z 0 1 qY (s)f (s) d s ⇐⇒ Z 1 qX (s)f (s) d s ≤ 0 Z 1 qY (s)f (s) d s. 0 Für allgemeines f : (0, 1) → (−∞, 0], monoton wachsend, approximiere f durch einfache Funktionen ( − i−1 , falls f (s) ∈ − 2ik , − i−1 , i = 1, ..., k2k k k 2 2 fk (s) := , k ∈ N. −k , sonst Dann gilt fk → f punktweise und |fk | ≤ |f | für alle k ∈ N. Also folgt mit der majorisierten Konvergenz, dass Z 1 Z 1 qY (s)fk (s) d s qY (s)f (s) d s = lim k%∞ 0 0 Z 1 Z 1 qX (s)f (s) d s. qX (s)fk (s) d s = ≥ lim k%∞ 0 ii) ⇐“: ” Es folgt X ≥ssd Y und E[X] = Z qX (s) · 1 d s ≤ Z qX (s) · (−1) d s ≤ Z 0 bzw. E[−X] = Z 0 0 1 1 1 qY (s) · 1 d s = E[Y ] 0 0 1 qY (s) · (−1) d s = E[−Y ] also E[X] = E[Y ] und somit X ≥C Y laut Korollar 4.15. ii) ⇒“: R1 R1 ” Sei X ≥C Y . Laut Korollar 4.15 gilt X ≥ssd Y und 0 qX (s) d s = 0 qY (s) d s. Es folgt R1 R1 q (s)f (s) d s ≤ X 0 qY (s)f (s) d s für alle f : (0, 1) → R, ↑, welche von oben beschränk sind. 0 Denn ist K eine solche obere Schranke für f , dann ist f − K ≤ 0 und somit gilt: Z 1 Z 1 Z 1 qX (s)f (s) d s = qX (s) f (s) − K d s + qX (s)K d s 0 0 0 | {z } | {z } X≥ssd Y , i)R 1 ≤ 0 qY ≤ Z (s)(f (s)−K) d s =K R1 0 qY (s) d s 1 qY (s)f (s) d s. 0 Nun liefert die monotone Konvergenz die Behauptung für allgemeines f : (0, 1) → R, ↑. Satz 4.17. Sei f : Lp → (−∞, ∞] eine k · kp -uhs konvexe Funktion, p ∈ [1, ∞]. Folgende Eigenschaften sind äquivalent: i) f ist verteilungsinvariant. ii) f ist ≥C -antiton, d.h. X ≥C Y ⇒ f (X) ≤ f (Y ). 74 Ist f zusätzlich antiton bzgl. der P-f.s. Ordnung (d.h. X ≥ Y ⇒ f (X) ≤ f (Y )), so sind i) und ii) äquivalent zu iii) f ist ≥ssd -antiton (d.h. X ≥ssd Y ⇒ f (X) ≤ f (Y )). Beweis. i) ⇒ ii): Sei X ≥C Y . Dann ist f (X) = sup Z∈Lq Satz 4.16 ii) wobei q ∈ [1, ∞] mit ii) ⇒ i): 1 p + 1 q Z 0 Z ≥ Z∈Lq = f (Y ), sup 1 1 0 qX (s)qZ (s) d s − f ∗ (Z) qY (s)qZ (s) d s − f ∗ (Z) = 1, d.h. insbesondere q = 1, falls p = ∞. d Ist X = Y , so gilt X ≥C Y und Y ≥C X und somit f (X) ≤ f (Y ) und f (X) ≥ f (Y ), also f (X) = f (Y ). Sei f nun antiton bzgl. der P-f.s. Ordnung: i) ⇒ iii): Die Antitonie von f impliziert, dass f ∗ ⊆ Lq− (Lemma 3.1). Also folgt die Behauptung wie i) ⇒ ii) aus dem Satz 4.16 i) und Z 1 qX (s)qZ (s) d s − f ∗ (Z). f (X) = sup Z∈Lq− iii) ⇒ ii): 0 d Klar, Übung. (X = Y , X ≥ssd Y und Y ≥ssd X) Korollar 4.18 (Version von Lemma 4.5 für p ∈ [1, ∞)). Sei p ∈ [1, ∞). Ist C ⊂ Lp eine verteilungsinvariante, konvexe, k · kp -abgeschlossene Menge. Dann gilt für alle Unter-σ-Algebren A ⊂ F und für alle X ∈ C, dass E[X|G] ∈ C. Beweis. ( 0 f (X) := δ(X|C) = ∞ , falls X ∈ C , X ∈ Lp , , sonst ist konvex, verteilungsinvariant und k · kp -unterhalbstetig, da {X|f (X) ≤ k} = Ek = ∅ für k < 0 und Ek = C für k ≥ 0. (C ist k · kp -abgeschlossen) Satz 4.17 ⇒ f ist ≥C -antiton. Da E[X|G] ≥C X (Jenssen’sche Ungleichung), folgt 0 ≤ δ E[X|G]C = f E[X|G] ≤ f (X) = δ(X|C) = 0 und somit δ E[X|G]C = 0, also E[X|G] ∈ C, falls X ∈ C. 75 Bemerkung. Satz 4.17 impliziert, dass verteilungsinvariante uhs konvexe Risikomaße auf Lp stets ≥C - und ≥ssd -antiton sind. Korollar 4.19. Sei ρ : Lp → (−∞, ∞] ein verteilungsinvariantes k · kp -uhs konvexes Risikomaß. Dann gilt: i) ∀X ∈ Lp und für alle Unter-σ-Algebren G ⊂ F: ρ E[X|G] ≤ ρ(X). ii) ∀X ∈ Lp : ρ(X) ≥ −E[X] + ρ(0) iii) ρ∗ (−1) = −ρ(0) bzw. αmin (P) = −ρ(0) k·kp iv) Sei für X ∈ Lp Xm = E[X|Gm ] für Unter-σ-Algebren Gm ⊂ F mit Xm −→ X. Dann gilt ρ(X) = lim ρ(Xm ). m%∞ Beweis. Zu i): E[X|G] ≥C X (Jenssen’sche Ungleichung). Wende Satz 4.17 an. Zu ii): G = {∅, Ω} und i) ergeben: ρ(X) ≥ ρ E[X] = −E[X] + ρ(0) Zu iii): X=0 ρ∗ (−1) = sup E[−X] − ρ(X) = −ρ(0). {z } X∈Lp | ≤−ρ(0) laut ii) Zu iv): uhs und Satz 4.17 (bzw. i)) implizieren, dass ρ(X) ≤ lim inf ρ(Xm ) und lim sup ρ(Xm ) ≤ ρ(X) m%∞ m%∞ ⇒ ρ(X) = limm%∞ ρ(Xm ). Korollar 4.20. Seien ρ1 , ..., ρn : Lp → (−∞, ∞] verteilungsinvariante, uhs, konvexe Risikomaße. Dann gilt stets: n ρi (X) = i=1 inf p n X Xi ∈L X1 +...+Xn =X i=1 ρi (Xi ) ≥ E[−X] + n X ρi (0) . |i=1 {z } n i=1 =−αmin n Insbesondere ist ρi stets ein konvexes Risikomaß. i=1 76 ρi (P) Beweis. n ρi (X) = i=1 inf p n X Xi ∈L X1 +...+Xn =X i=1 ρi (Xi ) Korollar 4.19 ≥ inf p n X Xi ∈L X1 +...+Xn =X |i=1 E[−Xi ] +ρi (0) {z =E[−X] = E[−X] + n X ρi (0). } i=1 Bemerkung. n • Insbesondere kann man zeigen, dass ρi wie in Korollar 4.20 stets uhs ist und somit i=1 ∗ n n P ρ∗i (s.o.) (ρ∗i ist verteilungsinvariant für auch verteilungsinvariant, da ρi = i=1 i=1 jedes i) verteilungsinvariant ist (Satz 4.11). n • Außerdem kann gezeigt werden, dass das Problem ρi (X) = i=1 n P ρ(X i ) (für eine Allo- i=1 kation (X 1 , ..., X n ) von X) stets eine Lösung besitzt, d.h. zu jedem X gibt es Pareto optimale Allokationen. • Equilibria sind etwas schwieriger außerhalb von L∞ . Auf L∞ haben wir den Zusammenhang zwischen Pareto Optima und Equilibria bereits geklärt. Frage: Wie hängen Risikomaße auf Lp und L∞ zusammen? • Ist ρ : Lp → (−∞, ∞] ein konvexes Risikomaß, so ist stets ρ|L∞ ein konvexes Risikomaß auf L∞ (Übung). • Sei umgekehrt ein konvexes Risikomaß ρ : L∞ → R vorgegeben. Suche ein (uhs) konvexes Risikomaß ρp : Lp → (−∞, ∞] mit ρp|L∞ = ρ. Dieses Problem hat im allgemeinen alles zwischen keiner und beliebig vielen Lösungen. Der verteilungsinvariante Fall ist jedoch besonders: Satz 4.21. Sei ρ∞ : L∞ → R ein verteilungsinvariantes konvexes Risikomaß. Dann gibt es zu jedem p ∈ [1, ∞) genau ein uhs verteilungsinvariantes konvexes Risikomaß ρp : Lp → (−∞, ∞] derart, dass ρp|L∞ = ρ∞ . p ∞ Dual gilt αmin = αmin , d.h für alle Q ∈ M1p ist |M p 1 dQ p ∞ αmin (Q) = (ρp )∗ − = (ρ∞ )∗ (−Q) = αmin (Q), dP 77 ∞ bzw. αp p wobei αmin min die jeweilige minimale Straffunktion bezeichnet. ρ ist gegeben durch: ∞ ρp (X) = sup EQ [−X] − αmin (Q). Q∈M1p Letztlich ist für alle p ∈ [1, ∞]: ρp = ρ1|Lp . Bemerkung. Ein analoges Resultat gilt in der Tat für jede verteilungsinvariante uhs konvexe Funktion f : L∞ → (−∞, ∞]. Beweis von Satz 4.21. ∞ (Q), X ∈ Lp : Betrachte ρp (X) = sup EQ [−X] − αmin Q∈M1p i) ρp = ρ∞ auf L∞ : Denn laut Korollar 4.8 ist ρ∞ σ(L∞ , Lq )-uhs für jedes q ∈ [1, ∞] mit 1 1 ∞ p + q = 1. Also gilt für X ∈ L : ∞ ρ∞ (X) = sup EQ [−X] − αmin (Q) = ρp (X). Q∈M1p p ∞ ii) αmin = αmin |M1p : Es ist für Q ∈ M1p : p αmin (Q) = sup EQ [−X] − ρp (X) ∞ b sup EQ [−X] − sup EQ b [−X] − αmin (Q) X∈Lp = X∈Lp b Q=Q ≤ p b Q∈M 1 ∞ αmin (Q) und p (Q) = sup EQ [−X] − ρp (X) αmin X∈Lp ≥ sup EQ [−X] − ρp (X) | {z } X∈L∞ i) =ρ∞ (X) ∞ = αmin (Q). p ∞ Also αmin = αmin |M1p . p ∞ ∞ iii) Da αmin verteilungsinvariant ist (Satz 4.11) und somit auch αmin = αmin |M1p |M1p p verteilungsinvariant ist, folgt die Verteilungsinvarianz von ρ (Satz 4.11). iv) Es bleibt die Eindeutigkeit von ρp zu zeigen: Sei hierzu g : Lp → (−∞, ∞] eine uhs verteilungsinvariante konvexe Funktion mit g|L∞ = 78 m ρ∞ . Für jedes X ∈ Lp und m ∈ N gibt es eine endliche Zerlegung Am 1 , ..., An(m) von Ω m (d.h. Am i ∩ Aj = ∅ für i 6= j, n(m) S j=1 m Am j = Ω und P(Aj ) > 0) derart, dass ∞ m Xm := E X σ(Am 1 , ..., An(m) ) ∈ L einen Lp -Abstand kleiner als 4.17 implizieren: 1 m zu X hat, d.h. kX − Xm kp ≤ 1 m. Die uhs von g und Satz g(X) ≤ lim inf g(Xm ) ≤ lim sup g(Xm ) ≤ g(X). m%∞ m%∞ Also g(X) = lim g(Xm ). Da dies inbesondere auch für ρp gilt erhalten wir: m%∞ g(X) = lim g(Xm ) = lim ρ∞ (Xm ) = lim ρp (Xm ) = ρp (X). m%∞ m%∞ m%∞ D.h. g = ρp . Die Wahl g = ρ1|Lp zeigt, dass inbesondere ρp = ρ1|Lp . 4.1 Anwendung: Optimal Risk Sharing /Equilibria • Agent 1: ρ1 (X) = AVaRα (X), X ∈ L∞ , α ∈ (0, 1). • Agent 2: ρ2 ist ein verteilungsinvariantes konvexes Risikomaß auf L∞ , welches zudem folgende Eigenschaften hat: 1) ρ2 ist strikt monoton: D.h. falls X ≥ Y und P(X > Y ) > 0 ⇒ ρ(X) < ρ(Y ). 2) ρ2 ist strictly risk averse conditional on lower tail events“ (sraclte): ” Sei X ∈ L∞ und A ∈ F mit P(A) > 0. Dann ist A ein lower tail event von X, falls essinf A X < esssupA X ≤ essinf AC X. ρ2 heißt sraclte, falls ρ(X) > ρ X1AC +E(X|A)1A für jedes X ∈ L∞ und jedes lower tail event A von X. 3) ρ2 ist stetig von unten (Lebesgue-Eigenschaft bzw. dom ρ∗2 ⊂ M1 ). Beispiel. ρ2 = Entropisches Risikomaß, Semi-Deviation Risikomaß, ...etc. Lemma 4.22. Sei ρ : L∞ → R ein verteilungsinvariantes konvexes Risikomaß, welches stetig von unten ist. Ist ρ zudem strikt monoton, dann gilt für alle Z ∈ ∂ρ(X), dass Z < 0 P-f.s. Beweis. A := {Z = 0}. ρ(X + 1A ) Subgrad.unglg ≥ ρ(X) + E Z(X + 1A − X) = ρ(X) {z } | =0 strikte Monotonie =⇒ P(A) = 0. 79 Lemma 4.23. Sei ρ wie in Lemma 4.22. Dann gibt es zu jedem X ∈ L∞ eine monoton wachsende Funktion h : R → (−∞, 0] derart, dass h(X) ∈ ∂ρ(X). X (D.h. QX gegeben durch ddQP = −h(X) erfüllt ρ(X) = EQX (−X) − αmin (QX ). Beispiel: d QX dP = e−βX E(e−βX ) ,→ h(y) = e−βy E(e−βX ) ) Beweis. Wir wissen, dass ∂ρ(X) 6= ∅ und ∂ρ(X) ⊂ {Z ∈ L1− : E(Z) = −1} , −M1 . Sei also Z ∈ ∂ρ(X) und h : R → (−∞, 0] sei meßbar mit h(X) = E(Z|X). Da E(Z|X) ≥C Z und ρ∗ eine verteilungsinvariante, konvexe, uhs Funktion ist, also insbesondere ≥C -antiton, folgt, dass ρ(X) = E(ZX) − ρ∗ (Z) ≤ E E(Z|X)X − ρ∗ E(Z|X) ≤ ρ(X) ,→ h(X) = E(Z|X) ∈ ∂ρ(X). Außerdem gilt: ρ(X) ≥ sup E(Y X) − ρ h(X) = ∗ d Y =h(X) Z 1 0 ≥ E h(X)X − ρ∗ h(X) = ρ(X) R1 ⇒ E h(X)X = 0 qh(X) (t)qX (t) d t Satz 4.9 ⇒ qh(X) (t)qX (t) d t − ρ∗ h(X) h ist monoton wachsend. Lemma 4.24. Sei ρ wie in Lemma 4.22 und zudem sraclte. Außerdem sei Z ∈ ∂ρ(X), wobei X = f (W ), Z = h(W ) für W ∈ L∞ und monoton wachsende Funktionen f : R → R bzw. h : R → (−∞, 0]. Dann gilt für A = {Z = essinf Z}: Falls P(A) > 0, dann ist X konstant auf A. Beweis. Angenommen P(A) > 0 und X ist nicht konstant auf A. Dann ist A ein lower tail event von X. Also wissen wir, dass ρ(X) > ρ x1AC + E(X|A)1A . | {z } :=X Andererseits: E(ZX) = E(ZX1AC ) + ρ(X) ≥ ρ(X) + E Z(X − X) | {z } E(ZX1A ) = E(ZX) | {z } A) = essinf Z · E(X1 P(A) P(A) = E E(X|A)Z1A =0 Satz 4.25. Die komonotonen Lösungen des optimalen Allokationsproblems (P) (in unserer Situation) haben folgende Form: (X1 , X2 ) = − (W − l)− + k, W ∨ l − k für k, l ∈ R. 80 Beweisskizze. Seien (X1 , X2 ) = f (W ), g(W ) , wobei f, g : R → R monoton wachsend und f + g = Id eine komonotone Lösung von (P) ist, d.h. ρ1 ρ2 (W ) = ρ1 (X1 ) + ρ2 (X2 ). Außerdem sei Z = h(W ) ∈ ∂ρ1 ρ2 (W ) = ∂ρ1 (X1 ) ∩ ∂ρ2 (X2 ), (siehe Lemma 3.24) wobei h : R → (−∞, 0] monoton wachsend ist. Bemerke: Z α Z 1 1 qX (t) d t, qX (t) d ϕ(t) = − AVaRα (X) = − α 0 0 wobei ϕ(t) = αt ∧ 1, t ∈ [0, 1] eine concave distortion“ ist. ” Wir wissen: Z Z 1 Z 1 qZ (t)qX1 (t) d t = qX1 (t) d ϕ(t) = ρ1 (X1 ) = AVaRα (X1 ) = E(ZX1 ) = − 0 0 wobei ψ(t) = R1 0 qZ (s) d s ≥ −1. =⇒ Z | 0 1 qX1 (t) d ψ(t) + {z R1 ” 0 qX1 (t) d ψ(t), 0 1 0 qX1 (t) d ϕ(t) = 0 } qX1 (t) ψ 0 (t)+ϕ0 (t) d t“ partielle Integration =⇒ Z 1 Z 0 1 φ(t) + ϕ(t) d qX1 (t) = 0 (∗) Da Z ∈ ∂ρ1 (X1 ), wissen wir, dass Z ≥ − α1 (siehe Satz 3.20) (dom ρ∗1 ⊂ {Z ∈ L1− : Z ≥ − α1 }). ⇒ qZ (t) ≥ − α1 ⇒ ψ(t) ≥ − αt ⇒ ψ ≥ −ϕ ⇔ ψ + ϕ ≥ 0 (∗) =⇒ qX1 ist konstant auf {ψ + ϕ > 0}. β := inf{t : ϕ(t) + ψ(t) > 0} ⊂ [0, α] (−ψ(t) < 1 für alle t < 1, da Z < 0 P-f.s). D.h. qX1 ist konstant auf (β, 1]. Ist β > 0, dann gilt für alle t ∈ [0, β], dass t ϕ(t) = = − α Z 0 t qZ (t) d t =⇒ qZ (t) = − Lemma 4.24 1 = essinf Z für alle t ∈ [0, β]. α ρ2 sraclte =⇒ X ist konstant auf {Z = essinf Z}. X1 = f (W ), X2 = g(W ), Z = h(W ), f, g, h ↑ ,→ X1 ist konstant auf W −1 (l, ∞), wobei l = qW (β) qX1 = qf (W ) = f (qW ) und Z = h(W ) = essinf Z ist konstant auf W −1 (−∞, l], also ist X2 konstant auf W −1 (−∞, l]. ,→ Die Behauptung. 81 Abbildung 4.2: Illustration von ϕ, ψ und β aus dem Beweis von Satz 4.25. 82