KAPITEL 11 Ungleichungen 11.1. Jensen-Ungleichung Definition 11.1.1. Eine Funktion g : R → R heißt konvex, wenn man für jedes x0 ∈ R ein K0 = K0 (x0 ) ∈ R finden kann, so dass für alle x ∈ R gilt: g(x) ≥ g(x0 ) + K0 (x − x0 ). Bemerkung 11.1.2. Eine Funktion g(x) ist also genau dann konvex, wenn der Graph von g die folgende Eigenschaft besitzt: zu jedem x0 können wir eine Gerade finden, die durch den Punkt (x0 , f (x0 )) geht und die Eigenschaft hat, dass der Graph von g komplett oberhalb dieser Geraden liegt. Die Zahl K0 heißt das Subdifferential von g an der Stelle x0 und ist nicht immer eindeutig bestimmt. Falls g differenzierbar ist, dann kann K0 durch K0 = g 0 (x0 ) festgelegt werden. Satz 11.1.3 (Jensen-Ungleichung). Sei g eine konvexe Funktion und X eine Zufallsvariable mit X ∈ L1 , g(X) ∈ L1 . Dann gilt: (11.1.1) g(EX) ≤ E[g(X)]. Beispiel 11.1.4. Wir betrachten eine Zufallsvariable X, die n Werte x1 , x2 , . . . , xn mit einer Wahrscheinlichkeit von jeweils 1/n annimmt. Der Erwartungswert ist dann das arithmetische Mittel der xi , also x1 + . . . + xn . EX = n Dann besagt die Jensen-Ungleichung für diesen Spezialfall, dass für jede konvexe Funktion g gilt x1 + . . . + xn g(x1 ) + . . . + g(xn ) g ≤ . n n Beweis von Satz 11.1.3. Wir setzen in die Definition der Konvexität x0 = EX, x = X ein. Dann existiert laut Definition ein K0 ∈ R mit der Eigenschaft, dass g(X) ≥ g(EX) + K0 (X − EX). Nun bilden wir den Erwartungswert: E[g(X)] ≥ E[g(EX)] + K0 E[X − EX] = g(EX) + K0 (EX − EX) = g(EX). 1 11.2. Ljapunow-Ungleichung Ein Spezialfall der Jensen-Ungleichung ist die Ljapunow-Ungleichung. Satz 11.2.1 (Ljapunow-Ungleichung). Seien 0 < s < t und sei X eine Zufallsvariable. Dann gilt 1 1 (E[|X|s ]) s ≤ E[|X|t ] t . Definition 11.2.2. Sei p ≥ 0. Die Lp -Norm einer Zufallsvariable X ist definiert durch kXkp = (E[|X|p ])1/p . Bemerkung 11.2.3. Mit dieser Notation besagt die Ljapunow-Ungleichung, dass kXks ≤ kXkt , 0 < s < t. Beispiel 11.2.4. Wir betrachten eine Zufallsvariable X, die n Werte x1 , x2 , . . . , xn > 0 mit Wahrscheinlichkeit von jeweils 1/n annimmt. Dann besagt die Ljapunow-Ungleichung, dass xs1 + . . . + xsn n 1s ≤ xt1 + . . . + xtn n 1t , 0 < s < t. Dies ist die klassische Ungleichung der verallgemeinerten Mittel. Setzen wir nun s = 1 und t = 2, so erhalten wir die Ungleichung zwischen dem arithmetischem und dem quadratischem Mittel: r x1 + . . . + xn x21 + . . . + x2n ≤ . n n Beispiel 11.2.5. Wir betrachten den Wahrscheinlichkeitsraum [0, 1] mit der Borel-σ-Algebra und dem Lebesgue-Maß. Sei f : [0, 1] → R eine messbare Funktion. Dann besagt die Ungleichung von Ljapunow, dass Z 0 1 |f (z)|s dz 1s Z 1 |f (z)|t dz ≤ 1t , 0 < s < t. 0 Beweis von Satz 11.2.1. Wir führen den Beweis mit Hilfe der Jensen-Ungleichung. Sei t g(y) = |y| s . Dann ist g konvex, denn st > 1. Setzen wir nun Y = |X|s und nutzen die Jensen-Ungleichung, so erhalten wir g (EY ) ≤ E[g(Y )]. t Da g(Y ) = (|X|s ) s = |X|t , ist dies ist äquivalent zu t (E[|X|s ]) s ≤ E[|X|t ]. Daraus ergibt sich die Ljapunow-Ungleichung, wenn man die 1/t-te Potenz der beiden Seiten betrachtet. 2 11.3. Young-Ungleichung Satz 11.3.1 (Young-Ungleichung). Seien p, q > 1 mit der Eigenschaft, dass 1/p + 1/q = 1. Dann gilt für alle a, b > 0: ap b q + . ab ≤ p q 2 2 Beispiel 11.3.2. Seien p = q = 2. Dann erhalten wir die Ungleichung ab ≤ a +b . Diese 2 Ungleichung kann man schnell beweisen, indem man alle Terme auf die rechte Seite bringt: 0 ≤ 12 (a − b)2 . Beweis. Wir betrachten die Funktion y = xp−1 , x > 0. Dabei handelt es sich, da p > 1 ist, um eine monoton wachsende Funktion. Die Umkehrfunktion lautet 1 x = y p−1 = y q−1 . Also hat die Umkehrfunktion eine ähnliche Form wie die Ausgangsfunktion. Graphisch ergibt sich Z Z b a y q−1 dy. xp−1 dx + ab ≤ 0 0 Daraus ergibt sich die Young-Ungleichung. 11.4. Hölder-Ungleichung Satz 11.4.1 (Hölder-Ungleichung). Seien p, q > 1 mit 1/p + 1/q = 1. Seien X ∈ Lp und Y ∈ Lq Zufallsvariablen. Dann gilt 1 1 E[|XY |] ≤ (E[|X|p ]) p · (E[|Y |q ]) q . Bemerkung 11.4.2. Äquivalente Schreibweise: kXY k1 ≤ kXkp · kY kq . p Insbesondere folgt aus X ∈ L und Y ∈ Lq , dass X · Y ∈ L1 . Bemerkung 11.4.3. Mit p = q = 2 erhalten wir die Cauchy-Schwarzsche Ungleichung (11.4.1) kXY k1 ≤ kXk2 · kY k2 . Beweis von Satz 11.4.1. Falls kXkp = 0, so gilt E[|X|p ] = 0. Dann ist X = 0 fast sicher und daher auch X · Y = 0 fast sicher. In diesem Fall gilt die Hölder-Ungleichung, da 0 ≤ 0. Falls kY kq = 0, so gilt die Hölder-Ungleichung, analog zu vorherigem Fall, ebenso. Seien nun also kXkp 6= 0 und kY kq 6= 0. Wir führen die folgenden Zufallsvariablen a und b ein: |X| |Y | a= , b= . kXkp kY kq Dann gilt: E[ap ] = 1, E[bq ] = 1. Mit der Young-Ungleichung erhalten wir p q a b 1 1 E[ab] ≤ E +E = + = 1. p q p q 3 Durch Einsetzen von a und b folgt |X||Y | ≤ 1. E kXkp · kY kq Da kXkp ·kY kq eine Konstante ist, darf man den Term aus dem Erwartungswert herausziehen, was zu unserer Behauptung führt: E|X · Y | ≤ kXkp · kY kq . Beispiel 11.4.4. Sei Ω = {1, . . . , n} ein diskreter Wahrscheinlichkeitsraum mit P[{ω}] = 1/n für alle ω ∈ Ω. Betrachte zwei Zufallsvariablen X, Y : Ω → R mit X(k) = xk , Y (k) = yk , xk , yk ∈ R. Indem wir X und Y in die Hölder-Ungleichung einsetzen, erhalten wir ! p1 ! 1q n n n X X X |xi yi | ≤ |xi |p · . |yi |q i=1 i=1 i=1 Dies ist die klassische Form der Hölder-Ungleichung für Summen. Beispiel 11.4.5. Betrachte den Wahrscheinlichkeitsraum Ω = [0, 1] mit der Borel-σ-Algebra und dem Lebesgue-Maß. Seien f, g : [0, 1] → R zwei messbare Funktionen. Indem wir X = f und Y = g in die Hölder-Ungleichung einsetzen, erhalten wir p1 Z 1 1q Z 1 Z 1 p q |f (z)| dz |g(z)| dz . |f (z)g(z)|dz ≤ · 0 0 0 Dies ist die klassische Form der Hölder-Ungleichung für Integrale. 11.5. Minkowski-Ungleichung Satz 11.5.1 (Minkowski-Ungleichung). Sei p ≥ 1 und seien X, Y ∈ Lp Zufallsvariablen. Dann gilt 1 1 1 (E [|X + Y |p ]) p ≤ (E [|X|p ]) p + (E[|Y |p ]) p . Bemerkung 11.5.2. Äquivalente Schreibweise: kX + Y kp ≤ kXkp + kY kp . Die Minkowski-Ungleichung ist also eine Dreiecksungleichung für die Lp -Norm. Beispiel 11.5.3. Sei Ω = {1, . . . , n} ein diskreter Wahrscheinlichkeitsraum mit P[{ω}] = 1/n für alle ω ∈ Ω. Betrachte zwei Zufallsvariablen X, Y : Ω → R mit X(k) = xk , Y (k) = yk , xk , yk ∈ R. Indem wir X und Y in die Minkowski-Ungleichung einsetzen, erhalten wir ! p1 ! p1 ! p1 n n n X X X ≤ |xi |p + |yi |p . |xi + yi |p i=1 i=1 4 i=1 Dies ist die klassische Minkowski-Ungleichung für Summen. Für p = 2 ist dies genau die klassische Dreiecksungleichung, die besagt, dass die Länge einer Summe von zwei Vektoren nicht größer sein kann, als die Summe der Längen der beiden Vektoren: ! 21 ! 12 ! 21 n n n X X X ≤ x2i + yi2 . (xi + yi )2 i=1 i=1 i=1 Beispiel 11.5.4. Betrachte den Wahrscheinlichkeitsraum Ω = [0, 1] mit der Borel-σ-Algebra und dem Lebesgue-Maß. Seien f, g : [0, 1] → R zwei messbare Funktionen. Indem wir X = f und Y = g in die Minkowski-Ungleichung einsetzen, erhalten wir Z 1 1/p Z 1 p1 p1 Z 1 p p p |f (z) + g(z)| dz + |g(z)| dz . ≤ |f (z)| dz 0 0 0 Dies ist die klassische Form der Minkowski-Ungleichung für Integrale. Beweis von Satz 11.5.1. Sei zunächst p = 1, dann gilt mit der Ungleichung |X + Y | ≤ |X| + |Y |: E|X + Y | ≤ E(|X| + |Y |) = E|X| + E|Y |. Also gilt die Minkowski-Ungleichung. p Nun betrachten wir den Fall p > 1. Wir definieren q = p−1 > 1. Mit dieser Wahl von q gilt 1 1 die Relation p + q = 1. Wir wenden nun die Ungleichung |X + Y | ≤ |X| + |Y | und danach die Hölder-Ungleichung an: E[|X + Y |p ] = E[|X + Y |p−1 · |X + Y |] ≤ E[|X + Y |p−1 · |X|] + E[|X + Y |p−1 · |Y |] 1 1 ≤ E[|X + Y |(p−1)q ] q · kXkp + E[|X + Y |(p−1)q ] q · kY kp 1 = (E[|X + Y |p ]) q · (kXkp + kY kp ) . Mit 1 − 1 q = 1 p erhalten wir 1 (E[|X + Y |p ]) p ≤ kXkp + kY kp . 11.6. Lp -Räume und Lp -Konvergenz Definition 11.6.1. Sei p > 0. Sei X eine Zufallsvariable. Wir schreiben X ∈ Lp , wenn E [|X|p ] < ∞. Die Lp -Norm von X ∈ Lp ist definiert durch 1 kXkp = (E[|X|p ]) p . Bemerkung 11.6.2. Die Ljapunow-Ungleichung beasgt, dass kXks ≤ kXkt , wenn 0 < s < t. Somit sind die Lp -Räume ineinander geschachtelt: Ls ⊃ Lt , wenn s < t. Insbesondere gilt L1 ⊃ L2 ⊃ L3 ⊃ . . . . 5 Wir haben früher bereits gezeigt und sehr oft benutzt, dass L1 ⊃ L2 . (Wenn eine Zufallsvariable eine Varianz besitzt, dann besitzt sie auch einen Erwartungswert). Bemerkung 11.6.3. Für p ≥ 1 ist Lp ein Vektorraum, denn (1) Für X ∈ Lp und λ ∈ R ist auch λX ∈ Lp . (2) Für X ∈ Lp und Y ∈ Lp ist auch X + Y ∈ Lp . Die zweite Eigenschaft folgt aus der Minkowski-Ungleichung, denn kX + Y kp ≤ kXkp + kY kp < ∞. Für p < 1 ist Lp im Allgemeinen kein Vektorraum. Definition 11.6.4. Sei p > 1. Der Lp -Abstand zwischen zwei Zufallsvariablen X ∈ Lp und Y ∈ Lp ist 1 dp (X, Y ) = kX − Y kp = (E[|X − Y |p ]) p . Bemerkung 11.6.5. Für X, Y ∈ Lp ist der Lp -Abstand kX − Y kp endlich. Das folgt aus der Minkowski-Ungleichung: kX − Y kp ≤ kXkp + k − Y kp = kXkp + kY kp < ∞. Bemerkung 11.6.6. Für p ≥ 1 ist der Lp -Abstand eine Metrik, denn es gilt (1) dp (X, Y ) = 0 genau dann, wenn X = Y fast sicher. (2) dp (X, Y ) = dp (Y, X). (3) dp (X, Z) ≤ dp (X, Y ) + dp (Y, Z). Die letzte Eigenschaft folgt aus der Minkowski-Ungleichung, wobei hier p ≥ 1 benutzt wird. Somit erfüllt der Lp -Raum die drei Axiome eines metrischen Raumes bis auf eine Kleinigkeit: Es kann sein, dass dp (X, Y ) = 0 und dennoch X 6= Y . Deshalb macht man eine Konvention: man betrachtet zwei Zufallsvariablen als identisch, wenn sie fast überall gleich sind. Dann gelten alle drei Eigenschaften eines metrischen Raumes. Ist aber p < 1, so gilt die Dreiecksungleichung nicht. Definition 11.6.7. Eine Folge X1 , X2 , . . . von Zufallsvariablen konvergiert in Lp gegen eine Zufallsvariable X, wenn X, X1 , X2 , . . . ∈ Lp und lim kX − Xn kp = 0. n→∞ Bemerkung 11.6.8. Äquivalente Schreibweise: limn→∞ E[|X − Xn |p ] = 0. Lp Bezeichnung. Xn −→ X. n→∞ Bemerkung 11.6.9. Aus der Ljapunow-Ungleichung folgt, dass Lt Ls n→∞ n→∞ Xn −→ X ⇒ Xn −→ X, wenn s < t. Daher gelten folgende Implikationen zwischen den Lp -Konvergenzen: L1 ⇐ L2 ⇐ L3 ⇐ . . . . Wenn man die Konvergenz in Wahrscheinlichkeit als L0 -Konvergenz und die gleichmäßige Konvergenz als L∞ -Konvergenz betrachtet, dann kan man dieses Schema vervollständigen: L0 ⇐ L1 ⇐ L2 ⇐ L3 ⇐ . . . ⇐ L∞ . 6