Vorlesungsmitschrift Stochastik II gehalten von Prof. Dr. Silke Rolles im Sommersemester 2008 an der Technischen Universität München Dieses Dokument ist die digitalisierte Version meiner persönlichen Mitschrift von oben genannter Vorlesung. Es handelt sich nicht um ein offizielles Skriptum und weder für die Richtigkeit noch für die Vollständigkeit des Inhalts wird gebürgt. Andreas Kreisel ([email protected]) 24. Juli 2008 Inhaltsverzeichnis 1 Grundlagen 1.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . 1.2 Wahrscheinlichkeitsräume und Maßräume . . . . . . 1.3 Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . 1.4 Beweis des Eindeutigkeitssatzes . . . . . . . . . . . . 1.5 Mehr über Zufallsvariablen . . . . . . . . . . . . . . 1.6 Integration bzgl. eines Wahrscheinlichkeitsmaßes . . 1.7 Erwartungswert . . . . . . . . . . . . . . . . . . . . . 1.8 Konvergenzsätze . . . . . . . . . . . . . . . . . . . . 1.9 Erwartungswert einer Funktion einer Zufallsvariable 1.10 Ungleichungen . . . . . . . . . . . . . . . . . . . . . 1.11 Der Satz von Carathéodory . . . . . . . . . . . . . . 1.12 Produktmaße und der Satz von Fubini . . . . . . . . 1.13 Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . 1.14 Konstruktion von unabhängigen Zufallsvariablen . . 1.15 Konvergenz von Folgen von Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 4 5 7 9 12 13 14 14 15 17 17 18 22 23 2 Gesetze der großen Zahlen 2.1 Schwaches Gesetz der großen Zahlen für L2 -Zufallsvariablen 2.2 Mehr zum schwachen Gesetz der großen Zahlen . . . . . . . 2.3 Starkes Gesetz der großen Zahlen für L2 -Zufallsvariablen . . 2.4 Borel-Cantelli-Lemmata . . . . . . . . . . . . . . . . . . . . 2.5 Starkes Gesetz der großen Zahlen für L1 -Zufallsvariablen . . 2.6 Anwendungen des starken Gesetzes der großen Zahlen . . . 2.7 Zufällige Reihen und Kolmogorovs 0-1-Gesetz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 25 26 26 30 32 33 34 3 Zentraler Grenzwertsatz 3.1 Motivation . . . . . . . . . . . . . . . . . . 3.2 Schwache Konvergenz . . . . . . . . . . . . 3.3 Schwach konvergente Teilfolgen . . . . . . . 3.4 Charakteristische Funktionen . . . . . . . . 3.5 Eindeutigkeitssatz und Inversionssätze . . . 3.6 Der Stetigkeitssatz von Lévy . . . . . . . . 3.7 Charakteristische Funktionen und Momente 3.8 Konvergenzsätze . . . . . . . . . . . . . . . 3.9 Unbegrenzt teilbare Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Martingale 4.1 Definition bedingter Erwartungswerte . . . . . . 4.2 Eigenschaften bedingter Erwartungswerte . . . . 4.3 Martingale: Einfache Eigenschaften . . . . . . . . 4.4 Fast sichere Konvergenz . . . . . . . . . . . . . . 4.5 Martingalungleichungen . . . . . . . . . . . . . . 4.6 Martingalkonvergenz in Lp . . . . . . . . . . . . 4.7 Gleichgradige Integrierbarkeit und Konvergenz in 4.8 Optional Stopping . . . . . . . . . . . . . . . . . 4.9 Verzweigungsprozesse . . . . . . . . . . . . . . . 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 41 41 47 49 51 53 55 57 63 . . . . . . . . . . . . L1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 66 68 71 76 79 81 81 84 88 . . . . . . . . . 1 Grundlagen 1.1 Motivation • Seien Xi , i ≥ 1, unabhängig mit P (Xi = 1) = 21 = P (Xi = −1) ∀i Ã∞ ! X Xi P konvergiert ? i i=1 ( p grün • Sei p ∈ [0, 1]. Wir färben jede Kante von Z mit Wahrscheinlichkeit 1 − p rot Θ (p) := Pp (∃ unendliche grüne Zusammenhangskomponente) ? d Wir werden zeigen: Θ (p) ∈ {0, 1} • Seien Xi , i ≥ 1, unabhängig, identisch verteilt, Sn = Unter welchen Voraussetzungen gilt: ³ P lim Sn n→∞ n n P i=1 Xi ´ = E [X1 ] = 1 ? ³ h i ´ 4 Stochastik 1: Xi ∈ L4 hinreichend E |X1 | < ∞ ³ h i ´ 1 Stochastik 2: Xi ∈ L1 hinreichend E |X1 | < ∞ • Unter welchen Voraussetzungen gilt: à lim P n→∞ ! Zb 12 Sn − E[Sn ] 1 √ e− 2 dxi ? a≤ p ≤b = 2π V ar(Sn ) a Stochastik 1: Xi ∼ Bernoulli( 12 ) Stochastik 2: Xi ∈ L2 3 1.2 Wahrscheinlichkeitsräume und Maßräume Wir modellieren ein Zufallsexperiment mit Hilfe eines Wahrscheinlichkeitsraumes Definition 1.2.1 Sei Ω 6= ∅. Ein Mengensystem F ⊆ P(Ω) heißt σ-Algebra auf Ω, falls gilt: (S1) Ω ∈ F (S2) A ∈ F ⇒ Ac ∈ F (S3) A1 , A2 , . . . ∈ F ⇒ ∞ S i=1 Ai ∈ F (Ω, F ) heißt messbarer Raum oder Ereignisraum Falls (S1), (S2) und (S30 ) A1 , A2 ∈ F ⇒ A1 ∪ A2 ∈ F gelten, so heißt F Algebra. Definition 1.2.2 Sei F eine Algebra auf Ω. Eine Funktion µ : F → [0, ∞] heißt Maß, falls gilt: (M1) µ(∅) = 0 (M2) A1 , A2 , . . . paarweise disjunkt und ∞ S i=1 Ai ∈ F ⇒ µ µ∞ S i=1 ¶ Ai = ∞ P i=1 µ(Ai ) µ heißt: • Wahrscheinlichkeitsmaß, falls µ(Ω) = 1 • endliches Maß, falls µ(Ω) < ∞ • σ-endliches Maß, falls Ai ∈ F existieren mit Ω = ∞ S i=1 Ai und µ(Ai ) < ∞ ∀i Beispiele 1.2.3 Lebesgue-Maß auf – R ist σ-endlich – einem endlichen Intervall ist endlich – [0, 1] ist ein Wahrscheinlichkeitsmaß Diskrete Wahrscheinlichkeitsräume Sei (Ω, F , P ) ein Wahrscheinlichkeitsraum (d.h. F ist σ-Algebra auf Ω, P ist Wahrscheinlichkeitsmaß auf (Ω, F )) und sei Ω abzählbar. Dann gilt: X P (A) = %(ω) mit %(ω) = P ({ω}) ∀ω ∈ Ω für alle A ∈ F ω∈A % ist eine Zähldichte, d.h. % ≥ 0 und P ω∈Ω 4 %(ω) = 1 1.3 Zufallsvariablen Definition 1.3.1 Sei (Ω, F , P ) ein Wahrscheinlichkeitsraum und (S, S ) ein Ereignisraum. Eine Abbildung X : Ω → S heißt Zufallsvariable, falls X −1 (A) | {z } ∈ F ∀A ∈ S {ω∈Ω : X(ω)∈A} ={X∈A} Bemerkungen 1.3.2 • Falls Ω abzählbar ist und F = P(Ω), so ist jede Funktion X : Ω → S eine Zufallsvariable. • Ist (S, S = (Rd , B(Rd )), so heißt X Zufallsvektor. Definition 1.3.3 Definiere PX : S → [0, 1], A 7→ P (X −1 (A)) = P (X ∈ A). PX ist ein Wahrscheinlichkeitsmaß auf (S, S ), die Verteilung von X. Oft betrachten wir reellwertige Zufallsvariablen, d.h. (S, S ) = (R, B(R)). Definition 1.3.4 Die Verteilungsfunktion von X : Ω → R ist definiert durch F : R → [0, 1], x 7→ P (X ≤ x) Satz 1.3.5 Die Verteilungsfunktion F besitzt folgende Eigenschaften: i) F ist monoton wachsend und rechtsseitig stetig ii) lim F (x) = 1 und lim F (x) = 0 x→∞ x→−∞ Beweis Siehe Stochastik 1. Satz 1.3.6 Sei F : R → [0, 1] eine Funktion mit den Eigenschaften i) und ii). Dann gibt es eine Zufallsvariable, deren Verteilungsfunktion F ist. Beweis Setze Ω = (0, 1), F = B ((0, 1)) , P = Lebesgue-Maß auf (0, 1). X(ω) = sup{y : F (y) < ω}, ω ∈ (0, 1) X ist die (verallgemeinerte) Inverse von F . Es gilt: {ω : X(ω) ≤ x} = {ω : ω ≤ F (x)} 5 (?) Beweis von (?): ⊇“: ω ≤ F (x) ⇒ x ∈ / {y : F (y) < ω} ” ⇒ X(ω) ≤ x ⊆“: ω > F (x) ⇒ (∃ ε > 0), so dass F (x + ε) < ω, da F rechtsseitig stetig ” ⇒ x + ε ∈ {y : F (y) < ω} ⇒ X(ω) ≥ x + ε > x Also {ω : ω > F (x)} ⊆ {ω : X(ω) > x} ⇒ {ω : ω ≤ F (x)} ⊇ {ω : X(ω) ≤ x} =⇒ (?) bewiesen. (?) ⇒ P (X ≤ x) = P ({ω : ω ≤ F (x)}) = λ ((0, F (x))) = F (x) =⇒ X hat Verteilungsfunktion F . (λ – Lebesgue-Maß) Korollar 1.3.7 Falls F : R → [0, 1] die Eigenschaften i) und ii) besitzt, dann gibt es genau ein Wahrscheinlichkeitsmaß µ auf (R, B(R)), so dass µ((a, b]) = F (b) − F (a) ∀a < b Beweis Existenz: Es gibt eine Zufallsvariable X mit Verteilungsfunktion F . Sei µ die Verteilung von X. =⇒ µ ((a, b]) = P (X ∈ (a, b]) = F (b) − F (a) Eindeutigkeit: Seien µ1 und µ2 zwei Wahrscheinlichkeitsmaße auf (R, B(R)) mit µi ((a, b)) = F (b) − F (a) ∀a < b ∀i = 1, 2. Dann stimmen µ1 und µ2 auf π = {(a, b] : a < b} überein. Definition 1.3.8 Ein System Π ⊆ P(Ω) heißt π-System, falls es ∩-stabil ist, d.h. A, B ∈ Π ⇒ A ∩ B ∈ Π. Satz 1.3.9 (Eindeutigkeitssatz ) Sei Π ein π-System. Seien v1 und v2 Maße auf (Ω, F1 ) bzw. (Ω, F2 ). Falls a) v1 (A) = v2 (A) ∀A ∈ Π und b) ∃An ∈ Π mit An 1 Ω und vi (An ) < ∞ ∀n ∀i = 1, 2 dann stimmen v1 und v2 auf σ(Π) überein. 6 1.4 Beweis des Eindeutigkeitssatzes Definition 1.4.1 L ⊆ P(Ω) heißt λ-System, falls (L1) Ω ∈ L (L2) A, B ∈ L und B ⊆ A ⇒ A \ B ∈ L (L3) An ∈ L und An 1 A ⇒ A ∈ L Satz 1.4.2 (π-λ-Satz ) Sei Π ein π-System und L ein λ-System. Falls Π ⊆ L, dann gilt: σ(Π) ⊆ L Beweis (Idee: Satz ⇐ Beh.1 ⇐ Beh.2 ⇐ Beh.3) Sei `(Π) das kleinste λ-System, das Π enthält. Behauptung 1: `(Π) ist eine σ-Algebra. Beweis von Beh.1 ⇒ Satz: Es gelte Behauptung 1. σ(Π) ⊆ |{z} `(Π) `(Π) ist σ-Algebra und enthält Π ⊆ |{z} L ⇒ σ(Π) ⊆ L L ist ein λ-System mit Π⊆L Behauptung 2: `(Π) ist durchschnittstabil. Beweis von Beh.1 ⇒ Beh.2: Angenommen, `(Π) ist ein ∩-stabiles λ-System. Dann gilt: • Ω ∈ `(Π) nach (L1) ⇒ (S1) gezeigt • A ∈ `(Π) ⇒ Ac = Ω \ A ∈ `(Π) nach (L2) ⇒ (S2) gezeigt • A, B ∈ `(Π) ⇒ Ac , B c ∈ `(Π) ⇒ Ac ∩ B c ∈ `(Π), da `(Π) ∩-stabil ⇒ A ∪ B = (Ac ∩ B c )c ∈ `(Π) ⇒ `(Π) ist abgeschlossen unter endlichen Vereinigungen • A1 , A2 , . . . ∈ `(Π) ⇒ Wegen n S i=1 Ai 1 ∞ S i=1 n S i=1 Ai ∈ `(Π) Ai folgt aus (L3): =⇒ `(Π) ist σ-Algebra 7 ∞ S i=1 Ai ∈ `(Π) ⇒ (S3) gezeigt Behauptung 3: Sei GA = {B : A ∩ B ∈ `(Π)} : A ∈ `(Π) ⇒ GA ist ein λ-System Beweis von Beh.3 ⇒ Beh.2: Sei A ∈ Π. Dann ist Π ⊆ GA . Da GA nach Beh.3 ein λ-System ist, folgt `(Π) ⊆ GA , d.h. A ∈ Π und B ∈ `(Π) ⇒ A ∩ B ∈ `(Π) A und B in dieser Aussage vertauschen liefert: A ∈ `(Π) und B ∈ Π ⇒ A ∩ B ∈ `(Π) Es folgt für A ∈ `(Π): Beh.3 Π ⊆ GA ===⇒ `(Π) ⊆ GA D.h. A ∈ `(Π) und B ∈ `(Π) ⇒ A ∩ B ∈ `(Π) =⇒ `(Π) ist ∩-stabil Beweis von Behauptung 3: Sei A ∈ `(Π) (L1) A ∩ Ω = A ∈ `(Π) ⇒ Ω ∈ GA (L2) Seien B, C ∈ GA mit C ⊆ B. Dann gilt: A ∩ (B \ C) = (A ∩ B) \ (A ∩ C) ∈ `(Π) | {z } | {z } ∈`(Π) ∈`(Π) =⇒ B \ C ∈ GA (L3) Seien Bn ∈ GA mit Bn 1 B. Dann gilt: A ∩ Bn 1 A ∩ B | {z } ∈`(Π) =⇒ A ∩ B ∈ `(Π) ⇒ B ∈ GA Beweis des Eindeutigkeitssatzes 1.3.9: Sei A ∈ Π mit v1 (A) = v2 (A) < ∞ (existiert nach Voraussetzung a)) L = {B ∈ σ(Π) : v1 (A ∩ B) = v2 (A ∩ B)} Behauptung: L ist ein λ-System (L1) v1 (A ∩ Ω}) = v2 (A ∩ Ω}) ⇒ Ω ∈ L | {z | {z =A =A (L2) Seien B, C ∈ L mit C ⊆ B. Dann gilt: v1 (A ∩ (B \ C)) = v1 ((A ∩ B) \ (A ∩ C)) = v1 (A ∩ B) − v1 (A ∩ B) = v2 (A ∩ B) − v2 (A ∩ C), da B, C ∈ L = v2 (A ∩ (B \ C)) ⇒B\C ∈L (L3) Seien Bn ∈ L mit Bn 1 B. Dann gilt: A ∩ Bn 1 A ∩ B und v1 (A ∩ B) = lim v1 (A ∩ Bn ) da v1 stetig n→∞ | {z } = v2 (A∩B) = v2 (A ∩ B) ⇒B∈L =⇒ L ist λ-System 8 Nach Voraussetzung ist Π ⊆ L π-λ-Satz =====⇒ σ(Π) ⊆ L D.h. A ∈ Π mit v1 (A) = v2 (A) < ∞ und B ∈ σ(Π) ⇒ v1 (A ∩ B) = v2 (A ∩ B) (?) Seien An ∈ Π mit An 1 Ω und vi (An ) < ∞ ∀n = 1, 2 v1 und v2 stimmen auf Π überein ⇒ v1 (An ) = v2 (An ) (?) impliziert für alle B ∈ σ(Π): v1 (An ∩ B) = v2 (An ∩ B) ∀n An ∩ B 1 B: Grenzwertbildung n → ∞ ⇒ v1 (B) = v2 (B) ⇒ v1 und v2 stimmen auf σ(Π) überein. 1.5 Mehr über Zufallsvariablen Definition 1.5.1 d Wir schreiben X = Y , falls X und Y dieselbe Verteilung besitzen (d wie distribution“ = Vertei” lung) d Vorsicht: X = Y ; X(ω) = Y (ω) ∀ω ∈ Ω X und Y können auf verschiedenen Wahrscheinlichkeitsräumen definiert sein Beispiele von Verteilungsfunktionen F 1.5.2: Zx a) F (x) = Z∞ mit f (y) dy ∀x ∈ R mit einer Lebesgue-Messbaren Funktion f : R → [0, ∞) −∞ f (x) dx = 1 −∞ F heißt absolut stetig bzgl. des Lebesguemaßes, f heißt Wahrscheinlichkeitsdichte Beispiele: Normalverteilung, Exponentialverteilung, . . . b) Sei X : Ω → R eine diskrete Zufallsvariable mit möglichen Werten an , n ≥ 1, und sei pn = P (X = an ). ∞ P Dann hat X die Verteilungsfunktion F (x) = pn 1[an ,∞) (x), x ∈ R n=1 Beispiele: Binomial, Poisson, Geometrisch, . . . Satz 1.5.3 Seien (Ω, F ), (S, S ) Ereignisräume, sei X : Ω → S und sei Falls {ω ∈ Ω : X(ω) ∈ A} ∈ F für alle A ∈ A, dann ist X eine Zufallsvariable 9 A ⊆ S , so dass σ(A) = S . Beweis Zu zeigen: {X ∈ C} ∀C ∈ S Sei C = {C : {X ∈ C} ∈ F } Behauptung: C ist eine σ-Algebra (S1) {X ∈ S} = Ω ∈ F ⇒ S ∈ C (S2) C ∈ C ⇒ {X ∈ C} ∈ F ⇒ {X ∈ C c } = {X ∈ C}c ∈ F ⇒C∈C ∞ S (S3) Cn ∈ C ⇒ Cn ∈ C: analog n=1 Nach Voraussetzung: A ⊆ C ⇒ σ(A) ⊆ C | {z } =S ⇒ X ist eine Zufallsvariable. Beispiel 1.5.4: B(R) = σ ({(a, b) : a < b, a, b ∈ R}) = σ ({(a, b) : a < b, a, b ∈ Q}) Definition 1.5.5 σ(X) := {X −1 (B) : B ∈ S } heißt die von X erzeugte σ-Algebra, X : Ω → S, (S, S ) Satz 1.5.6 Seien X : (Ω, F ) → (S, S ) und f : (S, S ) → (T, T) messbar, d.h. X : Ω → S mit X −1 (B) ∈ F ∀B ∈ S und f : S → T mit f −1 (C) ∈ S ∀C ∈ T. Dann ist auch f (X) : (Ω, F ) → (T, T) messbar. Beweis: Für alle A ∈ T gilt: (f (X))−1 (A) = (f ◦ X)−1 (A) = X −1 (f −1 (A)) | {z } ∈S | {z } ∈F Beispiele: Mit X sind auch X 2 , X k , eX , sin X, etc. Zufallsvariablen. Satz 1.5.7 Seien X1 , X2 , . . . , Xn : Ω → R Zufallsvariablen, f : (Rn , B(Rn )) → (R, B(R)) messbar. Dann ist f (X1 , X2 , . . . , Xn ) : Ω → R eine Zufallsvariable. Beweis Nach Satz 1.5.6 genügt es zu zeigen, dass (X1 , X2 , . . . , Xn ) : Ω → R messbar ist. Für A1 , A2 , . . . , An ∈ B(R) gilt: n T {(X1 , X2 , . . . , Xn ) ∈ A1 × A2 × . . . × An } = {Xi ∈ Ai } ∈ F {z } i=1 | ∈F Da {A1 × A2 × . . . × An : Ai ∈ B(R) ∀i} B(R) erzeugt, folgt die Behauptung aus Satz 1.5.3. 10 Beispiele: f (x1 , . . . , xn ) = n P xi oder i=1 1 n n P i=1 xi oder n P i=1 xi 2 oder 1 n−1 n P (xi − i=1 1 n n P j=1 xj )2 Satz 1.5.8 Sind X1 , X2 , . . . Zufallsvariablen, so sind auch inf Xn und lim Xn n bzw. n sup Xn und lim Xn n n Zufallsvariablen. Beweisidee {inf Xn < a} = S n n {sup Xn ≤ a} = n {Xn < a} ∈ F | {z } T n ∈F {Xn ≤ a} ∈ F lim Xn = sup inf Xm , etc. n m≥n n Korollar 1.5.9 n o ω : lim Xn (ω) existiert ∈ F n→∞ Beweis ¾ n o ½ ω : lim Xn (ω) existiert = lim Xn = lim Xn . n→∞ n n Bemerkung 1.5.10: Sind Xt , t ∈ [0, 1] (t reell), Zufallsvariablen, so ist inf Xt nicht notwendigerweise eine 0≤t≤1 Zufallsvariable. Beispiel: Ω = [0, 1], F = B([0, 1]), P = λ = Lebesgue-Maß ( 1 falls t = ω und ω ∈ /A Xt (ω) = 0 sonst Dann gilt: inf Xt (ω) = 0≤t≤1 ( 1 0 ω∈A ω∈ /A ) = 1A (ω) Dies ist nicht messbar, falls A ∈ /F Definition 1.5.11 (Xn )n≥1 konvergiert fast sicher, falls P ³ ´ lim Xn existiert = 1 n→∞ 11 Von Interesse: X1 , X2 , . . . unabhängig, identisch verteilt. Was lässt sich sagen über à ! n X Sn lim Sn , lim Sn , lim ? Sn = Xi n→∞ n→∞ n n i=1 1.6 Integration bzgl. eines Wahrscheinlichkeitsmaßes Sei (Ω, F , µ) Z ein Wahrscheinlichkeitsraum. Wir wollen f dµ für eine Klasse messbarer Funktionen f : Ω → R definieren. Schritt 1: ϕ : Ω → R heißt eine einfache Funktion, falls ϕ(ω) = n P i=1 Mengen Ai ∈ F Wir definieren Z ϕdµ := n X ai 1Ai (ω) mit ai ∈ R, disjunkten ai µ(Ai ) i=1 (Da die ai nicht verschieden sein müssen, ist die Darstellung von ϕ nicht eindeutig. Man Z kann zeigen, dass ϕdµ wohldefiniert ist.) Schritt 2: Sei f : Ω → R messbar und beschränkt. Wir möchten, dass das Integral folgende Eigenschaft hat: Sind ϕ und ψ einfache Funktionen mit ϕ ≤ f ≤ ψ, so soll gelten Z Z Z ϕdµ ≤ f dµ ≤ ψdµ Daher definieren wir Z Z f dµ = sup Z ϕdµ = ϕ einf. Fkt. ϕ≤f inf ψ einf. Fkt. ψ≥f ψdµ Z (Man kann zeigen, dass f dµ wohldefiniert ist) Schritt 3: Sei f ≥ 0 messbar. Setze ½Z ¾ Z f dµ = sup hdµ : 0 ≤ h ≤ f, h messbar und beschränkt 12 Schritt 4: Z Sei f : Ω → R messbar. f heißt integrierbar, falls |f |dµ < ∞. Seien f + (x) = max{f (x), 0} und f − (x) = max{−f (x), 0} Positiv- und Negativteil von f Es gilt: f (x) = f + (x) − f − (x) und |f (x)| = f + (x) + f − (x) Wir definieren: Z Z f dµ = Notation: Für A ∈ F definieren wir Z + f − dµ f dµ − Z Z f dµ = (f 1A )dµ A 1.7 Erwartungswert Definition 1.7.1 Sei X : Ω → R eine Zufallsvariable auf einem Wahrscheinlichkeitsraum (Ω, F , P ). Der Erwartungswert von X ist definiert durch Z Z E[X] = XdP = X(ω)P (dω) Ω wenn dieses Integral Sinn ergibt. Spezialfälle 1.7.2: a) Sei X eine Zufallsvariable mit Wahrscheinlichkeitsdichte f . Dann ist Z∞ E[X] = yf (y)dy −∞ wenn dieses Integral Sinn ergibt. b) Sei X eine diskrete Zufallsvariable mit P (X = an ) = pn , n = 1, 2, . . . , ∞ P E[X] = an pn ∞ P n=1 pn = 1 Dann gilt: n=1 wenn diese Reihe Sinn ergibt. Beweis: Direkt aus der Definition des Erwartungswertes herleiten. Satz 1.7.3 Seien X, Y Zufallsvariablen, a, b ∈ R. Sofern alle auftretenden Erwartungswerte Sinn machen, gilt: i) E[X + Y ] = E[X] + E[Y ] ii) E[aX + b] = aE[X] + b iii) X ≤ Y ⇒ E[X] ≤ E[Y ] 13 1.8 Konvergenzsätze Im folgenden seien Xn , X, Y Zufallsvariablen auf demselben Wahrscheinlichkeitsraum. Lemma 1.8.1 (von Fatou) Sind Xn ≥ 0, so gilt: · lim E[Xn ] ≥ E n→∞ ¸ lim Xn n→∞ Bemerkung 1.8.2: Dies kann eine strikte Ungleichung sein. Beispiel: Ω = (0, 1), F = B((0, 1)), P = λ, Xn (ω) = n1 • E[Xn ] = 1 ∀n • lim Xn (ω) = 0 ⇒ 1 (ω). (0, n ) Dann gilt: linke Seite = 1 ∀ω ∈ Ω ⇒ rechte Seite = 0 n→∞ Satz 1.8.3 (über monotone Konvergenz ) Falls Xn ≥ 0 und Xn 1 X, so gilt: E[Xn ] 1 E[X] Satz 1.8.4 (über dominierte Konvergenz ) i) Xn −−−−→ X fast sicher n→∞ ii) ∃Y mit E[|Y |] < ∞, so dass |Xn | ≤ Y für alle n Dann gilt: lim E[Xn ] = E[X] n→∞ Falls Y in ii) durch eine Konstante ersetzt werden kann, so spricht man von beschränkter Konvergenz 1.9 Erwartungswert einer Funktion einer Zufallsvariable Satz 1.9.1 Sei X : Ω → Rd eine Zufallsvariable auf einem Wahrscheinlichkeitsraum (Ω, F , P ) mit Verteilung µ und ferner sei h : Rd → R eine Borel-messbare Funktion (d.h. h : (Rd , B(Rd )) → (R, B(R)) Z messbar). Dann gilt: E[h(X)] = h(x)µ(dx) falls eine der beiden Seiten Sinn ergibt. Rd 14 Beweis: Fall 1: h = n P i=1 ai 1Ai einfache Funktion. Dann ist E[h(X)] = E " n X # ai 1Ai (x) = i=1 n X i=1 Z ai P (X ∈ Ai ) = | {z } =µ(Ai ) h(x)µ(dx) Rd Fall 2: h ≥ 0. Dann gibt es einfache Funktionen hn ≥ 0 mit hn 1 h für n → ∞ h i Es gilt: E[h(X)] = E lim hn (X) = lim E[hn (X)] = n→∞ n→∞ Z Z = lim hn (x)µ(dx) = lim hn (x) µ(dx) n→∞ n→∞ | {z } d d R R h(x) + − Fall 3: Allgemeines h. Schreibe h = h − h . Dann gilt: Z Z Z E[h(X)] = E[h+ (X)] − E[h− (X)] = h+ (x)µ(dx) − h− (x)µ(dx) = h(x)µ(dx) Rd Rd Rd Beispiele 1.9.2: a) Hat X die Wahrscheinlichkeitsdichte f , so gilt: Z E[h(X)] = h(x)f (x)dx Rd b) Ist X diskret mit Werten an , n ≥ 1, so gilt: E[h(X)] = ∞ X h(an )P (X = an ) n=1 Notation 1.9.3: E[X n ] heißt n-tes Moment von X, n ∈ N. Ist E[X 2 ] < ∞, definieren wir die Varianz von X durch: £ ¤ V ar(X) = E (X − E[X])2 = E[X 2 ] − (E[X])2 1.10 Ungleichungen Jensen Ungleichung 1.10.1 Sei ϕ : R → R konvex, d.h. ϕ(λx + (1 − λ)y) ≤ λϕ(x) + (1 − λ)ϕ(y) Dann gilt: ϕ(E[X]) ≤ E[ϕ(X)] 15 ∀x, y ∈ R, λ ∈ (0, 1) Anwendungen 1.10.2 • ϕ(x) = |x| ⇒ |E[X]| ≤ E[|X|] • ϕ(x) = |x|p mit p ≥ 1 ⇒ |E [X] |p ≤ E [|X|p ] (?) • Anwendung von (?) mit X = |Z|α , α > 0, liefert: 1 1 |E [|Z|α ] |p ≤ E [|Z|αp ] ⇒ (E [|Z|α ]) α ≤ (E [|Z|αp ]) αp p ≥ 1 ⇒ αp ≥ α 1 ⇒ α 7→ (E [|Z|α ]) α ist monoton wachsend. Insbesondere folgt: h i h i 0 • E |Z|α < ∞ ⇒ E |Z|α < ∞ ∀α0 < α • n-tes Moment von Z endlich ⇒ 1, 2, . . . , (n − 1)-te Moment von Z endlich Höldersche Ungleichung 1.10.3 Sei 1 < p < ∞ und q sei so gewählt, dass p1 + 1q = 1. Dann gilt: 1 1 E [|XY |] ≤ (E [|X|p ]) p (E [|Y |q ]) q Spezialfall: p = q = 2: Cauchy-Schwarz-Ungleichung Markov-Ungleichung 1.10.4 Sei f : [0, ∞) → [0, ∞) monoton wachsend, f (x) > 0 Es gilt: E[f (|X|)] P (|X| ≥ a) ≤ f (a) Anwendungen ∀a > 0 : E[|X|] a E[|X|p ] b) P (|X| ≥ a) ≤ ap a) P (|X| ≥ a) ≤ V ar(X) a2 E[(X − E[X])4 ] d) P (|X − E[X]| ≥ a) ≤ a4 E[eλx ] e) P (X ≥ a) ≤ ∀λ > 0 eλx c) P (|X − E[X]| ≥ a) ≤ 16 ∀x > 0 ∀a > 0 1.11 Der Satz von Carathéodory Existenz von Wahrscheinlichkeitsmaßen Satz 1.11.1 (Carathéodory ) Sei µ ein σ-endliches Maß auf einer Algebra A. Dann besitzt µ eine eindeutige Fortsetzung auf σ(A). Beweis Eindeutigkeit: Jede Algebra ist ein π-System. Damit ist der Eindeutigkeitssatz anwendbar. ½∞ ¾ ∞ P S ? Existenz: Für E ⊆ Ω definiere µ (E) = inf µ(Ai ) : Ai ∈ A mit E ⊆ Ai i=1 i=1 Motivation dieser Definition: Angenommen ν ist ein Maß, das mit µ auf A übereinstimmt. Dann gilt für ∞ S alle Ai ∈ A mit E ⊆ Ai : i=1 Ã∞ ! ∞ [ X ν(E) ≤ ν Ai ≤ ν(Ai ) ⇒ ν(E) ≤ µ? (E) | {z } i=1 i=1 =µ(Ai ) Man kann zeigen: µ? (A) = µ(A) ∀A ∈ A ? Setze A = {E ⊆ Ω : µ? (F) = µ? (F ∩ E) + µ? (F ∩ E)c Man kann zeigen: ? •A⊆A ? • A ¯ ist σ-Algebra • µ¯A? ist ein Maß ∀F ⊆ Ω} ¾ ? ⇒ σ(A) ⊆ A 1.12 Produktmaße und der Satz von Fubini Seien (Ω1 , F1 , µ1 ) und (Ω2 , F2 , µ2 ) Wahrscheinlichkeitsräume. Setze F = σ(A1 × A2 : A1 ∈ F1 , A2 ∈ F2 ) Satz 1.12.1 Es gibt genau ein Wahrscheinlichkeitsmaß µ auf (Ω1 × Ω2 , F ) mit der Eigenschaft µ(A1 × A2 ) = µ1 (A1 )µ2 (A2 ) ∀A1 ∈ F1 ∀A2 ∈ F2 Man schreibt F = F1 × F2 , µ = µ1 µ2 Zum Beweis Problem: {A1 × A2 : A1 ∈ F1 , A2 ∈ F2 } ist keine Algebra (nicht abgeschlossen unter Vereinigungen). Daher muss man µ zunächst auf eine Algebra fortsetzen, bevor man den Satz von Carathéodory anwenden kann. 17 Satz 1.12.2 (Fubini ) Z Sei f : Ω1 × Ω2 → R messbar. Falls f ≥ 0 oder |f |dµ < ∞, so gilt Z Z Z Z Z f dµ = f (x1 , x2 )µ2 (dx2 )µ1 (dx1 ) = f (x1 , x2 )µ1 (dx1 )µ2 (dx2 ) Ω1 ×Ω2 Ω1 Ω2 Ω2 Ω1 Sind (Ωi , Fi , µi ), 1 ≤ i ≤ n, Wahrscheinlichkeitsräume, so definiert man entsprechend µ = µ1 µ2 . . . µn auf Ω = Ω1 × . . . Ωn , F = σ(A1 × . . . × An : Ai ∈ Fi ) als das eindeutig bestimmte Wahrscheinlichkeitsmaß mit n Y µ(A1 × . . . × An ) = µi (Ai ) ∀Ai ∈ Fi i=1 Auch hier gilt Fubini. 1.13 Unabhängigkeit Definition 1.13.1 Es sei (Ω, F , P ) ein Wahrscheinlichkeitsraum i) Ereignisse A und B sind unabhängig falls P (A ∩ B) = P (A)P (B) ii) Zufallsvariablen X und Y sind unabhängig, falls P (X ∈ C, Y ∈ D) = P (X ∈ C)P (Y ∈ D) ∀C, D ∈ B(R) iii) σ-Algebren F1 und F2 sind unabhängig, falls P (A1 ∩ A2 ) = P (A1 )P (A2 ) ∀A1 ∈ F1 , A2 ∈ F2 i) ist ein Spezialfall von ii); ii) ist ein Spezialfall von iii). Proposition 1.13.2 a) Ereignisse A und B sind unabhängig ⇐⇒ 1A und 1B sind unabhängig. b) Zufallsvariablen X und Y sind unabhängig ⇐⇒ σ(X) und σ(Y ) sind unabhängig. Beweis Übung. Definition 1.13.3 i) Ereignisse Ai , i ∈ I, sind unabhängig, falls für jede endliche Menge ∅ 6= J ⊆ I gilt: ³ T ´ Q P Aj = P (Aj ) j∈J j∈J ii) Zufallsvariablen Xi , i ∈ I, sind unabhängig, falls für jede endliche Teilmenge ∅ 6= J ⊆ I gilt: ³ T ´ Q P {Xj ∈ Bj } = P (Xj ∈ Bj ) ∀Bj ∈ B(R) j∈J j∈J iii) σ-Algebren Fi , i ∈ I, sind unabhängig, falls für jede endliche Teilmenge ∅ 6= J ⊆ I gilt: ³ T ´ Q P Aj = P (Aj ) ∀Aj ∈ Fj j∈J j∈J 18 Bemerkung 1.13.4 Angenommen 1A1 , . . . , 1An sind unabhängig. Dann gilt für jede endliche Teilmenge ∅ 6= J ⊆ {1, . . . , n}: ³ T ´ ³ T ´ Q P Aj = P {1Aj = 1} = P (1Aj = 1) {z } j∈J j∈J j∈J | =P (Aj ) ⇒ A1 , . . . , An sind unabhängig. Definition 1.13.5 Systeme A1 , . . . , An von Mengen sind unabhängig, falls für alle ∅ 6= I ⊆ {1, . . . , n} gilt: ³T ´ Q P Ai = P (Ai ) ∀Ai ∈ Ai i∈I i∈I Falls Ω ∈ Ai ∀i, dann genügt es J = {1, . . . , n} zu betrachten. " ( # T T Ai falls i ∈ J Ai = Bi Bi = Ω sonst i∈J i∈{1,...,n} Satz 1.13.6 Sind A1 , . . . , An unabhängige π-Systeme, so sind σ(A1 ), . . . , σ(An ) unabhängig. Beweis Setze Ji = Ai ∪ {Ω}. Jedes Ji ist ein π-System und es gilt: ³T ´ n n Q P Bi = P (Bi ) ∀Bi ∈ Ji i=1 i=1 Seien B2 ∈ J2 , . . . , Bn ∈ Jn fest. Setze L = {A ∈ F : P (A ∩ B2 ∩ . . . ∩ Bn ) = P (A)P (B2 ) . . . P (Bn )} Es gilt • J1 ⊆ L, da J1 , . . . , Jn unhabhängig • L ist ein λ-System (L1) Ω ∈ L (L2) Seien A, B ∈ L mit A ⊆ B. Dann gilt: P ((B \ A) ∩ B2 ∩ . . . ∩ Bn ) = = P ((B ∩ B2 ∩ . . . ∩ Bn ) \ (A ∩ B2 ∩ . . . ∩ Bn )) = = P (B ∩ B2 ∩ . . . ∩ Bn ) − P (A ∩ B2 ∩ . . . ∩ Bn ) = = (P (B) − P (A)) P (B2 ) . . . P (Bn ) = = P (B \ A)P (B2 ) . . . P (Bn ) ⇒B\A∈L (L3) Seien Ak ∈ L mit Ak 1 A. Dann gilt: P (A ∩ B2 ∩ . . . ∩ Bn ) = lim P (Ak ∩ B2 ∩ . . . ∩ Bn ) = n→∞ = lim P (Ak ) P (B2 ) . . . P (Bn ) k→∞ | {z } =P (A) ⇒A∈L 19 π-λ-Satz Also L λ-System, J1 ⊆ L =====⇒ σ(J1 ) ⊆ L D.h. σ(J1 ) , A2 , . . . , An unabhängig | {z } =σ(A1 ) Induktiv folgt die Behauptung. Korollar 1.13.7 Falls für alle x1 , . . . , xn ∈ (−∞, ∞] P (X1 ≤ x1 , . . . , Xn ≤ xn ) = n Q i=1 P (Xi ≤ xi ) gilt, so sind X1 , . . . , Xn unabhängig. Beweis Setze Ai = {{Xi ≤ xi } : xi ∈ (−∞, ∞]} – Ai ist ein π-System. Nach Voraussetzung sind A1 , . . . , An unabhängig. Aus Satz 1.13.6 folgt: σ(A1 ) , . . . , σ(An ) sind unabhängig. | {z } | {z } =σ(X1 ) =σ(Xn ) Korollar 1.13.8 F11 Seien ... ... F1m1 , ³m ´ Si .. unabhängige σ-Algebren und sei J = σ A : A ∈ F i ij ij ij . Fn1 ... Fnmn j=1 Dann sind J1 , . . . , Jn unabhängig. Beweis Sei Ai Ai = nm Ti j=1 o Aij : Aij ∈ Fij ist ein π-System, A1 , . . . , An sind unabhängig 1.13.6 ===⇒ σ(A1 ), . . . , σ(An ) sind unabhängig. Wegen Ji ⊆ σ(Ai ) ∀i sind J1 , . . . , Jn unabhängig. Korollar 1.13.9 X11 Seien ... ... X1m1 , .. unabhängige Zufallsvariablen und seien fi : Rmi → R messbar, 1 ≤ i ≤ n. . Xn1 ... Xnmn Dann sind fi (Xi1 , Xi2 , . . . , Ximi ), 1 ≤ i ≤ n, unabhängig. Beispiele 1.13.10 Seien X1 , . . . , Xn unabhängig • Sind fi : R → R messbar, so sind f1 (X1 ), . . . , fn (Xn ) unabhängig. n m P P • Setze Sn = Xi . Für m < n sind Sn − Sm = Xi und max Sj unabhängig. i=1 i=m+1 20 1≤j≤m Satz 1.13.11 Seien X1 , . . . , Xn unabhängige Zufallsvariablen und Xi habe die Verteilung µi . Dann hat (X1 , . . . , Xn ) die Verteilung µ1 . . . µn Beweis Für A1 , . . . , An ∈ B(R) gilt: P ((X1 , . . . , Xn ) ∈ A1 × A2 × . . . × An ) = P = n Q ³T n ´ {Xi ∈ Ai } = i=1 P (Xi ∈ Ai ) = (µ1 . . . µn )(A1 × . . . × An ) {z } i=1 | =µi (Ai ) D.h. die Verteilung von (X1 , . . . , Xn ) stimmt mit µ1 . . . µn auf Π = {A1 × . . . × An : Ai ∈ B(R) ∀i} überein. Π ist ein π-System, daher stimmen die beiden Maße nach dem Eindeutigkeitssatz auf σ(Π) = B(Rn ) überein. Satz 1.13.12 Seien X und Y unabhängig mit Verteilungen µ und ν. Ist h : R2 → R messbar und h ≥ 0 oder E[|h(X, Y )|] < ∞, so gilt: ZZ E[h(X, Y )] = h(x, y)µ(dx)ν(dy) Beweis Z E[h(X, Y )] = ZZ hd(µ ν) = h(x, y)µ(dx)ν(dy). R2 Spezialfall von Satz 1.13.12 X, Y unabhängig mit Verteilungen µ bzw. ν. h(x, y)³= f (x)g(y) mit f, g : R → R messbar und ´ (f ≥ 0, g ≥ 0) oder (E[|f (X)|] < ∞ und E[|g(Y )|] < ∞) Dann gilt: E[f (X)g(Y )] = E[f (X)] E[g(Y )] Beweis Wende Satz 1.13.12 an: ZZ E[f (X)g(Y )] = f (x)f (y)µ(dx)ν(dy) = Z = Z f (x)µ(dx) g(y)ν(dy) = E[f (X)] E[g(Y )] Satz 1.13.13 Sind X1 , . . . , Xn unabhängig mit Xi ≥ 0 ∀i, oder E[|Xi |] < ∞ ∀i, so gilt: hQ i n n Q E Xi = E[Xi ] i=1 i=1 Beweis Übung. 21 Satz 1.13.14 Sind X und Y unabhängig mit Verteilungen µ und ν, so gilt: Z P (X + Y ∈ A) = µ (A − y) ν(dy) ∀A ∈ B(R) | {z } ={x−y : x ∈A} Beweis Anwendung von Satz 1.13.12 mit h(x, y) = 1A (x + y): ZZ Z P (X + Y ∈ A) = E[1A (X + Y )] = 1A (x + y) µ(dx)ν(dy) = µ(A − y)ν(dy) | {z } =1A−y (x) Definition 1.13.15 Z Das Wahrscheinlichkeitsmaß (µ ∗ ν)(A) = µ(A − y)ν(dy) heißt die Faltung von µ und ν. R Bemerkung 1.13.16 Hat µ die Wahrscheinlichkeitsdichte f , so hat µ ∗ ν die Wahrscheinlichkeitsdichte Z h(x) = f (x − y)ν(dy), x ∈ R R Hat ν die Wahrscheinlichkeitsdichte g, so hat µ ∗ ν die Wahrscheinlichkeitsdichte Z x 7→ f (x − y)g(y)dy R 1.14 Konstruktion von unabhängigen Zufallsvariablen Endlich Viele 1.14.1 Gegeben: Verteilungsfunktionen F1 , . . . , Fn Gesucht: Unabhängige Zufallsvariablen X1 , . . . , Xn mit P (Xi ≤ x) = Fi (x) ∀x ∈ R ∀1 ≤ i ≤ n Sei µi das eindeutig bestimmte Wahrscheinlichkeitsmaß auf (R, B(R)) mit µi ((a, b]) = Fi (b) − Fi (a) ∀a < b ∀i Setze Ω = Rn , F = B(R), P = µ1 . . . µn , Xi : Ω → R, (ω1 , . . . , ωn ) 7→ ωi Unendlich Viele 1.14.2 Fortsetzungssatz von Kolmogorov Seien νn Wahrscheinlichkeitsmaße auf (Rn , B(Rn )), die in folgendem Sinne konsistent sind: νn+1 ((a1 , b1 ] × . . . × (an , bn ] × R) = νn ((a1 , b1 ] × . . . × (an , bn ]) ∀n ≥ 1, ∀ai < bi Dann gibt es genau ein Wahrscheinlichkeitsmaß auf (RN , RN ) mit P (ω = (ωi )i∈N : ωi ∈ (ai , bi ] ∀1 ≤ i ≤ n) = νn ((a1 , b1 ] × . . . × (an , bn ]) ∀n, ∀ai < bi Dabei ist RN die von den Mengen {ω = (ωi )i∈N : ωi ∈ Ai ∀1 ≤ i ≤ n}, Ai ∈ B(R), n ∈ N erzeugte σ-Algebra. 22 Gegeben: Verteilungsfunktionen F1 , F2 , . . . Gesucht: Unabhängige Zufallsvariablen Xi mit Verteilungsfunktionen Fi , i ≥ 1 Sei µi das eindeutig bestimmte Wahrscheinlichkeitsmaß auf (R, B(R)) mit µi ((a, b]) = Fi (b) − Fi (a) ∀a < b ∀i Wende den Fortsetzungssatz von Kolmogorov an mit νn = µ1 . . . µn Setze Ω = RN , F = RN , P = eindeutige Fortsetzung der νn , Xn : Ω → R, (ωi )i∈N 7→ ωn 1.15 Konvergenz von Folgen von Zufallsvariablen Definition 1.15.1 Seien X1 , X2 , . . . Zufallsvariablen auf einem Wahrscheinlichkeitsraum (Ω, F , P ). ³n o´ a) Xn → X fast sicher, falls P ω : lim Xn (ω) = X(ω) =1 n→∞ b) Xn → X in Wahrscheinlichkeit, falls für alle ε > 0: lim P (|Xn − X| > ε) = 0 n→∞ h i p p c) Sei p > 0. Wir schreiben Y ∈ L , falls E |Y | < ∞. h i Xn → X in Lp , falls Xn ∈ Lp und lim E |Xn − X|p = 0 n→∞ Konvergenz-Diagramm 1.15.2 Satz 1.15.3 a) Sei p1 < p2 , dann gilt: Xn → X in Lp2 ⇒ Xn → X in Lp1 ³ ´ b) Xn → X in Lp oder fast sicher ⇒ Xn → X in Wahrscheinlichkeit c) Es gelte |Xn | ≤ Y für alle n mit einer Zufallsvariablen Y ∈ Lp . Dann gilt: Xn → 0 in Wahrscheinlichkeit ⇒ Xn → 0 in Lp 23 Beweis ³ a) E[|Xn − X|p1 ] ´ 1 p1 E[|Xn − X|p ] −−−−→ 0 n→∞ εp Z |Xn |p dP + |Xn |p dP b) Für alle ε > 0 gilt: P (|Xn − X| > ε) ≤ Z c) Sei ε > 0. E[|Xn |p ] = {|Xn |≤ε} | {z {|Xn |>ε} } | ≤εp {z Z } p |Y | dP {|Xn |>ε} | {z } −− −−→ 0, da n→∞ (?) P (|Xn |>ε|) − − −−→ 0 n→∞ ⇒ lim E[|Xn |p ] ≤ εp n→∞ ε > 0 beliebig =⇒ lim E[|Xn |p ] = 0 n→∞ Warum gilt (?)?: Übungsaufgabe: Für Z ∈ L1 gilt: Z (∀ε > 0)(∃δ > 0)(∀A ∈ F mit P (A) < δ) |Z|dP < ε. A Beispiel 1.15.4 à ! Xn → X in W. ; Xn → X fast sicher für Xn → X in Lp ; Xn → X fast sicher ¯ ¯ Ω = [0, 1], F = B([0, 1]), P = λ¯ [0,1] i h i h i h i h i h i h 1 1 A1 = 0, 2 , A2 = 2 , 1 , A3 = 0, 14 , A4 = 14 , 14 , A5 = 12 , 43 , A6 = 34 , 1 , h i A7 = 0, 81 , usw. Xn = 1An Dann E[|Xn |p ] = P (An ) −−−−→ 0 n→∞ p =⇒ Xn −→ 0 in L und damit in Wahrscheinlichkeit. Aber: Xn konvergiert nicht fast sicher. 24 2 Gesetze der großen Zahlen 2.1 Schwaches Gesetz der großen Zahlen für L2 -Zufallsvariablen Definition 2.1.1 Zufallsvariablen Xi ∈ L2 , i ≥ 1, heißen unkorreliert, falls E[Xi Xj ] = E[Xi ]E[Xj ] ∀i 6= j Bemerkung unabhängig =⇒ unkorreliert Satz 2.1.2 (Schwaches Gesetz der großen Zahlen) Seien Xi ∈ L2 , i ≥ 1, unkorreliert mit E[Xi ] = µ und V ar(Xi ) ≤ C < ∞ ∀i Dann gilt für Sn = n P i=1 Xi : Sn P −→ µ n Beweis h³ S ´2 i ³S ´ hS i n n n Es gilt: E −µ = V ar , da E =µ n n n n 1 1 P = 2 V ar(Sn ) = 2 V ar(Xi ), da Xi , i ≥ 1, unkorreliert n n i=1 ¯ ¯ ³P ´ ³P ´ n n n n P P ¯ Xi = Cov Xi , Xj = Cov(Xi , Xj ) ¯ V ar ¯ {z } i=1 i=1 i=1 i,j=1 | = 0 ∀i6=j V ar(Xi ) ≤ C =⇒ 1 n2 n P i=1 V ar(Xi ) ≤ nC C = −−−−→ 0 n2 n n→∞ Sn =⇒ −→ µ in L2 und damit in Wahrscheinlichkeit. n Anwendung 2.1.3 Seien Xi , i ≥ 1, unabhängig, Xi ∼ P oisson(λ) ∀i Dann gilt: Sn ∼ P oisson(nλ) Sn P − →λ Aus dem schwachen Gesetz der großen Zahlen folgt: n ( ³S ´ 0 falls x ≤ λ n Damit folgt: P ≤ x = P (Sn ≤ nx) −−−−→ n→∞ n 1 falls x > λ 25 2.2 Mehr zum schwachen Gesetz der großen Zahlen Satz 2.2.1 Seien Xi , i ≥ 1, unabhängig und identisch verteilt. Es sind äquivalent: a) ∃an , so dass Sn − a n P −→ 0 n b) lim xP (|X1 | ≥ x) = 0 x→∞ Ohne Beweis Man kann an = nE[X1 1{|X1 |≤n} ] setzen. Beispiel 2.2.2 (in dem das schwache Gesetz der großen Zahlen nicht gilt) Z∞ Seien Xi , i ≥ 1, unabhängig und Cauchy-verteilt, d.h. P (Xi ≤ x) = −∞ Dann ist E[Xi+ ] = ∞ = E[Xi− ] =⇒ Xi ∈ / L1 Sn d Man kann zeigen, dass = X1 ∀n n Sn − an P =⇒ @an , so dass −→ 0 n Dies folgt auch aus Satz 2.2.1: Z∞ xP (|X1 | > x) = x · 2 · x 2 1 dt ≈ x 2 π π(1 + t ) Z∞ x 1 dt π(1 + t2 ) ∀x ∈ R 1 2 dt = −−− /−→ 0 2 t π n→∞ 2.3 Starkes Gesetz der großen Zahlen für L2 -Zufallsvariablen Definition 2.3.1 Setze für An ⊆ Ω ∞ S ∞ T lim An := Ai n→∞ lim An := n→∞ n=1 i=n ∞ T ∞ S n=1 i=n Ai Bemerkung 2.3.2 ω ∈ lim An ⇐⇒ ω ∈ Ai für unendlich viele i n→∞ ω ∈ lim An ⇐⇒ ω ∈ Ai für alle bis auf endlich viele i n→∞ Beispiel 2.3.3 ∞ n n o [ o 1 |Xn | > für unendlich viele n =: A Xn −−−/−→ 0 = i n→∞ i=1 ∞ n o n o \ 1 |Xn | ≤ für alle bis auf endlich viele n = Xn −−−−→ 0 Ac = n→∞ i i=1 Also : Xn → 0 fast sicher ⇐⇒ P (Xn 9 0) = 0 ⇐⇒ (∀ε > 0) P (|Xn | > ε unendlich oft) = 0 26 Satz 2.3.4 (1. Borel-Cantelli-Lemma) ∞ P Für Ereignisse An , n ≥ 1, gilt: P (An ) < ∞ =⇒ P (An unendlich oft) = 0 n=1 Beweis Stochastik 1. Satz 2.3.5 P Xn −→ X =⇒ Jede Teilfolge (Xn(m) )m≥1 enthält eine weitere Teilfolge (Xn(mk ) )k≥1 , so dass Xn(mk ) −−−−→ X fast sicher k→∞ Beweis P Da Xn −→ X, gibt es für jedes k ein n(mk ) > n(mk−1 ), so dass ³ 1´ P |Xn (mk ) − X| > ≤ 2−k k ³ ∞ P 1´ =⇒ P |Xn (mk ) − X| > <∞ k k=1 ³ ´ 1 Borel-Cantelli-Lemma =⇒ P |Xn (mk ) − X| > für unendlich viele k = 0 k ³ 1 ⇒ P |Xn (mk ) − X| ≤ für alle bis auf endlich viele) = 1 k ⇒ Xn (mk ) −−−−→ X fast sicher. k→∞ Satz 2.3.6 (Starkes Gesetz der großen Zahlen) Seien Xi , i ≥ 1, unkorreliert mit • E[Xi ] = µ ∀i • E[Xi2 ] < ∞ und V ar(Xi ) ≤ C < ∞ ∀i Dann gilt für Sn = n P i=1 Sn −−−−→ µ fast sicher n n→∞ Xi : Beweis OBdA sei µ = 0 (sonst betrachte Yi = Xi − E[Xi ]) Für ε > 0 gilt: ³¯ S ¯ ´ 1 ¯ n¯ P ¯ ¯>ε ≤ 2 n ε h³ S 2 ´i n E n } | {z = V ar 1 = n2 ³¯ S ¯ ´ C ¯ n¯ =⇒ P ¯ ¯ > ε ≤ 2 n ε n n P i=1 Markov-Ungleichung Sn n V ar(Xi ) | {z } ≤C 27 Idee: Betrachte ( Snn )n≥1 entlang der Teilfolge (n2 )n≥1 ³¯ S 2 ¯ ´ ∞ P C ¯ ¯ P ¯ n2 ¯ > ε ≤ <∞ 2 n2 n ε n=1 n=1 ³¯ S 2 ¯ ´ ¯ ¯ =⇒ P ¯ n2 ¯ > ε unendlich oft = 0 n ∞ P =⇒ (Borel-Cantelli) Sn2 −−−−→ 0 fast sicher n2 n→∞ Wir müssen die Fluktuationen zwischen den Gliedern der Teilfolge kontrollieren: Sei Dn = max n2 ≤k≤(n+1)2 Es ist E[Dn2 ] ≤ E[|Sk − 2 (n+1) P k=n2 Sn2 |2 ] = |Sk − Sn2 | E[|Sk − Sn2 |2 ], da max ≤ Summe V ar(Xn2 +1 + Xn2 +2 + . . . + Xk ), da E[Xi ] = 0 k P = V ar(Xi ) i=n2 +1 ≤ ((n + 1)2 − n2 )2 C =⇒ E[Dn2 ] ≤ ((n + 1)2 − n2 )2 C = (2n + 1)2 C Mit der Markov-Ungleichung folgt für alle ε > 0 : P (Dn > εn2 ) ≤ Insbesondere: ∞ P n=1 P (Dn > εn2 ) < ∞ Borel-Cantelli ⇒ P =⇒ E[Dn2 ] C(2n + 1)2 C0 ≤ ≤ ε2 n4 ε2 n4 ε2 n2 ³D n n2 ´ > ε für unendlich viele n = 0 Dn −−−−→ 0 fast sicher n2 n→∞ Konvergenz der ganzen Folge: Für jedes k ∈ N gibt es ein eindeutig bestimmtes n = n(k), so dass n2 ≤ k < (n + 1)2 . Es gilt: ¯S ¯ ¯S − S 2 + S 2 ¯ D |S 2 | ¯ k¯ ¯ k n n n ¯ + n ¯ ¯=¯ ¯≤ k k k k ¯ ¯ 2 2 Dn n n ¯S 2 ¯ + ¯ n2 ¯ · −−−−→ 0 fast sicher = · 2 n k k n→∞ |{z} |{z} |n {z } |{z} −→ 0 f.s n→∞ −→ 1 k→∞ ¯ ¯ ¯ ¯ 2 ¯ n k (n + 1)2 ¯ . ¯ n2 ≤ n2 ≤ 2 ¯ |{z} | n {z } ¯ =1 1 ¯ = (1+ )2 −→ 1 n −→ 0 f.s n→∞ −→ 1 k→∞ n→∞ 28 Anwendung 2.3.7 (Gesetz der normalen Zahlen – Borel 1908 ) ¯ Ω = [0, 1], F = B([0, 1]), P = λ¯[0,1] = Lebesgue-Maß auf [0, 1] Entwickle ω ∈ [0, 1] im Dezimalsystem: ω = 0.ξ1 (ω)ξ2 (ω)ξ3 (ω) . . . ª © m n Die Darstellung ist eindeutig bist auf ω ∈ E = 10 n : n ≥ 1, m ∈ {0, 1, . . . , 10 } Für ω ∈ E gibt es zwei Darstellungen, wir wählen diejenige, die abbricht. Beachte: P (E) = 0 ¯© ª¯ (n) Sei νk (ω) = ¯ i ∈ {1, . . . , n} : ξi (ω) = k ¯ die absolute Häufigkeit k unter den ersten n Nachkommastellen von ω, k ∈ {0, 1, . . . , 9} ω ∈ [0, 1] heißt normal, falls für alle k ∈ {0, 1, . . . , 9} gilt: (n) νk (ω) 1 existiert und ist n→∞ n 10 | {z } lim (?) (?) = relative Häufigkeit von k unter den ersten n Ziffern Satz 2.3.8 P (ω ∈ [0, 1] : ω ist normal) = 1 Beweis • ξi : Ω → {0, 1, . . . , 9} sind Zufallsvariablen ξ1 (ω) = b10ωc, wobei bxc = größte ganze Zahl ≤ x ξ2 (ω) = b100ω − 10ξ1 (ω)c etc. • ξi , i ≥ 1, sind unabhängig mit P (ξi = k) = 1 10 ∀k ∈ {0, 1, . . . , 9} Erläuterung am Beispiel: ¡ ¢ 1 P (ξ1 = 0, ξ2 = 2) = P (ω ∈ [0.02000 . . . , 0.02999 | {z . .}.) = 100 = 0.03 ³ ´ 1 P (ξ1 = 0) = P ω ∈ [0, 0.0999 . . .) = 10 ³ ´ 9 S 1 1 P (ξ2 = 2) = P ω ∈ [0.i200 . . . , 0.i299 . . .) = 10 · = 100 10 i=0 =⇒ P (ξ1 = 0, ξ2 = 2) = 1 = P (ξ1 = 0)P (ξ2 = 2) 100 Sei k ∈ {0, 1, . . . , 9} fest. Setze Xn = 1{ω∈[0,1]:ξn (ω)=k} . Xn , n ≥ 1, sind unabhängig und identisch verteilt, da die ξn , n ≥ 1, es sind. 1 Ferner gilt: E[Xn ] = P (ξn = k) = 10 V ar(Xn ) = V ar(X1 ) < ∞ ∀n Somit sind die Voraussetzungen des starken Gesetzes der großen Zahlen erfüllt und es folgt: (n) n νk 1 P 1 = fast sicher. Xi −−−−→ E[X1 ] = n→∞ n n i=1 10 29 2.4 Borel-Cantelli-Lemmata 1. Borel-Cantelli-Lemma: ∞ X P (An ) < ∞ =⇒ P (An unendlich oft) = 0 n=1 2.4.1 Gilt auch ∞ P n=1 P (An ) = ∞ =⇒ P (An unendlich oft) = 1? Nein. Gegenbeispiel: ¯ Ω = [0, 1], F = B([0, 1]), P = λ¯[0,1] , An = (0, an ) mit an −−−−→ 0 n→∞ =⇒ {An unendlich oft} = ∅, denn jedes x ∈ [0, 1] liegt höchstens in endlich vielen An =⇒ P (An unendlich oft) = 0 Aber für an = 1 n ∞ P gilt: n=1 P (An ) = ∞ P n=1 1 n =∞ Satz 2.4.2 (2. Borel-Cantelli-Lemma) Für unabhängige Ereignisse An , n ≥ 1, gilt: ∞ P P (An ) = ∞ =⇒ P (An unendlich oft) = 1 n=1 Beweis P (An unendlich oft) = P ³ T ∞ S ∞ n=1 i=n ´ Ai = lim P ³ S ∞ P stetig n→∞ von oben i=n ´ Ai µ ³S ´c ¶ ³ T ´ ∞ ∞ = lim 1 − P Ai = 1 − lim P Aci n→∞ P ³ T ∞ i=n Aci ´ ≤ P ∀N ∈N N ≥n ≤ 1−x≤e−x =⇒ P ³T ∞ i=1 ³ T N i=n Aci n→∞ i=1 ´ = N Q Ai , i≥1 i=n unabhängig P (Aci ) = ´ N ¡ P exp − P (Ai ) −−−−→ 0 ´ Aci = 0 N →∞ i=n ∀n =⇒ P (An unendlich oft) = 1. 30 N Q i=n (1 − P (Ai )) i=n Anwendungen 2.4.3 1) Sind Xn , n ≥ 1, identisch verteilt, so gilt Xn P −→ 0 n Beweis ³¯ X ¯ ´ ¯ n¯ P ¯ ¯ > ε = P (|X1 | > nε) −−−−→ 0 n→∞ n ∀ε > 0 2) Seien Xn , n ≥ 1, unabhängig und identisch verteilt. Wann gilt Xn −−−−→ 0 fast sicher? n n→∞ ³¯ X ¯ ´ Xn ¯ n¯ −→ 0 fast sicher ⇐⇒ (∀ε > 0) P ¯ ¯ > ε unendlich oft = 0 n n ´ ³¯ X ¯ ∞ P ¯ n¯ ⇐⇒ (∀ε > 0) P ¯ ¯>ε <∞ Boreln n=1 Cantelli ¯ ´ ³¯ ∞ P ¯ Xn ¯ ⇐⇒ (∀ε > 0) P ¯ ¯>n <∞ ε n=1 ⇐⇒ (∀ε > 0) E[|X1 |] < ∞ Falls E[|X1 |] = ∞, so folgt: (∀ε > 0) ∞ P n=1 P (| Xnn | > c) = ∞ 2. Borel-Cantelli-Lemma ⇒ (∀ε > 0) P (| Xnn > c unendlich oft) = 1 ¯X ¯ ¯ n¯ =⇒ lim ¯ ¯ = ∞ fast sicher n→∞ n (?) Korollar 2.4.4 Seien Xn , n ≥ 1, unabhängig und identisch verteilt mit E[|X1 |] = ∞. Dann gilt: ³ ´ Sn P lim existiert in (−∞, ∞) = 0 n→∞ n Beweis Sn+1 Sn + Xn+1 Sn n Xn+1 = = · + n+1 n+1 n n+1 n+1 n o n o Sn Xn =⇒ lim existiert in (−∞, ∞) ⊆ lim =0 n→∞ n n→∞ n ³ ´ Xn Wegen (?) gilt: P lim = 0 = 0. n→∞ n Beispiel 2.4.5 Seien Xi , i ≥ 1, unabhängig mit P (Xi = −1) = 12 = P (Xi = 1) ∀i ( max{k ≥ 1 : Xn−k+1 = . . . = Xn = +1} falls Xn = 1 `n = 0 falls Xn = −1 −1 X1 −1 X2 +1 X3 +1 X4 −1 X5 +1 X6 +1 X7 +1 X8 +1 X9 `5 = 0 `9 = 4 31 a) P (`n = 0 unendlich oft) = ? {`n = 0} = {Xn = −1}, n ≥ 1, sind unabhängig und ∞ P P (`n = 0) = ∞ {z } n=1 | 1 =2 2. Borel-Cantelli-Lemma ⇒ P (`n = 0 unendlich oft) = 1 b) P (`n = 1 unendlich oft) = ? {`n = 1} = {Xn = 1, Xn−1 = −1}, n ≥ 1, sind nicht unabhängig ∞ P Aber: {`2n = 1}, n ≥ 1, sind unabhängig und =∞ P (`2n = 1 | {z } n=1 = P (X1 =−1,X2 =1) 1 =4 2. Borel-Cantelli-Lemma ⇒ P (`2n = 1 unendlich oft) = 1 ⇒ P (`n = 1 unendlich oft) = 1. Analog Xi , i ≥ 1, unabhängig und gleichverteilt auf {a, b, . . ., z, A, . . ., Z, ., ;, !, §, . . .} P (Folge (Xi )i≥1 enthält Grundgesetz unendlich oft) = 1. 2.5 Starkes Gesetz der großen Zahlen für L1 -Zufallsvariablen Satz 2.5.1 Seien Xi , i ≥ 1, unabhängig und identisch verteilt mit E[|X1 |] < ∞. Dann gilt: Sn −−−−→ E[X1 ] fast sicher n n→∞ Beweis Etemadi 1981, einfacher mit Rückwärtsmartingalen. Korollar 2.5.2 Seien Xi , i ≥ 1, unabhängig und identisch verteilt mit E[Xi− ] < ∞ und E[Xi+ ] = +∞. Dann gilt: Sn −−−−→ ∞ fast sicher n n→∞ Beweis OBdA Xi ≥ 0 µ 1 n n P i=1 (c) ¶ Xi− −→ E[X1− ] ∈ R fast sicher Für c > 0 setze Xn = Xn 1{|Xn | ≤ c} . Es gilt: n n 1 P 1 P (c) starkes Gesetz (c) Xi ≥ X −−−−−−−−−→ E[X1 ] n→∞ n i=1 n i=1 i n 1 P (c) Xi ≥ E[X1 ] 1 E[X1 ] = +∞. n→∞ n i=1 c 1∞ =⇒ lim monotone Konvergenz 32 2.6 Anwendungen des starken Gesetzes der großen Zahlen Seien Xi , i ≥ 1, unabhängig und identisch verteilt mit Verteilungsfunktion F (d.h. P (Xi ≤ x) = F (x) ∀i ∈ R). n 1 P |{i ∈ {1, . . . , n} : Xi ≤ x}| 1{Xi ≤x} = Setze Fn (x) = , x∈R n i=1 n Beachte: Fn (x) = Fn (x, ω) Fn heißt empirische Verteilungsfunktion. Beispiel Satz 2.6.1 (Glivenko-Cantelli ) sup |Fn (x) − F (x)| −−−−→ 0 fast sicher n→∞ x∈R Beweis a) Sei x ∈ R fest. Setze Yi = 1{Xi ≤ x} . Dann sind Yi , i ≥ 1, unabhängig und identisch verteilt mit P (Yi = 1) = P (Xi ≤ x) und P (Yi = 0) = 1 = F (x) ⇒ E[Yi ] = F (x) Aus dem starken Gesetz der großen Zahlen folgt: n 1 P Fn (x) = Yi −−−−→ F (X) fast sicher n→∞ n i=1 Somit gibt es N (x) ∈ F , so dass P (N (x)) = 0 und Fn (x, ω) −−−−→ F (x) n→∞ S N (x). Setze N = ∀ω ∈ Ω \ N (x) x∈Q Dann ist N ∈ F mit P (N ) = 0 und Fn (x, ω) −−−−→ F (x) ∀ω ∈ Ω \ N ∀x ∈ Q n→∞ b) Sei J die abzählbare Menge der Sprünge von F . Für festes x ∈ J setze Zi = 1{Xi ≤ x} . Dann sind Zi , i ≥ 1, unabhängig und identisch verteilt mit E[Zi ] = P (Xi = x) = F (x) − F (x−) Aus dem starken Gesetz der großen Zahlen folgt: n 1 P Fn (x) − Fn (x−) = Zi −−−−→ E[Z1 ] = F (x) − F (x−) ∀ω ∈ Ω \ M (x), n→∞ n i=1 wobei M (x) ∈ F mit P (M (x)) = 0 S Setze M = N ∪ M (x). x∈J Dann ist M ∈ J mit P (M ) = 0 und Fn (x, ω) −−−−→ F (x) ∀ω ∈ M c ∀x ∈ Q Fn (x, ω) − Fn (x−, ω) −−−−→ F (x) − F (x−) n→∞ 33 n→∞ ∀ω ∈ M c ∀x ∈ J c) Die Behauptung folgt aus Lemma Seien Fn , F Verteilungsfunktionen, J = Menge der Sprünge von F . Falls Fn (x) −−−−→ F (x) ∀x ∈ Q und Fn (x)−Fn (x−) −−−−→ F (x)−F (x−) ∀x ∈ J, n→∞ n→∞ dann gilt: Fn −→ F gleichmäßig auf R. Erneuerungstheorie 2.6.2 Seien Xi , i ≥ 1, unabhängig und identisch verteilt, P (Xi ≥ 0) = 1, P (Xi = 0) < 1, Sn = n P i=1 Xi Beispiel Wir schalten zur Zeit 0 eine Energiesparlampe ein. Sobald sie kaputtgeht, erneuern wir sie, usw. Xi = Lebensdauer der i-ten Energiesparlampe. Sn = Zeitpunkt, zu dem die n-te Energiesparlampe kaputtgeht. Nt = sup{n : Sn ≤ t} = Anzahl der Lampen, die bis zur Zeit t kaputtgegangen sind. Satz Nt 1 −−−→ fast sicher t t→∞ µ Sei µ = E[X1 ] ∈ (0, ∞]. Es gilt: Beweis Aus dem starken Gesetz der großen Zahlen und seinem Korollar folgt: Sn −−−−→ µ fast sicher n n→∞ Wegen µ > 0 folgt daraus: Sn −−−→ ∞ fast sicher ⇒ Nt −−−→ ∞ fast sicher t→∞ t→∞ Es gilt: SNt Nt |{z} SNt ≤ t < SNt +1 ⇒ ≤ t SNt +1 Nt + 1 · < Nt Nt + 1 N | {z } | {zt } −→ µ f.s. −→ µ f.s. t→∞ t =⇒ −−−→ µ fast sicher Nt t→∞ 1 Nt −−−→ fast sicher =⇒ t t→∞ µ t→∞ −→ 1 f.s. t→∞ 2.7 Zufällige Reihen und Kolmogorovs 0-1-Gesetz Seien Xi , i ≥ 1, unabhängig. Frage: Wann konvergiert ∞ P i=1 Xi ? 34 Satz 2.7.1 Seien Xi , i ≥ 1, unabhängig mit E[Xi ] = 0 ∀i und Dann konvergiert ∞ P i=1 ∞ P i=1 E[Xi2 ] < ∞. Xi in Wahrscheinlichkeit. Beweis Setze Sn = n P Xi . Es gilt: i=1 n+m h i ³ n+m ´ X X E ( Sn+m − Sm )2 = V ar Xi = V ar(Xi ) (?) {z } | | {z } i=m+1 = Xm+1 +...+Xm+n i=m+1 = E[Xi2 ] (?) Xi unabhängig ∞ P Wegen i=1 E[Xi2 ] < ∞ folgt, dass (Sn )n≥1 , eine Cauchyfolge in L2 ist. 1 (d.h. bzgl. ||X||L2 = (E[X 2 ]) 2 ) L2 ist vollständig ⇒ (Sn )n≥1 konvergiert in L2 und damit in Wahrscheinlichkeit. Frage: Wie sieht es aus mit fast sicherer Konvergenz? ³P ´ ∞ Xi , i ≥ 1, unabhängig ⇒ P Xi konvergiert ∈ {0, 1}? i=1 Definition 2.7.2 Die terminale σ-Algebra der Zufallsvariablen Xi , i ≥ 1 (i = b Zeit), ist definiert durch ∞ T T= σ (Xn , Xn+1 , . . . ) {z } n=1 | alle Informationen ab Zeit n A ∈ T heißt terminales Ereignis. Intuitiv A ∈ T ⇐⇒ wenn man die Werte von endlich vielen Xi abändert, ändert das nicht das Eintreten des Ereignisses A Beispiele 2.7.3 a) {Xn ∈ An für unendlich viele n} = =⇒ {Xn ∈ An unendlich oft} ∈ ∞ S ∞ T {Xi ∈ Ai } ∀N ∈N n=1 i=n ∞ T = ∞ S ∞ T {Xi ∈ Ai } ∈ σ(Xi , i ≥ N ) n=N i=n σ(Xi , i ≥ N ) = T N =1 b) c) o nS o nX + X o n k k+1 + . . . + Xn −−−−→ 0 ∈ T, denn −−−−→ 0 = −−−−→ 0 n→∞ n n→∞ n n→∞ n {z | } nS © n n→∞ ∞ nX d) © = ∈ σ(Xi , i≥k) lim Sn > 5} ∈ /T | ∞ P i=1 o Xi konvergiert ∈ T {z ª Xi konv. } ∈ σ(Xi , i≥N ) ∀N i=N 35 ∀k Satz 2.7.4 (0-1-Gesetz von Kolmogorov ) Sind Xi , i ≥ 1, unabhängig, so gilt für alle A ∈ T : P (A) ∈ {0, 1} Lemma 2.7.5 Seien F1 ⊆ F2 ⊆ . . . σ-Algebren und sei F = σ(Fn , n ≥ 1) die kleinste σ-Algebra, die alle Fn enthält. Dann gilt: (∀A ∈ F ) (∀n ∈ N) (∃An ∈ Fn ) P (A 4 An ) −−−−→ 0, n→∞ wobei A 4 An = (A \ An ) ∪ (An \ A) die symmetrische Differenz bezeichne. Beweis © ª Setze A = A ∈ F : (∀n) (∃An ∈ Fn ) P (A 4 An ) −−−−→ 0 n→∞ Es gilt: i) Fn ⊆ A: Ist A ∈ Fn , wähle ( ∅ falls i < n Ai A falls i ≥ n =⇒ A ∈ ii) A A ist eine σ-Algebra: • A∈ A ⇒ Ac ∈ Wegen A ∈ c Es ist P (A A A : existieren An ∈ Fn mit P (A 4 An ) −−−−→ 0 n→∞ 4 Acn ) c Acn ) = P (A 4 An ) = P ((A \ ∪ (Acn \ Ac )) = P ((An \ A) ∪ (A \ An )) = P (A 4 An ) −−−−→ 0 n→∞ c =⇒ A ∈ A • A, B ∈ A ⇒ A ∩ B ∈ Übung: A : ¡ ¢ P (A 4 An ) −−−−→ 0 und P (B 4 Bn ) −−−−→ 0 ⇒ P (A∩B) 4 (An ∩Bn ) −−−−→ 0 n→∞ • Bn ∈ A ∞ S ⇒B= n=1 ∞ S n→∞ Bn ∈ Schreibe B = n=1 A n→∞ : Cn mit paarweise disjunkten Cn ∈ A. Es genügt zu zeigen: (∀ε > 0) (∃c ∈ Fm für ein m), so dass P (B 4 C) < ε (Liefert Ck ∈ Fmk mit P (B 4 Ck ) < k1 ) µ ¶ ∞ S ε , da % ∅ 2 i=n+1 n→∞ i=n+1 ³S ´c n n S Wegen Ci ∈ A ist Ci = Cic ∈ A i=1 i=1 µ³ n ¶ S ´ ε =⇒ ∃C ∈ Fm für ein m, so dass P Ci 4 C < 2 i=1 Sei ε > 0. ∃n mit P ∞ S Ci < 36 (1) (2) µ³ ∞ ´ ¶ S Es folgt: P (B 4 C) = P Ci 4 C i=1 ¶ µ³ ∞ ´ ¶ µ³ ∞ ¶ µ ´ ∞ S S S Ci \ C + P Ci \ C < ε =P C\ Ci + P i=1 i=n+1 i=1 | {z } | {z } ε < 2 nach (1) =⇒ ist σ-Algebra Fn liegt in A ∀n A A ε < 2 nach (2) ist σ-Algebra ¾ =⇒ σ(Fn , n ≥ 1) ⊆ {z } | A . =F Beweis von Kolmogorovs 0-1-Gesetz Xn , n ≥ 1, unabhängig. Sei A ∈ ¡ F. ¢ Setze Fn = σ(X1 , . . . , Xn ) = σ Xi−1 (B), 1 ≤ i ≤ n, B ∈ B(R) Lemma F = σ(Fn , n ≥ 1) ⇒ T ⊆ F =====⇒ (∃An ∈ Fn ) P (A 4 An ) −−−−→ 0 n→∞ 2.7.5 Es folgt: P (An ∩ A) = P (A) − P (A \ An ) −−−−→ P (A) | {z } n→∞ −→ 0 n→∞ Außerdem: P (An ∩ A) = P (An )P (A), denn An ∈ Fn = σ(X1 , . . . , Xn ) unabhängig zu σ(Xi , i ≥ n + 1) 3 A Grenzwertbildung n −→ ∞ in (?) : P (A) = P (A)P (A) =⇒ P (A) ∈ {0, 1}. (?) Anwendungen 2.7.6 (Perkolation) Sei p ∈ [0, 1]. Betrachte Kantenperkolation auf Zd , d ≥ 1. ½ ¾ p blau Jede Kante wird mit Wahrscheinlichkeit gefärbt, unabhängig von allen anderen 1 − p rot d Kanten. Betrachte den zufälligen Teilgraphen von Z , der aus den blauen Kanten besteht. Seine Zusammenhangskomponenten heißen blaue Cluster. Satz 2.7.7 ∀p ∈ [0, 1] gilt: Pp (∃ unendlicher blauer Cluster) ∈ {0, 1} Beweis ( blau mit Wahrscheinlichkeit p rot mit Wahrscheinlichkeit 1 − p (Xe )e sind unabhängig. Ob es einen unendlichen blauen Cluster gibt, hängt nicht von endlich vielen Xe ab. d Für jede Kante e in Z sei Xe = A = {∃ unendlicher blauer Cluster} ∈ terminaler σ-Algebra der Xe . Kolmogorovs 0-1-Gesetz =⇒ P (A) ∈ {0, 1}. Weitere Anwendungen 2.7.8 a) An unabhängig ⇒ P (An für unendlich viele n) ∈ {0, 1}, nach Kolmogorovs 0-1-Gesetz, denn {An für unendlich viele n} ist ein terminales Ereignis. 37 Alternativ: ∞ P n=1 ∞ P n=1 1. Borel− P (An ) < ∞ ======⇒ P (An unendlich oft) = 0 Cantelli 2. Borel− = ∞ ======⇒ P (An unendlich oft) = 1 Cantelli b) Xn unabhängig =⇒ P ³P ∞ ´ konvergiert ∈ {0, 1} n=1 Proposition 2.7.9 Seien Xn , n ≥ 1, unabhängig. Dann gilt: lim n→∞ Sn Sn und lim sind fast sicher konstant mit einem Wert in [−∞, ∞] n→∞ n n Beweis Sn . n→∞ n Setze Y = lim Für alle c ∈ R gilt: {Y ≤ c} ∈ T Kolmogorovs 0-1-Gesetz =⇒ P (Y ≤ c) ∈ {0, 1} ∀c ∈ R | {z } Verteilungsfunktion von Y =⇒ ∃c mit P (Y = c) = 1. Korollar 2.7.10 Sind Xn , n ≥ 1, unabhängig, so gilt: ³ ´ Sn Sn • entweder P lim existiert = 1 und lim = const fast sicher n→∞ n n→∞ n ³ ´ Sn • oder P lim existiert = 0 n→∞ n Satz 2.7.11 Sind Xi , i ≥ 1, unabhängig, so gilt: ∞ ∞ P P Xi konvergiert fast sicher ⇐⇒ Xi konvergiert in Wahrscheinlichkeit i=1 i=1 Beispiel 2.7.12 (dafür, dass die Voraussetzung der Unabhängigkeit benötigt wird ) P Es gelte: Zn −→ Z, aber (Zn )n≥1 konvergiert nicht fast sicher. Setze: Xn = Zn − Zn−1 , Z0 = 0 Dann gilt: n P i=1 Xi = Zn =⇒ ∞ P i=1 Xi konvergiert in Wahrscheinlichkeit, aber nicht fast sicher. 38 Beweis von Satz 2.7.11 ⇒“: klar ” n P P ⇐“: Setze Sn = Xi . Es gelte Sn −→ S. ” i=1 Zu zeigen: Sn −−−−→ S fast sicher, d.h. (∀ε > 0) P (|Sn − S| > ε unendlich oft) = 0 n→∞ P (|Sn − S| > ε unendlich oft) = P ³ T ∞ ´ {sup |Si − S| > ε} n=1 i≥n = lim P (sup |Si − S| > ε) n→∞ i≥n n ³ ´ ³ ´o ≤ lim P sup |Si − S| > 2ε + P |Sn − S| > 2ε n→∞ i≥n | {z } P −− − − → 0, da Sn −→S n→∞ ³ ´ Es genügt zu zeigen: P sup |Si − Sn | > 2ε −−−−→ 0 ∀ε > 0 n→∞ i≥n Setze σn = {i ≥ n : |Si − Sn | > 2ε} ³ ´ ³ ´ ³ ´ ∞ P P sup |Si − Sn | > 2ε = P σn < ∞ = P σn = i i≥n (?) i=n Für i ≥ n gilt: σn = i ⇒ |Si − Sn | > 2ε =⇒ |S − Sn | = |(S − Si ) − (Sn − Si )| ≥ |Sn − Si | − |S − Si | > 2ε − |S − Si | =⇒ {σn = i} ∩ {|S − Si | ≤ ε} ⊆ {σn = i} ∩ {|S − Sn | > ε} ¯ ¯ ¯ {σn = i} ∈ σ(Xn+1 , . . . , Xi ) unabhängig zu σ(Xj , j ≥ 1 + 1) 3 {|S − Si | ≤ ε} =⇒ P (σn = i)P (|S − Si | ≤ ε) ≤ P (σn = i, |S − Sn | > ε) =⇒ P (σn = i) ≤ P (σn = i, |S − Sn | > ε) P (|S − Si | ≤ ε) ³ ´ ∞ P (σ = i, |S − S | > ε) P n n Damit in (?): P sup |Si − Sn | > 2ε ≤ inf P (|S − S | ≤ ε) j i≥n i=n j≥n = 1 · P (|S − Sn | > ε) −−−−→ 0. {z } n→∞ inf P (|S − Sj | ≤ ε) | j≥n P | {z } −− − − → 0, da Sn − → S n→∞ −− − − → 1 n→∞ Korollar 2.7.13 Seien Xi , i ≥ 1, unabhängig mit E[Xi ] = 0 ∀i und ∞ P Dann konvergiert Xi fast sicher. ∞ P i=1 i=1 Beweis Satz 2.7.1 ⇒ ∞ P i=1 Satz von ∞ P Lévy i=1 ====⇒ Xi konvergiert in Wahrscheinlichkeit Xi konvergiert fast sicher. 39 E[Xi2 ] < ∞. Anwendung 2.7.14 ( −1 Seien Xi , i ≥ 1, unabhängig, Xi = +1 Behauptung: ∞ P i=1 Denn: Xi i mit Wahrscheinlichkeit mit Wahrscheinlichkeit 1 2 1 2 konvergiert fast sicher hX i h³ X ´2 i h³ X ´2 i ∞ P 1 i i i E = 0, E = 2 =⇒ < ∞, Korollar 2.7.13 =⇒ BehaupE i i i i i=1 tung. Satz 2.7.15 Seien Xi , i ≥ 1, unabhängig und identisch verteilt mit E[Xi ] = 0 und E[Xi2 ] = σ 2 < ∞, n P Sn = Xi . Dann gilt für alle ε > 0: i=1 Sn −−−−→ 0 fast sicher 1 √ n→∞ n(log n) 2 +ε Bemerkung • Starkes Gesetz der großen Zahlen =⇒ Sn −−−−→ 0 fast sicher n n→∞ • Das Gesetz vom iterierten Logarithmus besagt: lim √ n→∞ Beweis von Satz 2.7.15 1 √ Setze an = n(log n) 2 +ε für n ≥ 2, a1 = 1. Es gilt: hX i h³ X ´2 i ∞ ∞ P P n n E = 0 und E = σ2 + an an n=1 n=2 √ Sn = σ 2 fast sicher n log log n σ2 1 n(log n) 2 +ε <∞ ∞ X P n konvergiert fast sicher n=1 an Die Behauptung folgt aus folgendem Lemma. Korollar 2.7.13 =⇒ Lemma 2.7.16 (von Kronecker ) Seien an , xn ∈ R. Falls an 1 ∞ und ∞ x P n konvergiert, dann gilt: n=1 an 40 n 1 P xi = 0 n→∞ an i=1 lim 3 Zentraler Grenzwertsatz 3.1 Motivation Seien Xi , i ≥ 1, unabhängig und identisch verteilt mit E[Xi ] = 0 und E[Xi2 ] = 1, Sn = Sn −−−−→ 0 fast sicher n n→∞ Sn − E[Sn ] Sn Betrachte Sn∗ = p = √ . Es ist E[Sn∗ ] = 0 und V ar(Sn∗ ) = 1. n V ar(Sn ) n P i=1 Xi . Gesetz der großen Zahlen =⇒ Der zentrale Grenzwertsatz besagt: ³ P Sn∗ Z∞ ´ t2 1 √ e− 2 dt ∀x ∈ R ≤ x −−−−→ n→∞ 2π −∞ Spezialfall: ( +1 Xi = −1 mit Wahrscheinlichkeit mit Wahrscheinlichkeit 1 2 1 2 In diesem Fall ist der zentrale Grenzwertsatz gerade der Satz von de Moivre-Laplace. Sei Fn die Verteilungsfunktion von Sn∗ , d.h. Fn (x) = P (Sn∗ ≤ x), und sei F die Verteilungsfunktion von Z ∼ N (0, 1). Der zentrale Grenzwertsatz besagt Fn (x) −−−−→ F (x) ∀x ∈ R n→∞ 3.2 Schwache Konvergenz Definition 3.2.1 Seien µn , µ Wahrscheinlichkeitsmaße auf (R, B(R)). w µn konvergiert schwach gegen µ (µn =⇒ µ, µn −→ µ), falls Z Z f dµn −−−−→ n→∞ wobei Cb (R) = {g : R → R stetig und beschränkt} w w Man sagt Xn −→ X, falls L (Xn ) −→ L (X) Beispiel 3.2.2 Seien xn , x ∈ R, mit xn −−−−→ x, δy bezeichne die Punktmasse in y, n→∞ ( 1 falls y ∈ A d.h. δy (A) = 1A (x) = , A⊆R 0 sonst w Dann gilt: δxn −−−−→ δx , n→∞ Z Z f stetig xn → x denn (∀f ∈ Cb (R)) f dδxn = f (xn ) −−−−→ f (x) = f dδx . n→∞ 41 f dµ ∀f ∈ Cb (R), Bemerkung 3.2.3 w Xn −→ X ⇐⇒ E[f (Xn )] −−−−→ E[f (X)] ∀f ∈ Cb (R) n→∞ Beweis Z E[f (Xn )] = Z f dµn mit µn = L (Xn ) −−−−→ n→∞ f dµ mit µ = L (X) = E[f (X)]. Bemerkung 3.2.4 w a) Xn −→ X ist möglich, selbst wenn alle Xn auf verschiedenen Wahrscheinlichkeitsräumen definiert sind w w b) Xn −→ X =⇒ h(Xn ) −→ h(X) ∀h : R → R stetig Beweis von b) f ∈ Cb (R) =⇒ f ◦ h ∈ Cb (R). Satz 3.2.5 (Portemanteau) Seien µn , µ Wahrscheinlichkeitsmaße auf (R, B(R)). Es sind äquivalent: w i) µn −→ µ Z Z ii) f dµn −−−−→ f dµ n→∞ iii) lim µn (F ) ≤ µ(F ) n→∞ ∀f : R → R beschränkt und gleichmäßig stetig ∀F abgeschlossen iv) lim µn (G) ≥ µ(G) ∀G offen n→∞ v) µn (A) −−−−→ µ(A) ∀A ∈ B(R) mit µ(∂A) = 0, wobei ∂A = Ā \ Å n→∞ Beweis (i) ]e (iv) CCCCC zz9A z CCCC z zzz CCCC CCC zzzz y¢ zzz klar (iii) ]e DDD 9A { DDDD { { { { DDDD { {{ { DDD { { À% ¶® {{{ (v) (ii) (iii) ⇐⇒ (iv) F abgeschlossen ⇐⇒ F c offen lim n→∞ µn (F ) | {z } = 1−µn (F c ) ≤ µ(F ) ⇐⇒ 1 − lim µn (F c ) ≤ 1 − µ(F c ) ⇐⇒ lim µn (F c ) ≥ µ(F c ) | {z } n→∞ n→∞ = 1−µ(F ) 42 (ii) =⇒ (iii) Sei F abgeschlossen, δ > 0. Sei G = {x ∈ R : dist(x, F ) < ε}. Für hinreichend kleines ε > 0 gilt: µ(G) < µ(F ) + δ, da µ regulär ist. falls t ≤ 0 1 Setze ϕ(t) = 1 − t falls 0 ≤ t ≤ 1 0 falls t ≥ 1 ¡1 ¢ Setze f (x) = ϕ ε · dist(x, F ) . Es gilt: • f ist gleichmäßig stetig auf R ( 1 falls x ∈ F • f (x) = 0 ≤ f (x) ≤ 1 ∀x 0 falls x ∈ Gc Z Z Z Z Es folgt: µn (F ) = f dµn ≤ f dµ −− − − − → f dµ =⇒ lim µ (F ) ≤ f dµ n n→∞ Z Außerdem: Z F wegen (ii) R n→∞ f dµ ≤ µ(G) < µ(F ) + δ =⇒ lim µn (F ) ≤ µ(F ) + δ f dµ = n→∞ f ≤1 G δ > 0 beliebig =⇒ lim µn (F ) ≤ µ(F ) n→∞ (iii) =⇒ (i) Sei f ∈ Cb (R). Z Behauptung: lim n→∞ Z f dµn ≤ f dµ Beweis der Behauptung OBdA sei 0 < f (x) < 1 ∀x ∈ R (Für beliebiges beschränktes f gibt es a > 0, b ∈ R, so dass g(x) = af (x) + b ∈ (0, 1) ∀x ∈ R Behauptung gilt für f ⇐⇒ Behauptung gilt für g) n 1o Definiere für k ∈ N : Fi = x ∈ R : f (x) ≥ , i = 0, 1, . . . , k k • Fi ist abgeschlossen • F0 = R, Fk = ∅ Außerdem gilt: Z k k X X i−1 i o´ i ³n i−1 i o´ i − 1 ³n µ x: ≤ f (x) < ≤ f dµ ≤ µ x: ≤ f (x) < k k k k k k i=1 i=1 Nebenrechnungen: ³n ³ ´ ³ ´ ³ ´ i−1 i o´ µ x: ≤ f (x) < = µ Fi−1 \ Fi = µ Fi−1 − µ Fi k k ³n k k i−1 k P i−1 P i P i−1 i o´ k−1 1 P ⇒ µ x: ≤ f (x) < = µ(Fi )− µ(Fi ) = µ(Fi ) k k k i=1 i=1 k i=0 k i=1 k k i k i ³n P i+1 P P i−1 i o´ k−1 1 1 P µ x: ≤ f (x) < = µ(Fi ) − µ(Fi ) = + k µ(Fi ) k k k k k k k i=1 i=0 i=1 i=1 43 k A 1 P µ(Fi ) ≤ k i=1 Also: Z B f dµ ≤ k 1X 1 + µ(Fi ) k k i=1 Diese Ungleichung gilt auch für µn anstelle von µ. Es folgt: Z Z k k ´ ³1 1 1X 1X 1 µn (Fi ) ≤ µ(Fi ) ≤ + f dµ lim f dµn ≤ lim + + n→∞ k i=1 k i=1 A k B n→∞ k (iii) k k ∈ N beliebig =⇒ Behauptung Anwendung der Behauptung für −f anstelle von f liefert: Z − lim f dµn ≤ −f dµ n→∞ Also: Z lim f dµn ≥ n→∞ Z f dµ ≥ lim f dµn ≥ lim Beh. Z =⇒ lim n→∞ n→∞ f dµn f dµn = f dµ n→∞ w =⇒ µn −→ µ (iii) =⇒ (v) Sei A ∈ B(R). Es gilt: µ(Ā) ≥ lim µn (Ā) ≥ lim µn (A) ≥ lim µn (A) ≥ lim µn (Å) ≥ µ(Å) (iii) n→∞ n→∞ n→∞ n→∞ Falls µ(∂A) = 0, so ist µ(Ā) = µ(A) = µ(Å) und es folgt lim µn (A) = µ(A) n→∞ (v) =⇒ (iii) Sei F ⊆ R abgeschlossen. Es gilt: ∂{x ∈ R : dist(x, F ) ≤ δ} = {x ∈ R : dist(x, F ) = δ} Somit sind ∂{x : dist(x, F ) ≤ δ}, δ > 0, paarweise disjunkt. Damit können höchstens abzählbar viele strikt positives µ-Maß haben. =⇒ (∃δk % 0), so dass (∀k) µ(∂ {x : dist(x, F ) ≤ δk }) = 0 | {z } =:Fk Für jedes k gilt: lim µn (F ) ≤ lim µn (Fk ) = µ(Fk ) n→∞ n→∞ (v) Da F abgeschlossen ist, gilt Fk % F und somit µ( Fk ) % µ(F ) k→∞ =⇒ lim µn (F ) ≤ µ(F ). n→∞ 44 Satz 3.2.6 Seien µn , µ Wahrscheinlichkeitsmaße auf (R, B(R)) mit Verteilungsfunktionen Fn , F (d.h, Fn (x) = µn ((−∞, x]), . . .). Dann gilt: w µn −→ µ ⇐⇒ Fn (x) −−−−→ F (x) n→∞ ∀ Stetigkeitspunkte x von F Bemerkung 3.2.7 Damit besagt der zentrale Grenzwertsatz: Zx t2 1 w ∗ √ e− 2 dt ∀x ∈ R ⇐⇒ Sn∗ −→ N (0, 1) P (Sn ≤ x) −−−−→ n→∞ 2π −∞ Beweis von Satz 3.2.6 ⇒“: Sei x ein Stetigkeitspunkt von F . Dann gilt: µ(∂(−∞, x]) = µ({x}) = 0 ” Portemanteau-Satz =⇒ Fn (x) = µn ((−∞, x]) −−−−→ µ((−∞, x]) = F (x) n→∞ ⇐“: Sei G = (a, b). Seien ak , bk Stetigkeitsstellen von F mit ak % a, ak > a und bk 1 b, bk < b ” Es gilt: ¡ ¢ ¡ ¢ µ (ak , bk ] = F (bk ) − F (ak ) = lim Fn (bk ) − Fn (ak ) (?) n→∞ ¡ ¢ ¡ ¢ = lim µn (ak , bk ] ≤ lim µn (a, b) n→∞ n→∞ Wegen (ak , bk ] 1 (a, b) folgt: ¡ ¢ ¡ ¢ µ (a, b) ≤ lim µn (a, b) n→∞ Sei G offen. Schreibe G = µ(G) = P k µ(Ik ) ≤ P T (∗) Ik mit offenen, paarweise disjunkten Intervallen Ik . Es gilt: k lim µn (Ik ) ≤ (∗) k n→∞ lim Fatou P n→∞ k | µn (Ik ) {z } = µn (G) w Portemanteau-Satz =⇒ µn −→ µ. Hier wird das Lemma von Fatou verwendet: Z fn ≥ 0 messbar, ν Maß auf (S, S ) =⇒ Z lim fn dν ≤ lim S n→∞ n→∞ fn dν S Bei uns: S = N, S = P(N), ν = Zählmaß auf N, fn ≥ 0 messbar, ν Maß auf (S, S ) P P =⇒ lim fn (k) ≤ lim fn (k) k n→∞ n→∞ k Beispiele schwacher Konvergenz 3.2.8 1) Seien Xp ∼ Geometrisch(p). Dann gilt: P (pXp > x) −−−→ |{z} e−x p→0 = ∞ R x w D.h. pXp −−−→ Exponential(1). p→0 45 e−x dt ∀x > 0 2) Xi , i ≥ 1, unabhängig und identisch verteilt. µn (ω) = n 1 P δX (ω) empirische Verteilung. n i=1 i w Glivenko-Cantelli =⇒ Für fast alle ω gilt: µn (ω) −→ L (X1 ) Satz 3.2.9 w Sei h : R → R messbar, Dh = {x : h ist unstetig in x}. Falls Xn −→ X und P (X ∈ Dh ) = 0, dann w gilt: h(Xn ) −→ h(X) Beweis Seien µn , µ die Verteilungen von Xn , X und νn , ν die Verteilungen von h(Xn ), h(X). Es gilt: νn (A) = P (h(Xn ) ∈ A) = P (Xn ∈ h−1 (A)) = µn (h−1 (A)) Nach dem Portemanteau-Satz genügt es zu zeigen: lim νn (F ) ≤ ν(F ) ∀F abgeschlossen n→∞ ⇐⇒ lim µn (h−1 (F )) ≤ µ(h−1 (F )) ∀F abgeschlossen n→∞ lim µn (h−1 (F )) ≤ lim µn (h−1 (F )) ≤ µ(h−1 (F )) Es gilt: n→∞ (?) n→∞ Behauptung: h−1 (F ) ⊆ h−1 (F ) ∪ Dh Sei xn ∈ h−1 (F ) mit xn −−−−→ x n→∞ | {z } ⇒ h(xn ) ∈ F Fall 1: h stetig in x F abgeschlossen, h(xn ) −→ h(x) =⇒ h(x) ∈ F =⇒ x ∈ h−1 (F ) Fall 2: x ∈ Dh Damit in (?): µ(h−1 (F )) ≤ µ(h−1 (F ) ∪ Dh ) = µ(h−1 (F )). Satz 3.2.10 Seien Xn , X Zufallsvariablen. P w a) Xn −→ X =⇒ Xn −→ X w P b) Xn −→ X und X fast sicher konstant =⇒ Xn −→ X c) b) ist falsch ohne die Voraussetzung X fast sicher konstant Beweis Übung. 46 3.3 Schwach konvergente Teilfolgen Definition 3.3.1 a) Eine Familie Π von Wahrscheinlichkeitsmaßen heißt relativ kompakt, falls jede Folge in Π eine schwach konvergente Teilfolge enthält. ¡ ¢ b) Π heißt straff, falls (∀ε > 0)(∃M > 0)(∀µ ∈ Π) µ [−M, M ] > 1 − ε Beispiel 3.3.2 a) Π = {δn : n ∈ N} • Π ist nicht straff • Zugehörige Verteilungsfunktionen: Fn (x) = 1[n,∞) (x) Es gilt: lim Fn (x) = 0 ∀x ∈ R =⇒ Π ist nicht relativ kompakt n→∞ b) Π = {δ 1 : n ∈ N} n ¡ ¢ • Π ist straff da δ 1 [−1, 1] = 1 ∀n ∈ N n w • δ 1 −−−−→ δ0 =⇒ Π ist relativ kompakt n n→∞ Satz 3.3.3 Π ist relativ kompakt ⇐⇒ Π ist straff Zum Beweis benötigen wir Auswahlsatz von Helly 3.3.4 Sei (Fn )n ≥ 1 eine Folge von Verteilungsfunktionen. Es gibt eine Teilfolge (Fnk )k ≥ 1 und eine monoton wachsende rechtsseitig stetige Funktion F , so dass gilt: lim Fnk (x) = F (x) n→∞ ∀ Stetigkeitspunkte x von F Beweis Durett (2.5). Bemerkung F ist nicht notwendigerweise eine Verteilungsfunktion Beispiel Sei G eine Verteilungsfunktion, a, b, c ∈ (0, 1) mit a + b + c = 1. Setze Fn (x) = a1[n,∞) (x) + b1[−n,∞) (x) + xG(x), x ∈ R, n ∈ N Dann gilt: • Fn ist eine Verteilungsfunktion • lim Fn (x) = b + cG(x) =: F (x) ∀x ∈ R n→∞ • F monoton wachsend, rechtsseitig stetig • F ist keine Verteilungsfunktion, denn lim F (x) = b > 0, lim F (x) = b + c = 1 − a < 1 n→−∞ n→∞ 47 Beweis von Satz 3.3.3 ⇐“: Sei (µn )n ≥ 1 straff. Sei Fn die Verteilungsfunktion von µn . ” Auswahlsatz von Helly =⇒ ∃ Teilfolge (Fnk )k ≥ 1 und ∃F monoton wachsend und rechtsseitig stetig, so dass Fnk (x) −−−−→ F (x) ∀ Stetigkeitspunkte x von F (1) k→∞ ¡ ¢ Sei µ das eindeutig bestimmte Maß mit µ (a, b] = F (b)¡ − F (a) ∀a < b ¢ Sei ε > 0. Da (µn )n ≥ 1 straff ist, gibt es a, b, so dass µn (a, b] > 1 − ε ∀n (2) OBdA seien a, b Stetigkeitspunkte von F (sonst a verkleinern, b vergrößern). Es gilt: ¡ ¢ ¡ ¢ µnk (a, b] = Fnk (b) − Fnk (a) −→ F (b) − F (a) = µ (a, b] (1) Wegen (2) folgt: ¡ ¢ µ (a, b] ≥ 1 − ε ε > 0 beliebig ⇒ µ ist ein Wahrscheinlichkeitsmaß w (1) ⇒ µnk −→ µ =⇒ Π ist relativ kompakt ⇒“: Sei Π relativ kompakt. Angenommen ¡ Π nicht ¢straff. ” (∃ε > 0) (∀M > 0) (∃µ ∈ Π) µ [−M, M ] ≤ 1 − ε ¡ ¢ Für jedes k ∈ N wählen wir µk ∈ Π, so dass µk (−k, k] ≤ 1 − ε (3) Da Π relativ kompakt ist, gibt es eine Teilfolge (µkj )j ≥ 1 und ein Wahrscheinlichkeitsmaß w µ, so dass µkj −−−→ µ. j→∞ ¡ ¢ ¡ ¢ ¡ ¢ Wähle a, b mit µ {a} = 0µ {b} und µ (a, b] > 1 − ε (4) Für alle hinreichend großen j gilt (a, b] ⊆ (−kj , kj ] und somit ¡ ¢ ¡ ¢ 1 − ε ≥ µkj (a, b] −−−→ µ (a, b] j→∞ (3) ¡ ¢ Das heißt µ (a, b] ≤ 1 − ε — Widerspruch zu (4). Korollar 3.3.5 Sei (µn )n ≥ 1 straff. Falls jede schwach konvergente Teilfolge gegen dasselbe Wahrscheinlichkeitsmaß w µ konvergiert, so gilt: µn −→ µ Beweis • straff =⇒ relativ kompakt • Sei (an )n ≥ 1 eine Folge reeller Zahlen mit der Eigenschaft, dass jede Teilfolge (ank )k ≥ 1 eine konvergente Teilfolge (ank(j) )j ≥ 1 besitzt und lim ank(j) = α unabhängig von der Teilfolge ist. j→∞ Angenommen an −−−/−→ α n→∞ =⇒ (∃ε > 0) (∀n0 ) (∃n ≥ n0 ) |an − α| ≥ ε =⇒ (∀k) (∃nk ) |ank − α| ≥ ε (∗) und (nk )k ≥ 1 ist streng monoton wachsend Nach Voraussetzung gibt es eine Teilfolge (ank(j) )j ≥ 1 mit ank(j) −−−→ α — Widerspruch zu (∗) j→∞ =⇒ an −−−−→ α. n→∞ 48 Satz 3.3.6 ¡ ¢ Falls für ein p > 0: sup E[|Xn |p ] < ∞, so ist L (Xn ) n ≥ 1 straff n≥1 Beweis Sei ε > 0. Aus der Markov-Ungleichung folgt: sup E[|Xk |p ] E[|Xn |p ] k≥1 P (|Xn | > M ) ≤ ≤ < ε ∀M hinreichend groß Mp Mp =⇒ P (|Xn | ≤ M ) > 1 − ε ∀n ∀M hinreichend groß. {z } | = L (Xn )[−M,M ] Beispiel 3.3.7 Seien Xi , i ≥ 1, unabhängig und identisch verteilt mit E[Xi ] = 0 und E[Xi2 ] = 1. Dann gilt: h³ S ´2 i 1 n = V ar(Sn ) = 1 ∀n E √ n n ³ ³ S ´´ n =⇒ L √ ist straff und somit relativ kompakt. n n≥1 (3.3.6) 3.4 Charakteristische Funktionen Für eine komplexwertige Zufallsvariable Z definieren wir E[Z] = E[Re(Z)] + iE[Im(Z)]. Definition 3.4.1 Die charakteristische Funktion einer reellwertigen Zufallsvariablen X ist definiert durch ϕ(t) = E[eitX ], t ∈ R Bemerkung 3.4.2 • Stochastik 1: s 7→ E[sX ], s ∈ [−1, 1], X Zufallsvariable mit Werten in N0 , heißt erzeugende Funktion • Hat X die Wahrscheinlichkeitsdichte f , so gilt: Z itx ˆ ϕ(t) = e f (x) dx = f (−t), R wobei fˆ die Fouriertransformierte von f bezeichnet Satz 3.4.3 (Eigenschaften charakteristischer Funktionen) a) ϕ(0) = 1 b) ϕ−X (t) = ϕX (−t) = ϕX (t) ∀t ∈ R c) L (X) = L (−X) ⇐⇒ ϕX reell d) |ϕ(t)| ≤ 1 ∀t ∈ R e) ϕ ist gleichmäßig stetig auf R f) ϕaX+b (t) = eitb · ϕX (at) ∀t ∈ R g) Sind X und Y unabhängig, so gilt: ϕX+Y (t) = ϕX (t) · ϕY (t) ∀t ∈ R 49 Beweis a) ϕ(0) = E[e0 ] = 1 b) ϕ−X (t) = E[eit(−X) ] = ϕX (−t) = E[cos(−tX)] + iE[sin(−tX)] = E[cos(tX)] − iE[sin(tX)] = E[eitX ] = ϕX (t) c) ⇒“: Sei L (X) = L (−X) =⇒ ϕX = ϕ−X = ϕX =⇒ ϕX reell ” ⇐“: ϕX reell =⇒ ϕ−X = ϕX = ϕX =====⇒ L (X) = L (−X) Eindeutig” keitssatz d) |ϕ(t)| = |E[eitX ]| ≤ E[|eitX |] = 1 e) |ϕ(t + h) − ϕ(t)| = |E[ei(t+h)X − eitX ]| = |E[eitX (eihX − 1)]| ≤ E[|eitX | · |eihX − 1|] = E[|eihX − 1|] −−−→ 0 h→0 | {z } =1 f) ϕaX+b (t) = E[eit(aX+b) ] = eitb · E[eitaX ] = eitb · ϕX (at) g) ϕX+Y (t) = E[eit(X+Y ) ] = E[eitX · eitY ] (X, Y unabhängig =⇒ eitX , eitY unabhängig) = E[eitX ] · E[eitY ] = ϕX (t) · ϕY (t) Satz 3.4.4 Ist X ∼ N (µ, σ 2 ), so gilt : ³ ϕX (t) = exp iµt − σ 2 t2 2 ´ ∀t ∈ R Beweis Betrachte Spezialfall: ϕX (t) = E[e itX X ∼ N (0, 1). 1 ]= √ 2π Z∞ e itx −x2 e 2 1 dx = √ 2π −∞ Z∞ −x2 cos(tx)e 2 −∞ Z∞ −x2 i dx + √ sin(tx)e 2 dx 2π −∞ | {z } = 0, 1 =⇒ ϕ0X (t) = √ 2π Z∞ −∞ i −x2 dh 1 cos(tx)e 2 dx = √ dt 2π à Partielle Integration mit ϕ0X (t) 1 =√ 2π à {z − sin(tx)xe v 0 (x) = −x · e w0 (x) = t · cos(tx) v(x) = e ! ¯ ¯ ¯ ¯ Z∞ ∞ − −∞ } −x2 2 −∞ w(x) = sin(tx) −x2 − sin(tx)e 2 | Z∞ t cos(tx)e −x2 2 dx −x2 2 ! −x2 2 −∞ t2 ´ t2 t2 d³ ϕX (t) · e 2 = ϕ0X (t) · e 2 + ϕX (t) · t · e 2 = 0 | {z } dt =⇒ ϕX (t) · Allgemein: t2 e2 = −ϕ0X (t) = const = ϕX (0) = ϕX (0) · e0 = 1 =⇒ ϕX (t) = e −t2 2 X ∼ N (0, 1) =⇒ σX + µ ∼ N (µ, σ 2 ) ϕσX+µ (t) = eµit · ϕX (σt) = eitµ · e −t2 σ 2 2 = eitµ · e 50 liefert: = −t · ϕX (t) = 0 Damit folgt: dx −σ 2 t2 2 . da x 7→ sin(tx)e ungerade ist −x2 2 3.5 Eindeutigkeitssatz und Inversionssätze Satz 3.5.1 (Eindeutigkeitssatz ) Es seien X und Y Zufallsvariablen. Falls ϕX (t) = ϕY (t) ∀t ∈ R, so gilt L (X) = L (Y ). Für eine Verteilung µ setzen wir: µ(σ) := µ ∗ N (0, σ 2 ), d.h. µ(σ) ist die Verteilung von X + Y , falls X, Y unabhängig und X ∼ µ, Y ∼ N (0, σ 2 ) Lemma 3.5.2 Es sei X ∼ µ mit charakteristischer Funktion ϕ. (σ) Dann hat µ die Wahrscheinlichkeitsdichte f (σ) Z 1 (x) = 2π ϕ(t) · e−itx− σ 2 t2 2 dt R Beweis Für Y ∼ N (0, 1 σ2 ) wissen wir: ϕY (t) = −t2 e 2σ2 r Z itu = e σ2 − µ σ e 2 du 2π 2 2 (∗) R Aus Kapitel 1.13 wissen wir, dass µ(σ) als Faltung folgende Wahrscheinlichkeitsdichte besitzt: r Z Z Z (x−y)2 σ 2 − u2 σ 2 1 1 − i(y−x)u 2σ 2 µ(dy) = √ · |e {z e 2 du µ(dy) f (σ) (x) = √ e } 2 2π 2πσ 2 2πσ (∗) einsetzen = 1 2π R Z ÃZ ! eiyu µ(dy) e−ixu e− R R {z | R R für t = y − x u2 σ 2 2 du. } = ϕ(u) Lemma 3.5.3 w µ(σ) −→ µ σ→0 Beweis 2 Es sei X ∼ µ, Y ∼ N (0, 1), X, Y unabhängig. Dann ist σY ∼ N (0, σ 2 ) und somit X +Y ∼ µ(σ ) . Es gilt: w X + σY −−−→ X fast sicher und somit schwach, d.h. µ(σ) −−−→ µ. σ→0 σ→0 Beweis von Satz 3.5.1 Es sei ϕX (t) = ϕY (t) ∀t ∈ R. Seien µ und ν die Verteilungen von X und Y . Lemma 3.5.2 =⇒ µ(σ) = ν (σ) ∀σ > 0 w w Lemma 3.5.3 =⇒ σ −→ 0 : µ(σ) −→ µ und ν (σ) −→ ν Eindeutigkeit des schwachen Grenzwerts =⇒ µ = ν. Satz 3.5.4 (Inversionssatz ) ¡ ¢ ¡ ¢ Sei X ∼ µ mit charakteristischer Funktion ϕ. Für alle a, b ∈ R mit µ {a} = 0 = µ {b} gilt: Z σ 2 t2 ¡ ¢ 1 e−itb − e−ita ϕ(t) e− 2 · dt µ (a, b] = lim σ→0 2π −it R 51 Beweis Sei Y ∼ N (0, σ 2 ), unabhängig von X. Sei f (σ) die Wahrscheinlichkeitsdichte von X + Y . | {z } Z ³ 2 2´ ∼ µ(σ) 1 σ t Lemma 3.5.2 =⇒ f (σ) (x) = ϕ(t) exp − itx − dt 2π 2 R Wir integrieren beide Seiten über (a, b] : Zb Z Z Zb σ 2 t2 σ 2 t2 ¡ ¢ 1 1 − 2 − 2 −itx (σ) (a, b] = e ϕ(t) e µ ϕ(t) e dt dx = e−itx dx dt 2π 2π a R a R | {z } h −itx ix=b e −it = ¡ ¢ ¡ ¢ w Da µ(σ) −−−→ µ nach Lemma 3.5.3 und µ {a} = 0 = µ {b} folgt: σ→0 ¡ ¢ ¡ ¢ 1 µ (a, b] = lim µ(σ) (a, b] = lim σ→0 σ→0 2π Z ϕ(t) e− σ 2 t2 2 e−itb − e−ita dt. −it = x=a (∗) e−itb −e−ita −it R Satz 3.5.5 Z ¯ ¯ ¯ϕ(t)¯ dt < ∞, so hat µ die Wahrscheinlich- Sei X ∼ µ mit charakteristischer Funktion ϕ. Falls 1 keitsdichte f (x) = 2π µ Z e −itx ϕ(t) dt R¶ = lim f (σ) σ→0 (x) R Beweis ¡ ¢ ¡ ¢ Für a, b ∈ R mit µ {a} = 0 = µ {b} gilt: ¡ ¢ ¡ ¢ 1 µ (a, b] = lim µ(σ) (a, b] = lim σ→0 (∗) σ→0 2π 1 = ↑ 2π dominierte Konvergenz Z e −itx a R − ϕ(t) e σ 2 t2 2 Zb e−itx dx dt a R Zb ϕ(t) Z 1 dx dt = ↑ 2π Fubini Zb Z Zb ϕ(t) e −itx dt dx = a R f (x) dx. a Beispiel 3.5.6 (zur Cauchy-Verteilung) Z X besitze die charakteristische Funktion ϕ(t) = e−|t| , t ∈ R. Dann gilt: Somit hat, nach Satz 3.5.5, X mit x ∈ R die Wahrscheinlichkeitsdichte Z Z0 Z∞ 1 1 1 −|t| −itx t(1−ix) e e dt = e−t(1+ix) dt f (x) = e dt + 2π 2π 2π R " t(1−ix) 1 e = 2π 1 − ix = #t=0 + t=−∞ −∞ " −t(1+ix) 1 e 2π −(1 + ix) #t=∞ t=0 0 1 = 2π 1 1 1 1 − ix + 1 + ix · = · 2π 1 − (ix)2 2π 1 + x2 Dies ist die Dichte der Cauchy-Verteilung =⇒ X ∼ Cauchy 52 à |ϕ(t)| dt < ∞ R 1 1 − 1 − ix −(1 + ix) ! Seien X1 , . . . , Xn unabhängig, Cauchy-verteilt und Sn = ϕSn (t) = n P i=1 Xi . Es gilt: ³t´ ϕXj (t) = e−n|t| =⇒ ϕ Sn (t) = ϕSn = e−|t| n | {z } n j=1 n Y = e−|t| =⇒ Sn ∼ Cauchy. n 3.6 Der Stetigkeitssatz von Lévy Satz 3.6.1 (Stetigkeitssatz von Lévy ) Seien X, Xi , i ≥ 1, Zufallsvariablen mit charakteristischen Funktionen ϕ, ϕi , i ≥ 1. Es gilt: w Xn −−−−→ X ⇐⇒ ϕn (t) −−−−→ ϕ(t) ∀t ∈ R n→∞ n→∞ Lemma 3.6.2 Sei X ∼ µ mit charakteristischer Funktion ϕ. Es gilt: µ ¶ µ½ ¾¶ Zn ¡ ¢ 2 2 1 P |X| ≥ = µ x : |x| ≥ ≤ 1 − ϕ(t) dt ∀n > 0 n n n −n Beweis ¶ ¶ Zn Zn µ Z Zn µ Z ¡ ¢ ¡ ¢ 1 1 1 itx 1 − ϕ(t) dt = 1 − e µ(dx) dt = 1 − eitx µ(dx) dt n n n −n 1 = n −n Z Zn 1−e itx R −n 1 dtµ(dx) = n −n R R ¶ Z µ Zn Zn 2n − cos(tx) dt − i sin(tx) dt µ(dx) R −n −n {z } 0 ¶ · ¸= ¶ Z µ Zn Z µ t=n 1 1 sin(tx) = 2n − 2 cos(tx) dt µ(dx) = 2n − 2 µ(dx) n n x t=0 R = 1 n 0 | R ¶¶ ¶ Z µ µ Z µ Z sin(nx) sin(nx) 2n 1 − 1− µ(dx) = 2 µ(dx) ≥ nx nx {z } R R | µ½ ¾¶ 2 ≥ µ x : |x| ≥ . n ≥ 0, da | sin(t)| ≤ t 53 2 {x : |x|≥ n } sin(nx) µ(dx) 1− | {znx } 1 1 ≥ 1− |nx| ≥ 2 Beweis von Satz 3.6.1 Es bezeichne µn , µ die Verteilung von Xn , X. w ⇒“: Es gelte Xn −→ X. Dann folgt: ” Z Z Z ϕn (t) = eitx µn (dx) = cos(tx)µn (dx) + i sin(tx)µn (dx) ZR −−−−→ R Z R cos(tx)µ(dx) + i n→∞ R sin(tx)µ(dx) = ϕ(t), R da x 7→ cos(tx), x 7→ sin(tx) stetige und beschränkte Funktionen sind. ⇐“: Es gelte ϕn (t) −−−−→ ϕ(t) ∀t ∈ R. Sei ε > 0. Als charakteristische Funktion ist ϕ stetig ” n→∞ in 0. Daher gibt es n > 0, so dass gilt: Zn ¡ ¢ 1 1 − ϕ(t) dt < ε. n −n Nach dem Satz von der dominierten Konvergenz gilt: Zn Zn ¡ ¢ ¡ ¢ 1 1 1 − ϕn (t) dt −−−−→ 1 − ϕ(t) dt n→∞ n n −n −n Daher gibt es N , so dass für alle n ≥ N gilt: µ½ ¾¶ Zn ¡ ¢ 2 1 1 − ϕn (t) dt ≥ µn x : |x| ≥ 2ε ≥ n n ↑ Lemma 3.6.2 −n ¡© ª¢ Wähle x1 , x2 , . . . , xn−1 mit der Eigenschaft µn x : |x| ≥ xn ≤ 2ε ∀n = 1, . . . , n − 1 © ª Sei M = max x1 , x2 , . . . , xN −1 , n2 , dann gilt: ¡ ¢ µ (−M, M ) ≥ 1 − 2ε ∀n ∈ N =⇒ (µn )n ≥ 1 ist straff ¡ ¢ w Sei µnk k ≥ 1 eine schwach konvergente Teilfolge, µnk −→ ν. Dann folgt aus ⇒“: ” ϕnk (t) −−−−→ ϕν (t) ∀t ∈ R n→∞ Nach Voraussetzung: ϕnk (t) −−−−→ ϕ(t) ∀t ∈ R k→∞ =⇒ ϕν (t) = ϕ(t) ∀t ∈ R Eindeutigkeitssatz =⇒ ν = µ w Korollar 3.3.5 =⇒ µn −−−−→ µ. n→∞ Bemerkung 3.6.4 Wir haben folgende stärkere Aussage bewiesen: Seien Xi , i ≥ 1, Zufallsvariablen mit charakteristischen Funktionen ϕi , i ≥ 1. Falls ϕn (t) −−−−→ ϕ(t) ∀t ∈ R und ϕ stetig in 0 ist, dann ist ϕ die charakteristische Funktion n→∞ w einer Zufallsvariablen X und es gilt Xn −→ X. 54 3.7 Charakteristische Funktionen und Momente Satz 3.7.1 Sei X eine Zufallsvariable mit charakteristischer Funktion ϕ. Es gelte E[|X|k ] < ∞ für ein k ≥ 1. Dann ist ϕ k-mal differenzierbar und ϕ(k) (t) = ik E[X k eitX ], t ∈ R (a) ist gleichmäßig stetig. Ferner gilt: 1 (m) ϕ (0) für m = 0, 1, . . . , k, im = ϕ und E[X m ] = wobei ϕ(0) ϕ(t) = k X ϕ(j) (0) j=0 j! (b) tj + o(|t|k ) für t −→ 0 (c) Lemma 3.7.2 Für alle x ∈ R und n ∈ N0 gilt: ¯ ¯ ¾ ½ n ¯ ix X (ix)j ¯¯ |x|n+1 2|x|n ¯e − , ≤ min ¯ j! ¯ (n + 1)! n! j=0 Beweis Übung. Beweis von Satz 3.7.1 1) Wir beweisen (a) mit Induktion über k k = 1: Sei E[|X|] < ∞. Es gilt: ¯ ¯ ¯¸ ·¯ i(t+h)X ¯ ϕ(t + h) − ϕ(t) ¯ ¯ ¯e − eitX itX ¯ itX ¯ ¯ ¯ − iE[Xe ]¯ ≤ E ¯ − iXe ¯ ¯ h h ¯¸ ¯ ihX · ¯ ¯e −1 = E |eitX | · ¯¯ − iX ¯¯ | {z } h {z } | =1 =: Ψh (X) • Lemma 3.7.2 für n = 1 : ¯ ¯ 2 2 ¯ ¯ ¯ ihx ¯ ¯Ψh (x)¯ = ¯ e − 1 − ihx ¯ ≤ 1 · |xh| = x |h| −−−→ 0 ¯ ¯ h→0 h |h| 2 2 • Lemma 3.7.2 für n = 0 : ¯ ¯ ¯ ¯ ¯ ihx ¯ ¯Ψh (x)¯ = ¯ e − 1 ¯ + |x| ≤ |hx| + |x| = 2|x| ¯ ¯ h |h| ¯¤ £¯ Satz von der dominierten Konvergenz =⇒ lim E ¯Ψh (X)¯ = 0 h→0 =⇒ ϕ0 (t) = iE[XeitX ] ∀t ∈ R 55 Induktionsschritt Sei (a) für k bewiesen. Sei E[|X|k+1 ] < ∞. Dann ist E[|X|k ] < ∞ und nach Induktionsvoraussetzung gilt: ϕ(k) (t) = ik E[X k eitX ] ∀t ∈ R Es folgt: ¯ ¯ (k) ¯ ϕ (t + h) − ϕ(k) (t) ¯ k+1 k+1 itX ¯ ¯ −i E[X e ]¯ ¯ h ¯¸ ·¯ k k i(t+h)X ¯ ¯i X e − ik X k eitX k+1 k+1 itX ¯ ¯ −i X e ¯ ≤E ¯ h ¯ ihX ¯¸ · ¯e ¯ −1 = E |ik | · |X|k · |eitX | · ¯¯ − iX ¯¯ −−−→ 0 mit dominierter Konvergenz h→0 |{z} | {z } | h {z } =1 =1 = Ψh (X) =⇒ (a) bewiesen 2) Gleichmäßige Stetigkeit von ϕ(k) wird wie gleichmäßige Stetigkeit von ϕ bewiesen. ¯ ¯ ¯¸ ¾¸ ·¯ · ½ k k X ¯ ¯ itX X ϕ(j) (0)tj ¯¯ (itX)j ¯¯ |tX|k+1 2|tX|k ¯e 3) ¯¯ϕ(t) − , ≤ E − ≤ E min ¯ (a) ¯ j! j! ¯ ↑ (k + 1)! k! j=0 j=0 Lemma 3.7.2 · ½ ¾¸ |t| · |X|k+1 2|X|k k = o(|t|k ) für t −→ 0. = |t| E min , (k + 1)! k! | {z } −− −→ 0, nach dom. Konvergenz t→0 Bemerkung 3.7.3 ϕ0 (0) existiert ; E[|X|] < ∞ Satz 3.7.4 ϕ(h) − 2ϕ(0) + ϕ(−h) > −∞, dann gilt: h→0 h2 Falls lim E[X 2 ] < ∞ Beweis Nach Voraussetzung gilt: · ¸ ei hX − 2 + e−ihX ϕ(h) − 2ϕ(0) + ϕ(−h) = lim E − h→0 h2 h2 h→0 | {z } ∞ > − lim = · ¸ 2(1 − cos(hX)) ≥ E lim = E[X 2 ] Lemma h2 h→0 von Fatou 2(1−cos(hX)) ≥0 h2 µ ¶ (hX)2 , da 1 − cos(hX) ∼ . x→0 2 56 3.8 Konvergenzsätze Satz 3.8.1 Seien Xi , i ≥ 1, unabhängig und identisch verteilt mit E[|Xi |] < ∞. Dann gilt: Sn P −→ E[X1 ] n Beweis Setze µ := E[X1 ], ϕ = ϕX1 . Es gilt: µ ¶ µ µ ¶¶n µ µ ¶¶n µ µ ¶¶n t iµt t t 1 1 ϕ Sn (t) = ϕSn = ϕ = 1+ϕ0 (0) · +o = 1+ +o −−−−→ eiµt , n→∞ ↑ | {z } n n ↑ n n n n n Xi unabh., id. vert. = iµ 3.7.1 c) denn (1 + cj )αj −−−→ eλ , falls αj −→ ∞, cj αj −→ λ j→∞ eiµt = charakteristische Funktion einer Zufallsvariablen Z mit P (Z = µ) = 1 Stetigkeitssatz von Lévy =⇒ Sn w Sn P −−−−→ µ und somit −→ µ. n n→∞ n Satz 3.8.2 (Zentraler Grenzwertsatz ) Seien Xi , i ≥ 1, unabhängig und identisch verteilt mit E[Xi ] = µ und V ar(Xi ) = σ 2 ∈ (0, ∞). n P Sei Sn = Xi , dann gilt: Sn − nµ w i=1 √ −−−−→ N (0, 1) σ n n→∞ Beweis Sei oBdA µ = 0 (sonst betrachte Xi0 = Xi − µ). Sei ϕ die charakteristische Funktion von X1 . Satz 3.7.1 c) liefert: ϕ00 (0) 2 σ 2 t2 ϕ(t) = 1 + ϕ0 (0) t + t + o(t2 ) = 1 − + o(t2 ) für t −→ 0 | {z } 2 } 2 | {z = iµ = 0 E[X12 ] 2 σ2 =− 2 = i2 Es folgt: µ ϕ (Sn −nµ) (t) = ϕ √ σ n S√n σ n (t) = ϕSn µ µ ¶¶n t = ϕ √ σ n ↑ σ n t √ ¶ Xi unabh., id. vert. µ µ ¶¶n t2 σ 2 t2 1 = 1− · 2 +o −−−−→ e− 2 = charakteristische Funktion von N (0, 1) n→∞ 2 σ n n µ ¶ (Sn − nµ) w √ Stetigkeitssatz von Lévy =⇒ L −→ N (0, 1). σ n 57 Satz 3.8.3 (Lindeberg-Feller ) Es gelte: i) Für alle n sind Xn,1 , Xn,2 , . . . , Xn,n unabhängig 2 ]<∞ ii) E[Xn,j ] = 0 und E[Xn,j ∀n, j n P 2 E[Xn,j ] −−−−→ σ 2 > 0 n→∞ j=1 n P 2 1{|Xn,j |>ε} ] −−−−→ 0 iv) (∀ε > 0) E[Xn,j iii) Sn := X2,1 X2,2 X3,1 .. . X3,2 X3,3 .. . n→∞ j=1 Dann gilt: X1,1 n P j=1 w Xn,j −−−−→ N (0, σ 2 ) n→∞ Bemerkung 3.8.4 Der Satz von Lindeberg-Feller enthält den zentralen Grenzwertsatz 3.8.2 Beweis Seien Yi , i ≥ 1, unabhängig und identisch verteilt mit E[Yi ] = 0, E[Yi2 ] = σ 2 ∈ (0, ∞). Setze Xn,j = √1n Yj . Dann gilt: i) Xn,1 , Xn,2 , . . . , Xn,n sind unabhängig ii) E[Xn,j ] = iii) n P j=1 √1 E[Yj ] n 2 E[Xn,j ]= iv) (∀ε > 0) n P j=1 =⇒ n P j=1 Xn,j n P j=1 1 n 2 = 0, E[Xn,j ]<∞ E[Yj2 ] = σ 2 > 0 | {z } = σ2 2 E[Xn,j 1{|Xn,j |>ε} ] Sn w = √ −→ N (0, σ 2 ). n =n Z Y12 dP −−−−→ 0, da Y1 ∈ L2 n→∞ n √ {|Y1 |>ε n} Beweis des Satzes von Lindeberg-Feller 2 2 1) Setze σn,j = E[Xn,j ]. Behauptung 1: lim 2 sup σn,j =0 n→∞ 1≥j≥n Beweis von Behauptung 1: 2 2 2 2 σn,j = E[Xn,j ] ≤ E[Xn,j 1{|Xn,j |≤ε} ] + E[Xn,j 1{|Xn,j |>ε} ] ≤ ε2 + n X j 0 =1 =⇒ lim | 2 sup σn,j ≤ ε2 n→∞ 1≥j≥n ε > 0 beliebig =⇒ Behauptung 1 58 2 E[Xn,j 0 1{|Xn,j |>ε} ] {z −− −−→ 0 n→∞ } 2) Setze ϕn,j (t) = E[eitXn,j ]. ¯Y ¶¯ n µ 2 ¯ Y ¯ n 2 t ¯=0 Behauptung 2: Es genügt zu zeigen: lim ¯¯ ϕn,j (t) − 1 − σn,j n→∞ 2 ¯ j=1 (∗) j=1 Beweis von Behauptung 2: Es gilt: ln ¶¶ X µ ¶ µY n n n µ 2 2 2 X 2 t 2 t 2 t = ln 1 − σn,j =− σn,j + Rn,t 1 − σn,j 2 2 2 j=1 j=1 j=1 Wegen ln(1 + x) = x + o(x2 ) für x −→ 0 gilt: ¶ n µ n 2 2 X X t4 2 2 t 2 |Rn,t | ≤ c σn,j ≤c sup σn,j σn,j −−−−→ 0 n→∞ 2 4 1≤j≤n j=1 | {z } |j=1{z } −→ 0 n→∞ Es folgt: µY ¶¶ n µ 2 σ 2 t2 2 t ln 1 − σn,j −−−−→ − n→∞ 2 2 j=1 =⇒ ϕSn (t) = n Y (∗) ϕn,j (t) −−−−→ e− n→∞ j=1 ¡ σ 2 t2 2 −→ σ 2 n→∞ ¢ charakteristische Funktion von N (0, σ 2 ) w Stetigkeitssatz von Lévy =⇒ L (Sn ) −→ N (0, σ 2 ) 3) Beweis von (∗) Lemma 3.8.5 Seien z1 , . . . , zn , w1 , . . . , wn ∈ C mit |zj | ≤ Θ, |wj | ≤ Θ ¯ n ¯ n n Dann gilt: Y X ¯Y ¯ n−1 ¯ ¯ zj − wj ¯ ≤ Θ |zj − wj | ¯ j=1 j=1 ∀j = 1, . . . , n. j=1 Beweis (mit Induktion über n) n=1: X n 7→ n + 1 : ¯ n+1 ¯ ¯ ¯ n+1 n n n n Y ¯¯ ¯¯ Y Y Y Y ¯Y ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ z − w ≤ z z − z w + z w − w w j j¯ j n+1 j¯ j n+1 j¯ ¯ ¯ n+1 ¯ n+1 j=1 j=1 j=1 j=1 j=1 ≤ Θn−1 n P j=1 |zj −wj | Wir wenden das Lemma an mit zj = ϕn,j (t), wj = 1 − 2 σn,j t2 und Θ = 1. 2 Die Voraussetzungen des Lemmas sind erfüllt, denn: • |ϕn,j (t)| ≤ 1 ¯ ¯ 2 ¯ σn,j t2 ¯ ¯≤1 • ¯¯1 − 2 ¯ j=1 ¯Y ¯ n+1 n X Y ¯ n ¯ ¯ |zj −wj |. ≤ Θ· ¯ zj − wj ¯¯ + Θn · |zn+1 −wn+1 | ≤ Θn · j=1 j=1 j=1 {z } | ∀n hinreichend groß 59 ∀j ∈ {1, . . . , n} Es folgt: ¯ n ¶¯ ¶¯ µ n µ n ¯ 2 2 X Y ¯Y ¯ σn,j t2 ¯ σn,j t2 ¯ ¯ ¯ ¯ ¯ Jn = ¯ ϕn,j (t) − 1− ¯ ≤ ¯ ¯ϕn,j (t) − 1 − 2 2 ↑ j=1 j=1 j=1 Lemma 3.8.5 ¸¯ · ½ 3 ¾¸ n ¯ · n 2 X X ¯ ¯ |t | itXn,j 2t 2 3 2 2 ¯ ¯ = −1−itXn,j −i Xn,j ¯ ≤ E min |Xn,j | , t Xn,j ¯E e 2 6 ↑ j=1 ≤ n X j=1 | A≤ n X Lemma 3.7.2 j=1 |t|3 2 2 1{|Xn,j |≤ε} ] + ε E[Xn,j t2 E[Xn,j 1{|Xn,j |>ε} ] 6 j=1 {z } | {z } =: A −− −−→ nach Vor. (iv) n→∞ n ε|t|3 σ 2 ε|t|3 X 2 E[Xn,j ] =⇒ lim Jn ≤ n→∞ 6 j=1 6 | {z } −→ σ 2 n→∞ ε > 0 beliebig =⇒ lim Jn = 0 n→∞ =⇒ (∗) bewiesen. Beispiel 3.8.6 (Zufallspermutationen) Wir wählen zufällig, gemäß der Gleichverteilung, eine Permutation der n Zahlen {1, . . . , n}. 1 ∀n ∈ Ωn Ωn = Menge der Permutationen von {1, . . . , n}, Fn = P(Ωn ), Pn ({π}) = |Ω1n | = n! Wähle eine Permutation π gemäß Pn aus Ωn . Zerlege π folgendermaßen in Zykel. Betrachte 1, π(1), π 2 (1) = π(π(1)), π 3 (1), . . . Irgendwann ist π k (1) = 1 und ein Zykel der Länge k beendet. Wiederhole das Verfahren mit dem kleinsten i, das nicht m 1. Zykel enthalten ist, anstelle von 1. Beispiel n=8 µ 1 π= 5 2 1 3 7 4 8 5 6 6 2 7 3 ¶ 8 4 1, π(1) = 5, π 2 (1) = 6, π 3 (1) = 2, π 4 (1) = 1 =⇒ 1. Zykel: (1 5 6 2) 2. Zykel: (3 7) 3. Zykel: (4 8) Also π = (1 5 6 2) (3 7) (4 8) Setze Xn,k (Xn,k ) ( 1 = 0 n ≥ 1 1 ≤ k ≤ n falls eine geschlossene Klammer nach der k-ten Zahl in der Zykeldarstellung sonst ist ein Dreiecks-Array von Zufallsvariablen In unserem Beispiel ist: X8,1 = X8,2 = X8,3 = X8,5 = X8,7 = 0 und X8,4 = X8,6 = X8,8 = 1 60 Lemma 3.8.7 Xn,k , 1 ≤ k ≤ n, sind unabhängig mit P (Xn,k = 1) = 1 n−k+1 Beweis Man kann die Zufallspermutation π auch folgendermaßen erzeugen. Setze i1 = 1. Wähle j1 ∈ {1, . . . , n} gemäß der Gleichverteilung und setze π(i1 ) = j1 . (a1) Falls j1 6= 1, setze i2 = j1 (a2) Falls j1 = 1, setze i2 = 2 (b) Wähle j2 gleichverteilt aus {1, . . . , n} \ {j1 } und setze π(i2 ) = j2 Allgemein: Angenommen i1 , j1 , i2 , j2 , . . . , ik−1 , jk−1 sind bestimmt und π(i` ) = j` für 1 ≤ ` ≤ k. (a1) Falls jk−1 ∈ {i1 , . . . , ik−1 }, so ist ein Zykel beendet und wir setzen ¡ ¢ ik = min {1, . . . , n} \ {j1 , . . . , jk−1 } (a2) Falls jk−1 ∈ / {i1 , . . . , ik−1 }, setze ik = jk−1 (b) Wähle jk gleichverteilt aus {1, . . . , n} \ {j1 , . . . , jk−1 } und setze π(ik ) = jk • Die so erzeugte Permutation π ist gleichverteilt auf Ωn • Xn,k , 1 ≤ k ≤ n, sind unabhängig P (Xn,k = 1) = P (nach der k-ten Zahl wird eine Klammer geschlossen) ° ° k − 1 Ziffern verbraucht, jede der verbleibenden n − (k − 1) = n − k + 1 Ziffern ° ° ist gleichwahrscheinlich, genau eine schließt den Zykel = 1 . n−k+1 Setze Sn = n P Xn,k – Anzahl der Zykel in der zufälligen Permutation k=1 Frage: Verhalten von Sn für n −→ ∞? Es gilt: E[Sn ] = n X E[Xn,k ] = k=1 V ar(Sn ) = n X n X k=1 n µ X 1 k=1 Damit folgt: k=1 V ar(Xn,k ) = k=1 = n X1 1 = n−k+1 k k − 1 k2 ∼ ln(n) n→∞ µ ¶2 ¶ n µ n X ¢ X ¡ 1 1 2 E[Xn,k ] − E[Xn,k ]2 = − n−k+1 n−k+1 | {z } k=1 k=1 = Xn,k ¶ ∼ ln(n) n→∞ ·µ ¶2 ¸ £ ¤ V ar(Sn ) Sn 1 E −1 =¡ −−−→ 0 ¢2 E (Sn − E[Sn ])2 = ¡ ¢2 − n→∞ E[Sn ] E[Sn ] E[Sn ] 61 =⇒ Sn −−−−→ 1 in L2 und damit in Wahrscheinlichkeit E[Sn ] n→∞ =⇒ Sn P −→ 1 ln(n) ¯ µ¯ ¶ ¯ Sn ¯ ¯ ¯ Das heißt (∀ε > 0) P ¯ − 1¯ > ε −−−−→ 0 n→∞ ln(n) ¡ ¢ ⇐⇒ (∀ε > 0) P (1 − ε) ln(n) ≤ Sn ≤ (1 + ε) ln(n) −−−−→ 1 n→∞ Setze Yn,k = 1 n−k+1 Xn,k − p ln(n) . Wir verifizieren, die Voraussetzungen von Lindeberg-Feller: i) ∀n sind Yn,k , 1 ≤ k ≤ n, unabhängig 2 ii) E[Yn,k ] = 0 und E[Yn,k ]<∞ iii) n P k=1 iv) n P k=1 2 E[Yn,k ]= n P k=1 1 ln(n) £¡ ¢2 ¤ 1 E Xn,k − n−k+1 = {z } | V ar(Sn ) −−−→ ln(n) − n→∞ 1 = V ar(Xn,k ) 2 E[Yn,k 1{|Yn,k |>ε} ] = 0 für alle n hinreichend groß, p ¯ ¯ 1 ¯ > ε ln(n) falsch für alle k, falls n hinreichend groß da |Yn,k | > ε ⇔ ¯Xn,k − n−k+1 Lindeberg-Feller =⇒ n X w Yn,k −→ N (0, 1) k=1 | {z } Sn −E[Sn ] = √ ln(n) Wegen Sn − ln(n) w E[Sn ] − ln(n) p −→ 0 folgt p −→ N (0, 1) n→∞ ln(n) ln(n) Das heißt für alle a < b : µ ¶ Zb x2 Sn − ln(n) P a≤ p ≤ b −−−−→ e− 2 dx n→∞ ln(n) a | {z } p p = P ln(n) + a ln(n) ≤ Sn ≤ ln(n) + b 62 ln(n) 3.9 Unbegrenzt teilbare Verteilungen Betrachte ein Dreiecks-Array von Zufallsvariablen: ¡ ¢ Xn,k 1 ≤ k ≤ n, n ≥ 1 X1,1 X2,1 X3,1 .. . X2,2 Setze Sn = X3,2 n X Xn,k k=1 X3,3 .. . Beispiele von Grenzwertsätzen 3.9.1 i) Seien Yk , k ≥ 1, unabhängig und identisch verteilt mit E[Yk ] = 0 und E[Yk2 ] = 1. n P Yk Setze Xn,k = √ . Dann ist Sn = √1n Yk . n k=1 w Zentraler Grenzwertsatz =⇒ Sn −→ N (0, 1) ii) Seien Yk , k ≥ 1, unabhängig und identisch verteilt mit E[Yk ] = µ. n P Yk . Setze Xn,k = Ynk . Dann ist Sn = n1 k=1 P w Schwaches Gesetz der großen Zahlen =⇒ Sn −→ µ =⇒ Sn −→ µ iii) Seien Xn,k , 1 ≤ k ≤ n, unabhängig und identisch verteilt ( 1 mit Wahrscheinlichkeit nλ mit Xn,k = 0 mit Wahrscheinlichkeit 1 − nλ w =⇒ Sn −→ P oisson(λ) Frage: Gegeben Xn,k , 1 ≤ k ≤ n, unabhängig und identisch verteilt. Was sind die möglichen n P schwachen Grenzwerte von Sn = Xn,k ? k=1 Definition 3.9.2 Eine Zufallsvariable X heißt unbegrenzt teilbar, falls für alle n ∈ N unabhängige, identisch n d P verteilte Zufallsvariablen Xn,k , 1 ≤ k ≤ n, existieren, so dass X = Xn,k k=1 Bemerkung 3.9.3 Es sind äquivalent: i) X ist unbegrenzt teilbar ¡ ¢¡ ¢ ii) ∀n ∃ charakteristische Funktion ϕn ϕX = (ϕn )n ¡ ¢¡ ¢ iii) ∀n ∃ Wahrscheinlichkeitsmaß µn auf (R, B(R)) L (X) = µn ∗ µn ∗ . . . ∗ µn (n-fache Faltung von µ) 63 Beispiele unbegrenzt teilbarer Verteilungen 3.9.4 i) Z ∼ N (0, 1), Xn,k ∼ N (0, n1 ) unabhängig =⇒ n P ii) Z ∼ δµ , Xn,k ∼ δ µ =⇒ n n P Xn,k ∼ N (0, 1) k=1 Xn,k = µ k=1 iii) Z ∼ P oisson(λ), Xn,k ∼ P oisson( nλ ) unabhängig =⇒ n P Xn,k ∼ P oisson(λ) k=1 Satz 3.9.5 Für alle n seien Xn,k , 1 ≤ k ≤ n, unabhängig und identisch verteilt, Sn = n P Xn,k . k=1 w Falls Sn −→ Z, dann ist Z unbegrenzt teilbar Beweis Sei k ∈ N fest. Schreibe Skn in Blöcken der Größen n: (n) Dazu sei Yi n P = j=1 Xkn,(i−1)n+j) , Xkn,1 , Xkn,2 , Xkn,3 , . . . , Xkn,n | {z } 1≤i≤k Xkn,n+1 , . . . , Xkn,2n {z } | (n) . . . , Xkn,kn (n) Y1 Y2 Dann gilt: i) Skn = (n) ii) Yi k P i=1 (n) Yi , 1 ≤ i ≤ k, sind unabhängig und identisch verteilt ¡ (n) ¢ iii) Y1 n ≥ 1 ist straff Beweis von (iii) Für alle M > 0 gilt: k k © ¡ (n) ¢k ¡ (n) ¢ ¡T ª¢ ¡ ¢ Q (n) P Y1 > M = P Yi > M = P Yi > M ≤ P Skn > kM i=1 =⇒ P ¡ (n) Y1 ¢ i=1 ¡ > M ≤ P Skn > kM ¢1 k ¡ (n) ¢ ¡ ¢1 ¡ ¢ Analog zeigt man: P Y1 < −M ≤ P Skn < −kM k . Da Sn n ≥ 1 schwach konver¡ ¢ giert, ist Sn n ≥ 1 straff, d.h. (∀ε > 0) (∃M ) (∀n) P (|Sn | > kM ) ≤ ε ¡ (n) ¢ =⇒ Y1 n ≥ 1 ist straff und somit relativ kompakt (nj ) =⇒ ∃ Teilfolge (nj )j ≥ 1 , so dass Y1 nj Wegen (ii) folgt Yi (nj ) Somit Sknj = Y1 |{z} w −−−→ Z j→∞ w −−−→ η j→∞ (nj ) + Y2 (nj ) + . . . + Yk w d −−−→ η1 + . . . + ηk mit ηi unabh. und id. vert., ηi = Z j→∞ w −→ Z j→∞ d Eindeutigkeit des schwachen Limes =⇒ Z = η1 + . . . + ηk =⇒ Z ist unbegrenzt teilbar. 64 Noch ein Beispiel einer unbegrenzt teilbaren Verteilung 3.9.6 Seien ξn , n ≥ 1, unabhängig und identisch verteilt mit charakteristischer Funktion ϕ. Sei N ∼ P oisson(λ) unabhängig von ξn , n ≥ 1. Satz 3.9.7 S= N P j=1 ξj ist unbegrenzt teilbar. S heißt zusammengesetzt Poisson-verteilt. Beweis Sei n ≥ 1 fest, Nn ∼ P oisson( nλ ), unabhängig von (ξj )j ≥ 1 . Setze Xn = Es ist: £ ¤ ϕXn (t) = E[eitXn ] = E E[eitXn |Nn ] = N Pn j=1 ξj . N Pn ξj ¯ £ ¤ P (Nn = k)E e j=1 ¯Nn = k {z } | k=0 k P £ it j=1 ξi ¤ Q k itξ it ∞ P =E e = E[e j ]=ψ(t)k j=1 = ∞ P k=0 1 1 λ k e− n k! ( n ) ψ(t)k = exp(− nλ + nλ ψ(t)) Die unbegrenzt teilbaren Verteilungen sind gerade die Grenzwerte von zusammengesetzten PoissonVerteilungen. Charakterisierung der ungrenzt teilbaren Verteilungen mit Hilfe von charakteristischen Funktionen: Satz von Lévy-Khinchin 65 4 Martingale 4.1 Definition bedingter Erwartungswerte Definition 4.1.1 Es seien µ, ν Maße auf (Ω, F ). ν heißt absolut stetig bzgl. µ ( ν ¿ µ“), falls gilt: ” µ(A) = 0 =⇒ ν(A) = 0 ∀A ∈ F Satz 4.1.2 (von Radon-Nikodyn) Seien ¡ µ und ¢ ν¡ σ-endliche ¡ Maße ¢¢ auf (Ω, F ). Falls ν ¿ µ, dann gibt es eine messbare Funktion f : Ω, F → [0, ∞[, B [0, ∞[ , so dass gilt: Z ν(A) = f dµ ∀A ∈ F A Beweis Durett, appendix A8. Definition 4.1.3 Sei (Ω, F0 , P ) ein Wahrscheinlichkeitsraum, X : (Ω, F0 ) → (R, B(R)) eine Zufallsvariable mit E[|X|] < ∞ und sei F ⊆ F0 eine σ-Algebra. Die bedingte Erwartung E[X|F ] von X gegeben F ist eine Zufallsvariable Y : Ω → R mit folgenden Eigenschaften: (B1) Y ist F -messbar, das heißt Y −1 (A) ∈ F Z Z (B2) X dP = Y dP ∀A ∈ F A ∀A ∈ B(R) A Jede solche Zufallsvariable heißt eine Version von E[X|F ]. Erinnerung 4.1.4 Seien X und Y diskrete Zufallsvariablen mit Werten in abzählbaren Mengen S und T . Aus Stochastik 1 kennen wir: E[X|Y ] = Zufallsvariable mit Werten E[X|Y = y] auf dem Ereignis {Y = y}, das heißt P P E[X|Y ] = 1{Y =y} · x · P (X = x|Y = y) y∈T Für alle y0 ∈ T gilt: Z Z E[X|Y ] dP = {Y = y0 } {Y = y0 } x∈S Z X x · P (X = x|Y = y0 ) ·P (Y = y0 ) = x dP x · P (X = x|Y = y0 ) dP = | {z } x ∈S x ∈S {Y = y0 } P (X= x,Y = y0 ) {z } | = X P (Y = y0 ) nicht zufällig Es folgt: E[X|Y ] ist eine Version von E[X| σ(Y )]. Allgemeiner definieren wir E[X|Y ] = E[X| σ(Y )]. 66 Lemma 4.1.5 Ist Y eine Zufallsvariable mit den Eigenschaften (B1) und (B2), so ist Y ∈ L1 . Beweis (B1) Setze A = {Y > 0} ∈ F . Es gilt: Z Z Z (B2) + E[Y ] = Y dP = X dP ≤ |X| dP A und A Z (B2) E[Y − ] = A Z −Y dP = Ac Z −X dP ≤ Ac |X| dP Ac Aufsummieren: E[|Y |] ≤ E[|X|] < ∞. Satz 4.1.6 Die bedingte Erwartung existiert und ist fast sicher eindeutig bestimmt. Beweis Eindeutigkeit Es seien Y und Y 0 Versionen von E[X|F ]. Sei ε > 0, A := {Y − Y 0 < ε} ∈ F . Wegen (B2) gilt: Z Z Z Z Y dP = XdP und Y 0 dP = XdP A A A A Subtraktion Z 0 = (Y − Y 0 ) dP ≤ ε · P (A) =⇒ P (A) = 0 | {z } =⇒ P (Y − Y 0 < ε) = 1 ∀ε > 0 Ac ≤ε =⇒ P (Y − Y 0 ≤ 0) = 1 Vertauschen von Y und Y 0 liefert: P (Y 0 − Y ≤ 0) = 1 =⇒ P (Y − Y 0 ≥ 0) = 1 =⇒ P (Y − Y 0 = 0) = 1 =⇒ Y = Y 0 fast sicher Eindeutigkeit Fall: X > 0 Z Setze ν(A) = XdP ∀A ∈ F . A ν ist ein endliches Maß auf (Ω, F ) (monotone Konvergenze, ν(Ω) = E[X] < ∞). Nach Definition ist also ν ¿ P . Satz von Radon-Nikodyn anwendbar: dν ist F messbar dP Z Z dν (B2) XdP = dP dP (B1) A =⇒ ∀A ∈ F A dν ist Version von E[X|F ] dP 67 Allgemeiner Fall: Schreibe X = X + − X − und setze Y1 = E[X + |F ], Y2 = E[X − |F ] (B1) Y1 − Y2 ist F -messbar Z Z Z + (B2) ∀A ∈ F gilt: XdP = X dP − X − dP Z = A A A Z (B2) Y1 dP − = für Y 1 , Y2 Z A Y2 dP A (Y1 − Y2 ) dP A =⇒ Y1 − Y2 ist eine Version von E[X|F ]. 4.2 Eigenschaften bedingter Erwartungswerte Lemma 4.2.1 a) XF -messbar =⇒ E[X|F ] = X fast sicher b) σ(X) und F sind unabhängig =⇒ E[X|F ] = E[X] fast sicher Beweis a) folgt direkt aus der Definition b) (B1) Als Konstante ist E[X] F -messbar (B2) Für alle A ∈ F gilt: Z Z E[X] dP = E[X]·P (A) und XdP = E[X ·1A ] = E[X]·E[1A ] = E[X]·P (A). A A Satz 4.2.2 a) E[aX + Y |F ] = a · E[X|F ] + E[Y |F ] (Linearität) b) X ≤ Y =⇒ E[X|F ] ≤ E[Y |F ] (Monotonie) c) Xn ≥ 0, Xn 1 X mit E[|X|] < ∞ =⇒ E[Xn |F ] 1 E[X|F ] (Monotone Konvergenz) Beweis a) (B1) a · E[X|F ] + E[Y |F ] ist F -messbar (B2) Für alle A ∈ F gilt: Z Z Z Z Z ¡ ¢ (B2) a · E[X|F ] + E[Y |F ] dP = a · E[X|F ] dP + E[Y |F ] = a · XdP + Y dP A A Z = A (aX + Y ) dP A =⇒ E[aX + Y |F ] = a · E[X|F ] + E[Y |F ] fast sicher 68 A A b) Wegen (B2) gilt für alle A ∈ F : Z Z Z Z E[X|F ] dP = XdP ≤ Y dP = E[Y |F ] dP (B2) A A © (B2) X ≤ Y A ª A Für A = E[X|F ] − E[Y |F ] ≥ ε ∈ F , ε > 0, ergibt sich: Z 0≥ E[X|F ] − E[Y |F ] dP ≥ εP (A) | {z } (∗) A ≥ ε auf A ¡ ¢ =⇒ P A = 0 ¡ ¢ =⇒ P E[X|F ] − E[Y |F ] < ε = 1 ε > 0 beliebig =⇒ E[X|F ] ≤ E[Y |F ] fast sicher c) Setze Yn = X − Xn . Dann ist n 7→ Yn monoton fallend und somit insbesondere 0 ≤ Yn ≤ Y1 ∈ L1 . Wegen b) ist n 7→ E[Yn |F ] monoton fallend =⇒ n 7→ E[Xn |F ] ist monoton wachsend =⇒ lim E[Xn |F ] existiert und ist F -messbar =⇒ (B1) nachgewiesen. n→∞ (B2) Für alle A ∈ F gilt: Z E[Yn |F ] dP = Z Yn dP (B2) A | {z Z −→ n→∞ A } | {z } Z −→ n→∞ lim E[Yn |F ] dP n→∞ A lim Y dP = 0 n→∞ n A dHH HH HH HH H | v: vv v v vv vv {z =0 } dominiert =⇒ lim E[Yn |F ] = 0 fast sicher n→∞ | {z } = E[X|F ] − E[Xn |F ] =⇒ lim E[Xn |F ] = E[X|F ] fast sicher. n→∞ Satz 4.2.3 £ ¤ E E[X|F ] = E[X] Beweis Z Z £ ¤ E E[X|F ] = E[X|F ] dP = XdP = E[X]. (B2) Ω Ω Satz 4.2.4 Falls X F -messbar ist, E[|Y |] < ∞ und E[|XY |] < ∞. dann gilt: E[XY |F ] = XE[Y |F ] fast sicher Beweis (B1) Da X F -messbar ist, ist XE[Y |F ] F -messbar 69 (∗) Fall 1: X = 1B für ein B ∈ F . Für alle A ∈ F gilt: Z Z Z Z Z XY dP = Y dP = E[Y |F ] dP = 1B E[Y |F] dP = XE[Y |F ] dP (B2) A A∩B A∩B A A =⇒ (B2) nachgewiesen n P Fall 2: X einfache Funktion, d.h. X = αi 1Ai mit Ai ∈ F . Es gilt: i=1 n n P P E[XY |F ] = E[ αi 1Ai Y |F ] = αi E[1Ai Y |F ] = XE[Y |F ] 4.2.2a) | {z } i=1 i=1 = 1Ai E[Y |F ] Fall 1 Fall 3: X ≥ 0 und Y ≥ 0. Dann gibt es einfache Funktionen Xn ≥ 0 mit Xn 1 X, Xn F messbar und es gilt: E[XY |F ] = E[ lim Xn Y |F ] = n→∞ 4.2.2c) lim E[Xn Y |F ] = n→∞ Fall 2 lim Xn E[Y |F ] n→∞ = XE[Y |F ] Fall 4: Allgemeiner Fall. Schreibe X = X + − X − , Y = Y + − Y − und wende Fall 3 an. Satz 4.2.5 (Turmeigenschaft) Seien F1 ⊆ F2 . Dann gilt: £ ¤ £ ¤ £ ¤ E E[X|F1 ]|F2 = E E[X|F2 ]|F1 = E X|F1 Die kleinere σ-Algebra gewinnt.“ ” Beweis ¤ £ E E[X|F1 ]|F2 = E[X|F1 ] nach Lemma 4.2.1 a). | {z } F1 -messbar ⇒ F2 -messbar £ ¤ £ ¤ Bleibt zu zeigen: E E[X|F2 ]|F1 = E X|F1 (B1) E[X|F1 ] ist F1 -messbar Z Z (B2) Für alle A ∈ F1 gilt: E[X|F1 ] dP = XdP (B2) A A Z E[X|F2 ] dP. = (B2) A ⊆ F2 A Satz 4.2.6 Sei E[X 2 ] < ∞, L2 (F ) = {Y : Ω → R F -messbar mit E[Y 2 ] < ∞}. L2 (F ) 3 Y 7→ E[(X − Y )2 ] ist minimal für Y = E[X|F ] Interpretation L2 (Ω, F0 , P ) ist ein Hilbertraum. L2 (F ), F ⊆ F0 , ist ein abgeschlossener Teilraum. E[X|F ] ist die Projektion von X ∈ L2 (F0 ) auf den abgeschlossenen Teilraum L2 (F ). Beweis Sei Y ∈ L2 (F ). Setze Z = E[X|F ] − Y . Dann gilt: £ ¤ £ ¤ £ ¤ £ ¤ £ ¤ E (X −Y )2 = E (X −E[X|F ]+Z)2 = E (X −E[X|F ])2 +E Z 2 +2 E Z(X − E[X|F ]) | {z } = E ZX − E ZE[X|F ] = E ZX − E E[ZX|F ] = 0 | {z = E[ZX] £ ¤ £ ¤ Also ist E (X − Y )2 minimal genau dann wenn E Z 2 minimal ⇐⇒ Z = 0 fast sicher £ ¤ ⇐⇒ Y = E X|F fast sicher. 70 } Satz 4.2.7 (Jensen-Ungleichung ) Sei ϕ : R → R konvex, E[|X|] < ∞ und E[|ϕ(X)|] < ∞. Dann gilt: ϕ(E[X|F ]) ≤ E[ϕ(X)|F ] Beweis © ª Ist ϕ linear, so gilt sogar Gleichheit. Setze S = (a, b) : a, b ∈ Q, ax + b ≤ ϕ(x) ∀x ∈ R . Dann ist ϕ(x) = sup (ax + b) ∀x ∈ R. Für alle (a, b) ∈ S gilt: (a,b)∈S E[ϕ(X)|F ] ≥ E[aX + b|F ] = aE[X|F ] + b fast sicher =⇒ E[ϕ(X)|F ] ≥ sup (aE[X|F ] + b) = ϕ(E[X|F ]) fast sicher. (a,b)∈S 4.3 Martingale: Einfache Eigenschaften Definition 4.3.1 Eine Folge F0 ⊆ F1 ⊆ F2 ⊆ . . . von σ-Algebren heißt Filtration. Eine Folge (Mn )n ≥ 0 heißt adaptiert an die Filtration (Fn )n ≥ 0 , falls Mn Fn -messbar ist für alle n ∈ N0 . Beispiel (Mn )n ≥ 0 Zufallsvariablen, Fn = σ(M0 , M1 , . . . , Mn ), n ≥ 0 =⇒ (Fn )n ≥ 0 ist eine Filtration, (Mn )n ≥ 0 ist adaptiert an (Fn )n ≥ 0 . Martingal Submartingal bzgl. einer Filtration Eine Folge (Mn )n ≥ 0 von Zufallsvariablen heißt Supermartingal (Fn )n ≥ 0 , falls gilt: Definition 4.3.2 (M1) (Mn )n ≥ 0 ist adaptiert an (Fn )n ≥ 0 (M2) E[|Mn |] < ∞ ∀n ≥ 0 = Mn (M3) E[Mn+1 |Fn ] ≥ Mn ≤ Mn ∀n ≥ 0 Bemerkung 4.3.3 a) (Mn )n ≥ 0 ist Submartingal ⇐⇒ (−Mn )n ≥ 0 ist Supermartingal b) (Mn )n ≥ 0 ist Martingal ⇐⇒ Mn ist Sub- und Supermartingal Beispiel 4.3.4 n © ª∞ P ξi i ≥ 1 unabhängige und identisch verteilte Zufallsvariablen, Mn := ξi , E[|ξi |] < ∞ ∀i ≥ 1. i=1 F0 := {∅, Ω}, Fn := σ(ξ1 , ξ2 , . . . , ξn ). Martingal = Submartingal =⇒ (Mn )n ≥ 0 ist bzgl. (Fn ) ⇐⇒ E[ξi ] ≥ 0 ∀i ≥ 1 Supermartingal ≤ 71 Beweis (M1) ξk ist Fn -messbar für alle k ≤ n =⇒ Mn = n P ξk Fn -messbar k=1 (M2) |Mn | ≤ n P i=1 |ξi | =⇒ E[|Mn |] ≤ n P E[|ξi |] < ∞ ∀n i=1 i n+1 P h n+1 P ¯¯ (M3) E[Mn+1 |Fn ] = E ξi ¯Fn = i=1 i=1 E[ξi |Fn ] = n P ↑ i=1 ξi + E[ξn+1 |Fn ] ξi Fn -messb. für i ≤ n {ξi } unabhängig =⇒ σ(ξn+1 ) und σ(ξ1 , . . . , ξn ) unabhängig =⇒ E[ξn+1 |Fn ] = E[ξn+1 ] = = =⇒ Mn + E[ξn+1 ] ≥ Mn ⇐⇒ E[ξn+1 ] ≥ 0 ≤ ≤ Mathematisches Modell {ξi } unabhängig, P (ξi = ± 2i ) = 12 , Mn = n P i=1 ξi 1{max ξj <0} , F0 = {∅, Ω}, Fn = σ(ξ1 , ξ2 , . . . , ξn ) j<i (M1) Mn ist Fn -messbar n P (M2) |Mn | ≤ |ξi | = 2n+1 − 1 =⇒ E[|Mn |] < ∞ i=1 (M3) E[Mn+1 |Fn ] = E[Mn + ξn+1 1{ = Mn + 1 max ξj <0} |Fn ] j<n+1 max ξj <0} E[ξn+1 |Fn ] j<n+1 = Mn + E[ξn+1 1{ max ξj <0} |Fn ] j<n+1 = Mn Lemma 4.3.5 Ist (Mn )n ≥ 0 ein Martingal bzgl. irgendeiner Filtration (Fn ), so ist (Mn ) ein Martingal bzgl. {σ(M0 , M1 , . . . , Mn )}n ≥ 0 Beweis (M1) Mn ist σ(M0 , M1 , . . . , Mn )-messbar (M2) E[|Mn |] < ∞ £ ¤ £ ¢ (M3) E Mn+1 |σ(M0 , M1 , . . . , Mn ) = E E[Mn+1 |Fn ]|σ(M0 , M1 , . . . , Mn ] ↑ Turmeigenschaft £ ¤ = E Mn |σ(M0 , M1 , . . . , Mn ) = Mn . ↑ ↑ σ(M0 , . . . , Mn ) ⊆ Fn ∀n ≥ 0 Mn ist Fn -messb. Bemerkung 4.3.6 Wenn man (Mn ) ein ¡ ¢ Martingal“ sagt, so meint man damit ”(Mn ) ist ein Martingal bzgl. ” σ(M0 , M1 , . . . , Mn ) n ≥ 0“ Lemma 4.3.7 Martingal = Submartingal (Mn ) ein =⇒ E[Mn+1 ] ≥ E[Mn ] ∀n ≥ 0 Supermartingal ≤ 72 Beweis ∀n ≥ 0 : £ ¤ £ ¤ = £ ¤ E Mn+1 = E E[Mn+1 |Fn ] ≥ E Mn . ≤ Lemma 4.3.8 (Mn ) ein Martingal bzgl. (Fn ) =⇒ E[Mn |Fi ] = Mi ∀i ≤ n Beweis i=n E[Mn |Fn ] = Mn , da Mn Fn -messbar ist i=n−1 E[Mn |Fn−1 ] = Mn−1 , da Mn ein Martingal ist i 7→ i − 1 E[Mn |Fi ] = Mi ¯ ¯ £ ¤ £ ¤ £ ¯ ¤ E Mn ¯Fi−1 = E E[Mn |Fi ]¯Fi−1 = E Mi ¯Fi−1 = Mi−1 . ↑ Turmeigenschaft Lemma 4.3.9 £ ¤ Seien (Mn¡) ein Martingal, ϕ : R → R eine konvexe Funktion und E |ϕ(Mn )| < ∞. ¢ Dann ist ϕ(Mn ) n ≥ 0 ein Submartingal. Beweis (M1) ϕ(Mn ) ist Fn -messbar, denn jede konvexe Funktion ist stetig, jede stetige Funktion ist messbar und Mn ist Fn -messbar. £ ¤ (M2) E ϕ(Mn ) < ∞ nach Voraussetzung ¯ ¤ £ ¡ ¢ (M3) E ϕ(Mn+1 )¯Fn ≥ ϕ E[Mn+1 |Fn ] = ϕ(Mn ) ∀n ≥ 0. ↑ JensenUngleichung Bemerkung 4.3.10 Wenn (Mn ) ein Submartingal ist und ϕ : R → R eine konvexe, monoton wachsende Funktion, dann gilt: ϕ(Mn ) ist ein Submartingal Beispiel 4.3.11 a) (Mn ) ein Martingal bzgl. (Fn ) ¡ ¢ ¡ ¢ =⇒ |Mn | und Mn+ sind Submartingale ↑ ↑ ϕ(x) = |x| ϕ(x) = max(0, x) b) (Mn ) ein Martingal und E[Mn2 ] < ∞ ∀n ≥ 0 =⇒ (Mn2 ) ist ein Submartingal 73 Beispiel 4.3.12 H0 W0 Yn Hn = = = = Aktien Wert der Aktien beim Kauf Kurs einer Aktie n Tage nach dem Kauf Anzahl der Aktien zwischen den Zeitpunkten (n − 1) und n Forderung: Hn sei σ(Y0 , Y1 , . . . , Yn−1 )-messbar Wn = Wert der Aktien n Tage nach dem Kauf n P = Wn−1 + Hn (Yn − Yn−1 ) = . . . = W0 + Hi (Yi − Yi−1 ) n≥0 i=1 Definition 4.3.13 Die Folge (Hn )n ≥ 0 heißt previsibel bzgl. (Fn )n ≥ 0 , wenn Hn Fn−1 -messbar ist für alle n ≥ 1 (H · Y )n := n P i=1 Hi (Yi − Yi−1 ) Satz 4.3.14 Sei (Yn )n ≥ 0 ein Supermartingal bzgl. (Fn )n ≥ 0 , (Hn ) previsibel bzgl. (Fn ) und 0 ≤ Hn ≤ cn , wobei cn eine Folge von Konstanten ist. ¡ ¢ Dann ist (H · Y )n n ≥ 0 ein Supermartingal Fi -messb. Beweis ↓ z}|{ n P (M1) (H · Y )n = Hi ( Yi − Yi−1 ) =⇒ Hi (Yi − Yi−1 ) ist Fi -messbar |{z} i=1 |{z} i=1 n P ↑ ↑ Fi−1 -messb. Fi−1 -messb. | {z } Fi -messbar (M2) |(H · Y )n | ≤ n P i=1 |Hi | · |Yi − Yi−1 | ≤ =⇒ E[|(H · Y )n |] ≤ n P i=1 n P i=1 |Hi |(|Yi | + |Yi−1 |) ≤ n P i=1 ci (|Yi | + |Yi−1 |) ¡ ¢ ci E[|Yi |] + E[|Yi−1 |] < ∞, da E[|Yi |] < ∞ ∀i ≥ 0 (M3) E[(H · Y )n+1 |Fn ] = E[(H · Y )n + Hn+1 (Yn+1 − Yn )|Fn ] = (H · Y )n + E[Hn+1 (Yn+1 − Yn )|Fn ] ¡ ¢ = (H · Y )n + Hn+1 E[Yn+1 |Fn ] − Yn | {z } | {z } ≥ 0 ≤ 0, da (Yn ) Supermartingal | {z } ≤0 ≤ (H · Y )n . Bemerkung (1) Der Satz lässt sich ebenso für Submartingale und Martingale formulieren (2) Im Martingalfall ist es ausreichend nur |Hn | ≤ cn zu fordern Definition 4.3.15 Eine Abbildung T : Ω → N0 ∪ {∞} heißt eine Stoppzeit, falls {T = n} ∈ Fn 74 ∀n ≥ 0 Bemerkung T ist eine Stoppzeit ⇐⇒ {T ≤ n} ∈ Fn ⇐⇒ {T > n} ∈ Fn ∀n ≥ 0 ∀n ≥ 0 Beweis n S {T = i} ∈ Fn ⇒“: {T ≤ n} = ” i=0 | {z } ∈ Fi ⇐“: {T = n} = {T ≤ n} \ {T ≤ n − 1} ∈ Fn ” | {z } | {z } ∈ Fn ∈ Fn−1 Beispiel 4.3.16 ¡ ¢ Seien (Mn )n ≥ 0 eine Folge von Zufallsvariablen und σ(M0 , M1 , . . . , Mn ) n ≥ 0 eine Filtration. A ∈ B(R) =⇒ T = inf{k ≥ 0 : Mk ∈ A} ist eine Stoppzeit Beweis n=0 {T = 0} = {M0 ∈ A} ∈ σ(M0 ) n≥1 {T = n} = {M0 ∈ Ac , . . . , Mn−1 ∈ Ac , Mn ∈ A} = ´ {Mi ∈ Ac } ∩ {Mn ∈ A} . {z } | {z } i=0 | σ(Mi )-messb. σ(Mn )-messb. | {z } ³ n−1 T σ(M0 ,M1 ,...,Mn )-messbar Satz 4.3.17 Sei (Mn )n ≥ 0 ein Supermartingal und T eine Stoppzeit bzgl. der gleichen Filtration (Fn )n ≥ 0 . Dann ist (MT ∧n )n ≥ 0 ein Supermartingal, wobei T ∧ n = min{T, n} Beweis Hn := 1{T ≥ n} , n≥0 T ist eine Stoppzeit =⇒ {T < n} = {T ≤ n − 1} ∈ Fn−1 =⇒ {T ≥ n} = {T < n}c ∈ Fn−1 =⇒ Hn ist Fn−1 -messbar ∀n ≥ 1 =⇒ (Hn )n ≥ 0 ist previsibel (H · M )n = = n P i=1 n P i=1 Hi (Mi − Mi−1 ) = 1{T ≥ 1} Mi − = 1{T ≥ n} Mn + = 1{T ≥ n} Mn + = 1{T ≥ n} Mn + = 1{T ≥ n} Mn + n−1 P j=0 n−1 P i=1 n−1 P i=1 n−1 P i=0 n−1 P i=0 n P i=1 1{T ≥ i} (Mi − Mi−1 ) = n P i=1 1{T ≥ 1} Mi − 1{T ≥ j+1} Mj 1{T ≥ 1} Mi − n−1 P i=1 1{T ≥ i+1} Mi − 1{T ≥ 1} M0 1{T = i} Mi − 1{T ≥ 1} M0 1{T = i} Mi − 1{T = 0} M0 − 1{T ≥ 1} M9 1{T = i} Mi − M0 75 n P i=1 1{T ≥ 1} Mi−1 MT ∧n = ∞ P k=0 1{T ∧n = k} Mk = =⇒ (H · M )n = MT ∧n − M0 n−1 P k=0 1{T = k} Mk + 1{T ≥ n} Mn ∀n ≥ 0 Satz 4.3.14 =⇒ (H · M )n ≥ 0 ist ein Supermartingal =⇒ (MT ∧n − M0 )n ≥ 0 ist ein Supermartingal =⇒ (MT ∧n )n ≥ 0 ist ein Supermartingal. 4.4 Fast sichere Konvergenz Seien (Mn )n ≥ 0 ein Submartingal und a, b ∈ R mit a < b. N0 N2k−1 N2k := −1 := inf{n > N2k−2 : Mn ≤ a} := inf{n > N2k−1 : Mn ≥ b} ∀k ≥ 1 N2 b 1 2 3 4 5 10 20 a N1 N3 Wir sagen, dass (Mn )n ≥ 0 zwischen N2k−1 und N2k die k-te Aufkreuzung über [a, b] hat. Un := max{k ≥ 1 : N2k ≤ n} = Anzahl der Aufkreuzungen bis zur Zeit n Satz 4.4.1 Ist (Mn )n ≥ 0 ein Submartingal, so gilt für alle n ≥ 1 und alle a < b: E[Un ] ≤ E[(Mn − a)+ ] − E[(M0 − a)+ ] b−a 76 Beweis Die Funktion x 7→ (x − a)+ + a ist monoton wachsend und konvex. Wegen Bemerkung 4.3.10 ist (Yn := (Mn − a)+ + a)n ≥ 0 ein Submartingal. ( 1 , falls N2k−1 < n ≤ N2k für ein k ≥ 1 Definiere Hn := 0 , sonst Es gilt: (b − a)Un ≤ (H · Y )n (H · Y )n = n P i=1 Hi (Yi − Yi−1 ) = n P i=1 (Yi − Yi−1 ) − ¡ ¢ = Yn − Y0 − (1 − H)Y n {1 − Hn = 0} = {Hn = 1} = ∞ ¡ S = k=1 ∞ ¡ S n P (1 − Hi )(Yi − Yi−1 ) i=1 (1) ¢ {N2k−1 < n} ∩ {N2k ≥ n} k=1 ¢ {N2k−1 < n} ∩ {N2k ≤ n − 1}c ∈ Fn−1 {z } | {z } | ∈Fn−1 ∈Fn−1 c {1 − Hn = 1} = {1 − Hn = 0} ∈ Fn−1 £¡ ¢ ¤ =⇒ E (1 − H)Y n ≥ 0 ∀n ≥ 0 (2) £¡ ¢ ¤ £ ¤ £ ¤ £¡ ¢ ¤ £ ¤ £ ¤ (1) und (2) =⇒ E H · Y n = E Yn − E Y0 − E (1 − H)Y n ≤ E Yn − E Y0 (b − a)E[Un ] ≤ E[(H · Y )n ] ≤ E[Yn ] − E[Y0 ] = E[(Mn − a)+ ] − E[(M0 − a)+ ]. Satz 4.4.2 (Martingalkonvergenzsatz ) Ist (Mn )n ≥ 0 ein Submartingal mit sup E[Mn+ ] < ∞, so konvergiert (Mn ) fast sicher gegen einen n≥1 Grenzwert M∞ mit E[|M∞ |] < ∞ Beweis Seien a, b ∈ R und a < b. E[(Mn − a)+ ] − E[(M0 − a)+ ] E[(Mn − a)+ ] Aufkreuzungsgleichung: E[Un ] ≤ ≤ b−a b−a + sup E[M ] + |a| n E[(Mn+ + |a|)] n≥1 ≤ ≤ b−a b−a | {z } unabhängig von n Un 1 U ∈ [0, ∞[ =⇒ E[U ] = lim E[Un ] ≤ sup E[Mn+ ] b−a n→∞ ↑ monotone Konvergenz + |a| <∞ ¡ ¢ ¡ ¢ E[U ] < ∞ =⇒ P U < ∞ = 1 =⇒ P lim Mn ≤ a < b ≤ lim Mn = 0 n→∞ n→∞ ¡ ¢ ¡ S ¢ P lim Mn < lim Mn = P lim Mn ≤ a < b ≤ lim Mn n→∞ n→∞ ≤ =⇒ P ¡ lim Mn = lim n→∞ n→∞ ¢ P n→∞ a,b∈Q n→∞ a<b P a,b a<b | ¡ ¢ lim Mn ≤ a < b ≤ lim Mn = 0 n→∞ n→∞ {z } =0 = 1 =⇒ lim Mn =: M∞ n→∞ 77 h i h i + E[M∞ ] = E lim Mn+ = E lim Mn+ ≤ lim E[Mn+ ] < ∞ n→∞ ↑ n→∞ n→∞ Fatou h i ¡ ¢ − E[M∞ ] = E lim Mn− ≤ lim E[Mn− ] = lim E[Mn+ ] − E[Mn ] ≤ sup E[Mn+ ] − E[M0 ] < ∞ n→∞ n→∞ n→∞ + E[|M∞ |] = E[M∞ ] + E[Mn− ] < ∞. n≥1 Korollar 4.4.3 Sei (Mn )n ≥ 0 ein Supermartingal und Mn ≥ 0 ∀n ≥ 0. Dann konvergiert Mn fast sicher gegen einen Grenzwert M∞ und E[M∞ ] ≤ lim E[Mn ] ≤ E[M0 ] n→∞ Beweis (Mn ) ist ein Supermartingal =⇒ (−Mn ) ist ein Submartingal (−Mn )+ = Mn− = 0 ∀n ≥ 0, da Mn ≥ 0 ∀n ≥ 0 =⇒ sup E[(−Mn )+ ] = 0 < ∞ Satz 4.4.2 n→∞ =⇒ −Mn −−−−→ M∞ fast sicher n→∞ i h E[M∞ ] = E lim Mn ≤ lim E[Mn ] ≤ E[M0 ]. n→∞ n→∞ Beispiel 4.4.4 (Polya-Urne) Eine Urne enthält anfangs r rote und b blaue Kugeln. Nun werden fortlaufend Kugeln gezogen und nach jedem Zug wird die gezogene Kugel zusammen mit einer weiteren Kugel gleicher Farbe zurück in die Urne gelegt. Rn := Anzahl der roten Kugeln nach dem n-ten Zug Rn Mn := , n≥0 Fn := σ(R0 , R1 , . . . , Rn ) r+b+n Behauptung: (Mn )n ≥ 0 ist ein Martingal bzgl. (Fn )n ≥ 0 Beweis (M1) offensichtlich (M2) 0 ≤ Mn ≤ 1 =⇒ E[|Mn |] < ∞ ¯ i h Rn+1 1 ¯ (M3) E[Mn+1 |Fn ] = E E[Rn+1 |Fn ] ¯F n = r+b+n+q r+b+n+1 ¯ ¤ £ 1 E E[Rn+1 |Rn ]¯Fn = r+b+n+1 E[Rn+1 |Rn = k] = (k + 1)P (rote Kugel beim (n + 1)-ten Zug|Rn = k) + kP (blaue Kugel beim (n + 1)-ten Zug|Rn = k) = (k + 1) k r+b+n−k k + k(r + b + n) k +k = = k+ r+b+n r+b+n r+b+n r+b+n r+b+n+1 r+b+n r+b+n+1 =⇒ E[Rn+1 |Rn ] = Rn r+b+n hr + b + n + 1 ¯ i Rn 1 ¯ E Rn ¯Fn = = Mn =⇒ E[Mn+1 |Fn ] = r+b+n+1 r+b+n r+b+n Korollar 4.4.3 =⇒ Mn −−−−→ M∞ fast sicher. =k n→∞ 78 4.5 Martingalungleichungen Satz 4.5.1 Sei (Mn ) ein Submartingal und T eine Stoppzeit mit P (T ≤ n) = 1 für ein n ≥ 1. Dann gilt: E[M0 ] ≤ E[MT ] ≤ E[Mn ] Beweis Die untere Schranke: Aus Satz 4.3.17 folgt, dass (MT ∧i )i ≥ 0 ein Submartingal ist. i 7→ E[MT ∧i ] ist monoton wachsend in i. E[M0 ] = E[MT ∧0 ] ≤ E[MT ∧n ] ≤ E[MT ] Die obere Schranke: Hi = 1{T ≤i−1} , i ≥ 1. (H ·M )k = k P i=1 (Hi ) ist previsibel. Hi (Mi − Mi−1 ) = = 1{T ≤k−1} Mk + = 1{T ≤k−1} Mk − k−1 P i=1 k−1 P i=1 = Mk − 1{T ≥k} Mk − = Mk − MT ∧k k P i=1 1{T ≤i−1} Mi − k−1 P i=0 1{T ≤i} Mi (1{T ≤i−1} − 1{T ≤i} ) Mi − 1{T ≤0} M0 {z } | −1{T =i} 1{T =i} Mi − 1{T =0} M0 k−1 P i=0 1{T =1} Mi (Mn ) ist ein Submartingal ¡ ¢ =⇒ (H · M )n ist ein Submartingal 4.3.14 £ ¤ £ ¤ =⇒ E (H · M )n ≤ E (H · M )0 = 0 =⇒ E[Mn − MT ∧n ] = E[Mn ] − E[MT ∧n ] = E[Mn ] − E[MT ] ≥ 0 =⇒ E[MT ] ≤ E[Mn ]. Satz 4.5.2 (Doobsche Ungleichung ) Sei (Mn ) ein Submartingal, dann gilt: ³ ´ 1 h i + ª ≤ E[Mn ] , P max Mi+ ≥ λ ≤ E Mn 1© + max Mi ≥λ 0≤i≤n λ λ 0≤i≤n Beweis A := n max Mi+ ≥ λ 0≤i≤n o n = ↑ λ>0 o max Mi ≥ λ , 0≤i≤n ∀λ > 0 ∀n ≥ 0 N := min{k ≥ 0 : Mk ≥ λ} {N ≤ n} ⇐⇒ {N > n} = Ac λP (A) = E[λ1A ] ≤ E[MN ∧n 1A ] = E[MN ∧n ] − E[MN ∧n 1Ac ] = E[MN ∧n ] − E[Mn 1Ac ] ≤ E[Mn ] − E[Mn 1Ac ] = E[Mn 1A ] ≤ E[Mn+ ]. ↑ 4.5.1 79 Beispiel 4.5.3 Seien (ξn )n ≥ 0 unabhängige Zufallsvariablen mit E[ξn ] = 0, Sn = n P ξk , (Sn )n ≥ 0 ein Martingal. k=1 =⇒ (Sn2 )n ≥ 0 ist ein Submartingal ³ ´ ³ ´ E[S 2 ] V ar(Sn ) n P max |Sk | ≥ λ = P max Sk2 ≥ λ2 ≤ = 2 0≤k≤n 0≤k≤n λ λ2 ↑ KolmogorovUngleichung Satz 4.5.4 (Lp -Maximum-Ungleichung ) Ist (Mn )n ≥ 0 ein Submartingal, dann gilt für alle p ∈ (1, ∞): h¡ ¢p i ³ p ´p £ + p ¤ £ ¤ E (Mn+ )p ≤ E max Mi+ ≤ E (Mn ) 0≤i≤n p−1 Beweis Mn := max Mi+ . Für jedes c > 0 : 0≤i≤n ( ( © ª ∅ ,c < λ 0 ,c < λ Mn ∧ c ≥ λ = =⇒ P (Mn ∧ c ≥ λ) = {Mn ≥ λ} , c ≥ λ P (Mn ≥ λ) , c ≥ λ ( ¤ 1 £ ¤ 0 ,c < λ 1 £ =⇒ P (Mn ≥ λ) ≤ 1 = E Mn 1{Mn ∧c≥λ} ≤ E Mn 1{Mn ∧c≥λ} λ λ E[M 1 ] , c ≥ λ n {Mn ≥λ} λ Z∞ p E[(Mn ∧ c) ] = p Z∞ λ T 3.3 p−1 P (Mn ∧ c ≥ λ) dλ ≤ p 0 £ ¤ λp−2 E Mn+ 1{Mn ∧c≥λ} dλ 0 · ³ Z∞ ´¸ p−2 + = p E Mn λ 1{Mn ∧c≥λ} dλ ↑ Fubini 0 M · ¸ Zn ∧c p−2 = p E Mn + λ dλ = 0 ¤ £ p E Mn+ (Mn ∧ c)p−1 p−1 1 ¤´ 1q 1 1 p ³ £ + p ¤´ p ³ £ p = E (Mn ) E (Mn ∧ c)(p−1)q , wobei + = 1 =⇒ q = ↑ p−1 p q p−1 HölderUngleichung p−1 1 ¤´ p p ³ £ + p ¤´ p ³ £ p = E (Mn ) E (Mn ∧ c) p−1 ³ £ ¤´ p1 =⇒ E (Mn ∧ c)p ≤ 1 p ³ £ + p ¤´ p E (Mn ) p−1 ³ p ´p £ ¤ £ ¤ E (Mn+ )p ∀c > 0. =⇒ E (Mn ∧ c)p ≤ p−1 | {z } p −→ E[Mn ] c→∞ monotone Konvergenz 80 Korollar 4.5.5 Ist (Mn )n ≥ 0 ein Martingal, so gilt: h³ ´p i ³ p ´p h i E max |Mi | ≤ E |Mn |p ∀p > 1 0≤i≤n p−1 Beweis ¡ ¢ |Mn | n ≥ 0 ist ein Submartingal, |Mn |+ = |Mn |. Anwendung von Satz 5.5.4 liefert die Behauptung. 4.6 Martingalkonvergenz in Lp Satz 4.6.1 Sei (Mn )n ≥ 0 ein Martingal und sup E[|Mn |p ] < ∞. Dann konvergiert (Mn ) fast sicher und in Lp . n≥0 Beweis ¡ ¢1 E[Mn+ ] ≤ E[|Mn |] ≤ E[|Mn |p ] p ↑ Jensen =⇒ sup E[Mn+ ] ≤ n≥0 ¡ ¢1 sup E[|Mn |p ] p < ∞ n≥0 =⇒ Mn −→ M∞ fast sicher, M∞ ∈ L1 ↑ 4.4.2 Wegen Korollar 4.5.5: ·³ µ ¶p ´p ¸ µ p ¶p £ ¤ £ ¤ p E max |Mi | ≤ E |Mn |p ≤ sup E |Mi |p < ∞ 0≤i≤n p−1 p − 1 i≥0 | £¡ {z ¢ ¤} p sup |Mi | i≥0 monotone Konvergenz −→ E n→∞ =⇒ sup |Mi | ∈ Lp i≥0 ³ ´p |Mn − M∞ |p ≤ |Mn |p + |M∞ |p ≤ sup |Mi |p + sup |Mi |p = 2 sup |Mi | i≥0 i≥0 £ ¤ Dominierte Konvergenz: E |Mn − M∞ |p −→ 0 für n → ∞. i≥0 4.7 Gleichgradige Integrierbarkeit und Konvergenz in L1 Lemma 4.7.1 ¡ ¢ Seien X ∈ L1 und (Fn )n ≥ 0 eine Filtration. Dann ist Mn := E[X|Fn ] n ≥ 0 ein Martingal. Beweis (M1) Mn soll Fn -messbar sein. Das folgt aus der Definition von E[X|Fn ]. ¯¤ £ ¤ £¯ £ ¤ £ ¤ (M2) E |Mn | = E ¯E[X|Fn ]¯ ≤ E E[|X||Fn ] = E |X| < ∞ ↑ Jensen ¯ ¯ ¤ £ £ ¤ £ ¤ (M3) E Mn+1 ¯Fn = E E[X|Fn+1 ]¯Fn = E X|Fn = Mn . ↑ Turmeigenschaft 81 Definition 4.7.2 Die Familie (Xi )i ∈ I von Zufallsvariablen heißt gleichgradig integrierbar, falls h i lim sup E |Xi |1{|Xi |≥M } = 0 M →∞ i ∈ I Bemerkung 4.7.3 gleichgradige Integrierbarkeit =⇒ L1 -Beschränktheit Beweis h i ∃M > 0 : sup E |Xi |1{|Xi |≥M } ≤ 1 i∈I h i h i =⇒ sup E |Xi | = sup E |Xi |1{|Xi |≤M } + |Xi |1{|Xi |≥M } i∈I i∈I h i ≤ M + sup E |Xi |1{|Xi |≥M } ≤ M + 1. i∈I Satz 4.7.4 © ª X ∈ L1 (Ω, A , P ). Dann ist die Familie E[X|F ] : F ⊆ A und F ist σ-Algebra gleichmäßig integrierbar. Beweis Sei ε > 0. Dann existiert δ > 0, so dass gilt: £ ¤ E |X|1A ≤ ε für alle A ∈ A mit P (A) ≤ δ £ ¤ Wähle M0 : E |X| ≤ M0 δ ¯¤ £ ¤ £¯ ¯ ¡¯ ¢ E ¯E[X|F ]¯ E E|X||F ] E[|X|] ¯ ¯ P E[X|F ] ≥ M ≤ ≤ = M M M ↑ (1) MarkovUngleichung M0 δ ≤ δ für alle M > M0 und alle F ⊆ A M h¯ i h¯ i ¯ ¯ E ¯E[X|F ]¯1{|E[X|F ]|>M } ≤ E ¯E[X|F ]¯1{|E[X|F ]|≥M } h £ i ¤ ≤ E E |X||F 1{E[|X||F ]≥M } < ε ∀F ⊆ A ≤ h¯ i ¯ sup E ¯E[X|F ]¯1{|E[X|F ]|≥M } < ε ∀M ≥ M0 F ⊆A =⇒ lim h¯ i ¯ sup E ¯E[X|F ]¯1{|E[X|F ]|≥M } = 0. M →∞ F ⊆ A Satz 4.7.5 Für jedes Martingal (Mn )n ≥ 0 sind die folgenden Aussagen äquivalent: a) (Mn )n ≥ 0 ist gleichgradig integrierbar b) (Mn )n ≥ 0 konvergiert fast sicher und in L1 c) (Mn )n ≥ 0 konvergiert in L1 d) ∃M ∈ L1 : Mn = E[M |Fn ] ∀n ≥ 0 82 (2) Beweis a) =⇒ b): sup E[|Mn |] < ∞ =⇒ sup E[Mn+ ] < ∞ =⇒ Mn −→ M fast sicher und E[|M |] < ∞ n≥1 ↑ n≥1 Konvergenzsatz −k Für alle k ≥ 0 definiere ϕk (x) = x k , x < −k , x ∈ [−k, k] ,x>k E[|Mn − M |] ≤ E[|Mn − ϕk (Mn )|] + E[|ϕk (Mn ) − ϕk (M )|] + E[|ϕk (M ) − M |] | {z } −− −−→ 0 ∀k > 0 n→∞ E[|ϕk (M ) − M |] ≤ E[|M | · 1{|M |>k} ] E[|M |] < ∞ =⇒ (∀ε > 0) (∃k1 ) (∀k ≥ k1 ) E[|M | · 1{|M |>k} ] ≤ ε E[|ϕk (Mn ) − Mn |] ≤ E[|Mn | · 1{|Mn |>k} ] Gleichgradige Integrierbarkeit =⇒ (∃k2 > 0) (∀k ≥ k2 ) sup E[|Mn | · 1{|Mn |≥k} ] ≤ ε =⇒ lim E[|Mn − M |] ≤ 2ε n→∞ n≥0 ∀ε > 0 =⇒ lim E[|Mn − M |] = 0 n→∞ =⇒ lim E[|Mn − M |] = 0 n→∞ c) =⇒ d): Zu zeigen: (∃M ) Mn = E[M |Fn ] ∀n ≥ 0 m E[Mn 1A ] = E[M 1A ] ∀A∈Fn , n≥0 Sei nun n beliebig aber fest. Für alle i > n gilt: £ ¤ £ ¤ E[Mi 1A ] = E E[Mi 1A |Fn ] = E 1A E[Mi |Fn ] = E[Mn 1A ] | {z } Mn =⇒ E[Mn 1A ] = lim E[Mi 1A ] n→∞ ¯ ¯ ¯E[Mi 1A ] − E[M 1A ]¯ ≤ E[|Mi 1A − M 1A |] ≤ E[|Mi − M |] −−−→ 0 i→∞ =⇒ E[M 1A ] = lim E[Mi 1A ]. n→∞ Satz 4.7.6 Sei (Fn )n ≥ 0 eine Filtration und sei F∞ = σ ³ S ∞ ´ Fn . Für jede Zufallsvariable X ∈ L1 gilt: n=0 1 E[X|Fn ] −→ E[X|F∞ ] fast sicher und in L Beweis ¡ ¢ Nach Lemma 4.7.1 ist E[X|Fn ] n ≥ 0 ein Martingal. ¡ ¢ Satz 4.7.4 =⇒ E|X|Fn ] ist gleichgradig integrierbar Satz 4.7.5 =⇒ E[X|Fn ] −−−−→ M fast sicher und in L1 n→∞ 83 Aus dem Beweis von Satz 4.7.5 wissen wir: =⇒ E[M |Fn ] = E[X|Fn ] Mn = E[M |Fn ] ∀n ≥ 0 ∀n ≥ 0 =⇒ E[M 1A ] = E[X1A ] ∀A ∈ Fn , n ≥ 0 Z Z ∞ S =⇒ M dP = X dP ∀A ∈ Fn A Da ∞ S n=0 n=0 A Z Fn ein π-System ist, erhält man Z M dP = A X dP ∀A ∈ σ ³ S ∞ n=0 A ´ Fn = F∞ =⇒ E[M 1A ] = E[X1A ] ∀A ∈ F∞ M = lim Mn ist F∞ -messbar n→∞ =⇒ E[X|F∞ ] = M Daraus folgt die Behauptung. 4.8 Optional Stopping Ist (Mn )n ≥ 0 ein Submartingal, so gilt: (1) E[Mk ] ≤ E[Mk ] ∀0 ≤ k ≤ n (2) E[MT ] ≤ E[Mk ] für jede Stoppzeit T mit P (T ≤ n) = 1 Satz 4.8.1 Sei T < ∞ eine Stoppzeit. Ist (a) (Mn )n ≥ 0 ein gleichgradig integrierbares Submartingal oder ¡ ¢ (b) E[|MT |] < ∞ und Mn 1{T >n} n ≥ 0 gleichgradig integrierbar, dann ist (MT ∧n )n ≥ 0 ein gleichgradig integrierbares Submartingal Beweis (a) sup E[|Mn |] < ∞ =⇒ sup E[Mn+ ] < ∞ und (Mn+ ) ist ein Submartingal. n≥0 n≥0 Nach Eigenschaft (2): E[MT+∧n ] ≤ E[Mn+ ] ∀n ≥ 0 =⇒ sup E[MT+∧n ] < ∞ n≥0 ¡ ¢ MT ∧n ist ein Submartingal =⇒ MT ∧n −→ MT fast sicher und E[|MT |] < ∞ ↑ Konvergenzsatz E[|MT ∧n |1{|MT ∧n |≥k} ] = E[|MT ∧n |1{|MT ∧n |≥k} 1{T ≤n} ] + E[|MT ∧n |1{|MT ∧n |≥k} 1{T >n} ] = E||MT |1{|MT |≥k} 1{T ≤n} ] + E[|Mn |1{|Mn |≥k} 1{T >n} ] ≤ E[|MT |1{|MT |≥k} ] + E[|Mn |1{|Mn |≥k} ] =⇒ sup E[|MT ∧n |1{|MT ∧n ≥k} ] ≤ E[|MT |1{|MT |≥k} ] + sup E[|Mn |1{|Mn |≥k} ] | {z } n≥0 n≥0 | {z } −→ 0, da E[|MT |]<∞ k→∞ −→ 0, da (Mn ) k→∞ gleichgradig integrierbar =⇒ lim sup E[|MT ∧n |1{|MT ∧n |≥k} ] = 0 k→∞ n ≥ 0 84 (∗) (b) Aus (∗) folgt: E[|MT ∧n |1{|MT ∧n |≥k} ] ≤ E[|MT |1{|MT |≥k} ] + E[|Mn 1{T >n} |1{|MT 1{T >n} |≥k} ] sup E[|MT ∧n |1{|MT ∧n |≥k} ] ≤ E[|MT |1{|MT |≥k} ] + sup E[|Mn 1{T >n} |1{|MT 1{T >n} |≥k} ] | {z } n≥0 | {z } −→ 0 n≥0 −→ 0 Bemerkung T < ∞ : MT = ∞ P n=0 Mn 1{T =n} T ≤ ∞ und Mn −→ M∞ fast sicher: MT = ∞ P n=0 Mn 1{T =n} + M∞ 1{T =∞} Satz 4.8.2 Sei (Mn ) ein gleichgradig integrierbares Submartingal. Für jede Stoppzeit T < ∞ gilt: E[M0 ] ≤ E[MT ] ≤ E[M∞ ], M∞ = lim Mn n→∞ Beweis Nach Satz 4.5.1: E[M0 ] ≤ E[MT ∧n ] ≤ E[Mn ], n≥0 Aus Satz 4.8.1 folgt, dass (MT ∧n ) gleichgradig integrierbar ist. £ ¤ Nach Beweis des Satzes 4.7.5 a) ⇒ b) : MT ∧n −→ MT fast sicher und in L1 Mn −→ M∞ fast sicher und in L1 =⇒ E[MT ∧n ] −→ E[MT ] und E[Mn ] −→ E[M∞ ] Daraus folgt die Behauptung. Satz 4.8.3 Seien S ≤ T ≤ ∞ zwei Stoppzeiten und (MT ∧n )n ≥ 0 ein gleichgradig integrierbares Submartingal. Dann gilt: © ª E[MS ] ≤ E[MT ] und MS ≤ E[MT |FS ], wobei FS := A : A ∩ {S = n} ∈ Fn ∀n ≥ 0 Bemerkung 4.8.4 FS ist eine σ-Algebra Beweis Übung. Beweis von Satz 4.8.3 fn = MT ∧n , n ≥ 0, Te = S i) M fS ] ≤ E[M f∞ ] f0 ] ≤ E[M Satz 4.8.2 =⇒ E[M | {z } | {z } | {z } = E[M0 ] ( ii) Sei A ∈ FS , U = = E[MS ] = E[MT ] S, ω ∈ A T, ω ∈ Ac U ist eine Stoppzeit ⇐⇒ {U ≤ n} ∈ Fn ∀n ≥ 0 85 ¡ ¢ ¡ ¢ ¡ ¢ ¡ ¢ {U ≤ n} = {U ≤ n} ∩ A ∪ {U ≤ n} ∩ Ac = {S ≤ n} ∩ A ∪ {T ≤ n} ∩ Ac ´ ³ S n ¡ ¢ ¢´ ³¡ = {S = k} ∩ A ∪ Ac ∩ {S ≤ n} ∩ {T ≤ n} ∈ Fn | {z } {z } | {z } k=0 | ∈ Fk ⊆ Fn ∈ Fn ∈ Fn Aus der Definition von U folgt, dass U ≤ T ist. Aus der ersten Aussage des Satzes folgt: E[MU ] ≤ E[MT ] = E[MT 1A + MT 1Ac ] = E[MT 1A ] + E[MT 1Ac ] | {z } = E[MU 1A + MU 1Ac ] = E[MS 1A ] + E[MT 1Ac ] £ ¤ =⇒ E[MS 1A ] ≤ E[MT 1A ] = E E[MT |FS ]1A ∀A ∈ FS (∗) © ª MS − E[MT |FS ] > ε =: Aε ∈ FS ∀ε > 0 ¡ ¢ £ ¤ £¡ ¢ ¤ εP MS − E[MT |FS ] > ε = εE 1Aε ≤ E MS − E[MT |FS ] 1Aε £ ¤ = E[MS 1Aε ] − E E[MT |FS ]1Aε ≤ 0 nach (∗) ¡ ¢ =⇒ P MS − E[MT |FS ] > ε = 0 ∀ε > 0 ¡ ¢ ¡ ¢ =⇒ P MS − E[MT |FS ] > 0 = 0 ⇐⇒ P MS ≤ E[MT |FS ] = 1. Bemerkung 4.8.5 Ist (Mn ) ein Martingal und sind die Bedingungen von Satz 4.8.3 erfüllt, so gilt: 1) E[MS ] = E[MT ] 2) MS = E[MT |FS ] Beispiel 8.3.6 (Die Irrfahrt auf Z) Sn = Position des Irrläufers zum Zeitpunkt n S0 = x ∈ Z n P Sn = x + k=1 ξk , wobei (ξk )k ≥ 1 unabhängige Zufallsvariablen mit P (ξ = 1) = p und P (ξ = −1) = 1 − p sind. Lemma 4.8.7 µ ³ 1 − p ´Sn ¶ Mn := ist ein Martingal bzgl. (Fn ) = σ(ξ1 , ξ2 , . . . , ξn ). p n≥0 Beweis (M1) Mn ist Fn -messbar für alle n ≥ 0 ¶|x|+n £ ¤ p o , =⇒ E |Mn | < ∞ (M2) |Sn | ≤ |x|+ |ξk | = |x|+n =⇒ |Mn | ≤ max p 1 − p k=1 ¯ ¸ ³ ¯ ¸ ·³ · 1 − p ´Sn + ξn+1 ¯¯ 1 − p ´Sn ³ 1 − p ´ξn+1 ¯¯ (M3) E[Mn+1 |Fn ] = E E ¯F n = ¯F n p p p ·³ ¸ ³ 1 − p ´Sn ·³ 1 − p ´ξn+1 ¸ ³ 1 − p ´−1 1 − p ´1 = E = Mn P (ξn+1 = 1)+ P (ξn+1 = −1) p p p p ¡ ¢ = Mn (1 − p) + p = Mn . µ n P 86 n1 − p © ª © ª τa := min k ≥ 0 : Sk = a = min k ≥ 0 : Sk ∈ {a} , a ∈ Z Satz 4.8.8 Sei p 6= 1 2 und seien a, b, x ∈ Z, so dass a < x < b. Dann gilt: ¡ 1−p ¢x ¡ 1−p ¢b − p p P (τa < τb ) = ¡ ¢ ¡ ¢b 1−p a − 1−p p p Beweis T = min{τa , τb } Gesetz der großen Zahlen =⇒ P (T < ∞) = 1 =⇒ P (S = 0) = 1 =⇒ S ≤ T Bemerkung 4.8.5 =⇒ E[M0 ] = E[MT ] ³ 1 − p ´x ³ 1 − p ´a ³ 1 − p ´b E[M0 ] = , E[MT ] = P (ST = a) + P (ST = b) p p p ³ 1 − p ´a ³ 1 − p ´b ¡ ¢ = P (τa < τb ) + 1 − P (τa < τb ) p p ³ 1 − p ´x · ³ 1 − p ´a ³ 1 − p ´b ¸ ³ 1 − p ´b = − P (τa < τb ) + . p p p p Satz 4.8.9 Für die symmetrische Irrfahrt (p = 12 ) gilt: b 1) P (τa < τb ) = b − ∀S0 = 0 ∀a < 0 < b £ ¤ a 2) E min{τa , τb } = −ab Beweis (Sn ) ist ein Martingal. 1) Wegen S0 ∈ [a, b] haben wir |ST ∧n | ≤ max{−a, b} ∀n ≥ 0 =⇒ (ST ∧n )n ≥ 0 ist gleichgradig integrierbar =⇒ E[S0 ] = E[ST ] ¡ ¢ =⇒ 0 = E[ST ] = aP (ST = a) + bP (ST = b) = aP (τa < τb ) + b 1 − P (τa < τb ) =⇒ 1) 2) Mn := Sn2 − n, n ≥ 0 (M1) Mn ist Fn -messbar (M2) E[|Mn |] ≤ E[Sn2 ] + n = V ar(Sn ) + n = nV ar(ξ1 ) + n = 2n < ∞ ¯ ¤ £ 2 (M3) E[Mn+1 |Fn ] = E (Sn + ξn+1 )2 − n − 1¯Fn = E[Sn2 + 2Sn ξn+1 + ξn+1 − n − 1|Fn ] 2 |Fn ] −n − 1 = Sn2 + 0 + 1 − n − 1 = Sn2 + 2Sn E[ξn+1 |Fn ] + E[ξn+1 {z } | | {z } = E[ξn+1 ] = 0 = Sn2 − n = Mn =⇒ (Mn ) ist ein Martingal 87 2 = E[ξn+1 ]=1 Sei N ∈ N fest. Te = min{T, N } =⇒ |MTe∧n | = |ST2e∧n − Te ∧ n| ≤ ST2e∧n + Te ∧ n ≤ max{a2 , b2 } + N ¡ ¢ =⇒ MTe∧n n ≥ 0 ist gleichgradig integrierbar ∀n ≥ 0 Satz 4.8.3 =⇒ E[M0 ] = E[MTe ] = E[ST2e ] − E[Te] Te −−−−→ T fast sicher =⇒ E[Te] −−−−→ E[T ] N →∞ N →∞ ↑ monotone Konvergenz ST2e −−−−→ ST2 fast sicher =⇒ E[ST2e ] −−−−→ E[ST2 ] N →∞ ↑ N →∞ beschränkte Konvergenz =⇒ 0 = E[ST2 ] − E[T ] ¡ ¢ E[T ] = E[ST2 ] = a2 P (ST = a) + b2 P (ST = b) = a2 P (τa < τb ) + b2 1 − P (τa < τb ) ³ b b ´ a2 b b2 (−a) = a2 + b2 1 − = + = −ab. b−a b−a b−a b−a 4.9 Verzweigungsprozesse Galton-Watson-Prozess: Ausgehend von einer Startperson wird der durch sie erzeugte Stammbaum betrachtet. Die Wahrscheinlichkeit, dass die Person k Kinder hat, beträgt pk . Selbiges gilt für die Kinder, Kindeskinder, usw. ∞ P {pk }k ≥ 0 : pk ≥ 0 und pk = 1 k=0 Zn = Anzahl der Personen in der n-ten Generation {ξin } i ≥ 1 unabhängige Zufallsvariablen mit P (ξin = k) = pk n≥1 Z0 = 1, Zn+1 = Zn P i=1 ∀k ≥ 0, p1 < 1 ξin+1 , n ≥ 0 m := E[ξ11 ] = mittlere Anzahl der Kinder pro Familie Lemma 4.9.1 ¡ Ist m < ∞, dann bildet die Folge Wn := ¢ Zn mn n ≥ 0 ein Martingal Beweis ¡ ¢ Fn := σ ξik : i ≥ 1, k ∈ [1, n] , n ≥ 0 1 Zn = n Zn ist Fn -messbar n m m · ∞ ¸ · ∞ ¸ k P P P 1 1 1 (M2) E[Wn ] = n E[Zn ] = n E Zn 1{Zn−1 = k} = n E 1{Zn−1 = k} ξin m m m i=1 k=0 k=0 · ¸ ¸ i ·P h ∞ k ∞ k P n 1 P 1 P = n E 1{Zn−1 = k} ξi = n E 1{Zn−1 = k} E ξin m k=0 m k=0 i=1 i=1 ∞ ∞ 1 P 1 P = n P (Zn−1 = k)mk = n−1 kP (Zn−1 = k) m k=0 m k=0 · ¸ £ ¤ £ ¤ £ ¤ Zn−1 E[Zn−1 ] =E = E Wn−1 = . . . = E W0 = E Z0 < ∞ = mn−1 mn−1 (M1) Wn = 88 ¯ · ¸ ∞ ∞ ¯ ¯ £ ¤ P 1 P 1 ¯ E Z 1 F E Zn 1{Zn−1 =k} ¯Fn−1 n {Zn−1 =k} ¯ n−1 = n n m m k=0 k=0 ¯ ·³ k ¸ ´ ∞ ¯ P n 1 P ¯ = n E ξi 1{Zn−1 =k} ¯Fn−1 m k=0 i=1 ¯ ¸ · k ¸ · k ∞ ∞ P n ¯¯ P n 1 P 1 P ξi ¯Fn−1 = n ξi = n 1{Zn−1 =k} E 1{Zn−1 =k} E m m (M3) E[Wn |Fn−1 ] = = 1 i=1 k=0 ∞ P mn−1 i=1 k=0 Zn−1 1{Zn−1 =k} k = n−1 = Wn−1 . m k=0 (Wn )n ≥ 0 ist ein nichtnegatives Martingal. =⇒ (Wn )n ≥ 0 ist ein nichtnegatives Supermartingal =⇒ (Wn ) −−−−→ W fast sicher und E[W ] ≤ lim E[Wn ] = 1 n→∞ n→∞ Satz 4.9.2 Ist m ≤ 1, so gilt: P (Zn = 0 für alle großen n) = 1 Beweis · ¸ E[Zn ] Zn n m < 1: P (Zn > 0) = P (Zn ≥ 1) ≤ =m E = mn 1 mn ↑ | {z } MarkovUngleichung ∞ P =⇒ n=0 P (Zn > 0) ≤ ∞ P mn = n=0 =1 1 <∞ 1−m 1. Borel-Cantelli-Lemma =⇒ P (Zn > 0 für unendlich viele n) = 0 =⇒ P (Zn = 0 für alle großen n) = 1 m = 1: Wn = Zn ∀n ≥ 0 =⇒ Zn −−−−→ W fast sicher n→∞ ¶ µ ∞ ∞ ª S © P Zn −→ k = P (Zn −→ k) 1 = P (Zn −→ W ) = P k=0 k=0 ¡ ¢ k ≥ 1 : P (Zn −→ k) = P {ω : Zn (ω) = k ∀n ≥ n0 (ω)} µ ∞ ¶ ª S © =P ω : Zn (ω) = k ∀n ≥ j j=0 ≤ ∞ P P j=0 =⇒ 1 = P (Zn −→ W ) = ∞ P ¡© ω : Zn (ω) = k ∀n ≥ j ª¢ = P (Zn −→ k) = P (Zn −→ 0). k=0 ∞ P 0=0 j=0 Bemerkung 4.9.3 Ist m > 1, dann gilt: P (Zn > 0 für alle n ≥ 0) > 0 Satz 4.9.4 Genügt die Zufallsvariable ξ11 den Bedingungen E[ξ11 ] > 1 und V ar(ξ11 ) =: σ 2 ∈ (0, ∞), dann konvergiert Wn −→ W fast sicher und in L2 . σ2 Außerdem gilt: E[W ] = 1, V ar(W ) = 2 m −m 89 Beweis E[Wn2 |Fn−1 ] ¯ · ¸ ∞ ¯ P 2 ¯ = E Wn 1{Zn−1 =k} ¯Fn−1 = ¯ ¶ ¸ ·µ k ∞ ¯ P n 2 1 P ¯ E ξi 1{Zn−1 =k} ¯Fn−1 m2n k=0 i=1 ¶2 ¸ k=0 ·µ k ∞ P n 1 P = 2n 1{Zn−1 =k} E ξi m k=0 i=1 µ i´2 ¶ ´ ³ hP ³P k k ∞ 1 P n n ξi = 2n 1{Zn−1 =k} V ar ξi + E m k=0 i=1 i=1 ∞ 1 P 1 2 m2 ) 1{Zn−1 =k} (kσ 2 + k 2 m2 ) = 2n (σ 2 Zn−1 + Zn−1 2n m k=0 m · ¸ · 2 ¸ ¤ £ Zn−1 σ2 Zn−1 σ2 2 = n+1 + E[Wn−1 =⇒ E[Wn2 ] = E E[Wn2 |Fn−1 ] = n+1 E + E ] n−1 2n−2 m m m m | {z } = = E[Wn−1 ] 2 = n+1 P σ σ σ 2 + n + E[Wn−2 ] = ... = + E[W02 ] n+1 k | {z } m m k=2 m =1+ =1+ P σ 2 n+1 m2 k=2 µ 1 m ¶k−2 2 =1+ ¡ 1 ¢n =1 σ 1− m 1 m2 1 − m σ2 σ2 −n (1 − m ) < 1 + < ∞ ∀n ≥ 0 m2 − m m2 − m Satz 4.6.1 =⇒ Wn −→ W fast sicher und in L2 . Aus der L2 -Konvergenz folgt, dass µ ¶ σ2 σ2 2 2 −n E[W ] = lim E[Wn ] = lim 1 + 2 (1 − m ) = 1 + 2 n→∞ n→∞ m −m m −m L2 -Konvergenz =⇒ L1 -Konvergenz L1 -Konvergenz =⇒ E[W ] = lim E[Wn ] = 1 n→∞ ¡ ¢2 V ar(W ) = E[W 2 ] − E[W ] = 1 + σ2 σ2 −1= 2 . −m m −m m2 Bemerkung 4.9.5 (Satz von Kesten) P (W > 0) > 0 ⇐⇒ E[ξ11 log(1 + ξ11 )] < ∞ 90