Konvergenzbegriffe Eine Zufallsvariable ist im Folgenden immer eine messbare Funktion X : (Ω, F ) → (R, B), wobei B die σ–Algebra der Borel–Mengen auf R ist. Definition K.1: 1) Konvergenz in Verteilung: Xn →d X, wenn Fn (x) → F (x) für jeden Stetigkeitspunkt x; Äquivalent dazu ist: E[g(Xn )] → E[g(X)] für alle beschränkten stetigen Funktionen auf R. 2) Konvergenz in Wahrscheinlichkeit: Xn →p X, wenn P (|Xn − X| > ε) → 0 für alle ε > 0. 3) Konvergenz fast sicher: Xn → X f.s., wenn P (Xn → X) = 1. Es gilt: 3) ⇒ 2) ⇒ 1). Teilfolge. Weiters 2) ⇒ 3) für eine 1 Definition K.2: Eine Familie C von Z.V. heisst gleichmässig (oder auch gleichgradig) integrierbar, falls zu jedem ε > 0 ein K ∈ [0, ∞) existiert, sodass sup E[|X|1I{|X|>K} ] < ε. X∈C Definition K.3: 4) Konvergenz in Lp : Sei E[|Xn |p ] < ∞ für alle n. Dann Xn → X in Lp , wenn E(|Xn − X|p ) → 0. 4) ⇔ 2) + {|Xn |p : n ≥ 1} gleichmässig integrierbar. 2 Konvergenz der Erwartungswerte: Satz K.4: 1) Monotone Konvergenz: Wenn Xn ≥ 0 und Xn ↑ X f.s., dann gilt limn→∞ EXn = EX. 2) Fatou: Wenn Xn ≥ c > −∞, dann gilt E[lim inf Xn ] ≤ lim inf E[Xn ]. n n 3) Dominierte Konvergenz: Wenn |Xn | ≤ Y , für alle n, für eine integrierbare Z.V. Y und Xn → X f.s., dann gilt lim E[Xn ] = E[X]. n 3