I.1. Wk - Räume I.1. Wk - Räume I.1.2 Stochastik I I.1. Wk - Räume I.1.4 Definition I.1.2: Definition I.1.4: Ereignis σ-Algebra I.1.6 Stochastik I I.1. Wk - Räume I.1.7a Bemerkung I.1.6: Definition I.1.7a: Borel’sche σ-Algebra Maß I.1. Wk - Räume I.1.7b Stochastik I I.1. Wk - Räume I.1.7* Definition I.1.7b: Definition I.1.7*: Wahrscheinlichkeitsmaß Zylindermengen I.1. Wk - Räume I.1.10a Stochastik I I.1. Wk - Räume I.1.10b Definition I.1.10a: Definition I.1.10b: additiv isoton stetig Stochastik I Stochastik I Stochastik I Stochastik I Antwort Antwort A ⊂ P(Ω) heißt σ-Algebra, falls Sei Ω eine Menge. i) ∅ ∈ A, Die Elemente ω ∈ Ω heißen Elementarereignis und jede Teilmenge A ⊆ Ω heißt Ereignis. ii) A ∈ A ⇒ AC ∈ A, iii) Ai ∈ A mit i ∈ N ⇒ S∞ i=1 Ai ∈ A. Ein Ereignis tritt ein, falls ω ∈ A. Antwort Antwort Sei Ω 6= ∅ und A ⊆ P(Ω) eine σ-Algebra. Eine Funktion µ : A → [0, ∞) heißt Maß, falls gilt: Sei Ω ein topologischer Raum und A0 die Menge aller offenen Mengen in Ω. Dann heißt σ(A0 ) Borel’sche σ-Algebra. i) µ(∅) = 0, S P ∞ ii) µ ˙ i∈N Ai = i=1 µ(Ai ) Antwort Antwort Sei Ω 6= ∅ und A ⊆ P(Ω) eine σ-Algebra. Die Menge A0 der Zylindermengen: A0 = {B ⊆ Ω | ∃n ∈ N0 und B0 ⊆ {0, 1}n mit B = B0 × {0, 1} × {0, 1} × . . .} D.h. ein Ereignis von A0 tritt ein, wenn es nur von endlich vielen Realisierungen abhängig ist. Ein Maß P : A → [0, ∞) heißt Wahrscheinlichkeitsmaß, falls zusätzlich gilt: P (Ω) = 1 Das Tripel (Ω, A, P ) heißt in diesem Fall Wahrscheinlichkeitsraum. Antwort Antwort Sei P : A → [0, ∞) mit P (Ω) = 1. Sei P : A → [0, ∞) mit P (Ω) = 1. P heißt isoton S∞ stetig, falls für jede isotone Folge A1 ⊆ A2 ⊆ . . . mit An % i=1 Ai gilt: ! ∞ [ P Ai = lim P (An ). i=1 n→∞ P heißt additiv, falls für alle A, B ∈ A mit A ∩ B = ∅ gilt: P (A ∪ B) = P (A) + P (B). I.1. Wk - Räume I.1.10c Stochastik I I.1. Wk - Räume I.1.11 Satz I.1.11: Definition I.1.10c: Was ist äquivalent von den Definitionen I.1.10? antiton stetig I.2. Diskrete Modelle I.2.0 Stochastik I I.2. Diskrete Modelle I.2.1 Definition I.2.0: Satz I.2.1: Zähldichte Diskretes Wk-Maß I.2. Diskrete Modelle I.2.2 Stochastik I Stochastik I I.2. Diskrete Modelle I.2.3a Stochastik I Stochastik I Beispiel I.2.2: Poisson-Verteilung Laplace Modell I.2. Diskrete Modelle I.2.3b Stochastik I I.2. Diskrete Modelle I.2.3c Stochastik I Zusammenhang Binomial-Verteilung Poisson- und Binomial-Verteilung Antwort Antwort Sei P : A → [0, ∞) mit P (Ω) = 1. Sei P : A → [0, ∞) mit P (Ω) = 1. Dann sind äquivalent: P heißt antiton stetig, falls für jede antitone Folge . . . ⊇ Ai ⊇ Ai+1 ⊇ . . . gilt: ! ∞ \ P Ai = lim P (An ). i) P ist ein Wk-Maß, ii) P ist additiv und isoton stetig, ii) P ist additiv und antiton stetig. n→∞ i=1 Antwort Antwort Sei Ω höchstens abzählbar und Sei Ω höchstens abzählbar und P : Ω → [0, 1] eine Zähldichte. Dann definiert X P (A) = P (ω) P : Ω → [0, 1] mit (A ∈ A) X ω∈A P (ω) = 1 ω∈Ω ein Wk-Maß auf (Ω, A). Tatsächlich ist jedes Maß auf (Ω, A) von dieser Form. Dann heißt P Zähldichte. Antwort Antwort Sei |Ω| < ∞. Im Laplace-Modell wählen wir Πλ (k) = λk −λ e k! λ n 1 |Ω| P (A) = |A| |Ω| und Antwort Für p = P (ω) = Antwort erhalten wir: k n−k n λ λ 1− k n n = n−k λk n(n − 1) . . . (n − k + 1) λ 1 − k k! | n k {z } | {z } →1 für n→∞ →e−λ n k B(n, k, p) = p (1 − p)n−k k I.3. Trafo Wk-Räume I.3.1 Stochastik I Stochastik I I.4. Zufallsvariablen I.4.1 Satz I.3.3: Definition I.4.1: Transformation von W-Maßen Zufallsvariable I.4. Zufallsvariablen I.4.2a Stochastik I Hinreichende Bedingung für Messbarkeit Messbare Abbildung I.3.3 I.3.2 Bemerkung I.3.2: Definition I.3.1: I.3. Trafo Wk-Räume I.3. Trafo Wk-Räume Stochastik I I.4. Zufallsvariablen I.4.2b Stochastik I Stochastik I Bemerkung I.4.2a: Bemerkung I.4.2b: Indikatorfunktionen Elementare Zufallsvariable I.4. Zufallsvariablen I.4.3 Stochastik I I.4. Zufallsvariablen I.4.4 Satz I.4.3: Definition I.4.4: X+ , X− und Xn Normaldarstellung Stochastik I Antwort Sei (Ω, A) ein messbarer Raum und à = σ(Ã0 ) für Ã0 ⊆ P(Ω̃). Sei Antwort Seien (Ω, A) und (Ω̃, Ã) messbare Räume, T : Ω → Ω̃ eine Abbildung. T : Ω → Ω̃ T heißt (A/Ã)-messbar, falls gilt: Dann gilt: T messbar ⇔ T −1 T −1 (Ã) ∈ A ∀à ∈ Ã. (Ã) ∈ A ∀à ∈ Ã0 Antwort Antwort Sei (Ω, A, P ) ein Wk-Raum und (Ω̃, Ã) ein messbarer Raum. Dann heißt jede (A/Ã)-messbare Abbildung X : Ω → Ω̃ Sei T : Ω → Ω̃ messbar und P ein Wk-Maß auf (Ω, A). Dann definiert Zufallsvariable. P̃ := P ◦ T −1 Eine reelle Zufallsvariable liegt vor, falls (Ω̃, Ã) = (R, B (R)) oder (Ω̃, Ã) = R, B R . ein Wk-Maß auf (Ω̃, Ã). Das Maß P ∗ (.) = P ◦ X −1 heißt Verteilung von X unter P . Antwort Sei Ai ∈ A und αi ∈ R. Dann heißt X= n X Antwort Sei A ∈ A. Dann heißt ( αi 1Ai 1A ω = i=1 1, 0, ω∈A ω∈ /A ) Indikatorfunktion. elementare Zufallsvariable. Antwort Antwort Sei X eine Zufallsvariable. Sei X eine reellwertige Zufallsvariable. Dann heißt X= n X αi 1Ai i=1 S mit ˙ i Ai = Ω Normaldarstellung von X. 1) X ist von der Form X = X+ −X− , wobei X+ = max{X, 0} und X− = max{−X, 0}. 2) Für jede Zufallsvariable X ≥ 0 existiert eine isotone Folge Xn % X von elementaren Zufallsvariablen. I.4. Zufallsvariablen I.4.5 Stochastik I I.4. Zufallsvariablen Eindeutigkeit des Erwartungswertes I.4.7 Stochastik I Erwartungswert einer elementaren Zufallsvariable I.4. Zufallsvariablen Stochastik I I.4. Zufallsvariablen Erwartungswert (X ≥ 0 allg.) I.4.13 I.4.12 Stochastik I Satz I.4.12: Definition I.4.10: I.4. Zufallsvariablen Stochastik I für Eindeutigkeit des Erwartungswertes (X ≥ 0 allg.) Erwartungswert I.4.10 I.4.9 Korollar I.4.9: Eigenschaften I.4.7: I.4. Zufallsvariablen Stochastik I Definition I.4.6: Lemma I.4.5: I.4. Zufallsvariablen I.4.6 Stochastik I Satz von der monotonen Konvergenz I.4. Zufallsvariablen I.4.14a Stochastik I Korollar I.4.13: Definition I.4.14a: EW und unendliche Summe Erwartungswert (wirklich allg.) Antwort Antwort Seien Ist X eine Zufallsvariable mit Normaldarstellung X= n X n X αi 1Ai , αi 1Ai m X und i=1 βj 1Bj j=1 i=1 Normaldarstellungen von X. dann heißt E[X] = n X Dann gilt: αi P (Ai ) n X i=1 αi P (Ai ) = i=1 Erwartungswert von X. Dann gilt: βj P (Bj ). j=1 Antwort Seien (Xn ), (Yn ) isotone Folgen nichtnegativer elementarer Zufallsvariablen mit supn Xn = supn Yn . m X Antwort E[.] ist ein lineares monotones Funktional: - E[αX] = αE[X]. - E[X + Y ] = E[X] + E[Y ]. sup EXn = sup EYn n n - Sei X ≤ Y , dann E[X] ≤ E[Y ] Antwort Antwort Seien X, Xn ≥ 0 Zufallsvariablen und Xn % X. Sei X ≥ 0 eine Zufallsvariable auf (Ω, A, P ) und (Xn )n∈N eine Folge elementarer Zufallsvariablen mit Xn % X. Dann gilt Dann heißt EXn % EX. EX = sup EXn = lim EXn n n der Erwartungswert von X (unter P ). Antwort Antwort Für eine Zufallsvariable X : Ω → R mit min {EX+ , EX− } < ∞ ist der Erwartungswert definiert als: EX = EX+ − EX− . Seien Xn ≥ 0 Zufallsvariablen. Dann gilt: "∞ # ∞ X X E Xi = EXi i=1 i=1 I.4. Zufallsvariablen I.4.14b Stochastik I I.4. Zufallsvariablen I.4.16 Definition I.4.14b: Satz I.4.16: Integrierbare Zufallsvariable Lemma von Fatou I.5. Ungleichungen I.5.1 Stochastik I Satz I.5.1: I.5. Ungleichungen I.5.1a Stochastik I Stochastik I Tschebyscheff-Ungleichung Markov-Ungleichung I.5. Ungleichungen I.5.3 Stochastik I I.5. Ungleichungen I.5.5 Satz I.5.3: Definition I.5.5: Jensen-Ungleichung Lp I.6. (Ko-) Varianz I.6.1 Stochastik I I.6. (Ko-) Varianz I.6.2 Definition I.6.1: Bemerkung I.6.2: Varianz VarX = 0 Stochastik I Stochastik I Antwort Antwort Seien Xn ≥ 0 Zufallsvariablen. (Es reicht Xn ≥ Y ∈ L1 .) Sei Dann gilt: h L1 = {X : Ω → R ZVe mit E|X| < ∞} . i E lim inf Xn ≤ lim inf EXn n n Dann heißt X integrierbar falls X ∈ L1 . Antwort Antwort Für h(x) = x2 und X ∈ L1 gilt mit der Markov-Ungleichung: P [|X − EX| ≥ c] ≤ Sei X eine Zufallsvariable, h eine auf X(Ω) isotone, nicht negative Funktion. Dann gilt für alle c ∈ X(Ω): 1 E (X − EX)2 . 2 c h(c) · P (X ≥ c) ≤ E[h(c)]. Antwort Antwort Wir definieren Lp = {X : Ω → R mit E [|X|p ] < ∞} . Sei I ⊆ R ein offenes Intervall, X ∈ L1 mit X(Ω) ⊆ I. Sei h : I → R konvex und h ◦ X ∈ L1 . Dann gilt: Und für alle X ∈ Lp sei 1 ||X||p = E [|X|p ] p . h(EX) < E [h(X)] . Antwort Antwort Sei X ∈ L1 , dann heißt Var(X) = E (X − EX)2 die Varianz von X. Gilt VarX = 0, so gilt X = EX P-fast sicher. Die Standardabweichung ist definiert als √ σ(X) = VarX. I.7. Große Zahlen I.7.0a Stochastik I I.7. Große Zahlen I.7.0b Stochastik I Definition I.7.0a: Definition I.7.0b: Stochastische Konvergenz Fast-sichere Konvergenz I.7. Große Zahlen I.7.0c Stochastik I I.7. Große Zahlen I.7.1 Stochastik I Definition I.7.0c: Satz I.7.1: Konvergenz im p-ten Mittel Konvergenz von Summen I.7. Große Zahlen I.7.2 Stochastik I I.7. Große Zahlen Satz I.7.2: I.7.3 Stochastik I Lemma I.7.2a: Schwaches Gesetz der großen Zahlen I.7. Große Zahlen I.7.2a Stochastik I Lemma I.7.3: Schnelle stochastische Konvergenz ⇒? Borel-Cantelli I.7. Große Zahlen I.7.4 Stochastik I Satz I.7.4: Starkes Gesetz der großen Zahlen Antwort Seien X1 , X2 , . . . Zufallsvariablen auf (Ω, A, P ). (Xi )i∈N konvergiert fast sicher gegen eine Zufallsvariable X, falls P lim |Xn − X| = 0 = 1, Antwort Seien X1 , X2 , . . . Zufallsvariablen auf (Ω, A, P ). (Xi )i∈N konvergiert stochastisch gegen eine Zufallsvariable X, falls ∀ε > 0 : n→∞ geschrieben lim P ({|Xn − X| ≥ ε}) = 0, n→∞ geschrieben Xn → X p-fs. P Xn − → X. Antwort Seien X1 , X2 , . . . paarweise unkorrelierte Zufallsvariablen auf (Ω, A, P ). Wir setzen Sn = Gilt 1 N Pn i=1 Antwort Seien X1 , X2 , . . . Zufallsvariablen auf (Ω, A, P ). (Xi )i∈N konvergiert im p-ten Mittel (p ≥ 1) gegen eine Zufallsvariable X ∈ L1 , falls Xi . n 1 X Var(Xi ) = 0, n→∞ n2 i=1 n→∞ E [(Xn − X)p ] −−−−→ 0, lim geschrieben so gilt ||Xn − X||p → 0. E (Sn − ESn )2 → 0. Antwort Antwort Es gelte EXi = m ∀i ∈ N, sowie n 1 X Var(Xi ) → 0. n→∞ n2 i=1 lim Seien (Ai )i∈N Ereignisse mit P∞ i=1 P (Ai ) < ∞. Dann gilt: Dann treten nur endlich viele Ai ein. " n # 1 X n→∞ P Xi − m ≥ ε −−−−→ 0 ∀ε > 0. n i=1 Antwort Seien X1 , X2 , . . . paarweise unkorrelierte Zufallsvariablen auf (Ω, A, P ) und C = supi VarXi < ∞. Antwort Seien Z1 , Z2 , . . . Zufallsvariablen auf (Ω, A, P ), sodass für alle ε > 0 gilt: ∞ X Dann gilt: P ({|Zk | ≥ ε}) < ∞ k=0 n n 1 X 1X Xi − EXi → 0 p-fs. n n i=1 i=1 Dann gilt: lim Zk = 0 p-fs. n→∞ I.8. Konvergenzarten I.8.2 Stochastik I I.8. Konvergenzarten I.8.3 Stochastik I Satz I.8.2: Definition I.8.3: Vergleich der Konvergenzarten Gleichmäßig integrierbar I.8. Konvergenzarten I.8.4 Stochastik I I.8. Konvergenzarten Satz I.8.4: I.8.4 Stochastik I Konvergenz des Erwartungswertes I.9. Verteilungen I.9.1 Satz I.8.6: Definition I.9.1: ε − δ-Kriterium für GI Verteilungsfunktion I.9. Verteilungen I.9.2 Stochastik I Korollar I.8.5: L1 -Konvergenz und stochastische Konvergenz I.8. Konvergenzarten I.8.5 Stochastik I Satz I.9.2: Verteilungsfunktion ist isoton und eindeutig I.9. Verteilungen I.9.4 Definition I.9.4: Diskrete Verteilung Stochastik I Stochastik I Antwort Antwort Sei I eine Indexmenge. Eine Familie (Xi )i∈I von Zufallsvariablen heißt gleichmäßig integrierbar (GI), falls gilt: Z lim sup |Xi |dP = 0. fast sicher c→∞ i∈I stochastisch {|Xi |≥c} | {z h E 1{|X im p-ten Mittel } i i ≥c|}Xi Antwort Antwort Seien Xn ∈ L1 und Xn → X p-fs. Seien Xn ∈ L1 . Dann sind äquivalent: L1 i) Xn −−→ X (∈ L1 ) Ist (Xn ) GI, so gilt: P EXn → EX. ii) Xn − → X und (Xn ) in GI. Antwort Antwort Sei (Ω, A, P ) ein W’Raum und X : Ω → R eine ZV und P (X ∈ R) = 1. Es sei µ = P ◦ X −1 die Verteilung von X unter P . Dann heißt die Funktion F : R → [0, 1] Verteilungsfunktion zu X bzw. µ und ist definiert durch: F (b) = µ ((−∞, b]) = P (X ≤ b) für b ∈ R. Seien (Xi )i∈I Zufallsvariablen auf (Ω, A, P ). Dann sind äquivalent: i) (Xi )i∈I ist GI. ii) supi E [|Xi |] < ∞ und ∀ε > 0 ∃δ > 0, sodass ∀A ∈ A mit P (A) < δ gilt: Z |Xi |dP < ε ∀i ∈ I. A Antwort F bzw. µ heißen diskret, wenn es eine abzählbare Menge S ⊂ R mit µ(S) = 1 gibt. In diesem Fall gilt: µ ist eindeutig bestimmt über µ({x}) für jedes x ∈ S und F ist Sprungfunktion (bzw. Treppenfunktion) mit der Darstellung: X F (x) = µ({y}). y≤x, y∈S Antwort i) Die Verteilungsfunktion F einer ZV ist isoton: Für a, b ∈ R, a ≤ b gilt: F (a) ≤ F (b). Rechtsseitig: F (a) = limb&a F (b) (also ist F insbesondere messbar). F ist auch normiert: lim a → −∞F (a) = 0 und limb→∞ F (b) = 1. ii) Zu jeder solchen Funktion F gibt es genau ein WMaß µ auf (R, B (R)), das Eigenschaft der Verteilungsfunktion erfüllt. I.9. Verteilungen I.9. Verteilungen I.9.5a Stochastik I I.9. Verteilungen I.9.5b Definition I.9.5a: Definition I.9.5b: absolut stetig Dichtefunktion I.9.7ii Stochastik I I.9. Verteilungen I.9.7iii Definition I.9.7ii: Definition I.9.7iii: Exponentialverteilung zu α Normalverteilung I.9. Verteilungen I.9.8 Stochastik I I.9. Verteilungen I.9.9 Stochastik I Stochastik I Stochastik I Satz I.9.8: Satz I.9.9 Berechnung des Erwartungswertes Hinreichende Bedingung für GI I.9. Verteilungen I.9.11 Stochastik I I.10. Schwache Konvergenz I.10.0 Proposition I.9.11 Definition I.10.0: Konvergenz des Erwartungswertes Cb (S) Stochastik I Antwort Antwort Eine messbare Funktion f ≥ 0 heißt Dichtefunktion zu F bzw. µ, falls Zx f (t)dt ∀x ∈ R, F (x) = −∞ F bzw. µ heißen absolut stetig, wenn es eine messbare Dichtefunktion f ≥ 0 gibt. bzw. Z∞ Z µ(A) = 1A f (t)dt ∀A ∈ B (R) . f (t)dt = −∞ A Antwort Antwort Normalverteilung mit Parameter m ∈ R und σ 2 > 0: N (m, σ 2 ). Die Dichte ist f (x) = 1[0,∞) · αe−αx , bzw. (x − m)2 . fm,σ2 (x) √ exp − 2σ 2 2πσ 2 F (x) = 1[0,∞) · 1 − e−αx . Antwort Antwort 1 Sei h ≥ 0 eine messbare Funktion auf R und x eine ZV . Dann gilt: Sei g : R+ → R+ mit limx→∞ g(x) x → ∞. Z∞ E [h(x)] = h(x)µ(dx) −∞ Gilt supi E [g(|Xi |)] < ∞, so ist (Xi ) GI. (R ∞ = Antwort f (x)dx, falls µ absolut stetig, h(x)µ({x}), falls µ diskret. x∈S −∞ P Antwort f.s. Seien Xn ∈ L1 für alle n ∈ N und Xn −−→ X. Seien Xn ≥ 0. Menge aller stetigen und beschränkten Funktionen auf S. L1 Dann gilt Xn −−→ X ⇔ EXn → EX. I.10. Schwache Konvergenz I.10.1 Stochastik I I.10. Schwache Konvergenz I.10.3 Definition I.10.1: Satz I.10.3: Schwache Konvergenz Theorem von Portmanteau I.10. Schwache Konvergenz I.10.4 Stochastik I I.10. Schwache Konvergenz I.10.5* Korollar I.10.4 I.10. Schwache Konvergenz I.10.5 Stochastik I Vage Konvergenz I.11. Dynkin I.11.1 Korollar I.10.5 Definition I.11.1: Konvergenz auf (R, B (R)) Dynkin-System I.11.3 Stochastik I Definition I.10.5* Stochastische und schwache Konvergenz I.11. Dynkin Stochastik I Stochastik I I.11. Dynkin I.11.4 Stochastik I Stochastik I Bemerkung I.11.3: Satz I.11.4: Zusammenhang Dynkin-System und σ-Algebra Zusammenhang Erzeuger Dynkin-System und σ-Algebra Antwort Antwort Die folgenden Aussagen sind äquivalent: w 1) µn − → µ, 2) µn (f ) → µ(f ) ∀f ∈ Cb (S), 3) ∀F ⊆ S abgeschlossen: lim supn→∞ µn (F ) ≤ µ(F ), 4) ∀G ⊆ S offen: lim inf n→∞ µn (G) ≥ µ(G), 5) ∀ µ-randlosen A ⊆ S: µn (A) → µ(A), Eine Folge (µn ) von W’Maßen konvergiert schwach gegen Maß µ auf (S, B (S)) mit (S, d) metrischer Raum, falls gilt: Z Z f (x)µn (dx) → f (x)µ(dx) S S für alle f ∈ Cb (S). w Wir schreiben µn − → µ. Antwort Eine Folge (µn ) von W’Maßen konvergiert vage gegen µ, falls µn (f ) → µ(f ) ∀f ∈ C0 (S). Antwort Sei (Ω, A, P ) ein W’Raum, Xn (n ∈ N), X Zufallsvariable mit Werten in S. Seien µn bzw. µ die entsprechenden Verteilungen. Dann gilt: P Xn − →X Antwort Sei Ω 6= ∅ und D ⊆ P(Ω). D heißt Dynkin-System, falls gilt: - Ω ∈ D, ⇒ w µn − → µ. Antwort Seien µn , µ W’Maße auf (R, B (R)) mit Verteilungsfunktionen Fn , F . Dann sind äquivalent: 1) µn → µ vage, - A ∈ D ⇒ AC ∈ D, S - A1 , A − 2, . . . paarweise disjunkt und Ai ∈ D ⇒ ˙ n An ∈ D. 2) µn → µ schwach, 3) Fn (x) → F (x) für alle Stetigkeitsstellen von F , 4) µn ((b, a]) → µ ((b, a]) für alle µ-randlosen (b, a]. Antwort Ist M ⊆ P(Ω) ∩-stabil, dann gilt: [ D(M ) = D = σ(M ) DDykin, M ⊆D Antwort ∩-stabile Dynkin-Systeme sind σ-Algebren. I.11. Dynkin I.11.5 Stochastik I II.1. Unabh. Ereignisse II.1.1a Stochastik I Korollar I.11.5: Definition II.1.1a: Fortsetzung von Maßen Unabhängigkeit von Ereignissen II.1. Unabh. Ereignisse II.1.1b Stochastik I II.1. Unabh. Ereignisse II.1.2 Stochastik I Definition II.1.1b: Satz II.1.2: Unabhängigkeit von Mengensystemen Unabhängigkeit von erzeugten σ-Algebren II.1. Unabh. Ereignisse II.1.4 Stochastik I II.1. Unabh. Ereignisse Bemerkung II.1.4: II.1.7 Stochastik I Satz II.1.6: Paarweise unabhängig und unabhängig II.1. Unabh. Ereignisse II.1.6 Stochastik I 0-1-Gesetz von Kolmogorov II.1. Unabh. Ereignisse II.1.8 Lemma II.1.7: Lemma II.1.8: B unabh. von B Borel-Cantelli Stochastik I Antwort Sei (Ω, A, P ) ein W’Raum. Eine Familie (Ai )i∈I von Ereignissen heißt unabhängig, falls gilt: Y \ P (Aj ) ∀J ⊆ I und |J| < ∞. Aj = P Antwort Seien µ1 , µ2 W’Maße auf (Ω, A) und A = σ(A0 ), A0 ∩-stabil. Dann gilt: µ1 = µ2 auf A0 ⇒ µ1 = µ2 auf A. j∈J j∈J Antwort Antwort Seien (Bj )j∈I ∩-stabile unabhängige Mengensysteme. Dann gilt: Sei (Ω, A, P ) ein W’Raum. i) Die σ-Algebren σ(Bj ) (j ∈ I) sind unabhängig. ii) Allgemeiner: S Sind Jk , k ∈ K disjunkte Teilmengen von I, so sind σ i∈Jk Bi , k ∈ K unabhängig. Antwort Seien Bn (n ∈ N) unabhängige σ-Algebren, wobei Bn die zur Zeit n observierbaren Ereignisse enthält. Die terminale σ-Algebra (tail failed ) ist gegeben durch: \ [ σ Bm = B∞ . n∈N Eine Familie (Bj )j∈J von Mengensystemen heißt unabhängig, falls die Unabhängigkeitsbedingung für alle Ai ∈ Bi gilt. Antwort Paarweise unabhängig ; unabhängig. m≥n Für alle A ∈ B∞ gilt: P (A) ∈ {0, 1}. (Kein Zufall mehr auf B∞ .) Antwort Seien (Ai )i∈N Ereignisse. Dann gilt: P i) i∈N P (Ai ) < ∞ ⇒ P (unendlich viele Ai treten ein) = 0. P ii) i∈N P (Ai ) = ∞ und die Ai sind unabhängig ⇒ P (lim sup Ai ) = 1. Antwort Sei B ⊂ A eine σ-Algebra mit B unabhängig von B. Dann gilt: P (A) ∈ {0, 1} ∀A ∈ B II.2. Unabh. Zufallsvariablen II.2.1 Stochastik I II.2. Unabh. Zufallsvariablen II.2.2 Definition II.2.1: Bemerkung II.2.2: Unabhängigkeit von Zufallsvariablen II.2. Unabh. Zufallsvariablen II.2.3 Vererbung der Unabhängigkeit Stochastik I II.2. Unabh. Zufallsvariablen II.2.4 Satz II.2.3: II.3. Kolmogorov II.3.1 Unabhängigkeit ⇒ Unkorreliertheit Stochastik I II.3. Kolmogorov II.3.2 Satz II.3.1: Satz II.3.2: Kolmogorov 1930 Etemadi 1983 II.3.3 Stochastik I Bemerkung II.2.4: Unabhängigkeit und Erwartungswert II.3. Kolmogorov Stochastik I Stochastik I II.3. Kolmogorov II.3.4* Korollar II.3.3: Definition II.3.4*: zu Etemadi 1983 Empirische Verteilung Stochastik I Stochastik I Antwort Seien (Xi )i∈I unabhängig und hi : R → R messbar. Dann gilt: Antwort Eine Familie (Xi )i∈I von Zufallsvariablen auf (Ω, A, P ) heißt unabhängig, falls die von den Zufallsvariablen erzeugte Familie von σ-Algebren (σ(Xi ))i∈I unabhängig ist. Dabei ist Yi = h(Xi ) (i ∈ I) σ(Xi ) = {X ∈ A}|A ∈ B R . definiert eine Familie unabhängiger Zufallsvariablen. Antwort Da E[XY ] = EX · EY ± 2cov(X, Y ) für X, Y ∈ L2 , gilt: Unabhängigkeit ⇒ Unkorreliertheit. Antwort Seien X1 , X2 , . . . , Xn ≥ 0 unabhängig. Dann E [X1 · X2 · . . . Xn ] = n Y EXi i=1 Antwort Antwort Seien (Xi )i∈N paarweise unabhängig, in L1 und identisch verteilt. Dann gilt: Seien (Xi )i∈N iid Zufallsvariablen in L1 mit m = EXi (i ∈ N). Dann gilt: n n 1X Xi → m (p-fs). n i=1 1X Xi → m (p-fs). n i=1 Antwort Antwort n 1X ρn (ω, ·) = δX (ω) (.) n i=1 i Seien X, Y ∈ L1 unabhängig. Dann gilt: X · Y ∈ L1 und E[XY ] = EX · EY II.3. Kolmogorov II.3.5 Stochastik I II.4. Faltung Satz II.3.5: II.4.2 Stochastik I Gemeinsame Verteilung II.4. Faltung Bemerkung II.4.2: II.4.3 Stochastik I II.4. Faltung II.4.4a Stochastik I Definition II.4.4a: Gemeinsame Verteilung und Produktmaß II.4.4b Stochastik I Fubini Satz II.4.3: II.4. Faltung II.4.2a Satz II.4.2a: Eindeutigkeit der gemeinsamen Verteilung II.4. Faltung Stochastik I Definition II.4.1: Konvergenz der empirischen Verteilung II.4. Faltung II.4.1 Stochastik I Translation II.4. Faltung II.4.5 Stochastik I Definition II.4.4b: Satz II.4.5: Faltung Summe von Zufallsvariablen Antwort Antwort Seien X1 , X2 , . . . , Xn reellwertige Zufallsvariablen auf (Ω, A, P ). Dann heißt die Verteilung Für P-fast alle ω ∈ Ω gilt (im Rahmen des Gesetzes von Kolmogorov): µ=P ◦X −1 w ρn (ω, ·) − → µ. von X(ω) = (X1 (ω), . . . Xn (ω)) die gemeinsame Verteilung der X1 , . . . Xn . Antwort Sei f : Rn → R nicht negativ und µ = Antwort Nn i=1 µi integrierbar. Dann gilt für jede Permutation i1 , . . . in von {1, . . . , n}: Z f (x1 , . . . xn )µ(dx1 , . . . dxn ) Rn Z i=1 Z . . . R Nach Satz I.11.5 (über Fortsetzung von Maßen) ist µ eindeutig festgelegt durch: ! n \ µ(A1 × . . . × An ) = P {Xi ∈ Ai } f (x1 , . . . , xn )µi1 (dxi1 ) . . . µin (dxin ). für Ai ∈ B (R) und i ∈ {1, . . . , n}. R Antwort Antwort Seien X1 , . . . , Xn Zufallsvariablen auf (Ω, A, P ) mit Verteilungen µ1 , . . . µn und gemeinsamer Verteilung µ. Dann gilt: X1 , . . . , Xn unabhängig Sei x ∈ R. Dann heißt ⇔ µ= n O µi . i=1 Tx : R → R, Y 7→ x + Y Insbesondere gilt dann: i) µ ist eindeutig festgelegt durch die µi . die Translation um x. ii) Sind die µi absolut stetig mit Dichten Qn fi , so ist auch µ absolut stetig mit der Dichte f (x) = i=1 fi (xi ). Antwort Seien X1 und X2 unabhängige Zufallsvariablen mit Verteilung µ1 , µ2 . Dann gilt: i) Die Verteilung von X1 + X2 ist gegeben durch µ1 ∗ µ2 . ii) Hat µ2 eine Dichte f2 , so ist µ1 ∗ µ2 absolut stetig mit Z f (x) = f2 (x − x1 )µ1 (dx1 ). Antwort Für W’Maße µ1 , µ2 auf (R, B (R)) heißt Z (µ1 ∗ µ2 )(A) = µ2 ◦ Tx−1 (A)µ1 (dx1 ) 1 R die Faltung von µ1 und µ2 . II.6. Zentraler GWS II.5.1 Stochastik I II.6. Zentraler GWS II.5.2 Stochastik I Definition II.5.1: Satz II.5.2: Zentrale Grenzwerteigenschaft Zentraler Grenzwertsatz Antwort Antwort