Definition I.1.2: Ereignis Definition I.1.4: σ

Werbung
I.1. Wk - Räume
I.1. Wk - Räume
I.1.2
Stochastik I
I.1. Wk - Räume
I.1.4
Definition I.1.2:
Definition I.1.4:
Ereignis
σ-Algebra
I.1.6
Stochastik I
I.1. Wk - Räume
I.1.7a
Bemerkung I.1.6:
Definition I.1.7a:
Borel’sche σ-Algebra
Maß
I.1. Wk - Räume
I.1.7b
Stochastik I
I.1. Wk - Räume
I.1.7*
Definition I.1.7b:
Definition I.1.7*:
Wahrscheinlichkeitsmaß
Zylindermengen
I.1. Wk - Räume
I.1.10a
Stochastik I
I.1. Wk - Räume
I.1.10b
Definition I.1.10a:
Definition I.1.10b:
additiv
isoton stetig
Stochastik I
Stochastik I
Stochastik I
Stochastik I
Antwort
Antwort
A ⊂ P(Ω) heißt σ-Algebra, falls
Sei Ω eine Menge.
i) ∅ ∈ A,
Die Elemente ω ∈ Ω heißen Elementarereignis und jede Teilmenge A ⊆ Ω heißt Ereignis.
ii) A ∈ A ⇒ AC ∈ A,
iii) Ai ∈ A mit i ∈ N ⇒
S∞
i=1
Ai ∈ A.
Ein Ereignis tritt ein, falls ω ∈ A.
Antwort
Antwort
Sei Ω 6= ∅ und A ⊆ P(Ω) eine σ-Algebra.
Eine Funktion
µ : A → [0, ∞)
heißt Maß, falls gilt:
Sei Ω ein topologischer Raum und A0 die Menge aller offenen
Mengen in Ω.
Dann heißt σ(A0 ) Borel’sche σ-Algebra.
i) µ(∅) = 0,
S
P
∞
ii) µ ˙ i∈N Ai = i=1 µ(Ai )
Antwort
Antwort
Sei Ω 6= ∅ und A ⊆ P(Ω) eine σ-Algebra.
Die Menge A0 der Zylindermengen:
A0 = {B ⊆ Ω | ∃n ∈ N0 und B0 ⊆ {0, 1}n mit
B = B0 × {0, 1} × {0, 1} × . . .}
D.h. ein Ereignis von A0 tritt ein, wenn es nur von endlich vielen
Realisierungen abhängig ist.
Ein Maß
P : A → [0, ∞)
heißt Wahrscheinlichkeitsmaß, falls zusätzlich gilt:
P (Ω) = 1
Das Tripel (Ω, A, P ) heißt in diesem Fall Wahrscheinlichkeitsraum.
Antwort
Antwort
Sei P : A → [0, ∞) mit P (Ω) = 1.
Sei P : A → [0, ∞) mit P (Ω) = 1.
P heißt isoton
S∞ stetig, falls für jede isotone Folge A1 ⊆ A2 ⊆ . . .
mit An % i=1 Ai gilt:
!
∞
[
P
Ai = lim P (An ).
i=1
n→∞
P heißt additiv, falls für alle A, B ∈ A mit A ∩ B = ∅ gilt:
P (A ∪ B) = P (A) + P (B).
I.1. Wk - Räume
I.1.10c
Stochastik I
I.1. Wk - Räume
I.1.11
Satz I.1.11:
Definition I.1.10c:
Was ist äquivalent von den
Definitionen I.1.10?
antiton stetig
I.2. Diskrete Modelle
I.2.0
Stochastik I
I.2. Diskrete Modelle
I.2.1
Definition I.2.0:
Satz I.2.1:
Zähldichte
Diskretes Wk-Maß
I.2. Diskrete Modelle
I.2.2
Stochastik I
Stochastik I
I.2. Diskrete Modelle
I.2.3a
Stochastik I
Stochastik I
Beispiel I.2.2:
Poisson-Verteilung
Laplace Modell
I.2. Diskrete Modelle
I.2.3b
Stochastik I
I.2. Diskrete Modelle
I.2.3c
Stochastik I
Zusammenhang
Binomial-Verteilung
Poisson- und Binomial-Verteilung
Antwort
Antwort
Sei P : A → [0, ∞) mit P (Ω) = 1.
Sei P : A → [0, ∞) mit P (Ω) = 1.
Dann sind äquivalent:
P heißt antiton stetig, falls für jede antitone Folge
. . . ⊇ Ai ⊇ Ai+1 ⊇ . . . gilt:
!
∞
\
P
Ai = lim P (An ).
i) P ist ein Wk-Maß,
ii) P ist additiv und isoton stetig,
ii) P ist additiv und antiton stetig.
n→∞
i=1
Antwort
Antwort
Sei Ω höchstens abzählbar und
Sei Ω höchstens abzählbar und
P : Ω → [0, 1]
eine Zähldichte. Dann definiert
X
P (A) =
P (ω)
P : Ω → [0, 1]
mit
(A ∈ A)
X
ω∈A
P (ω) = 1
ω∈Ω
ein Wk-Maß auf (Ω, A). Tatsächlich ist jedes Maß auf (Ω, A) von
dieser Form.
Dann heißt P Zähldichte.
Antwort
Antwort
Sei |Ω| < ∞. Im Laplace-Modell wählen wir
Πλ (k) =
λk −λ
e
k!
λ
n
1
|Ω|
P (A) =
|A|
|Ω|
und
Antwort
Für p =
P (ω) =
Antwort
erhalten wir:
k n−k
n
λ
λ
1−
k
n
n
=
n−k
λk n(n − 1) . . . (n − k + 1)
λ
1
−
k
k! |
n
k
{z
} |
{z
}
→1 für n→∞
→e−λ
n k
B(n, k, p) =
p (1 − p)n−k
k
I.3. Trafo Wk-Räume
I.3.1
Stochastik I
Stochastik I
I.4. Zufallsvariablen
I.4.1
Satz I.3.3:
Definition I.4.1:
Transformation von W-Maßen
Zufallsvariable
I.4. Zufallsvariablen
I.4.2a
Stochastik I
Hinreichende Bedingung für
Messbarkeit
Messbare Abbildung
I.3.3
I.3.2
Bemerkung I.3.2:
Definition I.3.1:
I.3. Trafo Wk-Räume
I.3. Trafo Wk-Räume
Stochastik I
I.4. Zufallsvariablen
I.4.2b
Stochastik I
Stochastik I
Bemerkung I.4.2a:
Bemerkung I.4.2b:
Indikatorfunktionen
Elementare Zufallsvariable
I.4. Zufallsvariablen
I.4.3
Stochastik I
I.4. Zufallsvariablen
I.4.4
Satz I.4.3:
Definition I.4.4:
X+ , X− und Xn
Normaldarstellung
Stochastik I
Antwort
Sei (Ω, A) ein messbarer Raum und à = σ(Ã0 ) für Ã0 ⊆ P(Ω̃).
Sei
Antwort
Seien (Ω, A) und (Ω̃, Ã) messbare Räume, T : Ω → Ω̃ eine Abbildung.
T : Ω → Ω̃
T heißt (A/Ã)-messbar, falls gilt:
Dann gilt:
T messbar ⇔ T
−1
T −1 (Ã) ∈ A ∀Ã ∈ Ã.
(Ã) ∈ A ∀Ã ∈ Ã0
Antwort
Antwort
Sei (Ω, A, P ) ein Wk-Raum und (Ω̃, Ã) ein messbarer Raum.
Dann heißt jede (A/Ã)-messbare Abbildung
X : Ω → Ω̃
Sei T : Ω → Ω̃ messbar und P ein Wk-Maß auf (Ω, A).
Dann definiert
Zufallsvariable.
P̃ := P ◦ T −1
Eine reelle Zufallsvariable
liegt vor, falls (Ω̃, Ã) = (R, B (R)) oder
(Ω̃, Ã) = R, B R .
ein Wk-Maß auf (Ω̃, Ã).
Das Maß P ∗ (.) = P ◦ X −1 heißt Verteilung von X unter P .
Antwort
Sei Ai ∈ A und αi ∈ R. Dann heißt
X=
n
X
Antwort
Sei A ∈ A. Dann heißt
(
αi 1Ai
1A ω =
i=1
1,
0,
ω∈A
ω∈
/A
)
Indikatorfunktion.
elementare Zufallsvariable.
Antwort
Antwort
Sei X eine Zufallsvariable.
Sei X eine reellwertige Zufallsvariable. Dann heißt
X=
n
X
αi 1Ai
i=1
S
mit ˙ i Ai = Ω Normaldarstellung von X.
1) X ist von der Form X = X+ −X− , wobei X+ = max{X, 0}
und X− = max{−X, 0}.
2) Für jede Zufallsvariable X ≥ 0 existiert eine isotone Folge
Xn % X von elementaren Zufallsvariablen.
I.4. Zufallsvariablen
I.4.5
Stochastik I
I.4. Zufallsvariablen
Eindeutigkeit des Erwartungswertes
I.4.7
Stochastik I
Erwartungswert einer elementaren
Zufallsvariable
I.4. Zufallsvariablen
Stochastik I
I.4. Zufallsvariablen
Erwartungswert (X ≥ 0 allg.)
I.4.13
I.4.12
Stochastik I
Satz I.4.12:
Definition I.4.10:
I.4. Zufallsvariablen
Stochastik I
für Eindeutigkeit des
Erwartungswertes (X ≥ 0 allg.)
Erwartungswert
I.4.10
I.4.9
Korollar I.4.9:
Eigenschaften I.4.7:
I.4. Zufallsvariablen
Stochastik I
Definition I.4.6:
Lemma I.4.5:
I.4. Zufallsvariablen
I.4.6
Stochastik I
Satz von der monotonen
Konvergenz
I.4. Zufallsvariablen
I.4.14a
Stochastik I
Korollar I.4.13:
Definition I.4.14a:
EW und unendliche Summe
Erwartungswert (wirklich allg.)
Antwort
Antwort
Seien
Ist X eine Zufallsvariable mit Normaldarstellung
X=
n
X
n
X
αi 1Ai ,
αi 1Ai
m
X
und
i=1
βj 1Bj
j=1
i=1
Normaldarstellungen von X.
dann heißt
E[X] =
n
X
Dann gilt:
αi P (Ai )
n
X
i=1
αi P (Ai ) =
i=1
Erwartungswert von X.
Dann gilt:
βj P (Bj ).
j=1
Antwort
Seien (Xn ), (Yn ) isotone Folgen nichtnegativer elementarer Zufallsvariablen mit supn Xn = supn Yn .
m
X
Antwort
E[.] ist ein lineares monotones Funktional:
- E[αX] = αE[X].
- E[X + Y ] = E[X] + E[Y ].
sup EXn = sup EYn
n
n
- Sei X ≤ Y , dann E[X] ≤ E[Y ]
Antwort
Antwort
Seien X, Xn ≥ 0 Zufallsvariablen und Xn % X.
Sei X ≥ 0 eine Zufallsvariable auf (Ω, A, P ) und (Xn )n∈N eine
Folge elementarer Zufallsvariablen mit Xn % X.
Dann gilt
Dann heißt
EXn % EX.
EX = sup EXn = lim EXn
n
n
der Erwartungswert von X (unter P ).
Antwort
Antwort
Für eine Zufallsvariable X : Ω → R mit
min {EX+ , EX− } < ∞
ist der Erwartungswert definiert als:
EX = EX+ − EX− .
Seien Xn ≥ 0 Zufallsvariablen. Dann gilt:
"∞
#
∞
X
X
E
Xi =
EXi
i=1
i=1
I.4. Zufallsvariablen
I.4.14b
Stochastik I
I.4. Zufallsvariablen
I.4.16
Definition I.4.14b:
Satz I.4.16:
Integrierbare Zufallsvariable
Lemma von Fatou
I.5. Ungleichungen
I.5.1
Stochastik I
Satz I.5.1:
I.5. Ungleichungen
I.5.1a
Stochastik I
Stochastik I
Tschebyscheff-Ungleichung
Markov-Ungleichung
I.5. Ungleichungen
I.5.3
Stochastik I
I.5. Ungleichungen
I.5.5
Satz I.5.3:
Definition I.5.5:
Jensen-Ungleichung
Lp
I.6. (Ko-) Varianz
I.6.1
Stochastik I
I.6. (Ko-) Varianz
I.6.2
Definition I.6.1:
Bemerkung I.6.2:
Varianz
VarX = 0
Stochastik I
Stochastik I
Antwort
Antwort
Seien Xn ≥ 0 Zufallsvariablen. (Es reicht Xn ≥ Y ∈ L1 .)
Sei
Dann gilt:
h
L1 = {X : Ω → R ZVe mit E|X| < ∞} .
i
E lim inf Xn ≤ lim inf EXn
n
n
Dann heißt X integrierbar falls X ∈ L1 .
Antwort
Antwort
Für h(x) = x2 und X ∈ L1 gilt mit der Markov-Ungleichung:
P [|X − EX| ≥ c] ≤
Sei X eine Zufallsvariable, h eine auf X(Ω) isotone, nicht negative Funktion. Dann gilt für alle c ∈ X(Ω):
1 E (X − EX)2 .
2
c
h(c) · P (X ≥ c) ≤ E[h(c)].
Antwort
Antwort
Wir definieren
Lp = {X : Ω → R mit E [|X|p ] < ∞} .
Sei I ⊆ R ein offenes Intervall, X ∈ L1 mit X(Ω) ⊆ I. Sei
h : I → R konvex und h ◦ X ∈ L1 .
Dann gilt:
Und für alle X ∈ Lp sei
1
||X||p = E [|X|p ] p .
h(EX) < E [h(X)] .
Antwort
Antwort
Sei X ∈ L1 , dann heißt
Var(X) = E (X − EX)2
die Varianz von X.
Gilt VarX = 0, so gilt X = EX P-fast sicher.
Die Standardabweichung ist definiert als
√
σ(X) = VarX.
I.7. Große Zahlen
I.7.0a
Stochastik I
I.7. Große Zahlen
I.7.0b
Stochastik I
Definition I.7.0a:
Definition I.7.0b:
Stochastische Konvergenz
Fast-sichere Konvergenz
I.7. Große Zahlen
I.7.0c
Stochastik I
I.7. Große Zahlen
I.7.1
Stochastik I
Definition I.7.0c:
Satz I.7.1:
Konvergenz im p-ten Mittel
Konvergenz von Summen
I.7. Große Zahlen
I.7.2
Stochastik I
I.7. Große Zahlen
Satz I.7.2:
I.7.3
Stochastik I
Lemma I.7.2a:
Schwaches Gesetz der großen
Zahlen
I.7. Große Zahlen
I.7.2a
Stochastik I
Lemma I.7.3:
Schnelle stochastische Konvergenz
⇒?
Borel-Cantelli
I.7. Große Zahlen
I.7.4
Stochastik I
Satz I.7.4:
Starkes Gesetz der großen Zahlen
Antwort
Seien X1 , X2 , . . . Zufallsvariablen auf (Ω, A, P ).
(Xi )i∈N konvergiert fast sicher gegen eine Zufallsvariable X, falls
P lim |Xn − X| = 0 = 1,
Antwort
Seien X1 , X2 , . . . Zufallsvariablen auf (Ω, A, P ).
(Xi )i∈N konvergiert stochastisch gegen eine Zufallsvariable X,
falls
∀ε > 0 :
n→∞
geschrieben
lim P ({|Xn − X| ≥ ε}) = 0,
n→∞
geschrieben
Xn → X
p-fs.
P
Xn −
→ X.
Antwort
Seien X1 , X2 , . . . paarweise unkorrelierte Zufallsvariablen
auf (Ω, A, P ).
Wir setzen Sn =
Gilt
1
N
Pn
i=1
Antwort
Seien X1 , X2 , . . . Zufallsvariablen auf (Ω, A, P ).
(Xi )i∈N konvergiert im p-ten Mittel (p ≥ 1) gegen eine Zufallsvariable X ∈ L1 , falls
Xi .
n
1 X
Var(Xi ) = 0,
n→∞ n2
i=1
n→∞
E [(Xn − X)p ] −−−−→ 0,
lim
geschrieben
so gilt
||Xn − X||p → 0.
E (Sn − ESn )2 → 0.
Antwort
Antwort
Es gelte EXi = m ∀i ∈ N, sowie
n
1 X
Var(Xi ) → 0.
n→∞ n2
i=1
lim
Seien (Ai )i∈N Ereignisse mit
P∞
i=1
P (Ai ) < ∞.
Dann gilt:
Dann treten nur endlich viele Ai ein.
" n
#
1 X
n→∞
P Xi − m ≥ ε −−−−→ 0 ∀ε > 0.
n
i=1
Antwort
Seien X1 , X2 , . . . paarweise unkorrelierte Zufallsvariablen
auf (Ω, A, P ) und C = supi VarXi < ∞.
Antwort
Seien Z1 , Z2 , . . . Zufallsvariablen auf (Ω, A, P ), sodass für alle
ε > 0 gilt:
∞
X
Dann gilt:
P ({|Zk | ≥ ε}) < ∞
k=0
n
n
1 X
1X
Xi −
EXi → 0 p-fs.
n
n i=1
i=1
Dann gilt:
lim Zk = 0 p-fs.
n→∞
I.8. Konvergenzarten
I.8.2
Stochastik I
I.8. Konvergenzarten
I.8.3
Stochastik I
Satz I.8.2:
Definition I.8.3:
Vergleich der Konvergenzarten
Gleichmäßig integrierbar
I.8. Konvergenzarten
I.8.4
Stochastik I
I.8. Konvergenzarten
Satz I.8.4:
I.8.4
Stochastik I
Konvergenz des Erwartungswertes
I.9. Verteilungen
I.9.1
Satz I.8.6:
Definition I.9.1:
ε − δ-Kriterium für GI
Verteilungsfunktion
I.9. Verteilungen
I.9.2
Stochastik I
Korollar I.8.5:
L1 -Konvergenz und stochastische
Konvergenz
I.8. Konvergenzarten
I.8.5
Stochastik I
Satz I.9.2:
Verteilungsfunktion ist isoton und
eindeutig
I.9. Verteilungen
I.9.4
Definition I.9.4:
Diskrete Verteilung
Stochastik I
Stochastik I
Antwort
Antwort
Sei I eine Indexmenge.
Eine Familie (Xi )i∈I von Zufallsvariablen heißt gleichmäßig integrierbar (GI), falls gilt:
Z
lim sup
|Xi |dP = 0.
fast sicher
c→∞ i∈I
stochastisch
{|Xi |≥c}
|
{z
h
E 1{|X
im p-ten Mittel
}
i
i ≥c|}Xi
Antwort
Antwort
Seien Xn ∈ L1 und Xn → X p-fs.
Seien Xn ∈ L1 . Dann sind äquivalent:
L1
i) Xn −−→ X (∈ L1 )
Ist (Xn ) GI, so gilt:
P
EXn → EX.
ii) Xn −
→ X und (Xn ) in GI.
Antwort
Antwort
Sei (Ω, A, P ) ein W’Raum und X : Ω → R eine ZV und
P (X ∈ R) = 1.
Es sei µ = P ◦ X −1 die Verteilung von X unter P .
Dann heißt die Funktion F : R → [0, 1] Verteilungsfunktion zu
X bzw. µ und ist definiert durch:
F (b) = µ ((−∞, b]) = P (X ≤ b)
für b ∈ R.
Seien (Xi )i∈I Zufallsvariablen auf (Ω, A, P ). Dann sind äquivalent:
i) (Xi )i∈I ist GI.
ii) supi E [|Xi |] < ∞ und ∀ε > 0 ∃δ > 0, sodass
∀A ∈ A mit P (A) < δ gilt:
Z
|Xi |dP < ε ∀i ∈ I.
A
Antwort
F bzw. µ heißen diskret, wenn es eine abzählbare Menge S ⊂ R
mit µ(S) = 1 gibt. In diesem Fall gilt: µ ist eindeutig bestimmt
über µ({x}) für jedes x ∈ S und F ist Sprungfunktion (bzw.
Treppenfunktion) mit der Darstellung:
X
F (x) =
µ({y}).
y≤x,
y∈S
Antwort
i) Die Verteilungsfunktion F einer ZV ist isoton:
Für a, b ∈ R, a ≤ b gilt: F (a) ≤ F (b).
Rechtsseitig: F (a) = limb&a F (b)
(also ist F insbesondere messbar).
F ist auch normiert: lim a → −∞F (a) = 0
und limb→∞ F (b) = 1.
ii) Zu jeder solchen Funktion F gibt es genau ein WMaß
µ auf (R, B (R)), das Eigenschaft der
Verteilungsfunktion erfüllt.
I.9. Verteilungen
I.9. Verteilungen
I.9.5a
Stochastik I
I.9. Verteilungen
I.9.5b
Definition I.9.5a:
Definition I.9.5b:
absolut stetig
Dichtefunktion
I.9.7ii
Stochastik I
I.9. Verteilungen
I.9.7iii
Definition I.9.7ii:
Definition I.9.7iii:
Exponentialverteilung zu α
Normalverteilung
I.9. Verteilungen
I.9.8
Stochastik I
I.9. Verteilungen
I.9.9
Stochastik I
Stochastik I
Stochastik I
Satz I.9.8:
Satz I.9.9
Berechnung des Erwartungswertes
Hinreichende Bedingung für GI
I.9. Verteilungen
I.9.11
Stochastik I
I.10. Schwache Konvergenz I.10.0
Proposition I.9.11
Definition I.10.0:
Konvergenz des Erwartungswertes
Cb (S)
Stochastik I
Antwort
Antwort
Eine messbare Funktion f ≥ 0 heißt Dichtefunktion zu F bzw.
µ, falls
Zx
f (t)dt ∀x ∈ R,
F (x) =
−∞
F bzw. µ heißen absolut stetig, wenn es eine messbare Dichtefunktion f ≥ 0 gibt.
bzw.
Z∞
Z
µ(A) =
1A f (t)dt ∀A ∈ B (R) .
f (t)dt =
−∞
A
Antwort
Antwort
Normalverteilung mit Parameter m ∈ R und σ 2 > 0: N (m, σ 2 ).
Die Dichte ist
f (x) = 1[0,∞) · αe−αx ,
bzw.
(x − m)2
.
fm,σ2 (x) √
exp −
2σ 2
2πσ 2
F (x) = 1[0,∞) · 1 − e−αx .
Antwort
Antwort
1
Sei h ≥ 0 eine messbare Funktion auf R und x eine ZV . Dann
gilt:
Sei g : R+ → R+ mit limx→∞
g(x)
x
→ ∞.
Z∞
E [h(x)] =
h(x)µ(dx)
−∞
Gilt supi E [g(|Xi |)] < ∞, so ist (Xi ) GI.
(R ∞
=
Antwort
f (x)dx,
falls µ absolut stetig,
h(x)µ({x}),
falls µ diskret.
x∈S
−∞
P
Antwort
f.s.
Seien Xn ∈ L1 für alle n ∈ N und Xn −−→ X. Seien Xn ≥ 0.
Menge aller stetigen und beschränkten Funktionen auf S.
L1
Dann gilt Xn −−→ X ⇔ EXn → EX.
I.10. Schwache Konvergenz I.10.1
Stochastik I
I.10. Schwache Konvergenz I.10.3
Definition I.10.1:
Satz I.10.3:
Schwache Konvergenz
Theorem von Portmanteau
I.10. Schwache Konvergenz I.10.4
Stochastik I
I.10. Schwache Konvergenz I.10.5*
Korollar I.10.4
I.10. Schwache Konvergenz I.10.5
Stochastik I
Vage Konvergenz
I.11. Dynkin
I.11.1
Korollar I.10.5
Definition I.11.1:
Konvergenz auf (R, B (R))
Dynkin-System
I.11.3
Stochastik I
Definition I.10.5*
Stochastische und schwache
Konvergenz
I.11. Dynkin
Stochastik I
Stochastik I
I.11. Dynkin
I.11.4
Stochastik I
Stochastik I
Bemerkung I.11.3:
Satz I.11.4:
Zusammenhang Dynkin-System
und σ-Algebra
Zusammenhang Erzeuger
Dynkin-System und σ-Algebra
Antwort
Antwort
Die folgenden Aussagen sind äquivalent:
w
1) µn −
→ µ,
2) µn (f ) → µ(f ) ∀f ∈ Cb (S),
3) ∀F ⊆ S abgeschlossen: lim supn→∞ µn (F ) ≤ µ(F ),
4) ∀G ⊆ S offen: lim inf n→∞ µn (G) ≥ µ(G),
5) ∀ µ-randlosen A ⊆ S: µn (A) → µ(A),
Eine Folge (µn ) von W’Maßen konvergiert schwach gegen Maß
µ auf (S, B (S)) mit (S, d) metrischer Raum, falls gilt:
Z
Z
f (x)µn (dx) → f (x)µ(dx)
S
S
für alle f ∈ Cb (S).
w
Wir schreiben µn −
→ µ.
Antwort
Eine Folge (µn ) von W’Maßen konvergiert vage gegen µ, falls
µn (f ) → µ(f ) ∀f ∈ C0 (S).
Antwort
Sei (Ω, A, P ) ein W’Raum, Xn (n ∈ N), X Zufallsvariable mit
Werten in S.
Seien µn bzw. µ die entsprechenden Verteilungen. Dann gilt:
P
Xn −
→X
Antwort
Sei Ω 6= ∅ und D ⊆ P(Ω). D heißt Dynkin-System, falls gilt:
- Ω ∈ D,
⇒
w
µn −
→ µ.
Antwort
Seien µn , µ W’Maße auf (R, B (R)) mit Verteilungsfunktionen
Fn , F .
Dann sind äquivalent:
1) µn → µ vage,
- A ∈ D ⇒ AC ∈ D,
S
- A1 , A − 2, . . . paarweise disjunkt und Ai ∈ D ⇒ ˙ n An ∈
D.
2) µn → µ schwach,
3) Fn (x) → F (x) für alle Stetigkeitsstellen von F ,
4) µn ((b, a]) → µ ((b, a]) für alle µ-randlosen (b, a].
Antwort
Ist M ⊆ P(Ω) ∩-stabil, dann gilt:
[
D(M ) =
D = σ(M )
DDykin,
M ⊆D
Antwort
∩-stabile Dynkin-Systeme sind σ-Algebren.
I.11. Dynkin
I.11.5
Stochastik I
II.1. Unabh. Ereignisse
II.1.1a
Stochastik I
Korollar I.11.5:
Definition II.1.1a:
Fortsetzung von Maßen
Unabhängigkeit von Ereignissen
II.1. Unabh. Ereignisse
II.1.1b
Stochastik I
II.1. Unabh. Ereignisse
II.1.2
Stochastik I
Definition II.1.1b:
Satz II.1.2:
Unabhängigkeit von
Mengensystemen
Unabhängigkeit von erzeugten
σ-Algebren
II.1. Unabh. Ereignisse
II.1.4
Stochastik I
II.1. Unabh. Ereignisse
Bemerkung II.1.4:
II.1.7
Stochastik I
Satz II.1.6:
Paarweise unabhängig und
unabhängig
II.1. Unabh. Ereignisse
II.1.6
Stochastik I
0-1-Gesetz von Kolmogorov
II.1. Unabh. Ereignisse
II.1.8
Lemma II.1.7:
Lemma II.1.8:
B unabh. von B
Borel-Cantelli
Stochastik I
Antwort
Sei (Ω, A, P ) ein W’Raum. Eine Familie (Ai )i∈I von Ereignissen
heißt unabhängig, falls gilt:


Y
\
P (Aj ) ∀J ⊆ I und |J| < ∞.
Aj  =
P
Antwort
Seien µ1 , µ2 W’Maße auf (Ω, A) und A = σ(A0 ), A0 ∩-stabil.
Dann gilt:
µ1 = µ2 auf A0 ⇒ µ1 = µ2 auf A.
j∈J
j∈J
Antwort
Antwort
Seien (Bj )j∈I ∩-stabile unabhängige Mengensysteme.
Dann gilt:
Sei (Ω, A, P ) ein W’Raum.
i) Die σ-Algebren σ(Bj ) (j ∈ I) sind unabhängig.
ii) Allgemeiner:
S Sind Jk , k ∈ K disjunkte Teilmengen von I,
so sind σ i∈Jk Bi , k ∈ K unabhängig.
Antwort
Seien Bn (n ∈ N) unabhängige σ-Algebren, wobei Bn die zur
Zeit n observierbaren Ereignisse enthält.
Die terminale σ-Algebra (tail failed ) ist gegeben durch:


\
[
σ
Bm  = B∞ .
n∈N
Eine Familie (Bj )j∈J von Mengensystemen heißt unabhängig,
falls die Unabhängigkeitsbedingung für alle Ai ∈ Bi gilt.
Antwort
Paarweise unabhängig ; unabhängig.
m≥n
Für alle A ∈ B∞ gilt: P (A) ∈ {0, 1}.
(Kein Zufall mehr auf B∞ .)
Antwort
Seien (Ai )i∈N Ereignisse. Dann gilt:
P
i)
i∈N P (Ai ) < ∞ ⇒ P (unendlich viele Ai treten ein) =
0.
P
ii)
i∈N P (Ai ) = ∞ und die Ai sind unabhängig
⇒ P (lim sup Ai ) = 1.
Antwort
Sei B ⊂ A eine σ-Algebra mit B unabhängig von B. Dann gilt:
P (A) ∈ {0, 1}
∀A ∈ B
II.2. Unabh. Zufallsvariablen II.2.1
Stochastik I
II.2. Unabh. Zufallsvariablen II.2.2
Definition II.2.1:
Bemerkung II.2.2:
Unabhängigkeit von
Zufallsvariablen
II.2. Unabh. Zufallsvariablen II.2.3
Vererbung der Unabhängigkeit
Stochastik I
II.2. Unabh. Zufallsvariablen II.2.4
Satz II.2.3:
II.3. Kolmogorov
II.3.1
Unabhängigkeit ⇒ Unkorreliertheit
Stochastik I
II.3. Kolmogorov
II.3.2
Satz II.3.1:
Satz II.3.2:
Kolmogorov 1930
Etemadi 1983
II.3.3
Stochastik I
Bemerkung II.2.4:
Unabhängigkeit und
Erwartungswert
II.3. Kolmogorov
Stochastik I
Stochastik I
II.3. Kolmogorov
II.3.4*
Korollar II.3.3:
Definition II.3.4*:
zu Etemadi 1983
Empirische Verteilung
Stochastik I
Stochastik I
Antwort
Seien (Xi )i∈I unabhängig und
hi : R → R messbar.
Dann gilt:
Antwort
Eine Familie (Xi )i∈I von Zufallsvariablen auf (Ω, A, P ) heißt unabhängig, falls die von den Zufallsvariablen erzeugte Familie von
σ-Algebren (σ(Xi ))i∈I unabhängig ist.
Dabei ist
Yi = h(Xi )
(i ∈ I)
σ(Xi ) = {X ∈ A}|A ∈ B R .
definiert eine Familie unabhängiger Zufallsvariablen.
Antwort
Da E[XY ] = EX · EY ± 2cov(X, Y ) für X, Y ∈ L2 , gilt:
Unabhängigkeit ⇒ Unkorreliertheit.
Antwort
Seien X1 , X2 , . . . , Xn ≥ 0 unabhängig. Dann
E [X1 · X2 · . . . Xn ] =
n
Y
EXi
i=1
Antwort
Antwort
Seien (Xi )i∈N paarweise unabhängig, in L1 und identisch verteilt. Dann gilt:
Seien (Xi )i∈N iid Zufallsvariablen in L1 mit m = EXi (i ∈ N).
Dann gilt:
n
n
1X
Xi → m (p-fs).
n i=1
1X
Xi → m (p-fs).
n i=1
Antwort
Antwort
n
1X
ρn (ω, ·) =
δX (ω) (.)
n i=1 i
Seien X, Y ∈ L1 unabhängig. Dann gilt:
X · Y ∈ L1
und E[XY ] = EX · EY
II.3. Kolmogorov
II.3.5
Stochastik I
II.4. Faltung
Satz II.3.5:
II.4.2
Stochastik I
Gemeinsame Verteilung
II.4. Faltung
Bemerkung II.4.2:
II.4.3
Stochastik I
II.4. Faltung
II.4.4a
Stochastik I
Definition II.4.4a:
Gemeinsame Verteilung und
Produktmaß
II.4.4b
Stochastik I
Fubini
Satz II.4.3:
II.4. Faltung
II.4.2a
Satz II.4.2a:
Eindeutigkeit der gemeinsamen
Verteilung
II.4. Faltung
Stochastik I
Definition II.4.1:
Konvergenz der empirischen
Verteilung
II.4. Faltung
II.4.1
Stochastik I
Translation
II.4. Faltung
II.4.5
Stochastik I
Definition II.4.4b:
Satz II.4.5:
Faltung
Summe von Zufallsvariablen
Antwort
Antwort
Seien X1 , X2 , . . . , Xn reellwertige Zufallsvariablen auf (Ω, A, P ).
Dann heißt die Verteilung
Für P-fast alle ω ∈ Ω gilt (im Rahmen des Gesetzes von Kolmogorov):
µ=P ◦X
−1
w
ρn (ω, ·) −
→ µ.
von X(ω) = (X1 (ω), . . . Xn (ω))
die gemeinsame Verteilung der X1 , . . . Xn .
Antwort
Sei f : Rn → R nicht negativ und µ =
Antwort
Nn
i=1
µi integrierbar.
Dann gilt für jede Permutation i1 , . . . in von {1, . . . , n}:
Z
f (x1 , . . . xn )µ(dx1 , . . . dxn )
Rn


Z


i=1
Z
. . . 
R
Nach Satz I.11.5 (über Fortsetzung von Maßen) ist µ eindeutig
festgelegt durch:
!
n
\
µ(A1 × . . . × An ) = P
{Xi ∈ Ai }
f (x1 , . . . , xn )µi1 (dxi1 ) . . . µin (dxin ).
für Ai ∈ B (R) und i ∈ {1, . . . , n}.
R
Antwort
Antwort
Seien X1 , . . . , Xn Zufallsvariablen auf (Ω, A, P ) mit Verteilungen
µ1 , . . . µn und gemeinsamer Verteilung µ. Dann gilt:
X1 , . . . , Xn unabhängig
Sei x ∈ R. Dann heißt
⇔
µ=
n
O
µi .
i=1
Tx : R → R, Y 7→ x + Y
Insbesondere gilt dann:
i) µ ist eindeutig festgelegt durch die µi .
die Translation um x.
ii) Sind die µi absolut stetig mit Dichten
Qn fi , so ist auch µ
absolut stetig mit der Dichte f (x) = i=1 fi (xi ).
Antwort
Seien X1 und X2 unabhängige Zufallsvariablen mit Verteilung
µ1 , µ2 . Dann gilt:
i) Die Verteilung von X1 + X2 ist gegeben durch µ1 ∗ µ2 .
ii) Hat µ2 eine Dichte f2 , so ist µ1 ∗ µ2 absolut stetig mit
Z
f (x) = f2 (x − x1 )µ1 (dx1 ).
Antwort
Für W’Maße µ1 , µ2 auf (R, B (R)) heißt
Z
(µ1 ∗ µ2 )(A) =
µ2 ◦ Tx−1
(A)µ1 (dx1 )
1
R
die Faltung von µ1 und µ2 .
II.6. Zentraler GWS
II.5.1
Stochastik I
II.6. Zentraler GWS
II.5.2
Stochastik I
Definition II.5.1:
Satz II.5.2:
Zentrale Grenzwerteigenschaft
Zentraler Grenzwertsatz
Antwort
Antwort
Herunterladen