Wahrscheinlichkeitstheorie WS 2009/10

Werbung
Wahrscheinlichkeitstheorie
WS 2009/10
Vorlesung von Priv.-Doz. Dr. J. Dippon
25. März 2010
Inhaltsverzeichnis
1 Wahrscheinlichkeitsräume
1
2 Kombinatorische Wahrscheinlichkeitsrechnung
9
3 Zufallsvariablen und Verteilungen
12
3.1
Meßbare Abbildungen und Zufallsvariablen . . . . . . . . .
12
3.2
Bildmaße und Verteilungen . . . . . . . . . . . . . . . . . .
14
4 Erwartungswerte und Dichten
17
5 Unabhängigkeit
24
6 Erzeugende und charakteristische Funktionen, Faltungen
28
6.1
Erzeugende Funktionen . . . . . . . . . . . . . . . . . . . .
28
6.2
Charakteristische Funktionen . . . . . . . . . . . . . . . .
30
7 Spezielle Verteilungen
35
7.1
Diskrete Verteilungen . . . . . . . . . . . . . . . . . . . . .
35
7.2
Totalstetige Verteilungen . . . . . . . . . . . . . . . . . . .
38
8 Gesetze der großen Zahlen
42
8.1
Konvergenzbegriffe . . . . . . . . . . . . . . . . . . . . . .
42
8.2
Schwache und starke Gesetze der großen Zahlen . . . . . .
43
9 Zentrale Grenzwertsätze
46
9.1
Schwache Konvergenz von Wahrscheinlichkeitsmaßen in Rd
46
9.2
Zentrale Grenzwertsätze . . . . . . . . . . . . . . . . . . .
48
9.3
Multivariate zentrale Grenzwertsätze . . . . . . . . . . . .
50
10 Bedingte Erwartungen
52
11 Martingale
57
A Begriffe und Sätze der Maß- und Integrationstheorie
63
Literatur
65
2
1
Wahrscheinlichkeitsräume
Definition 1.1. Sei Ω eine nichtleere Menge. Ein System A von Teilmengen von Ω heißt eine Algebra, wenn
1) ∅ ∈ A
2) A ∈ A =⇒ Ac := Ω\A ∈ A
3) A, B ∈ A =⇒ A∪B ∈ A
m
∪ An ∈ A,
oder — äquivalent — A1 , . . . , Am ∈ A =⇒
n=1
das System A heißt σ-Algebra, falls zusätlich gilt
∞
3’) An ∈ A (n = 1, 2, . . .) =⇒ ∪ An ∈ A .
n=1
Bemerkung 1.1. A σ-Algebra =⇒ A Algebra.
Lemma 1.1.
a) Sei A eine Algebra.
m
A1 , . . . , Am ∈ A =⇒ ∩ An ∈ A
n=1
A, B ∈ A =⇒ A\B ∈ A .
b) Sei A eine σ-Algebra.
∞
An ∈ A (n = 1, 2, . . .) =⇒ ∩ An ∈ A .
n=1
Eine Algebra [σ-Algebra] enthält ∅, Ω und ist abgeschlossen gegenüber endlich [abzählbar] vielen üblichen Mengenoperationen.
Definition 1.2. Es sei Ω eine nichtleere Menge, A eine σ-Algebra in Ω.
Das Paar (Ω, A) heißt Messraum (measurable space); die Elemente ∈ A
heißen A-messbare Mengen.
Lemma 1.2.
1
a) Aα Algebren in Ω (α ∈ I) =⇒ ∩ Aα Algebra in Ω.
α∈I
b) C Mengensystem in Ω =⇒ es existiert eine kleinste C enthaltende
Algebra.
Entsprechend für σ-Algebren.
Definition 1.3. C sei ein Mengensystem in Ω. Die kleinste der C enthaltenden Algebren heißt die von C erzeugte Algebra; C heißt ein Erzeugersystem dieser Algebra. —
Entsprechend für σ-Algebren;
Bezeichnung: F(C) . . . die von C erzeugte σ-Algebra.
Definition 1.4. On := System der offenen Mengen des Euklidischen Raumes Rn ; Bn := F(On ), B := B1 . Bn wird als σ-Algebra der Borelschen
Mengen in Rn bezeichnet.
Bn enthält alle abgeschlossenen Mengen und alle höchstens abzählbaren
Mengen in Rn .
Es gilt Bn ⊂ P(Rn ).
6=
Satz 1.1. Das System Jn der halboffenen Intervalle (a, b] := {(x1 , . . . , xn ) ∈
Rn | ai < xi ≤ bi (i = 1, . . . , )} in Rn (a = (a1 , . . . , an ), b = (b1 , . . . , bn ) ∈
Rn mit ai < bi ) [oder auch das System der offenen Intervalle, der abgeschlossenen Intervalle, der Intervalle (−∞, a] oder der Intervalle (−∞, a)]
ist ein Erzeugersystem von Bn .
Definition 1.5. C sei ein Mengensystem in Ω mit ∅ ∈ C. Eine Mengenfunktion µ : C → R := R ∪ {+∞, −∞} heißt (mit a + ∞ = ∞ (a ∈ R),
∞ + ∞ = ∞ usw.)
a) ein Inhalt (content) auf C, wenn
• µ ist nulltreu, d.h. µ(∅) = 0,
2
• µ positiv, d.h. ∀
µ(A) ≥ 0,
A∈C
• µ additiv, d.h. für alle paarweise disjunkte An ∈ C (n = 1, 2, . . . , m)
P
Pm
Pm
mit m
n=1 An ∈ C gilt µ (
n=1 An ) =
n=1 µ(An ).
b) ein Maß (measure) auf C, wenn
• µ ist nulltreu, d.h. µ(∅) = 0,
• µ positiv, d.h. ∀
µ(A) ≥ 0,
A∈C
• µ σ-additiv, d.h. für alle paarweise disjunkte An ∈ C (n =
P
P∞
P∞
1, 2, . . .) mit ∞
A
∈
C
gilt
µ
(
A
)
=
n=1 n
n=1 n
n=1 µ(An ) .
“Natürliche” Definitionsbereiche für Inhalt und Maß sind Algebren bzw. σP
P∞
Algebren (dann Verzicht auf Voraussetzung m
A
∈
C
bzw.
n=1 n
n=1 An ∈
C). Häufig werden nur diese Definitionsbereiche verwendet.
Jedes Maß ist ein Inhalt.
Definition 1.6. Ist A eine σ-Algebra in Ω, µ ein Maß auf A, so heißt
(Ω, A, µ) ein Maßraum (measure space). Ist (Ω, A) ein Messraum, Z =
{z1 , z2 , . . .} eine höchstens abzählbare Teilmenge von Ω, so heißt µ : A → R
mit µ(A) := Anzahl der zi ∈ A, A ∈ A, ein abzählendes Maß (counting
measure).
Bemerkung 1.2. A Algebra in Ω, µ endlicher Inhalt auf A.
A, B ∈ A, A ⊂ B =⇒ µ(B\A) = µ(B) − µ(A) . . . Subtraktivität.
Definition 1.7. Sei A eine σ-Algebra in Ω. Eine Abbildung P : A → R
heißt ein Wahrscheinlichkeitsmaß (W-Maß) auf A, wenn
• P (∅) = 0,
• P positiv, d.h. P (A) ≥ 0,
3
• P σ-additiv, d.h. für alle paarweise disjunkte An ∈ A (n = 1, 2, . . .)
gilt
!
∞
∞
X
X
P (An ),
P
An =
n=1
n=1
• P normiert, d.h. P (Ω) = 1.
(Ω, A, P ) heißt dann ein Wahrscheinlichkeitsraum (W-Raum) (probability space).
Ein W-Raum ist ein normierter Maßraum.
Ist (Ω, A, P ) ein W-Raum, so bezeichnet man die Grundmenge Ω auch als
Merkmalraum, Stichprobenraum (sample space), die Mengen A ∈ A als
Ereignisse, P (A) als Wahrscheinlichkeit von A, die Elemente ω ∈ Ω bzw.
die 1-Punkt-Mengen {ω} ⊂ Ω (nicht notwendig ∈ A) als Elementarereignisse (auch Realisierungen).
1
(ω ∈ Ω)
Ein W-Raum (Ω, A, P ) mit Ω endlich, A = P(Ω), P ({ω}) = |Ω|
(|Ω| = Anzahl der Elemente in Ω) heißt Laplacescher W-Raum:
Für A ∈ A gilt P (A) =
Anzahl der “günstigen” Fälle
|A|
=
|Ω| Anzahl der “möglichen” Fälle
Es sei (Ω, A) = (R, B) und (pk )k∈N0 (N0 := {0, 1, . . .}) eine Zahlenfolge mit
P
pk ≥ 0 (k ∈ N0 ), ∞
k=0 pk = 1. Dann ist P : B → R mit
X
P (A) :=
pk , A ∈ A ,
k∈A∩N0
ein W-Maß. (pk ) heißt Zähldichte zu P .
k
Ist speziell pk = e−λ λk! , (k ∈ N0 ) bei festem λ > 0, so heißt P PoissonVerteilung mit Parameter λ . . . Bezeichnung π(λ).
Bezeichnung [für Mengen An (n = 1, 2, . . .), A]
4
∞
An ↑ A : A1 ⊂ A2 ⊂ A3 ⊂ . . . , ∪ An = A
n=1
∞
An ↓ A : A1 ⊃ A2 ⊃ A3 ⊃ . . . , ∩ An = A.
n=1
Satz 1.2. Sei A eine Algebra in Ω, µ ein endlicher (d.h. µ(Ω) < ∞)
Inhalt auf A. Dann sind die folgenden Aussagen a), . . . , d) äquivalent:
a) µ σ-additiv
b) µ stetig von unten,
d.h. [An ∈ A, An ↑ A ∈ A =⇒ µ(An ) → µ(A)]
c) µ stetig von oben,
d.h. [An ∈ A, An ↓ A ∈ A =⇒ µ(An ) → µ(A)]
d) µ ∅-stetig,
d.h. [An ∈ A, An ↓ ∅ =⇒ µ(An ) → 0] .
Auch ohne die Voraussetzung der Endlichkeit von µ gilt a) ⇐⇒ b).
Lemma 1.3. Sei A eine Algebra in Ω, µ ein Inhalt auf A.
a) µ ist monoton,
d.h. [A, B ∈ A, A ⊂ B =⇒ µ(A) ≤ µ(B)] .
b) µ ist subadditiv,
m
m
P
n=1
n=1
d.h. [A1 , . . . , Am ∈ A =⇒ µ( ∪ An ) ≤
µ(An )] .
c) Ist µ ein Maß, dann ist µ sogar σ-subadditiv,
∞
∞
∞
P
n=1
n=1
n=1
d.h. [An ∈ A (n = 1, 2, . . .), ∪ An ∈ A =⇒ µ( ∪ An ) ≤
µ(An )] .
Satz 1.3 (1. Lemma von Borel und Cantelli).
W-Raum (Ω, A, P ); An ∈ A (n ∈ N) . Mit
∞
∞
lim An := ∩ ∪ Ak = {ω ∈ Ω | existieren unendlich viele n ∈ N mit ω ∈ An }
n=1 k=n
=
“Ereignis, dass unendlich viele An eintreten”
5
gilt dann:
∞
X
P (An ) < ∞
=⇒ P (lim An ) = 0,
n=1
d.h. P-f.s. gilt: An tritt nur endlich oft auf
Satz 1.4. (Fortsetzungs- und Eindeutigkeitssatz) [Verallgemeinerung
siehe Bauer (Maß- und Integrationstheorie) §5, Elstrodt Kap. II §4, Hinderer §16] Sei P ein normiertes [d.h. P (Ω) = 1] Maß auf einer Algebra A
in Ω. Dann existiert genau ein W-Maß P ∗ auf F(A), das P fortsetzt [d.h.
∀ P ∗ (A) = P (A)].
A∈A
Bemerkung 1.3. P ∗ in Satz 1.4 ist gegeben durch
(∞
)
X
P (Bn ) | Bn ∈ A (n = 1, 2, . . .) mit A ⊂ ∪ Bn , A ∈ F(A) .
P ∗ (A) = inf
n
n=1
Bemerkung 1.4. Es ist im allgemeinen nicht möglich, P fortzusetzen von
A auf P(Ω).
Satz 1.5. Es gibt genau ein Maß λ auf Bn , das jedem beschränkten (nach
rechts halboffenen) Intervall in Rn seinen elementargeometrischen Inhalt
zuordnet.
Definition 1.8. Das Maß λ in Satz 1.5 heißt Lebesgue–Borel–Maß (LB-Maß) in Rn .
Definition 1.9. Eine Funktion F : R → R, die monoton wachsend (im
Sinne von nicht fallend) und rechtsseitig stetig ist mit
lim F (x) = 0,
lim F (x) = 1 ,
x→−∞
x→+∞
heißt (eindimensionale) Verteilungsfunktion (VF).
Satz 1.6. Zu jedem W-Maß P auf B gibt es genau eine VF F : R → R, so
dass
(∗)
F (b) − F (a) = P ((a, b]), a ≤ b, a, b ∈ R
6
gilt, und umgekehrt . . . Bijektion P ←→ F . Hierbei F (x) = P ((−∞, x]), x ∈
R.
Beispiel: Φ : R → [0, 1] mit
1
Φ(x) := √
2π
Zx
t2
e− 2 dt, x ∈ R,
−∞
ist eine VF. Das zugehörige W-Maß auf B ist die sogenannte standardisierte Normalverteilung . . . Bezeichnung N (0, 1).
Verallgemeinerung: Normalverteilung (Gauß-Verteilung) N (a, σ 2 ) (a, σ ∈
R, σ > 0) mit durch
1
F (x) := √
2πσ
Zx
e−
(t−a)2
2σ 2
dt, x ∈ R,
−∞
gegebener VF F .
Bemerkung 1.5. Definition 1.9, Satz 1.6 lassen sich auf Bn und Rn als
Definitionsbereiche von P bzw. F verallgemeinern statt B bzw. R. Dabei
ist die VF F zu einem W-Maß P auf Bn gegeben durch
F (x1 , . . . , xn ) = P ({(u1 , . . . , un ) ∈ Rn | u1 ≤ x1 , . . . , un ≤ xn })
für (x1 , . . . , xn ) ∈ Rn .
Definition 1.10. Es sei (Ω, A, P ) ein W-Raum, A ∈ A, B ∈ A mit P (B) >
0. Dann heißt
P (A ∩ B)
P (A | B) :=
P (B)
die bedingte Wahrscheinlichkeit (conditional probability) von A unter
der Bedingung B.
Satz 1.7. Sei (Ω, A, P ) ein W-Raum.
a) Bei festem B ∈ A mit P (B) > 0 ist P (· | B) ein W-Maß auf A, das
auf B konzentriert ist [d.h. P (B | B) = 1].
7
b) Für A, B ∈ A mit P (A) > 0, P (B) > 0 gilt
P (A | B) = P (B | A) ·
P (A)
.
P (B)
m−1
c) Für An ∈ A (n = 1, . . . , m) mit P ( ∩ An ) > 0 gilt
n=1
m
m−1
n=1
n=1
P ( ∩ An ) = P (A1 ) · P (A2 | A1 ) · P (A3 | A1 ∩ A2 ) · . . . · P (Am | ∩ An ) .
Satz 1.8. Es sei (Ω, A, P ) ein W-Raum, {Bn ; n ∈ I} eine höchstens
abzählbare Familie paarweise disjunkter Ereignisse Bn ∈ A mit P (Bn ) >
P
0 (n ∈ I) und
Bn = Ω. Dann gilt
n∈I
a) die Formel von der totalen Wahrscheinlichkeit
X
P (A) =
P (Bn )P (A | Bn ) (A ∈ A)
n∈I
b) die Formel von Bayes
P (Bk ) · P (A | Bk )
, k ∈ I (A ∈ A mit P (A) > 0)
P (Bk | A) = P
P (Bn )P (A | Bn )
n∈I
Bezeichnungen [Maßraum (Ω, A, µ), W-Raum (Ω, A, P )]:
µ-fast überall (µ-f.ü.) in Ω bzw. P -fast sicher (P -f.s.) in Ω . . . überall bis
auf eine Menge ∈ A vom µ-Maß bzw. P -Maß Null [oder eine Teilmenge
hiervon].
L-fast überall (L-f.ü.) in Rn . . . überall bis auf eine Menge ∈ Bn vom L-BMaß Null [oder eine Teilmenge hiervon].
8
2
Kombinatorische Wahrscheinlichkeitsrechnung
Zugrundegelegt werden Laplacesche W-Räume; die Abzählung der “günstigen” und der “möglichen” Fälle erfolgt systematisch mit Hilfe der Kombinatorik.
Definition 2.1. Gegeben seien n — nicht notwendig verschiedene — Elemente a1 , . . . , an . Das n-tupel (ai1 , . . . , ain ) mit ij ∈ {1, . . . , n}, ij 6= ik für
j 6= k (j, k = 1, . . . , n) heißt eine Permutation der gegebenen Elemente.
Satz 2.1. Die Anzahl der Permutationen von n verschiedenen Elementen
ist n!.
Verallgemeinerung:
Satz 2.2. Gegeben seien n Elemente; die verschiedenen Elemente darunter
seien mit a1 , . . . , ap bezeichnet (p ≤ n). Tritt ai ni -fach auf (i = 1, . . . , p,
p
P
wobei
ni = n), dann können die n Elemente auf
i=1
n!
n1 ! . . . np !
verschiedene Arten permutiert werden.
Definition 2.2. Sei A eine n-elementige Menge, k ∈ N.
a) [b)] Jedes k-tupel (a1 , . . . , ak ) mit nicht notwendig verschiedenen [lauter verschiedenen] ai ∈ A heißt eine Kombination k-ter Ordnung
aus A mit [ohne] Wiederholung und mit Berücksichtigung
der Anordnung.
(c) [d)] Werden in a) [b)] Kombinationen, welche dieselben Elemente in
verschiedener Anordnung enthalten, als äquivalent aufgefasst, so heißen die einzelnen Äquivalenzklassen Kombinationen k-ter Ordnung aus A mit [ohne] Wiederholung und ohne Berücksichtigung der Anordnung.
9
Interpretation (mit A = {1, . . . , n}): Aufteilung von k Kugeln auf n Zellen, wobei in a) [b)] die Zellen mehrfach [nicht mehrfach] besetzt werden
dürfen und die Kugeln unterscheidbar sind (ai . . . Nummer der Zelle, in
der die i-te Kugel liegt), in c) [d)] die Zellen mehrfach [nicht mehrfach]
besetzt werden dürfen und die Kugeln nicht unterscheidbar sind (ein Repräsentant der Äquivalenzklasse ist gegeben durch ein k-tupel von Zahlen
aus {1, . . . , n}, in dem die Zellennummern so oft auftreten, wie die zugehörige Zelle besetzt ist).
Satz 2.3. Die Anzahl der Kombinationen k-ter Ordnung aus der n-elementigen Menge A — mit [ohne] Wiederholung und mit [ohne] Berücksichtigung
der Anordnung — ist gegeben durch
m. Berücksichtigung der Anordnung
o. Berücksichtigung der Anordnung
m. Wiederholung
o. Wiederholung (1 ≤ k ≤ n)
nk
n(n − 1) . . . (n − k + 1)
n
n+k−1
k
k
Bestimmung von Fakultäten durch Tabellen für log n! und — bei großem n
— durch die Stirlingsche Formel
n n √
∼
n! =
2πn (n → ∞)
e
und ihre Verschärfung
exp
1
n!
1
< n √
< exp
,
12n + 1 ( e )n 2πn
12n
n ∈ N.
Anwendung in der Physik. Man beschreibt das makroskopische Verhalten von k Teilchen in der Weise, dass man den (der Darstellung des Momentanzustandes dienenden) Phasenraum in n kongruente würfelförmige
Zellen zerlegt und die Wahrscheinlichkeit p(k1 , . . . , kn ) bestimmt, dass sich
genau ki der Teilchen in der i-ten Zelle befinden (i ∈ {1, . . . , n}). Sei Ω0 die
n
P
n
Menge aller n-tupel (k1 , . . . , kn ) ∈ N0 von Besetzungszahlen mit
ki = k.
W-Maße auf P(Ω0 ) (charakterisiert durch p):
10
i=1
1) Maxwell-Boltzmann-Statistik (Unterscheidbarkeit der Teilchen, Mehrfachbesetzbarkeit von Zellen)
p(k1 , . . . , kn ) =
1
k!
k1 ! . . . kn ! n k
2) Bose-Einstein-Statistik zur Beschreibung des Verhaltens von Photonen (keine Unterscheidbarkeit der Teilchen, jedoch Mehrfachbesetzbarkeit von Zellen)
−1
n+k−1
p(k1 , . . . , kn ) =
k
3) Fermi-Dirac-Statistik zur Beschreibung des Verhaltens von Elektronen, Protonen und Neutronen (keine Unterscheidbarkeit der Teilchen, keine Mehrfachbesetzbarkeit von Zellen )
( −1
n
, ki ∈ {0, 1}
k
p(k1 , . . . , kn ) =
0
, sonst.
Die Binomialverteilung b(n, p) mit Parametern n ∈ N, p ∈ (0, 1) ist ein
W-Maß auf B mit der Zähldichte
( n
k
n−k
, k = 0, 1, . . . , n
k p (1 − p)
k→
0
, k = n + 1, n + 2, . . . ;
durch diese wird für n “unabhängige” Versuche mit jeweiliger Erfolgswahrscheinlichkeit p die Wahrscheinlichkeit von k Erfolgen angegeben.
11
3
Zufallsvariablen und Verteilungen
3.1
Meßbare Abbildungen und Zufallsvariablen
Definition 3.1. Zwei nichtleere Mengen Ω, Ω0 ; A0 ⊂ Ω0 ; Abbildung X :
Ω → Ω0 . Die Menge
{ω ∈ Ω | X(ω) ∈ A0 } =: X −1 (A0 ) =: [X ∈ A0 ]
(in Ω) heißt das Urbild von A0 bezüglich der Abbildung X; die somit
definierte Abbildung X −1 : P(Ω0 ) → P(Ω) heißt Urbildfunktion (zu
unterscheiden von einer inversen Funktion!).
Bezeichnung. Sei X : Ω → Ω0 , C 0 Mengensystem in Ω0 .
X −1 (C 0 ) := {X −1 (A0 ) | A0 ∈ C 0 }.
| {z }
ein Mengensystem in Ω
Satz 3.1. Sei X : Ω → Ω0 .
P
a) X −1 und Mengenoperationen ∪, , ∩, c , \ sind vertauschbar;
z.B. X −1 ( ∪ A0α ) = ∪ X −1 (A0α ) (A0α ⊂ Ω0 , α ∈ Indexbereich I).
α∈I
b) X −1 (∅) = ∅;
α∈I
X −1 (Ω0 ) = Ω;
A0 ⊂ B 0 ⊂ Ω0 =⇒ X −1 (A0 ) ⊂ X −1 (B 0 ).
c) A0 σ-Algebra in Ω0 =⇒ X −1 (A0 ) σ-Algebra in Ω.
d) C 0 ⊂ P(Ω0 ) =⇒ X −1 (FΩ0 (C 0 )) = FΩ (X −1 (C 0 )) .
Definition 3.2. Messräume (Ω, A), (Ω0 , A0 ). Die Abbildung X : Ω → Ω0
heißt A-A0 -messbar [kurz: messbar; measurable], wenn gilt:
−1
0
∀ X (A ) ∈ A,
d.h. X −1 (A0 ) ⊂ A,
A0 ∈A0
d.h. Urbilder von messbaren Mengen in Ω0 sind messbare Mengen in Ω.
In diesem Falle Schreibweise X: (Ω, A) → (Ω0 , A0 ).
12
Bemerkung 3.1. In Satz 3.1c ist X −1 (A0 ) die kleinste der σ-Algebren A
in Ω mit A − A0 -Messbarkeit von X.
Definition 3.3. Es sei (Ω, A, P ) ein W-Raum, (Ω0 , A0 ) ein Messraum.
Die Abbildung X : (Ω, A) → (Ω0 , A0 ) heisst Zufallsvariable (ZV ) auf
(Ω, A, P ) [mit Zustandsraum Ω0 ] (ausführlich: (Ω0 , A0 )-ZV auf (Ω, A, P );
random variable).
X : (Ω, A) → (R, B) heißt reelle ZV (oft auch nur ZV);
X : (Ω, A) → (R, B) heißt erweitert-reelle ZV;
X : (Ω, A) → (Rn , Bn ) heißt n-dimensionaler Zufallsvektor.
X(ω) für ein ω ∈ Ω heißt eine Realisierung der ZV X.
Bezeichnung B := {B, B ∪ {+∞}, B ∪ {−∞}, B ∪ {−∞, +∞} | B ∈ B}.
Satz 3.2. Messräume (Ω, A), (Ω0 , A0 ); X : Ω → Ω0 ; C 0 Erzeugersystem von
A0 . Dann gilt:
X messbar ⇐⇒ ( ∀ X −1 (C 0 ) ∈ A)
0
0
|C ∈C
{z
}
−1 0
d.h. X (C ) ⊂ A
Satz 3.3. Messraum (Ω, A), X : Ω → R. Dann gilt
X A-B-messbar ⇐⇒ ∀ [X ≤ α] ∈ A
α∈R
⇐⇒ ∀ [X < α] ∈ A
α∈R
⇐⇒ ∀ [X ≥ α] ∈ A.
α∈R
Korollar 3.1. Für zwei Abbildungen X, Y : (Ω, A) → (R, B) gilt
[X < Y ], [X ≤ Y ], [X = Y ],
| {z }
:= {ω ∈ Ω | X(ω) < Y (ω)}.
[X 6= Y ] ∈ A.
Satz 3.4. Sei ∅ =
6 A ⊂ Rm , A ∩ Bm := {A ∩ B | B ∈ Bm }.
Jede stetige Abbildung g : A → Rn ist A ∩ Bm -Bn -messbar.
13
Satz 3.5. X : (Ω1 , A1 ) → (Ω2 , A2 ), Y : (Ω2 , A2 ) → (Ω3 , A3 ).
Die zusammengesetzte Abbildung Y ◦ X : Ω1 → Ω3 ist dann A1 -A3 messbar.
Korollar 3.2. Für X : (Ω, A) → (Rm , Bm ) und eine stetige Abbildung
g : Rm → Rn ist g ◦ X : Ω → Rn A-Bn -messbar.
Satz 3.6. Messraum (Ω, A).
a) Sei Xn : (Ω, A) → (R, B) (n = 1, . . . , m).
Dann ist Y : Ω → Rm mit Y (ω) := (X1 (ω)), . . . , Xm (ω)), ω ∈ Ω,
A-Bm -messbar, und für g : (Rm , Bm ) → (R, B) ist g ◦ Y : Ω → R
A-B-messbar.
b) Seien X1,2 : (Ω, A) → (R, B).
Dann sind αX1 + βX2
(α, β ∈ R), X1 X2 ,
messbar.
X1
(falls existent) A-BX2
Satz 3.7. Messraum (Ω, A); Xn : (Ω, A) → (R, B) (n = 1, 2, . . .) .
Dann sind inf Xn , sup Xn , lim Xn , lim Xn A-B-messbar, ebenso lim Xn (falls
n
n
n
n
n
existent).
3.2
Bildmaße und Verteilungen
Satz 3.8. Messräume (Ω, A), (Ω0 , A0 ); Abbildung X : (Ω, A) → (Ω0 , A0 );
Maß µ auf A. Durch
µX (A0 ) := µ(X −1 (A0 ))
= µ({ω ∈ Ω | X(ω) ∈ A0 }) =: µ[X ∈ A0 ];
A0 ∈ A 0 ,
wird ein Maß (das sogenannte Bildmaß) µX auf A0 definiert.
Ist µ ein W-Maß auf A, dann ist µX ein W-Maß auf A0 .
Definition 3.4. Sei X eine (Ω0 , A0 )-ZV auf dem W-Raum (Ω, A, P ).
Das W-Maß PX im Bild-W-Raum (Ω0 , A0 , PX ) heißt Verteilung der ZV X.
14
Sprechweise: Die ZV X liegt in A0 ∈ A0 , nimmt Werte in A0 ∈ A0 an mit
Wahrscheinlichkeit PX (A0 ) = P [X ∈ A0 ]. P [X ∈ A0 ] = 1 . . . P -fast sicher
(P -f.s.) liegt X in A.
Bemerkung 3.2. W-Raum (Ω, A, P ), Messräume (Ω0 , A0 ), (Ω00 , A00 ); X :
(Ω, A) → (Ω0 , A0 ), Y : (Ω0 , A0 ) → (Ω00 , A00 ). Dann gilt
PY ◦X = (PX )Y .
Definition 3.5. Messräume (Ωi , Ai ) (i = 1, . . . , n).
n
Die Produkt-σ-Algebra ⊗ Ai wird definiert als die von dem Mengeni=1
system
n
n
Q
Q
Ωi erzeugte σ-Algebra.
Ai | Ai ∈ Ai (i = 1, . . . , n) in
i=1
i=1
n
n
n
Q
⊗ (Ωi , Ai ) :=
Ωi , ⊗ Ai heißt Produkt-Messraum.
i=1
i=1
i=1
Beispiel: (Rn × Rm , Bn ⊗ Bm ) = (Rn+m , Bn+m ).
Bemerkung 3.3. Abbildung Xi : (Ω, A) → (Ωi , Ai ) (i = 1, . . . , n). Die
n
Q
Abbildung X : Ω →
Ωi mit
i=1
X(ω) := (X1 (ω), . . . , Xn (ω)), ω ∈ Ω
n
ist A- ⊗ Ai -messbar.
i=1
Bemerkung 3.4. Messräume (Ωi , Ai ) (i = 1, . . . , n). Ein W-Maß auf
n
⊗ Ai ist eindeutig festgelegt durch seine Werte auf dem Mengensystem
i=1
n
Q
Ai | Ai ∈ Ai (i = 1, . . . , n) .
i=1
Definition 3.6. Seien Xi (Ωi , Ai )-ZVn auf einem W-Raum (Ω, A, P ) (i =
1, . . . , n). Die Verteilung PX der ZV X := (X1 , . . . , Xn ) auf (Ω, A, P ) —
erklärt durch
PX (A) := P [(X1 , . . . , Xn ) ∈ A]
15
n
n
Q
i=1
i=1
für A ∈ ⊗ Ai oder auch nur für A =
Ai (Ai ∈ Ai , i = 1, . . . , n) —
heißt die gemeinsame Verteilung der ZVn Xi . Die Verteilungen PXi —
erklärt durch
PXi (Ai ) := P [Xi ∈ Ai ] = P [X ∈ Ω1 × . . . × Ωi−1 × Ai × Ωi+1 × . . . × Ωn ]
für Ai ∈ Ai — heißen Randverteilungen von PX
(i = 1, . . . , n).
Wichtiger Spezialfall in Definition 3.6: (Ωi , Ai ) = (R, B) (i = 1, . . . , n).
Bemerkung 3.5. Bezeichnungen wie in Definition 3.6.
a) Die Verteilung PX ist ohne Zusatzvoraussetzung durch ihre Randverteilungen nicht eindeutig festgelegt.
n
Q
b) Ist πi :
Ωk → Ωi die (messbare!) Projektionsabbildung.
k=1
(ω1 , . . . , ωn ) → ωi , so gilt PXi = (PX )πi (i = 1, . . . , n).
Bemerkung 3.6.
a) Sei Q ein W-Maß auf (Rn , Bn ). Dann existieren reelle ZVn X1 , . . . , Xn
auf einem geeigneten W-Raum (Ω, A, P ) so, dass ihre gemeinsame
Verteilung mit Q übereinstimmt:
(Ω, A, P ) := (Rn , Bn , Q), Xi : Ω → R wird definiert als die Projektionsabbildung
(x1 , . . . , xn ) → xi (i = 1, . . . , n);
hierbei ist also X := (X1 , . . . , Xn ) die auf Rn definierte identische
Abbildung.
b) Möglichkeit der unmittelbaren
Verallgemeinerung
von a) auf einen
n
n
Q
Ωi , ⊗ Ai statt (Rn , Bn ).
Produkt-Meßraum
i=1
i=1
c) Sonderfall zu b): Ist (Ω, A, Q) ein W-Raum, X : Ω → Ω die identische
Abbildung, so gilt PX = Q. Jedes W-Maß lässt sich somit als eine
Verteilung auffassen (und — definitionsgemäß — umgekehrt).
16
4
Erwartungswerte und Dichten
Gegeben seien ein W-Raum (Ω, A, P ) und eine reelle ZV X auf (Ω, A, P )
mit Verteilung PX (auf B) und VF F : R → R.
Bezeichnungen:

X(ω), falls X(ω) > 0
+
X (ω) :=
0
sonst

−X(ω), falls X(ω) < 0
−
X (ω) :=
0
sonst.
Der Erwartungswert EX der ZV X gibt einen “mittleren Wert” von X
bezüglich P an, die Varianz V (X) gibt die “Schwankung” der ZV X als
“mittleren Wert” ihrer quadratischen Abweichung von EX an.
Definition 4.1 des Erwartungswertes EX von X als Integral
Z
x PX (dx).
R
1. Schritt: Sei X ≥ 0 (also PX (R+ ) = 1, F (x) = 0 (x < 0)).
Z
Z
R
EX :=
x PX (dx) :=
x dF (x) := lim
[0,a] x dF (x)
| {z }
a→∞
|
{z
}
R(+)
R(+)
Riemann−Stieltjes−Integral
F (dx)
(somit 0 ≤ EX ≤ ∞)
2. Schritt: Seien EX + , EX − nicht beide ∞.
Z
EX :=
xPX (dx) := EX + − EX −
R
Definition 4.2 des Erwartungswertes EX von X als Integral
Z
Z
X(ω)P (dω) =:
XdP
Ω
Ω
17
0. Schritt: Sei X ≥ 0, und X nehme nur endlich viele Werte an. Dann
existiert Darstellung
X=
PN
PN
i=1 αi 1Ai
i=1 Ai
mit αi ∈ R, Ai ∈ A (i = 1, . . . , N ), paarweise disjunkt,
= Ω.
Z
EX :=
X dP :=
Ω
N
X
αi P (Ai )
i=1
1. Schritt: Sei X ≥ 0. Dann existieren ZVn Xn ≥ 0, die jeweils nur endlich
viele Werte annehmen mit Xn (ω) ↑ X(ω) (n → ∞), ω ∈ Ω(!):
Z
EX :=
X dP := lim EXn
n→∞
Ω
2. Schritt: Seien EX + , EX − nicht beide ∞.
Z
EX :=
X dP := EX + − EX −
Ω
Bemerkung 4.1. (zu Definition 4.1.2)
a) Die einzelnen Schritte — insbesondere bei der 2. Definition — sind
sinnvoll.
b) Die beiden Definitionen sind äquivalent.
R
c) Das Integral R xPX (dx) in der 1. Definition ändert seinen Wert nicht,
wenn man es gemäß der 2. Definition erklärt.
R
d) Der Begriff Ω XdP in Definition 4.2 lässt sich unmittelbar verallgeR
meinern auf den Fall eines Maßraumes (Ω, A, µ) und liefert Ω X(ω) µ(dω) =:
R
Ω X dµ. Wichtiger Spezialfall:
1) (Ω, A) = (Rn , Bn ) oder etwas allgemeiner Ω = B mit B ∈ Bn ,
A = σ-Algebra der Borelschen Mengen in B; µ = λ := (ReR
R
striktion des) L-B-Maß(es) auf A. Rn X dλ bzw. B X dλ wird als
Lebesgue–Integral bezeichnet.
R
R
Im Falle n = 1 Schreibweise R X(x) dx bzw. B X(x) dx.
18
2) (Ω, A) = (R, B), H : R → R maßdefinierende Funktion mit zugehörigem Maß µ, d.h. H(b)−H(a) = µ((a, b]), −∞ < a < b < ∞.
Schreibweise
Z
Z
X(x) dH(x) :=
R
Z
X(x) H(dx) :=
R
X dµ
R
Verallgemeinerung auf Ω = B ∈ B.
e) Sei X eine erweitert-reelle ZV auf einem W-Raum (Ω, A, P ) mit
(
X(ω), falls |X(ω)| < ∞, ω ∈ Ω,
P [|X| = ∞] = 0; Y (ω) :=
0
sonst.
Man definiert EX := EY , falls EX existiert.
Bemerkung 4.2. W-Raum (Ω, A, P ). Für A ∈ A gilt P (A) = E1A .
Definition 4.3. Existiert für die reelle ZV X auf dem W-Raum (Ω, A, P )
ein endlicher Erwartungswert EX, so heißt X integrierbar (bezüglich P ).
R
Analog für Ω X dµ in Bemerkung 4.1d.
Lemma 4.1. Für eine reelle ZV X ≥ 0 mit VF F gilt
Z ∞
EX =
(1 − F (x)) dx .
0
Satz 4.1. Sei X eine reelle ZV auf einem W-Raum (Ω, A, P ).
a) X integrierbar ⇐⇒ X + und X − integrierbar ⇐⇒ |X| integrierbar,
b) existiert reelle integrierbare ZV Y ≥ 0 mit |X| ≤ Y P-f.s. =⇒ X
integrierbar,
c) X integrierbar, |{z}
Y = X P-f.s. =⇒ existiert EY = EX.
reelle ZV
19
Satz 4.2. Seien X, Y reelle integrierbare ZVn auf einem W-Raum (Ω, A, P ).
a) Es existiert E(X + Y ) = EX + EY .
b) Es existiert E(αX) = αEX (α ∈ R).
c) X ≥ Y =⇒ EX ≥ EY .
d) |EX| ≤ E|X|.
e) X = Y P-f.s. =⇒ EX = EY .
f) X ≥ 0, EX = 0 =⇒ X = 0 P-f.s.
Satz 4.3. (Satz von der monotonen Konvergenz; B. Levi) Für reelle ZVn Xn auf (Ω, A, P ) mit Xn ≥ 0 (n ∈ N), Xn ↑ X (n → ∞)
existiert EX = lim EXn . Hierbei EX := ∞, falls P [X = ∞] > 0. Entspren
R
chend für Reihen von nichtnegativen ZVn. — Analog für Ω X(n) dµ gemäß
Bemerkung 4.1d.
Definition 4.4. Sei X ein n-dimensionaler Zufallsvektor mit Verteilung
PX auf Bn und VF F : Rn → R.
a) Nimmt (eventuell nach Vernachlässigung einer P -Nullmenge in Ω) X
höchstens abzählbar viele Werte an, so ist PX eine sogenannte diskrete W-Verteilung.
Ist X eine reelle ZV und PX auf N0 konzentriert (d.h. PX (N0 ) = 1),
so heißt die Folge (pk ) mit pk := PX ({k}) = P [X = k], k ∈ N0 , (wobei
P
pk = 1) Zähldichte von X bzw. PX .
b) Gibt es eine Funktion f : (Rn , Bn ) → (R+ , B+ ) [mit B+ := R+ ∩ B],
R
für die das uneigentliche Riemann-Integral Qn
f (y) dy – allge(−∞,xi ]
i=1
R
meiner das Lebesgue-Integral Qn
f dλ [λ L-B-Maß auf Bn ] –
(−∞,xi ]
i=1 n
Q
existiert und mit PX
(−∞, xi ] = F (x1 , . . . , xn ) übereinstimmt
i=1
((x1 , . . . , xn ) ∈ Rn ), so heißt f Dichte(funktion) von X bzw. PX
20
bzw. F . — PX und F heißen totalstetig, falls sie eine Dichtefunktion
besitzen.
Bemerkung 4.3.
a) Eine totalstetige VF ist stetig.
b) Besitzt die n-dimensionale VF F : Rn → R eine Dichtefunktion f :
∂ nF
Rn → R+ , so existiert L-f.ü.
, und L-f.ü. — insbesondere
∂x1 . . . ∂xn
∂ nF
= f.
an den Stetigkeitsstellen von f —
∂x1 . . . ∂xn
c) Ein uneigentliches R-Integral einer nichtnegativen Bn -B-messbaren
Funktion lässt sich als L-Integral deuten.
Satz 4.4. Sei X eine reelle ZV mit Verteilung PX .
a) Ist PX auf N0 konzentriert mit Zähldichte (pk ), dann gilt
X
EX =
kpk .
k
b) Besitzt X eine Dichtefunktion f : R → R+ , so existiert das LebesgueR
R
Integral R xf (x) dx =: R xf (x) λ(dx) [λ L-B-Maß auf B] genau dann,
wenn EX existiert, und es gilt hierbei
Z
EX =
xf (x) dx .
R
Beispiel zu Satz 4.4. ZV X auf (Ω, A, P ).
a) X sei b(n, p)-verteilt, d.h. P [X = k] =
mit n ∈ N, p ∈ [0, 1]. EX = np.
n
k
pk (1−p)n−k (k = 0, 1, . . . , n)
−λ λ
b) X sei π(λ)-verteilt, d.h. P [X = k] = e
EX = λ.
k
k!
(k ∈ N0 ), mit λ > 0.
c) X sei N (a, σ 2 )-verteilt, d.h. X habe Dichtefunktion f : R → R+ mit
2
1
− (x−a)
2
f (x) := √
e 2σ x ∈ R ,
2πσ
mit a ∈ R, σ > 0. EX = a.
21
Satz 4.5. X sei eine reelle ZV mit Verteilung PX und VF F ; g : (R, B) →
R
(R, B). E(g ◦ X) existiert genau dann, wenn R g dPX existiert, und es gilt
hierbei nach dem Transformationssatz für Integrale
Z
Z
Z
E(g ◦ X) =
g dPX =:
g dF =:
g(x) dF (x) ,
| {z }
R
R
R
F (dx)
P

g(k)pk
unter der Voraussetzung von Satz 4.4a.



k


Z
g(x)f (x) dx unter der Voraussetzung von Satz 4.4b.
E(g ◦ X) =




{z
}
|R


 Lebesgue-Integral
Insbesondere gilt (mit g = 1A , wobei A ∈ B)
 P

pk
unter Vorauss. von Satz 4.4a



k∈A∩N
0

Z
R
P [X ∈ A] = PX (A) =
1A (x)f (x) dx =: A f (x) dx unter Vorauss. von Satz 4.4b



{z
}
|R


 Lebesgue-Integral
Zusatz. X sei ein n-dimensionaler Zufallsvektor auf (Ω, A, P ) mit Dichtefunktion f : Rn → R+ ; A ∈ Bn . Dann gilt:
Z
Z
1A (x)f (x) dx =:
f (x) dx.
P [X ∈ A] = PX (A) =
Rn
A
[Falls das entsprechende R-Integral existiert, dann R-Integral = L-Integral.]
R
Bemerkung 4.5. A f (x) dx in Satz 4.4 ist gleich dem L-B-Maß der Ordinatenmenge {(x, y) ∈ R2 | x ∈ A, 0 ≤ y ≤ f (x)} von f |A in R2 .
Lemma 4.2. X sei eine reelle ZV; 0 ≤ α < β < ∞. Dann gilt
E|X|β < ∞ =⇒ E|X|α < ∞ .
Definition 4.5. X sei eine reelle ZV; k ∈ N. Im Falle der Existenz heißt
EX k das k-te Moment von X und E(X − EX)k das k-te zentrale
22
Moment von X. Ist X integrierbar, dann heißt V (X) := E(X − EX)2 die
p
Varianz von X und σ(X) :=+ V (X) die Streuung von X.
Satz 4.6. X sei eine reelle integrierbare ZV.
a) V (X) = EX 2 − (EX)2 .
b) V (aX + b) = a2 V (X) (a, b ∈ R).
Beispiel zu Satz 4.6.
a) X sei b(n, p)-verteilt mit n ∈ N, p ∈ [0, 1]. V (x) = np(1 − p).
b) X sie π(λ)-verteilt mit λ > 0. V (X) = λ.
c) X sei N (a, σ 2 )-verteilt mit a ∈ R, σ > 0.
k
Q
2k−1
2k
2k
E(X − a)
= 0, E(X − a) = σ
(2j − 1) (k ∈ N).
j=1
Satz 4.7. X sei eine reelle ZV auf einem W-Raum (Ω, A, P ). Dann gilt
für jedes ε > 0, r > 0:
P [|X| ≥ ε] ≤ ε−r E|X|r
(Markoffsche Ungleichung).
Für r = 2 erhält man die sog. Tschebyschevsche Ungleichung, die bei
integrierbarem X auch in der Variante
P [|X − EX| ≥ ε] ≤ ε−2 V (X)
angegeben wird.
Satz 4.8. (Transformationssatz für Dichten). [Verallgemeinerung s.
Hinderer S. 148]
Es sei Q ein W-Maß auf B2 und T : R2 → R2 eine injektive stetigdifferenzierbare Abbildung. Es sei R := QT das Bild-W-Maß von Q bzgl.
T [d.h. R(B) = Q(T −1 (B)), B ∈ B2 ] und ∆ der Betrag der Funktionaldeterminante von T . Hat R die Dichte g, so hat Q die Dichte (g ◦ T )∆.
23
5
Unabhängigkeit
Definition 5.1. W-Raum (Ω, A, P ). Eine Familie {Ai | i ∈ I} von Ereignissen Ai ∈ A heißt unabhängig (ausführlich: stochastisch unabhängig
bzgl. P ), falls für jede nichtleere endliche Menge K ⊂ I gilt
!
Y
\
P (Ak ) .
Ak =
P
k∈K
k∈K
Definition 5.2. W-Raum (Ω, A, P ). Eine Familie {Xi | i ∈ I} von (Ωi , Ai )
- ZVn auf (Ω, A, P ) heißt unabhängig, wenn gilt: Für jede nichtleere
endliche Indexmenge {i1 , . . . , in } ⊂ I und jede Wahl von Mengen Aiν ∈ Aiν
(ν = 1, . . . , n) ist
n
Y
P [Xi1 ∈ Ai1 , . . . , Xin ∈ Ain ] =
P Xiν ∈ Aiν .
ν=1
Sprechweise: Unabhängigkeit der ZVn statt Unabhängigkeit der Familie
der ZVn.
Lemma 5.1. Eine Familie von Ereignissen ist genau dann unabhängig,
wenn jede endliche Teilfamilie unabhängig ist. Entsprechendes gilt für Zufallsvariablen.
Bemerkung 5.1 zu Definition 5.1 bzw. Definition 5.2.
Paarweise Unabhängigkeit 6⇒ Unabhängigkeit
Bemerkung 5.2. W-Raum (Ω, A, P ); Ereignisse Ai ∈ A, i ∈ I, mit (reellen) ZVn 1Ai (Indikatorfunktionen) auf (Ω, A, P ).
{Ai | i ∈ I} unabhängig ⇐⇒ {1Ai | i ∈ I} unabhängig
Satz 5.1. Gegeben seien (Ωi , Ai ) - ZVn Xi auf einem W-Raum (Ω, A, P )
und Abb. gi : (Ωi , Ai ) → (Ω0i , A0i ), i ∈ I. Dann gilt:
{Xi | i ∈ I} unabhängig =⇒ {gi ◦ Xi | i ∈ I} unabhängig
24
Satz 5.2. Gegeben seien eine unabhängige Familie {Xi | i ∈ I} reeller ZVn
P
auf einem W-Raum (Ω, A, P ) und eine Zerlegung I =
Ij mit |Ij | < ∞.
j∈J
Das |Ij |-tupel {Xk | k ∈ Ij } sei mit Yj bezeichnet, j ∈ J.
a) Die Familie {Yj | j ∈ J} ist unabhängig.
b) Sind Abb. gj : (R|Ij | , B|Ij | ) → (R, B), j ∈ J, gegeben, so ist (nach Satz
5.1) die Familie {gj ◦ Yj | j ∈ J} unabhängig.
Bemerkung 5.3. Satz 5.2 lässt sich auf (Ωi , Ai ) - ZVn und Abb. gj :
N
(Ωi , Ai ) → (Ω0j , A0j ) verallgemeinern.
i∈Ij
Satz 5.3. Seien Xi (i = 1, . . . , n) reelle ZVn auf einem W-Raum (Ω, A, P )
mit Verteilungsfunktionen Fi . Der Zufallsvektor X := (X1 , . . . , Xn ) habe
die n-dimensionale VF F.
n
Q
F (x1 , . . . , xn ) =
Fi (xi ) .
a) {X1 , . . . , Xn } unabhängig ⇐⇒ (∗)
∀
(x1 ,...,xn )∈Rn
i=1
b) Existieren zu Fi (i = 1, . . . , n), F Dichten fi bzw. f , dann gilt

n
Q

f (x1 , . . . , xn ) =
fi (xi )



i=1
(∗) ⇐⇒
für Lebesgue - fast alle (x1 , . . . , xn ) ∈ Rn .

|
{z
}



λ-fast alle mit λ = L-B-Maß auf Bn
Satz 5.4. Seien X1 , . . . , Xn unabhängige reelle ZVn auf einem W-Raum
(Ω, A, P ) mit endlichen Erwartungswerten. Dann existiert
E(X1 . . . Xn ) = EX1 · . . . · EXn .
— Entsprechendes gilt für komplexe ZVn Xk : (Ω, A) → (R2 , B2 ), wobei
EXk := E Re Xk + iE Im Xk
(k = 1, . . . , n)
Satz 5.5. Seien X1 , . . . , Xn unabhängige reelle ZVn mit endlichen Erwartungswerten. Dann gilt
!
n
n
X
X
V
Xj =
V (Xj ) .
j=1
j=1
25
Bemerkung 5.4. In Satz 5.5 genügt statt der Unabhängigkeit von {X1 , . . . , Xn }
die sog. paarweise Unkorreliertheit, d.h.
∀ E(Xj − EXj )(Xk − EXk ) = 0 .
j6=k
Definition 5.3. Sind X, Y zwei unabhängige reelle ZVn auf einem WRaum (Ω, A, P ) mit Verteilungen PX , PY , so wird die Verteilung PX+Y =:
PX ∗ PY der ZV X + Y als Faltung von PX und PY bezeichnet.
Bemerkung 5.5. Die Faltungsoperation ist kommutativ und assoziativ.
Satz 5.6. Seien X, Y zwei unabhängige reelle ZVn.
a) Besitzen X und Y Dichten f bzw. g, so besitzt X +Y eine [als Faltung
von f und g bezeichnete] Dichte h mit
Z
Z
g(t − x)f (x) dx, t ∈ R .
h(t) =
f (t − y)g(y) dy =
R
R
{z
} |
{z
}
|
Lebesgue-Integrale
b) Besitzen X und Y Zähldichten (pk )k∈N0 bzw. (qk )k∈N0 , so besitzt X +Y
eine [als Faltung von (pk ) und (qk ) bezeichnete] Zähldichte (rk )k∈N0 mit
rk =
k
X
pk−j qj =
j=0
k
X
qk−i pi , k ∈ N0 .
i=0
Bemerkung 5.6. Gegeben seien Messräume (Ωi , Ai ) und W-Maße Qi auf
Ai , i ∈ I. Dann existiert ein W-Raum (Ω, A, P ) und (Ωi , Ai ) — ZVn Xi
auf (Ω, A, P ), i ∈ I, mit Unabhängigkeit von {Xi | i ∈ I} und PXi = Qi
(Andersen und Jessen).
Satz 5.7. (2. Lemma von Borel und Cantelli) W-Raum (Ω, A, P ).
Die Familie {An ; n ∈ N} von Ereignissen (∈ A) sei unabhängig. Dann
gilt:
∞
X
P (An ) = ∞ (⇐⇒
)
P (limAn ) = 1 .
|
{z
}
n=1
P-f.s. tritt An unendlich oft auf
26
Definition
∞ 5.4.Messraum (Ω, A). σ-Algebren An ⊂ A (n ∈ N).
Tn := F ∪ Ak . . . die von An , An+1 , . . . erzeugte σ-Algebra.
∞
k=n
T∞ := ∩ Tn heißt die σ-Algebra der terminalen Ereignisse (tail events)
n=1
der Folge (An ).
Beispiele
1) Xn : (Ω, A) → (R, B); An := F(Xn ) := Xn−1 (B) (n ∈ N)
a) [
P
Xn konv.] ∈ T∞
b) [(Xn ) konv.] ∈ T∞
2) Messraum (Ω, A). Ereignisse An ∈ A (n ∈ N);
An := {∅, An , Acn , Ω} (n ∈ N).
∞
∞
lim sup An := ∩ ∪ Ak = {ω ∈ Ω | ω ∈ An für unendliche viele
n→∞
n=1 k=n
n} ∈ T∞
∞
∞
lim inf An := ∪ ∩ Ak = {ω ∈ Ω | ω ∈ An von einem Index an} ∈ T∞
n→∞
n=1 k=n
Satz 5.8 (Null-Eins-Gesetz von Kolmogorov) W-Raum (Ω, A, P ).
Sei (An ) eine unabhängige Folge von σ-Algebren An ⊂ A.
Dann gilt für jedes terminale Ereignis A von (An ) entweder P (A) = 0 oder
P (A) = 1.
27
6
Erzeugende und charakteristische Funktionen, Faltungen
Die erzeugenden und charakteristischen Funktionen sind ein methodisches
Hilfsmittel zur Untersuchung von W-Maßen.
6.1
Erzeugende Funktionen
Definition 6.1. Es sei µ : B → R ein auf N0 konzentriertes W-Maß mit
Zähldichte (bk )k∈N0 bzw. X eine reelle ZV auf einem W-Raum (Ω, A, P ),
deren Verteilung PX auf N0 konzentriert ist, mit Zähldichte (bk )k∈N0 . Dann
heißt die auf [0, 1] (oder auch {s ∈ C | |s| ≤ 1}) definierte Funktion g mit
P

µ({k})sk


∞

X
k
g(s) :=
bk s =
bzw.


k=0

 P P [X = k]sk = P P ({k})sk = EsX
X
die erzeugende Funktion von µ bzw. X.
Bemerkung 6.1. In Definition 6.1 gilt |g(s)| ≤
|s| ≤ 1 .
P
bk |s|k ≤
P
bk = 1,
Bemerkung 6.2.
a) Die Binomialverteilung b(n, p) mit n ∈ N, p ∈ [0, 1] hat — mit q :=
1 − p — die erzeugende Funktion g mit
g(s) = (q + ps)n .
b) Die Poissonverteilung π(λ) mit λ ∈ (0, ∞) hat die erzeugende Funktion g mit
g(s) = e−λ+λs .
28
c) Als negative Binomialverteilung oder Pascal-Verteilung N b(r, p)
mit Parametern r ∈ N, p ∈ (0, 1) wird ein W-Maß auf B (oder auch
B) bezeichnet, das auf N0 konzentriert ist und — mit q := 1 − p —
die Zähldichte
r+k−1 r k
k → N b(r, p; k) :=
p q , k ∈ N0
k
besitzt. Speziell wird N b(1, p) — mit Zähldichte
k → p(1 − p)k , k ∈ N0
— als geometrische Verteilung mit Parameter p ∈ (0, 1) bezeichnet. Ist (Xn )n∈N eine unabhängige Folge von b(1, p)-verteilten ZVn,
n
P
Xk = r} − r
so ist die erweitert-reelle ZV X := inf {n ∈ N |
k=1
mit inf ∅ := ∞ N b(r, p)-verteilt. X gibt die Anzahl der Misserfolge
bis zum r-ten Erfolg bei der zu (Xn ) gehörigen Folge von Bernoullirq
rq
Versuchen an. EX = , V (X) = 2 .
p
p
N b(r, p) hat die erzeugende Funktion g mit g(s) = pr (1 − qs)−r .
Satz 6.1 (Eindeutigkeitssatz für erzeugende Funktionen).
Besitzen zwei auf B definierte, aber auf N0 konzentrierte W-Maße bzw.
Verteilungen dieselbe erzeugende Funktion, so stimmen sie überein.
Satz 6.2. Sei X eine reelle ZV, deren Verteilung auf N0 konzentriert ist,
mit erzeugender Funktion g.
a) g ist in {s ∈ C | |s| < 1} unendlich oft differenzierbar; für j ∈ N gilt
g (j) (1−) :=
lim
0≤s→1−0
0
g (j) (s) = E[X(X − 1) . . . (X − j + 1)] (≤ ∞) ,
insbesondere g (1−) = EX.
b) EX < ∞ =⇒ V (X) = g 00 (1−) + g 0 (1−) − (g 0 (1−))2 .
Satz 6.3. Seien X1 , . . . , Xn unabhängige reelle ZVn, deren Verteilungen
jeweils auf N0 konzentriert sind, mit erzeugenden Funktionen g1 , . . . , gn .
n
Q
Für die erzeugende Funktion g der Summe X1 +. . .+Xn gilt dann g =
gj
j=1
.
29
6.2
Charakteristische Funktionen
Definition 6.2. Es sei µ ein W-Maß auf B bzw. X eine reelle ZV mit
VF F . Dann heißt die auf −∞ < u < ∞ definierte (i.a. komplexwertige)
Funktion ϕ mit
Z
eiux µ(dx)
ϕ(u) :=
R
bzw.
iuX
Z
iux
Z
eiux dF (x)
R
}
| R {z
L-S-Integral oder uneig. R-S-Integral
die charakteristische Funktion von µ bzw. X.
ϕ(u) := Ee
=
e
PX (dx) =
Bemerkung 6.3. In Definition 6.2 gilt
a) ϕ(0) = 1,
b) | ϕ(u) |≤ 1, u ∈ R,
c) ϕ gleichmäßig stetig in R,
d) ϕ(−u) = ϕ(u), u ∈ R.
Bemerkung 6.4. Die Normalverteilung N (a, σ 2 ) mit a ∈ R, σ 2 ∈ (0, ∞)
hat die charakteristische Funktion ϕ mit
2 2
iau − σ 2u
ϕ(u) = e
e
.
u2
Insbesondere hat N (0, 1) die charakteristische Funktion ϕ mit ϕ(u) = e− 2 .
Bemerkung 6.5. Als Exponentialverteilung exp(λ) mit Parameter λ ∈
(0, ∞) wird ein W-Maß auf B oder B bezeichnet, das eine Dichtefunktion
f mit

λe−λx , x > 0
f (x) =
0,
x≤0
30
besitzt.
Die zufällige Lebensdauer eines radioaktiven Atoms wird durch eine exponentialverteilte ZV angegeben.
Ist X eine erweitert-reelle ZV, deren Verteilung auf R+ konzentriert ist,
mit P [0 < X < ∞] > 0, so gilt
P [X > t + s | X > s] = P [X > t]
∀
(“Gedächtnislosigkeit”)
s,t∈(0,∞)
⇐⇒ PX ist eine Exponentialverteilung.
Für eine ZV X mit PX = exp(λ) gilt EX = λ1 , V (X) = λ12 .
λ
.
exp (λ) hat die charakteristische Funktion ϕ mit ϕ(u) = λ−iu
Bemerkung 6.6. Als Gamma-Verteilung Γλ,ν mit Parametern λ, ν ∈
(0, ∞) wird ein W-Maß auf B oder B bezeichnet, das eine Dichtefunktion
f mit

 λν xν−1 e−λx , x > 0
f (x) = Γ(ν)
0,
x≤0
besitzt. Hierbei Γλ,1 = exp(λ). Γ 21 , n2 wird als Chi-Quadrat-Verteilung
χ2n mit n(∈ N) Freiheitsgraden bezeichnet.
Für eine ZV X mit PX = Γλ,ν gilt EX = λν , V (X) = λν2 .
ν
λ
Γλ,ν hat die charakteristische Funktion ϕ mit ϕ(u) = λ−iu
.
Satz 6.4. (Eindeutigkeitssatz für charakteristische Funktionen)
Besitzen zwei auf B definierte W-Maße bzw. Verteilungen dieselbe charakteristische Funktion, so stimmen sie überein. — Ist µ ein W-Maß auf
B bzw. PX die Verteilung einer reellen ZV X mit zugehöriger VF F und
zugehöriger charakteristischer Funktion ϕ und sind a, b mit a < b Stetigkeitsstellen von F , so gilt die Umkehrformel
Z U −iua
e
− e−iub
1
F (b) − F (a)
= lim
ϕ(u) du .
|
{z
}
U →∞ 2π −U
iu
= µ((a, b]) bzw. PX ((a, b])
31
Satz 6.5. Gegeben sei eine VF F mit charakteristischer Funktion ϕ; es
R∞
sei −∞ | ϕ(u) | du < ∞. Dann besitzt F eine Dichte f , die stetig und
beschränkt ist, und es gilt die Umkehrformel
Z
1
f (x) =
e−iux ϕ(u) du, x ∈ R
2π R
R
[vgl. die Formel ϕ(u) = R eiux f (x) dx, u ∈ R, bei existierender Dichte f ].
Satz 6.6. Sei X eine reelle ZV mit Verteilung PX und charakteristischer
Funktion ϕ. Für j ∈ N gilt:
E | X |j < ∞
=⇒ ϕ hat eine stetige j-te Ableitung ϕ(j) mit
Z
ϕ(j) (u) = ij xj eiux PX (dx), u ∈ R,
R
insbesondere ϕ(j) (0) = ij EX j .
Satz 6.7. Seien X1 , . . . , Xn unabhängige reelle ZVn mit charakteristischen
Funktionen ϕ1 , . . . , ϕn . Für die charakteristische Funktion der Summe X1 +
. . . + Xn gilt dann
n
Y
ϕ=
ϕj .
j=1
Definition 6.3. Zu zwei W-Maßen P, Q auf B wird das W-Maß P ∗ Q auf
B, die sog. Faltung von P und Q, folgendermaßen definiert:
a) sei T : R × R → R mit T (x, y) = x + y;
P ∗ Q := (P ⊗ Q)T
(P ⊗Q W-Maß auf B2 mit (P ⊗Q)(B1 ×B2 ) = P (B1 )Q(B2 ), B1,2 ∈ B,
sog. Produkt-W-Maß von P und Q)
oder — äquivalent —
b) man wähle ein unabhängiges Paar reeller ZVn X, Y mit PX = P ,
PY = Q und setze
P ∗ Q := PX+Y .
32
Satz 6.8.
a) Die Faltungsoperation ist kommutativ und assoziativ.
b) Es sei (X, Y ) ein unabhängiges Paar reeller ZVn. Für X, Y , X+Y seien
die Verteilungsfunktionen mit F, G, H, die Dichten — falls existent —
mit f, g, h und die Zähldichten — falls PX , PY auf N0 konzentriert
sind — mit (pk ), (qk ), (rk ) bezeichnet. Dann gilt
Z
Z
H(t) =
F (t − y) G(dy) =
G(t − x) F (dx), t ∈ R.
R
R
Falls f existiert, so existiert h mit
Z
h(t) =
f (t − y) G(dy) für (L-f.a.) t ∈ R;
R
falls zusätzlich g existiert, so gilt
Z
Z
h(t) =
f (t − y)g(y) dy =
g(t − x)f (x) dx für (L-f.a.) t ∈ R.
R
R
Falls (pk )k∈N0 , (qk )k∈N0 existieren, so existiert (rk )k∈N0 mit
rk =
k
X
pk−i qi =
i=0
k
X
qk−i pi (k ∈ N0 ).
i=0
Bemerkung 6.7.
a) Für n1,2 ∈ N, p ∈ [0, 1] gilt b(n1 , p) ∗ b(n2 , p) = b(n1 + n2 , p).
Die Summe von n unabhängigen b(1, p) verteilten ZVn ist also b(n, p)verteilt.
b) Für λ1,2 > 0 gilt π(λ1 ) ∗ π(λ2 ) = π(λ1 + λ2 ).
c) Für r1,2 ∈ N, p ∈ (0, 1) gilt N b(r1 , p) ∗ N b(r2 , p) = N b(r1 + r2 , p).
Die Summe von r unabhängigen N b(1, p)-verteilten ZVn ist also N b(r, p)verteilt.
2
d) Für a1,2 ∈ R, σ1,2
∈ (0, ∞) gilt
N (a1 , σ12 ) ∗ N (a2 , σ22 ) = N (a1 + a2 , σ12 + σ22 ).
33
e) Für λ ∈ (0, ∞), ν1,2 ∈ (0, ∞) gilt Γλ,ν1 ∗ Γλ,ν2 = Γλ,ν1 +ν2 .
Die Summe von n unabhängigen exp(λ)-verteilten ZVn ist Γλ,n -verteilt.
Die Summe der Quadrate von n unabhängigen jeweils N (0, 1)-verteilten
ZVn ist χ2n -verteilt.
34
7
Spezielle Verteilungen
7.1
Diskrete Verteilungen
Definition 7.1. Als Binomialverteilung b(n, p) mit Parametern n ∈
N, p ∈ (0, 1) oder auch [0, 1] wird ein W-Maß auf B bezeichnet, das auf
{0, 1, . . . , n} konzentriert ist und die Zähldichte
n k
k 7→ b(n, p; k) :=
p (1 − p)n−k , k ∈ N0
k
besitzt.
Satz 7.1. Sei n ∈ N, p ∈ [0, 1]; q := 1 − p.
a) Ist (X1 , . . . , Xn ) ein n-tupel unabhängiger reeller ZVn mit P [Xi =
1] = p, P [Xi = 0] = q — d.h. mit jeweiliger b(1, p)-Verteilung —
P
(i = 1, . . . , n), so ist ni=1 Xi b(n, p)-verteilt.
b) Für eine ZV X mit PX = b(n, p) gilt EX = np, V (X) = npq.
c) b(n, p) hat die erzeugende Funktion g mit g(s) = (q + ps)n .
d) Für n1,2 ∈ N gilt
b(n1 , p) ∗ b(n2 , p) = b(n1 + n2 , p),
d.h. für zwei unabhängige ZVn X1 , X2 mit PX1 = b(n1 , p), PX2 =
b(n2 , p) gilt
PX1 +X2 = b(n1 + n2 , p).
Bemerkung 7.1. Das n-tupel (X1 , . . . , Xn ) von ZVn aus Satz 7.1 beschreibt ein n-tupel von Bernoulli-Versuchen, d.h. Zufallsexperimenten ohne gegenseitige Beeinflussung mit Ausgängen 1 (“Erfolg”) oder 0 (“MisserP
folg”) und jeweiliger Erfolgswahrscheinlichkeit p; nk=1 Xi gibt die Anzahl
der Erfolge in n Bernoulli-Versuchen an.
35
Definition 7.2. Als Poisson-Verteilung π(λ) mit Parameter λ > 0 wird
ein W-Maß auf B bezeichnet, das auf N0 konzentriert ist und die Zähldichte
−λ λ
k 7→ π(λ; k) := e
k
k!
, k ∈ N0
besitzt.
Satz 7.2. Sei λ > 0.
a) Ist (b(n, pn )) eine Folge von Binomialverteilungen mit npn → λ (n →
∞), dann konvergiert
b(n, pn ; k) → π(λ; k) (n → ∞) für alle k ∈ N0 .
b) Für eine ZV X mit PX = π(λ) gilt EX = V (X) = λ.
c) π(λ) hat die erzeugende Funktion g mit g(s) = e−λ+λs .
d) Für λ1,2 > 0 gilt
π(λ1 ) ∗ π(λ2 ) = π(λ1 + λ2 ) .
Bemerkung 7.2. Bei einer rein zufälligen Aufteilung von n unterscheidbaren Teilchen auf m gleichgroße mehrfach besetzbare Zellen in einem Euklidischen Raum wird die Anzahl der Teilchen in einer vorgegebenen Zelle
durch eine b(n, m1 )-verteilte ZV angegeben. Der Grenzübergang n → ∞,
n
→ λ > 0 führt gemäß Satz 7.2a zu
m → ∞ mit Belegungsintensität m
einer π(λ)-verteilten ZV.
Definition 7.3. Als negative Binomialverteilung oder Pascal-Verteilung
N b(r, p) mit Parametern r ∈ N, p ∈ (0, 1) wird ein W-Maß auf B (oder
auch B) bezeichnet, das auf N0 konzentriert ist und — mit q := 1 − p —
die Zähldichte
r+k−1 r k
k 7→ N b(r, p; k) :=
p q , k∈N
k
besitzt. Speziell wird N b(1, p) — mit Zähldichte k 7→ p(1 − p)k , k ∈ N0 —
als geometrische Verteilung mit Parameter p ∈ (0, 1) bezeichnet.
36
Satz 7.3. Sei r ∈ N, p ∈ (0, 1), q := 1 − p.
a) Sei (Xn )n∈N eine unabhängige Folge von b(1, p)-verteilten ZVn. Die
P
erweitert-reelle ZV X := inf{n ∈ N | nk=1 Xk = r}−r mit inf ∅ := ∞
ist N b(r, p)-verteilt.
b) Für eine ZV X mit PX = N b(r, p) gilt EX =
rq
p,
V (X) =
rq
p2 .
c) N b(r, p) hat die erzeugende Funktion g mit g(s) = pr (1 − qs)−r .
d) Für r1,2 ∈ N gilt
N b(r1 , p) ∗ N b(r2 , p) = N b(r1 + r2 , p) .
Die Summe von r unabhängigen N b(1, p)-verteilten ZVn ist somit
N b(r, p)-verteilt.
Bemerkung 7.3. Für die Folge (Xn ) in Satz 7.3a wird durch die erweitertP
reelle ZV T := inf{n ∈ N | nk=1 Xk = r} mit inf ∅ := ∞ die Wartezeit bis
zum r-ten Auftreten der Eins in (Xn ) und durch die erweitert-reelle ZV
X = T − r die Anzahl der Misserfolge bis zum r-ten Erfolg bei der zu (Xn )
gehörigen Folge von Bernoulli-Versuchen angegeben.
Definition 7.4. Als hypergeometrische Verteilung mit Parametern
n, r, s ∈ N, wobei n ≤ r + s, wird ein W-Maß auf B bezeichnet, das auf
{0, 1, . . . , n} — sogar auf {max (0, n − s), . . . , min (n, r)} — konzentriert
ist und die Zähldichte
 r s 
 k n−k
, k = 0, 1, . . . , n
r+s
k 7→
n


0
, k = n + 1, n + 2, . . .
besitzt.
Bemerkung 7.4. Werden aus einer Urne mit r roten und s schwarzen
Kugeln rein zufällig n Kugeln ohne Zurücklegen gezogen (n, r, s wie in
Definition 7.4), so wird die Anzahl der gezogenen roten Kugeln durch eine ZV angegeben, die eine hypergeometrische Verteilung mit Parametern
37
n, r, s besitzt. Anwendung der hypergeometrischen Verteilung in der Qualitätskontrolle.
7.2
Totalstetige Verteilungen
Definition 7.5. Als Gleichverteilung auf (a, b) mit −∞ < a < b < ∞
1
wird ein W-Maß auf B bezeichnet, das eine Dichte f =
1(a,b) besitzt.
b−a
Satz 7.4. Für eine ZV X mit Gleichverteilung auf (a, b) gilt EX =
V (X) =
(b − a)2
.
12
a+b
,
2
Definition 7.6. Als (eindimensionale) Normalverteilung oder GaußVerteilung N (a, σ 2 ) mit Parametern a ∈ R, σ > 0 wird ein W-Maß auf B
bezeichnet, das eine Dichte f mit
2
1
− (x−a)
2
2σ
f (x) = √
e
,
2πσ
x∈R
besitzt. Speziell heißt N (0, 1) standardisierte Normalverteilung.
Bemerkung 7.5.
a) Sei f wie in Definition 7.6. Der Graph von f heißt Gaußsche Glocken1
kurve. Im Fall a = 0 ist f (0) = √
und hat f zwei Wendepunkte
2πσ
1
(±σ; √
).
2πeσ
b) Die Dichtefunktion und die VF φ von N (0, 1) sind tabelliert.
c) Ist die ZV X N (a, σ 2 )-verteilt, so ist
hierbei
P [a − σ ≤ X ≤ a + σ]
X −a
N (0, 1)-verteilt. Es gilt
σ
= 2φ(1) − 1 ≈ 0, 683
P [a − 2σ ≤ X ≤ a + 2σ] = 2φ(2) − 1 ≈ 0, 954
P [a − 3σ ≤ X ≤ a + 3σ] = 2φ(3) − 1 ≈ 0, 997 .
38
d) Anwendung der Normalverteilung z.B. in der Theorie der Beobachtungsfehler.
Satz 7.5. Sei a ∈ R, σ > 0.
a) Für eine ZV X mit Verteilung N (a, σ 2 ) gilt:
2k−1
E(X − a)
2k
= 0, E(X − a)
k
Y
(2j − 1),
=σ
2k
k ∈ N;
j=1
insbesondere EX = a, V (X) = σ 2 ; die ZV cX + b mit 0 6= c ∈ R,
b ∈ R hat die Verteilung N (ca + b, c2 σ 2 ).
b) Die charakteristische Funktion von N (a, σ 2 ) ist ϕ mit
iau
ϕ(u) = e
e
σ 2 u2
2
.
c) Für a1,2 ∈ R, σ1,2 > 0 gilt
N (a1 , σ12 ) ∗ N (a2 , σ22 ) = N (a1 + a2 , σ12 + σ22 ) .
Definition 7.7. Als Exponentialverteilung exp(λ) mit Parameter λ > 0
wird ein W-Maß auf B oder B bezeichnet, das eine Dichtefunktion f mit

 λe−λx , x > 0
f (x) =

0, x ≤ 0
besitzt.
Satz 7.6. Sei λ > 0.
a) Sei X eine erweitert-reelle ZV, deren Verteilung auf R+ konzentriert
sei, mit P [0 < X < ∞] > 0. Dann gilt:
∀
P [X > t+s | X > s] = P [X > t] ⇐⇒ PX ist eine Exponentialverteilung.
s,t∈(0,∞)
“Gedächtnislosigkeit”
b) Für eine ZV X mit PX = exp(λ) gilt EX =
39
1
1
, V (X) = 2 .
λ
λ
c) exp(λ) hat die charakteristische Funktion ϕ mit
ϕ(u) =
λ
.
λ − iu
Bemerkung 7.6. Die zufällige Lebensdauer eines radioaktiven Atoms wird
durch eine exponentialverteilte ZV angegeben.
Definition 7.8. Als Gamma-Verteilung Γλ,ν mit Parametern λ, ν > 0
wird ein W-Maß auf B oder B bezeichnet, das eine Dichtefunktion f mit
 ν
 λ xν−1 e−λx , x > 0
Γ(ν)
f (x) =

0,
x≤0
besitzt. Hierbei Γλ,1 = exp(λ). Γ 12 , n2 wird als Chi-Quadrat-Verteilung χ2n
mit n(∈ N) Freiheitsgraden bezeichnet.
Satz 7.7. Seien λ, ν > 0, n ∈ N.
a) Für eine ZV X mit PX = Γλ,ν gilt EX = λν , V (X) =
ν
λ2
.
b) Γλ,ν hat die charakteristische Funktion ϕ mit
ν
λ
ϕ(u) =
.
λ − iu
c) Für ν1,2 > 0 gilt
Γλ,ν1 ∗ Γλ,ν2 = Γλ,ν1 +ν2 .
Insbesondere ist Γλ,n die n-fache Faltung von exp(λ).
d) Die Summe der Quadrate von n unabhängigen jeweils N (0, 1)-verteilten
reellen ZVn ist χ2n -verteilt.
Bemerkung 7.7. Sind X, Y zwei unabhängige reelle ZVn mit PX =
X
als t-Verteilung
N (0, 1) und PY = χ2n , so wird die Verteilung der ZV p
Y /n
oder Student-Verteilung tn bzw. Stn mit n Freiheitsgraden bezeichnet
40
(n ∈ N). t1 bzw. St1 ist eine sogenannte Cauchy-Verteilung. — Anwendung von χ2n und Stn in der Statistik.
Sei {Tn | n ∈ N} eine unabhängige Folge nichtnegativ-reeller Zufallsvariablen (d.h. Ti und Tj haben jeweils dieselbe Verteilung) mit P [Tn = 0] < 1.
Definiere die ZV Nt := sup{n ∈ N | T1 + . . . + Tn ≤ t} (mit sup ∅ = 0),
t ∈ R+ .
Beispiel. In einem technischen System wird ein Bauelement mit endlicher
zufälliger Lebensdauer bei Ausfall durch ein gleichartiges Element ersetzt.
Die einzelnen Lebensdauern seien Realisierung der ZVn Tn . Nt gibt die
Anzahl der Erneuerungen im Zeitintervall [0, t] an.
Satz 7.8. Ist — mit den obigen Bezeichnungen — Tn exp(λ)-verteilt (λ >
0), so ist Nt π(λt)-verteilt, t ∈ R+ .
Bemerkung 7.8. Die Familie {Nt | t ∈ R+ } aus Satz 7.8 ist ein sogenannter Poisson-Prozess.
41
8
Gesetze der großen Zahlen
8.1
Konvergenzbegriffe
Definition 8.1. Seien Xn (n ∈ N), X reelle ZVn auf einem W -Raum
(Ω, A, P ). Die Folge (Xn ) heißt gegen X
P
a) vollständig konvergent, wenn für jedes > 0 gilt n∈N P [|Xn − X| ≥
c
] < ∞ . . . Schreibweise Xn →X,
b) konvergent P -fast sicher (P -f.s., f.s.), wenn P [Xn → X (n → ∞)] = 1;
c) konvergent nach Wahrscheinlichkeit oder stochastisch konvergent, wenn
für jedes > 0 gilt P [|Xn − X| ≥ ] → 0 (n → ∞)
P
. . . Schreibweise Xn →X,
d) konvergent im r-ten Mittel (r > 0), wenn E|Xn |r < ∞ ∀n, E|X|r < ∞
und E|Xn − X|r → 0 (n → ∞) [r = 2 . . . konv. im quadr. Mittel],
e) konvergent nach Verteilung, wenn für jede beschränkte stetige Funktion g : R → R
Eg(Xn ) → Eg(X) (n → ∞)
oder — hier äquivalent — wenn für die Verteilungsfunktionen Fn und
F von Xn bzw. X gilt
Fn (x) → F (x) (n → ∞)
D
in jedem Stetigkeitspunkt x von F . . . Schreibweise Xn →X.
Bemerkung 8.1.
a) Fn VF (n ∈ N), (Fn ) konv. impliziert nicht: lim Fn VF
n
b) Die Grenz-VF in Def. 8.1. e) ist eindeutig bestimmt.
Satz 8.1. Seien Xn (n ∈ N), X reelle ZVn auf einem W -Raum (Ω, A, P).
c
a) Xn →X =⇒ Xn → X f.s.
42
b) Xn → X f.s. =⇒ Xn → X nach Wahrsch.
c) r > 0. Xn → X im r-ten Mittel =⇒ Xn → X nach Wahrsch.
d) Xn → X nach Wahrsch. =⇒ Xn → X nach Verteilung.
e) Xn → X nach Wahrsch. ⇐⇒ Zu jeder Teilfolge (Xnk )k∈N von (Xn )n∈N
gibt es eine P -f.s. konvergente Teilteilfolge (Xnki )i∈N .
8.2
Schwache und starke Gesetze der großen Zahlen
Definition 8.2. Eine Folge (Xn )n∈N von integrierbaren reellen ZVn auf
einem W-Raum (Ω, A, P ) genügt dem schwachen bzw. starken Gesetz
der großen Zahlen, wenn
n
1X
(Xk − EXk ) → 0 (n → ∞) nach Wahrscheinlichkeit bzw. P-f.s.
n
k=1
Bemerkung 8.2. Genügt eine Folge von ZVn dem starken Gesetz der
großen Zahlen, dann genügt sie auch dem schwachen Gesetz der großen
Zahlen.
Satz 8.2 (Kriterium von Kolmogorov für das starke Gesetz der
großen Zahlen). Eine unabhängige Folge (Xn )n∈N quadratisch integrierbarer reeller ZVn mit
∞
X
n−2 V (Xn ) < ∞
n=1
genügt dem starken Gesetz der großen Zahlen.
Satz 8.3 (Kolmogorovsches starkes Gesetz der großen Zahlen).
Für eine unabhängige Folge (Xn )n∈N identisch verteilter integrierbarer reeller ZVn gilt
n
1X
Xk → EX1 (n → ∞) f.s.
n
k=1
43
Bemerkung 8.3.
a) In Satz 8.3 darf die Integrierbarkeitsvoraussetzung nicht weggelassen
werden.
b) Die Voraussetzung der Unabhängigkeit in Satz 8.3 kann zur Voraussetzung der paarweisen Unabhängigkeit abgeschwächt werden (Etemadi).
P −2
c) In Satz 8.2 kann bei
n V (Xn )(log n)2 < ∞ die Unabhängigkeitsvoraussetzung zur Voraussetzung der paarweisen Unkorreliertheit (s.u.)
abgeschwächt werden (Rademacher, Menchov).
Satz 8.4 (Tschebyschev). Eine Folge (Xn )n∈N quadratisch integrierbarer
paarweise unkorrelierter [d.h. es gilt ∀ E(Xj − EXj )(Xk − EXk ) = 0]
j6=k
reeller ZVn mit
n
−2
n
X
V (Xk ) → 0 (n → ∞)
k=1
genügt dem schwachen Gesetz der großen Zahlen.
Bemerkung 8.4 (Folgerung aus obigen Sätzen). Für eine unabhängige
Folge (Xn ) identisch verteilter reeller ZVn mit P [X1 = 1] = p, P [X1 = 0] =
1 − p (festes p ∈ [0, 1]) gilt
n
1X
Xk → p (n → ∞) P-f.s. und nach Wahrscheinlichkeit
n
k=1
(Borelsches starkes Gesetz der großen Zahlen bzw. Bernoullisches schwaches Gesetz der großen Zahlen).
Bemerkung 8.4 stellt ein theoretisches Gegenstück zu der Erfahrungstatsache dar, dass i.a. die relative Häufigkeit eines Ereignisses bei großer Zahl
der unter gleichen Bedingungen unabhängig durchgeführten Zufallsexperimente näherungsweise konstant ist.
44
Beispiele zu Satz 8.3 und Bemerkung 8.4.
a) Es seien X1 , X2 , . . . unabhängige identisch verteilte ZVn mit existierenden (endlichen) EX1 =: a und V (X1 ) =: σ 2 . Aufgrund der beobachteten Realisierungen x1 , . . . , xn von X1 , . . . , Xn wird a geschätzt
durch
n
1X
xi (sog. empirisches Mittel)
x :=
n i=1
und σ 2 durch
n
1 X
s :=
(xi − x)2
n − 1 i=1
2
Für
n
1X
X :=
Xi ,
n i=1
(sog. empirische Varianz).
n
1 X
S :=
(Xi − X)2
n − 1 i=1
2
gilt
EX = a,
ES 2 = σ 2
(sog. Erwartungstreue der Schätzungen),
ferner für n → ∞
X → a f.s.,
S 2 → σ 2 f.s. (sog. starke Konsistenz der Schätzfolgen).
b) Für eine Menge von n radioaktiven Atomen mit unabhängigen exp(λ)verteilten Lebensdauern (mit VF F ) gebe — bei festem T > 0 — die
Zufallsvariable Zn die zufällige Anzahl der Atome an, die von jetzt
(Zeitpunkt 0) an bis zum Zeitpunkt T zerfallen. Die Wahrscheinlichkeit, dass ein gewisses Atom im Zeitintervall [0, T ] zerfällt, ist
p = F (T ) = 1 − e−λT . Nach Bemerkung 8.4 konvergiert mit Wahrscheinlichkeit Eins Zn /n → p (n → ∞). Wählt man T so, dass
F (T ) = 12 , d.h. T = (ln 2)/λ (T sog. Median von exp.(λ)), dann gilt
Zn
1
→
(n → ∞).
n
2
Dieses T wird als Halbwertszeit des radioaktiven Elements bezeichnet
(nach T Zeiteinheiten ist i.a. bei großem n ungefähr die Hälfte der
Atome zerfallen).
f.s.
45
9
Zentrale Grenzwertsätze
9.1
Schwache Konvergenz von Wahrscheinlichkeitsmaßen in Rd
Definition 9.1.
a) W-Maße Qn (n ∈ N), Q auf der σ-Algebra B der Borelschen Mengen
in R. Die Folge (Qn ) heißt gegen Q schwach konvergent (weakly
convergent) — Schreibweise Qn → Q schwach — , wenn für jede
beschränkte stetige Funktion g : R → R gilt
Z
Z
g dQn →
g dQ (n → ∞).
R
R
b) Reelle ZVn Xn (n ∈ N), X (nicht notwendig auf demselben W-Raum
definiert). Die Folge (Xn ) heißt gegen X nach Verteilung konvergent (convergent in distribution, convergent in law) — Schreibweise
D
Xn → X (n → ∞) — , wenn PXn → PX schwach, d.h. für jede
beschränkte stetige Funktion g : R → R gilt
Z
Z
g dPXn →
g dPX (n → ∞)
R
R
oder (äquivalent nach dem Transformationssatz für Integrale)
Eg(Xn ) → Eg(X) (n → ∞) .
Bemerkung 9.1. a) In Definition 9.1a ist das Grenz-W-Maß Q eindeutig
bestimmt.
b) In Definition 9.1b können Xn , X durch reelle ZVn Xn0 , X 0 mit PXn0 =
PXn , PX 0 = PX ersetzt werden.
Satz 9.1. Reelle ZVn Xn (n ∈ N), X auf (Ω, A, P ). Aus Xn → X nach
D
Wahrscheinlichkeit (Schreibweise Xn → X) folgt Xn → X.
P
Satz 9.2. W-Maße Qn (n ∈ N), Q auf B bzw. reelle ZVn Xn (n ∈ N), X
mit VFn Fn , F .
46
D
Qn → Q schwach bzw. Xn → X (n → ∞) gilt genau dann, wenn Fn (x) →
F (x) (n → ∞) für alle Stetigkeitspunkte x von F .
Satz 9.3. Reelle ZVn Xn (n ∈ N), X auf (Ω, A, P ). Ist X P-f.s. konstant,
so gilt:
D
Xn → X ⇐⇒ Xn → X .
P
Satz 9.4. Reelle ZVn Xn , Yn (n ∈ N), X auf (Ω, A, P )

D

Xn → X
D
=⇒ Yn → X .
|Xn − Yn | → 0 
P
Satz 9.5 (Spezialfall des Darstellungssatzes von Skorokhod). Reelle
D
ZVn Xn (n ∈ N), X mit Xn → X. Dann existiert ein W-Raum (Ω∗ , A∗ , P ∗ )
— wobei man Ω∗ = [0, 1], A∗ = [0, 1] ∩ B, P ∗ = L-B-Maß auf A∗ wählen
kann — und reelle ZVn Xn∗ (n ∈ N), X ∗ auf (Ω∗ , A∗ , P ∗ ) derart, dass
∗
∗
∗
∗
∀ PXn = PXn∗ , PX = PX ∗ , Xn → X
(n → ∞) P ∗ -f.s.
n
Satz 9.6 (Satz von der stetigen Abbildung). Reelle ZVn Xn (n ∈ N),
D
X mit Xn → X; Abbildung h : (R, B) → (R, B) sei PX -f.ü. stetig. Dann
gilt
D
h(Xn ) → h(X)
Satz 9.7 (Satz von Slutsky). Reelle ZVn Xn , Yn , X auf (Ω, A, P ); c ∈ R.


D
D

 Xn + Yn →
Xn → X
X +c
=⇒
D
Y X →
Yn → c 
cX .
n
n
P
Satz 9.8. Für reellwertige Zufallsvariablen Xn (n ∈ N) und X gilt:
D
fn → f λ-f.ü. =⇒ Xn → X
47
Satz 9.9. Für reellwertige Zufallsvariablen Xn (n ∈ N) und X gilt:
D
Xn → X ⇐⇒ Ef (Xn ) → Ef (X) für alle beschränkten gleichmäßig stetigen Funktionen f : R → R
Satz 9.10 (Satz von Lévy-Cramér; Stetigkeitssatz). W-Maße Qn
(n ∈ N), Q auf B mit charakteristischen Funktionen ϕn , ϕ : R → C. Dann
gilt:
Qn → Q schwach ⇐⇒ ∀
u∈R
ϕn (u) → ϕ(u).
Bemerkung 9.2. Die obigen Definitionen und Sätze lassen sich auf WMaße auf Bk bzw. k-dim. Zufallsvektoren übertragen.
9.2
Zentrale Grenzwertsätze
Ausssagen über die Approximation von Verteilungen, insbesondere der Verteilungen von Summen von Zufallsvariablen, durch die Normalverteilung
im Sinne der schwachen Konvergenz werden als zentrale Grenzwertsätze
bezeichnet.
Satz 9.11 (Zentraler Grenzwertsatz von Lindeberg-Lévy im 1dim. Fall). Sei (Xn )n∈N eine unabhängige Folge identisch verteilter quadratisch integrierbarer reeller ZVn mit EX1 =: a, V (X1 ) =: σ 2 mit σ > 0.
Dann
n
1 X
D
√
(Xk − a) → N (0, 1)-verteilte reelle ZV.
nσ
k=1
Korollar 9.2 (Zentraler Grenzwertsatz von de Moivre und Laplace). Für eine unabhängige Folge (Xn )n∈N identisch verteilter reeller
ZVn auf (Ω, A, P ) mit P [X1 = 1] = p, P [X1 = 0] = 1 − p =: q (0 < p < 1)
gilt
Pn
Z β
X
−
np
1
2
k
e−t /2 dt (n → ∞).
<β →√
∀ P α < k=1√
α<β
npq
(=)
(=)
2π α
∈R
48
Hilfsformel
∀
k∈N
ix
(ix)k−1
|x|k
|e − 1 −
− ... −
|≤
1!
(k − 1)!
k!
ix
∀
x∈R
Satz 9.11 folgt aus
Satz 9.12 (Zentraler Grenzwertsatz von Lindeberg). Die Folge (Xn )
quadratisch integrierbarer reeller ZVn mit EX12 > 0, ∀ EXn = 0 sei
n
P
unabhängig und erfülle — mit s2n := ni=1 EXi2 (n ∈ N) — die LindebergBedingung
n
(LB)
1 X
E(Xi2 1[|Xi |>εsn ] ) → 0.
2
sn i=1
∀
ε>0
Dann
n
1 X
D
Xi → N (0, 1)-verteilte ZV.
sn i=1
Bemerkung 9.3.
a) In Satz 9.12 dient die Folge (sn ) zur Normierung. Die LindebergBedingung (LB) schränkt den Einfluss der einzelnen ZVn ein.
b) In Satz 9.12 — mit am Erwartungswert zentrierten ZVn — impliziert
die Lindeberg-Bedingung (LB) die Feller-Bedingung
1
2
max
EXi → 0
(n → ∞)
i=1,...,n s2n
und wird ihrerseits durch die Ljapunov-Bedingung
∃
δ>0
n
1 X
s2+δ
n
i=1
E|Xi |2+δ → 0
(n → ∞)
impliziert. Bei nicht am Erwartungswert zentrierten ZVn ist jeweils
Xi durch Xi − EXi , auch in der Definition von sn , zu ersetzen.
Satz 9.12 folgt aus
49
Satz 9.13 (Zentraler Grenzwertsatz von Lindeberg für Dreiecksschemata von Zufallsvariablen). Für jedes n ∈ N seien Xn,1 , . . . , Xn,mn
unabhängige quadratisch integrierbare reelle ZVn mit mn → ∞ für n → ∞.
P n
2
Ferner seien EXn,i = 0, m
n=1 EXn,i = 1 und die Lindeberg-Bedingung
∀
ε>0
erfüllt. Dann
mn
X
mn
X
2
E Xn,i
1[|Xn,i |>ε] ) → 0.
i=1
D
Xn,i → N (0, 1)-verteilte ZV.
i=1
9.3
Multivariate zentrale Grenzwertsätze
Ist X ein d-dimensionaler integrierbarer Zufallsvektor, d.h. EkXk < ∞, so
heißt EX = (EX1 , . . . , EXd )t Erwartungsvektor von X.
Ist X ein d-dimensionaler quadratisch integrierbarer Zufallsvektor, d.h.
EkXk2 < ∞, so heißt Cov(X) := (Cov(Xi , Xj ))i,j∈{1,...,d} Kovarianzmatrix von X, wobei die einzelnen Einträge die Kovarianzen cov(Xi , Xj ) :=
E(Xi − EXi )(Xj − EXj ) der reellwertigen Zufallsvariablen Xi und Xj darstellen.
Definition 9.2. Ein d-dimensionaler Zufallsvektor X = (X1 , . . . , Xd )t
heißt multivariat normalverteilt (oder auch d-dimensional normalverP
teilt), falls für jedes u ∈ Rd die Zufallsvariable hu, Xi = ut X = di=1 ui Xi
eindimensional normalverteilt ist, wobei eine 1-dimensionale Normalverteilung mit Varianz 0 als eine Dirac-Verteilung δa im Punkt a interpretiert
wird.
Satz 9.14 (Cramér-Wold-Device). Für d-dimensionale Zufallsvektoren
D
D
Xn und X gilt Xn → X genau dann, wenn hu, Xn i → hu, Xi für alle
u ∈ Rd .
50
Satz 9.15 (Multivariater zentraler Grenzwertsatz). Für jedes n ∈ N
seien Xn,1 , . . . , Xn,mn unabhängige quadratisch integrierbare d-dimensionale
ZVn mit mn → ∞ für n → ∞. Desweiteren gelte
∀
n
∀
i∈{1,...,mn }
mn
X
Cov(Xn,i ) = C ∈ Rd×d
∀
n
mn
X
∀
ε>0
EXn,i = 0
i=1
E kXk2n,i 1[kXi k>ε] ) → 0.
i=1
Dann
mn
X
D
Xn,i → N (0, C)-verteilten Zufallsvektor (n → ∞)
i=1
Korollar 9.3. Ist (Xn )n∈N eine unabhängige Folge identisch verteilter quadratisch integrierbarer Zufallsvektoren, so gilt
n
1 X
D
√
(Xi − EXi ) → N (0, Cov(X1 ))-verteilte ZV.
n i=1
51
10
Bedingte Erwartungen
Satz 10.1. W-Raum (Ω, A, P ). Integrierbare ZV X: (Ω, A, P ) → (R, B).
σ-Algebra C ⊂ A. Dann existiert eine ZV Z : (Ω, A, P ) → (R, B) mit
folgenden Eigenschaften:
(∗) Z ist integrierbar und C-B-messbar,
Z
Z
(∗∗) ∀
X dP =
Z dP .
C∈C
C
C
Z ist eindeutig bis auf die Äquivalenz “= Rest C P -f.ü.”.
Definition 10.1. W-Raum (Ω, A, P ). Integrierbare ZV X: (Ω, A, P ) →
(R, B). σ-Algebra C ⊂ A. Die Äquivalenzklasse (im oberen Sinne) der ZVn
Z: (Ω, A, P ) → (R, B) mit (∗) und (∗∗) — oder auch ein Repräsentant
dieser Äquivalenzklasse — heißt bedingte Erwartung von X bei gegebenem C . . . E(X | C).
Häufig wird ein Repräsentant dieser Äquivalenzklasse als eine Version von
E(X | C) bezeichnet.
E(X | C) ist eine “Vergröberung” von X.
Beispiele
a) C = A . . . E(X | C) = X f.s.
b) C = {∅, Ω} . . . E(X | C) = EX
c) C = {∅, B, B c , Ω} mit 0 < P (B) < 1.

Z
1



 P (B) X dP =: E(X | B), ω ∈ B
B
(E(X | C))(ω) =
Z

1


X dP, ω ∈ B c

c
P (B ) B c
E(X | B) heißt bedingter Erwartungswert von X unter der
Hypothese B.
52
Satz 10.2. W-Raum (Ω, A, P ). X, Xi integrierbar; σ-Algebra C ⊂ A;
c, α1,2 ∈ R.
Z
Z
a) ∀
E(X | C)dP =
X dP
C∈C
C
C
b) X = c P-f.s. =⇒ E(X | C) = c f.s.
c) X ≥ 0 P-f.s. =⇒ E(X | C) ≥ 0 f.s.
d) E(α1 X1 + α2 X2 | C) = α1 E(X1 | C) + α2 E(X2 | C) f.s.
e) X1 ≤ X2 P-f.s. =⇒ E(X1 | C) ≤ E(X2 | C) f.s.
f) X C-B-messbar =⇒ X = E(X | C) f.s.
g) X integrierbar, Y C-B-messbar, XY integrierbar =⇒ E(XY | C) =
Y E(X | C) f.s.
g’) X, X 0 integrierbar, XE(X 0 | C) integrierbar
=⇒ E(XE(X 0 | C) | C) = E(X | C)E(X 0 | C) f.s.
h) σ-Algebra C1,2 mit C1 ⊂ C2 ⊂ A, X integrierbar
E(E(X | C1 ) | C2 ) = E(X | C1 ) f.s.
E(E(X | C2 ) | C1 ) = E(X | C1 ) f.s.
Hier f.s. . . . Rest C2 P-f.s. bzw. Rest C1 P-f.s.
Definition 10.2. W-Raum (Ω, A, P ). σ-Algebra C ⊂ A. A ∈ A.
P (A | C) := E(1A | C) heißt bedingte Wahrscheinlichkeit von A bei
gegebenem C.
Bemerkung 10.1. Zu Definition 10.2.
Z
P (A | C) dP = P (A ∩ C).
∀
C∈C
C
Beispiel. C = {∅, B, B c , Ω} mit 0 < P (B) < 1.

P (A ∩ B)



 P (B) =: P (A | B), ω ∈ B
(P (A | C))(ω) =

P (A ∩ B c )


=: P (A | B c ), ω ∈ B c .

P (B c )
53
Definition 10.3. W-Raum (Ω, A, P ).
a) Integrierbare ZV X: (Ω, A, P ) → (R, B). ZV Y : (Ω, A, P ) → (Ω0 , A0 ).
E(X | Y ) := E(X | Y −1 (A0 )) . . . bedingte Erwartung von X bei
| {z }
gegeb. Y .
[kleinste σ-Algebra in Ω, bzgl. der Y messbar ist . . . F(Y )(⊂ A)]
b) Integrierbare ZV X: (Ω, A, P ) → (R, B). ZVn Yi : (Ω, A, P ) → (Ω0i , A0i ) (i ∈
I)
C(⊂ A) sei die kleinste σ-Algebra in Ω, bzgl. der alle Yi messbar sind
[C = F( ∪ Yi−1 (Ai )) . . . F(Yi , i ∈ I)]
i∈I
E(X | (Yi )i∈I ) := E(X | C) . . . bedingte Erwartung von X bei
gegebenem Yi , i ∈ I.
c) A ∈ A; ZV Y : (Ω, A, P ) → (Ω0 , A0 ).
P (A | Y ) := E(1A | Y ) . . . bedingte Wahrscheinlichkeit von A
bei gegeb. Y .
Bemerkung 10.2. Integrierbare ZV X: (Ω, A, P ) → (R, B).
a) σ-Algebra C in A
(X −1 (B), C) unabhängig =⇒ E(X | C) = EX f.s.
b) ZV Y : (Ω, A, P ) =⇒ (Ω0 , A0 )
(X, Y ) unabhängig → E(X | Y ) = EX f.s.
Satz 10.3. W-Raum (Ω, A, P ). Integrierbare ZV X: (Ω, A, P ) → (R, B).
ZV Y : (Ω, A, P ) → (Ω0 , A0 ). Dann ex. Abb. g: (Ω0 , A0 ) → (R, B) mit E(X |
Y)=g◦Y.
g ist die sog. Faktorisierung der bedingten Erwartung.
g ist eindeutig bis auf die Äquivalenz “= PY -f.ü. ”.
Definition 10.4. W-Raum (Ω, A, P ). Integrierbare ZV X: (Ω, A, P ) →
(R, B) bzw. A ∈ A. ZV Y : (Ω, A, P ) → (Ω0 , A0 ). Sei g bzw. gA eine — bis
54
auf Äquivalenz “= PY - f.ü.” eindeutig bestimmte — Faktorisierung von
E(X|Y ) bzw. von P (A|Y ).
E(X | Y = y) := g(y) . . . bedingte Erwartung von X unter der
Hypothese Y = y
P (A | Y = y) := gA (y) . . . bed. Wahrscheinlichkeit von A unter der
Hypoth. Y = y
E(X | Y = ·) = g
P (A | Y = ·) = gA
Satz 10.4. W-Raum (Ω, A, P ). Integrierbare ZV X: (Ω, A, P ) → (R, B)
bzw. A ∈ A. ZV Y : (Ω, A, P ) → (Ω0 , A0 )
R
R
a) ∀
E(X
|
Y
=
y)
P
(dy)
=
0
Y
A
Y −1 (A0 ) X dP ,
A0 ∈A0
R
insbesondere Ω0 E(X | Y = y) PY (dy) = EX .
R
−1
(A0 ) ∩ A) ,
b) ∀
A0 P (A | Y = y) PY (dy) = P (Y
0
0
A ∈A
R
insbesondere Ω0 P (A | Y = y) PY (dy) = P (A) .
Beispiel. X bzw. A sowie Y wie zuvor. Sei y ∈ Ω0 mit {y} ∈ A0 und
PY ({y}) > 0.
a) E(X | Y = y) = E(X | [Y = y])
|
{z
}
|
{z
}
s. Def. 10.4. s. Beispiel nach Def. 10.1.
b) P (A | Y = y) = P (A | [Y = y])
|
{z
}
|
{z
}
s. Def. 10.4. s. Beispiel nach Def. 10.2.
Satz 10.5. W-Raum (Ω, A, P ). Integrierbare ZV X: (Ω, A, P ) → (R, B).
ZV Y : (Ω, A) → (Ω0 , A0 ).
a) X = c f.s. =⇒ E(X | Y = ·) = c PY -f.ü.
b) X ≥ 0 f.s. =⇒ E(X | Y = ·) ≥ 0 PY -f.ü.
c) E(αX1 + βX2 | Y = ·) = αE(X1 | Y = ·) + βE(X2 | Y = ·) PY -f.ü.
55
d) X1 ≤ X2 f.s. =⇒ E(X1 | Y = ·) ≤ E(X2 | Y = ·) PY -f.ü.
Satz 10.6. W-Raum (Ω, A, P ), Sub-σ-Algebra C(⊂ A), X, Xn (n ∈ N)
integrierbare Zufallsvariablen. Dann gilt:
a) Ist 0 ≤ Xn ↑ X fast sicher (n → N), so folgt
E(Xn | C) → E(X | C) fast sicher
(Satz von der monotonen Konvergenz für bedingte Erwartungen).
b) Ist Xn → X fast sicher (n → N) und |Xn | ≤ Y fast sicher für alle
n ∈ N und Y eine integrierbare Zufallsvariable (d.h. E|Y | < ∞), so
folgt
E(Xn | C) → E(X | C) fast sicher
(Satz von der dominierten Konvergenz für bedingte Erwartungen).
Satz 10.7. W-Raum (Ω, A, P ), Sub-σ-Algebra C(⊂ A), I ⊂ R ein Intervall
und f : I → R eine konvexe Funktion und X : Ω → I eine integrierbare
Zufallsvariable. Dann ist E(X | C) ∈ I fast sicher. Ist f (X) integrierbar,
so gilt
f (E(X | C)) ≤ E(f (X) | C) fast sicher
56
11
Martingale
Definition 11.1. W-Raum (Ω, A, P ). Eine Folge (Xn )n∈N von integrierbaren ZVn Xn : (Ω, A, P ) → (R, B) heißt bei gegebener nonoton wachsender
Folge (An )n∈N von σ-Algebren An ⊂ A mit An -B-Messbarkeit von Xn
[wichtiger Fall An = F(X1 , . . . , Xn ) (n ∈ N)]
a) ein Martingal bzgl. (An ), wenn
∀
n∈N
E(Xn+1 | An ) = Xn f.s.
Z
[d.h.
∀
Z
Xn+1 dP =
∀
n∈N C∈An
C
Xn dP ] ,
C
b) ein Submartingal bzgl. (An ), wenn
∀
n∈N
E(Xn+1 | An ) ≥ Xn f.s.
Z
[d.h.
∀
Z
Xn+1 dP ≥
∀
n∈N C∈An
C
Xn dP ] ,
C
c) ein Supermartingal bzgl. (An ), wenn (−Xn ) ein Submartingal bzgl.
(An ) ist.
Bemerkung 11.1. Ein Martingal (Xn ) bzgl. (An ) ist auch ein Martingal
bzgl. (F(X1 , . . . , Xn )). Entsprechend für Sub-, Supermartingal.
Satz 11.1. W-Raum (Ω, A, P ), Folge (Vn )n∈N von ZVn Vn : (Ω, A, P ) →
n
P
(R, B) . Die Partialsummenfolge ( Vj )n∈N ist genau dann ein Martingal
j=1
bzw. Submartingal bzgl. (F(V1 , V1 +V2 , . . . , V1 +. . .+Vn )) = (F(V1 , . . . , Vn )),
wenn
∀
n∈N
Vn integrierbar und ∀
n∈N
E(Vn+1 | V1 , . . . , Vn ) = 0 bzw. ≥ 0 f.s.
Definition 11.2. Ein Spiel mit zufälligen Gewinnständen X1 , X2 , . . . nach
dem 1., 2., . . . Schritt heißt fair, wenn EX1 = 0 und (Xn )n∈N ein Martingal [bzgl. (F(X1 , . . . , Xn ))] ist, d.h. EX1 = 0 und ∀ E(Xn+1 | X1 =
n
x1 , . . . , Xn = xn ) = xn für P(X1 ,...,Xn ) -f.a. (x1 , . . . , xn ).
57
Satz 11.2. W-Raum (Ω, A, P ), Folge (Vn ) von quadratisch integrierP
baren ZVn Vn : (Ω, A, P ) → (R, B). Die Partialsummenfolge ( nj=1 Vj ) sei
ein Martingal.
Dann gilt ∀ EVi Vj = 0.
i6=j
P
Beispiel für ein Martingal: Partialsummenfolge ( nj=1 Vj )n∈N zu einer unabhängigen Folge (Vn )n∈N von integrierbaren reellen ZVn mit Erwartungswerten 0.
Satz 11.3 ((Sub-)Martingalkonvergenztheorem (Doob)). W-Raum
(Ω, A, P ).
(Xn ) sei ein Submartingal mit limn E|Xn | < ∞.
Dann existiert eine integrierbare reelle ZV X mit Xn → X P-f.s.
Zusatz: Ist das Martingal (Xn ) bzgl. der Folge (An ) gleichgradig integrierbar, d.h.
lim sup E(|Xn |1{|Xn |>c} ) = 0,
c→∞
n
so gilt zusätzlich
Xn → X in L1 und Xn = E(X|An ) für alle n.
Zum Beweis von Satz 11.3: Definition 11.3, Definition 11.4., Satz 11.4, Satz
11.5.
Definition 11.3. W-Raum (Ω, A, P ). Monoton wachsende Folge (An )n∈N
von σ-Algebren An ⊂ A. Eine ZV T : (Ω, A, P ) → (N := N ∪ {∞}, P(N))
heißt Stoppzeit bzgl. (An ), wenn ∀ [T = k] ∈ Ak ; hierbei heißt T
k∈N
Stoppzeit im engeren Sinne, falls P [T < ∞] = 1
die Zukunft”].
[“Kein Vorgriff auf
Wichtiger Fall: An = F(X1 , . . . , Xn ) (n ∈ N) mit ZVn Xn
Deutung (Xn ) . . . Folge der Gewinnstände in einem Spiel.
58
Ein Spieler ohne prophetische Gaben bricht das Spiel im zufälligen Zeitpunkt T aufgrund des bisherigen Spielverlaufs ab.
Beispiel: T (ω) = inf{n ∈ N: Xn (ω) ∈ B}, ω ∈ Ω — festes messbares B.
Definition 11.4. W-Raum (Ω, A, P ). Folge (Xn )n∈N von ZVn Xn : (Ω, A, P ) →
(R, B);
Folge (Tn )n∈N von Stoppzeiten bzgl. (Xn ) [d.h. bzgl. (F(X1 , . . . , Xn ))] mit
T1 ≤ T2 ≤ . . . < ∞. Neue Folge: Folge (XTn )n∈N von ZVn definiert durch
(XTn )(ω) := XTn (ω) (ω), ω ∈ Ω .
Übergang von (Xn ) zu (XTn ) heißt optional sampling [frei gewählte
Stichprobenbildung]
Deutung . . . Testen des Spielverlaufs zu den Zeitpunkten Tn (ω).
Satz 11.4 (Optional sampling theorem). Submartingal (Xn )n∈N . Festes M ∈ N. Folge (Tn )n∈N von Stoppzeiten bzgl. (Xn ) mit T1 ≤ T2 ≤ . . . ≤
M.
Die durch optional sampling erhaltene Folge (XTn )n∈N ist ebenfalls ein Submartingal. — Entsprechend für Martingal statt Submartingal (Deutung:
die Fairness eines Spielverlaufs wird nicht geändert).
Satz 11.5 (“upcrossing inequality” (von Doob)). Sei (X1 , . . . , Xn ) ein
— beim festen Index n ∈ N abbrechendes — Submartingal. Feste reelle
Zahlen a, b mit a < b. Die ZV U [a, b] gebe die Anzahl der aufsteigenden
Überquerungen des Intervalls [a, b] durch X1 , . . . , Xn an (d.h. die Anzahl
der Übergänge der abbrechenden Folge von einem Wert ≤ a zu einem Wert
≥ b). Dann gilt
(b − a)EU [a, b] ≤ E(Xn − a)+ − E(X1 − a)+ .
Korollar 11.1. Ist (Un ) eine Folge integrierbarer nichtnegativ-reeller Zufallsvariablen auf (Ω, A, P ) und (An ) eine monoton wachsende Folge von
59
Unter-σ-Algebren von A mit An -B+ -Messbarkeit von Un (n ∈ N) und gilt
E(Un+1 | An ) ≤ (1 + αn )Un + βn (n ∈ N)
P
P
wobei αn , βn ∈ R+ mit
αn < ∞,
βn < ∞, dann konvergiert (Un ) f.s.
— (Un ) ist “fast ein nichtnegatives Supermartingal”.
Auch (EUn ) konvergiert.
Satz 11.6. Folge (Vn ) von quadratisch integrierbaren reellen ZVn mit
P
V (Vn ) < ∞. Dann ist
X
(Vn − E(Vn | V1 , . . . , Vn−1 )) f.s. konvergent.
P
[Falls zusätzlich (Vn ) unabhängig, dann ist (Vn − EVn ) f.s. konvergent]
Satz 11.7. Folge (Vn ) von quadratisch integrierbaren reellen ZVn mit
P −2
n V (Vn ) < ∞. Dann
n
1X
(Vj − E(Vj | V1 , . . . , Vj−1 )) → 0 f.s.
n j=1
Falls zusätzlich (Vn ) unabhängig, dann
1
n
n
P
(Vj − EVj ) → 0 f.s.
j=1
(Kriterium von Kolmogorov zum starken Gesetz der großen Zahlen)
Beweis von Satz 11.7 mit Satz 11.6 und dem folgenden — etwas spezialisierten —
Lemma von Kronecker. Folge (cn )n∈N reeller Zahlen.
X cn
n
1X
konv. =⇒
cj → 0 (n → ∞).
n
n j=1
Bemerkung 11.2. Aus Satz 11.6 bzw. 11.7 ergibt sich unmittelbar für
eine Folge (Vn ) quadratisch integrierbarer reeller ZVn eine hinreichende
n
P
P
Vj → 0
Bedingung für die f.s. Konvergenz der Reihe
Vn bzw. für n1
j=1
f.s.
60
Satz 11.8 (Kriterium von Kolmogorov für das starke Gesetz der
großen Zahlen). Eine unabhängige Folge (Xn )n∈N quadratisch integrierbarer reeller ZVn mit
∞
X
n−2 V (Xn ) < ∞
n=1
genügt dem starken Gesetz der großen Zahlen.
Satz 11.9 (Kolmogorovsches starkes Gesetz der großen Zahlen).
Für eine unabhängige Folge (Xn )n∈N identisch verteilter integrierbarer reeller ZVn gilt
n
1X
Xk → EX1 (n → ∞) f.s.
n
k=1
Zum Abschluss noch ein zentraler Grenzwertsatz für Martingale (ohne Beweis):
Satz 11.10 (B.M. Brown 1971, Gänssler-Stute 1977). Das Schema reeller
ZVn Xnj (j = 1, . . . , jn ; n ∈ N) auf einem W-Raum (Ω, A, P ) und das
Schema der σ-Algebren Anj in Ω (j = 0, . . . , jn ; n ∈ N) mit F(Xnj ) ⊂
Anj ⊂ An,j+1 ⊂ A sollen die folgenden Bedingungen erfüllen:
(1) ∀ Xnj quadr. int., Ej−1 Xnj := E(Xnj | An,j−1 ) = 0
n,j
[die Xnj bilden ein sog. Martingaldifferenzschema],
(2)
jn
P
2
Ej−1 Xnj
→ 1,
P
j=1
(3) ∀
jn
P
ε>0 j=1
2
Ej−1 [Xnj
1[|Xnj |>ε] ] → 0 (n → ∞)
P
[eine sog. bedingte Lindeberg-Bedingung].
Dann
jn
X
D
Xnj → N (0, 1)-verteilte reelle ZV.
j=1
61
Bemerkung 11.3. Schema quadr. int. am Erwartungswert zentrierter reeller ZVn Xni (i = 1, . . . , in ; n ∈ N) auf W-Raum (Ω, A, P ), Schema von σAlgebren Ani in Ω (i = 0, . . . , in ; n ∈ N) mit F(Xni ) ⊂ Ani ⊂ An,i+1 ⊂ A.
Es gelten die folgenden Implikationen:
in
P
a) ∃
E(|Xni |2+δ | An,i−1 ) → 0 ( bedingte Ljapunov-Bedingung) =⇒
δ>0
∀
ε>0
i=1
in
P
P
2
E(Xni
1[|Xni |>ε] | An,i−1 ) → 0 (bedingte Lindeberg-Bedingung)
P
i=1
=⇒ max
i=1,...,in
b) ∃
δ>0
in
P
2
E(Xni
| An,i−1 ) → 0 (bedingte Feller-Bedingung)
P
E(|Xni |2+δ ) → 0 (Ljapunov-Bedingung)
i=1
=⇒ ∀
ε>0
=⇒ max
in
P
2
E(Xni
1[|Xni |>ε] ) → 0 (Lindeberg-Bedingung)
i=1
i=1,...,in
2
E(Xni
) → 0 (Feller-Bedingung).
Ljapunov-Bedingung =⇒ bedingte Ljapunov-Bedingung
Lindeberg-Bedingung =⇒ bedingte Lindeberg-Bedingung
c) Bei nicht am Erwartungswert zentrierten ZVn ist in a), b) jeweils Xni
durch Xni − EXni zu ersetzen.
Bemerkung 11.4.
a) Wird in Satz 11.4 für jedes n ∈ N die Unabhängigkeit des in -tupels
(Xn1 , . . . , Xnin ) vorausgesetzt, so können — bei An0 = {∅, Ω}, Ani =
F(Xn1 , . . . , Xni ) (i = 1, . . . , in , n ∈ N) — (1), (2), (3) in äquivalenter
Weise mit Erwartungswerten statt bedingter Erwartungen und Konvergenz in R statt stochastischer Konvergenz formuliert werden.
b) In Satz 11.4 dient die Bedingung (2) der Normierung und schränkt die
Bedingung (3) vom Lindeberg-Typ den Einfluss der einzelnen ZVn ein.
62
A
Begriffe und Sätze der Maß- und Integrationstheorie
Sei (Ω, A, µ) ein Maßraum.
Satz von der monotonen Konvergenz (B. Levi). Für erweitert reellwertige messbare Funktionen fn mit fn ≥ 0 (n ∈ N), fn ↑ f (n → ∞)
R
existiert lim fn dµ und es gilt
n
Z
Z
lim fn dµ = lim fn dµ
n
n
Lemma von Fatou. Für jede Folge (fn ) von erweitert reellwertigen messbaren Funktionen mit fn ≥ 0 µ-f.ü. gilt
Z
Z
lim inf fn dµ ≤ lim inf fn dµ
Satz von der dominierten Konvergenz (Lebesgue). Für erweitertreellwertige messbare Funktionen fn (n ∈ N), f und g mit fn → f µ-f.ü.
R
(n → ∞), |fn | ≤ g µ-f.ü. für alle n und g dµ < ∞ existiert limn→∞ fn dµ
und es gilt
Z
Z
lim
n→∞
fn dµ =
f dµ
Definition. Das Maß µ heißt σ-endlich, wenn es ein Folge von Mengen
An ∈ A (n ∈ N) gibt mit An ↑ Ω und µ(An ) < ∞.
Ein Maß ν auf A heißt µ-stetig, falls
∀
µ(A) = 0 ⇒ ν(A) = 0.
A∈A
Satz von Radon-Nikodym. Messraum (Ω, A), σ-endliche Maße µ und ν
auf A, ν sei µ-stetig. Dann existiert eine Funktion f : (Ω, A) → (R+ , B+ )
mit
Z
ν(A) =
f dµ
∀
A∈A
A
63
f ist eindeutig bis auf Äquivalenz “=µ-f.ü.”.
f ist die sog. Radon-Nikodym-Ableitung von ν nach µ und wird häufig
kurz durch
dν
dµ
angegeben.
64
Literatur
[1] Bauer, H. Wahrscheinlichkeitstheorie; de Gruyter, Berlin (1990), 4.
Aufl.
[2] Bauer, H. Maß- und Integrationstheorie; de Gruyter, Berlin (1998),
2. Aufl.
[3] Billingsley, P. Probability and Measure; Wiley, New York (1995), 3rd
ed.
[4] Capiński, M., Kopp, E. Measure Integral and Probability; Springer
(2004), 2nd ed.
[5] Dudley, R.M. Real Analysis and Probability; Cambridge University
Press (2002), 2nd ed.
[6] Elstrodt, J. Maß- und Integrationstheorie; Springer (2009), 6. Aufl.
[7] Feller, W. An Introduction to Probability and Its Applications I,II;
Wiley, New York (1970/71), 3rd ed./2nd ed.
[8] Fisz, M. Wahrscheinlichkeitsrechnung und mathematische Statistik;
VEB Deutscher Verlag der Wissenschaften, Berlin (1970), 5. Aufl.
[9] Gänssler, P., Stute, W. Wahrscheinlichkeitstheorie; Springer, Berlin
(1977).
[10] Henze, N. Stochastik für Einsteiger: Eine Einführung in die faszinierende Welt des Zufalls; Vieweg+Teubner (2008), 7. Aufl.
[11] Hesse, C. Wahrscheinlichkeitstheorie — Eine Einführung mit Beispielen und Anwendungen. Vieweg+Teubner (2009), 2. Aufl.
[12] Hinderer, K. Grundbegriffe der Wahrscheinlichkeitstheorie; Springer,
Berlin (1985), 3. korr. Nachdruck.
[13] Jacod, J., Protter, P. Probability Essentials. Springer, Berlin (2004),
2nd ed.
65
[14] Kallenberg, O. Foundations of Modern Probability. Springer, New
York (2001), 2nd ed.
[15] Klenke, A. Wahrscheinlichkeitstheorie; Springer, Heidelberg (2006)
[16] Krengel, U. Einführung in die Wahrscheinlichkeitstheorie und Statistik; Vieweg, Braunschweig (2003), 7. Aufl.
[17] Loève, M. Probability Theory I,II; Springer, Berlin (1977/78), 4th ed.
[18] Meintrup D., Schäffler S. Stochastik — Theorie und Anwendungen;
Springer (2004).
[19] Williams, D. Probability with Martingales; Cambridge University
Press (1991).
[20] Wengenroth, J. Wahrscheinlichkeitstheorie. De Gruyter (2008).
[21] Williams, D. Weighing the Odds — A Course in Probability and Statistics; Cambridge University Press (2001).
66
Herunterladen