Wahrscheinlichkeitstheorie WS 2007/08

Werbung
Wahrscheinlichkeitstheorie
WS 2007/08
Vorlesung von Priv.-Doz. Dr. J. Dippon
15. Oktober 2007
Inhaltsverzeichnis
1 Wahrscheinlichkeitsräume
1
2 Kombinatorische Wahrscheinlichkeitsrechnung
7
3 Zufallsvariablen und Verteilungen
9
3.1 Meßbare Abbildungen und Zufallsvariablen . . . . . . . . . . . . . . . . . . 9
3.2 Bildmaße und Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4 Erwartungswerte und Dichten
13
5 Unabhängigkeit
19
6 Erzeugende und charakteristische Funktionen;
Faltungen
22
6.1 Erzeugende Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
6.2 Charakteristische Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . 23
7 Spezielle Verteilungen
27
7.1 Diskrete Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
7.2 Totalstetige Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
8 Bedingte Erwartungen
33
9 Martingale
37
10 Verteilungskonvergenz in R
41
11 Zentrale Grenzwertsätze
44
Literatur
47
1
Wahrscheinlichkeitsräume
Definition 1.1. Sei Ω eine nichtleere Menge. Ein System A von Teilmengen von Ω heißt
eine Algebra, wenn
1) ∅ ∈ A
2) A ∈ A =⇒ Ac := Ω\A ∈ A
3) A, B ∈ A =⇒ A ∪ B ∈ A
m
oder — äquivalent — A1 , . . . , Am ∈ A =⇒ ∪ An ∈ A,
n=1
das System A heißt σ-Algebra, falls zusätlich gilt
∞
3’) An ∈ A (n = 1, 2, . . .) =⇒ ∪ An ∈ A .
n=1
Bemerkung 1.1. A σ-Algebra =⇒ A Algebra.
Lemma 1.1.
a) Sei A eine Algebra.
m
A1 , . . . , Am ∈ A =⇒ ∩ An ∈ A
n=1
A, B ∈ A =⇒ A\B ∈ A .
b) Sei A eine σ-Algebra.
∞
An ∈ A (n = 1, 2, . . .) =⇒ ∩ An ∈ A .
n=1
Eine Algebra [σ-Algebra] enthält ∅, Ω und ist abgeschlossen gegenüber endlich [abzählbar]
vielen üblichen Mengenoperationen.
Definition 1.2. Es sei Ω eine nichtleere Menge, A eine σ-Algebra in Ω. Das Paar (Ω, A)
heißt Messraum (measurable space); die Elemente ∈ A heißen A-messbare Mengen.
Lemma 1.2.
a) Aα Algebren in Ω (α ∈ I) =⇒ ∩ Aα Algebra in Ω.
α∈I
b) C Mengensystem in Ω =⇒ es existiert eine kleinste C enthaltende Algebra.
Entsprechend für σ-Algebren.
Definition 1.3. C sei ein Mengensystem in Ω. Die kleinste der C enthaltenden Algebren
heißt die von C erzeugte Algebra; C heißt ein Erzeugersystem dieser Algebra. —
Entsprechend für σ-Algebren;
Bezeichnung: F(C) . . . die von C erzeugte σ-Algebra.
1
Definition 1.4. On := System der offenen Mengen des Euklidischen Raumes Rn ; Bn :=
F(On ), B := B1 . Bn wird als σ-Algebra der Borelschen Mengen in Rn bezeichnet.
Bn enthält alle abgeschlossenen Mengen und alle höchstens abzählbaren Mengen in Rn .
Es gilt Bn ⊂ P(Rn ).
6=
Satz 1.1. Das System Jn der halboffenen Intervalle (a, b] := {(x1 , . . . , xn ) ∈ Rn | ai <
xi ≤ bi (i = 1, . . . , )} in Rn (a = (a1 , . . . , an ), b = (b1 , . . . , bn ) ∈ Rn mit ai < bi ) [oder auch
das System der offenen Intervalle, der abgeschlossenen Intervalle, der Intervalle (−∞, a]
oder der Intervalle (−∞, a)] ist ein Erzeugersystem von Bn .
Definition 1.5. C sei ein Mengensystem in Ω mit ∅ ∈ C. Eine Mengenfunktion µ : C →
R := R ∪ {+∞, −∞} heißt (mit a + ∞ = ∞ (a ∈ R), ∞ + ∞ = ∞ usw.)
a) ein Inhalt (content) auf C, wenn
µ ist nulltreu, d.h. µ(∅) = 0,
µ(A) ≥ 0,
µ positiv, d.h. ∀
A∈C
µ additiv, d.h. für alle paarweise disjunkte An ∈ C (n = 1, 2, . . . , m)
!
m
m
m
X
X
X
µ(An ) .
mit
An ∈ C gilt µ
An =
n=1
n=1
n=1
b) ein Maß (measure) auf C, wenn
µ ist nulltreu, d.h. µ(∅) = 0,
µ positiv, d.h. ∀
µ(A) ≥ 0,
A∈C
µ σ-additiv, d.h. für alle paarweise disjunkte An ∈ C (n = 1, 2, . . .)
!
∞
∞
∞
X
X
X
µ(An ) .
mit
An ∈ C gilt µ
An =
n=1
n=1
n=1
“Natürliche” Definitionsbereiche für Inhalt und Maß sind Algebren bzw. σ-Algebren (dann
m
∞
P
P
Verzicht auf Voraussetzung
An ∈ C bzw.
An ∈ C ). Häufig werden nur diese Defin=1
n=1
nitionsbereiche verwendet.
Jedes Maß ist ein Inhalt.
Definition 1.6. Ist A eine σ-Algebra in Ω, µ ein Maß auf A, so heißt (Ω, A, µ) ein Maßraum (measure space).
2
Ist (Ω, A) ein Messraum, Z = {z1 , z2 , . . .} eine höchstens abzählbare Teilmenge von Ω,
so heißt µ : A → R mit µ(A) := Anzahl der zi ∈ A, A ∈ A, ein abzählendes Maß
(counting measure).
Bemerkung 1.2. A Algebra in Ω, µ endlicher Inhalt auf A.
A, B ∈ A, A ⊂ B =⇒ µ(B\A) = µ(B) − µ(A) . . . Subtraktivität.
Definition 1.7. Sei A eine σ-Algebra in Ω. Eine Abbildung P : A → R heißt ein
Wahrscheinlichkeitsmaß (W-Maß) auf A, wenn
P (∅) = 0,
P positiv, d.h. P (A) ≥ 0,
P σ-additiv, d.h. für alle paarweise disjunkte An ∈ A (n = 1, 2, . . .) gilt
!
∞
∞
X
X
P
An =
P (An ),
n=1
n=1
P normiert, d.h. P (Ω) = 1.
(Ω, A, P ) heißt dann ein Wahrscheinlichkeitsraum (W-Raum) (probability space).
Ein W-Raum ist ein normierter Maßraum.
Ist (Ω, A, P ) ein W-Raum, so bezeichnet man die Grundmenge Ω auch als Merkmalraum,
Stichprobenraum (sample space), die Mengen A ∈ A als Ereignisse, P (A) als Wahrscheinlichkeit von A, die Elemente ω ∈ Ω bzw. die 1-Punkt-Mengen {ω} ⊂ Ω (nicht notwendig
∈ A) als Elementarereignisse (auch Realisierungen).
Ein W-Raum (Ω, A, P ) mit Ω endlich, A = P(Ω), P ({ω}) =
der Elemente in Ω) heißt Laplacescher W-Raum:
Für A ∈ A gilt P (A) =
1
|Ω|
(ω ∈ Ω) (|Ω| = Anzahl
|A|
Anzahl der “günstigen” Fälle
=
|Ω|
Anzahl der “möglichen” Fälle
Es sei (Ω, A) = (R, B) und (pk )k∈N0 (N0 := {0, 1, . . .}) eine Zahlenfolge mit pk ≥ 0
∞
P
pk = 1. Dann ist P : B → R mit
(k ∈ N0 ),
k=0
P (A) :=
X
pk , A ∈ A ,
k∈A∩N0
ein W-Maß. (pk ) heißt Zähldichte zu P .
k
Ist speziell pk = e−λ λk! , (k ∈ N0 ) bei festem λ > 0, so heißt P Poisson-Verteilung mit
Parameter λ . . . Bezeichnung π(λ).
3
Bezeichnung [für Mengen An (n = 1, 2, . . .), A]
∞
An ↑ A : A1 ⊂ A2 ⊂ A3 ⊂ . . . , ∪ A n = A
n=1
∞
An ↓ A : A1 ⊃ A2 ⊃ A3 ⊃ . . . , ∩ A n = A .
n=1
Satz 1.2. Sei A eine Algebra in Ω, µ ein endlicher (d.h. µ(Ω) < ∞) Inhalt auf A. Dann
sind die folgenden Aussagen a), . . . , d) äquivalent:
a) µ σ-additiv
b) µ stetig von unten,
d.h. [An ∈ A, An ↑ A ∈ A =⇒ µ(An ) → µ(A)]
c) µ stetig von oben,
d.h. [An ∈ A, An ↓ A ∈ A =⇒ µ(An ) → µ(A)]
d) µ ∅-stetig,
d.h. [An ∈ A, An ↓ ∅ =⇒ µ(An ) → 0] .
Auch ohne die Voraussetzung der Endlichkeit von µ gilt a) ⇐⇒ b).
Lemma 1.3. Sei A eine Algebra in Ω, µ ein Inhalt auf A.
a) µ ist monoton,
d.h. [A, B ∈ A, A ⊂ B =⇒ µ(A) ≤ µ(B)] .
b) µ ist subadditiv,
m
m
P
n=1
n=1
d.h. [A1 , . . . , Am ∈ A =⇒ µ( ∪ An ) ≤
µ(An )] .
c) Ist µ ein Maß, dann ist µ sogar σ-subadditiv,
∞
∞
∞
P
n=1
n=1
n=1
d.h. [An ∈ A (n = 1, 2, . . .), ∪ An ∈ A =⇒ µ( ∪ An ) ≤
µ(An )] .
Satz 1.3 (1. Lemma von Borel und Cantelli).
W-Raum (Ω, A, P ); An ∈ A (n ∈ N) . Mit
∞
∞
lim An := ∩ ∪ Ak = {ω ∈ Ω | existieren unendlich viele n ∈ N mit ω ∈ An }
n=1 k=n
=
“Ereignis, dass unendlich viele An eintreten”
gilt dann:
∞
X
P (An ) < ∞
=⇒
P (lim An ) = 0,
d.h. P-f.s. gilt: An tritt nur endlich oft auf
n=1
4
Satz 1.4. (Fortsetzungs- und Eindeutigkeitssatz) [Verallgemeinerung siehe Bauer,
Maß- und Integrationstheorie §5, Hinderer §16] Sei P ein normiertes [d.h. P (Ω) = 1] Maß
auf einer Algebra A in Ω. Dann existiert genau ein W-Maß P ∗ auf F(A), das P fortsetzt
[d.h. ∀ P ∗ (A) = P (A)].
A∈A
Bemerkung 1.3. P ∗ in Satz 1.4 ist gegeben durch
∗
∞
X
P (A) = inf{
P (Bn ) | Bn ∈ A (n = 1, 2, . . .) mit A ⊂ ∪ Bn }, A ∈ F(A) .
n
n=1
Bemerkung 1.4. Es ist im allgemeinen nicht möglich, P fortzusetzen von A auf P(Ω).
Satz 1.5. Es gibt genau ein Maß λ auf Bn , das jedem beschränkten (nach rechts halboffenen) Intervall in Rn seinen elementargeometrischen Inhalt zuordnet.
Definition 1.8. Das Maß λ in Satz 1.5 heißt Lebesgue–Borel–Maß (L-B-Maß) in Rn .
Definition 1.9. Eine Funktion F : R → R, die monoton wachsend (im Sinne von nicht
fallend) und rechtsseitig stetig ist mit
lim F (x) = 0,
lim F (x) = 1 ,
x→−∞
x→+∞
heißt (eindimensionale) Verteilungsfunktion (VF).
Satz 1.6. Zu jedem W-Maß P auf B gibt es genau eine VF F : R → R, so dass
(∗)
F (b) − F (a) = P ((a, b]), a ≤ b, a, b ∈ R
gilt, und umgekehrt . . . Bijektion P ←→ F . Hierbei F (x) = P ((−∞, x]), x ∈ R.
Beispiel: Φ : R → [0, 1] mit
1
Φ(x) := √
2π
Zx
t2
e− 2 dt, x ∈ R,
−∞
ist eine VF. Das zugehörige W-Maß auf B ist die sogenannte standardisierte Normalverteilung . . . Bezeichnung N (0, 1).
Verallgemeinerung: Normalverteilung (Gauß-Verteilung) N (a, σ 2 ) (a, σ ∈ R, σ > 0)
mit durch
Zx
(t−a)2
1
e− 2σ2 dt, x ∈ R,
F (x) := √
2πσ
−∞
gegebener VF F .
5
Bemerkung 1.5. Definition 1.9, Satz 1.6 lassen sich auf Bn und Rn als Definitionsbereiche
von P bzw. F verallgemeinern statt B bzw. R. Dabei ist die VF F zu einem W-Maß P
auf Bn gegeben durch
F (x1 , . . . , xn ) = P ({(u1 , . . . , un ) ∈ Rn | u1 ≤ x1 , . . . , un ≤ xn })
für (x1 , . . . , xn ) ∈ Rn .
Definition 1.10. Es sei (Ω, A, P ) ein W-Raum, A ∈ A, B ∈ A mit P (B) > 0. Dann
heißt
P (A ∩ B)
P (A | B) :=
P (B)
die bedingte Wahrscheinlichkeit (conditional probability) von A unter der Bedingung B.
Satz 1.7. Sei (Ω, A, P ) ein W-Raum.
a) Bei festem B ∈ A mit P (B) > 0 ist P (· | B) ein W-Maß auf A, das auf B
konzentriert ist [d.h. P (B | B) = 1].
b) Für A, B ∈ A mit P (A) > 0, P (B) > 0 gilt
P (A | B) = P (B | A) ·
P (A)
.
P (B)
m−1
c) Für An ∈ A (n = 1, . . . , m) mit P ( ∩ An ) > 0 gilt
n=1
m
m−1
n=1
n=1
P ( ∩ An ) = P (A1 ) · P (A2 | A1 ) · P (A3 | A1 ∩ A2 ) · . . . · P (Am | ∩ An ) .
Satz 1.8. Es sei (Ω, A, P ) ein W-Raum, {Bn ; n ∈ I} eine höchstens abzählbare Familie
P
Bn = Ω. Dann
paarweise disjunkter Ereignisse Bn ∈ A mit P (Bn ) > 0 (n ∈ I) und
n∈I
gilt
a) P (A) =
P
P (Bn )P (A | Bn ) (A ∈ A)
n∈I
(Formel von der totalen Wahrscheinlichkeit),
P (Bk ) · P (A | Bk )
b) P (Bk | A) = P
, k ∈ I (A ∈ A mit P (A) > 0)
P (Bn )P (A | Bn )
n∈I
(Formel von Bayes).
Bezeichnungen [Maßraum (Ω, A, µ), W-Raum (Ω, A, P )]:
µ-fast überall (µ-f.ü.) in Ω bzw. P -fast sicher (P -f.s.) in Ω . . . überall bis auf eine Menge
∈ A vom µ-Maß bzw. P -Maß Null [oder eine Teilmenge hiervon].
L-fast überall (L-f.ü.) in Rn . . . überall bis auf eine Menge ∈ Bn vom L-B-Maß Null [oder
eine Teilmenge hiervon].
6
2
Kombinatorische Wahrscheinlichkeitsrechnung
Zugrundegelegt werden Laplacesche W-Räume; die Abzählung der “günstigen” und der
“möglichen” Fälle erfolgt systematisch mit Hilfe der Kombinatorik.
Definition 2.1. Gegeben seien n — nicht notwendig verschiedene — Elemente a1 , . . . , an .
Das n-tupel (ai1 , . . . , ain ) mit ij ∈ {1, . . . , n}, ij 6= ik für j 6= k (j, k = 1, . . . , n) heißt eine
Permutation der gegebenen Elemente.
Satz 2.1. Die Anzahl der Permutationen von n verschiedenen Elementen ist n!.
Verallgemeinerung:
Satz 2.2. Gegeben seien n Elemente; die verschiedenen Elemente darunter seien mit
p
P
a1 , . . . , ap bezeichnet (p ≤ n). Tritt ai ni -fach auf (i = 1, . . . , p, wobei
ni = n), dann
i=1
können die n Elemente auf
n!
n1 ! . . . np !
verschiedene Arten permutiert werden.
Definition 2.2. Sei A eine n-elementige Menge, k ∈ N.
a) [b)] Jedes k-tupel (a1 , . . . , ak ) mit nicht notwendig verschiedenen [lauter verschiedenen] ai ∈ A heißt eine Kombination k-ter Ordnung aus A mit [ohne] Wiederholung und mit Berücksichtigung der Anordnung.
(c) [d)] Werden in a) [b)] Kombinationen, welche dieselben Elemente in verschiedener
Anordnung enthalten, als äquivalent aufgefasst, so heißen die einzelnen Äquivalenzklassen Kombinationen k-ter Ordnung aus A mit [ohne] Wiederholung und
ohne Berücksichtigung der Anordnung.
Interpretation (mit A = {1, . . . , n}): Aufteilung von k Kugeln auf n Zellen, wobei in
a) [b)] die Zellen mehrfach [nicht mehrfach] besetzt werden dürfen und die Kugeln unterscheidbar sind (ai . . . Nummer der Zelle, in der die i-te Kugel liegt), in c) [d)] die Zellen
mehrfach [nicht mehrfach] besetzt werden dürfen und die Kugeln nicht unterscheidbar
sind (ein Repräsentant der Äquivalenzklasse ist gegeben durch ein k-tupel von Zahlen aus
{1, . . . , n}, in dem die Zellennummern so oft auftreten, wie die zugehörige Zelle besetzt
ist).
Satz 2.3. Die Anzahl der Kombinationen k-ter Ordnung aus der n-elementigen Menge A
– mit [ohne] Wiederholung und mit [ohne] Berücksichtigung der Anordnung – ist gegeben
durch
7
m. Wiederholung o. Wiederholung (1 ≤ k ≤ n)
m. Berücksichtigung der Anordnung nk
n(n − 1) . . . (n − k + 1)
n+k−1
n
o. Berücksichtigung der Anordnung
k
k
Bestimmung von Fakultäten durch Tabellen für log n! und – bei großem n – durch die
Stirlingsche Formel
n n √
∼
2πn (n → ∞)
n! =
e
und ihre Verschärfung
exp
1
1
n!
< n √
,
< exp
12n + 1
12n
( e )n 2πn
n ∈ N.
Anwendung in der Physik. Man beschreibt das makroskopische Verhalten von k
Teilchen in der Weise, dass man den (der Darstellung des Momentanzustandes dienenden) Phasenraum in n kongruente würfelförmige Zellen zerlegt und die Wahrscheinlichkeit p(k1 , . . . , kn ) bestimmt, dass sich genau ki der Teilchen in der i-ten Zelle befinden
(i ∈ {1, . . . , n}). Sei Ω0 die Menge aller n-tupel (k1 , . . . , kn ) ∈ Nn0 von Besetzungszahlen
n
P
mit
ki = k. W-Maße auf P(Ω0 ) (charakterisiert durch p):
i=1
1) Maxwell-Boltzmann-Statistik (Unterscheidbarkeit der Teilchen, Mehrfachbesetzbarkeit von Zellen)
1
k!
p(k1 , . . . , kn ) =
k1 ! . . . kn ! n k
2) Bose-Einstein-Statistik zur Beschreibung des Verhaltens von Photonen (keine
Unterscheidbarkeit der Teilchen, jedoch Mehrfachbesetzbarkeit von Zellen)
−1
n+k−1
p(k1 , . . . , kn ) =
k
3) Fermi-Dirac-Statistik zur Beschreibung des Verhaltens von Elektronen, Protonen
und Neutronen (keine Unterscheidbarkeit der Teilchen, keine Mehrfachbesetzbarkeit
von Zellen )
( −1
n
, ki ∈ {0, 1}
k
p(k1 , . . . , kn ) =
0
, sonst.
Die Binomialverteilung b(n, p) mit Parametern n ∈ N, p ∈ (0, 1) ist ein W-Maß auf B
mit der Zähldichte
( n
pk (1 − p)n−k , k = 0, 1, . . . , n
k
k→
0
, k = n + 1, n + 2, . . . ;
durch diese wird für n “unabhängige” Versuche mit jeweiliger Erfolgswahrscheinlichkeit p
die Wahrscheinlichkeit von k Erfolgen angegeben.
8
3
Zufallsvariablen und Verteilungen
3.1
Meßbare Abbildungen und Zufallsvariablen
Definition 3.1. Zwei nichtleere Mengen Ω, Ω0 ; A0 ⊂ Ω0 ; Abbildung X : Ω → Ω0 . Die
Menge
{ω ∈ Ω | X(ω) ∈ A0 } =: X −1 (A0 ) =: [X ∈ A0 ]
(in Ω) heißt das Urbild von A0 bezüglich der Abbildung X; die somit definierte Abbildung X −1 : P(Ω0 ) → P(Ω) heißt Urbildfunktion (zu unterscheiden von einer inversen
Funktion!).
Bezeichnung. Sei X : Ω → Ω0 , C 0 Mengensystem in Ω0 . X −1 (C 0 ) := {X −1 (A0 ) | A0 ∈ C 0 } .
| {z }
ein Mengensystem in Ω.
Satz 3.1. Sei X : Ω → Ω0 .
P
a) X −1 und Mengenoperationen ∪, , ∩, c , \ sind vertauschbar;
z.B. X −1 ( ∪ A0α ) = ∪ X −1 (A0α ) (A0α ⊂ Ω0 , α ∈ Indexbereich I).
α∈I
b) X −1 (∅) = ∅;
α∈I
X −1 (Ω0 ) = Ω;
A0 ⊂ B 0 ⊂ Ω0 =⇒ X −1 (A0 ) ⊂ X −1 (B 0 ).
c) A0 σ-Algebra in Ω0 =⇒ X −1 (A0 ) σ-Algebra in Ω.
d) C 0 ⊂ P(Ω0 ) =⇒ X −1 (FΩ0 (C 0 )) = FΩ (X −1 (C 0 )) .
Definition 3.2. Messräume (Ω, A), (Ω0 , A0 ). Die Abbildung X : Ω → Ω0 heißt A-A0 messbar [kurz: messbar; measurable], wenn gilt:
−1
0
∀ X (A ) ∈ A,
d.h. X −1 (A0 ) ⊂ A,
A0 ∈A0
d.h. Urbilder von messbaren Mengen in Ω0 sind messbare Mengen in Ω.
In diesem Falle Schreibweise X: (Ω, A) → (Ω0 , A0 ).
Bemerkung 3.1. In Satz 3.1c ist X −1 (A0 ) die kleinste der σ-Algebren A in Ω mit A−A0 Messbarkeit von X.
Definition 3.3. Es sei (Ω, A, P ) ein W-Raum, (Ω0 , A0 ) ein Messraum. Die Abbildung
X : (Ω, A) → (Ω0 , A0 ) heisst Zufallsvariable (ZV ) auf (Ω, A, P ) [mit Zustandsraum Ω0 ]
(ausführlich: (Ω0 , A0 )-ZV auf (Ω, A, P ); random variable).
X : (Ω, A) → (R, B) heißt reelle ZV (oft auch nur ZV);
X : (Ω, A) → (R, B) heißt erweitert-reelle ZV;
X : (Ω, A) → (Rn , Bn ) heißt n-dimensionaler Zufallsvektor.
9
X(ω) für ein ω ∈ Ω heißt eine Realisierung der ZV X.
Bezeichnung B := {B, B ∪ {+∞}, B ∪ {−∞}, B ∪ {−∞, +∞} | B ∈ B}.
Satz 3.2. Messräume (Ω, A), (Ω0 , A0 ); X : Ω → Ω0 ; C 0 Erzeugersystem von A0 . Dann gilt:
X messbar ⇐⇒ ( ∀ X −1 (C 0 ) ∈ A)
C 0 ∈C 0
{z
}
|
−1
0
d.h. X (C ) ⊂ A
Satz 3.3. Messraum (Ω, A), X : Ω → R. Dann gilt
X A-B-messbar ⇐⇒ ∀ [X ≤ α] ∈ A
α∈R
⇐⇒ ∀ [X < α] ∈ A
α∈R
⇐⇒ ∀ [X ≥ α] ∈ A.
α∈R
Korollar 3.1. Für zwei Abbildungen X, Y : (Ω, A) → (R, B) gilt
[X < Y ], [X ≤ Y ], [X = Y ],
| {z }
:= {ω ∈ Ω | X(ω) < Y (ω)}.
[X 6= Y ] ∈ A.
Satz 3.4. Sei ∅ =
6 A ⊂ Rm , A ∩ Bm := {A ∩ B | B ∈ Bm }.
Jede stetige Abbildung g : A → Rn ist A ∩ Bm -Bn -messbar.
Satz 3.5. X : (Ω1 , A1 ) → (Ω2 , A2 ), Y : (Ω2 , A2 ) → (Ω3 , A3 ).
Die zusammengesetzte Abbildung Y ◦ X : Ω1 → Ω3 ist dann A1 -A3 -messbar.
Korollar 3.2. Für X : (Ω, A) → (Rm , Bm ) und eine stetige Abbildung g : Rm → Rn ist
g ◦ X : Ω → Rn A-Bn -messbar.
Satz 3.6. Messraum (Ω, A).
a) Sei Xn : (Ω, A) → (R, B) (n = 1, . . . , m).
Dann ist Y : Ω → Rm mit Y (ω) := (X1 (ω)), . . . , Xm (ω)), ω ∈ Ω, A-Bm -messbar,
und für g : (Rm , Bm ) → (R, B) ist g ◦ Y : Ω → R A-B-messbar.
b) Seien X1,2 : (Ω, A) → (R, B).
Dann sind αX1 + βX2
(α, β ∈ R), X1 X2 ,
X1
(falls existent) A-B-messbar.
X2
Satz 3.7. Messraum (Ω, A); Xn : (Ω, A) → (R, B) (n = 1, 2, . . .) .
Dann sind inf Xn , sup Xn , lim Xn , lim Xn A-B-messbar, ebenso lim Xn (falls existent).
n
n
n
n
n
10
3.2
Bildmaße und Verteilungen
Satz 3.8. Messräume (Ω, A), (Ω0 , A0 ); Abbildung X : (Ω, A) → (Ω0 , A0 ); Maß µ auf A.
Durch
µX (A0 ) := µ(X −1 (A0 ))
= µ({ω ∈ Ω | X(ω) ∈ A0 }) =: µ[X ∈ A0 ];
A0 ∈ A 0 ,
wird ein Maß (das sogenannte Bildmaß) µX auf A0 definiert.
Ist µ ein W-Maß auf A, dann ist µX ein W-Maß auf A0 .
Definition 3.4. Sei X eine (Ω0 , A0 )-ZV auf dem W-Raum (Ω, A, P ).
Das W-Maß PX im Bild-W-Raum (Ω0 , A0 , PX ) heißt Verteilung der ZV X.
Sprechweise: Die ZV X liegt in A0 ∈ A0 , nimmt Werte in A0 ∈ A0 an mit Wahrscheinlichkeit PX (A0 ) = P [X ∈ A0 ]. P [X ∈ A0 ] = 1 . . . P -fast sicher (P -f.s.) liegt X in A.
Bemerkung 3.2. W-Raum (Ω, A, P ), Messräume (Ω0 , A0 ), (Ω00 , A00 ); X : (Ω, A) →
(Ω0 , A0 ), Y : (Ω0 , A0 ) → (Ω00 , A00 ). Dann gilt
PY ◦X = (PX )Y .
Definition 3.5. Messräume (Ωi , Ai ) (i = 1, . . . , n).
n
Die Produkt-σ-Algebra ⊗ Ai wird definiert als die von dem Mengensystem
i=1 n
n
Q
Q
Ai | Ai ∈ Ai (i = 1, . . . , n) in
Ωi erzeugte σ-Algebra.
i=1
i=1
n
n
n
Q
⊗ (Ωi , Ai ) :=
Ωi , ⊗ Ai heißt Produkt-Messraum.
i=1
i=1
i=1
Beispiel: (Rn × Rm , Bn ⊗ Bm ) = (Rn+m , Bn+m ).
Bemerkung 3.3. Abbildung Xi : (Ω, A) → (Ωi , Ai ) (i = 1, . . . , n). Die Abbildung
n
Q
X:Ω→
Ωi mit
i=1
X(ω) := (X1 (ω), . . . , Xn (ω)), ω ∈ Ω
n
ist A- ⊗ Ai -messbar.
i=1
n
Bemerkung 3.4. Messräume (Ωi , Ai ) (i = 1, . . . , n). Ein W-Maß auf ⊗ Ai ist eindeui=1
n
Q
tig festgelegt durch seine Werte auf dem Mengensystem
Ai | Ai ∈ Ai (i = 1, . . . , n) .
i=1
Definition 3.6. Seien Xi (Ωi , Ai )-ZVn auf einem W-Raum (Ω, A, P ) (i = 1, . . . , n). Die
Verteilung PX der ZV X := (X1 , . . . , Xn ) auf (Ω, A, P ) — erklärt durch
PX (A) := P [(X1 , . . . , Xn ) ∈ A]
11
n
n
Q
i=1
i=1
für A ∈ ⊗ Ai oder auch nur für A =
Ai (Ai ∈ Ai , i = 1, . . . , n) — heißt die
gemeinsame Verteilung der ZVn Xi . Die Verteilungen PXi — erklärt durch
PXi (Ai ) := P [Xi ∈ Ai ] = P [X ∈ Ω1 × . . . × Ωi−1 × Ai × Ωi+1 × . . . × Ωn ]
für Ai ∈ Ai — heißen Randverteilungen von PX
(i = 1, . . . , n).
Wichtiger Spezialfall in Definition 3.6: (Ωi , Ai ) = (R, B) (i = 1, . . . , n).
Bemerkung 3.5. Bezeichnungen wie in Definition 3.6.
a) Die Verteilung PX ist ohne Zusatzvoraussetzung durch ihre Randverteilungen nicht
eindeutig festgelegt.
b) Ist πi :
n
Q
Ωk → Ωi die (messbare!) Projektionsabbildung.
k=1
(ω1 , . . . , ωn ) → ωi , so gilt PXi = (PX )πi (i = 1, . . . , n).
Bemerkung 3.6.
a) Sei Q ein W-Maß auf (Rn , Bn ). Dann existieren reelle ZVn X1 , . . . , Xn auf einem geeigneten W-Raum (Ω, A, P ) so, dass ihre gemeinsame Verteilung mit Q
übereinstimmt:
(Ω, A, P ) := (Rn , Bn , Q), Xi : Ω → R wird definiert als die Projektionsabbildung
(x1 , . . . , xn ) → xi
(i = 1, . . . , n);
hierbei ist also X := (X1 , . . . , Xn ) die auf Rn definierte identische Abbildung.
b) Möglichkeit
derunmittelbaren Verallgemeinerung von a) auf einen Produkt-Meßraum
n
n
Q
Ωi , ⊗ Ai statt (Rn , Bn ).
i=1
i=1
c) Sonderfall zu b): Ist (Ω, A, Q) ein W-Raum, X : Ω → Ω die identische Abbildung,
so gilt PX = Q. Jedes W-Maß lässt sich somit als eine Verteilung auffassen (und —
definitionsgemäß — umgekehrt).
12
4
Erwartungswerte und Dichten
Gegeben seien ein W-Raum (Ω, A, P ) und eine reelle ZV X auf (Ω, A, P ) mit Verteilung
PX (auf B) und VF F : R → R.
Bezeichnungen:
(
X + (ω) :=
(
X(ω), falls X(ω) > 0
0
sonst
X − (ω) :=
−X(ω),
0
falls X(ω) < 0
sonst.
Der Erwartungswert EX der ZV X gibt einen “mittleren Wert” von X bezüglich P an,
die Varianz V (X) gibt die “Schwankung” der ZV X als “mittleren Wert” ihrer quadratischen Abweichung von EX an.
Definition 4.1 des Erwartungswertes EX von X als Integral
Z
x PX (dx).
R
1. Schritt: Sei X ≥ 0 (also PX (R+ ) = 1, F (x) = 0 (x < 0)).
Z
Z
R
x dF (x)
EX :=
x PX (dx) :=
x dF (x) := lim
[0,a]
a→∞
| {z }
|
{z
}
R(+)
R(+)
Riemann−Stieltjes−Integral
F (dx)
(somit 0 ≤ EX ≤ ∞)
2. Schritt: Seien EX + , EX − nicht beide ∞.
Z
EX :=
xPX (dx) := EX + − EX −
R
Definition 4.2 des Erwartungswertes EX von X als Integral
Z
Z
X(ω)P (dω) =:
XdP
Ω
Ω
0. Schritt: Sei X ≥ 0, und X nehme nur endlich viele Werte an. Dann existiert Darstellung
N
N
P
P
X=
αi χAi mit αi ∈ R, Ai ∈ A (i = 1, . . . , N ), paarweise disjunkt,
Ai = Ω.
i=1
i=1
Z
X dP :=
EX :=
Ω
N
X
αi P (Ai )
i=1
1. Schritt: Sei X ≥ 0. Dann existieren ZVn Xn ≥ 0, die jeweils nur endlich viele Werte
annehmen mit Xn (ω) ↑ X(ω) (n → ∞), ω ∈ Ω(!):
Z
EX :=
X dP := lim EXn
n→∞
Ω
2. Schritt: Seien EX + , EX − nicht beide ∞.
Z
EX :=
X dP := EX + − EX −
Ω
13
Bemerkung 4.1. (zu Definition 4.1.2)
a) Die einzelnen Schritte – insbesondere bei der 2. Definition – sind sinnvoll.
b) Die beiden Definitionen sind äquivalent.
R
c) Das Integral R xPX (dx) in der 1. Definition ändert seinen Wert nicht, wenn man es
gemäß der 2. Definition erklärt.
R
d) Der Begriff Ω XdP in Definition 4.2 lässt sich unmittelbar verallgemeinern auf den
R
R
Fall eines Maßraumes (Ω, A, µ) und liefert Ω X(ω) µ(dω) =: Ω X dµ. Wichtiger
Spezialfall:
1) (Ω, A) = (Rn , Bn ) oder etwas allgemeiner Ω = B mit B ∈ Bn , A = σ-Algebra
der Borelschen Mengen in B; µ = λ := (Restriktion des) L-B-Maß(es) auf A.
R
R
X
dλ
bzw.
X dλ wird als Lebesgue–Integral bezeichnet.
n
R
B
R
R
Im Falle n = 1 Schreibweise R X(x) dx bzw. B X(x) dx.
2) (Ω, A) = (R, B), H : R → R maßdefinierende Funktion mit zugehörigem Maß
µ, d.h. H(b) − H(a) = µ((a, b]), −∞ < a < b < ∞.
Schreibweise
Z
Z
Z
X(x) dH(x) :=
X(x) H(dx) :=
X dµ
R
R
R
Verallgemeinerung auf Ω = B ∈ B.
e) Sei X eine erweitert-reelle ZV auf einem W-Raum (Ω, A, P ) mit
(
X(ω), falls |X(ω)| < ∞, ω ∈ Ω,
P [|X| = ∞] = 0; Y (ω) :=
0
sonst.
Man definiert EX := EY , falls EX existiert.
Bemerkung 4.2. W-Raum (Ω, A, P ). Für A ∈ A gilt P (A) = EχA .
Definition 4.3. Existiert für die reelle ZV X auf dem W-Raum (Ω, A, P ) ein endlicher
R
Erwartungswert EX, so heißt X integrierbar (bezüglich P ). Analog für Ω X dµ in Bemerkung 4.1d.
Lemma 4.1. Für eine reelle ZV X ≥ 0 mit VF F gilt
Z∞
EX = (1 − F (x)) dx .
0
14
Satz 4.1. Sei X eine reelle ZV auf einem W-Raum (Ω, A, P ).
a) X integrierbar ⇐⇒ X + und X − integrierbar ⇐⇒ |X| integrierbar,
b) existiert reelle integrierbare ZV Y ≥ 0 mit |X| ≤ Y P-f.s. =⇒ X integrierbar,
c) X integrierbar, |{z}
Y = X P-f.s. =⇒ existiert EY = EX.
reelle ZV
Satz 4.2. Seien X, Y reelle integrierbare ZVn auf einem W-Raum (Ω, A, P ).
a) Es existiert E(X + Y ) = EX + EY .
b) Es existiert E(αX) = αEX (α ∈ R).
c) X ≥ Y =⇒ EX ≥ EY .
d) |EX| ≤ E|X|.
e) X = Y P-f.s. =⇒ EX = EY .
f) X ≥ 0, EX = 0 =⇒ X = 0 P-f.s.
Satz 4.3. (Satz von der monotonen Konvergenz; B. Levi) Für reelle ZVn Xn auf
(Ω, A, P ) mit Xn ≥ 0 (n ∈ N), Xn ↑ X (n → ∞) existiert EX = lim EXn . Hierbei
n
EX := ∞, falls P [X = ∞] > 0. Entsprechend für Reihen von nichtnegativen ZVn. –
R
Analog für Ω X(n) dµ gemäß Bemerkung 4.1d.
Definition 4.4. Sei X ein n-dimensionaler Zufallsvektor mit Verteilung PX auf Bn und
VF F : Rn → R.
a) Nimmt (eventuell nach Vernachlässigung einer P -Nullmenge in Ω) X höchstens
abzählbar viele Werte an, so ist PX eine sogenannte diskrete W-Verteilung.
Ist X eine reelle ZV und PX auf N0 konzentriert (d.h. PX (N0 ) = 1), so heißt die
P
Folge (pk ) mit pk := PX ({k}) = P [X = k], k ∈ N0 , (wobei
pk = 1) Zähldichte
von X bzw. PX .
b) Gibt es eine Funktion f : (Rn , Bn ) → (R+ , B+ ) [mit B+ := R+ ∩ B], für die
R
n
das uneigentliche Riemann-Integral Q
f (y) dy – allgemeiner das Lebesgue(−∞,xi ]
i=1
n
R
Q
n
Integral Q
f dλ [λ L-B-Maß auf Bn ] – existiert und mit PX
(−∞, xi ] =
(−∞,xi ]
i=1
i=1
n
F (x1 , . . . , xn ) übereinstimmt ((x1 , . . . , xn ) ∈ R ), so heißt f Dichte(funktion) von
X bzw. PX bzw. F . – PX und F heißen totalstetig, falls sie eine Dichtefunktion
besitzen.
15
Bemerkung 4.3.
a) Eine totalstetige VF ist stetig.
b) Besitzt die n-dimensionale VF F : Rn → R eine Dichtefunktion f : Rn → R+ ,
∂ nF
, und L-f.ü. — insbesondere an den Stetigkeitsstellen
so existiert L-f.ü.
∂x1 . . . ∂xn
n
∂ F
von f —
= f.
∂x1 . . . ∂xn
c) Ein uneigentliches R-Integral einer nichtnegativen Bn -B-messbaren Funktion lässt
sich als L-Integral deuten.
Satz 4.4. Sei X eine reelle ZV mit Verteilung PX .
a) Ist PX auf N0 konzentriert mit Zähldichte (pk ), dann gilt
X
EX =
kpk .
k
b) Besitzt X eine Dichtefunktion f : R → R+ , so existiert das Lebesgue-Integral
R
R
xf (x) dx =: R xf (x) λ(dx) [λ L-B-Maß auf B] genau dann, wenn EX existiert,
R
und es gilt hierbei
Z
EX =
xf (x) dx .
R
Beispiel zu Satz 4.4. ZV X auf (Ω, A, P ).
a) X sei b(n, p)-verteilt, d.h. P [X = k] =
p ∈ [0, 1]. EX = np.
n
k
b) X sei π(λ)-verteilt, d.h. P [X = k] = e−λ
pk (1 − p)n−k (k = 0, 1, . . . , n) mit n ∈ N,
λk
(k ∈ N0 ), mit λ > 0. EX = λ.
k!
c) X sei N (a, σ 2 )-verteilt, d.h. X habe Dichtefunktion f : R → R+ mit
f (x) := √
(x−a)2
1
e− 2σ2 x ∈ R ,
2πσ
mit a ∈ R, σ > 0. EX = a.
Satz 4.5. X sei eine reelle ZV mit Verteilung PX und VF F ; g : (R, B) → (R, B).
R
E(g ◦ X) existiert genau dann, wenn R g dPX existiert, und es gilt hierbei nach dem
Transformationssatz für Integrale
Z
Z
Z
E(g ◦ X) =
g dPX =:
g dF =:
g(x) dF (x) ,
| {z }
R
R
R
F (dx)
16
 P

g(k)pk


k



 Z
g(x)f (x) dx
E(g ◦ X) =




{z
}
|R



Lebesgue-Integral
unter der Voraussetzung von Satz 4.4a.
unter der Voraussetzung von Satz 4.4b.
Insbesondere gilt (mit g = χA , wobei A ∈ B)
 P

pk



k∈A∩N
0

 Z
R
P [X ∈ A] = PX (A) =
χA (x)f (x) dx =: A f (x) dx



|R
{z
}



Lebesgue-Integral
unter Vorauss. von Satz 4.4a
unter Vorauss. von Satz 4.4b
Zusatz. X sei ein n-dimensionaler Zufallsvektor auf (Ω, A, P ) mit Dichtefunktion f :
Rn → R+ ; A ∈ Bn . Dann gilt:
Z
Z
f (x) dx.
χA (x)f (x) dx =:
P [X ∈ A] = PX (A) =
Rn
A
[Falls das entsprechende R-Integral existiert, dann R-Integral = L-Integral.]
R
Bemerkung 4.5. A f (x) dx in Satz 4.4 ist gleich dem L-B-Maß der Ordinatenmenge
{(x, y) ∈ R2 | x ∈ A, 0 ≤ y ≤ f (x)} von f |A in R2 .
Lemma 4.2. X sei eine reelle ZV; 0 ≤ α < β < ∞. Dann gilt
E|X|β < ∞ =⇒ E|X|α < ∞ .
Definition 4.5. X sei eine reelle ZV; k ∈ N. Im Falle der Existenz heißt EX k das k-te
Moment von X und E(X − EX)k das k-te zentrale Moment von X. Ist X integrierp
bar, dann heißt V (X) := E(X − EX)2 die Varianz von X und σ(X) :=+ V (X) die
Streuung von X.
Satz 4.6. X sei eine reelle integrierbare ZV.
a) V (X) = EX 2 − (EX)2 .
b) V (aX + b) = a2 V (X) (a, b ∈ R).
Beispiel zu Satz 4.6.
a) X sei b(n, p)-verteilt mit n ∈ N, p ∈ [0, 1]. V (x) = np(1 − p).
b) X sie π(λ)-verteilt mit λ > 0. V (X) = λ.
17
c) X sei N (a, σ 2 )-verteilt mit a ∈ R, σ > 0.
k
Q
E(X − a)2k−1 = 0, E(X − a)2k = σ 2k (2j − 1) (k ∈ N).
j=1
Satz 4.7. X sei eine reelle ZV auf einem W-Raum (Ω, A, P ). Dann gilt für jedes ε > 0,
r > 0:
P [|X| ≥ ε] ≤ ε−r E|X|r
(Markoffsche Ungleichung).
Für r = 2 erhält man die sog. Tschebyschevsche Ungleichung, die bei integrierbarem
X auch in der Variante
P [|X − EX| ≥ ε] ≤ ε−2 V (X)
angegeben wird.
Satz 4.8. (Transformationssatz für Dichten). [Verallgemeinerung s. Hinderer S. 148]
Es sei Q ein W-Maß auf B2 und T : R2 → R2 eine injektive stetig-differenzierbare Abbildung. Es sei R := QT das Bild-W-Maß von Q bzgl. T [d.h. R(B) = Q(T −1 (B)), B ∈ B2 ]
und ∆ der Betrag der Funktionaldeterminante von T . Hat R die Dichte g, so hat Q die
Dichte (g ◦ T )∆.
18
5
Unabhängigkeit
Definition 5.1. W-Raum (Ω, A, P ). Eine Familie {Ai | i ∈ I} von Ereignissen Ai ∈ A
heißt unabhängig (ausführlich: stochastisch unabhängig bzgl. P ), falls für jede nichtleere
endliche Menge K ⊂ I gilt
!
Y
\
P (Ak ) .
P
Ak =
k∈K
k∈K
Definition 5.2. W-Raum (Ω, A, P ). Eine Familie {Xi | i ∈ I} von (Ωi , Ai ) - ZVn
auf (Ω, A, P ) heißt unabhängig, wenn gilt: Für jede nichtleere endliche Indexmenge
{i1 , . . . , in } ⊂ I und jede Wahl von Mengen Aiν ∈ Aiν (ν = 1, . . . , n) ist
n
Y
P Xiν ∈ Aiν .
P [Xi1 ∈ Ai1 , . . . , Xin ∈ Ain ] =
ν=1
Sprechweise: Unabhängigkeit der ZVn statt Unabhängigkeit der Familie der ZVn.
Lemma 5.1. Eine Familie von Ereignissen ist genau dann unabhängig, wenn jede endliche Teilfamilie unabhängig ist. Entsprechendes gilt für Zufallsvariablen.
Bemerkung 5.1 zu Definition 5.1 bzw. Definition 5.2.
Paarweise Unabhängigkeit 6=⇒ Unabhängigkeit
Bemerkung 5.2. W-Raum (Ω, A, P ); Ereignisse Ai ∈ A, i ∈ I, mit (reellen) ZVn χAi
(Indikatorfunktionen) auf (Ω, A, P ).
{Ai | i ∈ I} unabhängig ⇐⇒ {χAi | i ∈ I} unabhängig
Satz 5.1. Gegeben seien (Ωi , Ai ) - ZVn Xi auf einem W-Raum (Ω, A, P ) und Abb.
gi : (Ωi , Ai ) → (Ω0i , A0i ), i ∈ I. Dann gilt:
{Xi | i ∈ I} unabhängig =⇒ {gi ◦ Xi | i ∈ I} unabhängig
Satz 5.2. Gegeben seien eine unabhängige Familie {Xi | i ∈ I} reeller ZVn auf einem WP
Raum (Ω, A, P ) und eine Zerlegung I =
Ij mit |Ij | < ∞. Das |Ij |-tupel {Xk | k ∈ Ij }
j∈J
sei mit Yj bezeichnet, j ∈ J.
a) Die Familie {Yj | j ∈ J} ist unabhängig.
b) Sind Abb. gj : (R|Ij | , B|Ij | ) → (R, B), j ∈ J, gegeben, so ist (nach Satz 5.1) die
Familie {gj ◦ Yj | j ∈ J} unabhängig.
19
Bemerkung 5.3. Satz 5.2 lässt sich auf (Ωi , Ai ) - ZVn und Abb. gj :
N
(Ωi , Ai ) →
i∈Ij
(Ω0j , A0j ) verallgemeinern.
Satz 5.3. Seien Xi (i = 1, . . . , n) reelle ZVn auf einem W-Raum (Ω, A, P ) mit Verteilungsfunktionen Fi . Der Zufallsvektor X := (X1 , . . . , Xn ) habe die n-dimensionale VF F.
n
Q
F (x1 , . . . , xn ) =
Fi (xi ) .
a) {X1 , . . . , Xn } unabhängig ⇐⇒ (∗)
∀
(x1 ,...,xn )∈Rn
i=1
b) Existieren zu Fi (i = 1, . . . , n), F Dichten fi bzw. f , dann gilt

n
Q


f
(x
,
.
.
.
,
x
)
=
fi (xi )
1
n


i=1
(∗) ⇐⇒
für Lebesgue - fast alle (x1 , . . . , xn ) ∈ Rn .

{z
}
|



λ-fast alle mit λ = L-B-Maß auf Bn
Satz 5.4. Seien X1 , . . . , Xn unabhängige reelle ZVn auf einem W-Raum (Ω, A, P ) mit
endlichen Erwartungswerten. Dann existiert
E(X1 . . . Xn ) = EX1 · . . . · EXn .
— Entsprechendes gilt für komplexe ZVn Xk : (Ω, A) → (R2 , B2 ), wobei
EXk := E Re Xk + iE Im Xk
(k = 1, . . . , n)
Satz 5.5. Seien X1 , . . . , Xn unabhängige reelle ZVn mit endlichen Erwartungswerten.
Dann gilt
!
n
n
X
X
V
Xj =
V (Xj ) .
j=1
j=1
Bemerkung 5.4. In Satz 5.5 genügt statt der Unabhängigkeit von {X1 , . . . , Xn } die sog.
paarweise Unkorreliertheit, d.h.
∀ E(Xj − EXj )(Xk − EXk ) = 0 .
j6=k
Definition 5.3. Sind X, Y zwei unabhängige reelle ZVn auf einem W-Raum (Ω, A, P )
mit Verteilungen PX , PY , so wird die Verteilung PX+Y =: PX ∗ PY der ZV X + Y als
Faltung von PX und PY bezeichnet.
Bemerkung 5.5. Die Faltungsoperation ist kommutativ und assoziativ.
20
Satz 5.6. Seien X, Y zwei unabhängige reelle ZVn.
a) Besitzen X und Y Dichten f bzw. g, so besitzt X + Y eine [als Faltung von f und
g bezeichnete] Dichte h mit
Z
Z
g(t − x)f (x) dx, t ∈ R .
h(t) =
f (t − y)g(y) dy =
{z
} |R
{z
}
|R
Lebesgue-Integrale
b) Besitzen X und Y Zähldichten (pk )k∈N0 bzw. (qk )k∈N0 , so besitzt X + Y eine [als
Faltung von (pk ) und (qk ) bezeichnete] Zähldichte (rk )k∈N0 mit
rk =
k
X
pk−j qj =
j=0
k
X
qk−i pi , k ∈ N0 .
i=0
Bemerkung 5.6. Gegeben seien Messräume (Ωi , Ai ) und W-Maße Qi auf Ai , i ∈ I.
Dann existiert ein W-Raum (Ω, A, P ) und (Ωi , Ai ) – ZVn Xi auf (Ω, A, P ), i ∈ I, mit
Unabhängigkeit von {Xi | i ∈ I} und PXi = Qi (Andersen und Jessen).
Satz 5.7. (2. Lemma von Borel und Cantelli) W-Raum (Ω, A, P ).
Die Familie {An ; n ∈ N} von Ereignissen (∈ A) sei unabhängig. Dann gilt:
∞
X
P (An ) = ∞ (⇐⇒
)
n=1
P (limAn ) = 1 .
{z
}
|
P-f.s. tritt An unendlich oft auf
Definition
∞5.4.Messraum (Ω, A). σ-Algebren An ⊂ A (n ∈ N).
Tn := F ∪ Ak . . . die von An , An+1 , . . . erzeugte σ-Algebra.
∞
k=n
T∞ := ∩ Tn heißt die σ-Algebra der terminalen Ereignisse (tail events) der Folge (An ).
n=1
Beispiele
1) Xn : (Ω, A) → (R, B); An := F(Xn ) := Xn−1 (B) (n ∈ N)
P
a) [ Xn konv.] ∈ T∞
b) [(Xn ) konv.] ∈ T∞
2) Messraum (Ω, A). Ereignisse An ∈ A (n ∈ N);
An := {∅, An , Acn , Ω} (n ∈ N).
∞
∞
lim sup An := ∩ ∪ Ak = {ω ∈ Ω | ω ∈ An für unendliche viele n} ∈ T∞
n→∞
n=1 k=n
∞
∞
lim inf An := ∪ ∩ Ak = {ω ∈ Ω | ω ∈ An von einem Index an} ∈ T∞
n→∞
n=1 k=n
Satz 5.8 (Null–Eins–Gesetz von Kolmogorov) W-Raum (Ω, A, P ).
Sei (An ) eine unabhängige Folge von σ-Algebren An ⊂ A.
Dann gilt für jedes terminale Ereignis A von (An ) entweder P (A) = 0 oder P (A) = 1.
21
6
Erzeugende und charakteristische Funktionen;
Faltungen
Die erzeugenden und charakteristischen Funktionen sind ein methodisches Hilfsmittel zur
Untersuchung von W-Maßen.
6.1
Erzeugende Funktionen
Definition 6.1. Es sei µ : B → R ein auf N0 konzentriertes W-Maß mit Zähldichte
(bk )k∈N0 bzw. X eine reelle ZV auf einem W-Raum (Ω, A, P ), deren Verteilung PX auf N0
konzentriert ist, mit Zähldichte (bk )k∈N0 . Dann heißt die auf [0, 1] (oder auch {s ∈ C |
|s| ≤ 1}) definierte Funktion g mit
 P

µ({k})sk


∞

X
g(s) :=
b k sk =
bzw.


k=0

 P P [X = k]sk = P P ({k})sk = EsX
X
die erzeugende Funktion von µ bzw. X.
Bemerkung 6.1. In Definition 6.1 gilt |g(s)| ≤
P
bk |s|k ≤
P
bk = 1, |s| ≤ 1 .
Bemerkung 6.2.
a) Die Binomialverteilung b(n, p) mit n ∈ N, p ∈ [0, 1] hat — mit q := 1 − p — die
erzeugende Funktion g mit
g(s) = (q + ps)n .
b) Die Poissonverteilung π(λ) mit λ ∈ (0, ∞) hat die erzeugende Funktion g mit
g(s) = e−λ+λs .
c) Als negative Binomialverteilung oder Pascal-Verteilung N b(r, p) mit Parametern r ∈ N, p ∈ (0, 1) wird ein W-Maß auf B (oder auch B) bezeichnet, das auf
N0 konzentriert ist und — mit q := 1 − p — die Zähldichte
r+k−1 r k
k → N b(r, p; k) :=
p q , k ∈ N0
k
besitzt. Speziell wird N b(1, p) — mit Zähldichte
k → p(1 − p)k , k ∈ N0
22
— als geometrische Verteilung mit Parameter p ∈ (0, 1) bezeichnet. Ist (Xn )n∈N
eine unabhängige Folge von b(1, p)-verteilten ZVn, so ist die erweitert-reelle ZV
n
P
X := inf {n ∈ N |
Xk = r} − r mit inf ∅ := ∞ N b(r, p)-verteilt. X gibt die
k=1
Anzahl der Misserfolge bis zum r-ten Erfolg bei der zu (Xn ) gehörigen Folge von
rq
rq
Bernoulli-Versuchen an. EX = , V (X) = 2 .
p
p
N b(r, p) hat die erzeugende Funktion g mit g(s) = pr (1 − qs)−r .
Satz 6.1 (Eindeutigkeitssatz für erzeugende Funktionen).
Besitzen zwei auf B definierte, aber auf N0 konzentrierte W-Maße bzw. Verteilungen dieselbe erzeugende Funktion, so stimmen sie überein.
Satz 6.2. Sei X eine reelle ZV, deren Verteilung auf N0 konzentriert ist, mit erzeugender
Funktion g.
a) g ist in {s ∈ C | |s| < 1} unendlich oft differenzierbar; für j ∈ N gilt
g (j) (1−) :=
lim
0≤s→1−0
g (j) (s) = E[X(X − 1) . . . (X − j + 1)] (≤ ∞) ,
insbesondere g 0 (1−) = EX.
b) EX < ∞ =⇒ V (X) = g 00 (1−) + g 0 (1−) − (g 0 (1−))2 .
Satz 6.3. Seien X1 , . . . , Xn unabhängige reelle ZVn, deren Verteilungen jeweils auf N0
konzentriert sind, mit erzeugenden Funktionen g1 , . . . , gn . Für die erzeugende Funktion g
n
Q
gj .
der Summe X1 + . . . + Xn gilt dann g =
j=1
6.2
Charakteristische Funktionen
Definition 6.2. Es sei µ ein W-Maß auf B bzw. X eine reelle ZV mit VF F . Dann heißt
die auf −∞ < u < ∞ definierte (i.a. komplexwertige) Funktion ϕ mit
Z
eiux µ(dx)
ϕ(u) :=
R
bzw.
ϕ(u) := Ee
iuX
Z
=
iux
e
Z
PX (dx) =
R
eiux dF (x)
| R {z
}
L-S-Integral oder uneig. R-S-Integral
die charakteristische Funktion von µ bzw. X.
23
Bemerkung 6.3. In Definition 6.2 gilt
a) ϕ(0) = 1,
b) | ϕ(u) |≤ 1, u ∈ R,
c) ϕ gleichmäßig stetig in R,
d) ϕ(−u) = ϕ(u), u ∈ R.
Bemerkung 6.4. Die Normalverteilung N (a, σ 2 ) mit a ∈ R, σ 2 ∈ (0, ∞) hat die charakteristische Funktion ϕ mit
σ 2 u2
ϕ(u) = eiau e− 2 .
u2
Insbesondere hat N (0, 1) die charakteristische Funktion ϕ mit ϕ(u) = e− 2 .
Bemerkung 6.5. Als Exponentialverteilung exp(λ) mit Parameter λ ∈ (0, ∞) wird
ein W-Maß auf B oder B bezeichnet, das eine Dichtefunktion f mit

λe−λx , x > 0
f (x) =
0
, x≤0
besitzt.
Die zufällige Lebensdauer eines radioaktiven Atoms wird durch eine exponentialverteilte
ZV angegeben.
Ist X eine erweitert-reelle ZV, deren Verteilung auf R+ konzentriert ist, mit P [0 < X <
∞] > 0, so gilt
P [X > t + s | X > s] = P [X > t]
∀
(“Gedächtnislosigkeit”)
s,t∈(0,∞)
⇐⇒ PX ist eine Exponentialverteilung.
Für eine ZV X mit PX = exp(λ) gilt EX = λ1 , V (X) = λ12 .
λ
exp (λ) hat die charakteristische Funktion ϕ mit ϕ(u) = λ−iu
.
Bemerkung 6.6. Als Gamma-Verteilung Γλ,ν mit Parametern λ, ν ∈ (0, ∞) wird ein
W-Maß auf B oder B bezeichnet, das eine Dichtefunktion f mit

 λν xν−1 e−λx , x > 0
f (x) = Γ(ν)
0
,x ≤ 0
besitzt. Hierbei Γλ,1 = exp(λ). Γ 1 , n wird als Chi-Quadrat-Verteilung χ2n mit n(∈ N)
2 2
Freiheitsgraden bezeichnet.
Für eine ZV X mit PX = Γλ,ν gilt EX = λν , V (X) = λν2 .
ν
λ
Γλ,ν hat die charakteristische Funktion ϕ mit ϕ(u) = λ−iu
.
24
Satz 6.4. (Eindeutigkeitssatz für charakteristische Funktionen)
Besitzen zwei auf B definierte W-Maße bzw. Verteilungen dieselbe charakteristische Funktion, so stimmen sie überein. — Ist µ ein W-Maß auf B bzw. PX die Verteilung einer reellen
ZV X mit zugehöriger VF F und zugehöriger charakteristischer Funktion ϕ und sind a, b
mit a < b Stetigkeitsstellen von F , so gilt die Umkehrformel
Z U −iua
1
e
− e−iub
= lim
F (b) − F (a)
ϕ(u) du .
{z
}
|
U →∞ 2π −U
iu
= µ((a, b]) bzw. PX ((a, b])
R∞
Satz 6.5. Gegeben sei eine VF F mit charakteristischer Funktion ϕ; es sei −∞ | ϕ(u) |
du < ∞. Dann besitzt F eine Dichte f , die stetig und beschränkt ist, und es gilt die
Umkehrformel
Z
1
e−iux ϕ(u) du, x ∈ R
f (x) =
2π R
R
[vgl. die Formel ϕ(u) = R eiux f (x) dx, u ∈ R, bei existierender Dichte f ].
Satz 6.6. Sei X eine reelle ZV mit Verteilung PX und charakteristischer Funktion ϕ. Für
j ∈ N gilt:
E | X |j < ∞
=⇒ ϕ hat eine stetige j-te Ableitung ϕ
(j)
(j)
mit ϕ (u) = i
j
Z
xj eiux PX (dx), u ∈ R,
R
(j)
j
j
insbesondere ϕ (0) = i EX .
Satz 6.7. Seien X1 , . . . , Xn unabhängige reelle ZVn mit charakteristischen Funktionen
ϕ1 , . . . , ϕn . Für die charakteristische Funktion der Summe X1 + . . . + Xn gilt dann
ϕ=
n
Y
ϕj .
j=1
Definition 6.3. Zu zwei W-Maßen P, Q auf B wird das W-Maß P ∗ Q auf B, die sog.
Faltung von P und Q, folgendermaßen definiert:
a) sei T : R × R → R mit T (x, y) = x + y;
P ∗ Q := (P ⊗ Q)T
(P ⊗ Q W-Maß auf B2 mit (P ⊗ Q)(B1 × B2 ) = P (B1 )Q(B2 ), B1,2 ∈ B, sog.
Produkt-W-Maß von P und Q)
oder — äquivalent —
b) man wähle ein unabhängiges Paar reeller ZVn X, Y mit PX = P , PY = Q und setze
P ∗ Q := PX+Y .
25
Satz 6.8.
a) Die Faltungsoperation ist kommutativ und assoziativ.
b) Es sei (X, Y ) ein unabhängiges Paar reeller ZVn. Für X, Y , X + Y seien die Verteilungsfunktionen mit F, G, H, die Dichten — falls existent — mit f, g, h und die
Zähldichten — falls PX , PY auf N0 konzentriert sind — mit (pk ), (qk ), (rk ) bezeichnet. Dann gilt
Z
Z
H(t) =
F (t − y) G(dy) =
G(t − x) F (dx), t ∈ R.
R
R
Falls f existiert, so existiert h mit
Z
h(t) =
f (t − y) G(dy) für (L-f.a.) t ∈ R;
R
falls zusätzlich g existiert, so gilt
Z
Z
f (t − y)g(y) dy =
g(t − x)f (x) dx für (L-f.a.) t ∈ R.
h(t) =
R
R
Falls (pk )k∈N0 , (qk )k∈N0 existieren, so existiert (rk )k∈N0 mit
rk =
k
X
pk−i qi =
i=0
k
X
qk−i pi (k ∈ N0 ).
i=0
Bemerkung 6.7.
a) Für n1,2 ∈ N, p ∈ [0, 1] gilt b(n1 , p) ∗ b(n2 , p) = b(n1 + n2 , p).
Die Summe von n unabhängigen b(1, p) verteilten ZVn ist also b(n, p)-verteilt.
b) Für λ1,2 > 0 gilt π(λ1 ) ∗ π(λ2 ) = π(λ1 + λ2 ).
c) Für r1,2 ∈ N, p ∈ (0, 1) gilt N b(r1 , p) ∗ N b(r2 , p) = N b(r1 + r2 , p).
Die Summe von r unabhängigen N b(1, p)-verteilten ZVn ist also N b(r, p)-verteilt.
2
d) Für a1,2 ∈ R, σ1,2
∈ (0, ∞) gilt N (a1 , σ12 ) ∗ N (a2 , σ22 ) = N (a1 + a2 , σ12 + σ22 ).
e) Für λ ∈ (0, ∞), ν1,2 ∈ (0, ∞) gilt Γλ,ν1 ∗ Γλ,ν2 = Γλ,ν1 +ν2 .
Die Summe von n unabhängigen exp(λ)-verteilten ZVn ist Γλ,n -verteilt.
Die Summe der Quadrate von n unabhängigen jeweils N (0, 1)-verteilten ZVn ist
χ2n -verteilt.
26
7
Spezielle Verteilungen
7.1
Diskrete Verteilungen
Definition 7.1. Als Binomialverteilung b(n, p) mit Parametern n ∈ N, p ∈ (0, 1) oder
auch [0, 1] wird ein W-Maß auf B bezeichnet, das auf {0, 1, . . . , n} konzentriert ist und
die Zähldichte
n k
k 7→ b(n, p; k) :=
p (1 − p)n−k , k ∈ N0
k
besitzt.
Satz 7.1. Sei n ∈ N, p ∈ [0, 1]; q := 1 − p.
a) Ist (X1 , . . . , Xn ) ein n-tupel unabhängiger reeller ZVn mit P [Xi = 1] = p, P [Xi =
n
P
0] = q — d.h. mit jeweiliger b(1, p)-Verteilung — (i = 1, . . . , n), so ist
Xi
i=1
b(n, p)-verteilt.
b) Für eine ZV X mit PX = b(n, p) gilt EX = np, V (X) = npq.
c) b(n, p) hat die erzeugende Funktion g mit g(s) = (q + ps)n .
d) Für n1,2 ∈ N gilt
b(n1 , p) ∗ b(n2 , p) = b(n1 + n2 , p),
d.h. für zwei unabhängige ZVn X1 , X2 mit PX1 = b(n1 , p), PX2 = b(n2 , p) gilt
PX1 +X2 = b(n1 + n2 , p).
Bemerkung 7.1. Das n-tupel (X1 , . . . , Xn ) von ZVn aus Satz 7.1 beschreibt ein n-tupel
von Bernoulli-Versuchen, d.h. Zufallsexperimenten ohne gegenseitige Beeinflussung mit
Ausgängen 1 (“Erfolg”) oder 0 (“Misserfolg”) und jeweiliger Erfolgswahrscheinlichkeit p;
n
P
Xi gibt die Anzahl der Erfolge in n Bernoulli-Versuchen an.
k=1
Definition 7.2. Als Poisson-Verteilung π(λ) mit Parameter λ > 0 wird ein W-Maß
auf B bezeichnet, das auf N0 konzentriert ist und die Zähldichte
k 7→ π(λ; k) := e−λ
λk
, k ∈ N0
k!
besitzt.
Satz 7.2. Sei λ > 0.
a) Ist (b(n, pn )) eine Folge von Binomialverteilungen mit npn → λ (n → ∞), dann
konvergiert
b(n, pn ; k) → π(λ; k) (n → ∞) für alle k ∈ N0 .
27
b) Für eine ZV X mit PX = π(λ) gilt EX = V (X) = λ.
c) π(λ) hat die erzeugende Funktion g mit g(s) = e−λ+λs .
d) Für λ1,2 > 0 gilt
π(λ1 ) ∗ π(λ2 ) = π(λ1 + λ2 ) .
Bemerkung 7.2. Bei einer rein zufälligen Aufteilung von n unterscheidbaren Teilchen
auf m gleichgroße mehrfach besetzbare Zellen in einem Euklidischen Raum wird die Anzahl der Teilchen in einer vorgegebenen Zelle durch eine b(n, m1 )-verteilte ZV angegeben.
n
→ λ > 0 führt gemäß
Der Grenzübergang n → ∞, m → ∞ mit Belegungsintensität m
Satz 7.2a zu einer π(λ)-verteilten ZV.
Definition 7.3. Als negative Binomialverteilung oder Pascal-Verteilung N b(r, p)
mit Parametern r ∈ N, p ∈ (0, 1) wird ein W-Maß auf B (oder auch B) bezeichnet, das
auf N0 konzentriert ist und — mit q := 1 − p — die Zähldichte
r+k−1 r k
k 7→ N b(r, p; k) :=
p q , k∈N
k
besitzt. Speziell wird N b(1, p) — mit Zähldichte k 7→ p(1 − p)k , k ∈ N0 — als geometrische Verteilung mit Parameter p ∈ (0, 1) bezeichnet.
Satz 7.3. Sei r ∈ N, p ∈ (0, 1), q := 1 − p.
a) Sei (Xn )n∈N eine unabhängige Folge von b(1, p)-verteilten ZVn. Die erweitert-reelle
n
P
Xk = r} − r mit inf ∅ := ∞ ist N b(r, p)-verteilt.
ZV X := inf{n ∈ N |
k=1
b) Für eine ZV X mit PX = N b(r, p) gilt EX =
rq
,
p
V (X) =
rq
.
p2
c) N b(r, p) hat die erzeugende Funktion g mit g(s) = pr (1 − qs)−r .
d) Für r1,2 ∈ N gilt
N b(r1 , p) ∗ N b(r2 , p) = N b(r1 + r2 , p) .
Die Summe von r unabhängigen N b(1, p)-verteilten ZVn ist somit N b(r, p)-verteilt.
Bemerkung 7.3. Für die Folge (Xn ) in Satz 7.3a wird durch die erweitert-reelle ZV
n
P
Xk = r} mit inf ∅ := ∞ die Wartezeit bis zum r-ten Auftreten der
T := inf{n ∈ N |
k=1
Eins in (Xn ) und durch die erweitert-reelle ZV X = T − r die Anzahl der Misserfolge bis
zum r-ten Erfolg bei der zu (Xn ) gehörigen Folge von Bernoulli-Versuchen angegeben.
28
Definition 7.4. Als hypergeometrische Verteilung mit Parametern n, r, s ∈ N, wobei
n ≤ r+s, wird ein W-Maß auf B bezeichnet, das auf {0, 1, . . . , n} — sogar auf {max (0, n−
s), . . . , min (n, r)} — konzentriert ist und die Zähldichte
 r s 
 k n−k
, k = 0, 1, . . . , n
r+s
k 7→
n


0
, k = n + 1, n + 2, . . .
besitzt.
Bemerkung 7.4. Werden aus einer Urne mit r roten und s schwarzen Kugeln rein zufällig
n Kugeln ohne Zurücklegen gezogen (n, r, s wie in Definition 7.4), so wird die Anzahl der
gezogenen roten Kugeln durch eine ZV angegeben, die eine hypergeometrische Verteilung
mit Parametern n, r, s besitzt. Anwendung der hypergeometrischen Verteilung in der Qualitätskontrolle.
7.2
Totalstetige Verteilungen
Definition 7.5. Als Gleichverteilung auf (a, b) mit −∞ < a < b < ∞ wird ein
1
χ(a,b) besitzt.
W-Maß auf B bezeichnet, das eine Dichte f =
b−a
a+b
(b − a)2
, V (X) =
.
Satz 7.4. Für eine ZV X mit Gleichverteilung auf (a, b) gilt EX =
2
12
Definition 7.6. Als (eindimensionale) Normalverteilung oder Gauß-Verteilung N (a, σ 2 )
mit Parametern a ∈ R, σ > 0 wird ein W-Maß auf B bezeichnet, das eine Dichte f mit
f (x) = √
(x−a)2
1
e− 2σ2 ,
2πσ
x∈R
besitzt. Speziell heißt N (0, 1) standardisierte Normalverteilung.
Bemerkung 7.5.
a) Sei f wie in Definition 7.6. Der Graph von f heißt Gaußsche Glockenkurve. Im Fall
1
1
a = 0 ist f (0) = √
und hat f zwei Wendepunkte (±σ; √
).
2πσ
2πeσ
b) Die Dichtefunktion und die VF φ von N (0, 1) sind tabelliert.
X −a
N (0, 1)-verteilt. Es gilt hierbei
σ
c) Ist die ZV X N (a, σ 2 )-verteilt, so ist
P [a − σ ≤ X ≤ a + σ]
= 2φ(1) − 1 ≈ 0, 683
P [a − 2σ ≤ X ≤ a + 2σ] = 2φ(2) − 1 ≈ 0, 954
P [a − 3σ ≤ X ≤ a + 3σ] = 2φ(3) − 1 ≈ 0, 997 .
29
d) Anwendung der Normalverteilung z.B. in der Theorie der Beobachtungsfehler.
Satz 7.5. Sei a ∈ R, σ > 0.
a) Für eine ZV X mit Verteilung N (a, σ 2 ) gilt:
2k−1
E(X − a)
2k
= 0, E(X − a)
k
Y
=σ
(2j − 1),
2k
k ∈ N;
j=1
insbesondere EX = a, V (X) = σ 2 ; die ZV cX + b mit 0 6= c ∈ R, b ∈ R hat die
Verteilung N (ca + b, c2 σ 2 ).
b) Die charakteristische Funktion von N (a, σ 2 ) ist ϕ mit
ϕ(u) = eiau e
σ 2 u2
2
.
c) Für a1,2 ∈ R, σ1,2 > 0 gilt
N (a1 , σ12 ) ∗ N (a2 , σ22 ) = N (a1 + a2 , σ12 + σ22 ) .
Definition 7.7. Als Exponentialverteilung exp(λ) mit Parameter λ > 0 wird ein
W-Maß auf B oder B bezeichnet, das eine Dichtefunktion f mit

 λe−λx , x > 0
f (x) =

0, x ≤ 0
besitzt.
Satz 7.6. Sei λ > 0.
a) Sei X eine erweitert-reelle ZV, deren Verteilung auf R+ konzentriert sei, mit P [0 <
X < ∞] > 0. Dann gilt:
∀
P [X > t + s | X > s] = P [X > t] ⇐⇒ PX ist eine Exponentialverteilung.
s,t∈(0,∞)
“Gedächtnislosigkeit”
b) Für eine ZV X mit PX = exp(λ) gilt EX =
1
1
, V (X) = 2 .
λ
λ
c) exp(λ) hat die charakteristische Funktion ϕ mit
ϕ(u) =
30
λ
.
λ − iu
Bemerkung 7.6. Die zufällige Lebensdauer eines radioaktiven Atoms wird durch eine
exponentialverteilte ZV angegeben.
Definition 7.8. Als Gamma-Verteilung Γλ,ν mit Parametern λ, ν > 0 wird ein W-Maß
auf B oder B bezeichnet, das eine Dichtefunktion f mit

ν
 λ xν−1 e−λx , x > 0
Γ(ν)
f (x) =

0,
x≤0
besitzt. Hierbei Γλ,1 = exp(λ). Γ 1 , n wird als Chi-Quadrat-Verteilung χ2n mit n(∈ N) Frei2 2
heitsgraden bezeichnet.
Satz 7.7. Seien λ, ν > 0, n ∈ N.
a) Für eine ZV X mit PX = Γλ,ν gilt EX = λν , V (X) =
ν
λ2
.
b) Γλ,ν hat die charakteristische Funktion ϕ mit
ν
λ
ϕ(u) =
.
λ − iu
c) Für ν1,2 > 0 gilt
Γλ,ν1 ∗ Γλ,ν2 = Γλ,ν1 +ν2 .
Insbesondere ist Γλ,n die n-fache Faltung von exp(λ).
d) Die Summe der Quadrate von n unabhängigen jeweils N (0, 1)-verteilten reellen ZVn
ist χ2n -verteilt.
Bemerkung 7.7. Sind X, Y zwei unabhängige reelle ZVn mit PX = N (0, 1) und PY = χ2n ,
X
als t-Verteilung oder Student-Verteilung tn bzw.
so wird die Verteilung der ZV p
Y /n
Stn mit n Freiheitsgraden bezeichnet (n ∈ N). t1 bzw. St1 ist eine sogenannte CauchyVerteilung. — Anwendung von χ2n und Stn in der Statistik.
Sei {Tn | n ∈ N} eine unabhängige Folge nichtnegativ-reeller Zufallsvariablen (d.h. Ti
und Tj haben jeweils dieselbe Verteilung) mit P [Tn = 0] < 1.
Definiere die ZV Nt := sup{n ∈ N | T1 + . . . + Tn ≤ t} (mit sup ∅ = 0), t ∈ R+ .
Beispiel. In einem technischen System wird ein Bauelement mit endlicher zufälliger Lebensdauer bei Ausfall durch ein gleichartiges Element ersetzt. Die einzelnen Lebensdauern
seien Realisierung der ZVn Tn . Nt gibt die Anzahl der Erneuerungen im Zeitintervall [0, t]
an.
31
Satz 7.8. Ist — mit den obigen Bezeichnungen — Tn exp(λ)-verteilt (λ > 0), so ist Nt
π(λt)-verteilt, t ∈ R+ .
Bemerkung 7.8. Die Familie {Nt | t ∈ R+ } aus Satz 7.8 ist ein sogenannter PoissonProzess.
32
8
Bedingte Erwartungen
Satz 8.1. W-Raum (Ω, A, P ). Integrierbare ZV X: (Ω, A, P ) → (R, B). σ-Algebra
C ⊂ A. Dann existiert eine ZV Z : (Ω, A, P ) → (R, B) mit folgenden Eigenschaften:
(∗) Z ist integrierbar und C-B-messbar,
Z
Z
(∗∗) ∀
X dP =
Z dP .
C∈C
C
C
Z ist eindeutig bis auf die Äquivalenz “= Rest C P -f.ü.”.
Definition 8.1. W-Raum (Ω, A, P ). Integrierbare ZV X: (Ω, A, P ) → (R, B). σ-Algebra
C ⊂ A. Die Äquivalenzklasse (im oberen Sinne) der ZVn Z: (Ω, A, P ) → (R, B) mit (∗)
und (∗∗) — oder auch ein Repräsentant dieser Äquivalenzklasse — heißt bedingte Erwartung von X bei gegebenem C . . . E(X | C). Häufig wird ein Repräsentant dieser
Äquivalenzklasse als eine Version von E(X | C) bezeichnet.
E(X | C) ist eine “Vergröberung” von X.
Beispiele
a) C = A . . . E(X | C) = X f.s.
b) C = {∅, Ω} . . . E(X | C) = EX
c) C = {∅, B, B c , Ω} mit 0 < P (B) < 1.
Z

1



 P (B) B X dP =: E(X | B), ω ∈ B
(E(X | C))(ω) =
Z

1



X dP, ω ∈ B c
P (B c ) B c
E(X | B) heißt bedingter Erwartungswert von X unter der Hypothese B.
Satz 8.2. W-Raum (Ω, A, P ). X, Xi integrierbar; σ-Algebra C ⊂ A; c, α1,2 ∈ R.
Z
Z
E(X | C)dP =
X dP
a) ∀
C∈C
C
C
b) X = c P-f.s. =⇒ E(X | C) = c f.s.
c) X ≥ 0 P-f.s. =⇒ E(X | C) ≥ 0 f.s.
d) E(α1 X1 + α2 X2 | C) = α1 E(X1 | C) + α2 E(X2 | C) f.s.
e) X1 ≤ X2 P-f.s. =⇒ E(X1 | C) ≤ E(X2 | C) f.s.
33
f) X C-B-messbar =⇒ X = E(X | C) f.s.
g) X integrierbar, Y C-B-messbar, XY integrierbar =⇒ E(XY | C) = Y E(X | C) f.s.
g’) X, X 0 integrierbar, XE(X 0 | C) integrierbar
=⇒ E(XE(X 0 | C) | C) = E(X | C)E(X 0 | C) f.s.
h) σ-Algebra C1,2 mit C1 ⊂ C2 ⊂ A, X integrierbar
E(E(X | C1 ) | C2 ) = E(X | C1 ) f.s.
E(E(X | C2 ) | C1 ) = E(X | C1 ) f.s.
Hier f.s. . . . Rest C2 P-f.s. bzw. Rest C1 P-f.s.
Definition 8.2. W-Raum (Ω, A, P ). σ-Algebra C ⊂ A. A ∈ A.
P (A | C) := E(χA | C) heißt bedingte Wahrscheinlichkeit von A bei gegebenem C.
Bemerkung 8.1. Zu Definition 8.2.
Z
P (A | C) dP = P (A ∩ C).
∀
C∈C
C
Beispiel. C = {∅, B, B c , Ω} mit 0 < P (B) < 1.

P (A ∩ B)



 P (B) =: P (A | B), ω ∈ B
(P (A | C))(ω) =


P (A ∩ B c )


=: P (A | B c ), ω ∈ B c .
c
P (B )
Definition 8.3. W-Raum (Ω, A, P ).
a) Integrierbare ZV X: (Ω, A, P ) → (R, B). ZV Y : (Ω, A, P ) → (Ω0 , A0 ).
E(X | Y ) := E(X | Y −1 (A0 )) . . . bedingte Erwartung von X bei gegeb. Y .
| {z }
[kleinste σ-Algebra in Ω, bzgl. der Y messbar ist . . . F(Y )(⊂ A)]
b) Integrierbare ZV X: (Ω, A, P ) → (R, B). ZVn Yi : (Ω, A, P ) → (Ω0i , A0i ) (i ∈ I)
C(⊂ A) sei die kleinste σ-Algebra in Ω, bzgl. der alle Yi messbar sind
[C = F( ∪ Yi−1 (Ai )) . . . F(Yi , i ∈ I)]
i∈I
E(X | (Yi )i∈I ) := E(X | C) . . . bedingte Erwartung von X bei gegebenem Yi , i ∈ I.
c) A ∈ A; ZV Y : (Ω, A, P ) → (Ω0 , A0 ).
P (A | Y ) := E(χA | Y ) . . . bedingte Wahrscheinlichkeit von A bei gegeb. Y .
34
Bemerkung 8.2. Integrierbare ZV X: (Ω, A, P ) → (R, B).
a) σ-Algebra C in A
(X −1 (B), C) unabhängig =⇒ E(X | C) = EX f.s.
b) ZV Y : (Ω, A, P ) =⇒ (Ω0 , A0 )
(X, Y ) unabhängig → E(X | Y ) = EX f.s.
Satz 8.3. W-Raum (Ω, A, P ). Integrierbare ZV X: (Ω, A, P ) → (R, B).
ZV Y : (Ω, A, P ) → (Ω0 , A0 ). Dann ex. Abb. g: (Ω0 , A0 ) → (R, B) mit E(X | Y ) = g ◦ Y .
g ist die sog. Faktorisierung der bedingten Erwartung.
g ist eindeutig bis auf die Äquivalenz “= PY -f.ü. ”.
Definition 8.4. W-Raum (Ω, A, P ). Integrierbare ZV X: (Ω, A, P ) → (R, B) bzw. A ∈ A.
ZV Y : (Ω, A, P ) → (Ω0 , A0 ). Sei g bzw. gA eine — bis auf Äquivalenz “= PY - f.ü.”
eindeutig bestimmte — Faktorisierung von E(X|Y ) bzw. von P (A|Y ).
E(X | Y = y) := g(y) . . . bedingte Erwartung von X unter der Hypothese Y = y
P (A | Y = y) := gA (y) . . . bed. Wahrscheinlichkeit von A unter der Hypoth. Y = y
E(X | Y = ·) = g
P (A | Y = ·) = gA
Satz 8.4. W-Raum (Ω, A, P ). Integrierbare ZV X: (Ω, A, P ) → (R, B) bzw. A ∈ A. ZV
Y : (Ω, A, P ) → (Ω0 , A0 )
R
R
a) ∀
E(X
|
Y
=
y)
P
(dy)
=
X dP ,
Y
0
A
Y −1 (A0 )
A0 ∈A0
R
insbesondere Ω0 E(X | Y = y) PY (dy) = EX .
R
b) ∀
P (A | Y = y) PY (dy) = P (Y −1 (A0 ) ∩ A) ,
A0
A0 ∈A0
R
insbesondere Ω0 P (A | Y = y) PY (dy) = P (A) .
Beispiel. X bzw. A sowie Y wie zuvor. Sei y ∈ Ω0 mit {y} ∈ A0 und PY ({y}) > 0.
a) E(X | Y = y) = E(X | [Y = y])
{z
}
|
{z
}
|
s. Def. 8.4. s. Beispiel nach Def. 8.1.
b) P (A | Y = y) = P (A | [Y = y])
|
{z
}
|
{z
}
s. Def. 8.4. s. Beispiel nach Def. 8.2.
35
Satz 8.5. W-Raum (Ω, A, P ). Integrierbare ZV X: (Ω, A, P ) → (R, B).
ZV Y : (Ω, A) → (Ω0 , A0 ).
a) X = c f.s. =⇒ E(X | Y = ·) = c PY -f.ü.
b) X ≥ 0 f.s. =⇒ E(X | Y = ·) ≥ 0 PY -f.ü.
c) E(αX1 + βX2 | Y = ·) = αE(X1 | Y = ·) + βE(X2 | Y = ·) PY -f.ü.
d) X1 ≤ X2 f.s. =⇒ E(X1 | Y = ·) ≤ E(X2 | Y = ·) PY -f.ü.
Satz 8.6. W-Raum (Ω, A, P ), Sub-σ-Algebra C(⊂ A), X, Xn (n ∈ N) integrierbare
Zufallsvariablen. Dann gilt:
a) Ist 0 ≤ Xn ↑ X fast sicher (n → N), so folgt
E(Xn | C) → E(X | C) fast sicher
(Satz von der monotonen Konvergenz für bedingte Erwartungen).
b) Ist Xn → X fast sicher (n → N) und |Xn | ≤ Y fast sicher für alle n ∈ N und Y eine
integrierbare Zufallsvariable (d.h. E|Y | < ∞), so folgt
E(Xn | C) → E(X | C) fast sicher
(Satz von der dominierten Konvergenz für bedingte Erwartungen).
Satz 8.7. W-Raum (Ω, A, P ), Sub-σ-Algebra C(⊂ A), I ⊂ R ein Intervall und f : I → R
eine konvexe Funktion und X : Ω → I eine integrierbare Zufallsvariable. Dann ist E(X |
C) ∈ I fast sicher. Ist f (X) integrierbar, so gilt
f (E(X | C)) ≤ E(f (X) | C) fast sicher
36
9
Martingale
Definition 9.1. W-Raum (Ω, A, P ).
Eine Folge (Xn )n∈N von integrierbaren ZVn Xn : (Ω, A, P ) → (R, B) heißt bei gegebener
nonoton wachsender Folge (An )n∈N von σ-Algebren An ⊂ A mit An -B-Messbarkeit von
Xn [wichtiger Fall An = F(X1 , . . . , Xn ) (n ∈ N)]
a) ein Martingal bzgl. (An ), wenn
∀
n∈N
E(Xn+1 | An ) = Xn f.s.
Z
[d.h.
∀
Z
Xn+1 dP =
∀
n∈N C∈An
Xn dP ] ,
C
C
b) ein Submartingal bzgl. (An ), wenn
∀
n∈N
E(Xn+1 | An ) ≥ Xn f.s.
Z
[d.h.
∀
Z
Xn+1 dP ≥
∀
n∈N C∈An
C
Xn dP ] ,
C
c) ein Supermartingal bzgl. (An ), wenn (−Xn ) ein Submartingal bzgl. (An ) ist.
Bemerkung 9.1. Ein Martingal (Xn ) bzgl. (An ) ist auch ein Martingal bzgl. (F(X1 ,
. . . , Xn )). Entsprechend für Sub-, Supermartingal.
Satz 9.1. W-Raum (Ω, A, P ), Folge (Vn )n∈N von ZVn Vn : (Ω, A, P ) → (R, B) . Die
n
P
Partialsummenfolge ( Vj )n∈N ist genau dann ein Martingal bzw. Submartingal bzgl.
j=1
(F(V1 , V1 + V2 , . . . , V1 + . . . + Vn )) = (F(V1 , . . . , Vn )), wenn
∀
n∈N
Vn integrierbar und ∀
n∈N
E(Vn+1 | V1 , . . . , Vn ) = 0 bzw. ≥ 0 f.s.
Definition 9.2. Ein Spiel mit zufälligen Gewinnständen X1 , X2 , . . . nach dem 1., 2.,
. . . Schritt heißt fair, wenn EX1 = 0 und (Xn )n∈N ein Martingal [bzgl. (F(X1 , . . . , Xn ))]
ist, d.h. EX1 = 0 und ∀ E(Xn+1 | X1 = x1 , . . . , Xn = xn ) = xn für P(X1 ,...,Xn ) -f.a.
n
(x1 , . . . , xn ).
Satz 9.2. W-Raum (Ω, A, P ), Folge (Vn ) von quadratisch integrierbaren ZVn Vn :
n
P
(Ω, A, P ) → (R, B). Die Partialsummenfolge ( Vj ) sei ein Martingal.
j=1
Dann gilt ∀ EVi Vj = 0.
i6=j
37
Beispiel für ein Martingal: Partialsummenfolge (
n
P
Vj )n∈N zu einer unabhängigen Folge
i=1
(Vn )n∈N von integrierbaren reellen ZVn mit Erwartungswerten 0.
Satz 9.3 ((Sub)Martingalkonvergenztheorem (Doob)). W-Raum (Ω, A, P ).
(Xn ) sei ein Submartingal mit limE|Xn | < ∞.
Dann existiert eine integrierbare reelle ZV X mit Xn → X P-f.s.
Zum Beweis von Satz 9.3: Definition 9.3, Definition 9.4., Satz 9.4, Satz 9.5.
Definition 9.3. W-Raum (Ω, A, P ). Monoton wachsende Folge (An )n∈N von σ-Algebren
An ⊂ A. Eine ZV T : (Ω, A, P ) → (N := N∪{∞}, P(N)) heißt Stoppzeit bzgl. (An ), wenn
∀ [T = k] ∈ Ak ; hierbei heißt T Stoppzeit im engeren Sinne, falls P [T < ∞] = 1
k∈N
[“Kein Vorgriff auf die Zukunft”].
Wichtiger Fall: An = F(X1 , . . . , Xn ) (n ∈ N) mit ZVn Xn
Deutung (Xn ) . . . Folge der Gewinnstände in einem Spiel.
Ein Spieler ohne prophetische Gaben bricht das Spiel im zufälligen Zeitpunkt T aufgrund
des bisherigen Spielverlaufs ab.
Beispiel: T (ω) = inf{n ∈ N: Xn (ω) ∈ B}, ω ∈ Ω — festes messbares B.
Definition 9.4. W-Raum (Ω, A, P )
Folge (Xn )n∈N von ZVn Xn : (Ω, A, P ) → (R, B);
Folge (Tn )n∈N von Stoppzeiten bzgl. (Xn ) [d.h. bzgl. (F(X1 , . . . , Xn ))]
mit T1 ≤ T2 ≤ . . . < ∞. Neue Folge: Folge (XTn )n∈N von ZVn definiert durch
(XTn )(ω) := XTn (ω) (ω), ω ∈ Ω .
Übergang von (Xn ) zu (XTn ) heißt optional sampling [frei gewählte Stichprobenbildung]
Deutung . . . Testen des Spielverlaufs zu den Zeitpunkten Tn (ω).
Satz 9.4 (Optional sampling theorem).
Submartingal (Xn )n∈N . Festes M ∈ N.
Folge (Tn )n∈N von Stoppzeiten bzgl. (Xn ) mit T1 ≤ T2 ≤ . . . ≤ M .
Die durch optional sampling erhaltene Folge (XTn )n∈N ist ebenfalls ein Submartingal. —
Entsprechend für Martingal statt Submartingal (Deutung: die Fairness eines Spielverlaufs
wird nicht geändert).
Satz 9.5 (“upcrossing inequality” (von Doob)).
Sei (X1 , . . . , Xn ) ein — beim festen Index n ∈ N abbrechendes — Submartingal. Feste reelle Zahlen a, b mit a < b. Die ZV U [a, b] gebe die Anzahl der aufsteigenden Überquerungen
38
des Intervalls [a, b] durch X1 , . . . , Xn an (d.h. die Anzahl der Übergänge der abbrechenden
Folge von einem Wert ≤ a zu einem Wert ≥ b). Dann gilt
(b − a)EU [a, b] ≤ E(Xn − a)+ − E(X1 − a)+ .
Korollar 9.1. Ist (Un ) eine Folge integrierbarer nichtnegativ-reeller Zufallsvariablen auf
(Ω, A, P ) und (An ) eine monoton wachsende Folge von Unter-σ-Algebren von A mit An B+ -Messbarkeit von Un (n ∈ N) und gilt
E(Un+1 | An ) ≤ (1 + αn )Un + βn (n ∈ N)
P
P
wobei αn , βn ∈ R+ mit
αn < ∞,
βn < ∞, dann konvergiert (Un ) f.s. — (Un ) ist
“fast ein nichtnegatives Supermartingal”.
Auch (EUn ) konvergiert.
P
Satz 9.6. Folge (Vn ) von quadratisch integrierbaren reellen ZVn mit V (Vn ) < ∞. Dann
ist
X
(Vn − E(Vn | V1 , . . . , Vn−1 )) f.s. konvergent.
P
[Falls zusätzlich (Vn ) unabhängig, dann ist (Vn − EVn ) f.s. konvergent]
Satz 9.7. Folge (Vn ) von quadratisch integrierbaren reellen ZVn mit
Dann
n
1X
(Vj − E(Vj | V1 , . . . , Vj−1 )) → 0 f.s.
n j=1
Falls zusätzlich (Vn ) unabhängig, dann
1
n
n
P
P
n−2 V (Vn ) < ∞.
(Vj − EVj ) → 0 f.s.
j=1
(Kriterium von Kolmogorov zum starken Gesetz der großen Zahlen)
Beweis von Satz 9.7 mit Satz 9.6 und dem folgenden — etwas spezialisierten —
Lemma von Kronecker. Folge (cn )n∈N reeller Zahlen.
X cn
n
1X
konv. =⇒
cj → 0 (n → ∞).
n
n j=1
Bemerkung 9.2. Aus Satz 9.6 bzw. 9.7 ergibt sich unmittelbar für eine Folge (Vn ) quadratisch integrierbarer reeller ZVn eine hinreichende Bedingung für die f.s. Konvergenz
n
P
P
der Reihe
Vn bzw. für n1
Vj → 0 f.s.
j=1
Definition 9.5. Eine Folge (Xn )n∈N von integrierbaren reellen ZVn auf einem W-Raum
(Ω, A, P ) genügt dem schwachen bzw. starken Gesetz der großen Zahlen, wenn
n
1X
(Xk − EXk ) → 0 (n → ∞) nach Wahrscheinlichkeit bzw. P-f.s.
n k=1
39
Satz 9.8 (Kriterium von Kolmogorov für das starke Gesetz der großen Zahlen).
Eine unabhängige Folge (Xn )n∈N quadratisch integrierbarer reeller ZVn mit
∞
X
n−2 V (Xn ) < ∞
n=1
genügt dem starken Gesetz der großen Zahlen.
Satz 9.9 (Kolmogorovsches starkes Gesetz der großen Zahlen).
Für eine unabhängige Folge (Xn )n∈N identisch verteilter integrierbarer reeller ZVn gilt
n
1X
Xk → EX1
n k=1
(n → ∞) f.s.
Bemerkung 9.3.
a) In Satz 9.9 darf die Integrierbarkeitsvoraussetzung nicht weggelassen werden.
b) Die Voraussetzung der Unabhängigkeit in Satz 9.9 kann zur Voraussetzung der paarweisen Unabhängigkeit abgeschwächt werden (N. Etemadi, Z. Wahrscheinlichkeitstheorie verw. Gebiete 55 (1981), 119-122).
Satz 9.10 (Tschebyschev).
Eine Folge (Xn )n∈N quadratisch integrierbarer paarweise unkorrelierter [d.h. es gilt
∀ E(Xj − EXj )(Xk − EXk ) = 0] reeller ZVn mit
j6=k
n
−2
n
X
V (Xk ) → 0 (n → ∞)
k=1
genügt dem schwachen Gesetz der großen Zahlen.
Bemerkung 9.4 (Folgerung aus obigen Sätzen). Für eine unabhängige Folge (Xn ) identisch verteilter reeller ZVn mit P [X1 = 1] = p, P [X1 = 0] = 1 − p (festes p ∈ [0, 1])
gilt
n
1X
Xk → p (n → ∞) P-f.s. und nach Wahrscheinlichkeit
n k=1
(Borelsches starkes Gesetz der großen Zahlen bzw. Bernoullisches schwaches Gesetz der
großen Zahlen).
40
10
Verteilungskonvergenz in R
Definition 10.1.
a) W-Maße Qn (n ∈ N), Q auf der σ-Algebra B der Borelschen Mengen in R. Die Folge
(Qn ) heißt gegen Q schwach konvergent (weakly convergent) — Schreibweise
Qn → Q schwach — , wenn für jede beschränkte stetige Funktion g : R → R gilt
Z
Z
g dQn →
g dQ (n → ∞).
R
R
b) Reelle ZVn Xn (n ∈ N), X (nicht notwendig auf demselben W-Raum definiert). Die
Folge (Xn ) heißt gegen X nach Verteilung konvergent (convergent in distribuD
tion, convergent in law) — Schreibweise Xn → X (n → ∞) — , wenn PXn → PX
schwach, d.h. für jede beschränkte stetige Funktion g : R → R gilt
Z
Z
g dPXn →
g dPX (n → ∞)
R
R
oder (äquivalent nach dem Transformationssatz für Integrale)
Eg(Xn ) → Eg(X) (n → ∞) .
Bemerkung 10.1. a) In Definition 10.1a ist das Grenz-W-Maß Q eindeutig bestimmt.
b) In Definition 10.1b können Xn , X durch reelle ZVn Xn0 , X 0 mit PXn0 = PXn , PX 0 = PX
ersetzt werden.
Satz 10.1. Reelle ZVn Xn (n ∈ N), X auf (Ω, A, P ).
D
Aus Xn → X nach Wahrscheinlichkeit (Schreibweise Xn → X) folgt Xn → X.
P
Satz 10.2. W-Maße Qn (n ∈ N), Q auf B bzw. reelle ZVn Xn (n ∈ N), X mit VFn
Fn , F .
D
Qn → Q schwach bzw. Xn → X (n → ∞) gilt genau dann, wenn Fn (x) → F (x) (n → ∞)
für alle Stetigkeitspunkte x von F .
Satz 10.3. Reelle ZVn Xn (n ∈ N), X auf (Ω, A, P ). Ist X P-f.s. konstant, so gilt:
D
Xn → X ⇐⇒ Xn → X .
P
Satz 10.4. Reelle ZVn Xn , Yn (n ∈ N), X auf (Ω, A, P )


D
Xn → X
|Xn − Yn | → 0 
P
41
D
=⇒ Yn → X .
Satz 10.5 (Spezialfall des Darstellungssatzes von Skorokhod).
D
Reelle ZVn Xn (n ∈ N), X mit Xn → X. Dann existiert ein W-Raum (Ω∗ , A∗ , P ∗ ) —
wobei man Ω∗ = [0, 1], A∗ = [0, 1] ∩ B, P ∗ = L-B-Maß auf A∗ wählen kann — und reelle
ZVn Xn∗ (n ∈ N), X ∗ auf (Ω∗ , A∗ , P ∗ ) derart, dass
∗
∗
∗
∗
∀ PXn = PXn∗ , PX = PX ∗ , Xn → X
(n → ∞) P ∗ -f.s.
n
Satz 10.6 (Satz von der stetigen Abbildung).
D
Reelle ZVn Xn (n ∈ N), X mit Xn → X; Abbildung h : (R, B) → (R, B) sei PX -f.ü.
D
stetig. Dann gilt h(Xn ) → h(X).
Satz 10.7 (Satz von Slutsky).
Reelle ZVn Xn , Yn , X auf (Ω, A, P ); c ∈ R.


D
D
 Xn + Yn →
Xn → X 
X +c
=⇒
D
 Y X →
Yn → c 
cX .
n n
P
Definition 10.2. Eine Menge Q von W-Maßen auf B heißt
a) relativ-(folgen)kompakt, wenn jede Folge von Elementen aus Q eine Teilfolge
besitzt, die schwach gegen ein W-Maß auf B konvergiert,
b) gleichmäßig straff [tight], wenn
∀
∃
∀
Q(K c ) ≤ ε .
ε>0 komp. K⊂R Q∈Q
Satz 10.8 (Spezialfall des Satzes von Prokhorov).
Eine Menge Q von W-Maßen auf B ist genau dann relativ-kompakt, wenn sie gleichmäßig
straff ist.
Satz 10.9 (Auswahlsatz von Helly).
Ist (Qn ) eine Folge von W-Maßen auf B mit zugehörigen VFn Fn : R → R (n ∈ N), dann
existiert eine Indexfolge (ni ) und ein endliches Maß Q auf B (nicht notw. W-Maß!) mit
zugehöriger maßdefinierender Funktion F : R → R (F (x) := Q((−∞, x])+ const. (geeignet), x ∈ R) derart, dass Fni (x) → F (x) (i → ∞) für alle Stetigkeitspunkte x von F .
Satz 10.10 (Satz von Lévy-Cramér; Stetigkeitssatz).
a) W-Maße Qn auf B mit char. Fktn. ϕn : R → C (n ∈ N). Ist Q ein W-Maß auf B
mit char. Fkt. ϕ : R → C und gilt Qn → Q schwach, dann gilt
∀
u∈R
ϕn (u) → ϕ(u) .
42
Existiert eine in 0 stetige Funktion ϕ : R → C und gilt
∀
u∈R
ϕn (u) → ϕ(u) ,
dann existiert ein W-Maß Q auf B mit char. Fkt. ϕ und Qn → Q schwach.
b) W-Maße Qn (n ∈ N), Q auf B mit char. Fktn. ϕn , ϕ : R → C.
Qn → Q schwach ⇐⇒ ∀
u∈R
ϕn (u) → ϕ(u).
Bemerkung 10.2. Die obigen Definitionen und Sätze lassen sich auf W-Maße auf Bk
bzw. k-dim. Zufallsvektoren übertragen.
43
11
Zentrale Grenzwertsätze
Ausssagen über die Approximation von Verteilungen, insbesondere der Verteilungen von
Summen von Zufallsvariablen, durch die Normalverteilung im Sinne der schwachen Konvergenz werden als zentrale Grenzwertsätze bezeichnet.
Satz 11.1 (Zentraler Grenzwertsatz von Lindeberg-Lévy im 1-dim. Fall).
Sei (Xn )n∈N eine unabhängige Folge identisch verteilter quadratisch integrierbarer reeller
ZVn mit EX1 =: a, V (X1 ) =: σ 2 mit σ > 0. Dann
n
1 X
D
√
(Xk − a) → N (0, 1)-verteilte reelle ZV.
nσ k=1
Korollar 11.1 (Zentraler Grenzwertsatz von de Moivre und Laplace).
Für eine unabhängige Folge (Xn )n∈N identisch verteilter reeller ZVn auf (Ω, A, P ) mit
P [X1 = 1] = p, P [X1 = 0] = 1 − p =: q (0 < p < 1) gilt
Pn
Z β
1
2
k=1 Xk − np
e−t /2 dt (n → ∞).
<β →√
√
∀ P α<
npq
(=)
(=)
α<β
2π α
∈R
Satz 11.2 (B.M. Brown 1971, Gänssler-Stute 1977).
Das Schema reeller ZVn Xnj (j = 1, . . . , jn ; n ∈ N) auf einem W-Raum (Ω, A, P ) und das
Schema der σ-Algebren Anj in Ω (j = 0, . . . , jn ; n ∈ N) mit F(Xnj ) ⊂ Anj ⊂ An,j+1 ⊂ A
sollen die folgenden Bedingungen erfüllen:
(1) ∀ Xnj quadr. int., Ej−1 Xnj := E(Xnj | An,j−1 ) = 0
n,j
[die Xnj bilden ein sog. Martingaldifferenzschema],
(2)
jn
P
2
Ej−1 Xnj
→1,
P
j=1
(3) ∀
jn
P
ε>0 j=1
2
Ej−1 [Xnj
χ[|Xnj |>ε] ] → 0 (n → ∞)
P
[eine sog. bedingte Lindeberg-Bedingung].
Dann
jn
X
D
Xnj → N (0, 1)-verteilte reelle ZV.
j=1
Hilfsformel
∀
∀
k∈N x∈R
|eix − 1 −
(ix)k−1
|x|k
ix
− ... −
|≤
1!
(k − 1)!
k!
44
Bemerkung 11.1.
Schema quadr. int. am Erwartungswert zentrierter reeller ZVn Xni (i = 1, . . . , in ; n ∈ N)
auf W-Raum (Ω, A, P ), Schema von σ-Algebren Ani in Ω (i = 0, . . . , in ; n ∈ N) mit
F(Xni ) ⊂ Ani ⊂ An,i+1 ⊂ A. Es gelten die folgenden Implikationen:
in
P
a) ∃
δ>0
E(|Xni |2+δ | An,i−1 ) → 0 ( bedingte Ljapunov-Bedingung)
P
i=1
in
P
=⇒ ∀
ε>0
=⇒ max
i=1,...,in
in
P
b) ∃
δ>0
2
E(Xni
χ[|Xni |>ε] | An,i−1 ) → 0 (bedingte Lindeberg-Bedingung)
P
i=1
2
E(Xni
| An,i−1 ) → 0 (bedingte Feller-Bedingung)
P
E(|Xni |2+δ ) → 0 (Ljapunov-Bedingung)
i=1
in
P
=⇒ ∀
ε>0
=⇒ max
2
E(Xni
χ[|Xni |>ε] ) → 0 (Lindeberg-Bedingung)
i=1
i=1,...,in
2
E(Xni
) → 0 (Feller-Bedingung).
Ljapunov-Bedingung =⇒ bedingte Ljapunov-Bedingung
Lindeberg-Bedingung =⇒ bedingte Lindeberg-Bedingung
c) Bei nicht am Erwartungswert zentrierten ZVn ist in a), b) jeweils Xni durch Xni −
EXni zu ersetzen.
Bemerkung 11.2.
a) Wird in Satz 11.2 für jedes n ∈ N die Unabhängigkeit des in -tupels (Xn1 , . . . , Xnin )
vorausgesetzt, so können — bei An0 = {∅, Ω}, Ani = F(Xn1 , . . . , Xni ) (i = 1, . . . , in ,
n ∈ N) — (1), (2), (3) in äquivalenter Weise mit Erwartungswerten statt bedingter Erwartungen und Konvergenz in R statt stochastischer Konvergenz formuliert
werden.
b) In Satz 11.2 dient die Bedingung (2) der Normierung und schränkt die Bedingung
(3) vom Lindeberg-Typ den Einfluss der einzelnen ZVn ein.
Satz 11.3 (Zentraler Grenzwertsatz von Lindeberg).
Die Folge (Xn )n∈N quadratisch integrierbarer reeller ZVn mit EX12 > 0, ∀ EXn = 0
n
n
P
2
2
sei unabhängig und erfülle — mit sn :=
EXi (n ∈ N) — die klassische Lindebergi=1
Bedingung
(4) ∀
ε>0
1
s2n
n
P
E(Xi2 χ[|Xi |>εsn ] ) → 0.
i=1
45
Dann
n
1 X
D
Xi → N (0, 1)-verteilte ZV.
sn i=1
Bemerkung 11.3.
In Satz 11.3 — mit am Erwartungswert zentrierten ZVn — impliziert die klassische
Lindeberg-Bedingung (4) die klassische Feller-Bedingung
max (
i=1,...,n
1
EXi2 ) → 0 (n → ∞)
s2n
und wird ihrerseits durch die klassische Ljapunov-Bedingung
∃
δ>0
n
1 X
s2+δ
n
E|Xi |2+δ → 0 (n → ∞)
i=1
impliziert. Bei nicht am Erwartungswert zentrierten ZVn ist jeweils Xi durch Xi − EXi ,
auch in der Definition von sn , zu ersetzen.
Satz 11.2 =⇒ Satz 11.3 =⇒ Satz 11.1
46
Literatur
Bauer, H.: Wahrscheinlichkeitstheorie; de Gruyter, Berlin (1990), 4. Aufl.
Behnen, K., Neuhaus, G.: Grundkurs Stochastik; Teubner, Stuttgart (1995), 3. Aufl.
Billingsley, P.: Probability and Measure; Wiley, New York (1995), 3rd ed.
Borowkow, A. A.: Wahrscheinlichkeitstheorie; Birkhäuser, Basel (1976).
Breiman, L.: Probability; Addison-Wesley, Reading Mass. (1968).
Capiński, M., Kopp, E.: Measure Integral and Probability; Springer (2004), 2nd ed.
Chow, Y. S., Teicher, H.: Probability Theory — Independence, Interchangeability,
Martingales; Springer, Berlin (1978).
Chung, K. L.: A Course in Probability Theory; Academic Press, New York (1974), 2nd
ed.
Dinges, H., Rost, H.: Prinzipien der Stochastik; Teubner, Stuttgart (1982).
Dudley, R.M.: Real Analysis and Probability; Cambridge University Press(2002), 2nd
ed.
Durrett, R..: Probability Theory and Examples; Wadsworth & Brooks/Cole, Pacific
Grove (1991).
Fabian, V., Hannan, J.: Introduction to Probability and Mathematical Statistics; Wiley, New York (1985).
Feller, W.: An Introduction to Probability and Its Applications I,II; Wiley, New York
(1970/71), 3rd ed./2nd ed.
Fisz, M.: Wahrscheinlichkeitsrechnung und mathematische Statistik; VEB Deutscher
Verlag der Wissenschaften, Berlin (1970), 5. Aufl.
Gänssler, P., Stute, W.: Wahrscheinlichkeitstheorie; Springer, Berlin (1977).
Gnedenko, B W.: Lehrbuch der Wahrscheinlichkeitsrechnung; Akademie-Verlag, Berlin
(1968), 5. Aufl.
Hesse C.: Angewandte Wahrscheinlichkeitstheorie; Vieweg (2003).
Hinderer, K.: Grundbegriffe der Wahrscheinlichkeitstheorie; Springer, Berlin (1985),
3. korr. Nachdruck.
Jacod, J., Protter, P.: Probability Essentials. Springer, Berlin (2004), 2nd ed.
Kallenberg, O.: Foundations of Modern Probability. Springer, New York (2001), 2nd
ed.
Klenke, A.: Wahrscheinlichkeitstheorie; Springer, Heidelberg (2006)
Krengel, U.: Einführung in die Wahrscheinlichkeitstheorie und Statistik; Vieweg, Braunschweig (2003), 7. Aufl.
47
Krickeberg, K.: Wahrscheinlichkeitstheorie; Teubner, Stuttgart (1963).
Krickeberg, K., Ziezold, H.: Stochastische Methoden; Springer, Berlin (1988), 3.
Aufl.
Laha, R. G., Rohatgi, V. K.: Probability Theory; New York, Wiley & Sons (1979).
Lamperti, H.: Probability; Benjamin, New York (1966).
Loève, M.: Probability Theory I,II; Springer, Berlin (1977/78), 4th ed.
Meintrup D., Schäffler S.: Stochastik — Theorie und Anwendungen; Springer (2004).
Neveu, J.: Mathematische Grundlagen der Wahrscheinlichkeitstheorie; Oldenbourg, München
(1969).
Pfanzagl, J.: Elementare Wahrscheinlichkeitsrechnung; de Gruyter, Berlin (1988).
Plachky, D.; Baringhaus, Schmitz, N./Plachky, D.: Stochastik I/II; Akad. Verlagsges., Frankfurt (1978/1981).
Prohorov, Yu. V., Rozanov, Yu. A.: Probability Theory; Springer, Berlin (1969).
Rényi, A.: Wahrscheinlichkeitsrechnung; VEB Deutscher Verlag der Wissenschaften, Berlin (1962).
Rényi, A.: Foundations of Probability Theory; Holden-Day, San Francisco (1970).
Resnick, S.: A Probability Path; Birkhäuser, Boston (1999).
Richter, H.: Wahrscheinlichkeitstheorie; Springer, Berlin (1966), 2. Aufl.
Schmitz, N.: Vorlesungen über Wahrscheinlichkeitstheorie; Teubner, Stuttgart (1996).
Shiryayev, A. N.: Probability; Springer, Berlin (1984).
Sinai, Y. G.: Probability Theory; Springer, Berlin (1992).
Vogel, W.: Wahrscheinlichkeitstheorie; Vandenhoeck & Ruprecht, Göttingen (1970).
Williams, D.: Probability with Martingales; Cambridge University Press (1991).
Williams, D.: Weighing the Odds — A Course in Probability and Statistics; Cambridge
University Press (2001).
Whittle, P.: Probability via Expectation; Springer, New York (2000), 4. Aufl.
48
Herunterladen