Elementare Wahrscheinlichkeitstheorie und Mathematische Statistik

Werbung
Elementare Wahrscheinlichkeitstheorie und
Mathematische Statistik
Prof. Dr. Karl-Heinz Fichtner
WS 2004/05
Vorwort
Dieses Dokument wurde als Skript für die auf der Titelseite genannte Vorlesung erstellt
und wird jetzt im Rahmen des Projekts „Vorlesungsskripte der Fakultät für Mathematik
und Informatik“ weiter betreut. Das Dokument wurde nach bestem Wissen und Gewissen angefertigt. Dennoch garantiert weder der auf der Titelseite genannte Dozent, die
Personen, die an dem Dokument mitgewirkt haben, noch die Mitglieder des Projekts für
dessen Fehlerfreiheit. Für etwaige Fehler und dessen Folgen wird von keiner der genannten Personen eine Haftung übernommen. Es steht jeder Person frei, dieses Dokument zu
lesen, zu verändern oder auf anderen Medien verfügbar zu machen, solange ein Verweis
auf die Internetadresse des Projekts http: // uni-skripte. lug-jena. de/ enthalten
ist.
Diese Ausgabe trägt die Versionsnummer 2572 und ist vom 4. Dezember 2009. Eine neue
Ausgabe könnte auf der Webseite des Projekts verfügbar sein.
Jeder ist dazu aufgerufen, Verbesserungen, Erweiterungen und Fehlerkorrekturen für das
Skript einzureichen bzw. zu melden oder diese selbst einzupflegen – einfach eine E-Mail
an die Mailingliste <[email protected]> senden. Weitere Informationen sind
unter der oben genannten Internetadresse verfügbar.
Hiermit möchten wir allen Personen, die an diesem Skript mitgewirkt haben, vielmals
danken:
• Jens Kubieziel <[email protected]> (2004–2007)
• Kim Muckelbauer <[email protected]> (2007)
• Carolin Rabsahl (2007)
• Mario Ullrich <[email protected]> (2007)
3
Inhaltsverzeichnis
1. Maß- und allgemeine Integrationstheorie
1.1. Einführung in die Maßtheorie . . . . . . . . . . . . . . . .
1.1.1. Das Grundmodell der Wahrscheinlichkeitsrechnung
1.1.2. Mathematisches Modell für zufällige Vorgänge . .
1.1.3. Eigenschaften von F . . . . . . . . . . . . . . . . .
1.1.4. Eigenschaften von P (A) . . . . . . . . . . . . . . .
1.2. σ-Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3. Maße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4. Produkte von Maßräumen . . . . . . . . . . . . . . . . . .
1.5. Wahrscheinlichkeitsmaße und Verteilungsfunktion . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
. 7
. 7
. 8
. 8
. 9
. 9
. 12
. 15
. 18
2. Integrationstheorie
2.1. Messbare Funktionen (Abbildungen)
2.2. Einführung des Integrals . . . . . . .
2.3. Absolute Stetigkeit von Maßen . . .
2.4. Der Satz von Fubini . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
23
23
29
36
39
3. Wahrscheinlichkeitsräume
3.1. Der klassische Wahrscheinlichkeitsraum . . . . . . . . . . . . . . . . . .
3.2. Das Bernoullischema . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3. Der Poissonsche Grenzwertsatz . . . . . . . . . . . . . . . . . . . . . . .
3.4. Ein kontinuierliches Analogon des klassischen Wahrscheinlichkeitsraumes
.
.
.
.
41
41
44
46
47
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4. Bedingte Wahrscheinlichkeit und Unabhängigkeit
48
4.1. Bedingte Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.2. Lebensdauerverteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.3. Unabhängigkeit von Ereignissen . . . . . . . . . . . . . . . . . . . . . . . . 52
5. Zufallsgrößen
5.1. Zufallsvariablen . . . . . . . . . . . . . . . .
5.2. Unabhängige Zufallsgrößen . . . . . . . . .
5.3. Summen unabhängiger Zufallsgrößen . . . .
5.4. Der Erwartungswert . . . . . . . . . . . . .
5.5. Die Varianz . . . . . . . . . . . . . . . . . .
5.6. Die Tschebyscheffsche Ungleichung . . . . .
5.7. Konvergenzarten und das Gesetz der großen
4
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
Zahlen
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
55
55
57
59
62
66
69
71
Inhaltsverzeichnis
A. Übungsaufgaben
75
5
Auflistung der Theoreme
Sätze
Satz 1.3.3.elementare Eigenschaften
. . . . . . . . . . . . . . . . . . . . . . . . . . 14
Satz 1.4.4.Folgerung aus Satz 1.4.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
Satz 2.1.1.Elementare Eigenschaften des Urbilds . . . . . . . . . . . . . . . . . . . 23
Satz 2.2.1.Integral bezüglich diskreter Maße . . . . . . . . . . . . . . . . . . . . . . 31
Satz 2.2.2.Riemannintegral stetiger Funktionen . . . . . . . . . . . . . . . . . . . 32
Satz 2.2.3.Übertragungssatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
Satz 2.4.1.Satz von Fubini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
Satz 3.3.1.Poissonsche Grenzwertsatz . . . . . . . . . . . . . . . . . . . . . . . . . . 47
Satz 4.1.1.Elementare Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . 48
Satz 4.1.2.Formel bzw. Satz über die totale Wahrscheinlichkeit . . . . . . . . . . . 49
Satz 4.1.3.Satz von Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
Satz 5.3.2.Verallgemeinerung von Satz 5.3.1 . . . . . . . . . . . . . . . . . . . . . . 60
Satz 5.4.5.Elementare Eigenschaften des Erwartungswerts . . . . . . . . . . . . . . 64
Satz 5.5.1.Elementare Eigenschaften der Varianz . . . . . . . . . . . . . . . . . . . 66
Satz 5.6.1.Markoffsche Ungleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
Satz 5.6.2.Tschebyscheffsche Ungleichung . . . . . . . . . . . . . . . . . . . . . . . 69
Satz 5.7.1.Schwaches Gesetz der großen Zahlen nach Tschebyscheff . . . . . . . . . 72
Satz 5.7.6.Starkes Gesetz der großen Zahlen nach Kolmogoroff . . . . . . . . . . . . 73
Satz 5.7.7.Spezialfall des Satz von Weierstraß . . . . . . . . . . . . . . . . . . . . . 73
Definitionen und Festlegungen
6
1. Maß- und allgemeine Integrationstheorie
Diese Vorlesung gliedert sich im wesentlichen in drei Teile. Dazu gehört dieses Kapitel
und im späteren Verlauf dann die Wahrscheinlichkeitstheorie. Später wird dann auch auf
die Stochastik eingegangen.
Die Maßtheorie stellte früher eine eigenständige 2+4-Vorlesung dar. Für Wirtschaftsmathematiker ist diese jedoch gekürzt. Hauptsächlich werden längere Beweise zu Sätzen
nicht geführt. Diese können in der Lektüre nachvollzogen werden.
1.1. Einführung in die Maßtheorie
Die Maßtheorie stellt eine Verallgemeinerung einiger elementargeometrischer Begriffe dar
und ermöglicht es, auch komplizierten Mengen ein Maß zuzuordnen. Dabei sollte man
diese deutlich von der Messtheorie in der Physik unterscheiden. Wir betrachten hier
zunächst allgemeine Maße und beschränken uns dann im späteren Verlauf auf Wahrscheinlichkeitsmaße.
1.1.1. Das Grundmodell der Wahrscheinlichkeitsrechnung
Die Wurzeln der Wahrscheinlichkeitsrechnung liegen zu Zeiten des 30-jährigen Krieges.
In den Gefechtspausen veranstalteten die Offiziere oft Glücksspiele. Diese haben naturgemäß einen zufälligen Ausgang und einige Spieler machten sich Gedanken über den
Verlauf und wie der Ausgang beeinflusst werden kann. Hiervon stammen einige der ersten praktischen Überlegungen zu dem Themengebiet.
Ein Breifwechsel zwischen Blaise Pascal und Pierre de Fermat aus dem Jahr 1654 wird gemeinhin als Geburtstunde der Wahrscheinlichkeitsrechnung angesehen. Die ersten Veröffentlichungen zur Wahrscheinlichkeitsrechnung enthielten noch keine Formeln. Stattdessen wurden die Rechenschritte in langen Beschreibungen erklärt. Dies hatte den Vorteil,
dass man es langsam lesen musste und es dadurch auch besser verstand.
Der Mathematiker David Hilbert stellte am 08. August 1900 eine Liste von 23 bis dahin ungelösten Problemen der Mathematik auf. Dabei formulierte Hilbert als sechstes
Problem die Frage, wie die Wahrscheinlichkeitstheorie und die Mechanik axiomatisiert
werden kann. Mittlerweile hat man diese Fragestellung auf die gesamte Physik erweitert.
7
1. Maß- und allgemeine Integrationstheorie
Der russische Mathematiker Andrei Nikolajewitsch Kolmogorow schafft im Jahre 1933
die Axiomatisierung. Seine Axiome werden auch Gegenstand dieser Vorlesung sein. Unser Anliegen ist es zunächst, ein mathematisches Modell zur Beschreibung zufälliger
Erscheinungen zu Formen. Als Beispiele dienen uns Münze und Würfel sowie auch Messungen.
1.1.2. Mathematisches Modell für zufällige Vorgänge
Das mathematische Modell besteht aus den drei Faktoren: [Ω, F, P ]. Diese haben folgende Bedeutung:
1) Raum der Elementarereignisse - Ω
Dies ist eine nichtleere Menge (Ω 6= ∅), die mögliche Versuchsausgänge klassifiziert.
Beispiel: Würfel → Ω = {1, 2, 3, 4, 5, 6}, Messung → M ⊆ R, Münzwurf → Ω =
{W, Z} = {0, 1}
2) System der Ereignisse - F ∈ P(Ω)
Die Menge F beinhaltet zulässige Aussagen über das Versuchsergebnis und es gilt
F ⊆ 2Ω ∗
Beispiel: Würfel → A = {2, 4, 6} ⊆ Ω entspricht der Aussage „Ich würfle eine gerade
Zahl.“
3) Eintrittswahrscheinlichkeit - P
P ist eine Abbildung P : F → [0, 1] und P (A) bezeichnet die Wahrscheinlichkeit mit
der das Ereignis A ∈ F eintritt.
Beispiel: Würfel → Ω = {1, 2, 3, 4, 5, 6}, A = {2, 4, 6}, P (A) = 1/2, P ({k}) = 16 , k =
1, . . . , 6
Welche sinnvollen Forderungen sollte man nun an Ω, F, P stellen? Daraus ergibt sich
der Aufbau der Axiomatik.
1.1.3. Eigenschaften von F
• Grundidee: Logische Operatoren werden zu entsprechenden mengentheoretischen
Operatoren: A1 ∨ A2 ↔ A1 ∪ A2 , ¬A ↔ Ac†
• F=
6 ∅
• ∀A1 , A2 ∈ F(A1 ∪ A2 ∈ F ∧ A1 ∩ A2 ∈ F)
S∞
• ∀A1 , A2 , . . . ∈ F(
• ∀A ∈ F(Ac ∈ F)
∗
†
8
k=1 Ak
∈ F)
Die Potenzmenge wird auch mit P bezeichnet. Damit gilt hier: F ⊆ P(Ω)
Komplement
1.2. σ-Algebra
1.1.4. Eigenschaften von P (A)
n→∞
von A
−−−→= : P (A). Man
• Beispiel: n-mal Würfeln: hn (A) = Anzahl des Eintretens
n
bezeichnet hn (A) als relative Häufigkeit des Eintretens.
• 0 ≤ hn (A) ≤ 1 ⇒ 0 ≤ P (A) ≤ 1
• hn (Ω) = 1 = P (Ω)
• A ∩ B = ∅ ⇒ hn (A ∪ B) = hn (A) + hn (B) ⇒ P (A ∪ B) = P (A) + P (B)
S∞
• A1 , A2 , . . . ∈ F ∧ Aj ∩ AK = ∅(k 6= j) ⇒ P (
k=1 Ak )
=
P∞
k=1 P (Ak )
1.2. σ-Algebra
Im folgenden gilt immer:
• Ω 6= ∅
• P(Ω) - Potenzmenge
• F ⊆ P(Ω)
Definition
Die Menge F heißt Algebra, wenn gilt:
(1) ∅ ∈ F
(2) A ∈ F ⇒ Ac ∈ F
(3) A, B ∈ F ⇒ A ∪ B ∈ F
F heißt σ-Algebra, wenn die Punkte (1) und (2) gelten und zusätzlich
S
(3’) A1 , A2 , . . . ∈ F ⇒ Ak ∈ F gilt.
Satz 1.2.1
Jede σ-Algebra ist eine Algebra.
Beweis:
Zum Beweis genügt es zu zeigen, dass eine beliebige σ-Algebra F den Punkt (3) der
Definition erfüllt. Denn die ersten beiden Eigenschaften teilen Algebra und σ-Algebra.
Es gelten die Eigenschaften (1), (2) und (3’). Man setzt nun A1 = A, A2 = B, An =
S
∅(n = 3, 4, . . .). Dann gilt A1 , A2 , . . . ∈ F ⇒ Ak
Bemerkung
• Die Umkehrung von Satz 1.2.1 ist in der Regel falsch, d. h. es gibt Algebren, die
keine σ-Algebra sind. Das klassiche Beispiel hierfür ist:
Ω = N; F : = {A ⊆ N|A endlich oderAc endlich}
Eigenschaften:
9
1. Maß- und allgemeine Integrationstheorie
(1) klar
(2) Sei A ∈ F. Dann ist zu zeigen, dass entweder Ac ∈ F oder (Ac )c endlich
ist. Falls Ac endlich, ist nichts weiter zu zeigen. Wenn A endlich ist, dann ist
nichts zu Ac ausgesagt. Allerdings ist (Ac )c = A. Somit gilt auch Eigenschaft
2.
(3) Für A, B ∈ F ist zu zeigen, dass (A ∪ B) endlich bzw. (A ∪ B)c ∈ F endlich
sind.
1. Fall A, B endlich ⇒ A ∪ B endlich
2. Fall Ac , B c endlich ⇒ Ac ∩ B c ⊆ Ac endlich ⇒ (A ∪ B)c endlich ⇒ A ∪ B ∈ F
3. Fall A, B c endlich ⇒ Ac ∩ B c ⊆ B c endlich ⇒ (A ∪ B)c endlich ⇒ A ∪ B ∈ F
4. Fall Ac , B endlich ⇒ Ac ∩ B c ⊆ Ac endlich ⇒ (A ∪ B)c endlich ⇒ A ∪ B ∈ F
• Jede endliche Algebra ist eine σ-Algebra.
• Jede σ-Algebra ist bezüglich der (symmetrischen) Differenz abgeschlossen.
Satz 1.2.2
Sei F eine Algebra über Ω. Dann ist Ω ∈ F und für alle Folgen A1 , . . . , An ∈ F(n ∈ N)
gelten:
a)
b)
Sn
k=1 Ak
Tn
k=1 Ak
∈F
∈F
Beweis:
• Ω ist ein Element von F. Denn nach (1) gilt ∅ ∈ F und nach (2) folgt ∅c = Ω ∈ F.
zu a) Nach Eigenschaft (3) gilt der Punkt a) für n = 2. Also haben wir A1 , A2 ∈ F ⇒
S
A1 ∪ A2 ∈ F. Nun gelte: nk=1 Ak ∈ F(A1 , . . . , An ∈ F). Im Induktionsschritt
Sn+1
Sn
S
können wir zeigen: A1 , . . . , An+1 ∈ F( n+1
k=1 Ak = k=1 Ak ∪ An+1 ) ⇒ k=1 An+1 ∈
F
zu b) Nach Eigenschaft (3) kann folgender Schluss gezogen werden A1 , . . . , An ∈ F ⇒
S
Ac1 , . . . , Acn ∈ F ⇒ nk=1 Ack ∈ F. Nach den deMorganschen Regeln bedeutet dies:
T
Sn
( k=1 Ack )c ⇒ nk=1 Ak ∈ F
Satz 1.2.3
Sei F eine σ-Algebra. Dann gilt
∞
\
k=1
Ak ∈ F
(Beweis wie in Satz 1.2.2 mit n = ∞)
10
A1 , A2 , . . . ∈ F
1.2. σ-Algebra
Bemerkung
Eine σ-Algebra ist i. A. nicht gegenüber überabzählbarer Vereinigung bzw. Durchschnitt
abgeschlossen.
Beispiel
1. Die „kleinste“ Algebra/σ-Algebra ist F = {∅, Ω}.
2. Die „größte“ σ-Algebra ist F = P(Ω).
3. Sei ∅ ⊂ A ⊂ Ω, F = {∅, Ω, A, Ac }. Der Nachweis, dass dies eine σ-Algebra ist, lässt
sich leicht führen.
Satz 1.2.4
T
Sei (Fi )i∈I eine Familie von σ-Algebren. Dann ist i∈I Fi eine σ-Algebra.
Beweis:
T
Sei i∈I Fi ⊆ P(Ω).
zu (1) Für i ∈ I gilt, dass ∅ ∈ Fi ⇒ ∅ ∈
T
T
i∈I
Fi
zu (2) Sei A ∈ i∈I Fi . Es ist zu zeigen, dass Ac ∈
T
A ∈ Fi ⇒ Ac ∈ Fi ⇒ Ac ∈ i∈I Fi
zu (3’) Sei A1 , A2 , . . . ∈
T
i∈I Fi
T
i∈I
T
i∈I
∈ Fi :
Fi ⇒ Ak ∈ Fi (k = 1, 2, . . .) ⇒
S∞
k=1 Ak
∈ Fi ⇒
S∞
k=1 Ak
∈
Definition
Sei E ⊆ P(Ω) und F eine σ-Algebra.
σ(E) : =
\
E⊆F
F
heisst die von E erzeugte σ-Algebra. Gilt für eine σ-Algebra B die Beziehung
B = σ(E)
so heißt E Erzeugendensystem von B.
Bemerkung
1. Aus Satz 1.2.4 folgt σ(E) ist eine σ-Algebra. Gleiche Konstruktion ist auch für alle
Algebren möglich.
2. E1 ⊆ E2 ⇒ σ(E1 ) ⊆ σ(E2 )
3. Sei E ⊆ B und B eine σ-Algebra. Dann folgt, σ(E) ⊆ B
Beispiel
σ({∅}) = {∅, Ω}
σ({A}) = {∅, Ω, A, Ac }
(∅ ⊂ A ⊂ Ω)
11
1. Maß- und allgemeine Integrationstheorie
Definition
Sei Ω = M ein metrischer Raum. Wir setzen E = {A ⊆ M : A offen}. Dann heißt σ(E)
die σ-Algebra der Borelmengen aus M , Bn ist die σ-Algebra der Borelmengen in Rn
und B ist die σ-Algebra der Borelmengen in R.
Satz 1.2.5
Jedes der folgenden Mengensysteme von Intervallen ist ein Erzeugendensystem für B
(Es gilt: E1 , . . . , E8 sind abzählbar.):
E1 : = {(α, β)|α, β ∈ R und rational}
E2 : = {[α, β)|α, β ∈ R und rational}
E3 : = {(α, β]|α, β ∈ R und rational}
E4 : = {[α, β]|α, β ∈ R und rational}
E5 : = {(−∞, β)|β ∈ R und rational}
E6 : = {(−∞, β]|β ∈ R und rational}
E7 : = {(α, ∞)|α ∈ R und rational}
E8 : = {[α, ∞)|α ∈ R und rational}
Beweis:
zu E1 Sei E1 ⊆ E = {A ⊆ R|A offen} ⇒ B = σ(E). Nach der Definition gilt E1 ⊆ E ⇒
σ(E1 ) ⊆ σ(E) = B. Damit ist noch zu zeigen, dass B ⊆ σ(E1 ). Sei A ∈ E. Setzen
S
Kr (x) = (x − r, x + r) ⇒ A = Kr (x)⊆A Kr (x)
Kr (x) ∈ E1 ⊆ σ(E1 ) ⇒ A ∈ σ(E1 ) ⇒ E ⊆ σ(E1 ) ⇒ σ(E) = B ⊆ σ(σ(E1 )) =
σ(E1 )
1.3. Maße
Im folgenden gilt immer: Ω 6= ∅ und F ist eine σ-Algebra über Ω.
Definition
• Das Tupel [Ω, F] heißt messbarer Raum.
• Eine nichtnegative Funktion µ : F → [0, +∞] auf F heißt Maß (auf [Ω, F]), wenn
gilt 1. µ(∅) = 0 2. Für paarweise disjunkte Folgen (Ak )∞
k=1 aus F gilt:
µ
∞
[
Ak
k=1
• Das Tripel [Ω, F, µ] heißt Maßraum.
Beispiel
(1) Nullmaß O : O(A) = 0 für A ∈ F
12
!
=
∞
X
k=1
µ(Ak )
1.3. Maße
(
1
0
(2) Dirac-Maß: Sei ω ∈ Ω. Setzen δω (A) =
ω∈A
ω∈
/A
(3) Sei Ω abzählbar und F = P(Ω). Dann ist das Zählmaß µ(A) : = #(A) die Anzahl
der Teilmengen A aus Ω.
Satz 1.3.1
Sei (µi )i∈I eine abzählbare Familie von Maßen auf [Ω, F] und (αi )i∈I eine Familie nichtnegativer reller Zahlen. Durch
µ(A) : =
X
i∈I
αi µi (A) (A ∈ F)
ist ein Maß auf [Ω, F] definiert.‡
Beweis:
Diese Funktion ist nichtnegativ, da alle αi nichtnegativ sind und die µi (A) per Definition
ebenfalls positiv sind. Die Summenbildung ändert nichts.
zu 1) µ(∅) =
P∞
k=1 αi µi (∅)
= 0. Denn µi (∅) = 0.
zu 2) Seien (Ak )∞
k=1 paarweise disjunkt aus F.
µ(
∞
[
Ak ) =
k=1
=
X
αi µi
i∈I
∞
X
∞
[
Ak
k=1
X
αi µi (Ak ) =
k=1 i∈I
|
!
=
X
i∈I
∞
X
αi
∞
X
µi (Ak )
k=1
µ(Ak )
k=1
{z
µ(Ak )
}
Im letzten Schluss musste der große Umordnungssatz angewendet werden.
Beispiel
P
Sei Ω = N und F = P(N). Dann kann man das Maß wie folgt definieren: µ = ∞
k=1 αk δk .
Satz 1.3.2
Sei µ ein Maß auf [Ω, F]. Für alle Folgen A1 , . . . , An ∈ F, die paarweise disjunkt sind,
gilt:
!
µ
n
[
k=1
Ak
=
n
X
µ(Ak )
k=1
Diese Eigenschaft heißt endliche Additivität.
(
Beweis:
Ak
Wir setzen Bk : =
∅
‡
Schreibweise: µ =
P
i∈I
k = 1, . . . , n
. Damit ist folgendes bekannt:
k>n
αi µi
13
1. Maß- und allgemeine Integrationstheorie
1. ∀k ∈ N(Bk ∈ F)
2.
S∞
k=1 Bk
=
Sn
k=1 Ak
3. Ai ∩ Aj = Ai ∩ Bj = ∅ für i 6= j todo: stimmen die Indizes?
4. µ(Ak ) = µ(Bk ) für k = 1, . . . , n
5. µ(Bk ) = 0 für (k > n)
Sn
Damit folgt nun: µ(
Pn
k=1 µ(Ak )
k=1 Ak )
(2)
S∞
= µ(
k=1 Bk )
(1),(3)
=
P∞
k=1 µ(Bk )
(5)
=
Pn
k=1 µ(Bk )
(4)
=
Bemerkung
1. Für n = ∞ im Satz 1.3.2 wird die Additivität als σ-Additivität bezeichnet.
2. Satz 1.3.2 impliziert, dass aus der σ-Additivität die endliche Additivität folgt. Die
Umkehrung ist jedoch falsch.
Sn
3. Subadditivität: Für alle A1 , . . . , An ∈ F gilt: µ(
Beweis wird per Induktion geführt.
k=1 Ak )
≤
Pn
k=1 µ(Ak ).
Der
(
Beispiel
0
A<∞
. Sei weiter
Sei Ω = N, F = P(N) und das Maß ist definiert: µ(A) =
+∞ A = ∞
Pn
Sn
Ak = {2k}. Dann gilt µ( k=1 Ak ) =
k=1 µ(Ak ) = 0. Denn auch die Vereinigung
ist wieder endlich. Wenn wir zur unendlichen Vereinigung übergehen, ändert sich die
Situation. Die Menge, die durch die Vereinigung entsteht, ist die Menge der geraden
P
S
6 0= ∞
Zahlen. Diese ist unendlich als gilt: µ( ∞
k=1 Ak .
k=1 Ak ) = +∞ =
Satz 1.3.3 (elementare Eigenschaften)
Sei [Ω, F, µ] ein Maßraum und A, B ∈ F. Dann gilt:
(a) µ(A ∪ B) ≤ µ(A) + µ(B)
(b) A ⊆ B ⇒ µ(A) ≤ µ(B) (Monotonie des Maßes)
(c) A ⊆ B, µ endlich ⇒ µ(B \ A) = µ(B) − µ(A)
Beweis:
Satz 1.3.2
zu (b) und (c) A ⊆ B ⇒ B = A ∪ (B \ A) ⇒ µ(B) = µ(A ∪ (B \ A))
=
µ(A) +
µ(B \ A) Wir haben µ(B \ A) ≥ 0 ⇒ µ(A) ≤ µ(B) und Teil (b) ist gezeigt.
Durch Umstellen erhält man µ(B \ A) = µ(B) − µ(A). Hierzu muss µ(A) < +∞
sein.
zu (a) Wie oben haben wir: A ∪ B = A ∪ (B \ A) ⇒ µ(A ∪ B) = µ(A ∪ (B \ A)) =
µ(A) + µ(B \ A).
(b)
Es gilt: B \ A ⊆ B ⇒ µ(B \ A) ≤ µ(B) ⇒ µ(A ∪ B) − µ(A) ≤ µ(B) ⇒ µ(A ∪ B) ≤
µ(A) + µ(B)
14
1.4. Produkte von Maßräumen
Satz 1.3.4
Seien µ ein endliches Maß (µ(Ω) < +∞) und (An )∞
n=1 eine Folge aus F. Dann gelten:
(a) (Stetigkeit von unten): Ist (An )∞
n=1 monoton wachsend, so gilt:
µ
∞
[
An
n=1
!
= lim µ(An )
n→∞
(b) (Stetigkeit von oben): Ist (An )∞
n=1 monoton fallend, so gilt:
µ
∞
\
n=1
An
!
= lim µ(An )
n→∞
Beweis:
zu a) Für den Beweis ist die Forderung µ < ∞ nicht notwendig. Setzen B1 : = A1 , Bn+1 =
An+1 \ An . Damit gelten folgende Tatsachen:
1. Alle Bk sind paarweise disjunkt.
2. Bk ∈ F
3.
4.
S∞
k=1 Ak
S∞
k=1 Bk
=
S∞
k=1 Bk
= An
3
S
S
1,2
∞
Somit folgt: µ( ∞
k=1 Ak ) = µ( k=1 Bk ) =
Sn
4.
limn→∞ µ( k=1 Bk ) = limn→∞ µ(An )
P∞
k=1 µ(Bk )
= limn→∞
Pn
k=1 µ(Bk )
1
=
zu b) An ⊇ An+1 ⇒ Acn ⊆ Acn+1 , d. h. die Folge der Komplemente ist monoton wachsend.
S
c
c
Nach (a) gilt nun: µ( ∞
n=1 An ) = limn→∞ µ(An )
S
T
T
Satz 1.3.3 c
T
∞
∞
c
c
=
µ(Ω) − µ( An )
µ( ∞
n=1 An ) = µ(( n=1 An ) ) = µ(Ω \ ( n=1 An ))
µ(Acn ) = µ(Ω \ An ) = µ(Ω) − µ(An ) ⇒ limn→∞ µ(An ).
In der Literatur werden z. T. schwächere Forderungen angesetzt.
1.4. Produkte von Maßräumen
Im folgenden gilt immer: [Ω1 , F1 , µ1 ], . . . , [Ωn , Fn , µn ] eine Folge von Maßräumen. Wir betrachten direkte Produkte von Mengen: ×ni=1 Ai : = {[w1 , . . . , wn ]|wi ∈ Ai (i = 1, . . . , n)}.
Das Ziel ist es, einen Maßraum mit der Grundmenge Ω = ×ni=1 Ωi zu bauen.
Definition
• Die Menge
⊗ni=1 Fi : = σ({×ni=1 Ai |Ai ∈ Fi (i = 1, . . . , n)})
heißt Produkt der σ-Algebren F1 , . . . , Fn .
15
1. Maß- und allgemeine Integrationstheorie
• Die Menge
×ni=1 [Ωi , Fi ] : = [×ni=1 Ωi , ⊗ni=1 Fi ]
heißt Produkt der messbaren Räume [Ω1 , F1 , . . . , Ωn , Fn ].
Bemerkung
1. Das Produkt der σ-Algebren ⊗Fi ist eine σ-Algebra auf ×ni=1 Ωi .
2. Für n = 2 nutzen wir die Schreibweise Ω1 × Ω2 , F1 ⊗ F2 .
Beispiel
1. Fi = {∅, Ωi } ⇒ ⊗ni=1 Fi = {∅, ×ni=1 Ωi }
2. Sei Ω1 bis Ωn abzählbar: Fi = P(Ωi ) ⇒ ⊗ni=1 Fi = P(×ni=1 Ωi ). Denn wegen
der Abzählbarkeit der Ωi gilt, dass auch ×ni=1 Ωi abzählbar sind. Diese sind eine
S
Obermenge von A = ω∈A {ω} und die Vereinigung ist wieder abzählbar. Nun
genügt es zu zeigen, dass {[ω1 , . . . , ωn ]} ∈ ⊗ni=1 Fi für ωi ∈ Ωi , i = 1, . . . , n. Der
|
{z
×n
i=1 {ωi }
Rest ist klar, denn {ωi } ∈ Fi = P(Ωi )
}
3. Lässt man oben den Zusatz „abzählbar“ weg, gibt es Probleme.
Definition
Ein Maß µ auf ×ni=1 [Ωi , Fi ] heißt Produkt der Maße µ1 , . . . , µn § , wenn gilt
µ(×ni=1 Ai ) =
n
Y
µi (Ai )
i=1
Satz 1.4.1
Für endliche Maße µ1 , . . . , µn existiert das Produktmaß und ist eindeutig bestimmt.
Bemerkung
1. Die Forderung, dass die µ1 , . . . , µn endlich sein sollen, kann man abschwächen
(siehe hierzu auch Lebesguesches Maß).
2. Der Fall n = +∞ ist für Wahrscheinlichkeitsmaße interessant.
Definition
Sei Bn die σ-Algebra der Borelmengen auf Rn . Ein Maß ℓn auf [Rn , Bn ] heißt n-dimensionales
Lebesguesches Maß, wenn gilt:
ℓn (×ni=1 [ai , bi )) =
n
Y
(bi − ai ) (ai < bi , i = 1, . . . , n)
i=1
Satz 1.4.2
Das Lebeguesche Maß ℓn existiert und ist eindeutig bestimmt. Weiterhin gilt:
§
16
µ = ×n
i=1 µi
[Rn , Bn , ℓn ] = ×ni=1 [R, B, ℓ] = [R, B, ℓ]nx = [Rn , Bn , ℓnx ]
1.4. Produkte von Maßräumen
Bemerkung
Die Bemerkungen sind gleichzeitig Beweisideen für den oben angegebenen Satz.
• Bn = ⊗ni=1 B = Bn⊗ . Weiterhin ist klar, dass R ⊇ A1 , . . . , An offen. Damit ist
auch ×ni=1 Ai offen.
• Wir haben ℓn (×ni=1 Ai ) = ℓn⊗ (×ni=1 Ai ) für Mengen Ai = [ai , bi ). Ferner wissen wir,
dass diese Mengen B erzeugen (siehe auch Satz 1.2.5). Die allgemeine Theorie führt
zur Behauptung des oben stehenden Satzes.
Satz 1.4.3
Sei x ∈ R. Dann gilt: ℓ({x}) = 0.
Beweis:
Wir haben ℓ([a, b)) = b − a mit a < b. Nun betrachten wir die Mengenfolge Bk : =
T
[x, x + n1 ) ⇒ Bk ⊇ Bk+1 ⇒ ∞
k=1 Bk = {x}. Wegen der Stetigkeit von oben (siehe
T
1
Satz 1.3.4) folgt nun: ℓ({x}) = ℓ( ∞
k=1 Bk ) = limk→∞ ℓ(Bk ) = limk→∞ ℓ([x, x + )) =
|
{z k }
limk→∞
1
k
1
k
=0
Satz 1.4.4 (Folgerung aus Satz 1.4.3)
Seien a < b ⇒ ℓ([a, b]) = ℓ((a, b)) = ℓ((a, b]) = ℓ([a, b)) = b − a
Beweis:
• Es gilt [a, b] = [a, b)∪{b}. Der Durchschnitt beider Mengen ist leer ([a, b)∩{b} = ∅).
Damit folgt: ℓ([a, b]) = ℓ([a, b) ∪ {b}) = ℓ([a + b)) + ℓ({b}) = b − a + 0
• (a, b] = [a, b] \ {a}
Es ist klar, dass {a} in [a, b] liegt. Damit folgt nach Punkt c von Satz 1.3.3:
ℓ((a, b]) = ℓ([a, b]) − ℓ({a}) = (b − a) − 0 = b − a
• (a − b) = (a, b] \ {b}
Wie schon oben ist klar, dass {b} in (a, b] liegt. Nach gleichem Schluss folgt auch
hier: ℓ((a, b)) = ℓ((a, b]) − ℓ({b}) = (b − a) − 0 = b − a
Satz 1.4.5
Für alle abzählbaren A ⊆ Rn gilt:
ℓ(n) (A) = 0
Beweis:
S
S
A = x∈A {x} = [x1 ,...,xn ]∈A {[x1 , . . . , xn ]}
P
Da A abzählbar ist, folgt ℓ(n) (A) = x∈A ℓ(n) {x}. Nunmehr ist noch zu zeigen, dass
Q
ℓ(n) ({[x1 , . . . , xn ]}) = 0. Dies ist gleich: ℓ(n) ×ni=1 {xi } = ni=1 ℓ({xi }) = 0.
17
1. Maß- und allgemeine Integrationstheorie
1.5. Wahrscheinlichkeitsmaße und Verteilungsfunktion
Definition
Ein Maß P auf einem meßbaren Raum [Ω, F] heißt Wahrscheinlichkeitsmaß, wenn
gilt:
P (Ω) = 1
In diesem Fall heißt [Ω, F, P ] Wahrscheinlichkeitsraum.
Satz 1.5.1
Sei P ein Wahrscheinlichkeitsmaß auf [Ω, F]. Dann gelten:
(a) 0 ≤ P (B) ≤ 1 (B ∈ F)
(b) P (B c ) = 1 − P (B)
(B ∈ F)
Beweis:
(a) klar, da P (∅) ≤ P (B) ≤ P (Ω) ⇒ 0 ≤ P (B) ≤ 1
(b) B c = Ω \ B, B ⊆ Ω ⇒ P (B c ) = P (Ω) − P (B) ⇒ P (B c ) = 1 − P (B)
Definition
Sei P ein Wahrscheinlichkeitsmaß auf [Rn , Bn ] mit n ≥ 1. Eine Abbildung F : Rn → R
heißt Verteilungsfunktion von (zu) P , wenn gilt:
F (x1 , . . . , xn ) = P (×ni=1 (−∞, xi ))
(x1 , . . . , xn ∈ R)
Satz 1.5.2
Ein Wahrscheinlichkeitsmaß P ist durch seine Verteilungsfunktion F eindeutig bestimmt.
Dabei sind die P und F wie oben definiert.
Beweis:
Beweisidee: Wenn man ein durchschnittsabgeschlossenes Erzeugendensystem hat und
darauf ein Wahrscheinlichkeitsmaß kennt, kennt man es auf der gesamten σ-Algebra. Satz 1.5.3
Eine Verteilungsfunktion F eines Wahrscheinlichkeitsmaßes P auf [R, B] hat folgende
Eigenschaften:
(F1) F (x) ≤ F (y)
∀(x ≤ y) (monoton nicht fallend bzw. wachsend)
(F2) limn→∞ F (xn ) = F (x) mit x ∈ R, xn ↑ x (linksseitig stetig)
(F3) limx→+∞ F (x) = 1
(F4) limx→−∞ F (x) = 0
Beweis:
(F1) Sei F (x) : = P ((−∞, x)) mit x ∈ R. Dann gilt (−∞, x) ⊆ (−∞, y), da x ≤ y.
Nach Satz 1.3.3 Punkt b hat man F (x) ≤ F (y) ⇒ P ((−∞, x)) ≤ P ((−∞, y)) ⇒
F (x) ≤ F (y)
18
1.5. Wahrscheinlichkeitsmaße und Verteilungsfunktion
(F2) Seien x ∈ R und xn ≤ xn+1 , lim xn = x. Damit folgt: (−∞, xn ) ⊆ (−∞, xn+1 )
S
x ). Unter Zuhilfenahme von Satz 1.3.4 a erhält man
und (−∞, x) = ∞
n=1 (−∞,
S n
F (x) = P ((−∞, x)) = P ( ∞
n=1 (−∞, xn )) = limn→∞ P ((−∞, xn )) = lim F (xn ).
(F3) Sei xn ↑ +∞¶ . Damit gilt wieder die schon oben angeführte Teilmengenbeziehung
S
Wie bereits oben erhält man nun durch den
und es folgt: ∞
n=1 (−∞, xn ) = R.
S
Satz 1.3.4 a, dass 1 = P (R) = P ( ∞
n=1 (−∞, xn )) = lim P ((−∞, xn ))
(F4) Sei nun xn ↓ −∞ ⇒ (−∞, xn ) ⊇ (−∞, xn+1 ) ⇒
nun P (∅) = 0 = lim F (xn )
T
n∈N (−∞, xn )
= ∅. Damit ist
Satz 1.5.4
Sei F : R → R mit den Eigenschaften (F1) bis (F4). Dann existiert genau ein Wahrscheinlichkeitsmaß P auf [Rn , Bn ] mit F (x) = P ((−∞, x)). Dies bedeutet, dass F die
Verteilungsfunktion von P ist.
Bemerkung
1. Sei F die Verteilungsfunktion zu einem Wahrscheinlichkeitsmaß P auf [Rn , Bn ].
Dann gelten folgende Eigenschaften:
(F̂1) F (x1 , . . . , xn ) ≤ F (y1 , . . . , yn ) für (xk ≤ yk , k = 1, . . . , n)
(m)
(m)
(m)
↑ xk ⇒ limm→∞ F (x1 , . . . , xn ) = F (x1 , . . . , xm )
(m)
↑ +∞ ⇒ limm→∞ F (x1 , . . . , xn ) = 1
(m)
↑ −∞ ⇒ limm→−∞ F (x1 , . . . , xn ) = 0
(F̂2) xk
(F̂3) xk
(F̂4) xk
(m)
(m)
(m)
(m)
2. Sei nun F : Rn → [0, 1] mit den Eigenschaften (F̂1) bis (F̂4). Dann muss nicht notwendigerweise ein Wahrscheinlichkeitsmaß P auf [Rn , Bn ] mit der Verteilungsfunktion P existieren. Somit kann der obenstehende Satz nicht auf Rn verallgemeinert
werden.
(
Beispiel
1 − e−λx x > 0
. Die Eigenschaften (F1) bis (F4)
Sei λ > 0. Wir setzen Fλ (x) : =
0
x≤0
gelten hier und sind trivial nachzuweisen. Das Wahrscheinlichkeitsmaß Exλ mit der Verteilungsfunktion Fλ heißt Exponentialverteilung mit dem Parameter λ.
Beweis:
Für die Eigenschaft (F1) nehmen wir o. B. d. A. an, dass x ≤ y gilt. Dann können wir
folgende Fälle unterscheiden:
1. Fall y ≤ 0 ⇒ Fλ (x) = Fλ (y)
2. Fall y > 0, x ≤ 0 ⇒ Fλ (x) = 0, Fλ (y) = 1 − e−λy ≥ 0 ⇒ Fλ (x) ≤ Fλ (y)
3. Fall 0 < x ≤ y ⇒ eλx ≤ eλy ⇒ e−λx ≥ e−λy ⇒ 1 − e−λx ≤ 1 − e−λy ⇒ Fλ (x) ≤ Fλ (y).
¶
n→∞
d. h. xn ≤ xn+1 , xn −−−−→ +∞ ⇒ (−∞, xn ) ≤ (−∞, xn+1 )
19
1. Maß- und allgemeine Integrationstheorie
x→+∞
Die Eigenschaften (F2) und (F4) sind sofort klar. Zu (F3) ist eλx −−−−→ +∞ ⇒
x→+∞
x→+∞
e−λx −−−−→ 0 ⇒ 1 − e−λx −−−−→ 1. Somit gelten alle vier Bedingungen.
Beispiel
Sei A ∈ Bn mit 0 < ℓ(n) (A) ≤ +∞. Wir setzen:
GlA (B) : =
ℓ(n) (A ∩ B)
ℓ(n) (A)
(B ∈ Bn )
Dann heißt GlA die Gleichverteilung zu A. Es gilt natürlich, dass GlA ein Wahrscheinlichkeitsmaß ist.
Für den Spezialfall A = [0, 1] mit GlA (B) = ℓ([0, 1] ∩ B) ist als Übungsaufgabe zu
betrachten.
Bemerkung
Die Gleichverteilung ist ein Wahrscheinlichkeitsmaß auf [Rn , Bn ]. Denn es gilt für (Ak )∞
k=1
paarweise disjunkte Mengen aus B:
GlA (∅) =
GlA (Rn ) =
GlA
[
k
BK
!
ℓ(n) (A ∩ ∅)
=0
ℓ(n) (A)
ℓ(n) (A ∩ R)
ℓ(n) (A)
=
=1
ℓ(n) (A)
ℓ(n) (A)
S
S
ℓ(n) ( (Bk ∩ A))
ℓ(n) (( Bk ) ∩ A)
=
=
=
ℓ(n) (A)
ℓ(n) (A)
X
=
P
k
ℓ(n) (Bk ∩ A)
ℓ(n) (A)
GlA (Bk )
k
Satz 1.5.5
Sei P ein Wahrscheinlichkeitsmaß auf [R, B] für k = 1, . . . , n mit der Verteilungsfunktion
Fk und P = ×nk=1 Pk . Dann ist P ein Wahrscheinlichkeitsmaß auf [Rn , Bn ] und die
Verteilungsfunktion F zu P hat die Gestalt:
F (x1 , . . . , xn ) =
n
Y
Fk (xk )
k=1
(x1 , . . . , xn ∈ R)
Die Folge wird auch Tensorprodukt genannt.
Beweis:
Wir müssen zeigen, dass P ein Wahrscheinlichkeitsmaß ist. Dazu wissen wir, dass P ein
Maß ist. Daher müssen wir noch zeigen, dass P (Rn ) = 1. Es gilt, P (Rn ) = P (×nk=1 Rn ) =
Q
(×nk=1 Pk )(Rnx ) = nk=1 Pk (R) = 1.
| {z }
=1
Nun ist noch zu zeigen, dass F eine Verteilungsfunktion zu P ist, d. h. F (x1 , . . . , xn ) =
Q
Q
P (×nk=1 (−∞, xk )) = ×nk=1 Pk (×nk=1 (−∞, xk )) = nk=1 Pk ((−∞, xk )) = nk=1 Fk (xk ). 20
1.5. Wahrscheinlichkeitsmaße und Verteilungsfunktion
Satz 1.5.6
Sei F eine Verteilungsfunktion eines Wahrscheinlichkeitsmaßes P auf [R, B]. Dann gelten:
(1) P ([a, b)) = F (b) − F (a) für (a < b)
(2) P ({a}) = F (a + 0) −F (a)
|
{z
}
limxn ↓a F (a)
Beweis:
zu (1) Die Frage ist zunächst, wie sich das Intervall durch Halbstrahlen darstellen lässt.
Wir wissen, (−∞, b) \ (−∞, a) = [a, b) und (−∞, a) ⊆ (−∞, b). Nach Satz 1.3.3 c
ist P ([a, b)) = P ((−∞, b)) \ (−∞, a)) = P ((−∞, b)) − P ((−∞, a)) = F (b) − F (a)
T
1
). Wegen Satz 1.3.4
zu (2) Es gilt, {a} = n≥1 [a, a + n1 ) und [a, a + n1 ) ⊇ [a, a + n+1
T
Punkt b ist P ({a}) = P ( n≥1 [a, a + n1 )) = lim P ([a, a + n1 )) = limn→∞ F (a +
1
n ) − F (a) = F (a + 0) − F (a).
Satz 1.5.7
Seien I abzählbar, Pi ein Wahrscheinlichkeitsmaß auf [R, B], αi ≥ 0 mit i ∈ I und
P
P = i∈I αi Pi . Dann ist P genau dann ein Wahrscheinlichkeitsmaß, wenn gilt
X
αi = 1
i∈I
In diesem Fall gilt für die Verteilungsfunktion F von P
F (x) =
X
αi Fi (x)
i∈I
(x ∈ R)
wobei Fi die Verteilungsfunktion zu Pi ist.
Beweis:
Es ist klar, dass P ein Maß auf [R, B] ist (Folgerung aus Satz 1.3.1). Nun verbleibt
P
zu zeigen, dass P (R) = 1. Dies ist genau dann der Fall, wenn gilt
αi = 1: P (R) =
P
P
P
α
=
1.
Nach
der
Definition
gilt
F
(x)
=
P
((−∞,
x))
= i∈I αi Pi ((−∞, x)) =
α
P
(R)
=
i∈I i
Pi∈ i i
i∈I αi Fi (x).
Beispiel
Dies sind im wesentlichen Anwendungen zum oben genannten Satz:
• Für jedes y ∈ R ist δy ein Wahrscheinlichkeitsmaß auf [R, B].
• Binomialverteilung: Gegeben ist 0 ≤ p ≤ 1, n ∈ N. Hierzu bilden wir
Bn,p : =
n
X
n
i=0
i
!
pi (1 − p)n−i δi
Aus dem oben angeführten Satz folgt, dass die Binomialverteilung ein Wahrscheinlichkeitsmaß auf [R, B] ist.‖
‖
(a + b)n =
Pn
i=0
n
i
ai bn−i ; a = p, b = 1 − p ⇒ (a + b)n = 1
21
1. Maß- und allgemeine Integrationstheorie
• Poissonverteilung Gegeben ist λ > 0. Wir definieren:
πλ :=
∞
X
λi
i=0
i!
Wieder aus dem obigen Satz folgt und aus
das ein Wahrscheinlichkeitsmaß ist.
e−λ δi
λi
i=0 i!
P∞
= eλ ⇒ eλ e−λ = 1 folgt, dass
• geometrische Verteilung: Gegeben ist 0 < q < 1.
Gq : =
∞
X
i=1
q i−1 (1 − q)δi
Auch dies ist ein Wahrscheinlichkeitsmaß, da lim
22
P
q i−1 =
1
1−q .
2. Integrationstheorie
Hier soll ein allgemeiner Integralbegriff eingeführt werden. Wir brauchen das später für
das Rechnen mit dem Erwartungswert.
P
n
1/n
Man stelle sich vor, jemand führt n Würfe mit einem Würfel aus und berechnet
i=1 xi .
R
Für unendlich viele Würfe konvergiert das gegen den Erwartungswert Eξ = ξ(ω)P (dω).
Es wird zwei wichtige Spezialfälle geben:
1.
2.
P
k
kαk
R∞
−∞ f (x) dx
2.1. Messbare Funktionen (Abbildungen)
Im folgenden gilt immer, dass [Ω, F, µ] ein Maßraum und [X, X] ein messbarer Raum
ist. Wir betrachten f : Ω → X und definieren das Urbild einer Menge: f −1 (A) : =
{ω ∈ Ω|f (ω) ∈ A} mit A ⊆ X. Dies ist nicht zu verwechseln mit inversen Abbildungen.∗
Satz 2.1.1 (Elementare Eigenschaften des Urbilds)
Es gelten
a) f −1 (∅) = ∅, f −1 (X) = Ω
b) f −1 (Ac ) = (f −1 (A))c (∀A ⊆ X), dabei ist f −1 (Ac ) das Komplement in X und
(f −1 (A))c das Komplement in Ω.
S
c) f −1 (
i∈I
T
Ai ) =
S
i∈I
T
f −1 (Ai ) (Ai ⊆ X, i ∈ I)
d) f −1 ( i∈I Ai ) = i∈I f −1 (Ai ) (Für beide Fälle gilt, dass die (Ai )i∈I Folgen von Teilmengen aus X sind.)
Beweis:
zu a) f (ω) ∈ ∅ für jedes ω ∈ Ω ⇒ f −1 (∅) = ∅
f (ω) ∈ X ist richtig ∀ω ∈ Ω ⇒ f −1 (X) = Ω
zu b) ω ∈ f −1 (Ac ) ⇔ f (ω) ∈ Ac ⇔ ¬f (ω) ∈ A ⇔ ¬ω ∈ f −1 (A) ⇔ ω ∈
/ f −1 (A) ⇔ ω ∈
(f −1 (A))c ⇒ f −1 (Ac ) = (f −1 (A))c
∗
Falls es eine inverse Abbildung gibt, gilt f −1 (A) = {f −1 (x)|x ∈ A}
23
2. Integrationstheorie
zu c) selbst in Übung
zu d) selbst in Übung
Definition
Sei f : Ω → X. Die Abbildung f heißt (F, X)-messbar, wenn gilt:
f −1 (A) ∈ F
(A ∈ X)†
In diesem Fall heißt das Maß µ ◦ f −1 , definiert durch µ ◦ f −1 (A) = µ(f −1 (A)) für alle
A ∈ X, Bildmaß von µ bezüglich f .
Bemerkung
1.) Die Definition von µ ◦ f −1 (A) ist sinnvoll, weil f −1 (A) ∈ F für alle A ∈ X.
2.) Es existiert eine formale Ähnlichkeit zwischen der Definition der Stetigkeit und der
der Messbarkeit.
3.) Im Fall das Ω, X metrische Räume sind und F, X der σ-Algebra der Borelmengen
entsprechen, folgt aus der Stetigkeit von f , dass f auch messbar ist. Um das zu zeigen,
wähle man E = {A ⊆ X : A offen}. Nach der Definition ist X = σ(E) ⇒ f −1 (A) ∈ F
für ein A ∈ E. Somit ist klar, dass, wenn f stetig ist, folgt, dass f −1 (A) offen ist und
damit ist f −1 (A) ∈ F. (siehe auch den unten stehenden Satz)
4.) Sei f −1 : P(X) → P(Ω) mit µ : F ⊂ P(Ω) → [0, +∞]
Die Definition von µ ◦ f −1 ist nur möglich, wenn f als (F, X)-messbar vorausgesetzt
wird.
5.) Ist µ ◦ f −1 ein Maß auf [X, X]. Hierzu ist klar, dass µ ◦ f −1 : X → [0, +∞]. Es ist
µ ◦ f −1 (∅) = µ(f −1 (∅)) = µ(∅) = 0. Im folgenden ist die zweite Maßeigenschaft zu
Ai ∩ Aj = ∅, i 6= j ⇒ f −1 (Ai ) ∩ f −1 (Aj ) = f −1 (∅) =
prüfen. Sei dazu (Ai )∞
i=1 ⊆ X,
S
S
S
P
P
∅ ⇒ µ ◦ f −1 ( Ai ) = µ(f −1 ( Ai )) = µ( f −1 (Ai )) = µ(f −1 (Ai )) = µ ◦ f −1 (Ai )
Satz 2.1.2
Sei f : Ω → X. f ist (F, X)-messbar, wenn für ein E ⊆ P(X) mit σ(E) = X gilt:
f −1 (A) ∈ F
(A ∈ E)
Beispiel
1. Die „Konstanten“ sind messbar, d. h. wir haben f : Ω → X mit f (ω) = c. Dann ist
(
∅ c∈
/A
. Da nun die leere Menge und auch Ω Element von F sind,
Ω c∈A
gilt f −1 (A) ∈ F. Damit ist die Funktion immer (F, X)-messbar.
f −1 (A) =
2. Sei F = {∅, Ω} und [X, X] = [R, B]. Zu zeigen ist, ob f (R, B)-messbar ist. Dies
ist genau dann der Fall, wenn ein c ∈ R mit f (ω) = c existiert . . .
†
24
Schreibweise: f : [Ω, F] → [X, X]
2.1. Messbare Funktionen (Abbildungen)
3. Sei F = P(Ω). Dann ist jede Abbildung f : Ω → X messbar. F = P(Ω) ⇒
f −1 (A) ∈ F (A ⊆ X). Für beliebige X ist f (P(Ω), X)-messbar.
Satz 2.1.3
Seien f1 : [Ω1 , F1 ] → [Ω2 , F2 ] und f2 : [Ω2 , F2 ] → [Ω3 , F3 ]. Dann gilt f2 ◦ f1 : [Ω1 , F1 ] →
[Ω3 , F3 ]. Die Hintereinanderausführung messbarer Funktionen ist wieder messbar.
Beweis:
Im ersten Schritt zeigen wir: (f2 ◦f1 )−1 (A) = f1−1 (f2−1 (A)). Sei dazu ω ∈ (f2 ◦f1 )−1 (A) ⇔
(f2 ◦ f1 )(ω) ∈ A ⇔ f2 (f1 (ω)) ∈ A ⇔ f1 (ω) ∈ f2−1 (A) ⇔ ω ∈ f1−1 (f2−1 (A)). Dieses
Ergebnis verwenden wir nun für den weiteren Beweis.
Sei A ∈ F3 . Es ist nun zu zeigen, dass (f2 ◦ f1 )−1 (A) ∈ F1 . Dazu stellen wir fest,
dass (f2 ◦ f1 )−1 (A) = f1−1 (f2−1 (A)). Da aber f2 messbar ist, folgt f2−1 (A) ∈ F2 ⇒
f1−1 (f2−1 (A)) ∈ F1 . Das ist aber nichts anderes als (f2 ◦ f1 )−1 (A) ∈ F1 .
Für die folgenden Aussagen gilt immer [X, X] = [R, B] und wir bezeichnen (F, B)messbar als messbar.
Satz 2.1.4
Die Abbildung f : Ω → R ist genau dann messbar, wenn eine der folgenden Aussagen
richtig ist (x, x1 , x2 sind dabei immer rational):
(1) {ω ∈ Ω|f (ω) < x} ∈ F
(2) {ω ∈ Ω|f (ω) ≤ x} ∈ F
(3) {ω ∈ Ω|f (ω) > x} ∈ F
(4) {ω ∈ Ω|f (ω) ≥ x} ∈ F
(5) {ω ∈ Ω|x1 ≤ f (ω) < x2 } ∈ F
(6) {ω ∈ Ω|x1 < f (ω) < x2 } ∈ F
(7) {ω ∈ Ω|x1 ≤ f (ω) ≤ x2 } ∈ F
(8) {ω ∈ Ω|x1 < f (ω) < x2 } ∈ F
Beweis:
Die ist eine Beweisidee für (1). Die weiteren Beweise sind analog zu führen: Nach dem
Satz 1.2.5 wissen wir, dass die Menge {(−∞, x)|x ∈ Q} ein durchschnittsabgeschlossenes
Erzeugendensystem für B ist. Wenn E ein solches System mit f −1 (B) ∈ F ist, dann ist
f messbar. Es gilt: {ω ∈ Ω|f (ω) < x} = f −1 ((−∞, x)). Aus der Kombination beider
Aussagen folgt der Satz.
Satz 2.1.5
Seien f, g : [Ω, F] → [R, B] messbare Funktionen. Dann sind die Funktionen f + g und
f g ebenfalls messbare Funktionen.
25
2. Integrationstheorie
Beweis:
Seien f, g : Ω → R2 . Diese Funktionen werden wie folgt umgewandelt: h : = [f, g] : Ω →
R2 , [f, g](ω) = [f (ω), g(ω)]. Ist nun h messbar?
h−1 (A × B) = {ω ∈ Ω|[f (ω), g(ω)] ∈ A × B}
⇒ f (ω) ∈ A ∧ g(ω) ∈ B
= {ω ∈ Ω|f (ω) ∈ A} ∩ {ω ∈ Ω|g(ω) ∈ B}
= f −1 (A) ∩ g−1 (B)
Damit ist gezeigt, dass f, g messbar sind und es gilt, dass f −1 (A) ∈ F ∧ g−1 (B) ∈ F.
Wegen der Abgeschlossenheit gegenüber Durchschnitten ((f −1 (A) ∩ g−1 (B)) ∈ F) gilt
für alle A, B ∈ B: h−1 (A× B) ∈ F. Und es folgt weiter σ({A× B|A ∈ B, B ∈ B}) = B2 .
Damit ist h messbar.
Wir setzen nun a(x1 , x2 ) = x1 + x2 , b(x1 , x2 ) = x1 x2 , a, b : R2 → R, stetig. Also ist
f + g = a ◦ h und f g = b ◦ h. Da a, b stetig sind, sind sie auch messbar und nach
Satz 2.1.3 ist die Verknüpfung beider Abbildungen wieder messbar.
Satz 2.1.6
Sei (fi )i∈I : [Ω, F] → [R, B] eine abzählbare Familie messbarer Funktionen, so dass die
Mengen {ω ∈ Ω| sup fi (ω) < +∞} = Ω bzw. {ω ∈ Ω| inf fi (ω) < −∞} = Ω sind. Dann
ist sup fi bzw. inf fi messbar.‡
Beweis:
1. Fall Sei f : = sup fi . Dann ist f eine Abbildung von Ω nach R. Wegen des Satz 2.1.4
genügt es zu zeigen, dass {ω ∈ Ω|f (ω) ≤ x} ∈ F. Dazu f (ω) ≤ x ⇔ fi (ω) ≤ x ⇒
T
{ω ∈ Ω|f (ω) ≤ x} = i∈I {ω ∈ Ω|fi (ω) ≤ x}. Damit folgt, dass fi messbar ist.
|
{z
fi−1 ((−∞,x))∈F
}
Nach Satz 1.2.3 ist es gegenüber Vereinigung abgeschlossen und es folgt somit:
T
{ω ∈ Ω : f (x) ≤ x} = i∈I fi−1 ((−∞, x)) ∈ F
2. Fall Sei f : = inf f1 ⇒ f : Ω → R. Wegen Satz 2.1.4 (4) genügt es zu zeigen, dass
T
(ω) ≥ x} ∈ F. Dazu f (ω) ≥ x ⇔ fi (ω) ≥ x(i ∈
i∈I {ω|fi (ω) ≥ x} = {ω ∈ Ω|f
S
S
I) ⇒ {ω ∈ Ω|f (ω) ≥ x} = i∈I {ω ∈ Ω|fi (ω) ≥ x} = i∈I {fi−1 ([x, +∞)) ∈
B} ⇒ {ω ∈ Ω| inf i fi (ω) ≥ x} ∈ B für x ∈ R. Dann folgt nach Satz 2.1.4 Punkt
4, dass inf i fi messbar ist.
Satz 2.1.7
Sei f eine messbare Funktion (f : [Ω, F] → [R, B]). Dann gelten:
(1) af + b ist messbar. (a, b ∈ R)
(2) f + : = max(f, 0) ist messbar und der positive Ast der Funktion.
(3) f − : = min(f, 0) ist messbar und der negative Ast der Funktion.
‡
26
Erläuterung: (sup fi )(ω) : = sup fi (ω) mit ω ∈ Ω
2.1. Messbare Funktionen (Abbildungen)
(4) |f | ist messbar.
Beweis:
zu (1) Wir wissen, dass „konstante“ Funktionen immer messbar sind. Damit wie auch
nach Satz 2.1.5 gilt die Behauptung.
zu (2) Wir setzen f1 = f, f2 = 0. Dann folgt, dass f + = max(f1 , f2 ). Beide Funktionen
sind messbar und wegen des obigen Satzes ist auch sup fi = f + messbar.
zu (3) Beweis erfolgt analog zu (2).
zu (4) |f | = f + − f − = f + + (−1)f − ⇒ messbar.
Satz 2.1.8
Sei (fn )∞
n=1 eine Folge messbarer Funktionen und lim sup fn oder lim inf fn existieren als
reelle Funktionen. Dann sind diese messbar. Falls lim fn existiert, so ist auch er messbar.
Beweis:
selbst
Satz 2.1.9
Sei A ⊆ Ω. Die Indikatorfunktion χA (ω) =
A ∈ F.
Beweis:
Es ist χ−1
A (B) zu prüfen:
χ−1
A (B) =


∅




A

Ac




Ω
(
1
0
ω∈A
ist genau dann messbar, wenn
ω∈
/A
0, 1 ∈
/B
1∈B∧0∈
/B
1∈
/ B∧0∈B
1∈B∧0∈B
Für die Gleichheit müssen wir beide Richtungen zeigen: Sei χA messbar. Dann ist {1} ∈
B ⇒ χ−1
A ({1}) = A ∈ F.
Sei A ∈ F. Dann ist zu zeigen, dass χA messbar ist, d. h. χ−1
A (B) ∈ F für B ∈ B. Es
c } und somit genügt es zu zeigen, dass {∅, Ω, A, Ac } ⊆ F
folgt, dass χ−1
(B)
∈
{∅,
Ω,
A,
A
A
ist. Wir wissen, dass ∅, Ω ∈ F sind. Weiterhin ist nach Voraussetzung A ∈ F ⇒ Ac ∈ F
und es folgt die Behauptung.
Beispiel
Ω = R, A = {x ∈ R|x rational} ⇒ A abzählbar. Da alle abzählbaren Mengen in der
Borelmenge liegen.
Definition
Sei f : Ω → R. Die Funktion f heißt einfach, wenn existieren: n ≥ 1, a1 , . . . , an ∈
R, A1 , . . . , An ∈ F mit
f=
n
X
ai χAi
i=1
27
2. Integrationstheorie
Bemerkung
1. Das Wort „einfach“ bezieht sich auf die gegebenen σ-Algebren F und B.
2. Einfache Funktionen sind messbar. Denn nach dem vorhergehenden Satz folgt, dass
χAi messbar sind und die Linearkombinationen messbarer Funktionen sind wieder
messbar. (Zum Beweis siehe Satz 2.1.5 und Satz 2.1.9).
Satz 2.1.10
Sei f : Ω → R. Dann gelten
(1) Wenn f einfach ist, dann existieren n ≥ 1, b1 , . . . , bn ∈ R, B1 , . . . , Bn ∈ F mit
P
S
bi 6= bj (i 6= j), Bi ∩ Bj = ∅, ni=1 Bi = Ω § , f = ni=1 bi χBi . Diese Darstellung von f
ist bis auf Permutation des Indexbereichs eindeutig bestimmt.
(2) f ist genau dann einfach, wenn f messbar ist und die Anzahl des Wertebereichs
endlich ist.
¶
Beweis:
zu (1) Der Beweis hierzu ist im untenstehenden Beweis enthalten.
zu (2) „⇒“ Wegen der Bemerkung und der Definition folgt aus einfach auch die Messbarkeit. Auch die zweite Bedingung geht sofort aus der Definition hervor.
„⇐“ Setzen {b1 , . . . , bn } = {f (ω)|ω ∈ Ω}. Die bi sind paarweise verschieden.
Weiter setzen wir Bi = f −1 ({bi }) für i = 1, . . . , n. Es gilt, dass alle Bi
paarweise disjunkt sind und das deren Vereinigung Ω ergibt. Damit folgt
{bi } ∈ B. Wegen der Messbarkeit gilt weiter Bi = f −1 ({bi }) ∈ F. Es ist
P
trivial, dass Bi ∩ Bj = ∅ und klar, dass f = ni=1 bi χBi . Daraus folgt, dass
f einfach ist.
Satz 2.1.11
Sei f messbar und nichtnegativ‖ . Dann existiert eine Folge nichtnegativer einfacher Abbildungen (fn )∞
n=1 mit fn ≤ fn+1 (monoton wachsend) und f = limn→∞ fn (fn ↑ f ).
Beweis:
Der Beweis erfolgt konstruktiv, d. h. man konstruiert eine spezielle Folge (fn )∞
n=1 mit
den Eigenschaften aus dem Satz:
fn : =
n −1
4X
i=0
fn (ω) : =
§
(
i
χ −1 i i+1 + 2n χf −1 ([2n ,+∞))
2n f ([ 2n , 2n ))
i/2n
2n
≤ f (ω) <
f (ω) ≥ 2n
i/2n
Bi sind messbare Zerlegungen von Ω.
#{f (ω)|ω ∈ Ω} < +∞
‖
f = f+
¶
28
i+1
2n
i = 0, . . . , 4n − 1
2.2. Einführung des Integrals
f (ω)
fn (ω)
4n −1
2n
i+1
2n
i
2n
Damit ergibt sich 0 ≤ fn ≤ fn+1 ≤ f . Wenn f messbar ist, folgt, dass f auch einfach ist.
Die Differenz f (ω) − fn (ω) ≤ 21n ∗∗ und es folgt, dass lim fn (ω) = f (ω)
2.2. Einführung des Integrals
Im folgendenRist immer [Ω,RF, µ] ein Maßraum und wir betrachten f : [Ω, F] → [R, B].
Das Integral f (ω)µ(dω)=
ˆ f dµ wird in drei Stufen eingeführt:
Definition (1. Stufe)
P
Sei f ≥ 0 und einfach, d. h. wir haben eine Darstellung der Form f = ni=1 ai χAi mit
n = 1, a1 , . . . , an ≥ 0, Ai ∈ F. Dann setzen wir
Z
f (ω)µ(dω) : =
n
X
ai µ(Ai )††
i=1
Bemerkung
R
1. f dµ ≥ 0
2. Die Definition des Integrals ist eindeutig, d. h. unabhängig von der betrachteten
Darstellung als Linearkombination von messbaren Indikatorfunktionen:
Pm
Pn
P
P
f = ni=1 ai χAi = m
k=1 bk µ(Bk )
i=1 ai µ(Ai ) =
k=1 bk χBk ⇒
R
3. Das
IntegralR ist linear, d. h. f, g ≥ 0 und einfach, α, β ≥ 0 ⇒ (αf + βg)dµ =
R
P
P
α f dµ + β gdµ. Denn sei
f = ai χAi und g = bj χBj . Dann ist αf R+ βg =
R
P
P
P
P
αa χ + βbj χBj ⇒ (αf + βg)dµ = αai µ(Ai ) + βbj µ(Bj ) = α f dµ +
R i Ai
β gdµ
∗∗
††
ω ∈ Ω mit f (ω) ≤ 2n
Vereinbarung: Es kann sein, dass µ = ∞ und es kann 0 · ∞ auftauchen. Dann setzen wir 0 · ∞ = 0
29
2. Integrationstheorie
R
R
4. Wenn f, g ≥ 0 einfach und f ≤ g, dann folgt, dass f dµ ≤ gdµ. Das Integral ist
monoton. Denn da f ≤ g ist, ist auch g − f ≥ 0 und da beide FunktionenR einfach
sind, ist Zauch die Differenz wieder einfach. Es gilt: g = f + (g − f ) ⇒ gdµ =
R
f dµ +
|
(g − f )dµ ⇒
{z
≥0
}
R
gdµ ≥
R
f dµ
nichtnegativer einfacher Funktionen mit fn ≤ fn+1 . Dann
5. Sei (fn )∞
n=1 eine Folge
R
existiert
lim
f
dµ.
Dabei ist auch +∞ möglich. Aus dem vierten Punkt folgt
n→∞
n
R
R
0 ≤ fn dµ ≤ fn+1 dµ
6. Seien (fn ), (gn ) Folgen nichtnegativerR einfacher Funktionen
mit fn ≤ fn+1 , gn ≤
R
gn+1 , lim fn ≤ lim gn . Dann gilt lim fn dµ ≤ lim gn dµ. Zum Beweis muss die
zusätzliche
Voraussetzung
fn ≤ gn benutzt werden. DennR nach dem Rvierten Punkt
R
R
folgt: Rfn dµ ≤ gn dµ
und
wegen fünftens existieren lim fn dµ, lim gn dµ. Damit
R
ist lim fn dµ ≤ lim gn dµ.
Definition (2. Stufe)
Sei f ≥ 0 und messbar. Nach Satz 2.1.11 existieren (fn )∞
n=1 , 0 ≤ fn ≤ fn+1 , f = lim fn , fn
einfach. Wir setzen:
Z
Z
f dµ : = lim
fn dµ
n→∞
Bemerkung
1. Die Definition ist „sinnvoll“, weil das Integral nach der Definition erster Stufe
definiert ist und der Limes nach der obigen Bemerkung 5 existiert.
2. Die Definition ist auch eindeutig, d. h. wenn wir haben: 0 ≤ fn ≤ fn+1 , 0R ≤ gn ≤
gn+1R, f = lim fn = lim gn und beide sind einfach, dann folgt daraus: lim fn dµ =
lim gn dµ. Dies ist eine direkte Folgerung aus der Bemerkung 6 oben.
3. Die Definition zweiter Stufe ist eine Erweiterung der Definition erster Stufe. Denn
sei f ≥ 0 einfach. Dann setzen wir fn : = f mit n = 1, 2, . . . ⇒ 0 R≤ fn ≤
fn+1R. Die fn seien
messbar. Dann folgt nach der Definition zweiter Stufe: f dµ =
R
lim fn dµ = f dµ.
4. Das so definierte Integral ist linear.
Beweis: Sei α, β ∈ R ≥ 0, f, g ≥ 0 und messbar. WeiterR seien f = lim fRn , g =
lim gRn , 0 ≤ fn ≤ fn+1R, 0 ≤ gn ≤ gn+1 alle einfach, d. h. f dµ = limn→∞ fn dµ
und gdµ = limn→∞ gn dµ.
R
R
αf + βg =R limn→∞ (αf
+ βgn ) ⇒
(αf + Rβg)dµ = limn→∞ (αfn + βgn )dµ =
Rn
R
limn→∞ (α fn dµ + β gn dµ) = α f dµ + β gdµ
R
R
R
5. RFür 0 ≤R f ≤ g gilt: R0 ≤ f dµ
≤ gdµ, denn g R= f + (g − f ) ⇒ gdµ =
R
f dµ + (g − f )dµ ⇒ gdµ ≥ f dµ. Dies folgt aus f dµ ≥ 0 für die erste Stufe.
R
6. Monotonie: 0 ≤ f ≤ g ⇒ f dµ ≤
der Definition der ersten Stufe.
30
R
g dµ. Siehe hierzu die vierte Bemerkung bei
2.2. Einführung des Integrals
Definition (3. Stufe)
R
R
Sei f messbar und bezüglich µ integrierbar, d. h. f + dµ und (−f − )dµ < +∞. Dann
gilt:
Z
Z
Z
+
f dµ : = f dµ − (−f − )dµ
Bemerkung
R
R
R
1. klar: |f | = f + + (−f − ) ⇒ |f |dµ = f + dµ + (−f − )dµ
f ist genau dann µ-integrierbar, wenn
2.
R
R
|f |dµ < ∞
f dµ für f ≥R0 und messbar existiert immer. Es ist allerdings der Fall +∞ möglich.
Das Integral f dµ im Falle f messbar und nicht notwendigerweise ≥ 0 ist nach
der Definition
dritter Stufe nur für µ-integrierbare Funktionen erklärt. Ohne die
R
Bedingung f dµ < +∞ ist das Integral nicht erklärt.
3. Die Eigenschaften Monotonie und Linearität des Integrals übertragen sich von der
zweiten zur dritten Stufe. Für den Beweis ist zu zeigen, dass für f, gRµ-integrierbar
und
für a, b ∈
R gilt, dass af +bg wieder µ-integrierbar sind und dass (af +bg)dµ =
R
R
a f dµ + b gdµ ist. Da f, g messbar sind, folgt dass auch
af + bg messbar
sind.
R
R
Somit ist af + bg natürlich auch µ-integrierbar. Es gilt (af + bg)dµ ≤ (|a||f | +
|b||g|)dµ wegen der RMonotonie zweiter
Stufe. Nach der Linearität zweiter Stufe ist
R
das aber gleich |a|R |f |dµ + |b|R |g|dµ. Sowohl |f | wie auch |g| sind kleiner +∞.
Somit ist auch: |a| |f |dµ + |b| |g|dµ < +∞.
Satz 2.2.1 (Integral bezüglich diskreter Maße)
Seien (αi )i∈I eine abzählbare Familie nichtnegativer reeller Zahlen, (ωi )i∈I ⊆ Ω und
P
µ = i∈I αi δωi ‡‡ . Eine messbare Funktion f (d. h. f : [Ω, F] → [R, B]) ist genau dann
P
µ-integrierbar, wenn gilt i∈I αi |f (ωi )| < +∞. In diesem Fall gilt:
Z
f dµ =
X
αi f (ωi )
i∈I
Beweis:
1. Fall Sei f = χA mit (A ∈ F). Dann folgt nach der Definition des RIntegrals erster Stufe,
P
P
dass für g = R ai χAi (einfach
und
größergleich
0)
gilt,
g
dµ
=
ai µ(Ai ).
i
R
P
P
Damit folgt, f dµ = χA dµ = µ(A) = i∈I αi δωi (A) = i∈I αi χA (ωi ) =
P
i∈I αi f (ωi )
R
P
ist f ≥ 0, einfach und f dµ =
2. Fall Sei f = nk=1 ak χRAk mit ak ≥ 0, Ak ∈ F. Dann
R
P
Pn
Pn
Pn
Pn
i∈I αi χAk (ωi ) =
k=1 ak
k=1 ak χAk dµ =
k=1 ak χAk dµ =
k=1 ak µ(Ak ) =
P
i∈I αi
‡‡
n
X
k=1
|
ak χAk (ωi ) =
{z
f (ωi )
}
P
i∈I
αi f (ωi )
Maße von diesem Typ heißen diskrete Maße
31
2. Integrationstheorie
3. Fall Seien f ≥ 0 und messbar,
0 ≤ (fm )∞
m=1 ↑ Rf einfach. Nach der Definition zweiter
R
Stufe folgt nun, dass f dµ = limn→∞ fm dµ. Nach dem vorigen Fall folgt:
P
limn→∞ i∈I αi fm (ωi ). Da die Funktion monoton wachsend ist, kann der Limes
P
P
und die Summe vertauscht werden: i∈I αi limn→∞ fm (ωi ) = i∈I αi f (ωi ).
4. Fall Sei f messbar und gelte f = f + −f − . Wir wissen nach der Definition des Integrals
zweiter Stufe:
Z
Z
f + dµ =
Z
αi f + (ωi )
Z
αi f − (ωi )
i∈I
−
f dµ =
i∈I
R
Weiterhin wissen wir, dass f genau dann µ-integrierbar ist, wenn |f | dµ < ∞.
Damit sind auch die Integrale der beiden Teilfunktionen kleiner als unendlich.
Wenn f µ-integrierbar ist, dann folgt aus der Definition dritter Stufe:
Z
f dµ =
=
X
i∈I
Z
f + − (−f − )dµ =
i∈I
−
+
X
αi f + (ωi ) −
αi f (ωi ) − (−f )(ωi ) =
X
X
αi (−f − )(ωi )
i∈I
+
αi f (ωi )
+ f − (ωi ) =
i∈I
X
αi f (ωi )
i∈I
Definition
Der Wahrscheinlichkeitsraum (Ω, F, µ) heißt diskret, wenn Ω abzählbar, F = P(Ω)
und µ diskret ist.
Beispiel
1. Sei µ = δω0 und ein festesR ω0 ∈ ΩRgegeben. Dann ist jede messbare Funktion f
µ-integrierbar und es gilt: f dµ = f dδω0 = f (ω0 )
P
auch der Fall m = ∞ möglich. Nun
2. Wir betrachten die Reihe m
k=0 ak . Dabei ist
P
wählen Ω = {0, 1, . . . , n}, F = P(Ω), µ = ni=0 δi und dasR Zählmaß µ(A) = #A.
P
Setzen f : Ω → R mit f (k) : = ak für k ∈ Ω. Damit folgt, f dµ = m
k=0 ak und f
Pm
ist bezüglich µ genau dann integrierbar, wenn k=0 |ak | < ∞. Für den Fall m = ∞
muss die Reihe absolut konvergent sein.
Satz 2.2.2 (Riemannintegral stetiger Funktionen)
Seien f : R → R stetig, f stetig mit Stammfunktion F , a, b ∈ R und a < b. Dann ist
f χ[a,b] bezüglich ℓ integrierbar und es gilt:
Z
32
f χ[a,b] dℓ =
Zb
a
f (x) dx = F (b) − F (a)
2.2. Einführung des Integrals
Beweis:
Der Fall, dass die Funktion einfach ist, wird nicht betrachtet. Denn alle stetigen Funktionen (außer Konstanten) sind nicht einfach.
Sei nun f ≥ 0 und stetig. Dann ist f auch messbar und f χ[a,b] ebenfalls. Wir konstruieren
einen Funktionenfolge
(f )∞
n=1 . Nach der Definition zweiter Stufe wissen wir, dass
R
R
f χ[a,b] dℓ = limn→∞ fn dℓ, falls 0 ≤ fn ↑ f und fn einfach. Im folgenden wird fn als
(n)
untere Darbouxsche Summe konstruiert. Dabei wird das Intervall [a, b] in Intervalle zk
zerlegt.
f (x)
a
(n)
zk
b
Abbildung 2.1.: Untere Darbouxsche Summen
33
2. Integrationstheorie
todo: Ergänzung von Carolin einfügen
(n)
b−a
fn (x) = 0
2n
(n)
bk : =
inf
(n)
zk+1 − zk
=
(n)
(x ∈
/ [a, b])
(n)
zk ≤x<zl+1
fn (x) =
X
k
⇒
Z
(n)
bk χ[z (n) ,z (n) ) (x)
k
k+1
⇒ fn ≥ 0, fn ≤ fn+1 , lim fn = f χ[a,b] , fn einfach
f χ[a,b] dℓ = lim
n→∞
= lim
n→∞
= lim
n→∞
Z
fn dℓ
X
bk ℓ([zk , zk+1 ))
X
(n) b − a
bk
2n
k
k
(n)
(n)
|
{z
(n)
b−a
2n
=
Zb
a
}
f (x) dx = F (b) − F (a)
Damit ist die Behauptung für f ≥ 0 gültig. Sei nun f „beliebig“ (insbesondere aber
stetig,
beachte die
Voraussetzungen).
Damit sind f + , (−f − ) stetig und das Integral
R +
R
Rb +
+
f χ[a,b] dℓ = (f χ[a,b] ) = a f (x) dx. Selbiges gilt natürlich für (−f − ). Es ist
R
R
R
klar, dass ab f + (x) dx + ab (−f − )(x) dx = ab f (x) dx. Dabei wurde die Linearität des
Riemannintegrals
ausgenutzt. Wegen
der Linearität des Lebegueintegrals folgt auch
R +
R
R
f χ[a,b] dℓ − (−f − )χ[a,b] dℓ = f χ[a,b] dℓ. Aus den obigen Aussagen folgt schließlich
die Behauptung.
todo: untenstehendes kann evtl. entfernt werden Es ist bekannt, dass das Riemannsche
R
Integral
der Limes der Darbouxschen Summen ist. Somit haben wir limn→∞ fn dℓ =
Rb
a f (x) dx. Weiter ist klar, dass fn ≤ fn+1 . Denn die Feinheit wird verkleinert, wenn
die Intervalle vergrößert werden. Damit strebt fn für n → ∞ nach f χ[a,b] und nach der
R
n→∞ R
Definition zweiter Stufe folgt, fn dℓ −−−→ f χ[a,b] dℓ
Bemerkung
1) Die Behauptung gilt auch dann, wenn nur vorausgesetzt wird, dass f auf [a, b]
riemann-integrierbar ist.
2) Der Satz 2.2.2 ist ausdehnbar auf die Fälle a = −∞, b = ∞. DabeiRist die Forderung,
dass f auf [a, b] ℓ-integrierbar ist, notwendig. Das heißt nun aber ab |f (x)| dx < +∞,
R
d. h. ab |f (x)| dx < +∞.
Satz 2.2.3 (Übertragungssatz)
Seien [Ω1 , F1 , µ] ein Maßraum, [Ω2 , F2 ] ein messbarer Raum und weiter h : [Ω1 , F1 ] →
[Ω2 , F2 ], f : [Ω2 , F2 ] → [R, B], wobei f bezüglich µ ◦ h−1 integrierbar ist. Dann ist f ◦
34
2.2. Einführung des Integrals
h : Ω1 → R bezüglich µ integrierbar und es gilt:
Z
(2.1)
f ◦ h dµ =
Z
f dµ ◦ h−1
Beweis:
0. Fall Sei f = χA mit (A ∈ F2 ) und damit messbar. Wir betrachten die Verknüpfung
f ◦ h(ω) = χA (h(ω)). Es ist klar, dass χA ◦ h eine Indikatorfunktion auf Ω1 sein
muss, d. h. ∃B ⊆ Ω1 mit χA ◦ h = χB und B = {ω ∈ Ω1 : χA (h(ω)) = 1}.
χB (ω) = 1 ⇔ χA (h(ω)) = 1 ⇔ h(ω) ∈ A ⇔ w ∈ h−1 (A) ⇒ B = h−1 (A) ∈ F1 .
Dabei ist B = {ω ∈ Ω1 : χA (h(ω)) = 1}.
⇒ χA ◦ h = χh−1 (A)
R
f ◦h dµ =
R
χh−1 (A) dµ = µ(h−1 (A)) = µ◦h−1 (A) =
P
R
χA dµ◦h−1 =
R
f dµ◦h−1
1. Fall RSei f ≥ 0 und einfach, d. h. f = ni=1 ai χAi mit Ai ∈ F2 , ai ≥R0. Das Integral
−1 =
−1 entspricht wegen der Linearität der Summe Pn a
f dµ ◦ h
i=1 i χAi dµ ◦ h
R
R
R Pn
Pn
−1
−1
dµ = f ◦ h dµ
dµ =
i=1 ai χAi ◦ h
i=1 ai χAi ◦ h
, f = lim fn und fn einfach. Somit folgt
2. Fall RWir wählen (fn )∞
n=1R mit 0 ≤ fn ≤ fn+1
R
fn dµ ◦ h−1 = lim fn dµ ◦ h−1 = lim fn ◦ hdµ. Es ist klar, dass gn : = fn ◦ h
die folgenden
Bedingungen
erfüllt:R 0 ≤ gn ≤ Rgn+1 , lim gn = f ◦ h, gn einfach.§§
R
R
⇒ limn→∞ gn dµ = f ◦ hdµ ⇒ f ◦ hdµ = f dµ ◦ h−1
Die Behauptung, dass f ◦h µ-integrierbar ist, folgt sofort aus der µ ◦h−1 -Integrierbarkeit
von f und der Gleichung (Gleichung 2.1) im bewiesenen Fall nichtnegativer Funktionen.
Beispiel
R
R
Sei Ω2 = R, h : Ω1 → R, f (x) = x, f : R → R. Dann gilt h(ω)µ(dω) = xµ ◦ h−1 (dx).
Definition
Seien f und g messbare Funktionen. f und g sind µ-fast-überall-gleich, wenn gilt:
µ({ω ∈ Ω|f (ω) 6= g(ω)}) = 0
Beispiel
1. Sei µ = δω0 ⇒ f = g µ − fast-überall ⇔ f (ω0 ) = g(ω0 ) für ω0 ∈ Ω. Denn sei
f (ω) 6= g(ω), ω 6= ω0 ⇒ µ({ω ∈ Ω|f (ω) 6= g(ω)}) = µ({ω ∈ Ω|f (ω0 ) 6= g(ω0 )}) ⇒
f =δω0 g ⇔ f (ω0 ) = g(ω0 ).
2. [Ω, F, µ] = [R, B, ℓ], f = χQ Da die rationalen Zahlen abzählbar sind, ist klar, dass
ℓ(Q) = 0. Somit ist auch χQ ≡ 0, da ℓ({ω ∈ Ω|χQ (ω) 6= 0}) = ℓ(Q). Allgemeiner
gilt: f =ℓ g ⇔ f χAc =ℓ gχAc .
§§
Wenn fn nur endliche viele Werte annimmt, nimmt gn ebenfalls nur endlich viele Werte an.
35
2. Integrationstheorie
Bemerkung
Die Fast-Überall-Gleichheit ist eine Äquivalenzrelation. Die Klasse aller messbaren Funktionen zerfällt in von µ abhängigen Äquivalenzklassen.
Satz 2.2.4
Seien f, g µ-fast überall gleich (f =µ g). Weiter seien f, g µ-integrierbar. Dann gilt:
Z
f dµ =
Z
gdµ
Beweis:
f =µ g ⇔ f − g =µ 0 =µ h durch „Reduktion“ der Allgemeinheit
R
R
• Wegen (f − g)dµ
= f dµ −
R
aus h =µ 0 folgt hdµ = 0.
R
gdµ genügt es zu zeigen, dass h = 0 messbar und
• EsR genügt, den
Fall h R≥ 0 zu zeigen. Denn wir haben h = h+ + h− .h+ , h− ≥
R +
0, h dµ = h dµ − (−h− ) dµ und 0 = µ({ω ∈ Ω|h(ω) 6==}) ≥ µ({ω ∈
Ω|h+ (ω) 6= 0}) ≥ 0. Das gilt analog für h− .
R
• Es reicht
weiter, den Fall h einfach und größer 0 zu betrachten. Denn sei h dµ =
R
lim fn dµ mit 0 ≤ fn ≤ fn+1 , lim fn = h. Dann wissen wir nach dem obigen Punkt:
0 = µ({ω ∈ Ω|h(ω) 6= 0}) = µ({ω ∈ Ω|h(ω) > 0}) ≥ µ({ω ∈ Ω|fn (ω) > 0}) ≥ 0.
• Das Problem kann weiter auf die Betrachtung von h = χA mit A ∈ P reduziert werP
den. Denn sei h wie in der obigen Feststellung einfach. Dann gilt: h = m
j=1 aj χAj
für aj > 0 und für alle j = 1, . . . , m ist h ≥ aj χARj . Weiter ist 0 R= µ({ω ∈ Ω|h(ω) >
P
0}) ≥ µ({ω ∈ Ω|χAj (ω) > 0}). Wir haben also: h dµ = aj χAj dµ.
–
R
χAi dµ = µ(Ai ) = 0 ⇒
R
f dµ = 0
– f ≥ ai χAi ⇒ genügt zu zeigen: χA =µ 0 ⇒
R
χA dµ = 0
Dazu ist χA =µ 0 ⇔ µ({ω ∈ Ω|χA (ω) 6= 0}) = 0 = µ(A)
R
χA dµ = µ(A) = 0
|
{z
A
}
2.3. Absolute Stetigkeit von Maßen
Definition
Seien µ, ν Maße auf [Ω, F] und 0 ≤ f : [Ω, F] → [R, B]. Dann heißt ν absolut stetig
bezüglich µ mit Dichte f ¶¶ , wenn gilt:
ν(A) =
¶¶
36
Schreibweise: ν = µf
Z
f χA dµ
(A ∈ F)
2.3. Absolute Stetigkeit von Maßen
Bemerkung
R
R
0. Schreibweisen: A f dµ : = f χA dµ, ν ≪ µ. In der Literatur ist auch die folgende
Definition gebräuchlich: Seien µ und ν Maße auf einer σ-Algebra F. Dann heißt µ
absolut stetig bezüglich ν, wenn für alle A ∈ F gilt:
ν(A) = 0 ⇒ µ(A) = 0
1. µf (A) =
Beweis:
R
f χA dµ definiert ein Maß auf [Ω, F]
• Fall: A = ∅ : µf (∅) =
• klar: µf (A) =
R
R
f χ∅ dµ =
f χA dµ ≥ 0
R
0dµ = 0
S
• Die (Ai ) sind paarweise disjunkt: Ai ∈ F ⇒ µf ( Ai ) =
RP
PR
P
f χAi dµ =
f χAi dµ = µf (Ai )
2. µf ist endlich. Es ist per Definition: +∞ > µf (Ω) =
µ-integrierbar.
R
f χΩ dµ =
µf ist Wahrscheinlichkeitsmaß. Per Definition ist µf (Ω) = 1 =
scheinlichkeitsdichte bezüglich µ.
R
R
f χS Ai dµ =
R
f dµ ⇔ f ist
f dµ. f heißt Wahr-
Beispiel
P
Sei Ω = N0 , F = P(N0 ) und µ : = ∞
i=0 δi das Zählmaß.
Behauptung: Jedes Maß ν auf [N0 , P(N0 )] ist absolut stetig bezüglich µ (ν ≪ µ) mit der
Dichte f (i) : = ν({i}) ⇒ ν(A) = µf (A).
P
P
P
Beweis: ν(A) = i∈A ν({i}) = i∈N0 ν({i})χA (i) = i∈N0 f (i)χA (i) =
R
f (i)χA (i)µ(di)
Bemerkung
Seien f, g ≥ 0 und messbar.
Dann
ist µf =Rµg genau dann, wenn
f =µ g.
R
R
R
Beweis:∗∗∗ µf = µg ⇔ A f dµ = A gdµ ⇔ A (f − g)dµ = 0 = (f − g)χA dµ
R
„⇐“ Sei f =µ g ⇒ (f − g) =µ 0 ⇒ (f − g)χA =µ 0 ⇒ (f − g)χA dµ = 0 ⇒ µf = µg
„⇒“ Angenommen ¬f =µ g, d. h. µ({ω ∈ Ω|f (ω) 6= g(ω)}) = 0 ⇒ µ({ω ∈ Ω|f (ω) >
g(ω)}) > 0 ∨ µ({ω ∈ Ω|f (ω) < g(ω)}) < 0. o. B. d. A. gelte die erste Gleichung und
sei An : = {ω ∈ Ω|g(ω) ≥ f (ω) + n1 } ⇒ An ≤ An+1 . Wegen der Stetigkeit von unS
ten folgt: lim µ(An ) = µ( An ) = µ({ω ∈ Ω|f (ω) < g(ω)}) > 0 R⇒ ∃n0 : µ(An0 ) >
0 = µ({g(ω) ≥ f (ω) + n10 }) = µ({ω ∈ Ω|g(ω) − f (ω) ≥ n10 }) ⇒ (g − f )χAn0 dµ ≥
R 1
1
n0 χAn0 dµ = n0 µ(An0 > 0. Somit folgt, dass nicht gilt: µf = µg
∗∗∗
Der Beweis erfolgt einschränkend für Mengen mit endlichem Maß.
37
2. Integrationstheorie
Satz 2.3.1
Sei P ein Wahrscheinlichkeitsmaß auf [R, B] mit stetig differenzierbarer Verteilungsfunktion F (x) = P ((−∞, x)). Dann gilt:
P = ℓF ′
Beweis:
††† Wir definieren ein Maß ν : = ℓF ′ . F ist eine Verteilungsfunktion und monoton
wachsend. Damit ist die Ableitung immer positiv. Zu prüfen ist nun, ob ν ein Wahrscheinlichkeitsmaß ist und ob dies mit P zusammen fällt.
R
R
∞
F ′ (x)dx =
1. Dazu ν(R) = R F ′ (x)ℓ(dx). Da F stetig ist und Satz 2.2.2 gilt: −∞
Rb ′
lima→−∞ limb→∞ a F (x)dx = lima→−∞ limb→∞ (F (b)−F (a)). Wegen des Satz 1.5.3
Punkt 3 und 4 gilt 1 − 0 · 1. Weiterhin ist zu zeigen, dass P = ν. Hier genügt es
zu zeigen, dass beide die gleiche Verteilungsfunktion haben: Die Verteilungsfunktion F von P Rist gleich der Verteilungsfunktion G von ν. Wir Rhaben G(x) =
x
ν((−∞, x)) = (−∞,x) F ′ (x)ℓ(dy). Wiederum nach Satz 2.2.2 ist −∞
F ′ (y)dy =
lima→−∞ (F (x) − F (a)) = F (x)
Beispiel
Wir betrachten die Exponentialverteilung:
Exλ → F (x) =
′
F (x) =
(
(
0
1 − e−λx
0
λe−λx
x≤0
x>0
x≤0
x>0
Exλ = ℓF ′ (x)
Satz 2.3.2
Seien µ ein Maß auf [Ω, F], f, g : [Ω, F] → [R, B], f ≥ 0. Ist f · g bezüglich µ integrierbar,
so ist g allein bezüglich µ mit Dichte f integrierbar und es gilt:
Z
gdµf =
Z
f gdµ
Beweis:
R
R
R
0. Fall gR = χA (AR∈ F): Es gilt
zu zeigen, dass gdµf = f gdµ = χA dµf = µf (A) =
R
A f dµ = f χA dµ = f gdµ
P
1. Fall g = ai χAi
Die weiteren Schritte können wie bereits gehabt mittels der Linearität und Limes
genzeigt werden.
†††
Für die Gültigkeit der Behauptung reicht die Forderung, dass F ′ stückweise stetig ist. Der Beweis
wird hierdurch jedoch sehr umfassend, sodass auf die schwächere Bedingung zurückgegriffen wird.
38
2.4. Der Satz von Fubini
Beispiel
Eine vielfache Anwendung stellt folgendes Beispiel dar:
µ = ℓ, [Ω, F] = [R, B], P = ℓf, f ist (stückweise)
stetig, g : [R, B] → [R, B] bezüglich P
R
R∞
integrierbar und stetig. Daraus folgt: gdP = −∞ f (x)g(x)dx
2.4. Der Satz von Fubini
Definition
Sei [Ω, F, µ] ein Maßraum. Das Maß µ heißt σ-endlich, wenn eine messbare Zerlegung‡‡‡
(Ak )∞
k=1 von Ω existiert mit µ(Ak ) < +∞ (k = 1, 2, . . .).
Bemerkung
Spezialfälle:
• Alle Wahrscheinlichkeitsmaße und alle endlichen Maße
• Lebesguesche Maße (jede Dimension); Wähle z. B. Ak = [k, k + 1) mit (k ∈ Z) ⇒
S
Ak R, Ak ∩ Aj = ∅, ℓ(Ak ) = 1
• Zählmaß auf abzählbaren Mengen Ω, Wähle Aω = {ω}. Es ist klar, dass µ(Aω ) =
P
P
ω∈Ω δω ({ω}) = 1
ω∈Ω δω (Aω ) =
Im folgenden seien Ω1 , F1 , µ1 ], . . . , [Ωn , Fn , µn ] Maßräume und µ1 , . . . , µn σ-endlich.
Satz 2.4.1 (Satz von Fubini)
Sei f : ×ni=1 [Ωi , Fi ] → [R, B] bezüglich ×ni=1 µi integrierbar. Weiter sei (i1 , . . . , in ) eine
Permutation der Zahlen {1, . . . , n}. Dann gilt:
Z
f d ×ni=1
µi =
Z
···
Z
f (ω1 , . . . , ωn )µi1 (dωi1 ) . . . µin (dωin )
Beispiel
Wir wissen, [Rn R, Bn , ℓ(n)R ] = [R, B, ℓ]n× . Wenn f (x1 , . . . , xn ) stetig, ist sie in jeder Varia∞
∞
|f (x1 , . . . , xn )|dx1 . . . dxn < +∞. Es gilt:
· · · −∞
blen stetig und −∞
Z
f dℓ
(n)
=
Z∞
−∞
···
Z∞
f (x1 , . . . , xn )dx1 . . . dxn
−∞
Satz 2.4.2
Seien [Ω1 , F1 , µ1 ], . . . , [Ωn , FnR , µn ] Maßräume mit σ-endlichen Maßen. Weiterhin seien
Q
fi : [Ω1 , Fi ] → [R, B], fi ≥ 0, fi dµi = 1§§§ . Setzen f (ω1 , . . . , ωn ) : = ni=1 fi (ωi ). Dann
gilt:
µf = ×ni=1 µi fi wobei µ = ×ni=1 µi
‡‡‡
S
d. h. Ak ∩ Aj = ∅ ∧ Ak = Ω
§§§
d. h. fi ist Wahrscheinlichkeitsdichte bezüglich µi bzw. µi fi ist Wahrscheinlichkeitsmaß.
39
2. Integrationstheorie
Beweis:
µf (×nj=1 Aj ) =
=
Z
Z
χ×nj=1 Aj d(xµi )f
···
Z
···
Z Y
n
χ×nj=1 Aj (ω1 , . . . , ωn )µ1 (dω1 ) . . . µn (dωn )
Q|n {z }
j=1
=
=
=
Z
Z
···
n Z
Y
j=1
40
Z
χAj (ωj )
χAj (ωj )
j=1
n
Y
n
Y
fk (ωk )µ1 (dω1 ) . . . µn (dωn )
k=1
(χAj (ωj )fj (ωj ))µ . . . µ
j=1
χAj (ωj )fj (ωj )µj (dωj ) =
n
Y
j=1
µj fj (Aj )
3. Wahrscheinlichkeitsräume
Das Anliegen dieses Kapitels ist es, die Grundtypen von Wahrscheinlichkeitsräumen zu
vermitteln und die Bildung von Modellen zu trainieren. Weiterhin werden wichtige Typen
von Verteilungen auf [R, B] abgeleitet.
3.1. Der klassische Wahrscheinlichkeitsraum
Dieser Wahrscheinlichkeitsraum war der erste, der in der Historie benutzt wurde. Wie
schon in der Einleitung geschrieben, haben Spieler die Wahrscheinlichkeit zuerst gefühlsmäßig wahrgenommen und versucht, dies genauer zu errechnen. Dies geschah um im Anschluß eventuell eine Strategie zu entwickeln. Im 18. Jahrhundert kam dann ein französischer Mathematiker auf die Idee, den Zufall mit gleichen Wahrscheinlichkeiten zu modellieren. Dies ist die Wurzel des klassischen Wahrscheinlichkeitsraumes.
Bei der Betrachtung ergibt sich die folgende Situation: Gegeben sei ein Experiment
oder Versuch mit n-möglichen Ergebnissen. Dabei bezeichnet das Wort „Experiment“
die prinzipielle Möglichkeit der Wiederholung. Weiterhin darf kein bestimmtes Ereignis gegenüber einem anderen bevorzugt werden. Abstrakt hat man dann, endliches
Ω = {ω1 , . . . , ωn } als die Klasse der möglichen Ereignisse. Weiterhin ist F = P(Ω)
das System aller möglichen Ereignisse und A ∈ F ist eine Aussage über ein Ereignis.
Beispiel
1. Münzwurf: Ω = {W, Z} = {0, 1}
2. Würfel: Ω = {1, 2, 3, 4, 5, 6}
#A
. Dieses Modell nimmt an,
Ein Ansatz für ein Wahrscheinlichkeitsmaß ist: P (A) = #Ω
dass alle Ereignisse gleich verteilt sind: P ({ωi }) = P ({ωj }) für alle i, j = 1, 2, . . ..
P
S
Das Wahrscheinlichkeitsmaß hier ist: P (Ω) = 1 = P ( ni=1 {ωi }) = ni=1 P ({ωk }) ⇒
P
P
#A
1
1
P ({ωk }) = n1 = #Ω
. Somit folgt dann P (A) = ω∈A P ({ω}) = ω∈A #Ω
= #Ω
.
Definition
Ein Wahrscheinlichkeitsraum [Ω, F, P ] heißt klassisch, wenn gilt
• Ω ist endlich und nichtleer
• F = P(Ω)
41
3. Wahrscheinlichkeitsräume
• P (A) =
#A
#Ω
(A ∈ F ⇔ A ⊆ Ω)
Bemerkung
In klassischen Wahrscheinlichkeitsräumen wird P in der Regel wie folgt dargestellt: Sei
P
µ = ω∈Ω δω ein Zählmaß auf Ω. Dann kann man das normierte Zählmaß als P (A) =
1
µ(Ω) µ darstellen. Allgemeiner gilt: Sei µ ein endliches Maß auf [Ω, F] mit µ(Ω) 6= 0. Dann
1
kann man Q : = µ(Ω)
µ setzen.
Beispiel
1. Münzwurf: Ω = {0, 1} ⇒ P ({ω}) =
2. Würfel: Ω = {1, . . . , 6} ⇒ P ({ω}) =
1
2
1
6
3. „kompliziertere“ Modelle:
• n-facher Münzwurf: „Menge der möglichen Protokolle“ Ω = {[ω1 , . . . , ωn ]|ωi ∈
{0, 1}, i = 1, . . . , n}
• n-mal Würfeln: Ω = {1, . . . , 6}n×
Kombinatorische Formeln Dies stellt nur einen Einschub dar. In der Regel sollten diese
Regeln dem Student bekannt sein.
Die kombinatorischen Formeln drücken aus, wieviele Möglichkeiten der Auswahl von k
Elementen einer n-elementigen Menge existieren. Dabei kann man sich vorstellen, dass
aus eine Urne mit insgesamt n numerierten Kugeln nach bestimmten Kriterien Kugeln
gezogen werden.
1. Variante Auswahl mit Berücksichtigung der Reihenfolge und mit Zurücklegen
mR : = {[ω , . . . , ω ]|ω ∈ {1, . . . , n}, i = 1, . . . , k} = {1, . . . , n}k ⇒
AmW
1
i
k
k,n
mW
mR
k
#Ak,n
=n
2. Variante Auswahl mit Berücksichtigung der Reihenfolge und ohne Zurücklegen (k ≤
n)
mR : = {[ω , . . . , ω ]|{ω , . . . , ω } ∈ {1, . . . , n}} = n(n−1)(n−2) . . . (n−
AoW
1
1
k
k
k,n
n!
mR =
k + 1) ⇒ #AoW
k,n
(n−k)!
Für den Spezialfall k = n folgt dann: #A = n!. Dies entspricht den Permutationen von {1, . . . , n}.
3. Variante Auswahl ohne Berücksichtigung der Reihenfolge und ohne Zurücklegen
oR : = {{ω , . . . , ω }|{ω , . . . , ω } ⊆ {1, . . . , n}}
AoW
1
1
k
k
k,n
n
n!
1
oW oR
oW
mR
⇒ #Ak,n
k! = k!(n−k)! = k = #Ak,n
4. Variante Auswahl ohne Berücksichtigung
der Reihenfolge und mit Zurücklegen
(k+n)!
k+n
mW
oR
Ak,n
= n = n!k!
42
3.1. Der klassische Wahrscheinlichkeitsraum
Beispiel
mR ⇒ #Ω = 2n . Wir betrachten das Ereignis
n-facher Münzwurf: Ω = {0, 1}n = AmW
n,2
P
oR =
k-mal wird Zahl geworfen. Dies entspricht {[ω1 , . . . , ωn ] ∈ Ω|k = ni=1 ωi } = AoW
k,n
n
(k )
#Ak
n
k ⇒ P („Ak “) = #Ω = 2n .
Das Ereignis Bk entspricht der Aussage „beim k-ten Wurf wird erstmalig Zahl geworfen“:
Bk = {[ω1 , . . . , ωn ] ∈ Ω| ω1 , . . . , ωk−1 , ωk = 1}
|
{z
=0
}
= {[0, . . . , 0, 1]} × {[ωk+1 , . . . , ωn ]|ωj ∈ {0, 1}}
P („Bk “) =
#Bk
2n−k
= n = 2−k
#Ω
2
Hypergeometrisches Modell
Zentrum der Betrachtung ist in der Regel eine Urne. Dabei steht dies für ein Behältnis,
dass von außen nicht einsehbar ist und in dem alle Kugeln gleiche Oberflächeneigenschaften haben.∗
In der Urne befinden sich N Kugeln. Darunter sind M † rote und N − M weiße Kugeln.
Nun werden aus der Urne „auf gut Glück“ n Kugeln herausgegriffen. Wir betrachten das
Ereignis Ak , welches für „genau k der n Kugeln sind rot“ steht. Als Hilfe nehmen wir an,
dass die Kugeln nummeriert sind und zwar von 1 bis M für die roten und M +1 bis N für
die weißen Kugeln. Mathematisch wird dies wie folgt ausgedrückt:
Ω : = {{ε1 , . . . , εn }|{ε1 , . . . , εn } ⊆ {1, . . . , N }} = AoRoW
n,N
#Ak
#Ak
= N
F = P(Ω)
P (Ak ) : =
#Ω
n
Ak = {{ε1 , . . . , εn } ⊆ Ω|#({ε1 , . . . , εn } ∩ {1, . . . , M }) = k und
#({ε1 , . . . , εn } ∩ {M + 1, . . . , N }) = n − k}
Somit ist Ak = ∅, wenn k < 0 ∨ k > M ∨ k > n ∨ n − k > N − M ⇔ k < n + M − N .
∗
Untersuchungen während des Zweiten Weltkrieges ergaben, dass Menschen Kugeln anhand ihrer
Oberflächen unbewusst wiedererkennen und dann Präferenzen ausbilden. Dies sollte bei den Experimenten immer ausgeschlossen werden.
†
Wobei gilt: M ≤ N .
43
3. Wahrscheinlichkeitsräume
Wir betrachten nun, max(0, n + M − N ) ≤ k ≤ min(M, n).
#Ak =
oR
#AoW
k,M
·
oR
#AoW
n−k,N −M
oR
#Ω = #AoW
=
n,N
⇒ P (Ak ) =
N
n
 M N−M

 ( k )( n−k )
(Nn )

0
M
=
k
!
!
N −M
n−k
!
k mit max(0, n + M − N ) ≤ k ≤ min(M, n)
sonst
Aus der obigen Tatsache folgt nun:
min(M,n)
X
k=max(0,n+M −N )
M
k
!
N −M
n−k
!
=
N
n
!
Zum Beweis dieser Aussage wissen wir, dass Ak ∩ Aj = ∅ für k 6= j und
N−M
P (M
P
k )( n−k )
.
Somit folgt, dass P (Ω) = 1 = k P (Ak ) =
N
(n)
S
k
Ak = Ω ‡ ist.
Weiterhin kann man schlussfolgern:
M N −M k
n−k
δk
N
n
k=max(0,n+M −N )
min(M,n)
HN,M,n : =
X
ist ein Wahrscheinlichkeitsmaß auf [R, B].
3.2. Das Bernoullischema
Definition
Seien n ≥ 1 mit n ∈ N und 0 ≤ p ≤ 1. Der Wahrscheinlichkeitsraum [Ω, F, P ] =
[{0, 1}, P({0, 1}), pδ1 + (1 − p)δ0 ]n× heißt (endliches) Bernoullischema zu n Versuchen
mit der Erfolgswahrscheinlichkeit p.
Bemerkung
1. [Ω, F, P ] = [{0, 1}n× , P({0, 1}n× ), (pδ1 + (1 − p)δ0 )n× ]
2. Ω = {[ω1 , . . . , ωn ]|ωi ∈ {0, 1}, i = 1, . . . , n} = {0, 1}n×
3. F = P(Ω)
Q
4. P ({[ω1 , . . . , ωn ]}) = P (×ni=1 {ωi }) = (pδ1 + (1 − p)δ0 )n× (×ni=1 {ωi }) = ni=1 (pδ1 +
Qn
Qn
ωi
1−ωi =
(1P− p)δ0 )({ωi })
P = i=1 (pδ1 )({ωi }) + (1 − p)δ0 ({ωi }) = i=1 p (1 − p)
p ωi (1 − p)n− ωi
‡
44
Für k gilt max(0, n + M − N ) ≤ k ≤ min(M, n)
3.2. Das Bernoullischema
Beispiel
Als Beispiel soll der n-fache Münzwurf mit einer Erfolgswahrscheinlichkeit von p = 1/2
nach dem klassichen Modell dienen. Wir betrachten die Ereignisse Ak und Bk . Dabei
entspricht Ak der Aussage „k-mal Erfolg bei n Versuchen“ und Bk der Aussage „erstmalig
beim k-ten Versuch Misserfolg“.
Ak = {[ω1 , . . . , ωn ] ∈ Ω|
X
P (Ak ) =
p
[ω1 ,...,ωn ]∈Ak
= pk (1 − p)n−k
=
(
P
ωi
X
(1 − p)n−
X
1=
ω∈Ak
pk (1 − p)n−k
0
P
ωi = k}
n
k
Damit folgt, dass nk=0 pk (1 − p)n−k
nigung ergibt gerade Ω.
X
P
ωi
=
X
P ({ω})
ω∈Ak
pk (1 − p)n−k = pk (1 − p)n−k #Ak
k = 0, . . . , n
sonst
n
k
= 1. Denn die Ak sind disjunkt und ihre Verei-
Die Binomialverteilung zu n Versuchen mit der Erfolgswahrscheinlichkeit p ist wie
folgt definiert:
!
n
X
n k
Bn,p : =
p (1 − p)n−k δk
k
k=0
Beispiel
Weiterführung des obigen Beispiels:
Es ist klar, dass P (B0 ) = 0. Für P (Bk ) gilt:
P (Bk ) = (pδ1 + (1 − p)δ0 )n× ({[1, . . . , 1, 0]} × {0, 1}n−k )
= (pδ1 + (1 − p)δ0 )k× ({[1, . . . , 1, 0]})(pδ1 + (1 − p)δ0 )n−k ({0, 1}n−k )
|
= pk−1 (1 − p)
{z
=1
}
Zur Erinnerung: Die Verteilung
Gp : =
∞
X
k=1
pk (1 − p)δk
heißt geometrische Verteilung.
Strategien beim wiederholten Glücksspiel Im Rahmen derartiger Spiele wird beabsichtigt, einen Gewinn K zu erzielen. Dabei kann man mit folgender Strategie vorgehen:
45
3. Wahrscheinlichkeitsräume
1. Schritt Setze K. Bei Erfolg wird der Gewinn K realisiert. Andernfalls gehe zum nächsten Schritt.
2. Schritt Setze (1 + 1)K. Bei Erfolg wird Gewinn K realisiert. Andernfalls gehe zum
nächsten Schritt.
3. Schritt Setze (1+ 2+ 1)K. Bei Erfolg wird Gewinn K realisiert. Andernfalls gehe zum
nächsten Schritt.
Im n Schritt wird also immer ein Betrag von 2n−1 K gesetzt und im Gewinnfall wird
schliesslich K ausgeschüttet.
Im Falle n = 10 sind 512K einzusetzen. Sei nun p = 1/2. Dann ergibt sich eine Gewinn9)
P
9
wahrscheinlichkeit von (1−p) 9k=0 pk = (1−p) (1−p
(1−p) = 1−p ≈ 0, 999
Beispiel
radioaktiver Zerfall Wir betrachten die Zeit t. Zu Beginn dieser Zeit existieren n Atome
des radioaktiven Stoffes. Diese sind mit 1, . . . , n nummeriert. Das Ereignis ωk = 1
entspricht der Aussage, „Atom k ist in der Zeit t zerfallen“ und das Ereignis ωk = 0
entspricht der Aussage, „Atom k ist in der Zeit t nicht zerfallen“. Die Anzahl der
P
zerfallenen Atome berechnet sich durch nk=1 ωk .
Genetik Hierbei wird die Teilung eines DNA-Stranges beobachtet. Solch ein Strang teilt
und „kopiert“ sich. Dabei entsteht keine 1:1-Kopie, sondern an endlich vielen Stellen treten Fehler auf. Nach Ansicht der Neodarwinisten erfolgt auf diesem Wege
die Evolution.
Insgesamt existieren n Verbindungen§. Das Ereignis ωk = 1 entspricht einem Fehler
an der k-ten Stelle und das Ereignis ωk = 0 sagt aus, dass an der k-ten Stelle kein
Fehler ist.
Will man nun bei beiden Beispielen versuchen, nach dem bisher gelernten die Wahrscheinlichkeit zu errechnen, wird man sehr schnell auf Problemestoßen. So ist im Beispiel der
Genetik P („k-mal Erfolg“) = nk pk (1 − p)n−k = 100000000
p25 (1 − p)≈100000000 ≈ ∞ · 0.
25
3.3. Der Poissonsche Grenzwertsatz
Wir betrachten die Binomialverteilung Bn,p für sehr große n und kleine p, d. h.
Bn,p ({k}) =
( n
oder
Bn,p =
k
0
n
X
k=0
§
46
pk (1 − p)n−k
!
0≤k≤n
sonst
n k
p (1 − p)n−k δk
k
Beim Mensch entspricht das n ungefähr 100 Millionen.
3.4. Ein kontinuierliches Analogon des klassischen Wahrscheinlichkeitsraumes
und weiter die Poissonverteilung zum Parameter λ:
Πλ ({k}) =
λk −λ
e
k!
(λ > 0)
Satz 3.3.1 (Poissonsche Grenzwertsatz)
Sei (pn )∞
n=1 eine Folge mit 0 ≤ pn ≤ 1 für alle n = 1, 2, . . . und 0 < λ = limn→∞ npn .
Dann gilt:
lim Bn,pn ({k}) = Πλ ({k}) (k = 0, 1, . . .)
n→∞
Beweis:
in der Übung
Beispiel
Seien n = 1011 , p = c·10−11 ⇒ np = c, λ = 1. Es gilt die Annahme, Bn,p ({k}) ≈ Πc ({k}).
Wir betrachten k = 0, 1, 2, 3, 4, 5 für c = 1:
Bn,p ({p}) ≈ Π1 ({5}) = 1/5!e−1 = 1/120·e ≤ 1/250
3.4. Ein kontinuierliches Analogon des klassischen
Wahrscheinlichkeitsraumes
Im kontinuierlichen Modell ist Ω ⊆ Rn , 0 ≤ ℓ(n) (Ω) < +∞:
⇒ GlΩ : =
ℓ(n)
ℓ(n) (Ω)
47
4. Bedingte Wahrscheinlichkeit und
Unabhängigkeit
4.1. Bedingte Wahrscheinlichkeit
Wenn man einer Lottoziehung zuschaut und feststellt, dass man nacheinander die gezogenen Zahlen auch getippt hat, verändern sich die Wahrscheinlichkeiten kontinuierlich.
Im folgenden soll dies erklärt werden.
Im folgenden gilt immer, dass [Ω, F, P ] ein Wahrscheinlichkeitsraum ist.
Definition
Seien A, B ∈ F mit P (B) > 0. Dann heißt
P (A|B) : =
P (A ∩ B)
P (B)
bedingte Wahrscheinlichkeit von A unter der Bedingung B.
Beispiel
Als Beispiel dient hier wieder der Würfel:
Ω = {1, 2, 3, 4, 5, 6}, P ({k}) = 1/6, k ∈ Ω, A = {6}, B = {4, 5, 6}
P (A|B) =
1/6
1
P ({6} ∩ {4, 5, 6})
P ({6})
=
=
=
3/6
P ({4, 5, 6})
P ({4, 5, 6})
3
Satz 4.1.1 (Elementare Eigenschaften)
Sei B ∈ F, P (B) > 0. Dann gelten:
(a) 0 ≤ P (A|B) ≤ 1
(b) P (B|B) = P (Ω|B) = 1
S∞
(c) P (
i=1 Ai |B)
=
P∞
i=1 P (Ai |B)
für alle (Ai )∞
i=1 ∈ F mit Ai ∩ Aj 6= ∅ (i 6= j)
Beweis:
(a) Nach der Definition ist klar, dass P (A|B) ≥ 0 gilt. Weiterhin ist A ∩ B ⊆ B. Nach
der Monotonie von P folgt damit, dass P (A ∩ B) ≤ P (B). Durch Umstellen erhält
P (∅∩B)
P (∅)
man nun P P(A∩B)
(B) ≤ 1. Es ist klar, dass P (∅|B) = P (B) = P (B) = 0 ist.
48
4.1. Bedingte Wahrscheinlichkeit
(b) P (Ω|B) =
P (B)
P (B)
= 1 = P (B|B)
(c) Seien die (Ai ) aus F paarweise disjunkt. Dann sind auch (Ai ∩ B) paarweise disjunkt
P∞
S
und es folgt, P ( ∞
i=1 P (Ai ∩ B). Somit hat man damit:
i=1 (Ai ∩ B)) =
S∞
P(
i=1 Ai
P (B)
∩ B)
=
P∞
i=1 P (Ai
P (B)
∩ B)
Bemerkung
Durch A → P (A|B) ist ein Wahrscheinlichkeitsmaß auf [Ω, F] gegeben. Man bezeichnet
P (·|B) als bedingte Verteilung unter der Bedingung B.
Satz 4.1.2 (Formel bzw. Satz über die totale Wahrscheinlichkeit)
Sei (Bi )i∈I eine abzählbar messbare Zerlegung von Ω, d. h. Bi ∈ F, i ∈ I abzählbar,
S
Bi ∩ Bj = ∅ für i 6= j, Bi = Ω. Dann gilt:
P (A) =
X
P (A|Bi )P (Bi )
A ∈ F, P (Bi ) > 0
i∈I
Beweis:
X
P (A|Bi )P (Bi ) =
i∈I
i∈I
P
X P (A ∩ Bi )
[
i∈I
!
(A ∩ Bi ) = P
P (Bi )
A∩
[
Bi
i∈I
P (Bi ) =
!
X
i∈I
P (A ∩ Bi )
= P (A ∩ Ω) = P (A)
Bemerkung
Die zusätzliche Forderung P (Bi ) > 0 ist nicht notwendig, da P (A|Bi ) · P (Bi ) = 0. In
dem Zusammenhang ist die Forderung jedoch sinnvoll.
Satz 4.1.3 (Satz von Bayes)
Sei (Bi )i∈I eine messbare Zerlegung von Ω und A ∈ F mit P (A) > 0. Dann gilt:
P (A|Bi ) · P (Bi )
j∈I P (A|Bj ) · P (Bj )
P (Bi |A) = P
i∈I
Für den Spezialfall A, B ∈ F und P (A) > 0 gilt:
P (B|A) =
P (A|B) · P (B)
P (A|B)P (B) + P (A|B c )P (B c )
49
4. Bedingte Wahrscheinlichkeit und Unabhängigkeit
Beweis:
P
Aus Satz 4.1.2 folgt P (A) = j∈I P (A|Bj )P (Bj ). Weiter folgt aus der Definition der
bedingten Wahrscheinlichkeit: P (A|Bi )P (Bi ) =
schließlich ergibt sich:
P (A∩Bi )
P (Bi ) ·P (Bi )
= P (A∩Bi ). Aus beiden
P (A ∩ Bi )
P (A|Bi ) · P (Bi )
= P (Bi |A)
=
P (A)
j∈I P (A|Bj )P (Bj )
P
Beispiel
In einem BSE-Schnelltest werden 100 Millionen Kühe getestet. Davon sind 100 Kühe
an BSE erkrankt und bei nahezu allen ist der Test auch positiv. Aber bei 0,001 % der
gesunden Kühe schlägt der Test auch an. Wir betrachten folgende Ereignisse:
• A = „Test positiv“ ⇒ Ac = „Test negativ“
• B = „Kuh hat BSE“ ⇒ B c = „Kuh hat kein BSE“
• „Testzuverlässigkeit“: P (A|B) ≈ 1 − 10−3 = 99, 9 % Dies entspricht der Wahrscheinlichkeit, dass der Test bei einer BSE-Kuh auch BSE anzeigt.
Informationsübertragungsmodell Seien S1 = S2 = S ein endliches Alphabet. S1 bezeichnet das Alphabet des Senders, S2 das des Empfängers. Es ist F = P(Ω) und Ω =
S1 ×S2 = S×S = {[s1 , s2 ]|s1 , s2 ∈ S}. As entspricht dem Ereignis, dass S empfangen und
Bs das S gesendet wird. Dabei ist s ∈ S. Weiter ist As2 = S ×{s2 }, Bs1 = {s1 }×S, As2 ∩
Bs1 = {[s1 , s2 ]} und q(s1 , s2 ) : = P (As2 |Bs1 ). Die Wahrscheinlichkeit ps1 bezeichnet die
P
a-priori-Wahrscheinlichkeit P (Bs1 ). Damit folgt, P (As2 ) = s1 ∈S P (As2 |Bs1 )P (Bs1 ) =
P
s1 ∈S ps1 q(s1 , s2 ). Ideal ist q(s1 , s2 ) = δs1 ,s2 .
4.2. Lebensdauerverteilungen
Im folgenden gilt immer: Ω = R+ = (0, +∞), F = B∩R+ = {A∩R+ |A ∈ B}
Definition
Ein Wahrscheinlichkeitsmaß Q auf [Ω, F] heißt Lebensdauerverteilung.
• Sei Q =
P∞
(Q ist bezüglich des Zählmaßes absolut stetig.). Dann heißt
X
qi
qi ≥ 0,
qi = 1, i = 1, 2, . . .
rQ (i) : = P∞
j≥i qi
i=1 qi δi
Sterberate von Q zum Zeitpunkt i.
R
• Sei Q = ℓf mit f ≥ 0, f dℓ = 1 (Q ist absolut stetig mit Dichte f .). Dann heißt
f (x)
[x,∞) f (y)ℓ(dy)
rQ (x) : = R
Sterberate vom Q zur Zeit x ∈ R+ .
50
x ∈ R+
4.2. Lebensdauerverteilungen
Satz 4.2.1
P
(a) Sei Q = ∞
i=1 qi δi . Dann gilt
rQ (i) = Q({i}|{i, i + 1, . . .})
i = 1, 2, . . .
(b) Sei Q = ℓf und f stetig. Dann gilt
rQ (x) = lim 1/∆Q([x, x + ∆)|[x, +∞))
x ∈ R+
∆→0
Beweis:
(a) Q({i}|{i, i + 1, . . . }) =
Q({i}∩{i,i+1,... })
Q({i,i+1,... })
=
Q({i})
Q({i,i+1,... })
rQ (i)
(b) Q([x, x + ∆)|[x, +∞)) =
Q([x,x+∆)∩[x,+∞))
Q([x,+∞))
=
= P Q({i})
= P qi
Q({j})
Q([x,x+∆))
Q(x,+∞)
q
j≥i j
j≥i
=
R
f (y)ℓ(dy)
Nunmehr
= Rx,x+∆
x,+∞
f (y)ℓ(dy)
werden die Zähler separat betrachtet und mit der
ist, folgt:
R Verwendung,Rdass f stetig
R x+∆
R
∆→0
x
x+∆
1
1
1/∆
f (y)dy · 0 f (y)dy −−−→ f (x).
f (y)(dy) = /∆ 0
[x,x+∆) f (y)ℓ(dy)· /∆ x
Somit folgt die Behauptung.
Beispiel (Interpretation zu Satz 4.2.1)
Fall a) Der Wert {i} bedeutet, dass das Sterbealter i ist und {i, i+1, . . .} heißt, dass mindestens das Alter i erreicht wird. ⇒ rQ ({i}) = P („Sterben im Alter i“|„Alter i wurde erreicht“)
Fall b) [x, x + ∆) heißt, Sterben in einem Alter zwischen x und x + ∆ und [x, +∞)
bedeutet, dass mindestens das Alter x erreicht wird.
Beispiel
P
i−1 δ ⇒ r (i) = 1 − p für i = 1, 2, . . ..
1. Sei Q = Gp = (1 − p) ∞
i
Q
i=1 p
(
0
x≤0
. Dabei ist λ > 0 gegeben. Sei
−λx
λe
x>0
R
R
F (x) = Exλ ((−∞, x)) = Ex([0, x)) = [0,x) fλ (y)ℓ(dy) = 0x f (x) dy. F ist Ver-
2. Sei Q = Exλ = ℓfλ mit fλ =
teilungsfunktion zu Q →
R
[x,+∞) f (y)ℓ(dy) = 1 − F x)
−λx
e−λx ⇒ rQ (x) = λe
= λ.
e−λx
Q = Exλ → F (x) = 1 −
nicht vom augenblicklichen Alter ab.
⇒ rQ (x) =
f (x)
1−F (x) .
Es ist
Also hängt die Sterberate
Typisches Verhalten der Sterberate rQ
1. technische/mechanische Systeme (Reibung, allg. Abnutzung)
2. Elektronische Bauteile
3. Biologische Systeme (höher organisiert, insbesondere Mensch)
51
4. Bedingte Wahrscheinlichkeit und Unabhängigkeit
4.3. Unabhängigkeit von Ereignissen
Im folgenden gilt immer, dass [Ω, F, P ] ein Wahrscheinlichkeitsraum ist.
Definition
Seien A, B ∈ F. A und B heißen unabhängig, wenn gilt
P (A ∩ B) = P (A) · P (B)
Bemerkung
1. Sei P (B) > 0. Dann gilt A, B unabhängig ⇔ P (A|B) = P (A). Denn P (A) =
P (A|B) = P P(A∩B)
(B) ⇔ P (A)P (B) = P (A ∩ B)
2. Sei P (B) = 0 ⇒ A, B unabhängig für beliebige A ∈ F. Denn P (B) = 0 ⇒
P (A)P (B) = 0; A ∩ B ⊆ B ⇒ 0 = P (A ∩ B) ≤ P (B) = 0
3. P (B) = 1 ⇒ A, B unabhängig. Zum Beweis hierfür siehe auch den folgenden Satz:
P (B) = 1 ⇔ P (B c ) = 0 ⇒ A, B c unabhängig ⇒ A, (B c )c unabhängig.
Satz 4.3.1
A, B sind genau dann unabhängig, wenn A, B c unabhängig.
Beweis:
Rein mengentheoretisch ist klar, dass gilt A = (A∩B)∪(A∩B c ) und (A∩B)∩(A∩B c ) = ∅.
P (A) = P (A ∩ B) + P (A ∩ B c )
= P (A)P (B) + P (A ∩ B c )
P (A ∩ B c ) = P (A) − P (A)P (B) = P (A)(1 − P (B)) = P (A)P (B c )
|
{z
P (B c )
}
Definition
Sei A ⊆ F. Dann heißt A vollständig unabhängig, wenn ∀{A1 , A2 , . . . , An } ⊆ A gilt
P
n
\
k=1
Ak
!
=
n
Y
P (Ak )
k=1
Weiter heißt A paarweise unabhängig, wenn ∀{A, B} ⊆ A gilt
P (A ∩ B) = P (A)P (B)
Bemerkung
1. Aus der Tatsache, dass A (vollständig) unabhängig ist, folgt, dass A auch paarweise
unabhängig ist. Die Umkehrung hingegen ist falsch.
2. Wenn A = {A, B} ⇒ A vollständig unabhängig ⇔ A paarweise unabhängig ⇔
A, B unabhängig.
52
4.3. Unabhängigkeit von Ereignissen
3. Sei A = {A1 , A2 , A3 }. Aus P (A1 ∩ A2 ∩ A3 ) = P (A1 )P (A2 )P (A3 ) folgt im allgemeinen nicht, dass A vollständig unabhängig ist.
T
4. A ist genau dann vollständig unabhängig, wenn ∀{A1 , . . . , An } ⊆ A gilt: A1 , nk=2 Ak
T
unabhängig. Beweisidee: Die betrachtete Unabhängigkeit heißt: P (A1 ∩ nk=2 Ak ) =
Qn
Tn
j=1 P (Aj ) = P (A1 )P ( k=2 Ak ). Die andere Richtung wird durch vollständige Inn=1
duktion gezeigt: k = 2 −−→ P (A1 ∩ A2 ) = P (A1 )P (A2 ).
5. A ist genau dann vollständig unabhängig, wenn ∀{A1 , . . . , An } ⊆ A gilt, dass
{A1 , . . . , An } vollständig unabhängig. Dabei werden keine beliebigen Systeme betrachtet, sondern wir beschränken uns auf abzählbare Mengen
Beispiel
Sei A ∈ F, 0 < P (A) < 1. Setzen A1 = A2 = A, A3 = ∅ ⇒ P (A1 ∩ A2 ∩ A3 ) =
P (A1 )P (A2 )P (A3 ) = 0. Aber P (A1 ∩ A2 ) = P (A) 6= (P (A))2 = P (A1 ) · P (A2 )
Satz 4.3.2
Wenn A vollständig unabhängig ist, dann ist à : = {Ac |A ∈ A} vollständig unabhängig.
Beweis:
Nach der obigen Bemerkung 5 genügt es, für den Fall A = {A1 , . . . , An } die Unabhängigkeit zu zeigen. Dies ist jedoch nach der Bemerkung 4 und Satz 4.3.1 klar.
Satz 4.3.3
P∞
Sei (Ai )∞
i=1 P (Ai ) = +∞. Dann gilt:
i=1 vollständig unabhängig und

P
∞ [
\
n=1 i≥n
T∞ S
S

Ai  = 1
Interpretation: ω ∈ n=1 i≥n Ai ⇔ ω ∈ i≥n Ai für n = 1, 2, . . . ⇔ #{i|ω ∈ Ai } =
T
S
+∞ ⇒ ∞
n=1 i≥n Ai entspricht dass unendlich viele Ereignisse Ai eintreten.
Beweis:
T
T
S
S
c
Ai )c ) = 0. Es ist klar, dass P (( ∞
Es genügt zu zeigen, dass P (( ∞
n=1
i≥n Ai ) ) =
n=1
i≥n
T
T
P
S∞ T
c
c
P ( n=1 i≥n Aci ) ≤ ∞
n=1 P ( i≥n Ai ). Damit genügt zu zeigen, dass P ( i≥n Ai ) = 0 =
T
T∞ Tk
T
T
∞
k
P ( k=n i=n Aci ) ⇒ P ( i≥n Aci ) = P ( k=n i=n Aci ). Wegen der Stetigkeit von oben
T
ist limk→∞ P ( ki=n Aci ). Da Ai unabhängig ist, ist auch Aci unabhängig. Daraus folgt,
Q
Q
dass limk→∞ ki=n P (Aci ) = limk→∞ ki=n (1 − P (Ai )) = 0. Somit genügt es noch zeigen,
P
P∞
Qk
dass ln( i=n (1 − P (Ai )) = i=n ln(1 − P (Ai )) = −∞ = ∞
i=n − ln(1 − P (Ai )) = +∞.
P
Weiterhin wissen wir, dass P (Ai ) = +∞. Somit muss nur noch gezeigt werden, dass
− ln(1 − P (Ai )) ≥ P (Ai ). Wir haben allgemein somit die Ungleichung − ln(1 − x) ≥ x
1
oder e− ln(1−x) ≥ ex . Durch die Ableitung erhält man: 1−x
≥ 1 für 0 ≤ x ≤ 1.
Beispiel
Man stelle sich ein unendliches Lottospiel vor. Dann entspricht Ai der Aussage, dass
T
S
beim i-ten Spiel 6 Richtige gezogen werden und ∞
n=1 i≥n Ai entspricht unendlich oft 6
Richtigen. Es ist klar, dass die Ai unabhängig sind und dass P (Ai ) = c > 0.
53
4. Bedingte Wahrscheinlichkeit und Unabhängigkeit
Bemerkung
Ohne die Forderung nach Unabhängigkeit gilt die Aussage in Satz 4.3.3 im Allgemeinen
nicht. Denn wähle beispielsweise Ai = A und sei P (A) ∈
/ {0, 1}. Dann ist die Summe
S∞ T
aller Ai = +∞, aber P ( n=1 i≥n ) = P (A) ist ungleich eins.
Satz 4.3.4
P
Sei (Ai )∞
i≥1 P (Ai ) < +∞. Dann gilt
i=1 eine Folge aus F mit

P
∞ [
\
n=1 i≥n

Ai  = 0
Hierbei wurde die Unabhängigkeit nicht vorausgesetzt.
Beweis:
TS
S
S
T
S
Ai ) ≤ P ( i≥k Ai ) für k =
Trivialerweise ist: n≥1 i≥n Ai ⊆ i≥k Ai und 0 ≤ P (
S
S
1, 2, . . .. Es genügt zu zeigen, dass limk→∞ P ( i≥k Ai ) = 0 ist. Es ist, P ( i≥k Ai ) ≤
P
k→∞
P (Ai ) −−−→ 0 und es reicht zu zeigen, dass limk→∞
P
aber aus i≥k P (Ai ) < +∞.
i≥k
P
i≥k
P (Ai ) = 0. Das folgt
Bemerkung
vollAus den obigen beiden Sätzen kann folgende Folgerung gemacht werden: Sei (Ai )∞
i=1
S
T
S
T
A
)
∈
{0,
1}
(0,
1-Gesetz)
b)
P
(
ständig unabhängig. Dann gelten: a) P ( ∞
n=1 i≥n i
n≥1 i≥n Ai ) ⇔
P (Ai ) = +∞ (Lemma von Borel-Cantelli)
54
5. Zufallsgrößen
5.1. Zufallsvariablen
Definition
Seien [Ω, F, P ] ein Wahrscheinlichkeitsraum und [X, X] ein messbarer Raum.
• Eine messbare Abbildung ξ : [Ω, F] → [X, X] heißt Zufallsvariable über [Ω, F, P ]
mit Werten in [X, X].
• Pξ : = P ◦ ξ −1 heißt Verteilungsgesetz von ξ.
• Ist [X, X] = [R, B], so heißt ξ Zufallsgröße.
Um sich dies etwas genauer vorzustellen, kann man annehmen, dass man ein zufälliges
System hat. Dies ist ein Vorgang, der bei mehreren Versuchen wechselwirkungsfrei andere
Ergebnisse bringt. Als Realisierung erhält man ω ∈ Ω. Daraus folgt die Abbildung ξ(ω).
Das P muss die Verteilung Pξ haben. Das Anliegen der Statistik ist die Bestimmung von
Pξ .
Beispiel (Bernoulli-Schema)
[Ω, F, P ] = [{0, 1}, P({0, 1}), pδ1 + (1 − p)δ0 ]n×
= [{0, 1}n , P({0, 1}n ), (pδ1 + (1 − p)δ0 )nx]
Ω = {[ε1 , . . . , εn ]|εi ∈ {0, 1}, i = 1, . . . , n}
ξk : Ω → R, ξk ([ω1 , . . . , ωn ]) : = ωk
55
5. Zufallsgrößen
Nun fixieren wir ein i und betrachten das Tupel ξi ([ε1 , . . . , εn ]) = ξi . Es ist klar, dass ξi
eine Zufallsgröße ist.
Pξi (A) = P ◦ ξi−1 (A) = P (ξi−1 (A))
ξi−1
A∈B
= {[ε1 , . . . , εn ]|ξi ([ε1 , . . . , εn ]) ∈ A} = {0, 1}(i−1) × A × {0, 1}(n−k)
P (ξi−1 (A)) = P ({0, 1}(i−1)× × A × {0, 1}(n−k)× )
= (pδ1 + (1 − p)δ0 )n× ({0, 1}(i−1)× × A × {0, 1}(n−1)× )
= ((pδ1 + (1 − p)δ0 )(i−1)× ({0, 1})(i−1)× )(pδ1 + (1 − p)δ0 )A
|
{z
}
=1
(pδ1 + (1 − p)δ0 )({0, 1})(n−1)× )
|
{z
=1
= (pδ1 + (1 − p)δ0 )(A) = B1,p (A)
}
⇒ Pξi = B1,p = pδ1 + (1 − p)δ0
Im allgemeinen Fall gilt: Wenn P = ×nk=1 Pk und ξi die Projektion in ×nk=1 Pk ist, dann
ist Pξi = Pi
P
Wir setzen ξ : = nk=1 ξk . Die Frage ist nun, was Pξ ist. Anzunehmen ist, dass sich
die Binomialverteilung ergibt. Dazu genügt es, statt Pξ (A) nur Pξ ({j}) zu betrachten
Pξ ({j}) = P (ξ −1 ({j})) = P ({[ω1 , . . . , ωn ] : ξ([ω1 , . . . , ωn ]) = j})
= P ({[ω1 , . . . , ωn ] :
n
X
k=1
= P ({[ω1 , . . . , ωn ] :
n
X
k=1
⇒ Pξ = Bn,p
ξk ([ω1 , . . . , ωn ]) = j})
|
{z
=ωk
ωk = j}) =
}
!
n j
p (1 − p)n−j = Bn,p ({j})
j
Satz 5.1.1
Sei Q ein Wahrscheinlichkeitsmaß auf [R, B] mit stetiger und streng monoton wachsender
Verteilungsfunktion FQ . Dann ist ξ = FQ−1 eine Zufallsgröße über dem Wahrscheinlichkeitsraum [(0, 1), B ∩ (0, 1), Gl(0,1) ] mit Pξ = Q.
Beweis:
Die strenge Monotonie und Stetigkeit bedingen, dass die Umkehrfunktion wieder stetig
und damit messbar ist. Weiter ist bekannt, dass das Wahrscheinlichkeitsmaß auf [R, B]
durch seine Verteilungsfunktion eindeutig bestimmt ist. Damit genügt es zu zeigen, dass
FPξ = FQ .
Es gilt, FQ (x) ∈ [0, 1] mit x ∈ R. Aber FQ kann nie die Werte 0 oder 1 wegen der
strengen Monotonie annehmen ⇒ FQ (x) ∈ (0, 1). Somit existiert FQ−1 auf (0, 1) und FQ−1
56
5.2. Unabhängige Zufallsgrößen
ist stetig ⇒ FQ−1 messbar. Also ist ξ = FQ−1 eine Zufallsgröße. (Genauere Betrachtungen
zu oben.)
Dazu ist nach Definition FPξ (x) = Pξ ((−∞, x)) = P (ξ −1 ((−∞, x))). Weiterhin ist:
Pξ ((−∞, x)) = P (ξ −1 ((−∞, x))) = P ({y ∈ (0, 1)|ξ(y) ∈ (−∞, x)})
= P ({y ∈ (0, 1)|ξ(y) < x})
= P ({y ∈ (0, 1)|FQ−1 (y) < x}) = P ({y ∈ (0, 1)|y < FQ (x)})
= P ((0, FQ (x)))
Wegen P = Gl(0,1) gilt Gl(0,1) ((0, FQ (x))) =
FQ (x)
ℓ((0,FQ (x)))
ℓ((0,1))
=
FQ (x)
1
= FQ (x) ⇒ FPξ (x) =
Bemerkung
Schreibweise: Fξ : = FPξ und P (ξ −1 (A)) = : P („ξ ∈ A“) : = P ({ω ∈ Ω|ξ(ω) ∈ A}) ⇒
Fξ (x) = P („ξ ∈ (−∞, x)“) = P („ξ < x“)
Es reicht die Forderung, FQ ist streng monoton wachsend auf (a, b) mit Q((a, b)) = 1.
Dabei ist a = ∞, b = −∞ zulässig. Ohne Stetigkeit gilt die Aussage nicht.
Beispiel
Betrachten die Exponentialverteilung Q = Exλ → Q((0, +∞)) = 1, FQ (x) = 1 − e−λx
für x ∈ (0, +∞). Weitere Betrachtung in der Übung.
5.2. Unabhängige Zufallsgrößen
Im folgenden Abschnitt gilt immer, dass [Ω, F, P ] ein Wahrscheinlichkeitsraum und eine
Familie von Zufallsvariablen (ξi )i∈I mit Werten in [Xi , Xi ] ist.
Spezialfall: [Xi , Xi ] = [R, B].
Definition
Die Familie (ξi )i∈I heißt unabhängig, wenn für alle Folgen Bi ∈ Xi (i ∈ I) die Familie
{ξi−1 (Bi )|i ∈ I} ⊆ F (vollständig) unabhängig ist.
Satz 5.2.1
Wegen der Bemerkung h nach der Definition von unabhängigen Ereignissystemen ist klar:
(ξi )i∈I ist genau dann unabhängig, wenn für alle n ≥ 2 gilt, dass {ξ1 , . . . , ξn } ⊆ {ξi |i ∈ I}
unabhängig ist.
Andere Formulierung: Die (ξi )i∈I sind genau dann unabhängig, wenn für jedes n ≥ 2
und i1 , . . . , in ⊆ I die Folge ξi1 , . . . , ξin unabhängig ist.
Satz 5.2.2
Sei (Ai )i∈I ⊆ F. Die Aussage (Ai )i∈I ist genau dann (vollständig) unabhängig, wenn die
Familie der Zufallsgrößen (χAi )i∈I unabhängig ist.
57
5. Zufallsgrößen
Beweis:
Da die Ai in F liegen, folgt wegen des Satz 2.1.9, dass auch die χAi messbar und somit
Zufallsgrößen sind.
„⇐“ Es sei vorausgesetzt, dass die (χAi )i∈I unabhängig sind. Daraus folgt nach Definition, dass die (χ−1
Ai (Bi ))i∈I für alle Bi ∈ B vollständig unabhängig sind. Wir
wählen speziell Bi = {1} und es folgt, dass χAi ({1}) = Ai . Dies liefert, dass (Ai )i∈I
(vollständig) unabhängig sind.
„⇒“ Wir setzen voraus, dass die (Ai )i∈I (vollständig) unabhängig sind und wissen, dass
c
χ−1
Ai (Bi ) ∈ {∅, Ω, Ai , Ai }. Die leere und die gesamte Menge müssen nicht betrachtet
werden, da beide unabhängig sind. Somit genügt es zu zeigen, dass die (ci )i∈I in
den Fällen ci = Ai oder ci = Aci unabhängig sind. Dem Satz 4.3.2 folgend gilt
hierfür die Behauptung.
Bemerkung
Wegen dem Satz 5.2.1 werden folgend nur endliche Folgen ξ1 , . . . , ξn von Zufallsvariablen
betrachtet.
• Schreibweise: ξ(ω) : = [ξ1 (ω), . . . , ξn (ω)] ⇒ ξ ist Zufallsvariable mit Werten in
[Rn , Bn ].
ξ heißt n-dimensionaler zufälliger Vektor.
• Frage: Ist Pξ durch Pξ1 , . . . , Pξn eindeutig bestimmt? Im allgemeinen nicht. Dies
gilt nur im Spezialfall, dass ξ1 , . . . , ξn unabhängig sind.
Satz 5.2.3
(ξi )ni=1 ist genau dann unabhängig, wenn Pξ = ×ni=1 Pξi
Beweis:
Der Beweis zeigt, dass der Satz auch im allgemeinen Fall von Zufallsvariablen ξ1 , . . . , ξn
gilt.
„⇒“ Wir haben die Unabhängigkeit von ξ1 , . . . , ξn gegeben und es ist zu zeigen, dass
Q
Pξ (×ni=1 Bi ) = ni=1 Pξi (Bi ) mit B1 , . . . , Bn ∈ B. Dazu wissen wir:
Pξ (×ni=1 Bi ) = P (ξ1−1 (×ni=1 Bi )) = P ({ω ∈ Ω|ξ(ω) ∈ ×ni=1 Bi })
= P („[ξ1 , . . . , ξn ] ∈ ×ni=1 Bi “) = P („ξi ∈ Bi “) = P (
=P
n
\
i=1
=
n
Y
i=1
58
!
ξi−1 (Bi )
Pξi (Bi )
n
\
{ω ∈ Ω|ξi (ω) ∈ Bi })
i=i
=
n
Y
i=1
P (ξi−1 (Bi ))
5.3. Summen unabhängiger Zufallsgrößen
Q
„⇐“ Wir haben die Aussage, Pξ (×ni=1 Bi ) = ni=1 Pξi (Bi ) und es ist zu zeigen, dass
(ξi−1 (Bi ))ni=1 vollständig unabhängig sind. Das heißt, für {i1 , . . . , ik } ⊆ {i1 , . . . , in }
Q
T
−1
−1
(Bij )) gelten. Wir setzen,
(Bij )) = kj=1 P (ξij
und Bij ∈ B muss P ( kj=1 ξij
Aj : = R mit j ∈
/ {i1 , . . . , ik } und Aij : = Bij mit j = 1, . . . , k.
n
Y
⇒ Pξ (×ni=1 Ai ) =
(5.1)
Pξi (Ai )
i=1
Wegen der obigen Feststellungen ist klar:
(5.2)
n
\
Pξ (×ni=1 Ai ) = P
!
ξi−1 (Ai )
i=1

=P
k
\
j=1

ξi−1 (Bij )
Falls Ai = R, dann ist ξi−1 (Ai ) = Ω und kann weggelassen werden.
Pξi (Ai ) =
(5.3)
⇒
k
Y
P (ξi−1 (Ai ))
Pξi (Ai ) =
i=1
=
k
Y
(
1
P (ξi−1 (Bi ))
−1
P (ξij
(Bij )) =
j=1
i∈
/ {i1 , . . . , ik }
i ∈ {i1 , . . . , ik }
k
Y
Pξij (Bij )
j=1
Aus den Gleichungen (Gleichung 5.1), (Gleichung 5.2) und (Gleichung 5.3) folgt
die Behauptung.
Bemerkung
Als Folgerung lässt sich festhalten, dass die ξ1 , . . . , ξn genau dann unabhängig sind, wenn
Q
T
gilt P ( ni=1 ξi−1 (Bi )) = ni=1 P (ξi−1 (Bi )) mit B1 , . . . , Bn ∈ B.
Beispiel (Bernoullischema)
Sei [Ω, F, P ] = [{0, 1}, P({0, 1}), B1,p ]n× = [{0, 1}, P({0, 1}), pδ1 +(1−p)δ0 ]n× = [{0, 1}n× , P({0, 1})n× , [pδ1 +
(1 − p)δ0 ]n× ]. Wir betrachten ξk ([ε1 , . . . , εn ]) = εk mit ε1 , . . . , εn ∈ {0, 1}. Hieraus folgt,
dass Pξk = B1,p und es ist klar, ξ([ε1 , . . . , εn ]) = [ε1 , . . . , εn ] (identische Abbildung).
Somit folgt, Pξ = (pδ1 + (1 − p)δ0 )n× = ×ni=1 B1,p = ×ni=1 Pξi und in Verbindung mit
Satz 5.2.3 ergibt sich, dass die ξ1 , . . . , ξn unabhängig sind.
5.3. Summen unabhängiger Zufallsgrößen
Definition
Seien P1 , P2 Wahrscheinlichkeitsmaße auf [R, B].
P1 ∗ P2 : =
heißt Faltung von P1 und P2 .
Z
P1 ( B
− x )P2 (dx)
| {z }
{y−x|y∈B}
(B ∈ B)
59
5. Zufallsgrößen
Bemerkung
Die Faltung P1 ∗ P2 ist ein Wahrscheinlichkeitsmaß auf [R, B]. Denn die Eigenschaften
lassen sich wie folgt nachweisen:
1) Da das Integral nie negativ werden kann, ist P1 ∗ P2 (B) ≥ 0
R
R
R
2) P1 ∗ P2 (R) = R P1 (R − x)P2 (dx) =R P1 (R)P2 (dx) =R 1P2 (dx) = P2 (R) = 1
P1 ∗ P2 (∅) = P1 (∅ − x)P2 (dx) = P1 (∅)P2 (dx) = 0P2 (dx) = 0
disjunkt und Bi ∈ B. Dann sind auch die (Bi − x)∞
3) Seien die (Bi )∞
i=1
i=1 paarweise
S∞
S∞
S∞
B
)
=
B
)
−
x.
Somit
folgt,
P
∗
P
(
(B
−
x)
=
(
paarweise
disjunkt
und
i
i
1
2
i
i=1
i=1
i=1 R P
R
P∞ R
S
∞
P
(B
−
x)P
(dx)
=
P
(B
−
x)P
(dx)
=
(B
−
x))P
(dx)
=
P1 ( ∞
1
1
2
i
2
2
i=1
i=1 1
P∞ i=1 1
i=1 P1 ∗ P2 (Bi ).
Satz 5.3.1
Seien ξ1 , ξ2 unabhängige Zufallsgrößen. Dann gilt
Pξ1 +ξ2 = Pξ1 ∗ Pξ2
Beweis:
Wir setzen h(x1 , x2 ) = x1 + x2 . Die x1 , x2 sind aus R und somit ist die Abbildung h eine
Abbildung von R2 nach R (h : R2 → R), die stetig und damit messbar ist.
ξ1 + ξ2 = h([ξ1 , ξ2 ]) = h([ξ]) = h ◦ ξ ⇒ (ξ1 + ξ2 )−1 (B) = ξ −1 (h−1 (B))
⇒ Pξ1 +ξ2 (B) = P ◦ (ξ1 + ξ2 )−1 = P ((ξ1 + ξ2 )−1 (B)) = P (ξ −1 (h−1 (B))) = P ◦ ξ
−1
= Pξ (h−1 (B)) = Pξ ◦ h−1 (B) = Pξ1 × Pξ2 (h−1 (B)) = Pξ ({[x1 , x2 ]|x1 + x2 ∈ B})
=
=
Z
x
χ{[x1 ,x2 ]|x1 +x2 ∈B} (y1 , y2 )Pξ (d[y1 , y2 ]) =
χB−y2 (y1 )Pξ1 (dy1 )Pξ2 (dy2 ) =
= Pξ1 ∗ Pξ2 (B)
Z
Z
χB−y2 (y1 )Pξ ([y1 , y2 ]) = (Pξ1 × Pξ2 ) ◦ h−1
Pξ1 (B − y2 )Pξ2 (dy2 )
Bemerkung
∗ ist kommutativ und assoziativ (siehe auch Satz 5.3.1). Somit ist für P1 , . . . , Pn :
(5.4)
∗ni=1 Pi = (((P1 ∗ P2 ) ∗ P3 ) ∗ · · · ∗ Pn )
Satz 5.3.2 (Verallgemeinerung von Satz 5.3.1)
Seien ξ1 , . . . , ξn unabhängige Zufallsgrößen:
⇒ PPn
ξ
i=1 i
60
◦ h−1
= ∗ni=1 Pi
5.3. Summen unabhängiger Zufallsgrößen
Beweis:
Der Beweis erfolgt durch vollständige Induktion. Für n = 2 ist die Behauptung nach
Satz 5.3.1 richtig und wir nehmen an, dass die Gleichung (Gleichung 5.4) für gewisse
n gilt. Dann ist zu zeigen, dass, wenn ξ1 , . . . , ξi unabhängige Zufallsgrößen sind, folgt,
∗ni=1 Pi = (((P1 ∗ P2 ) ∗ P3 ) ∗ · · · ∗ Pn ). Seien ξ1 , . . . , ξn unabhängig und [ξ1 , . . . , ξn ], ξn+1
P
unabhängig sowie ni=1 ξi , ξn+1 ebenfalls unabhängig∗ . Dann folgt, PPn ξi = ∗ni=1 Pξi .
i=1
Unter Anwendung von Satz 5.3.1 ergibt sich, PPn ξi +ξi+1 = ∗ni=1 Pξi ∗Pξn+1 ⇒ PPn+1 =
i=1
i=1
∗n+1
i=1 Pξi
Satz 5.3.3
Seien ξ1 , ξ2 unabhängige Zufallsgrößen. Dann gilt:
Fξ1 +ξ2 (y) =
Z
Fξ1 (y − x)Pξ2 (dx)
Beweis:
Wir wenden den Satz 5.3.1 mit B = (−∞, y) an und haben:
Fξ1 +ξ2 = Pξ1 +ξ2 ((−∞, y)) = Pξ1 ∗ Pξ2 ((−∞, y))
=
=
Z
Z
Pξ1 ((−∞, y) − x)Pξ2 (dx) =
Z
Pξ1 ((−∞, y − x))Pξ2 (dx)
Fξ1 (y − x)Pξ2 (dx)
Satz 5.3.4
Seien ξ1 , ξ2 unabhängige Zufallsgrößen mit Pξi = ℓfi (i = 1, 2) und f1 , f2 stetig. Dann
gilt:
Pξ1 +ξ2 = ℓ(f1 ∗ f2 )
wobei f1 ∗ f2 (y) : =
R∞
−∞ f1 (y
− x)f2 (x)ℓ(dx).
Beweis:
Der Beweis erfolgt weniger mathematisch streng. Da der Aufwand hierfür unangemessen hoch ist. Für streng mathematische Rechnungen sei der Leser an weitere Lektüre
verwiesen.
R
Wegen
Satz 5.3.2 ist Fξ1 +ξ2 (x) = F1 (x − y)Pξ2 (dy) und wegen Pξ2 = ℓf2 ergibt sich
R
F1 (x − y)f2 (y)ℓ(dy)† . Man geht nun davon aus, dass die Funktion differenzierbar ist.
Alle Fälle, wo die Funktion nicht überall differenzierbar ist, werden nicht mit abgedeckt.
R
Somit folgt, dass Fξ′1 +ξ2 (x)
= F1′ (x − y)f2 (y)ℓ(dy) die Dichte von Pξ1 +ξ2 ist (nach
R
Definition). Dies ist aber f1 (x − y)f2 (y)ℓ(dy) = f1 ∗ f2 (x)
∗
†
Der Beweis hierfür findet sich in der gängigen Lektüre zum Thema.
Der Sachverhalt wurde früher bewiesen.
61
5. Zufallsgrößen
Satz 5.3.5
P
Seien ξ1 , ξ2 unabhängige Zufallsgrößen mit Pξi (Z) = 1 (i = 1, 2), d. h. Pξ1 = k∈Z ak δk , Pξ2 =
P
P
P
ak = bk = 1. Dann gilt:
k∈Z bk δk , ak , bk ≥ 0,
Pξ1 +ξ2 (Z) = 1
Pξ1 +ξ2 ({n}) =
X
k∈Z
d. h. Pξ1 +ξ2 =
P
k∈Z ck δk
mit ck =
P
Pξ1 ({n − k})Pξ2 ({k})
an−k bk .
Beweis:
R
Nach Satz 5.3.1 wissen wir, dass Pξ1 +ξ2 (B) = R Pξ1 (B − x)Pξ2 (dx) ist und wählen B =
P
{n}. Somit erhalten wir nun, Pξ1 +ξ2 ({n}) = Pξ1 ({n − x})Pξ2 (dx) = k∈Z Pξ1 ({n −
k})Pξ2 ({k}).
Beispiel
Seien ξ1 , ξ2 unabhängig und Pξi = Bni ,p mit i = 1, 2. Zur Bestimmung von Pξ1 +ξ2 wäre
es jetzt möglich, Satz 5.3.5 anzuwenden:
Pξ1 +ξ2 ({n}) =
X
k∈Z
=
Pξ1 ({n − k})Pξ2 ({k}) =
X
0≤k≤n2
=
(
!
X
k∈Z
Bn1 ,p ({n − k})Bn2 ,p ({k})
!
n1
n2 k
pn−k (1 − p)n1 −(n−k)
p (1 − p)n2 −k
n−k
k
n1 +n2 n
p (1
n
0
− p)n1 +n2 −n
0 ≤ n ≤ n1 + n2
sonst
= Bn1 +n2 ,p ({n})
Diese Rechnung ist relativ kompliziert und es existieren weitere Möglichkeiten zur Bestimmung. Wir betrachten das Bernoullischema zu n1 + n2 , p und haben durch den
Wahrscheinlichkeitsraum [{0, 1}, P({0, 1}), B1,p ]n1 +n2 ein Bernoullischema gegeben. DaP 1
P 1 +n2
bei stellen ξˆ1 : = ni=1
πi und ξˆ2 : = ni=n
π die Anzahl der Erfolge im Bernoullii +1 i
schema dar. Wir wissen, dass Pξˆ1 = Bn1 ,p , Pξˆ2 = Bn2 ,p , ξˆ1 , ξˆ2 unabhängig sind. Daraus
P
folgt: Pξ +ξ = P ˆ ˆ und es ist klar, dass ξˆ1 + ξˆ2 = n1 +n2 πi ⇒ P ˆ ˆ = Bn +n ,p
1
2
ξ1 +ξ2
i=1
ξ1 +ξ2
1
2
5.4. Der Erwartungswert
Im folgenden sind immer [Ω, F, P ] ein Wahrscheinlichkeitsraum und wir betrachten die
Zufallsgrößen ξ, η, ζ.
Definition
R
Sei ξ eine Zufallsgröße, so dass Eξ : = ξ(ω)P (dω) existiert. Dann heißt Eξ Erwartungswert von ξ.
62
5.4. Der Erwartungswert
Bemerkung
• In älteren Büchern wird Eξ auch manchmal als M ξ bezeichnet.
• Ist ξ bezüglich P integrierbar, so ist Eξ endlich. Man sagt, ξ hat einen endlichen
Erwartungswert.
• Eξ existiert, wenn ξ ≥ 0 oder ξ P -integrierbar ist. Der letztere stellt einen wichtigen
Fall dar.
• Eξ ist ein fundamentales, aber grobes Kennzeichen der Verteilung Pξ . Die Definition lässt sich allein mit Pξ aufschreiben.
Satz 5.4.1
Sei ξ eine Zufallsgröße mit endlichen Erwartungswert‡ . Dann gilt:
Eξ =
Z
xPξ (dx) =
Z
ιdPξ
Beweis:
Zum Beweis kommt der Übertragungssatz (Satz 2.2.3) zur Anwendung. Wir haben
[Ω1 , F1 , µ] : = [Ω, F, P ], [Ω2 , F2 ] = [R, B], hR: [Ω1 , F1 ] →R [Ω2 , F2 ], f : [Ω2 , F2 ] → [R, B].
−1
Speziell sind h = ξ und f = ι. Somit folgt, f ◦ hdµ = f dµ ◦h
| {z } und in unserem
Fall:
R
ξdP =
R
P ◦ξ −1 =Pξ
ιdPξ
Satz 5.4.2
P
Sei Pξ (Z) = 1§ und ξ eine Zufallsgröße mit Pξ = k∈Z ak δk . Falls Eξ absolut konvergiert,
gilt:
X
X
kak
kP ξ({k}) =
Eξ =
k∈Z
k∈Z
Beweis:
R
P
Aus Satz 5.4.1 folgt, Eξ = xPξ (dx) = k∈Z kak .
Satz 5.4.3
Sei Pξ = ℓf mit f stetig. Falls der Erwartungswert Eξ existiert, gilt:
Eξ =
Z∞
xf (x)dx
−∞
Beweis:
R
R
R∞
xf (x)dx.
Aus Satz 5.4.1 folgt, Eξ = xPξ (dx) = xf (x)ℓdx = −∞
‡
Die Aussage gilt auch für unendlichen Erwartungswert. Doch der hierzu zu führende Beweis ist
deutlich aufwendiger.
§
diskrete Verteilung, ξ nimmt nur ganze Zahlen an.
63
5. Zufallsgrößen
Satz 5.4.4
Sei ξ eine nichtnegative Zufallsgröße, d. h. P („ξ ≥ 0“) = 1 ⇔ Pξ ([0, +∞)) = 1. Dann
gilt:
Z
Eξ =
(1 − Fξ (x))ℓdx
[0,+∞)
Beweis:
R
R
R
R
Nach Satz 5.4.1 ist Eξ = [0,x] 1ℓ(dy) = [0,+∞) xPξ (dx) = [0,+∞) ( [0,x) 1ℓ(dy))Pξ (dx) =
s
s
R
R
χ{[z1 ,z2 ]∈R
(x, y)ℓ(dy)Pξ (dx)
= χ{[z1 ,z2 ]∈R2 |0≤z2 <z1 }
2
s χ[0,+∞)(x) χ[0,x) (y)ℓ(dy)Pξ (dx) =
R
R |0≤z2 <z1 }
R
χ
(y)χ[y,∞) (x)Pξ (dx)ℓ(dy)
= χ[0,∞) (y)( χ[y,∞)(x)Pξ (dx))ℓ(dy) = χ[0,∞) (y)Pξ ([y, ∞))ℓ(dy)
R [0,∞)
R
χ[0,∞)(y)(1 − Fξ (y))ℓ(dy) = [0,∞) (1 − Fξ (y))ℓ(dy).
Definition
Sei ξ eine Zufallsgröße, so dass ein endlicher Eξ k existiert. Dann heißt mk (ξ) = Eξ k
k-tes Moment der Zufallsgröße ξ.
Momentenproblem Ist Pξ durch die Folge (mk (ξ))nk=1 eindeutig bestimmt? Diese
Frage
R k
k
ist negativ zu beantworten. Nach dem Übertragungssatz ist klar, dass Eξ = x Pξ (dx)
gilt. Aus der Kenntnis von Pξ folgt somit die Kenntnis des Moments. Aber im allgemeinen ist Eξ k 6⇒ Pξ . Eine positive Antwort auf die obige Frage ist nur unter gewissen
Beschränktheitsforderungen möglich.
Satz 5.4.5 (Elementare Eigenschaften des Erwartungswerts)
(E1) Seien Eξ1 , Eξ2 endlich. Dann folgt: E(a1 ξ1 + a2 ξ2 ) = a1 Eξ1 + a2 Eξ2 mit a1 , a2 ∈ R.
(E2) Sei ξ = χA , A ∈ F ⇒ Eξ = P (A)
(E3) Sei P („ξ = c“) = 1 ⇔ Pξ = δc ⇒ Eξ = c
(E4) Sei P („a ≤ ξ ≤ b“) = 1 ⇒ a ≤ Eξ ≤ b
Beweis:
R
R
R
(E1) E(a1 ξ1 + a2 ξ2 ) = (a1 ξ1 + a2 ξ2 )dP = a1 ξ1 dP + a2 ξ2 dP = a1 Eξ1 + a2 Eξ2
(E2) EχA =
R
χA dP = P (A)
(E3) P („ξ = c“) = 1 ⇒ Pξ = δc
R
R
Nach Satz 5.4.1 folgt nun Eξ = xPξ (dx) = xδc (dx) und letzteres ist ein Integral bei diskreten Maßen. Damit ergibt sich nach Satz 5.4.2,
dass die letzte Aussage
R
P
gleich k∈R 1 · δc ({k}) = c ist. Im allgemeinen Fall gilt f (x)δRc (dx) = f (x). help:
P
muss das nicht eigentlich f(c) sein? Noch allgemeiner formuliert: f (x) k ak δωk (dx) =
P
k ak f (ωk ).
(E4) P („a ≤ ξ ≤ b“) = 1 ⇒ Pξ ([a, b]) = 1 ⇒ Eξ =
R
[a,b] aPξ (dx) = aP ([a, b]) = a
64
R
xPξ (dx) =
R
[a,b] xPξ (dx)
≥
5.4. Der Erwartungswert
Beispiel
1. Bernoulli-Verteilung: Pξ = B1,p = pδ1 + (1 − p)δ0 ⇒ Eξ = 1p + 0(1 − p) = p
P
P
2. Pξ = Bn,p = nk=0 nk pk (1 − p)n−k δk ⇒ Eξ = nl=0 k nk pk (1 − p)n−k = np
Ein anderer Weg, um dies zu ermitteln: Sei [Ω, F, P ] = [{0, 1}, P({0, 1}), B1,p ]n×
und ξk die Projektion auf die k-te Ebene in Ω. Es ist bekannt, dass Pξk = B1,p und
P
P
P
PP ξk = Bn,p = Pξ . Damit folgt, Eξ = E nk=1 ξk = nk=1 Eξk = nk=1 p = np.
3. Cauchy-Verteilung: Pξ = ℓf mit f (x) =
R +∞
0
1
π(1+x2 )
xf (x)dx = ∞ gilt.
und x ∈ R. Es ist klar, dass
Ein anderer Weg ist folgender: Sei [Ω, F, P ] = [{0, 1}, P({0, 1}), B1,p ]n× und ξk die
Projektion auf die k-te Komponente in Ω. Es ist bekannt, dass Pξk = B1,p und
P
P
P
PP ξk = Bn,p = Pξ . Somit folgt, Eξ = E nk=1 ξk = nk=1 Eξk = nk=1 p = np.
R
+∞
1
4. Sei P ξ = ℓf mit f (x) = π(1+x)
xf (x)dx = +∞
2 für x ∈ R. Es ist klar, dass 0
gilt. Formal wäre Eξ = +∞. Damit folgt, dass Eξ nicht existiert.
5. Pξ =
Q
λ
⇒ Eξ = λ
6. Pξ = Exλ ⇒ Eξ = 1/λ
Satz 5.4.6
Seien ξ, η unabhängige Zufallsgrößen mit endlichem Erwartungswert. Dann hat die Zufallsgröße ξ · η einen endlichen Erwartungswert und es gilt:
E(ξ · η) = Eξ · Eη
Beweis:
Spezialisierung des Übertragungssatzes:
[Ω1 , F1 , µ] := [Ω, F, P ]
h : Ω1 → Ω2
[Ω2 , F2 ] : = [R2 , B2 ]
h = [ξ, η]
f : Ω2 → R
⇒
Z
Z
f ◦ hdµ =
ξ · ηdP =
Z
Z
f (x, y) = xy
f dµ ◦ h−1
xydP[ξ,η] d([x, y])
⇒ f ◦ h = ξ · η, µ ◦ h−1 = P ◦ h−1 = P[ξ,η] = Pξ × Pη
⇒ E(ξ · η) =
=
Z
x
xydP[ξ,η] d([x, y]) =
xyPξ (dx)Pη (dy) =
= Eξ · Eη
Z
Z
xy(Pξ × Pη )(d[x, y])
xPξ (dx) ·
Z
yPη (dy)
65
5. Zufallsgrößen
Bemerkung
Ohne die Forderung der Unabhängigkeit von ξ und η ist die Behauptung im obigen Satz
im allgemeinen nicht richtig.
5.5. Die Varianz
Sei [Ω, F, P ] ein Wahrscheinlichkeitsraum. Wir betrachten die Zufallsgrößen ξ, η.
Definition
Sei ξ eine Zufallsgröße mit endlichem Erwartungswert.
2
Dξ : = E(ξ − Eξ) =
heißt Varianz von ξ. Weiterhin heißt
ξ.
√
Z
(ξ − Eξ)2 dP
Dξ Standardabweichung oder Streuung von
Satz 5.5.1 (Elementare Eigenschaften der Varianz)
a) Dξ ≥ 0
b) Dξ = 0 ⇔ Pξ = δEξ . d. h. P („ξ = c“) = 1, also Determinismus.
c) Dξ endlich ⇔ Eξ 2 endlich. In diesem Fall gilt Dξ = Eξ 2 − (Eξ)2
d) D(c1 ξ + c2 ) = c21 Dξ mit c1 , c2 ∈ R (Varianz einer linearen Transformation)
R
e) Dξ = (x − Eξ)2 Pξ (dx)
Beweis:
R
a) klar, weil (ξ − Eξ)2 ≥ 0 ⇒ (ξ − Eξ)2 dP ≥ 0
R
b) „⇐“ Pξ = δEξ ⇒ Dξ = (x − Eξ)2 Pξ (dx) = (Eξ − Eξ)2 = 0
„⇒“ Sei η ≥ 0, Eη = 0 ⇒ P („η = 0“) = 1.
c) Dξ = E(ξ − Eξ)2 = E(ξ)2 − 2eξEξ + (Eξ)2 ) = Eξ 2 − 2EξEξ + (Eξ)2 = Eξ 2 −
2(Eξ)2 + (Eξ)2 = Eξ 2 − (Eξ)2
d) D(c1 ξ + c2 ) = E(c1 ξ + c2 − E(c1 ξ + c2 ))2 = E(c1 ξ − c1 Eξ)2 = E(c1 (ξ − Eξ))2 =
c21 E(ξ − Eξ)2 = c21 Dξ
R
e) Dξ = E(ξ − Eξ)2 = (ξ − Eξ)2 dP . Nach dem Übertragungssatz folgt mit h =
ξ, f (x) = (x − Eξ)2 , µ = PR sowohl f ◦ h =R (ξ − Eξ)2 als auch µ ◦ h−1 = Pξ . Weiter
folgt somit E(ξ − Eξ)2 = f (x)Pξ (dx) = (x − Eξ)2 Pξ (dx). Daraus ergibt sich die
Behauptung.
Bemerkung (Folgerungen)
1. Aus den Punkten a) und c) ergibt sich: Eξ 2 ≥ (Eξ)2
66
5.5. Die Varianz
2. Aus c) ergibt sich: Dξ = 0 ⇔ Eξ 2 = (Eξ)2 ⇔ Pξ = δEξ
Beispiel (für Eξ · η 6= Eξ · Eη)
Sei ξ eine Zufallsgröße mit Dξ > 0, d. h. ξ ist keine Konstante, und η : = ξ. Dann folgt,
Eξ · η = Eξ 2 . Da weiter gilt, Dξ = Eξ 2 − (Eξ)2 und Dξ 6= 0, folgt, dass Eξ 2 6= Eξ · Eξ.
Angenommen, es gelte, Eξ·η = Eξ·E·η. Dann wäre Eξ 2 = (Eξ)2 ⇒ Dξ = Eξ 2 −(Eξ)2 =
0
Satz 5.5.2
Seien ξ, η unabhängige Zufallsgrößen mit endlicher Varianz. Dann gilt:
D(ξ + η) = Dξ + Dη
Beweis:
Es ist klar, dass aus ξ, η unabhängig auch ξ − Eξ, η − Eη unabhängig folgt.
D(ξ + η) = E(ξ + η − E(ξ + η))2 = E((ξ − Eξ) + (η − Eη))2
= E (ξ − Eξ)2 + 2(ξ − Eξ)(η − Eη) + (η − Eη)2
= E(ξ − Eξ)2 + E(η − Eη)2 + 2 E(ξ − Eξ) · E(η − Eη) = Dξ + Dη
|
{z
0=
} |
{z
=0
}
Bemerkung
Ohne die Forderung der Unabhängigkeit ist die Behauptung im allgemeinen falsch.
Weiterhin kann man per vollständiger Induktion zeigen, dass für ξ1 , . . . , ξn unabhängige
Zufallsgrößen mit endlichen Erwartungswerten folgt,
D
n
X
k=1
ξk
!
=
n
X
Dξk
k=1
Satz 5.5.3
P
a) Sei Pξ = k∈Z ak δk und Eξ endlich. Dann gilt:
Dξ =
X
(k − Eξ)2 ak =
k∈Z
X
(k −
k∈Z
X
jaj )2 ak =
X
k∈Z
j∈Z
k2 ak − (
X
kak )2
k∈Z
b) Sei Pξ = ℓf mit f stetig und Eξ endlich. Dann ist:
Dξ =
+∞
Z
−∞
(x − Eξ)2 f (x)dx =
 +∞
2
Z
x2 f (x)dx − 
xf (x)dx
+∞
Z
−∞
−∞
Beispiel
1. Pξ = B1,p = pδ1 + (1 − p)δ0 ⇒ Dξ = (0 − p)2 (1 − p) + (1 − p)2 p = p2 (1 − p) + p −
2p2 + p3 = p − p2 = p(1 − p)
67
5. Zufallsgrößen
2. Pξ = Bn,p
Seien ξ1 , . . . , ξn unabhängig und Pξk = B1,p für k = 1, . . . , n. Dann gilt PP ξk =
P
P
Bn,p ⇒ Pξ = PP ξk ⇒ Dξ = D nk=1 ξk = nk=1 Dξk = np(1 − p). Andererseits
gilt auch: Dξ =
Pn
k=0 (k
− np)2 pk (1 − p)n−k
n
k
= np(1 − p)
Interpretation der Varianz Sei (H, k·k) ein Hilbertraum. Dabei ist H ein linearer
Raum und k·k die Norm. Weiter seien h ∈ H, G ⊆ H.
Wir betrachten den Spezialfall:
H: =
(
f [Ω, F] → [R, B]|kf k =
sZ
f 2 dP < +∞
)
Dabei ist f eine Zufallsgröße und Ef ist endlich, denn es gilt, ∞ > Ef 2 ≥ (Ef )2 . Damit
ist auch Df endlich und existiert. Weiter sei:
G : = {a : Ω → R|konstant}
und ξ eine Zufallsgröße mit Eξ 2 < +∞. Es ist klar, dass kξ−ak =
Satz 5.5.4
Sei ξ eine Zufallsgröße mit Eξ 2 < ∞. Dann gilt:
p
E(ξ − a)2
Dξ = inf E(ξ − a)2 = min E(ξ − a)2
a
a
√
Dabei
p ist Dξ der Abstand einer Zufallsgröße zur Menge der Konstanten mit Dξ =
inf a E(ξ − a)2 = inf a kξ − ak. Wenn der Abstand 0 ist, ist somit ξ konstant. Für einen
kleinen Abstand bedeutet dies, dass der Zufall gering ist.
√
Beweis:
E(ξ − a)2 = E((ξ − Eξ) + (Eξ − a))2
= E((ξ − Eξ)2 + E(ξ − Eξ)(Eξ − a) + (Eξ − a)2 )
= Dξ + E(Eξ − a) E(ξ − Eξ) +(Eξ − a)2
= Dξ + (Eξ − a)2
|
{z
=0
}
⇒ min E(ξ − a)2 = min Dξ + (Eξ − a)2 ⇔ a = Eξ
a
a
⇒ Dξ = min E(ξ − a)2
a
Bemerkung
Sei ξ eine Zufallsgröße mit Eξ, Eξ 2 < +∞ und endlich.
68
5.6. Die Tschebyscheffsche Ungleichung
• ξ − Eξ heißt Zentrierung von ξ. Die Zufallsgröße η heißt zentriert, wenn Eη = 0.
• Sei Dξ > 0. Dann heißt √ξ
Dξ
Normierung von ξ. Die Zufallsgröße η heißt nor-
miert, wenn Dη = 1.
√ . Dann ist:
• Wir betrachten Normierung und Zentrierung: η : = ξ−Eξ
Dξ
E(ξ − Eξ)
√
=0
Dξ
ξ − Eξ
1
1
Dη = D √
=
D(ξ − Eξ) =
Dξ = 1
Dξ
Dξ
Dξ
Eη =
5.6. Die Tschebyscheffsche Ungleichung
Sei [Ω, F, P ] ein Wahrscheinlichkeitsraum. Wir betrachten Zufallsgrößen über diesen
Wahrscheinlichkeitsraum.
Satz 5.6.1 (Markoffsche Ungleichung)
Sei ξ ≥ 0 eine nichtnegative Zufallsgröße¶ und a ≥ 0 eine reelle Zahl. Dann gilt:
Eξ ≥ aP („ξ ≥ a“) = aPξ ([a, +∞]) = a(1 − Fξ (a))
Beweis:
Sei ξ ≥ 0. Dann ist ξ(ω) ≥ ξ(ω)χ{ω̂|ξ(ω̂)≥a} (ω) ≥ aχ{ω̂|ξ(ω̂)≥a} (ω). Da das Integral monoR
R
R
ton ist, folgt Eξ = ξ(ω)P (dω) ≥ aχ{ω̂|ξ(ω̂)≥a} dP = a χ{ω̂|ξ(ω̂)≥a} dP = aP ({ω̂|ξ(ξ̂) ≥
a}) = aP („ξ ≥ a“).
Satz 5.6.2 (Tschebyscheffsche Ungleichung)
Sei η eine Zufallsgröße mit endlichem Erwartungswert. Dann existiert Dη und es gilt:
P („|η − Eη| ≥ ε“) ≤
Dη
ε2
ε>0
Beweis:
Zum Beweis wird der Satz 5.6.1 für folgenden Spezialfall angewendet. Wir setzen ξ :=
(η − Eη)2 ≥ 0 und a : = ε2 . Dann ist klar, dass Eξ = Dη gilt. Dann ergibt sich:
Dη = Eξ ≥ aP („ξ ≥ a“) = ε2 P („(η − Eη)2 ≥ ε2 “) = ε2 P („|η − Eη| ≥ ε“).
Satz 5.6.3
Seien ξ1 , . . . , ξn eine Folge unabhängiger Zufallsgrößen mit Eξi = a, Dξi = σ 2 für i =
1, . . . , n. Dann gilt:
P
¶
Damit existiert
R
n
1X
ξi − a| ≥ ε“
„|
n i=1
!
≤
σ2
nε2
ε>0
ξdµ nach der Definition zweiter Stufe immer.
69
5. Zufallsgrößen
Beweis:
Für den Beweis wird Satz 5.6.2 angewendet und wir setzen: η : =
⇒ Eη = E
Dη = D
1/n
1/n
X
i
X
ξi
i
⇒ P „|1/n
X
ξi
!
!
= 1/n
X
i
= 1/n2
X
i
1
n
Pn
i=1 ξi
Eξ = a1/nn = a
|{z}i
=a
Dξi = 1/n2 nσ 2 =
|{z}
σ2
n
=σ2
ξi − a| ≥ ε“ = P („|η − Eη| ≥ ε“) ≤=
σ2
Dη
=
ε2
nε2
Anwendung von Satz 5.6.3 auf Wette
• n = 250 Münzwürfe mit ξ1 , . . . , ξ250 , Bernoullischema mit n = 250, p = 1/2.
• ξi = 1 entspricht der Aussage, dass der i-te Wurf Wappen zeigt.
• Damit sind die ξ1 , . . . , ξn unabhängig
• Pξi = B1,p = 1/2(δ1 + δ0 ) mit p = 1/2 ⇒ Eξi = 1/2, Dξi = 1/2(1 − 1/2) = 1/4
P250
• |
i=1 ξi
− 125| < 25 = : A entspricht der Aussage, dass ich gewinne.
Aus Satz 5.6.3 folgt nun: P (A) = P („|1/n
1 − 1/10 = 0, 9
Pn
i=1 ξi −a|
≥ ε“) <
σ2
nε2
= 1−P („|1/2
P
ξi − a| ≥ ε“) =
(reale) Anwendung — Meßtheorie
Viele Messgeräte arbeiten nicht exakt. Die Ursachen liegen in systematischen Fehlern
und durch zufällige Einflüsse bedingte Fehler. Die systematischen Fehler können durch
Eichung minimiert oder abgeschafft werden.
Die ideale Messapparatur liefert der Wert a und der reale Vorgang die zufällige Größe ξ.
Da das Gerät zwar korrekt misst, aber auch anfällig für äußere Einflüsse ist, ergibt sich
ein nicht systematischer Fehler, d. h. Eξ = a. Vom Hersteller erhält man Dξ = σ 2 . Die
übliche Verfahrensweise ist nun, dass wiederholte Messungen durchgeführt werden und
man so viele ξ1 , . . . , ξn bekommt. Für diese wird angenommen, dass sie unabhängig und
identisch verteilt (iid‖ ) sind und es gilt:
Dξi = σ 2
Eξi = a
Als Verfahren wird das arithmetische Mittel als „Schätzwert“ für a gebildet:
n
1X
ξi = ηn
n i=1
‖
70
vom englischen independent and identical distributed
5.7. Konvergenzarten und das Gesetz der großen Zahlen
Folgende Ansprüche werden formuliert:
1. Die Schätzung soll „hinreichend“ exakt sein, d. h. für ein vorgegebenes ε > 0 wird
gefordert: |ηn − a| < ε.
2. Vorgabe eines Sicherheitsniveaus s < 1 mit
(5.5)
P („|ηn − a| < ε“) ≥ s
Damit stellt sich das Problem, wie n gewählt werden muss, so dass die Gleichung
(Gleichung 5.5) gilt. Eine mögliche Antwort ist:
(5.6)
n≥
σ2
(1 − s)ε2
Bemerkung
1. Wählen „kleinstes“ zulässiges n
2. Kompromiss bei der Wahl von s, ε gewöhnlich erforderlich. Denn aus großem s und
kleinem ε folgt ein großes n.
3. Bei Informationen über den Typ Pξ kann man bessere Grundlagen für die Ermittlung des n als Satz 5.6.3 erhalten. (siehe Vorlesung Stochastik).
Beweis:
Es folgt ein Beweis dafür, dass aus Gleichung (Gleichung 5.6) die Gleichung (Gleichung 5.5)
folgt. Aus dem Satz 5.6.3 folgt, P („|ηn − a| < ε“) = 1 − P („| ηn −a| ≥ ε“). Nunmehr
|{z}
P
1/n
ξi
2
σ
sich hier wieder Satz 5.6.3 anwenden und die obige Gleichung ist größergleich 1− nε
2 ≥ s.
σ2
σ2
d. h. Gleichung (Gleichung 5.5) wird realisiert, wenn s ≤ 1− nε2 ⇔ n ≥ (1−s)ε2 . Letzteres
entspricht gerade Gleichung (Gleichung 5.6).
5.7. Konvergenzarten und das Gesetz der großen Zahlen
Sei [Ω, F, P ] ein Wahrscheinlichkeitsraum und wir betrachten Zufallsgrößen oder -variablen
über diesem Wahrscheinlichkeitsraum.
Definition
Seien ξ eine Zufallsgröße und (ξn )n≥1 eine Folge von Zufallsgrößen. Die Folge (ξn ) konvergiert mit Wahrscheinlichkeit gegen ξ, wenn für alle ε > 0 gilt:
n→∞
n→∞
P („|ξn − ξ| ≥ ε“) −−−→ 0 ⇔ P („|ξn − ξ| < ε“) −−−→ 1
71
5. Zufallsgrößen
Satz 5.7.1 (Schwaches Gesetz der großen Zahlen nach Tschebyscheff)
Sei (ξi )i≥1 eine Folge unabhängiger identisch verteilter Zufallsgrößen mit Eξi = a, Dξi =
σ 2 . Dann gilt:
n
1X
P
ξi −
→a
n i=1
Beweis:
Aus Satz 5.6.3 folgt: help: Beweis unklar
Bezug zu relativen Häufigkeiten (Spezialfall) Wir betrachten die Folgen von Zufallsvariablen (ηi )i≥1 mit Werten in [X, X], wählen ein A ∈ X und betrachten Pn1 (A) = Pni (A).
Dann wird gefordert, dass die (ηi )i≥1 iid sind. Nun betrachten wir die ξi : = ξiA : =
χA (ηi ) = χA ◦ηi für i = 1, 2, . . .. Diese sind messbar, da A ∈ X und die Summe über alle ξi
P
entspricht der Anzahl, wie oft A bei 1, . . . , n realisiert wird, d. h. 1/n ni=1 ξi ist die relative Häufigkeit des Eintretens von A. Es ist klar, dass (ξi ) iid sind und aus Satz 5.7.1 ergibt
P
P
sich 1/n ξi −
→ Pη1 (A). Dies ist eine rein qualitative Aussage und macht keine Angabe
über die Konvergenzgeschwindigkeit. Durch die Anwendung von Satz 5.6.3 kann nun
P
P (A)(1−P (A))
folgender Schluss gezogen werden: P („lvert1/n ξi − Pη1 (A)| ≥ ε“) ≤ η1 nε2 η1
≤
P
n→∞
1
1
ξi − Pη1 (A)| ≥ ε“) −−−→ 0
nε2 ⇒ supA P („| /n
andere Konvergenzarten Wir betrachten die schwache Konvergenz. Dazu sei (Qn )∞
n=1
und Q ein Wahrscheinlichkeitsmaß auf [R, B]. Man sagt, (Qn ) konvergiert schwach gegen
Q, wenn gilt:
Z
Z
n→∞
f dQn −−−→
f dQ
Dabei ist f eine Abbildung von R nach R, die stetig und beschränkt ist. Die Schreibweise
dafür, dass (Qn ) schwach gegen Q konvergiert, ist Qn ⇒ Q.
Satz 5.7.2
Qn ⇒ Q ⇔ FQn (x) → FQ (x)
für alle Stetigkeitspunkte von FQ .
Satz 5.7.3
P
ηn −
→⇒ Pηn ⇒ Pη
Bemerkung
Die Umkehrung ist im Allgemeinen falsch. Denn sei (ηn ) iid, Pη = Pη1 , η, ηn unabhängig.
Dann folgt, dass Pηn = Pη ⇒ Pη1 ⇒ Pn . Aber P („|ηn − η| ≥ ε“) ist konstant und
ungleich 0. Außer für den Fall, dass Pη , Pηn Diracmaße sind.
72
5.7. Konvergenzarten und das Gesetz der großen Zahlen
Satz 5.7.4
Sei Pη = δa . Dann folgt:
P
ηn −
→ η ⇔ Pηn ⇒ Pη
Definition
∞
Sei (η)∞
n=1 , η eine zufällige Größe. Dann konvergiert (ηn )n=1 mit Wahrscheinlichkeit 1
∗∗
(fast sicher) gegen η, wenn gilt :
P („ lim ηn = η“) = 1 = P ({ω ∈ Ω : η(ω) = lim ηn (ω)})
n→∞
Satz 5.7.5
P =1
P
ηn −−−→ η ⇒ ηn −
→η
Die Umkehrung dieses Satzes ist im Allgemeinen falsch.
Bemerkung
Andere Formulierung:
Wenn zu jeder Folge eine Teilfolge existiert, so dass man immer Konvergenz in Wahrscheinlichkeit hat, hat man auch fast sichere Konvergenz.
Satz 5.7.6 (Starkes Gesetz der großen Zahlen nach Kolmogoroff)
Sei (ξk )nk=1 eine Folge unabhängiger identisch verteilter Zufallsgrößen mit endlichem
Erwartungswert a. Dann gilt:
n
1X
P =1
ξk −−−→ a
n k=1
Bemerkung
Betrachten Zufallsgrößen mit E|ξ|p < +∞ und führen hier eine Konvergenz ein. Diese
Räume werden als Lp -Räume bezeichnet. Es gilt dann Lp (Ω, F, P ) und man hat die
Spezialfälle:
1. p = 1 → ρ(η, ξ) : = E|ξ − η|
2. p = 2 → hf, gi : =
R
f gdP . Der Raum L2 ist der Hilbertraum mit kf k2 = hf, f i.
Satz 5.7.7 (Spezialfall des Satz von Weierstraß) P
Sei f : [0, 1] → R stetig. Weiter sei bn (x) := nk=0 f ( nk ) nk xk (1 − x)n−k ein Bernoullipolynom mit x ∈ [0, 1]. Dann gilt:
lim bn (x) = f (x)
n→∞
∗∗
P =1
Schreibweise: ηn −−−→ η
73
5. Zufallsgrößen
Beweis:
Der Beweis erfolgt durch die Anwendung des schwachen Gesetzes der großen Zahlen
(Satz 5.7.1). Seien ξ1 , . . . , ξn unabhängige, identische verteilte Zufallsgrößen mit Pξi =
P
P
→ x.
B1,x ⇒ Eξk = x, Dξk = x(1 − x). Aus demR obigen Gesetz folgt 1/nR nk=1 ξk −
P
P
Dies ist gleichwertig zu P1/n n ξk ⇒ δx ⇔ f (y)P1/n n ξk (dy) ⇒ f (y)δx (dy) =
k=1
f (x). Nach dem Übertragungssatz ist
Pn
k
k=1 f ( /n)ak
74
=
Pn
n
k
k=1 f ( /n) k
xk (1
−
R
f (y)P1/n Pn
x)n−k .
k=1
k=1
ξk (dy) =
R
f (y/n)PPn
ξ
k=1 k
(dy) =
A. Übungsaufgaben
1. Sei Ω eine nichtleere Menge und es gelte Ai ⊆ Ω, i = 1, 2, . . . , Wir definieren:
lim sup An : =
n→∞
lim inf An : =
n→∞
∞ [
∞
\
n=1 k=n
∞ \
∞
[
Ak
Ak
n=1 k=n
Zeigen Sie:
a) Berechnen Sie lim supn→∞ An und lim inf n→∞ An für die Mengen
An : = (1/n, 1 + 1/n]
b) Beweisen Sie:
lim inf An = {ω ∈ Ω : ω ∈ An ∀n ∈ N bis auf endlich viele}
n→∞
c) Geben Sie eine zu (b) analoge Beschreibung von lim supn→∞ An .
d) Zeigen Sie:
lim inf Acn = lim sup An
n→∞
T
S
S
n→∞
c
T
S
∞
∞
c
/ ∞
/ ∞
„⇐“ x ∈ ( ∞
k=n0 Ak ⇒
n=1 ( k=n Ak ) ⇒ ∃n0 : x ∈
n=1 k=n Ak ) ⇒ x ∈
c
x ∈
/ Ak für k = 1, 2, . . . ⇒ x ∈ Ak für k = n0 , n0 + 1, . . . ⇒ x ∈
T∞
S∞ S∞
c
c
c
k=n0 Ak ⇒ x ∈ n=1 k=n Ak = lim inf n→∞ An .
„⇒“ selbst
2. Sei Ω eine nichtleere Menge und E ∈ P(Ω). Die von E erzeugte σ-Algebra σ(E) ist
definiert durch
σ(E) =
\
{F : F ⊇ E, F ist σ-Algebra über Ω}
Es sei Ω = {1, 2, 3, 4, 5, 6} und E = {{1, 2, 3}, {1, 3}}. Ermitteln Sie σ(E).
i 1
2
3
4
5
6
7
8
Ai
∅
{2}
{1, 3}
{1, 2, 3}
{4, 5, 6}
{2, 4, 5, 6}
{1, 3, 4, 5, 6}
Ω
75
A. Übungsaufgaben
A1
A2
A3
A4
A5
A6
A7
A8
A1
A2
A3
A4
A5
A6
A7
A8
1
x
x
x
x
x
x
x
2
2
x
x
x
x
x
x
3
4
3
x
x
x
x
x
4
4
4
4
x
x
x
x
5
6
7
8
5
x
x
x
6
6
8
8
6
6
x
x
7
8
7
8
7
8
7
x
8
8
8
8
8
8
8
8
3. Sei [Ω, F, µ] ein Maßraum mit µ(Ω) < ∞. Zeigen Sie für beliebige meßbare Mengen
A, B ∈ F gilt:
µ(A ∪ B) = µ(A) + µ(B) − µ(A ∩ B)
Wir können A ∪ B auch als A ∪ (B \ A) aufschreiben und erhalten so zwei disjunkte
Mengen. Also folgt µ(A ∪ B) = µ(A) + µ(B \ A). Also müssen wir noch zeigen, dass
µ(B \ A) = µ(B) − µ(A ∩ B) gilt. Hierzu ist wichtig zu wissen, dass es sich um ein
endliches Maß handelt. Wir können die Menge B \ A zu B \ (A ∩ B) umformen
und können einen Satz aus der Vorlesung anwenden: µ(A ∩ B) = µ(B \ (A ∩ B)) =
µ(B) − µ(B ∩ A).
4. Wir betrachten die messbaren Räume [Ωk , Fk ] mit k = 1, 2, . . .. Dabei sei Ωk
endlich oder abzählbar unendlich und es gelte Fk = P(Ωk ).
a) Zeigen Sie
⊗nk=1 Fk = P(×nk=1 Ωk )
Hierfür müssen wir zeigen, dass ⊗nk=1 Fk ⊆ P(Ωk ) sowie P(Ωk ) ⊆ ⊗nk=1 Fk
gilt.
Es ist ×nk=1 Ωk = {[ω1 , . . . , ωn ] : ωk ∈ Ωk }. Weiterhin wissen wir, dass ⊗nk=1 Fk =
T
σ({×nk=1 Ak , Ak ∈ Fk }) und es gilt, σ(E) = {F ist σ-Algebra, E ⊆ F}. So|
{z
}
=E
{×nk=1 Ak , Ak
mit folgt
P(×nk=1 Ωk ).
∈ Fk } ⊆ P(×nk=1 Ωk ) ⇒ σ({×nk=1 Ak , Ak ∈ Fk }) ⊆
5. Zeigen Sie, dass durch nachfolgende Mengenfunktionen Wahrscheinlichkeitsmaße
auf [R, B] gegeben sind und skizzieren Sie jeweils deren Verteilungsfunktion:
a) Das Maß heißt Binomialverteilung mit den Parametern n und p:
Bnp : =
n
X
k=0
!
n k
p (1 − p)n−k δk ,
k
p ∈ [0, 1], n ∈ N
Wir betrachten zunächst die allgemeine Formulierung:
Sei (µi )i∈I eine abzählbare Familie von Maßen auf [R, B] und (αi )i∈I eine
76
P
Familie nichtnegativer reeller Zahlen. Falls gilt, i∈I αi = 1 und µ(R) = 1,
P
In unserem Beispiel
dann ist µ = i∈I αi µi (R) ein Wahrscheinlichkeitsmaß.
ist I = {0, 1, 2, . . . , n} ⊆ N0 . Weiter ist αi = ni pi (1 − p)n−i . Für 0 < p < 1
P
P
ist i∈I αi = ni=0 ni pi (1 − p)n−i = (p + (1 − p))n = 1n = 1. Es ist klar, dass
alle αi > 0.
P
Für die Verteilungsfunktion gilt: Fnp (x) = Bnp ((−∞, x)) = ni=0 ni pi (1 −
p)n−i δi ((−∞, x)). Dabei bildet F von R nach [0, 1] ab (F : R → [0, 1]).
1. Fall Falls −∞ < x ≤ 0, dann ist Fnp (x) = 0.
2. Fall Falls 0 < x ≤ 1, dann ist Fnp (x) = α0 .
3. Fall Falls 1 < x ≤ 2, dann ist Fnp (x) = α0 + α1 .
4. Fall Falls n < x < ∞, dann ist Fnp (x) =
Allgemein gilt:
Pn
i=0 αi
= 1.
⌈x⌉−1
P ((−∞, x)) = Fnp (x) =
X
αi
i=0
b) Diese Verteilung heißt Poissonverteilung:
πλ : =
∞
X
λk
k=0
k!
e−λ δk ,
λ>0
c)
Gq : =
∞
X
(1 − q)q k−1 δk ,
0≤q≤1
k=1
6. Es sei A ∈ Bn mit 0 < ℓ(n) (A) < +∞ gegeben. Zeigen Sie, dass durch:
GlA (B) : =
ℓ(n) (A ∩ B)
,
ℓ(n) (A)
(B ∈ Bn )
ein Wahrscheinlichkeitsmaß auf [Rn , Bn ] gegeben ist.
Es ist GlA (∅) =
ℓ(n) (A)
ℓ(n) (A)
ℓ(n) (A∩∅)
ℓ(n) (A)
=
ℓ(n) (∅)
ℓ(n) (A)
= 0. Weiter gilt GlA (Rn ) =
ℓ(n) (A∩Rn )
ℓ(n) (A)
=
= 1.
77
A. Übungsaufgaben
ξ
i
7. [Ω, F, P ] −
→
[R, B, Pξi ], Pξi = Exλi , λi > 0. Weiter ist Pξi : Fi (x) = (1−e−λi x )χ(0,∞) (x) =
(
0
x≤0
. Gesucht ist die Verteilungsfunktion der Zufallsgröße ξ = min{ξ1 , . . . , ξn }.
−λ
x
i
1−e
x>0
Wie ist F (x) definiert? Es gilt, F (x) = Pξ ((−∞, x)) = P (min{ξ1 , . . . , ξn } < x) =
1 − P (min{ξ1 , . . . , ξn } ≥ x) = 1 − P (ξ1 ≥ x, . . . , ξn ≥ x) = 1 − P ({ω ∈ Ω : ξ1 (ω) ≥
T
x, . . . , ξn (ω) ≥ x} = 1 − P ( ni=1 {ω ∈ Ω : ξi ≥ x}) mit x ∈ R. Dabei sind die
Q
Ereignisse unabhängig und man kann das schreiben als 1 − ni=1 P ({ω ∈ Ω : ξi ≥
Qn
Qn
x}) = 1 − i=1 P (ξi ≥ x) = 1 − i=1 (1 − Fi (x)). Die weitere Betrachtungen
erfordern eine Fallunterscheidung. Im Fall x ≤ 0 ist F (x) = 0. Für x > 0 gilt
P
Q
Q
F (x) = 1 − ni=1 (1 − (1 − e−λi x )) = 1 − ni=1 e−λi x = 1 − e−λx für λ = ni=1 λi .
Also folgt, F (x) = (1 − e−λx )χ(0,∞) (x). Somit ist Pξ = Exλ .)
8. Es sind n ≥ 1 unabhängige Zufallsgrößen ξ1 , . . . , ξn über einem Wahrscheinlichkeitsraum [Ω, F, P ] mit Pξi = Exλ , λ > 0 gegeben. Weiterhin ist η = ξ1 + · · · + ξn .
Zeigen Sie: Pη ist absolut stetig bezüglich des Lebesgue-Maßes ℓ auf [R, B] mit
der Dichte
fn (x) =

0

1
n −λx xn−1
(n−1)! λ e
x≤0
x≥0
Das Wahrscheinlichkeitsmaß Pη heißt Erlang-Verteilung mit n Freiheitsgraden
und dem Parameter λ > 0. Speziell ist f1 die Dichte der Exponentialverteilung.
Wir wissen: η = ξ1 + · · · + ξn , Pη = ℓfn und müssen eine Induktion über n durchführen: Sei n = 2, η = ξ1 + ξ2 . Dabei sind die ξ1 , ξ2 unabhägig und gleich verteilt.
Nach der Vorlesung ist Pη R= Pξ1 ∗ Pξ2 . Wir wissen weiter, Rfξ1 = fξ2 = f1 . Die
Dichte ist (fξ1 ∗ fξ2 )(x) = 0y fξ1 (y − x) fξ2 (x) ℓ(dx) = λ2 0y e−λ(y−x) e−λx dx =
R
|
{z
} | {z }
>0 für y−x>0 >0
Denn e−λx e−λ(−x) =
λ2 e−λy 0y dx = λ2 e−λy y.
1. Also folgt, dass fξ1 ∗ fξ2 = f2 .
Es gelte nun die Behauptung
für
n
−
1.
Nun
ist
Pηn = ∗ni=1 Pξi R= Pηn−1 ∗ Pξn . Es
Ry
1
λn−1+1 (0,y) e−λ(y−x) (y −
gilt (fn−1 ∗ fn )(y) = 0 fn−1 (y − x)fn (x)ℓ(dx) = (n−2)!
R
1
x)n−2 e−λx ℓ(dx) = (n−2)!
λn e−λy 0y (y − x)n−2 dx Nun substituieren wir t = y −
R
1
1
x, dt = −dx und schreiben das Integral (n−2)!
λn e−λy (− y0 tn−2 dt) = (n−2)!
λn e−λy
1
1
n −λy tn−1 |y =
n −λy y n−1 . Somit folgt die Behauptung.
0
(n−2)!(n−1) λ e
(n−1)! λ e
Ry
9. Sei [Ω, F, P ] ein Wahrscheinlichkeitsraum. Berechnen Sie das erste Moment, das
zweite Moment und die Varianz folgender Zufallsgrößen: ξ2 : Ω → N0 mit Pξ2 =
Gq , 0 < q < 1.
P
2 k−1 = 2m 1
m2 = (1 − q) ∞
1 1−q
k=1 k q
78
0
tn−2 dt =
Index
σ-Additivität, 14
σ-Algebra, 9
Abbildung
messbare, 24
absolut stetig, 36
Additivität
endliche, 13
Algebra, 9
bedingte Verteilung, 49
Bernoullischema, 44
Bildmaß, 24
Binomialverteilung, 21, 45, 76
Borelmenge, 12
Dirac-Maß, 13
diskret, 32
Eintrittswahrscheinlichkeit, 8
Elementarereignis, 8
endlich,Maß
endliches, 39
Erwartungswert, 62
Erzeugendensystem, 11
Exponentialverteilung, 19, 38
Faltung, 59
fast überall gleich,gleich
fast überall, 35
Funktion
einfache, 27
Gleichverteilung, 20
Hilbertraum, 68, 73
Häufigkeit
relative, 9
integrierbar, 31
Komplement, 8
Lebensdauerverteilung, 50
Maß, 12
diskretes, 31
Lebeguesches, 16
Maßraum, 12
messbar, 24
Moment, 64
Normierung, 69
Nullmaß, 12
paarweise unabhängig, 52
Poissonverteilung, 22, 77
Potenzmenge, 8
Produkt, 15, 16
Produktmaß, 16
Raum
messbarer, 12
Riemannintegral, 6, 32
Standardabweichung, 66
Sterberate, 50
stetig
absolut, 36
Streuung, 66
Subadditivität, 14
Tensorprodukt, 20
unabhängig, 52, 57
Urbild, 23
Varianz, 66
Vektor
zufälliger, 58
79
INDEX
Verteilung
geometrische, 22, 45
Verteilungsfunktion, 18
Verteilungsgesetz, 55
vollständig unabhängig, 52
Wahrscheinlichkeit
bedingte, 48
Wahrscheinlichkeitsdichte, 37
Wahrscheinlichkeitsmaß, 18
Wahrscheinlichkeitsraum, 18
klassischer, 41
Zentrierung, 69
Zufallsgröße, 55, 56
Zufallsvariable, 55
Zählmaß, 13
normiertes, 42
80
Herunterladen