Inhaltsverzeichnis

Werbung
Inhaltsverzeichnis
1
Grundlagen
. . . . . . . . . . . . . . . . . . . . . . . . . . . .
Studierhinweise Kapitel 1A
1
. . . . . . . . . . . . . . . . . . . . . .
9
2
Zufallsexperimente und relative Häugkeiten . . . . . . . . . .
11
3
Der Begri des diskreten WRaumes
. . . . . . . . . . . . . .
14
4
Beispiele von diskreten WMaÿen . . . . . . . . . . . . . . . .
19
Studierhinweise Kapitel 1B . . . . . . . . . . . . . . . . . . . . . . .
24
5
Zufallsvariable und Verteilungen im diskreten Fall . . . . . . .
26
6
Stochastische Unabhängigkeit
. . . . . . . . . . . . . . . . . .
31
. . . . . . . . . . . . . . . . . . . . . . . . .
36
Lösungen zu Kapitel 1
Studierhinweise Kapitel 2
. . . . . . . . . . . . . . . . . . . . . . .
37
. . . . . . . . . . . . . . . . . . . . . .
39
7
Allgemeine WRäume
8
Die Verteilungsfunktion als Möglichkeit zur Vorgabe eines W
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
43
9
Das Erfordernis der Messbarkeit . . . . . . . . . . . . . . . . .
46
10
Über Integrale . . . . . . . . . . . . . . . . . . . . . . . . . . .
49
11
Maÿe mit LebesgueDichten . . . . . . . . . . . . . . . . . . .
50
Maÿes
i
INHALTSVERZEICHNIS
ii
Studierhinweise Kapitel 3
. . . . . . . . . . . . . . . . . . . . . . .
53
12
Erwartungswerte
. . . . . . . . . . . . . . . . . . . . . . . . .
56
13
Varianz und Kovarianz . . . . . . . . . . . . . . . . . . . . . .
62
14
Die Tschebyschev'sche Ungleichung
. . . . . . . . . . . . . . .
65
15
Über Zufallsgeneratoren
(fakultativ)
. . . . . . . . . . . . . . .
69
. . . . . . . . . . . . . . . . . . . . . . . . .
73
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
74
Symbolverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . .
77
Lösungen zu Kapitel 3
Index
Grundlagen
1
1
Grundlagen
Der Abschnitt orientiert über Notation und Sprechweisen und präsentiert ergänzende
Sachverhalte. Die Ausführungen über Konvergenz von Reihen sind insbesondere im
Zusammenhang mit Abschnitt 12 Erwartungswerte zu sehen.
1.1 Allgemeines
a := b meint, dass a denitionsgemäÿ gleich b ist. =⇒ bzw. ⇐⇒ meint die
Implikation bzw. die Äquivalenz. kennzeichnet das Ende eines Beweises.
1.2 Mengen, Allquantor
Die Begrie Menge, Element, Teilmenge einer Menge, die leere Menge werden
als bekannt vorausgesetzt. Die Potenzmenge
aller Teilmengen von
x∈A
besagt, dass
x
Teilmenge der Menge
∅
P(A) der Menge A ist die Menge
A
Element von
B
A
ist, während
A⊂B
die Menge
A
als
ausweist.
bezeichnet die leere Menge.
Der Durchschnitt
A ∩ B,
die Vereinigung
A∪B
sowie die Dierenz
A\B
werden als bekannt vorausgesetzt.
Ac
als Komplementmenge der Menge ist die Dierenz
menge
Ω\A bez. einer Grund-
Ω.
A × B der Mengen A und B ist deniert als die
(a, b) | a ∈ A , b ∈ B . ×ni=1 Ai meint entsprechend das kartesische
Produkt der Mengen Ai , i = 1, . . . , n.
N, Z, Q, R kennzeichnen die Mengen der natürlichen, ganzen, rationalen und
Das kartesische Produkt
Menge
reellen Zahlen.
Rn meint den linearen Raum der nTupel reeller Zahlen. Insbesondere ist
Rn+ := {x ∈ Rn | x ≥ 0}.
0
0
0
Die Mengen N , Nn und Nn sind deniert als N := N∪{0}, Nn := {1, . . . , n}
0
und Nn := {0, 1, . . . , n}.
Ω, Ω0 , Ω00 bezeichnen Grundmengen, I, J Indexmengen; sie sind stillschweigend als nichtleer vorausgesetzt.
A(ω) (ω ∈ Ω) bzw. A(i), i = 1, . . . , n meint, dass die Aussage A(ω)
A(i) für alle ω ∈ Ω bzw. alle i ∈ {1, . . . , n} zutrit.
bzw.
1.3 Abbildungen
Der Begri der Abbildung (Funktion) wird als bekannt vorausgesetzt, ebenso
die Konzepte der Injektivität, Surjektivität und Bijektivität.
Lässt sich eine Menge
so heiÿt
A
A
bijektiv auf
Nm
für ein
endlich bzw. abzählbar (unendlich).
m∈N
bzw. auf
N
abbilden,
Überblick
Grundlagen
2
Notation einer Abbildung bedienen wir uns der Darstellungsweise
Zur
f : A −→ B ,
der dann die
Funktionswertzuweisung folgt
(a ∈ A) .
f (a) := .
schreiben aber auch
Wir
f( . )
a 7→ f (a),
bzw.
sofern die Darstellung
aufgrund des Kontextes Missverständnisse ausschlieÿt.
Sind
f :A→B
g : A → C Abbildungen, so
f und g , d.h. die Abbildung
und
tabbildung von
(f, g) : A −→
(f, g)(a) :=
Mit
f ◦g
ist die
meint
B×C
mit
f (a), g(a)
Komposition der Abbildungen
(f, g)
die
(a ∈ A) .
f :B→C
und
g:A→B
gemeint:
f ◦ g( . ) := f g( . ) .
idΩ : Ω → Ω
meint die
Identität auf
Ω, id(x) = x
für alle
1.3.1 Denition (Indikatorfunktion)
Sei
A
eine Teilmenge von
Ω.
Die Funktion
(
1A (ω) :=
heiÿt
Indikatorfunktion von
A.
1.3.2 Satz
A, B ⊂ Ω. Dann gilt
(1.3.2.1) 1Ac = 1 − 1A ,
(1.3.2.2) A ⊂ B =⇒ 1A ≤ 1B ,
(1.3.2.3) 1A∩B = 1A · 1B .
Seien
1,
0,
1A : Ω → R
falls
falls
Produk-
ω∈A
ω∈
/A
mit
x ∈ Ω.
Grundlagen
3
1.4 Mengen (Ergänzungen), Mengensysteme
1.4.1 Denition (ωi Schnitt)
Sind
der
V ⊂ Ω 1 × Ω2
ω̄1 Schnitt
ω̄1 ∈ Ω1 , so heiÿt
Vω̄1 := ω2 ∈ Ω2 | (ω̄1 , ω2 ) ⊂ V
und
von
V;
analog deniert man den
1.4.2 Bemerkungen
1.4.2.1 Stellt man die Menge
ω1
Achsen
und
Vω2
und
ω2
bei festen
V
ω̄2 Schnitt
von
in einem Koordinatensystem mit den
dar, so ergibt sich für die Schnittmengen
ω1
bzw.
ω2
eine Darstellung, die den
ω2 6
........................................................................................................................................................................................................................................................................................................
.......
.
.......
.......
....

......
......
...
......
......

......
....
...

.
.
....



ω2
...
..
...
...
...
...
...
...
...
...
..
...
.
.
.
...
..
..
.
.
...
..
..
.
.
..
.
..
....
...
..
...
...
..
.
..
..
.
..
...
....
..
.
.
.
.
.
.......................................................................................................................................................................................................
..
.
.
.
.
...
.
.
.
......
..
.
.....
.
.
.
.
.
...
.
.
.
.
...
.
..
...
.
...
...
.
.
.
.
.
..
..
..
.............................................................................................................................................................................................................................................................................................................
..
.
.
..
.
....
.... ..
.... ..........
........
...
...... ....
.. ....
.
.
.
.
.
.
.
.
.
.
.
.
.
... .............
.
.
.
.
.
..
....
............................................ ...
....
.... ..............................................
...
....
...
...
...
....
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
..
..
..
..
..
V
|
1.4.2.2
1.4.2.3
{z
|
}
ω i Schnitt
von
∅ω̄i = ∅,
i = 1, 2,
Für A1 ⊂ Ω1 , A2 ⊂ Ω2
(A1 × A2 )ω̄1
|
ω
{z1
Vω2
V , i = 1, 2.
ω̄1 ∈ Ω1 gilt oenbar
(
A2 , falls ω̄1 ∈ A1
=
∅, falls ω̄1 ∈
/ A1 ,
und
ein entsprechender Sachverhalt gilt für
1.4.2.4
(Ω1 × Ω2 )ω̄i = Ω3−i ,
{z
}
i = 1, 2.
ω̄2 ∈ Ω2 .
}
Vω1
Namen
Schnitt rechtfertigt.
Vω1
V.
-
ω1
Grundlagen
4
1.4.3 Denition
1.4.3.1 Eine Menge von Mengen heiÿt ein Mengensystem.
K ein Mengensystem und f : I →
K eine Abbildung, die jedem i ∈ I ein Element f (i) = Ai ∈ K,
also eine Menge, zuordnet, so heiÿt (Ai | i ∈ I) eine Familie von
Mengen bzw. Mengenfamilie (aus K).
1.4.3.2
Ist
1.4.3.3
Eine Mengenfamilie
Ω);
1.4.3.4
I
eine (nichtleere) Menge,
wir schreiben
(Ai | i ∈ N)
dafür auch (Ai ).
heiÿt eine
Mengenfolge (in
Sind in 1.4.3.2 bzw. in 1.4.3.3 alle Elemente von
gen ein und derselben Grundmenge
Ω,
Als Beispiel für ein Mengensystem nennen wir die
A,
die sogenannte
Teilmen-
so sprechen wir von einer
Mengenfamilie bzw. Mengenfolge in
einer Menge
K
Ω.
Menge aller Teilmengen
Potenzmenge
P(A)
von
A.
1.4.4 Denition (disjunkte Vereinigung)
Ist
(Ai | i ∈ I)
eine Familie
X
Ai :=
i∈I
und sprechen von der
bzw.
I = N,
n
X
paarweise fremder Mengen, so schreiben wir
X
Ai :=
I
[
Ai :=
I
[
Ai .
i∈I
disjunkten Vereinigung der Mengen
Ai . Ist I = Nn
so schreiben wir auch
Ai = A1 + . . . + A n
bzw.
∞
X
i=1
Ai = A 1 + A2 + . . .
i=1
1.4.5 Denition (Zerlegung, Partition)
Eine Familie
heiÿt
(Ai | i ∈ I)
paarweise fremder Mengen in
Zerlegung (oder Partition) von
Ω.
Ω
mit
P
I
Ai = Ω
Grundlagen
1.4.6 Satz
1.4.6.1 Sei
5
(Bi | i ∈ I)
eine Zerlegung von
A =
X
Ω
und
A ⊂ Ω.
Dann gilt
(A ∩ Bi ) .
I
1.4.6.2
Ist
I = Nn oder I = N und (Ai | i ∈ I) eine Familie von Mengen,
so gilt
[
Ai = A1 +
i∈I
X
Ai −
i−1
[
i∈I
i6=1
Aj
.
j=1
1.5 Die erweiterten reellen Zahlen
Erweitert man die Menge
fügen) der Elemente
der erweitert
+∞
R
der reellen Zahlen durch Adjunktion (=Hinzu-
und
−∞
zur Menge
reellen Zahlen, so sind die in
ergänzen.Man setzt für
R := R ∪ {+∞} ∪ {−∞}
R üblichen Rechenregeln zu
a ∈ R:
a + (±∞) = (±∞) + a = (±∞) + (±∞) = ±∞ .
(1.5.1)
Hingegen bleiben die Operationen
(±∞) − (±∞)
(1.5.2)
unerklärt. Weiter setzt man für
a ∈ R:

 ±∞
0
a · (±∞) = (±∞) · a =

∓∞
(1.5.3)
für
für
für
a>0
a=0
a<0
(1.5.4) (±∞)·(±∞) = +∞ , (±∞)·(∓∞) = −∞ ,
a
1
= 0 , = +∞ .
±∞
0
Eigenschaften:
Die oben denierte Addition und Multiplikation ist kommutativ und assoziativ, freilich bleiben gewisse Operationen (siehe (1.5.2))unerklärt.
R
ist daher
kein Körper.
Deniert man für
x < c)
±∞
oene Umgebung gemäÿ (c
< x ≤ +∞)
bzw. (−∞
≤
und übernimmt man die übliche Denition der Umgebung für die
übrigen Punkte, so ist die Menge der erweitert reellen Zahlen kompakt.
Grundlagen
6
1.6 Konvergenz von Reihen
Der Begri der Reihe
P
vorausgesetzt. Ist für
n∈N
i∈N
ai
mit Gliedern
sn :=
n
X
ai ∈ R , i ∈ N n ,
wird als bekannt
ai
i=1
nte Teilsumme, so sagt man, die Reihe konvergiert in R (bzw. in R)
zum Reihenwert a, wenn der Grenzwert der Teilsummenfolge (sn ) in
R (bzw. in R) existiert und
die
a = lim sn
n→∞
gilt.
Wir werden uns was den denitorischen Aufbau betrit auch in Abschnitt
12 Erwartungswerte auf
die Konvergenz in
R
beschränken. Alle
Reihen werden im folgenden auch ohne explizite Erwähnung als
Reihen
mit ausschlieÿlich reellen Gliedern vorausgesetzt.
Nun lässt sich ein Reihenwert nur dann sinnvoll denieren, wenn dieser für
jede Summationsreihenfolge stets derselbe ist. Ist
b:N→I
I
eine Indexmenge und
eine Bijektion, so wird man vernünftigerweise fordern, dass
X
ab(i)
b : I → N gegen denselben Reihenwert in R konvergiert. Damit wird die Menge N mit ihrer natürlichen Ordnung entbehrlich.
für jede beliebige Bijektion
1.6.1 Denition
Sei
I
eine abzählbare Indexmenge. Konvergiert
X
(1.6.1.1)
ab(i) ,
mit
ab(i) ∈ R (i ∈ N) ,
i∈N
in
R
b : N → I zum selben Reihenwert a, so
unbedingt in R. Für den Reihenwert schreiben
für jede beliebige Bijektion
konvergiert die Reihe
wir auch
P
i∈I
Als Beispiel:
ai .
Eine Reihe mit lauter nichtnegativen Gliedern konver-
giert unbedingt, allerdings in
R.
Grundlagen
7
1.6.2 Denition
Eine Reihe
die Reihe
P
P i∈N ai mit ai ∈ R , i ∈ N, konvergiert absolut
i∈N |ai | in R konvergiert. Bekanntlich gilt der
in
R,
wenn
1.6.3 Satz
Konvergiert die Reihe
in
P
i∈N
ai
absolut in
R,
so konvergiert sie
unbedingt
R.
Weiter gilt der
1.6.4 Satz (Umordnungssatz für absolut konvergente Reihen)
(Ik | k P
∈ K) eine Zerlegung der abzählbaren Indexmenge I . Konvergiert
P
die Reihe
konvergiert jede der Reihen
i∈I ai absolut in R, so
Ik ai (k ∈
P
P
K), sowie auch die Reihe
unbedingt in R, wobei die
k∈K
i∈Ik ai
letztere für jede Zerlegung von I denselben Reihenwert hat.
Sei
1.6.5 Bemerkungen
1.6.5.1 Setzt man für
Ik
insbesondere die Einpunktmengen von
I,
so
geht (1.6.4) in (1.6.3) über.
1.6.5.2
dern in
R,
P
i∈N ai einer Reihe mit nichtnegativen Glieso ist sie absolut konvergent, so dass Satz 1.6.4 gilt.
Existiert der Wert
Umordnungssatz von
Wir sprechen in diesem Fall auch vom
Reihen mit nichtnegativen Gliedern.
Die folgenden Sachverhalte sind unmittelbar einsichtig.
1.6.6 Satz
Sind
P
i∈I
1.6.6.1
ai
und
P
i∈I
bi
Reihen und
P
P
P i∈I ai und i∈I bi absolut konvergent,
Reihe
i∈I (αai + βbi ), und es gilt
X
X
X
α
ai + β
bi =
(αai + βbi ) .
Sind die Reihen
auch die
i∈I
1.6.6.2
α, β ∈ R.
Sind die Reihen
i∈I
P
i∈I
ai
i∈I
und
P
i∈I
bi
absolut konvergent, so
gilt
ai ≤ b i
(i ∈ I)
X
=⇒
ai ≤
i∈I
1.6.6.3
Ist
P
i∈I
ai
absolut konvergent, so gilt
X X
ai ≤
|ai | .
i∈I
so
i∈I
X
i∈I
bi .
Grundlagen
8
1.7 Binomialkoezient
Der Binomialkoezient
durch
n!
n
k
(sprich:
(
n
:=
k
n
über
k)
n!
,
k!(n−k)!
falls
0
falls
,
(sprich: nFakultät) ist festgelegt durch
ist für
n, k ∈ N0
deniert
k≤n
k > n.
n! := 1 · 2 · 3 · · · · · n, 0! = 1.
Studierhinweise Kapitel 1A
9
Studierhinweise Kapitel 1A
2 Zufallsexperimente und relative Häugkeiten
3 Der Begri des diskreten WRaumes
4 Beispiele von diskreten WMaÿen
Die erste Lernperiode schlieÿt Durchsicht und Studium von
'1 Grundlagen'
mit ein. Auf eine Kommentierung von '1 Grundlagen' wird verzichtet.
2 Zufallsexperimente und relative Häugkeiten
Der Abschnitt 'Zufallsexperimente und relative Häugkeiten' liefert den nichtmathematischen Hintergrund der zum Begri des (diskreten) WRaumes
(Def. 3.1) führt. Eine Analyse des Zufallsexperimentes legt es nahe, den
sog. WRaum als Rahmen für spätere Überlegungen festzulegen.
Hier wird die
intuitive Vorstellung eingebracht, dass die Zahl
P (A) für
ω des
die Wahrscheinlichkeit steht, dass ein zufällig ausgewähltes Element
Ausgangsraumes
Ω
in die Menge
A
zu liegen kommt oder wie man (als au-
ÿermathematische Sprechweise) auch sagt, dass das Ereignis
A
eintritt.
3 Der Begri des diskreten WRaumes
Die zentralen Begrie sind der des WRaumes, Def. 3.1, bzw. der der W
Funktion, Def. 3.6 .
3.1 Denition
Präzise Kenntnis
3.2 Bemerkungen
Kenntnis der Inhalte und Spechweisen
3.3 PunktWMaÿ
Präzise Kenntnis
3.4 Folgerungen
Kenntnis der Sachverhalte incl. Beweisführungen
Studierhinweise Kapitel 1A
10
3.5 Bemerkung
Wiedergabe des Sinnes dieser Bemerkung, die auf Formel (3.5.1) beruht. Die
Gültigkeit von (3.5.1) muss begründet werden können.
3.6 Denition
Präzise Kenntnis
3.7 Satz
Kenntnis, Beweisführung (vgl. die Begründung von (3.5.1))
4 Beispiele von diskreten WMaÿen
4.1 Binomialverteilung, 4.2 Poissonverteilung, 4.3 Geometrische Verteilung
Kenntnis der jeweiligen WFunktionen incl. Nachweis, dass es sich tatsächlich
um WFunktionen handelt.
4.4 Gleichverteilung, 4.5 Laplace'scher WBegri
Präzise Kenntnis
4.6 Beispiel
Verständnis, so dass ein analoges Beispiel bearbeitet werden kann
4.7 Beispiel
Verständnis, so dass ein analoges Beispiel bearbeitet werden kann
4.8 ProduktWMaÿ, 4.9 Bemerkungen
Kenntnis, präzise Wiedergabe, Zusammenschau von (4.8.1), (4.9.1), (4.9.2)
die letzte Formel ist eine Konsequenz aus (4.9.1) und (3.5.1) .
4.10 Beispiel
Verständnis, so dass selbst ein Beispiel konstruiert werden kann
Zufallsexperimente und relative Häugkeiten
2
11
Zufallsexperimente und relative Häugkeiten
Der Abschnitt liefert eine Analyse und Beschreibung des nichtmathematischen Be-
gries des Zufallsexperimentes, nach dem dann der Begri des diskreten WRaumes
modelliert werden soll. Zentrale Stichworte sind Ausgangsraum, Ereignis, Ereignis-
system und relative Häugkeiten.
Gegenstand dieses Abschnittes ist der
auÿermathematische Begri des
Zufallsexperimentes, der den in Abschnitt 3 zu denierenden Begri des
diskreten WRaumes begründen und motivieren soll.
Im Sinne einer vorläugen Festlegung erklären wir, dass ein
Zufallsexperi-
ment ein Vorgang mit unbestimmten Ausgang ist.
Beispiele dazu wären etwa:
(1) ein einmaliger Wurf mit einer Münze,
(2) die nächste Landtagswahl in NRW.
Obwohl in beiden Fällen die Ausgänge ungewiÿ sind, bestehen zwischen beiden Beispielen erhebliche Unterschiede.
Bei Beispiel 1 handelt es sich um einen Vorgang, der unter gleichen Umständen beliebig oft wiederholbar ist, was für Beispiel 2 nicht zutrit.
Aussagen zu Beispiel 1 sind einer empirischen
Überprüfung durch Er-
mittlung von Häugkeiten zugänglich. Bei Aussagen zu Beispiel 2 handelt
es sich um
Mutmaÿungen zu einem einmaligen Vorgang.
Gegenstand unseres Interesses sind in der Folge solche Zufallsvorgänge, die
einer empirischen Überprüfung durch Häugkeitserhebungen zugänglich sind.
Wir denieren:
Ein
Zufallsexperiment ist ein im Prinzip beliebig oft wiederholbarer
Vorgang mit ungewissen Ausgang.
Zu Zufallsexperimenten rechnet man klassischerweise
•
das Werfen von Münzen,
•
das Ziehen von Kugeln aus einer Urne.
Dazu gehören aber auch (unter gleichen Umständen) wiederholbare medizinische, biologische oder technische Versuche, die aber nicht notwendigerweise
Beispiele für diskrete WRäume liefern.
Überblick
Zufallsexperimente und relative Häugkeiten
12
Ein typisches Zufallsexperiment im Sinne der Wahrscheinlichkeitstheorie ist
das GaltonBrett, wo die Kugel bei jedem Nagel ihren Weg mit der Wahrscheinlichkeit
p
nach links bzw. mit der Wahrscheinlichkeit
1−p
nach rechts
fortsetzt, vgl. Experiment 6.1 .
Im Hinblick auf die Denition des diskreten WRaumes, in dessen Rahmen
die Begrie
Ereignis und Wahrscheinlichkeit formal festzulegen sind,
hat man sich die Frage der Beschreibung eines Zufallsexperimentes zu überlegen.
Ein wesentlicher Punkt bei der Beschreibung von Zufallsexperimenten ist die
Angabe der
möglichen Ausgänge, der möglichen Resultate des Zu-
fallsexperimentes.
Die Menge der möglichen Ausgänge heiÿt
mit
Ω
Ausgangsraum, und wird hier
bezeichnet.
Betrachtet man das Zufallsexperiment Zweimaliges Werfen eines Würfels,
so bietet sich die Menge
Ω :=
(i, j) ∈ N × N | 1 ≤ i ≤ 6 , 1 ≤ j ≤ 6
als Ausgangsraum an, wobei
Wurf realisierten Augenzahl
i
(i, j)
bzw.
das Paar der im ersten bzw. im zweiten
j
meint.
Weiterführend ist zu klären, was unter einem Ereignis verstanden werden soll.
Im Sinne einer sehr vorläugen Charakterisierung ist ein
Ereignis etwas, von
dem nach Ablauf des Zufallsexperimentes feststeht, ob es eingetreten ist oder
nicht.
Da nach Durchführung eines Zufallsexperimentes
ein Punkt des Aus-
gangsraumes als Ereignis feststeht, muÿ ein Ereignis ein Punkt des
Ausgangsraumes oder eine Teilmenge des Ausgangsraumes sein, die
diesen Punkt enthält.
Tatsächlich faÿt man ein
Ereignis als eine Teilmenge des Ausgangsrau-
mes auf. Man sagt im Sinne einer auÿermathematischen Sprachregelung
das
Ereignis tritt ein bzw. tritt nicht ein, je nachdem, ob das Ergeb-
nis des Zufallsexperimentes in die als Ereignis denierte Teilmenge
des Ausgangsraumes fällt oder nicht.
Im Falle des Beispiels Zweimaliges Werfen eines Würfels wären etwa
(i,
j)
∈
Ω
|
i
+
j
<
5
oder
(i, j) ∈ Ω | i ist eine gerade Zahl , 4 ≤ j ≤ 6
denkbare Ereignisse.
Zufallsexperimente und relative Häugkeiten
13
Bei der Denition des Begries WRaum wird man allerdings kaum ein einzelnes Ereignis allein betrachten wollen, sondern man wird sich für die
Men-
ge aller Ereignisse interessieren. Es liegt nahe, kurzerhand alle Teilmengen
des Ausgangsraumes als Ereignisse zu betrachten.
Nennen wir eine Menge von Mengen ein
Mengensystem, so wäre demnach
die Potenzmenge (Menge aller Teilmengen)
P(Ω)
von
Ω
das
Ereignissy-
stem.
Tatsächlich legt man in der
diskreten Stochastik die Potenzmenge
P(Ω) als
das Ereignissystem fest.
Ein Konzept freilich, das sich für die allgemeine WTheorie nicht übernehmen
läÿt. Der Grund sind logische Schwierigkeiten.
Als drittes, neben dem Ausgangsraum
Ω und dem Ereignissystem P(Ω), we-
sentliches Objekt zur Denition des WBegries führen wir eine
P : P(Ω) → [0; 1]
ein. Für jedes
A ∈ P(Ω)
wird die
Zahl
Abbildung
P (A)
als
scheinlichkeit dafür interpretiert, dass ein zufällig ausgewähltes
rade in
A
liegt oder, wie man auch sagt, dass das Ereignis
Beachten Sie:
P
ist auf
P(Ω)
und nicht auf
Ω
A
ge-
P
zu kommen,
relativen Häugkeiten. Von diesem
Begri lieÿen wir uns oben zu der Festlegung des Wertebereiches
P
ω∈Ω
eintritt.
deniert.
Um nun zu Vorstellungen zu den Eigenschaften der Abbildung
untersuchen wir die Eigenschaften von
Wahr-
[0; 1]
von
leiten.
Tritt bei einer
nmaligen
Wiederholung eines Zufallsexperimentes, wir spre-
chen von einer Versuchsserie vom Umfang
ist die
relative Häugkeit
hn (A)
n, k mal
das Ereignis
A
ein, so
dieses Ereignisses für die vorliegende
Versuchsserie deniert als
hn (A) :=
k
.
n
Für die relative Häugkeit als Modell eines zu schöpfenden WBegries
spricht der Umstand, dass die relative Häugkeit für das Eintreten eines bestimmten Ereignisses bei fortgesetzter Wiederholung des Zufallsexperimentes erfahrungsgemäÿ mit in der Tendenz kleiner werdenden Ausschlägen um
einen gewissen konstanten Wert schwankt.
Oenbar gilt
0 ≤ hn (A) ≤ 1 ,
hn (A) + hn (B) = hn (A ∪ B) ,
für
A, B ∈ P(Ω) , A ∩ B = ∅ .
Die Denition des WMaÿes in Abschnitt 3 ist an diesen Eigenschaften für
relative Häugkeiten modelliert.
Der Begri des diskreten WRaumes
3
14
Der Begri des diskreten WRaumes
In diesem Abschnitt wird der Begri des diskreten WRaumes eingeführt. Diskrete W
Räume sind durch einen endlichen bzw. abzählbar unendlichen, also einen diskreten
Ausgangsraum gekennzeichnet. Der zentrale Begri ist der des WMaÿes für das die
σ Additivität
gefordert wird. Mit Hilfe der WFunktion läÿt sich über einem diskreten
Ausgangsraum eindeutig ein WMaÿ festlegen.
Mit den in Abschnitt 2 gegebenen Motivierungen als Hintergrund geben wir
die Denition des diskreten WRaumes.
3.1 Denition
Das Tripel
• Ω
(Ω, P(Ω), P )
eine nichtleere,
heiÿt
diskreter WRaum, wenn
endliche oder abzählbare, also diskrete Menge,
und
• P : P(Ω) → R
Abbildung der Potenzmenge
eine
P(Ω)
von
Ω
(Menge aller Teilmengen) in die reellen Zahlen mit folgenden
Eigenschaften ist:
(3.1.1)
P (A) ≥ 0
(A ⊂ Ω)
(3.1.2)
P (Ω) = 1
(3.1.3)
für jede Folge
(Nichtnegativität)
(Normiertheit)
(An ) paarweise fremder Mengen aus P(Ω) gilt:
X X
P
An =
P (An )
(σ Additivität)
n∈N
n∈N
(lies: SigmaAdditivität)
Ω
heiÿt
se),
P
Ausgangsraum,
ein
P(Ω)
Ereignissystem (Menge der Ereignis-
(diskretes) WMaÿ, wobei, falls eine Präzisierung gewollt ist,
das Ereignissystem bzw. der Ausgangsraum mitgenannt wird, also:
tes) WMaÿ auf
P(Ω)
über
(diskre-
Ω.
3.2 Bemerkungen
3.2.1 Die Teilmengen des Ausgangsraumes
Ω
heiÿen
Ereignisse.
P (A) verstehen wir als die Wahrscheinlichkeit des Ereignisses A oder in der Sprache des als intuitiver Hintergrund
dienenden Zufallsexperimentes als die Wahrscheinlichkeit dafür, dass ein zufällig durch (Messung oder Beobachtung) gemäÿ (dem WGesetz)
nes
ω̄ ∈ Ω
ein Element der Menge
P
zustandegekomme-
A ist, d.h., dass ω̄ ∈ A gilt.
Überblick
Der Begri des diskreten WRaumes
Man spricht von
ω̄
15
im Sinne einer
auÿermathematischen
Begrisbildung als von einer Realisation gemäÿ (dem
WGesetz)
P.
Zur empirischen Überprüfung, ob es sich bei vorgegebenen Realisationen um solche gemäÿ
3.2.2
P
handelt, vgl. Exp. 15.1 .
P ist keine Abbildung der Menge Ω sondern der
Menge P(Ω) in R; d.h. den Teilmengen von Ω werden reelle Zahlen zugeordnet. Man spricht deshalb von P als von einer MenBeachten Sie:
genfunktion.
3.2.3
Gilt für
A ∈ P(A)
P (A) = 0
so spricht man von
bzw.
P (A) = 1 ,
A als von einer PNullmenge bzw. von einer
PEinsmenge.
∅
ist stets eine Nullmenge; ebenso ist
Ω
stets eine Einsmenge.
Wir begnügen uns für den Moment mit einem ersten Beispiel für ein WMaÿ,
nämlich dem PunktWMaÿ. Dieses liefert auch prototypisch Beispiele für
nichttriviale Null und Einsmengen. Die Denition des PunktWMaÿes ist
nicht auf diskrete Ausgangsräume beschränkt.
3.3 PunktWMaÿ
Sei
ω ∈ Ω.
δω : P(Ω) → [0; 1] mit
(
1, falls ω ∈ A
δω (A) :=
0, falls ω ∈
/A
Dann heiÿt
PunktWMaÿ in
DiracMaÿ in
ω.
Oenbar ist die gesamte Masse in ω konzentriert. Gilt ω ∈ A für ein A ⊂ Ω,
so nimmt δω (A) den Wert 1 an, d.h., A ist eine Einsmenge. Trit ω ∈ A nicht
zu, so nimmt δω (A) den Wert 0 an; d.h., A ist eine Nullmenge. Machen Sie
sich klar, dass δω ein WMaÿ ist, wozu Sie sich insbesondere die σ Additvität
das
überlegen.
ω;
(A ⊂ Ω)
man spricht auch vom
Der Begri des diskreten WRaumes
16
3.4 Folgerungen
3.4.1
P (∅) = 0,
P (A + B) = P (A) + P (B) (A, B ⊂ Ω , A ∩ B = ∅),
P)
3.4.2
(Additivität von
3.4.3
P (Ac ) = 1 − P (A)
3.4.4
P (B \ A) = P (B) − P (A)
3.4.5
A ⊂ B =⇒ P (A) ≤ P (B),
3.4.6
P (A) ≤ 1
(A ⊂ Ω),
(A, B ⊂ Ω , A ⊂ B),
(A ⊂ Ω).
Beweis:
3.4.1
Aufgrund von (3.1.2) und (3.1.3) erhält man
1 = P (Ω) = P (Ω + ∅ + . . . ) = P (Ω) + ∞ · P (∅) ,
also
3.4.2
∞ · P (∅) = 0;
woraus mit (1.5.3)
P (∅) = 0
folgt.
Wegen (3.1.3), 3.4.1 und 3.4.6 ist
P (A+B) = P (A+B+∅+ . . . ) = P (A)+P (B)+0+ . . . = P (A)+P (B) .
(Oenbar zieht die
σ Additivität
von
P
im Falle von endlich vie-
len nichtleeren Mengen die Additivität von
3.4.3
P
nach sich.)
Wegen (3.1.2) und 3.4.2 gilt
1 = P (Ω) = P (A + Ac ) = P (A) + P (Ac ) .
3.4.4
Für
A⊂B
gilt
B = (B \ A) + A
und somit aufgrund von 3.4.2
P (B) = P (B \ A) + P (A) .
3.4.5
Ist eine Konsequenz aus 3.4.4 zusammen mit (3.1.1).
3.4.6
Ergibt sich als Spezialfall von 3.4.5 mit
B := Ω.
3.5 Bemerkung
Das WMaÿ ist als eine Abbildung
es ordnet jeder
Teilmenge von
Ω
P : P(Ω) → R
eingeführt worden, d.h.,
eine reelle Zahl zu.
Der Begri des diskreten WRaumes
17
P ist
aber schon festgelegt, wenn die Wahrscheinlichkeitswerte P {ω} für alle ω ∈ Ω bekannt sind. Wegen der σ Additivität von P und der Abzählbarkeit von Ω gilt für alle A ⊂ Ω
Das diskrete WMaÿ
P (A) = P
(3.5.1)
X
{ω}
=
ω∈A
X
P {ω}
.
ω∈A
(Beachten Sie, dass die Summe im Rechtsterm von (3.5.1) sowohl endlich
viele als aber auch abzählbar unendlich viele Summanden aufweisen kann,
vgl. auch Beweis zu (3.4.2).)
3.6 Denition
Sei
Ω
eine nichtleere, diskrete Menge.
3.6.1
w : Ω → [0; 1] heiÿt WFunktion (auf Ω), wenn
w(ω)
=
1
gilt, wobei bei der Summation im Falle der
ω∈Ω
Abzählbarkeit von Ω der Wert der entsprechenden nichtEine
P
Funktion
negativen Reihe gemeint ist.
3.6.2
Ist
P
ein WMaÿ über
Ω,
so heiÿt die durch
w(ω) := P {ω}
denierte Abbildung
w : Ω → [0; 1]
(ω ∈ Ω)
die
WFunktion von
P.
3.7 Satz
Eine WFunktion
bzw. über
(3.7.1)
Ω.
w : Ω → [0; 1]
deniert eindeutig ein WMaÿ
P
auf
P(Ω)
Es gilt
P (A) =
X
w(ω)
(A ⊂ Ω) .
ω∈A
3.8 Diskrete WMaÿe über überabzählbaren Ausgangsräumen
Gelegentlich ist es sinnvoll ein
diskretes WMaÿ über einem überabzähl-
baren Ausgangsraum, z.B. über
R,
zu betrachten. Dabei ist man, z.B. im
Zusammenhang mit WFunktionen, auf das Problem geführt,
über über-
abzählbar viele Summanden summieren zu müssen.
0
ein diskretes WMaÿ über einem überabzählbaren Ausgangsraum Ω ,
0
so kann dies ja nur heiÿen, dass eine abzählbare Menge Ω, Ω ⊂ Ω , als
Ist
P
Ausgangsraum existiert, über der
P
deniert ist.
Der Begri des diskreten WRaumes
In einem
weis von
Ω
18
Summenbildungsprozeÿ werden auch ohne expliziten Hin-
nur solche Summanden miteinbezogen, die durch Elemente
indiziert sind, Summanden, die mit Elementen aus
sind, entfallen. Freilich kann anstelle von
0
Obermenge D ⊂ Ω von Ω treten.
Ω
Ω0 \ Ω
indiziert
auch eine geeignete, abzählbare
Beispiele von diskreten WMaÿen
4
19
Beispiele von diskreten WMaÿen
Der Abschnitt liefert als StandardBeispiele für diskrete WMaÿe die Binomial, die
Poisson wie auch die geometrische Verteilung, die mit Hilfe ihrer WFunktion
dargestellt werden. Das ProduktWMaÿ (hier bei diskreten Ausgangsräumen) ist
ein spezielles WMaÿ über dem ProduktAusgangsraum.
Mit Hilfe des in 3.6 eingeführten Begries der WFunktion führen wir zunächst zwei für die Theorie wichtige diskrete StandardWMaÿe ein, ohne
dabei aber deren wahrscheinlichkeitstheoretische Bedeutung zu klären. Es
handelt sich um die
Binomial bzw. die PoissonVerteilung.
Dem allgemeinen Brauch folgend sprechen wir die
beiden WMaÿe als
Verteilungen an. Von Verteilungen sprechen wir ansonsten im Zusammenhang mit Bildmaÿen; freilich läÿt sich jedes WMaÿ als Bildmaÿ auassen.
4.1 Binomialverteilung
Ω := N0n , 0 ≤ p ≤ 1, q := 1 − p. Dann
n k n−k
(4.1.1)
w(k) :=
p q
k
Seien
N0n
eine WFunktion auf
ist durch
(k ∈ N0n )
deniert, denn wegen
p+q = 1
folgt nach dem
binomischen Lehrsatz
n X
n
k
k=0
Das für
n∈N
nennt man die
schreibt dafür
und
pk q n−k = (p + q)n = 1n = 1 .
p ∈ [0; 1]
durch die obige WFunktion denierte WMaÿ
Binomialverteilung mit den Parametern
B(n, p).
0.5
0.1
0
1
2
3
WFunktion von
4
5
B(8, 0.4)
6
für
7
8
Ω = N08
n
und
p
und
Überblick
Beispiele von diskreten WMaÿen
20
4.2 PoissonVerteilung
Seien
Ω = N0
λ > 0.
und
Dann wird durch
(4.2.1)
w(k) = e−λ
eine WFunktion auf
N0
λk
k!
(k ∈ N)
L
deniert. (Warum?)
Das durch diese WFunktion denierte WMaÿ heiÿt die
mit Parameter
λ;
wir schreiben dafür
PoissonVerteilung
Π(λ).
0.5
0.1
0
1
2
3
WFunktion von
4
Π(0.5)
5
6
für
7
8
Ω = N0
4.3 Geometrische Verteilung
Seien
Ω := N0
und
q ∈ (0; 1).
Dann wird durch
w(k) = (1 − q)q k
(4.3.1)
eine WFunktion auf
N0
(k ∈ N0 )
deniert. (Führen Sie bitte diesen Beweis.)
Das durch diese WFunktion denierte WMaÿ heiÿt die
Verteilung zum Parameter
geometrische
q.
0.5
0.1
0
1
2
3
4
5
6
7
WFunktion der geometrischen Verteilung mit
8
q = 0.4
L
Beispiele von diskreten WMaÿen
21
4.4 Diskrete Gleichverteilung
Ω = Nn . Gilt w(k) = const (k ∈ Nn ), so ist w(k) = n1 (k ∈ N).
Das so auf Nn denierte WMaÿ heiÿt die diskrete Gleichverteilung über
Nn .
Hat das Ereignis A ⊂ Ω genau 1 Element, so ergibt sich seine Wahrschein1
lichkeit als P (A) = .
n
Sei
4.5 Laplace'scher WBegri
Erklärt man unter den Voraussetzungen von 4.4 die Elemente einer Menge
A ⊂ Ω zu den günstigen Fällen und versteht
Ω die möglichen Fälle , so ist man auf die
von
man unter den Elementen
klassische Laplace'sche
WDenition geführt, wonach die Wahrscheinlichkeit das Verhältnis
der Anzahl der günstigen Fälle zur Anzahl der möglichen Fälle ist.
4.6 Beispiel
Man bestimme die Wahrscheinlichkeit dafür, dass beim gleichzeitigen Werfen
zweier unverfälschter (idealer) Würfel die Summe der realisierten Augenzahl
kleiner gleich 5 ist.
Wählt man als Ausgangsraum die Menge
Ω = N6 × N6 = (i, j) | i, j ∈ N6 ,
so kommt jedem Element (i, j) ∈ Ω die gleiche Wahrscheinlichkeit, nämlich
1
zu, zumal die Anzahl |Ω| der Elemente von Ω gleich 36 ist.
36
Die Anzahl der günstigen Fälle erhalten wir durch Aufzählung. Für die folgenden Paare
(i, j) ∈ Ω
gilt
i + j ≤ 5:
(1, 1) , (1, 2) , (1, 3) , (1, 4) ,
(2, 1) , (2, 2) , (2, 3) ,
(3, 1) , (3, 2) ,
(4, 1)
Die Anzahl der günstigen Fälle ist 10, womit sich die gesamte Wahrschein10
5
lichkeit zu
= 18
ergibt.
36
4.7 Beispiel
Beim zweimaligen Werfen mit einem unverfälschten Würfel bestimme man
die Wahrscheinlichkeit dafür, dass
(1) beim ersten Wurf die Augenzahlen 1 oder 2,
(2) beim zweiten Wurf die Augenzahlen 3, 4 oder 5,
(3) beim ersten Wurf die Augenzahlen 1 oder 2
und beim zweiten Wurf
die Augenzahlen 3, 4 oder 5 eintreten.
Zur Beschreibung der einzelnen Würfe wählen wir jeweils für den Ausgangsraum die Mengen
N6
und für die WMaÿe
krete Gleichverteilung (auf
N6 ).
P1
bzw.
P2
beide Male die dis-
Zur Beschreibung des zweimaligen Wurfes
Beispiele von diskreten WMaÿen
sei
N6 × N6
22
P
der Ausgangsraum, während das WMaÿ
N6 × N6 gegeben sei.
C := {1, 2} ⊂ N6 sowie D := {3, 4, 5} ⊂ N6 .
durch die diskrete
Gleichverteilung auf
Weiter sei
(1)
P1 (C) =
|C|
|N6 |
=
2
;
6
(2)
P2 (D) =
|D|
|N6 |
=
3
;
6
(3)
P (C × D) =
|C×D|
|N6 ×N6 |
=
Dann gilt
6
.
36
Wegen
P1 (C) · P2 (D) = P (C × D) eine
A, B ⊂ N6 bestätigen kann.
|A × B| = |A| · |B| folgt
(4.7.1)
P (A×B) =
Oenbar ist
Einsicht, die man sofort für
beliebige Mengen
|A| |B|
|A × B|
=
·
= P1 (A)·P2 (B)
36
6
6
(A, B ⊂ N6 )
Die sich als Produktregel präsentierende Beziehung (4.7.1) ist freilich eine
Konsequenz aus der Festlegung der WMaÿe
P, P1
und
P2 .
P1
bei P
Bei den in (4.7.1) auftretenden WMaÿen handelt es sich bei
jeweils um die
diskrete Gleichverteilung über
diskrete Gleichverteilung über
N6
und
und
P2
um die
N6 × N6 .
Das Beispiel 4.7 mit insbesondere dem Sachverhalt (4.7.1) gibt Anlass zur
Denition des ProduktWMaÿes zweier WMaÿe als ein spezielles WMaÿ
über dem ProduktAusgangsraum, das sich durch die Eigenschaft (4.8.1)
auszeichnet.
4.8 Denition (ProduktWMaÿ)
(Ωi , P(Ωi ), Pi ), i = 1, 2 zwei diskrete
P auf P(Ω1 × Ω2 ) über Ω1 × Ω2 mit
Seien
Maÿ
(4.8.1)
WRäume. Dann heiÿt das W
P (A1 × A2 ) = P1 (A1 ) · P2 (A2 )
(A1 ∈ P(Ω1 ), A2 ∈ P(Ω2 ))
P1 und P2 , in Zeichen P1 ⊗P2 . Der WRaum
(Ω1 ×Ω2 , P(Ω1 ×Ω2 ), P1 ⊗P2 ) heiÿt ProduktWRaum der WRäume
(Ωi , Pi ), i = 1, 2 .
das
ProduktWMaÿ von
(4.8.1) heiÿt die
Produktmaÿeigenschaft .
Beispiele von diskreten WMaÿen
23
4.9 Bemerkungen
(4.9.1) liefert eine Anleitung zur Berechnung von ProduktWMaÿ werten,
allerdings nur für
sehr spezielle Mengen vom Typ
A1 × A2
d.h. nur für sogenannte
(A1 ∈ P(Ω1 ), A2 ∈ P(Ω2 )) ,
Rechtecksmengen .
Im diskreten Fall lässt sich aber auch sofort
P1 ⊗ P2 (A)
für eine
beliebige Menge
A ∈ P(Ω1 × Ω2 )
bestimmen, denn wegen (4.8.1)
gilt insbesondere auch
P1 ⊗ P2 ({(ω1 , ω2 )}) = P1 ({ω1 }) · P2 ({ω2 })
(4.9.1)
((ω1 , ω2 ) ∈ Ω1 × Ω2 ).
woraus sich dann mit (3.5.1)
P1 ⊗ P2 (A) =
P
(P1 ⊗ P2 ({(ω1 , ω2 )}))
(ω1 ,ω2 )∈A
(4.9.2)
=
P
P1 ({ω1 }) · P2 ({ω2 })
(ω1 ,ω2 )∈A
ergibt.
Der Begri des ProduktWMaÿes läÿt sich auch in einer allgemeinen W
Theorie einführen, verlangt allerdings einen umfangreichen mathematisch
denitorischen Aufwand;(4.9.1) kann in einem solchen Zusammenhang
nicht
mehr zur Festlegung des ProduktWMaÿes herangezogen werden.
4.10 Beispiel
Als Beispiel für ein NichtProduktWMaÿ über
WMaÿ
N6 ×N6 nennen wir z.B. das
1
1
δ(1,1) + δ(6,6)
2
2
w : N6 × N6 → [0; 1] mit
P :=
mit der WFunktion
w((1, 1)) = w((6, 6)) = 12
w((i, j)) = 0
((i, j) ∈ N6 × N6 \ {(1, 1), (6, 6)}) .
Tatsächlich ist
P
nicht als Produktmaÿ zweier WMaÿe darstellbar,
wie Sie sich am besten selbst überzeugen.
Studierhinweise Kapitel 1B
24
Studierhinweise Kapitel 1B
5 Zufallsvariable und Verteilungen im diskreten Fall
6 Stochastische Unabhängigkeit
5 Zufallsvariable und Verteilungen im diskreten Fall
Zentrale Begrisbildungen sind: Die der Zufallsvariablen, die des Bildmaÿes
bzw. die der gemeinsamen Verteilung.
5.1 Denition
Präzise Kenntnis incl. der eingebrachten Details und Sprachregelungen
5.2 Denition
Präzise Kenntnis incl. der im Text vor der Denition gegebenen Motivierung
5.3 Warnung
Nehmen Sie sich's zu Herzen
5.4 Satz
Die Sachverhalte 5.4.1, 5.4.2 (hinterer Teil), 5.4.4 müssen (auswendig) zur
P
Verfügung stehen. Ist Ihnen die Bedeutung von '
' in 5.4.4 bekannt, vgl.
1.4.4
5.5 Satz
Kenntnis, exakte Wiedergabe des Beweises.
5.6 Denition (Bildmaÿ), 5.7 Sprechweisen
Präzise Kenntnis incl. der Nomenklatur und der Sprechweisen
5.8 Die Realisation einer ZV als auÿermathematisches Konzept
Präzise Wiedergabe erforderlich
5.9 Gemeinsame Verteilung
Präzise Kenntnis der Def.
Wiedergabe von (5.9.1) mit Begründungen
Studierhinweise Kapitel 1B
25
6 Stochastische Unabhängigkeit
Im Zentrum steht der Begri der stochastischen Unabhängigkeit, Def. 6.2,
der durch Bemerkung 6.1 vorbereitet wird.
Von praktischer Bedeutung sind die aufgeführten Fakten zur stochastischen
Unabhängigkeit: 6.3, 6.4, 6.5 .
6.1 Bemerkung
Präzise Kenntnis der äquivalenten Sachverhalte (6.1.1), (6.1.2), (6.1.3), (6.1.4).
Als Eselsbrücke:
Die Äquivalenz (6.1.1), (6.1.2) ergibt sich aus Def. der Urbildabbildung,
vgl. auch (5.9.1)
(6.1.3) erweist sich als Spezialisierung von (6.1.1), die Äquivalenz ergibt sich
unter Beachtung von (3.5.1)
(6.1.3), (6.1.4) folgt aufgrund von (6.1.2) und nutzt bei der Darstellung des
Rechtsterms den begri des Produktmaÿes (der Bildmaÿe
PXi ); vgl. Def. 4.8 .
Beachten Sie: Die Äquivalenz von (6.1.1), (6.1.2) und (6.1.4) ist sofort auf
allgemeine WMaÿe übertragbar.
6.2 Denition
Kenntnis
6.3 Folgerungen, 6.4 Satz, 6.5 Satz
Kenntnis, so dass die Sachverhalte präzise wiedergegeben werden können
6.8 Denition, 6.9 Satz
Kenntnis
Zufallsvariable und Verteilungen im diskreten Fall
5
26
Zufallsvariable und Verteilungen im diskreten Fall
Eine Zufallsvariable (ZV) ist eine auf dem Ausgangsraum eines diskreten WRaumes
denierte Abbildung. Die ihr zugeordnete Urbildabbildung erlaubt es mit Hilfe
des WMaÿes über dem Urbild (Ausgangs)raum Wahrscheinlichkeiten für
Ereignisse im Bildraum zu bestimmen.
Das Gesagte führt zum Begri des Bildmaÿes oder synonym zum Begri der Vertei-
lung einer ZV.
Unter einer gemeinsamen Verteilung versteht man das Bild eines WMaÿes unter
einer vektorwertigen ZV.
Neben einem (diskreten) WRaum sollen in der Folge auf dem Ausgangsraum
eines WRaumes denierte Abbildungen betrachtet werden. Die dabei in der
Stochastik herausgebildete
Namensgebung Zufallsvariable nimmt man
im Falle eines diskreten WRaumes
zweckmäÿigerweise als Bezeichnung
für Abbildung zur Kenntnis.
5.1 Denition
Sei
(Ω, P(Ω), P ) ein diskreter WRaum und Ω0 eine abzählbare Menge. Dann
heiÿt
die Abbildung
X : Ω −→ Ω0
eine
(diskrete)
Ω0 Zufallsvariable (Ω0 ZV).
Ist der Bildraum überabzählbar, z.B. im Falle von
wird
Ω0 = R
oder
Rn ,
so
X(Ω) oder in eine geeignete, abzählbare
Obermenge D , X(Ω) ⊂ D ⊂ Ω0 , aufgefasst.
Gilt für eine diskrete ZV X insbesondere X(Ω) ⊂ R, so sprechen wir von
einer
X
als Abbildung in
reellen ZV.
Zur Betrachtung von ZVen ist man durch die Idee des Transportes von W
Maÿen geführt.
0
Ist A ein Ereignis des Bildraumes, also eine Teilmenge von
Ω0 , so geht es
Urbild(ausgangs)raumes Ω mit Hilfe
darum aufgrund des WMaÿes P des
0
einer ZV X dem Ereignis A eine Wahrscheinlichkeit zuzuweisen.
Dazu betrachtet man
0
der ZV
X
in
A
die Gesamtheit der Punkte in
Ω,
abgebildet werden. Dieses Urbild von
sich durch das WMaÿ
P
über
Ω
ausmessen .
Das Gesagte gibt Anlass zur Denition der Urbildabbildung.
die vermöge
A0
bei
X
läÿt
Überblick
Zufallsvariable und Verteilungen im diskreten Fall
27
5.2 Denition
Sei
T : Ω → Ω0
eine beliebige Abbildung von
Ω
in
Ω0 .
Dann heiÿt die Abbil-
dung
T −1 : P(Ω0 ) −→ P(Ω) ,
deniert durch
T −1 (A0 ) :=
die
zu
(bei
ω ∈ Ω | T (ω) ∈ A0
zugehörige Urbildabbildung;
T
A0 ∈ P(Ω0 ) ,
T −1 (A0 ) heiÿt das Urbild
von
A0
T ).
5.3 Warnung
Für
T −1 (A0 )
schreibt man auch verkürzt (und möglicherweise auch ir-
reführend)
T −1 (A0 ) =: {T ∈ A0 }
bzw. für
ω 0 ∈ Ω0
T −1 {ω 0 } =: {T = ω 0 } .
{T ∈ A0 }
und
{T = ω 0 }
sind Kürzel logisch interpretiert führen
diese zu Missverständnissen. Deshalb sollten diese Kürzel wenn sie
nicht durch den Schreibaufwand erforderlich werden nach
Möglichkeit
unterdrückt werden.
Unterscheiden Sie die
dungen erklärten
Die zu
T
Urbildabbildung von der (nur) für bijektive Abbil-
Umkehrfunktion!
zugehörige Urbildabbildung
T −1 weist eine Reihe von Eigenschaften
auf, von denen in Satz 5.4 vier wichtige aufgelistet sind.
5.4 Satz
Sei
T : Ω → Ω0
eine Abbildung. Weiter seien
0
eine Mengenfamilie in Ω . Dann gelten:
5.4.1
5.4.2
5.4.3
5.4.4
Das Zeichen
von
A0 , B 0 ⊂ Ω 0
T −1 (∅) = ∅ ,
c
T −1 (A0 )c = T −1 (A0 ) und daher
S
S
−1
(A0i ) = T −1 ( i∈I A0i ),
i∈I T
P
P
−1
(Ai ) = T −1 ( i∈I Ai ).
i∈I T
P
auch
sowie
(A0i | i ∈ I)
T −1 (Ω0 ) = Ω,
meint hier die disjunkte Vereinigung, d.h., die Vereinigung
disjunkten Mengen.
Zufallsvariable und Verteilungen im diskreten Fall
Mit dem folgenden Satz wird der
28
Begri des Bildmaÿes begründet.
5.5 Satz
(Ω, P(Ω), P )
Ω0 ZV. Durch
Seien
eine
Ω0
ein diskreter WRaum,
P 0 (A0 ) := P X −1 (A0 )
(5.5.1)
WMaÿ auf
wird ein
Ω0
eine diskrete Menge und
X
(A0 ⊂ Ω0 )
festgelegt.
Beweis:
0
0
0
0
0
Oenbar gilt P (A ) ≥ 0 (A ⊂ Ω ). Aufgrund von 5.4.1 bzw. 5.4.2 ist P (∅) =
0 bzw. P 0 (Ω0 ) = 1.
0
0
Ist dann (An ) eine Folge paarweise disjunkter Mengen aus Ω so folgt aufgrund der σ Additivität von P
P
0
∞
X
A0n
= P X
−1
n=1
∞
X
A0n
=
n=1
P
∞
X
X
−1
∞
X
(A0n )
n=1
=
∞
X
P X −1 (A0n ) =
n=1
P 0 (A0n ) ,
n=1
d.h.,
P0
ist
σ additiv
und damit ein WMaÿ auf
Ω0 .
5.6 Denition (Bildmaÿ)
(Ω, P(Ω), P )
Ω0 ZV.
Seien
eine
ein diskreter WRaum,
Das durch 5.4.1 über
(bei
X)
Ω0
X
(bez.
PX (A0 ) := P (X −1 (A0 ))
(5.6.1)
eine diskrete Menge und
denierte WMaÿ heiÿt das
Verteilung von
oder die
Ω0
P );
Bildmaÿ
PX
von
es gilt
(A0 ∈ P(Ω0 ))
5.7 Sprechweisen
5.7.1
Liegt eine
X
WFunktion der Verteilung (Bildmaÿ) der ZV
vor, so spricht man
ZV
X.
kurzerhand von der WFunktion der
X
P
Zufallsvariable und Verteilungen im diskreten Fall
5.7.2
29
Bildmaÿ und Verteilung meinen grundsätzlich gesehen
dasselbe. Allerdings bedeuten unterschiedliche Sprechweisen oft
eine
unterschiedliche Akzentsetzung. Spricht man von der
Verteilung von
der
X,
so meint dies oftmals, dass man sich mit
Kenntnis des Bildmaÿes von
X
zufrieden gibt.
Der Begri der Verteilung bzw. des Bildmaÿes und damit auch der der Urbildabbildung, wird in Experiment 5.1 thematisiert.
5.8 Die Realisation einer ZV als auÿermathematisches Konzept
X : (Ω, P(Ω), P ) → (Ω0 , P(Ω0 )) eine ZV, A ∈ P(Ω) und ω̄ ∈ Ω eine
Realisation gemäÿ P ; d.h. im Sinne einer auÿermathematischen Deutung
steht P (A) für die Wahrscheinlichkeit, dass ω̄ ∈ A gilt, vgl. 3.2.1 .
Sei
x̄ := X(ω̄) entsprechend
A ∈ P(Ω0 ) steht PX (A0 ) für
Dann ist
0
ein
eine Realisation gemäÿ
PX ;
d.h.
die Wahrscheinlichkeit, dass
für
x̄ ∈ A0
gilt.
Anstatt
'x̄ ist eine Realisation gemäÿ
Realisation von
PX '
sagt man auch:
'x̄ ist eine
X' .
5.9 Gemeinsame Verteilung
(Ω, P(Ω), P ) ein WRaum, Xi Ωi ZVen, i = 1, . . . , n und X = (X1 , . . . , Xn )
die Produktabbildung. Dann heiÿt die Verteilung von X bez. P die gemeinsame Verteilung der Xi , i = 1, . . . , n.
Seien
Es gilt
PX
n
× Ai
i=1
(5.9.1)
=
1
=
2
=
3
n
P {ω ∈ Ω |X(ω) ∈ × Ai }
i=1
P
P
ω ∈ Ω | X1 (ω) ∈ A1 , . . . , Xn (ω) ∈ An
n
\
Xi−1 (Ai )
(Ai ⊂ Ωi , i ∈ Nn ) .
i=1
Zu 1: Nach Def. des Bildmaÿes.
Zu 2: Nach Def. der Produktabbildung, vgl. 1.3, bzw. des kartesischen Produktes, vgl. 1.2 .
Zu 3: Die Auistung mit Komma meint 'und', was mengentheoretisch zur
'Durchschnitts'bildung führt.
Nach Def. der Urbildabbildungen
Xi−1 , i = 1, . . . , n .
Zufallsvariable und Verteilungen im diskreten Fall
30
Die gemeinsame Verteilung zweier ZVen wird im Experiment 5.2 illustriert.
Zur Darstellung nutzen wir die Möglichkeiten der diskreten Theorie und basieren auf den Einpunktmengen des Bildraumes, vgl. (3.5.1).
Stochastische Unabhängigkeit
6
31
Stochastische Unabhängigkeit
Der Begri der stochastischen Unabhängigkeit ist für die Stochastik von zentraler
Bedeutung. Obwohl der dem Begri zugrundeliegende Sachverhalt singulären Charakter hat, ist er Voraussetzung für viele in der Stochastik formulierte Sachverhalte.
Die stochastische Unabhängigkeit steht im engen Zusammenhang mit dem Produkt-
maÿbegri.
Das Bernoullische Versuchsschema als spezieller WRaum ist ein stochastisches
Modell zur Beschreibung einer Versuchsfolge, deren Einzelversuche sich gegenseitig
nicht beeinussen; tatsächlich werden die Einzelversuche durch stochastisch unabhängige, gemäÿ
B(1, p) verteilte ZVen
beschrieben.
An die Spitze unserer Überlegungen stellen wir die Bemerkung 6.1, die die
Denition der stochastischen Unabhängigkeit vorbereitet.
6.1 Bemerkung
Seien
milie
(Ω, P(Ω), P )
von Ωi ZVen
ein (diskreter) WRaum,
und
(Xi | i ∈ Nn )
eine endliche Fa-
X := (X1 , . . . , Xn ).
PXi bzw. der Denition
Xi , i = 1, . . . , n vgl. (5.9.1) Aufgrund der Denition der Verteilungen (Bildmaÿe)
der gemeinsamen Verteilung
PX
der ZVen
besagen (6.1.1) bzw. (6.1.2) (oensichtlich) dasselbe; d.h. (6.1.1) und (6.1.2)
sind äquivalent:
(6.1.1)
P ({ω ∈ Ω| Xi (ω) ∈ Ai , i ∈ Nn ) =
n
Y
P ({ω ∈ Ω| Xi (ω) ∈ Ai })
i=1
(Ai ∈ P(Ωi ), i ∈ Nn )
n
P X ( × Ai ) =
(6.1.2)
i=1
(Das Zeichen
n
Q
ai
n
Y
PXi (Ai )
(Ai ∈ P(Ωi ), i ∈ Nn ) .
i=1
meint das Produkt der Faktoren
ai , i = 1, . . . , n).
i=1
Tatsächlich sind (6.1.1) bzw. (6.1.2) auch mit (6.1.3) bzw. (6.1.4) äquivalent
(6.1.3)
P ({ω ∈ Ω| Xi (ω) = ωi (i ∈ Nn )} =
n
Y
P ({ω ∈ Ω| Xi (ω) = ωi })
i=1
(ωi ∈ Ωi , i ∈ Nn )
Überblick
Stochastische Unabhängigkeit
32
bzw. mit
PX =
(6.1.4)
O
PXi .
Oensichtlich ist (6.1.3) eine Konsequenz aus (6.1.1) dass (6.1.3) den Sachverhalt (6.1.1) nach sich zieht, liegt im Umstand begründet, dass bei diskreten
WMaÿen diese bereits festgelegt sind, wenn die MaÿWerte auf den Ein
PunktMengen festgelegt sind, vgl. 3.5 . Der Sachverhalt (6.1.3) lässt sich
mindestens nicht direkt auf allgemeine WRäume übertragen.
Die bedeutungsvollste Darstellung der Sachverhalte (6.1.1)(6.1.4) ist die von
(6.1.4); hier wird eine Verbindung zwischen der
gemeinsamen Verteilung
und dem Produktmaÿ der einzelnen Verteilungen (Bildmaÿe) der
ZVen
Xi
hergestellt.
Die Äquivalenz von (6.1.1), (6.1.2) und (6.1.4) trit (entsprechend modiziert) auch für allgemeine WRäume zu; der Nachweis stellt allerdings mathematische Ansprüche.
6.2 Denition
(Ω, P(Ω), P ) ein WRaum (Xi | i ∈ Nn ) eine endliche Familie von Ωi ZVen und X = (Xi , . . . , Xn ).
Die Familie (Xi | i ∈ Nn ) heiÿt stochastisch unabhängig bez. P , wenn
Seien
eine der Bedingungen (6.1.1) und (6.1.2)
(und damit) beide zutreen.
In diesem Falle spricht man von (stochastisch) unabhängigen ZVen
X1 , . . . , Xn .
6.3 Folgerung
6.3.1
Aufgrund von 6.1 ist klar, dass die Familie
(Xi | i ∈ Nn ) für n = 1,
also mit nur einer ZV, unabhängig ist.
6.3.2
Die Reihenfolge der Nennung der ZVen spielt keine Rolle: Sind
X1 , X2 , X3 , X4 unabhängig, so auch X4 , X1 , X2 , X3 etc.
Ist (Xi | i ∈ Nn ) unabhängig und gilt M ⊂ Nn , so ist auch
(Xi | i ∈ M ) unabhängig, d.h., eine Teilmenge von unabhängiz.B.
6.3.3
gen ZVen ist unabhängig. Der Sachverhalt leuchtet unmittelbar
−1
ein; zum formalen Beweis nutzt man 5.4.2, wonach Xi (Ωi ) = Ω
gilt sowie
P (Ω) = 1.
Die beiden folgenden Sachverhalte erweisen sich im Rahmen von Anwendungen als nützlich.
Stochastische Unabhängigkeit
33
6.4 Satz
(Ω, P(Ω), P ) ein WRaum und Xi unabhängige Ω0i ZVen, i = 1, . . . m, m+
1, . . . , n. Dann sind die vektorwertigen ZVen
Seien
Y := (X1 , . . . , Xm )
und
Z := (Xm+1 , . . . , Xn )
unabhängig.
6.5 Satz
(Ω, P(Ω), P ) ein WRaum. Seien Xi : Ω → Ωi unabhängige ZVen und
fi : Ωi → Ω0i Abbildungen. Dann sind die ZVen fi ◦Xi , i = 1, . . . , n ebenfalls
Sei
unabhängig.
Sind die reellen ZVen
sin(X1 ) und eX2 .
X1
und
X2
stochastisch unabhängig, so also auch
(fakultativ)
Xi : Ω → {0, 1}
6.6 Bernoullisches Versuchsschema
(Ω, P(Ω), P ) ein WRaum und
B(1, p)verteilte ZVen; d.h., es gilt
P ω ∈ Ω | Xi (ω) = 1
= p
Seien
und
P
Sei
ω ∈ Ω | Xi (ω) = 0
= 1 − p =: q
unabhängige, gemäÿ
(i = 1, . . . , n) .
X := (X1 , . . . , Xn ). Wegen der vorausgesetzten stochastischen UnabhänXi gilt
gigkeit der
PX =
(6.6.1)
n
O
PXi =
i=1
Damit erhält man für ein Element
k mal
n
O
B(1, p) .
i=1
(ω1 , . . . , ωn ) ∈ {0, 1}n bei dem die 1 genau
auftritt
(6.6.2)
PX
n
Y
PXi {ωi } = pk q n−k ,
(ω1 , . . . , ωn )
=
i=1
d.h. also, dass die Wahrscheinlichkeit eines solchen Elementes durch
gegeben ist.
pk q n−k
Stochastische Unabhängigkeit
34
Ein WRaum {0, 1} , P({0, 1} ), i=1 B(1, p) mit n ∈ N und p ∈ [0; 1]
heiÿt ein Bernoullisches Versuchsschema vom Umfang n. Das Bernoullische Versuchsschema ist ein wtheoretisches Modell für die
nmalige unabhängige Wiederholung eines Versuchs mit den beiden Ausgängen 0 und 1.
n
n
Nn
6.7 Bernoullisches Versuchsschema (Ergänzung)
(fakultativ)
Mit den Absprachen von 6.6 sei
Y :=
n
X
Xi ,
i=1
d.h.,
Y
ist die Summe von unabhängigen gemäÿ
B(1, p)
verteilter
ZVen.
Dann lässt sich (mit Hilfe der bislang entwickelten Theorie) zeigen, dass
gemäÿ
B(n, p) verteilt ist; oder anders formuliert, das Bildmaÿ PY
Y
ist gleich
B(n, p):
PY = B(n, p) .
Anstelle eines Beweises verweisen wir auf das Experiment 6.1 .
Wie erinnerlich vgl. 4.1 ist die WFunktion
w
n k
w(k) =
p (1 − p)n−k
k
von
B(n, p) gegeben durch
k ∈ N0n .
Experiment 6.1 veranschaulicht das Bernoulli'sche Versuchsexperiment, 6.6
bzw. 6.7, anhand eines virtuellen Galton Brettes.
6.8 Denition
(Ω, P(Ω), P ) ein WRaum sowie A, B ⊂ Ω Ereignisse. A und B
(stochastisch) unabhängig (bez. P ), wenn gilt
Seien
(6.8.1)
heiÿen
P (A ∩ B) = P (A) · P (B) .
Die Unabhängigkeit der Ereignisse lässt sich sofort als die Unabhängigkeit
ihrer Indikatorfunktionen formulieren.
Stochastische Unabhängigkeit
35
6.9 Satz
Seien
(Ω, P(Ω), P )
ein WRaum sowie
A, B ⊂ Ω.
Aussagen äquivalent.
6.9.1
Die ZVen
6.9.2
Die
1A , 1B sind unabhängig.
Ereignisse A, B sind unabhängig.
Dann sind die folgenden
Lösungen zu Kapitel 1
36
Lösungen zu Kapitel 1
Zu 4.2 PoissonVerteilung
Die in 4.2 eingeführte Funktion
w : N 0 → R+
−λ λ
w(k) = e
mit
k
k!
(k ∈ N0 )
ist eine WFunktion, denn es gilt
X
w(k) =
X
e−λ
k∈N0
λk
= e−λ · eλ = 1 .
k!
Zu 4.3 Geometrische Verteilung
Die in 4.3 eingeführte Funktion
w : N 0 → R+
w(k) = (1 − q)q k
mit einem
q ∈ (0, 1)
X
k∈N0
mit
(k ∈ N0 )
ist eine WFunktion, denn es gilt
w(k) =
X
k∈N0
(1 − q)q k = (1 − q)
1
= 1.
(1 − q)
Studierhinweise Kapitel 2
37
Studierhinweise Kapitel 2
7 Allgemeine WRäume
8 Verteilungsfunktion als Möglichkeit zur Vorgabe eines
WMaÿes
9 Das Erfordernis der Messbarkeit
10 Über Integrale
11 Maÿe mit LebesgueDichten
Abschnitt 2 liefert eine Einführung in die allgemeine Wahrscheinlichkeitstheorie.
Die beweismäÿige Aufarbeitung ist nicht angestrebt; sie liegt deutlich jenseits
der Möglichkeiten dieses Kurses.
Erwartet wird hingegen die Kenntnis der Begrisbildungen bzw. die Einsicht
in deren Notwendigkeit.
7 Allgemeine WRäume
7.1 Denition
σ Algebra, 7.2 Folgerungen, 7.3 Borel'sche σ Algebra
Kenntnis incl. der Motivation im Text vor Def. 7.1
7.4 Denition des allgemeinen WRaumes
Präzise Kenntnis incl. Sprechweisen.
Was ist eine messbare Menge ?
Wie unterscheiden sich die Denition 7.4.1 und 3.1 ?
7.5 Die Realisation gemäÿ einem WMaÿ als auÿermath. Konzept
Kenntnis
7.6 Das BorelLebesgueMaÿ
Präzise Kenntnis
Studierhinweise Kapitel 2
38
8 Die Verteilungsfunktion als Möglichkeit zur Vorgabe
eines WMaÿes
8.1 Verteilungsfunktion, 8.2 Beispiele
Kenntnis
9 Das Erfordernis der Messbarkeit
Zentral ist der Begri der Messbarkeit, Def. 9.1, deren Notwendigkeit im
Text vor 9.1 erläutert wird. Diese Erläuterung muss wiedergegeben werden
können.
9.1 Denition, 9.2 Bemerkungen
Präzise Kenntnis der Inhalte, Formeln und Sprechweisen.
Was meint die Verteilung von
Angesichts der
X?
Was ist eine ZV ?
σ Algebra als kennzeichnendes Element allgemeiner WRäume
bedürfen die Denitionen der allgem. Theorie einer Neufassung, was am Beispiel der stochastischen Unabhängigkeit demonstriert wird.
9.3 Der Begri der stochastischen Unabhängigkeit im allg. Fall, 9.4
Satz
Kenntnis und Vergleich mit 6.2 bzw. (6.1.1) und (6.1.2) sowie 6.5
10 Über Integrale
Kenntnis
11 Maÿe mit LebesgueDichten
Eine bedeutsame Art, WMaÿe festzulegen, ist neben der Vorgabe von Verteilungsfunktionen die Vorgabe von Dichten.
11.1 Satz, 11.2 Denition, 11.3 Bemerkung
Präzise Kenntnisse der Inhalte, Formeln, Nomenklatur und Sprechweisen
11.4 Beispiel (StandardNormalverteilung), 11.5 Denition
Präzise Kenntnis incl. Kommentierung der Graphen
Allgemeine WRäume
7
39
Allgemeine WRäume
Der Abschnitt hat den allgemeinen WRaum bzw. den Maÿraum zum Gegenstand.
σ Algebra eingeführt; ein (wichtiger) Spezialfall stellt
n
dem R dar.
Dazu wird zunächst der Begri der
die Borel'sche
σ Algebra
über
Der Begri des WMaÿes ist in Abschnitt 3 über einem diskreten Ausgangsraum eingeführt worden, was eine erhebliche Vereinfachung bedeutet. Als
Ereignissystem (Gesamtheit aller Ereignisse) wurde und konnte die
menge
P(Ω)
(Menge aller Teilmengen einer Menge) des
gangsraumes
Potenz-
diskreten Aus-
Ω herangezogen werden. Eine Leitidee, die bei überabzähl-
baren Ausgangsräumen aufgrund logischer Widersprüche aufgegeben werden muss. Als Indiz für das Gesagte mag dienen, dass es auf
der Potenzmenge von
es gibt auf
P(R)
R, kein
P(R)
translationsinvariantes Maÿ gibt; d.h.,
kein Maÿ, das kongruenten Figuren stets dieselbe Maÿzahl
zuordnet.
Der Ausweg besteht darin, dass Maÿe über sogenannten σ Algebren den
niert werden; im Spezialfall des R wählt man insbesondere die sogenannte
Borel'sche σ Algebra. Für die Behandlung praktischer Probleme im Rn
ergeben sich dadurch kaum Einschränkungen.
7.1 Denition (σ Algebra)
Ein System
A
von Teilmengen über
Ω
heiÿt
σ Algebra
(7.1.1)
Ω∈A
(7.1.2)
A ∈ A ⇒ Ac ∈ A
(über
Ω),
mit einer Folge (An ) von Mengen aus A gilt auch
(7.1.3)
∞
[
An ∈ A .
n=1
Beispiele von
{∅, Ω}
falls gilt:
oder
über
Ω6= ∅
A⊂Ω
oder
σ Algebren
{∅, A, Ac , Ω}
für
sind etwa die Systeme
P(Ω) .
Als unmittelbare Konsequenz aus 7.1 erhält man die
Überblick
Allgemeine WRäume
40
7.2 Folgerungen
7.2.1
7.2.2
∅ ∈ A.
Ist (An )
eine Folge von Mengen aus
∞
\
A,
so gilt auch
An ∈ A .
n=1
7.2.3
Ai ∈ A, i = 1, . . . , n ⇒
n
[
Ai ∈ A
n
\
bzw.
i=1
7.2.4
Mit
Ai ∈ A .
i=1
Ai ∈ A, i = 1, 2
gilt auch
A1 \ A2 ∈ A .
σ Algebra
Man sagt für 7.2.2 bzw. 7.2.3 auch, dass eine
gegenüber den
Operationen Vereinigung und Durchschnitt bez. endlich oder abzählbar vieler Elemente der
7.3 Borel'sche
Über
B
σ Algebra
abgeschlossen ist.
σ Algebra
n
R bzw. R wird standardmäÿig die sogenannte Borel'sche σ Algebra
B n verabredet, wobei hier auf eine förmliche Einführung verzichtet
bzw.
wird.
σ Algebra
Als
genügen
B
bzw.
B
Darüber hinaus enthält
Bn
die Mengensysteme (Mengen von Mengen)
•
aller
Halbintervalle
•
aller
Intervalle
•
aller
oenen Mengen aus
mit
x ∈ R
mit
x∈R
und
[a, b]
mit
a≤b⊂R
R.
Bn .
Bedeutung ist, dass
n
(−∞, x]
(a, b), (a, b], [a, b)
Entsprechendes gilt für
Von
den Bedingungen aus (7.1.1) (7.1.3).
Bn
auch stets alle
Einpunktmengen
enthält; ein Sachverhalt, der bei beliebigen
zutreen muss; vgl. z.B. die
σ Algebra {∅, Ω}
über
{x} ⊂ Rn
σ Algebren
nicht
Ω.
σ Algebra B n zum StandardDenitionsraum für
WMaÿe über dem Rn gemacht wird, heiÿt dies, dass auch den Einpunktmengen des Rn Maÿwerte zukommen.
Da die
Borel'sche
Allgemeine WRäume
41
7.4 Denition
7.4.1
Das
(Ω, A, P ) mit Ω als nichtleerer
über Ω und einer Abbildung
Tripel
Algebra
P : A → R+
(7.4.1.1)
P (Ω) = 1
(7.4.1.2)
P (A) ≥ 0 (A ∈ Ω)
(7.4.1.3)
für jede Folge
(An )
!
An
gangsraum;
mente von
A
A
A
gilt
σ
mit
paarweiser fremder Mengen aus
∞
X
P (An ) (σ − Additivität)
1
Wahrscheinlichkeitsraum (WRaum);
Ω heiÿt AusP heiÿt WMaÿ. Die Elemessbare Mengen. (Ω, A) heiÿt Messraum; wir
P über dem Messraum (Ω, A).
steht für das
heiÿen
sprechen vom WMaÿ
7.4.2
als
(Nichtnegativität),
=
1
heiÿt (allgemeiner)
A
(Normiertheit),
∞
X
P
Menge,
Ereignissystem;
P (Ω) = 1 zugunsten von P (∅) = 0
P als von einem Maÿ und schreibt
µ, ν etc.; (Ω, A, µ) heiÿt Maÿraum.
Wird die Bedingung (7.4.1.1)
aufgegeben, so spricht man von
anstelle von P nunmehr
∞
P
(
An meint die disjunkte Vereinigung, d.h., die Vereinigung der
1
disjunkten Mengen An )
Beachten Sie: Nur den messbaren Mengen, also den Elementen der
Algebra
A,
σ
können Wahrscheinlichkeiten zugeordnet werden.
7.5 Die Realisation gemäÿ einem WMaÿ als auÿermath. Konzept
In der
intuitiven, auÿermathematischen Deutung meint P (A) die Wahr-
scheinlichkeit dafür, dass ein zufällig gemäÿ
P zustandegekommenes
(durch Messung oder Beobachtung ermitteltes) ω̄ ∈ Ω in die Menge A
hineinfällt, d.h., dass ω̄ ∈ A für A ∈ A gilt.
Man spricht von ω̄ als von einer Realisation gemäÿ dem W-Maÿ P .
Die
empirische Überprüfung, ob es sich bei vorgegebenen Realisa-
tionen um solche gemäÿ
vgl. Experiment 15.1 .
P
handelt, ist nur für ein
Kollektiv möglich;
Allgemeine WRäume
42
7.6 Das BorelLebesgue Maÿ
7.6.1
Auf
(R, B)
ist (ohne Beweis) ein Maÿ
µ
eindeutig durch die Vor-
gabe
µ((a, b]) = b − a
für
a<b∈R
festgelegt.
µ
heiÿt das
anstelle von
7.6.2
λ
stellt ein
BorelLebesgue Maÿ (BLMaÿ) auf
µ
λ verwendet wird.
auf B über R dar; λ ist
B,
wobei
speziell das Zeichen
allgemeines Maÿ
also
kein
WMaÿ.
Ist nun
A ∈ B
eine Menge aus
stellt die sog. Einschränkung
R,
λA
z.B. das Intervall
von
λ
auf
A
Gleichverteilung)
λA (B) :=
Oenbar ist
Im Falle
λ(B)
λ(A)
(B ⊂ A, B ∈ B) .
λA (A) = 1 .
A := [0; 1]
gilt
λ[0;1] (B) = λ(B)
so
ein WMaÿ
dar; nämlich die sogenannte Gleichverteilung auf
ne
[0; 1],
(B ⊂ A, B ∈ B) .
A (allgemei-
Die Verteilungsfunktion als Möglichkeit zur Vorgabe eines WMaÿes
8
43
Die Verteilungsfunktion als Möglichkeit zur
Vorgabe eines WMaÿes
Es gibt verschiedene Möglichkeiten WMaÿe festzulegen. Eine solche Möglichkeit ist die
Darstellung mit Hilfe der Verteilungsfunktion für WMaÿe auf
B über R,
die auf
A. von Mises zurückgeht.
Die Erweiterung des Darstellungskonzeptes auf den
Eine Möglichkeit, ein WMaÿ
über
Rn
ist unhandlich.
(R, B) mitzuteilen, ist die Vorgabe der so-
genannten Verteilungsfunktion. Diese Verteilungsfunktion kann auch über
n
dem R eingeführt werden, sie erweist sich in diesem Falle aber als nicht sehr
handlich.
8.1 Verteilungsfunktion
8.1.1 Ist P ein WMaÿ auf
B
(über
Verteilungsfunktion von
FP
so heiÿt die Funktion
(x ∈ R)
FP (x) := P ((−∞, x])
(8.1.1.1)
8.1.2
R),
P.
besitzt folgende Eigenschaften
FP
(8.1.2.1)
ist
isoton
(8.1.2.2)
FP
ist (bedingt durch die rechts abgeschlossenen Intervalle
(−∞, x]
in (8.1.1.1))
lim FP (x) = 0
(8.1.2.3)
x→−∞
lim FP (x) = 1
(8.1.2.4)
8.1.3
rechtsseitig stetig.
x→+∞
Nun deniert aber jede beliebige Funktion
(8.1.2.4) genügt, eindeutig ein WMaÿ
PF
auf
F , die
B mit
(8.1.2.1) PF ((a, b]) = F (b) − F (a) ,
(8.1.3.1)
als dessen Verteilungsfunktion sich
F
erweist.
Beachten Sie, die Verteilungsfunktion ist ein Darstellungskonzept
für WMaÿe
P
über
(R, B).
Überblick
Die Verteilungsfunktion als Möglichkeit zur Vorgabe eines WMaÿes
44
8.2 Beispiele für Verteilungsfunktionen
8.2.1
Verteilungsfunktion eines diskreten WMaÿes über
1
....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ..............
.........................
.........................
.........................
.........................
.........................
0
b
b
b
−1
1
2
3
b
4
b
5
6
Denition (8.1.1.1) basiert auf dem Halbintervall
folge sind die Intervalle des obigen Graphen
und
8.2.2
(R, B)
(−∞, x]; demzu-
links abgeschlossen
rechts oen!
Verteilungsfunktion der Exponentialverteilung Die Funktion
R→R
(
F :
1 − e−αx (x ≥ 0)
F (x) :=
0
(x < 0)
erfüllt die Bedingungen (8.1.2.2) (8.1.2.3) und ist dadurch eine
Verteilungsfunktion; das zugehörige WMaÿ heiÿt die
Exponen-
tialverteilung
1
−1
Die (verallgemeinerte)
....... ....... ....... ....... ....... ....... .......................................................................... ....... ....... .......
......
...............
...........
........
......
.
.
.
.
....
.....
.....
.....
...
.
.
.
.
...
...
...
0
1
2
3
4
5
6
inverse Verteilungsfunktion erweist sich bei der
künstlichen Erzeugung von Realisationen gemäÿ einem WMaÿ
P
als nützlich.
8.3 Denition (verallgemeinerte inverse Verteilungsfunktion)
kultativ)
Sei
P
ein WMaÿ auf
Die (verallgemeinerte)
(R, B)
F.
:= FPinv
mit Verteilungsfunktion
inv
inverse Verteilungsfunktion
F inv : (0; 1) → R
F
zu
(fa-
P
Die Verteilungsfunktion als Möglichkeit zur Vorgabe eines WMaÿes
45
ist deniert durch
F inv (u) := inf{x ∈ R| F (x) ≥ u},
Wir verzichten auf eine Diskussion von
F inv
u ∈ (0; 1) .
und merken an, dass sich deF von P an der 45◦ ren Graph durch Spiegelung der Verteilungsfunktion
Geraden des 1. Quadranten ergibt.
Zum Verständnis erläutern wir das hinter
F inv
stehende Zuordnungsprinzip
mit Hilfe einer Figur.
8.4 Zuordnungsprinzip der inversen Verteilungsfunktion
Vorgelegt sei der Graph der Verteilungsfunktion
F
von
(fakultativ)
P:
R
1 6
u3
u2
u1
0
..............
..............
.........
........
.......
.......
.
.
.
.
.
......
......
......
................................................................................................................................................
. ..
.
.
.
.
.
.
.....
...
......
..
.......
.......
..
.......
.
.
.
.
.
.
...
.
......
.
.
.
.
..
.
.
.
..
........
..
.
.
..........................................................................................
..
...
...
..
..
..
..
...
...
.
.
..
..
...
...
..
.......................................................................................................................
.
.
..
.
.
.
.
..
... ...
.
.
.
.
...
.
.
... ..
.
.
.
.
.
.
...
.
.
.
.
.
...
.
.
.
...
.
.
.
.
..
.
.
.
.
.
.
...
.
..
.
.
.
.
.
....
..
..
.
.
.
.
.
...
.
.
....
.
.
..
.
.
.
.
.
.
F
- R
0 F
inv
(u1 )
F
inv
(u2 ) F
inv
(u3 )
Fig. 8.1
Den Elementen u1 , u2 , u3 ∈ (0; 1) (vertikale Achse), werden Bilder
F inv (u2 ) und F inv (u3 ) gemäÿ Fig. 8.1 zugeordnet.
F inv (u1 ),
Bedeutsam ist der folgende Sachverhalt
8.5 Satz
Seien
P
(fakultativ)
ein WMaÿ auf
Verteilungsfunktion
teilung über
λ(0,1)
(R, B)
und
sei das auf
F inv dessen (verallgemeinerte) inverse
(0; 1) restringierte BLMaÿ (Gleichver-
(0; 1)).
Dann gilt
(λ(0,1) )F inv = P ,
d.h.
das Bildmaÿ von
λ(0,1)
unter
F inv
ist gleich dem WMaÿ
P.
Das Erfordernis der Messbarkeit
9
46
Das Erfordernis der Messbarkeit
Die zentrale Begrisbildung ist die der Messbarkeit einer Abbildung, eine Eigenschaft, ohne
die das Bild eines (W) Maÿes im allgemeinen Falle nicht zu erklären ist. Bei Zugrundelegung von
P(Ω)
als Ereignissystem wie bei den diskreten WRäumen erweist sich
jede Abbildung (trivialerweise) als messbar.
Eine direkte Konsequenz aus der Denition des (allgemeinen) WRaumes als
Tripel
(Ω, A, P )
tritt beim Transport von WMaÿen auf.
Wir gehen zur Erläuterung von einem WRaum
0
sowie einer Abbildung T : Ω → Ω aus.
(Ω, A, P ),
einem Messraum
(Ω0 , A0 )
In Abschnitt 5 wurde zum Zwecke des Transportes von WMaÿen die Urbildabbildung
T −1 : P(Ω0 ) −→ P(Ω)
T −1 (A0 ) := {ω ∈ Ω| T (ω) ∈ A0 }
(A0 ∈ P(Ω0 ))
eingeführt.
A0 als Ereignissystem über Ω0 meint, dass der Denitions0
0
0
bereich eines nach (Ω , A ) zu transportierenden WMaÿen die σ Algebra A
Die Festlegung von
sein soll, was uns im Sinne von Abschnitt 5 auf die Betrachtung der Urbilder
T −1 (A0 ) ⊂ Ω
für
A0 ∈ A 0
führt.
Diesen Mengen
T −1 (A0 ) können aber nur dann Wahrscheinlichkeiten unter P
zuerkannt werden, wenn
T −1 (A0 ) ∈ A
gilt, denn
P
(A0 ∈ A0 )
ist nur für die Elemente von
A
deniert. Diese Einsicht führt
zur Denition der Messbarkeit einer Abbildung.
9.1 Denition
(Ω, A), (Ω0 , A0 ) Messräume und X : Ω → Ω0
9.1.1 X heiÿt messbar, wenn
Seien
X −1 (A0 ) ∈ A
eine Abbildung.
(A0 ∈ A0 )
gilt.
Wir sprechen von der
(Ω0 , A0 ) .
messbaren Abbildung
X : (Ω, A) →
Überblick
Das Erfordernis der Messbarkeit
9.1.2
47
(Ω, A)
Tritt anstelle von
der WRaum
PX : A0 −→ R+
(9.1.2)
das
Die
PX
von
P
bei
X
so heiÿt
mit
PX (A0 ) := P (X −1 (A0 ))
Bildmaÿ
(bzg.
(Ω, A, P ),
bzw.
(A ∈ P(Ω0 ))
die Verteilung von
X
P).
messbare Abbildung
X
heiÿt in diesem Falle
Zufallsvaria-
ble (ZV).
9.2 Bemerkung
9.2.1
Mit grundsätzlich gleicher Beweisführung wie in Abschnitt 4 zeigt
man, dass
9.2.2
PX
ein WMaÿ ist.
Grundsätzlich ist
ZV ein Synonym für messbare Abbildung.
Spricht man von einer messbaren Abbildung insbesondere als von
einer ZV, so liegt das Interesse in der Regel auf dem
9.2.3
PX
X.
von
Ist
(Ω, A, P ) insbesondere
X
oder wie man auch sagt, auf der
auch stillschweigend X : Ω → Ω0
Verteilung
PX
von
ein diskreter WRaum, so tritt die Potenzmenge
vgl. 7.1, an die Stelle der
Abbildung
Bildmaÿ
σ Algebra
P(Ω) als σ Algebra,
A. Damit ist aber jede
trivialerweise messbar, also eine ZV nicht nur im Sinne der Denition 5.1, sondern auch im Sinne der
Denition 9.1.1.
9.2.4
n
n
Sei der Messraum (R , B ) mit der Borel'schen σ Algebra
n
n
über R gegeben, so erweist sich jede stetige Funktion f : R
Rm als messbar.
Bn
→
Die durch Messbarkeitsforderungen bedingten Veränderungen beim Übergang von diskreten zu allgemeinen WRäumen werden an der Denition der
stochastischen Unabhängigkeit bzw. an einen Sachverhalt über stochastische
Unabhängigkeit aufgezeigt.
9.3 Der Begri der stochastischen Unabhängigkeit im allgemeinen
Fall
(Ω, A, P ) ein WRaum und (Xi | i ∈ Nn )
Xi : (Ω, A) → (Ωi , Ai ), i ∈ N .
Sei
eine Familie von ZVen mit
Das Erfordernis der Messbarkeit
48
Dann besagen in Entsprechung zu 6.1 die Sachverhalte (9.3.1) und (9.3.2)
dasselbe.
P ({ω ∈ Ω| Xi (ω) ∈ Ai , i ∈ Nn })
(Ai ∈ Ai ,
(9.3.1)
n
Q
=
i ∈ Nn )
P ({ω ∈ Ω| Xi (ω) ∈ Ai )
i=1
und
PX ( ×ni=1 Ai ) =
(9.3.2)
n
Q
PXi (Ai )
(A ∈ Ai , i ∈ Nn )
i=1
n
Q
ai meint das Produkt der Faktoren ai , i = 1, . . . , n)) .
i=1
Oenbar besteht der Unterschied von (9.3.1) bzw. (9.3.2) zu (6.1.1) bzw.
(Das Zeichen
(6.1.2) darin, dass jetzt
A
anstelle von
P(Ω)
bzw.
Ai
anstelle von
P(Ωi )
tritt.
Ist (9.3.1) oder äquivalent dazu (9.3.2) erfüllt, so sagt man Denition 6.2
verallgemeinernd , dass
X1 , . . . , Xn
stochastisch unabhängig sind.
Die Sachverhalte 6.3, 6.4, 6.5 übertragen sich, (entsprechend modiziert) in
die allgemeine Theorie. Satz 9.4 verdeutlicht diese Übertragung am Beispiel
von Satz 6.5.
9.4 Satz
(Ω, A, P ) ein WRaum und Xi : (Ω, A, P ) → (Ω0i , A0i ) unabhängige
00 00
0
0
ZVen, sowie f : (Ωi , Ai ) → (Ωi Ai ) messbare Abbildungen, i = 1, . . . , n .
Dann sind die messbaren Abbildungen (ZVen) fi ◦ Xi :
Seien
fi ◦ Xi (.) = fi (Xi (.)) : (Ω, A) → (Ω00 , A00 ) ,
ebenfalls
unabhängig,
i = 1, . . . , n .
Als Anwendung von 9.4 und 8.5 sei noch der folgende Sachverhalt für einen
späteren Bezug im Zusammenhang mit Zufallsgeneratoren festgehalten.
(fakultativ)
9.5 Satz
λ(0;1) bez. des Ini = 1, . . . , n .
P sei ein WMaÿ auf B über R mit F inv als inverser Verteilungsfunktion.
inv
Dann sind F
(Xi (.)) unabhängige, gemäÿ P verteilte ZVen, i = 1, . . . , n.
Seien
Xi
unabhängige, gemäÿ der Gleichverteilung
tervalles
(0; 1)
verteilte ZVen,
Über Integrale
10
49
Über Integrale
Das LebesgueIntegral wird als Spezialfall des allgemeinen
µIntegrals
eingeführt,
auf das nur verwiesen wird. Unter gewissen (nicht wiedergegebenen) Voraussetzungen koinzidiert das Lebesgue Integral mit dem aus der Schule bekannten Riemann Integral,
was eine einfache Auswertung von Lebesgue Integralen zur Konsequenz hat.
Das in der WTheorie bei Unterstellung eines Maÿraumes
ner
A − B messbaren
µIntegral:
Funktion
f : Ω → R
(Ω, A, µ) bez. ei-
benutzte Integral ist das
sogenannte
Z
f dµ ;
(10.1)
vgl. [Moeschlin, Wahrscheinlichkeitstheorie I], Ÿ 4.f heiÿ t
integrierbar, falls
der Term (10.1) existiert und endlich ist.
Grundsätzlich wird über den gesamten Ausgangsraum
Integration auf eine Menge
A∈A
Ω
integriert; soll die
eingeschränkt werden, so bildet man
Z
Z
f dµ :=
(10.2)
f · 1A dµ
A
und spricht vom
µIntegral
von
f
über
A.
n
n
Ist A insbesondere die Borelsche σ Algebra B über R und µ das BLMaÿ
λn , so spricht man vom LebesgueIntegral. Dafür schreibt man auch
Z
Z
f (x) dx :=
(10.3)
f dλn .
Bekannt ist in der Regel z.B. aus Anfängervorlesungen das Riemann
Integral.
Nun zieht die RiemannIntegrierbarkeit weder die LebesgueIntegrierbarkeit
nach sich, noch gilt das Umgekehrte. Dennoch gibt es allgemeine Bedingungen, unter denen das RiemannIntegral mit dem LebesgueIntegral koinzidiert. Dies gilt beispielsweise für das RiemannIntegral
(10.4)
Z+∞ 2
√
−x
e 2 dx = 2π ,
−∞
das somit auch in der Lebesgueschen Theorie zur Verfügung steht.
Anwendungsmöglichkeiten für Integrale ergeben sich in der WTheorie bei
der Darstellung von Maÿen bzw. bei der Frage nach Mittelung, d.h. also bei
der Erwartungswertbildung.
Überblick
Maÿe mit LebesgueDichten
11
50
Maÿe mit LebesgueDichten
Das Integral kann zur Festlegung von Maÿen benutzt werden; die dabei auftretenden
Integranden heiÿen Dichten. Schlieÿlich wird die Normalverteilung
2
N (a, σ ) über
eine Dichte deniert.
Der folgende Satz eine Konsequenz aus dem (hier nicht wiedergegebenen)
Satz von der monotonen Konvergenz erönet die Möglichkeit, Maÿe
mit Hilfe von Integralen festzulegen.
11.1 Satz
Sei
(Ω, A, µ)
ein Maÿraum und
f : Ω → R+
eine nichtnegative, messbare
Funktion.
11.1.1
Die durch
Z
ν(A) =
f dµ
(A ∈ A)
A
erklärte Funktion
11.1.2
ν:A→R
ist ein Maÿ.
Gilt überdies
Z
ν(Ω) =
f dµ = 1 ,
Ω
so ist
ν
ein WMaÿ.
11.2 Denition
Sei
(Ω, A)
ein Messraum und
µ
und
ν
Maÿe auf
Eine messbare, nichtnegative Funktion
A.
f : Ω → R+
mit
Z
ν(A) =
(11.2.1)
f dµ
(A ∈ A)
A
heiÿt eine
Gilt
bzw.
µDichte
von
(Ω, A) = (Rn , B n )
λn Dichte.
ν
in Zeichen
und
µ = λn ,
ν = f µ.
so heiÿt
f
eine
LebesgueDichte
11.3 Bemerkungen
11.3.1 Eine Dichte besitzen meint also, dass sich die Werte
für
ν(A)
A ∈ A als Integrale einer reellen, nichtnegativen, messbaf darstellen lassen.
ren Funktion
Die Forderung nach der Existenz einer Dichte ist
nicht selbstver-
ständlich. Beispielsweise haben diskrete WMaÿe, das Punktmaÿ
µω in ω z.B., keine LebesgueDichten. Die Unterstellung von Dichten führt z.B. in der Statistik zu viel spezielleren Resultaten als
im allgemeinen Fall.
Überblick
Maÿe mit LebesgueDichten
11.3.2
51
Bei der Bildung des Integrals
Z
f dµ
f auf Teilmenge einer µNullmenge, d.h.
N ∈ A, mit µ(N ) = 0, ohne Auswirkung auf
kann der Intgrand
auf
einer Menge
das
Integral abgeändert werden. Aus diesem Grund spricht man nicht
von
der Dichte eines Maÿes, sondern von einer Dichte.
11.4 Beispiel (StandardNormalverteilung)
Die durch
x2
1
f (x) = √ e− 2
2π
(11.4.1)
f : R → R+
denierte Abbildung
Damit dass
f
(x ∈ R)
ist stetig und daher nach 9.2.4 messbar.
eine LebesgueDichte eines WMaÿes
der Normiertheit von
P
P
ist, muss wegen
Z
+∞
P (Ω) =
−∞
x2
1
√ e− 2 dx = 1
2π
gelten, was aufgrund von ((10.4)auch zutrit.
Durch (11.4.1) wird die
Parametern
0
und
1
StandardNormalverteilung
N (0, 1)
mit den
deniert.
11.5 Denition
Seien
a, σ ∈ R, σ > 0.
auf
B
denierte WMaÿ heiÿt die
2
a
ga,σ2 : R → R+
1
(x − a)2
ga,σ2 (x) = √ exp −
2σ 2
σ 2π
(11.5.1)
tern
Das durch die Dichte
und
σ
; in Zeichen:
(x ∈ R)
Normalverteilung mit den Parame-
N (a, σ 2 ).
Der Graph der Dichte (11.4.1) ist symmetrisch bez. der Ordinate
angeordnet. Für
x=a±σ
x = a
x = a
nimmt diese Dichte ein Maximum an und weist in
Wendepunkte auf.
Maÿe mit LebesgueDichten
52
........
... ....
... ....
..
....
..
..
...
...
...
...
....
..
...
..
..
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
... ............................... ....
..... ..
... .......
.......
.
.
.
.
.
.
......
...
......
....
.....
.......
.......
... ....
.
.
... ...
.. ...
.
.
.. ...
.. ...
.
.
. .................................................................... .....
.
.
.
.
.
.....................
.
................ ...
.
.............
.
.
..
.
.
.
..... ...........
.
.............
.
.
..
.
.
.
.
.
.
.
.
.
.
..... ............
..
.
....... .......
.
.
.
.
.
..........
.
.....
...
.
.
.
.
.
..
...........
.......
.
.....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
............
.
.
......
...
.
........
....
.
.
.
.
.
..............
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
......
σ=
1
2
σ=1
σ=2
−4
−3
−2
−1
0
1
2
3
4
Die Graphen der durch (11.4.1) gegebenen Dichte werden als Gauÿ'sche
Glockenkurven bezeichnet; oenbar verlaufen diese 'Glockenkurven' für klei2
2
ne σ steil, während sie für groÿe σ ach verlaufen.
Experiment 15.1 zeigt die Erzeugung von gemäÿ
N (0, 1) verteilte Stichpro-
benrealisationen, die mit Hilfe des BoxMüllerVerfahrens berechnet werden.
Das (hier nicht beschriebene) BoxMüller-Verfahren fällt in den Bereich '15
Zufallsgeneratoren'.
Eine detaillierte Darstellung ndet sich in Moeschlin et al.,
Stochastics',
Berlin, Heidelberg, New York, 1998.
'Experimental
Studierhinweise Kapitel 3
53
Studierhinweise Kapitel 3
12 Erwartungswerte
13 Varianz und Kovarianz
14 Die Tschebyschev'sche Ungleichung
12 Erwartungswerte
Zentral ist der Begri des Erwartungswertes, vgl. 12.1, 12.2 sowie die für den
Erwartungswert geltenden Rechenregeln: 12.4, 12.5, 12.9 .
12.1 Der Erwartungswert im diskreten Fall, 12.2 Der Erwartungswert im allg. Fall, 12.3 Spezialfälle
Präzise Kenntnis der Inhalte, der Formeln sowie der Sprechweisen
12.4 Rechenregeln für Erwartungswerte
Kenntnis
12.5 Satz (Erwartungswertbildung bez. des Bildmaÿes)
Präzise Wiedergabe
12.6 Zur Bedeutung von 12.5.2
Kenntnis, Sinnwiedergabe
12.7 Erwartungswerte spezieller Verteilungen
(12.7.1): Rechnung, (12.7.2) (12.7.4) auswendig !
12.8 Die Zufallsvariable bei Modellen des stochastischen Zufalls
Kenntnis mit dem Ziele einer vollständigen Sinnwiedergabe
12.9 Satz
Kenntnis
Studierhinweise Kapitel 3
54
13 Varianz und Kovarianz
Zentral sind die Begrisbildungen der Varianz, Def. 13.1, der Kovarianz,
Def. 13.5 sowie beider Rechenregeln, 13.3, 13.6, 13.7 .
13.1 Denition (Varianz), 13.2 Bemerkungen
Kenntnis der Denition incl. vollständige Wiedergabe der Ausführungen zur
Interpretation
13.3 Rechenregeln für Varianzen
Kenntnis incl. der Wiedergabe der Beweise
13.4 Varianzen spezieller Verteilungen
Auswendig
13.5 Denition Kovarianz, 13.6 Satz
Kenntnis
13.7 Rechenregeln für Kovarianzen
Kenntnis mit Beweisen
13.8 Bemerkung
Kenntnis
14 Die Tschebyschev'sche Ungleichung
14.1 Satz (Tschebyschev'sche Ungleichung)
Kenntnis incl. Beweisführung sowie anschlieÿende Interpretation incl. der
Erläuterung der eingebrachten Figur
14.2 Satz
Kenntnis incl. Beweisführung. Lesen Sie die Kommentierung zur Beweisführung !
Studierhinweise Kapitel 3
55
14.3 Denition
Präzise Kenntnis des Sachverhaltes, den man das schwache Gesetz der groÿen
Zahlen nennt incl. anschlieÿende in Text gegebene Kommentierung
14.4 Aufgabe
Fähigkeit, die gestellte Aufgabe bzw. ähnliche Aufgaben selbst zu lösen
Erwartungswerte
12
56
Erwartungswerte
Zur Motivation der Begrisbildung wird zunächst der Erwartungswert im diskre-
ten Fall als Reihenwert eingeführt. Der allgemeine, auf dem Integral basierende
Erwartungswert subsumiert den speziellen Erwartungswert für den diskreten
Fall.
Der Erwartungswert weist eine Anzahl von Eigenschaften auf, die zur rechnerischen
Vereinfachung beitragen, vgl. 12.4.1 12.4.5 Als bedeutsam erweist sich die Erwartungswertbildung bez. des Bildmaÿes, vgl. 12.5
Im Sinne der Motivation der Begrisbildung wird zunächst der Erwartungswert im Falle eines diskreten WRaumes eingeführt. Dieser spezielle Erwartungswertbegri subsumiert sich unter den für allgemeine WRäume denierten.
12.1 Der Erwartungswert im diskreten Fall
(Ω, P(Ω), P ) ein diskreter WRaum. Betrachtet man dann eine reelle ZV
X : Ω → R, so läÿt sich für jedes ω ∈ Ω nicht nur der Funktionswert X(ω),
sondern mit Blick auf eine Gewichtung, auch die Wahrscheinlichkeit P ({ω})
Sei
angeben.
In naheliegender Weise bietet es sich an, eine Mittelung über diese Funktionswerte mit den entsprechenden Wahrscheinlichkeiten
P ({ω}) als Gewichte
herbeizuführen, was zur Denition des Erwartungswertes als Wert der endlichen Summe bzw. als Wert der Reihe
X
(12.1.1)
X(ω)P ({ω})
ω∈Ω
veranlasst.
Ist
Ω
Ω
insbesondere endlich, so stellt (12.1.1) eine
abzählbar unendlich, so deniert sich der
damit der
endliche Summe dar; ist
Wert der Reihe (12.1.1) und
Erwartungswert als Limes der entsprechenden Teilsum-
men.
Existiert dieser Limes, d.h.
existiert der Reihenwert (12.1.1) und ist
dieser endlich oder handelt es sich bei (12.1.1) um eine endliche Summe, so sagt man,
X
hat den Erwartungswert
der Erwartungswert
EP (X)
E(X) := EP (X)
bez.
P;
ist gegeben durch den Wert der end-
lichen Summe (12.1.1) bzw. durch den Wert der Reihe (12.1.1).
Überblick
Erwartungswerte
57
Der Reihenwert (12.1.1) existiert immer, wenn die Reihe (12.1.1)
absolut
konvergent ist; in diesem Falle zeigt die Reihenfolge bei 'Summation' keine Auswirkung auf das Ergebnis. Zwar lieÿe sich über
N
eine 'natürliche
Reihenfolge' festlegen, nicht aber über der ebenfalls abzählbaren Menge
Q.
12.2 Der Erwartungswert im allgemeinen Fall
Sei
(Ω, A, P )
ein WRaum und
X : (Ω, A, P ) → (R, B)
eine ZV (messbare
Abbildung).
Existiert das Integral
Z
X dP
(12.2.1)
von
X
bez. des Maÿes
den Erwartungswert
P und ist dieses endlich, so sagt man, X hat
E(X) := EP (X); der Erwartungswert EP (X) ist
durch (12.2.1) gegeben.
12.3 Spezialfälle
12.3.1 Die dem Integral (12.2.1) zugrundeliegende Integraldenition ist
so 'exibel', dass sie die in 12.1 gegebene Denition des Erwartungswertes im diskreten Fall miteinschlieÿt. Das heiÿt insbesondere, dass man sich bei der Angabe von Rechenregeln für Erwartungswerte, stets an die Rechenregeln des in (12.2.1) betrachteten
Integrals halten kann; der in 12.1 angesprochene Fall des Erwartungswertes im diskreten Fall wird dabei miterfasst.
12.3.2
Ein ebenfalls für die Praxis bedeutsamer Spezialfall liegt vor,
(Rn , B n , P ) jetzt mit
wenn bei Zugrundelegung des WRaumes
der
Bn ,
σ Algebra
Borelschen
n ∈ N,
das WMaÿ
P
eine LebesgueDichte aufweist, d.h.,
falls
P = f λn
gilt.
In diesem Falle gilt
Z
(12.3.2.1)
Z
X dP =
X · f dλ
n
Z
=
X · f dx
über.
Bei (12.3.2.1) handelt es sich dabei um ein
das für eine
LebesgueIntegral,
groÿe Klasse von (Integrand) Funktionen (,
Erwartungswerte
58
den sogenannt
regulierten Funktionen) über das entsprechen-
de Riemann Integral ausgewertet werden kann.
Bei der folgenden
Auistung von Rechenregeln für Erwar-
tungswerte handelt es sich um solche für Integrale. Bei 12.4.1
und 12.4.2 kommt
speziell der Umstand zum Tragen, dass
Erwartungswerte Integrale bez. eines WMaÿes sind, d.h.,
P (Ω) = 1
wird mitberücksichtigt.
12.4 Rechenregeln für Erwartungswerte
Sei
(Ω, A, P )
ein beliebiger (z.B. auch diskreter) WRaum.
α, β ∈ R .
1A , wo 1A die Indikatorfunktion
A ∈ A meint, so gilt
wertige ZVen und
12.4.1 Ist X =
)mit
Ist
X(ω) = a ∈ R
für alle
Abbildung mit Funktionswert
Sind
X
(vgl. Grundlagen, 1.4
ω ∈ Ω,
a, so gilt
d.h. ist
X
die konstante
EP (X) = a .
(12.4.2.1)
12.4.3
seien reell-
EP (X) = EP (1A ) = P (A) .
(12.4.1.1)
12.4.2
X, Y
und
Y
integrierbar, d.h., existieren die jeweiligen Er-
wartungswerte, so ist auch
αX + βY
integrierbar, und es gilt:
αEP (X) + βEP (Y ) = EP (αX + βY ) .
(12.4.3.1)
(Linearität des Erwartungswertes)
12.4.4
Sind
X
und
(12.4.4.1)
Y
integrierbar, so gilt
X(ω) ≤ Y (ω) (ω ∈ Ω) =⇒ EP (X) ≤ EP (Y )
(Isotonie des Erwartungswertes)
12.4.5
Ist
|X|
integrierbar, so gilt
(12.4.5.1)
E(X) ≤ E(|X|) .
Der folgende Sachverhalt die sogenannte
Erwartungswertbildung bez. des
Bildmaÿes ist bedeutsam, insbesondere für die Modellbildung im Zusammenhang mit ZVen.
Erwartungswerte
59
12.5 Erwartungswertbildung bez. des Bildmaÿes
(Ω, A, P ) ein WRaum, X : (Ω, A) → (Ω0 , A0 ) eine ZV mit Verteilung
0
0
(Bildmaÿ) PX und h : (Ω , A ) → (R, B) eine reelle ZV. Dann gilt:
12.5.1 Die reelle ZV h(X(.)) hat den Erwartungswert EP (h((X(.)))
genau dann, wenn h den Erwartungswert EPX (h(.)) (jetzt bez. des
Bildmaÿes PX ) besitzt, und es gilt
Sei
EP (h(X(.))) = EPX (h(.)) .
(12.5.1.1)
12.5.2
Im Spezialfall von
(12.5.2.1)
(Ω0 , A0 ) = (R, B)
und
h = idΩ0
gilt
EP (X(.)) = EPX ( idΩ0 (.))
Dabei meint idΩ0 (.) die identische Abbildung
idΩ0 (ω 0 ) = ω 0 , (ω 0 ∈ Ω0 ) .
idΩ0 : Ω0 → Ω0
mit
Der Inhalt von (12.5.2.1) wird in Experiment 12.1 thematisiert.
12.6 Zur Bedeutung von 12.5.2
Die Aussage 12.5.2, wonach
EP (X) = EPX ( idΩ0 )
gilt, bedeutet insbesondere, dass der Erwartungswert
EP (X)
X bez. P
PX bekannt
EP (X) weder die
von
bereits bestimmt werden kann, wenn die Verteilung (Bildmaÿ)
ist. Tatsächlich ist zur Ermittlung des Erwartungswertes
Kenntnis von
X
noch die von
P
erforderlich.
Dies drückt sich auch dadurch aus, dass man kurzerhand auch
vom Er-
wartungswert einer Verteilung (anstatt von dem einer ZV) spricht, also z.B. der
der
der Erwartungswert der Binomialverteilung
Erwartungswert einer gemäÿ
mit Bildmaÿ
Bildmaÿes.
B(n, p)
B(n, p),
als
verteilten ZV (einer ZV
B(n, p)). Der Erwartungswert ist demnach eine Kennzahl des
Erwartungswerte
60
12.7 Erwartungswerte spezieller Verteilungen
Der Erwartungswert von
B(1, p)
B(1, p)
(einer gemäÿ
verteilten ZV), be-
stimmt sich wegen 12.6 zu
(12.7.1)
EB(1,p) ( id{0,1} ) = 0 · (1 − p) + 1 · p = p .
Bei der Bestimmung der Erwartungswerte der Binomialverteilung B(n, p),
2
der PoissonVerteilung Π(λ) bzw. der Normalverteilung N (a, σ ) ist das Vor-
idΩ
N (a, σ 2 ) .
gehen im Grundsatz ähnlich, man bestimmt den Erwartungswert von
bez. der jeweiligen Verteilung, also der
B(n, p),
der
(12.7.2)
EB(n,p) ( idN0n ) = n · p
(12.7.3)
EΠ(λ) ( idN ) = λ
(12.7.4)
EN (a,σ2 ) ( idR ) = a .
Π(λ)
oder der
(Wir verzeichten hier bewusst auf die Wiedergabe von Rechentechniken!)
Der Begri der Zufallsvariablen ist in 9.2.2 mit dem der messbaren Abbildung
gleichgesetzt worden. Bei Modellen des stochastischen Zufalls mit Hilfe von
Zufallsvariablen kommt eine spezielle Sichtweise des Begries Zufallsvariable
zum Tragen.
12.8 Die Zufallsvariable bei Modellen des stochastischen Zufalls
Ziel unserer Überlegung ist die Bestimmung des Erwartungswertes bei einem
Würfelexperiment mit einem fairen Würfel. Das Interesse liegt dabei weniger
auf dem Ergebnis als auf der zugrundeliegenden Modellbildung, in die eine
spezielle Sichtweise der Zufallsvariablen eingeht.
Die durch Würfelwurf realisierte Augenzahl wird als das Ergebnis einer Abbildung, einer Zufallsvariablen
X : (Ω, A, P ) → (N6 , P(N6 ), G6 )
aufgefasst, wo
G6
die diskrete Gleichverteilung über
Die Frage nach dem Erwartungswert der ZV
X
N6
meint.
steht hier für eine für das
Würfelexperiment typische Fragestellung, zu deren Klärung mindestens
Erwartungswerte
61
X
nach Denition des Erwartungswertes sowohl die ZV
Maÿ
P
als noch das W
bekannt sein müssen.
(12.5.2.1) lehrt aber, dass
EP (X) gleich EPX ( idN00 ) ist, so dass zur BestimEP (X) die Gröÿen X und P entbehrlich werden,
mung des Erwartungswertes
sofern
PX
bekannt ist.
Legt man die ZV
X
als Abbildung
X : (Ω, A, P ) → (N6 , P(N6 ), G6 )
fest, wobei sowohl
X
als auch
(Ω, A, P )
eine rein formale Bedeutung zu-
kommt, denn bei Kenntnis der Verteilung (Bildmaÿ)
weder von
X
noch von
(Ω, A, P )
stellung einer Zufallsvariablen
PX
ist die Kenntnis
erforderlich, so dass sich die intuitive Vor-
oftmals auf die Kenntnis des Bildmaÿes
der ZV, im betrachteten Beispiel also auf diejenige von
G6 ,
reduziert.
Zur Ermittlung des Erwartungswertes bildet man dann
EP (X) = EPX ( idN6 ) =
6
X
i=1
i·
6
1 X
7
1
=
i= .
6
6 i=1
2
Für den Erwartungswert eines Produktes zweier unabhängiger, reellwertiger
ZVen gilt eine spezielle Produktregel.
12.9 Satz
Seien
(Ω, A, P )
X, Y : (Ω, A, P ) → (R, B) zwei stochaErwartungswerten EP (X) und EP (Y ).
ein WRaum und
stisch unabhängige ZVen mit
Dann gilt
(12.9.1)
EP (X · Y ) = EP (X)EP (Y ) .
Zwar zieht die stochastische Unabhängigkeit von
X
und
Y
die Gültigkeit
von (12.9.1) nach sich; die Gültigkeit von (12.9.1) impliziert wie man mit
Gegenbeispielen zeigen kann jedoch nicht die stochastische Unabhängigkeit.
Der Sachverhalt (12.9.1) wird nochmals in Zusammenhang der Kovarianz
zweier ZVen angesprochen.
Varianz und Kovarianz
13
62
Varianz und Kovarianz
Die zentralen Begrie sind die der Varianz bzw. der Kovarianz. Während die Varianz
als 'Maÿ des Streuens einer ZV' eine Deutung erfährt, kann die Kovarianz als ein
'Maÿ des linearen Zusammenhangs zweier ZVen' gesehen werden.
Zur Denition der Varianz als 'Maÿ des Streuens einer ZV' bietet das durch
das zugrundeliegende WMaÿ gewichtete Quadrat der 'Abstände' der Werte
der ZV vom Erwartungswert an.
13.1 Denition (Varianz)
Sei
(Ω, A, P ) ein WRaum
E(X).
und
X : (Ω, A, P ) → (R, B)
eine ZV mit Erwar-
tungswert
Dann heiÿt
V (X) := VP (X) := EP ((X − E(X))2 ,
(13.1.1)
sofern der Term (13.1.1) endlich ist,
die Varianz von
bez.
X
P.
13.2 Bemerkungen
Die Varianz ist eingeführt worden als Erwartungswert der quadrierten Abweichungen einer ZV
eine
X
von ihrem Erwartungswert
E(X).
Sie ist demnach
Maÿzahl für die durchschnittliche quadratische Abweichung
der ZV
X
von ihrem Erwartungswert.
Dabei meint
eine groÿe Varianz eine groÿe Streuung, eine kleine Va-
rianz eine kleine Streuung der Funktionswerte
X(ω), ω ∈ Ω,
um den
Erwartungswert.
Bestätigt wird das Gesagte durch den Sachverhalt, dass
äquivalent ist, dass
auf ganz
Ω
X = E(X)
V (X) = 0 damit
P Nullmenge
abgesehen von maximal einer
gilt.
13.3 Rechenregeln für Varianzen
Sei
(Ω, A, P ) ein
V (X).
WRaum, die reelle ZV
X : (Ω, A, P ) → (R, B)
habe die
Varianz
Dann gelten
13.3.1
13.3.2
V (aX + b) = a2 V (X),
(a, b ∈ R)
2
2
V (X) = E(X ) − [E(X)]
(Verschiebungssatz)
Beweis:
13.3.1: Aufgrund der Linearität des Erwartungswertes gilt
V (aX + b) = E((aX − E(aX))2 ) = E(a2 (X − E(X))2 = a2 V (X) .
Überblick
Varianz und Kovarianz
63
13.3.2: Mit den Rechenregeln für Erwartungswerte vgl. 12.4 gilt
V (X) = E((X − E(X))2 ) = E(X 2 − 2XE(X) + (E(X))2 )
= E(X 2 ) − 2E(X)E(X) − (E(X))2 = E(X 2 ) − (E(X))2 .
Die folgende Auistung liefert die Varianzen spezieller Verteilungen. Entsprechend zu 12.6 dort für Erwartungswerte versteht sich die Varianz
B(n, p) als die Varianz VB(n,p) ( idN0 ) der ZV idN0n
(WMaÿ) B(n, p) etc.
z.B. der
bez. der Verteilung
13.4 Varianzen spezieller Verteilungen
13.4.1
VB(1,p) ( id{0,1} ) = p(1 − p)
13.4.2
VB(n,p) ( idN0n ) = np(1 − p)
13.4.3
Vπ(λ) ( idN ) = λ
13.4.4
VN (a,σ2 ) ( idR ) = σ 2 .
(Wir verzichten hier bewusst auf die Wiedergabe von Rechentechniken!)
13.5 Denition
Seien
(Ω, A, P )
ein WRaum und
X, Y : (Ω, A, P ) → (R, B)
zwei ZVen,
deren Varianzen existieren.
Dann heiÿt
Kov(X, Y ) := Kov(X, Y ) := E((X − E(X))(Y − EY ))
die
Kovarianz von
X
und
Y
bez.
P.
Satz 13.6 zeigt, wie der Kovarianzbegri in die bisherige Theorie eingeht.
13.6 Satz
Seien
bzw.
(Ω, A, P ) ein WRaum und X, Y zwei reelle ZVen mit Varianzen V (X)
V (Y ). Dann hat auch X + Y eine Varianz, und es gilt
V (X + Y ) = V (X) + V (Y ) + 2Kov(X, Y ) .
Varianz und Kovarianz
64
13.7 Rechenregeln für Kovarianzen
Seien
X, Y
13.7.1
13.7.2
Sind
X
13.7.3
13.7.4
reelle ZVen mit Varianzen
V (X)
und
V (Y ).
Dann gilt
Kov(aX + c, bY + d) = abKov(X, Y ) a, b, c, d ∈ R)
Kov(X, Y ) = E(X, Y ) − E(X)E(Y )
und
Y
überdies stochastisch unabhängig, gilt
Kov(X, Y ) = 0
V (X + Y ) = V (X) + V (Y )
(Formel von Bienaymé)
Hinweise zu den Beweisen:
13.7.1 bzw. 13.7.2 entsprechen den für Varianzen formulierten Sachverhalten
13.3.1 bzw. 13.3.2 (Verschiebungssatz).
13.7.3 folgt aus 13.7.2 zusammen mit Satz 12.9, während 13.7.4 eine Konsequenz aus Satz 13.6 zusammen mit 13.7.3 ist.
13.8 Bemerkung
Kov(X, Y ) ist ein 'Maÿ' für den linearen Zusammenhang der
ZVen X und Y ; sind X und Y stochastisch unabhängig, so ist die Kovarianz
von X und Y gleich null: Kov(X, Y ) = 0, vgl. 13.7.3; die Umkehrung des
Die Kovarianz
Sachverhaltes trit nicht zu.
Im Falle der stochastischen Unabhängigkeit stellt sich aber auch die Varianz
der Summe zweier ZVen besonders einfach als Summe der Varianzen dar, vgl.
13.7.4, (Formel von Bienaymé).
Die Tschebyschev'sche Ungleichung
14
65
Die Tschebyschev'sche Ungleichung
Bezeichnet man
E(X),
X(ω)−E(X) als die Auslenkung von X(ω) vom Erwartungswert
so liefert die Tschebyschev'sche Ungleichung eine obere Schranke für die
Wahrscheinlichkeit der Menge all der ω ∈ Ω, für die die Auslenkung gröÿer als
eine vorgegebene Zahl t ausfällt.
Eine Verschärfung der Tschebyschev'schen Ungleichung ist nicht möglich, wie ein Beispiel lehrt.
Ein auf der Tschebyschev'schen Ungleichung basierender Sachverhalt gibt Anlass
zur Denition einer Bedingung, die man das schwache Gesetz der groÿen Zahlen
nennt.
Wir formulieren und beweisen zunächst einen Satz der die Tschebyschev'sche
Ungleichung beinhaltet.
14.1 Satz (Tschebyschev'sche Ungleichung)
Sei
(Ω, P(Ω), P )
ein WRaum. Die ZV
X : Ω → R
besitze eine endliche
Varianz. Dann gilt:
(14.1.1)
P
V (X)
ω ∈ Ω X(ω) − E(X) ≥ t ≤
t2
(t ∈ R , t > 0) .
Beweis:
Für
A :=
ω ∈ Ω |X(ω) − EP (X)| ≥ t
gelten oenbar die folgenden
Abschätzungen
2 2
EP X − EP (X) ≥ EP X − EP (X) · 1A ≥ t2 · EP (1A ) ≥ t2 · P (A) ,
so dass sich die Behauptung aufgrund von
V (X) = EP
2 2 X − E(X)
= EP X − EP (X)
ergibt.
Oenbar liefert (14.1.1) eine obere Schranke für die Wahrscheinlichkeit der
Menge aller
t
ω ∈ Ω, für die die Auslenkung X(ω)−E(X) gröÿer oder gleich
ausfällt. Die in Rede stehende obere Schranke ist gegeben durch
V (X)
.
t2
Überblick
Die Tschebyschev'sche Ungleichung
Abbildung 14.1:
66
Darstellung der Menge
{ω ∈ Ω||X(ω) − E(X)| ≥ t} =: A
aus dem Linksterm (14.1.1) :
R ............
.........
..
...
...
...
...
........................
...
.......
..........
...
.......
..........
.......
..........
...
.......
......... ....... ....... ....... ....... ........................ ....... ....... ....... ....... ....... ........................... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ......
.
......
.
.
...
.. ....
.
... ....
.
...
......
... ...
... ..
......
...
... ....
... ...
.....
.
.
...
...
...
......
..
.
.
.
.
.
.
.
.
.
...
...
...
...
.
...
...
...
...
...
...
......
...
......
...
...
...
...
...
...
...
...
...
...
...
...
.
...
...
.
..
.
...
.
..
.
......... ....... ....... .......... ....... ........... ....... ....... ....... ....... ....... ....... ....... ........... ....... .......... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ........... ....... ......
...
.
...
...
..
...
...
...
...
...
...
...
...
...
.
...
...
..
.
.
.
...
...
...
...
..
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
..
.
.
...
.
.
.
...
.
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
..
..
...
......... .......... ....... ....... ....... ........... ....... ....... ....... ....... ....... ....... ....... ........... ....... ....... ....... ............. ....... ....... ....... ....... ...................... ....... ....... ....... ....... ......
... .....
...
...
...
....
..... ..
... .......
...
...
.......
...
..... ...
... ......
...
...
..... ....
...
... ...
.....
.....
...
...
...
.
...
.
.
... .... ....
.
.
.....
.
...
...
...
...
.....
.....
... ... ...
...
...
...
...
..... ........
...
...
...
...
...
..... .....
...
.
...
.
....
.
...
...
...
..
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
.
...
..
...................................................................................................................................................................................................................................................................................................................................................................................................................................
..
....
...
...
E(X) + t
E(X)
X
E(X) − t
Ω
A := {ω ∈ Ω||X(ω) − E(X)| ≥ t}
In diesem Zusammenhang verweisen wir auf Experiment 14.1, das die Tschebyschev'sche Ungleichung zum Gegenstand hat.
Ohne Nachweis halten wir fest, dass es nicht möglich ist, die durch die Tschebyschev'sche Ungleichung gegebene Abschätzung zu verschärfen.
Die Tschebyschev'sche Ungleichung
67
14.2 Satz
(Ω, P(Ω), P ) ein WRaum. Die ZVen Xi : Ω → R mit endlichen Varianzen
2
seien stochastisch unabhängig und es gelte E(Xi ) = a sowie V (xi ) = σ ,
i = 1, . . . , n. Dann ist
Sei
(14.2.1)
P
n
1 X
σ2
ω ∈ Ω
Xi (ω) − a ≥ t
≤ 2
n i=1
nt
(t ∈ R , t > 0)
Beweis:
Wegen der vorausgesetzten stochastischen Unabhängigkeit der
Xi , i = 1, . . . , n
erhält man für die Varianz der ZV
n
X
Xi −
i=1
n
X
n
X
E(Xi ) =
Xi − na
i=1
i=1
aufgrund von 13.7.4 (Formel von Bienaymé) die Gröÿe
nσ 2 . Damit folgt auf-
grund der Tschebyschev'schen Ungleichung
n
X
n
o
σ2
nσ 2
P ω ∈ Ω
Xi (ω) − na ≥ nt
≤ 22 = 2,
nt
nt
i=1
wobei für
t
(im Links wie im Rechtsterm) die Zahl
nt
gesetzt wurde,
woraus die Behauptung nun folgt.
Oenbar konvergiert der Rechtsterm in (14.1.1), der eine obere Schranke für
die als Linksterm auftretende Wahrscheinlichkeit darstellt, für
n → ∞ gegen
null.
Tatsächlich motiviert der angesprochene Sachverhalt die Denition dessen,
was man als
schwaches Gesetz der groÿen Zahlen versteht.
14.3 Denition
Seien
(Ω, P )
ein WRaum und
Gilt dann für alle
(14.3.1)
so sagt man,
(Xi )
eine Folge reeller, integrierbarer ZVen.
ε>0
lim P
n→∞
die Folge
n
1 X
ω ∈ Ω
Xi (ω) − E(Xi ) ≥ ε
= 0,
n i=1
(Xi )
genüge dem schwachen (oder Bernoulli-
schen) Gesetz der groÿen Zahlen.
Die Bedingung (14.3.1) heiÿt das Gesetz der groÿen Zahlen.
Die Tschebyschev'sche Ungleichung
68
In einer Vielzahl von Sätzen werden nun Bedingungen die Folge
(Xi )
betreend formuliert derart, dass das schwache Gesetz der groÿen Zahlen
erfüllt ist.
Dies ist beispielsweise der Fall, wenn eine Folge
(Xi ) reeller, paarweise unab-
hängiger ZVen der Bedingung
n
1 X
lim
V (Xi ) = 0
n→∞ n2
i=1
genügt, was die Existenz der Varianzen
V (Xi ), i ∈ N,
voraussetzt.
14.4 Aufgabe
Sei
Ω
(Ω, P )
ein WRaum und seien
X1 , . . . , Xn
reelle unabhängige ZVen auf
mit
E(Xj ) = 10 ,
gilt, wobei
(j ∈ Nn ) .
n aufgrund von Satz 14.3 gewählt werden, damit die Abschät
P ω ∈ Ω X(ω) − E(X) ≥ 4
≤ 0.01
P
X = n1 nj=1 Xj ist?
Wie groÿ muss
zung
V (Xj ) = 20
L
Über Zufallsgeneratoren
15
(fakultativ)
69
Über Zufallsgeneratoren
(fakultativ)
Erläutert wird die Erzeugung von gemäÿ einem WMaÿ
P verteilter Realisatio-
Überblick
nen mit Hilfe von Zufallsgeneratoren. Der Satz von GlivenkoCantelli bietet eine
Möglichkeit zur empirischen Überprüfung.
15.1 Notwendigkeit von Realisationen
WMaÿe (Verteilungen)
durch
oenbaren sich beispielsweise in der Statistik
ihre Realisationen, die dann die Grundlage für die Schätzung
(Mutmaÿung) bez. des den Realisationen zugrundeliegenden (unbekannten)
WMaÿes bilden.
Für
verschiedene Aufgaben ist man nun auf solche, künstlich erzeug-
te (Stichproben) Realisationen angewiesen, von denen man weiÿ, welchem WGesetz (WMaÿ, Verteilung) diese folgen. Soll beispielsweise
ein Schätzverfahren zur bestimmung eines WMaÿes aufgrund von durch dieses WMaÿes erzeugter Realisationen empirisch überprüft werden, so setzt
dies die Kenntnis dieses WMaÿes voraus!
Das Gesagte unterstreicht die
Verfügbarkeit von Techniken zur Erzeu-
gung von Realisationen gemäÿ einem vorgegebenen WMaÿ
P.
Unter Vorwegnahme späterer Ausführungen lässt sich die Erzeugung von
Realisationen gemäÿ einem WMaÿ
mäÿ der Gleichverteilung
15.2
λ(0;1)
P
auf eine solche von Realisationen ge-
bez. dem Intervall
(0; 1)
reduzieren.
(0; 1)Realisation
Die Erzeugung von
Zufallszahlen durch Zufallsgeneratoren meint zunächst
die Erzeugung von Zahlen auf einem
endlichen Abschnitt von
Die Erzeugung von Zufallszahlen aus dem Intervall
(0; 1)Realisationen
(0; 1),
N ∪ {0}.
den sogenannten
ergibt sich dann durch geeignete Normierung.
15.3 Beschaung von künstlichen
(0; 1)Realisationen
Grundsätzlich bieten sich zwei Möglichkeiten zur Beschaung bzw. Erzeugung von Zufallszahlen und mithin von
(0; 1)Realisationen.
Die eine Möglichkeit besteht in der Nutzung eines geeigneten physikalischen
Experimentes, d.h. konkret z.B. die Verarbeitung eines elektromagnetische
bzw. elektrischen Signals. Im beschriebenen Fall spricht man von der Erzeugung durch einen
physikalischen Zufallsgenerator.
Wenn auch Vieles für die Verwendung physikalisch erzeugter Realisationen
spricht, so wird der Nutzung von
PseudoZufallsgeneratoren der Vorzug
gegeben; was im Umstand begründet liegt, dass bei
PseudoZufallsgeneratoren
Über Zufallsgeneratoren
(fakultativ)
70
Zufallsdaten ohne groÿen Aufwand auch später wieder zur Ver-
die
fügung stehen.
15.4 Anforderungen
Auch wenn (Pseudo) Zufallsgeneratoren eine deterministisch bestimmte Folge von
(0; 1)Realisationen liefern, müssen diese in der Stochastik wenigstens
Aspekten des Zufalls genügen, in dem Sinne, dass die
statistische Wider-
legung nur aufgrund von groÿen Stichprobenumfängen möglich ist.
In der
Stochastik angestrebt sind Realisationen, die sich möglichst als
solche einer Folge unabhängiger, auf
(0, 1) gleichverteilter ZVen dar-
stellen.
15.5 Typen von (Pseudo) Zufallsgeneratoren
Zufallsgeneratoren sind algorithmische Verfahren, die eine deterministische
Folge von Zahlen aus einem endlichen Abschnitt
dann auf
(0; 1)
A ⊂ N ∪ {0}
f
deniert, d.h., gilt
i ∈ N
periodisch, d.h. es
Sind Zufallsgeneratoren über eine Iterationsabbildung
(zi )
für eine Folge von Zufallszahlen
zi+1 := f (zi ) ,
so sind die Zufallsgeneratoren wegen
existiert eine
erzeugen, (die
normiert werden).
Periode (Zahl)
p∈N
i ∈ N,
zi ∈ A ,
mit
i ∈ N.
zi = zi+p ,
Bekannt geworden sind verschiedene Typen von Zufallsgeneratoren, deren
bekanntester wohl der sogenannte
In
Experimental Stochastics,
LinearGenerator ist.
O.Moeschlin et al., Berlin Heidelberg New
York, 1998, ndet sich eine Darstellung solcher Typen; dort wird auch gezeigt, wie die Realisationen solcher Zufallsgeneratoren auf die gewünschten
Anforderungen hin getestet werden können.
15.6 Realisationen gemäÿ einem WMaÿ
P
Heute, im Ramen von SoftwarePackages angebotene Zufallsgeneratoren, liefern (in aller Regel) Realisationen
ui ,
als solche einer unabhängigen Folge von
i ∈ N, die in der Tat weitestgehend
auf (0; 1)gleichverteilten ZVen auf-
gefasst werden können.
Ist dann
P
lungsfunktion
F
inv
, so können
abhängigen Folge gemäÿ
8.5.
B
ein WMaÿ (auf
P
über
die
F
inv
R mit der inversenen Vertei(ui ) als Realisationen einer un-
verteilter ZVen aufgefasst werden, vgl.
Über Zufallsgeneratoren
(fakultativ)
71
15.7 Zur Überprüfung gemäÿ einem W-Maÿ
verteilter Realisa-
P
tionen
15.7.1 Denition (empirische Verteilungsfunktion)
Xi : (Ω, A, P ) → (R, B), i ∈ N gemäÿ P über (R, B) verteilte ZVen,
d.h., es gelte PXi = P,
i ∈ N.
Für eine Realisation ω̄ ∈ Ω stellen xi := Xi (ω) Realisationen der ZVen Xi
dar, i ∈ N . Sei weiter
Seien
X = (Xi )i∈N
und
x = (xi )i∈N .
Die durch
Fn (t, ω̄) :=
(15.7.1.1)
denierte Abbildung
n
1 X
1(−∞;t] ◦ Xj (ω̄),
n j=1
(t ∈ R, ω̄ ∈ Ω)
Fn : R × Ω → [0, 1] erweist sich als die Verteilungsfunk-
tion eines speziellen (hier nicht wiedergegebenen) WMaÿes.
Fn
X1 , . . . , Xn .
Man spricht von
ZVen
als von der
Man beachte: Für ein festes
empirischen Verteilungsfunktion der
t∈R
bzw ein festes
ω̄ ∈ Ω
nimmt
1(−∞;t] ◦ Xj (ω)
nach Denition der Indikatorfunktion entweder die Werte 1 oder 0 an, je
nachdem ob
Xj (ω̄) ∈ (−∞; t]
oder
Xj (ω̄) ∈
/ (−∞; t]
gilt.
Fn (t, ω̄) den Prozentsatz
Intervall (−∞; t] fallen.
Damit gibt
das
Für die empirische Verteilungsfunktion
sogenannten
der
Fn
Xj (ω̄), j ∈ Nn
wieder, die in
gilt nun als einer
Vorform des
Hauptsatzes der Statistik von GlivenkoCantelli der
15.7.2 Satz
Seien die Voraussetzungen der Denition 15.7.1 gegeben, wobei insbesondere
je endlich viele der ZVen
funktion von
Xi , i ∈ N
unabhängig seien.
F
sei die Verteilungs-
P.
Dann gilt
P ({ω ∈ Ω| lim Fn (t, ω̄) = F (t)} = 1,
n→∞
t ∈ R,
Über Zufallsgeneratoren
(fakultativ)
72
ω ∈ Ω mit höchstens einer P Nullmenge
konvergiert Fn (t, ω̄) gegen F (t).
d.h. für fast alle
menge als Ausnahme-
Dieser Sachverhalt wird in Experiment 15.1 zu einer empirischen Überprüfung der Qualität von
(0; 1)
Realisationen herangezogen.
Realisationen ui werden
inv
gemäÿ den Erläuterungen von 15.6 Realisationen xi := F
(ui ) bestimmt.
Zu auf der vertikalen Achse ausgegebenen
Nach Satz 8.5 handelt es sich bei den
gemäÿ
P
verteilten ZVen, sofern die
Gleichverteilung
Konvergenz von
(0; 1)
xi um Realisationen von unabhängigen,
ui solche von unabhängigen, gemäÿ der
λ(0;1) verteilten ZVen sind, was sich anhand der punktweisen
Fn (ti , ω̄) für ausgewählte Werte ti gegen F (ti ) 'empirisch'
überprüfen lässt.
Lösungen zu Kapitel 3
73
Lösungen zu Kapitel 3
Zu 14.4 Aufgabe
Aufgrund von 14.3 (also nicht etwa 14.1) gilt
P {ω ∈ Ω| |X̄(ω) − E(X̄)| ≥ 4} ≤
Damit die geforderte Abschätzung erfüllt ist, muss
20
5
=
≤ 0.01
16n
4n
gilt. Dies ist für
n ≥ 125
der Fall.
20
.
n · 16
n so gewählt werden, dass
Index
Abbildung
Exponentialverteilung 8.2.2
, messbar 9.1
Familie von Mengen 1.4.3
absolute Konvergenz 1.6.2
Formel von Bienaymé 13.7.4
Additivität
,
σ
3.1
gemeinsame Verteilung 5.9
Ausgangsraum 3.1, 7.4
geometrische Verteilung 4.3
Gesetz der groÿen Zahlen
Bernoullisches
, schwaches (oder Bernoullisches)
(oder schwaches) Gesetz der groÿen
14.3
Zahlen 14.3
Gleichverteilung
Versuchsschema 6.6
, allgemeine 7.6.2
Bienaymé, Formel von 13.7.4
, diskrete 4.4
Bildmaÿ 5.6, 9.1.2
Binomialkoezient 1.7
Indikatorfunktion 1.3.1
Binomialverteilung 4.1
Borel'sche
σ Algebra
Integral 10.0
7.3
, Lebesgue 10.0
,
Dichte
n
, λ 11.2
µ
10.0
Konvergenz einer Reihe 1.6
, Lebesgue 11.2
,
µ
, absolute 1.6.2
11.2
, unbedingte 1.6.1
DiracMaÿ 3.3
Kovarianz 13.5
disjunkte Vereinigung 1.4.4
diskrete Gleichverteilung 4.4
λn Dichte
diskreter WRaum 3.1
LebesgueDichte 11.2
diskretes WMaÿ 3.1
LinearGenerator 15.5
Einsmenge 3.2.3
Maÿ 7.4
Ereignis 3.2.1
, BL 7.4
Wahrscheinlichkeit eines 3.2.1
, Bild 5.6, 9.1.2
Ereignissystem 7.4
, Dirac 3.3
Erwartungswert 12.1, 12.2
, W 7.4
bez. des Bildmaÿes 12.5
Maÿraum 7.4
erweitert reelle Zahlen 1.5
Menge
74
11.2
, Eins 3.2.3
Ereignissen 6.8
, Null 3.2.3
ZVen 6.2
Mengen
Tschebyschev'sche Ungleichung 14.1
familie 1.4.3
folge 1.4.3
Umordnungssatz 1.6.4
funktion 3.2.2
Unabhängigkeit von
system 1.4.3
Ereignissen, stochastische 6.8
messbare Mengen 7.4
ZVen, stochastische 6.2
Messraum 7.4
unbedingt konvergent 1.6.1
µ
Ungleichung
Dichte 11.2
, Tschebyschev'sche 14.1
Integral 10.0
Urbildabbildung 5.2
Normalverteilung 11.5
Varianz 13.1
, Standard 11.4
Vereinigung
Nullmenge 3.2.3
, disjunkte 1.4.4
Verschiebungssatz 13.3
Partition 1.4.5
Versuchsschema
PoissonVerteilung 4.2
, Bernoullisches 6.6
Potenzmenge 1.2
Verteilung
Produkt
abbildung 1.3
von X 5.6, 9.1.2
, Binomial 4.1
Maÿ 4.8
, diskrete Gleich 4.4
WMaÿ 4.8
, Exponential 8.2.2
WRaum 4.8
, gemeinsame 5.9
PunktWMaÿ 3.3
, geometrische 4.3
Realisation 3.2.1
, Normal 11.5
Rechtecksmenge 4.9
, Poisson 4.2
reelle Zahlen
, StandardNormal 11.4
, erweitert 1.5
Verteilungsfunktion 8.1
Reihenwert 1.6
, (verallgemeinerte) inverse 8.3
, empirische 15.7.1
Schnitt
,
ωi 1.4.1
WFunktion 3.6.1
einer ZV 5.7.1
schwaches (oder Bernoullisches) Gesetz der groÿen Zahlen 14.3
WMaÿ 3.1
σ Additivität 3.1
σ Algebra 7.1
, allgemeines 7.4
, Borel'sche 7.3
, Produkt 4.8
StandardNormalverteilung 11.4
, Punkt 3.3
stochastische Unabhängigkeit von
WRaum
, diskretes 3.1
75
, allgemeiner 7.4
, diskreter 3.1
, Produkt 4.8
Wahrscheinlichkeit
eines Ereignisses 3.2.1
Zerlegung 1.4.5
Zufallsgeneratoren, (Pseudo-) 15.5
Zufallsvariable 5.1, 9.1.2
ZV 5.1, 9.1.2
76
Symbolverzeichnis
:=, ⇒, ⇔, P(A)
T −1 (A0 )
1.1
PX
1.2
5.6, 9.1.2
N, Z, Q, R
1.2
A
7.1
N0 , Nn , N0n
1.2
B
7.3
Rn , Rn+
1.2
A(ω)
(ω ∈ Ω)
A(i)
Bn
1.2
i = 1, . . . , n
1.2
f : A → B, f ( . ), a 7→ f (a)
(f, g), f ◦ g, 1A ( . )
idΩ : Ω → Ω
1A ( . )
Vω̄1
n
k
δω :
11.2
N (0, 1)
E(X)
5.1
4.8
11.5
12.1, 12.2
EP (X)
4.8
(Ω1 × Ω2 , P(Ω1 × Ω2 ), P1 ⊗ P2 )
11.4
N (a, σ 2 )
4.1
4.2
Ω0 ZV
7.6.2
fµ
3.3
P1 ⊗ P 2
7.6.1
3.1
1.7
Π(λ)
7.4
F inv 8.3
R
f dµ 10.0
R
f dµ 10.0
A
R
f (x) dx 10.0
1.4.1
B(n, p)
(Ω, A, µ)
1.3
1.3.1
(Ω, P(Ω), P )
7.4
λA
1.3
7.3
(Ω, A, P )
λ
1.3
5.2
12.1, 12.2
EB(n,p) ( idN0n )
EΠ(λ) ( idN )
77
12.7
12.7
EN (a,σ2 ) ( idR )
V (X)
12.7
13.1
VB(1,p) ( id{0,1} )
VB(n,p) ( idN0n )
Vπ(λ) ( idN )
13.4
13.4
VN (a,σ2 ) ( idR )
Kov(X, Y )
13.4
13.4
13.5
78
Herunterladen