Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)

Werbung
Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)
Ein
Wahrscheinlichkeitsraum (Ω, P)
I eine Menge
Ω
ist
(Menge aller möglichen Ausgänge eines
Zufallsexperiments)
versehen mit
P : P(Ω) → [0, 1] (Wahrscheinlichkeit):
Teilmenge von Ω (Ereignis) wird eine Zahl zwischen
I einer Abbildung
Jeder
0 und 1 zugeordnet (Wahrscheinlichkeit, dass das Ereignis
eintritt)
mit folgenden Eigenschaften (KolmogorovAxiome):
1.
2.
P(Ω) = 1 (sicheres Ereignis),
P(A ∪ B) = P(A) + P(B), falls A ∩ B = ∅
(Additionsregel für unvereinbare Ereignisse).
wahrscheinlichkeit13.pdf, Seite 1
Beispiel fairer Würfel
Ω = {1, ..., 6} mit P({i}) = P(i) =
Augenzahlen i = 1, 2, ..., 6.
bzw. allgemeiner
P(A) =
1
6
· #A
1
6 für jede der möglichen
für jede Teilmenge
(#A bezeichnet die Anzahl der Elemente von
A⊂Ω
A).
Z. B. entspricht das Ereignis
Augenzahl
ist nicht durch 3 teilbar
A = {1, 2, 4, 5} mit P(A) = 64 = 23 .
der Menge
B : Augenzahl durch 3 teilbar
C : Augenzahl durch 5 teilbar gilt
Für die Ereignisse
B = {3, 6}, C = {5} ⇒ B ∩ C = ∅
und
und
B ∪ C = {3, 5, 6}
und somit
P(B ∪ C ) = P(B) + P(C ) =
1
3
+
1
6
=
1
2
= 50%.
wahrscheinlichkeit13.pdf, Seite 2
Folgerungen aus den KolmogorovAxiomen
I
I
I
P(A ∪ B) = P(A) + P(B) − P(A ∩ B) für beliebige A, B ,
P(A) ≤ P(B), falls A ⊂ B (Monotonie),
P(A) = 1 − P(A),
c
wobei A = A = Ω \ A das Komplementärereignis zu A
bezeichnet.
I
P(∅) = 0
(unmögliches Ereignis)
Beispiel
P(Augenzahl
durch 2 oder 3 teilbar )
= P({2, 4, 6}) + P({3, 6}) − P({6}) =
1
2
+ 13 −
1
6
=
2
3.
wahrscheinlichkeit13.pdf, Seite 3
Bestimmung von Wahrscheinlichkeiten
ist auf unterschiedliche Weise möglich. Die wichtigsten sind:
I durch ein Symmetrieprinzip:
Ein Zufallsexperiment hat endlich viele mögliche
Ausgänge, die alle als gleichwahrscheinlich angenommen
werden (Beispiel Augenzahl eines Würfels). Man spricht
von einem
LaplaceExperiment.
I durch Schätzung anhand von Beobachtungen
I durch Berechnung ausgehend von bekannten
Wahrscheinlichkeiten
(Beispiel: Wahrscheinlichkeit, bei dreimaligem Würfeln
mindestens eine 6 zu erhalten)
wahrscheinlichkeit13.pdf, Seite 4
Ein Laplace-Experiment
ist ein Zufallsexperiment, bei dem alle möglichen Ausgänge
gleich wahrscheinlich sind.
Ω
ist dabei endliche Menge mit
P({x}) =
1
n
für alle
x ∈A
=
1
n
· #A =
1
n
Elementen mit
(Gleichverteilung).
Für eine beliebige Teilmenge
P(A) =
n
A⊂Ω
folgt dann
mal Zahl der Elemente von
A
Zahl der günstigen durch Zahl der möglichen Fälle.
Beispiele
I fairer Würfel
I Münzwurf:
P (Wappen) = P (Zahl) =
1
2
= 50%
I Ziehen einer Spielkarte aus 32:
Die Wahrscheinlichkeit, dass ein Ass gezohen wird, ist
4/32
=
1
8
= 12, 5%.
wahrscheinlichkeit13.pdf, Seite 5
Beispiel Lotto
Es gibt
49
6
Möglichkeiten, 6 aus 49 Zahlen zu ziehen.
Die Wahrscheinlichkeit für eine bestimmte Zahlenkombination
ist damit 1/
49
6
= 1/13.983.816 < 0, 00001%
(Ziehen ohne Zurücklegen ohne Berücksichtigung der Reihenfolge)
Andere Urnenmodelle
Mit Berücksichtung der Reihenfolge gibt es beim Ziehen von 6
aus 49 Zahlen
49
49!
43! Möglichkeiten
· 48 · ... · 44 =
⇒ P({x}) =
43!
49!
= 1/10.068.347.520
Mit Zurücklegen (d. h. Zahlen können mehrfach gezogen
werden) und Berücksichtigung der Reihenfolge gibt es
49
6
Möglichkeiten
⇒ P({x}) = 49−6 = 1/13.841.287.201
wahrscheinlichkeit13.pdf, Seite 6
Zwei Würfel
Es gibt 36 Möglichkeiten, jede hat Wahrscheinlichkeit 1/36.
Ω = {(i, j) : 1 ≤ i, j ≤ 6}
mit
P(i, j) =
1
36 .
Mit
A = {(2, 1), (2, 2), (2, 3), (2, 4), (2, 5), (2, 6)}
(erster Würfel 2)
und
B = {(1, 3), (2, 3), (3, 3), (4, 3), (5, 3), (6, 3)}
(zweiter Würfel 3)
ist
1
6 und
1
P(2, 3) = 36
=
P(A) = P(B) =
P(A ∩ B) =
P(A) · P(B)
Unabhängigkeit
A
und
B
heiÿen
unabhängig,
wenn
P(A ∩ B) = P(A) · P(B)
Interpretation:
Das Eintreten von Ereignis
Einuss auf die Wahrscheinlichkeit von
B
A
hat keinen
und umgekehrt.
wahrscheinlichkeit13.pdf, Seite 7
Beispiele
A = Augenzahl des ersten Würfels
B = Augensumme gerade ist
P(A) = P(B) = 12 und P(A ∩ B) = 14 ,
I Mit
gerade und
also sind die beiden Ereignisse unabhängig.
A = erster Würfel 4 und B = Augensumme
1
1
ist P(A) = , P(B) =
6
12 und
1
1
P(A ∩ B) = P(4, 6) = 36
6= 16 · 12
,
also sind A und B nicht unabhängig.
Mit A = erste gezogene Spielkarte ist ein Ass
und B = zweite Karte ist ein Bube ist
P(A) = P(B) = 81 und
4
1
P(A ∩ B) = 18 · 31
= 62
6= 81 · 18 ,
I Mit
I
10
d. h. die beiden Ereignisse sind nicht unabhängig.
wahrscheinlichkeit13.pdf, Seite 8
Bedingte Wahrscheinlichkeit
Unabhängigkeit umformuliert:
P(A ∩ B) = P(A) · P(B) ⇔ P(A) = P(A ∩ B)/P(B).
Allgemein deniert man die
unter B
bedingte Wahrscheinlichkeit von A
als
P(A|B) =
P(A ∩ B)
.
P(B)
Interpretation: Wahrscheinlichkeit
dass B eingetreten ist.
für
A,
wenn bekannt ist,
Bemerkungen
I
I
P(A|B) ist nur deniert, wenn P(B) > 0.
Falls P(A), P(B) > 0, so gilt
A und B unabhängig ⇔ P(A|B) = P(A) ⇔ P(B|A) = P(B).
wahrscheinlichkeit13.pdf, Seite 9
Beispiele bei zwei Würfeln
I
A:
Augensumme 10,
Dann ist
P(A) =
⇒ P(A|B) =
P(B|A) =
I
I
1/36
1/6
1/36
1/12
=
3
36
=
1
3
B : erster Würfel 4,
1
= 12
,
P(B) = 61 , P(A ∩ B) =
1
6
6= P(A) =
6= P(B) =
1
36
1
12 sowie
1
6.
A: Augensumme 7, B : erster Würfel 6,
1
P(A|B) = 11//36
6 = 6 = P(A) sowie
P(B|A) = 61 = P(B),
d. h. A und B sind unabhängig.
A: 6 Richtige beim Lotto,
B : die ersten 5 gezogenen Zahlen stimmen,
1
P(A|B) = 44
≈ 2, 27% > P(A) sowie
P(B|A) = 1 6= P(B).
wahrscheinlichkeit13.pdf, Seite 10
Beispiel Kartenspiel (mit 32 Karten)
Es werden zwei Karten (ohne Zurücklegen) gezogen. Wie groÿ
ist die Wahrscheinlichkeit, dass zwei Asse gezogen werden?
Mit
A=
erste Karte ist ein Ass
und
B=
zweite Karte ist ein Ass
ist
P(A) =
4
32
=
1
8 und
P(B|A) =
(da unter der Annahme, dass
A
3
31
eingetreten ist, unter den
verbleibenden 31 Karten noch 3 Asse sind).
Daraus kann jetzt die gesuchte Wahrscheinlichkeit berechnet
werden:
P(A ∩ B) = P(A) · P(B|A) =
1
8
·
3
31
=
3
248
≈ 0, 012 = 1, 2%
wahrscheinlichkeit13.pdf, Seite 11
Totale Wahrscheinlichkeit
Sind
A
sowie
und
B
Ereignisse, so gilt
B = (A ∩ B) ∪ (A ∩ B)
(A ∩ B) ∩ (A ∩ B) = ∅.
Aus den KolmogorovAxiomen folgt daher
P(B) = P(A ∩ B) + P(A ∩ B)
= P(A) · P(B|A) + P(A) · P(B|A).
Allgemeiner gilt
P(B) =
wenn
Pn
k=1
P(Ak ) · P(B|Ak ),
Ω = A1 ∪ ... ∪ An
mit
Ai ∩ Aj = ∅
eine
Zerlegung
des
Wahrscheinlichkeitsraumes ist.
Im letzten Kartenbeispiel
Mit
P(B|A) =
4
31 erhält man
P(B) = P(A) · P(B|A) + P(A) · P(B|A) =
1
8
·
3
31
+ 87 ·
4
31
=
1
8.
wahrscheinlichkeit13.pdf, Seite 12
Weiteres Beispiel
Es werden EMails untersucht, die zum Teil Spam sind.
Betrachtet werden die Ereignisse
S =Mail
ist Spam sowie
G =Mail
enthält das Wort Gewinn
Aus Erfahrungswerten seien folgende Wahrscheinlichkeiten
bekannt:
P(S) = 0, 25, P(G |S) = 0, 19
und
P(G |S) = 0, 01,
d. h. jede 4. Mail ist Spam und 19% aller Spammails sowie 1%
aller NichtSpamMails enthalten das Wort Gewinn. Es folgt
P(G ) = P(S) · P(G |S) + P(S) · P(G |S) = 0, 055,
also enthalten 5, 5% aller Mails das Wort Gewinn.
wahrscheinlichkeit13.pdf, Seite 13
Formel von Bayes
Nach Denition der bedingten Wahrscheinlichkeit gilt für
Ereignisse
A
und
B
P(A ∩ B) = P(A) · P(B|A)
sowie
P(A ∩ B) = P(B) · P(A|B)
Durch Gleichsetzen dieser beiden Ausdrücke erhält man mit
der Formel der totalen Wahrscheinlichkeit den
P(A|B) =
Satz von Bayes:
P(A) · P(B|A)
P(A) · P(B|A)
=
,
P(B)
P(A) · P(B|A) + P(A) · P(B|A)
bzw. bei einer Zerlegung
Ω = A1 ∪ ... ∪ An
P(Ak ) · P(B|Ak )
P(Ak |B) = Pn
.
i=1 P(Ai ) · P(B|Ai )
wahrscheinlichkeit13.pdf, Seite 14
Anwendung: Bayes'scher Spamlter
Im letzten Beispiel:
P(S) = 0, 25
(25% SpamMails),
P(G |S) = 0, 19
(19% davon enthalten das Wort Gewinn)
P(G |S) = 0, 01
(1% der übrigen Mails enthalten das Wort Gewinn)
Dann folgt
P(S) · P(G |S)
P(S) · P(G |S) + P(S) · P(G |S)
0, 25 · 0, 19
=
≈ 0, 864,
0, 25 · 0, 19 + 0, 75 · 0, 01
P(S|G ) =
d. h. eine Mail mit dem Wort Gewinn ist zu 86, 4% Spam.
wahrscheinlichkeit13.pdf, Seite 15
Zuvallsvariablen (Teschl/Teschl Kap. 27)
Eine (reellwertige)
Zufallsvariable auf einem
(Ω, P) ist eine Abbildung
Wahrscheinlichkeitsraum
X : Ω → R,
d. h. jedem
X (ω)
Elementarereignis ω ∈ Ω
wird eine reelle Zahl
zugeordnet.
Damit ist jeder Teilmenge
A⊂R
eine Wahrscheinlichkeit
P(X ∈ A) = P({ω ∈ Ω : X (ω) ∈ A})
zugeordnet. Man spricht von von der
Wahrscheinlichkeitsverteilung
(oder kurz
Verteilung)
von
X.
wahrscheinlichkeit13.pdf, Seite 16
Ereignisse
A ⊂ R, der die
Wahrscheinlichkeit P(X ∈ A) zugeordnet wird. Ist A = [a, b]
ein Intervall, so schreibt man P(X ∈ [a, b]) = P(a ≤ X ≤ b).
Ein Ereignis entspricht jetzt einer Teilmenge
Beispiel Augensumme von zwei Würfeln
Ω = {1, ..., 6} × {1, ..., 6} = {(i, j) : 1 ≤ i, j ≤ 6}
1
P(i, j) = 36
für alle (i, j) (Gleichverteilung).
Gegeben
mit
Die Augensumme wird beschrieben durch die Zuvallsvariable
X (i, j) = i + j
Mit
A:
Augensumme
≥ 10
für alle
(i, j) ∈ Ω.
ist dann z. B.
P(X ∈ A) = P(X ≥ 10) = P{ω : X (ω) ≥ 10}
= P{(4, 6), (5, 5), (5, 6), (6, 4), (6, 5), (6, 6)} =
6
36
=
1
6
wahrscheinlichkeit13.pdf, Seite 17
Bemerkungen
I In Anwendungen beschreiben Zufallsvariablen in der Regel
beobachtete bzw. zu untersuchende Zufallsgröÿen,
während der zugrunde liegende Wahrscheinlichkeitsraum
im Hintergrund den Mechanismus modelliert, der die
Wahrscheinlichkeiten festlegt.
In der Praxis werden oft nur Zufallsvariablen und ihre
Verteilung betrachtet, ohne dass dazu ein
Wahrscheinlichkeitsraum explizit angegeben wird.
X entspricht einer
Wahrscheinlichkeitsfunktion P mit R als
Wahrscheinlichkeitsraum, die Teilmengen A ⊂ R
Wahrscheinlichkeiten P(A) = P(X ∈ A) zuordnet, welche
I Die Verteilung einer Zufallsvariable
den KolmogorovAxiomen genügen.
wahrscheinlichkeit13.pdf, Seite 18
Diskrete Zufallsvariablen
diskret, wenn sie nur endlich
x1 , x2 , x3 , ... annimmt mit
Eine Zufallsvariable heiÿt
abzählbar viele Werte
pi = P(X = xi ) > 0
oder
und
X
P(X = xi ) = 1
i
(im Fall von abzählbar unendlich vielen Werten handelt es sich
bei der Summe um eine unendliche Reihe).
Die Verteilung von
X
ist durch die
pi = P(X = xi )
eindeutig
festgelegt.
Beispiel
Die Augenzahl
X
eines fairen Würfels nimmt die Werte 1, 2,
3, 4, 5 und 6 an mit
P(X = 1) = P(X = 2) = P(X = 3)
= P(X = 4) = P(X = 5) = P(X = 6) =
1
6.
wahrscheinlichkeit13.pdf, Seite 19
Weitere Beispiele
I Die Augensumme von zwei Würfeln ist eine diskrete
Zufallsvariable mit Werten 2, 3, ..., 12.
Z. B. ist
P(X = 2) =
1
36 und
P(X = 7) =
6
36
=
1
6.
I Man würfelt mit einem Würfel so lange, bis die erste
Sechs fällt. Gibt
X
die benötigte Zahl der Würfe an, so ist
pi = P(X = i) =
1
6
i−1
·
5
für
6
i ≥1
X = i bedeutet dass die ersten i − 1 Würfe keine Sechs sind,wofür
i−1
die Wahrscheinlichkeit 65
ist, und im i ten Wurf dann eine Sechs
fällt, wofür die Wahrscheinlichkeit 16 ist. Unter der Annahme, dass die einzelnen
Augenzahlen Unabhängig sind, erhält man die Gesamtwahrscheinlichkeit als
Produkt. Man spricht von einer geometrischen Verteilung.
Begründung:
Es ist (vgl. geometrische Reihe, mit
∞
X
i=1
pi =
1
6
·
∞ j
X
5
j=0
6
=
1
6
j = i − 1)
·
1
1
−
5
6
=1
wahrscheinlichkeit13.pdf, Seite 20
Bemerkung
Die Verteilung einer diskreten Zufallsvariable deniert eine
Wahrscheinlichkeitsfunktion auf der endlichen (oder
abzählbaren) Menge
M = {x1 , x2 , x3 , ...} ∈ R.
In den meisten Anwendungen ist
M
eine Teilmenge der ganzen
Zahlen.
A ⊂ R gilt dann
P
P(X ∈ A) = P(A ∩ M) = xi ∈A P(X = xi ),
Für eine beliebige Teilmenge
wobei die Summe über diejenigen
xi ∈ A
i
gebildet wird, für die
liegt.
Beispiel:
Ist
das Intervall
X die Augenzahl
A = (−2; 3)
eines (fairen) Würfels, so gilt für
P(X ∈ A) = P(−2 < X < 3)
= P(X = 1) + P(X = 2) =
1
6
+
1
6
=
1
3.
wahrscheinlichkeit13.pdf, Seite 21
Graphische Darstellung
Die Verteilung einer diskreten Zufallsvariable kann graphisch in
einem
Stabdiagramm
dargestellt werden.
Verteilung der Augensumme zweier Würfel.
wahrscheinlichkeit13.pdf, Seite 22
Geometrische Verteilung
Verteilung der Anzahl
X
der bis zur ersten Sechs benötigten
Würfe.
wahrscheinlichkeit13.pdf, Seite 23
Stetige Zufallsvariablen
In vielen Anwendungen (z. B. bei der Modellierung zufälliger
Zeiten, Längen etc.) ist es sinnvoll, Zufallsgröÿen zu
betrachten, die beliebige Werte in einem reellen Intervall
annehmen können.
In solchen Fällen kann die Verteilung nicht mehr durch die
Wahrscheinlichkeit
P(X = xi )
einzelner Punkte festgelegt
werden.
Man spricht von einer
stetigen Zufallsvariablen X ,
wenn
einzelne Punkte die Wahrscheinlichkeit Null haben, d. h.
P(X = x) = 0
für alle
x ∈R
gilt.
wahrscheinlichkeit13.pdf, Seite 24
Beispiel
Die
Gleichverteilung
im Intervall [0, 1] ist dadurch
charakterisiert, dass die Wahrscheinlichkeit, dass
X
einen Wert
in einem Teilintervall annmimmt, gleich der Länge dieses
Teilintervalls ist:
P(X ∈ [a, b]) = b − a
für alle
a, b
mit 0
≤ a ≤ b ≤ 1.
So ist z. B. die Wahrscheinlichkeit, dass eine in [0; 1]
X einen
0, 15 = 15%.
gleichverteilte Zufallsvariable
0,4 annimmt, gleich
Wert zwischen 0,25 und
( 15% aller reellen Zahlen zwischen aus dem Intervall [0; 1]
liegen zwischen 0,25 und 0,4.)
wahrscheinlichkeit13.pdf, Seite 25
Dichten
Bei stetigen Zufallsvariablen
X
kann die Wahrscheinlichkeit
eines Teilintervalls oft als Fläche unter einem
Funktionsgraphen
f (x)
Eine solche Funktion
f
interpretiert werden.
heiÿt
Dichte der
X.
Wahrscheinlichkeitsverteilung von
Denition
Eine
Wahrscheinlichkeitsdichte
ist eine Funktion
f :R→R
mit folgenden Eigenschaften:
I
I
I
f : R → R ist stückweise stetig
f (x) ≥ 0
ist auf (−∞, ∞) uneigentlich
Rf ∞
f (x) dx = 1.
−∞
integrierbar mit
wahrscheinlichkeit13.pdf, Seite 26
Dichte einer Zufallsvariable
Eine Zufallsvariable
mit
a≤b
X
hat die Dichte
f,
wenn für alle
a, b ∈ R
gilt
Z
P(X ∈ [a, b]) = P(a ≤ X ≤ b) =
b
f (x) dx.
a
Beispiel
Die auf [0, 1] gleichverteilte Zufallsvariable
f (x) =
1
für 0
0
sonst
≤x ≤1
X
hat die Dichte
.
Bemerkung
Hat
alle
Ra
X die Dichte f , so folgt P(X = a) = a f (x) dx = 0
a ∈ R, d. h. nur stetige Zufallsvariablen können eine
für
Dichte haben. Auÿerdem folgt
P(X ∈ [a, b]) = P(X ∈ (a, b)) = P(a < x < b)
für alle
a < b.
wahrscheinlichkeit13.pdf, Seite 27
Beispiel Gleichverteilung
Die
Gleichverteilung auf dem Intervall [a, b] hat die
1
für a < x < b
b−a
f (x) =
0
für x < a und für x > b
Der Funktionswert von
x =b
f
an den Unstetigkeitsstellen
Dichte
x =a
und
kann dabei beliebig deniert werden.
Beispiel Normalverteilung
Die
StandardNormalverteilung
1
f (x) = √
2π
e
hat die Dichte
−x 2 /2
für
x ∈R
(Gauÿsche Glockenkurve)
wahrscheinlichkeit13.pdf, Seite 28
Dichte der StandardNormalverteilung
Die gelbe Fläche entspricht der Wahrscheinlichkeit, dass eine
standardnormalverteilte Zufallsvariable einen Wert zwischen
und
b
a
annimmt.
wahrscheinlichkeit13.pdf, Seite 29
Exponentialverteilung
Die
Exponentialverteilung mit Parameter k > 0
k e−kx für 0 ≥ 0
f (x) =
0
für x < 0
Dichte
f (x)
mit
k = 5, k = 1
und
hat die Dichte
k = 0, 2.
wahrscheinlichkeit13.pdf, Seite 30
Beispiel zur Berechnung der Wahrscheinlichkeiten
Ist die Zufallsvariable
k=
X
exponentialverteilt mit Parameter
1
5 , so ist die Wahrscheinlichkeit, dass
X
einen Wert
zwischen 1 und 2 annimmt
Z
P(1 ≤ X ≤ 2) = P(1 < X < 2) =
2
Z
f (x) dx =
1
1
2
1 −x/5
dx
5e
2
−x/5 = −e
= −e−2/5 + e−1/5 ≈ −0, 67 + 0, 82 = 15%
1
Analog erhält man
P(X ≥ 3) =
R∞
3
1 −x/5
dx
5e
= 0 + e−3/5 ≈ 55%
Bemerkung
Durch die Exponentialverteilung kann die Lebensdauer von
Bauteilen modelliert werden, die keinem Verschleiÿ unterliegen.
wahrscheinlichkeit13.pdf, Seite 31
Der Erwartungswert
einer diskreten Zufallsvariable
X
µ = EX = E (X ) =
ist deniert als
X
xi · P(X = xi ),
i
wenn die Summe endlich ist oder die Reihe konvergiert.
Interpretation: Der Erwartungswert entspricht dem
durchschnittlichen Wert, den eine Zufallsgröÿe annimmt.
Beispiele
Erwartungswert der Augenzahl eines Würfels:
EX = 1 · 61 + 2 · 16 + 3 · 61 + 4 · 61 + 5 · 16 + 6 ·
1
6
= 3 21 ,
Augensumme zweier Würfel:
EX = 2 ·
1
36
+3·
+8·
5
36
2
36
+4·
+9·
4
36
3
36
+5·
+ 10 ·
3
36
4
36
+6·
+ 11 ·
2
36
5
36
+7·
+ 12 ·
6
36
1
36
=
7.
wahrscheinlichkeit13.pdf, Seite 32
Weiteres Beispiel
Wie oft muss man durchschnittlich würfeln, bis die erste 6
fällt? Antwort: 6 mal, denn:
X
Für die Anzahl
P(X = i) =
1
6
·
der benötigten Würfe gilt
5 i−1
für
6
i = 1, 2, 3, ...
Für den Erwartungswert folgt
0
1
2
EX = 1 · 61 · 56 + 2 · 61 · 56 + 3 · 16 · 65 + ...
P
P∞
1
5 i−1
5 i−1
1
= ∞
i
·
·
·
i
·
=
= 16 · 36 = 6.
i=1
i=1
6
6
6
6
Den Grenzwert der Reihe erhält man dabei mit folgender
P∞ i
1
Überlegung: Aus P(x) =
i=0 x = 1−x folgt
P 0 (x) =
Mit
x=
1
i · x i−1 = (1−x)
P∞
erhält man
i=1 i ·
P∞
i=1
5
6
2
5 i−1
6
=
1
(1− 56 )2
= 62 = 36.
wahrscheinlichkeit13.pdf, Seite 33
Erwartungswert einer Zufallsvariable mit Dichte
Hat
X
die Dichte
f,
so ist der Erwartungswert deniert als
Z
∞
x · f (x) dx,
µ = EX = E (X ) =
−∞
falls das uneigentliche Integral existiert.
Beispiel
X gleichverteilt in [0; 1], so erhält man mit der Dichte
f (x) = 1 für 0 ≤ x ≤ 1 und f (x) = 0 sonst
1
R∞
R1
EX = −∞ x · f (x) dx = 0 x · 1 dx = 21 x 2 = 12 − 0 = 21
Ist
0
wahrscheinlichkeit13.pdf, Seite 34
Bemerkung
Nicht jede Zufallsvariable hat einen Erwartungswert.
Voraussetzung dafür ist, dass die entsprechende Reihe bzw.
das uneigentliche Integral konvergiert.
Beispiel
Wegen
R∞
dx
−∞ 1+x 2
1
∞
= arctan x =
−∞
π
2
−
−π
2
=π
1
·
eine Wahrscheinlichkeitsdichte. Eine
π 1+x 2
Zufallsvariable X mit der Dichte f (x) heiÿt Cauchyverteilt.
ist
f (x) =
Da das Integral
R∞
x · f (x) dx =
−∞
R∞
x
−∞ 1+x 2
dx =
1
2 ln(1
∞
+ x 2 )
divergiert,
−∞
ist der Erwartungswert einer Cauchyverteilten Zufallsvariable
nicht deniert.
wahrscheinlichkeit13.pdf, Seite 35
Beispiel: Erwartungswert der Exponentialverteilung
Ist
X
exponentialverteilt mit Parameter
1 −x/5
Dichte f (x) = e
für x ≥ 0 sowie f
5
k = 15 , so liefert die
(x) = 0 für x < 0 mit
partieller Integration
R∞
x · f (x) dx = 51 0 x · e−x/5 dx
∞
R∞
1
−x/5 ) − − 0 e−x/5 dx
= 5 · x · (−5e
0
∞
= 0 + −5e−x/5 = 0 + 5 = 5
EX =
R∞
−∞
0
Allgemeiner
Ist
X
exponentialverteilt mit Parameter
Z
∞
x · ke
EX =
0
−kx
dx =
lim
b→∞
k,
so ist
−x e−kx −
1 −kx
e
k
b
= 1
k
0
wahrscheinlichkeit13.pdf, Seite 36
Linearität des Erwartungswertes
Sind
X
und
Y
Zufallsvariablen und ist
E (X + Y ) = E (X ) + E (Y )
Beispiel zwei Würfel:
Stellen
X
c ∈ R,
sowie
und
Y
so gilt
E (cX ) = cE (X ).
die Augenzahl jeweils
eines Würfels dar, so gilt für die Augensumme
E (X + Y ) = EX + EY = 3, 5 + 3, 5 = 7.
Verallgemeinerung
E (c1 X1 + ... + cn Xn ) = c1 EX1 + ... + cn EXn
für Zufallsvariablen
X1 , ..., Xn
und
c1 , ..., cn ∈ R.
Monotonie des Erwartungswertes
X ≤ Y ⇒ EX ≤ EY .
wahrscheinlichkeit13.pdf, Seite 37
Satz
Ist
X
g : R → R eine (stetige)
g (X ) = g ◦ X : Ω → R wieder eine
eine Zufallsvariable und
Funktion, so ist durch
Zufallsvariable deniert.
Für deren Erwartungswert gilt
P
Eg (X ) =
Beispiel:
(1) Ist
i g (xi ) · P(X = xi ),
R∞
g (x) · f (x) dx,
−∞
X
falls
X
diskret ist,
falls
X
die Dichte
f
hat
die Augenzahl eines Würfels, so gilt
E (X 2 ) = 1 · 16 + 4 · 16 + 9 · 16 + 16 · 16 + 25 · 61 + 36 · 16 =
X gleichverteilt in [0; 1],
1
R1 3
1 4
3
EX = 0 x dx = 4 x = 41
(2) Ist
91
6
= 15, 16.
so ist
0
wahrscheinlichkeit13.pdf, Seite 38
Varianz
Varianz (mittlere
2
Var(X ) = V (X ) = σ
Die
quadratische Abweichung)
einer Zufallsvariable
die Streuung der Werte von
µ = E (X ).
X
X
ist ein Maÿ für
um dem Erwartungswert
Sie ist deniert als
σ 2 = σX2 = Var(X ) = E (X − µ)2 = E X 2 − (EX )2 ≥ 0.
p
Die Standardabweichung ist deniert als σ = σX =
Var(X ).
Bemerkung
Die Varianz
σ2
Erwartungswert
einer diskreten Zufallsvariable mit
µ
kann auf zweierlei Weise berechnet werden:
hP
i
2
P(X
=
x
)
·
x
− µ2
σ 2 = E (X 2 ) − µ2 =
i
i
i
P
σ 2 = E (X − µ)2 = i P(X = xi ) · (xi − µ)2
oder
Beide Rechnungen liefern (natürlich) das selbe Ergebnis.
wahrscheinlichkeit13.pdf, Seite 39
Beispiel
Für die Varianz der Augenzahl eines fairen Würfels erhält man
I
I
2
2
σ2 =
E (X ) − (EX )
1
2
2
3
2
2
2
·
1 +2 +3 +4 +5 +6
−
6
3
1 2
2
= 61 · 91 − 12 14 = 15 16 − 12 41 = 35
12 = 2, 916
P
2
2
2
σ =E
(X − µ) = i P(X = xi ) · (xi − µ)
=
1
6
· (1 − 3, 5)2 + (2 − 3, 5)2 + (3 − 3, 5)2
+ (4 − 3, 5)2 + (5 − 3, 5)2 + (6 − 3, 5)2
=
=
1
6
1
6
· (6, 25 + 2, 25 + 0, 25 + 0, 25 + 2, 25 + 6, 25)
· 17, 5 =
35
12
Die Standardabweichung wird dann in jedem Fall als
und hat den Wert
σ=
√
σ=
√
σ2
σ 2 ≈ 1, 708.
wahrscheinlichkeit13.pdf, Seite 40
Weiteres Beispiel
Beim Werfen eines Würfels betrage der Gewinn 6 Euro bei
einer gewürfelten 6 und 2 Euro, falls die gewürfelte Augenzahl
ungerade (d. h. 1, 3 oder 5) ist. Bei einer 2 oder 4 ist der
Gewinn Null.
Ist
X
X
die Zufallsvariable, die den Gewinn beschreibt, so kann
die Werte 0, 2 und 6 annehmen mit
P(X = 6) =
1
6,
P(X = 2) =
3
6
=
1
2 und
P(X = 0) =
2
6
=
1
3.
Es folgt
µ = EX =
1
3
· 0 + 12 · 2 + 61 · 6 = 2
Der Erwartungswert des Gewinns entspricht einem fairen
Einsatz, bei dem keiner der beteiligten Spieler einen
strukturellen Vorteil hätte.
wahrscheinlichkeit13.pdf, Seite 41
Fortsetzung Beispiel
Zur Berechnung der Varianz
2
E (X )
σ2
des Gewinns kann zunächst
berechnet werden:
E (X 2 ) =
1
3
· 02 + 21 · 22 + 16 · 62 = 0 + 2 + 6 = 8
⇒ σ 2 = E (X 2 ) − µ2 = 8 − 22 = 4.
Alternativ kann gerechnet werden
σ 2 = E (X − µ)2 = 31 (0 − 2)2 + 12 (2 − 2)2 + 61 (6 − 2)2
=
4
3
+0+
16
6
=
12
3
=4
Für die Standardabweichung gilt
σ=
√
4
= 2.
wahrscheinlichkeit13.pdf, Seite 42
Varianz von Zufallsvariablen mit Dichte
f (x)
Auch hier gibt es analog zwei Rechenwege:
R∞
σ 2 = E (X 2 ) − (EX )2 = ∞ x 2 · f (x) dx − µ2
R∞
σ 2 = E (X − µ)2 = ∞ (x − µ)2 · f (x) dx
oder
Beispiel Gleichverteilung
Ist
X
die Gleichverteilung im Intervall [0; 10], so hat
Dichte
X
die
≤ x ≤ 10,
x < 0 oder x > 10
10
R 10
1 2
x = 5 − 0 = 5.
µ = EX = 0 x · 0, 1 dx = 20
f (x) =
Es folgt
1
10 ,
0,
falls 0
falls
0
wahrscheinlichkeit13.pdf, Seite 43
Berechnung der Varianz im Beispiel
Mit
Z
2
10
2
x · 0, 1 dx =
E (X ) =
0
1
10
1 3 10
· x 3
0
=
1000
= 33, 3
30
erhält man
σ 2 = V (X ) = E (X 2 ) − µ2 = 33, 3 − 52 =
25
3
= 8, 3.
Alternativ rechnet man (mit linearer Substitution)
2
2
Z
σ = E (X − µ) =
0
Die
(x − 5)2 ·
1
10
dx =
1
30 (x
10
− 5)3 0
25
1
· (−53 ) = 2 · 30
· 125 =
3
q
25
√5
Standardabweichung ist σ =
3 = 3 ≈ 2, 887.
=
1
30
· 53 −
10
1
30
wahrscheinlichkeit13.pdf, Seite 44
Weiteres Beispiel
X exponentialverteilt mit Parameter k = 1, so ist
EX = k1 = 1 und
∞
R ∞ 2 −x
2
2
−x E (X ) = 0 x · e dx = −(x + 2x + 2) · e Ist
0
= 0 − (−2) = 2
Es folgt
(mit zweimaliger partieller Integration)
V (X ) = E (X 2 ) − (EX )2 = 2 − 1 = 1
Bemerkung
Ebenso wie nicht jede Zufallsvariable einen Erwartungswert
hat, hat auch nicht jede Zufallsvariable eine endliche Varianz.
Die Varianz ist nur deniert, wenn der Erwartungswert
µ = EX
deniert ist
und EX 2
endlich ist, d. h. die zugehörige
Summe bzw. das uneigentliche Integral konvergiert.
wahrscheinlichkeit13.pdf, Seite 45
Varianz transformierter Zufallsvariablen
Für eine Zufallsvariable
X
und eine Konstante
d ∈R
gilt
V (X + d) = V (X ),
d. h. eine Verschiebung ändert die Varianz nicht.
Weiter gilt für
c ∈R
V (c · X ) = c 2 · V (X ),
d. h. eine
Skalierung
um den Faktor
c
wirkt sich quadratisch
auf die Varianz aus, die Standardabweichung ändert sich
entsprechend um den Faktor
|c|.
Allgemein gilt damit
V (c · X + d) = c 2 · V (X )
für
c, d, ∈ R.
wahrscheinlichkeit13.pdf, Seite 46
Beispiel
Ist X die Augenzahl eines Würfels und beträgt der Gewinn
G = 5X − 18 die fünache Augenzahl minus einem Einsatz
von 18 Euro, so ist die Varianz des Gewinns
35
V (G ) = V (5X − 18) = 52 · V (X ) = 25 · 12
≈ 72, 9,
p
V (X ) ≈ 8, 54.
die Standardabweichung ist σ =
Dabei hat der Einsatz keinen Einuss auf Varianz und
Standardabweichung.
Standardisierung
Ist
X
EX = µ und
standardisierte Zufallsvariable
eine Zufallsvariable mit Erwartungswert
Varianz
V (X ) = σ
2
, so hat die
Z=
X −µ
σ
Erwartungswert 0 und Varianz 1.
wahrscheinlichkeit13.pdf, Seite 47
Weiteres Beispiel
Ist
X
gleichverteilt in [0; 1], so ist
E (X 2 ) =
R1
0
x 2 dx =
1
3
⇒ V (X ) =
EX =
1
3
−
1
2 und
1 2
1
= 12
.
2
a, b ∈ R ist die Zufallsvariable
Y = a + (b − a) · X gleichverteilt im Intervall [a, b],
Für beliebige
Es ist
EY = a + (b − a) ·
Insbesondere ist für
1
2
=
b = −a =
b−a
2
und
V (Y ) =
(b−a)2
√
3 die im Intervall
12
[−
.
√
3;
√
3]
gleichverteilte Zufallsvariable
X−
Z=√
1
2
1/12
=
√
12
·X −
1
2
√
12
√
√
=− 3+2· 3·X
standardisiert.
wahrscheinlichkeit13.pdf, Seite 48
Unabhängigkeit
Zwei Zufallsvariablen
beliebige Teilmengen
P(X ∈ A
und
X und Y sind unabhängig,
A, B ⊂ R gilt
wenn für
Y ∈ B) = P(X ∈ A) · P(Y ∈ B).
Satz
I
I
I
X und Y sind genau dann unabhängig, wenn für alle
x, y ∈ R gilt
P(X ≤ x und Y ≤ y ) = P(X ≤ x) · P(Y ≤ y ).
Zwei diskrete Zufallsvariablen X und Y sind genau dann
unabhängig, wenn für alle x, y gilt
P(X = x und Y = y ) = P(X = x) · P(Y = y ).
Sind X und Y unabhängig, so auch g (X ) und h(Y ) für
Funktionen g und h .
wahrscheinlichkeit13.pdf, Seite 49
Bemerkung
In Anwendungen muss die Unabhängigkeit von Zufallsvariablen
in der Regel nicht nachgerechnet werden, sondern ist eine
Konsequenz von Modellannahmen.
Wenn aus dem Modell hervorgeht, dass der Wert einer
Zufallsvariable
X
keinen Einuss auf die Verteilung einer
anderen Zufallsvariablen
Y
hat, so werden
X
und
Y
als
unabhängig angenommen.
Beispiel
Bezeichnen
X
und
Y
die jeweiligen Augenzahlen zweier
Würfel, so werden sie (in der Regel) als unabhängig
vorausgesetzt. Unter dieser Annahme lassen sich dann weitere
Wahrscheinlichkeiten wie z. B. die Verteilung der Augensumme
X +Y
berechnen.
wahrscheinlichkeit13.pdf, Seite 50
Satz
Sind
X und Y unabhängig, so gilt E (X · Y ) = E (X ) · E (Y )
V (X + Y ) = V (X ) + V (Y ).
sowie
Beispiel
Die Augensumme zweier Würfel hat die Varianz
und die Standardabweichung
σ=
q
35
6
35
12
+
35
12
= 5 56
≈ 2, 415
(da die Augenzahl eines Würfels Varianz
35
12 hat).
Warnungen
I Während
E (X + Y ) = EX + EY
für beliebige
Zufallsvariablen gilt, setzten die Gleichungen
E (X · Y ) = EX · EX
Unabhängigkeit von
V (X + Y ) = V (X ) + V (Y )
X und Y voraus.
und
die
I Da die Standardabweichung mit Hilfe der nichtlinearen
Wurzelfunktion berechnet wird, gilt
nicht
σX +Y = σX + σY
wahrscheinlichkeit13.pdf, Seite 51
Erweiterung
Sind
X1 , X2 , ..., Xn
unabhängige Zufallsvariablen, so gilt
V (X1 + X2 + ... + Xn ) = V (X1 ) + V (X2 ) + ... + V (Xn )
Beispiel
Die Augensumme von 12 Würfeln hat
· 3, 5 = 42, Varianz
√
Standardabweichung
35 ≈ 5, 916.
Erwartungswert 12
12
·
35
12
= 35
und
Die Augensumme von 420 Würfeln hat Erwartungswert 1470,
Varianz 1225 und Standardabweichung 35.
eines
Würfels, so gilt für die Varianz V (12X ) = 12 · V (X ) = 420
√
420 ≈ 20, 49.
und die Standardabweichung σ12X =
Betrachtet man dagegen die 12fache Augenzahl 12X
2
wahrscheinlichkeit13.pdf, Seite 52
Beispiel: 2 Würfel
X
Beschreiben
und
Y
die Augenzahl jeweils eines Würfels, so
folgt aus der Unabhängigkeit, dass für das Produkt
XY
der
und
Z
Augenzahlen gilt
E (XY ) = E (X ) · E (Y ) = 3, 52 = 12, 25
Ist
Z
die Zufallsvariable mit
Z=
1,
falls beide Augenzahlen gerade,
0
sonst
, so sind
X
nicht unabhängig.
Es ist
EZ = 0 · P(Z = 0) +· P(Z = 1) = 0 · 34 + 1 ·
E (X · Z )
1
4
=
1
4.
bestimmt man wie folgt: Mit Wahrscheinlichkeit
1
jeweils
12 ist
X · Z = 2,
4 bzw. 6 (erster Würfel 2, 4 oder 6
und zweiter Würfel gerade), in allen anderen Fällen ist
X · Z = 0.
Es folgt
E (X · Z ) =
1
12
·2+
1
12
·4+
1
12
· 6 + 34 · 0 = 1 6= E (X ) · E (Z ).
wahrscheinlichkeit13.pdf, Seite 53
Die Kovarianz
zweier beliebiger Zufallsvariablen
Cov(X , Y )
Sind
X
und
Y
X
und
Y
ist deniert als
= E (X · Y ) − E (X ) · E (Y )
unabhängig, so ist
E (XY ) = E (X ) · E (Y ) ⇒ Cov(X , Y ) = 0.
Die Umkehrung gilt nicht allgemein, zwei Zufallsvariablen mit
Kovarianz 0 müssen nicht unabhängig sein.
X und Y heiÿen unkorreliert, falls Cov(X , Y ) = 0, positiv
korreliert, falls Cov(X , Y ) > 0 und negativ korreliert, falls
Cov(X , Y ) < 0.
wahrscheinlichkeit13.pdf, Seite 54
Satz
Für beliebige Zufallsvariablen
I
I
X
und
Y
gilt
V (X + Y ) = V (X ) + V (Y ) + 2Cov(X , Y )
2
Cov(X , Y ) ≤ V (X ) · V (Y )
mit Gleichheit genau dann, wenn eine der beiden
Zufallsvariablen konstant ist oder es Konstanten
gibt, sodass
c, d ∈ R
Y = cX + d .
Der Korrelationskoezient
zweier Zufallsvariablen mit
Standardabweichungen
σX
X
und
und
σY
ρ(X , Y ) = ρXY =
Y
mit
ist deniert als
Cov(X , Y )
σX · σY
wahrscheinlichkeit13.pdf, Seite 55
Beispiel
X
und
Y
bezeichnen die Augenzahlen zweier Würfel,
Zufallsvariable mit
und
Z =0
Dann ist
Cov(X , Z )
die
falls beide Augenzahlen gerade sind
sonst.
= E (XZ ) − E (X )E (Z ) = 1 − 27 ·
Folglich sind
Mit
Z =1
Z
V (X ) =
X
und
35
12 und
Z
1
4
=
1
8
= 0, 125.
positiv korreliert.
V (Z ) =
ρXY = q
3
16 folgt weiter
1
8
35
12
1
·
3
16
=√
35
≈ 0, 169
wahrscheinlichkeit13.pdf, Seite 56
Eigenschaften
I Cov(X , Y )2
≤ V (X ) · V (Y )
besagt, dass der
Korrelationskoezient immer zwischen
I
−1
und 1 liegt.
ρXY = 1 bedeutet eine positive lineare Korrelation der
Y = cX + d mit c > 0, ρXY = −1 eine negative
lineare Korrelation Y = cX + d mit c < 0.
Ein Korrelationskoezient nahe 1 oder −1 bedeutet, dass
zwischen X und Y annähernd ein linearer
Form
Zusammenhang besteht.
I Mit den standardisierten Zufallsvariablen
Ŷ =
X̂ =
X −EX
und
σX
Y −EY
ist
σY
ρXY = Cov(X̂ , Ŷ ) = ρ(X̂ , Ŷ ).
wahrscheinlichkeit13.pdf, Seite 57
Verteilungsfunktion
Ist
X
eine Zufallsvariable mit der Dichte
F (x) =
Rx
−∞
f (ξ) dξ
Damit gilt für
eine Stammfunktion von
a, b ∈ R
mit
Die oben denierte Funktion
stetigen Zufallsvariale
x ∈R
ist
F (x) =
X.
Rx
−∞
so ist
f (x).
a<b
P(a < X < b) = P(a ≤ X ≤ b) =
Für
f (x),
F (x)
Rb
a
f (x) dx = F (b) − F (a).
heiÿt
Verteilungfunktion
der
f (ξ) dξ = P(X ≤ x).
Beispiel
Eine in [0, 1] gleichverteilte Zufallsvariable hat die
Verteilungsfunktion
F (x) =



0
für
x
für
1
für
x ≤ 0,
0 < x < 1,
x ≥1
wahrscheinlichkeit13.pdf, Seite 58
Verteilungsfunktion
F (x)
einer im Intervall [0, 1]
gleichverteilten Zufallsvariable
wahrscheinlichkeit13.pdf, Seite 59
Weitere Beispiele
I Eine in
[a, b]
gleichverteilte Zufallsvariable hat die
Verteilungsfunktion
F (x) =



0
x−a
b−a
1
für
für
für
x ≤ a,
a < x < x,
x ≥b
I Eine exponentialverteilte Zufallsvariable mit Parameter
k > 0 hat
R x die Verteilungsfunktion
F (x) = 0 k e−kξ dξ = 1 − e −kx für x ≥ 0
I Für die Verteilungsfunktion
Z
x
Φ(x) =
−∞
1
√
2π
e
−ξ 2 /2
dξ
de Standardnormalverteilung lässt sich kein expliziter
Ausdruck angeben.
wahrscheinlichkeit13.pdf, Seite 60
Verteilungsfunktion der Exponentialverteilung
F (x) = 1 − e −kx
für
k = 5, k = 1
und
k = 0, 2.
wahrscheinlichkeit13.pdf, Seite 61
Verteilungsfunktion der Standardnormalverteilung
wahrscheinlichkeit13.pdf, Seite 62
Verteilungsfunktion einer diskreten Zufallsvariable
Durch
F (x) = P(X ≤ x)
kann die Verteilungsfunktion für
beliebige reellwertige, also auch diskrete, Zufallsvariablen
deniert werden.
Beispiel Augensumme
Ist
x < 2,
Für 2
so gilt
≤x <3
X
zweier Würfel
F (x) = P(X ≤ x) = 0.
ist
F (x) = P(X ≤ x) = P(X = 2) =
≤x <4
F (x) = P(X ≤ x) = P(X = 2) + P(X = 3) =
Für 3
ist
...
Für
x ≥ 12
Somit hat
ist
3
36
1
36 .
=
1
12 .
F (x) = P(X ≤ 12) = 1.
F (x)
an den Stellen
x = 2, 3, 4, ..., 12
jeweils eine
Sprungstelle und ist zwischen diesen Sprungstellen konstant.
wahrscheinlichkeit13.pdf, Seite 63
Verteilungsfunktion Augensumme zweier Würfel
F (x)
hat Sprungstellen an den Stellen
x = 2, 3, 4, ..., 12
und
ist auf den Intervallen dazwischen jeweils konstant.
wahrscheinlichkeit13.pdf, Seite 64
Eigenschaften von Verteilungsfunktionen
Für die Verteilungsfunktion
F (x)
F
einer beliebigen
X gilt
0 ≤ F (x) ≤ 1 für alle x ∈ R
x 7→ F (x) ist monoton wachsend.
Zufallsvariable
I
I
F (x)
F (x) existieren für alle x0 ∈ R und es ist
F (x0 ) = limx→x + F (x) (F ist rechtsseitig stetig).
limx→−∞ F (x) = 0 und limx→∞ F (x) = 1.
I Die rechts- und linksseitigen Grenzwerte limx→x +
0
und limx→x0 −
0
I
Bemerkungen
I Jede Funktion mit den obigen Eigenschaften ist
Verteilungsfunktion einer Zufallsvariable.
I Jede reellwertige Zufallsvariable besitzt eine
Verteilungsfunktion.
wahrscheinlichkeit13.pdf, Seite 65
Weitere Eigenschaften
a < b ist
P(X ∈ (a, b]) = P(a < X ≤ b) = F (b) − F (a)
(denn P(a < X ≤ b) = P(X ≤ b) − P(X ≤ a))
Für alle x0 ∈ R ist
I Für
I
P(X = x0 ) =
lim F (x)− lim F (x)
x→x0 +
x→x0 −
= F (x0 )−
lim F (x)
x→x0 −
Folgerung
I
F
x0 , wenn P(X = x0 ) = 0 gilt.
F an der Stelle x0 eine Sprungstelle, so entspricht
P(X = x0 ) der Sprunghöhe.
F ist genau dann stetig auf R, wenn P(X = x) = 0 für
alle x ∈ R.
In diesem Fall ist F Verteiungsfunktion einer stetigen
ist genau dann stetig in
Hat
I
Zufallsvariablen.
wahrscheinlichkeit13.pdf, Seite 66
Bemerkungen
I Nicht jede stetige Zufallsvariable besitzt eine Dichte
Ist die Verteilungsfunktion
F (x)
von
X
f (x).
(eventuell mit
Ausnahme endlich vieler Punkte, die dann die
Sprungstellen von f sind) dierenzierbar, so ist
f (x) = F 0 (x) Dichte von X .
Es gibt aber auch Zufallsvariablen, deren
Verteilungsfunktionen stetig, aber nicht dierenzierbar
sind.
Die für Anwendungen wichtigsten Zufallsvariablen sind
jedoch entweder diskret oder haben eine Dichte.
X stetig, so gilt P(X = x) = 0 für alle x ∈ R. Für
a < b folgt dann
P (a, b) = P(a < X < b) = P [a, b] = P(a ≤ X ≤ b)
= P (a, b] = P [a, b) = F (b) − F (a).
I Ist
wahrscheinlichkeit13.pdf, Seite 67
Gesetz der groÿen Zahlen Beispiel
Für die Augensumme
Sn = X1 + ... + Xn
beim
nmaligen
Würfeln gilt
ESn =
n
X
EXi = n · 3, 5
und
V (Sn ) =
i=1
und
EX =
1
n
V (X ) =
V (Xi ) = n ·
i=1
Für die durchschnittliche Augenzahl
folgt
n
X
X = n1 Sn =
1
n
35
12
· (X1 + ... + Xn )
· ESn = 3, 5 = EX1 = ... = EXn
1
n2
· V (Sn ) =
1
n
·
35
12
Für die Standardabewichung erhält man
σX =
q
V (X ) =
√1
n
·
q
35
12
→0
für
n→∞
wahrscheinlichkeit13.pdf, Seite 68
Gesetz der groÿen Zahlen Voraussetzungen
Sie
(Xi )
eine Folge unabhängiger identisch verteilter (iid)
Zufallsvariablen mit Erwartunswert
σ 2 < ∞.
(d. h.
X1 , X2 , X3 ,
µ∈R
und Varianz
... haben alle die gleiche Verteilung und
insbesondere den gleichen Erwartungswert, unabhängig
bedeutet
P(X1 ∈ A1 ; X2 ∈ A2 ; ...; Xk ∈ Ax )
= P(X1 ∈ A1 ) · P(X2 ∈ A2 ) · ... · P(Xk ∈ Ak )
für beliebige
Das
k
und
A1 , ..., Ak ∈ R)
arithmetische Mittel
Xn =
1
n
ist dann für alle n
2
µ und Varianz σn .
n
X
i=1
≥1
Xi =
1
n
(X1 + X2 + ... + Xn )
eine Zufallsvariable mit Erwartungswert
wahrscheinlichkeit13.pdf, Seite 69
Gesetz der groÿen Zahlen Satz
ε > 0 gilt
1
(X1 + X2 + ... + Xn ) − µ ≥ ε = 0,
lim P
n
n→∞
Für beliebiges
(X n ) konvergiert stochastisch
Wahrscheinlichkeit gegen µ.
d. h. die Folge
bzw.
in
Der Beweis
erfolgt mit Hilfe der
Ungleichung von Tschebysche.
wahrscheinlichkeit13.pdf, Seite 70
Bemerkungen
I Das Gesetz der groÿen Zahlen gilt auch noch unter
schwächeren Voraussetzungen, wo die
Xi
nicht
unabhängig und/oder nicht identisch verteilt sind.
starke Gesetz der groÿen Zahlen besagt
limn→∞ X n = µ fast sicher (mit Wahrscheinlichkeit 1),
d. h. limn→∞ X n (ω) = µ für alle ω aus einer Teilmenge Ω̃
des
Wahrscheinlickeitsraumes Ω mit
zugrundeliegenden
P Ω̃ = 1.
I Das
wahrscheinlichkeit13.pdf, Seite 71
Bemerkung und Beispiel
X mit Dichte f (x) =
(standard)Cauchyverteilt.
Eine Zufallsvariable
heiÿt
Sind
X1 , X2 ,
n≥1
1
π
·
1
1+x 2 für
x ∈R
... unabhängig und Cauchyverteilt, so ist für alle
auch
X n = n1 (X1 + ... + Xn )
standardCauchyverteilt.
Insbesondere gilt das Gesetz der groÿen Zahlen nicht für
Cauchyverteilte Zufallsvariablen. Dies liegt daran, dass diese
keinen Erwartungswert haben (das entsprechende uneigentliche
R∞
Integral
x · f (x) dx divergiert).
−∞
wahrscheinlichkeit13.pdf, Seite 72
Erweiterung: Hauptsatz der Statistik
Zu Zufallsvariablen
Verteilungsfunktion
F n (x) =
1
...,
Xn
x
ist
F n (x)
Xi
relativen Anteil der
ist die
empirische
deniert als
mal Anzahl der
n
Für festes
X1 ,
Xi
mit
Xi < x .
eine Zufallsvariable. Sie gibt den
wieder, deren Wert
≤x
ist.
Satz
Sind die
Xi
unabhängig und identisch verteilt mit
F (x), so gilt für festes x ∈ R
P F n (x) − F (x) > ε = 0,
Verteilungsfunktion
lim
n→∞
F n nähern
Verteilungsfunktion F an.
d. h. die empirischen Verteilungsfunktionen
n→∞
der erwarteten
und
ε>0
sich für
wahrscheinlichkeit13.pdf, Seite 73
Beispiel
Empirische Verteilungsfunktion
F 5 (x)
einer
exponentialverteilten Zufallsvariable mit Parameter
λ = 1.
wahrscheinlichkeit13.pdf, Seite 74
Hauptsatz der Statistik
F 50 (x)
und theoretische Verteilungsfunktion
F (x) = 1 − e−x .
wahrscheinlichkeit13.pdf, Seite 75
Herunterladen