Zufallsvariablen Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete

Werbung
Universität Basel
Wirtschaftswissenschaftliches Zentrum
Zufallsvariablen
Dr. Thomas Zehrt
Inhalt:
1. Einführung
2. Zufallsvariablen
3. Diskrete Zufallsvariablen
4. Stetige Zufallsvariablen
5. Erwartungswert und Varianz
6. Standardisierte Zufallsvariablen
7. Die Ungleichung von Tschebyschev
2
Teil 1
Einführung
3
Bei vielen Zufallsexperimenten tritt als
Ergebnis direkt eine reelle Zahl auf und
selbst wenn die auftretenden Ergebnisse
keine Zahlenwerte sind, interessiert man
sich häufig für einen durch den Versuchsausgang bestimmten Zahlenwert.
Mathematisch: Abbildung X von der Menge Ω in die reellen Zahlen (Zufallsvariable)
Ω
P
[0,1]
X
IR
Da das Ergebnis ω vom Zufall abhängt,
wird auch der Zahlenwert X(ω) zufallsabhängig sein.
4
Beispiel
Zufallsexperiment:
Zweifacher Wurf eines Würfels
Wahrscheinlichkeitsraum:
Ω = { ω = (ω1, ω2) : ωi ∈ {1, . . . , 6} }
1 ).
mit Gleichverteilung auf Ω (P(ω) = 36
Zufallsvariable:
X : Ω −→ {2, 3, 4, . . . , 12} = RX ⊂ R
(ω1, ω2) 7−→ ω1 + ω2
für alle (ω1, ω2) ∈ Ω
X ist eine Funktion, die jedem Ergebnis
des Experimentes die Augensumme zuordnet.
5
Der Raum Ω
2. Wurf
6
5
4
Ω
3
2
1
1. Wurf
1
2
3
4
5
6
6
Der Wahrscheinlichkeitsraum (Ω, P)
2. Wurf
6
5
4
ΩP
3
2
1
1. Wurf
1
2
3
4
5
6
Auf jedem Ausgang ω des Experimentes
lastet ein Gewicht P (ω)!
7
Für alle k ∈ {2, 3, 4, . . . , 12} sei nun
X−1(k) = {ω
| = (ω1, ω2) ∈{zΩ : X(ω) = k}}
Ereignis:
,,Augensumme
ist gleich k“
Dann ist:
PX(k) = P(X−1(k))
die Wahrscheinlichkeit dafür, dass die Augensumme k (2 ≤ k ≤ 12) gewürfelt wird.
8
Beispiel:
6
5
4
3
2
1
1
2
3
4
5
6
3
Grün: X−1(4) und PX(4) = P(X−1(4)) = 36
6
Gelb: X−1(7) und PX(4) = P(X−1(7)) = 36
9
Einzelwahrscheinlichkeiten PX(k):
k Elemente in X−1 (k)
2
3
4
5
6
7
8
9
10
11
12
(1,1)
(1,2),
(1,3),
(1,4),
(1,5),
(1,6),
(2,6),
(3,6),
(4,6),
(5,6),
(6,6)
(2,1)
(2,2),
(2,3),
(2,4),
(2,5),
(3,5),
(4,5),
(5,5),
(6,5)
(3,1)
(3,2),
(3,3),
(3,4),
(4,4),
(5,4),
(6,4)
|X−1 (k)| PX (k)
(4,1)
(4,2), (5,1)
(4,3), (5,2), (6,1)
(5,3), (6,2)
(6,3)
1
2
3
4
5
6
5
4
3
2
1
1/36
2/36
3/36
4/36
5/36
6/36
5/36
4/36
3/36
2/36
1/36
• 0 ≤ PX(k) ≤ 1 für alle k = 2, . . . , 12
• alle Ereignisse X−1(k) ⊂ Ω sind disjunkt, ihre Vereinigung ist ganz Ω und
12
X
k=2
PX(k) = 1.
10
PX
IR X
11
Damit haben wir gezeigt:
Die Verknüpfung PX(k) definiert eine Wahrscheinlichkeitsverteilung über der Menge
{2, . . . , 12}.
Allgemein
gegeben:
• (Ω, P) ein Wahrscheinlichkeitsraum
• X : Ω −→ R Zufallsvariable
• RX = X(Ω) ⊂ R das Bild von X
• PX = P(X−1)
Dann ist das Paar (RX, PX) ein
Wahrscheinlichkeitsraum, d.h. PX ist
eine Wahrscheinlichkeitsverteilung
auf RX.
12
Zusammenfassung:
Jede Zufallsvariable X ordnet der Menge Ω aller möglichen Ausgänge eines Zufallsexperimentes eine Teilmenge RX der
reellen Zahlen zu und transportiert die
Wahrscheinlichkeiten von Ereignissen aus
Ω nach RX!
Ω −→ RX
P −→ PX
PX heisst auch die Verteilung von X und
wird meist wieder mit P bezeichnet.
13
Beispiele:
Experiment
Ω
Beobachtung
Kennzeichen
vorbeifahrender
Autos
{BS − 01, . . .}
Zufallsvariable
Geschwindigkeit
der Autos
X(BS − 00) = 50 km
h
km
X(BL − 01) = 40 h
...
Auswahl
einer Person
Passnummern Körpergrösse
{17−, 14−, . . .}
X(17−) = 1.83 m
X(14−) = 1.59 m
...
14
Teil 2
Zufallsvariablen
15
Meist von Interesse:
Wahrscheinlichkeit, dass X(ω) in einem
bestimmten Intervall I = [a, b] liegt, also
dass X(ω) ∈ I gilt.
Dazu betrachten wir die Gesamtheit aller
Ergebnisse ω, für die X(ω) ∈ I gilt:
AI = {ω ∈ Ω : X(ω) ∈ I}.
Ω
ω1
ω2
AI
ω3
ω6
I
X(ω 1 )
ω7
ω5
ω4
IR
X(ω 5 )
16
Für beliebige Abbildungen X : Ω −→ R
ist AI nicht notwendigerweise ein Ereignis (insbesondere, wenn man die Menge
Ω grösser als nötig gewählt hat).
Definition:
Sei (Ω, P) ein Wahrscheinlichkeitsraum.
Dann heisst eine Abbildung
X : Ω −→ R
eine (reellwertige) Zufallsvariable, falls für
alle Intervalle I ⊂ R die Menge
AI = {ω ∈ Ω : X(ω) ∈ I} ⊂ Ω
ein Ereignis ist.
Insbesondere bedeutet das, dass wir AI
eine Wahrscheinlichkeit zuordnen können.
17
Bezeichnungen
Für die Wahrscheinlichkeiten des Ereignisses AI und ähnlicher Ereignisse, die
sich direkt über die Zufallsvariable X darstellen lassen, schreiben wir abkürzend:
P(X = x0) = P( {ω ∈ Ω : X(ω) = x0} )
P(X ∈ I) = P( {ω ∈ Ω : X(ω) ∈ I} )
= P(AI)
P(a ≤ X ≤ b) = P( {ω ∈ Ω : a ≤ X(ω) ≤ b} )
P(X ≤ b) = P( {ω ∈ Ω : X(ω) ≤ b} ).
18
Diese Wahrscheinlichkeiten lassen sich mit
Hilfe der sogenannten Verteilungsfunktion berechnen.
Sei X eine Zufallsvariable auf dem Wahrscheinlichkeitsraum (Ω, P). Dann heisst die
Abbildung F : R −→ [0, 1] mit
F(x) = P(X ≤ x) = P(−∞ ≤ X ≤ x)
Verteilungsfunktion der Zufallsvariablen.
19
Aufgabe 1
Ein Laplace-Würfel wird dreimal geworfen. Die
Zufallsvariable X bezeichne die Anzahl, wie oft
eine gerade Zahl geworfen wurde.
Bestimmen Sie die Verteilung und die Verteilungsfunktion von X und stellen Sie diese graphisch dar.
20
Eigenschaften von Verteilungsfunktionen
• F ist monoton wachsend
• F ist rechtsseitig stetig, d.h.
F(x) =
• lim
x→−∞
F(x) = 0
• lim F(x) = 1
x→∞
lim
h>0,h→0
F(x + h)
21
Rechenregeln für Verteilungsfunktionen
Für alle a, b ∈ R mit a < b gilt:
P(X < a) = P(X ≤ a) − P(X = a)
= F(a) − P(X = a)
P(X > a) = 1 − F(a)
P(X ≥ a) = 1 − F(a) + P(X = a)
P(a < X ≤ b) = F(b) − F(a)
P(a < X < b) = F(b) − F(a) − P(X = b)
P(a ≤ X < b) = F(b) − F(a) − P(X = b) + P(X = a)
22
Im folgenden unterscheiden wir zwei Typen von Zufallsvariablen
• diskrete Zufallsvariablen:
RX = X(Ω) ist eine abzählbare Menge,
z.B. 0, 1, 2, . . . , 100
• stetige Zufallsvariablen:
RX = X(Ω) ist eine überabzählbare
Menge, z.B. [0, 200].
23
Teil 3
Diskrete Zufallsvariablen
24
Eine Zufallsvariable X heisst
diskret,
wenn ihr Wertebereich endlich oder abzählbar unendlich ist.
Wir können alle möglichen Werte von X
durchnumerieren:
RX = X(Ω) = {x1, x2, x3, . . .}.
Diskrete Zufallsvariablen
• nehmen in der Regel ganzzahlige Werte an und
• entstehen meist durch Zählprozesse.
25
Nimmt die diskrete Zufallsvariable die Werte {x1, x2, . . .} an, so gehört zu jedem Wert
xj das Ereignis X = xj und dessen Wahrscheinlichkeit
pj := P(X = xj), j = 1, 2, 3, . . .
Die Verteilungsfunktion von X hat dann
die Gestalt
F(x) = P(X ≤ x) =
X
xj≤x
pj.
26
Graphisch kann man eine diskrete Wahrscheinlichkeitsverteilung auf folgende Weise darstellen:
• in einem Stabdiagramm: über jeder Stelle xj errichtet man einen Stab der Länge
pj,
• durch den Graphen der Verteilungsfunktion F
27
Stabdiagramm
PX
IR X
Verteilungsfunktion
PX
IR X
28
Teil 4
Stetige Zufallsvariablen
29
Zunächst benötigen wir den hier wichtigen Begriff einer Dichte.
Eine Funktion f heisst
Dichte oder
Wahrscheinlichkeitsdichte
falls sie die folgenden Eigenschaften hat:
1. f (t) ≥ 0 für alle t ∈ R,
2. f (t) ist stetig bis auf abzählbar viele
Punkte,
3.
Z ∞
−∞
f (t) dt = 1.
30
Eine Zufallsvariable heisst stetig mit der
Dichte f falls sich die Verteilungsfunktion F : R −→ [0, 1] in der folgenden Weise
schreiben lässt:
F(x) =
Z x
f (t) dt.
−∞
Die Verteilungsfunktion F ist eine Stammfunktion der zugehörigen Dichte!
Satz
Die Wahrscheinlichkeit, dass eine stetige
Zufallsvariable einen beliebigen Wert x0
annimmt, ist gleich Null:
P(X = x0) = 0
31
Beweis:
Sei x0 ∈ R und wir betrachten das Intervall (x0 − δ, x0]. Dann gilt zunächst allgemein:
P(x0 − δ < X ≤ x0) = F(x0) − F(x0 − δ)
also
P(X = x0) = lim P(x0 − δ < X ≤ x0)
δ→0
= lim [F(x0) − F(x0 − δ)]
δ→0
= F(x0) − F(x0)
= 0.
Bei stetigen Zufallsvariablen sind Punktereignisse X = xi nicht von Interesse!!
32
Zusammenfassung:
Wahrscheinlichkeit, dass X
einen Wert zwischen a und b
annimmt
Ausgedrückt durch die
Verteilungsfunktion
Ausgedrückt durch die
Dichte:
P(a ≤ X ≤ b)
= P(a < X < b)
= P(a ≤ X < b)
= F(b) − F(a)
=
Z
b
f (t) dt
a
33
Die Dichte einer Zufallsvariablen X:
y
f(t)
t
a
P(a ≤ X ≤ b) =
b
Z b
f (t)dt
a
ist der Flächeninhalt unter der Kurve zwischen den Grenzen a und b und dieser
Flächeninhalt entspricht der Wahrscheinlichkeit dafür, dass unsere Zufallsvariable
X einen Wert zwischen a und b annimmt.
34
Aufgabe 2
An einer Haltestelle kommt pünktlich alle 20
Minuten ein Tram an. Eine Person geht, ohne
auf die Uhr zu schauen, an die Haltestelle und
nimmt das nächste Tram. Die Zufallsvariable T
bezeichne die Wartezeit in Minuten.
Modellieren Sie die Verteilung von T mit einer
geeigneten Dichte und bestimmen Sie damit
• P (T < 10)
• P (T > 5)
• P (5 < T < 8).
35
Teil 5
Erwartungswert und Varianz
36
X sei eine Zufallsvariable. Dann ist der
Erwartungswert E(X) = µ wie folgt definiert.
1. Falls X diskret mit den endlich vielen
Werten {x1, x2, . . . , xn} ist, so gilt:
E(X) =
n
X
i=1
xi |P(X{z= xi})
pi
2. Falls X stetig mit zugehöriger Dichte f
ist, so gilt:
Z ∞
E(X) =
t f (t) dt
−∞
37
Die Varianz Var(X) = σ 2 der Zufallsvariablen X mit µ = E(X) ist wie folgt definiert.
1. Falls X diskret mit den endlich vielen
Werten {x1, x2, . . . , xn} ist, so gilt:
Var(X) =
n
X
i=1
(xi − µ)2 |P(X{z= xi})
pi
2. Falls X stetig mit zugehöriger Dichte f
ist, so gilt:
Z ∞
Var(X) =
(t − µ)2 f (t) dt
−∞
Die positive Quadratwurzel der Varianz
heisst Standartabweichung von X.
38
y
f(t)
t
E(X) − V(X)
E(X)
E(X) + V(X)
Der Erwartungswert E(X) kann als Schwerpunkt der mit der Dichte belasteten reellen Zahlengerade interpretiert werden.
Die Varianz misst die durchschnittliche
Abweichung der Werte von X vom Erwartungswert E(X). Da sich die obige Dichte weit auf der Achse ausbreitet, wird
Var(X) hier relativ gross sein.
39
Rechenregeln für Erwartungswert
und Varianz
Seien X, Y Zufallsvariablen und a, b, c reelle Zahlen. Dann gelten:
1. E(aX + bY + c) = a E(X) + b E(Y) + c
2. Var(aX + b) = a2 Var(X)
3. Verschiebungssatz der Varianz
Var(X) = E(X2) − [E(X)]2
40
Aufgabe 3
Sei X die Augenzahl beim einmaligen Wurf eines Laplace-Würfels. Bestimmen Sie den Erwartungswert und die Standardabweichung.
41
Teil 6
Standardisierte Zufallsvariablen
42
Eine Zufallsvariable heisst
standardisiert
falls E(X) = 0 und Var(X) = 1 gilt.
Satz
Ist X eine beliebige Zufallsvariable, dann
ist die Zufallsvariable
X − E(X)
Y = p
Var(X)
standardisiert.
Y heisst die Standardisierung von X.
43
Aufgabe 4
Zeigen Sie, dass für jede Zufallsvariable X die
neue Zufallsvariable
X − E(X)
Y = p
V ar(X)
standardisiert ist.
44
Teil 7
Die Ungleichung von Tschebyschev
45
Sei X eine beliebige Zufallsvariable. Dann
gilt für jede positive Zahl c:
Var(X)
P( |X − E(X)| ≥ c ) ≤
c2
d.h. man kann relativ leicht die Wahrscheinlichkeit abschätzen, mit der X einen
Wert ausserhalb des um den Erwartungswert symmetrischen Intervalls
[E(X) − c, E(X) + c]
annimmt.
46
Mit der Abkürzung µ = E(X):
µ−c
µ
µ+ c
Der blau gekennzeichnete Flächeninhalt
ausserhalb des Intervalls [µ − c, µ + c] ist
stets kleiner als der Wert
Var(X)
.
c2
47
Alternative Ungleichung von Tschebyschev
Sei X eine beliebige Zufallsvariable. Dann
gilt für jede positive Zahl c:
P( |X − E(X)| < c )
= 1 − P( |X − E(X)| ≥ c )
Var(X)
≥ 1−
c2
Also
Var(X)
P( |X − E(X)| < c ) ≥ 1 −
c2
48
Aufgabe 5
Von einer stetigen Zufallsvariablen X sei nur
bekannt, dass sie den Erwartungswert 15 und
die Varianz 4 besitzt.
1. Wie gross ist P (10 ≤ X ≤ 20) mindestens?
2. Bestimmen Sie das kleinste, symmetrisch um
15 gelegene Intervall der Form [15 − c, 15 + c],
in welches mit einer Wahrscheinlichkeit von
mindestens 0.9 die Werte von X fallen.
49
Anwendung der Ungleichung von Tschebyschev: kσ- Bereiche
Frage:
Was liefert uns die Ungleichung von Tschebyschev für spezielle Wahlen der Konstanten c?
Abkürzungen:
µ = E(X)
σ 2 = Var(X)
Wahlen von c:
c = k · σ für k = 1, 2 und 3
Ungleichung:
σ2
1
P( |X − µ| < k · σ ) ≥ 1 − 2 2 = 1 − 2
k ·σ
k
50
1. k = 1, die 1 · σ-Regel
P( |X − µ| < σ ) ≥ 1 − 1 = 0
2. k = 2, die 2 · σ-Regel
1 3
P( |X − µ| < 2 · σ ) ≥ 1 − =
4 4
3. k = 3, die 3 · σ-Regel
1 8
P( |X − µ| < 3 · σ ) ≥ 1 − =
9 9
Herunterladen