Kapitel IV: Zufallsvariable und ihre Vertei

Werbung
Kapitel IV: Zufallsvariable und ihre Verteilung
a)
Zufallsvariable
Einführung:
Für wahrscheinlichkeitstheoretische Untersuchungen spielen Abbildungen zwischen einem Wahrscheinlichkeitsraum (Ω, A, P ) und einem Bildraum (Ω0 , A0 ), der
ein Messraum sein soll, eine zentrale Rolle.
Nehmen wir an, X sei eine Abbildung
X : Ω → Ω0
und auf dem Bildraum (Ω0 , A0 ) liegen Ereignisse A0 vor, für die wir die Wahrscheinlichkeit angeben wollen, dass die Abbildung X ein Ergebnis in A0 liefert.
Dabei setzen wir voraus, dass die Gesamtheit all dieser Ereignisse eine σ-Algebra
A0 bildet.
Die interessierenden Wahrscheinlichkeiten sind dann
P {ω|X(ω) ∈ A0 } mit A0 ∈ A0
Nun muss uns klar sein, dass P (A) nur für A ∈ A definiert ist, so dass wir zur
Angabe der Wahrscheinlichkeit
P {ω|X(ω) ∈ A0 }
das Vorliegen von
X −1 (A0 ) = {ω|X(ω) ∈ A0 } ∈ A
zu fordern haben.
Wir wollen zunächst ganz allgemein diese Forderung auf zwei Messräume (Ω, A), (Ω0 , A0 )
beziehen und definieren:
HST Kapitel IV: Zufallsvariable und ihre Verteilung
DEFINITION 1:
Seien (Ω, A), (Ω0 , A0 ) Messräume und sei X eine Abbildung
X : (Ω, A) → (Ω0 , A0 )
X heißt messbar (A − A0 )-messbar , falls
X −1 (A0 ) ∈ A
∀A0 ∈ A0
Bemerkungen:
• Man spricht oft vereinfacht von X : Ω → Ω0
• Mit
X −1 (A0 ) := {X −1 (A0 )|A0 ∈ A0 }
lässt sich die Messbarkeit von X auch durch
X −1 (A0 ) ⊂ A
definieren.
LEMMA 1:
Seien (Ω, A) und (Ω0 , A0 ) Messräume. Es sei E ⊂ A0 mit A(E) = A0
und X : (Ω, A) → (Ω0 , A0 )
Falls gilt X −1 (E) ⊂ A folgt: X : Ω → Ω0 ist messbar.
Beweis:
Wir haben zu zeigen:
Dazu sei
X −1 (A0 ) ∈ A
∀A0 ∈ A0
H := {A0 ⊂ Ω0 |X −1 (A0 ) ∈ A}.
Da per Vorraussetzung
X −1 (E) = {X −1 (E)|E ∈ E} ⊂ A
folgt
E⊂H
2
3
HST Kapitel IV: Zufallsvariable und ihre Verteilung
Andererseits ist H eine σ-Algebra in Ω0 (Übung)
⇒
H ⊃ A(E) = A0
⇒
A0 ⊂ H
⇒
X −1 (A0 ) ∈ A ∀A0 ∈ A0
Von besonderer Bedeutung sind reellwertige messbare Abbildungen.
Also Abbildungen
X : (Ω, A) ⇒ (R, L).
Dabei wird natürlich R als messbarer Raum mit der Borel σ-Algebra verstanden,
also:
X : (Ω, A) → (R, L).
BEISPIELE:
1. Sei (Ω, A) Messraum und sei A ∈ A. Ist X die sogenannte Indikatorfunktion
(
1 ω∈A
1A (ω) :=
0 ω∈
/A
So ist diese Funktion
X(ω) = 1A (ω) : Ω → R
(A, L) messbar (Übung 3)
2. Ist (Ω, A) Messraum und sind A1 , . . . , An paarweise disjunkt mit
n
[
Ai = Ω
i=1
und sind αi ∈ R, 1 ≤ i ≤ n, so ist
Y :Ω→R
mit
Y (ω) =
n
X
αi 1Ai (ω)
i=1
messbar, denn
Y (ω) =
n
X
i=1
(
αj
αi 1Ai (ω) =
0
ω ∈ Aj für ein j, 1 ≤ j ≤ n
ω∈
/ Aj ∀j, 1 ≤ j ≤ n
⇒ Y −1 (R) = {Aj , Ω, ∅} ⊂ A (Übung 3)
HST Kapitel IV: Zufallsvariable und ihre Verteilung
4
DEFINITION 2:
Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum.
Eine Abbildung X : Ω → R heißt Zufallsvariable (ZV) oder Zufallsgröße (engl.
random variable), falls
X −1 (B) := {ω ∈ Ω|X(ω) ∈ B} =: {X ∈ B} ∈ A ∀B ∈ L
Bemerkungen:
• Streng genommen müsste man schreiben:
X : (Ω, A) → (R, L)
• Def. 2 bedeutet die (A, L)-Messbarkeit von X im Sinne von Def. 1.
• Der Begriff Zufallsvariable hat sich eingebürgert, obwohl es sich eigentlich
um (A, L)-messbare Funktionen handelt.
• Der Begriff Zufallsvariable kann (und wird auch in einigen Büchern) allgemeiner gefasst:
X : (Ω, A) → (Ω0 , A0 )
wobei (Ω0 , A0 ) ein beliebiger Messraum ist.
DEFINITION 3:
Sei (Ω, A, P ) Wahrscheinlichkeitsraum und sei X : (Ω, A) → (R, L) eine Zufallsvariable.
Die Größe
PX (B) := P X −1 (B) = P {ω ∈ Ω|X(ω) ∈ B} =: P (X ∈ B) B ∈ L
heißt Verteilung (Bildmaß) der Zufallsvariablen X.
Bemerkung:
• PX : L → [0, 1]
HST Kapitel IV: Zufallsvariable und ihre Verteilung
5
LEMMA 2:
Für jede Zufallsvariable X wird mit PX ein Wahrscheinlichkeitsmaß auf
(R, L) definiert.
Beweis:
Wir haben die Gültigkeit von Definition 5, Kapitel I zu überprüfen, wobei
Ω = R und A = L ist.
Dazu:
PX (R) = P X −1 (R) = P {ω ∈ Ω|X(ω) ∈ R} = P (Ω) = 1.
Seien Bn paarweise diskjunkt mit Bn ∈ L, n ∈ N.
Dann gilt:
∞
[
PX
!
Bn
(
ω ∈ Ω|X(ω) ∈
= P
n=1
=
∞
[
)!
Bn
n=1
∞
X
↓
Bn p. disj. n=1
∞
X
P {ω ∈ Ω|X(ω) ∈ Bn } =
PX (Bn )
n=1
Wesentlich in Definition 3 ist die Messbarkeit, d.h. die Zufallsvariablen induzieren
auf dem Bild-Messraum (R, L) die Verteilung PX .
Ein mathematisches Modell für Zufallsexperimente ist häufig:
(Ω, A, P )
X
−→
Modelliert alle Zufallseinflüsse, wobei das Wissen
um seine bloße Existenz
ausreicht und detailliertere
Kenntnisse oft nicht erforderlich sind.
(R, L, PX )
(R, L, PX ) ist ebenfalls ein
W-Raum, der die eigentlich interessierenden, beobachteten Größen modelliert.
PX ist oft bekannt. Wir
sprechen von einer Modellierung durch die ZV X mit
der Verteilung PX .
HST Kapitel IV: Zufallsvariable und ihre Verteilung
6
BEISPIEL:
(Ω, A, P ) Wahrscheinlichkeitsraum
PX = PX [a, b)
1
:=
π
Z
a
b
X : Ω → R, B = [a, b) ∈ L
1
dx
=
P
{ω|X(ω)
∈
[a,
b)}
1 + x2
BEISPIEL:
Betrachtet wird ein n-facher Münzwurf, in dem Kopf der 1 und Zahl der 0 entspreche. Die einzelnen Würfe, deren Ausgang unbeeinflusst voneinander sei, liefern
für das Auftreten von Kopf oder Zahl jeweils die Wahrscheinlichkeit 21 .
Mathematisches Modell
Ω =
ω = (x1 , x2 , . . . , xn )| xi ∈ {0, 1}
A = P(Ω)
P {ω} = P {x1 , x2 , . . . , xn } =
n
1
2
Wir interessieren uns für die Anzahl der Einsen bei n Würfen, mithin beschreibe
also die ZV X die Anzahl der Einsen:
X(ω) = X (x1 , x2 , . . . , xn )
=
n
X
xi
i=1
also X : Ω → {0, 1, 2, . . . , n}
Für die Verteilung von X resultiert:
PX ({ω}) = P X −1 ({ω}) = P {ω|X(ω) = k}
!
n
X
= P (X = k) = P (x1 , x2 , . . . , xn )|
xi = k
i=1
=
X
i 3 (x1 ,x2 ,...,xn )|
⇒
Pn
i=1
xi =k
n
1
2
=
↓
Verteilung von k Einsen
auf n Fächer o.W.
n
n
1
P (X = k) =
k
2
0 ≤ k ≤ n.
n 1
n
2
k
HST Kapitel IV: Zufallsvariable und ihre Verteilung
7
Damit ist unsere Modellierung abgeschlossen; es sei noch erwähnt, dass
n
X
P (Ω) = P (X = 0 ∨ X = 1 ∨ . . . ∨ X = n) =
P (X = k)
k=0
=
n X
n
n −n
−n
= 1,
2
= 2
k
k
k=0
n X
k=0
so dass offensichtlich mit f (k) := P (X = k) =
und Satz 2, Kap.I) gegeben ist.
n
k
2−n eine Zähldichte (vgl. Def.6
SATZ 1:
Sei (Ω, A, P ) W-Raum. Sei X eine Abbildung von (Ω, A) auf (Rn , Ln ), n ∈ N.
Dann gilt:
a) X : (Ω, A) → (R, L) ist ZV
⇔
{ω|X(ω) ≤ α} ∈ A ∀α ∈ R
b) Ist X : Ω → R ZV und g : R → R ZV (bzgl. A = L), dann gilt
Y := g◦X = g X(ω)
ZV
c) Ist Ω = R, so ist jede stetige Abbildung X 0 : (R, L) → (R, L) ZV.
Beweis:
[Irle]
LEMMA 3:
Sind X1 , X2 , . . . , Xn Zufallsvariablen mit Xi : (Ω, A) → (R, L) und
α1 , α2 , . . . , αn ∈ R, dann gilt:
Y :=
n
X
αi Xi ;
Z :=
i=1
T := max Xi ;
1≤i≤n
Übung.
αi Xi
i=1
V := min Xi
ebenfalls Zufallsvariablen.
Beweis:
n
Y
1≤i≤n
8
HST Kapitel IV: Zufallsvariable und ihre Verteilung
Betrachtet man eine Folge von Zufallsvariablen X1 , X2 , . . . , Xn mit Xi : Ω0 → R,
so ist gemäß Lemma 3 klar, dass
max Xi
1≤i≤n
und
min Xi
1≤i≤n
ebenfalls messbare Abbildungen von Ω → R, also Zufallsvariablen sind.
Betrachtet man aber:
sup Xn
n∈N
bzw.
inf Xn
,
n∈N
so tritt das Problem auf, dass diese Abbildungen den Wert +∞ bzw. −∞ annehmen können. Es ist daher sinnvoll, das Konzept der Messbarkeit auf
X : Ω → [−∞, ∞] = R ∪ {∞, −∞} =: R
zu erweitern.
DEFINITION 4:
Die σ-Algebra
L := E (L ∪ {∞} ∪ {−∞})
heißt σ-Algebra der Borelschen Mengen auf R.
Ist (Ω, A, P ) ein Wahrscheinlichkeitsraum und X : Ω → R messbar, so spricht
man von einer erweiterten Zufallsvariablen.
Bemerkung:
• Die in R Borelschen Mengen sind also genau die Mengen
B, B ∪ {∞}, B ∪ {−∞}, B ∪ {∞} ∪ {−∞} ∀B ∈ L
SATZ 2:
X ist Zufallsvariable mit X : (Ω, A) → R, L oder X : (Ω, A) → (R, L)
⇔
{ω|X(ω) ≥ α} ∈ A
∀α ∈ R
⇔
{ω|X(ω) > α} ∈ A
∀α ∈ R
⇔
{ω|X(ω) ≤ α} ∈ A
∀α ∈ R
⇔
{ω|X(ω) < α} ∈ A
∀α ∈ R
HST Kapitel IV: Zufallsvariable und ihre Verteilung
9
Beweis:
siehe [Bauer]
SATZ 3:
Sind (Xi )i∈N Zufallsvariable Xi : (Ω, A) → (R, L). Dann sind die Größen
a) sup Xi
inf Xi
\ [
lim sup Xi :=
Xi
i∈N
b)
,
i∈N
n→∞
lim inf Xi :=
n→∞
n∈N i≥n
[
\
Xi
n∈N i≥n
ebenfalls Zufallsvariable mit (Ω, A) → (R, L)
Beweis:
siehe [Bauer]
Zum Abschluss führen wir eine nützliche Begriffsbildung ein:
Wenn E eine Eigenschaft ist, welche die Elemente ω ∈ Ω entweder besitzen oder
aber nicht besitzen, so sagen wir, E bestehe P -fast sicher (f.s.) (im Englischen
almost everywhere a.e.), sofern für eine P -Nullmenge N – d.h. also eine Menge
vom Maße Null – allen ω ∈ N C die Eigenschaft E zukommt.
Wir sagen beispielsweise:
(Xn )n∈N konvergiert f.s. gegen X, falls Xn (ω) → X(ω) (n → ∞) punktweise für
alle ω ∈ Ω mit Ausnahme einer Nullmenge, d.h. mit Ausnahme einer Menge N
mit P (N ) = 0.
10
HST Kapitel IV: Zufallsvariable und ihre Verteilung
b)
Diskrete Verteilungen
DEFINITION 5:
Eine Zufallsvariable X, bzw. deren Verteilung PX heißt diskret, falls eine höchstens abzählbare Menge T = {t1 , t2 , . . .} mit PX (T ) = P (X ∈ T ) = 1 existiert.
T heißt Träger (engl. support) von X bzw. PX .
Aus der Definition 5 ergibt sich unmittelbar
FOLGERUNG 1:
Sei X eine diskrete Zufallsvariable mit Träger T = {t1 , t2 , . . .}.
Dann gilt:
PX ist eindeutig festgelegt durch P (X = ti ) i ∈ N
Beweis:
Sei X eine diskrete ZV mit Träger T = {t1 , t2 , . . .}.
Sei A ∈ L
Dann gilt:
PX (A ∩ T ) = PX (A) + PX (T ) − PX (A ∪ T ) = PX (A) + 1 − 1 = PX (A)
⇒
P (X ∈ A) = PX (A) = PX (A ∩ T ) = PX
∞
[
!
A ∩ {ti }
i=1
=
∞
X
i=1
PX (A ∩ {ti }) =
X
i:ti ∈A
PX {ti }
=
X
P (X = ti )
i:ti ∈A
Bemerkung:
• Mit fX (ti ) = P (X = ti ) ist offenbar eine Zähldichte gegeben. (vgl. Def. 6/I)
11
HST Kapitel IV: Zufallsvariable und ihre Verteilung
BEISPIELE:
1. Geometrische Verteilung
Zähldichte: fX (k) = P (x = k) = (1 − p)k p
Träger: N0 .
k ∈ N0 , 0 < p < 1
Da fX (k) ≥ 0 ∀k ∈ N0 und
X
P {ω}
=
ω∈Ω
∞
X
PX (k) =
k=0
=
∞
X
∞
X
P (X = k) =
k=0
(1 − p)k p = p
k=0
∞
X
fX (k)
k=0
∞
X
(1 − p)k = p
k=0
1
= 1
1−1+p
liegt in der Tat eine Verteilung vor.
Notation: X ist Geo(p)–verteilt mit Parameter n und p.
Auftreten:
Zum Beispiel Münzwurf, Wartezeit bis zum erstmaligen Auftreten von Kopf.
P (X = k) = P ({ω = (x1 , x2 , . . .)|x1 = x2 = . . . = xk = 0, xk+1 = 1})
wobei
xi ∈ {0, 1} Zahl =
b 0, Kopf =
b 1
und
P (xi = 0) = 1 − p
P (xi = 1) = p.
2. Binomialverteilung
n k
Zähldichte: fX = P (X = k) =
p (1 − p)n−k
k
wobei k = 0, 1, . . . , n, p ∈ (0, 1), n ∈ N0 .
Träger: T = {0, 1, 2, . . . , n}.
Sprechweise und Notation: X ist B(n, p) verteilt mit den Parametern n
und p.
12
HST Kapitel IV: Zufallsvariable und ihre Verteilung
Da
n
X
n X
n k
fX (k) =
p (1 − p)n−k = (p + 1 − p)n = 1
k
k=0
k=0
und fX (k) ≥ 0, liegt offenbar eine Verteilung vor.
Anwendung:
Experimente, welche in der unabhängigen n-fachen Wiederholung eines Einzelexperiments mit nur zwei möglichen Ausgängen bestehen, etwa Erfolg
und Misserfolg. Die Binomialverteilung beschreibt dann die Wahrscheinlichkeit für das Auftreten von genau k Erfolgen bei n Versuchsdurchführungen.
3. Hypergeometrische Verteilung
Zähldichte: fX (k) =
M
k
N −M
n−k
N
n
wobei N ∈ N0 ,
0 ≤ M ≤ N,
0 ≤ n ≤ N,
0≤k≤n
Träger: T = {0, 1, 2, . . . , n}.
Notation:
X ist H(N, M, n)–verteilt mit Parameter N, M, n.
Die Bestätigung, dass eine Verteilung vorliegt, gelingt hier durch:
n
n
n M N −M
X
X
N −M
1 X M
k
n−k
= 1
fX (k) =
= N
N
k
n−k
n
n k=0
k=0
k=0
{z
}
|
(Nn )
Anwendung:
Qualitätsprüfung über Stichproben (vgl. Satz 3, II und Übung 1)
4. Poisson Verteilung
Zähldichte: fX (k) = e−λ
λk
wobei k = 0, 1, . . . , n n ∈ N
k!
Träger: T = N0
Notation: X ist P0 (λ)–verteilt mit Parameter λ > 0
∞
X
k=0
fX (k) =
∞
X
k=0
P (X = k) =
∞
X
k=0
e
−λ
∞
X
λk
λk
−λ
= e
= 1
k!
k!
k=0
HST Kapitel IV: Zufallsvariable und ihre Verteilung
c)
13
Verteilungsfunktionen
DEFINITION 6:
Eine Funktion F : R → [0, 1] mit den Eigenschaften
a) F ist monoton steigend
b) lim F (x) = 0, lim F (x) = 1
x→−∞
c)
x→∞
lim F (x) = F (x0 ) (F ist rechtsseitig stetig ∀ x ∈ R)
x→x+
0
heißt Verteilungsfunktion (VF) (engl. distribution function).
SATZ 4:
Sei (Ω, A, P ) Wahrscheinlichkeitsraum und sei X : (Ω, A) → (R, L) Zufallsvariable. Dann gilt:
Durch
FX (x) := P (X ≤ x) ≤ P {ω ∈ Ω|X(ω) ≤ x} = PX (−∞, x] x ∈ R
wird eine Verteilungsfunktion definiert, die Verteilungsfunktion der Zufallsvariablen X bzw. der Verteilung PX .
Beweis:
Wir haben einfach die Bedingungen a) - c) aus Definition 6 nachzuweisen:
zu a)
Seien x ≤ y mit x, y ∈ R
⇒ (−∞, x] ⊂ (−∞, y]
⇒ PX (−∞, x] ≤ PX (−∞, y]
⇒ FX (x) ≤ FX (y)
⇒ FX ist monoton steigend.
14
HST Kapitel IV: Zufallsvariable und ihre Verteilung
zu b)
Sei (xn )n∈N eine monoton fallende Folge mit lim xn = −∞
n→∞
⇒ Die Mengen An := (−∞, xn ] sind absteigend, also An+1 ⊂ An ∀ n ∈ N
⇒ PX lim An = PX lim (−∞, xn ] = PX (∅) = lim PX (−∞, xn ]
n→∞
n→∞
= lim F (xn ) =
n→∞
n→∞
lim FX (x)
x→−∞
⇒ lim FX (x) = 0
x→−∞
Analog sei (xn )n∈N eine monoton steigende Folge mit lim xn = ∞
n→∞
⇒ An := (−∞, xn ] sind aufsteigend, An+1 ⊃ An ∀ n ∈ N
⇒
zu c)
lim FX (x) = lim PX (−∞, xn ] = PX lim (−∞, xn ]
n→∞
x→∞
n→∞
= PX (−∞, ∞) = PX (R) = 1
Sei x0 ∈ R und sei (xn )n∈N eine monoton fallende Folge mit lim xn = x+
0.
n→∞
⇒
lim+ FX (x) = lim FX (xn ) = lim PX (−∞, xn ]
n→∞
x→x0
= PX
n→∞
lim (−∞, xn ]
n→∞
= PX (−∞, x0 ]
= FX (x0 )
und damit ist alles bewiesen.
Ganz wichtig ist die Tatsache, dass Verteilungen auf (R, L) eindeutig durch Verteilungsfunktionen beschrieben werden, denn es gilt:
SATZ 5:
Zwei Zufallsvariable X, Y besitzen dieselbe Verteilung auf (R, L)
⇔
FX (x) = FY (x)
15
HST Kapitel IV: Zufallsvariable und ihre Verteilung
Beweis:
Für uns zu heftig, siehe [Bauer].
LEMMA 4:
Sei F Verteilungsfunktion. Dann existiert genau ein reelles Wahrscheinlichkeitsmaß P derart, dass F die Verteilungsfunktion von PX ist, d.h.
F (x) = PX (−∞, x]
∀x ∈ R.
Beweis:
Siehe [Irle].
LEMMA 5:
Sei X Zufallsvariable mit der Verteilungsfunktion FX (x) = P (X ≤ x) und
a, b ∈ R mit a < b.
Dann gilt:
a) P (a < X ≤ b) = FX (b) − FX (a)
b) P (X = a) = FX (a) − FX (a−) = FX (a) − lim− FX (x).
x→a
c) P (a ≤ X ≤ b) = FX (b) − FX (a−) = FX (b) − lim− FX (x).
x→a
d) P (a < X < b) = FX (b−) − FX (a) = lim− FX (x) − FX (a).
x→b
e) P (a ≤ X < b) = FX (b−) − FX (a−) = lim− FX (x) − lim− FX (x).
x→b
x→a
Beweis:
zu a)
P (a < X ≤ b)
= PX (a, b]
= PX
↓
b>a
= PX ((−∞, b]\(−∞, a])
(−∞, b] − PX (−∞, a]
= P (X ≤ b) − P (X ≤ a) = FX (b) − FX (a).
16
HST Kapitel IV: Zufallsvariable und ihre Verteilung
zu b)
Sei a ∈ R,
an ≤ an+1 < a und an → a (n → ∞).
Dann ist An := (an , a] absteigend, also An+1 ⊂ An
∀n∈N
mit lim An = lim (an , a] = {a}.
n→∞
n→∞
⇒ P (X = a) = PX {a}
= PX
lim (an , a]
n→∞
=
lim PX (an , a]
n→∞
↓
Satz1|I
= lim FX (a) − FX (an ) = FX (a) − FX (a−).
↓ n→∞
a)
zu c)
P (a ≤ X ≤ b)
= PX [a, b] = PX {a} ∪ (a, b]
= PX {a} + PX (a, b]
= FX (a) − FX (a−) + FX (b) − FX (a)
↓
a) & b)
= FX (b) − FX (a−).
zu d)
P (a < X < b)
= PX (a, b) = PX (a, b]\{b}
= PX (a, b] − PX {b}
= FX (b) − FX (a) − FX (b) + FX (b−)
= FX (b−) − FX (a).
zu e)
P (a ≤ X < b)
= PX [a, b) = PX (a, b) ∪ {a}
= PX (a, b) + PX {a} − PX (a, b) ∩ {a}
= FX (b−) − FX (a) + FX (a) − FX (a−)
= FX (b−) − FX (a−).
17
HST Kapitel IV: Zufallsvariable und ihre Verteilung
d)
Verteilungsfunktionen mit Dichten
Im folgenden Abschnitt betrachten wir sogenannte Dichten. Dies sind reellwertige
Funktionen, die nichtnegativ sind und aus denen durch Integration Verteilungsfunktionen gewonnen werden können. Dichten bilden also eine weitere Möglichkeit, Verteilungen zu beschreiben.
DEFINITION 7:
Sei
R ∞ fX : R → [0, ∞) eine uneigentlich Riemann integrierbare Funktion mit
f (x)dx = 1.
−∞ X
Gilt für eine Zufallsvariable X, dass
Z
x
F (x) = FX (x) =
fX (t)dt
,
−∞
so heißt fX Dichte (Dichtefunktion, Verteilungsdichte) (engl. density function,
probability density function) von X bzw. PX . Die Verteilungsfunktion F (x) =
PX , heißt dann absolut stetig.
Bemerkungen:
• Zufallsvariable, deren Verteilungsfunktion F (x) absolut stetig sind, heißen
stetige Zufallsvariablen. Aus absoluter Stetigkeit folgt die Stetigkeit.
• Der Begriff absolut stetig ist ein allgemeiner Begriff in der Mathematik; er
steht für Funktionen G, die sich der Form
Z x
h(t)dt + G(−∞)
G(x) =
−∞
mit Riemann-integrierbarem h schreiben lassen.
• Statt absolut stetig findet man auch total stetig.
• Ist die Dichtefunktion stetig, dann folgt
0
FX (x) = fX (x)
1. FUSA
HST Kapitel IV: Zufallsvariable und ihre Verteilung
18
• Geometrisch kann der Zusammenhang zwischen Dichten und Verteilungsfunktionen wie folgt veranschaulicht werden:
Die Fläche unterhalb des Kurvenverlaufs der Dichte f auf (−∞, x] entspricht dem Funktionswert FX (x).
• Für Dichtefunktion wird auch oft nur f (x) notiert.
• Als Verteilungsfunktion können auftreten
– Treppenfunktionen
– absolut stetige Funktionen
– differenzierbare Funktionen
– Mischungen der drei o.g. Typen
LEMMA 6:
Sei X Zufallsvariable mit Dichte fX und Verteilungsfunktion FX und sei a, b ∈ R
mit a < b. Dann gilt:
a) P (a < X ≤ b) = P (a < X < b) = P (a ≤ X ≤ b)
Z
= P (a ≤ X < b) =
b
fX (t) dt
a
b) P (X = a) = 0
∀ a ∈ R.
Beweis:
Mit Lemma 5 und der Stetigkeit von FX ergibt sich sofort die Behauptung.
(Übung)
HST Kapitel IV: Zufallsvariable und ihre Verteilung
19
BEISPIELE:
1. Die Rechteckverteilung auf [a, b]; a < b;
Form:

1


x ∈ [a, b]
b−a
f (x) =

 0
sonst
=
1
1[a,b] (x)
b−a
a, b ∈ R besitzt eine Dichte der
x∈R
Die Verteilungsfunktion lautet dann:
Z x
Z x
1
f (t)dt =
1[a,b] (t)dt
F (x) =
−∞ b − a
−∞

1

(x − a)
a≤x≤b


b − a
=
0
x≤a




1
x≥b
1
Man beachte, dass die Dichte f˜(x) = b−a
1(a,b) (x) zu derselben Verteilungsfunktion führt. Dichten sind also nicht eindeutig.
Sprechweise: X ist R(a, b)-verteilt mit Parameter a, b.
Die Rechteckverteilung tritt in Situationen auf, in denen ein zufälliger Vorgang Ergebnisse zwischen zwei Werten a und b so liefert, dass jedes mögliche
Ergebnis gleichrangig ist.
2. Die Exponentialverteilung besitzt eine Dichte der Form
f (x) = λe−λx 1[0,∞) (x)
x ∈ R, λ > 0
Die zugehörige Verteilungsfunktion resultiert dann zu:
HST Kapitel IV: Zufallsvariable und ihre Verteilung
x
Z
F (x)
=
Z
−∞
=
=
x
f (t)dt =
(
0
1 − e−λx
20
λe−λt 1[0,∞) (t)dt
−∞
x≤0
x>0
1 − e−λx 1[0,∞) (x).
Sprechweise: X ist Exp(λ) verteilt mit Parameter λ > 0.
Die Exponentialverteilung dient zur Modellierung, bei denen mit Wahrscheinlichkeit 1 nur positive Ergebnisse auftreten.
Anwendungsgebiet: Lebensdauer von technischen Geräten.
3. Die Normalverteilung besitzt die Dichte
f (x) = √
(x−µ)2
1
· e− 2σ2
2π · σ
µ ∈ R, σ > 0
Die Verteilungsfunktion, die sich nicht in geschlossener Form darstellen
lässt, lautet:
Z x
Z x
(t−µ)2
1
f (t)dt = √
F (x) =
·
e− 2σ2 dt
2π · σ −∞
−∞
Die Berechnung von F (x) muss numerisch erfolgen.
Sprechweise:
X ist N (µ, σ 2 )-verteilt mit den Parametern µ ∈ R und σ ∈ R+ .
Ein wichtiger Spezialfall ist die standardisierte Normalverteilung, die vorliegt, falls die Zufallsvariable X N (0, 1)-verteilt ist.
Die Normalverteilung ist die wichtigste Verteilung in der Wahrscheinlichkeitstheorie. In der Modellierung stochastischer Vorgänge wird sie bei der
Beschreibung von Messvorgängen, von Ertragsergebnissen sowie bei wirtschafts- und sozialwissenschaftlichem Datenmaterial eingesetzt.
Darüber hinaus lassen sich mit Hilfe der Normalverteilung Approximationen
für andere – auch diskrete – Verteilungen herleiten. Ein ganz allgemeines
Resultat in diesem Zusammenhang ist der sogenannte Zentrale Grenzwertsatz, den wir noch später kennenlernen werden.
HST Kapitel IV: Zufallsvariable und ihre Verteilung
21
4. Die Logarithmische Normalverteilung (Log-N (µ, σ)-Verteilung) besitzt die
Dichte

1
2
 √1 · e− 2σ2 (ln x−µ)
x>0
σx 2π
f (x) =

0
x≤0
Mit µ ∈ R, σ > 0
⇒ F (x) = √
1
Z
x
1
2
e− 2σ2 (ln t−µ)
dt
t
2πσ 2 0+
Z ln x
1
2
1
= √
e− 2σ2 (t−µ) dt
σ 2π −∞
x>0
Anwendung:
Y = ln(X) ist N (µ, σ 2 )-verteilt. Sinnvoll, falls Zufallsvariablen keine negativen Realisationen annehmen können. Gewichts-Längen-Zähl-Zeitmaße.
Insbesondere bei Zufallsvariablen X, die biologisches Wachstum beschreiben.
5. Gamma-Verteilung
Die Dichtefunktion ist hier gegeben durch:
( β −α α−1 − x
x
e β
x>0
Γ(α)
f (x) =
0
x≤0
wobei α > 0, β > 0 und
Z ∞
Γ(α) :=
xα−1 e−x dx
0
mit Γ(α + 1) = αΓ(α)
α>0
und Γ(1) = 1
sowie Γ(α) = (α − 1)!
falls α ∈ N
Z x
t
β −α
⇒ F (x) =
tα−1 e− β dt
Γ(α) 0
Anwendung / Notation:
ZV ist Γ(α, β)-verteilt.
Anwendung bei Wartezeitprozessen: Frage nach der Verteilung der Wartezeit bis dass α-te Ereignis beobachtet wird. Tritt aus Summe von exponentialverteilten Zufallsvariablen auf.
22
HST Kapitel IV: Zufallsvariable und ihre Verteilung
6. X 2 -Verteilung
Die Dichtefunktion lautet:
 β
 2− 2 x β2 −1 e− x2
Γ( β2 )
f (x) =

0
wobei β > 0 mit
β
2− 2
F (x) =
Γ( β2 )
x
Z
β
x>0
x≤0
t
t 2 −1 e− 2 dt
0+
Anwendung / Notation:
ZV ist X 2 (β)-verteilt. Spezialfall Γ( β2 , 2) einer Gamma-Verteilung.
X 2 -Verteilung ergibt sich aus
X
2
=
n
X
Xi2
i=1
wobei alle Xi 1 ≤ i ≤ n N (0, 1)-verteilt sind.
7. Weibull-Verteilung
Die Dichtefunktion lautet:
(
x α
αβ −α xα−1 e−( β )
f (x) =
0
x>0
x≤0
mit α > 0; β > 0 und
F (x) = αβ
−α
Z
x
t α
tα−1 e−( β ) dt
0
Anwendung / Notation:
ZV X ist wei(α, β)-verteilt.
Anwendung: bei Lebensdauerverteilungen, Alterungsprozessen und Überlebenswahrscheinlichkeiten.
23
HST Kapitel IV: Zufallsvariable und ihre Verteilung
8. Sei X diskrete ZV mit Träger T = {t0 , t1 , . . .} mit t0 < t1 < t2 . . . und der
∞
X
Zähldichte fX (ti ) = pi ≥ 0 und
pi = 1.
i=0
Dann ist:
FX (x)
= P (X ≤ x) =
X
P (X = tk )
k mit
tk ≤x
=
X
fX (tk ) =
k mit
tk ≤x
X
k mit
tk ≤x
pk =
n
X
pk
,
k=0
falls tn ≤ x < tn+1
n = 0, 1, . . . wobei hier formal t0 := −∞
(d.h. p0 = 0) gesetzt wird.
Also eine Treppenfunktion.
Bemerkungen:
• Diskrete ZV besitzen stets Verteilungsfunktionen in Treppenform (unstetig).
• Nichtdiskrete ZV besitzen Verteilungsfunktionen, die stetig sind (daher der
Name).
24
HST Kapitel IV: Zufallsvariable und ihre Verteilung
e)
Stochastische Unabhängigkeit von Zufallsvariablen
DEFINITION 8:
Sei X1 , X2 , . . . , Xn ZV, Xi : Ω → Ωi 1 ≤ i ≤ n wobei auf Xi jeweils die
σ-Algebra Ai vorliegen möge.
X1 , X2 , . . . , Xn heißen stochastisch unabhängig, falls
P (X1 ∈ D1 , X2 ∈ D2 , . . . , Xn ∈ Dn ) =
n
Y
P (Xi ∈ Di )
i=1
für alle Di ∈ Ai
1 ≤ i ≤ n und dem W-Maß P auf (Ωi , Ai , P ).
Bemerkung:
•
P (X1 ∈ D1 , X2 ∈ D2 , . . . , Xn ∈ Dn ) =
n
Y
P (Xi ∈ Di )
i=1
ist äquivalent zu
P
n
\
i=1
!
Xi−1 (Di )
=
n
Y
P (Xi−1 Di ) ∀Di ∈ Ai
i=1
SATZ 6:
Sind X1 , X2 , . . . , Xn s.u. ZV mit Xi : Ω → Ωi
1 ≤ i ≤ n, dann gilt:
0
a) Sind hi : Ωi → Ωi messbare Abbildungen, 1 ≤ i ≤ n, dann sind auch
h1 (X1 ), h2 (X2 ), . . . , hn (Xn ) stochastisch unabhängig.
b) Für beliebige Indexmengen J = {j1 , j2 , . . . , jm } ⊂ {1, 2, . . . , n} sind
XJ1 , XJ2 , . . . , XJm stochastisch unabhängig.
LEMMA 7:
Seien X1 , X2 , . . . , Xn s.u. ZV mit Xi : Ω → Ωi mit Ωi abzählbar 1 ≤ i ≤ n, dann
folgt:
n
Y
P (X1 = x1 , X2 = x2 , . . . , Xn = xn ) =
P (Xi = xi )
i=1
Herunterladen