2.6 Mehrere Zufallsgrößen

Werbung
2.6 Mehrere Zufallsgrößen
Literatur: [Papula Bd. 3, Kap. II.7], [Benning, Kap. 3.4], [Bronstein et al., Kap.
13.2.2.3]
Def 1 Zufallsexperimente, in denen gleichzeitig zwei Merkmale X und Y beobachtet werden, führen zu einer zweidimensionalen Wahrscheinlichkeitsverteilung. Die beiden Zufallsgrößen X und Y kann man zu einem Zufallsvektor
[X, Y ]T zusammenfassen. Damit entsteht eine neue, vektorwertige Zufallsgröße.
Mit P (X ≤ x, Y ≤ y) wird die Wahrscheinlichkeit bezeichnet, dass die Zufallsgröße X einen Wert kleiner oder gleich x und die Zufallsgröße Y gleichzeitig
einen Wert kleiner oder gleich y annimmt.
Die Verteilung wird vollständig durch die Verteilungsfunktion
F (x, y) = P (X ≤ x, Y ≤ y)
beschrieben.
Die Zufallsgröße [X, Y ]T heißt stetige Zufallsgröße, wenn eine Dichtefunktion
f (x, y) existiert, so dass
Zx Zy
f (u, v) dv du.
F (x, y) =
−∞ −∞
Die Verteilungen
F1 (x) :=
F2 (y) :=
lim F (x, y) = P (X ≤ x, Y < ∞) =: P (X ≤ x)
y→∞
lim F (x, y) = P (X < ∞, Y ≤ y) =: P (Y ≤ y)
x→∞
heißen Randverteilungen zweidimensionalen Zufallsgröße [X, Y ]T .
Bsp 2 Wir werfen gleichzeitig eine Münze und einen Würfel und beobachten
dabei die Zufallsvariablen
X = Anzahl Wappen bei der Münze (0 oder 1),
Y
= Augenanzahl beim Würfel (1, . . . , 6).
Insgesamt gibt es daher 12 mögliche Elementarereignisse, die wir durch eine
zweidimensionale (vektorwertige) Zufallsgröße [X, Y ]T beschreiben können. Da
es sich um ein Laplace-Experiment handelt, treten alle Elementarereignisse mit
der gleichen Wahrscheinlichkeit
pij = P (X = i, Y = j) =
1
,
12
i = 0, 1,
j = 1, 2, . . . , 6,
auf. Daraus kann man die Verteilungsfunktion
F (x, y) = P (X ≤ x, Y ≤ y)
ableiten, die hier eine Funktion zweier Variablen ist. (Übung: Veranschaulichen
Sie die Werte dieser Verteilungsfunktion.)
2.6 – 1
Die Wahrscheinlichkeitsverteilung einer der beiden Zufallsgrößen erhält man
als Randverteilungen:
P (X = i, Y beliebig) = P (X = i, Y < ∞) =
6
X
j=1
P (X beliebig, Y = j) = P (X < ∞, Y = j) =
1
X
i=0
1
pij = ,
2
1
pij = .
6
Man kann das in diesem Beispiel gut an einer Verteilungstabelle illustrieren:
X=0
X=1
X beliebig
Y =1
Y =2
Y =3
Y =4
Y =5
Y =6
Y beliebig
1
12
1
12
1
6
1
12
1
12
1
6
1
12
1
12
1
6
1
12
1
12
1
6
1
12
1
12
1
6
1
12
1
12
1
6
1
2
1
2
Satz 3 (Eigenschaften der zweidimensionalen Verteilung)
1.
lim F (x, y) = lim F (x, y) = 0.
x→−∞
y→−∞
2. x→∞
lim F (x, y) = 1.
y→∞
3. P (x1 < X ≤ x2 , y1 < Y ≤ y2 ) = F (x2 , y2 )−F (x1 , y2 )−F (x2 , y1 )+F (x1 , y1 ).
4. Ist [X, Y ]T eine diskrete Zufallsgröße, wobei X die Werte x1 , . . . , xm und
Y die Werte y1 , . . . , yn annehmen kann, und ist
pij := P (X = xi , Y = yj ),
dann ist
F (x, y) =
X
X
i: xi ≤x j: yj ≤y
die zugehörige Verteilungsfunktion.
2.6 – 2
pij
Satz 4 (Folgerungen für die eindimensionalen Zufallsgrößen)
1. Ist [X, Y ]T eine diskrete, zweidimensionale Zufallsgröße mit den Wahrscheinlichkeiten pij := P (X = xi , Y = yj ), dann sind
X
pi∗ :=
pij (Spaltensumme)
j
p∗j
:=
X
pij
(Zeilensumme)
i
die Wahrscheinlichkeiten der eindimensionalen, diskreten Zufallsgrößen X
bzw. Y .
2. Ist [X, Y ]T eine stetige, zweidimensionale Zufallsgröße mit der Wahrscheinlichkeitsdichte f (x, y), dann sind
Z∞
f1 (x) :=
f (x, y) dy,
−∞
Z∞
f2 (y) :=
f (x, y) dx,
−∞
die Wahrscheinlichkeitsdichten der eindimensionalen, stetigen Zufallsgrößen X bzw. Y und es gilt für die Randverteilungen
Zx
F1 (x) =
f1 (x) dx,
−∞
Zy
F2 (y) =
f2 (y) dy.
−∞
Ü 5 Beim dreimaligen Wurf einer Münze beobachten wir die diskreten Zufallsgrößen
X = Anzahl Wappen beim ersten Wurf (0 oder 1),
Y
= Anzahl Wappen bei drei Würfen (0, . . . , 3).
Man bestimme die Wahrscheinlichkeiten pij der zweidimensionalen Zufallsgröße
[X, Y ]T und die Wahrscheinlichkeiten pi∗ und p∗j der eindimensionalen Zufallsgrößen X bzw. Y . Man beobachte, dass die für das Eingangsbeispiel gültige
Beziehung pij = pi∗ · p∗j hier nicht gilt.
Ü 6 Seien [X, Y ]T eine zweidimensionale, diskrete Zufallsgröße, für die pij =
pi∗ · p∗j für alle i, j gilt. Man zeige, dass dann für alle (x, y) ∈ R2 die Gleichung
F (x, y) = F1 (x) · F2 (y) gilt.
2.6 – 3
Def 7 Die (diskreten oder stetigen) Zufallsvariablen X und Y mit den Verteilungsfunktionen F1 (x) und F2 (y) und der gemeinsamen zweidimensionalen
Verteilung F (x, y) heißen stochastisch unabhängig, wenn die Bedingung
F (x, y) = F1 (x) · F2 (y) ∀(x, y) ∈ R2
(1)
erfüllt ist. Andenfalls heißen die Zufallsvariablen stochastisch abhängig.
Bem 8 Die Bedinung (1) bedeutet, dass die beiden Ereignisse X ≤ x“ und
”
Y ≤ y“ stochastisch unabhängig sind.
”
Folgerung 9 Sind X und Y stochastisch unabhängige, stetige Zufallsgrößen, so
gilt für die zugehörigen Dichtefunktionen die Beziehung
f (x, y) = f1 (x) · f2 (y)
Beweis Die Behauptung folgt aus Satz 4. Details Übung.
q.e.d.
Def 10 Seien X und Y Zufallsgrößen mit den Erwartungswerten µ1 = E(X)
und µ2 = E(Y ). Dann heißt der Vektor
µ1
E(X)
=
µ2
E(Y )
Erwatungswert(vektor) der vektoriellen Zufallsgröße [X, Y ]T .
Die Kovarianzmatrix
2
σ11 σ12
σ1 σ12
E[(x − µ1 )2 ]
E[(X − µ1 )(Y − µ2 )]
=
=
E[(X − µ1 )(Y − µ2 )]
E[(Y − µ2 )2 ]
σ21 σ22
σ21 σ22
enthält die Varianzen σi2 für die einzelnen Zufallsgrößen X und Y sowie die
Kovarianz σ12 = E[(X − µ1 )(Y − µ2 )] = E(XY ) − µ1 µ2 .
Der Korrelationskoeffizient
ρ=
σ12
E(XY ) − E(X)E(Y )
= p
σ1 σ2
Var(X) Var(Y )
ist ein Maß für die Abhängigkeit von X und Y . Gilt für zwei Zufallsgrößen
ρ = 0, dann heißen diese unkorreliert.
Bem 11 Die Kovarianzmatrix ist symmetrisch, da σ12 = σ21 .
Bem 12 Wenn X und Y unabhängig sind, dann ist ρ = 0. Aus ρ = 0 kann man
aber nicht auf die Unabhängigkeit schließen.
Wenn ρ = ±1 ist, dann sind die Zufallsgrößen X und Y mit Wahrscheinlichkeit 1 linear abhängig, Y = aX + b. Wenn ρ 6= 0, dann sind die Zufallsgrößen
abhängig voneinander, aber nicht unbedingt linear abhängig.
Wenn zwei Größen voneinander abhängig sind, können Sie zum Beispiel eine
gemeinsame Ursache haben.
2.6 – 4
Die bisher behandelte Theorie lässt sich auch auf n Zufallsgrößen ausdehnen.
Def 13 Ein Zufallsvektor X = [X1 , X2 , . . . , Xn ]T liegt vor, wenn jedes Elementarereignis darin besteht, dass n Zufallsgrößen X1 , . . . , Xn die n reellen
Zahlenwerte x1 , . . . , xn annehmen. Die zugehörige Verteilungsfunktion wird
durch
F (x1 , . . . , xn ) = P (X1 < x1 , . . . , Xn < xn )
beschrieben. Sie heißt stetig, wenn eine Funktion f (x1 , . . . , xn ) existiert, so dass
Zx1
Zx1
···
F (x1 , . . . , xn ) =
−∞
f (t1 , . . . , tn ) dt1 · · · dtn
−∞
gilt. Die Funktion f (x1 , . . . , xn ) heißt Dichte der Verteilung. Die Normierungsbedingung lautet
Z∞
Z∞
···
−∞
f (t1 , . . . , tn ) dt1 · · · dtn = 1
−∞
Lässt man einige der Variablen x1 , . . . , xn nach Unendlich streben, so erhält
man Randverteilungen, z.B.
Fn (xn ) = P (X1 < ∞, . . . , Xn−1 < ∞, Xn ≤ xn ) =
lim
x1 ,...,xn−1 →∞
F (x1 , . . . , xn ).
Die Zufallsgrößen X1 , . . . , Xn sind unabhängig, wenn
F (x1 , . . . , xn ) = F1 (x1 ) F2 (x2 ) · · · Fn (xn )
gilt. Ist X eine stetige Zufallsgröße, dann gilt für die zugehörige Dichtefunktion
f (x1 , . . . , xn ) = f1 (x1 ) f2 (x2 ) · · · fn (xn ).
2.6 – 5
Herunterladen