2.6 Mehrere Zufallsgrößen Literatur: [Papula Bd. 3, Kap. II.7], [Benning, Kap. 3.4], [Bronstein et al., Kap. 13.2.2.3] Def 1 Zufallsexperimente, in denen gleichzeitig zwei Merkmale X und Y beobachtet werden, führen zu einer zweidimensionalen Wahrscheinlichkeitsverteilung. Die beiden Zufallsgrößen X und Y kann man zu einem Zufallsvektor [X, Y ]T zusammenfassen. Damit entsteht eine neue, vektorwertige Zufallsgröße. Mit P (X ≤ x, Y ≤ y) wird die Wahrscheinlichkeit bezeichnet, dass die Zufallsgröße X einen Wert kleiner oder gleich x und die Zufallsgröße Y gleichzeitig einen Wert kleiner oder gleich y annimmt. Die Verteilung wird vollständig durch die Verteilungsfunktion F (x, y) = P (X ≤ x, Y ≤ y) beschrieben. Die Zufallsgröße [X, Y ]T heißt stetige Zufallsgröße, wenn eine Dichtefunktion f (x, y) existiert, so dass Zx Zy f (u, v) dv du. F (x, y) = −∞ −∞ Die Verteilungen F1 (x) := F2 (y) := lim F (x, y) = P (X ≤ x, Y < ∞) =: P (X ≤ x) y→∞ lim F (x, y) = P (X < ∞, Y ≤ y) =: P (Y ≤ y) x→∞ heißen Randverteilungen zweidimensionalen Zufallsgröße [X, Y ]T . Bsp 2 Wir werfen gleichzeitig eine Münze und einen Würfel und beobachten dabei die Zufallsvariablen X = Anzahl Wappen bei der Münze (0 oder 1), Y = Augenanzahl beim Würfel (1, . . . , 6). Insgesamt gibt es daher 12 mögliche Elementarereignisse, die wir durch eine zweidimensionale (vektorwertige) Zufallsgröße [X, Y ]T beschreiben können. Da es sich um ein Laplace-Experiment handelt, treten alle Elementarereignisse mit der gleichen Wahrscheinlichkeit pij = P (X = i, Y = j) = 1 , 12 i = 0, 1, j = 1, 2, . . . , 6, auf. Daraus kann man die Verteilungsfunktion F (x, y) = P (X ≤ x, Y ≤ y) ableiten, die hier eine Funktion zweier Variablen ist. (Übung: Veranschaulichen Sie die Werte dieser Verteilungsfunktion.) 2.6 – 1 Die Wahrscheinlichkeitsverteilung einer der beiden Zufallsgrößen erhält man als Randverteilungen: P (X = i, Y beliebig) = P (X = i, Y < ∞) = 6 X j=1 P (X beliebig, Y = j) = P (X < ∞, Y = j) = 1 X i=0 1 pij = , 2 1 pij = . 6 Man kann das in diesem Beispiel gut an einer Verteilungstabelle illustrieren: X=0 X=1 X beliebig Y =1 Y =2 Y =3 Y =4 Y =5 Y =6 Y beliebig 1 12 1 12 1 6 1 12 1 12 1 6 1 12 1 12 1 6 1 12 1 12 1 6 1 12 1 12 1 6 1 12 1 12 1 6 1 2 1 2 Satz 3 (Eigenschaften der zweidimensionalen Verteilung) 1. lim F (x, y) = lim F (x, y) = 0. x→−∞ y→−∞ 2. x→∞ lim F (x, y) = 1. y→∞ 3. P (x1 < X ≤ x2 , y1 < Y ≤ y2 ) = F (x2 , y2 )−F (x1 , y2 )−F (x2 , y1 )+F (x1 , y1 ). 4. Ist [X, Y ]T eine diskrete Zufallsgröße, wobei X die Werte x1 , . . . , xm und Y die Werte y1 , . . . , yn annehmen kann, und ist pij := P (X = xi , Y = yj ), dann ist F (x, y) = X X i: xi ≤x j: yj ≤y die zugehörige Verteilungsfunktion. 2.6 – 2 pij Satz 4 (Folgerungen für die eindimensionalen Zufallsgrößen) 1. Ist [X, Y ]T eine diskrete, zweidimensionale Zufallsgröße mit den Wahrscheinlichkeiten pij := P (X = xi , Y = yj ), dann sind X pi∗ := pij (Spaltensumme) j p∗j := X pij (Zeilensumme) i die Wahrscheinlichkeiten der eindimensionalen, diskreten Zufallsgrößen X bzw. Y . 2. Ist [X, Y ]T eine stetige, zweidimensionale Zufallsgröße mit der Wahrscheinlichkeitsdichte f (x, y), dann sind Z∞ f1 (x) := f (x, y) dy, −∞ Z∞ f2 (y) := f (x, y) dx, −∞ die Wahrscheinlichkeitsdichten der eindimensionalen, stetigen Zufallsgrößen X bzw. Y und es gilt für die Randverteilungen Zx F1 (x) = f1 (x) dx, −∞ Zy F2 (y) = f2 (y) dy. −∞ Ü 5 Beim dreimaligen Wurf einer Münze beobachten wir die diskreten Zufallsgrößen X = Anzahl Wappen beim ersten Wurf (0 oder 1), Y = Anzahl Wappen bei drei Würfen (0, . . . , 3). Man bestimme die Wahrscheinlichkeiten pij der zweidimensionalen Zufallsgröße [X, Y ]T und die Wahrscheinlichkeiten pi∗ und p∗j der eindimensionalen Zufallsgrößen X bzw. Y . Man beobachte, dass die für das Eingangsbeispiel gültige Beziehung pij = pi∗ · p∗j hier nicht gilt. Ü 6 Seien [X, Y ]T eine zweidimensionale, diskrete Zufallsgröße, für die pij = pi∗ · p∗j für alle i, j gilt. Man zeige, dass dann für alle (x, y) ∈ R2 die Gleichung F (x, y) = F1 (x) · F2 (y) gilt. 2.6 – 3 Def 7 Die (diskreten oder stetigen) Zufallsvariablen X und Y mit den Verteilungsfunktionen F1 (x) und F2 (y) und der gemeinsamen zweidimensionalen Verteilung F (x, y) heißen stochastisch unabhängig, wenn die Bedingung F (x, y) = F1 (x) · F2 (y) ∀(x, y) ∈ R2 (1) erfüllt ist. Andenfalls heißen die Zufallsvariablen stochastisch abhängig. Bem 8 Die Bedinung (1) bedeutet, dass die beiden Ereignisse X ≤ x“ und ” Y ≤ y“ stochastisch unabhängig sind. ” Folgerung 9 Sind X und Y stochastisch unabhängige, stetige Zufallsgrößen, so gilt für die zugehörigen Dichtefunktionen die Beziehung f (x, y) = f1 (x) · f2 (y) Beweis Die Behauptung folgt aus Satz 4. Details Übung. q.e.d. Def 10 Seien X und Y Zufallsgrößen mit den Erwartungswerten µ1 = E(X) und µ2 = E(Y ). Dann heißt der Vektor µ1 E(X) = µ2 E(Y ) Erwatungswert(vektor) der vektoriellen Zufallsgröße [X, Y ]T . Die Kovarianzmatrix 2 σ11 σ12 σ1 σ12 E[(x − µ1 )2 ] E[(X − µ1 )(Y − µ2 )] = = E[(X − µ1 )(Y − µ2 )] E[(Y − µ2 )2 ] σ21 σ22 σ21 σ22 enthält die Varianzen σi2 für die einzelnen Zufallsgrößen X und Y sowie die Kovarianz σ12 = E[(X − µ1 )(Y − µ2 )] = E(XY ) − µ1 µ2 . Der Korrelationskoeffizient ρ= σ12 E(XY ) − E(X)E(Y ) = p σ1 σ2 Var(X) Var(Y ) ist ein Maß für die Abhängigkeit von X und Y . Gilt für zwei Zufallsgrößen ρ = 0, dann heißen diese unkorreliert. Bem 11 Die Kovarianzmatrix ist symmetrisch, da σ12 = σ21 . Bem 12 Wenn X und Y unabhängig sind, dann ist ρ = 0. Aus ρ = 0 kann man aber nicht auf die Unabhängigkeit schließen. Wenn ρ = ±1 ist, dann sind die Zufallsgrößen X und Y mit Wahrscheinlichkeit 1 linear abhängig, Y = aX + b. Wenn ρ 6= 0, dann sind die Zufallsgrößen abhängig voneinander, aber nicht unbedingt linear abhängig. Wenn zwei Größen voneinander abhängig sind, können Sie zum Beispiel eine gemeinsame Ursache haben. 2.6 – 4 Die bisher behandelte Theorie lässt sich auch auf n Zufallsgrößen ausdehnen. Def 13 Ein Zufallsvektor X = [X1 , X2 , . . . , Xn ]T liegt vor, wenn jedes Elementarereignis darin besteht, dass n Zufallsgrößen X1 , . . . , Xn die n reellen Zahlenwerte x1 , . . . , xn annehmen. Die zugehörige Verteilungsfunktion wird durch F (x1 , . . . , xn ) = P (X1 < x1 , . . . , Xn < xn ) beschrieben. Sie heißt stetig, wenn eine Funktion f (x1 , . . . , xn ) existiert, so dass Zx1 Zx1 ··· F (x1 , . . . , xn ) = −∞ f (t1 , . . . , tn ) dt1 · · · dtn −∞ gilt. Die Funktion f (x1 , . . . , xn ) heißt Dichte der Verteilung. Die Normierungsbedingung lautet Z∞ Z∞ ··· −∞ f (t1 , . . . , tn ) dt1 · · · dtn = 1 −∞ Lässt man einige der Variablen x1 , . . . , xn nach Unendlich streben, so erhält man Randverteilungen, z.B. Fn (xn ) = P (X1 < ∞, . . . , Xn−1 < ∞, Xn ≤ xn ) = lim x1 ,...,xn−1 →∞ F (x1 , . . . , xn ). Die Zufallsgrößen X1 , . . . , Xn sind unabhängig, wenn F (x1 , . . . , xn ) = F1 (x1 ) F2 (x2 ) · · · Fn (xn ) gilt. Ist X eine stetige Zufallsgröße, dann gilt für die zugehörige Dichtefunktion f (x1 , . . . , xn ) = f1 (x1 ) f2 (x2 ) · · · fn (xn ). 2.6 – 5