6.1.8 Wahrscheinlichkeitsverteilung von mehreren Zufallsvariablen

Werbung
44
6.1.8
Wahrscheinlichkeitsverteilung von mehreren Zufallsvariablen
6.1.8.1 Wahrscheinlichkeitsfunktion und -verteilung von zwei Zufallsvariablen
Bislang haben wir uns nur für ein Merkmal der Zufallsexperimente interessiert. Wir wollen
jetzt Zufallsexperimente zulassen, die sich in mehreren Merkmalen unterscheiden. Stellvertretend für eine generelle "mehrdimensionale" Abhandlung wollen wir zunächst Zufallsexperimente mit zwei Merkmalen behandeln. Beobachten oder messen wir zwei Merkmale, so können wir diesen reelle Zahlen zuordnen und dadurch zwei Zufallsvariable X und Y
zuordnen. Diese fassen wir dann zu einer zweidimensionalen Zufallsvariablen (X,Y) zusammen.
Zunächst erklären wir die Begriffe Wahrscheinlichkeitsfunktion, Verteilungsfunktion und
Randverteilung für Zufallsexperimente mit einer diskreten zweidimensionalen Zufallsvariablen.
Die Wahrscheinlichkeit, dass wir bei einem Zufallsexperiment mit zweidimensionalen Zufallsvariablen gleichzeitig die Variablenwerte xi und yk beobachten, beschreiben wir durch
den Ausdruck pik. Als Wahrscheinlichkeitsfunktion formulieren wir dann den folgenden
Ausdruck.
Definition Wahrscheinlichkeitsfunktion einer diskreten, zweidimensionalen Zufallsvariablen
Die Wahrscheinlichkeitsfunktion einer diskreten, zweidimensionalen Zufallsvariablen ist
definiert durch die Funktion:
"pik
$
f(x,y) = #
$0
%
!
für
x = xi und y = yk
#
&
%
. Dabei gilt: " "pik ( = 1.
%
(
'
i $k
für alle übrigen (x,y)
Bevor wir den Begriff einer Verteilungsfunktion für diskrete Zufallsvariable bzw. für stetige
Zufallsvariable spezifizieren, erklären wir zunächst, welche Aussagen wir daraus herleiten
!
wollen.
Jedem Elementarereignis (Merkmal) eines Zufallsexperimentes können wir eine reelle
Zahl zuordnen. Dadurch erweitern wir den Begriff Elementarereignis zum Begriff Zufallsvariable. Natürlich interessiert den Statistiker neben der Frage nach der Wahrscheinlichkeit
eines einzigen Wertes einer zweidimensionalen Zufallsvariablen stets auch die Frage nach
der Wahrscheinlichkeit, dass die Zufallsvariable in einem bestimmten Bereich liegt. Die
Antwort auf solche Fragen soll wie im eindimensionale Fall durch den Begriff der Verteilungsfunktion F(x,y) beschrieben werden. Um sicheren Ereignissen die Wahrscheinlichkeit
1 und unmöglichen Ereignissen die Zahl 0 zuzuordnen, erklären wir F(x,y) so:
F(x,y)=P(-∞<X≤x,-∞<Y≤y) mit
lim F(x,y) = lim F(x,y) = 0
x"#$
und
y"#$
!
!
lim F(x,y) = 1.
x"#
y"#
45
Sind von der Zufallsvariablen Werte gefordert, die zwischen x1≤X≤x2 und y1≤Y≤y2 liegen, so ist die Wahrscheinlichkeit für dieses Ergebnis gegeben durch die Rechteckformel:
P(x1≤X≤x2,y1≤Y≤y2)=F(x2,y2)+F(x1,y1)-F(x1,y2)-F(x2,y1).
Im diskreten Fall werden diese gewünschten Eigenschaften erzielt, wenn wir F(x,y) so definieren.
Definition Wahrscheinlichkeitsfunktion bzw. Wahrscheinlichkeitsverteilung einer
diskreten zweidimensionalen Zufallsvariablen
Die Wahrscheinlichkeitsverteilung einer diskreten zweidimensionalen Zufallsvariablen
(X,Y) lässt sich beschreiben durch die normierte Wahrscheinlichkeitsfunktion:
"pik
x = xi, y = yk
$
f(x,y) = #
für
$0
alle übrigen (x,y)
%
oder durch die zugehörige Verteilungsfunktion
!
F(x,y) =
# # f(x,y) .
xi "x y k "y
In den Formeln bedeutet pik die Wahrscheinlichkeit dafür, dass die zweidimensionale Zufallsvariable (X,Y) den Zufallswert ( xi,yk ) annimmt.
!
Jeder zweidimensionalen Verteilung lassen sich sogenannte Randverteilungen zuord!
nen. Die Randverteilungen
der Zufallsvariablen erhält man, wenn man eine Komponente
der zweidimensionalen Zufallsvariablen
!
festhält, und die Wahrscheinlichkeiten der zweiten, variablen Komponente summiert. Im Fall einer diskreten Verteilung sieht das so aus:
Definition Randverteilung
Die Randverteilungen einer zweidimensionalen Verteilung sind definiert durch:
# p
%" ik
%k
f1( x) = $
% 0
%
&
für
#"p
ik
%
i
%
bzw. f2 (y) = $
% 0
sonst
%
&
x = xi
für y = yk
sonst
Wir veranschaulichen uns die angesprochenen Begriffe an einem Beispiel.
!
Beispiele
1
In einem Behälter sind 6 schwarze, 6 weiße und 6 graue Kugeln. Die Kugeln mit gleicher
Farbe sind durchnumeriert von 1 bis 6. Wir haben also zwei Merkmale: Farbe und Zahl.
Unser Zufallsexperiment heißt: "Ziehen einer numerierten, farbigen Kugel". Wir haben
insgesamt 18 Elementarereignisse mit jeweils zwei Merkmalen. Indem wir den Farben
Schwarz bzw. Weiß bzw. Grau die Zahlen 1 bzw. 2 bzw. 3 zuordnen, erhalten wir 18 unterscheidbare zweidimensionale Zufallsvariable: (1,1); (1,2); (1,3); (1,4); (1,5); (1,6);
46
(2,1); ... ; (2,6); (3,1);...; (3,6), worin die erste Zahl die Farbe beschreibt und die zweite
Zahl die Nummer. Offensichtlich handelt es sich bei der zufälligen Ziehung einer Kugel
um ein Laplace- Experiment, denn alle 18 Zufallsvariablen sind gleichwahrscheinlich.
Die Wahrscheinlichkeitsfunktion für das Ereignis " X=x; Y=y" heißt dann:
"1
$18
$
f(x,y) = P(X = x,Y = y) = #
$0
$%
für
x = 1,2,3;y = 1,2,3,4,5,6
.
für alle anderen Paare (x,y)
Im Bild sieht f(x;y) so aus: Jedem Punkt der x-y-Ebene ist
ein
(Wahrscheinlichkeits-)
Funktionswert zugeordnet. An
den
18
möglichen
Zufallsvariablenwerten
(gelb)
sind diese 0.0555 (blau); an
allen anderen Stellen sind sie
Null.
!
In der Excel Darstellung (Bild
darunter) sind die von Null
verschiedenen 18 Funktionswerte als dünne Säulen dargestellt.
Die Wahrscheinlichkeitsverteilung einer diskreten zweidimensionalen Zufallsvariablen
(X,Y) können wir aus f(x,y) ableiten:
F(x,y) =
# # f(xi,yk ) . Der Wert von F(X=x,Y=y) ist also definiert durch die Summe
xi "x y k "y
!
47
aller Wahrscheinlichkeiten, in denen die diskreten Zufallsvariablen xi und yk gleichzeitig
Werte kleiner gleich x und y annehmen. Z.B ist
6 1
F(2,3) = f(x1,y1) + f(x1,y2 ) + f(x1,y3 ) + f(x2,y1) + f(x2,y2 ) + f(x2,y3 ) =
= .
18 3
In unserem Beispiel heißen die Zufallsvariablen Farbe X={s=1,w=2,g=3} und Zahl
Y={1,2,3,4,5,6} und damit ist F(x,y)=F(Farbe, Zahl).
!
Zahl} "
Farbe
123
#
1 (schwarz)
2 (rot)
3 (gelb)
1
2
1 1
18 9
1
4
9 18
1
1
6
3
3
4
5
6
1 4
5 1
6 18 18 3 Tabelle der Vereilungsfunktion F(X,Y)
1 4
5
2
3 9
9
3
1 2
5
1
2 3
6
!
Bild: Verteilungsfunktion F(x,y)=F(Farbe,Zahl) als Grafik, (Mathematica).
Für die Randverteilungen F1(x) und F2(y) gilt:
6
#
%pi = "pij = pi1 + pi2 + ...+ pi6 = 6 = 1 für x = xi = 1,2,3
FFarbe = F1(x) = $ 1
18 3
j=1
%
für alle übrigen x, und
&0
!
!
3
#
%p j = "pij = p1j + p2j + p3j = 3 = 1 für y = y j = 1,2,3,4,5,6
FZahl = F2 (y) = $ 2
18 6
i=1
%
für alle übrigen y, und
&0
48
2
Eine französische und eine russische Biathlonläuferin kommen gleichzeitig an den letzten Schießstand. Die Französin hat eine Treffsicherheit von 85%, die Russin von 90%.
Wie groß ist die Wahrscheinlichkeit, dass die Französin i- mal und die Russin j- mal treffen, 0≤i, j≤5. Wie groß ist die Wahrscheinlichkeit dass die Russin häufiger, gleich häufig,
weniger häufig trifft als die Französin?
Die Tabelle für die Wahrscheinlichkeiten pf bzw. pr von x Treffern der Französin bzw.
Russin sieht so aus (Binomialverteilung):
i
0
1
2
3
4
5
pr 0.001 0.045 0.810 7.290 32.81 59.05
pf 0.008 0.215 2.438 13.82 39.15 44.37
!
Die Tabelle für die Wahrscheinlichkeiten pf mal pr, mit der gleichzeitig dieFranzösin imal und die Russin j- mal treffen, sieht so aus:
i/ j # 0
1
2
3
4
5
"
0
1
2
3
4
5
!
7 $10%7
2 $10%5
0.0002
0.0014
0.0039
0.0044
3 $10%5
0.0010
0.0110
0.0622
0.1762
0.2000
0.0006
0.0174
0.1975
1.1192
3.1712
3.5940
0.0055
0.1568
1.7776
10.073
28.541
32.346
0.0249
0.7058
7.9993
45.329
128.43
145.56
0.0448
1.2705
14.399
81.593
231.18
262.00
Aus dieser Tabelle berechnen wir die Wahrscheinlichkeit, dass die Russin häufiger, weniger, gleich viel trifft aus
'
(
(
5$ n
5 % i#1
5 % i#1
&
)
'
*
'
#& # pfi " prj ) * 0.385 , $' $ pfi " prj * + 0.215 und $' $ pfi " prj ** + 0.400 .
i=0% j=i+1
i=0& j=0
i=0& j=0
(
)
)
(
!
)
(
!
Bild für die
)
(
!
)
49
Grafik der Wahrscheinlichkeit
für gleichzeitiges Eintreffen von
i Treffern der Französin und j
Treffern der Russin
Wenn wir die
Schusszahl auf
n=50
erhöhen
und die Trefferwahrscheinlichkeit
auf
beispielsweise
pr=55%
und
pf=50% senken,
so
verschiebt
sich der „Wahrscheinlichkeitsturm“ in die
Mitte, (s. Bild).
50
Wir werden jetzt die Begriffe Wahrscheinlichkeitsdichte, Verteilungsfunktion und Randverteilung für Zufallsexperimente mit einer stetigen, zweidimensionalen Zufallsvariablen diskutieren. Wie im diskreten Fall ist das Zufallsexperiment sowohl durch die Wahrscheinlichkeitsdichte wie auch durch die Wahrscheinlichkeitsverteilung eindeutig bestimmt. Im stetigen Fall ist die Wahrscheinlichkeit, daß f einen Wert f(x,y) annimmt, gleich Null, aber offensichtlich deshalb trotzdem nicht unmöglich. Weil aber jeder Wert (x,y) stets die Wahrscheinlichkeit p(x,y) = 0 besitzt, macht es keinen Sinn eine Wahrscheinlichkeitsfunktion zu
definieren, die dann ja überall Null sein müßte. Stattdessen definiert man die Wahrscheinlichkeitsdichte f(x,y) und beschreibt damit die Wahrscheinlichkeit, mit der ein gewisses
Ereignis des Zufallsexperimentes Werte innerhalb des Teilbereichs x1≤X≤x2, y1≤Y≤y2 der
X-Y Ebene liegt. Mathematisch drücken wir das dann so aus:
x2 y 2
" " f(x,y) dydx = P(x1 < X # x2,y1 < Y # y2 ) .
x1 y1
Analog zum zweidimensionalen, diskreten Fall stellen wir die stetige Wahrscheinlichkeitsverteilung mittels f(x,y) so dar.
!
Definition stetige, zweidimensionale Wahrscheinlichkeitsverteilung
Eine stetige, zweidimensionale Wahrscheinlichkeitsverteilung ist so definiert:
x y
F(x,y) =
& & f(",#) d#d"
$%$%
mit
(x y
+
*
lim F(x,y) = lim & & f(",#) d#d"- = 1 .
x'%
x'% *
-,
)$%$%
y'%
y'%
Die Wahrscheinlichkeitsverteilung beschreibt die Wahrscheinlichkeit, mit der eine zweidimensionale Zufallsvariable einen Wert annimmt, bei dem gleichzeitig X≤x und Y≤y ist.
!
Für die stetigen Randverteilungen F1(x) von X und F2(y) von Y gelten:
Definition stetige Randverteilung
Die stetigen Randverteilungen sind so definiert
#
F1(x) =
$ f(x,y) dy
Randverteilung von X
"#
#
F2 (y) =
!
$ f(x,y) dx
"#
Randverteilung von Y
.
Es sind F1(x) die Dichtefunktion der Zufallsvariablen X, F2(y) die Dichtefunktion der Zufallsvariablen Y.
!
Alle Aussagen lassen sich offensichtlich analog in einen höherdimensionalen Fall übertragen. Wir veranschaulichen die eingeführten Begriffe an einem zweiten Beispiel.
51
Beispiel 2
Das zweite Beispiel zeigt eine stetige Dichtefunktion f(X,Y) mit der zweidimensionalen,
normalverteilten Zufallsvariablen (X,Y). Darin wurden die Erwartungswerte µ und die
Streuungen σ an die Binomialverteilung der Biathlonschützinnen (Beispiel 1) mit n=50,
pf=0.5 und pr=0.55 angepasst. Dies ergibt
µ f = n " pf = 50 " 0.5 = 25, µR = n " pr = 50 " 0.55 = 27.5, # f = n " pf (1$ pf ) = 3.5355 und #r = 3.5178 :
!
f(x,y) =
2
2/
,
1 & x%µ f ) & x%µr ) 1
% .(
+
+ (
+
2.-' " f * ' " r * 10
1
e
" f # "r # 2$
=
2
2
1,& x%25 ) & y%27.5 ) /
% .(
+ +(
+ 1
2.-' 3.5355 * ' 3.5178 * 10
1
e
78.146
, % 2 < x < 2,%2 < y < 2.
Die stetige Verteilungsfunktion sieht dann so aus (s. auch das Bild):
!
F(x,y) =
1
78.146
2
2
1)# x"25 & # y"27.5 & ,
( +%
( .
x y " +%
2+*$ 3.5355 ' $ 3.5178 ' .-
0 0e
dydx .
"/"/
Eine geschlossene Form existiert nicht für die Verteilungsfunktion.
!
Grafisch können wir f(x,y) als zweidimensionale Oberfläche im dreidimensionalen Raum darstellen. Im Bild ist zusätzlich ein Rechteck eingezeichnet, das einen gewissen Trefferbereich
<2
x <428
<2
y<
der Wettkämpferinnnen markiert, z.B. der Trefferbereich 18
14
3, 20
14
430
3 . Das Volumen
Französin
Russin
über diesem Rechteck stellt die Wahrscheinlichkeit dar mit der diese Trefferzahlen eintreffen.
Mit Mathematica berechnen wir dafür numerisch:
P(18 < X " 28,20 < Y " 30) =
!
1
78.146
28 30
1
2
2.
1+% x$25
! (* +%' y$27.5 (* 0
$ -'
2-,& 3.5355 ) & 3.5178 ) 0/
1 1 24# e
18 20
dydxy = 0.5795.
52
Die beiden Randverteilungen sind:
f1(x) =
=
1
3.5355 " 3.5178 " 2#
1
3.5355 " 2#
2
2
1+% x$25 ( % y$27.5 ( .
* +'
* 0
1 $ -'
2-,& 3.5355 ) & 3.5178 ) 0/
2e
$1
1% x$25 (2
$ '
*
" e 2 & 3.5355 )
dy
%
(2
1 $ 1 ' y$27.5 *
e 2 & 3.5178 ) dy =
1
2
3.5178 " 2# $1
144444
42444444
3
1
3.5355 " 2#
1 % x$25 (2
$ '
*
" e 2 & 3.5355 )
und
1
!
f2 (y) =
=
1
3.5355 " 3.5178 " 2#
1
3.5178 2#
+
.
1 % x$25 (2 % y$27.5 (2
1 $ 2-'& 3.5355 *) +'& 3.5178 *) 0
0/
,-
2e
$1
2
1 % y$27.5 (
$ '
*
" e 2 & 3.5178 )
dx
%
(2
1 $ 1' x$25 *
e 2 & 3.5355 ) dx =
1
2
3.5355 2# $1
1444442444443
1
3.5178 2#
1% y$27.5 (2
$ '
*
" e 2 & 3.5178 ) .
.
=1
!
Man beachte, dafl f1(x) in der Tat nur von x abh‰ngt, weil die Variable y heraus integriert wird, und dass umgekehrt f2(y) entsprechend nur von y abh‰ngt, weil die Variable x durch die Integration verschwindet.
Das Bild links zeigt die stetige zweidimensionale, normalverteilte Funktion f(x,y)
zusammen mit der diskreten,
zweidimensionalen Binomialverteilung für das Zufallsexperiment: Schießen von
zwei Athletininnen mit n=50
Schuss und der Treffsicherheit von 50% bzw. 55%. Wir
erkennen aus dem Verlauf
der Randverteilungen der
Binomialverteilung dass die
Randverteilungen
der
Gaussfläche, also f1(x) und
f2(y),
eindimensionale
Gausskurven darstellen.
53
6.1.8.2 Stochastisch unabhängige - abhängige Zufallsvariablen
Beobachten wir verschiedene Merkmale an Zufallsexperimenten und erklären dazu durch
die Zuordnung reeller Zahlen die Zufallsvariablen, z.B. X und Y, so können diese beiden
Merkmale voneinander abhängen oder auch unabhängig voneinander sein. Wir überlegen
uns zu jedem Begriff der Abhängigkeit ein Beispiel.
1
Zufallsexperiment: Würfeln mit zwei unterscheidbaren Würfeln
Die Merkmale beim Würfel 1 sind die 6 unterscheidbaren Punktzahlen auf der Würfelfläche. Indem wir die Augenzahlen auf der Würfelfläche des ersten Würfels als Zufallsvariable X und die Augenzahlen auf der Würfelfläche des zweiten Würfels als Zufallsvariable Y einführen, erhalten wir eine zweidimensionale Zufallsvariable (X,Y).
Offensichtlich sind die Ergebnisse der Komponenten X und Y der Zufallsvariablen
(X,Y) voneinander unabhängig. Die gemeinsame Verteilungsfunktion F(x,y) zur zweidimensionalen Zufallsvariable (X,Y) sieht so aus:
F(x,y) =
# #pik
z.B. F(2,3) = p11 + p12 + p13 + p21 + p22 + p23 =
xi "x y k "y
6 1
= .
36 6
Zwei Beispiele der eindimensionalen Verteilungsfunktionen F1(x) bzw. F2(y) sind:
!
12 1
F1(2)=p11+p12+...+p16+p21+p22+ ...+p26=
= und
36 3
!
F2(3)=p11+p21+...+p61+p12+p22+...+ p62+p13 +...+p63=
18 1
= .
36 2
! 1
Offensichtlich gilt: F(2,3)=F1(2)·F2(3)= .
6
Wir definieren aus diesem Beispiel heraus den Begriff!der stochastischen Unabhängigkeit
Definition stochastische Unabhängigkeit von Zufallsvariablen
!
Die Zufallsvariablen X und Y mit den Verteilungsfunktionen F1(x) und F2(y) und der gemeinsamen Verteiungsfunktion F(x,y) heißen stochastisch unabhängig, wenn die Bedingung
F(x,y)=F1(x)·F2(y) für alle (x,y) erfüllt ist.
Als Gegenstück zum Beispiel 1 betrachten wir nun das folgende Beispiel 2.
2
Zufallsexperiment "Roulett (ohne zero)".
Zu diesem Zufallsexperiment können wir zwei eindimensionale Zufallsvariable erklären, X=Zahl, Y=Farbe mit den Merkmalen Rot=0 und Schwarz=1. Für beide Zufallsvariable beschreiben wir problemlos die Verteilungsfunktionen F1(x) und F2(y), worin
x insgesamt 36 diskrete Zahlenwerte annehmen kann und y insgesamt 2 Zahlenwer1
te. Beispielsweise besitzt F1(1) die Wahrscheinlichkeit
und F2(0) die Wahr36
!
54
1
; andererseits besitzt F(1,0) aber die Wahrscheinlichkeit Null und
2
1
nicht die Wahrscheinlichkeit
, weil die Zahl 1 im Roulett eine schwarze Farbe be72
sitzt und somit die Konstellation Zahl 1 und gleichzeitig Farbe Rot unmöglich ist. Es
! auch in diesem Beispiel durchaus Konstellationen in denen die Regel für
gibt aber
stochastische Unabhängigkeit anwendbar ist: F(x,y) = F1(x) " F2 (y) gilt, z.B.
! 1
1
F(18,1) = F1(18) " F2 (1) = "1= . Dennoch sind in diesem Beispiel X und Y nicht sto2
2
chastisch unabhängige Variable, weil die obige Regel nicht für alle x und für alle y gilt.
!
scheinlichkeit
! 6.1.8.3 Maßzahlen von Zufallsvariablen Z, die sich als Summe oder Produkt von
zwei stochastisch unabhängigen Zufallsvariablen X und Y gewinnen lassen
Ausgehend von zwei Zufallsvariabeln können wir weitere neue Zufallsvariable gewinnen.
Im Beispiel des Zufallsexperiments "Würfeln mit zwei unterscheidbaren Würfeln" können
wir aus den Zufallsvariablen X und Y weitere durch Z=X+Y oder Z=X·Y gewinnen. Die
Wahrscheinlichkeitsverteilung der neuen Zufallsvariablen ließe sich dabei anhand der Verteilungsfunktion F(Z) eindeutig beschreiben. Dabei stellt sich die Frage, wie man F(Z) gewinnt und welcher Zusammenhang zwischen den Eigenschaften (Maßzahlen) von F(Z)
einerseits bzw. F(X) und F(Y) andererseits besteht. Wir wollen diese Fragen exemplarisch
am Würfelbeispiel und einem Roulettbeispiel untersuchen.
Offensichtlich sind im Würfelbeispiel für Z=X+Y insgesamt n=11 verschiedene Werte (Zufallsvariable) möglich. Die Wahrscheinlichkeit der einzelnen Werte errechnen wir, indem
wir die Gesamtzahl aller unterscheidbaren Würfelkonstellationen mit zwei Würfeln abzählen (36), und dann für jeden Summenwert z∈Z die Anzahl g von Konstellationen bestimg
men, deren Summe den Wert z ergeben. Der Quotient f(z) = dieser beiden Zahlen defin
niert die Wahrscheinlichkeitsfunktion f(z). Aus f(z) ermitteln wir anschließend auch die
Verteilungsfunktion F(z). Das Ergebnis sieht so aus:
Z
2
3
4
5
6
7
(1,1) (1,2) (1,3) (3,2) (1,5) (1,6)
(2,1) (2,2) (4,1) (2,4) (2,5)
(3,1) (2,3) (3,3) (3,4)
(1,4) (4,2) (4,3)
(5,1) (5,2)
(6,1)
g
1
2
3
4
5
6
1
2
3
4
5
6
f(z)
36 36 36
36
36
36
1
3
6
10
15
21
F(z)
36 36 36
36
36
36
!
!9
8
10
11
12
(2,6) (3,6) (4,6) (5,6) (6,6)
(3,5) (4,5) (5,5) (6,5)
(4,4) (5,4) (6,4)
(5,3) (6,3)
(6,2)
5
5
36
26
36
4
4
36
30
36
3
3
36
33
36
2
2
36
35
36
1
1
36
36
36
Im Roulettbeispiel reduzieren wir wegen der einfacheren Übersicht die Anzahl der Felder
auf 4. Die Zufallsvariablen X (Zahlen 1,2,3,4) sind darin mit den Zufallsvariablen Y (Farben
55
Rot=0 und Schwarz=1) in einer zweidimensionalen Zufallsvariablen (X,Y) so verknüpft:
{(1,1),(2,0),(3,1),(4,0)}. Durch die Zuordnung dieser zweidimensionalen Zufallsvariablen
mittels Summe erhalten wir die Zufallsvariable Z, bestehend aus den Zahlen 2 und 4. Die
Wahrscheinlichkeitsfunktion f(z) und die Verteilungsfunktion F(z) sehen dann so aus, (s.
auch Tafel auf den folgenden Seiten):
"$0.5 für z = 2
"$0
für z < 2
f(z) = #0.5 für z = 4 und F(z) = #0.5 für 2 & z < 4 .
$% 0
$%1
sonst
für z ' 4
Wir wollen nun darstellen, wie die Maßzahlen der Zufallsvariablen Z mit den Maßzahlen
von X und Y zusammenhängen. Dabei wollen wir uns auf Summe Z=X+Y und Produkt
Z=X·Y beschränken, andererseits aber auch den höherdimensionalen Fall mit beschreiben. Wir beginnen mit dem
!
Additionssatz für Mittelwerte
Der Mittelwert einer aus n Zufallsvariablen X1,X2, ... ,Xn gebildeten Zufallsvariablen
Z=X1+X2+...+Xn ist gleich der Summe der Mittelwerte der einzelnen Zufallsvariablen, falls
diese existieren:
E(Z)=E(X1+X2+...+Xn)=E(X1)+E(X2)+...+E(Xn).
Beispiele
1
Würfelbeispiel: Summe Z=X+Y zweier Würfelzahlen X,Y.
X/Y # 1 2 3 4
5
6
1
2 3 4 5
6
7
2
3
4
5
6
3
4
5
6
7
7
8
9
10
11
8
9
10
11
12
"
2
!
4
5
6
7
8
5
6
7
8
9
6
7
8
9
10
Es sind E(X)=3.5 und E(Y)=3.5. Den Mittelwert E(Z)
für Z=X+Y errechnen wir aus der Summe aller
Tabellenwerte dividiert durch deren Anzahl:
E(Z)=7=E(X+Y)=E(X)+E(Y)=3.5+3.5=7.
Damit ist der obige Satz bestätigt.
Im reduzierten Roulettbeispiel mit 4 Elementarereignissen {(1,1),(3,1),(2,0),(4,0)} gilt:
1+ 2 + 3 + 4
0+1 1
= 2.5, E(Y) =
= ,
4
2
2
also E(X) + E(Y) = 3.
X/Y # 1 2 3 4
"
0
2
4
1
2 gilt: 4
Andererseits
4
E(X) =
8
E(Z) = E( X + Y ) = $ (i!" f(i)) + $ ((i # 3) " f(i # 3)) = 1" 0 + 2 "
!
i=1
i=5
1
1
1
1
+ 3" 0 + 4" + 2" + 4" + 5" 0 = 3.
4
4
4
4
Damit ist der Additionssatz auch in diesem Beispiel bestätigt.
!
56
Eine Erweiterung des Additionssatzes für Mittelwerte heißt so:
Für eine aus n Zufallsvariablen X1,X2,...,Xn gebildete Linearform
Z=a1X1+a2X2+...+anXn folgt:
E(Z)=E(a1X1+a2X2+...+anXn)=a1·E(X1)+a2·E(X2)+...+an·E(Xn).
Anstelle der Addition können wir auch die Multiplikation verwenden, um neue Zufallsvariable zu schaffen: Z=X·Y.
Allerdings läßt sich dann eine entsprechende Regel wie oben nicht aufstellen. Generell gilt
nämlich:
E(Z)=E(X·Y)≠E(X)·E(Y).
Sind die Zufallsvariablen X und Y jedoch stochastischer Natur, dann dürfen wir die Additionsregel auf die Multiplikation übertragen und folgenden Sachverhalt formulieren:
Produktsatz für Mittelwerte von stochastisch unabhängigen, diskreten oder stetigen
Zufallsvariablen
Der Mittelwert E(Z)=µZ einer Zufallsvariable Z, die als Produkt aus n stochastisch unabhängigen Zufallsvariablen X1,X2,X3,...,Xn formuliert wurde, ist gleich dem Produkt der
Mittelwerte der einzelnen Zufallsvariablen:
E(X1·X2·X3,...·Xn)=E(X1)·E(X2)·E(X3)·...·E(Xn).
Im Würfelbeispiel haben wir stochastisch unabhängige Zufallsvariable X und Y. Durch die
Produktbildung erhalten wir folgende Zuordnungen:
Wir sehen, daß die Zufallsvariable Z=X·Y insgesamt
X/Y # 1 2 3 4 5 6
18 verschiedene Werte zwischen 1 und 36 annimmt.
"
Einige Werte treten mehrfach auf, z.B. 2 und 3 zwei1
1 2 3 4 5 6
2
2 4 6 8 10 12 mal, 4 dreimal, u.s.w.. Durch Abzählen entwickeln wir
aus der Tabelle die Wahrscheinlichkeitsfunktion und
3
3 6 9 12 15 18 die Verteilungsfunktion. Der Mittelwert E(Z) ist die
4
4 8 12 16 20 24 Summe aller Tabellenwerte dividiert durch die Anzahl
5
5 10 15 20 25 30 der Tabellenwerte: E(Z) = 441 = 49 .
36
4
6
6 12 18 24 30 36
7
und damit E(Z)=E(X·Y)=E(X)·E(Y).
2
!
Im Beispiel Reduziertes Roulett sind die Variablen nicht stoX/Y # 1 2 3 4
chastisch unabhängig. Jetzt erhalten wir aus der Produktbildung
"
0
0
0 nebenstehende
! Tabellenwerte:
Wie im Würfelbeispiel ermitteln wir die Wahrscheinlichkeitsfunkti1
1
3
on f(z) und die Verteilungsfunktion F(z) durch Abzählen der Häufigkeiten. Als Mittelwert errechnen wir:
Andererseits ist der Mittelwert von E(X)=E(Y)=
!
!
57
E(Z) =
1+ 0 + 3 + 0
= 1.
4
Der Mittelwert der Zufallsvariablen X ist E(X)=2.5, der Mittelwert der Zufallsvariablen Y ist
E(Y)=0.5. Danach gilt:
!
1=E(Z)=E(X·Y)≠E(X)·E(Y)=1.25.
Es existiert für stochastisch abhängige Variablen X und Y kein Produktsatz für Mittelwerte.
Einen Satz, der dem Additionssatz für Mittelwerte entspricht, können wir für die Varianzen von Z=X+Y nur herleiten, wenn die Zufallsvariablen X und Y stochastisch unabhängig sind. Ansonsten gilt die etwas kompliziertere Aussage:
Für die Varianz "2Z einer Summe Z=X+Y gilt die Beziehung
"2Z = "2X + "2Y + 2" XY , worin " XY = E(X # Y) $ E(X) # E(Y) die Kovarianz bedeutet.
!
Beispiele
!
1
Würfelbeispiel
!
Die Zufallsvariablen X und Y sind stochastisch unabhängig. Für die Varianzen gilt jetzt:
"2X = 2.916, "2Y = 2.916 und " XY = E(X # Y) $ E(X) # E(Y) = 0 .
! 2
Für die Varianz der Summe gilt: "2Z = 5.83 . Damit ist die Formel für die Varianz bestätigt.
Reduziertes Roulett
Die Zufallsvariablen X und Y sind stochastisch nicht unabhängig. Für die einzelnen Varianzen gilt: "2X = 1.25; "!2Y = 0.25 und " XY = E(X # Y) $ E(X) # E(Y) = 1$1.25 = $ 0.25 .
Für die Varianz der Summe gilt: "2Z = 1.0 . Damit ist die allgemeine Formel für die Varianzen
! bestätigt: 1.0=1.25+0.25-2·0.25 .
Anmerkung
!
Wegen E(X·Y)=E(X)·E(Y) für stochastisch unabhängige Zufallsvariable gilt in diesem Fall:
"2Z = "2X + "2Y .
!
58
6.1.8.3 Stochastisch unabhängige und normalverteilte Zufallsvariable
Seien nun
X1,X2,...,Xn n normalverteilte und stochastisch unabhängige Zufallsvariable
mit den Mittelwerten
E(X1) = µ1, µ 2, ... ,µn und den Varianzen "12,"22 ,...,"2n .
Dann gelten für die Zufallsvariable Z=X1+X2+...+Xn, die wir aus der Addition der einzelnen Zufallsvariablen errechnen, folgende Eigenschaften:
!
1
Z ist gleichfalls normalverteilt.
2
Der Mittelwert von Z ist E(Z)= µ 1+ µ 2+...+ µ n.
3
Die Varianz von Z ist Var( Z) = "2Z = "12 + "22 + ...+ "2n .
Ein wichtiger Sonderfall liegt vor, wenn die stochastisch unabhängigen und normalverteilten Zufallsvariablen Xi denselben Mittelwert µ=µ i und dieselbe Varianz σi besitzen, 1≤i≤ n.
!
Dann hat die normalverteilte Zufallsvariable Z den Mittelwert µ Z = n " µ und die Varianz den
Wert "2Z = n # "2 .
Anmerkung
!
Die Aussagen über Summen von Zufallsvariablen lassen
sich auch auf ihre Linearformen
! übertragen:
Z=a1X1+a2X2+...+anXn.
Beispiele
1
Seien X1,X2,...,Xn n normalverteilte und stochastisch unabhängige Zufallsvariable mit
2
demselben Mittelwert µ und dergleichen Varianz σ . Zu diesen Zufallsvariablen bilden
wir den arithmetischen Mittelwert:
X + X2 + ...Xn 1
1
X= 1
= ( X1 + X2 + ...+ Xn ) = Z .
n
n
n
!
1
Zwischen X und der Summe Z besteht danach der lineare Zusammenhang X = Z .
n
Gemäß den vorhergehenden Anmerkungen gilt dann:
1
1
1
µ!
X = E(X) = E( n Z) = n E(Z) = n nµ = µ
und
# 1 & # 1&2
1
1
"2 = Var(X) = Var% Z( = % ( ) Var(Z) = 2 n"2 = ) "2 .
X
$n ' $n'
n
n
( )
!
!
!
59
Der Ausdruck X besitzt also denselben Mittelwert wie die einzelnen Xi, aber nur den
1
" ten Teil der Varianz. Dieses Ergebnis ist bedeutsam für die Fehler und
n
Ausgleichsrechnung.
2
!
Eine Isolierwand sei aus 10 Schichten Xi, 1≤i≤10, vom Material A und 9 Verbindungsschichten Yi, 1≤i≤ 9, vom Material B zusammengesetzt. Alle Xi und Yi seien dabei voneinander unabhängige, normalverteilte Zufallsgrößen mit den folgenden statistischen
Kenngrößen:
Xi : E( Xi ) = µ Xi = 0.1m, " Xi = 0.025m, 1# i # 10,
Yi : E( Yi ) = µ Yi = 0.02m, " Yi = 0.004m, 1# i # 9.
Gefragt ist nach den Werten µZ=E(Z) und σZ für die Wahrscheinlichkeitsverteilung der
10
!
Dicke Z der gesamten Isolierschicht: Z = " Xi + " Yi :
10
i=1
"2Z
i=1
9
E(Z) = "E(Xi ) +
!
9
10
= Var(Z) = #
i=1
i=1
"E(Yi ) = 10 # E(Xi ) + 9 # E(Yi ) = 10 # 0.1m + 9 # 0.02m = 1.18m ,
i=1
"2X
i
9
+#
i=1
"2Y
i
!
= 10 $ 0.025m + 9 $ 0.004m = 0.286m.
!
Die drei Normalverteilungen f(Xi), rot, f(Yi), blau, und f(Z), magenta.
60
6.1.8.4 Zentraler Grenzwertsatz der Wahrscheinlichkeitsrechnung
Im Abschnitt 6.1.8.3 haben wir aus einer Summe von normalverteilten, stochastisch unabhängigen Zufallsgrößen mit vorgegebenen Verteilungsfunktionen (definiert durch µ und σ)
eine neue normalverteilte Zufallsgröße und deren Verteilungsfunktion berechnet. In der
Praxis werden wir z.B. in der Theorie der Meßfehler mit einer solchen Situation konfrontiert. Ein Meßfehler einer technischen Meßgröße kann als Zufallsgröße aufgefaßt werden,
die sich ihrerseits zusammensetzt aus der Summe vieler voneinander unabhängiger, zufälliger Einzelfehler. Anders als in der theoretischen Abhandlung im letzten Abschnitt ist
die Verteilung der Einzelfehler unbekannt. Der sogenannte Zentrale Grenzwertsatz der
Wahrscheinlichkeitsrechnung gibt uns für die weitere Berechnung solcher praktischer
Probleme die Information, daß wir unter bestimmten Voraussetzungen diese als annähernd normalverteilt betrachten können. Er lautet
Zentraler Grenzwertsatz der Wahrscheinlichkeitsrechnung
Seien X1,X2,...,Xn stochatisch unabhängige Zufallsvariable, die alle die gleiche Vertei2
lungsfunktion mit dem Mittelwert µ und der Varianz σ besitzen. Dann konvergiert die Verteilungsfunktion der Zufallsvariablen
Un =
(X1 + X2 + ...+ Xn ) " nµ
n#$
im Grenzfall n→∞ gegen die Verteilungsfunktion Φ(ξ) der Standardnormalverteilung:
2
!
lim Fn($) = %($) =
n"#
$ 'u
e 2
1
(
2& '#
du .
Dieser Satz besagt:
!
Z " nµ
Für hinreichend großes n ist Un = n
mit Zn = X1 + X2 + ...+ Xn eine annähernd stann#$
dardnormalverteilte Zufallsvariable. Dann ist aber auch Zn = X1 + X2 + ...+ Xn für hinreichend großes n eine annähernd normalverteilte Zufallsvariable mit dem
!
Mittelwert E( Zn) = n " µ und der Varianz Var( Zn) !
= n " #2 .
Wir haben für den Grenzwertsatz vorausgesetzt, daß alle Summanden Xi der gleichen
Verteilungsfunktion
genügen. Wir
! wollen diese vereinfachende Voraussetzung jetzt fallen
!
lassen und stochastisch unabhängige Zufallsvariablen Xi mit verschiedenen Mittel2
werten E(Xi)=µi und verschiedenen Varianzen Var(Xi)= !i zulassen.
Der Additionssatz für stochastisch unabhängige Zufallsvariable Zn=X1+X2+...+Xn ergibt
zwei Aussagen für den Mittelwert µn bzw. die Varianz σn von Zn:
E(Zn) = µ Z = µ1 + µ2 + ... + µn bzw. Var( Zn) = "2Z = "12 + "22 + ...+ "2n .
n
n
!
!
61
Z "µ
Fast immer gilt dann, daß die Verteilungsfunktion Fn(ξ) von Un = n n im Grenzfall
#
n→∞ gegen die Standardnormalverteilung Φ(u) konvergiert:
u2
$
'
1
2 du . Also gilt für hinreichend
!
lim [Fn ($)] = %($) =
e
großes n Faustregel (n > 30):
(
2& '#
n"#
Es ist die Zufallsvariable
!
Z "µ
Un = n
#
annähernd standardnormalverteilt und die Zufallsvariable
Zn=X1+X2+...+Xn
annähernd normalverteilt
Mittelwert E(Zn) = µ = µ1 + µ2 + ...+ µn
!
und der Varianz
mit dem
"2 = "12 + "22 + ...+ "2n .
Beispiele
1
2
!
Messfehler lassen sich als Summe Z einer großen Anzahl von unabhängigen Einzelfeh!
lern Xi formulieren, worin jeder Anteil Xk, 1≤k≤n, nur einen geringen Anteil am Gesamtfehler ausmacht. Dannach kann der Gesamtfehler Z als annähernd normalverteilt betrachtet werden.
Besteht unser Zufallsexperiment aus einer Anzahl n voneinander unabhängiger Stichprobenwerte X1, X2,...,Xn so ist das arithmetische Mittel
X + X2 + ...+ Xn
X= 1
n
eine annähernd normalverteilte Zufallsvariable. DieStichproben
2
haben alle die gleiche Verteilungsfunktion mit dem Mittelwert µ und der Varianz σ .
"2
µ + µ + ...+ µn
Also besitzt X den Mittelwert µ = E(X) = 1 2
und die Varianz Var(X) =
,
n
n
mit "2 = "12 + "22 + ...+ "2n .
!
3
!
a
Mittelwerte
von Zufallszahlen sind ein Werkzeug, um die Theorie der Messwerte in ana!
lytische Berechnungen!zu übertragen und bildlich darzustellen. In!den folgenden Abbildungen wurden 5000 Zufallszahlen zwischen -10 und 10 in drei Varianten ausgewertet:
Wir teilen das Intervall [-10,10] in 20 Teilintervalle und berechnen die absoluten und relativen Häufigkeiten der Stichprobenwerte pro Intervall.
b
Wir gewinnen jeden einzelnen der 5000 Zufallsvariablenwerte als Mittelwerte aus seinerseits n=100 Zufallsgrößen zwischen -10 und 10. Für diesen Stichprobenumfang (s.
Kapitel 6.2) berechnen wir Mittelwert und Standardabweichung. Wir bemerken, dass
sich die Standardabweichung in guter Näherung um den Faktor n = 100 = 10 reduziert hat. Aus dem Bild erkennen wir, dass sich die Stichprobenwerte als GaussNormalkurve darstellen lassen.
c
Wir mitteln die Mittelwerte nochmals, wobei wir den doppelten
Mittelwert aus 100 einfa!
chen Mittelwerten gewinnen. Wir erkennen, dass sich die Standardabweichung gegenüber a um den Faktor
!
n2 = 10000 = 100 reduziert.
62
Das Bild zeigt die Varianten b und c. Offensichtlich können Mittelwerte von Zufallszahlen
generell durch eine Normalverteilung (orangene Kurve) dargestellt werden, s.a. Kapitel 6.2
in dem auch die Variante a dargestellt ist. Die grüne Kurve stellt die Normalverteilung dar,
wenn die Ergebnisse der orangenen Kurve nochmals gemittelt werden.
Herunterladen