18 Bedingte Verteilung

Werbung
§18 Bedingte Verteilung
In diesem Kapitel wollen wir uns mit der Verteilung (Verteilungsdichte, Verteilungsfunktion, Erwartungswert)
einer Zufallsvariablen Z befassen, wenn man über die zusätzliche Information "das Ereignis W' ist bereits
eingetreten" verfügt. Wir werden diesen Begriff - es handelt sich dabei um die bedingte Verteilung - genau
definieren, seine wichtigsten Eigenschaften kennen lernen und anschließend an Hand von Beispielen zeigen, wie
damit gearbeitet wird. Wir befassen uns dabei sowohl mit dem Fall, in dem das Ereignis W ' eine positive
Wahrscheinlichkeit besitzt, als auch mit dem Fall, in dem das Ereignis W ' die Form 8Y = y< besitzt, wobei Y eine
stetige Zufallsvariable ist und dieses Ereignis somit die Wahrscheinlichkeit 0 besitzt.
18.1 Die bedingte Verteilung (der diskrete Fall)
Sei ein W-Maß auf dem Ereignisraum W, sei Z : W Ø eine Zufallsvariable und sei W' Œ W ein Ereignis mit der
Eigenschaft @W 'D > 0.
18.1.1 Definition: Unter der bedingten Verteilung der Zufallsvariablen Z unter W' versteht man eine Abbildung Z W' , welche jeder Menge B Πdie Wahrscheinlichkeit
Z W' @BD = @8Z œ B< W 'D
zuordnet. Die Zahl Z W' @BD gibt somit an, mit welcher Wahrscheinlichkeit durch den Mechanismus Z ein
Wert aus der Menge B erzeugt wird, wenn bekannt ist, dass das Ereignis W' bereits eingetreten ist. Wie die
Verteilung Z ist auch die bedingte Verteilung Z W' ein W-Maß auf .
Wie bei Verteilungen arbeitet man auch bei bedingten Verteilungen wieder mit Verteilungsdichten bzw mit
Verteilungsfunktionen. Wir definieren in diesem Zusammenhang:
18.1.2 Definition: Unter der bedingten Verteilungsdichte Z
die Verteilungsdichte der bedingten Verteilung Z W' von Z
um die Abbildung
@8Z = z< W'D
Z W' : Ø mit Z W' @zD = ;
0
W' der Zufallsvariablen Z unter W' versteht man
unter W'. Ist Z diskret, so handelt es sich dabei
für z œ Z
sonst
Ist Z stetig, so handelt es sich dabei um die Abbildung
Z W' : Ø mit
Z W' @zD „ z = @8Z œ @z, z + „ zD< W 'D
Wegen Bemerkung 13.1.1 bzw Bemerkung 14.4.1 ist die bedingte Verteilung Z W' einer Zufallsvariablen Z
durch ihre bedingte Verteilungsdichte Z W' bereits vollständig bestimmt.
18.1.3 Definition: Unter der bedingten Verteilungsfunktion Z W' der Zufallsvariablen Z unter W' versteht
man die Verteilungsfunktion der bedingten Verteilung Z W' von Z unter W ', also die Abbildung
Z W' : Ø @0, 1D
mit
Z W' @zD = @8Z § z< W 'D
Wegen Bemerkung 15.1.3 ist die bedingte Verteilung Z W' einer Zufallsvariablen Z durch ihre bedingte
Verteilungsfunktion Z W' bereits vollständig bestimmt.
Mit der bedingten Verteilungsdichte Z W' bzw der bedingten Verteilungsfunktion Z W' der Zufallsvariablen Z
unter W' arbeitet man genau so wie mit gewöhnlichen Verteilungsdichten bzw gewöhnlichen Verteilungsfunktionen.
Beispielweise lässt sich damit der bedingte Erwartungswert @Z W'D der Zufallsvariablen Z unter W' definieren:
18_Bedingte_Verteilung.nb
88
18.1.4 Definition: Unter dem bedingten Erwartungswert @Z W 'D einer integrierbaren Zufallsvariablen Z unter
W' versteht man (je nachdem, ob die Zufallsvariable Z diskret bzw stetig ist) die Zahl
@Z W 'D = ⁄ z Z W' @zD bzw @Z W'D = Ÿ
z Z W' @zD „ z
-¶
¶
zœZ
Der bedingte Erwartungswert besitzt ebenfalls die vom gewöhnlichen Erwartungswert bekannten Eigenschaften:
18.1.5 Bemerkung: Sind X, Y und Z beliebige Zufallsvariable, so gilt
a) Linearität: Sind X und Y integrierbar und sind a, b œ , so gilt
@a X + b Y W'D = a @X W'D + b @Y W'D
b) Monotonie: Sind X und Y integrierbar und ist X § Y , so gilt
@X W 'D § @Y W 'D
c) Hintereinanderausführung: Ist g : Ø eine Abbildung und ist die Zufallsvariable g ëZ integrierbar, so
gilt (je nachdem, ob die Zufallsvariable Z diskret bzw stetig ist)
@g ëZ W'D = ⁄ g@zD Z W' @zD bzw @g ëZ W 'D = Ÿ
g@zD Z W' @zD „ z
-¶
¶
zœZ
Von großer Bedeutung für das praktische Rechnen ist wieder der Satz von der totalen Wahrscheinlichkeit:
18.1.6 Satz von der totalen Wahrscheinlichkeit: Ist Z : W Ø eine Zufallsvariable und bilden die Ereignisse
B1 , B2 , …, Bn Œ W ein vollständiges Ereignissystem, so gilt
n
Z = ⁄ Z B @Bi D
i
i=1
und damit
n
n
n
i=1
i=1
i=1
Z = ⁄ Z B @Bi D bzw Z = ⁄ Z B @Bi D bzw @ZD = ⁄ @Z Bi D @Bi D
i
i
wobei bei der letzten Formel natürlich die Integrierbarkeit der Zufallsvariablen Z vorausgesetzt wird.
18.1.7 Bemerkung: Sind Y : W Ø und Z : W Ø diskrete Zufallsvariable, so gilt
Y,Z @y, zD
Z 8Y=y< @zD =
Y @yD
ô
Es folgen wieder einige Beispiele:
18.1.8 Beispiel: Die diskrete Zufallsvariablen X und Y besitzen gemeinsameVerteilungstabelle:
Y\X
2
5
8
0.4
0.15
0.30
0.35
0.8
0.05
0.12
0.03
i) Bestimmen Sie die Verteilungsdichte X HxL und Y HyL;
ii) Bestimen Sie die bedingte Verteilungsdichte X 8Y=0.4< HxL und Y 8X =8< HyL.
iii) Bestimmen Sie die Erwartungswerte [X 8Y = 0.4<] und [Y 8X = 8<].
ô
Lösung:
iL
18_Bedingte_Verteilung.nb
89
X HxL = ‚ p xy ï
xœ X
X
X HxL
2
0.20
5
0.42
8
0.38
Y HyL = ‚ p xy ï
yœY
Y
Y HyL
0.4
0.80
0.8
0.20
iiL
X 8Y=0.4< HxL =
X
X 8Y=0.4< HxL
XY Hx, yL
Y HyL
2
0.1875
ï
5
0.375
8
0.4375
‚ p x y=0.4 = 1
xœ X
Y 8X =8< HyL =
Y
Y 8X =8< HxL
XY Hx, yL
X HxL
0.4
0.9211
ï
0.8
0.0789
‚ p y x=8 = 1
yœY
iiiL
@X 8Y = 0.4<D = ‚ x ÿ p x y=0.4 = 2 ÿ0.1875 + 5 ÿ0.375 + 8 ÿ0.4375 = 5.75
xœ X
@Y 8X = 8<D = ‚ y ÿ p y x=8 = 0.4 ÿ0.9211 + 0.8 ÿ0.0789 = 0.431
yœY
2 × 0.1875 + 5 × 0.375 + 8 × 0.4375
0.4 × 0.9211 + 0.8 × 0.0789
5.75
0.43156
18.1.9 Beispiel (Ruinproblem): Ein Spieler nimmt an einem Glücksspiel teil, bei dem er unabhängig vom
Kapital, über das er gerade verfügt, mit der Wahrscheinlichkeit 1 ê2 einen Euro gewinnen bzw verlieren kann.
Unser Spieler spielt so lange, bis er entweder sein Anfangskapital von a Euro verloren hat oder aber den
Zielbetrag von b (mit b > a) Euro gewonnen hat. Wie lange wird dieser Spieler im Mittel spielen?
ô
Lösung: Es bezeichne Z die Anzahl der Spiele unseres Spielers und X das Kapital, über das der Spieler im Moment
verfügt. Außerdem bezeichne B1 das Ereignis "der Spieler gewinnt das nächste Spiel" und B2 das Ereignis "der
Spieler verliert das nächste Spiel". Für alle n œ und alle k œ 81, 2, …b - 1< gilt dann
@8Z = n< 8X = k<D = @8Z = n< › B1 8X = k<D + @8Z = n< › B2 8X = k<D =
18_Bedingte_Verteilung.nb
90
= @8Z = n< 8X = k< › B1 D @B1 8X = k<D + @8Z = n< 8X = k< › B2 D @B2 8X = k<D
Vergleicht man die beiden Situationen vor und nach dem nächsten Spiel (falls der Spieler derzeit über k Euro
verfügt, das nächste Spiel gewinnen wird und insgesamt noch n Spiele bis zur Entscheidung bestreiten muss, so
entspricht diese Situation offenbar jener Situation, in der der Spieler derzeit über k + 1 Euro verfügt und bis zur
Entscheidung noch n - 1 Spiele bestreiten muss) und berücksichtigt man die Tatsache, dass @B1 8X = k<D = 1 ê2
und @B2 8X = k<D = 1 ê2 gilt, so ergibt sich weiter
@8Z = n< 8X = k<D = … = @8Z = n - 1< 8X = k + 1<D ê2 + @8Z = n - 1< 8X = k - 1<D ê2
Unter Verwendung der Substitution m := n - 1 erhalten wir somit
¶
@Z 8X = k<D = ⁄ n @8Z = n< 8X = k<D =
n=1
=
1 ¶
1 ¶
⁄ n @8Z = n - 1< 8X = k + 1<D +
⁄ n @8Z = n - 1< 8X = k - 1<D
2 n=1
2 n=1
=
1 ¶
1 ¶
⁄ Hm + 1L @8Z = m< 8X = k + 1<D +
⁄ Hm + 1L @8Z = m< 8X = k - 1<D =
2 m=0
2 m=0
=1+
1
1
@Z 8X = k + 1<D + @Z 8X = k - 1<D
2
2
also
@Z 8X = k + 1<D = 2 @Z 8X = k<D - @Z 8X = k - 1<D - 2
Berücksichtigt man die Tatsache, dass @Z 8X = 0<D = 0 gilt, so ergibt sich aus dieser rekursiven Beziehung nach
kurzer Umformung
@Z 8X = k<D = k H@Z 8X = 1<D - k + 1L
Berücksichtigt man noch, dass @Z 8X = b<D = 0 gilt, so folgt daraus unmittelbar die gesuchte Lösung
@Z 8X = a<D = a Hb - aL
18.2 Die bedingte Verteilung (der stetige Fall)
Bisher haben wir die bedingte Wahrscheinlichkeit @A W'D eines Ereignisses A sowie die bedingte Verteilung
Z W' , die bedingte Verteilungsdichte Z W' , die bedingte Verteilungsfunktion Z W' und den bedingten
Erwartungswert @X W'D einer Zufallsvariablen Z nur im Fall @W'D > 0 erklärt. Oft benötigt man die bedingte
Wahrscheinlichkeit eines Ereignisses A sowie die bedingte Verteilung, die bedingte Verteilungsdichte, die bedingte
Verteilungsfunktion und den bedingten Erwartungswert einer Zufallsvariablen Z jedoch auch unter der Bedingung
8Y = y<, wobei Y eine stetige Zufallsvariablen ist und damit @8Y = y<D = 0 gilt.
Im Rahmen der Wahrscheinlichkeitstheorie wurde für die Behandlung der damit zusammenhängenden Fragen eine
eigene, sehr tiefliegende Theorie entwickelt (es handelt sich dabei um die sogenannte RADON-NIKODYMAbleitung von Maßen). Für unsere Zwecke ist die folgende Merkregel (differenzielle Denkweise) aber völlig
ausreichend:
18.2.1 Merkregel: Sei ein W-Maß auf dem Ereignisraum W, sei A Œ W ein Ereignis, Z : W Ø eine
beliebige (integrierbare) und Y : W Ø eine stetige Zufallsvariable. Interpretiert man
@A 8Y = y<D
Z 8Y=y<
als
als
@A 8Y œ @y, y + „ yD<D
Z 8Yœ@y,y+„ yD<
18_Bedingte_Verteilung.nb
8
91
<
8
Z 8Y=y<
Z 8Y=y<
D<
Z 8Yœ@y,y+„ yD<
als
@Z 8Y = y<D
@
Z 8Yœ@y,y+„ yD<
als
@Z 8Y œ @y, y + „ yD<D
als
so führt dies zusammen mit einer differenziellen Interpretation unserer bisherigen Begriffe und Sätze (vor
allem des Satzes von der totalen Wahrscheinlichkeit) stets zu richtigen Aussagen.
ô
Man muss dabei allerdings berücksichtigen, dass die beiden Abbildungen
@A 8Y = †<D : Ø bzw
@Z 8Y = †<D : Ø nur bis auf eine Y -Nullfunktion eindeutig bestimmt sind (unter einer Y -Nullfunktion versteht man dabei eine
Abbildung f : Ø mit der Eigenschaft Y @8 f = 0<D = 1). Aussagen über @A 8Y = y<D bzw @X 8Y = y<D gelten
somit nur für "Y -fast alle" y œ .
Wir wollen diese Vorgangsweise an einigen wichtigen Formeln erläutern:
18.2.2 Bemerkung: Ist Z : W Ø eine integrierbare und Y : W Ø eine stetige Zufallsvariable, so gilt
@@Z 8Y = ä<D ëY D = @ZD
ô
Beweis: Aus Satz 16.1.4 zusammen mit dem Satz von der totalen Wahrscheinlichkeit in differenzieller Form (die
Ereignisse 8Y œ @y, y + „ yD< bilden ein "infinitesimales" vollständiges Ereignissystem) folgt unmittelbar
@@Z 8Y = ä<D ë Y D = Ÿ
¶
@Z 8Y = y<D @8Y œ @y, y + „ yD<D = @ZD
-¶
18.2.3 Bemerkung: Sind Y : W Ø und Z : W Ø stetige Zufallsvariable, so gilt
Y,Z @y, zD
Z 8Y=y< @zD =
Y @yD
ô
Beweis: Wir verwenden die Definition der bedingten Wahrscheinlichkeit in differenzieller Form und erhalten
Z 8Y=y< @zD =
=
@8Z œ @z, z + „ zD< 8Y œ @y, y + „ yD<D
=
„z
Y,Z @y, zD
@8Z œ @z, z + „ zD< › 8Y œ @y, y + „ yD<D
„y
=
@8Y œ @y, y + „ yD<D
„y„z
Y @yD
18.2.4 Bemerkung (Einsetzen einer Bedingung): Sind Y : W Ø und Z : W Ø stetige Zufallsvariable und
ist g : µ Ø eine Abbildung mit der Eigenschaft, dass die Zufallsvariable g@Y , ZD integrierbar ist, so gilt
@g@Y , ZD 8Y = y'<D = @g@y ', ZD 8Y = y'<D
ô
Beweis: Wir verwenden Satz 16.1.4 sowie die aus der differenziellen Interpretation der bedingten Wahrscheinlichkeit folgende Formel
18_Bedingte_Verteilung.nb
92
@A › 8Y œ @y, y + „ yD< 8Y = y '<D = :
@A 8Y = y '<D
0
für y = y'
sonst
und erhalten
@g@Y , ZD 8Y = y'<D = Ÿ-¶ Ÿ-¶ g@y, zD @8Y œ @y, y + „ yD< › 8Z œ @z, z + „ zD< 8Y = y'<D =
¶
¶
= Ÿ-¶ g@y', zD @8Z œ @z, z + „ zD< 8Y = y'<D = @g@y', ZD 8Y = y'<D
¶
18_Bedingte_Verteilung.nb
93
18.2.5 Bemerkung: Sind Y : W Ø und Z : W Ø stetige Zufallsvariable, so gilt für alle z œ Y+Z @zD = Ÿ-¶ Z 8Y=y< @z - yD Y @yD „ y
¶
ô
Beweis: Aus dem Satz von der totalen Wahrscheinlichkeit in differenzieller Form zusammen mit unserer Regel
über das Einsetzen einer Bedingung ergibt sich
Y+Z @zD „ z = @8Y + Z œ @z, z + „ zD<D =
= Ÿ-¶ @8Y + Z œ @z, z + „ zD< 8Y = y<D @8Y œ @y, y + „ yD<D =
¶
= Ÿ-¶ @8Z œ @z - y, z - y + „ zD< 8Y = y<D @8Y œ @y, y + „ yD<D =
¶
= Ÿ-¶ Z 8Y=y< @z - yD „ z Y @yD „ y
¶
18.2.6 Bemerkung: Sind Y : W Ø und Z : W Ø stetige Zufallsvariable und ist Y positiv, so gilt
ZêY @zD = Ÿ
¶
@y zD y Y @yD „ y
0 Z 8Y=y<
ô
Beweis: Aus dem Satz von der totalen Wahrscheinlichkeit in differenzieller Form zusammen mit unserer Regel
über das Einsetzen einer Bedingung ergibt sich wieder (man beachte dabei, dass das Intervall @y z, y z + y „ zD die
Länge y „ z besitzt)
ZêY @zD „ z = @8Z êY œ @z, z + „ zD<D =
¶
@8Z ê Y œ @z, z + „ zD< 8Y = y<D @8Y œ @y, y + „ yD<D =
0
¶
= Ÿ @8Z œ @y z, y z + y „ zD< 8Y = y<D @8Y œ @y, y + „ yD<D =
0
¶
= Ÿ Z 8Y=y< @y zD y „ z Y @yD „ y
0
=Ÿ
Es folgen wieder einige Beispiele:
18.2.7 Beispiel: Gegeben sei die gemeinsame Verteilungsdichte
4 Hx y + x + yL ê 5
für 0 § x § 1 und 0 § y § 1
X ,Y @x, yD = :
0
sonst
der beiden stetigen Zufallsvariablen X und Y. Man bestimme die bedingte Verteilungsdichte X 8Y=y< sowie
den bedingten Erwartungswert @X 8Y = y<D von X unter der Bedingung 8Y = y<.
ô
Lösung: Wir geben zunächst die Funktion X ,Y Mathematica-gerecht ein:
fXY@x_, y_D := Piecewise@884 Hx y + x + yL ê 5, And@0 £ x £ 1, 0 £ y £ 1D<<D
Wegen
Integrate@fXY@x, yD, 8x, -•, •<, 8y, -•, •<D
1
handelt es sich bei der (offensichtlich nicht negativen) Abbildung X ,Y tatsächlich um eine gemeinsame Verteilungsdichte von stetigen Zufallsvariablen. Für die Verteilungsdichte Y von Y, sowie die bedingte Verteilungsdichte
18_Bedingte_Verteilung.nb
94
dichte von stetigen Zufallsvariablen. Für die Verteilungsdichte Y von Y, sowie die bedingte Verteilungsdichte
X 8Y=y< und den bedingten Erwartungswert @X 8Y = y<D von X unter der Bedingung 8Y = y< ergibt sich wegen
Bemerkung 17.3.4, Bemerkung 18.2.3 sowie Definition 18.1.4 zusammen mit unserer Merkregel für alle 0 § y § 1
fY@y_D := Integrate@fXY@x, yD, 8x, -•, •<D
fXunterY@x_, y_D := Piecewise@88fXY@x, yD ê fY@yD, And@0 £ x £ 1, 0 £ y £ 1D<<D
EXunterY@y_D := Integrate@x fXunterY@x, yD, 8x, -•, •<D
fY@yD
fXunterY@x, yD êê Simplify
EXunterY@yD
2
5
H1 + 3 yL 0 ≤ y ≤ 1
2 Hx+y+x yL
1+3 y
2+5 y
3 H1+3 yL
0 ≤ x ≤ 1 && 0 ≤ y ≤ 1
0≤y≤1
also
¶
Y @yD = Ÿ-¶ X Y @x, yD „ x =
2 H1 + 3 yL
5
0
für 0 § y § 1
sonst
sowie für alle 0 § y § 1
X 8Y =y< @xD =
X Y @x, yD
=
Y @yD
2 Hx + y + x yL
3 y+1
0
für 0 § x § 1
sonst
und
5 y+2
¶
@X 8Y = y<D = Ÿ-¶ x X 8Y=y< @xD „ x =
9 y+3
Clear@fXY, fY, fXunterY, EXunterYD
18.2.8 Beispiel: Ein Punkt wird zufällig in den ersten Quadrant des Einheitskreises geworfen. Seine zufälligen
Koordinaten bezeichnen wir mit X und Y. Man bestimme die bedingte Verteilung von Y unter der Bedingung
8X = x<.
ô
Lösung: Bei der gemeinsamen Verteilung X ,Y der beiden Zufallsvariablen X und Y handelt es sich offenbar um
die Gleichverteilung auf dem ersten Quadrant des Einheitskreises, also
X ,Y @x, yD = ;
4 êp
0
für x, y ¥ 0 und x2 + y2 § 1
sonst
Wegen Bemerkung 17.3.4 gilt damit (man veranschauliche sich den Sachverhalt an einer Skizze)
¶
X @xD = Ÿ-¶ X ,Y @x, yD „ y = 4
0
1 - x2 êp
was wegen Bemerkung 18.2.3 für alle 0 § x § 1
für 0 § x § 1
sonst
18_Bedingte_Verteilung.nb
Y 8X =x< @yD =
95
X ,Y @x, yD
X @xD
= 1ê
0
1 - x2
für 0 § y §
sonst
1 - x2
zur Folge hat. Bei der bedingten Verteilung von Y unter der Bedingung 8X = x< handelt es sich also um die Gle-
ichverteilung auf dem Intervall @0,
1 - x2 D.
18.2.9 Beispiel: Sei
4 x y für 0 § x § 1, -x § y § x
X ,Y (x,y)#:
0 sonst
i) Bestimmen Sie 8X 8Y=y<< HxL. Für welche yœ ist diese Vertilungsdichte überhaupt definiert und warum?
ii) Bestimmen Sie [X|{Y=y}].
ô
Lösung: Vgl. Beispiel 17.3.6
X ,Y (x,y)#:
4 x y für 0 § x § 1, -x § y § x
0 sonst
¶ x
x
3
X HxL = Ÿ-¶
XY Hx, yL„ y=Ÿ-x 4 x | y | „ y=8Ÿ0 4 x y „ y=4x für xœ[0,1], 0 sonst;
¶ 1
2
Y HyL = Ÿ-¶
XY Hx, yL„ x=Ÿ y 4 x | y | „ x=2| y |(1-y ) für yœ[-1;1], 0 sonst;
¶ x HxL „ x = 1 x·4x3 „ x =
[X]= Ÿ-¶
Ÿ0
X
4
5
¶
1
0 yÿ 2 yI1 - y2 M „ y=0.
[Y]= Ÿ-¶ y Y HyL „ y = Ÿ-1 y·2| y |(1-y2 )„ y =Ÿ01 y ÿ2 yI1 - y2 M „ y-Ÿ-1
i)
Hx,yL
X 8Y=y< HxL= XY
=
Y HyL
4xy
2x
=
für
2
2 y I1-y M 1-y2
y § x § 1, 0 sonst
definiert für y œ H-1, 1L
ii)
¶ xÿ
1
[X|{Y=y}]=Ÿ-¶
X 8Y=y< HxL „ x=Ÿ y xÿ
2 H1- y L
2x
„ x=
1-y2
3 I1-y2 M
für y œ H-1, 1L
18.2.10 Beispiel: Ein Punkt wird zufällig in das Dreieck ABC mit A(0,0), B(0,1) und C(1,1) geworfen. Seine
zufälligen Koordinaten bezeichnen wir mit X und Y. Man bestimme die bedingte Verteilung und den
bedingten Erwartungswert von X unter der Bedingung {Y=y} sowie die bedingte Verteilung und den bedingten
Erwartungswert von Y unter der Bedingung {X=x}.
ô
18_Bedingte_Verteilung.nb
96
Lösung:
y
B
y+dy
y
C
x
A
x
x x+dx
1
i) 0 § y § 1:
¶ ¶
1 1
Ÿ-¶ Ÿ-¶ XY Hx, yL „ x „ y=Ÿ0 Ÿx c „ x „ y=1 fl c = 2
Hx,yL 2
1
X 8Y=y< HxL = XY
=
=
Y HyL
fl
X 8Y=y< HxL=:
2y
¶ ¶ ¶
(Ÿ-¶
Ÿ-¶ XY Hx, yL „ x „ y=1, Y HyL=Ÿ-¶ XY Hx, yL „ x)
y
1 ê y für 0 § x § y, 0 < y § 1
0 sonst
¶ xÿ
[X|{Y=y}]=Ÿ-¶
X 8Y=y< HxL „ x=Ÿ0 xÿ
y
1
y
„ x=
y
2
ii) 0 § x § 1:
Hx,yL
Y 8X =x< HyL = XY
=
Y 8X =x< HyL=:
X HxL
2
H1-xLê0.5
=
¶ ( X HxL=Ÿ-¶
XY Hx, yL „ y)
1
1-x
1 êH1 - xL für x § y § 1, 0 § x < 1
0 sonst
¶ yÿ
1
[Y|{X=x}]=Ÿ-¶
Y 8X =x< HyL „ y=Ÿx yÿ
1
1-x
„ y=
1+x
2
18.2.11 Beispiel: Sei XY Hx, yL = c y, für (x,y)œD, 0 für (x,y)– D, wobei D von der Kurve y=x2 und der
Gerade y=1 beschränkt wird, die gemeinsame Verteilungsdichte zweier stetiger Zufallsvariablen X und Y.
Bestimmen Sie die Konstante c, die bedingte Verteilungsdichte von X unter der Bedingung {Y=y} und die
bedingte Verteilungsdichte von Y unter der Bedingug {X=x}. Überprüfen Sie, ob die Zufallsvariablen X und
Y unabhängig sind.
ô
Lösung:
y
x
i)
18_Bedingte_Verteilung.nb
97
i)
¶ ¶
Ÿ-¶ Ÿ-¶ XY Hx, yL „ x „ y=1
1 1
Ÿ-1 Ÿ 2 c y „ x „ y = c
x
4
5
=1flc=
5
4
ii)
¶ 1
4
X HxL = Ÿ-¶
XY Hx, yL „ y = Ÿ 2 c y „ y = A1 - x E
c
x
¶ Y HyL = Ÿ-¶
XY Hx, yL „ y=Ÿ
y
-
2
c y „ x=2 c y
y
y
iii)
Hx,yL
1 íJ2
=:
X 8Y=y< HxL = XY
Y HyL
Hx,yL
Y 8X =x< HyL = XY
=:
X HxL
y N für x œ B-
y,
y F, y œ @-1, 1D\80<
0 sonst
2 yë I1 - x4 M für y œ Ax2 , 1E, x œ H-1, 1L
0 sonst
iv) Die Zufallsvariablen X und Y sind abhängig
XY Hx, yL ∫ X HxLY HyL und auch
X 8Y=y< HxL∫ X HxL und Y 8X =x< HyL∫Y HyL
18.2.12 Beispiel (Ein Problem von BAYES): Die Wahrscheinlichkeit eines Ereignisses A sei eine unbekannte
Größe X, von der wir annehmen, dass sie im Intervall @0, 1D gleichverteilt ist. Wie groß ist die
Wahrscheinlichkeit dafür, dass diese Größe X im Intervall @a, bD liegt, wenn bekannt ist, dass das Ereignis A
bei n Versuchen m mal eingetreten ist?
ô
Lösung: Die Zufallsvariable X beschreibe die unbekannte Wahrscheinlichkeit des Ereignisses A, die Zufallsvariable Z bezeichne die Anzahl, wie oft das Ereignis A bei n Versuchen auftritt. Aus der Angabe entnehmen wir, dass
die Zufallsvariable X im Intervall @0, 1D gleichverteilt ist, also X = @80, 1<D gilt, und dass (man vergleiche dazu
die Formel von Bernoulli) unter der Bedingung 8X = x< die Zufallsvariable Z mit den Parametern n und x binomialverteilt ist, also Z 8X =x< = @n, xD gilt.
Unter Verwendung des Satzes von Bayes in differenzieller Form (die Ereignisses 8X œ @x, x + „ xD< bilden ein
"infinitesimales" vollständiges Ereignissystem) ergibt sich damit für die von uns gesuchte bedingte Wahrscheinlichkeit
b
Ÿ @8Z = m< 8X = x<D @8X œ @x, x + „ xD<D
@8X œ @a, bD< 8Z = m<D = a
1
Ÿ 0 @8Z = m< 8X = x<D @8X œ @x, x + „ xD<D
Unter Berücksichtigung von Z 8X =x< = @n, xD und X = @80, 1<D (also @8X œ @x, x + „ xD<D = „ x) gilt weiter
(man vergleiche dazu die Definitionen der Betafunktion und der regularisierten Betafunktion)
b m
n-m „ x
Ÿ x H1 - xL
@8X œ @a, bD< 8Z = m<D = a
= Br @a, b, m + 1, n - m + 1D
1 m
n-m „ x
Ÿ 0 x H1 - xL
18.2.13 Beispiel: Die Zufallsvariable X sei im Intervall @0, 1D gleichverteilt, die Zufallsvariable Y sei im
Intervall @0, X D gleichverteilt (man beachte, dass es sich bei diesem Intervall um ein Intervall mit zufälliger
Länge handelt). Man ermittle die Verteilungsdichte von Y.
ô
Lösung: Die Zufallsvariable Y besitzt offenbar den Träger Y = @0, 1D. Aus der Angabe entnimmt man außerdem
X = @80, 1<D und Y 8X =x< = @80, x<D. Unter Verwendung des Satzes von der totalen Wahrscheinlichkeit in
18_Bedingte_Verteilung.nb
98
8
<
@8
<D
differenzieller Form (die Ereignisses 8X œ @x, x + „ xD< bilden ein "infinitesimales" vollständiges Ereignissystem)
ergibt sich damit für die von uns gesuchte Verteilungsdichte Y @yD (man beachte, dass im Fall x < y natürlich
@8Y œ @y, y + „ yD< 8X = x<D = 0 ist)
Y @yD =
1
1
¶ @8Y œ @y, y + „ yD< 8X = x<D @8X œ @x, x + „ xD<D =
@8Y œ @y, y + „ yD<D =
„y
„ y Ÿ-¶
1 1
„ x = -Log@yD
= Ÿy x
0
für 0 § y § 1
sonst
Dieses Ergebnis erhält man natürlich auch unter Verwendung von Mathematica:
Integrate@PDF@UniformDistribution@80, x<D, yD PDF@UniformDistribution@80, 1<D, xD, 8x, 0, 1<,
Assumptions Æ 80 < y < 1<D
−Log@yD
Herunterladen