19 Unabhängige Zufallsvariable

Werbung
§19 Unabhängige Zufallsvariable
In Kapitel 11 haben wir uns bereits mit unabhängigen Ereignissen beschäftigt. In diesem Abschnitt befassen wir
uns nun mit unabhängigen Zufallsvariablen. Dabei werden wir zunächst der Frage nachgehen, wie man die
Unabhängigkeit von Zufallsvariablen an ihrer gemeinsamen Verteilungsdichte bzw ihrer gemeinsamen
Verteilungsfunktion erkennen kann und welche spezielle Eigenschaften unabhängige Zufallsvariable besitzen. An
Hand von zahlreichen Beispielen werden wir dann zeigen, wie sich der Begriff der Unabhängigkeit von
Zufallsvariablen praktisch einsetzen lässt.
Anschließend befassen wir uns mit der Faltung von Verteilungen und zeigen an Hand von Beispielen, welche
Bedeutung dieser Begriff für die Stochastik besitzt. Schließlich gehen wir noch kurz auf die Gesetze der großen
Zahlen ein, welche vor allem für theoretische Überlegungen von Bedeutung sind.
19.1 Unabhängigkeit von Zufallsvariablen
Es liegt nahe, zwei Zufallsvariablen X und Y auf dem W-Raum HW, L dann als unabhängig anzusehen, wenn in
einer Information darüber, welchen Wert die eine Zufallsvariable annimmt, keinerlei Information über das zufällige
Verhalten der anderen Zufallsvariablen enthalten ist - wenn also für alle A, B Œ die Ereignisse 8X œ A< und
8Y œ B< unabhängig sind.
19.1.1 Definition: X , Y , Z1 , Z2 , … seien Zufallsvariablen auf einem beliebigen W-Raum HW, L.
a) Die beiden Zufallsvariablen X und Y heißen unabhängig, falls für alle A, B Œ @8X œ A< › 8Y œ B<D = @8X œ A<D @8Y œ B<D
b) Die Zufallsvariablen Z1 , Z2 , … heißen paarweise unabhängig, falls für alle i ∫ k und alle A, B Œ @8Zi œ A< › 8Zk œ B<D = @8Zi œ A<D @8Zk œ B<D
c) Die Zufallsvariablen Z1 , Z2 , … heißen vollständig unabhängig, falls für jede Auswahl von k œ paarweise
verschiedenen Zufallsvariablen Zi , Zi , …, Zi und alle A1 , A2 , …, Ak Œ 1
2
k
@8Zi œ A1 < › 8Zi œ A2 < › … › 8Zi œ Ak <D = @8Zi œ A1 <D @8Zi œ A2 <D …@8Zi œ Ak <D
1
2
1
2
k
k
Zu dieser Definition sind einige Bemerkungen angebracht:
† Die Unabhängigkeit von Zufallsvariablen geht beim Übergang zu einem anderen W-Maß ' im allgemeinen
verloren. Man spricht deshalb auch von der -Unabhängigkeit.
† Die vollständige Unabhängigkeit der Zufallsvariablen Z1 , Z2 , … zieht ihre paarweise Unabhängigkeit nach sich;
umgekehrt folgt aber aus der paarweisen Unabhängigkeit der Zufallsvariablen Z1 , Z2 , … nicht ihre vollständige
Unabhängigkeit. Ist beispielsweise W = 81, 2, 3, 4<, die Gleichverteilung auf W und ist Z1 = 181,2< , Z2 = 181,3< ,
Z3 = 182,3< (wobei wir mit 1 A die Indikatorfunktion der Menge A bezeichnen), so sind die drei Zufallsvariablen
Z1 , Z2 , Z3 zwar paarweise unabhängig aber nicht vollständig unabhängig.
† Aus obiger Definition folgt unmittelbar: Die Zufallsvariablen Z1 , Z2 , …, Zn sind genau dann vollständig unabhängig sind, wenn für alle A1 , A2 , …, An Œ Z ,Z ,…,Zn @A1 › A2 › … › An D = Z @A1 D Z @A2 D … Zn @An D
1 2
1
2
gilt.
19_Unabhaengige_Zufallsvariable.nb
92
† Die gemeinsame Verteilung Z ,Z ,…,Zn der vollständig unabhängigen Zufallsvariablen Z1 , Z2 , …, Zn ist somit
1 2
durch ihre Marginalverteilungen Z , Z , …, Zn bereits vollständig bestimmt. Wir drücken diese Tatsache
1
2
symbolisch durch die Schreibweise
Z ,Z ,…,Zn = Z µZ µ… µZn
1 2
1
2
aus. Da die (gemeinsame) Verteilung von Zufallsvariablen bekanntlich bereits durch ihre (gemeinsame) Verteilungsfunktion bzw ihre (gemeinsame) Verteilungsdichte vollständig bestimmt ist, folgt aus der letzten Bemerkung die für
praktische Beispiele wichtige Erkenntnis
19.1.2 Bemerkung: Die Zufallsvariablen Z1 , Z2 , …, Zn sind genau dann vollständig unabhängig, wenn ihre
gemeinsame Verteilungsfunktion gleich dem Produkt der Marginalverteilungsfunktionen ist, wenn also für alle
z1 , z2 , …, zn œ Z ,Z ,…,Zn @z1 , z2 , …, zn D = Z @z1 D Z @z2 D … Zn @zn D
1 2
1
2
gilt. Sind die Zufallsvariablen Z1 , Z2 , …, Zn diskret bzw stetig, so sind sie genau dann vollständig unabhängig, wenn ihre gemeinsame Verteilungsdichte gleich dem Produkt der Marginalverteilungsdichten ist, also
für alle z1 , z2 , …, zn œ Z ,Z ,…,Zn @z1 , z2 , …, zn D = Z @z1 D Z @z2 D … Zn @zn D
1 2
1
2
gilt.
Wir fassen die wichtigsten Eigenschaften von unabhängigen Zufallsvariablen in einem Satz zusammen:
19.1.3 Satz:
Familieneigenschaft: Sind die Zufallsvariablen Z11 , …, Z1 n ; …; Zk 1 , …, Zk n vollständig unabhängig, so
1
k
sind auch die Zufallsvariablen
X1 = g1 @Z11 , …, Z1 n1 D, …, Xk = gk @Zk 1 , …, Zk n D
k
vollständig unabhängig.
Multiplikationssatz: Sind die Zufallsvariablen X und Y unabhängig und integrierbar, so gilt
@X Y D = @X D @Y D
Summenregel: Für paarweise unabhängige, quadratisch integrierbare Zufallsvariable Z1 , Z2 , …, Zn gilt
@Z1 + Z2 + … + Zn D = @Z1 D + @Z2 D + … + @Zn D
Einsetzen einer Bedingung: Ist die Zufallsvariable Y von den Zufallsvariablen Z1 , Z2 , …, Zn unabhängig, so
gilt für alle Abbildungen g : n+1 Ø und alle Mengen B Œ @8g@Y , Z1 , Z2 , …, Zn D œ B< 8Y = y<D = @8g@y, Z1 , Z2 , …, Zn D œ B<D
Ist außerdem die Zufallsvariable g@Y , Z1 , Z2 , …, Zn D integrierbar, so gilt
@g@Y , Z1 , Z2 , …, Zn D 8Y = y<D = @g@y, Z1 , Z2 , …, Zn DD
ô
”
Beweis: a) Unter Verwendung der Schreibweise zi = 8zi 1 , …, zi n < gilt wegen Bemerkung 19.1.2 (wir beschränken
uns auf den diskreten Fall) für alle x = 8x1 , …, xk < œ X ,…,X
1
k
i
X ,…,X @x1 , …, xk D = @8X1 = x1 < › … › 8Xk = xk <D =
1
k
”
”
= @H ‹ 88Z11 , …, Z1 n < = z1 <L › … › H ‹ 88Zk 1 , …, Zk n < = zk <LD =
1
”
”
k
z
z
1
g@z”1 D=x1
k
g@z”k D=xk
19_Unabhaengige_Zufallsvariable.nb
⁄
…
⁄
…
=
”
z1
g@z”1 D=x1
=
”
z1
”
g@z1 D=x1
=H
93
@z , …, z1 n ; … ; zk 1 , …, zk n D =
⁄ Z11 ,…,Z1 n ; … ;Z ,…,Z
1
”
k1
k nk 11
k
1
zk
”
g@zk D=xk
@z
D=
⁄ Z11 @z11 D …Z1 n @z1 n1 D …Z @zk 1 D …Z
”
k1
k nk k nk
1
zk
g@z”k D=xk
@z
DL = X @x1 D … X @xk D
⁄ Z11 @z11 D …Z1 n @z1 n1 DL …H ⁄ Z @zk 1 D …Z
1
”
”
k1
k nk k nk
k
1
z1
zk
”
”
g@z1 D=x1
g@zk D=xk
b) Wegen Satz 17.5.1 und Bemerkung 19.1.2 gilt (wir beschränken uns auf den stetigen Fall)
@X Y D = Ÿ-¶ Ÿ-¶ x y X ,Y @x, yD „ x „ y = Ÿ-¶ Ÿ-¶ x y X @xD Y @yD „ x „ y =
¶
¶
¶
¶
¶ x @xD „ xL H ¶ y @yD „ yL = @X D @Y D
= HŸ-¶
Ÿ-¶
X
Y
c) Aus dem Multiplikationssatz folgt unmittelbar (wir beschränken uns auf den Fall n = 2)
@X + Y D = @HX + Y L2 D - @X + Y D2 =
= @X 2 D + 2 @X Y D + @Y 2 D - @X D2 - 2 @X D @Y D - @Y D2 =
= @X 2 D - @X D2 + @Y 2 D - @Y D2 = @X D + @Y D
d) Wegen Bemerkung 18.2.4 (wir beschränken uns auf den stetigen Fall) und der Tatsache, dass die Zufallsvariablen Y und g@y, Z1 , Z2 , …, Zn D unabhängig sind, gilt
@g@Y , Z1 , Z2 , …, Zn D 8Y = y<D = @g@y, Z1 , Z2 , …, Zn D 8Y = y<D = @g@y, Z1 , Z2 , …, Zn DD
Wendet man dieses Ergebnis auf die (natürlich integrierbare) Indikatorfunktion 18g@Y,Z ,Z ,…,Zn DœB< an, so folgt
1 2
daraus die erste Aussage.
Zu diesem Satz ist zu bemerken:
19_Unabhaengige_Zufallsvariable.nb
94
19.1.4 Bemerkung: Sind die Zufallsvariablen X und Y integrierbar und unabhängig, so folgt aus dem Multiplikationssatz sofort
@X , Y D = @X Y D - @X D @Y D = 0
Unabhängige Zufallsvariablen sind somit stets unkorreliert. Umgekehrt sind aber unkorrelierte Zufallsvariablen nicht notwendig unabhängig!
ô
19.2 Beispiele
An Hand von Beispielen zeigen wir wieder die vielfältigen Einsatzmöglichkeiten des Begriffs der Unabhängigkeit
von Zufallsvariablen. Dabei geht es meistens nicht darum, die Unabhängigkeit von Zufallsvariablen nachzuweisen.
Vielmehr kann in der Praxis oft auf Grund einer inhaltlichen Interpretation der auftretenden Zufallsvariablen darauf
geschlossen werden, dass diese Zufallsvariablen unabhängig sind.
19.2.1 Beispiel: In einem Friseurgeschäft arbeiten vier Gesellen. Eine Rasur dauert stets genau 10 Minuten.
Jemand betritt das Geschäft und sieht, dass alle vier Gesellen arbeiten und noch zwei Kunden auf warten. Wie
lange muss dieser neue Kunde daher im Mittel auf Bedienung warten?
ô
Lösung: Für jedes i œ 81, 2, 3, 4< gebe die Zufallsvariable Zi an, wie lange der i-te Geselle noch mit seinem
Kunden zu tun hat. In erster Näherung darf man annehmen, dass die Zufallsvariablen Z1 , Z2 , Z3 , Z4 vollständig
unabhängig und im Intervall @0, 10D gleichverteilt sind. Bezeichnet X die Wartezeit des neuen Kunden auf Bedienung, so gilt für alle 0 § x § 10 (die Zufallsvariable X besitzt den Träger X = @0, 10D)
4
4
4
i=1
j=1
i=1
i∫ j
X @xD = @8X § x<D = @H › 8Zi § x<L ‹ ‹ H8Z j > x< › › 8Zi § x<LD =
4
4
4
i=1
j=1
i=1
i∫ j
= ¤ @8Zi § x<D + ⁄ H@8Z j > x<D ¤ @8Zi § x<LD =
x3 H10 - xL 40 x3 - 3 x4
x4
+
4
=
104
104
104
Für den gesuchten Erwartungswert @X D = Ÿ-¶ x X @xD „ x gilt damit
¶
Integrate@x D@H40 x3 − 3 x4 L ê 104 , xD, 8x, 0, 10<D
6
(Man beachte: Bei der Wartezeit X des neuen Kunden auf Bedienung handelt es sich um die dritte Ordnungsstatistik Z3* der Zufallsvariablen Z1 , Z2 , Z3 , Z4 . Die Verteilungsdichte X von X hätte man daher auch unter Verwendung der in Beispiel 19.2.6 ermittelten Formel berechnen können.)
19.2.2 Beispiel: Wir betrachten zwei elektronische Geräte: Das eine besteht in der Serienschaltung, das
andere in der Parallelschaltung von jeweils n gleichartigen Komponenten. Unter der Annahme, dass die
einzelnen Komponenten vollständig unabhängig voneinander ausfallen und ihre Lebensdauern mit dem
Parameter l exponentialverteilt sind (wir werden später sehen, dass diese Annahme für die Verteilung der
Lebensdauer von elektronischen Bauteilen gerechtfertigt ist), bestimme man die Verteilungsfunktion und den
Erwartungswert der Lebensdauer dieser beiden Geräte.
ô
19_Unabhaengige_Zufallsvariable.nb
95
Lösung: Es bezeichne X die Lebensdauer der Serienschaltung, Y die Lebensdauer der Parallelschaltung und Zi die
Lebensdauer der i-ten Komponente.
Z1
Z1
X
Z2
Z2
Zn
Y
ª
Zn
a) Aus der Angabe entnimmt man, dass die Zufallsvariablen Z1 , Z2 , …, Zn vollständig unabhängig und mit dem
Parameter l exponentialverteilt sind. Beachtet man, dass die Serienschaltung bereits dann ausfällt, wenn eine
einzige Komponente ausfällt, so ergibt sich für die Verteilungsfunktion X @xD der Lebensdauer X der Serienschaltung unter Verwendung der Siebformel von Sylvester
n
X @xD = @8X § x<D = @8Min@Z1 , Z2 , …., Zn D § x<D = @ ‹ 8Zi § x<D =
i=1
n
= 1 - ¤ H1 - @8Zi § x<DL = 1 - ‰-n l x
i=1
Die Zufallsvariable X ist damit offenbar @n lD verteilt.
b) Beachtet man dass die Parallelschaltung erst dann ausfällt, wenn die letzte Komponente ausfällt, so ergibt sich
für die Verteilungsfunktion Y @yD der Lebensdauer Y der Parallelschaltung (man beachte, dass es sich bei der
Verteilung der Zufallsvariablen Y um keine der in Mathematica implementierten Verteilungen handelt)
n
Y @yD = @8Y § y<D = @8Max@Z1 , Z2 , …., Zn D § y<D = @ › 8Zi § y<D =
i=1
n
= ¤ @8Zi § y<D = H1 - ‰-l y Ln
i=1
c) Die Berechnung des Erwartungswerts @X D der Serienschaltung ist einfach; man muss dazu lediglich den
Erwartungswert einer Exponentialverteilung mit dem Parameter n l ermitteln:
Mean@ExponentialDistribution@n lDD
1
nλ
Die Berechnung des Erwartungswerts @Y D der Parallelschaltung läuft auf die Berechnung des Integrals
@Y D = Ÿ ¶ y Y @yD „ y
0
hinaus. Wir führen die Berechnung dieses Integrals unter Verwendung von Mathematica durch
Integrate@y D@H1 - Exp@-l yDLn , yD, 8y, 0, •<, Assumptions -> 8n > 0, l > 0<D
HarmonicNumber@nD
λ
und erhalten damit
@Y D =
1
1 n 1
HarmonicNumber@nD =
⁄
l
l i=1 i
19.2.3 Beispiel (Formel von WALD): Unter der Annahme, dass die Zufallsvariablen N, X1 , X2 , …
19_Unabhaengige_Zufallsvariable.nb
96
Unter der Annahme, dass die Zufallsvariablen N, X1 , X2 , …
vollständig unabhängig und quadratisch integrierbar sind, die Zufallsvariablen X1 , X2 , … identisch verteilt
sind und die Zufallsvariable N mit Sicherheit nur Werte aus annimmt, berechne man den Erwartungswert
und die Varianz der Zufallsvariablen Z = X1 + X2 + … + X N .
ô
Lösung: Die Zufallsvariablen X1 , X2 , … sind identisch verteilt, sie besitzen also den gleichen Erwartungswert
@X D, das gleiche zweite Moment @X 2 D und die gleiche Varianz @X D. Aus dem Satz von der totalen Wahrscheinlichkeit zusammen mit dem Satz über das Einsetzen einer Bedingung ergibt sich damit
¶
¶
n=1
n=1
@ZD = ⁄ @X1 + X2 + … + X N 8N = n<D @8N = n<D = ⁄ @X1 + X2 + … + Xn D @8N = n<D =
¶
= ⁄ n @X D @8N = n<D = @X D @ND
n=1
sowie
¶
@Z 2 D = ⁄ @HX1 + X2 + … + X N L2 8N = n<D @8N = n<D =
n=1
¶
¶
n=1
n=1
= ⁄ @HX1 + X2 + … + Xn L2 D @8N = n<D = ⁄ Hn @X 2 D + n Hn - 1L @X D2 L @8N = n<D =
= @X 2 D @ND + @X D2 @N 2 D - @X D2 @ND
und damit
@ZD = @Z 2 D - @ZD2 = @X 2 D @ND + @X D2 @N 2 D - @X D2 @ND - @ZD2 @ND2 =
= @X D @ND + @X D2 @ND
19.2.4 Beispiel: Sowohl die Beanspruchbarkeit X als auch die Beanspruchung Y eines technischen Geräts sind
üblicherweise stetige zufällige Größen. Unter der Annahme, dass X und Y unabhängig sind, ermittle man die
Versagenswahrscheinlichkeit @8X < Y <D. Was ergibt sich für den Fall, dass X und Y die gleiche Verteilung
besitzen?
ô
Lösung: Die Ereignisse 8Y œ @y, y + „ yD< bilden offensichtlich ein "infinitesimales" vollständiges Ereignissystem.
Aus dem Satz von der totalen Wahrscheinlichkeit in differenzieller Form zusammen mit dem Satz über das Einsetzen einer Bedingung ergibt sich damit
@8X < Y <D = Ÿ-¶ @8X < Y < 8Y = y<D @8Y œ @y, y + „ yD<D =
¶
¶
¶ @ yD @yD „ y
= Ÿ-¶ @8X < y<D Y @yD „ y = Ÿ-¶
X
Y
Im Fall X = Y = gilt somit
@8X < Y <D = Ÿ-¶ @yD @yD „ y =
¶
1
1
H@¶D2 - @-¶D2 L =
2
2
Im Rahmen der Statistik spielen die Begriffe der k-ten Ordnungsstatistik bzw der Spannweite eine wichtige Rolle:
19_Unabhaengige_Zufallsvariable.nb
97
19.2.5 Definition: Sind die Zufallsvariablen X1 , X2 , …, Xn vollständig unabhängig, stetig und identisch
verteilt, so versteht man unter ihrer k-ten Ordnungsstatistik Xk* jene Zufallsvariable, welche jedem w œ W den
k-kleinsten der Werte X1 @wD, X2 @wD, …, Xn @wD zuordnet. Damit ist etwa X1* = Min@X1 , X2 , …, Xn D sowie
Xn* = Max@X1 , X2 , …, Xn D. Die Zufallsvariable R = Xn* - X1* nennt man Spannweite von X1 , X2 , …, Xn .
19.2.6 Beispiel: (Die Verteilungsdichte der k-ten Ordnungsstatistik): Gesucht ist die Verteilungsdichte der
k-ten Ordnungsstatistik Xk* der vollständig unabhängigen, stetigen und identisch verteilten Zufallsvariablen
X1 , X2 , …, Xn .
ô
Lösung: Es bezeichne X bzw X die Verteilungsfunktion bzw die Verteilungsdichte der Zufallsvariablen Xi . Für
alle x œ gilt dann
X * @xD =
k
1
@8Xk* œ @x, x + „ xD<D =
„x
Von den Zufallsvariablen X1 , X2 , …, Xn liegt eine im Intervall @x, x + „ xD,
= 1 @:
>D =
„x
k - 1 sind kleiner als x und die restlichen n - k sind größer als x
= n X @xD J n - 1 N H X @xDLk-1 H1 - X @xDLn-k
k-1
19.2.7 Beispiel (Die Verteilungsdichte der Spannweite): Gesucht ist die Verteilungsdichte der Spannweite
R = Xn* - X1* der vollständig unabhängigen, stetigen und identisch verteilten Zufallsvariablen X1 , X2 , …, Xn .
ô
Lösung: Es bezeichne wieder X bzw X die Verteilungsfunktion bzw die Verteilungsdichte der Zufallsvariablen
Xi . Für alle u, v œ mit u § v gilt dann
X * ,X * @u, vD =
1
n
=
1
@8X1* œ @u, u + „ uD< › 8Xn* œ @v, v + „ vD<D =
„u „v
Von den Zufallsvariablen X1 , X2 , …, Xn liegt je eine im Intervall
1
@8
<D =
„u „v
@u, u + „ uD und @v, v + „ vD, die restlichen n - 2 liegen im Intervall @u, vD
= n X @uD Hn - 1L X @vD H X @vD - X @uDLn-2
Aus Bemerkung 18.2.5 zusammen mit Bemerkung 18.2.3 folgt damit für alle x > 0
R @xD = X * -X * @xD = Ÿ-¶ X * 8X * =u< @u + xD X * @uD „ u = Ÿ-¶ X * ,X * @u, u + xD „ u =
n 1
n
1
1
1 n
¶
¶
= n Hn - 1L Ÿ-¶ X @uD X @u + xD H X @u + xD - X @uDLn-2 „ u
¶
19.2.8 Beispiel: Die Entwicklung einer Population (etwa Bakterien in einer Nährlösung) lässt sich in der
folgenden Weise modellieren:
† In der 0-ten Generation ist ein einziges Individuum vorhanden;
† Die einzelnen Individuen vermehren sich unabhängig voneinander;
† Die Anzahl der Nachkommen eines einzelnen Individuums ist eine @lD-verteilte Zufallsvariable.
Man bestimme den Erwartungswert der Anzahl der Individuen der n-ten Generation und die
Wahrscheinlichkeit dafür, dass die Population ausstirbt.
ô
19_Unabhaengige_Zufallsvariable.nb
98
Lösung: Wir bezeichnen mit Ni die Anzahl der Individuen der i-ten Generation und mit Zi,k die Anzahl der
Nachkommen des k-ten Individuums der i-ten Generation. Aus der Angabe folgt unmittelbar, dass die Zufallvariablen Zi,k vollständig unabhängig und @lD-verteilt sind, dass N0 = 1 ist und dass für alle i œ 0 die Beziehung
Ni+1 = Zi,1 + Zi,2 + … + Zi,N
i
gilt. Wegen Beispiel 16.3.2 und der Formel von Wald gilt damit
@Nn D = @Zn-1,1 + Zn-1,2 + … + Zn-1,N
n-1
D = l @Nn-1 D = l2 @Nn-2 D = … = ln @N0 D = ln
Die von uns gesuchte Aussterbewahrscheinlichkeit @AD genügt auf Grund des Satzes von der totalen Wahrscheinlichkeit und der Tatsache, dass sich die einzelnen Individuen unabhängig voneinander vermehren, der Gleichung
¶
@AD = ⁄ @:
k=0
Jede der von den N1 Individuen der ersten Generation
> 8N1 = k<D @8N1 = k<D =
abstammenden Populationen stirbt aus
¶
k
= ⁄ @ADk ‰-l l = Exp@l H@AD - 1LD
k
!
k=0
Zeichnet man die beiden Funktionen y1 @xD = x und y2 @xD = ‰lHx-1L für verschiedene Werte von l in eine gemeinsame Zeichnung (der Fall l § 1 ist rot, der Fall l ¥ 1 ist grün gezeichnet)
1.2
1.0
0.8
0.6
0.4
0.2
0.2 0.4 0.6 0.8 1.0
(oder berücksichtigt man, dass offenbar y2 '@1D = l gilt), so erkennt man, dass die Gleichung x = ‰l Hx-1L im Fall
l § 1 im Intervall @0, 1D nur die Nullstelle x = 1 besitzt, während diese Gleichung im Fall l > 1 außer der Nullstelle
x = 1 im Intervall @0, 1D noch eine weitere Nullstelle x* besitzt, welche sich mit Hilfe von FindRoot leicht ermitteln
lässt.
Das bedeutet, dass die Population im Fall l § 1 (jedes Individuum besitzt im Mittel höchstens einen Nachkommen)
mit Sicherheit ausstirbt, während sie im Fall l > 1 (jedes Individuum besitzt im Mittel mehr als einen Nachkommen) nur mit der Wahrscheinlichkeit x* < 1 ausstirbt und daher mit der Wahrscheinlichkeit 1 - x* > 0 überlebt.
Beispielsweise ergibt sich für l = 1.1 eine Aussterbewahrscheinlichkeit von x* = 0.823866.
l = 1.1;
FindRoot@x ä Exp@l Hx - 1LD, 8x, 0<D
Clear@lD
8x → 0.823866<
19.2.9 Beispiel: Eine große Werkshalle wird von n Beleuchtungskörpern beleuchtet. Die Lebensdauern der in
diesen Beleuchtungskörpern verwendeten Lampen sind im Intervall @0, TD gleichverteilt. Falls eine Lampe
ausfällt wird sie sofort durch eine neue Lampe ersetzt, was Kosten in der Höhe von g n Euro verursacht.
Um Kosten zu sparen, schlägt die Betriebsleitung vor, alle n Lampen routinemäßig nach t < T Zeiteinheiten
auszutauschen, was Kosten in der Höhe von a + b n verursacht (wobei a + b n < g n ist). Lampen, welche
während einer derartigen Periode ausbrennen, werden nach wie vor stets sofort durch neue Lampen ersetzt.
Wie muss t gewählt werden, um die mittleren Gesamtkosten pro Zeiteinheit zu minimieren?
19_Unabhaengige_Zufallsvariable.nb
99
ô
Lösung: Wir betrachten vorerst nur einen einzigen Beleuchtungskörper und bezeichnen mit N die Anzahl der
Lampen, welche im Zeitintervall @0, tD zum Einsatz gelangen. Da die Lebensdauern X1 , X2 , …, X N dieser Lampen
vollständig unabhängig und im Intervall @0, TD gleichverteilt sind, folgt aus dem Satz von der totalen Wahrscheinlichkeit in differenzieller Form (die Ereignisse 8X1 œ @x1 , x1 + „ x1 D< bilden ein "infinitesimales" vollständiges
Ereignissystem)
@8N ¥ 1<D = @8X1 < t<D = tê T
@8N ¥ 2<D = @8X1 + X2 < t<D = Ÿ-¶ @8X1 + X2 < t< 8X1 = x1 <D @8X1 œ @x1 , x1 + „ x1 D<D =
¶
=
1 t
1 t t - x1
1
„ x1 = Htê TL2
Ÿ @8X2 < t - x1 <D „ x1 = Ÿ 0
T
T 0
T
2
∫∫∫∫
@8N ¥ k<D = A9X1 + X2 + … + Xk < t=E = … =
t - x1 k-1
1 t
1
1
K
O
„ x1 =
HtêTLk
Ÿ0 H
T
T
k!
k - 1L !
was aber
¶
¶
¶
k=1
k=1
k=1
@ND = ⁄ k @8N = k<D = ⁄ k H@8N ¥ k<D - @8N ¥ k + 1<DL = ⁄ @8N ¥ k<D = ‰têT - 1
zur Folge hat. Für die mittleren Gesamtkosten K@tD pro Zeiteinheit bei dieser Erneuerungspolitik gilt damit
K@tD =
g n H‰têT - 1L + a + b n
t
Die Frage, wie t gewählt werden muss, damit die mittleren Gesamtkosten pro Zeiteinheit K@tD minimal sind, läuft
somit auf eine einfache Extremwertaufgabe hinaus. Indem wir die erste Ableitung von K@tD nach t Null setzen,
ergibt sich für den von uns gesuchten Wert t die Gleichung
‰têT H1 - tê TL = 1 -
a+ bn
gn
Diese Gleichung lässt sich mit den Abkürzungen x = têT und r = Ha + b nL êHg nL mit Mathematica mühelos lösen.
Für r = 0.8 ergibt sich beispielsweise
r = 0.8;
FindRoot@Exp@xD H1 - xL ä 1 - r, 8x, 1<D
Clear@rD
8x → 0.920322<
19.2.10 Beispiel: Gegeben ist eine gemeinsame Verteilungsdichte der Zufallsvariablen X1 , X2 :
0,
x1 § 0 oder x2 § 0
X X Hx1 , x2 L =
2
2
1 2
4 x1 x2 e-Ix1 +x2 M
x1 > 0 und x2 > 0,
Sind die Zufallsvariablen X1 und X2 unkorreliert und unabhängig?
ô
Lösung:
2 2
2
2
2
X Hx1 L = Ÿ0¶ X X Hx1 , x2 L „ x2 = Ÿ0¶ 4 x1 x2 e-Ix1 +x2 M „ x2 = 4 x1 e-x1 Ÿ0¶ x2 e-x2 „ x2 = 2 x1 e-x1
1
1 2
19_Unabhaengige_Zufallsvariable.nb
100
2 2
2
2
2
X Hx2 L = Ÿ0¶ X X Hx1 , x2 L „ x2 = Ÿ0¶ 4 x1 x2 e-Ix1 +x2 M „ x2 = 4 x2 e-x2 Ÿ0¶ x1 e-x1 „ x1 = 2 x2 e-x2
2
1 2
X X Hx1 , x2 L = X Hx1 L X Hx2 L
1 2
1
2
Die Zufallsvariablen X1 und X2 sind unabhängig voneinander
2
2
2
p
2
2
2
p
¶ x Hx L „ x = ¶ 2 x2 e-x1 „ x = - ¶ x „ e-x1 = ¶ e-x1 „ x =
@X1 D= Ÿ-¶
Ÿ0 1
Ÿ0
1 X1 1
1 Ÿ0
1
1
1
2
¶ x Hx L „ x = ¶ 2 x2 e-x2 „ x = - ¶ x „ e-x2 = ¶ e-x2 „ x =
@X2 D= Ÿ-¶
Ÿ0 2
Ÿ0
2 X2 2
2 Ÿ0
2
2
2
2
-Ix +x M
¶ ¶ x x ¶ ¶
@X1 ÿ X2 D = Ÿ-¶
Ÿ-¶ 1 2 X1 X2 Hx2 L „ x1 „ x2 = Ÿ0 Ÿ0 x1 x2 4 x1 x2 e 1 2 „ x1 „ x2 =
2
2
2
4 Ÿ0¶ x21 e-x1 Ÿ0¶ x22 e-x2 „ x2 „ x1 =
p
2
ÿ
p
2
=
p
4
2
= @X1 D ÿ@X2 D fl
cov@X1 , X2 D = @X1 ÿ X2 D - @X1 D ÿ@X2 D = 0
r=
cov@X1 ,X2 D
@X1 D @X2 D
=0
19.3 Die Faltung von Verteilungen
Wir beginnen mit einem einfachen Beispiel
19.3.1 Beispiel: Sind die beiden Zufallsvariablen X und Y unabhängig und stetig bzw diskret, so gilt
¶ @u - yD @yD „ y
X +Y @uD = Ÿ-¶
X
Y
bzw
X +Y @uD = ⁄yœ X @u - yD Y @yD
Y
ô
Beweis: Wir beschränken uns auf den stetigen Fall. Aus dem Satz von der totalen Wahrscheinlichkeit in differenzieller Form (die Ereignisse 8Y œ @y, y + „ yD< bilden ein "infinitesimales" vollständiges Ereignissystem) zusammen
mit der Tatsache, dass die Zufallsvariablen X und Y unabhängig sind (Einsetzen einer Bedingung), folgt
X +Y @uD =
1
@8X + Y œ @u, u + „ uD<D =
„u
=
1
¶
@8X + Y œ @u, u + „ uD< 8Y = y<D @8Y œ @y, y + „ yD<D =
„ u Ÿ-¶
=
1
¶
¶
@8X œ @u - y, u - y + „ uD<D @8Y œ @y, y + „ yD<D = Ÿ-¶ X @u - yD Y @yD „ y
„ u Ÿ-¶
Wir nehmen diese Erkenntnis zum Anlass für die folgende
19_Unabhaengige_Zufallsvariable.nb
101
19.3.2 Definition: Sind und zwei stetige bzw zwei diskrete Verteilungen mit den Dichten und , so
nennt man die Verteilungsdichte * mit
¶
* @uD = Ÿ-¶ @u - yD @yD „ y
bzw * @uD = ⁄yœ @u - yD @yD
die Faltung von und (dass es sich bei dieser Funktion tatsächlich um eine Verteilungsdichte handelt, folgt
aus Beispiel 19.3.1) und die Verteilung * mit der Dichte * die Faltung von und .
Aus dieser Begriffsbildung folgt unmittelbar:
19.3.3 Bemerkung:
a) Sind die beiden Zufallsvariablen X und Y unabhängig, so gilt X +Y = X *Y .
b) Die Faltung ist kommutativ und assoziativ, es gilt also * = * und *H *L = H *L * .
Für die in Mathematica implementierten Verteilungen gelten eine Reihe von Faltungsformeln:
19.3.4 Bemerkung: Es gelten die folgenden Faltungsformeln
a) @m, pD * @n, pD = @m + n, pD
für alle m, n œ und 0 § p § 1
b) @m, pD * @n, pD = @m + n, pD
für alle m, n œ und 0 § p § 1
c) @lD * @mD = @l + mD
d) amma@a, lD * amma@ b, lD = amma@a + b, lD
e) @m, sD * @n, tD = Am + n, SqrtAs2 + t2 EE
für alle l, m > 0
für alle a, b, l > 0
für alle m, n œ und s, t > 0
f) hi@mD * hi@nD = hi@m + nD
für alle m, n œ ô
Beweis: Wir beweisen diese Faltungsformeln mit Hilfe von Mathematica:
a) Für alle m, n œ und 0 § p § 1 gilt
FullSimplify@Sum@PDF@BinomialDistribution@m, pD, u - yD PDF@BinomialDistribution@n, pD, yD, 8y, 0, n<D ä
PDF@BinomialDistribution@m + n, pD, uDD
True
b) Für alle m, n œ und 0 § p § 1 gilt (Mathematica benötigt die Voraussetzung u œ 80, 1, 2, …<)
FullSimplify@
Sum@PDF@NegativeBinomialDistribution@m, pD, u - yD PDF@NegativeBinomialDistribution@n, pD, yD, 8y, 0, u<D ä
PDF@NegativeBinomialDistribution@m + n, pD, uD, 8u Œ Integers, u ≥ 0<D
True
c) Für alle l, m > 0 gilt (Mathematica benötigt die Voraussetzungen l, m > 0)
FullSimplify@Sum@PDF@PoissonDistribution@lD, u - yD PDF@PoissonDistribution@mD, yD, 8y, 0, u<D ä
PDF@PoissonDistribution@l + mD, uD, 8l > 0, m > 0<D
True
d) Für alle a, b, l > 0 gilt (Mathematica benötigt die Voraussetzungen a, b, l, u > 0 sowohl bei der Berechnung
des Faltungsintegrals als auch bei der Vereinfachung mit FullSimplify)
19_Unabhaengige_Zufallsvariable.nb
102
FullSimplify@Integrate@PDF@GammaDistribution@a, lD, u - yD PDF@GammaDistribution@ b, lD, yD, 8y, 0, u<,
Assumptions Æ 8a > 0, b > 0, l > 0, u > 0<D ä PDF@GammaDistribution@a + b, lD, uD, 8a > 0, b > 0, l > 0, u >
True
e) Für alle m, n œ und s, t > 0 gilt (Mathematica benötigt die Voraussetzungen s, t > 0)
FullSimplify@Integrate@PDF@NormalDistribution@m, sD, u - yD PDF@NormalDistribution@n, tD, yD, 8y, -•, •<D ä
PDF@NormalDistribution@m + n, Sqrt@s2 + t2 DD, uD, 8s > 0, t > 0<D
True
f) Für alle m, n œ gilt (Mathematica benötigt die Voraussetzungen m, n, u > 0 bei der Berechnung des Faltungsintegrals)
FullSimplify@Integrate@PDF@ChiSquareDistribution@mD, u - yD PDF@ChiSquareDistribution@nD, yD, 8y, 0, u<,
Assumptions -> 8m > 0, n > 0, u > 0<D ä PDF@ChiSquareDistribution@m + nD, uDD
True
Es folgen wieder einige Beispiele:
19.3.5 Beispiel: Die drei Zufallsvariablen X, Y und Z seien vollständig unabhängig und im Intervall @0, 1D
gleichverteilt. Man ermittle die Verteilungsdichten von X + Y und X + Y + Z und zeichne diese Dichten.
(Man beachte, dass die Verteilungsdichte von X + Y + Z bereits der Verteilungsdichte einer Normalverteilung
ähnelt und vergleiche dazu die Aussagen des zentralen Grenzverteilungssatzes.)
ô
Lösung: Die Zufallsvariable X + Y besitzt den Träger X +Y = @0, 2D, die Zufallvariable X + Y + Z besitzt den
Träger X +Y+Z = @0, 3D. Für alle u œ @0, 2D gilt
¶
X +Y @uD = X * Y @uD = Ÿ-¶ X @u - yD Y @yD „ y =
u
für 0 § u § 1
1
für 1 < u § 2
Ÿ0 „ y = u
Ÿ u-1 „ y = 2 - u
Für alle u œ @0, 3D gilt
¶
X +Y+Z @uD = X +Y * Z @uD = Ÿ-¶ X +Y @u - zD Z @zD „ z =
2
Ÿ 0 Hu - zL „ z = u ë 2
u
= Ÿ
Hu - zL „ z + Ÿ
u-1
0
1
u-1
für 0 § u § 1
H2 - u + zL „ z = I-3 + 6 u - u2 Më 2
2
Ÿ u-2 H2 - u + zL „ z = I9 - 6 u + u Më 2
1
für 1 < u § 2
für 2 § u § 3
Natürlich lassen sich diese Verteilungsdichten auch mit Hilfe von Mathematica ermitteln
fXY@u_D := Integrate@PDF@UniformDistribution@80, 1<D, u - yD PDF@UniformDistribution@80, 1<D, yD, 8y, -•, •<D;
fXY@uD
2−u 1<u<2
u
0<u≤1
19_Unabhaengige_Zufallsvariable.nb
103
fXYZ@u_D := Integrate@fXY@u - zD PDF@UniformDistribution@0, 1D, zD, 8z, -•, •<D;
FullSimplify@fXYZ@uDD
1
u1
2
u2
0<u<1
2
3
− − H−3 + uL u 1 < u < 2
2
1
H−3 + uL2
2≤u<3
2
und zeichnen
PlotAEvaluate@fXY@uDD, 8u, -0.2, 2.2<, AxesLabel Æ 9u, X+Y @uD=, PlotStyle Æ [email protected],
PlotRange Æ AllE
X +Y HuL
1.0
0.8
0.6
0.4
0.2
0.5
1.0
1.5
2.0
u
PlotAEvaluate@fXYZ@uDD, 8u, -0.2, 3.2<, AxesLabel Æ 9u, X+Y +Z @uD=, PlotStyle Æ [email protected], PlotRange Æ All
X +Y+Z HuL
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0.5 1.0 1.5 2.0 2.5 3.0
u
Clear@fXY, fXYZD
19.3.6 Beispiel: Die Zufallsvariablen X1 , Y1 , X2 , Y2 seien vollständig unabhängig und @0, 1D-verteilt.
Gesucht ist die Verteilungsfunktion und der Erwartungswert des Abstandes Z der beiden zufälligen Punkte
P = HX1 , Y1 L und Q = HX2 , Y2 L voneinander.
ô
Lösung: Für alle z œ Z = @0, ¶@ gilt
Z @zD = @8Z § z<D = @8
HX2 - X1 L2 + HY2 - Y1 L2 § z<D =
= @8HHX2 - X1 L ê 2 L2 + HHY2 - Y1 L ê 2 L2 § z2 ê 2<D
Die beiden Zufallsvariablen HX2 - X1 L ê 2 und HY2 - Y1 L ê 2 sind (vgl die Faltungsformel für Normalverteilungen und den Satz über die affine Transformation) @0, 1D-verteilt, also genügt die Summe ihrer Quadrate
19_Unabhaengige_Zufallsvariable.nb
104
HHX2 - X1 L ê
2 L2 + HHY2 - Y1 L ê
2 L2
(vgl die Quadrateigenschaft und die Faltungsformel für Chi-Quadrat Verteilungen) einer hi@2D-Verteilung. Für die
Verteilungsfunktion Z @zD bzw den Erwartungswert @ZD des Abstandes Z der beiden zufälligen Punkte P und Q
voneinander ergibt sich daher mit Hilfe von Mathematica
F@z_D := CDF@ChiSquareDistribution@2D, z2 ê 2D;
F@zD
Integrate@z D@F@zD, zD, 8z, 0, •<D
Clear@FD
z2
−
1− 4
π
19.3.7 Beispiel: Die Zufallsvariablen X1 und X2 seien unabhängig und exponentialverteilt mit Parameter l1
bzw. l2 . Berechnen Sie die Verteilung von X1 - X2 . Lösen Sie damit folgendes Problem:
Die Lebensdauern zweier Geräte seien unabhängig und exponentialverteilt mit Parameter l1 bzw. l2 .
Bestimmen Sie die Wahrscheinlichkeit dafür, dass das erste Gerät länger hält als das zweite.
ô
Lösung:
Z := X1 - X2
X1 ~ Hl1 L, X2 ~ Hl2 L
@ZD = ¶ H8X - X § z< 8X œ @x, x + „ xD<L H8X œ @x, x + „ xD<L =
Z HzL = H8X1 - X2 § z<L = Ÿ-¶
1
2
2
2
¶ H8X § z + x<L HxL „ x = ¶ Hz + xL HxL „ x =
= Ÿ-¶
Ÿ-¶ X1
1
X2
X2
Ÿmax 80,-z< X1 Hz + xL X2 HxL „ x =
¶
:
-l Hx+zL M l e-l2 x „ x = 1 ¶
Ÿ0 I1 - e 1
2
Ÿ-z I1 - e
¶
-l1 Hx+zL M l e-l2 x „ x =
2
l1
l2
l1 +l2
l1 +l2
e-l1 z , z ¥ 0
e-l2 z ,
z<0
l1 l2
e-l1 z , z ¥ 0
l1 +l2
Z HzL = : l l
1 2 e-l2 z , z < 0
l1 +l2
H8X1 > X2 <L = H8X1 - X2 > 0<L = 1 - Z H0L =
l1
l1 +l2
19.3.8 Beispiel: Seien X und Y zwei unabhängige, auf @a, bD gleichverteilte Zufallsvariablen. Bestimmen Sie
die Verteilungsdichte von X + Y .
ô
19_Unabhaengige_Zufallsvariable.nb
105
Lösung:
X , Y œ @a, bD, d.h. X + Y œ @2 a, 2 bD, X +Y HzL = 0 für z œ \@2a ,2bD
z œ @2 a, 2 bD
Für
gilt
min 8z-a,b<
¶ Hz - yL HyL „ y =
X +Y HzL = Ÿ-¶
Ÿmax 8z-b,a<
X
Y
1
Hb-aL2
„y=
1
Hb-aL2
Hmin 8z - a, b< - max 8z - b, a<L
a§ y§b
a § z - y § b, z - b § y § z - a
Für 2 a § z § a + b
X +Y HzL =
1
Hb-aL2
Hz - a - aL =
z-2 a
Hb-aL2
Hb - z + bL =
2 b-z
Hb-aL2
Für 2 b ¥ z ¥ a + b
X +Y HzL =
1
Hb-aL2
19.3.9 Beispiel: Vom Unendlichen kommend bewegt sich ein Beobachter A auf einen stationären Beobachter
B zu. Die Entfernungen, unter denen sich die beiden Beobachter gerade noch sehen können, sind unabhängige,
normalverteilte Zufallvariablen X bzw Y mit den Mittelwerten m A = 10 km bzw mB = 15 km und der Streuung
s = 2 km. Wie groß ist die Wahrscheinlichkeit dafür, dass der Beobachter A den Beobachter B zuerst sieht?
ô
Lösung: Die Zufallsvariable X - Y ist (vgl die Faltungsformel für Normalverteilungen sowie den Satz über die
affine Transformation) @-5, 2
2 D-verteilt. Für die von uns gesuchte Wahrscheinlichkeit
@8X > Y <D = @8X - Y > 0<D = 1 - X -Y @0D
gilt damit
1 - CDF@NormalDistribution@-5, 2 Sqrt@2DD, 0D êê N
0.0385499
19_Unabhaengige_Zufallsvariable.nb
106
19.3.10 Beispiel: Die Lebensdauer Z (gemessen in Tagen) eines elektrischen Geräts sei eine mit dem
Parameter l exponentialverteilte Zufallsvariable. Die Betriebszeiten X1 , X2 , … dieses Geräts an den
einzelnen Tagen seien vollständig unabhängig und im Intervall @0, 1D gleichverteilt. Man ermittle die
Wahrscheinlichkeit dafür, dass dieses Gerät mindestens n Tage voll funktioniert und bestimme den
Erwartungswert der Anzahl der Tage T in denen dieses Gerät voll funktioniert.
ô
Lösung: Für alle n œ gilt
@8T ¥ n<D = @8Z ¥ X1 + X2 + … + Xn <D = @8Z - X1 - X2 - … - Xn ¥ 0<D
Nun gilt aber für alle n œ und alle y ¥ 0 offenbar
Z-X -X -…-Xn @yD = Z-X -X -…-X
*
@yD
1 2
1 2
n-1 -Xn
Wir werten diese Rekursionsformel unter Verwendung von Simplify und ExpandAll mit Hilfe von Mathematica
aus, wobei wir berücksichtigen, dass die Zufallsvariablen -Xi im Intervall @-1, 0D gleichverteilt sind
f@y_, 1D := Integrate@PDF@ExponentialDistribution@lD, y - x@1DD PDF@UniformDistribution@8-1, 0<D, x@1DD,
8x@1D, -1, 0<D
f@y_, n_D :=
Simplify@ExpandAll@Integrate@f@y - x@nD, n - 1D PDF@UniformDistribution@8-1, 0<D, x@nDD, 8x@nD, -1, 0<DDD
f@y, 1D
f@y, 2D
f@y, 3D
f@y, 4D
Clear@fD
−H1+yL λ I−1 + λ M
−H2+yL λ I−1 + λ M2
λ
−H3+yL λ I−1 + λ M3
λ2
−H4+yL λ I−1 + λ M4
λ3
und erhalten (streng genommen sollte diese Aussage noch mit vollständiger Induktion nach n bewiesen werden)
1
Z-X -X -…-Xn @yD =
H‰l - 1Ln H‰-lHy+nL L
1 2
n-1
l
Für die von uns gesuchte Wahrscheinlichkeit @8T ¥ n<D gilt somit
@8T ¥ n<D = @8Z - X1 - X2 - … - Xn ¥ 0<D = Ÿ
1
¶
@yD „ y = n H1 - ‰- l Ln
0 Z-X1 -X2 -…-Xn
l
wobei wir das Integral mit Hilfe von Mathematica ausgewertet haben:
19_Unabhaengige_Zufallsvariable.nb
107
Integrate@l-n+1 HExp@lD - 1Ln Exp@-l Hy + nLD, 8y, 0, •<, Assumptions Æ 8l > 0<D
−n λ
−1 + λ n
λ
Für den Erwartungswert @TD der Anzahl der Tage T, in denen dieses Gerät voll funktioniert, ergibt sich somit
¶
¶
n=1
n=1
1
‰l -1
H1 - ‰- l Ln =
n
n=1 l
1-‰l +l‰l
¶
@TD = ⁄ n @8Z = n<D = ⁄ @8T ¥ n<D = ⁄
wobei wir die Summe ebenfalls mit Hilfe von Mathematica ausgewertet haben:
Sum@H1 - Exp@-lDLn ê ln , 8n, 1, •<D
−1 + λ
1 − λ + λ λ
19.3.11 Beispiel (Die MAXWELL'sche Geschwindigkeitsverteilung): Wir betrachten ein Gas, das in einem
großen Behälter eingeschlossen ist. Zwischen den einzelnen Molekülen dieses Gases sollen keinerlei
Wechselwirkungen bestehen (ideales Gas). Außerdem sollen im ganzen Behälter die gleiche Temperatur und
der gleiche Druck herrschen.
Wir greifen zufällig ein Molekül dieses Gases heraus und bezeichnen mit V seinen Geschwindigkeitsvektor.
Die Physik rechtfertigt die Annahme (MAXWELL), dass die drei Komponenten V1 , V2 , V3 des
Geschwindigkeitsvektors vollständig unabhängig und mit den Parametern 0 und s normalverteilt sind, wobei
die Varianz s2 die physikalische Bedeutung s2 = k T êm besitzt. Dabei bezeichnet k die Boltzmann
Konstante, T die absolute Temperatur des Gases und m die Masse des Moleküls. Gesucht sind die
Verteilungsdichte der Geschwindigkeit V = †V § und die mittlere kinetische Energie Am V 2 ë 2E dieses
Moleküls.
ô
Lösung: Für alle v ¥ 0 gilt
V @vD = @8†V § § v<D = @8V12 + V22 + V32 § v2 <D = @8HV1 êsL2 + HV2 êsL2 + HV3 ê sL2 § v2 ês2 <D
Aus dem Satz über die affine Transformation und der Quadrateigenschaft folgt unmittelbar, dass die drei Zufallsvariablen HV1 êsL2 , HV2 êsL2 und HV3 ê sL2 hi@1D-verteilt sind. Die Summe dieser drei vollständig unabhängigen
Zufallsvariablen ist daher wegen der Faltungsformeln hi@3D-verteilt. Für die Verteilungsdichte V der
Geschwindigkeit V sowie die mittlere kinetische Energie Am V 2 ë 2E dieses Moleküls ergeben sich somit wegen
F@v_D := CDF@ChiSquareDistribution@3D, v2 ê s2 D;
f@v_D := D@F@vD, vD;
FullSimplify@f@vD ê. s Æ Sqrt@k T ê mD, v > 0D
Integrate@Hm v2 ê 2L f@vD, 8v, 0, •<, Assumptions Æ 8s > 0<D ê. s Æ Sqrt@k T ê mD
Clear@F, fD
m v2
−
2Tκ
2
π
3Tκ
2
v2
m
Tκ
3ê2
19_Unabhaengige_Zufallsvariable.nb
108
die den Physikern wohlbekannten Formeln
m v2
V @vD =
m 3ê2 2 - 2 k T
2 êp K
O
v ‰
kT
und @
3kT
m V2
D=
2
2
19.4 Die Gesetze der großen Zahlen
In diesem Abschnitt befassen wir uns mit fundamentalen Sätzen über das Grenzverhalten des arithmetischen Mittels
einer Summe von vielen vollständig unabhängigen, integrierbaren und identisch verteilten Zufallsvariablen. Um
diese Gesetze in ihrer vollen Tragweite verstehen zu können, müssen wir zuerst zwei Konvergenzarten definieren:
19.4.1 Definition: Man sagt, die Folge HZn Lnœ von Zufallsvariablen auf dem W-Raum HW, L konvergiert
stochastisch gegen die Zufallsvariable Z, wenn für alle ¶ > 0 die folgende Beziehung gilt:
lim @8 Zn - Z § ¶<D = 1
nض
19.4.2 Definition: Man sagt, die Folge HZn Lnœ von Zufallsvariablen auf dem W-Raum HW, L konvergiert fast
sicher gegen die Zufallsvariable Z, wenn die folgende Beziehung gilt:
@8 lim Zn = Z<D = 1
nض
Man beachte:
19.4.3 Bemerkung: Aus der fast sicheren Konvergenz folgt die stochastische Konvergenz. Umgekehrt folgt
aber aus der stochastischen Konvergenz nicht die fast sichere Konvergenz.
ô
Beweis: Falls die Folge HZn Lnœ von Zufallsvariablen auf dem W-Raum HW, L fast sicher gegen die Zufallsvariable Z konvergiert, so folgt für alle ¶ > 0 aus der Stetigkeit von Wahrscheinlichkeitsmaßen (die Ereignisse
8supk¥n Zk - Z > ¶< nehmen mit wachsendem n nämlich monoton ab und konvergieren gegen eine Teilmenge
des Ereignisses 8limnض Zn ∫ Z<)
limnض @8 Zn - Z > ¶<D § limnض @8supk¥n Zk - Z > ¶<D § @8limnض Zn ∫ Z<D = 0
Damit ist gezeigt, dass aus der fast sicheren Konvergenz die stochastische Konvergenz folgt. Dass die umgekehrte
Implikation aber nicht gilt, erkennt man an dem folgenden Gegenbeispiel: Wir betrachten dazu den W-Raum HW, L
mit W = @0, 1D und = @80, 1<D. Für jedes n œ mit n = m + 2k und 0 § m < 2k definieren wir die Zufallsvariable
Zn @wD = : 1
0
für w œ @m 2-k , Hm + 1L 2-k D
sonst
Wie man an Hand der folgenden Animation erkennt
19_Unabhaengige_Zufallsvariable.nb
109
Manipulate@k = Floor@Log@2, nDD; m = n - 2k ;
Plot@Piecewise@881, m 2-k £ w £ Hm + 1L 2-k <<D, 8w, -0.1, 1.1<, PlotStyle Æ [email protected],
AspectRatio Æ 0.4,
PlotRange Æ All, ImageSize Æ 8200, 100<D,
8n, 1, 31, 1, Appearance Æ "Labeled"<D
$Aborted
besteht die Folge HZn Lnœ aus immer kürzeren "Impulsen", welche über das Intervall @0, 1D "laufen". Diese Folge
konvergiert zwar offenbar stochastisch (die Länge dieser Impulse geht gegen 0) aber nicht fast sicher gegen die
Nullfunktion.
Wir sind nun in der Lage, die Gesetze der großen Zahlen zu formulieren:
19_Unabhaengige_Zufallsvariable.nb
110
19.4.4 Schwaches Gesetz der großen Zahlen: Sind die Zufallsvariablen Z1 , Z2 , … paarweise unabhängig,
identisch verteilt und integrierbar, so konvergiert die Folge HZ n Lnœ ihrer arithmetischen Mittel
1
Z n = ⁄ni=1 Zi
n
stochastisch gegen den (für alle Zufallsvariablen Zi gleichen) Erwartungswert @Z1 D.
ô
Beweis: Wir beschränken uns auf den Fall, dass die Zufallsvariablen Z1 , Z2 , … quadratisch integrierbar sind. In
diesem Fall folgt aus der Ungleichung von Tschebyscheff und der Summenregel für alle ¶ ¥ 0
1 n
1 n
1 n
⁄ Zi - @Z1 D > ¶<D = lim @8
⁄ Zi - @
⁄ Z D > ¶<D §
n i=1
n i=1
n i=1 i
nض
lim @8
nض
§ lim
1
nض ¶2
@
1 1
1 n
⁄ Zi D = lim 2 2 n @Zi D = 0
n i=1
nض ¶ n
Das schwache Gesetz der großen Zahlen besitzt einige wichtige Anwendungen. Die beiden folgenden Beispiele
erklären, warum man die relative Häufigkeit eines Ereignisses als gute Näherung für die Wahrscheinlichkeit dieses
Ereignisses ansehen kann und warum es möglich ist, mit Hilfe der Monte-Carlo Methode ein Integral
näherungsweise zu bestimmen:
19.4.5 Beispiel: Man zeige, dass die relative Häufigkeit n @AD eines Ereignisses A mit zunehmender Anzahl n
von Wiederholungen stochastisch gegen die Wahrscheinlichkeit @AD dieses Ereignisses konvergiert. (Man
beachte, dass damit unsere Faustregel aber noch nicht bewiesen ist!)
ô
Lösung: Die Zufallsvariable Zi sei gleich 1 bzw 0, je nachdem ob beim i-ten Versuch das Ereignis A eintritt bzw
nicht eintritt. Die Zufallsvariablen Z1 , Z2 , … erfüllen die Voraussetzungen des schwachen Gesetzes der großen
Zahlen, also gilt für alle ¶ > 0
lim @8 n @AD - @AD > ¶<D = lim @8
nض
nض
1 n
⁄ Z - @Z1 D > ¶<D = 0
n i=1 i
19.4.6 Beispiel: Man zeige die folgende Behauptung (Monte-Carlo Methode): Ist g : @0, 1Dm Ø eine
integrierbare Funktion und sind die Zufallsvariablen Z1,1 , …, Z1,m ; Z2,2 , …, Z2,m ; …; Zn,1 , …, Zn,m
vollständig unabhängig und im Intervall @0, 1D gleichverteilt, so konvergiert die Folge HY n Lnœ mit
Yn =
1 n g@Z , Z , …, Z D
⁄
i,1 i,2
i,m
n i=1
stochastisch gegen das Integral Ÿ 1 … Ÿ 1 g@z1 , …, zm D „ z1 … „ zm .
0
0
ô
Lösung: Die Zufallsvariablen Y1 , Y2 , … mit Yi = g@Zi,1 , Zi,2 , …, Zi,m D erfüllen offenbar die Voraussetzungen des
schwachen Gesetzes der großen Zahlen, also gilt für alle ¶ > 0
lim @8
nض
1 n
⁄ g@Zi,1 , …, Zi,m D - Ÿ 1 … Ÿ 1 g@z1 , …, zm D „ z1 … „ zm > ¶<D =
n i=1
0
0
= lim @8
nض
1 n
⁄ Y - @Y1 D > ¶<D = lim @8 Y n - @Y1 D > ¶<D = 0
n i=1 i
nض
19_Unabhaengige_Zufallsvariable.nb
111
Das schwache Gesetz der großen Zahlen lässt sich wesentlich verschärfen und hat in dieser Form eine große
Bedeutung für theoretische Untersuchungen. Ohne auf den tiefliegenden Beweis näher einzugehen, erwähnen wir
den folgenden, im Wesentlichen von N. KOLMOGOROV stammenden Satz:
19.4.7 Starkes Gesetz der großen Zahlen: Sind die Zufallsvariablen Z1 , Z2 , … paarweise unabhängig,
identisch verteilt und integrierbar, so konvergiert die Folge HZ n Lnœ ihrer arithmetischen Mittel
Zn =
1 n
⁄ Z
n i=1 i
sogar fast sicher gegen den (für alle Zi gleichen) Erwartungswert @Z1 D.
Herunterladen