§19 Unabhängige Zufallsvariable In Kapitel 11 haben wir uns bereits mit unabhängigen Ereignissen beschäftigt. In diesem Abschnitt befassen wir uns nun mit unabhängigen Zufallsvariablen. Dabei werden wir zunächst der Frage nachgehen, wie man die Unabhängigkeit von Zufallsvariablen an ihrer gemeinsamen Verteilungsdichte bzw ihrer gemeinsamen Verteilungsfunktion erkennen kann und welche spezielle Eigenschaften unabhängige Zufallsvariable besitzen. An Hand von zahlreichen Beispielen werden wir dann zeigen, wie sich der Begriff der Unabhängigkeit von Zufallsvariablen praktisch einsetzen lässt. Anschließend befassen wir uns mit der Faltung von Verteilungen und zeigen an Hand von Beispielen, welche Bedeutung dieser Begriff für die Stochastik besitzt. Schließlich gehen wir noch kurz auf die Gesetze der großen Zahlen ein, welche vor allem für theoretische Überlegungen von Bedeutung sind. 19.1 Unabhängigkeit von Zufallsvariablen Es liegt nahe, zwei Zufallsvariablen X und Y auf dem W-Raum HW, L dann als unabhängig anzusehen, wenn in einer Information darüber, welchen Wert die eine Zufallsvariable annimmt, keinerlei Information über das zufällige Verhalten der anderen Zufallsvariablen enthalten ist - wenn also für alle A, B Œ die Ereignisse 8X œ A< und 8Y œ B< unabhängig sind. 19.1.1 Definition: X , Y , Z1 , Z2 , … seien Zufallsvariablen auf einem beliebigen W-Raum HW, L. a) Die beiden Zufallsvariablen X und Y heißen unabhängig, falls für alle A, B Œ @8X œ A< › 8Y œ B<D = @8X œ A<D @8Y œ B<D b) Die Zufallsvariablen Z1 , Z2 , … heißen paarweise unabhängig, falls für alle i ∫ k und alle A, B Œ @8Zi œ A< › 8Zk œ B<D = @8Zi œ A<D @8Zk œ B<D c) Die Zufallsvariablen Z1 , Z2 , … heißen vollständig unabhängig, falls für jede Auswahl von k œ paarweise verschiedenen Zufallsvariablen Zi , Zi , …, Zi und alle A1 , A2 , …, Ak Œ 1 2 k @8Zi œ A1 < › 8Zi œ A2 < › … › 8Zi œ Ak <D = @8Zi œ A1 <D @8Zi œ A2 <D …@8Zi œ Ak <D 1 2 1 2 k k Zu dieser Definition sind einige Bemerkungen angebracht: † Die Unabhängigkeit von Zufallsvariablen geht beim Übergang zu einem anderen W-Maß ' im allgemeinen verloren. Man spricht deshalb auch von der -Unabhängigkeit. † Die vollständige Unabhängigkeit der Zufallsvariablen Z1 , Z2 , … zieht ihre paarweise Unabhängigkeit nach sich; umgekehrt folgt aber aus der paarweisen Unabhängigkeit der Zufallsvariablen Z1 , Z2 , … nicht ihre vollständige Unabhängigkeit. Ist beispielsweise W = 81, 2, 3, 4<, die Gleichverteilung auf W und ist Z1 = 181,2< , Z2 = 181,3< , Z3 = 182,3< (wobei wir mit 1 A die Indikatorfunktion der Menge A bezeichnen), so sind die drei Zufallsvariablen Z1 , Z2 , Z3 zwar paarweise unabhängig aber nicht vollständig unabhängig. † Aus obiger Definition folgt unmittelbar: Die Zufallsvariablen Z1 , Z2 , …, Zn sind genau dann vollständig unabhängig sind, wenn für alle A1 , A2 , …, An Œ Z ,Z ,…,Zn @A1 › A2 › … › An D = Z @A1 D Z @A2 D … Zn @An D 1 2 1 2 gilt. 19_Unabhaengige_Zufallsvariable.nb 92 † Die gemeinsame Verteilung Z ,Z ,…,Zn der vollständig unabhängigen Zufallsvariablen Z1 , Z2 , …, Zn ist somit 1 2 durch ihre Marginalverteilungen Z , Z , …, Zn bereits vollständig bestimmt. Wir drücken diese Tatsache 1 2 symbolisch durch die Schreibweise Z ,Z ,…,Zn = Z µZ µ… µZn 1 2 1 2 aus. Da die (gemeinsame) Verteilung von Zufallsvariablen bekanntlich bereits durch ihre (gemeinsame) Verteilungsfunktion bzw ihre (gemeinsame) Verteilungsdichte vollständig bestimmt ist, folgt aus der letzten Bemerkung die für praktische Beispiele wichtige Erkenntnis 19.1.2 Bemerkung: Die Zufallsvariablen Z1 , Z2 , …, Zn sind genau dann vollständig unabhängig, wenn ihre gemeinsame Verteilungsfunktion gleich dem Produkt der Marginalverteilungsfunktionen ist, wenn also für alle z1 , z2 , …, zn œ Z ,Z ,…,Zn @z1 , z2 , …, zn D = Z @z1 D Z @z2 D … Zn @zn D 1 2 1 2 gilt. Sind die Zufallsvariablen Z1 , Z2 , …, Zn diskret bzw stetig, so sind sie genau dann vollständig unabhängig, wenn ihre gemeinsame Verteilungsdichte gleich dem Produkt der Marginalverteilungsdichten ist, also für alle z1 , z2 , …, zn œ Z ,Z ,…,Zn @z1 , z2 , …, zn D = Z @z1 D Z @z2 D … Zn @zn D 1 2 1 2 gilt. Wir fassen die wichtigsten Eigenschaften von unabhängigen Zufallsvariablen in einem Satz zusammen: 19.1.3 Satz: Familieneigenschaft: Sind die Zufallsvariablen Z11 , …, Z1 n ; …; Zk 1 , …, Zk n vollständig unabhängig, so 1 k sind auch die Zufallsvariablen X1 = g1 @Z11 , …, Z1 n1 D, …, Xk = gk @Zk 1 , …, Zk n D k vollständig unabhängig. Multiplikationssatz: Sind die Zufallsvariablen X und Y unabhängig und integrierbar, so gilt @X Y D = @X D @Y D Summenregel: Für paarweise unabhängige, quadratisch integrierbare Zufallsvariable Z1 , Z2 , …, Zn gilt @Z1 + Z2 + … + Zn D = @Z1 D + @Z2 D + … + @Zn D Einsetzen einer Bedingung: Ist die Zufallsvariable Y von den Zufallsvariablen Z1 , Z2 , …, Zn unabhängig, so gilt für alle Abbildungen g : n+1 Ø und alle Mengen B Œ @8g@Y , Z1 , Z2 , …, Zn D œ B< 8Y = y<D = @8g@y, Z1 , Z2 , …, Zn D œ B<D Ist außerdem die Zufallsvariable g@Y , Z1 , Z2 , …, Zn D integrierbar, so gilt @g@Y , Z1 , Z2 , …, Zn D 8Y = y<D = @g@y, Z1 , Z2 , …, Zn DD ô ” Beweis: a) Unter Verwendung der Schreibweise zi = 8zi 1 , …, zi n < gilt wegen Bemerkung 19.1.2 (wir beschränken uns auf den diskreten Fall) für alle x = 8x1 , …, xk < œ X ,…,X 1 k i X ,…,X @x1 , …, xk D = @8X1 = x1 < › … › 8Xk = xk <D = 1 k ” ” = @H ‹ 88Z11 , …, Z1 n < = z1 <L › … › H ‹ 88Zk 1 , …, Zk n < = zk <LD = 1 ” ” k z z 1 g@z”1 D=x1 k g@z”k D=xk 19_Unabhaengige_Zufallsvariable.nb ⁄ … ⁄ … = ” z1 g@z”1 D=x1 = ” z1 ” g@z1 D=x1 =H 93 @z , …, z1 n ; … ; zk 1 , …, zk n D = ⁄ Z11 ,…,Z1 n ; … ;Z ,…,Z 1 ” k1 k nk 11 k 1 zk ” g@zk D=xk @z D= ⁄ Z11 @z11 D …Z1 n @z1 n1 D …Z @zk 1 D …Z ” k1 k nk k nk 1 zk g@z”k D=xk @z DL = X @x1 D … X @xk D ⁄ Z11 @z11 D …Z1 n @z1 n1 DL …H ⁄ Z @zk 1 D …Z 1 ” ” k1 k nk k nk k 1 z1 zk ” ” g@z1 D=x1 g@zk D=xk b) Wegen Satz 17.5.1 und Bemerkung 19.1.2 gilt (wir beschränken uns auf den stetigen Fall) @X Y D = Ÿ-¶ Ÿ-¶ x y X ,Y @x, yD „ x „ y = Ÿ-¶ Ÿ-¶ x y X @xD Y @yD „ x „ y = ¶ ¶ ¶ ¶ ¶ x @xD „ xL H ¶ y @yD „ yL = @X D @Y D = HŸ-¶ Ÿ-¶ X Y c) Aus dem Multiplikationssatz folgt unmittelbar (wir beschränken uns auf den Fall n = 2) @X + Y D = @HX + Y L2 D - @X + Y D2 = = @X 2 D + 2 @X Y D + @Y 2 D - @X D2 - 2 @X D @Y D - @Y D2 = = @X 2 D - @X D2 + @Y 2 D - @Y D2 = @X D + @Y D d) Wegen Bemerkung 18.2.4 (wir beschränken uns auf den stetigen Fall) und der Tatsache, dass die Zufallsvariablen Y und g@y, Z1 , Z2 , …, Zn D unabhängig sind, gilt @g@Y , Z1 , Z2 , …, Zn D 8Y = y<D = @g@y, Z1 , Z2 , …, Zn D 8Y = y<D = @g@y, Z1 , Z2 , …, Zn DD Wendet man dieses Ergebnis auf die (natürlich integrierbare) Indikatorfunktion 18g@Y,Z ,Z ,…,Zn DœB< an, so folgt 1 2 daraus die erste Aussage. Zu diesem Satz ist zu bemerken: 19_Unabhaengige_Zufallsvariable.nb 94 19.1.4 Bemerkung: Sind die Zufallsvariablen X und Y integrierbar und unabhängig, so folgt aus dem Multiplikationssatz sofort @X , Y D = @X Y D - @X D @Y D = 0 Unabhängige Zufallsvariablen sind somit stets unkorreliert. Umgekehrt sind aber unkorrelierte Zufallsvariablen nicht notwendig unabhängig! ô 19.2 Beispiele An Hand von Beispielen zeigen wir wieder die vielfältigen Einsatzmöglichkeiten des Begriffs der Unabhängigkeit von Zufallsvariablen. Dabei geht es meistens nicht darum, die Unabhängigkeit von Zufallsvariablen nachzuweisen. Vielmehr kann in der Praxis oft auf Grund einer inhaltlichen Interpretation der auftretenden Zufallsvariablen darauf geschlossen werden, dass diese Zufallsvariablen unabhängig sind. 19.2.1 Beispiel: In einem Friseurgeschäft arbeiten vier Gesellen. Eine Rasur dauert stets genau 10 Minuten. Jemand betritt das Geschäft und sieht, dass alle vier Gesellen arbeiten und noch zwei Kunden auf warten. Wie lange muss dieser neue Kunde daher im Mittel auf Bedienung warten? ô Lösung: Für jedes i œ 81, 2, 3, 4< gebe die Zufallsvariable Zi an, wie lange der i-te Geselle noch mit seinem Kunden zu tun hat. In erster Näherung darf man annehmen, dass die Zufallsvariablen Z1 , Z2 , Z3 , Z4 vollständig unabhängig und im Intervall @0, 10D gleichverteilt sind. Bezeichnet X die Wartezeit des neuen Kunden auf Bedienung, so gilt für alle 0 § x § 10 (die Zufallsvariable X besitzt den Träger X = @0, 10D) 4 4 4 i=1 j=1 i=1 i∫ j X @xD = @8X § x<D = @H › 8Zi § x<L ‹ ‹ H8Z j > x< › › 8Zi § x<LD = 4 4 4 i=1 j=1 i=1 i∫ j = ¤ @8Zi § x<D + ⁄ H@8Z j > x<D ¤ @8Zi § x<LD = x3 H10 - xL 40 x3 - 3 x4 x4 + 4 = 104 104 104 Für den gesuchten Erwartungswert @X D = Ÿ-¶ x X @xD „ x gilt damit ¶ Integrate@x D@H40 x3 − 3 x4 L ê 104 , xD, 8x, 0, 10<D 6 (Man beachte: Bei der Wartezeit X des neuen Kunden auf Bedienung handelt es sich um die dritte Ordnungsstatistik Z3* der Zufallsvariablen Z1 , Z2 , Z3 , Z4 . Die Verteilungsdichte X von X hätte man daher auch unter Verwendung der in Beispiel 19.2.6 ermittelten Formel berechnen können.) 19.2.2 Beispiel: Wir betrachten zwei elektronische Geräte: Das eine besteht in der Serienschaltung, das andere in der Parallelschaltung von jeweils n gleichartigen Komponenten. Unter der Annahme, dass die einzelnen Komponenten vollständig unabhängig voneinander ausfallen und ihre Lebensdauern mit dem Parameter l exponentialverteilt sind (wir werden später sehen, dass diese Annahme für die Verteilung der Lebensdauer von elektronischen Bauteilen gerechtfertigt ist), bestimme man die Verteilungsfunktion und den Erwartungswert der Lebensdauer dieser beiden Geräte. ô 19_Unabhaengige_Zufallsvariable.nb 95 Lösung: Es bezeichne X die Lebensdauer der Serienschaltung, Y die Lebensdauer der Parallelschaltung und Zi die Lebensdauer der i-ten Komponente. Z1 Z1 X Z2 Z2 Zn Y ª Zn a) Aus der Angabe entnimmt man, dass die Zufallsvariablen Z1 , Z2 , …, Zn vollständig unabhängig und mit dem Parameter l exponentialverteilt sind. Beachtet man, dass die Serienschaltung bereits dann ausfällt, wenn eine einzige Komponente ausfällt, so ergibt sich für die Verteilungsfunktion X @xD der Lebensdauer X der Serienschaltung unter Verwendung der Siebformel von Sylvester n X @xD = @8X § x<D = @8Min@Z1 , Z2 , …., Zn D § x<D = @ ‹ 8Zi § x<D = i=1 n = 1 - ¤ H1 - @8Zi § x<DL = 1 - ‰-n l x i=1 Die Zufallsvariable X ist damit offenbar @n lD verteilt. b) Beachtet man dass die Parallelschaltung erst dann ausfällt, wenn die letzte Komponente ausfällt, so ergibt sich für die Verteilungsfunktion Y @yD der Lebensdauer Y der Parallelschaltung (man beachte, dass es sich bei der Verteilung der Zufallsvariablen Y um keine der in Mathematica implementierten Verteilungen handelt) n Y @yD = @8Y § y<D = @8Max@Z1 , Z2 , …., Zn D § y<D = @ › 8Zi § y<D = i=1 n = ¤ @8Zi § y<D = H1 - ‰-l y Ln i=1 c) Die Berechnung des Erwartungswerts @X D der Serienschaltung ist einfach; man muss dazu lediglich den Erwartungswert einer Exponentialverteilung mit dem Parameter n l ermitteln: Mean@ExponentialDistribution@n lDD 1 nλ Die Berechnung des Erwartungswerts @Y D der Parallelschaltung läuft auf die Berechnung des Integrals @Y D = Ÿ ¶ y Y @yD „ y 0 hinaus. Wir führen die Berechnung dieses Integrals unter Verwendung von Mathematica durch Integrate@y D@H1 - Exp@-l yDLn , yD, 8y, 0, •<, Assumptions -> 8n > 0, l > 0<D HarmonicNumber@nD λ und erhalten damit @Y D = 1 1 n 1 HarmonicNumber@nD = ⁄ l l i=1 i 19.2.3 Beispiel (Formel von WALD): Unter der Annahme, dass die Zufallsvariablen N, X1 , X2 , … 19_Unabhaengige_Zufallsvariable.nb 96 Unter der Annahme, dass die Zufallsvariablen N, X1 , X2 , … vollständig unabhängig und quadratisch integrierbar sind, die Zufallsvariablen X1 , X2 , … identisch verteilt sind und die Zufallsvariable N mit Sicherheit nur Werte aus annimmt, berechne man den Erwartungswert und die Varianz der Zufallsvariablen Z = X1 + X2 + … + X N . ô Lösung: Die Zufallsvariablen X1 , X2 , … sind identisch verteilt, sie besitzen also den gleichen Erwartungswert @X D, das gleiche zweite Moment @X 2 D und die gleiche Varianz @X D. Aus dem Satz von der totalen Wahrscheinlichkeit zusammen mit dem Satz über das Einsetzen einer Bedingung ergibt sich damit ¶ ¶ n=1 n=1 @ZD = ⁄ @X1 + X2 + … + X N 8N = n<D @8N = n<D = ⁄ @X1 + X2 + … + Xn D @8N = n<D = ¶ = ⁄ n @X D @8N = n<D = @X D @ND n=1 sowie ¶ @Z 2 D = ⁄ @HX1 + X2 + … + X N L2 8N = n<D @8N = n<D = n=1 ¶ ¶ n=1 n=1 = ⁄ @HX1 + X2 + … + Xn L2 D @8N = n<D = ⁄ Hn @X 2 D + n Hn - 1L @X D2 L @8N = n<D = = @X 2 D @ND + @X D2 @N 2 D - @X D2 @ND und damit @ZD = @Z 2 D - @ZD2 = @X 2 D @ND + @X D2 @N 2 D - @X D2 @ND - @ZD2 @ND2 = = @X D @ND + @X D2 @ND 19.2.4 Beispiel: Sowohl die Beanspruchbarkeit X als auch die Beanspruchung Y eines technischen Geräts sind üblicherweise stetige zufällige Größen. Unter der Annahme, dass X und Y unabhängig sind, ermittle man die Versagenswahrscheinlichkeit @8X < Y <D. Was ergibt sich für den Fall, dass X und Y die gleiche Verteilung besitzen? ô Lösung: Die Ereignisse 8Y œ @y, y + „ yD< bilden offensichtlich ein "infinitesimales" vollständiges Ereignissystem. Aus dem Satz von der totalen Wahrscheinlichkeit in differenzieller Form zusammen mit dem Satz über das Einsetzen einer Bedingung ergibt sich damit @8X < Y <D = Ÿ-¶ @8X < Y < 8Y = y<D @8Y œ @y, y + „ yD<D = ¶ ¶ ¶ @ yD @yD „ y = Ÿ-¶ @8X < y<D Y @yD „ y = Ÿ-¶ X Y Im Fall X = Y = gilt somit @8X < Y <D = Ÿ-¶ @yD @yD „ y = ¶ 1 1 H@¶D2 - @-¶D2 L = 2 2 Im Rahmen der Statistik spielen die Begriffe der k-ten Ordnungsstatistik bzw der Spannweite eine wichtige Rolle: 19_Unabhaengige_Zufallsvariable.nb 97 19.2.5 Definition: Sind die Zufallsvariablen X1 , X2 , …, Xn vollständig unabhängig, stetig und identisch verteilt, so versteht man unter ihrer k-ten Ordnungsstatistik Xk* jene Zufallsvariable, welche jedem w œ W den k-kleinsten der Werte X1 @wD, X2 @wD, …, Xn @wD zuordnet. Damit ist etwa X1* = Min@X1 , X2 , …, Xn D sowie Xn* = Max@X1 , X2 , …, Xn D. Die Zufallsvariable R = Xn* - X1* nennt man Spannweite von X1 , X2 , …, Xn . 19.2.6 Beispiel: (Die Verteilungsdichte der k-ten Ordnungsstatistik): Gesucht ist die Verteilungsdichte der k-ten Ordnungsstatistik Xk* der vollständig unabhängigen, stetigen und identisch verteilten Zufallsvariablen X1 , X2 , …, Xn . ô Lösung: Es bezeichne X bzw X die Verteilungsfunktion bzw die Verteilungsdichte der Zufallsvariablen Xi . Für alle x œ gilt dann X * @xD = k 1 @8Xk* œ @x, x + „ xD<D = „x Von den Zufallsvariablen X1 , X2 , …, Xn liegt eine im Intervall @x, x + „ xD, = 1 @: >D = „x k - 1 sind kleiner als x und die restlichen n - k sind größer als x = n X @xD J n - 1 N H X @xDLk-1 H1 - X @xDLn-k k-1 19.2.7 Beispiel (Die Verteilungsdichte der Spannweite): Gesucht ist die Verteilungsdichte der Spannweite R = Xn* - X1* der vollständig unabhängigen, stetigen und identisch verteilten Zufallsvariablen X1 , X2 , …, Xn . ô Lösung: Es bezeichne wieder X bzw X die Verteilungsfunktion bzw die Verteilungsdichte der Zufallsvariablen Xi . Für alle u, v œ mit u § v gilt dann X * ,X * @u, vD = 1 n = 1 @8X1* œ @u, u + „ uD< › 8Xn* œ @v, v + „ vD<D = „u „v Von den Zufallsvariablen X1 , X2 , …, Xn liegt je eine im Intervall 1 @8 <D = „u „v @u, u + „ uD und @v, v + „ vD, die restlichen n - 2 liegen im Intervall @u, vD = n X @uD Hn - 1L X @vD H X @vD - X @uDLn-2 Aus Bemerkung 18.2.5 zusammen mit Bemerkung 18.2.3 folgt damit für alle x > 0 R @xD = X * -X * @xD = Ÿ-¶ X * 8X * =u< @u + xD X * @uD „ u = Ÿ-¶ X * ,X * @u, u + xD „ u = n 1 n 1 1 1 n ¶ ¶ = n Hn - 1L Ÿ-¶ X @uD X @u + xD H X @u + xD - X @uDLn-2 „ u ¶ 19.2.8 Beispiel: Die Entwicklung einer Population (etwa Bakterien in einer Nährlösung) lässt sich in der folgenden Weise modellieren: † In der 0-ten Generation ist ein einziges Individuum vorhanden; † Die einzelnen Individuen vermehren sich unabhängig voneinander; † Die Anzahl der Nachkommen eines einzelnen Individuums ist eine @lD-verteilte Zufallsvariable. Man bestimme den Erwartungswert der Anzahl der Individuen der n-ten Generation und die Wahrscheinlichkeit dafür, dass die Population ausstirbt. ô 19_Unabhaengige_Zufallsvariable.nb 98 Lösung: Wir bezeichnen mit Ni die Anzahl der Individuen der i-ten Generation und mit Zi,k die Anzahl der Nachkommen des k-ten Individuums der i-ten Generation. Aus der Angabe folgt unmittelbar, dass die Zufallvariablen Zi,k vollständig unabhängig und @lD-verteilt sind, dass N0 = 1 ist und dass für alle i œ 0 die Beziehung Ni+1 = Zi,1 + Zi,2 + … + Zi,N i gilt. Wegen Beispiel 16.3.2 und der Formel von Wald gilt damit @Nn D = @Zn-1,1 + Zn-1,2 + … + Zn-1,N n-1 D = l @Nn-1 D = l2 @Nn-2 D = … = ln @N0 D = ln Die von uns gesuchte Aussterbewahrscheinlichkeit @AD genügt auf Grund des Satzes von der totalen Wahrscheinlichkeit und der Tatsache, dass sich die einzelnen Individuen unabhängig voneinander vermehren, der Gleichung ¶ @AD = ⁄ @: k=0 Jede der von den N1 Individuen der ersten Generation > 8N1 = k<D @8N1 = k<D = abstammenden Populationen stirbt aus ¶ k = ⁄ @ADk ‰-l l = Exp@l H@AD - 1LD k ! k=0 Zeichnet man die beiden Funktionen y1 @xD = x und y2 @xD = ‰lHx-1L für verschiedene Werte von l in eine gemeinsame Zeichnung (der Fall l § 1 ist rot, der Fall l ¥ 1 ist grün gezeichnet) 1.2 1.0 0.8 0.6 0.4 0.2 0.2 0.4 0.6 0.8 1.0 (oder berücksichtigt man, dass offenbar y2 '@1D = l gilt), so erkennt man, dass die Gleichung x = ‰l Hx-1L im Fall l § 1 im Intervall @0, 1D nur die Nullstelle x = 1 besitzt, während diese Gleichung im Fall l > 1 außer der Nullstelle x = 1 im Intervall @0, 1D noch eine weitere Nullstelle x* besitzt, welche sich mit Hilfe von FindRoot leicht ermitteln lässt. Das bedeutet, dass die Population im Fall l § 1 (jedes Individuum besitzt im Mittel höchstens einen Nachkommen) mit Sicherheit ausstirbt, während sie im Fall l > 1 (jedes Individuum besitzt im Mittel mehr als einen Nachkommen) nur mit der Wahrscheinlichkeit x* < 1 ausstirbt und daher mit der Wahrscheinlichkeit 1 - x* > 0 überlebt. Beispielsweise ergibt sich für l = 1.1 eine Aussterbewahrscheinlichkeit von x* = 0.823866. l = 1.1; FindRoot@x ä Exp@l Hx - 1LD, 8x, 0<D Clear@lD 8x → 0.823866< 19.2.9 Beispiel: Eine große Werkshalle wird von n Beleuchtungskörpern beleuchtet. Die Lebensdauern der in diesen Beleuchtungskörpern verwendeten Lampen sind im Intervall @0, TD gleichverteilt. Falls eine Lampe ausfällt wird sie sofort durch eine neue Lampe ersetzt, was Kosten in der Höhe von g n Euro verursacht. Um Kosten zu sparen, schlägt die Betriebsleitung vor, alle n Lampen routinemäßig nach t < T Zeiteinheiten auszutauschen, was Kosten in der Höhe von a + b n verursacht (wobei a + b n < g n ist). Lampen, welche während einer derartigen Periode ausbrennen, werden nach wie vor stets sofort durch neue Lampen ersetzt. Wie muss t gewählt werden, um die mittleren Gesamtkosten pro Zeiteinheit zu minimieren? 19_Unabhaengige_Zufallsvariable.nb 99 ô Lösung: Wir betrachten vorerst nur einen einzigen Beleuchtungskörper und bezeichnen mit N die Anzahl der Lampen, welche im Zeitintervall @0, tD zum Einsatz gelangen. Da die Lebensdauern X1 , X2 , …, X N dieser Lampen vollständig unabhängig und im Intervall @0, TD gleichverteilt sind, folgt aus dem Satz von der totalen Wahrscheinlichkeit in differenzieller Form (die Ereignisse 8X1 œ @x1 , x1 + „ x1 D< bilden ein "infinitesimales" vollständiges Ereignissystem) @8N ¥ 1<D = @8X1 < t<D = tê T @8N ¥ 2<D = @8X1 + X2 < t<D = Ÿ-¶ @8X1 + X2 < t< 8X1 = x1 <D @8X1 œ @x1 , x1 + „ x1 D<D = ¶ = 1 t 1 t t - x1 1 „ x1 = Htê TL2 Ÿ @8X2 < t - x1 <D „ x1 = Ÿ 0 T T 0 T 2 ∫∫∫∫ @8N ¥ k<D = A9X1 + X2 + … + Xk < t=E = … = t - x1 k-1 1 t 1 1 K O „ x1 = HtêTLk Ÿ0 H T T k! k - 1L ! was aber ¶ ¶ ¶ k=1 k=1 k=1 @ND = ⁄ k @8N = k<D = ⁄ k H@8N ¥ k<D - @8N ¥ k + 1<DL = ⁄ @8N ¥ k<D = ‰têT - 1 zur Folge hat. Für die mittleren Gesamtkosten K@tD pro Zeiteinheit bei dieser Erneuerungspolitik gilt damit K@tD = g n H‰têT - 1L + a + b n t Die Frage, wie t gewählt werden muss, damit die mittleren Gesamtkosten pro Zeiteinheit K@tD minimal sind, läuft somit auf eine einfache Extremwertaufgabe hinaus. Indem wir die erste Ableitung von K@tD nach t Null setzen, ergibt sich für den von uns gesuchten Wert t die Gleichung ‰têT H1 - tê TL = 1 - a+ bn gn Diese Gleichung lässt sich mit den Abkürzungen x = têT und r = Ha + b nL êHg nL mit Mathematica mühelos lösen. Für r = 0.8 ergibt sich beispielsweise r = 0.8; FindRoot@Exp@xD H1 - xL ä 1 - r, 8x, 1<D Clear@rD 8x → 0.920322< 19.2.10 Beispiel: Gegeben ist eine gemeinsame Verteilungsdichte der Zufallsvariablen X1 , X2 : 0, x1 § 0 oder x2 § 0 X X Hx1 , x2 L = 2 2 1 2 4 x1 x2 e-Ix1 +x2 M x1 > 0 und x2 > 0, Sind die Zufallsvariablen X1 und X2 unkorreliert und unabhängig? ô Lösung: 2 2 2 2 2 X Hx1 L = Ÿ0¶ X X Hx1 , x2 L „ x2 = Ÿ0¶ 4 x1 x2 e-Ix1 +x2 M „ x2 = 4 x1 e-x1 Ÿ0¶ x2 e-x2 „ x2 = 2 x1 e-x1 1 1 2 19_Unabhaengige_Zufallsvariable.nb 100 2 2 2 2 2 X Hx2 L = Ÿ0¶ X X Hx1 , x2 L „ x2 = Ÿ0¶ 4 x1 x2 e-Ix1 +x2 M „ x2 = 4 x2 e-x2 Ÿ0¶ x1 e-x1 „ x1 = 2 x2 e-x2 2 1 2 X X Hx1 , x2 L = X Hx1 L X Hx2 L 1 2 1 2 Die Zufallsvariablen X1 und X2 sind unabhängig voneinander 2 2 2 p 2 2 2 p ¶ x Hx L „ x = ¶ 2 x2 e-x1 „ x = - ¶ x „ e-x1 = ¶ e-x1 „ x = @X1 D= Ÿ-¶ Ÿ0 1 Ÿ0 1 X1 1 1 Ÿ0 1 1 1 2 ¶ x Hx L „ x = ¶ 2 x2 e-x2 „ x = - ¶ x „ e-x2 = ¶ e-x2 „ x = @X2 D= Ÿ-¶ Ÿ0 2 Ÿ0 2 X2 2 2 Ÿ0 2 2 2 2 -Ix +x M ¶ ¶ x x ¶ ¶ @X1 ÿ X2 D = Ÿ-¶ Ÿ-¶ 1 2 X1 X2 Hx2 L „ x1 „ x2 = Ÿ0 Ÿ0 x1 x2 4 x1 x2 e 1 2 „ x1 „ x2 = 2 2 2 4 Ÿ0¶ x21 e-x1 Ÿ0¶ x22 e-x2 „ x2 „ x1 = p 2 ÿ p 2 = p 4 2 = @X1 D ÿ@X2 D fl cov@X1 , X2 D = @X1 ÿ X2 D - @X1 D ÿ@X2 D = 0 r= cov@X1 ,X2 D @X1 D @X2 D =0 19.3 Die Faltung von Verteilungen Wir beginnen mit einem einfachen Beispiel 19.3.1 Beispiel: Sind die beiden Zufallsvariablen X und Y unabhängig und stetig bzw diskret, so gilt ¶ @u - yD @yD „ y X +Y @uD = Ÿ-¶ X Y bzw X +Y @uD = ⁄yœ X @u - yD Y @yD Y ô Beweis: Wir beschränken uns auf den stetigen Fall. Aus dem Satz von der totalen Wahrscheinlichkeit in differenzieller Form (die Ereignisse 8Y œ @y, y + „ yD< bilden ein "infinitesimales" vollständiges Ereignissystem) zusammen mit der Tatsache, dass die Zufallsvariablen X und Y unabhängig sind (Einsetzen einer Bedingung), folgt X +Y @uD = 1 @8X + Y œ @u, u + „ uD<D = „u = 1 ¶ @8X + Y œ @u, u + „ uD< 8Y = y<D @8Y œ @y, y + „ yD<D = „ u Ÿ-¶ = 1 ¶ ¶ @8X œ @u - y, u - y + „ uD<D @8Y œ @y, y + „ yD<D = Ÿ-¶ X @u - yD Y @yD „ y „ u Ÿ-¶ Wir nehmen diese Erkenntnis zum Anlass für die folgende 19_Unabhaengige_Zufallsvariable.nb 101 19.3.2 Definition: Sind und zwei stetige bzw zwei diskrete Verteilungen mit den Dichten und , so nennt man die Verteilungsdichte * mit ¶ * @uD = Ÿ-¶ @u - yD @yD „ y bzw * @uD = ⁄yœ @u - yD @yD die Faltung von und (dass es sich bei dieser Funktion tatsächlich um eine Verteilungsdichte handelt, folgt aus Beispiel 19.3.1) und die Verteilung * mit der Dichte * die Faltung von und . Aus dieser Begriffsbildung folgt unmittelbar: 19.3.3 Bemerkung: a) Sind die beiden Zufallsvariablen X und Y unabhängig, so gilt X +Y = X *Y . b) Die Faltung ist kommutativ und assoziativ, es gilt also * = * und *H *L = H *L * . Für die in Mathematica implementierten Verteilungen gelten eine Reihe von Faltungsformeln: 19.3.4 Bemerkung: Es gelten die folgenden Faltungsformeln a) @m, pD * @n, pD = @m + n, pD für alle m, n œ und 0 § p § 1 b) @m, pD * @n, pD = @m + n, pD für alle m, n œ und 0 § p § 1 c) @lD * @mD = @l + mD d) amma@a, lD * amma@ b, lD = amma@a + b, lD e) @m, sD * @n, tD = Am + n, SqrtAs2 + t2 EE für alle l, m > 0 für alle a, b, l > 0 für alle m, n œ und s, t > 0 f) hi@mD * hi@nD = hi@m + nD für alle m, n œ ô Beweis: Wir beweisen diese Faltungsformeln mit Hilfe von Mathematica: a) Für alle m, n œ und 0 § p § 1 gilt FullSimplify@Sum@PDF@BinomialDistribution@m, pD, u - yD PDF@BinomialDistribution@n, pD, yD, 8y, 0, n<D ä PDF@BinomialDistribution@m + n, pD, uDD True b) Für alle m, n œ und 0 § p § 1 gilt (Mathematica benötigt die Voraussetzung u œ 80, 1, 2, …<) FullSimplify@ Sum@PDF@NegativeBinomialDistribution@m, pD, u - yD PDF@NegativeBinomialDistribution@n, pD, yD, 8y, 0, u<D ä PDF@NegativeBinomialDistribution@m + n, pD, uD, 8u Œ Integers, u ≥ 0<D True c) Für alle l, m > 0 gilt (Mathematica benötigt die Voraussetzungen l, m > 0) FullSimplify@Sum@PDF@PoissonDistribution@lD, u - yD PDF@PoissonDistribution@mD, yD, 8y, 0, u<D ä PDF@PoissonDistribution@l + mD, uD, 8l > 0, m > 0<D True d) Für alle a, b, l > 0 gilt (Mathematica benötigt die Voraussetzungen a, b, l, u > 0 sowohl bei der Berechnung des Faltungsintegrals als auch bei der Vereinfachung mit FullSimplify) 19_Unabhaengige_Zufallsvariable.nb 102 FullSimplify@Integrate@PDF@GammaDistribution@a, lD, u - yD PDF@GammaDistribution@ b, lD, yD, 8y, 0, u<, Assumptions Æ 8a > 0, b > 0, l > 0, u > 0<D ä PDF@GammaDistribution@a + b, lD, uD, 8a > 0, b > 0, l > 0, u > True e) Für alle m, n œ und s, t > 0 gilt (Mathematica benötigt die Voraussetzungen s, t > 0) FullSimplify@Integrate@PDF@NormalDistribution@m, sD, u - yD PDF@NormalDistribution@n, tD, yD, 8y, -•, •<D ä PDF@NormalDistribution@m + n, Sqrt@s2 + t2 DD, uD, 8s > 0, t > 0<D True f) Für alle m, n œ gilt (Mathematica benötigt die Voraussetzungen m, n, u > 0 bei der Berechnung des Faltungsintegrals) FullSimplify@Integrate@PDF@ChiSquareDistribution@mD, u - yD PDF@ChiSquareDistribution@nD, yD, 8y, 0, u<, Assumptions -> 8m > 0, n > 0, u > 0<D ä PDF@ChiSquareDistribution@m + nD, uDD True Es folgen wieder einige Beispiele: 19.3.5 Beispiel: Die drei Zufallsvariablen X, Y und Z seien vollständig unabhängig und im Intervall @0, 1D gleichverteilt. Man ermittle die Verteilungsdichten von X + Y und X + Y + Z und zeichne diese Dichten. (Man beachte, dass die Verteilungsdichte von X + Y + Z bereits der Verteilungsdichte einer Normalverteilung ähnelt und vergleiche dazu die Aussagen des zentralen Grenzverteilungssatzes.) ô Lösung: Die Zufallsvariable X + Y besitzt den Träger X +Y = @0, 2D, die Zufallvariable X + Y + Z besitzt den Träger X +Y+Z = @0, 3D. Für alle u œ @0, 2D gilt ¶ X +Y @uD = X * Y @uD = Ÿ-¶ X @u - yD Y @yD „ y = u für 0 § u § 1 1 für 1 < u § 2 Ÿ0 „ y = u Ÿ u-1 „ y = 2 - u Für alle u œ @0, 3D gilt ¶ X +Y+Z @uD = X +Y * Z @uD = Ÿ-¶ X +Y @u - zD Z @zD „ z = 2 Ÿ 0 Hu - zL „ z = u ë 2 u = Ÿ Hu - zL „ z + Ÿ u-1 0 1 u-1 für 0 § u § 1 H2 - u + zL „ z = I-3 + 6 u - u2 Më 2 2 Ÿ u-2 H2 - u + zL „ z = I9 - 6 u + u Më 2 1 für 1 < u § 2 für 2 § u § 3 Natürlich lassen sich diese Verteilungsdichten auch mit Hilfe von Mathematica ermitteln fXY@u_D := Integrate@PDF@UniformDistribution@80, 1<D, u - yD PDF@UniformDistribution@80, 1<D, yD, 8y, -•, •<D; fXY@uD 2−u 1<u<2 u 0<u≤1 19_Unabhaengige_Zufallsvariable.nb 103 fXYZ@u_D := Integrate@fXY@u - zD PDF@UniformDistribution@0, 1D, zD, 8z, -•, •<D; FullSimplify@fXYZ@uDD 1 u1 2 u2 0<u<1 2 3 − − H−3 + uL u 1 < u < 2 2 1 H−3 + uL2 2≤u<3 2 und zeichnen PlotAEvaluate@fXY@uDD, 8u, -0.2, 2.2<, AxesLabel Æ 9u, X+Y @uD=, PlotStyle Æ [email protected], PlotRange Æ AllE X +Y HuL 1.0 0.8 0.6 0.4 0.2 0.5 1.0 1.5 2.0 u PlotAEvaluate@fXYZ@uDD, 8u, -0.2, 3.2<, AxesLabel Æ 9u, X+Y +Z @uD=, PlotStyle Æ [email protected], PlotRange Æ All X +Y+Z HuL 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.5 1.0 1.5 2.0 2.5 3.0 u Clear@fXY, fXYZD 19.3.6 Beispiel: Die Zufallsvariablen X1 , Y1 , X2 , Y2 seien vollständig unabhängig und @0, 1D-verteilt. Gesucht ist die Verteilungsfunktion und der Erwartungswert des Abstandes Z der beiden zufälligen Punkte P = HX1 , Y1 L und Q = HX2 , Y2 L voneinander. ô Lösung: Für alle z œ Z = @0, ¶@ gilt Z @zD = @8Z § z<D = @8 HX2 - X1 L2 + HY2 - Y1 L2 § z<D = = @8HHX2 - X1 L ê 2 L2 + HHY2 - Y1 L ê 2 L2 § z2 ê 2<D Die beiden Zufallsvariablen HX2 - X1 L ê 2 und HY2 - Y1 L ê 2 sind (vgl die Faltungsformel für Normalverteilungen und den Satz über die affine Transformation) @0, 1D-verteilt, also genügt die Summe ihrer Quadrate 19_Unabhaengige_Zufallsvariable.nb 104 HHX2 - X1 L ê 2 L2 + HHY2 - Y1 L ê 2 L2 (vgl die Quadrateigenschaft und die Faltungsformel für Chi-Quadrat Verteilungen) einer hi@2D-Verteilung. Für die Verteilungsfunktion Z @zD bzw den Erwartungswert @ZD des Abstandes Z der beiden zufälligen Punkte P und Q voneinander ergibt sich daher mit Hilfe von Mathematica F@z_D := CDF@ChiSquareDistribution@2D, z2 ê 2D; F@zD Integrate@z D@F@zD, zD, 8z, 0, •<D Clear@FD z2 − 1− 4 π 19.3.7 Beispiel: Die Zufallsvariablen X1 und X2 seien unabhängig und exponentialverteilt mit Parameter l1 bzw. l2 . Berechnen Sie die Verteilung von X1 - X2 . Lösen Sie damit folgendes Problem: Die Lebensdauern zweier Geräte seien unabhängig und exponentialverteilt mit Parameter l1 bzw. l2 . Bestimmen Sie die Wahrscheinlichkeit dafür, dass das erste Gerät länger hält als das zweite. ô Lösung: Z := X1 - X2 X1 ~ Hl1 L, X2 ~ Hl2 L @ZD = ¶ H8X - X § z< 8X œ @x, x + „ xD<L H8X œ @x, x + „ xD<L = Z HzL = H8X1 - X2 § z<L = Ÿ-¶ 1 2 2 2 ¶ H8X § z + x<L HxL „ x = ¶ Hz + xL HxL „ x = = Ÿ-¶ Ÿ-¶ X1 1 X2 X2 Ÿmax 80,-z< X1 Hz + xL X2 HxL „ x = ¶ : -l Hx+zL M l e-l2 x „ x = 1 ¶ Ÿ0 I1 - e 1 2 Ÿ-z I1 - e ¶ -l1 Hx+zL M l e-l2 x „ x = 2 l1 l2 l1 +l2 l1 +l2 e-l1 z , z ¥ 0 e-l2 z , z<0 l1 l2 e-l1 z , z ¥ 0 l1 +l2 Z HzL = : l l 1 2 e-l2 z , z < 0 l1 +l2 H8X1 > X2 <L = H8X1 - X2 > 0<L = 1 - Z H0L = l1 l1 +l2 19.3.8 Beispiel: Seien X und Y zwei unabhängige, auf @a, bD gleichverteilte Zufallsvariablen. Bestimmen Sie die Verteilungsdichte von X + Y . ô 19_Unabhaengige_Zufallsvariable.nb 105 Lösung: X , Y œ @a, bD, d.h. X + Y œ @2 a, 2 bD, X +Y HzL = 0 für z œ \@2a ,2bD z œ @2 a, 2 bD Für gilt min 8z-a,b< ¶ Hz - yL HyL „ y = X +Y HzL = Ÿ-¶ Ÿmax 8z-b,a< X Y 1 Hb-aL2 „y= 1 Hb-aL2 Hmin 8z - a, b< - max 8z - b, a<L a§ y§b a § z - y § b, z - b § y § z - a Für 2 a § z § a + b X +Y HzL = 1 Hb-aL2 Hz - a - aL = z-2 a Hb-aL2 Hb - z + bL = 2 b-z Hb-aL2 Für 2 b ¥ z ¥ a + b X +Y HzL = 1 Hb-aL2 19.3.9 Beispiel: Vom Unendlichen kommend bewegt sich ein Beobachter A auf einen stationären Beobachter B zu. Die Entfernungen, unter denen sich die beiden Beobachter gerade noch sehen können, sind unabhängige, normalverteilte Zufallvariablen X bzw Y mit den Mittelwerten m A = 10 km bzw mB = 15 km und der Streuung s = 2 km. Wie groß ist die Wahrscheinlichkeit dafür, dass der Beobachter A den Beobachter B zuerst sieht? ô Lösung: Die Zufallsvariable X - Y ist (vgl die Faltungsformel für Normalverteilungen sowie den Satz über die affine Transformation) @-5, 2 2 D-verteilt. Für die von uns gesuchte Wahrscheinlichkeit @8X > Y <D = @8X - Y > 0<D = 1 - X -Y @0D gilt damit 1 - CDF@NormalDistribution@-5, 2 Sqrt@2DD, 0D êê N 0.0385499 19_Unabhaengige_Zufallsvariable.nb 106 19.3.10 Beispiel: Die Lebensdauer Z (gemessen in Tagen) eines elektrischen Geräts sei eine mit dem Parameter l exponentialverteilte Zufallsvariable. Die Betriebszeiten X1 , X2 , … dieses Geräts an den einzelnen Tagen seien vollständig unabhängig und im Intervall @0, 1D gleichverteilt. Man ermittle die Wahrscheinlichkeit dafür, dass dieses Gerät mindestens n Tage voll funktioniert und bestimme den Erwartungswert der Anzahl der Tage T in denen dieses Gerät voll funktioniert. ô Lösung: Für alle n œ gilt @8T ¥ n<D = @8Z ¥ X1 + X2 + … + Xn <D = @8Z - X1 - X2 - … - Xn ¥ 0<D Nun gilt aber für alle n œ und alle y ¥ 0 offenbar Z-X -X -…-Xn @yD = Z-X -X -…-X * @yD 1 2 1 2 n-1 -Xn Wir werten diese Rekursionsformel unter Verwendung von Simplify und ExpandAll mit Hilfe von Mathematica aus, wobei wir berücksichtigen, dass die Zufallsvariablen -Xi im Intervall @-1, 0D gleichverteilt sind f@y_, 1D := Integrate@PDF@ExponentialDistribution@lD, y - x@1DD PDF@UniformDistribution@8-1, 0<D, x@1DD, 8x@1D, -1, 0<D f@y_, n_D := Simplify@ExpandAll@Integrate@f@y - x@nD, n - 1D PDF@UniformDistribution@8-1, 0<D, x@nDD, 8x@nD, -1, 0<DDD f@y, 1D f@y, 2D f@y, 3D f@y, 4D Clear@fD −H1+yL λ I−1 + λ M −H2+yL λ I−1 + λ M2 λ −H3+yL λ I−1 + λ M3 λ2 −H4+yL λ I−1 + λ M4 λ3 und erhalten (streng genommen sollte diese Aussage noch mit vollständiger Induktion nach n bewiesen werden) 1 Z-X -X -…-Xn @yD = H‰l - 1Ln H‰-lHy+nL L 1 2 n-1 l Für die von uns gesuchte Wahrscheinlichkeit @8T ¥ n<D gilt somit @8T ¥ n<D = @8Z - X1 - X2 - … - Xn ¥ 0<D = Ÿ 1 ¶ @yD „ y = n H1 - ‰- l Ln 0 Z-X1 -X2 -…-Xn l wobei wir das Integral mit Hilfe von Mathematica ausgewertet haben: 19_Unabhaengige_Zufallsvariable.nb 107 Integrate@l-n+1 HExp@lD - 1Ln Exp@-l Hy + nLD, 8y, 0, •<, Assumptions Æ 8l > 0<D −n λ −1 + λ n λ Für den Erwartungswert @TD der Anzahl der Tage T, in denen dieses Gerät voll funktioniert, ergibt sich somit ¶ ¶ n=1 n=1 1 ‰l -1 H1 - ‰- l Ln = n n=1 l 1-‰l +l‰l ¶ @TD = ⁄ n @8Z = n<D = ⁄ @8T ¥ n<D = ⁄ wobei wir die Summe ebenfalls mit Hilfe von Mathematica ausgewertet haben: Sum@H1 - Exp@-lDLn ê ln , 8n, 1, •<D −1 + λ 1 − λ + λ λ 19.3.11 Beispiel (Die MAXWELL'sche Geschwindigkeitsverteilung): Wir betrachten ein Gas, das in einem großen Behälter eingeschlossen ist. Zwischen den einzelnen Molekülen dieses Gases sollen keinerlei Wechselwirkungen bestehen (ideales Gas). Außerdem sollen im ganzen Behälter die gleiche Temperatur und der gleiche Druck herrschen. Wir greifen zufällig ein Molekül dieses Gases heraus und bezeichnen mit V seinen Geschwindigkeitsvektor. Die Physik rechtfertigt die Annahme (MAXWELL), dass die drei Komponenten V1 , V2 , V3 des Geschwindigkeitsvektors vollständig unabhängig und mit den Parametern 0 und s normalverteilt sind, wobei die Varianz s2 die physikalische Bedeutung s2 = k T êm besitzt. Dabei bezeichnet k die Boltzmann Konstante, T die absolute Temperatur des Gases und m die Masse des Moleküls. Gesucht sind die Verteilungsdichte der Geschwindigkeit V = †V § und die mittlere kinetische Energie Am V 2 ë 2E dieses Moleküls. ô Lösung: Für alle v ¥ 0 gilt V @vD = @8†V § § v<D = @8V12 + V22 + V32 § v2 <D = @8HV1 êsL2 + HV2 êsL2 + HV3 ê sL2 § v2 ês2 <D Aus dem Satz über die affine Transformation und der Quadrateigenschaft folgt unmittelbar, dass die drei Zufallsvariablen HV1 êsL2 , HV2 êsL2 und HV3 ê sL2 hi@1D-verteilt sind. Die Summe dieser drei vollständig unabhängigen Zufallsvariablen ist daher wegen der Faltungsformeln hi@3D-verteilt. Für die Verteilungsdichte V der Geschwindigkeit V sowie die mittlere kinetische Energie Am V 2 ë 2E dieses Moleküls ergeben sich somit wegen F@v_D := CDF@ChiSquareDistribution@3D, v2 ê s2 D; f@v_D := D@F@vD, vD; FullSimplify@f@vD ê. s Æ Sqrt@k T ê mD, v > 0D Integrate@Hm v2 ê 2L f@vD, 8v, 0, •<, Assumptions Æ 8s > 0<D ê. s Æ Sqrt@k T ê mD Clear@F, fD m v2 − 2Tκ 2 π 3Tκ 2 v2 m Tκ 3ê2 19_Unabhaengige_Zufallsvariable.nb 108 die den Physikern wohlbekannten Formeln m v2 V @vD = m 3ê2 2 - 2 k T 2 êp K O v ‰ kT und @ 3kT m V2 D= 2 2 19.4 Die Gesetze der großen Zahlen In diesem Abschnitt befassen wir uns mit fundamentalen Sätzen über das Grenzverhalten des arithmetischen Mittels einer Summe von vielen vollständig unabhängigen, integrierbaren und identisch verteilten Zufallsvariablen. Um diese Gesetze in ihrer vollen Tragweite verstehen zu können, müssen wir zuerst zwei Konvergenzarten definieren: 19.4.1 Definition: Man sagt, die Folge HZn Lnœ von Zufallsvariablen auf dem W-Raum HW, L konvergiert stochastisch gegen die Zufallsvariable Z, wenn für alle ¶ > 0 die folgende Beziehung gilt: lim @8 Zn - Z § ¶<D = 1 nض 19.4.2 Definition: Man sagt, die Folge HZn Lnœ von Zufallsvariablen auf dem W-Raum HW, L konvergiert fast sicher gegen die Zufallsvariable Z, wenn die folgende Beziehung gilt: @8 lim Zn = Z<D = 1 nض Man beachte: 19.4.3 Bemerkung: Aus der fast sicheren Konvergenz folgt die stochastische Konvergenz. Umgekehrt folgt aber aus der stochastischen Konvergenz nicht die fast sichere Konvergenz. ô Beweis: Falls die Folge HZn Lnœ von Zufallsvariablen auf dem W-Raum HW, L fast sicher gegen die Zufallsvariable Z konvergiert, so folgt für alle ¶ > 0 aus der Stetigkeit von Wahrscheinlichkeitsmaßen (die Ereignisse 8supk¥n Zk - Z > ¶< nehmen mit wachsendem n nämlich monoton ab und konvergieren gegen eine Teilmenge des Ereignisses 8limnض Zn ∫ Z<) limnض @8 Zn - Z > ¶<D § limnض @8supk¥n Zk - Z > ¶<D § @8limnض Zn ∫ Z<D = 0 Damit ist gezeigt, dass aus der fast sicheren Konvergenz die stochastische Konvergenz folgt. Dass die umgekehrte Implikation aber nicht gilt, erkennt man an dem folgenden Gegenbeispiel: Wir betrachten dazu den W-Raum HW, L mit W = @0, 1D und = @80, 1<D. Für jedes n œ mit n = m + 2k und 0 § m < 2k definieren wir die Zufallsvariable Zn @wD = : 1 0 für w œ @m 2-k , Hm + 1L 2-k D sonst Wie man an Hand der folgenden Animation erkennt 19_Unabhaengige_Zufallsvariable.nb 109 Manipulate@k = Floor@Log@2, nDD; m = n - 2k ; Plot@Piecewise@881, m 2-k £ w £ Hm + 1L 2-k <<D, 8w, -0.1, 1.1<, PlotStyle Æ [email protected], AspectRatio Æ 0.4, PlotRange Æ All, ImageSize Æ 8200, 100<D, 8n, 1, 31, 1, Appearance Æ "Labeled"<D $Aborted besteht die Folge HZn Lnœ aus immer kürzeren "Impulsen", welche über das Intervall @0, 1D "laufen". Diese Folge konvergiert zwar offenbar stochastisch (die Länge dieser Impulse geht gegen 0) aber nicht fast sicher gegen die Nullfunktion. Wir sind nun in der Lage, die Gesetze der großen Zahlen zu formulieren: 19_Unabhaengige_Zufallsvariable.nb 110 19.4.4 Schwaches Gesetz der großen Zahlen: Sind die Zufallsvariablen Z1 , Z2 , … paarweise unabhängig, identisch verteilt und integrierbar, so konvergiert die Folge HZ n Lnœ ihrer arithmetischen Mittel 1 Z n = ⁄ni=1 Zi n stochastisch gegen den (für alle Zufallsvariablen Zi gleichen) Erwartungswert @Z1 D. ô Beweis: Wir beschränken uns auf den Fall, dass die Zufallsvariablen Z1 , Z2 , … quadratisch integrierbar sind. In diesem Fall folgt aus der Ungleichung von Tschebyscheff und der Summenregel für alle ¶ ¥ 0 1 n 1 n 1 n ⁄ Zi - @Z1 D > ¶<D = lim @8 ⁄ Zi - @ ⁄ Z D > ¶<D § n i=1 n i=1 n i=1 i nض lim @8 nض § lim 1 nض ¶2 @ 1 1 1 n ⁄ Zi D = lim 2 2 n @Zi D = 0 n i=1 nض ¶ n Das schwache Gesetz der großen Zahlen besitzt einige wichtige Anwendungen. Die beiden folgenden Beispiele erklären, warum man die relative Häufigkeit eines Ereignisses als gute Näherung für die Wahrscheinlichkeit dieses Ereignisses ansehen kann und warum es möglich ist, mit Hilfe der Monte-Carlo Methode ein Integral näherungsweise zu bestimmen: 19.4.5 Beispiel: Man zeige, dass die relative Häufigkeit n @AD eines Ereignisses A mit zunehmender Anzahl n von Wiederholungen stochastisch gegen die Wahrscheinlichkeit @AD dieses Ereignisses konvergiert. (Man beachte, dass damit unsere Faustregel aber noch nicht bewiesen ist!) ô Lösung: Die Zufallsvariable Zi sei gleich 1 bzw 0, je nachdem ob beim i-ten Versuch das Ereignis A eintritt bzw nicht eintritt. Die Zufallsvariablen Z1 , Z2 , … erfüllen die Voraussetzungen des schwachen Gesetzes der großen Zahlen, also gilt für alle ¶ > 0 lim @8 n @AD - @AD > ¶<D = lim @8 nض nض 1 n ⁄ Z - @Z1 D > ¶<D = 0 n i=1 i 19.4.6 Beispiel: Man zeige die folgende Behauptung (Monte-Carlo Methode): Ist g : @0, 1Dm Ø eine integrierbare Funktion und sind die Zufallsvariablen Z1,1 , …, Z1,m ; Z2,2 , …, Z2,m ; …; Zn,1 , …, Zn,m vollständig unabhängig und im Intervall @0, 1D gleichverteilt, so konvergiert die Folge HY n Lnœ mit Yn = 1 n g@Z , Z , …, Z D ⁄ i,1 i,2 i,m n i=1 stochastisch gegen das Integral Ÿ 1 … Ÿ 1 g@z1 , …, zm D „ z1 … „ zm . 0 0 ô Lösung: Die Zufallsvariablen Y1 , Y2 , … mit Yi = g@Zi,1 , Zi,2 , …, Zi,m D erfüllen offenbar die Voraussetzungen des schwachen Gesetzes der großen Zahlen, also gilt für alle ¶ > 0 lim @8 nض 1 n ⁄ g@Zi,1 , …, Zi,m D - Ÿ 1 … Ÿ 1 g@z1 , …, zm D „ z1 … „ zm > ¶<D = n i=1 0 0 = lim @8 nض 1 n ⁄ Y - @Y1 D > ¶<D = lim @8 Y n - @Y1 D > ¶<D = 0 n i=1 i nض 19_Unabhaengige_Zufallsvariable.nb 111 Das schwache Gesetz der großen Zahlen lässt sich wesentlich verschärfen und hat in dieser Form eine große Bedeutung für theoretische Untersuchungen. Ohne auf den tiefliegenden Beweis näher einzugehen, erwähnen wir den folgenden, im Wesentlichen von N. KOLMOGOROV stammenden Satz: 19.4.7 Starkes Gesetz der großen Zahlen: Sind die Zufallsvariablen Z1 , Z2 , … paarweise unabhängig, identisch verteilt und integrierbar, so konvergiert die Folge HZ n Lnœ ihrer arithmetischen Mittel Zn = 1 n ⁄ Z n i=1 i sogar fast sicher gegen den (für alle Zi gleichen) Erwartungswert @Z1 D.