Humboldt-Universität zu Berlin Institut für Mathematik Prof. Dr. U. Horst Stochastik I SS 2013 Übungsblatt 9 - Musterlösungen 1. [Gemeinsame Verteilung unabhängiger Zufallsvariablen] Nach Definition sind X1 , . . . , Xn genau dann unabhängig, wenn gilt: " # \ Y P {Xi ∈ Ai } = P [Xi ∈ Ai ] i∈J i∈J für alle endlichen Teilmengen J ⊆ {1, . . . , n} und Ai ∈ B(R), i ∈ J. Hinrichtung: Seien X1 , . . . , Xn unabhängig, dann können wir insbesondere J = {1, . . . , n} wählen und erhalten: "n # n n Y Y \ P [Xi ∈ Ai ] = µi (Ai ) µ̄(A1 × · · · × An ) = P {Xi ∈ Ai } = i=1 i=1 i=1 für alle A1 , . . . , An ∈ B(R). Q Rückrichtung: Es gelte µ̄(A1 × · · · × An ) = ni=1 µi (Ai ) für alle A1 , . . . , An ∈ B(R). Dann gilt auch für beliebiges J ⊆ {1, . . . , n} und Ai ∈ B(R), i ∈ J: " # n Y \ Y P {Xi ∈ Ai } = µ̄(Ã1 × · · · × Ãn ) = µi (Ãi ) = P [Xi ∈ Ai ] , i=1 i∈J i∈J mit ( Ai Ãi = R falls i ∈ J, falls i ∈ / J. 1. Diese Aussage folgt unmittelbar aus Satz 11.5, da die Zylindermengen A1 × · · · × An mit A1 , . . . , An ∈ B(R) einen ∩-stabilen Erzeuger der σ-Algebra B(Rn ) bilden. 2. Diese Aussage folgt aus dem Satz von Fubini. 3. Sei A ∈ B(Rn ), wegen Satz 11.5 können wir annehmen, Q dass A = A1 × · · · × An mit A1 , . . . , An ∈ B(R). Dann gilt nach 2. für ϕ = 1A f¯ = ni=1 1Ai fi : µ̄(A) = = = n Y µi (Ai ) i=1 n Z Y fi (xi ) dxi i=1 Ai n Z Y 1Ai fi (xi ) dxi R i=1 Z Z ··· = R Z = Rn R n Y ! 1Ai (xi )fi (xi ) dx1 · · · dxn i=1 1A (x1 , . . . , xn )f¯((x1 , . . . , xn )) d(x1 , . . . , xn ). Da Z f¯((x1 , . . . , xn )) d(x1 , . . . , xn ) = Rn n Z Y i=1 fi (xi ) dxi = 1, R R ist µ̄(A) = A f¯((x1 , . . . , xn ))d(x1 , . . . , xn ), A ∈ B(Rn ), ein Wahrscheinlichkeitsmaß auf (Rn , B(Rn )). Mit dem Eindeutigkeitssatz für Maße (Satz 11.5) ist µ̄ eindeutig festgelegt. 2. [2-dimensionale Normalverteilung] Seien X, Y gemeinsam normalverteilt mit Dichtefunktion fX,Y und unkorreliert. Um Unabhängigkeit zu zeigen, genügt es wegen Aufgabe 1 zu zeigen, dass gilt: fX,Y (x, y) = fX (x)fY (y) für alle x, y ∈ R. Da Cov(X, Y ) = 0, gilt: 2 σX 0 Σ= , 0 σY2 Σ −1 = 2 1/σX 0 0 1/σY2 , und damit: T ! 1 x − µX −1 x − µX exp − Σ fX,Y (x, y) = p y − µY 2 y − µY 2π det(Σ) 1 (x − µX )2 (y − µY )2 1 exp − = q + 2 2 σX σY2 2 σ2 2π σX Y (x − µX )2 (y − µY )2 1 1 q q exp − exp − = · 2 2σX 2σY2 2 2πσX 2πσY2 1 = fX (x)fY (y). 3. [Exponentialverteilung] Sei (Ω, A, P) derart gegeben, dass die Zufallsvariable X exponentialverteilt mit Parameter α > 0 ist. Sei Fα die zugehörige Verteilungsfunktion, also: Fα (x) = 1 − exp(−αx). (a) Es gilt nach Definition der bedingten Wahrscheinlichkeit von Übungsblatt 3 gilt allgemein für 0 ≤ s ≤ t: P[X > t | X > s] = = = = = P[{X > t} ∩ {X > s}] P[X > s] P[X > t] P[X > s] 1 − Fα (t) 1 − Fα (s) exp(−tα) exp(−sα) exp(−(t − s)α). D.h. also, die Exponentialverteilung hat kein Gedächtnis. Die Wahrscheinlichkeit, dass der Laptop mind. t Jahre funktioniert, wenn es schon s Jahre funktioniert hat, ist also genau so groß wie die Wahrscheinlichkeit, dass das Radio beim Kauf noch mind. t − s Jahre funktioniert. Konkret gilt nun: P[{X > 5} ∩ {X > 3}] P[X > 3] exp(−5α) = exp(−3α) = exp(−2α). P[X > 5 | X > 3] = (b) Es gilt für z ∈ N0 : P[bXc = z] = P[X ∈ [z, z + 1)] = Fα (z + 1) − Fα (z) = exp(−αz) − exp(−α(z + 1)) = exp(−α)z · (1 − exp(−α)) = (1 − p)z · p mit p := 1 − exp(−α). bXc ist also geometrisch verteilt zum Parameter p. 4. [Warteproblem] Wir betrachten zwei unabhängige und exponentialverteilte Zufallsvariablen X, Y mit Parametern α > 0 bzw. β > 0 auf einem entsprechenden Wahrscheinlichkeitsraum (Ω, A, P). Dann gilt für die Zufallsvariable Z := min(X, Y ): P[Z ≤ z] = P[min(X, Y ) ≤ z] = P[X ≤ z, Y ≤ z] + P[X ≤ z, Y > z] + P[X > z, Y ≤ z] = P[X ≤ z]P[Y ≤ z] + P[X ≤ z]P[Y > z] + P[X > z]P[Y ≤ z] = (1 − exp (−αz)) · (1 − exp (−βz)) + (1 − exp (−αz)) · exp (−βz) + exp (−αz) · (1 − exp (−βz)) = 1 − exp (−αz) − exp (−βz) + exp (−αz) · exp (−βz) + exp (−βz) − exp (−αz) · exp (−βz) + exp (−αz) − exp (−αz) · exp (−βz) = 1 − exp (−αz) · exp (−βz) = 1 − exp (−(α + β)z) . Damit ist Z wieder exponentialverteilt mit Parameter γ := α + β > 0. Seien nun in unserem Fall die Zufallsvariablen X und Y , die Zeiten bis zum Eintreffen der S8 bzw. S9, exponentialverteilt. Da die Exponentialverteilung gedächtnislos ist (siehe Aufgabe 3), können wir annehmen, dass die Zeiten bis zum Eintreffen der nächsten S8 bzw. S9 bei unserer Ankunft zu laufen beginnen. Die Wartezeit auf die erste Bahn nach Adlershof ist gegeben durch Z := min(X, Y ). Der Erwartungswert einer zum Paramter α exponentialver1 bzw. teilen Zufallsvariable ist α1 , d.h. X und Y sind exponentialverteilt zum Parameter 10 1 . Wegen Unabhängigkeit von X und Y gilt für z ∈ [0, ∞): 15 P[Z ≤ z] = P[min(X, Y ) ≤ z] z z = 1 − exp − 10 · 1 − exp − 15 z z + 1 − exp − 10 · exp − 15 z z + exp − 10 · 1 − exp − 15 z z − 15 = 1 − exp − 10 = 1 − exp − z6 . Folglich ist die Wartezeit exponentialverteilt mit Parameter 16 , der Erwartungswert ist demnach 6 Minuten.