Prof. Dr. Holger Dette Dr. Melanie Birke Musterlösungen Wahrscheinlichkeitstheorie I Wintersemester 2009/2010 Blatt 8 Aufgabe 1: (4 Punkte) 1. Es sei ϕ die charakteristische Funktion einer reellen Zufallsvariablen X. Man zeige, dass für alle a ∈ IR gilt Z n 1 exp(−iat)ϕ(t)dt. P(X = a) = lim n→∞ 2n −n 2. Man zeige: Die Zufallsvariablen X und Y sind genau dann unabhängig, wenn für die charakteristischen Funktionen gilt ϕ(X,Y ) (s, t) = ϕX (s)ϕY (t) für alle s, t ∈ IR. 3. Es sei ϕ die charakteristische Funktion einer absolut stetigen d-dimensionalen Zufallsvariablen X. Zeige, dass ϕ nichtnegativ definit ist, d.h., dass gilt n X λk λ̄j ϕ(tk − tj ) ≥ 0 für alle m ∈ IN, λ1 , . . . , λm ∈ C, I t1 , . . . , tm ∈ IRd . k,j=1 Lösung: 1. Es ist Z n 1 exp(−iat)ϕX (t)dt 2n −n 1 2n = Z n Z exp(itx)PX (dx)dt = exp(−iat) −n IR 1 2n Z n Z −n exp(it(x − a)) PX (dx)dt {z } | IR |...|≤1 Fubini = Z IR 1 2n Z n exp(it(x − a))dtPX (dx) = −n Z IR n 1 −i exp(it(x − a)) PX (dx) 2n x − a −n Z = = = i (exp(in(xa)) − exp(−in(x − a))) PX (dx)PX (dx) − 2n(x − a) IR Z sin(n(x − a)) X P (dx) n(x − a) IR Z Z sin(n(x − a)) X sin(n(x − a)) X P (dx) + P (dx). n(x − a) n(x − a) IR\{a} {a} | {z } PX ({a}) da sinx x =1 für x=0 Es folgt mit majorisierter Konvergenz ( sin(n(x−a)) ≤ n(x−a) 1 n→∞ 2n Z 1 x−a ) n lim Z exp(−iat)ϕX (t)dt = P(X = a) + lim n→∞ −n IR\{a} Z = P(X = a) + lim IR\{a} n→∞ | sin(n(x − a)) X P (dx) n(x − a) sin(n(x − a)) X P (dx) = P(X = a). n(x − a) {z } =0 2. Es seien X, Y unabhänigig. Dann folgt Z Z Z Fubini ϕ(X,Y ) (s, t) = exp(i(sx + ty))P( X, Y )(d(x, y)) = exp(isx) exp(ity)PX (dx)PY (dy) Z Z X Y = exp(isx)P (dx) exp(ity)P (dy) = ϕX (s)ϕY (t). Nun sei ϕ(X,Y ) (s, t) = ϕX (s)ϕY (t). Dann wenden wir Satz 7.10 an. Dafür sei X = (X1 , . . . , Xd1 ), Y = ×d 1 ×d 2 (Y1 , . . . , Yd2 ), d1 + d2 = d, B1 = j=1 [aj , bj ], B2 = j=1 [ej , fj ], B = B1 × B2 . (Die Borel σ-Algebren B d1 , B d2 und B d werden von den Mengen B1 , B2 bzw. B erzeugt.) Dann gilt P(X,Y ) (B) = P((X, Y ) ∈ B) Z d1 d2 Y 1 exp(−isk ak ) − exp(isk bk ) Y exp(−itk ek ) − exp(itk fk ) ϕ (s, t) d(s, t) (X,Y ) T →∞ (2π)d isk itk [−T,T ]d k=1 k=1 " Z d1 Y exp(−isk ak ) − exp(isk bk ) 1 ϕ (s) ds lim X d 1 T →∞ (2π) isk [−T,T ]d1 k=1 # Z d2 Y 1 exp(−itk ek ) − exp(itk fk ) × ϕY (t) dt (2π)d2 itk [−T,T ]d2 k=1 " # Z d1 Y exp(−isk ak ) − exp(isk bk ) 1 ϕX (s) lim ds T →∞ (2π)d1 isk [−T,T ]d1 k=1 " # Z d2 Y 1 exp(−itk ek ) − exp(itk fk ) 7.10 × lim ϕY (t) dt = P(B1 )P(B2 ). T →∞ (2π)d2 d it k [−T,T ] 2 7.10 = lim Fubini = = k=1 Wegen der Unabhängigkeit auf dem durchschnittsstabilen Erzeuger folgt die Unabhängigkeit von X und Y. 3. Es ist Z n n X X λk λ̄j ϕ(tk − tj ) = λk λ̄j exp(i(tk − tj )T x)f (x)dx k,j=1 = k,j=1 Z X n λi λ̄j exp(itTk x) exp(−tTj x)f (x)dx k,j=1 Z = n X ¯ T x) f (x)dx ≥ 0 (λi exp(itTk x))λj exp(t j k,j=1 | {z P 2 T =| n k (λi exp(itk x))| ≥0 } Aufgabe 2: (4 Punkte) X Eine Zufallsvariable besitzt eine Gitterverteilung falls für Konstanten a, b > 0 P ({a + nb|n ∈ ZZ}) = 1 gilt. Es sei ϕX die charakteristische Funktion von X. Man zeige (a) Besitzt X eine Gitterverteilung, so existiert ein t 6= 0 mit |ϕX (t)| = 1. (b) Existiert ein t 6= 0 mit |ϕX (t)| = 1, so besitzt X eine Gitterverteilung. (c) Existieren s, t ∈ IR \ {0} mit s/t ∈ / Q, I so gilt P(X = c) = 1 für eine Konstante c. Lösung: (a) Besitzt X eine Gitterverteilung, so gilt ϕX (t) = ∞ X exp(it(a + bn))PX ({a + nb}) = exp(ita) n=−∞ für t = 2π b ∞ X exp(itnb)PX ({a + nb}) n=−∞ gilt nun ∞ X |ϕX (t)| = n=−∞ exp(itnb) | {z } PX ({a + nb}) = 1. =exp(i(2πn))=1 (b) Ist |ϕX (t)| = 1 für ein t 6= 0, so gilt für dieses t ϕX (t) = exp(ita) für ein a ∈ IR. Wir erhalten Z Z X 0 = exp(ita) − ϕX (t) = (exp(ita) − exp(itx))P (dx) = exp(ita) (1 − exp(it(x − a)))PX (dx). | {z } >0 Es muss also gelten PX ({x ∈ IR|1 − exp(it(x − a)) = 0}) = 1 und es ist exp(it(x − a)) = 1 für x = a + 2π t n, n ∈ ZZ. Also handelt es sich hier um eine Gitterverteilung. (c) Wenn |ϕX (s)| = 1 und |ϕX (t)| = 1, dann liegt mit (b) eine Gitterverteilung in den Punkten a + 2π s n X 2π 2π und b + t m, n, m ∈ ZZ vor. Wegen P ({a + s n|n ∈ IN }) = 1 muss nun gelten, dass ein Punkt 2π 2π Z und b + 2π t m auch in der Menge {a + s n|n ∈ IN } liegt. Insbesodere also b = a + s n0 für ein n0 ∈ Z 2π 2π 2π 2π b + 2π m = a + n für ein n ∈ Z Z. Daraus folgt a + n + m = a + n, was äquivalent ist zu t s s 0 t s n−n0 s = ∈ Q. I Das ist aber ein Widerspruch. Also gilt mit c = a = b P(X = c) = 1. t m Aufgabe 3: (4 Punkte) Es sei (Xn )n∈IN eine Folge reeller Zufallsvariablen und X eine reelle Zufallsvariable. Man zeige: (a) Konvergiert Xn fast sicher gegen X, so konvergiert Xn in Wahrscheinlichkeit gegen X (b) Konvergiert Xn in Wahrscheinlichkeit gegen X und gilt ∞ X P(|Xn − X| > ε) < ∞, n=1 so konvergiert Xn fast sicher gegen X. (c) Es seien X1 , X2 , . . . paarweise unkorrelierte und identisch verteilte Zufallsvariablen mit endlicher Varianz. Man zeige n2 1 X Xi → E[X1 ] fast sicher. n2 j=1 Lösung: (a) Mit 8.2,3. gilt für alle ε > 0, dass 0 = lim P(sup |Xk − X| > ε) ≥ lim P(|Xn − X| > ε) ≥ 0, n→∞ k≥n n→∞ also die Konvergenz in Wahrscheinlichkeit von Xn gegen X. (b) Wir definieren {|Xn − X| > Sε} =: An . Dann folgt mit dem Lemma von Borel-Cantelli, dass 0 = ∞ P(lim supn→∞ An ) = limn→∞ P ( k=n An ) = limn→∞ P(supk≥n |Xk − X| > ε). Mit 8.2,3. folgt nun die fast sichere Konvergenz. h P 2 i n (c) Es ist E n12 i=1 Xi = E[X1 ] und daher mit der Unkorreliertheit n2 ∞ n2 ∞ Tschebyschev 1 X 1 X 1 X V(X1 ) X 1 P 2 Xi − E[X1 ] > ε ≤ V(Xj ) = < ∞. ε2 n=1 n4 j=1 ε2 n=1 n2 n i=1 n=1 ∞ X Mit Teil (b) folgt die Behauptung. Aufgabe 4: (4 Punkte) Es seien Xn und Yn Folgen von d-dimensionalen Zufallsvariablen, die stochastisch gegen X bzw. Y konvergieren. Man zeige: (a) Für jede stetige Funktion h : IRd → IRk konvergiert h(Xn ) gegen h(X). (b) Für jede konvergente Folge (an )n∈IN von d-dimensionalen Vektoren mit Grenzwert a konvergiert aTn Xn gegen aT X. (c) Es konvergiert Xn + Yn stochastisch gegen X + Y und XnT Yn stochastisch gegen X T Y . Lösung: (a) Wir verwenden das Teilfolgenkriterium 8.5. Da Xn stochastisch gegen X konvergiert, existiert für alle Teilfolgen (Xnk )k∈IN eine Teilfolge (Xnkl )l∈IN , so dass Xnkl fast sicher gegen X konvergiert. Das ist mit 8.2,3. äquivalent dazu dass für L = {ω ∈ Ω| liml→∞ Xnkl (ω) = X(ω)} gilt P(L) = 1. Weiter definieren wir M = {ω ∈ Ω| liml→∞ h(Xnkl (ω)) = h(X(ω))}. Mit der Stetigkeit von h folgt L ⊂ M und daher 1 = P(L) ≤ P(M ) ≤ 1. Also konvergiert h(Xnkl ) fast sicher gegen h(X). Wir haben gezeigt, dass für alle Teilfolgen h(Xnk ) eine Teilfolge h(Xnkl ) existiert, die fast sicher konvergiert. Mit 8.5 erhalten wir die stochastische Konvergenz von h(Xn ) gegen h(X). (b) Wir verwenden wieder das Teilfolgenkriterium und definieren L wie in (a) und M = {ω ∈ Ω| lim aTnk Xnkl (ω) = aT X(ω)}. l→∞ l Ist ω ∈ L, so gilt liml→∞ aTnk Xnkl (ω) = liml→∞ aTnk liml→∞ Xnkl (ω) = aT X. Also gilt L ⊂ M und mit l l der gleichen Argumentation wie in (a) folgt jetzt die Behauptung. (c) Auch diese Behauptungen kann man mit dem Teilfolgenkriterium zeigen. Dazu definiere hier L1 = {ω ∈ Ω| lim Xnkl (ω) = X(ω)} L2 = {ω ∈ Ω| lim Ynkl (ω) = Y (ω)} M+ M· l→∞ l→∞ = {ω ∈ Ω| lim (Xnkl (ω) + Ynkl (ω)) = X(ω) + Y (ω)} l→∞ = {ω ∈ Ω| lim (XnTk (ω)Ynkl (ω)) = X T (ω)Y (ω)}. l→∞ l Es ist nach 8.5 P(L1 ) = P(L2 ) = 1 und man zeigt leicht, dass auch gilt 1 ≥ P(L1 ∩ L2 ) = 1 − P(Lc1 ∪ Lc2 ) ≥ 1 − P(Lc1 ) − P(Lc2 ) = 1. Für ω ∈ L1 ∩ L2 gilt aber lim (Xnkl (ω) + Ynkl (ω)) l→∞ lim (XnTk (ω)Ynkl (ω)) l→∞ l = X(ω) + Y (ω) = X T (ω)Y (ω), also L1 ∩ L2 ⊂ M+ und L1 ∩ L2 ⊂ M· . Es folgt abermals P(M+ ) = 1 und P(M· ) = 1, also mit 8.5 die Behauptung.