Musterlösungen für Blatt 10 zur Vorlesung Statistik II, SoSe 2010 Lösung zu Aufgabe 1 Wir beweisen zunächst die Darstellung für Un . Es gilt: n −1 X n −1 X e Un − γ = (h(Xβ1 , ..., Xβr ) − γ) = h(Xβ1 , ..., Xβr ) r r β∈B β∈B r,n = = = r,n n −1 X r r Sr,n + X gc (Xβα1 , ..., Xβαc ) c=1 α∈Bc,r−1 β∈Br,n n −1 r−1 X X X gc (Xβα1 , ..., Xβαc ) c=1 β∈Br,n α∈Bc,r−1 r X c=1 gr (Xβ1 , ..., Xβr ) + r−1 X r n −1 c c Sc,n . P P Dabei folgt die letzte Gleichheit aus der Tatsache, dass die Doppelsumme β∈Br,n α∈Bc,r−1 genau n−c gleiche Summanden enthält [es gibt genau so viele r-elementige Teilmenden r−c von {1, ..., n}, die i1 , ..., ic enthalten], und wegen der Identität n −1 n − c r r−c = n −1 r c c . Weiterhin gilt wegen den Eigenschaften von gc : E[Sc,n+1 |X1 , ..., Xn ] h X i = E gc (Xβ1 , ..., Xβc )X1 , ..., Xn β∈Bc,n+1 i h h X = E gc (Xβ1 , ..., Xβc )X1 , ..., Xn + E = i gc (Xβ1 , ..., Xβc−1 , Xn+1 )X1 , ..., Xn β∈Bc,n−1 β∈Bc,n X X gc (Xβ1 , ..., Xβc ) = Sc,n . β∈Bc,n Es bleibt also zu zeigen, dass gc symmetrisch ist und dass E[gc (X1 , ..., Xc )|X1 , ..., Xc−1 ] = 0. Die Symmetrie von gc folgt aus der entsprechenden Definition. Die zweite Eigenschaft beweisen wir per Induktion. Für c = 1 folgt die Aussage sofort. Der Induktionsschritt lautet: E[gm+1 |X1 , ..., Xm ] m X = e hm (X1 , ..., Xm ) − X E[gc (Xβ1 , ..., Xβc )|X1 , ..., Xm ] c=1 β∈Bc,m+1 = e hm (X1 , ..., Xm ) − m−1 X X c=1 β∈Bc,m+1 E[gc (Xβ1 , ..., Xβc )|X1 , ..., Xm ] − gm (X1 , ..., Xm ) = e hm (X1 , ..., Xm ) − m−1 X c=1 = e hm (X1 , ..., Xm ) − X m−1 X c=1 E[gc (Xβ1 , ..., Xβc )|X1 , ..., Xm ] − gm (X1 , ..., Xm ) β∈Bc,m+1 {β1 ,...,βc }⊂{1,...,m} X E[gc (Xβ1 , ..., Xβc )|X1 , ..., Xm ] − gm (X1 , ..., Xm ) β∈Bc,m {β1 ,...,βc }⊂{1,...,m} = gm (X1 , ..., Xm ) − gm (X1 , ..., Xm ) = 0 nach der Definition von gm wobei wir verwendet haben, dass nach Induktionsvoraussetzung gilt [Xi mit i ∈ / {β1 , ..., βc } können im bedingten Erwartungswert weggelassen werden da sie unabhängig von den anderen sind]: gc (Xβ1 , ..., Xβc ) , {β1 , .., βc } ⊂ {1, .., m} E[gc (Xβ1 , ..., Xβc )|X1 , ..., Xm ] = 0 , sonst Damit ist die Aussage nachgewiesen. Lösung zu Aufgabe 2 Definiere ∗ Um,n := γ + n X m X (E[Um,n |Xi ] − γ) + (E[Um,n |Yj ] − γ) i=1 r = γ+ n j=1 n X m s X (h1,0 (Xi ) − γ) + (h0,1 (Yj ) − γ), m i=1 j=1 wobei die letzte Gleichheit aus der Tatsache folgt, dass m −1 n −1 X E[Um,n |Xi ] − γ = (E[h(Xβ1 , ..., Xβr , Yα1 , ..., Yαs )|Xi ] − γ) r s β∈Br,m α∈Bs,n = = m −1 n −1 r s X m −1 m − 1 r r−1 (h1,0 (Xi ) − γ) β∈Br,m :i∈β α∈Bs,n (h1,0 (Xi ) − γ) = r (h1,0 (Xi ) − γ) m wobei wir die Symmetrie des Kerns h verwendet haben und die Identität E[Um,n |Yi ] − γ = s (h0,1 (Yi ) − γ) n mit analogen Argumenten hergeleitet werden kann. Weiterhin gilt: ∗ ∗ ∗ ∗ E[(Um,n − γ)2 ] = E[(Um,n − Um,n )2 ] + E[(Um,n − γ)2 ] − 2E[(Um,n − Um,n )(Um,n − γ)] und somit ist ∗ ∗ ∗ ∗ E[(Um,n − Um,n )2 ] = E[(Um,n − γ)2 ] − E[(Um,n − γ)2 ] − 2E[(Um,n − Um,n )(Um,n − γ)] ∗ ∗ ∗ = Var(Um,n ) − Var(Um,n ) − 2E[(Um,n − Um,n )(Um,n − γ)]. Nu gilt zusätzlich: X ∗ ∗ − γ)] = )(Um,n E[(Um,n − Um,n ∗ )|Xi ](E[Um,n |Xi ] − γ)] E[E[(Um,n − Um,n i + X ∗ E[E[(Um,n − Um,n )|Yj ](E[Um,n |Yj ] − γ)] j = 0, denn ∗ E[(Um,n − Um,n )|Xi ] = E[Um,n |Xi ] − γ − X (E[E[Um,n |Xj ]|Xi ] − γ) − j X (E[E[Um,n |Yk ]|Xi ]) k = 0 f.s. ∗ und E[(Um,n − Um,n )|Yj ] = 0 mit analogen Argumenten, also insbesondere ∗ ∗ E[(Um,n − Um,n )2 ] = Var(Um,n ) − Var(Um,n ). Da die Stichproben X1 , ..., Xn und Y1 , ..., Ym unabhängig sind, gilt: ∗ Var(Um,n )= r2 s2 ξ1,0 + ξ0,1 . n m Weiterhin ist nach den Präsenzübungen Var(Um,n ) = 1 r2 s2 1 ξ1,0 + ξ0,1 + o + . n m m n Also folgt: E[(Um,n − ∗ Um,n )2 ] 1 + , =o m n 1 was insbesondere impliziert √ P ∗ m + n(Um,n − Um,n ) −→ 0. Schliesslich folgt aus dem zentralen Grenzwertsatz: n 1 X D √ (h1,0 (Xi ) − γ) −→ N (0, r2 ξ1,0 ), n i=1 m 1 X D √ (h0,1 (Yi ) − γ) −→, N (0, s2 ξ0,1 ) m i=1 und wegen der Unabhängigkeit von X1 , ..., Xn und Y1 , ..., Ym gilt diese Konvergenz auch gemeinsam. Daraus erhalten wir nach dem Lemma von Slutzky: √ m + n(Um,n − γ) √ ∗ = m + n(Um,n − γ) + oP (1) √ √ n m m+n r X m+n s X √ √ √ = (h1,0 (Xi ) − γ) + √ (h0,1 (Yj ) − γ) + oP (1) n n i=1 m m j=1 r2 r s s2 D D √ √ −→ Z1 + Z2 = N 0, ξ1,0 + ξ0,1 , λ 1−λ 1−λ λ wobei Z1 ∼ N (0, ξ1,0 ), Z2 ∼ N (0, ξ0,1 ) unabhängige Zufallsvariablen sind. Damit ist die Aussage bewiesen. Lösung zu Aufgabe 3 Korrelationskoeffizient ρ: - Die Cauchy-Schwarz Ungleichung besagt, dass für quandratintegrierbare Zufallsvariablen A, B gilt: E[|AB|] ≤ (E[A2 ]E[B 2 ])1/2 mit Gleichheit genau dann, wenn A = αB + β fastpsicher für reellwertige Konstanten α, β. Insbesondere ist also |Cov(Y, Z)| = Var(Y )Var(Z) ⇔ Y = aZ + b fast sicher. Damit und wegen Cov(Y, Z) = −Cov(−Y, Z) ist klar, dass (i) und (ii) genau dann gilt, wenn Y = aZ + b fast sicher und Y mit positiver Wahrscheinlichkeit Werte ausserhalb von {0, 1} annimmt. - Eigenschaft (iii) folgt aus der Cauchy-Schwarz Ungleichung. - Eigenschaft (iv) folgt da für Y, Z unabhängig gilt: Cov(Y, Z) = 0. - Eigenschaften (v) und (vi) gelten da Cov(Y, Z) = −Cov(−Y, Z) = Cov(−Y, −Z) und weil die Varianz unter Vorzeichenwechsel invariant ist. - Eigenschaft (vii) für lineare Trafos: folgt wegen Var(aY + b) = a2 Y , und Cov(aY + b, αZ + β) = aαCov(Y, Z). Gegenbeispiel für nichtlineare Trafos: sei Y = Z, beide seien positive Zufallsvariablen die mit positiver Wahrscheinlichkeit Werte ausser {0, 1} annehmen σ1 (Y ) := Y 2 , σ2 (Z) := Z. Dann ist mit den Argumenten aus dem Beweis von (i) ρ(Y, Z) = 1 und ρ(Y 2 , Z) 6= 1. Kendalls τ [für stetige Verteilungen von Y, Z, das muss angenommen werden]: - Eigenschaft (i)+(ii) ist aus der Definition von τ klar [im Fall (i) ist πc = 1, πd = 0, im Fall (ii) ist πd = 1, πc = 0]. - Eigenschaft (iii) folgt, da πc und πd Wahrscheinlichkeiten sind - Sind Y, Z unabhängig mit stetigen Verteilungen, so ist πc = P((Z1 − Z2 )(Y1 − Y2 ) > 0) = P(Y1 > Y2 , Z1 > Z2 ) + P(Y1 < Y2 , Z1 < Z2 ) = P(Y1 > Y2 )P(Z1 > Z2 ) + P(Y1 < Y2 )P(Z1 < Z2 ) 1 1 1 + = . = 4 4 2 Damit ist Eigenschaft (iv) nachgewiesen. - Eigenschaft (v) und (vi) ergeben sich direkt aus der Definition - Sind σ1 , σ2 streng monoton steigend, so folgt insbesondere: Y1 > Y2 ⇔ σ1 (Y1 ) > σ1 (Y2 ), Z1 > Z2 ⇔ σ2 (Z1 ) > σ2 (Z2 ), und damit ist τ (σ1 (Y ), σ2 (Z)) = τ (Y, Z). Lösung zu Aufgabe 4 Betrachte die Zufallsvariablen U := U V Y1 −Y √ 2,V σ1 2 Z1 −Z √ 2. σ2 2 := Dann gilt: 0 1 ρ S D p ∼N , = 0 ρ 1 ρS + 1 − ρ2 T mit S, T i.i.d. ∼ N (0, 1). Wegen der Eigenschaften von Kendalls τ (z.B. Invarianz unter monotonen wachsenden Transformationen) gilt: τ (Y, Z) = τ Y Z √ , √ = 2P(U V > 0) − 1. σ1 2 σ2 2 Weiterhin ist mit α := √ ρ 1−ρ2 p P(U V > 0) = P(S(ρS + 1 − ρ2 T ) > 0) = P(S > 0, T > −αS) + P(S < 0, T < −αS) = 2P(S > 0, T > −αS), D denn (S, T ) = (−S, −T ). Mit der Substitution (s, t) = (r cos θ, r sin θ) erhalten wir: Z ∞Z 2 2 2πP(S > 0, T > −αS) = I{t > −αs}e−(t +s )/2 dtds 0 R Z π/2 Z ∞ 2 = I{tan θ > −α}re−r /2 drdθ −π/2 Z 0 π/2 = dθ = − arctan α π − arctan α. 2 Die Behauptung folgt nun wegen arctan α = arctan p da für θ ∈ [−π/2, π/2] gilt: tan θ = sin θ/ ρ 1 − ρ2 = arcsin ρ p 1 − sin2 θ.