Aufgabe 1 (4 Punkte) 1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Wann heißen die Ereignisse A1 , . . . , An ∈ F paarweise unabhängig, wann heißen sie (vollständig) unabhängig ? 2. Man werfe n-mal eine faire Münze, n ≥ 3. Dabei sei Ai,j , 1 ≤ i < j ≤ n, das Ereignis, dass im i-ten und j-ten Wurf die Münze dasselbe zeigt. Geben Sie einen geeigneten Wahrscheinlichkeitsraum an und zeigen Sie, dass die Ereignisse {Ai,j : 1 ≤ i < j ≤ n} paarweise unabhängig aber nicht vollständig unabhängig sind. 1. Die Ereignisse A1 , . . . , An ∈ F heißen paarweise unabhängig, falls für alle i, j = 1, . . . , n, i 6= j gilt P(Ai ∩ Aj ) = P(Ai )P(Aj ). Die Ereignisse A1 , . . . , An ∈ F heißen vollständig unabhängig, falls für alle I ⊆ {1, . . . , n} gilt \ Y P( Ai ) = P(Ai ) i∈I i∈I n 2. Für n ≥ 3 sei Ω = Ωn = {K, Z} = {(ω1 , . . . , ωn ) : ωi ∈ {K, Z} , i = 1, . . . , n}. Dann gilt |Ω| = 2n . Setze A = P(Ω) und P : A → [0, 1] als P(A) = |A| . |Ω| Dann ist (Ω, A, P) ein geeigneter Wahrscheinlichkeitsraum. Für 1 ≤ i < j ≤ n gilt Ai,j = {ω ∈ Ω : ωi = ωj } = {ω ∈ Ω : ωi = ωj = K} ∪ {ω ∈ Ω : ωi = ωj = Z} , 1 |Ai,j | = 2n−1 ⇒ P(Ai,j ) = . 2 Für die paarweise Unabhängigkeit unterscheiden wir verschiedene Fälle. Betrachte i < j, k < l paarweise verschiedene Indizes, dann gilt Ai,j ∩ Ak,l = {ω ∈ Ω : ωi = ωj , ωk = ωl } = {ω ∈ Ω : ωi = ωj = ωk = ωl = K} ∪ {ω ∈ Ω : ωi = ωj = ωk = ωl = Z} |Ai,j ∪ {ω ∈ Ω : ωi = ωj = K, ωk = ωl = Z} ∪ {ω ∈ Ω : ωi = ωj = Z, ωk = ωl = K} , 1 ∩ Ak,l | =4 · 2n−4 = 2n−2 ⇒ P(Ai,j ∩ Ak,l ) = = P(Ai,j )P(Ak,l ). 4 Betrachte nun den Fall, dass zwei Indizes übereinstimmen o.E sei i < j = k < l: Ai,j ∩ Aj,l = {ω ∈ Ω : ωi = ωj = ωl } |Ai,j = {ω ∈ Ω : ωi = ωj = ωl = K} ∪ {ω ∈ Ω : ωi = ωj = ωl = Z} , 1 ∩ Aj,l | =2 · 2n−3 = 2n−2 ⇒ P(Ai,j ∩ Aj,l ) = = P(Ai,j )P(Aj,l ). 4 Es gilt also im Allgemeinen P(Ai,j ∩ Ak,l ) = P(Ai,j )P(Ak,l ) Die Ai,j sind paarweise unabhängig. für (i, j) 6= (k, l). Als Gegenbeispiel für die vollständige Unabhängigkeit betrachte A1,2 ∩ A1,3 ∩ A2,3 = A1,2 ∩ A1,3 1 1 ⇒ P(A1,2 ∩ A1,3 ∩ A2,3 ) = 6= = P(A1,2 )P(A1,3 )P(A2,3 ). 4 8 Die Ai,j sind nicht vollständig unabhängig. Alternativ: Ein weiteres Gegenbeispiel wäre \ B:= Ai,j = {(K, K, . . . , K) , (Z, Z, . . . , Z)} , 1≤i<j≤n |B| = 2 ⇒ P(B) = 1 . 2n−1 Andererseits gilt Y 1≤i<j≤n P(Ai,j ) = 1 2 n·(n−1) 2 < 1 2n−1 = P(B) für n ≥ 3. Aufgabe 2 (3 Punkte) 1. Es seien X und Y zwei unabhängige, Geom(p)-verteilte Zufallsvariablen zum Parameter p ∈ (0, 1). Bestimmen Sie die Verteilung der Summe Z := X + Y . 2. Die Messergebnisse eines Werkstücks seien gemäß N (µ, σ 2 ) verteilt, µ ∈ R, σ > 0. Wie groß ist die Wahrscheinlichkeit, bei n unabhängigen Messungen genau k-mal einen Messwert größer als µ zu beobachten, wobei n ∈ N und 0 ≤ k ≤ n. 1. Offensichtlich gilt für n < 2, dass P(Z = n) = 0. Sei also n ∈ N, n ≥ 2. Da X und Y unabhängig sind, nutzen wir die Faltungsformel für diskrete ZV: P(Z = n) = ∞ X P(X = k)P(Y = n − k) k=−∞ Für k < 1 ist P(X = k) = 0 und für k > n − 1 ist P(Y = n − k) = 0. Daher gilt P(Z = n) = n−1 X P(X = k)P(Y = n − k) k=1 = n−1 X p(1 − p)k−1 p(1 − p)n−k−1 k=1 = n−1 X p2 (1 − p)n−2 k=1 = (n − 1)p2 (1 − p)n−2 . 2. Aufgrund der Symmetrie der Normalverteilung um den Erwartungswert ist die Wahrscheinlichkeit, dass ein Messwert größer als µ ist, genau 21 . Sei X die Anzahl der Messergebnisse größer als µ. Dann gilt X ∼ Bin(n, 12 ) und daher gilt P(X = k) = n n 1 . k 2 Aufgabe 3 (3 Punkte) Es sei X ∼ N (0, 1). Bestimmen Sie die Verteilungsdichte von Y = |X| − 1 und den Erwartungswert EY . Wir berechnen erst die Verteilungsfunktion von Y : Offensichtlich gilt für t < −1, dass P(Y ≤ t) = 0. Sei also t ≥ −1. Dann gilt FY (t) = P(|X| − 1 ≤ t) = P(|X| ≤ t + 1) = P(−t − 1 ≤ X ≤ t + 1) = Φ(t + 1) − Φ(−t − 1) = 2Φ(t + 1) − 1. Daher folgt für die Verteilungsdichte: ( fY (t) = 2ϕ(t + 1)I[−1,∞) (t) = √2 2π 2 , exp − (t+1) 2 0, t ≥ −1 sonst. Für den Erwartungswert gilt: EY = E|X| − 1. Um E|X| zu berechnen nutzen wir, dass X eine symmetrische Dichte hat. r Z ∞ r 2 2 2 ∞ r Z ∞ x x 2 d x2 2 2 x x √ exp E|X| = 2 dx = exp − dx = − exp − = . 2 π dx 2 2 π 2 π 2π 0 0 0 q Es gilt also EY = π2 − 1. Aufgabe 4 (5 Punkte) Es sei ρ ∈ [0, 1) und X und Y Zufallsvariablen mit gemeinsamer Dichtefunktion 1 1 2 2 p exp − x − 2ρxy + y , f(X,Y ) (x, y) = 2 (1 − ρ2 ) 2π 1 − ρ2 x, y ∈ R. 1. Zeigen Sie, dass (X, Y )T zweidimensional normalverteilt ist und bestimmen Sie Mittelwertvektor und Kovarianzmatrix. √−ρX) 2. Zeigen Sie, dass X und Z := (Y unabhängige N (0, 1)–verteilte Zufallsvariablen sind. 2 1−ρ 1. Betrachte 1 1 x x2 − 2ρxy + y 2 = 2 1−ρ 1 − ρ2 y 1 −ρ −ρ 1 x = x y y 1 1−ρ2 ρ − 1−ρ 2 ρ − 1−ρ 2 1 1−ρ2 x . y Wir invertieren die Matrix 1 1−ρ2 ρ − 1−ρ 2 ρ − 1−ρ 2 −1 = 1 1−ρ2 1 ρ ρ 1 =: Σ det Σ = 1 − ρ2 Nach Hurwitz-Kriterium (Hauptminoren-Kriterium) ist Σ positiv defninit, da ρ ∈ [0, 1). 0 Definiere nun µ := , dann gilt 0 1 x − µ1 f(X,Y ) (x, y) = 1 exp − 2 2π |det Σ| 2 1 y − µ2 Σ −1 x − µ1 . y − µ2 Damit gilt tatsächlich (X, Y )T ∼ N2 (µ, Σ). 2. Wir betrachten die lineare Transformation ! 1 0 X X 1 = −√ ρ √ Y Z 1−ρ2 1−ρ2 | {z } =:A Aus der Vorlesung wissen wir, dass dann (X, Z)T ∼ N2 (Aµ, AΣAT ). Offenbar ist Aµ = (0, 0)T . Bleibt noch zu berechnen ! 1 −√ ρ 1 0 1 ρ 1−ρ2 AΣAT = − √ ρ 1 √1 2 √ ρ 1 0 2 1−ρ 1−ρ 2 1−ρ 1 p ρ 0 1 − ρ2 1 0 = 0 1 = 1 0 −√ ρ 2 1−ρ √1 2 1−ρ Damit folgt: X, Z sind unabhängige standardnormalverteilte Zufallsvariablen. Alternativ: wir wissen aus dem ersten Teil, dass X, Y ∼ N (0, 1) und Kov(X, Y ) = ρ. Außerdem ist der Vektor (X, Z)T eine lineare Transformation des Vektors (X, Y )T und somit ebenfalls zweidimensional normalverteilt. Damit ist Z ebenfalls normalverteilt. Wir berechnen also 1 ρ Y − ρX =p EY − p EX = 0 EZ = E p 1 − ρ2 1 − ρ2 1 − ρ2 ! Y − ρX 1 Var(Z) = Var p Var(Y − ρX) = 2 1 − ρ2 1−ρ = 1 1 Var(Y ) + ρ2 Var(X) − 2ρ Kov(X, Y ) = 1 + ρ2 − 2ρ2 = 1. 2 2 1−ρ 1−ρ damit ist Z ∼ N (0, 1). Die Unabhängigkeit ist äquivalent zur Unkorreliertheit, da (X, Z)T zweidimensional normalverteilt ist. ! 1 ρ ρ Y − ρX ρ =p Kov(X, Y ) − p Kov(X, X) = p −p = 0. Kov(X, Z) = Kov X, p 2 2 2 2 | {z } 1−ρ 1−ρ 1−ρ 1−ρ 1 − ρ2 =Var(X) Damit sind X, Z unabhängig. Anmerkung: Da häufig Fehler beim Invertieren aufgetreten sind, welche sich dann auf spätere Teile ausgewirkt haben, sei nochmal darauf hingewiesen, dass es sinnvoll ist ΣΣ−1 = Id zu prüfen. Aufgabe 5 (5 Punkte) 1. Formulieren Sie den integralen Satz von Moivre-Laplace. 2. Wie oft muss ein fairer Würfel geworfen werden, damit mit einer Wahrscheinlichkeit von mindestens 95% die Häufigkeit, mit der die Zahl 6 geworfen wird, um höchstens 0.1 von 1/6 abweicht? Approximieren Sie die Lösung a) mit Hilfe des Satzes von Moivre-Laplace und b) mit Hilfe der Tschebyscheff-Ungleichung. 1. Sei p ∈ (0, 1). Für n ∈ N sei Sn,p ∼ Bin(n, p), dann gilt ! Sn,p − np n→∞ ≤ b −→ Φ(b) − Φ(a), P a≤ p np(1 − p) gleichmäßig für alle −∞ ≤ a ≤ b ≤ ∞, wobei Φ die Verteilungsfunktion der Standardnormalverteilung ist. 2. Sei Sn die Anzahl an 6-en bei n Würfen. Dann ist Sn ∼ Bin(n, 61 ). Setze α = 0.95, ε = 0.1, p = 16 . a) Es gilt ! √ √ Sn 1 S − np nε S − np nε n n − ≤ ε = P −ε ≤ ≤ ε = P −p α ≤ P ≤p ≤p n 6 n p(1 − p) np(1 − p) p(1 − p) ! ! ! √ √ √ nε nε nε − Φ −p = 2Φ p − 1. ≈Φ p p(1 − p) p(1 − p) p(1 − p) Wir wollen also ! √ nε α+1 α ≤ 2Φ p −1⇔ = 0.975 ≤ Φ 2 p(1 − p) √ nε ! p p(1 − p) √ nε 1.962 p(1 − p) 5 Tabelle nachschauen p ⇔n≥ ⇔ 1.96 ≤ = 19.62 · 2 ε 36 p(1 − p) b) Mit Hilfe der Tschebyscheff-Ungleichung erhalten wir Sn Sn Var(Sn ) 1 p(1 − p) P − ≤ ε = 1 − P − p > ε ≥ 1 − =1− n 6 n n2 ε2 nε2 Um sicher zu gehen, dass P( Snn − 61 ≤ ε) ≥ α, ist es hinreichend, dass 1− p(1 − p) p(1 − p) p(1 − p) 5 ≥α⇔1−α≥ ⇔n≥ = 2000 · . 2 2 2 nε nε (1 − α)ε 36 Aufgabe 6 (4 Punkte) Sei X1 , . . . , Xn eine Stichprobe für eine Zufallsvariable X mit Dichtefunktion ( θxθ−1 0 ≤ x ≤ 1, f (x; θ) = 0 sonst, für ein θ > 0. 1. Bestimmen Sie den Schätzer θn∗ nach der Momentenmethode für den unbekannten Parameter θ. 2. Bestimmen Sie den Schätzer θ̂n nach der Maximum-Likelihood-Methode für den unbekannten Parameter θ. 1. Berechne Z1 m(θ) := Eθ X = θxθ dx = 1 θ θ 1 xθ+1 0 = =1− . θ+1 θ+1 θ+1 0 Für den Momentenschätzer θn∗ gilt X n = m(θn∗ ) = 1 − 1 1 Xn ⇔ θn∗ = −1= . θn∗ + 1 1 − Xn 1 − Xn 2. Betrachte die Likelihoodfunktion n Y L(x1 , . . . , xn , θ) = k=1 f (xk , θ) = n Y θxθ−1 1[0,1] (xk ). k k=1 Falls ein k ∈ {1, . . . , n} existiert mit xk ∈ / (0, 1], dann ist L(x1 , . . . , xn , θ) = 0 für alle θ > 0. Daher betrachte den Fall xk ∈ (0, 1] für alle k. L(x1 , . . . , xn , θ) = θn n Y xθ−1 k k=1 l(x1 , . . . , xn , θ) := log(L(x1 , . . . , xn , θ)) = n log(θ) + (θ − 1) n X log(xk ) k=1 n n X n ∂ l(x1 , . . . , xn , θ) = + log(xk ) = 0 ⇔ θ = − P > 0. n ∂θ θ k=1 log(xk ) k=1 Um ein Maximum nachzuweisen berechne die zweite Ableitung ∂2 n l(x1 , . . . , xn , θ) = − 2 < 0 für alle θ. ∂θ2 θ Daher ist der Maximum-Likelihood-Schätzer gegeben durch n θ̂n = − Pn . log(X k) k=1 Anmerkung: • Es wurden keine Punkte abgezogen, wenn man die Indikatorvariablen nicht betrachtet hat, da diese hier unabhängig von θ waren. Man sollte sich jedoch im Klaren sein, dass es wichtig ist sie zu betrachten, falls sie von θ abhängen. • Um Fehler zu vermeiden, sollte man sich klar machen, ob die berechneten Schätzer logisch erscheinen, insbesondere sollten sie bei der gegeben Aufgabe positiv sein, aber auch tatsächlich in Abhängigkeit von der Stichprobe jede positive Zahl annehmen können.