Probeklausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank 19. Juli 2012 Name: Vorname: Matrikelnummer: Übungsleiter: – Diese Klausur besteht aus 8 Seiten. Bitte überprüfen Sie, ob Sie alle Seiten erhalten haben. – Bitte versehen Sie alle Seiten mit Ihrem Namen und Ihrer Matrikelnummer. – Bitte schreiben Sie nicht Lösungen zu verschiedenen Aufgaben auf dasselbe Blatt. – Sie haben zwei Stunden (= 120 Minuten) Zeit, um die Klausur zu bearbeiten; bitte legen Sie Ihren Studentenausweis und einen Lichtbildausweis zu Beginn der Klausur vor sich auf den Tisch und halten Sie die Ausweise bei der Abgabe bereit. Um Unruhe in den letzten Minuten zu vermeiden, geben Sie bitte entweder um 11:00 Uhr oder vor 10:40 Uhr ab. – Die Klausur besteht aus 7 Aufgaben. Es können im Total 72 Punkte erreicht werden. Zum Bestehen genügen voraussichtlich 50% der Punkte. – Es sind keinerlei Hilfsmittel wie Taschenrechner, Computer, Bücher, Vorlesungsmitschriften, Mobiltelephone etc. gestattet; Papier wird zur Verfügung gestellt. Alle Täuschungsversuche führen zum Ausschluss von der Klausur; die Klausur wird dann als nicht bestanden gewertet! Viel Erfolg! Aufgabe Punkte maximal erreichte Punkte Note: 1 12 2 12 3 12 4 10 5 10 6 10 Unterschrift: 7 6 Summe 72 Name: Matrikelnr.: Seite 2/8 Aufgabe 1 (3+3+3+3 = 12 Punkte). Beantworten Sie die folgenden Fragen; begründen Sie jeweils kurz Ihre Antwort (ca. ein bis drei Sätze). 1. Sei S eine σ-Algebra auf einer Menge Ω. Ist dann {A ⊂ Ω | A 6∈ S} bereits eine σ-Algebra auf Ω ? 2. Sei (Ω, S, P ) ein Wahrscheinlichkeitsraum und seien A, B ∈ S. Gilt dann bereits P (A ∪ B) + P (A ∩ B) = P (A) + P (B) ? 3. Gibt es eine reellwertige Zufallsvariable, die N (0, 2012) als induzierte Verteilung besitzt? 4. Sei X eine reellwertige Zufallsvariable. Gibt es dann eine reellwertige Zufallsvariable Y mit FY = 1 − FX ? Lösung: 1. Nein, denn: Jede σ-Algebra auf Ω enthält Ω; daher kann {A ⊂ Ω | A 6∈ S} keine σ-Algebra sein. 2. Ja, denn: Es gilt P (A ∪ B) + P (A ∩ B) = P ((A ∩ (Ω \ B)) ∪ B) + P (A ∩ B) = P (A ∩ (Ω \ B)) + P (A ∩ B) + P (B) = P ((A ∩ (Ω \ B)) ∪ (A ∩ B)) + P (B) = P (A) + P (B). [Alternativ: Nach dem Inklusions/Exklusions-Prinzip (Blatt 3).] 3. Ja, etwa idR : (R, B(R), N (0, 2012)) −→ (R, B(R)). 4. Nein, denn: Gäbe es ein solches Y , so würde gelten 1 = lim FY (x) = 1 − lim FX (x) = 1 − 1 = 0, x→∞ was nicht möglich ist. x→∞ Name: Matrikelnr.: Seite 3/8 Aufgabe 2 (3+3+3+3 = 12 Punkte). Beantworten Sie die folgenden Fragen; begründen Sie jeweils kurz Ihre Antwort (ca. ein bis drei Sätze). 1. Sei (Ω, S, P ) ein Wahrscheinlichkeitsraum und sei (A, B, C) eine stochastisch unabhängige Familie in S. Sind dann auch A und B∩C stochastisch unabhängig? 2. Seien (Ω1 , S1 , P1 ) und (Ω2 , S2 , P2 ) Wahrscheinlichkeitsräume und seien X1 und X2 reellwertige Zufallsvariablen auf (Ω1 × Ω2 , S1 ⊗ S2 , P1 ⊗ P2 ). Sind dann X1 und X2 bezüglich P1 ⊗ P2 stochastisch unabhängig? 3. Sei (Ω, S, P ) ein Wahrscheinlichkeitsraum, seien A, B ∈ S mit P (B) > 0. Gilt dann bereits P (A | B) > P (A) · P (B) ? 4. Seien X, Y, Z quadratintegrierbare reellwertige Zufallsvariablen auf einem gemeinsamen Wahrscheinlichkeitsraum. Gilt dann bereits Cov(X + Y, Z) = Cov(X, Z) + Cov(Y, Z) ? Lösung: 1. Ja, denn: Es gilt P (A ∩ (B ∩ C)) = P (A ∩ B ∩ C) = P (A) · P (B) · P (C) = P (A) · P (B ∩ C), wobei wir zweimal die Unabhängigkeit von (A, B, C) benutzt haben. 2. Nein, im Allgemeinen nicht, denn: Man betrachte etwa den Produktraum d ({0, 1}, Pot({0, 1}), U{0,1} )⊗2 und die Zufallsvariablen X1 = X2 : ({0, 1}, Pot({0, 1})) −→ (R, B(R)) ω 7−→ ω1 . Dann gilt P ({X1 = 1} ∩ {X2 = 1}) = 1 1 6= = P (X1 = 1) · P (X2 = 1). 2 4 d d Also sind X1 und X2 nicht unabhängig bzgl. U{0,1} ⊗ U{0,1} . Name: Matrikelnr.: Seite 3/8 3. Nein, denn: Es gilt etwa P (Ω | Ω) = P (Ω ∩ Ω) = 1 = P (Ω) · P (Ω). P (Ω) 4. Ja, denn: Dies folgt aus der Linearität des Erwartungswertes: Es gilt Cov(X + Y, Z) = E (X + Y − E(X + Y )) · (Z − E(Z)) = E (X − E(X)) · (Z − E(Z)) + (Y − E(Y )) · (Z − E(Z)) = E (X − E(X)) · (Z − E(Z)) + E (Y − E(Y )) · (Z − E(Z)) = Cov(X, Z) + Cov(Y, Z). (Und alle diese Erwartungswerte existieren.) Name: Matrikelnr.: Seite 4/8 Aufgabe 3 (3+3+3+3 = 12 Punkte). Beantworten Sie die folgenden Fragen; begründen Sie jeweils kurz Ihre Antwort (ca. ein bis drei Sätze). 1. Sei (Ω, S, P ) ein Wahrscheinlichkeitsraum, sei (Xn )n∈N eine Folge reellwertiger Zufallsvariablen auf (Ω, S, P ) und seien X, Y reellwertige ZuP -f.s. P -f.s. fallsvariablen auf (Ω, S, P ) mit Xn −→ X und Xn −→ Y . Stimmen X n→∞ n→∞ und Y dann bereits P -fast sicher überein? 2. Sei (Ω, S, P ) ein Wahrscheinlichkeitsraum, sei (Xn )n∈N>0 eine stochastisch unabhängige Folge identisch verteilter reellwertiger quadratintegrierbarer Zufallsvariablen auf (Ω, S, P ) und sei X eine N (0, 1)-verteilte reellwertige Zufallsvariable auf (Ω, S, P ). Gilt dann bereits n P -f.s. 1 X · Xk − E(Xk ) −→ X ? n→∞ n k=1 3. Sei (Ω, S, (Pϑ )ϑ∈Θ ) ein statistisches Modell und sei T ein erwartungstreuer Schätzer für eine Abbildung τ : Θ −→ R. Gilt dann EPϑ (T ) = EPϑ0 (T ) für alle ϑ, ϑ0 ∈ Θ ? 4. Besitzt jedes statistische Standardmodell einen Maximum-LikelihoodSchätzer für die Identitätsabbildung auf der Parametermenge? Lösung: 1. Ja, denn: Dies folgt direkt aus der Eindeutigkeit des Grenzwertes in R. Der Schnitt zweier fast sicherer Ereignisse ist ein fast sicheres Ereignis (etwa nach Aufgabe 1.2); daher gilt 1 ≥ P ({X = Y }) ≥ P ({ω | lim Xn (ω) = X(ω), lim Xn (ω) = Y (ω)}) = 1. n→∞ n→∞ Also stimmen X und Y bereits P -fast sicher überein. P 2. Nein, denn: Die Folge ( n1 · nk=1 Xk − E(Xk ) )n∈N>0 konvergiert nach dem starken Gesetz der großen Zahlen P -fast sicher gegen 0 und kann daher nach Teil 1 nicht P -fast sicher gegen eine N (0, 1)-verteilte Zufallsvariable konvergieren. Name: Matrikelnr.: Seite 4/8 3. Nein, denn: Man betrachte das statistische Modell d )ϑ∈{0,1} ), (N, Pot(N), (U{ϑ} die kanonische Inklusion τ : {0, 1} −→ R und den erwartungstreuen Schätzer T := (N ,→ R). Dann gilt EP1 (T ) = 1 6= 0 = EP0 (T ). 4. Nein, denn: Man vergleiche Blatt 13, Aufgabe 3. Alternativ: Man betrachte das statistische Standardmodell ({0, 1}, Pot({0, 1}), (B(1, p))p∈(0,1) ). Die zugehörige Likelihoodfunktion hat die Form L : {0, 1} × (0, 1) −→ R≥0 (ω, p) 7−→ pω · (1 − p)1−ω Für ω = 0 sieht man, dass L(0, ·) : (0, 1) −→ R≥0 p 7−→ p. kein Maximum in (0, 1) annimmt. Insbesondere kann es keinen MaximumLikelihood-Schätzer für die Identitätsabbildung geben. Name: Matrikelnr.: Seite 5/8 Aufgabe 4 (5 + 4 + 1 = 10 Punkte). 1. Formulieren Sie den zentralen Grenzwertsatz! 2. Definieren Sie die im zentralen Grenzwertsatz auftretende Konvergenzart! 3. Auf welcher Charakterisierung dieser Konvergenzart beruht der Beweis (aus der Vorlesung) des zentralen Grenzwertsatzes? Lösung: 1. Sei (Xn )n∈N>0 eine stochastisch unabhängige Folge von identisch verteilten, quadratintegrierbaren reellwertigen Zufallsvariablen auf einem gemeinsamen Wahrscheinlichkeitsraum und es gelte Var(X1 ) > 0. Dann gilt n 1 X 1 d √ · p · (Xk − E(Xk )) −→ N (0, 1). n→∞ n Var(Xk ) k=1 2. Im zentralen Grenzwertsatz tritt Verteilungskonvergenz auf. Sei (Xn )n∈N eine Folge reellwertiger Zufallsvariablen und sei X eine reellwertige Zufallsvariable. – Es konvergiert (Xn )n∈N in Verteilung gegen X, wenn für alle x ∈ R, in denen FX stetig ist, gilt, dass lim FXn (x) = FX (x). n→∞ – Alternativ: Es konvergiert (Xn )n∈N in Verteilung gegen X, falls für alle stetigen und beschränkten Funktionen f : R −→ R gilt lim E(f ◦ Xn ) = E(f ◦ X). n→∞ – Alternativ: Es konvergiert (Xn )n∈N in Verteilung gegen X, falls für alle e 2 (R, R) gilt f ∈C lim E(f ◦ Xn ) = E(f ◦ X). n→∞ 3. Auf der dritten Charakterisierung von Verteilungskonvergenz über die Konvergenz von Erwartungswerten (bezüglich der Komposition mit Testfunktionen, s. oben). Name: Matrikelnr.: Seite 6/8 Aufgabe 5 (2+4+4 = 10 Punkte). Zwei Busse B1 und B2 treffen unabhängig und gleichverteilt zwischen 00:00 und 01:00 an einer Bushaltestelle ein. 1. Modellieren Sie diese Situation geeignet. Erklären Sie Ihr Modell und Ihre Modellannahmen. 2. Bestimmen Sie die Wahrscheinlichkeit dafür, dass Bus B1 vor Bus B2 eintrifft. 3. Bestimmen Sie die Wahrscheinlichkeit dafür, dass einer der Busse mindestens 6 Minuten vor dem anderen eintrifft. Lösung: 1. Seien B1 und B2 zwei stochastisch unabhängige, auf [0, 1] gleichverteilte Zufallsvariablen auf einem gemeinsamen Wahrscheinlichkeitsraum (Ω, S, P ). Dabei beschreibe B1 den ersten, B2 den zweiten Bus und [0, 1] das Zeitinterval zwischen 00:00 und 01:00. Alternativ: Man kann insbesondere für B1 und B2 die kanonischen Projektionen π1 , π2 : [0, 1]2 , B([0, 1]2 ), λ2 |[0,1]2 −→ [0, 1], B([0, 1]) betrachten. Das gesuchte Ereignis lässt sich in diesem Modell beschreiben durch {π1 < π2 }. Name: Matrikelnr.: Seite 6/8 2. Wir erhalten damit für die gesuchte Wahrscheinlichkeit Z P ({B1 < B2 }) = χ{B1 <B2 } dP Z = χ{π1 <π2 } ◦ (B1 , B2 ) dP Z = χ{π1 <π2 } dP(B1 ,B2 ) Z (B1 und B2 unabhängig) = χ{π1 <π2 } d(PB1 ⊗ PB2 ) Z = χ{π1 <π2 } λ1 |[0,1] ⊗ λ1 |[0,1] (B1 , B2 gleichverteilt auf [0, 1]) Z Z = [0,1] Z = 1 dλ1 (x) dλ1 (y) (Fubini) [0,y] y dλ1 (y) [0,1] 1 = . 2 Alternativ in der konkreten Beschreibung des Modells: Z λ2 ({π1 < π2 }) = χ{π1 <π2 } dλ2 2 [0,1] Z Z = 1 dλ1 (x) dλ1 (y) [0,1] [0,y] Z = y dλ1 (y) (Fubini) [0,1] 1 = . 2 3. Das gesuchte Ereignis ist {|π2 − π1 | > 0.1}. Wir erhalten für die gesuchte Name: Matrikelnr.: Seite 6/8 Wahrscheinlichkeit somit 2 Z λ ({|π2 − π1 | > 0.1}) = [0,1]2 χ{|π2 −π1 |>0.1} dλ2 Z =2· [0,1]2 Z =2· χ{π2 −π1 >0.1} dλ2 (Symmetrie) Z 1 dλ1 (x) dλ1 (y) (Fubini) [0.1,1] Z [0,y−0.1] y − 0.1 dλ1 (y) =2· [0.1,1] =2· h1 2 81 . = 100 y 2 − 0.1 · y iy=1 y=0.1 Name: Matrikelnr.: Seite 7/8 Aufgabe 6 (5 + 2 + 3 = 10 Punkte). Die Lebensdauer (in Jahren) eines Toasters sei exponentialverteilt zum Parameter λ ∈ R>0 . 1. Bestimmen Sie (in Abhängigkeit von λ) die Wahrscheinlichkeit dafür, dass der Toaster eine Gesamtlebensdauer von mehr als zwei Jahren hat, wenn er bereits mehr als ein Jahr alt ist. Erklären Sie dabei Ihr Modell und Ihre Modellannahmen. 2. Der Parameter λ ∈ R>0 sei nun unbekannt und soll durch die Beobachtung eines Toasters geschätzt werden. Modellieren Sie diese Situation durch ein geeignetes statistisches Modell und erklären Sie Ihr Modell. 3. Geben Sie einen erwartungstreuen Schätzer für die zu erwartende Lebensdauer an (und begründen Sie Ihre Antwort). Lösung: 1. Sei λ ∈ R>0 . Wir betrachten den Modellraum (R, B(R), Exp(λ)). D.h. wir beschreiben die Lebensdauer des Toasters durch eine reelle Zahl und nehmen an, dass diese exponentialverteilt zum Parameter λ ist. Alternativ: Sei T : (Ω, S, P ) −→ (R, B(R)) eine Exp(λ)-verteilte Zufallsvariable auf einem Wahrscheinlichkeitsraum (Ω, S, P ), welche die Lebensdauer unseres Toasters modelliere. Dann lässt sich die gesuchte Wahrscheinlichkeit beschreiben durch P (T > 2 | T > 1) = P (T > 1) = e−λ . Wobei wir die Gedächtnislosigkeit der Exponentialverteilung benutzt haben. Alternativ: Für alle a ∈ R>0 erhalten wir Z λ · e−λ·x dλ1 (x) Exp(λ)((a, ∞)) = (a,∞) h ix=t = lim −e−λ·x t→∞ = lim −e t→∞ −λ·a =e −λ·t x=a −λ·a +e . Insbesondere gilt Exp(λ)((1, ∞)) > 0 und wir können die Wahrscheinlichkeit des gesuchten Ereignisses wie folgt ausdrücken und berechnen P ((2, ∞) | (1, ∞)) = e−2·λ = e−λ . e−λ Name: Matrikelnr.: Seite 7/8 2. Wir betrachten das statistische Modell (R, B(R), (Exp(λ)λ∈R>0 )). Das heißt, wir beschreiben die Lebensdauer eines einzelnen Toasters durch die Exp(λ)-Verteilung, für einen a priori unbekannten Parameter λ ∈ R>0 . 3. Der Schätzer T := idR ist erwartungstreu bzgl. der zu erwartenden Lebensdauer, denn für alle λ ∈ R>0 ist T bzgl. Exp(λ) integrierbar (vergleiche Vorlesung) und EExp(λ) (T ) = E(Exp(λ)) . | {z } erwartete Lebensdauer Name: Matrikelnr.: Seite 8/8 Aufgabe 7 (6 Punkte). Sei P ein Wahrscheinlichkeitsmaß auf (R, B(R)) und sei F die Verteilungsfunktion zu P . Sei X : (0, 1) −→ R x 7−→ inf c ∈ R F (c) ≥ x Zeigen Sie, dass X eine Zufallsvariable auf (0, 1), B((0, 1)), λ1 |(0,1) ist, und zeigen Sie, dass die von X induzierte Verteilung mit P übereinstimmt. Lösung: Für alle x ∈ (0, 1) und alle a ∈ R gilt: – Ist x ≤ F (a) so gilt nach Definition von X bereits X(x) ≤ a. – Sei umgekehrt X(x) ≤ a. Dann existiert nach der Definition von X(x) als Infimum für jedes ε ∈ R>0 ein c ∈ R mit F (c) ≥ x und a + ε ≥ X(x) + ε ≥ c. Wegen der Monotonie von F gilt x ≤ F (c) ≤ F (a + ε). Mit der Rechtsstetigkeit von F folgt daher x≤ lim R>0 3ε→0 F (a + ε) = F (a). Wie gerade gesehen gilt für alle a ∈ R X −1 ((−∞, a]) = (−∞, F (a)] ∩ (0, 1) ∈ B((0, 1)). insbesondere ist X eine Zufallsvariable (die halboffenen uneigentlichen Intervalle erzeugen die Borel-σ-Algebra auf R) und es gilt für alle a ∈ R, dass FX (a) = λ1 |[0,1] ({X ≤ a}) = λ1 |[0,1] ((−∞, F (a)] ∩ (0, 1)) = F (a) − 0 = F (a). Also ist X nach dem Korrespondenzsatz für Verteilungsfunktionen P -verteilt.