Problemsupermarkt Regale Wahrscheinlichkeitstheorie und Statistik J ULIAN W ERGIELUK Chemnitz, 2014 Inhaltsverzeichnis Inhaltsverzeichnis i Detaliertes Inhaltsverzeichnis iii 1 Wahrscheinlichkeitsrechnung 1.1 Mengensysteme . . . . . . . . . . . . . . . . . . . . 1.2 Wahrscheinlichkeitsmaße . . . . . . . . . . . . . . 1.3 Kombinatorik. . . . . . . . . . . . . . . . . . . . . . 1.4 Bedingte Wahrscheinlichkeiten . . . . . . . . . . 1.5 Unabhängigkeit . . . . . . . . . . . . . . . . . . . . 1.6 Elementare Maßtheorie . . . . . . . . . . . . . . . 1.7 Diskrete Zufallsvariablen . . . . . . . . . . . . . . 1.8 Ungleichungen der Wahrscheinlichkeitstheorie 1.9 Diskrete Zufallsvariablen - Textaufgaben . . . . 1.10 Stetige Zufallsvariablen . . . . . . . . . . . . . . . 1.11 Stetige Zufallsvariablen – Textaufgaben . . . . 1.12 Mehrdimensionale Verteilungen. . . . . . . . . . 1.13 Quantile . . . . . . . . . . . . . . . . . . . . . . . . . 1.14 Erwartungstreue . . . . . . . . . . . . . . . . . . . 1.15 Einfache Schätzer . . . . . . . . . . . . . . . . . . 1.16 Konfidenzintervalle . . . . . . . . . . . . . . . . . 1.17 Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 8 10 17 25 31 32 44 45 53 67 71 75 76 77 77 81 2 Wahrscheinlichkeitstheorie 89 2.1 Bedingte Erwartungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 2.2 Stochastische Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 3 Mathematische Statistik 3.1 Identifizierbarkeit . . . . . . . 3.2 Suffizienz . . . . . . . . . . . . . 3.3 Exponentielle Familien . . . . 3.4 Momentenmethode . . . . . . . 3.5 Kleinste-Quadrate-Schätzer . 3.6 Maximum-likelihood Schätzer 3.7 UMVUE . . . . . . . . . . . . . . 3.8 Asymptotische Theorie . . . . 3.9 Konfidenzintervalle . . . . . . 3.10 Testtheorie . . . . . . . . . . . . 3.11 Lineare Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 99 99 103 108 113 114 121 138 142 145 157 ii Literatur INHALTSVERZEICHNIS 163 Detaliertes Inhaltsverzeichnis Inhaltsverzeichnis i Detaliertes Inhaltsverzeichnis iii 1 Wahrscheinlichkeitsrechnung 1.1 Mengensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Ereignisse. Mengenoperationen. . . . . . . . . . . . . . . 2. Ereignisse. Kraftwerk. . . . . . . . . . . . . . . . . . . . . 3. Ereignisse. Aktienmarkt. . . . . . . . . . . . . . . . . . . . 4. Ereignisse. Fertigungsstraße. . . . . . . . . . . . . . . . . 5. Ereignisse. Kosten. . . . . . . . . . . . . . . . . . . . . . . . 6. Zufallsvariablen. Urbildmengen. . . . . . . . . . . . . . . 7. Zufallsvariablen. Zwei unterscheidbare Würfel. . . . . . 8. Zufallsvariablen. Indikatorfunktionen. . . . . . . . . . . 9. Zufallsvariablen. Schachmeister. . . . . . . . . . . . . . . 10. σ-Algebren. Schachspieler. . . . . . . . . . . . . . . . . . . 11. σ-Algebren. Potenzmenge. . . . . . . . . . . . . . . . . . . 12. σ-Algebren. Restriktion. . . . . . . . . . . . . . . . . . . . 13. Ereignisse. Würfel und Münze I. . . . . . . . . . . . . . . 14. Ereignisse. Würfel und Münze II. . . . . . . . . . . . . . 15. Ereignisse. Zerlegung des Würfels. . . . . . . . . . . . . . 16. Ereignisse. Elementare Wahrscheinlichkeiten. . . . . . 1.2 Wahrscheinlichkeitsmaße . . . . . . . . . . . . . . . . . . . . . . 17. Wahrscheinlichkeitsmaße. Monotonie. . . . . . . . . . . . 18. Wahrscheinlichkeitsmaße. Subaditivität. . . . . . . . . . 19. Wahrscheinlichkeitsmaße. Zerlegung der Vereinigung. 20. Wahrscheinlichkeitsmaße. Einfache Ungleichung. . . . 21. Arithmetik der Wahrscheinlichkeitsmaße. . . . . . . . . 1.3 Kombinatorik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22. Grundformeln der Kombinatorik. . . . . . . . . . . . . . . 23. Kombinatorik. Passwörter. . . . . . . . . . . . . . . . . . . 24. Kombinatorik. PINs und runs. . . . . . . . . . . . . . . . 25. Laplacesche Modelle. Zwei Würfel. . . . . . . . . . . . . . 26. Kombinatorik. Würfel. 4 vs. 24. . . . . . . . . . . . . . . . 27. Kombinatorik. Single choice test. . . . . . . . . . . . . . . 28. Kombinatorik. Aufzug. . . . . . . . . . . . . . . . . . . . . 29. Kombinatorik. Karten. 6 aus 52. . . . . . . . . . . . . . . 30. Kombinatorik. Karten. 13 aus 52. . . . . . . . . . . . . . . 31. Kombinatorik. 2 Kartenspieler. . . . . . . . . . . . . . . . 3 3 3 3 4 4 4 4 4 5 5 5 6 6 6 7 7 7 8 8 8 9 9 9 10 10 10 11 11 12 12 13 13 14 14 iii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iv DETALIERTES INHALTSVERZEICHNIS 1.4 1.5 1.6 1.7 32. Kombinatorik. 4 Kartenspieler. . . . . . . . . . . . . . . . . . . . . . . . 33. Gruppeneinteilung bei Fußball WM. . . . . . . . . . . . . . . . . . . . . 34. Kombinatorik. Schachbrett. . . . . . . . . . . . . . . . . . . . . . . . . . Bedingte Wahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . 35. Bedingte Wahrscheinlichkeiten. Symmetrie. . . . . . . . . . . . . . . . 36. Bedingte Wahrscheinlichkeiten. 3 Würfel. . . . . . . . . . . . . . . . . 37. Bedingte Wahrscheinlichkeiten. 2 Münzen. . . . . . . . . . . . . . . . 38. Bedingte Wahrscheinlichkeit ist ein Wahrscheinlichkeitsmaß. . . . 39. Bedingte Wahrscheinlichkeiten. Urne mit Kugeln. . . . . . . . . . . . 40. Urnenmodell. 3 Farben. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41. Multiplikatives Urnenmodell von Pólya. . . . . . . . . . . . . . . . . . 42. Bedingte Wahrscheinlichkeiten. Urnenmodell von Pólya. . . . . . . . 43. Modifiziertes Urnenmodell von Pólya. . . . . . . . . . . . . . . . . . . . 44. Bedingte Wahrscheinlichkeiten. Unfaire Münzen. . . . . . . . . . . . 45. Bedingte Wahrscheinlichkeiten. Urne mit Loch. . . . . . . . . . . . . 46. Bedingte Wahrscheinlichkeiten. Urnen mit unbekanntem Inhalt. . 47. Bedingte Wahrscheinlichkeiten. Versicherungsunternehmen. . . . . 48. Bedingte Wahrscheinlichkeiten. Urnenmodell von Pólya. II. . . . . . 49. Bedingte bedingte Wahrscheinlichkeiten. . . . . . . . . . . . . . . . . . 50. Elfmeterschießen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51. Schaltkreise. Qualitätskontrolle. . . . . . . . . . . . . . . . . . . . . . . Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52. Disjunkt vs. unabhängig. Einfache Rechnungen. . . . . . . . . . . . . 53. Unvereinbar versus unabhängig. Einfache Rechnungen. . . . . . . . 54. Unabhängigkeit. Einfache Rechnungen. . . . . . . . . . . . . . . . . . 55. Unabhängigkeit. Disjunkte Ereignisse. . . . . . . . . . . . . . . . . . . 56. Unabhängigkeit. Gleichwahrscheinliche Ereignisse. . . . . . . . . . . 57. Unabhängigkeit. Münzen. . . . . . . . . . . . . . . . . . . . . . . . . . . 58. Unabhängigkeit. Karten. . . . . . . . . . . . . . . . . . . . . . . . . . . . 59. Unabhängigkeit. Abschätzung mit der Exponentialfunktion. . . . . 60. Unabhängigkeit. Notstromanlage. . . . . . . . . . . . . . . . . . . . . . 61. Unabhängigkeit. Sicherungen. . . . . . . . . . . . . . . . . . . . . . . . 62. Unabhängigkeit. 3-teiliges Gerät. . . . . . . . . . . . . . . . . . . . . . . 63. Unabhängigkeit. Fertigungsprozess. . . . . . . . . . . . . . . . . . . . . 64. Ausfälle der Notstromgeneratoren. . . . . . . . . . . . . . . . . . . . . . 65. Komplexes Gerät. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Elementare Maßtheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66. Maßtheorie. Borel-messbare Abbildungen. . . . . . . . . . . . . . . . . 67. Maßtheorie. Dirac-Maß. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68. Maßtheorie. Bildmaß. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69. Maßtheorie. Ereignisfelder und Information. . . . . . . . . . . . . . . Diskrete Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70. Zufallsvariablen. Bernoulli-Verteilung. . . . . . . . . . . . . . . . . . . 71. Zufallsvariablen. Funktionen der Augenzahl. . . . . . . . . . . . . . . 72. Zufallsvariablen. Konstruktion über Wahrscheinlichkeitsfunktion. 73. Zufallsvariablen. Ausfälle der Bauelemente. . . . . . . . . . . . . . . . 74. Zufallsvariablen. Diskrete Gleichverteilung. . . . . . . . . . . . . . . . 75. Erwartungswert. Einfache Eigenschaften. . . . . . . . . . . . . . . . . 76. Geometrische Verteilung. Konstruktion. . . . . . . . . . . . . . . . . . 15 16 16 17 17 17 17 17 18 18 19 19 20 20 21 21 22 22 23 24 24 25 25 25 25 26 26 26 26 27 27 27 29 30 30 31 31 31 31 31 32 32 32 33 33 33 34 34 34 DETALIERTES INHALTSVERZEICHNIS 77. 78. 79. 80. 81. 82. 83. 84. 85. 86. 87. 88. 89. 90. 91. 92. 93. Geometrische Verteilung. Erwartungswerte. . . . . . . . . . . . . . . . Geometrische Verteilung. Gedächtnislosigkeit. . . . . . . . . . . . . . Geometrische Verteilung. Gedächtnislosigkeit und Erwartungswert. Binomialverteilung. Maximum der Wahrscheinlichkeitsfunktion. . Binomialverteilung. Gerade Werte. . . . . . . . . . . . . . . . . . . . . . Poisson-Verteilung. Eigenschaften. . . . . . . . . . . . . . . . . . . . . . Binomialverteilung. Additionstheorem. . . . . . . . . . . . . . . . . . . Poisson-Verteilung. Additionstheorem. . . . . . . . . . . . . . . . . . . Binomialverteilung. Verteilungsfunktion. . . . . . . . . . . . . . . . . Geometrische Verteilung. Zusammenhang mit der Gleichverteilung. Negative Binomialverteilung. Konstruktion. . . . . . . . . . . . . . . . Diskrete Gleichverteilung. Ordnungsstatistiken. . . . . . . . . . . . . Diskrete Gleichverteilung ist nicht teilbar. . . . . . . . . . . . . . . . . Geometrische Verteilung. Minima und Maxima. . . . . . . . . . . . . Geometrische Verteilung. Additionstheorem. . . . . . . . . . . . . . . Bernoulliverteilung. Momente. . . . . . . . . . . . . . . . . . . . . . . . Binomialverteilung als Summe von unabhängigen Bernoulli Zufallsvariablen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94. Binomialverteilung. Momente und momentenerzeugende Funktion. 95. Poisson-Verteilung. Momente. . . . . . . . . . . . . . . . . . . . . . . . 96. Zusammengesetzte Poisson-Verteilung. . . . . . . . . . . . . . . . . . . 97. Benfordsches Gesetz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98. Rademacher-verteilte Zufallsvariablen. . . . . . . . . . . . . . . . . . . 1.8 Ungleichungen der Wahrscheinlichkeitstheorie . . . . . . . . . . . . . . . . 99. Tschebyscheff ’sche Ungleichung. 100 Würfel. . . . . . . . . . . . . . . 100. Markow’sche Ungleichung. Diskreter Fall. . . . . . . . . . . . . . . . . 1.9 Diskrete Zufallsvariablen - Textaufgaben . . . . . . . . . . . . . . . . . . . . 101. Busfahrerstreik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102. Hochwasserereignisse. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103. Gasmelder. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104. Vulkanausbrüche. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105. Weinfehler. Verteilungsfunktion. . . . . . . . . . . . . . . . . . . . . . . 106. Grenzverteilungsätze. Weinfehler. . . . . . . . . . . . . . . . . . . . . . 107. Reifenpannen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108. Beschichtungsfehler. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109. Übertragungskanal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110. Übertragungskanal mit stochastischer Fehlerkorrektur. . . . . . . . 111. Übertragungskanal. II . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112. Bitcoin. Einfaches Bubble-Modell. . . . . . . . . . . . . . . . . . . . . . 1.10 Stetige Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113. Exponentialverteilung. Minima. . . . . . . . . . . . . . . . . . . . . . . 114. Exponentialverteilung. Dichte des Maximums. . . . . . . . . . . . . . 115. Momente der Exponentialverteilung. . . . . . . . . . . . . . . . . . . . 116. Gedächtnislosigkeit der Exponentialverteilung. . . . . . . . . . . . . . 117. Momentenerzeugende Funktion der Exponentialverteilung. . . . . 118. Minimum von exponentialverteilten Zufallsvariablen. . . . . . . . . 119. Gleichverteilung und Exponentialverteilung. . . . . . . . . . . . . . . 120. Erlang-2-Verteilung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . v 34 35 35 35 36 36 36 37 37 38 38 39 39 40 40 41 41 41 42 42 43 44 44 44 45 45 45 46 47 47 48 48 49 50 50 51 51 52 53 53 53 53 54 54 55 55 55 vi DETALIERTES INHALTSVERZEICHNIS 121. Stetige Gleichverteilung. Momente und Momentenerzeugende Funktion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122. Stetige Gleichverteilung. Momente. . . . . . . . . . . . . . . . . . . . . 123. Stetige Gleichverteilung ist nicht teilbar. . . . . . . . . . . . . . . . . . 124. Cauchy-Verteilung. Gegenbeispiel. . . . . . . . . . . . . . . . . . . . . . 125. Cauchy-Verteilung. Ein Gegenbeispiel. . . . . . . . . . . . . . . . . . . 126. Cauchy-Verteilung ist hartneckig. . . . . . . . . . . . . . . . . . . . . . 127. Lévy-Verteilung. Dichtefunktion. . . . . . . . . . . . . . . . . . . . . . . 128. Mellin-Transformation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129. Normalverteilung. Momentenerzeugende Funktion und Momente. 130. Normalverteilung. Momente. . . . . . . . . . . . . . . . . . . . . . . . . 131. Summen von normalverteilten Zufallsvariablen. . . . . . . . . . . . . 132. Dichte der multivariaten Normalverteilung. . . . . . . . . . . . . . . 133. Gaussche Zufallsvariablen und Unabhängigteit. . . . . . . . . . . . . 134. Log-Normalverteilung. Momente und Dichte. . . . . . . . . . . . . . . 135. Log-Normalverteilung. Dichtefunktion. . . . . . . . . . . . . . . . . . . 136. Log-Normalverteilung. Momente. . . . . . . . . . . . . . . . . . . . . . . 137. Normalverteilung. Abweichungen vom Mittelwert. . . . . . . . . . . . 138. Verteilung der Stichprobenvarianz. . . . . . . . . . . . . . . . . . . . . 139. Symmetrische Zufallsvariablen. . . . . . . . . . . . . . . . . . . . . . . 140. Rayleigh-Verteilung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141. Beta-verteilung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142. Gamma-Verteilung. Momente. . . . . . . . . . . . . . . . . . . . . . . . . 143. Momentenerzeugende Funktion einer Gamma-Verteilung. . . . . . 144. Transformationen der Gamma-Verteilung. . . . . . . . . . . . . . . . 145. Gamma-Verteilung und Exponentialverteilung. . . . . . . . . . . . . 146. Mittelwertvergleich bei Gamma-Verteilungen. . . . . . . . . . . . . . 147. χ2 -Verteilung mit einem Freiheitsgrad. . . . . . . . . . . . . . . . . . . 148. Dichte der χ2 -Verteilung. . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.11 Stetige Zufallsvariablen – Textaufgaben . . . . . . . . . . . . . . . . . . . . 149. Widerstände. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150. Lebensdauer der Glühlampen. . . . . . . . . . . . . . . . . . . . . . . . 151. Radioaktivität. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152. Entfernungsmessung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153. Ersatzteillieferung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154. Grenzverteilungsätze. Cloudrechner. . . . . . . . . . . . . . . . . . . . 155. Grenzverteilungsätze. Schaltkreise. . . . . . . . . . . . . . . . . . . . . 156. Grenzverteilungsätze. Münzen. . . . . . . . . . . . . . . . . . . . . . . . 157. Grenzverteilungsätze. Kondensatoren. . . . . . . . . . . . . . . . . . . 158. Grenzverteilungsätze. Schaltgehäuse. . . . . . . . . . . . . . . . . . . . 1.12 Mehrdimensionale Verteilungen. . . . . . . . . . . . . . . . . . . . . . . . . . 159. Korrelationskoeffizient. Eigenschaften. . . . . . . . . . . . . . . . . . . 160. Bivariate Normalverteilung. Maximum. . . . . . . . . . . . . . . . . . 161. Korrelation und Symmetrie. . . . . . . . . . . . . . . . . . . . . . . . . . 162. Gleichverteilung auf dem Einheitskreis. . . . . . . . . . . . . . . . . . 163. Gleichverteilung auf der Ellipse. . . . . . . . . . . . . . . . . . . . . . . 164. Bedingte Dichten. Ein Rechenbeispiel. . . . . . . . . . . . . . . . . . . 165. Bivariate Rademacherverteilung. . . . . . . . . . . . . . . . . . . . . . . 1.13 Quantile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 56 57 57 57 57 57 58 58 60 60 61 61 61 62 63 63 63 63 64 64 64 65 65 65 66 66 66 67 67 67 67 68 68 69 69 70 70 71 71 71 72 72 72 73 74 74 75 DETALIERTES INHALTSVERZEICHNIS . . . . . . . . . . . . . . . . . . . . . . . 75 76 76 76 76 76 77 77 77 77 78 79 80 81 81 82 82 83 84 85 85 86 87 2 Wahrscheinlichkeitstheorie 185. Konvergenz einer Zufallsreihe. . . . . . . . . . . . . . . . . . . . . . . . 186. Kurtosis. Eigenschaften. . . . . . . . . . . . . . . . . . . . . . . . . . . . 187. Ordnungsstatistiken. Eigenschaften. . . . . . . . . . . . . . . . . . . . 188. Symmetrische Zufallsvariablen und L p Ungleichungen. . . . . . . . . 189. Dichtefunktionen. Scheffés Identitäten. . . . . . . . . . . . . . . . . . . 190. Selbstunabhängigkeit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191. Eine Darstellung des Erwartungswertes. . . . . . . . . . . . . . . . . 192. Erwartungstreue einfacher Schätzer. . . . . . . . . . . . . . . . . . . . 193. Faltungsformel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194. Abzählbare Familien disjunkter Mengen. . . . . . . . . . . . . . . . . . 2.1 Bedingte Erwartungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195. Bedingte Erwartungen. II. . . . . . . . . . . . . . . . . . . . . . . . . . . 196. Zusammengesetzte Poissonverteilung. Momentenerzeugende Funktion und Momente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197. Bedingte Erwartungen. Turmeigenschaft. Gegenbeispiel. . . . . . . 198. Bedingte Erwartungen. Turmeigenschaft. . . . . . . . . . . . . . . . . 199. Bedingte Varianz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200. Bedingte Erwartungen. Einfache Eigenschaften. . . . . . . . . . . . . 201. Turmeigenschaft der bedingten Erwartung. . . . . . . . . . . . . . . . 202. Bedingte Erwartungen und Normalverteilung. . . . . . . . . . . . . . 203. Bedingte Erwartungen. Exponentialverteilung. . . . . . . . . . . . . . 2.2 Stochastische Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204. Poissonprozess. Charakteristische Funktion. . . . . . . . . . . . . . . 205. Zusammengesetzter Poissonprocess. Charakteristische Funktion. . 89 89 89 89 90 90 90 90 91 92 92 92 92 1.14 1.15 1.16 1.17 166. Exponentialverteilung. Quantile. . . . . . . . . . . . . . . . 167. Logistische Verteilung. Quantile. . . . . . . . . . . . . . . . Erwartungstreue . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168. Schätzung der Varianz bei bekanntem Erwartungswert. 169. Diskrete Gleichverteilung. Erwartungstreuer Schätzer. . 170. Log-Normalverteilung. Erwartungstreuer Schätzer. . . . Einfache Schätzer . . . . . . . . . . . . . . . . . . . . . . . . . . . 171. Einfache Schätzer. Telefonzentrale. . . . . . . . . . . . . . Konfidenzintervalle . . . . . . . . . . . . . . . . . . . . . . . . . . 172. Kondensatoren. Konfidenzintervall. . . . . . . . . . . . . . 173. Krankenversicherung. Konfidenzintervall. . . . . . . . . . 174. Qualitätssicherung. Konfidenzintervall. . . . . . . . . . . 175. Justierung. Konfidenzintervall. . . . . . . . . . . . . . . . . Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176. Waschmittel. Test. . . . . . . . . . . . . . . . . . . . . . . . . 177. Messgerät. Test. . . . . . . . . . . . . . . . . . . . . . . . . . 178. Entfernungsmessung. Konfidenzintervall und Test. . . . 179. Erneuerbare Energien. Test. . . . . . . . . . . . . . . . . . . 180. Test. Trendvergleich bei Funds. . . . . . . . . . . . . . . . . 181. Konfidenzintervall und Test. Normalverteilung. . . . . . 182. Analyse des Zuckerpreises. . . . . . . . . . . . . . . . . . . . 183. Analyse des Kaffeebohnenpreises. . . . . . . . . . . . . . . 184. Aktie im Bachelier-Modell. . . . . . . . . . . . . . . . . . . . vii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 94 94 95 95 96 96 96 96 96 97 viii DETALIERTES INHALTSVERZEICHNIS 206. Ornstein-Uhlenbeck SDE. . . . . . . . . . . . . . . . . . . . . . . . . . . 98 3 Mathematische Statistik 99 3.1 Identifizierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 207. Identifizierbarkeit im linearen Modell. . . . . . . . . . . . . . . . . . . 99 3.2 Suffizienz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 208. Suffizienz. Invariante Transformationen. . . . . . . . . . . . . . . . . . 99 209. Qualitätskontrolle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 210. Inverse Gamma-Verteilung. Suffizienz. . . . . . . . . . . . . . . . . . . 100 211. Beta-Verteilung. Suffizienz. . . . . . . . . . . . . . . . . . . . . . . . . . 100 212. Pareto-Verteilung. Suffizienz. . . . . . . . . . . . . . . . . . . . . . . . . 100 213. Poisson-Verteilung. Suffizienz. . . . . . . . . . . . . . . . . . . . . . . . 100 214. Suffizienz. Beispiele. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 215. Nichtzentrale Exponentialverteilung. Suffizienz. . . . . . . . . . . . . 102 3.3 Exponentielle Familien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 216. Exponentielle Familie mit einer unvollständigen natürlichen Statistik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 217. Beta-Verteilung als exponentielle Familie. . . . . . . . . . . . . . . . . 103 218. Gamma-Momente und exponentielle Familien. . . . . . . . . . . . . . 103 219. Poisson-Momente und exponentielle Familien. . . . . . . . . . . . . . 104 220. Laplace-Verteilung ist keine exponentielle Familie. . . . . . . . . . . 104 221. Verteilung der natürlichen suffizienten Statistik. . . . . . . . . . . . 105 222. Cauchy-Verteilung ist keine exponentielle Familie. . . . . . . . . . . 105 223. Mixtures of Normal Verteilungen sind keine exponentielle Familien.105 224. Weibull-Verteilung als exponentielle Familie. . . . . . . . . . . . . . . 105 225. Invers-Gauß-Verteilung als exponentielle Familie. . . . . . . . . . . . 106 226. Invers-Gamma-Verteilung als exponentielle Familie. . . . . . . . . . 106 227. Lévy-Verteilung als exponentielle Familie. . . . . . . . . . . . . . . . . 107 3.4 Momentenmethode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 228. Stetige Gleichverteilung. Momentenschätzer. . . . . . . . . . . . . . . 108 229. Dreiecksverteilung. Momentenschätzer. . . . . . . . . . . . . . . . . . 108 230. Momentenschätzer. Beispiele. . . . . . . . . . . . . . . . . . . . . . . . . 109 231. Weibull-Verteilung. Momentenschätzer. . . . . . . . . . . . . . . . . . . 109 232. Momentenschätzung vs Suffizienz. . . . . . . . . . . . . . . . . . . . . . 109 233. AR1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 234. Exponentialverteilung. Momentenschätzer. . . . . . . . . . . . . . . . 111 235. Rayleigh-Verteilung. Momentenschätzer. . . . . . . . . . . . . . . . . 111 236. Gamma-Verteilung. Momentenschätzer. . . . . . . . . . . . . . . . . . 111 237. Beta-Verteilung. Momentenschätzer. . . . . . . . . . . . . . . . . . . . 112 3.5 Kleinste-Quadrate-Schätzer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 238. Einfache lineare Regression. Beispielrechnung. . . . . . . . . . . . . . 113 239. Gewichtete einfache lineare Regression. . . . . . . . . . . . . . . . . . 114 3.6 Maximum-likelihood Schätzer . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 240. Mischung von Gleichverteilungen. MLE. . . . . . . . . . . . . . . . . . 114 241. Normalverteilung. MLE. . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 242. Exponentialverteilung. MLE. . . . . . . . . . . . . . . . . . . . . . . . . 115 243. Maximum-Likelihood-Methode und Suffizienz. . . . . . . . . . . . . . 115 244. Zweidimensionale Exponentialverteilung. MLE. . . . . . . . . . . . . 116 245. Weibull-Verteilung. MLE. . . . . . . . . . . . . . . . . . . . . . . . . . . 116 DETALIERTES INHALTSVERZEICHNIS 3.7 3.8 3.9 3.10 3.11 246. Mischung der Verteilungen. MLE. . . . . . . . . . . . . . . . . . . 247. Beta-Verteilung. MLE. . . . . . . . . . . . . . . . . . . . . . . . . . 248. Pareto-Verteilung. Suffizienz und MLE. . . . . . . . . . . . . . . . 249. Gamma-Verteilung. MLE. . . . . . . . . . . . . . . . . . . . . . . . 250. Lévy-Verteilung. Dichte und MLS. . . . . . . . . . . . . . . . . . . UMVUE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251. Ein Model für das kein erwartungstreuer Schätzer existiert. . 252. Verschobene Gleichverteilung. . . . . . . . . . . . . . . . . . . . . 253. UMVUE. Bernoulli-Verteilung. . . . . . . . . . . . . . . . . . . . . 254. Diskrete Gleichverteilung. MLE und UMVUE. . . . . . . . . . . 255. Vollständigkeit und UMVUE. . . . . . . . . . . . . . . . . . . . . . 256. Vollständigkeit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257. Stichprobenvarianz als UMVUE bei Normalverteilung. . . . . . 258. UMVUE. Normalverteilung. . . . . . . . . . . . . . . . . . . . . . 259. Cramér-Rao Regularität und exponentielle Familien. . . . . . . 260. UMVUE. Exponentialverteilung. . . . . . . . . . . . . . . . . . . . 261. UMVUE. Gamma-Verteilung. . . . . . . . . . . . . . . . . . . . . . 262. Informationsungleichung und Normalverteilung. . . . . . . . . 263. Cramér-Rao-Schranke und die Gleichverteilung. . . . . . . . . . 264. Cramér-Rao-Schranke ist nicht scharf. . . . . . . . . . . . . . . . 265. Log-Normal-Verteilung. MLS und UMVUE. . . . . . . . . . . . . 266. UMVUE-Schätzer für Poisson-Verteilung. . . . . . . . . . . . . . Asymptotische Theorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267. Verschobene Gleichverteilung und Konsistenz. . . . . . . . . . . 268. Konsistenz. Hinreichende Bedingungen. . . . . . . . . . . . . . . 269. Asymptotische Verteilung von MLE. . . . . . . . . . . . . . . . . . 270. Asymptotische Effizienz. . . . . . . . . . . . . . . . . . . . . . . . . Konfidenzintervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271. Konfidenzintervall. Normalverteilung. . . . . . . . . . . . . . . . 272. Konfidenzintervall. Exponentialverteilung. . . . . . . . . . . . . 273. Konfidenzintervall. Varianzenvergleich bei Normalverteilung. 274. Gleichverteilung. Konfidenzintervall. . . . . . . . . . . . . . . . . 275. Konfidenzintervall. Mittelwert der Normalverteilung. . . . . . Testtheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276. Test. Mittelwertvergleich unter Normalverteilung. . . . . . . . 277. Poisson-Verteilung. Test. . . . . . . . . . . . . . . . . . . . . . . . . 278. Exponentialverteilung. Test. . . . . . . . . . . . . . . . . . . . . . . 279. Rayleigh-Verteilung. UMP-Test. . . . . . . . . . . . . . . . . . . . 280. Pareto-Verteilung. Optimaler Test. . . . . . . . . . . . . . . . . . . 281. Poissonverteilung. Optimaler Test. . . . . . . . . . . . . . . . . . . 282. Geometrische Verteilung. Neyman-Pearson-Test. . . . . . . . . . 283. Bernoulli-Verteilung. Neyman-Pearson-Test. . . . . . . . . . . . 284. Gamma-Verteilung. Konfidenzintervall und Test. . . . . . . . . Lineare Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285. Lineare Regression mit Schalter. . . . . . . . . . . . . . . . . . . . 286. 3-Stichprobenproblem. . . . . . . . . . . . . . . . . . . . . . . . . . 287. KQS ist auch MLS im Normalverteilungsfall. . . . . . . . . . . 288. Einfache lineare Regression. . . . . . . . . . . . . . . . . . . . . . 289. Quadratisches Modell. KQS. . . . . . . . . . . . . . . . . . . . . . . ix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 118 118 119 120 121 121 121 123 125 126 127 127 128 129 130 132 133 133 134 136 137 138 138 139 140 141 142 142 143 143 144 144 145 145 146 148 150 151 152 154 155 157 157 157 158 159 160 161 x DETALIERTES INHALTSVERZEICHNIS 290. Quadratisches Modell. Explizite Form des KQS. . . . . . . . . . . . . 161 Literatur 163 Einleitung Die vorliegende Sammlung enthält über 287 Probleme und Aufgaben, die ich seit 2011 für meine Übungen an der TU Chemnitz verwendet habe. Die Aufgaben sind zum Teil mit Lösungshinweisen oder mit vollständigen Lösungen versehen. Quellen Bei der Erstellung dieser Aufgabensammlung habe ich unter anderen folgende exzellente Bücher verwendet: • Claudia Czado und Thorsten Schmidt. Mathematische Statistik. Statistik und Ihre Anwendungen. Springer, 2011. ISBN: 9783642172601 • Jean Jacod und Philip Protter. Probability Essentials. 2. Aufl. Springer-Verlag, 2004. ISBN: 9783540438717 • Jacek Jakubowski und Rafał Sztencel. Wst˛ep do teorii prawdopodobieństwa. Script, 2001. ISBN: 9788390456454 • Jun Shao. Mathematical Statistics. Springer Texts in Statistics. Springer, 2003. ISBN : 9780387953823 • Übungsaufgaben zur Wahrscheinlichkeitsrechnung und Statistik. Fakultät für Mathematik, Technische Universität Chemnitz Kompilierung der Aufgabensammlung Um die Datei problem-supermarkt.pdf aus den LATEX-Quellen zu erstellen wird eine aktuelle TEX-Distribution benötigt, wie zum Beispiel TEXLive 2012. Basierend auf den Aufgaben in dieser Sammlung können auch automatisiert Übungsblätter erstellt werden. Dies ist mit Hilfe eines separaten Werkzeugs problemextractor möglich. Fehler und Korrekturen Wenn Sie einen Fehler gefunden haben, erstellen Sie bitte ein “Issue” in dem Fehlerverfolgunssystem des Projekts und verweisen Sie in dem Namen des Fehlers auf den (innerhalb der Sammlung eindeutigen) Titel der Aufgabe. 1 2 DETALIERTES INHALTSVERZEICHNIS Mitwirkende Ich möchte mich bei folgenden Personen für das Beitragen der Aufgaben, Lösungen und Verbesserungsvorschläge herzlich bedanken: Thorsten Schmidt, Bernd Hofmann, Holger Langenau, Michael Pippig, Toni Volkmer, Susanne Lindner. Weiterverwendung der Probleme aus dieser Sammlung Problemsupermarkt ist lizenziert unter einer Creative Commons Namensnennung Weitergabe unter gleichen Bedingungen 4.0 International Lizenz. Julian Wergieluk, Chemnitz, 2014. K APITEL 1 Wahrscheinlichkeitsrechnung 1.1 Mengensysteme 1. Ereignisse. Mengenoperationen. Gegeben seien jeweils der Grundraum Ω sowie zwei Teilmengen A und B : (a) Ω = {1, 2, ..., 20}, A = {4, 5, 6, 7, 9, 11}, B = {3, 5, 9, 20} (b) Ω = [−1, 3], A = [0, 1), B = ( 12 , 2] (c) Ω = R, A = {x ∈ R : |x − 1| < 3}, B = [0, ∞). Bilden Sie die Mengen A , B , A ∩ B , A ∪ B , A ∪ B , A ∩ B , B ∩ A , (A ∪ B ) ∩ B , B ∪ (B ∩ A). 2. Ereignisse. Kraftwerk. Die Arbeit eines Kraftwerkes wird durch drei unabhängig voneinander arbeitende Kontrollsysteme überwacht, die jedoch auch einer gewissen Störanfälligkeit unterliegen. Es bezeichne S i das Ereignis, dass das i -te System störungsfrei arbeitet (i = 1, 2, 3). (a) Finden Sie einen geeigneten Grundraum Ω, der diese Zufallssituation beschreibt. Ist Ω eindeutig bestimmt? (b) Drücken Sie folgende Ereignisse mit Hilfe der Ereignisse S 1 , S 2 und S 3 aus: A : Alle drei Systeme arbeiten störungsfrei. B : Kein System arbeitet störungsfrei. C : Mindestens ein System arbeitet störungsfrei. D : Genau ein System arbeitet störungsfrei. E : Höchstens zwei Systeme sind gestört. (c) Welche der unter (b) genannten Ereignisse sind Elementarereignisse? (d) Aus wie vielen Elementen bestehen die Ereignisse D und C ? Lösung. Der Grundraum Ω kann als Ω = (i j k) : i , j , k ∈ {0, 1} gewählt werden. Diese Wahl ist aber nicht eindeutig. Die Ereignisse A und B sind in diesem Fall Elementarereignisse. © 3 ª 4 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG 3. Ereignisse. Aktienmarkt. Beim Monatsvergleich zweier Technologieaktien wird für jede Aktie festgestellt, ob es zu einem Gewinn von mindestens 3% kam, ob sich ein Verlust um mehr als 3% ergab oder ob sich die jeweilige Aktie innerhalb der 6%-Spanne bewegte. (a) Finden Sie einen geeigneten Grundraum Ω, der diese Zufallssituation beschreibt. Ist Ω eindeutig bestimmt? (b) Stellen Sie folgende Ereignisse mit Hilfe der Elementarereignisse dar: A : Beide Aktien erzielten einen Kursgewinn von mindestens 3%. B : Die Kurse der beiden Aktien lagen innerhalb der 6%-Spanne. C : Der Kurs von höchstens einer der beiden Aktien verschlechterte sich um mehr als 3%. D : Der Kurs von mindestens einer der beiden Aktien verschlechterte sich um mehr als 3%. (c) Welche Bedeutung haben die Ereignisse E 1 = A ∪C , E 2 = A ∪ D , E 3 = A ∩C , E 4 = A ∩C , E 5 = A ∩ D ? 4. Ereignisse. Fertigungsstraße. Eine Fertigungsstraße bestehe aus einer Maschine vom Typ I, vier Maschinen vom Typ II und zwei Maschinen vom Typ III. Wir bezeichnen mit A , B k bzw. C j (k = 1, 2, 3, 4; j = 1, 2) die Ereignisse, dass die Maschine vom Typ I bzw. die k -te Maschine vom Typ II bzw. die j -te Maschine vom Typ III intakt ist. Die Fertigungsstraße sei arbeitsfähig, wenn mindestens eine Maschine von jedem Maschinentyp intakt ist. Dieses Ereignis werde mit D bezeichnet. Beschreiben Sie die Ereignisse D und D mit Hilfe der Ereignisse A , B k , C j . 5. Ereignisse. Kosten. Drei Betriebsteile werden auf Einhaltung eines bestimmten Kostenfaktors überprüft. Das Ereignis A liege vor, wenn mindestens ein Betriebsteil nicht den geforderten Kostenfaktor einhält, das Ereignis B liege vor, wenn alle drei Betriebsteile den geforderten Kostenfaktor einhalten. Was bedeuten dann die Ereignisse A ∪ B und A ∩ B ? 6. Zufallsvariablen. Urbildmengen. Gegeben seien ein Grundraum Ω = R und die Zufallsvariable X : Ω → R : ω 7→ ω2 . Geben Sie folgende Mengen explizit an: {X = 0} , {X ∈ [1, 2)} , {X > 2} , {2X < 4} , 7. Zufallsvariablen. Zwei unterscheidbare Würfel. ein schwarzer Würfel werden geworfen. {|X − 2| > 1} . Ein weißer Würfel und (a) Geben Sie einen geeigneten Grundraum Ω an, der diese Zufallssituation beschreibt. (b) Die Zufallsvariablen W bzw. S geben die Augenzahl des weißen bzw. schwarzen Würfels an. Geben Sie die Definitionen von W und S explizit an. Wie definieren Sie den Zustandsraum? 1.1. MENGENSYSTEME 5 (c) Geben Sie folgende Ereignisse explizit an: ½ {W = 6} , {W + S = 4} , {W > S} , ¾ W >1 . S 8. Zufallsvariablen. Indikatorfunktionen. Ein Experiment bestehe aus einfachem Würfelwurf und wird durch den Grundraum Ω = {1, 2, 3, 4, 5, 6} beschrieben. Die Zufallsvariable X : Ω → R, ω 7→ ω liefert das Ergebnis des Würfelwurfs. Zeigen Sie X = 1[1,6] + 1[2,6] + · · · + 1[6,6] . 9. Zufallsvariablen. Schachmeister. Ein Schachmeister besucht einen Schachverein und spielt eine Partie Simultanschach gegen die fünf anwesenden Clubmitglieder. Dazu werden fünf Schachbretter in einer Reihe aufgebaut. Auf der einen Seite sitzen vor je einem Brett die Vereinsmitglieder, während auf der anderen Seite der Schachmeister reihum auf jedem Brett zieht. Es sei X die Anzahl der Spiele, die der Schachmeister gewinnt. (Ein Schachspiel kann mit Remis beendet werden, so dass keiner gewinnt.) (a) Geben Sie einen Grundraum Ω, die Zufallsvariable X und den Zustandsraum Z an. (b) Bestimmen Sie die Anzahl der Elemente von Ω. (c) Wie viele Elementarereignisse besitzt das Ereigns {X ≥ 4}? Lösung. (a) Ω = {0, 1}5 (1 : gewonnen, 0 : nicht gewonnen), X : Ω → Z = {0, 1, 2, 3, 4, 5}, X (ω) = P5 i =1 ωi wobei ω = (ω1 , . . . , ω5 ) ∈ Ω (b) |Ω| = 25 = 32 (c) |{X ≥ 4}| = |{X = 5} ∪ {X = 4}| = 1 + 4 = 5 Die Wahl von Ω ist hierbei nicht eindeutig. Es könnte alternativ auch folgende Lösung gewählt werden: (a) Ω = {−1, 0, 1}5 (1 : gewonnen, 0 : nicht gewonnen, −1 : verloren), X : Ω → Z = {0, 1, 2, 3, 4, 5} (b) |Ω| = 35 = 243 (c) |{X ≥ 4}| = |{X = 5} ∪ {X = 4}| = 1 + 8 = 9 10. σ-Algebren. Schachspieler. Zwei Schachspieler spielen eine Partie. Das Ereignis A liege vor, falls der erste Spieler gewinnt, das Ereignis B , falls der zweite gewinnt. Welche Ereignisse sind noch hinzuzufügen, damit eine σ-Algebra entsteht? 6 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG Lösung. Für Ω 6= ; heißt A ⊂ P (Ω) Algebra, falls (i) Ω ∈ A (ii) A ∈ A ⇒ A ∈ A (iii) A 1 , A 2 ∈ A ⇒ A 1 ∪ A 2 ∈ A Für eine σ-Algebra wird statt (iii) allgemeiner gefordert (iiiσ ) A i ∈ A , i ∈ N ⇒ S∞ i =1 Ai ∈ A Für |A | < ∞ sind (iii) und (iiiσ ) äquivalent, d.h. jede endliche Algebra ist auch σAlgebra. Interpretation: Jede und/oder-Verknüpfung sowie Verneinungen von Ereignissen sind wieder als Ereignis darstellbar. • Das Ereignis C liege bei Unentschieden vor. • Das sichere Ereignis ergibt sich dann offenbar als Ω = A ∪ B ∪C ∈ A (“Ein Spieler gewinnt oder Unentschieden” tritt immer ein). • Wegen (ii) ist dann auch das unmögliche Ereignis ; = Ω ∈ A Element der Algebra (es gibt keine anderen Spielausgänge). • Wegen (iii) sind außerdem A ∪ B ∈ A , A ∪C ∈ A und B ∪C ∈ A . • Offenbar gilt A ∪ B = C ∈ A , A ∪C = B ∈ A und B ∪C = A ∈ A • A = {;, A, B,C , A ∪ B, A ∪ C , B ∪ C , Ω} erfüllt alle Bedingungen einer Algebra. Auf Grund der Endlichkeit (|A | = 8) ist dies auch eine σ-Algebra. 11. σ-Algebren. Potenzmenge. Sei Ω ein endlicher nichtleerer Grundraum. Zeigen Sie, dass die Menge aller Teilmengen von Ω, also die Potenzmenge P (Ω), endlich und eine σ-Algebra ist. 12. σ-Algebren. Restriktion. Sei A eine σ-Algebra von Teilmengen eines Grundraumes Ω und B ∈ A mit B 6= ;. Zeigen Sie, dass C = {A ∩ B : A ∈ A } eine σ-Algebra von Teilmengen von B ist. 13. Ereignisse. Würfel und Münze I. Ein Experiment bestehe aus dem Werfen eines sechsseitigen Würfels und einer Münze. (a) Geben Sie einen Grundraum Ω an, der diese Zufallssituation beschreibt. (b) Stellen Sie die folgenden Ereignisse sowohl formell als auch durch Aufzählung der Elementareignisse dar. A : Der Würfel zeigt eine 1 und die Münze zeigt Zahl. B : Der Würfel zeigt eine gerade Augenzahl. C : Der Würfel zeigt eine 6 oder die Münze zeigt kein Wappen. D : Entweder A oder C tritt ein. 1.1. MENGENSYSTEME 7 Lösung. (a) Ω = {1, 2, 3, 4, 5, 6} × {W, Z } = {(w, m) : w ∈ {1, 2, 3, 4, 5, 6}, m ∈ {W, Z }} = {(1,W ), (2,W ), (3,W ), (4,W ), (5,W ), (6,W ), (1, Z ), (2, Z ), (3, Z ), (4, Z ), (5, Z ), (6, Z )} (b) A : W1 := {(1,W ), (1, Z )}, M Z := {(1, Z ), (2, Z ), . . . , (6, Z )}, A = W1 ∩ M Z = {(1, Z )} B : B = W2 ∪ W4 ∪ W6 = {(2,W ), (2, Z ), (4,W ), (4, Z ), (6,W ), (6, Z )} C : C = W6 ∪ MW = {(6,W ), (6, Z ), (1, Z ), (2, Z ), (3, Z ), (4, Z ), (5, Z )} D : A = Ω \ {(1, Z )}, C = {(1,W ), . . . , (5,W )} D = A4C = (A ∩C ) ∪ (A ∩C ) = Ω \ ((A ∩C ) ∪ (A ∩C )) = {(2, Z ), . . . , (6, Z ), (6,W )} 14. Ereignisse. Würfel und Münze II. Ein Experiment bestehe aus dem Werfen eines fairen Würfels und einer fairen Münze. (a) Geben Sie einen Wahrscheinlichkeitsraum (Ω, A , P) an, der diese Zufallssituation beschreibt. (b) Zeigt die Münze Wappen, so wird die doppelte Augenzahl des Würfels notiert, bei Zahl nur die einfache. Wie groß ist die Wahrscheinlichkeit, dass eine gerade Zahl notiert wird? 15. Ereignisse. Zerlegung des Würfels. Ein Würfel, dessen Seitenflächen gleichartig gefärbt sind, werde in 1000 kleine Würfel einheitlicher Größe zerlegt. Wie groß ist die Wahrscheinlichkeit dafür, dass ein zufällig ausgewählter Würfel auf mindestens einer Seite gefärbt ist? 16. Ereignisse. Elementare Wahrscheinlichkeiten. Für die Ereignisse A und B seien folgende Wahrscheinlichkeiten bekannt: P(A) = 0.25, P(B ) = 0.45, P(A ∪ B ) = 0.5. Berechnen Sie die Wahrscheinlichkeiten: (a) P(A ∩ B ), (b) P(A ∩ B ) und ³ ´ (c) P (A ∩ B ) ∪ (A ∩ B ) . Lösung. (a) P(A ∪ B ) = P((A ∩ B̄ ) ∪ B ) = P(A ∩ B̄ ) + P(B ) P(A ∪ B̄ ) = P(A ∪ B ) − P(B ) = 0.05. (b) P( Ā ∩ B̄ ) = P(A ∪ B ) = 0.5. 8 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG (c) Die symmetrische Differenz A∆B = (A \ B ) ∪ (B \ A) ist eine disjunkte Vereinigung, und daher P(A∆B ) = P(A ∩ B̄ ) + P( Ā ∩ B ). Die vorherigen Überlegungen liefern P(A ∩ B̄ ) = P(A \ B ) = P(A ∪ B ) − P(B ) = 0.05 P( Ā ∩ B ) = P(B \ A) = P(A ∪ B ) − P(A) = 0.25. Insgesamt gilt also P(A∆B ) = 0.3. 1.2 Wahrscheinlichkeitsmaße Wahrscheinlichkeitsmaße. Monotonie. Seien ein Wahrscheinlichkeitsraum (Ω, A , P) und die Ereignisse A, B ∈ A gegeben. Zeigen Sie 17. A⊆B P(A) ≤ P(B ). ⇒ Lösung. P(B ) = P(A ∪ (B \ A)) = P(A) + P(B \ A) ≥ P(A). 18. Wahrscheinlichkeitsmaße. Subaditivität. Seien ein Wahrscheinlichkeitsraum (Ω, A , P) und die Ereignisse A 1 , A 2 , · · · ∈ A gegeben. (a) Zeigen Sie, dass für alle n ∈ N à P ! n [ Ai ≤ i =1 n X P (A i ) i =1 gilt. (b) Zeigen Sie, dass sogar gilt à P ∞ [ i =1 ! Ai ≤ ∞ X P (A i ) . i =1 Lösung. (a) Betrachte folgende Darstellung der Vereinigung als Summe disjunkter Elemente von A . n [ A i = A 1 ∪ ( Ā 1 ∩ A 2 ) ∪ ( Ā 1 ∩ Ā 2 ∩ A 3 ) ∪ · · · ∪ ( Ā 1 ∩ Ā 2 ∩ · · · ∩ Ā n−1 ∩ A n ). i =1 (b) Genau das gleiche Argument funktioniert für n = ∞. Das ist die Konsequenz der σ-Additivität des Wahrscheinlichkeitsmaßes P . 1.2. WAHRSCHEINLICHKEITSMASSE 9 19. Wahrscheinlichkeitsmaße. Zerlegung der Vereinigung. Seien ein Wahrscheinlichkeitsraum (Ω, A , P) und die Ereignisse A, B,C ∈ A sowie A 1 , A 2 , . . . , A n ∈ A gegeben. Zeigen Sie folgende Aussagen: (a) P (A ∪ B ∪C ) = P(A) + P(B ) + P(C ) − P(A ∩ B ) − P(A ∩C ) − P(B ∩C ) + P(A ∩ B ∩C ). (b) à P n [ i =1 ! Ai = n X P(A i ) − i =1 X P(A i ∩ A j )+ i<j X P(A i ∩ A j ∩ A k ) − · · · + (−1)n+1 P (A 1 ∩ · · · ∩ A n ) . i < j <k Lösung. (a) Hier genügt eine Überlegung mit Hilfe der Venn-Diagrame. (b) Die Menge A 1 ∪ · · · ∪ A n ist Vereinigung der Mengen der Form A i 1 ∩ · · · ∩ A i k ∩ Ā i k+1 ∩ · · · ∩ Ā i n , k ≥ 1, wobei i 1 , . . . , i n eine Umnumerierung von 1, . . . , n ist. Nun kommt ¡ ¢ solche Menge in der ersten Summe als Teilmenge von A i genau k1 vor. In der ¡ ¢ ¡ ¢ P zweiten Summe wird die Menge k2 mal abgezogen. Nachdem ki=0 (−1)i ki = 0, ¡ ¢ P erhalten wir ki=1 (−1)i +1 ki = 1. 20. Wahrscheinlichkeitsmaße. Einfache Ungleichung. Seien ein Wahrscheinlichkeitsraum (Ω, A , P ) und die Ereignisse A und B gegeben. Beweisen Sie die Ungleichung P (A ∩ B ) ≥ P (A) + P (B ) − 1. 21. Arithmetik der Wahrscheinlichkeitsmaße. Seien ein Wahrscheinlichkeitsraum (Ω, A, P ) und die Ereignisse A, B ∈ A gegeben. (a) Angenommen P ( Ā) = 13 , P (A ∩ B ) = 14 und P (A ∪ B ) = 32 . Berechnen Sie P (B̄ ), P (A ∩ B̄ ) und P (B ∩ Ā). (b) Angenommen P (A ∪ B ) = 12 , P (A ∩ B ) = P (A) und P (A ∩ B̄ ). Lösung. (a) B ⊂ A . (b) P (A) = 38 und P (A \ B ) = 18 . 1 4 und P (A ∩ B̄ ) = P (B ∩ Ā). Berechnen Sie 10 1.3 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG Kombinatorik. 22. Grundformeln der Kombinatorik. Die Kugeln in einer Urne sind mit Zahlen 1, 2, . . . , n nummeriert. Es werden nacheinander m Kugeln aus der Urne entnommen und die zugehörigen Zahlen notiert. Nach jeder Entnahme können die Kugeln wieder in die Urne zurückgelegt oder beiseite gelegt werden. Es muss auch festgelegt werden, ob die Reihenfolge der notierten Zahlen eine Rolle spielt. Abhängig von diesen Entscheidungen ergeben sich folgende Anzahlen der möglichen Ergebnisse: geordnet (Variationen) mit Zurücklegen ohne Zurücklegen n ungeordnet (Kombinationen) m n! (n−m)! ¡n+m−1¢ ¡m n¢ m Betrachten Sie folgende Zufallssituationen (a) Der Betreiber der Lotto Lotterie (6 aus 49) ermittelt die gewinnende Zahlenkombination. (b) Ein Benutzer gibt ein zufälliges 8-stelliges Passwort ein. (c) Es wird zufällig eine injektive (verschiedenwertige) Funktion f : {1, . . . , m} → {1, . . . , n} gewählt. (d) Es wird zufällig eine k -elementige Teilmenge der Menge {1, 2, . . . , n} gewählt. (e) Es wird zufällig eine Bijektion f : {1, . . . , n} → {1, . . . , n} gewählt. (f) m Krapfen (nicht unterscheidbar) werden zufällig an n Programmierer verteilt. (g) Es wird zufällig eine Folge nichtnegativer ganzer Zahlen (r 1 , . . . , r n ) gewählt, so dass die Gleichung r 1 + · · · + r n = m erfüllt ist. Geben Sie jeweils eine passende Formel an, die die Anzahl der möglichen Ergebnisse für diese Zufallssituationen beschreibt. 23. Kombinatorik. Passwörter. als gegebenen Zeichensatz. Wir betrachten die Menge A = {a, b, . . . , z, 0, . . . , 9} (a) Wie viele voneinander verschiedene Passwörter der Länge 8 können aus A gebildet werden? (b) Betrachten wir nun die Passwörter aus dem obigen Zeichensatz, die an der letzen Stelle eine Ziffer aufweisen und sonst aus lauter Buchstaben bestehen. Wie viele solche Passwörter gibt es? (c) Vergleichen Sie die Größenordnungen der Mächtigkeiten der obigen Passwortmengen. 1.3. KOMBINATORIK. 11 Lösung. (a) Die Menge A enthält 36 Elemente. Nachdem in einem Passwort die Reihenfolge der Zeichen wichtig ist und die Zeichen mehrmals vorkommen können, ist die Anzahl der Passwörter gegeben durch die Anzahl der Variationen mit Zurücklegen, also durch 368 = 2.821.109.907.456 ≈ 1012.45 . (1.1) (b) Es gibt 267 Passwörter mit Länge 7, die nur aus Buchstaben bestehen. Wenn wir an jedem solchen Passwort eine Ziffer am Ende hinzufügen, erhalten wir 10 · 267 Möglichkeiten. 10 · 267 = 80.318.101.760 ≈ 1010.9 . (1.2) (c) Die Mächtigkeiten der obigen Mengen sind also fast zwei Größenordnungen auseinander. 24. Kombinatorik. PINs und runs. In einem k -stelligen PIN (a1 , a2 , . . . , ak ) wird eine n -fache Wiederholung (a, a, . . . , a) eines Elementes a mit n ≥ 2 als ein n -run bezeichnet. Zum Beispiel hat die Folge (0, 0, 1, 1, 1, 0) vier runs, nämlich einen 2-run (0, 0), zwei 2-runs (1, 1), sowie einen 3-run (1, 1, 1). Betrachten wir nun die Menge der 4-stelligen PINs, die aus den Ziffern {0, 1, . . . , 9} gebildet werden können. (a) Wie viele solche PINs gibt es? (b) Wie viele PINs gibt es, die keine runs enthalten? (c) Vergleichen Sie die Größenordnungen der Mächtigkeiten der obigen PIN-Mengen. Zusatz: Führen Sie die obige Berechnung für die 5-stelligen PINs durch. Lösung. (a) Es gibt 104 solche PINs. (b) Um die Anzahl der PINs ohne runs zu erhalten, zählen wir alle möglichen PINs mit runs auf. Erste Spalte gibt die Form des PINs, zweite die Anzahl solcher PINs und dritte die Anzahl der symmetrischen Fälle. ------* --== --** *--* 10 10 10 10 10 9 9 9 9 9 9 1 2 1 2 1 Das sind insgesamt 2710 Fälle. Es gibt also 7290 PINs ohne runs. (c) Wenn wir PINs mit runs ausschliessen, reduziert sich unser pool möglicher PINs um ein Viertel. 25. Laplacesche Modelle. Zwei Würfel. Wie groß ist die Wahrscheinlichkeit dafür, beim Werfen von zwei Würfeln eine Augensumme zu erzielen, die größer oder gleich 10 ist? 12 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG Lösung. Wir lösen die Aufgabe einmal unter der Annahme, dass die Würfel unterschieden werden können und einmal ohne diese Annahme. Würfel werfen, ist die 36-elementige Ergeb(a) Wenn wir zwei wohlunterscheidbare © ª nismenge gegeben durch Ω = (i , j ) : i , j ∈ {1, . . . , 6} . Die günstigen Fälle sind (4, 6), (5, 5), (5, 6), (6, 4), (6, 5), (6, 6). (1.3) Nachdem es sich hier um ein Laplace-Modell handelt, ist die Wahrscheinlichkeit, 6 dass die Summe größer als 10 ist, gleich 36 = 16 . (b) In Falle der nichtunterscheidbaren Würfel ist das kein Laplace-Experiment mehr. Deswegen muss geeignetes Wahrscheinlichkeitsmaß P betrachtet werden. 26. Kombinatorik. Würfel. 4 vs. 24. Was ist wahrscheinlicher: (a) Beim Werfen von vier Würfeln auf wenigstens einem eine Sechs zu erzielen, oder (b) bei 24 Würfen von zwei Würfeln wenigstens einmal zwei Sechsen zu erhalten? Lösung. (a) Das Betrachen des komplementären Ereignisses liefert 1− 54 . 64 (b) Ein äquivalentes Model ist, 24 mal einen 36-Würfel werfen. Die Wahrscheinlichkeit wenigstens ein mal die Zahl 36 zu erhalten, berechnen wir indem wir das komplementäre Ereignis betrachten: 1− (c) Was ist größer? 54 64 = 0.4822530864 und 3524 . 3624 3524 3624 = 0.5085961239. 27. Kombinatorik. Single choice test. Bei einem single choice test werden n Fragen gestellt, wobei jeweils genau eine richtige Antwort aus m Möglichkeiten gewählt werden soll. Der Test wird als bestanden angesehen, wenn mindestens die Hälfte der Fragen richtig beantwortet wurden. Wir testen die Prüfmethode indem wir zufällig jeweils eine Antwort bei jeder Frage ankreuzen. (a) Finden Sie einen geeigneten Wahrscheinlichkeitsraum, der diese Zufallssituation beschreibt. (b) Wie hoch ist die Wahrscheinlichkeit, dass die zufällige Antwortwahl zum Bestehen des Tests führt? (c) Berechnen Sie die obige Wahrscheinlichkeit explizit für n = 25 und m = 4. 1.3. KOMBINATORIK. 13 Lösung. Laplace-Modell. Anzahl der Möglichen: |Ω| = m n . Anzahl der Günstigen: à n ! d n2 e (m − 1) n−d n2 e à ! à ! n n n−d n2 e−1 + n (m − 1) +···+ (m − 1)n−n . d 2 e+1 n Hier zählen wir Anzahl der Tests mit d n2 e, d n2 e + 1, . . . richtigen Antworten. Eine andere Möglichkeit ist die Anzahl der Test mit 0, 1, 2, . . . , b n2 c falschen Antworten zu zählen: à ! à ! n n n 2 1 + n(m − 1) + (m − 1) + · · · + n (m − 1)b 2 c . 2 b2c Die Wahrscheinlichkeit für das Bestehen der Prüfung beträgt also à ! à !µ ¶ µ ¶ n X n (m − 1)n−i n 1 i 1 n−i = 1 − . mn m m i =d n e i i =d n e i n X 2 2 Die letzte Formel kann auch direkt hergeleitet werden. Für den Fall n = 25 und m = 4, ist d n2 e = 13 und die Anzahl der günstigen Fälle gleich 3794787166756 ≈ 1012.5 . Nachdem Anzahl der möglichen Fälle ist m n = 425 = 1125899906842624 ≈ 1015.05 , ist die Wahrscheinlichkeit für eine zufällig bestandene Prüfung ungefähr gleich 0.0033. 28. Kombinatorik. Aufzug. In einem Aufzug eines 10-stöckigen Gebäudes befinden sich 7 Personen. Wie hoch ist die Wahrscheinlichkeit dafür, dass alle Personen auf verschiedenen Stockwerken aussteigen? Lösung. o.W. V10,7 V m.W. 10,7 = 10 · . . . 4 = 0, 06048. 107 29. Kombinatorik. Karten. 6 aus 52. Aus einem gut gemischten Spielkartensatz bestehend aus 52 Karten werden zufällig 6 Karten gezogen. Wie hoch ist die Wahrscheinlichkeit dafür, dass sich unter den gezogenen Karten schwarze und rote Karten befinden? Lösung. Wahrscheinlichkeit dafür, dass nur rote Karten gezogen werden ist ¡26¢ 6 p = ¡52 ¢. 6 Daher ist die gesuchte Wahrscheinlichkeit 1 − 2p . Man kann die Zufallssituation auch mit Hilfe der geordneten Ziehungen modellieren. Das Aufzeigen dieser Tatsache wird sicher zum besseren Verständnis der Materie beitragen. 14 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG 30. Kombinatorik. Karten. 13 aus 52. Aus einem gut gemischten Spielkartensatz bestehend aus 52 Karten werden zufällig 13 Karten gezogen. Berechnen Sie die Wahrscheinlichkeiten der folgenden Ereignisse: (a) Es wurden alle Kartenwerte (d.h. A,2,3,4,5,6,7,8,9,10,B,D,K) gezogen. (b) Es wurden 5 Piks, 4 Herzen, 3 Treffs und ein Karo gezogen. (c) Es wurden 5 Karten der Farbe A , 4 Karten der Farbe B , 3 Karten der Farbe C und eine Karte der Farbe D gezogen. Wir nehmen an, dass die Farben paarweise verschieden sind. Lösung. (a) 413 · 13! 413 = ¡52¢ . 52 · · · (52 − 13) 13 Alternativ, wählen wir die erste Karte aus 52, die zweite aus 48, usw. Das ergibt 52 · 48 · · · 4 . ¡52¢ 13 Nachdem jeder Term im Nenner durch 4 teilbar ist, erhalten wir wieder die obige Formel. (b) Es gibt keit ¡13¢ 5 verschiedene 5-Pik Mengen. Daher ist die gesuchte Wahrscheinlich- 13! /(52 · · · (52 − 13)) p = 13 · · · (13 − 5)13 · · · (13 − 4)13 · · · (13 − 4)13 5!4!3!1! ¡13¢¡13¢¡13¢¡13¢ = 5 4 3 ¡52¢ 1 . 13 (c) 4!p . 31. Kombinatorik. 2 Kartenspieler. Aus einem gut gemischten Spielkartensatz bestehend aus 52 Karten werden je 26 Karten an 2 Spieler verteilt. Berechnen Sie folgende Wahrscheinlichkeiten: (a) Der erste Spieler bekommt alle Asse und alle Könige. (b) Der erste Spieler bekommt 7 Piks (♠), 8 Herzen (♥), 5 Treffs (♣) und 6 Karos (♦). (c) Der zweite Spiele bekommt alle Farben (♣ ♠ ♥ ♦) von genau 5 Werten. Begründen Sie Ihre Lösung. 1.3. KOMBINATORIK. 15 Lösung. Wir nehmen an, dass die Ordnung in welcher die Karten an die Spieler verteilt werden, keine Rolle spielt. Die Kartenverteilungen sind alle gleichwahrscheinlich, es handelt sich also um ein Laplace Modell. Die Anzahl der möglichen Verteilungen ¡52¢ ist dann in allen Fällen gleich 26 . (a) Alle Asse und alle Könige (8 Karten) können nur auf eine Art an den ersten Spieler verteilt werden. Zusätzlich erhält der erste Spieler 26 − 8 = 18 Karten aus ¡ ¢ den restlichen 52 − 8 = 44 Karten. Anzahl der möglichen Verteilungen ist also 44 18 . Die Wahrscheinlichkeit für das beschriebene Ereignis beträgt ¡44¢ 18 ¡52¢ . 26 (b) Nachdem die Reihenfolge der Kartenverteilung keine Rolle spielt, verteilen wir zuerst die 7 Piks an den ersten Spieler. Nachdem¡es¢ insgesammt 13 verschiedene Piks in dem Spielkartensatz gibt, kann das auch 13 erfolgen. 7 verschiedene Arten ¡13¢ Anschliessend erhält der erste Spieler 8 Herzen – dies kann auf 8 Arten ¡ ¢ ¡ ¢ geschehen, danach 5 Treffs – 13 und schliesslich 6 Karos – 13 5 Möglichkeiten, 6 ¡ ¢¡13¢¡13¢¡13¢ Möglichkeiten. Insgesammt gibt es 13 verschiedene Verteilungen, die 7 8 5 6 die geförderte Bedingung erfüllen. Die Wahrscheinlichkeit für das beschriebene Ereignis beträgt ¡13¢¡13¢¡13¢¡13¢ 7 8 5 6 ¡52¢ . 26 (c) Wir wählen zuerst 5 Werte aus 13 – 13 5 Möglichkeiten – und verteilen alle 5 × 4 = 20 Karten mit diesen Werten an den zweiten Spieler. Die restlichen 26 − 20 = 6 Karten verteilen wir aus den übrigen 52 − 20 = 32 Karten. Dabei kommen aber ¡ ¢ 8 28 solche Verteilungen vor, in denen ein der 8 übriggebliebenen Werte 4 mal 2 vertreten ist. Die Wahrscheinlichkeit für das beschriebene Ereignis beträgt also ¡ ¢ ¡13¢ ³¡32¢ 5 6 −8 ¡52¢ ¡28¢´ 2 . 26 32. Kombinatorik. 4 Kartenspieler. Aus einem gut gemischten Spielkartensatz bestehend aus 52 Karten werden je 13 Karten an 4 Spieler verteilt. Berechnen Sie folgende Wahrscheinlichkeiten: (a) Jeder Spieler bekommt einen Ass. (b) Erster Spieler bekommt genau 7 Karten einer Farbe. (c) Erster Spieler bekommt genau 6 Karten einer Farbe. Lösung. (a) Wir zählen die Mengen und vernachlässigen dadurch die Reihenfolge der Karten. Die Anzahl der möglichen Kartenverteilungen an vier Spieler ist à !à !à !à ! 52 39 26 13 . 13 13 13 13 16 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG Die Anzahl der günstigen Verteilungen: Der erste Spieler bekommt einen beliebigen Ass und 12 Karten die keine Asse sind. Der zweite Spieler bekommt einen der drei übriggebliebenen Asse und 12 Karten die keine Asse sind. Diese Überlegung liefert à ! à ! à ! à ! 4 48 36 24 12 3 2 1 . 12 12 12 12 Die gesuchte Wahrscheinlichkeit ist demnach 4!48! (13!)4 52! (12!)4 . (b) Wahrscheinlichkeit für 7 Karten einer Farbe: 4 ¡13¢¡39¢ 7 ¡52¢ 6 . 13 (c) Anzahl der Günstigen wie oben. Anzahl der Möglichen: à 13 4 6 ! "à ! à !à !# 39 13 26 −3 . 7 6 1 33. Gruppeneinteilung bei Fußball WM. Bei einer Fußballweltmeisterschaft werden 32 Fußballteams zufällig in 8 Gruppen je 4 Teams eingeteilt. Wir nehmen an, dass alle Gruppeneinteilungen gleichwahrscheinlich sind. Die Gruppenbezeichnungen wie „A“, „B“, usw. werden nach erfolgter Einteilung vergeben und spielen hier keine Rolle. Wie viele mögliche Gruppeneinteilungen gibt es? Lösung. (a) Die Anzahl der möglichen Gruppeneinteilungen beträgt à !à ! à !à ! 32 28 8 4 M= ... /8!. 4 4 4 4 34. Kombinatorik. Schachbrett. Auf ein Schachbrett (entspricht einer 8 × 8Matrix) werden zufällig 8 Türme gestellt. (a) Wie groß ist die Wahrscheinlichkeit dafür, dass sich die Türme nicht sehen können, d. h. in jeder Zeile und jeder Spalte jeweils genau ein Turm steht? (b) Wie groß ist die Wahrscheinlichkeit dafür, dass in jeder Zeile jeweils genau ein Turm steht? Lösung. (a) 82 72 ···12 64···57 (b) 8! 88 64...57 . = 8! (648) . 1.4. BEDINGTE WAHRSCHEINLICHKEITEN 1.4 17 Bedingte Wahrscheinlichkeiten 35. Bedingte Wahrscheinlichkeiten. Symmetrie. Seien ein Wahrscheinlichkeitsraum (Ω, A , P) und die Ereignisse A, B ∈ A mit P(A) > 0 und P(B ) > 0 gegeben. Zeigen Sie die Äquivalenz: P(A|B ) > P(A) ⇐⇒ P(B |A) > P(B ). Lösung. P (A|B ) > P (A) ⇐⇒ 36. P (A ∩ B ) > P (A) ⇐⇒ P (A ∩ B ) > P (A)P (B ). P (B ) Bedingte Wahrscheinlichkeiten. 3 Würfel. Wir werfen drei ideale Würfel. (a) Wie groß ist die Wahrscheinlichkeit, dass dabei kein Sechser geworfen wurde? (b) Wie groß ist die Wahrscheinlichkeit, dass dabei kein Sechser geworfen wurde, wenn bekannt ist, dass drei paarweise verschiedene Zahlen geworfen wurden. Lösung. Die Menge aller Tripel aus Zahlen 1, . . . , 6 ist die Ergebnismenge. Sei A das Ereignis, dass keine Sechser geworfen wurden und B das Ereignis, dass geworfene 3 Zahlen verschieden sind. Nun ist P (A) = 563 und P (B ) = 6·5·4 . Mit P (A ∩ B ) = 5·4·3 erhalten 63 63 1 wir P (A|B ) = 2 . 37. Bedingte Wahrscheinlichkeiten. 2 Münzen. Wir werfen zwei ideale Münzen. (a) Die erste Münze zeigt Kopf. Berechnen Sie die Wahrscheinlichkeit, dass beide Münzen Kopf zeigen. (b) Eine der Münzen zeigt Kopf. Berechnen Sie die Wahrscheinlichkeit, dass beide Münzen Kopf zeigen. Lösung. Bezeichne mit K 1 bzw. K 2 das Ereignis, dass die erste bzw. die zweite Münze Kopf zeigt. (a) P (K 1 ∩ K 2 |K 1 ) = P (K 1 ∩ K 2 ∩ K 1 ) 1 = . P (K 1 ) 2 (b) P (K 1 ∩ K 2 |K 1 ∪ K 2 ) = P (K 1 ∩ K 2 ) 1 = . P (K 1 ∪ K 2 ) 3 38. Bedingte Wahrscheinlichkeit ist ein Wahrscheinlichkeitsmaß. Seien ein Wahrscheinlichkeitsraum (Ω, A, P ) und ein Ereignis B ∈ A mit P (B ) > 0 gegeben. (a) Zeigen Sie, dass die Funktion Q : A → R, A 7→ P (A|B ) ein Wahrscheinlichkeitsmaß auf (Ω, A) ist. (b) Sei AB = {A ∩ B : A ∈ A}. Zeigen Sie, dass die Funktion R : AB → R, A 7→ P (A|B ) ein Wahrscheinlichkeitsmaß auf (B, AB ) ist. (c) Zusatz: Zeigen Sie, dass AB alle Eigenschaften eines Ereignisfeldes (σ-Algebra) aufweist. 18 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG Lösung. (a) Es sollen die Axiome von Kologorov gelten: (A1) 0 ≤ P (A) ≤ 1 für alle A ∈ A, (A2) ¡ ¢ P∞ P (Ω) = 1, (A3) P ∪∞ A = i =1 P (A i ) für paarweise disjunkte Mengen (A i )i ∈N . i =1 i ) Nun ist Q(A) = P (A|B ) = P (A∩B P (B ) . (b) Ein Ereignisfeld erfüllt folgende Axiome: (1) Ω ∈ A, (2) A ∈ A ⇒ Ā ∈ A, (3) A 1 , A 2 , · · · ∈ A ⇒ ∪i ∈N A i ∈ A. 39. Bedingte Wahrscheinlichkeiten. Urne mit Kugeln. In einer Urne befinden sich w weiße Kugeln und s schwarze Kugeln. Es wird eine Kugel aus der Urne gezogen, beiseite gelegt und anschließend eine weitere Kugel gezogen. Berechnen Sie die Wahrscheinlichkeiten der folgenden Ereignisse: (a) Beide Kugeln sind weiß. (b) Die erste Kugel ist weiß und die zweite Kugel ist schwarz. Geben Sie die obigen Wahrscheinlichkeiten für w = 5 und s = 4 explizit an. Lösung. Wir bezeichnen mit W1 das Ereignis, dass eine weiße Kugel als erste gezogen wird, und mit W2 ein Ereignis, dass eine weiße Kugel als zweite gezogen wird. Wir sind daran interessiert, die Wahrscheinlichkeit P (W1 ∩W2 ) zu berechnen. Wir w w−1 wissen aber P (W1 ∩W2 ) = P (W2 |W1 )P (W1 ) und P (W1 ) = w+s . Es gilt auch P (W2 |W1 ) = w−1+s . Insgesamt ist also P (W1 ∩ W2 ) = w(w − 1) . (w + s)(w − 1 + s) Ähnlich bezeichnen wir mit S 2 das Ereignis, dass eine schwarze Kugel als zweite gezogen wird. Damit ergibt sich P (W1 ∩ S 2 ) = P (S 2 |W1 )P (W1 ) = ws . (w + s)(w + s − 1) Für die oben angegebenen Werte sind die beiden Wahrscheinlichkeiten gleich 5 18 . 40. Urnenmodell. 3 Farben. Eine Urne enthält 2 weiße, 3 rote und 5 schwarze Kugeln. Es wird eine Kugel gezogen, ihre Farbe notiert und wieder in die Urne gelegt. Die Anzahl der Kugeln der gerade notierten Farbe wird anschließend verdoppelt falls diese Anzahl ungerade ist. Die Prozedur wird anschließend wiederholt. (a) Wie groß ist die Wahrscheinlichkeit dafür, dass die zweite gezogene Kugel weiß ist, unter der Bedingung, dass die erste gezogene Kugel nicht weiß ist? (b) Wie groß ist die Wahrscheinlichkeit dafür, dass die erste gezogene Kugel weiß ist, unter der Bedingung, dass die zweite gezogene Kugel rot ist? 1.4. BEDINGTE WAHRSCHEINLICHKEITEN 19 Lösung. (a) P (W2 | W̄1 ) = P (W1 ) = 15 . (b) P (R 2 |W1 )P (W1 ) . P (R 2 ) P (W1 )P (R 2 |W1 ) = P (R 2 |W1 )P (W1 ) + P (R 2 | R 1 )P (R 1 ) + P (R 2 | S 1 )P (S 1 ) P (W1 | R 2 ) = = 0.2878. 41. Multiplikatives Urnenmodell von Pólya. Eine Urne enthält 2 schwarze und 2 weiße Kugeln. Es wird eine Kugel zufällig gezogen, ihre Farbe notiert und wieder in die Urne gelegt. Die Anzahl der Kugeln der gerade notierten Farbe wird anschließend verdoppelt und die Prozedur wiederholt. (a) Wie groß ist die Wahrscheinlichkeit, dass die zweite gezogene Kugel weiß ist? (b) Wie groß ist die Wahrscheinlichkeit, dass die erste gezogene Kugel weiß ist, unter der Bedingung, dass die zweite gezogene Kugel weiß ist? Lösung. Mit der üblichen Notation berechnen wir P (W2 ) = P (W2 |W1 )P (W1 ) + P (W2 | S 1 )P (S 1 ) = P (W1 |W2 ) = 1 2 P (W2 |W1 )P (W1 ) 2 = . P (W2 ) 3 42. Bedingte Wahrscheinlichkeiten. Urnenmodell von Pólya. Eine Urne enthält s schwarze und w weiße Kugeln. Es wird eine Kugel zufällig gezogen, ihre Farbe notiert und die Kugel gemeinsam mit d weiteren Kugeln von der gleichen Farbe in die Urne gelegt. Die Prozedur wird anschließend wiederholt. (a) Wie groß ist die Wahrscheinlichkeit, dass die zweite gezogene Kugel weiß ist? (b) Wie groß ist die Wahrscheinlichkeit, dass die erste gezogene Kugel weiß ist, unter der Bedingung, dass die zweite gezogene Kugel weiß ist? Lösung. (a) P (W2 ) = P (W2 |W1 )P (W1 ) + P (W2 |S 1 )P (S 1 ) = w w s w w +d + = . w +s +d w +s w +s +d w +s w +s (b) P (W1 |W2 ) = P (W2 |W1 )P (W1 ) w +d = . P (W2 ) w +s +d 20 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG 43. Modifiziertes Urnenmodell von Pólya. Eine Urne enthält s = 2 schwarze und w = 3 weiße Kugeln. Es wird eine Kugel zufällig gezogen und ihre Farbe notiert. Falls eine weiße Kugel gezogen wurde, wird diese beiseite gelegt. Falls eine schwarze Kugel gezogen wurde, wird diese zusammen mit einer weiteren schwarzen Kugel in die Urne gelegt. Die Prozedur wird anschließend wiederholt. (a) Wie groß ist die Wahrscheinlichkeit, dass die zweite gezogene Kugel weiß ist? (b) Wie groß ist die Wahrscheinlichkeit, dass die erste gezogene Kugel weiß ist, unter der Bedingung, dass die zweite gezogene Kugel weiß ist? Lösung. Wir bezeichnen mit Wi bzw. mit S i das Ereignis, dass bei der i -ten Ziehung eine weiße bzw. eine schwarze Kugel gezogen wird. (a) P (W2 ) = P (W2 |W1 )P (W1 ) + P (W2 | S 1 )P (S 1 ) w s w 1 w −1 = + = . s +w −1 s +w s +1+w w +s 2 (b) P (W1 |W2 ) = w −1 w 1 3 P (W2 |W1 )P (W1 ) = = . P (W2 ) P (W2 ) w − 1 + s s + w 5 44. Bedingte Wahrscheinlichkeiten. Unfaire Münzen. In einem Wurfexperiment werden n Münzen verwendet. Davon sind k Münzen symmetrisch und zeigen Kopf mit Wahrscheinlichkeit 1/2. Die restlichen n − k Münzen zeigen Kopf mit Wahrscheinlichkeit 1/3. (a) Es wurde zufällig eine Münze gewählt und geworfen: Kopf. Wie groß ist die Wahrscheinlichkeit, dass eine asymmetrische Münze gewählt wurde? (b) Eine zufällig gewählte Münze wird zweimal geworfen und in beiden Würfen fällt Kopf. Wie groß ist die Wahrscheinlichkeit, dass eine asymmetrische Münze gewählt wurde. Lösung. Wir bezeichnen mit S bzw. A das Ereignis, dass eine symmetrische bzw. asymmetrische Münze gewählt wurde. Es gilt P (S) = nk und P (A) = n−k n . Sei K das Ereignis, dass mit einer festen zufällig gewählten Münze Kopf geworfen wird. Wir suchen P (A|K ). Es gilt aber nach dem Satz von Bayes P (A|K ) = P (K |A)P (A) = P (K |A)P (A) + P (K |S)P (S) 1 n−k 3 n 1k n−k 3n + 2 n = 2(n − k) . 2n + k Wenn zwei Münzen geworfen werden, müssen wir das Ereignis K durch das Ereignis K 2 ersetzen. K 2 tritt ein wenn zwei Köpfe nacheinander geworfen werden. Dies ergibt P (A|K 2 ) = 4(n − k) . 4n + 5k 1.4. BEDINGTE WAHRSCHEINLICHKEITEN 21 45. Bedingte Wahrscheinlichkeiten. Urne mit Loch. In einer Urne befinden sich s schwarze und w weiße Kugeln. Während die Urne transportiert wird, gehen d Kugeln verloren. Es wird eine Kugel zufällig aus der Urne gezogen. (a) Angenommen d = 1. Wie groß ist die Wahrscheinlichkeit, dass die gezogene Kugel weiß ist? (b) Nun ist d < s und d < w . Wie groß ist die Wahrscheinlichkeit, dass die gezogene Kugel weiß ist? Lösung. (a) Im Fall d = 1 können wir annehmen, dass eine Kugel entnommen wurde und den Satz von der vollständigen Wahrscheinlichkeit verwenden. P (W2 ) = P (W2 |W1 )P (W2 ) + P (W2 |S 1 )P (S 1 ). (b) Alle Arten auf die i weiße und d −i schwarze Kugeln für i ∈ 0, . . . , d verloren gehen können, sind gleichwahrscheinlich. Bezeichnen wir dieses Ereignis als Zi . Daher haben wir P (W ) = d X P (W |Zi )P (Zi ) i =0 = d X w −i P (Zi ). i =0 w + s − i Nun ist à ! d P (Zi ) = P (W1 ∩ · · · ∩ Wi ∩ S i +1 ∩ · · · ∩ S d ) i à ! d = P (W1 )P (W2 |W1 ) . . . P (S k |W1 ∩ · · · ∩ S i +1 ∩ · · · ∩ S d −1 ) i à ! d w w −1 w −i +1 s s − (d − i ) + 1 = ... ... s +w −d +1 i w +s w +s −1 s +w −i −1 s +w −i à ! d (w)i (s)d −i = . i (w + s)d 46. Bedingte Wahrscheinlichkeiten. Urnen mit unbekanntem Inhalt. Es sind zwei Urnen mit Kugeln gegeben. Eine der Urnen enthält k1 weiße und n 1 schwarze Kugeln und die andere enthält k2 weiße und n 2 schwarze Kugeln. Die Urnen sind äußerlich nicht unterscheidbar. (a) Geben Sie einen Ziehungsprozedur an, die die Wahrscheinlichkeit, dass zwei weiße Kugeln gezogen werden unter allen Ziehungsprozeduren maximiert. (b) Seien nun k1 = 3, n 1 = 7, k2 = 2 und n 2 = 8. Wie groß ist die Wahrscheinlichkeit, dass unter Verwendung der von Ihnen gefundenen Prozedur zwei weiße Kugeln gezogen werden? 22 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG Lösung. Nachdem die Urnen äußerlich nicht unterscheidbar sind, können wir eine Urne nur zufällig und nur mit Wahrscheinlichkeit 1/2 wählen. Wir wählen also eine Urne zufällig und ziehen eine Kugel. Es kann nur auf folgende Weisen weiterfahren werden: (a) Für die zweite Ziehung wählen wir die Urnen zufällig. (b) Zweite Kugel ziehen wir aus der anderen Urne. (c) Zweite Kugel ziehen wir aus derselben Urne. (d) Zweite Kugel ziehen wir aus derselben Urne falls die erste weiß war. (e) Zweite Kugel ziehen wir aus anderen Urne falls die erste weiß war. Bezeichnen wir mit Ui j , i , j ∈ {1, 2} das Ereignis, dass die j -te Urne bei der i -ten Ziehung gewählt wurde. Nun berechnen wir die Wahrscheinlichkeit, dass zwei weiße Kugel gezogen werden, also P (W1 ∩ W2 ). P 1 = P (W1 ∩ W2 ) = 47. Bedingte Wahrscheinlichkeiten. Versicherungsunternehmen. Ein Versicherungsunternehmen versichert n Autofahrer, davon f Frauen und m Männer. Die Wahrscheinlichkeit, dass innerhalb eines Jahres ein zufällig gewählter männlicher Autofahrer einen Unfall hat, ist α. Entsprechende Wahrscheinlichkeit für einen weiblichen Autofahrer ist β. Die Unfälle in verschiedenen Jahren sind unabhängig. Ein Autofahrer wird zufällig gewählt. Berechnen Sie folgende Wahrscheinlichkeiten: (a) Wie groß ist die Wahrscheinlichkeit, dass der gewählte Autofahrer innerhalb des nächsten Jahres einen Unfall hat? (b) Wie groß ist die Wahrscheinlichkeit, dass der gewählte Autofahrer Unfälle in zwei aufeinanderfolgenden Jahren hat? (c) Der gewählte Autofahrer hat im letzten Jahr einen Unfall gehabt. Wie groß ist die Wahrscheinlichkeit, dass der Autofahrer männlich ist? Lösung. (a) αm+β f n (b) α2 m+β2 f n (c) αm αm+β f . . . 48. Bedingte Wahrscheinlichkeiten. Urnenmodell von Pólya. II. Eine Urne enthält s schwarze und w weiße Kugeln. Es wird eine Kugel zufällig gezogen, ihre Farbe notiert und die Kugel gemeinsam mit d weiteren Kugeln von der gleichen Farbe in die Urne gelegt. Die Prozedur wird anschließend wiederholt. (a) Berechnen Sie die Wahrscheinlichkeit p k,n , dass in einer Sequenz von n Ziehungen k schwarze Kugeln gezogen werden. (b) Bezeichne mit S n das Ereignis, dass bei der n -ten Ziehung schwarze Kugel gezogen wird. Zeigen Sie, dass P (S 1 ) = P (S n ) für alle n ∈ N gilt. 1.4. BEDINGTE WAHRSCHEINLICHKEITEN 23 Lösung. (a) Es gibt nk mögliche Ziehungen von n Kugeln, die k schwarze Kugeln beinhalten. Alle diese Ziehungen sind gleichwahrscheinlich, denn eine Ziehung (I 1 , . . . , I n ) kann in eine andere durch einfache Vertauschungen der Form (I 1 , . . . , I k , I k+1 , . . . , I n ) → (I 1 , . . . , I k+1 , I k , . . . , I n ) überführt werden. Diese Transformationen lassen die Wahrscheinlichkeiten der Ziehungen unverändert. Man kann noch genauer Argumentieren und zeigen ¡ ¢ P (I 1 , . . . , S k ,Wk+1 , . . . , I n ) = P (I 1 , . . . ,Wk , S k+1 , . . . , I n ). Mit Hilfe der Multiplikationsregel erhalten wir P (I 1 , . . . , S k ,Wk+1 , . . . , I n ) = P (I 1 ) . . . P (S k |I k−1 ∩ · · · ∩ I 1 )P (Wk+1 |S k ∩ I k−1 . . . ) . . . P (I n |I n−1 ∩ . . . ) Es sind nur die Wahrscheinlichkeiten in der Mitte des obigen Produkts interessant, da die übrigen von der Ersetzung (S k ∩Wk+1 ) → (Wk ∩S k+1 ) nicht beeinflusst werden. Wir definieren Q(A) = P (A|I k−1 ∩ · · · ∩ I 1 ) und zeigen Q(S k )Q(Wk+1 |S k ) = Q(Wk )Q(S k+1 |Wk ) indem wir die konkrete Zahlen einsetzen. Demzufolge können wir Ziehungen betrachten in denen zuerst k schwarze Kugeln und dann die n − k weiße Kugeln gezogen werden. Wir verwenden die Multiplikationsregel: P (S 1 ∩ · · · ∩ S k ∩ Wk+1 ∩ · · · ∩ Wn ) = P (S 1 ) . . . P (S k |S 1 ∩ · · · ∩ S k−1 ) . . . P (Wn |S 1 ∩ · · · ∩ Wn−1 ) = s s +d w s + (k − 1)d w + (n − k − 1)d ... ... s +w s +w +d s + w + (k − 1)d s + w + kd w + s + (n − 1)d Wir erhalten also insgesamt à ! n p k,n = P (S 1 ∩ · · · ∩ S k ∩ Wk+1 ∩ · · · ∩ Wn ). k (b) FEHLT! 49. Bedingte bedingte Wahrscheinlichkeiten. Seien ein Wahrscheinlichkeitsraum (Ω, A, P ) und die Ereignisse A, B,C ∈ A mit P (A) > 0, P (B ) > 0 und P (C ) > 0 gegeben. Wir definieren P (A|B |C ) = Q(A|B ) für ein Wahrscheinlichkeitsmaß Q mit Q(D) = P (D|C ) ∀D ∈ A. Zeigen Sie folgende Aussagen: (a) P (A|B |C ) = P (A|B ∩C ) = P (A|C |B ). (b) P (A|B |C ) = P (A|C ) falls C ⊂ B . 24 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG 50. Elfmeterschießen. In einem einfachen Modell des Elfmeterschießens wird nur eine Mannschaft betrachtet. Die Wahrscheinlichkeit beim ersten Schuss einen Tor zu erzielen sei p 1 = 0.8. Ist in der Tat ein Tor gefallen, wird die Treffwahrscheinp lichkeit beim nächsten Versuch auf p 2 = p 1 erhöht, andernfalls verringert sich diese Wahrscheinlichkeit und beträgt p 2 = p 12 . Der Vorgang wird wiederholt, wobei die Treffp wahrscheinlichkeit beim i -ten Schuss p i = p i −1 beträgt, falls vorher ein Tor gefallen ist, und sonst p i = p i2−1 . (a) Wie groß ist die Wahrscheinlichkeit dafür, dass beim zweiten Versuch ein Tor fällt? (b) Angenommen Sie haben den ersten Schuss nicht gesehen, wissen aber dass beim zweiten Versuch ein Tor gefallen ist. Unter dieser Bedingung, wie groß ist die Wahrscheinlichkeit, dass beim ersten Schuss ein Tor gefallen ist? Lösung. Ti bezeichne Treffer beim i -ten Versuch und Fi = T̄i . p (a) P (T2 ) = P (T2 |T1 )P (T1 ) + P (T2 |F1 )P (F1 ) = p 1 ( p 1 + p 1 − p 12 ) = 0.8435. (b) P (T1 |T2 ) = P (T1 )P (T2 |T1 ) = 0.8482. P (T2 ) 51. Schaltkreise. Qualitätskontrolle. Bei einer Endkontrolle von Schaltkreisen sollen nicht voll funktionsfähige Schaltkreise aussortiert werden. Bekannt sei, dass im Mittel 20% der erzeugten Schaltkreise nicht voll funktionsfähig sind. Beim Prüfen werden 95% dieser Schaltkreise aussortiert, aber auch 1% der einwandfreien. (a) Mit welcher Wahrscheinlichkeit ist ein nicht aussortierter Schaltkreis voll funktionsfähig? (b) Mit welcher Wahrscheinlichkeit ist ein aussortierter Schaltkreis einwandfrei? Lösung. Definiere die Ereignisse: A ein Schaltkreis wird aussortiert, und K ein Schaltkreis ist nicht voll funktionsfähig (kaputt). Wir wissen P(A|K ) = 0.95 P(A|K̄ ) = 0.01. Daraus folgt P( Ā|K̄ ) = 0.99 P( Ā|K ) = 0.05 P(K̄ ) = 0.8. Wir berechnen mit Hilfe des Satzes von Bayes: (a) ¡ ¢ P K̄ | Ā = P( Ā|K̄ )P(K̄ ) P( Ā|K̄ )P(K̄ ) + P( Ā|K )P(K ) = 0.9875311 · · · (b) ¡ ¢ P K̄ |A = 0.0404040 · · · 1.5. UNABHÄNGIGKEIT 1.5 25 Unabhängigkeit 52. Disjunkt vs. unabhängig. Einfache Rechnungen. Seien (Ω, A , P ) ein Wahrscheinlichkeitsraum und Ereignisse A, B,C ∈ A mit P (A) = 13 , P (B ) = 14 und P (C ) = 16 gegeben. Seien darüber hinaus A und B stochastisch unabhängig, sowie A ∪ B disjunkt von C . Berechnen Sie folgende Wahrscheinlichkeiten: (a) P (A ∩ B ∩C ), (b) P (A ∪ B ∪C ), (c) P (( Ā ∪ B̄ ) ∩ C̄ ). Lösung. (a) P (A ∩ B ∩C ) = 0. (b) P (A ∪ B ∪C ) = P (C ) + 1 − (1 − P (A))(1 − P (B )) = 2/3. (c) P (( Ā ∪ B̄ ) ∩ C̄ ) = 1 − P (C ) − P (A)P (B ) = 3/4. 53. Unvereinbar versus unabhängig. Einfache Rechnungen. Gegeben seien ein Wahrscheinlichkeitsraum (Ω, A, P ) und zufällige Ereignisse A, B,C ∈ A mit P (A) = 31 , P (B ) = 14 und P (C ) = 16 . Weiterhin seien die Ereignisse A und B stochastisch unabhängig sowie die Ereignisse A ∪ B und C unvereinbar. Berechnen Sie die folgenden Wahrscheinlichkeiten: (a) P (A ∩ B ∩C ), (b) P (A ∪ B ∪C ), (c) P (( Ā ∪ B̄ ) ∩ C̄ ). Lösung. (a) P (A ∩ B ∩C ) = 0. (b) P (A ∪ B ∪C ) = P (C ) + 1 − (1 − P (A))(1 − P (B )) = 2/3. (c) P (( Ā ∪ B̄ ) ∩ C̄ ) = 1 − P (C ) − P (A)P (B ) = 3/4. 54. Unabhängigkeit. Einfache Rechnungen. Seien (Ω, A , P ) ein Wahrscheinlichkeitsraum und die vollständig stochastisch unabhängigen Ereignisse A, B,C ∈ A mit P (A) = 13 , P (B ) = 14 und P (C ) = 16 gegeben. (a) Berechnen Sie P (A ∪ B ). (b) Berechnen Sie P (A ∪ B̄ ∪C ). Lösung. (a) P (A ∪ B ) = 21 . (b) P (A ∪ B̄ ∪C ) = 31 36 . 26 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG 55. Unabhängigkeit. Disjunkte Ereignisse. Seien (Ω, A , P) ein Wahrscheinlichkeitsraum und die Ereignisse A, B ∈ A gegeben. Zeigen Sie folgende Aussagen: (a) Für A ∩B = ; sind die Ereignisse A und B genau dann unabhängig, wenn P(A) = 0 oder P(B ) = 0 gilt. (b) Sind A und B unabhängig und ist A ∪ B = Ω, dann gilt P(A) = 1 oder P(B ) = 1. 56. Unabhängigkeit. Gleichwahrscheinliche Ereignisse. Seien (Ω, A , P) ein Wahrscheinlichkeitsraum und A 1 , . . . , A n ∈ A , n ∈ N vollständig stochastisch unabhängige Ereignisse mit P(A i ) = p ∈ [0, 1] ∀i ∈ {1, . . . , n} gegeben. Berechnen Sie die Wahrscheinlichkeiten der folgenden Ereignisse: (a) Alle Ereignisse A 1 , . . . , A n treten ein. (b) Keines der Ereignisse A 1 , . . . , A n tritt ein. (c) Genau eines der Ereignisse A 1 , . . . , A n tritt ein. Warum ist diese Wahrscheinlichkeit kleiner als 1? Lösung. (a) P(A 1 ∩ · · · ∩ A n ) = p n . (b) P(A 1 ∪ · · · ∪ A n ) = (1 − p)n . (c) P((A 1 ∩ Ā 2 ∩ · · · ∩ Ā n ) ∪ · · · ∪ ( Ā 1 ∩ · · · ∩ Ā n−1 ∩ A n ) = n X P( Ā 1 ∩ · · · ∩ A i ∩ · · · ∩ Ā n ) = np(1 − p)n−1 . i =1 Dies ist tatsächlich eine Wahrscheinlichkeit, denn à ! n n X 1 = (p + 1 − p) = p i (1 − p)n−i , i i =0 n à ! n = n. 1 57. Unabhängigkeit. Münzen. Eine ideale Münze wird n mal geworfen. Bezeichnen wir als K i , i ∈ {1, . . . , n} das Ereignis, dass beim i -ten Wurf Kopf fällt. (a) Finden Sie einen geeigneten Wahrscheinlichkeitsraum, der diese Zufallssituation beschreibt. (b) Zeigen Sie, dass die Ereignisse K 1 , . . . , K n vollständig stochastisch unabhängig sind. 58. Unabhängigkeit. Karten. Aus einem gut gemischten Spielkartensatz bestehend aus 52 Karten wird zufällig eine Karte gezogen. Bezeichnen wir mit A das Ereignis, dass ein Ass gezogen wird und mit K das Ereignis, dass eine Karte mit der Farbe Karo gezogen wird. Zeigen Sie, dass die Ereignisse A und K unabhängig sind. 1.5. UNABHÄNGIGKEIT 27 59. Unabhängigkeit. Abschätzung mit der Exponentialfunktion. Seien (Ω, A , P) ein Wahrscheinlichkeitsraum und A 1 , . . . , A n ∈ A vollständig stochastisch unabhängige Ereignisse gegeben. Zeigen Sie: à P(A 1 ∪ · · · ∪ A n ) ≤ exp − n X ! P(A i ) . i =1 Lösung. Benutze 1 − x ≤ e −x und vollständige Induktion. 60. Unabhängigkeit. Notstromanlage. Bei einer Notstromanlage werden von einem Dieselmotor drei gleichartige Generatoren angetrieben. Die Wahrscheinlichkeit dafür, dass innerhalb einer Woche ein Defekt am Motor bzw. am Generator auftritt, sei 0.1 bzw. 0.2. Die einzelnen Teile des Systems fallen unabhängig voneinander aus. (a) Berechnen Sie die Wahrscheinlichkeit dafür, dass die Stomversorgung im betrachteten Zeitraum vollständig ausfällt. (b) Mit welcher Wahrscheinlichkeit sind für den angegebenen Zeitraum stets wenigstens 2/3 der maximal möglichen Leistung verfügbar? Lösung. (a) Sei M̄ ein Ausfall des Motors und Ḡ 1 , Ḡ 2 , Ḡ 3 die Ausfälle der Generatoren. Der Ausfall der Notstromanlage hat die Wahrscheinlichkeit ¡ ¢ P M̄ ∪ (Ḡ 1 ∩ Ḡ 2 ∩ Ḡ 3 ) = 1 − P (M ∩ (G 1 ∪G 2 ∪G 3 )) ¡ ¢ = 1 − P (M ) 1 − P (Ḡ 1 )P (Ḡ 2 )P (Ḡ 3 ) = 1 − 0.9(1 − 0.23 ) = 0.1072. (b) Hier ist die Wahrscheinlichkeit ¡ ¡ ¢¢ P M ∩ (G 1 ∩G 2 ∩G 3 ) ∪ (Ḡ 1 ∩G 2 ∩G 3 ) ∩ (G 1 ∩ Ḡ 2 ∩G 3 ) ∪ (G 1 ∩G 2 ∩ Ḡ 3 ) gleich P (M ∩G 1 ∩G 2 ∩G 3 )+ P (M ∩ Ḡ 1 ∩G 2 ∩G 3 )+ P (M ∩G 1 ∩ Ḡ 2 ∩G 3 )+ P (M ∩G 1 ∩G 2 ∩ Ḡ 3 ) da die entsprechenden Ereignisse disjunkt sind. Wegen der Unabhängigkeit ist diese Wahrscheinlichkeit gleich 0.9 0.83 + 3 0.9 0.82 0.2 = 0.8064. 61. Unabhängigkeit. Sicherungen. Die nachstehenden Abbildungen zeigen Systeme unabhängiger Sicherungen (symbolisiert durch Kreise). Die Zahlen in den Kreisen geben die Ausfallswahrscheinlichkeiten der jeweiligen Sicherungen innerhalb eines Jahres an. Geben Sie die Wahrscheinlichkeiten dafür, dass innerhalb eines Jahres der Strom von (s) nach (t) fließen kann. 28 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG (a) 0.2 s (b) 0.2 0.2 0.1 t s 0.25 s 0.3 0.2 0.2 t 0.2 (c) 0.1 0.2 0.1 0.3 0.1 t 0.1 Lösung. (a) Analog zum Teil (a) von “Unabhängigkeit. Notstromanlage.” (b) Mit B̄ 1 und B̄ 2 bezeichnen wir die Ausfälle der Sicherungen in dem oberen Teil des Diagramms. Analog bezeichnet C̄ den Ausfall von dem unteren Teil. Die gesuchte Wahrscheinlichkeit ist P (C ∪ (B 1 ∩ B 2 )) = 1 − P (C̄ ∩ (B̄ 1 ∪ B̄ 2 )) = 1 − P (C̄ ) (1 − P (B 1 )P (B 2 )) = 0.93. (c) Wir lösen diese Problem indem wir folgenden Satz anwenden. Sei (A i j ) mit i = 1, · · · , m j , j = 1, . . . , n ein endliches vollständig stochastisch unabS 1 Smn hängiges Mengensystem. Dann sind die Mengen m A ,. . . , i =1 A i n ebenfalls i =1 i 1 vollständig stochastisch unabhängig. Beweis: Wir berechnen à P ! [ i Ai 1 ∩ · · · ∩ [ à A i n =1 − P ! \ i Ā i 1 ∪ · · · ∪ i \ Ā i n i \ \ =1 − P ( A i 1 ) + · · · + P ( A i n ) + . . . i i à − (−1) n+1 P ! \ Ā i 1 ∩ · · · ∩ \ i à ! = 1−P( \ à ! \ Ā i 1 ) . . . 1 − P ( Ā i n ) i i [ [ =P ( A i 1 ) . . . P ( A i n ). i Ā i n i i 1.5. UNABHÄNGIGKEIT 29 Dies ist eine Anwendung der Formel aus dem Problem “Wahrscheinlichkeitsmaße. Zerlegung der Vereinigung.” Wir bezeichnen mit Ā , B̄ und D̄ die Ausfälle der Teilsysteme in der Reihenfolge von links nach rechts. Es gilt P (A) = 1 − P ( Ā 3 )(1 − P (A 1 )P (A 2 )) = 0.928 P (B ) = 1 − P (B̄ 1 )P (B̄ 2 ) = 0.91 P (D) = 0.99 P (A ∩ B ) = 0.84448 P (D ∩ (C ∪ (A ∩ B ))) = P (D)(1 − P (A ∩ B )P (C̄ )) = 0.97460352. 62. Unabhängigkeit. 3-teiliges Gerät. Ein Gerät bestehe aus 3 nacheinander angeordneten Teilsystemen, die unabhängig voneinander mit den Wahrscheinlichkeiten 0.3, 0.4 bzw. 0.6 ausfallen können. Das Gerät sei nur funktionsfähig, wenn alle Teilsysteme funktionieren. (a) Mit welcher Wahrscheinlichkeit ist das Gerät funktionsfähig? (b) Angenommen, das erste Teilsystem fällt niemals aus und dem dritten Teilsystem werden zwei weitere Reservesysteme (mit derselben Ausfallwahrscheinlichkeit 0.6) parallel geschaltet. Mit welcher Wahrscheinlichkeit ist das Gerät funktionsfähig? Lösung. (a) Wir bezeichnen jeweils mit Ā , B̄ , bzw. C̄ die Ausfallereignisse von den Geräten. Die Wahrscheinlichkeit, dass das System funktionsfähig ist, berechnet sich zu P (A ∩ B ∩C ) = 0.168. (b) Nun ist P ( Ā) = 0 und statt C haben wir drei unabhängige Kopien C 1 ,C 2 ,C 3 . Wir berechnen die Wahrscheinlichkeit P (B ∩ (C 1 ∪C 2 ∪C 3 )). Dafür brauchen wir folgenden Satz. Sind die Ereignisse A , B , C vollständig stochastisch unabhängig, so sind die Ereignisse A und B ∪C ebenfalls unabhängig. Beweis: P (A ∩ (B ∪C )) = P ((A ∩ B ) ∪ (A ∪C )) = P (A ∩ B ) + P (A ∩C ) − P (A ∩ B ∩C ) = P (A) (P (B ) + P (C ) − P (B ∩C )) = P (A)P (B ∪C ). Somit ist C 1 unabhängig von C 2 ∪C 3 und P (B ∩ (C 1 ∪C 2 ∪C 3 )) = P (B )(1 − P (C̄ 1 )P (C̄ 2 )P (C̄ 3 )) ¡ ¢ = 0.6 1 − 0.63 = 0.4704. 30 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG 63. Unabhängigkeit. Fertigungsprozess. Bei einem kontinuierlichen Fertigungsprozess treten nacheinander die Arbeitsgänge Drehen, Fräsen und Schleifen auf. Zur Sicherung eines gleichmäßigen Erzeugnisdurchlaufs werden dabei 3 Drehmaschinen, 2 Fräsmaschinen und eine Schleifmaschine eingesetzt. Die benutzten Maschinen seien voll ausgelastet und fallen innerhalb einer Schicht unabhängig voneinander mit folgenden Wahrscheinlichkeiten aus: Maschine Drehmaschine Fräsmaschine Schleifmaschine Ausfallswahrscheinlichkeit 0.3 0.2 0.1 (a) Berechnen Sie die Wahrscheinlichkeit dafür, dass innerhalb einer Schicht durch Ausfälle der betrachteten Maschinen der Erzeugnisdurchlauf gestoppt wird. (b) Geben Sie die Wahrscheinlichkeit dafür an, dass innerhalb einer Schicht durch Maschinenausfälle der Erzeugnisdurchlauf verlangsamt wird, ohne dass es zu einem Stopp bei den betrachteten Arbeitsgängen kommt. Lösung. (a) Wir bezeichnen die Ausfälle der Drehmaschinen mit D̄ 1 , D̄ 2 , D̄ 3 , der Fräsmaschinen mit F̄1 , F̄2 und der Schleifmaschine mit S̄ 1 . Der Erzeugungsdurchlauf wird gestoppt mit Wahrscheinlichkeit ¡ ¢ P (D̄ 1 ∩ D̄ 2 ∩ D̄ 3 ) ∪ (F̄ 1 ∩ F̄ 2 ) ∪ S̄ 1 = 1 − (1 − P (D̄ 1 )P (D̄ 2 )P (D̄ 3 ))(1 − P (F̄ 1 )P (F̄ 2 ))P (S̄ 1 ) = = 0.159328 (b) Die Ereignisse “Stopp”, “Verlangsamung”, “Volle Kapazität” sind disjunkt. Das System läuft mit voller Kapazität mit Wahrscheinlichkeit P (D 1 ∩ D 2 ∩ D 3 ∩ F 1 ∩ F 2 ∩ S 1 ) = 0.197568. Daher ist die Wahrscheinlichkeit für den verlangsamten Betrieb 1 − 0.159328 − 0.197568 = 0.643104. 64. Ausfälle der Notstromgeneratoren. Der Betrieb eines Rechenzentrums wird von einer Kette von Notstromgeneratoren G 1 , . . . ,G n , n ≥ 1 gesichert. Jedem Generator G i wird eine fixe maximale Arbeitsdauer di > 0 (in Stunden) zugeordnet, über die die Stromversorgung mit G i gewährleistet werden kann. Beim Einschalten, und nur dann, kann G i mit Wahrscheinlichkeit p i > 0 ausfallen. Die Ausfälle der Generatoren sind unabhängig voneinander. Betrachten Sie eine Kette bestehend aus einem Dieselmotor G 1 , sowie zwei Batterieanlagen G 2 und G 3 . Die Arbeitsdauer sind (d1 , d2 , d3 ) = (24, 2, 1) und die Ausfalls¡ ¢ wahrscheinlichkeiten betragen p 1 , p 2 , p 3 = (0.1, 0.02, 0.03). (a) Berechnen Sie die Wahrscheinlichkeit dafür, dass die Kette (G 1 ,G 2 ,G 3 ) das Rechenzentrum 23 Stunden lang mit Strom versorgen kann. (b) Berechnen Sie die Wahrscheinlichkeit dafür, dass (G 1 ,G 2 ,G 3 ) das Rechenzentrum 25 Stunden lang mit Strom versorgen kann. 1.6. ELEMENTARE MASSTHEORIE 31 Lösung. Bezeichnen wir mit A 1 , A 2 , A 3 die Ausfallsereignisse der Generatoren und mit τ die Ausfallszeit der Kette. Folgende Wahrscheinlichkeiten sind zu berechnen: (a) P (τ > 23) = P ( Ā 1 ) = 0.99. 65. Komplexes Gerät. Ein Gerät besteht aus den Baugruppen B 1 , . . . , B 4 . Es funktioniert, wenn wenigstens eine der Baugruppen B 1 oder B 2 und wenn außerdem beide Baugruppen B 3 und B 4 funktionieren. Die Baugruppen können unabhängig voneinander ausfallen. Die Ausfallwahrscheinlichkeiten bei 10-stündiger Betriebsdauer betragen für B 1 und B 2 jeweils 0.5, für B 3 und B 4 jeweils 0.2. (a) Mit welcher Wahrscheinlichkeit funktioniert das Gerät nach 10-stündigem Betrieb noch? (b) Mit welcher Wahrscheinlichkeit funktionieren nach dieser Zeit noch alle vier Bauelemente? 1.6 Elementare Maßtheorie 66. Maßtheorie. Borel-messbare Abbildungen. Sei ein messbarer Raum (Ω, A) mit Ω = {ω1 , ω2 , ω3 , ω4 } und der σ-Algebra A = {;, Ω, {ω1 , ω2 } , {ω3 , ω4 }} gegeben. Wir betrachten Abbildungen von Ω nach R, wobei R mit der Borel’schen σ-Algebra B(R) ausgestattet ist. (a) Zeigen Sie, dass die Abbildung f : Ω → R, ω 7→ 5 messbar ist. (b) Zeigen Sie, dass die Abbildung g : Ω → R mit g (ωi ) = i für i ∈ {1, 2, 3, 4} nicht messbar ist. (c) Beschreiben Sie nun alle messbaren Abbildungen h : Ω → R. 67. Maßtheorie. Dirac-Maß. Sei ein messbarer Raum (R, B(R)) gegeben. Für ein festes x ∈ R definieren wir die Mengenfunktion δx : B(R) → R als δx (A) = ( 1 0 falls x ∈ A sonst. (a) Zeigen Sie, dass δx für alle x ∈ R ein Maß ist. (b) Betrachten wir ein n -Tupel (x 1 , . . . , x n ) mit x i > 0 für alle i ∈ {1, . . . , n} und eine P Mengenfunktion δ : B(R) → R, A 7→ ni=1 δxi (A). Zeigen Sie, dass δ ein Maß auf (R, B(R)) ist. (c) Sei nun (c 1 , . . . , c n ) ein n -Tupel positiver reeller Zahlen mit ni=1 c i = 1. Zeigen Sie, dass die Mengenfunktion δ ein Wahrscheinlichkeitsmaß auf (R, B(R)) ist. P 68. Maßtheorie. Bildmaß. Seien als Maßraum ein Wahrscheinlichkeitsraum (Ω, A, P ) und eine Zufallsvariable X : Ω → R gegeben, welche als messbare Abbildung zwischen den messbaren Räumen (Ω, A) und (R, B(R)) definiert ist. Dabei bezeichnet B(R) die Borel’sche σ-Algebra auf den reellen Zahlen. Zeigen Sie folgende Aussagen: (a) Die Mengenfunktion P X : B(R) → [0, 1], A 7→ P (X ∈ A) ist ein Wahrscheinlichkeitsmaß auf (R, B(R)). 32 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG (b) Ist die Ergebnismenge Ω = {ω1 , . . . , ωn } endlich, so gibt es n -Tupel reeller Zahlen P (x 1 , . . . , x n ) und (p 1 , . . . , p n ) mit p i > 0 ∀i ∈ {1, . . . , n} und ni=1 p i = 1, sodass PX = n X p i δx i . i =1 Dabei ist δx : B(R) → R für ein festes x ∈ R ein Diracmaß mit δx (B ) = ½ 1 falls 0 falls x ∈B , x ∉B B ∈ B(R). Sind die Tupel (x 1 , . . . , x n ) und (p 1 , . . . , p n ) eindeutig durch X bestimmt? Welche Bedeutung haben sie? Lösung. (a) P X ist wohldefiniert, normiert und σ-additiv: P X ( P P ∈ A i ). k≥0 X (X S k≥0 A i ) = P (X ∈ S k≥0 Ai ) = P ( S k≥0 {X ∈ A i }) = 69. Maßtheorie. Ereignisfelder und Information. Die Ergebnismenge Ω = (i , j ) : i , j ∈ {1, . . . , 6} 1 gemeinsam mit dem Wahrscheinlichkeitsmaß P ((i , j )) = 36 beschreiben einen Wurfexperiment, in dem zwei ideale wohlunterscheidbare Würfel geworfen werden. Für ein Ergebnis ω = (i , j ) ∈ Ω definieren wir die Funktionen © X 0 (ω) = 0 X 1 (ω) = i + j , X 2 (ω) = i , ( 1 X 3 (ω) = 0 falls i + j = 6 sonst. (a) Finden Sie die kleinsten Ereignisfelder Ai , i ∈ {0, 1, 2, 3}, sodass X i Zufallsvariablen auf dem Wahrscheinlichkeitsraum (Ω, Ai , P ) sind. (b) Beschreiben Sie den Zusammenhang zwischen den Ereignisfeldern Ai und der Information, die die Zufallsvariablen X i über die Ergebnisse ω ∈ Ω liefern. Lösung. A0 = {;, Ω} A1 = σ {{11} , {21, 12} , {13, 22, 31} , . . . , {16, 25, 34, . . . , 61}} A2 = σ {{11, 12, 13, 14, 15, 16} , . . . , {61, 62, . . . , 66}} A3 = σ {15, 24, . . . , 51} , {15, 24, . . . , 51} . © 1.7 ª Diskrete Zufallsvariablen 70. Zufallsvariablen. Bernoulli-Verteilung. Eine Zufallsvariable X mit den Werten in der Menge {0, 1} ⊂ R und der Wahrscheinlichkeitsfunktion P(X = 1) = p , P(X = 0) = 1 − p mit p ∈ (0, 1) heißt Bernoulli-verteilt mit dem Parameter p . (a) Geben Sie die Verteilungsfunktion F : R → [0, 1], x 7→ F (x) = P(X ≤ x) von X an. ª 1.7. DISKRETE ZUFALLSVARIABLEN 33 (b) Berechnen Sie den Erwartungswert E[X ] und die Varianz Var(X ) von X . (c) Berechnen Sie den Erwartungswert E[Y ] und die Varianz Var(Y ) der Zufallsvariable Y = exp (X ) . (d) Berechnen Sie die k -ten Momente mk = E[X k ] und die k -ten zentralen Momente µk = E[(X − E X )k ] von X für alle k ∈ N. Lösung. Verteilungsfunktion ist F : x 7→ (1 − p)1[0,∞) (x) + p1[1,+∞) (x). E X = p . Var X = p(1−p). EY = 1−p +pe . Var Y = p(1−p)(1−e)2 . m k = E X k = E X , da X = X k . µk = E [X − E X ]k = p(1 − p)k + (−p)k (1 − p). 71. Zufallsvariablen. Funktionen der Augenzahl. In einem Wurfexperiment werden zwei ideale, wohlunterscheidbare Würfel geworfen. Die Zufallsvariablen X i geben die geworfene Augenzahl des i -ten Würfels an. (a) Berechnen Sie die Wahrscheinlichkeiten P(X 1 − X 2 > 2), P(X 1 /X 2 > 1) und P(|X 1 − X 2 | ≤ 1). (b) Berechnen Sie die Verteilungsfunktion F der Zufallsvariable Y = X 1 + X 2 . 6+5+5 6 , P(X 1 /X 2 > 1) = 15 Lösung. P(X 1 − X 2 > 2) = 36 36 , P(|X 1 − X 2 | ≤ 1) = 36 . 72. Zufallsvariablen. Konstruktion über Wahrscheinlichkeitsfunktion. Es sei X eine diskrete Zufallsvariable mit dem Wertebereich Z = {0, 1, 2} und der Wahrscheinlichkeitsfunktion p : Z → [0, 1], x 7→ c · (x + 1). (a) Bestimmen Sie den Wert der Konstanten c . (b) Ermitteln Sie die folgenden Wahrscheinlichkeiten: P(X < 2), P(X ≤ 2) und P(0 < X < 2). (c) Berechnen Sie den Erwartungswert und die Varianz von X . (d) Bestimmen Sie den kleinsten Wert von x , für den P(X ≤ x) > 0.5 gilt. Lösung. c = 16 . P(X < 2) = 12 . P(X ≤ 2) = 1. P(0 < X < 1) = 13 . E X = 43 . Var X = 59 . minx {P(X ≤ x) ≥ 0.5} = 2. 73. Zufallsvariablen. Ausfälle der Bauelemente. In einem vorgegebenen Zeitintervall [0, T ] könnnen drei Baugruppen A 1 , A 2 , bzw. A 3 eines Gerätesystems mit Wahrscheinlichkeiten 0.95, 0.8 bzw. 0.1 ausfallen. Die Baugruppen arbeiten unabhängig voneinander. Bestimmen Sie die Wahrscheinlichkeitsfunktion, den Erwartungswert sowie die Varianz für die Anzahl der ausgefallenen Baugruppen zum betrachteten Zeitintervall. Lösung. Seien X 1 ∼ Ber(0.95), X 2 ∼ Ber(0.8), X 3 ∼ Ber(0.1) und Y = X 1 + X 2 + X 3 . EY = 1.85. Var Y = 0.2975. Berechnung der Varianz direkt oder über den Satz von Bienaymé. 34 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG 74. Zufallsvariablen. Diskrete Gleichverteilung. Eine Zufallsvariable heißt diskret gleichverteilt auf {1, . . . , n} falls P(X = i ) = n1 für alle i ∈ {1, . . . , n}. (a) Geben Sie die Verteilungsfunktion F : R → [0, 1], x 7→ F (x) = P(X ≤ x) von X an. (b) Berechnen Sie den Erwartungswert und die Varianz von X . (c) Berechnen Sie den Erwartungswert und die Varianz der Zufallsvariable Y = log (X ). n k 2 = n(n+1)(2n+1) , E X 2 = (n+1)(2n+1) , Var X = E X 2 − (E X )2 . E log X = Lösung. E X = n+1 2 , 6 6 k=1 ¡ ¢ ¢ ¡ P 2 1 1 n 1 2 n log n!. Var log X = n i =1 (log i ) − n log n! . P 75. Erwartungswert. Einfache Eigenschaften. riable. Beweisen Sie folgende Aussagen. Sei X eine diskrete Zufallsva- (a) E (X − E X )2 = E X 2 − (E X )2 , falls alle diese Erwartungswerte existieren. (b) (E X )2 ≤ E X 2 , falls beide Erwartungswerte existieren. (c) Angenommen X hat Werte in N. Dann gilt EX = ∞ X P(X > n). n=0 Lösung. EX = X n P (X = n) n≥0 = P(X = 1) + P(X = 2) + P(X = 2) + · · · + P(X = n) + · · · + P(X = n) + . . . | {z } n times = X P(X > n). n≥0 76. Geometrische Verteilung. Konstruktion. Eine Münze nicht notwendigerweise faire Münze wird wiederholt geworfen, bis Kopf fällt. Bezeichnen wir mit X 0 die Anzahl der dafür notwendigen Würfe. (a) Geben Sie die Wahrscheinlichkeitsfunktion der Zufallsvariable X 0 explizit an. (b) Berechnen Sie den Erwartungswert und die Varianz von X . 77. Geometrische Verteilung. Erwartungswerte. Sei X geometrisch verteilt mit dem Parameter p ∈ (0, 1). Zeigen Sie folgende Aussagen: (a) · E ¸ ³ p ´ 1 = log (1 − p) p−1 . 1+ X (b) Für alle n ∈ {2, 3, . . . } gilt E [X (X − 1) · · · · · (X − n + 1)] = n! p n . (1 − p)n 1.7. DISKRETE ZUFALLSVARIABLEN 35 Lösung. (a) z2 z3 log(1 + z) = z − + −··· 2 3 µ ¶ p ¡ ¢ 1 p X (1 − p)k+1 p E = = log 1 − p = log(1 − p) p−1 . 1+ X 1 − p k≥0 k + 1 p −1 78. Geometrische Verteilung. Gedächtnislosigkeit. Sei X geometrisch verteilt mit dem Parameter p . (a) Zeigen Sie, dass ¡ ¢ ¡ ¢ P X >i + j |X ≥i =P X > j für alle i , j > 0 und i , j ∈ N gilt. (b) Finden Sie eine Interpretation für die obige Beziehung. Lösung. ¯ ¡ ¢ P(X > i + j ) P X >i +j ¯X ≥i = P(X ≥ i ) P (1 − p)i ∞ p(1 − p)k k=i +1 = P (1 − p)i ∞ p(1 − p)l l =0 X = p(1 − p)k . k> j 79. Geometrische Verteilung. Gedächtnislosigkeit und Erwartungswert. Sei X geometrisch verteilt mit dem Parameter p ∈ (0, 1) und der Wahrscheinlichkeitsfunktion P (X = k) = p(1 − p)k , k = 0, 1, . . . (a) Zeigen Sie, dass P (X > i + j | X ≥ i ) = P (X > j ) für alle i , j > 0 gilt. (b) Zeigen Sie, dass EX = 1−p p gilt. (c) Berechnen Sie den Erwartungswert der Zufallsvariable Y = 2 X − 1. Binomialverteilung. Maximum der Wahrscheinlichkeitsfunktion. Sei X ∼ B(n, p) binomialverteilt mit den Parametern n und p . Zeigen Sie, dass das Maximum der Wahrscheinlichkeitsfunktion von X an der Stelle 80. argmaxk∈{0,...,n} P (X = k) = b(n + 1)pc. angenommen wird. Dabei bezeichnet bxc für ein x ∈ R die größte ganze Zahl, die nicht größer als x ist. 36 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG Lösung. Wir berechnen P (X = k)/P (X = k − 1) = n +1−k p . k 1−p Dieser Quotient ist größer als 1 genau dann, wenn (n + 1)p > k. 81. Binomialverteilung. Gerade Werte. Sei X ∼ B(n, p) binomialverteilt mit den Parametern n und p . Zeigen Sie, dass die folgende Formel gilt: ¡ ¢ 1¡ ¢ P X ist eine gerade Zahl = 1 + (1 − 2p)n . 2 Lösung. Sei p n die Wahrscheinlichkeit, dass eine B(n, p)-verteilte Zufallsvariable gerade ist. p n erfüllt folgende rekursive Relation p n = p n−1 (1 − 2p) + p, p 0 = 1. Nun ist es einfach zu überprüfen, dass 12 (1 + (1 − 2p)n ) die Lösung dieser Rekursion ist. 82. Poisson-Verteilung. Eigenschaften. Sei X Poisson-verteilt mit der Wahrk scheinlichkeitsfunktion P (X = k) = λk! e −λ , k ∈ {0, 1, . . . } und dem Parameter λ > 0. Beweisen Sie folgende Aussagen: (a) Die Varianz von X ist D2 X = λ. (b) Das Maximum der Wahrscheinlichkeitsfunktion von X wird an der Stelle argmaxk∈N P (X = k) = bλc angenommen. (c) Für n ∈ {2, 3, . . . } gilt E [X (X − 1) · · · · · (X − n + 1)] = λn . Lösung. 83. Binomialverteilung. Additionstheorem. Sei b(k, n, p) = P (X = k) die Wahrscheinlichkeitsfunktion einer binomialverteilten Zufallsvariable X ∼ B(n, p). (a) Zeigen Sie, dass für n 1 > 0 und n 2 > 0 die Gleichung k X b(i , n 1 , p) b(k − i , n 2 , p) = b(k, n 1 + n 2 , p). i =0 gilt. (b) Geben Sie die wahrscheinlichkeitstheoretische Interpretation der obigen Aussage. 1.7. DISKRETE ZUFALLSVARIABLEN 37 84. Poisson-Verteilung. Additionstheorem. Seien X 1 ∼ Poiss(λ1 ) und X 2 ∼ Poiss(λ2 ) unabhängige Poisson-verteilte Zufallsvariablen mit den Parametern λ1 > 0 und λ2 > 0. Zeigen Sie, dass die Zufallsvariable Y = X1 + X2 ebenfalls Poisson-verteilt mit dem Parameter λ = λ1 + λ2 ist. Lösung. P (X + Y = n) = n X P (X = i )P (Y = n − i ) i =0 = n X e −λ1 i =0 = e −λ1 −λ2 n! λi1 i! e −λ2 λn−i 2 (n − i )! à ! n n X λi1 λn−i 2 i i =0 = e −(λ1 +λ2 ) (λ1 + λ2 )n . n! 85. Binomialverteilung. Verteilungsfunktion. Seien X ∼ B(n, p) binomialverteilt und B (k, n, p) = P (X < k) die Verteilungsfunktion von X . Zeigen Sie: à !Z 1−p n B (k + 1, n, p) = (n − k) t n−k−1 (1 − t )k d t . k 0 Lösung. (a) Die Formel kann mit Hilfe der partiellen Integration hergeleitet werden. à !Z 1−p n B (k + 1, n, p) = (n − k) t n−k+1 (1 − t )k d t k 0 à !· ¸ Z 1−p n 1 k = (n − k) (1 − p)n−k p k + t n−k (1 − t )k−1 d t k n −k n −k 0 à ! à !Z 1−p n n = (1 − p)n−k p k + (n − (k − 1)) t n−(k−1)−1 (1 − t )k−1 d t k k −1 0 à ! n = (1 − p)n−k p k + B (k, n, p). k à !Z 1−p n B (1, n, p) = n t n−1 d t = (1 − p)n . 0 0 Damit erhalten wir à ! k n X B (k + 1, n, p) = p i (1 − p)n−i . i =0 k 38 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG 86. Geometrische Verteilung. Zusammenhang mit der Gleichverteilung. Die Zufallsvariablen X und Y sind stochastisch unabhängig und geometrisch verteilt mit dem Parameter p ∈ (0, 1). (a) Berechnen Sie die Wahrscheinlichkeiten der Ereignisse X = Y und X ≥ 2Y . (b) Zeigen Sie, dass für k, n ∈ N und n > k P (X = k | X + Y = n) = 1 n +1 gilt. Mit anderen Worten: Die bedingte Verteilung von X bei gegebenem Wert von X + Y ist die Gleichverteilung. Lösung. (a) P (X = Y ) = ∞ X P (X = k ∧ Y = k) = k=0 p 1+p ¡ ¢2y P X ≥ 2y = 1 − p p . P (X ≥ 2Y ) = 1 − (1 − p)3 ¡ ¢ (b) Für X 1 ∼ Poiss(p 1 ) und X 2 ∼ Poiss(p 2 ) erhalten wir (1 − p 1 )k (1 − p 2 )n−k P (X 1 = k | X 1 + X 2 = n) = Pn . i n−i i =0 (1 − p 1 ) (1 − p 2 ) 87. Negative Binomialverteilung. Konstruktion. X ist negativ binomialverteilt mit den Parametern n ∈ N und p ∈ (0, 1), wenn für k ∈ N à ! k +n −1 n P (X = k) = p (1 − p)k n −1 gilt. Seien Z1 , Z2 . . . stochastisch unabhängige und geometrisch verteilte Zufallsvariablen mit Zi ∼ Geom(p). Zeigen Sie folgende Aussagen: (a) Die Zufallsvariable Z1 + Z2 ist negativ binomialverteilt mit den Parametern (2, p). (b) Für k, n ∈ N gilt à ! à ! k X k +n j +n −1 = . n n −1 j =0 (c) Die Zufallsvariable Z1 + · · · + Zn ist negativ binomialverteilt mit den Parametern (n, p). 1.7. DISKRETE ZUFALLSVARIABLEN 39 Lösung. (a) P (Z1 + Z2 = k) = (k + 1)p 2 (1 − p)k . (b) Beweisen wir zuerst à ! à ! à ! n n −1 n −1 = + k k −1 k à ! à ! n +k n +k = k n und den Rest mit Induktion. (c) à P n+1 X i =1 ! Zi = k = k X à P j =0 n X ! ¡ ¢ Zi = j P Zn+1 = k − j i =1 à ! j +n −1 n = p (1 − p) j (1 − p)k− j p n − 1 j =0 à ! à ! k X j + n − 1 n+1 k + n n+1 k = p (1 − p) = (1 − p)k . p n − 1 n j =0 k X 88. Diskrete Gleichverteilung. Ordnungsstatistiken. Die Zufallsvariablen X 1 , . . . , X m seien stochastisch unabhängig und diskret gleichverteilt auf der Menge {1, . . . , n}, mit n > 1. Wir bezeichnen mit X (1) = min(X 1 , . . . , X m ) das Minimum und mit X (m) = max (X 1 , . . . , X n ) das Maximum der Zufallsvariablen X 1 , . . . , X m . Finden Sie die Wahrscheinlichkeitsfunktion der Zufallsvariablen X (1) und X (n) . Lösung. n −k P X (1) ≤ k = 1 − n µ ¶m ¡ ¢ k P X (m) ≤ k = . n ¡ ¢ µ ¶m 89. Diskrete Gleichverteilung ist nicht teilbar. Sei U diskret gleichverteilt auf der Menge {1, 2, 3}. Zeigen Sie, dass es nicht möglich ist, U als Summe zweier unabhängigen diskret und identisch verteilten Zufallsvariablen X und Y darzustellen. Lösung. Angenommen, es gäbe identisch verteilte unabhängige Zufallsvariablen X und Y , mit U = X + Y . Dann hat der Wertebereich E von X und Y die Eigenschaft E + E = {1, 2, 3}, wobei die Summe der Mengen A und B als A + B = {a + b : a ∈ A, b ∈ B } 40 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG definiert sei. Somit ist E = ©1 3 2, 2 ª . Nun ist ¶ · µ ¶¸ 1 1 2 1 1 = P X= P (U = 1) = P X = ∩ Y = = 2 2 2 3 p µ ¶ 1 3 P X= = . 2 3 ¶ µ ¶¶ µµ 3 1 3 1 ∪ X = ∩Y = P (U = 2) = P X = ∩ Y = 2 2 2 2 µ ¶ µ ¶ 3 1 1 = 2P X = P Y = = . 2 2 3 µ ¶ p 3 3 P X= = . 2 6 µ Es ist also p p p 1 3 3 3 3 P (X = ∪ X = ) = + = > 1. 2 2 3 6 2 Widerspruch. 90. Geometrische Verteilung. Minima und Maxima. Seien Y1 , . . . , Ym stochastisch unabhängig und geometrisch verteilt mit dem Parameter p ∈ (0, 1). Wir bezeichnen mit Y(1) = min(Y1 , . . . , Ym ) das Minimum und mit Y(m) = max (Y1 , . . . , Ym ) das Maximum der Zufallsvariablen Y1 , . . . , Ym . Finden Sie die Verteilungsfunktionen und Wahrscheinlichkeitsfunktionen der Zufallsvariablen Y(1) und Y(m) . Lösung. Die Verteilungsfunktion der geometrischen Verteilung an den Stellen k ∈ N ist gegeben durch F (k) = P (Yl ≤ k) = k X p(1 − p)i = p i =0 1 − (1 − p)k+1 = 1 − (1 − p)k+1 . 1 − (1 − p) Nun ergibt sich unter Ausnutzung der Unabhängigkeit à F (1) (k) = P m [ ! {Yi ≤ k} = 1 − i =1 à F (m) (k) = P m \ i =1 m Y i =1 ! {Yi ≤ k} = m Y ³ ´ m Y ¡ ¢m(k+1) P {Yi ≤ k} = 1 − , [1 − F (k)] = 1 − 1 − p i =1 h im F (k) = 1 − (1 − p)k+1 , i =1 ¡ ¢ £ ¤ P Y(1) = k = F (1) (k) − F (1) (k − 1) = (1 − p)km 1 − (1 − p)m , h im h im ¡ ¢ P Y(m) = k = F (m) (k) − F (m) (k − 1) = 1 − (1 − p)(k+1) − 1 − (1 − p)k . 91. Geometrische Verteilung. Additionstheorem. Seien X und Y unabhängig und geometrisch verteilt mit den Parametern p 1 , p 2 ∈ (0, 1) und p 1 6= p 2 . Zeigen Sie folgende Aussage: Die Wahrscheinlichkeitsfunktion der Summe X + Y ist gegeben durch P (X + Y = n) = ¢ p1 p2 ¡ (1 − p 2 )n+1 − (1 − p 1 )n+1 . p1 − p2 1.7. DISKRETE ZUFALLSVARIABLEN 41 Lösung. P (X + Y = n) = n X P (X = i )P (Y = n − i ) i =0 n µ 1 − p ¶i X 1 = p 1 p 2 (1 − p 2 ) 1 − p 2 i =0 ³ ´n+1 1−p 1 − 1−p 12 n = p 1 p 2 (1 − p 2 ) 1−p 1 − 1−p 12 µ µ ¶ ¶ p1 p2 1 − p 1 n+1 n+1 = (1 − p 2 ) 1− . p1 − p2 1 − p2 n Bernoulliverteilung. Momente. Sei X Bernoulliverteilt mit dem Parameter p ∈ (0, 1). Es gilt also X : Ω → {0, 1} und P (X = 1) = p . 92. (a) Die Momente von X sind gegeben durch E X n = p, n ∈ N. (b) Die momentenerzeugende Funktion von X ist ψ(u) = E exp (uX ) = p exp(u) + 1 − p. Lösung. Aus X = X n für alle n ∈ N, erhalten wir E X = E X n = 1 p + 0 (1 − p) = p. Auf direktem Wege erhalten wir auch ψ(u) = E exp(uX ) = exp (u 1) p + exp(0)(1 − p). 93. Binomialverteilung als Summe von unabhängigen Bernoulli Zufallsvariablen. Seien X 1 , · · · , X n , n ∈ N, i.i.d. und Bernoulliverteilt mit dem Parameter p ∈ (0, 1). Dann ist Y = n X X i ∼ Bin(n, p) i =1 binomialverteilt mit Parametern (n, p). D.h., P (Y = k) = ¡n ¢ k p k (1 − p)n−k , für k ∈ {0, · · · , n}. 94. Binomialverteilung. Momente und momentenerzeugende Funktion. X binomialverteilt mit den Parametern (n, p), n ∈ N und p ∈ (0, 1). Dann gilt (a) E X = np. (b) Die momentenerzeugende Funktion von X ist gegeben durch ψ(u) = E exp(uX ) = (1 − p + pe u )n . Sei 42 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG Lösung. Nachdem X die Summe unabhängiger Bernoulliverteilter Zufallsvariablen B 1 , · · · , B n ist, können wir die Linearität des Erwartungswertes benutzen, und erhalten E X = EB 1 + · · · EB n = np. Zufallsvariablen A und B sind genau dann unabhängig, wenn E f (A)g (B ) = E f (A) Eg (B ) für alle beschränkte messbare Funktionen gilt.1 Wir können also die zuvor benutzte Methode wieder einsetzen. E exp(uX ) = E n Y e uB i = i =1 n Y £ ¤n Ee uB i = e u p + 1 − p . i =1 Dieses Ergebnis lässt sich auch mit Hilfe der Wahrscheinlichkeitsfunktion der Binomialverteilung herleiten. à ! n k E exp(uX ) = e p (1 − p)n−k k k=0 à ! n n X = (pe u )k (1 − p)n−k k k=0 £ ¤n = eu p + 1 − p . n X uk Poisson-Verteilung. Momente. Sei X Poisson-verteilt mit dem Parameter λ > 0. Das bedeutet, X : Ω → N hat die Wahrscheinlichkeitsfunktion 95. P (X = k) = λk −λ e . k! Es gilt (a) E X = Var X = λ. (b) Die momentenerzeugende Funktion von X ist gegeben durch ¢ ¡ ψ(u) = E exp(uX ) = exp λ(e u − 1) . 96. Zusammengesetzte Poisson-Verteilung. Sei N ein Poisson-verteilte Zufallsvariable mit dem Parameter λ > 0 und eine Folge von i.i.d. Zufallsvariablen (Zi )i ∈N P mit existierenden momentenerzeungenden Funktion. Wir definieren X = iN=1 Zi . X ist also eine Summe mit zufälliger Anzahl der Summanden. Wir setzen bei X = 0 auf dem Ereignis {N = 0}. Zeigen Sie: (a) Die Momentenerzeugende Funktion von X ist gegeben durch ¡ ¡ ¡ ¢¢¢ ψ X (u) = exp λ E exp uZ1 − 1 . (b) Der Erwartungswert von X ist gegeben durch E X = λE Z1 falls E Z1 existiert. 1 Beachten Sie, dass E AB = E A EB im Allgemeinen nicht ausreichend für Unabhängigkeit ist! 1.7. DISKRETE ZUFALLSVARIABLEN 43 Lösung. Wir benutzen die Eigenschaften der bedingten Erwartung und erhalten " " E E exp u N X ## ¡ ¢N = E E exp uZ1 Zi |N i =0 = ∞ ¡ X ¢k λk −λ E exp uZ1 e k! k=0 = exp (−λEuZ1 − λ) £ ¡ ¢¤ = exp λ Ee uZ1 − 1 . 97. Benfordsches Gesetz. Gegeben sei eine diskret verteilte Zufallsvariable X mit den Werten in der Menge {1, 2, 3, . . . , 9} und der Wahrscheinlichkeitsfunktion µ p(d ) = P (X = d ) = log10 ¶ d +1 , d ∈ {1, 2, · · · , 9} . d (a) Zeigen Sie, dass die Funktion p tatsächlich eine Wahrscheinlichkeitsfunktion ist. (b) Berechnen Sie den Erwartungswert von X . (c) Berechnen Sie die Verteilungsfunktion von X . Es sei an folgende Rechenregeln für Logarithmen erinnert: ¡ ¢ c log10 (b) = log10 b c , log10 (a) + log10 (b) = log10 (ab) , für alle a, b > 0 und c ∈ R. Lösung. (a) Offenbar gilt 1 < dd+1 < 10 für alle d ∈ 1, 2, . . . , 9. Wegen der strengen Monotonie des ´ ³ Logarithmus ergibt dies 0 = log(1) < log dd+1 < log(10) = 1. Also hat die Funktion p Werte in dem Einheitsintervall [0, 1] und erfüllt 9 X p(d ) = d =1 9 X d =1 µ log10 à ! ¶ µ ¶ 9 d +1 Y d +1 10 = log10 = 1. = log10 d 1 d =1 d (b) EX = 9 X d =1 d p(d ) = 9 X µ d log10 d =1 ¶ 9 µ d + 1 ¶d Y d +1 = log10 d d d =1 µ ¶ 10 10 = log10 10 · ... = 9 − log10 9! = 3.4402. 2 9 (c) Die Verteilungsfunktion von X ausgewertet an k ∈ {1, . . . , 9} ist F (k) = P (X ≤ k) = k X d =1 µ log10 ¶ d +1 = log10 (k + 1). d 44 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG Für x ∈ R gilt daher 0, log10 2, log 3, 10 F (x) = P (X ≤ x) = . . . log10 9, 1, falls x < 1, falls 1 ≤ x < 2, falls 2 ≤ x < 3, ... falls 8 ≤ x < 9, falls 9 ≤ x. 98. Rademacher-verteilte Zufallsvariablen. Sei X Rademacher-verteilt mit der Wahrscheinlichkeitsfunktion 1 P (X = −1) = , 2 1 P (X = 1) = . 2 (a) Berechnen Sie den Erwartungswert und die Varianz von X . (b) Zeigen Sie, dass alle ungeraden Momente und alle ungeraden zentralen Momente von X verschwinden. (c) Berechnen Sie die charakteristische Funktion von X . (d) Seien X 1 und X 2 stochastisch unabhängig und rademacherverteilt. Berechnen Sie die Wahrscheinlichkeitsfunktion der Zufallsvariable Y = X1 + X2. Lösung. (a) EX = 0, D2 X = EX 2 = 1. (b) k ∈ 2N+1 impliziert X k = X , daher auch mk = EX k = EX = 0. Die zentralen Momente µk und Momente m k sind gleich. (c) φX (t ) = Ee i t X = 21 e i t + e −i t . ¡ ¢ (d) P (Y = k) = 1.8 1/4 1/2 1/4 k =2 k =0 k = −2. Ungleichungen der Wahrscheinlichkeitstheorie 99. Tschebyscheff’sche Ungleichung. 100 Würfel. Ein idealer Würfel wird 100 mal geworfen. Sei X die Summe der geworfenen Augenzahlen. Finden Sie eine obere Schranke für die Wahrscheinlichkeit P(|X − 350| > 50). 1.9. DISKRETE ZUFALLSVARIABLEN - TEXTAUFGABEN 45 Lösung. Bezeichne mit X i , i ∈ {1, . . . , 100} die geworfenen Augenzahlen und X = X 1 + · · · + X 100 . Dann ist 7 EX i = , 2 Var X i = E X i2 − (E X i )2 = E X = 350, Var X = 91 49 − , 6 4 875 . 3 Daraus erhalten wir P (|X − E X | > 50) = P (|X − 350| > 50) < Var X 502 = 875 3 · 502 ≈ 0.1167. 100. Markow’sche Ungleichung. Diskreter Fall. Sei X eine Zufallsvariable mit den Werten in {0, 1, 2, . . . } und a > 0. Zeigen Sie folgende Aussagen: (a) P (X ≥ a) ≤ EX a . (b) Sei h : R → [0, ∞) eine wachsende Funktion. Dann gilt P (X ≥ a) ≤ Eh(X ) . h(a) (c) Zeigen Sie, dass sich die Tschebyscheff’sche Ungleichung aus der obigen Aussage folgern lässt. Lösung. (a) P(X > a) = X P (X = n) n>a 1 X n P(X = n) a n>a 1 X EX ≤ n P(X = n) = . a n≥0 a < (b) Folgt aus h(n) h(n) ≤ h(n) h(a) für alle n > a . (c) Setze h(x) = x 2 und X̃ = |X − E X |. 1.9 Diskrete Zufallsvariablen - Textaufgaben 101. Busfahrerstreik. Auf dem Weg zur Stochastikprüfung erfahren Sie von einem Busfahrerstreik. Sie kommen an der Bushaltestelle kurz vor 11:00 Uhr an, die Prüfung beginnt um 14:00 Uhr und die Dauer der Busfahrt inklusive des Fußweges zum Prüfungsort beziffern Sie erfahrungsgemäß auf eine Stunde. Gemäß Fahrplan stehen Ihnen drei Busse mit Abfahrtszeiten 11:00 Uhr, 12:00 Uhr und 13:00 Uhr zur Verfügung. Laut Aussagen anderer Wartender ist mit einer mittleren Verspätungsdauer von einer Stunde zu rechnen. Sie nehmen an, dass die Verspätungsdauern der Busse B i für i = 1, 2, 3 unabhängig voneinander und exponentialverteilt mit B i ∼ Ex(λ) und λ > 0 sind. 46 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG (a) Bestimmen Sie den Parameter λ und berechnen Sie die erwartete Ankunftszeit am Prüfungsort unter der Annahme, dass Sie den Bus mit der planmäßigen Abfahrtszeit 11:00 Uhr benutzen. (b) Berechnen Sie die Wahrscheinlichkeit dafür, dass Sie nicht rechtzeitig zur Prüfung kommen können. (c) Berechnen Sie die Wahrscheinlichkeit dafür, dass Sie mindestens eine halbe Stunde vor der Prüfung am Prüfungsort ankommen. Lösung. (a) EB i = 1 impliziert λ = 1. Die erwartete Ankunftszeit bei Fahrt mit dem ersten Bus ist E [11 + 1 + B 1 ] = 12 + EB 1 = 13 Uhr. (b) Bezeichne mit B 1 , B 2 , und B 3 die Verspätungsdauer der Busse. Laut Angabe sind B i exponentialverteilt mit B i ∼ Ex(1). Die Wahrscheinlichkeit dafür, dass der Prüfungsort nicht rechtzeitig erreicht werden kann ist P (B 1 ≥ 2 ∧ B 2 ≥ 1 ∧ B 3 ≥ 0) = P (B 1 ≥ 2)P (B 2 ≥ 1) = exp (−2) exp(−1) ≈ 0.04978. (c) Die Wahrscheinlichkeit, dass wir mindestens halbe Stunde vor der Prüfung ankommen, ist P (B 1 ≤ 1.5 ∨ B 2 ≤ 0.5) = 1 − P (B 1 > 1.5)P (B 2 > 0.5) ≈ 0.8646. 102. Hochwasserereignisse. Historiker haben festgestellt, dass im Großraum Halle im Mittel zwei extreme Hochwasserereignisse pro Jahrhundert zu verzeichnen waren. Wir setzen voraus, dass dafür die Annahmen des Poisson-Prozesses (Stationarität, Homogenität und Ordinarität) gelten mögen. (a) Wie können diese drei Annahmen für die vorliegende Problematik interpretiert werden? (b) Wie wahrscheinlich ist es, dass in einem Jahrhundert mehr als drei extreme Hochwasserereignisse im Großraum Halle auftreten? (c) Wie wahrscheinlich ist es, dass nach dem extremen Hochwasser 2013 innerhalb von 20 Jahren ein weiteres extremes Hochwasser in dieser Region auftreten wird? Lösung. 2 (b) Rechnungseinheit Jahre: µ = 100 = 0.02, X t ∼ Poiss(µt ). Sei πλ die Wahrscheinlichkeitsfunktion der Poissonverteilung mit dem Parameter λ. Dann ist t = 100, λ = µt = 2, P (X 100 > 3) = 1 − π2 (0) − π2 (1) − π2 (2) − π2 (3) = 0.1429. (c) Zeitraum bis zum nächsten Ereignis: T ∼ Exp(µ). P (T ≤ 20) = 1 − exp(−20µ) = 1 − exp(−0.4) = 0.3297. 1.9. DISKRETE ZUFALLSVARIABLEN - TEXTAUFGABEN 47 103. Gasmelder. Im Hauptgebäude der TU Chemnitz werden Gasmelder bestimmten Typs für die Früherkennung gefährlicher Methankonzentrationen eingesetzt. Es wird angenommen, dass im 3. Stock im Mittel alle 25 Jahre ein gefährlicher Methanaustritt stattfindet, der durch den entsprechenden Gasmelder signalisiert wird. Unabhängig davon geht der besagte Melder im Mittel alle 5 Jahre kaputt und signalisiert dabei einen Falschalarm. Der defekte Melder wird aus Sicherheitsgründen immer sofort ausgetauscht. (a) Wir setzen im Folgenden voraus, dass beide Ereignisfolgen mit Hilfe des PoissonProzesses modelliert werden können. Diskutieren Sie die zugehörigen Annahmen der Stationarität, Homogenität und Ordinarität. (b) Wie wahrscheinlich ist es, dass es in den nächsten 10 Jahren zu mehr als einem Methanaustritt kommen wird? (c) Wie wahrscheinlich ist es, dass nach dem Austausch des defekten Melders Ende Mai der neue Melder innerhalb eines halben Jahres kaputt geht? Lösung. (a) (b) Wir rechnen alles in der Einheit Stunden. M zähle Methanvorfälle und G zähle Gasmelderausfälle. Es gilt M t ∼ π(µt ) und G t ∼ π(γt ). Aus EM 25 = 1 = 25 µ und EG 5 = 1 = 5 γ erhalten wir µ = 0.04 und γ = 0.2. Daher gilt P (M 10 > 1) = 1 − P (M 10 = 0) − P (M 10 = 1) = 1 − π0.4 (0) − π0.4 (1) = 0.06155. (c) Die Zeiten zwischen den Ausfällen der Gasmelder sind exponentialverteilt mit dem Parameter γ. Es gilt also P (T ≤ 0.5) = 1 − exp(−γ 0.5) = 0.0951. 104. Vulkanausbrüche. Das Vulkangebiet um Indonesien lässt im Mittel einen Vulkanausbruch in fünf Jahren erwarten. Wir setzen voraus, dass dafür die Annahmen des Poisson-Prozesses (Stationarität, Homogenität und Ordinarität) gelten mögen. (a) Wie können diese drei Annahmen für die vorliegende Problematik interpretiert werden? (b) Wie wahrscheinlich ist es dann, dass es in einem Jahrhundert zu gar keinem Vulkanausbruch in diesem Gebiet kommt? (c) Wie wahrscheinlich ist es andererseits, dass es nach einem Vulkanausbruch bereits innerhalb eines Jahres zu einem weiteren Vulkanausbruch kommt? Lösung. (b) Rechnungseinheit Jahre: µ = 15 = 0.2, X t ∼ Poiss(µt ). Sei πλ die Wahrscheinlichkeitsfunktion der Poissonverteilung mit dem Parameter λ. Dann ist t = 100, λ = µt = 20, P (X 100 = 0) = π20 (0) = exp(−20) = 2.0611 × 10−9 . (c) Zeitraum bis zum nächsten Ereignis: T ∼ Ex(µ). P (T ≤ 1) = 1 − exp(−µ) = 1 − exp(−0.2) = 0.1813. 48 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG 105. Weinfehler. Verteilungsfunktion. Aus einem sehr großen Lieferposten von Wein werden 100 Flaschen zufällig herausgegriffen und auf Weinfehler getestet. Der Wein sei ungenießbar, wenn der Anteil an 2, 4, 6-Trichloranisol (TCA) über 5 ng/l liegt – das zeichnet sich durch einen korkigen Geruch und Geschmack aus. Der durchschnittliche Anteil unbrauchbarer Weinflaschen betrage 3%. (a) Wie groß ist die Wahrscheinlichkeit dafür, dass unter 100 zufällig ausgewählten Weinflaschen genau 3 ungenießbare sind? (b) Berechnen Sie die Wahrscheinlichkeit dafür, dass unter diesen 100 Weinflaschen höchstens drei ungenießbare enthalten sind. Lösung. (a) X ∼ Bin(n, p) mit n = 100 und p = 0.03. à ! n 3 P (X = 3) = p (1 − p)n−3 3 100! 0.033 (1 − 0.03)97 3! 97! 98 · 99 · 100 = 0.033 0.9797 = 0.2275. 6 = (b) P (X ≤ 3) = P (X = 0) + · · · + P (X = 3) à ! 3 n X = 0.03k 0.97n−k = 0.6472. k k=0 Numerische Auswertung solcher Wahrscheinlichkeiten erfolgt mithilfe der Grenzverteilungsätze. 106. Grenzverteilungsätze. Weinfehler. Aus einem sehr großen Lieferposten Wein werden 500 Flaschen zufällig herausgegriffen und auf Weinfehler getestet. Der Wein sei ungenießbar, wenn der Anteil an 2, 4, 6-Trichloranisol (TCA) über 5 ng/l liegt. Dies wirkt sich in Form eines korkigen Geruchs und Geschmacks aus. Der durchschnittliche Anteil unbrauchbarer Weinflaschen betrage 3 %. (a) Wie groß ist die Wahrscheinlichkeit dafür, dass unter 500 zufällig ausgewählten Weinflaschen höchstens 20 ungenießbare enthalten sind? (b) Es wird eine Lieferung für einen wichtigen Kunden vorbereitet. Es muss sichergestellt werden, dass mit mindestens 99 % Wahrscheinlichkeit 500 Flaschen in der Lieferung keine Weinfehler aufweisen. Ein Mitarbeiter schlägt vor, 525 Flaschen auszuliefern. Ist die obige Bedingung in diesem Fall erfüllt? 1.9. DISKRETE ZUFALLSVARIABLEN - TEXTAUFGABEN 49 Lösung. (a) Mit n = 500 und p = 0.03, erhalten wir np = 15 und np(1 − p) = 14.55 > 9. Sei X ∼ Bin(500, 0.03). à X − np 20 − 15 ≤p P (X ≤ 20) = P p 14.55 np(1 − p) ! ≈ Φ (1.310806) = 0.9050384. (b) Die Anzahl der trinkbaren Flaschen werde wir mit Y ∼ Bin(m, 0.97) bezeichnet. P (Y ≥ 500) ≥ 0.99 P (Y < 500) ≤ 0.01 ¶ 500 − m 0.97 Φ p p ≤ 0.01. m 0.03 · 0.97 µ m = 525 liefert 500 − m0.97 = −2.3665 p p m 0.03 · 0.97 Φ(−2.3665) = 1 − Φ(2.3665) ≤ 0.01. 107. Reifenpannen. Auf einer bestimmten Rallye-Strecke von 10 000 km sei pro Pkw im Mittel mit einer Reifenpanne zu rechnen. (a) Ermitteln Sie die Wahrscheinlichkeit dafür, dass ein Pkw bereits auf den ersten 7 000 km eine Reifenpanne hat. (b) Eine Mannschaft sei mit drei Pkw an der Rallye beteiligt. Berechnen Sie die Wahrscheinlichkeit dafür, dass alle Pkw ohne Reifenpanne die Rallye überstehen. Lösung. (a) Wir nehmen an, dass die Anzahl und Auftreten der Reifenpannen mit Hilfe der Poisson-Verteilung modelliert werden kann, da die Voraussetzungen der Stationarität, Homogenität und Ordinarität erfüllt sind. Wir bezeichnen mit X t die Anzahl der Reifenpannen bis zum Zeitpunkt t . Wir wissen E X 104 = 1. Es gilt E X t = µt und daher µ = 10−4 . Die gesuchte Wahrscheinlichkeit ist P (X 7000 ≥ 1) = ∞ X e −7000µ ¡ ¢i 7000µ i! i =1 = 1 − e −7000µ (7000µ)0 0! 7 = 1 − e − 10 ≈ 0.5034. (b) Die Reifenpannen in den einzelnen Fahrzeugen modellieren wir mit X 1,t , X 2,t , X 3,t ∼ Poiss(µt ). Dann ist Y t = X 1,t + X 2,t + X 3,t und Y ∼ Poiss(3µt ) die Anzahl der Reifenpannen in allen drei Fahrzeugen bis zum Zeitpunkt t . P (Y10000 = 0) = e −3µt = e −3 ≈ 0.0497. 50 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG 108. Beschichtungsfehler. Die Anzahl der Beschichtungsfehler einer speziellen Magnetbandsorte betrage pro 1 000 m im Mittel 1.6. Wie groß ist die Wahrscheinlichkeit dafür, dass ein 500 m langes Bandstück keine Fehler aufweist? Welches Model verwenden Sie um diese Zufallssituation zu modellieren? 109. Übertragungskanal. Die Fehlerrate eines Übertragungskanals hängt von der Entfernung D (im m) zwischen Quelle und Senke ab. Die Wahrscheinlichkeit, dass ein Bit falsch übertragen wird, beträgt p = 0.001 · D für D ≤ 500 m und p = 0.5 für D > 500 m. Das heißt, bei Entfernungen von über 500 m wird nur noch Rauschen an der Senke empfangen. Es wird eine 512 Bit Nachricht zur Übertragung vorbereitet. (a) Die Entfernung sei D = 5 m. Berechnen Sie unter Benutzung eines geeigneten Grenzverteilungssatzes die Wahrscheinlichkeit dafür, dass mehr als 2 Bits von der obigen Nachricht falsch übertragen werden. (b) Zur Verminderung der Fehlerrate wird jedes Bit der Nachricht 3 mal hintereinander übertragen. Ein Decodieralgorithmus an der Senke zerlegt die Nachricht in 3 Bit lange Teile und gibt für jeden Teil 1 aus, falls 2 oder 3 Bits gleich 1 sind und sonst 0. Berechnen Sie bei D = 5 m die Wahrscheinlichkeit dafür, dass mehr als 2 Bits von der ursprünglichen 512 Bits langen Nachricht falsch übertragen werden. Lösung. (a) Wir approximierten die Binomialverteilung mit Hilfe des Poissonschen Grenzwertsatzes. Bei p = 0.005, n = 512, np = 2.56 und 1500p = 7.5 ist die Faustregel np ≤ 10 und 1500p ≤ n erfüllt. Sei X ∼ Bin(512, 0.005) die Anzahl der falsch übertragenen Bits. Nun setzen wir λ = np = 2.56. Der Grenzversatz von Poisson liefert P (X = k) ≈ e −λ λk k! und P (X > 2) = 1 − P (X ≤ 2) = 1 − P (X = 0) − P (X = 1) − P (X = 2) ≈ 0.528517. (b) Die Wahrscheinlichkeit für die falsche Übertragung eines Bits beträgt in diesem Verfahren à ! à ! p3 = ¢0 ¢3−2 3 3¡ 3 2¡ p 1−p + p 1−p = 7.475 10−5 . 3 2 Wir erhalten also np 3 = 0.038272. Der Grenzvertsatz von Poisson liefert P (X > 2) = 1 − P (X ≤ 2) = 1 − P (X = 0) − P (X = 1) − P (X = 2) ≈ 9.079004 10−6 . 1.9. DISKRETE ZUFALLSVARIABLEN - TEXTAUFGABEN 51 110. Übertragungskanal mit stochastischer Fehlerkorrektur. Die Fehlerwahrscheinlichkeit bei der Übertragung eines Bits ist p = 0.1. Es wird eine 512 Bit Nachricht zur Übertragung vorbereitet. (a) Berechnen Sie unter Benutzung eines geeigneten Grenzverteilungssatzes die Wahrscheinlichkeit dafür, dass mehr als 35 Bits der obigen Nachricht falsch übertragen werden. (b) Zur Verminderung der Fehlerrate wird jedes Bit der Nachricht viermal hintereinander übertragen. Ein Decodieralgorithmus beim Empfänger zerlegt die Nachricht in 4 Bit lange Teile und gibt für jeden Teil 1 aus, falls 3 oder 4 Bits gleich 1 sind und 0 falls 3 oder 4 Bits gleich 0 sind. Falls zwei Einser und zwei Nuller empfangen wurden, wird das Ergebnis eines unabhängigen Bernoulliexperiments X ∼ Ber(0.5) ausgegeben. Berechnen Sie die Fehlerwahrscheinlichkeit bei der Übertragung eines Bits für den modifizierten Algorithmus. Lösung. (a) Sei n = 512, k = 35 und X ∼ Bin(n, p). E X = np = 51.2, σ2X = 46.08. Die Wahrscheinlichkeit, dass mehr als k Bits falsch übertragen werden, ist P (X > k) = 1 − P (X ≤ k) à ! X − np k − np = 1−P p ≤p np(1 − p) np(1 − p) à ! k − np ≈ 1−Φ p = 0.9914949. np(1 − p) Die Faustregel rechtfertigt dabei die Normalapproximation. (b) Die Wahrscheinlichkeit für die falsche Übertragung eines Bits bei dem alternativen Algorithmus ist à ! à ! à ! 4 4 4 3 4 2 1 p + p (1 − p) + p (1 − p)2 = 0.028. 4 3 2 2 111. Übertragungskanal. II Die Fehlerrate eines Übertragungskanals hängt von der Entfernung D (im m) zwischen Quelle und Senke ab. Die Wahrscheinlichkeit, dass ein Bit falsch übertragen wird, beträgt p = 0.001 · D für D ≤ 500 m und p = 0.5 für D > 500 m. Das heißt, bei Entfernungen von über 500 m wird nur noch Rauschen an der Senke empfangen. Es wird eine 512 Bit Nachricht zur Übertragung vorbereitet. (a) Die Entfernung sei D = 100 m. Berechnen Sie unter Benutzung eines geeigneten Grenzverteilungssatzes die Wahrscheinlichkeit dafür, dass mehr als 35 Bits von der obigen Nachricht falsch übertragen werden. (b) Zur Verminderung der Fehlerrate wird jedes Bit der Nachricht 3 mal hintereinander übertragen. Ein Decodieralgorithmus an der Senke zerlegt die Nachricht in 3 Bit lange Teile und gibt für jeden Teil 1 aus, falls 2 oder 3 Bits gleich 1 sind und sonst 0. Berechnen Sie bei D = 100 m die Wahrscheinlichkeit dafür, dass mehr als 35 Bits von der ursprünglichen 512 Bits langen Nachricht falsch übertragen werden. 52 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG Lösung. (a) Sei p = D · 0.001 = 0.1, n = 512, l = 35 und X ∼ B(n, p). EX = np = 51.2, D2 X = 46.08. Die Wahrscheinlichkeit, dass mehr als l Bits falsch übertragen werden, ist P (X > l ) = 1 − P (X ≤ l ) à ! l − np X − np ≤p = 1−P p np(1 − p) np(1 − p) à ! l − np ≈ 1−Φ p = 0.9914949. np(1 − p) Die Faustregel rechtfertigt dabei die Normalapproximation. (b) Die Wahrscheinlichkeit für die falsche Übertragung eines Bits beträgt in diesem Verfahren à ! à ! p3 = ¢0 ¢3−2 3 3¡ 3 2¡ p 1−p + p 1−p = 0.028. 3 2 Wir erhalten also np 3 = 2.8 und np 3 (1 − p 3 ) = 13.93459 und ¡ ¢ P X̃ > l = 1.550534 · 10−8 . R code: f <- function(n,p,l) { 1 - pnorm( (l- n*p)/sqrt( n*p*(1-p))) } n <- 512; p <- 0.1; l <- 35; f(n,p,l) # 0.9914949 n <- 512; p <- 0.028; l <- 35; f(n,p,l) # 1.550534e-08 112. Bitcoin. Einfaches Bubble-Modell. In einem einfachen Marktmodel für den Euro-Wert einer Bitcoin wird davon ausgegangen, dass es innerhalb eines Jahres mit Wahrscheinlichkeit p = 0.95 zu einem Crash kommen wird. Der Crash-Zeitpunkt τ ist dabei exponentialverteilt mit dem Parameter λ. Gleichzeitig nehmen wir an, dass der Euro-Wert b(t ) einer Bitcoin (1 BTC) durch die Funktion ( b(t ) = 500 exp(t ) t ≤τ 0 τ<t gegeben ist. t bezeichnet dabei die Zeit in Jahren. (a) Berechnen Sie den Wert des Parameters λ. (b) Berechnen Sie den erwarteten Euro-Wert von 1 BTC zum Crash-Zeitpunkt. Lösung. (a) Die Dichte und die Wahrscheinlichkeitsfunktion der Exponentialverteilung sind gegeben durch p(t ) = λ exp (−λt ) , P (τ ≤ t ) = 1 − exp(−λt ). Aus P (τ ≤ 1) = 0.95 erhalten wir λ = − log (0.05) ≈ 2.9957. 1.10. STETIGE ZUFALLSVARIABLEN 53 (b) Erwarteter Preis zum Crash-Zeitpunkt ist Eb(τ) = 500 1.10 λ ≈ 750.5346. λ−1 Stetige Zufallsvariablen 113. Exponentialverteilung. Minima. Seien X 1 , . . . , X n stochastisch unabhängig und exponentialverteilt mit X i ∼ Ex(λi ) und λi > 0. Zeigen Sie, dass die Zufallsvariable X (1) = min {X 1 , . . . , X n } exponentialverteilt ist und dabei X (1) ∼ Ex(λ1 + · · · + λn ) gilt. 114. Exponentialverteilung. Dichte des Maximums. Seien X 1 , . . . , X n stochastisch unabhängig und exponentialverteilt mit X i ∼ Exp(λ) und λ > 0. Berechnen Sie die Dichtefunktion der Zufallsvariable X (n) = max {X 1 , . . . , X n }. Lösung. Die Verteilungsfunktion von X (n) ist ¡ ¢ P X (n) ≤ t = P (X 1 ≤ t , . . . , X n ≤ t ) = P (X 1 ≤ t )n ³ ´n = 1 − e −λt . Die Dichte von X (n) ist demnach ³ ´n−1 f (x) = n 1 − e −λx λe −λx . 115. Momente der Exponentialverteilung. Sei X exponentialverteilt mit dem Parameter λ > 0. X hat also die Dichte p(x) = λe −λx 1R≥0 (x) (a) Die Verteilungsfunktion von X ist gegeben durch h i P (X ≤ x) = 1 − e −λx 1R≥0 (x). (b) Die Momente der Exponentialverteilung sind für n ∈ N durch EX n = n! λn gegeben. (c) Der Erwartungswert und die Varianz der Exponentialverteilung sind EX = 1 λ Var X = 1 . λ2 54 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG Lösung. Wir berechnen Z P (X ≤ x) = x λe −λx 1R≥0 (x)d x Z−∞ x = λe −λx d x h0 i = −e −λx |0x h i = 1 − e −λx 1R≥0 (x). Die Momente erhalten wir mit Hilfe der partiellen Integration. n EX = Z ∞ Z0 ∞ x n λe −λx d x ³ ´0 x n −e −λx d x 0 Z ∞ ³ ´ ³ ´ n −λx ∞ = x −e |0 − nx n−1 −e −λx d x 0 Z n ∞ n−1 −λx = x λe dx λ 0 n = E X n−1 . λ = Mit E X 0 = E1 = 1 erhalten wir E X n = λn!n und daraus EX = 1 λ Var X = E X 2 − (E X )2 = 1 . λ2 116. Gedächtnislosigkeit der Exponentialverteilung. Sei X exponentialverteilt mit dem Parameter λ > 0. Dann gilt für x, h > 0 P (X > x + h | X > x) = P (X > h). Warum wird diese Eigenschaft von X Gedächtnislosigkeit genannt? 117. Momentenerzeugende Funktion der Exponentialverteilung. ponentialverteilt mit dem Parameter λ > 0. Sei X ex- (a) Die momentenerzeugende Funktion von X ist ψ(u) = E exp (uX ) = − λ u −λ für |u| < λ. (b) Berechnen Sie mit Hilfe von ψ(u) den Erwartungswert und die Varianz von X . 1.10. STETIGE ZUFALLSVARIABLEN 55 Lösung. Wir berechnen Z exp (ux) λe −λx 1R≥0 (x)d x Z ∞ =λ e (u−λ)x d x 0 µ ¶ 1 (u−λ)x ∞ e |0 =λ u −λ λ =− . u −λ ψ(u) = E exp (uX ) = R Um die Momente zu erhalten, brauchen wir nur noch die momentenerzeugende Funktion zu differenzieren. ∂ ψ(u)|u=0 = ∂u ∂2 ψ(u)|u=0 = EX 2 = ∂u 2 EX = 1 λ ∂ λ 2 = 2. 2 ∂u (u − λ) λ 118. Minimum von exponentialverteilten Zufallsvariablen. Seien X 1 , . . . , X n i.i.d. und exponentialverteilt mit X ∼ Exp(λi ) und λi > 0. Dann ist die Zufallsvariable Y = min {X 1 , · · · , X n } wieder exponentialverteilt und es gilt Y ∼ Exp(λ1 + · · · + λn ). 119. Gleichverteilung und Exponentialverteilung. Sei X stetig gleichverteilt auf dem Intervall [0, 1]. Zeigen Sie, dass die Zufallsvariable Y = − log X exponentialverteilt ist. Lösung. Y ist exponentialverteilt mit λ = 1. 120. Erlang-2-Verteilung. Sei X stetig verteilt mit der Dichte f (x) = λ2 xe −λx 1(0,+∞) (x) und dem positiven Parameter λ > 0. Berechnen Sie den Erwartungswert der Zufallsvariable Y = X1 . Lösung. E X1 = R∞ 0 1 2 −λx dx x λ xe = λ. 121. Stetige Gleichverteilung. Momente und Momentenerzeugende Funktion. Sei X stetig gleichverteilt auf dem Intervall (a, b) ⊂ R. Dies kann als X ∼ U (a, b) notiert werden. (a) Das n -te Moment E X n , für n ∈ N, ist EX n = ¢ 1 ¡ n 0 b a + · · · + b0 an . n +1 (b) Der Erwartungswert und die Varianz von X sind gegeben durch EX = 1 (b + a) 2 Var X = 1 (b − a)2 . 12 56 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG (c) Die momentenerzeugende Funktion von X ist ψ(u) = E exp (uX ) = ³ ´ 1 e ub − e ua . u(b − a) Lösung. Berechnen wir zunächst die n -ten Momente n EX = 1 1(a,b) (x)d x b − a R Z b 1 xn d x b−a a µ n+1 ¶ x 1 |b b −a n +1 a ¢ 1 1 ¡ n+1 b − a n+1 b −a n +1 an b0 + · · · + a0bn . n +1 Z = = = = xn Wir brauchen nur noch n = 1, 2 einzusetzen. EX = a +b 2 EX 2 = b 2 + ab + a 2 3 Var X = (b − a)2 . 12 Die momentenerzeugende Funktion kann folgendermassen berechnet werden. ψ(u) = E exp (uX ) = Z R exp (ux) 1 1(a,b) (x)d x b−a Z b 1 = exp(ux)d x b−a a e ub − e ua = . u(b − a) Beachten Sie, dass diese Funktion an Null beliebig oft differenzierbar ist. 122. Stetige Gleichverteilung. Momente. Sei X stetig gleichverteilt auf dem Intervall [a, b] ⊂ R. Zeigen Sie folgende Aussagen: (a) Für k = 1, 2, . . . ist das k -te Moment E X k gegeben durch EX k = ´ 1 ³ k 0 b a + · · · + b0 ak . k +1 (b) Der Erwartungswert und die Varianz von X sind gegeben durch EX = 1 (b + a) 2 Var X = Lösung. Berechnen wir zunächst die n -ten Momente EX n = = = = = 1 1(a,b) (x)d x b − a R Z b 1 xn d x b−a a µ n+1 ¶ x 1 |b b −a n +1 a ¢ 1 1 ¡ n+1 b − a n+1 b −a n +1 an b0 + · · · + a0bn . n +1 Z xn 1 (b − a)2 . 12 1.10. STETIGE ZUFALLSVARIABLEN 57 Wir brauchen nur noch n = 1, 2 einzusetzen. EX = a +b 2 EX 2 = b 2 + ab + a 2 3 Var X = (b − a)2 . 12 123. Stetige Gleichverteilung ist nicht teilbar. Sei U stetig gleichverteilt auf dem Intervall [0, 1]. Zeigen Sie, dass es keine unabhängigen identisch verteilten Zufallsvariablen X und Y gibt, so dass X + Y = U gilt. 124. Cauchy-Verteilung. Gegenbeispiel. funktion f (x) = Sei X Cauchy-verteilt mit der Dichte- 1 . π(1 + x 2 ) Zeigen Sie folgende Aussagen: (a) Die Funktion f ist wirklich eine Dichtefunktion. (b) Der Erwartungswert EX existiert nicht. (c) Die Momente EX k existieren für alle k = 1, 2, . . . nicht. Lösung. (a) R dx a 2 +x 2 = 1 a arctan ax . (b) EX ist nicht definiert im Sinne von Lebesque, weil EX + = +∞ und EX − = +∞ gilt. (c) Gleiches folgt für EX n mit einer einfachen Abschätzung. 125. te Cauchy-Verteilung. Ein Gegenbeispiel. p(x) = Sei X Cauchyverteilt mit der Dich- 1 . π(1 + x 2 ) Zeigen Sie: (a) p ist wirklich eine Dichte. (b) Der Erwartungswert E X existiert nicht. (c) E X n existiert nicht, für alle positiven n ∈ N. (d) Die momentenerzeugende Funktion von X existiert für alle t 6= 0 nicht. 126. Cauchy-Verteilung ist hartneckig. Seien X 1 , . . . , X n unabhängig und Cauchyn Verteilt. Zeigen Sie, dass X 1 die gleiche Verteilung wie X 1 +···+X hat. n 127. Lévy-Verteilung. Dichtefunktion. mit den Parametern (µ, σ) ∈ R × R, σ > 0 ist (q f (x) = 0, σ − 23 2π (x − µ) Die Dichtefunktion der Lévy-Verteilung ³ ´ σ exp − 2(x−µ) , x ≥0 x < 0. Sei X ∼ N(0, σ1 ) normalverteilt mit σ > 0. Zeigen Sie, dass die Zufallsvariable verteilt mit den Parametern (0, σ) ist. 1 X2 Lévy- 58 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG Lösung. Für ein y > 0 gilt µ P Die Dichte von 1 X2 ¶ ¡ ¢ 1 ≤ y = P 1 ≤ yX2 2 X Ãs ! 1 =P ≤ |X | y µ µ ¶¶ 1 = 2 1−P X < p y à Ãs !! σ . = 2 1−Φ y erhalten wir durchs Differenzieren: Ãs ! µ ¶ ¶ µ ∂ 1 σ p 1 −3 2 P ≤ y = −2φ y σ − ∂y X2 y 2 r ¶ µ 3 σ σ y−2 . = exp − 2π 2y Daher ist 1 X2 ∼ Lévy(σ). 128. Mellin-Transformation. Sei X eine positive Zufallsvariable. Die MellinTransformierte T X (θ) von X ist definiert durch T X (θ) = EX θ für alle θ ∈ R für die der obige Erwartungswert existiert. Zeigen Sie folgende Aussagen: (a) Es gilt T X (θ) = ϕlog X (θ/i ) wenn alle obigen Ausdrucke wohldefiniert sind. (b) Sind X und Y positive und stochastisch unabhängige Zufallsvariablen, so gilt T X Y (θ) = T X (θ) TY (θ). (c) Es gilt TbX a (θ) = b θ T X (aθ) für alle b > 0 und alle a für die T X (aθ) existiert. 129. Normalverteilung. Momentenerzeugende Funktion und Momente. ¡ ¢ 2 X ∼ N µ, σ mit µ ∈ R und σ > 0. Die Dichte von X ist also µ ¶ 1 1 ³ x − µ ´2 f (x) = p exp − . 2 σ σ 2π Dann gilt (a) Die momentenerzeugende Funktion von X ist gegeben durch ψ(u) = exp µ ¶ 1 2 σu + µu . 2 (b) E X = µ, (c) Die Zufallsvariable Z = X −µ σ Var X = σ2 . ist standardnormalverteilt. Sei 1.10. STETIGE ZUFALLSVARIABLEN 59 Lösung. Wir berechnen die momentenerzeugende Funktion der Normalverteilung indem wir das Integral E exp(uX ) auf ein Integral der Dichte einer Normalverteilung zurückführen. ¡ ¢ 1 x−µ 2 1 e ux p e − 2 σ d x R σ 2π µ ¶ Z 1 1 (x − µ)2 = dx p exp ux − 2 σ2 R σ 2π ψ(u) = E exp(uX ) = Z Nun gilt für den Ausdruck im Exponenten ux − ¢ 1 (x − µ)2 1 ¡ = − 2 −2uσ2 x + x 2 − 2µx + µ2 2 2 σ 2σ ¢ 1 ¡ = − 2 x 2 − 2(σ2 u + µ)x + µ2 2σ ´ ¢2 1 ³¡ = − 2 x − (σ2 u + µ) − (σ2 u + µ)2 + µ2 . 2σ Eingesetzt in die obige Formel für ψ(u) ergibt das (σ2 u + µ)2 − µ2 2σ2 µ ¶ 1 2 2 = exp σ u + uµ . 2 ψ(u) = exp µ ¶Z ¶ µ 1 1 (x − σ2 u + µ)2 dx exp − p 2 σ2 R σ 2π Der Erwartungswert und die Varianz der Normalverteilung lassen sich nun durchs Differenzieren berechnen. ¡ ¢ ∂u ψ(u) = ψ(u) σ2 u + µ ¡ ¢2 ∂uu ψ(u) = ψ(u) σ2 u + µ + ψ(u)σ2 ⇒ ⇒ EX = µ E X 2 = µ2 + σ2 Daraus erhalten wir Var X = σ2 . X −µ Wenden wir uns nun Z = σ zu. Wir zeigen Z ∼ N (0, 1) indem wir die momentenerzeugende Funktion von Z berechnen. ψ Z (u) = E exp (uZ ) µ ¶ Z x−µ 1 1 ³ x − µ ´2 u σ = e dx p exp − 2 σ R σ 2π µ ¶ Z 1 x − µ 1 ³ x − µ ´2 = − dx p exp u σ 2 σ R σ 2π ¶ µ Z ¢ 1 1 ¡ = p exp − 2 −2uσ(x − µ) + x 2 − 2µx + µ2 d x 2σ R σ 2π µ ¶ Z ¢ 1 1 ¡ 2 2 2 = p exp − 2 (x − (uσ + µ)) − u σ d x 2σ R σ 2π µ 2¶ u . = exp 2 ψ Z ist die momentenerzeugende Funktion der Normalverteilung mit Parametern (0, 1). Was zu zeigen war. 60 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG 130. Normalverteilung. Momente. N. Zeigen Sie folgende Aussagen: Sei Z standardisiert normalverteilt und n ∈ (a) Für die geraden Momente von Z gilt die Formel ¡ ¢ (2n)! E Z 2n = n =: (2n − 1)!!. 2 · n! (b) Alle ungeraden Momente verschwinden, d.h. es gilt E (Z 2n+1 ) = 0. (c) Für σ > 0 und µ ∈ R gilt ! n à c 2 ¡ ¢n bX n σ2k (2k − 1)!! µn−2k . E σZ + µ = 2k k=0 Dies ist¡ die ¢Formel für die Momente mn einer normalverteilten Zufallsvariable X ∼ N µ, σ2 . Lösung. (a) Die momentenerzeugende Funktion der Standardnormalverteilung ist ψ(u) = exp µ ¶ u2 . 2 Diese Funktion lässt sich leicht ableiten. ψ(1) = ψu ψ(2) = ψ(1) u + ψ ψ(3) = ψ(2) u + 2ψ(1) ψ(4) = ψ(3) u + 3ψ(2) ψ(2n) = ψ(2n−1) u + (2n − 1)ψ(2n−2) . Wenn wir u = 0 einsetzen erhalten wir die Relation ¯ = (2n − 1)ψ2n−2 ψ(2n) ¯u=0 = ψ(2n) 0 0 und daraus ψ(2n) = (2n − 1)(2n − 3) · · · 1 = 0 2n! 2n! = n . (2n)(2n − 2) · · · 2 2 n! (b) Das Produkt der Dichte der Standardnormalverteilung und einer ungeraden Funktion x 2n+1 ist eine ungerade Funktion. Daher muss das Integral dieser Funktion über R verschwinden. (c) Die Formel wird mit Hilfe des binomischen Lehrsatzes hergeleitet. 131. Summen von normalverteilten Zufallsvariablen. Sind die Zufallsvariablen X 1 , . . . , X n unabhängig und normalverteilt mit X i ∼ N (νi , σ2i ), so ist die Summe wieder normalverteilt mit à ! n X i =1 Xi ∼ N n X i =1 νi , n X i =1 σ2i . 1.10. STETIGE ZUFALLSVARIABLEN 61 Lösung. Wir berechnen die momentenerzeugende Funktion der Zufallsvariable Pn i =1 X i und verwenden dabei die Unabhängigkeit von X 1 , · · · , X n . à E exp u n X ! Xi = i =1 n Y E exp (uX i ) i =1 = n Y à exp σ2i u 2 2 i =1 à = exp u2 ! + νi u Pn 2 i =1 σi 2 n X +u ! νi . i =1 Die momentenerzeugende Funktion, wenn sie in einer Umgebung von 0 existiert, charakterisiert eine Verteilung eindeutig. Die oben berechnete momentenerzeugende P Funktion gehört zu einer Normalverteilung mit dem Erwartungswert ni=1 νi und der Pn Varianz i =1 σ2i . 132. Dichte der multivariaten Normalverteilung. folgende Dichte hat, falls Rang(Σ) = p : p(x) = Zeigen Sie, dass X ∼ N p µ, Σ ¡ µ ¶ 1 > −1 exp − Σ (x − µ) . (x − µ) 2 det(Σ)1/2 (2π)p/2 1 133. Gaussche Zufallsvariablen und Unabhängigteit. Seien X und Y standardnormalverteilt und unabhängig. Dann sind die Zufallsvariablen U = Xp−Y und 2 V= Xp +Y 2 ebenfalls standardnormalverteilt und unabhängig. Lösung. Betrachte die Transformation der Zufallsvariable (X , Y )> mit der Matrix ¶ µ 1 −1 1 1 normiert mit p1 . 2 134. Log-Normalverteilung. Momente und Dichte. Sei X ∼ N (µ, σ2 ) normalverteilt, dann ist die Zufallsvariable Y = e X log-normalverteilt, was als Y ∼ L N (µ, σ2 ) notiert werden kann. Beweisen Sie folgende Eigenschaften der Log-Normalverteilung. (a) Die Dichte von Y ist durch f (t ) = µ µ ¶ ¶ 1 1 log t − µ 2 1R≥0 (x) p exp − 2 σ σt 2π gegeben. (b) Die Momente von Y sind ¶ µ n 2 σ2 EY n = exp µn + . 2 (c) Die momentenerzeugende Funktion ψY von Y existiert für alle t 6= 0 nicht. ¢ 62 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG Lösung. Sei φX die Dichte und Φ X die Verteilungsfunktion von X . Wir bemerken zunächst Z ¡ ¢ ¡ ¢ P e X ≤ t = P X ≤ log t = log t −∞ φ X (x)d x. für t > 0. Dies ist die Verteilungsfunktion von Y . Die Dichte von Y erhalten wir durchs Differenzieren. Z ¢ ∂ log t ∂ ¡ X P e ≤t = φ(x)d x ∂t ∂t −∞ ∂ = Φ(log t ) ∂t = φ(log t )t −1 . Die Momente der Log-Normalverteilung erhalten wir, indem wir die Beziehung Y = e X benutzen. n EY = Ee nX ¶ µ 1 1 ³ x − µ ´2 = e dx p exp − 2 σ R σ 2π µ ¶ Z ¢ 1 1 ¡ 2 2 2 = p exp − 2 x − 2xµ + µ − 2nσ x d x 2σ R σ 2π µ ¶ Z ¢ 1 1 ¡ n 2 σ2 2 2 = d x. p exp − 2 x − (µ + nσ ) + µn + 2σ 2 R σ 2π Z nx Daraus ergibt sich · ¸ n 2 σ2 EY = exp µn + . 2 i 2 n h Insbesondere gilt EY = exp µ + σ2 . Die momentenerzeugende Funktion kann mit der gleichen Methode untersucht werden. Nehmen wir zunächst an, dass X standardnormalverteilt ist. Dann gilt ¡ ¢ ψY = E exp (uY ) = E exp ue X µ 2¶ Z x ue x 1 = e dx p exp − 2 R 2π µ ¶ Z 1 x2 = p exp ue x − dx 2 R 2π µ µ ¶ ¶ Z 1 x2 x3 x2 ≥ p exp u 1 + x + + − d x. 2 6 2 R 2π Der Ausdruck im Exponenten divergiert für x → ∞ und u > 0. Das Integral muss also auch divergent sein, und die momentenerzeugende Funktion existiert nur für u = 0. Die oben bewiesene Aussage gilt auch allgemein für X ∼ N (µ, σ2 ), denn ¡ ¢ Ee uY = E exp e u(σX +µ) = Z µ 2¶ ¡ ¢ 1 x exp ue σx+µ p exp − d x. 2 R 2π 135. Log-Normalverteilung. Dichtefunktion. Ist X ∼ N(µ, σ2 ) normalverteilt, dann ist die Zufallsvariable Y = e X log-normalverteilt mit Parametern µ und σ2 . Zeigen Sie, dass die Dichtefunktion von Y durch f (x) = 1 p exp σx 2π 0, gegeben ist. µ ³ ´2 ¶ 1 log x−µ −2 , σ x ≥0 x <0 1.10. STETIGE ZUFALLSVARIABLEN 63 136. Log-Normalverteilung. Momente. Ist X ∼ N(µ, σ2 ) normalverteilt, dann ist die Zufallsvariable Y = e X log-normalverteilt mit Parametern µ und σ2 . Zeigen Sie folgende Aussagen: (a) Für die Mellin-Transformierte TY von Y gilt TY (k) = E Y k , k = 1, 2, . . . . (b) Die Momente mk von Y sind gegeben durch µ ¶ σ2 k 2 m k = E Y = exp µk + . 2 k 137. Normalverteilung. Abweichungen vom Mittelwert. normalverteilte Zufallsvariable X ∼ N (µ, σ2 ). Wir betrachten die (a) Berechnen Sie die Wahrscheinlichkeiten P (X − µ ≥ nσ) für n ∈ {1, 2, 6}. (b) Berechnen Sie die Wahrscheinlichkeiten P (|X − µ| ≥ nσ) für n ∈ {1, 2, 6}. (c) Ändern sich die Ergebnisse in (a) und (b), wenn ≥ durch > ersetzt würde? Lösung. P (|X − µ| ≥ nσ) = 2 − 2P (Z ≤ n). Standarisierung und folgende Tabelle liefert die Lösung. In [1]: from scipy.stats import norm In [5]: [ norm.cdf(i) for i in range(7) ] Out[5]: [0.5, 0.84134474606854293, 0.97724986805182079, 0.9986501019683699, 0.99996832875816688, 0.99999971334842808, 0.9999999990134123] 138. Verteilung der Stichprobenvarianz. Seien X 1 , . . . , X n i.i.d., normalverteilt ¢2 P ¡ und Var (X 1 ) = σ2 . Für das zweite zentrierte empirische Moment σ̂2 (X ) = n1 ni=1 X i − X̄ gilt, dass n µ X − X̄ ¶2 n σ̂2 (X ) X i ∼ χ2n−1 . = σ2 σ i =1 139. Symmetrische Zufallsvariablen. Eine Zufallsvariable X nennen wir symmetrisch, wenn die Verteilungen von X und −X gleich sind. Zeigen Sie folgende Aussagen: (a) Hat X eine Dichtefunktion f , so ist X symmetrisch genau dann, wenn f (x) = f (−x) für alle x ∈ R gilt. (b) Die charakteristische Funktion ϕ X (t ) einer symmetrischen Zufallsvariable X ist reellwertig. (c) Seien X + = max {X , 0} und X − = max {−X , 0}. X ist symmetrisch genau dann, wenn die Verteilungen von X + und X − gleich sind. 64 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG Lösung. (a) (b) Das folgt mit Hilfe der Euler’schen Formel. (c) 140. Rayleigh-Verteilung. Dann ist Seien X und Y unabhängig und N (0, σ2 )-verteilt. Z= p X2 +Y 2 Rayleigh-verteilt. Zeigen Sie: (a) Z hat die Dichte z − z 22 e 2σ 1R>0 (z). σ2 p (b) Es gilt E (Z ) = σ π/2 und Var (Z ) = σ2 2 − π2 . 141. ¡ ¢ Beta-verteilung. Sei X eine Beta(2, 2)-verteilte Zufallsvariable. (a) Geben Sie die Dichte und Verteilungsfunktion von X explicit an. (b) Geben Sie die Dichte und Verteilungsfuntion der Zufallsvariable Y = 1 X − 1 an. (c) Berechnen Sie EY . 142. Gamma-Verteilung. Momente. Gegeben sei eine Gamma-verteilte Zufallsvariable X mit der Dichte p a,λ (x) = λa a−1 −λx x e 1R≥0 (x) Γ(a) und Parametern a > 0 und λ > 0. Zeigen Sie für ein positives n ∈ N EXn = a · . . . · (n + a − 1) . λn Dabei können Sie die Identität Γ(a + 1) = aΓ(a), a ∈ R \ {−1, −2, . . .}, verwenden. [Klausur WS11] Lösung. EXn λa a−1 −λx x e dx Γ(a) 0 Z a · . . . · (a + n − 1) ∞ λa+n x a+n−1 e −λx d x λn 0 Γ(n + a) a · . . . · (a + n − 1) λn Γ (a + n) . λn Γ (a) Z = = = = ∞ xn 1.10. STETIGE ZUFALLSVARIABLEN 65 143. Momentenerzeugende Funktion einer Gamma-Verteilung. Zeigen Sie, dass für s < λ ¡ ¢ Ψ X (s) = E e s X = Sei X ∼ Gamma(a, λ). λa (λ − s)a gilt. Bestimmen Sie damit den Erwartungswert und die Varianz von X . 144. Transformationen der Gamma-Verteilung. Seien X ∼ Gamma(α1 , β) und Y ∼ Gamma(α2 , β) zwei unabhängige Zufallsvariablen. Beweisen Sie: (a) Ist c > 0 so gilt c X ∼ Gamma(α, β ). c (b) X + Y ∼ Gamma(α1 + α2 , β). (c) (d) X ∼ Beta(α1 , α2 ). X +Y X X +Y und X + Y sind unabhängig. Für die Beweise der letzten zwei Aussagen können Sie den Transformationssatz verwenden. 145. Gamma-Verteilung und Exponentialverteilung. Seien E 1 , E 2 ∼ Exp(λ) exponentialverteilt mit dem Parameter λ > 0 und G ∼ Gamma(a, λ) Gamma-verteilt mit den Parametern a > 0 und λ > 0. E 1 , E 2 ,G seien unabhängig. Zeigen Sie die folgenden Aussagen mit Hilfe der Faltungsformel. (a) E 1 + E 2 ist Gamma-verteilt mit den Parametern (2, λ). (b) E 1 +G ist Gamma-verteilt mit den Parametern (a + 1, λ). Lösung. Sei p(x) = λe −λx 1R≥0 (x) die Dichte der Exponentialverteilung und g (x) = λa a−1 −λx x e 1R≥0 (x) Γ(a) die Dichte der Gamma-Verteilung. Zunächst stellen wir Exp(λ) = Gamma(1, λ) fest. Mit Hilfe der Faltungsformel Z f E 1 +G (z) = R p(z − y)g (y)d y 66 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG können wir die Dichte der Zufallsvariable E 1 +G berechnen. Z f E 1 +G (z) = R Z = R p(z − y)g (z)d y λe −λ(z−y) 1R≥0 (z − y) λa a−1 −λy y e 1R≥0 (y)d y Γ(a) Z λa+1 −λz z a−1 y dy = e Γ(a) 0 λa+1 −λz z a = e 1R (z) Γ(a) a ≥0 λa+1 a −λz z e 1R≥0 (z). = Γ(a + 1) f E 1 +G ist also die Dichte der Verteilung Gamma(a + 1, λ). 146. Mittelwertvergleich bei Gamma-Verteilungen. Seien X 1 , . . . , X n i.i.d. und Gamma(a, λ1 )-verteilt sowie Y1 , . . . , Yn i.i.d. und Gamma(a, λ2 )-verteilt. Man nehme an, dass die Vektoren (X 1 , . . . , X n ) und (Y1 , . . . , Yn ) unabhängig sind. Bestimmen Sie die Verteilung von X̄ /Ȳ . 147. χ2 -Verteilung mit einem Freiheitsgrad. teilt. Zeigen Sie folgende Aussagen: Sei X standarisiert normalver- p (a) Die Verteilungsfunktion der Zufallsvariable X 2 ist 2 Φ( t ) − 1, wobei Φ die Verteilungsfunktion der standarisierten Normalverteilung bezeichnet. (b) Die Dichtefunktion von X 2 ist f (x) = x p 1 e− 2 2πx falls x>0, 0 sonst. ( 148. Dichte der χ2 -Verteilung. Seien X 1 , . . . , X n unabhängige und standardnorP malverteilte Zufallsvariablen. Dann folgt Y = ni=1 X i2 einer χ2 -Verteilung mit n Freiheitsgraden. p (a) Die Verteilungsfunktion von X 12 ist 2Φ( t ) − 1, wobei Φ die Verteilungsfunktion der Standardnormalverteilung bezeichnet. (b) Die Dichte von X 12 ist die Gamma( 21 , 12 )-Dichte. (c) Die Dichte von Y ist die Gamma( n2 , 21 )-Dichte, d.h. p(x) = 1 2 n 2 Γ( n2 ) x e− 2 x n−2 2 1R>0 (x). 1.11. STETIGE ZUFALLSVARIABLEN – TEXTAUFGABEN 67 Lösung. Wir berechnen zunächst die Verteilungsfunktion F von X 1 . Für ein positives t erhalten wir ¡ ¢ F (t ) = P X 2 ≤ t ¡ £ p p ¤¢ = P X ∈ − t, t Z pt = p φ(x)d x − t p p = Φ( t ) − Φ(− t ) p p p = Φ( t ) − (1 − Φ( t )) = 2Φ( t ) − 1. Das Differenzieren liefert die Dichte f von X 1 , und zwar p 1 p ¢ ∂ ¡ 2Φ( t ) − 1 = φ( t ) p ∂t t 1 1 =p e − 2 t 1R>0 (t ) 2πt 1 − 12 − 12 t =p t e 1R>0 (t ). 2Γ( 21 ) Dies ist die Gamma( 21 , 12 )-Dichte. Der Additionstheorem für Gamma-verteilte Zufallsvariablen mit gleichem Skalenparameter λ liefert die Dichte der χ2 -Verteilung mit n Freiheitsgraden. 1.11 Stetige Zufallsvariablen – Textaufgaben 149. Widerstände. Ein Automat produziert Widerstände, deren Werte erfahrungsgemäß Realisierungen einer normalverteilten Zufallsvariable mit µ = 1000 Ω und σ = 20 Ω sind. Widerstände außerhalb der Toleranzgrenzen von 960 Ω und 1050 Ω gelten als Ausschuss. (a) Wie viele von 950 Widerständen sind im Mittel Ausschuss? (b) Der Anteil der Widerstände mit einem Wert größer aus 1050 Ω soll auf durchschnittlich 0.1% gesenkt werden. Wie groß muss dann µ sein, wenn die mittlere quadratische Abweichung σ2 unverändert bleibt? 150. Lebensdauer der Glühlampen. Die Lebensdauer einer Glühlampe sei eine exponentialverteilte Zufallsvariable. Es sei bekannt, dass im Durchschnitt 75% der Glühlampen eine Mindestbrenndauer von 500 Stunden erreichen. Berechnen Sie Erwartungswert und Standardabweichung der Lebensdauer. Lösung. Aus X ∼ Exp(λ) mit P (X > 500) = 0.75 folgt λ = − p Var X = 1 λ log 0.75 500 = 0.0005753641. E X = = 1738.03 151. Radioaktivität. Eine radioaktive Substanz gebe im Verlauf von 7.5s im Mittel 3.87 α-Teilchen ab. Bestimmen Sie die Wahrscheinlichkeit dafür, dass (a) diese Substanz während einer Sekunde mindestens ein α-Teilchen emittiert, (b) zwischen der Emission zweier Teilchen mindestens zwei Sekunden vergehen, (c) die Zeit zwischen zwei Emissionen zwischen einer und zwei Sekunden liegt. 68 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG Lösung. X t ist Anzahl der Teilchen emmitiert im Laufe von [0, t ]. X t kann als Poisson(µt )k Verteilung modelliert werden. X t ∼ Poiss(µt ) mit P (X t = k) = k! e −µt . Es gilt E X t = Var X t = µt . E X 7.5 = 3.87 = 7.5µ impliziert µ = 3.87 7.5 = 0.516. (a) Wir nutzen die Homogenität der Poisson-Verteilung und berechnen P (X 1 > 0) = 1 − P (X 1 = 0) µ0 −µ e 0! = 1 − e −0.516 ≈ 0.4030966. = 1− (b) Die Zwischenankunftszeiten Ti sind Exponentialverteilt mit dem Parameter µ und es gilt P (Ti ≥ 2) = exp(−2 µ) ≈ 0.3562937. (c) Analog erhalten wir P (1 ≤ Ti ≤ 2) = e −µ − e −2µ ≈ 0.2406097. 152. Entfernungsmessung. Die Entfernung eines Objekts werde mit Hilfe eines Längenmessgerätes ermittelt. Dabei sei der gemessene Wert die Realisierung einer normalverteilten Zufallsvariable mit dem Erwartungswert µ und der Standardabweichung von σ = 40 m . Es sei bekannt, dass bei der Messung kein systematischer Fehler auftritt. Berechnen Sie die Wahrscheinlichkeit dafür, dass bei einem 2 500 m entfernten Objekt bei der Messung ein um 60 m bis 80 m zu großes Messergebnis ermittelt wird. Lösung. Für X ∼ N (2500, 160) berechne 3 P (2500 + 60 ≤ X ≤ 2500 + 80) = P (Z ≤ 2) − P (Z ≤ ). ≈ 0.04405707. 2 153. Ersatzteillieferung. Eine Ersatzteillieferung enthalte eine Kiste Kugellager, zwei Kisten Zahnräder und drei Kisten Schrauben. Die Masse der Kisten (Bruttogewicht in kg) kann durch unabhängige und normalverteilte Zufallsvariablen X , Y1 , Y2 , Z1 , Z2 , Z3 mit X ∼ N (125, 1), Yi ∼ N (84, 4) (i = 1, 2), Z j ∼ N (65, 3) ( j = 1, 2, 3) beschrieben werden. (a) Berechnen Sie die Wahrscheinlichkeit dafür, dass die Masse einer Ersatzteillieferung größer ist als 500 kg. (b) Wie viele solcher Ersatzteillieferungen darf man maximal auf einem Lastwagen laden, wenn die Gesamtmasse aller Ersatzteillieferungen mit einer Wahrscheinlichkeit von mindestens 99% unter 18 Tonnen liegen soll? 1.11. STETIGE ZUFALLSVARIABLEN – TEXTAUFGABEN 69 Lösung. (a) V := X + Y1 + Y2 + Z1 + Z2 + Z3 ∼ N(488, 18). P (V ≤ 500) = 0.002338867. 500−488 p 18 ≈ 2.8284271, und P (V > 500) = 1 − (b) Größes n ∈ N für das µ ¶ 18.000 − 488n P W≤ ≥ 0.99 p 18n gilt, ist n = 36. 154. Grenzverteilungsätze. Cloudrechner. Ein bestimmter Rechnertyp wird für eine Langzeitrechnung eingesetzt. Es ist bekannt, dass ein unter Volllast arbeitender Rechner innerhalb der Dauer der Berechnung T mit Wahrscheinlichkeit p = 0.006 ausfällt. Für die geplante Rechendauer werden n = 56 Rechner gebraucht. Es wird angenommen, dass die Rechner unabhängig von einander ausfallen und jeder Rechner höchstens ein mal ausgetauscht werden muss. Unter Verwendung eines geeigneten Grenzwertsatzes, beantworten Sie folgende Fragen: (a) Mit welcher Wahrscheinlichkeit fällt höchstens ein Rechner von den 56 Rechnern aus? (b) Wie viele Rechner müssen zusätzlich in der Reserve gehalten werden, damit die Rechnung mit 99% Wahrscheinlichkeit fertiggestellt werden kann. Lösung. Dies ist eine Anwendung des Grenzwertsatzes von Poisson. Es gilt np = 0.336 = λ und wegen np ≤ 10 und 1500p = 9 ≤ n hat die Approximation der Anzahl der Ausfälle Y ∼ Bin(n, p) mit Hilfe der Possionverteilung Poiss(λ) ausreichende Qualität. (a) Höchstens ein Rechner fällt mit Wahrscheinlichkeit P (Y ≤ 1) = πλ (0) + πλ (1) = e −λ (1 + λ) = 0.95473646937025258693 aus. (b) Wir haben auch P (Y ≤ 2) = 0.99507551444735739085. Es reicht also aus 2 Rechner in der Reserve zu halten. 155. Grenzverteilungsätze. Schaltkreise. Ein spezieller Schaltkreis sei mit der Wahrscheinlichkeit p = 0.7 voll funktionsfähig. Berechnen Sie die Wahrscheinlichkeit dafür, dass in einer gefertigten Serie von 1 000 Schaltkreisen (a) wenigstens 680 Schaltkreise voll funktionsfähig sind, (b) die Anzahl der voll funktionsfähigen Schaltkreise mindestens 675 aber höchstens 725 Stück beträgt. 70 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG Lösung. Wir verwenden den Grenzverteilungsatz in der Moivre-Laplace Version. P Dazu betrachten wir X 1 , . . . , X 1000 ∼ B (p) und i X i ∼ Bin(1000, p). Dann ist die Zufallsvariable P i X i − np Y =p np(1 − p) annähernd normalverteilt. Wir berechnen à P( X X i ≥ 680) = 1 − P i ! X X i < 680 i ÃP X i − np 680 − np = 1−P p <p np(1 − p) np(1 − p) i ! = 1 − P (Y < −1.380131) ≈ 0.9162269. Analog ist P (675 ≤ X X i ≤ 725) ≈ 0.9155021. i 156. Grenzverteilungsätze. Münzen. Eine ideale Münze werde n -mal geworfen. Berechnen Sie unter Nutzung von Grenzverteilungseigenschaften die Wahrscheinlichkeit dafür, dass (a) bei 100 Würfen die relative Häufigkeit für das Ereignis “Zahl” um weniger als 0.1 Einheiten von der Wahrscheinlichkeit 0.5 abweicht. (b) Wie oft müsste man die ideale Münze werfen, um mit mindestens 99%-iger Sicherheit eine Abweichung der relativen Häufigkeit von der Wahrscheinlichkeit zu erreichen, die kleiner ist als 0.1 Einheiten. (c) Lösen Sie die Aufgaben (a) und (b) alternativ mit Hilfe der TschebyscheffUngleichung und vergleichen Sie die Ergebnisse. Lösung. Die Anwendung des Satzes von Moivre-Laplace liefert à p ! ¡ ¢ nε P |Hn (A)p| ≤ ε = 2Φ p − 1 ≈ 0.9544997. p(1 − p) Für n = 166 wird gerade die 99% Wahrscheinlichkeit erreicht. Mit Hilfe der Tschbyschffschen Ungleichung erhält man die Abschätzung à ! 1X 1 P | X i − 0.5| ≤ ε > 1 − . n i 4nε2 (1.4) Für n = 100 und ε = 0.1 die obige Abschätzung gleich 0.8502994. Die 99%-ige Sicherheit erreichen wir erst bei n = 2500. 157. Grenzverteilungsätze. Kondensatoren. Die Wahrscheinlichkeit dafür, dass ein Kondensator während der Zeit T ausfällt, betrage 0.5. (a) Bestimmen Sie die Wahrscheinlichkeit dafür, dass von 100 solchen unabhängig voreinander arbeitenden Kondensatoren mehr als 60 Stück in der Zeit T ausfallen. 1.12. MEHRDIMENSIONALE VERTEILUNGEN. 71 (b) Wie viele Kondensatoren muss man mindestens in Reserve haben, damit nach der Zeit T mit einer Wahrscheinlichkeit von mindestens 95% alle ausgefallenen Kondensatoren ersetzt werden können? Lösung. (a) X ∼ B (p), Y = 100 i =1 ∼ Bin(100, 0.5), EY = np , Var Y = np(1−p) = 25. Wende den Grenzwertsatz von Moivre-Laplace da die Fausregel np(1 − p) > 9 erfüllt ist. P à ! 40 − np P (Y > 60) = P (Y < 40) ≈ Φ p = Φ(−2) = 0.02275013. np(1 − p) (b) P (Y ≤ x) = 0.95, Φ ¡ x−50 ¢ 5 ≥ 0.95 liefert x = 59. 158. Grenzverteilungsätze. Schaltgehäuse. Beim Gießen spezieller Schaltgehäuse trete ein Ausschussprozentsatz von 10% auf. Für einen reibungslosen Produktionsverlauf müssen je Gießvorgang (mindestens) 100 brauchbare Gehäuse hergestellt werden. Wie viel Gehäuse müssen mindestens bei einem Vorgang gegossen werden, um mit mindestens 99%-iger Sicherheit diese Forderung zu erfüllen? Lösung. Y ∼ x ≥ 2.326348. Pn i =1 X i , X i ∼ B (p), p = 1 − 0.1 = 0.9. P (Y ≥ 100) ≥ 0.99. Φ(x) ≥ 0.99, wenn np − 100 ≥ 2.3263 p np(1 − p) p p n − 2.3263 p(1 − p) n − 100 ≥ 100 p Φ−1 (0.99) p(1 − p) = 0.6979044 Optimierung liefert n = 108. TODO: Check this calculation. A student reports n = 119, which is more plausible than 104. 1.12 Mehrdimensionale Verteilungen. 159. Korrelationskoeffizient. Eigenschaften. Seien X und Y Zufallsvariablen mit existierenden und endlichen Varianzen σ2X , σ2Y und bezeichne mit ρ X ,Y den Korrelationskoeffizienten von X und Y . Zeigen Sie folgende Aussagen: (a) Für a > 0, c > 0 und b, d ∈ R gilt ρ aX +b,cY +d = ρ X ,Y . Geben Sie eine Interpretation dieser Aussage an. (b) Für a 6= 0 und b ∈ R gilt ρ X ,aX +b = (c) Sei Z= a . |a| ρ X ,Y Y − X. σY σX Dann gilt σ2Z = 1 − ρ 2X ,Y . 72 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG Lösung. Cov(aX + b, cY + b) = ac Cov(X , Y ). Var a X = a 2 Var X . 160. Bivariate Normalverteilung. Maximum. Seien (X , Y ) bivariat normalverteilt mit EX = EY = 0, D2 Y = D2 X = 1 und ρ X Y dem Korrellationskoeffizienten von X und Y Zeigen Sie, dass r E [max {X , Y }] = 1−ρ π gilt. 161. Korrelation und Symmetrie. Eine Zufallsvariable X nennen wir symmetrisch, wenn die Verteilungen von X und −X gleich sind. Seien X eine stetige Zufallsvariable mit endlicher Varianz und Y = |X |. Beweisen Sie: Ist X symmetrisch, so sind X und Y unkorreliert aber nicht unabhängig. Lösung. Ist X symmetrisch, so sind X + und X − gleichverteilt und Cov(X , |X |) = D2 X + − D2 X − = 0. Klarerweise sind X und |X | nicht unabhängig. 162. Gleichverteilung auf dem Einheitskreis. Sei (X , Y ) ein Zufallsvektor mit der (zweidimensionalen) Dichtefunktion f (x, y) = ( π−1 , falls x 2 + y 2 ≤ 1 sonst. 0, (a) Berechnen Sie die Randdichten f X (x) und f Y (y), und zeigen Sie, dass dies tatsächlich Dichten sind. (b) Berechnen Sie die Erwartungswerte E X und EY . (c) Zeigen Sie, dass die Zufallsvariablen X und Y unkorreliert sind. (d) Zeigen Sie, dass die Zufallsvariablen X und Y nicht unabhängig sind. Lösung. (a) Die Randdichte f X (x) ist gegeben durch Z f X (x) = f (x, y)d y Z = x 2 +y 2 ≤1 Z = p 1−x 2 π−1 d y π p − 1−x 2 −1 dy 2p 1 − x 2 1[−1,1] . π = (b) Erwartungswert von X ist demnach EX = Z 1 x −1 2p 1 − x 2d x = 0 π da wir eine ungerade Funktion bezüglich eines um 0 symmetrischen Intervalls integrieren. 1.12. MEHRDIMENSIONALE VERTEILUNGEN. 73 (c) Cov(X , Y ) = E (X − E X ) (Y − EY ) = EX Y Z 1Z = p 1−x 2 p −1 − 1−x 2 1 Z = xπ−1 µ −1 x yπ−1 d yd x y2 2 ¶ p 1−x 2 dx p − 1−x 2 = 0. Die Zufallsvariablen X und Y sind daher unkorreliert. ⊥ Y folgt f (x, y) = h(x)g (y) für alle (x, y) ∈ R2 . Für x = 1 ergibt sich g (y) ∼ 1 y=0 . (d) Aus X ⊥ g ist aber keine Dichte. Widerspruch. 163. Gleichverteilung auf der Ellipse. Sei (X , Y ) ein Zufallsvektor mit der (zweidimensionalen) Dichtefunktion f (x, y) = ¡ ¢2 ( (πab)−1 , falls ax sonst, 0, + ¡ y ¢2 b ≤1 und reellwertigen Parametern a, b > 0. (a) Berechnen Sie die Randdichten f X und f Y . (b) Berechnen Sie die Erwartungswerte E X und EY . (c) Zeigen Sie, dass die Zufallsvariablen X und Y unkorreliert sind. Lösung. Die Lösung ist eine einfache Verallgemeinerung der Berechnung für die Gleichverteilung auf dem Einheitskreis. (a) Die Randdichte f X (x) ist gegeben durch Z f X (x) = f (x, y)d y r ³ x ´2 2 = 1− 1[−a,a] (x). πa a (b) Erwartungswert von X ist demnach EX = a Z −a x f X (x)d x = 0 da wir eine ungerade Funktion bezüglich eines um 0 symmetrischen Intervalls integrieren. (c) Cov(X , Y ) = E (X − E X ) (Y − EY ) = EX Y Z bZ = = p b 1−x 2 /a 2 xy d yd x p −b −b 1−x 2 /a 2 πab p µ 2 ¶b 1−x 2 /a 2 Z b x y −b πab 2 dx p −b 1−x 2 /a 2 Die Zufallsvariablen X und Y sind daher unkorreliert. = 0. 74 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG 164. Bedingte Dichten. Ein Rechenbeispiel. Sei (X , Y ) ein Zufallsvektor mit der Dichtefunktion ( f (x, y) = 3 5 y(x + y), falls 0 < x < 2 und 0 < y < 1 sonst. 0, (a) Bestimmen Sie die Randdichten von X und Y . (b) Bestimmen Sie die bedingte Dichte f Y |X =x (y), für x ∈ (0, 2). (c) Zeigen Sie, dass P (Y ≤ 12 | X = 1) = 15 gilt. Lösung. (a) Wir berechnen die Randdichten f X und f Y : Z f X (x) = f (x, y)d y 1 3 y(x + y)d y 0 5 Z 1 Z 3 1 2 3 yd y + y dy = x 5 0 5 0 µ ¶ 3 1 = x + 1[0,2] (x). 10 5 Z f Y (y) = f (x, y)d x Z 2 3 = y(x + y)d x 5 µ0 ¶ ¢ 6 ¡ = y y + 1 1[0,1] (y). 5 Z = (b) Bedingte Dichte f Y |X =x (y) is gegeben durch f (x, y) f X (x) y(x + y) = 1[0,2] (y). x/2 + 1/3 f Y | X =x (y) = (c) µ ¶ Z 1/2 1 P Y ≤ |X =1 = f Y | X =1 (y)d y 2 0 Z 6 1/2 1 = y(1 + y)d y = . 5 0 5 165. Bivariate Rademacherverteilung. Sei X = (X 1 , X 2 ) ein Zufallsvektor mit X k ∈ {−1, 1}, k = 1, 2 und P (X 1 = i , X 2 = j ) = p i j wobei µ p −1,−1 p 1,−1 ¶ µ ¶ 1 1 3 p −1,1 = . p 1,1 8 3 1 1.13. QUANTILE 75 (a) Zeigen Sie dass X 1 und X 2 Rademacherverteilt sind, d.h. 1 P (X k = −1) = P (X k = 1) = . 2 Berechnen Sie dabei die Wahrscheinlichkeitsfunktionen von X 1 und X 2 . (b) Berechnen Sie den Korrelationskoeffizienten von X 1 und X 2 . (c) Berechnen Sie die Kovarianzmatrix Σ des Zufallsvektors X. (d) Sind die Zufallsvariablen X 1 und X 2 stochastisch unabhängig? Lösung. Wegen E X 1 = E X 2 = 0 gilt Cov(X 1 , X 2 ) = E X Y und P (X 1 X 2 = 1) = 1 4 P (X 1 X 2 = −1) = 6 8 1 EX 1 X 2 = − . 2 Es gilt daher 1 ρ X 1 ,X 2 = − . 2 Die Kovarianzmatrix Σ von X ist demnach µ 1 Σ= 1 −2 1.13 ¶ −1/2 . 1 Quantile 166. Exponentialverteilung. Quantile. dem Paramter λ > 0 und γ ∈ (0, 1) gegeben. Seien X ∼ Ex(λ) exponentialverteilt mit (a) Berechnen Sie das γ-Quantil zur X . (b) Berechnen Sie den Median von X . Lösung. Dichte und Verteilungsfunktionen der Exponentialverteilung sind f (x) = λe −λx 1x≥0 ³ ´ F (x) = 1 − e −λx 1x≥0 . Daraus ergibt sich für γ ∈ (0, 1) ¡ ¢ 1 q γ = F −1 (γ) = − log 1 − γ . λ Median ist damit gleich − λ1 log 21 . 76 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG 167. Logistische Verteilung. Quantile. Eine Zufallsvariable heißt logistisch verteilt mit den Parametern α ∈ R und β > 0, wenn ihre Dichtefunktion die Gestalt f (x) = − x−α β e ³ ´ − x−α 2 β 1+e β hat. (a) Zeigen Sie, dass die Verteilungsfunktion von X durch 1 F (x) = 1+e − x−α β gegeben ist. (b) Berechnen Sie das γ-Quantil zur X für ein γ ∈ (0, 1). (c) Berechnen Sie den Median von X . Lösung. Die Quantilfunktion ist gegeben durch Q(γ) = α − β log µ ¶ 1 −1 . γ Der Median ist Q(0.5) = α. 1.14 Erwartungstreue Schätzung der Varianz bei bekanntem Erwartungswert. Sei X 1 , . . . , X n , n > 1 eine n -elementige Stichprobe mit E X i = µ und Var X i = σ2 > 0 gegeben. Zeigen Sie, 168. dass die Schätzfunktion V 2 (X 1 , . . . , X n ) = n ¡ ¢2 1X Xi − µ n i =1 erwartungstreu für σ2 ist. 169. Diskrete Gleichverteilung. Erwartungstreuer Schätzer. Seien X 1 , . . . , X k i.i.d. und diskret gleichverteilt auf {1, . . . , N } mit N > 1. Zeigen Sie, dass der Schätzer T (X 1 , . . . , X k ) = k +1 X (k) − 1 k erwartungstreu für N ist. X (k) bezeichnet dabei das Maximum von {X 1 , . . . , X k }. 170. Log-Normalverteilung. Erwartungstreuer Schätzer. und log-normalverteilt mit der Dichtefunktion ( f (x) = p1 exp x 2π ³ − (log x−µ)2 2 ´ , x ≥0 x <0 0, und dem Parameter µ ∈ R. Zeigen Sie, dass der Schätzer T (X 1 , . . . , X n ) = erwartungstreu für µ ist. n 1X log X i n i =1 Seien X 1 , . . . , X n i.i.d. 1.15. EINFACHE SCHÄTZER 77 Lösung. Aus der Definition der Log-Normalverteilung oder durch direktes Berechnen, erhalten wir EX 1 = µ. Damit ist T erwartungstreu. 1.15 Einfache Schätzer 171. Einfache Schätzer. Telefonzentrale. In einer Telefonzentrale wurden für 11 aufeinanderfolgende Anrufe die Zeitabstände zwischen zwei Anrufen ermittelt. Es ergaben sich die folgenden Werte: 38.1 74.1 17.7 17.7 1.2 13.2 22.8 35.7 108.6 20.7 Geben Sie auf der Grundlage dieser Stichprobenwerte je eine Schätzung für den mittleren Zeitabstand und die mittlere quadratische Abweichung der Zeitabstände vom Erwartungswert an. Diskutieren Sie die Eigenschaften dieser Schätzfunktionen. Lösung. Erwartungstreue Schätzfunktionen für den Erwartungswert und die Varianz sind X̄ n = n 1X Xn n i =1 S n2 = n ¡ ¢2 1 X X i − X̄ n . n − 1 i =1 Für diese Stichprobe gilt 10 X X i = 349.8 i =1 X̄ n = 34.98 S n2 = 1058.384. 1.16 Konfidenzintervalle 172. Kondensatoren. Konfidenzintervall. Aus einer Lieferung von Kondensatoren wurden n Stück zufällig ausgewählt und folgende Kapazitäten (in µF) festgestellt: 281 221 220 221 219 221 220 218 222 219 (a) Berechnen Sie je eine Schätzung für den Erwartungswert und für die Varianz der Kapazität. (b) Berechnen Sie auf der Grundlage dieser Stichprobenergebnisse je ein zweiseitiges Konfidenzintervall für den Mittelwert und die Varianz der Kapazität zum Konfidenzniveau 1 − α = 0.95. Von welchen Verteilungsvoraussetzungen gehen Sie dabei aus? 78 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG Lösung. (a) X̄ n = 226.2 = µ̄, S n2 = 372.1778 = σ̄2 . (b) Wir nehmen an, dass X ∼ N(µ̄, σ̄2 ) gilt. Für die Berechnung des Konfidenzintervall für µ bei unbekannter Varianz benutzen wir die Beziehung X̄ n − µ ∼ t n−1 . Sn Daraus folgt µ ¶ X̄ n − µ p P −t n−1,1− α2 ≤ n ≤ t n−1,1− α2 = 1 − α. Sn Die t n -Verteilung ist symmetrisch – das folgt aus der Konstruktion: Für X ∼ N(0, 1) und Y ∼ χ2n ist X ∼ tn . p Y /n Insgesamt bekommen wir µ ¶ Sn Sn P X̄ n − t n−1,1− α2 p ≤ µ ≤ X̄ n + t n−1,1− α2 p = 1 − α. n n Konkret in unserem Fall heißt das t 9,1− 0.05 = 2.262 2 ¡ ¢ P µ ∈ [212, 240] = 0.95. 0.95-Konfidenzintervall für die Varianz ist [176.08, 1057.25] . 173. Krankenversicherung. Konfidenzintervall. Einer Krankenversicherung seien für eine spezielle Gruppe von 15 Versicherungsnehmern mittlere Kosten in Höhe von x̄ n = 5 500 EUR bei einer Stichprobenstandardabweichung s n = 1 500 EUR entstanden. (a) Geben Sie ein zweiseitiges Konfidenzintervall für die mittleren Kosten zum Konfidenzniveau 1 − α = 0.95 an. (b) Die Versicherung habe ihren Tarif unter der Annahme kalkuliert, dass die mittleren Kosten 5 000 EUR betragen. Diskutieren Sie anhand des erhaltenen Konfidenzintervalls, ob eine Neukalkulation des Tarifs angezeigt erscheint. Lösung. (a) Konfidenzintervall für µ bei unbekannter Varianz ist µ ¶ Sn Sn P X̄ n − t n−1,1− α2 p ≤ µ ≤ X̄ n + t n−1,1− α2 p = 1 − α. n n Konkret heißt das in diesem Fall ¡ ¢ P µ ∈ [5500 − 830.6723, 5000 + 830.6723] = 0.95 ¡ ¢ P µ ∈ [4669.328, 6330.672] = 0.95 (b) 5000 liegt im Konfidenzintervall, es gibt also keinen Grund unruhig zu werden. 1.16. KONFIDENZINTERVALLE 79 174. Qualitätssicherung. Konfidenzintervall. Zur Schätzung des Ausschussanteils eines umfangreichen Lieferpostens werde diesem eine Stichprobe von 200 Teilen entnommen. Dabei wurden 190 einwandfreie Teile festgestellt. (a) Geben Sie eine Schätzung für den Ausschussanteil an. (b) Wie groß kann maximal die Varianz der Schätzung sein? (c) Berechnen Sie ein Konfidenzintervall für den Ausschussanteil zum Konfidenzniveau 0.95 und interpretieren Sie das Ergebnis. Lösung. (a) Es gilt P200 i =1 X i ∼ B(200, p). Die Schätzung für den Anteil ist die Schätzung für p . p̂ = n 1X Xi n i =1 1 ist ein Erwartungstreuer Schätzer für p . Für die obige Stichprobe gilt p̂ = 20 . (b) Varianz von p̂ ist var p̂ = 1 p(1 − p) n Diese wird maximal für p = 12 und beträgt in diesem Fall V?2 = 1/800. Maximale Standardabweichung ist demnach V? = 201p2 . (c) Nach dem Satz von Moivre/Laplace gilt ¶ µ p(1 − p) . X̄ n ≈ N p, n ¡ ¢ Die Annahme X̄ n ≈ N p,V? führt zur Vergrößerung des Konfidenzintervalls. Wir erhalten so µ ¶ X̄ − p P z α2 ≤ p ≤ z 1− α2 = 1 − α V? ³ ´ p p P X̄ n − V? z 1− α2 ≤ p ≤ X̄ n + V? z 1− α2 = 1 − α ¡ ¢ P −0.01929519 ≤ p ≤ 0.1192952 = 0.95. Nachdem p̂ ≥ 0 gelten muss erhalten wir ¡ ¢ P 0 ≤ p ≤ 0.1192952 = 0.95. Negatives Intervall kommt durch die normale Approximation zustande. Alternative Lösung. Es kann auch mit Hilfe der Tabelle vorgegangen werden. Die Grenzen des Konfidenzintervalls sind s U = X̄ n − z 1− α2 s O = X̄ n + z 1− α2 X̄ n (1 − X̄ n ) n X̄ n (1 − X̄ n ) n 80 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG Mit α = 0.05, z 0.975 = 1.96, s X̄ n (1 − X̄ n ) = 0.154 n ergibt sich [0.0198, 0.0802] als Konfidenzintervall für den Ausschussanteilt p . 175. Justierung. Konfidenzintervall. Bei einer Arbeitsstudie wurden folgende Werte für die Zeitdauer der Justierung eines Gerätes gemessen: Minuten: 3 4 5 6 8 9 Haeufigkeiten: 2 4 7 12 4 1 (a) Geben Sie erwartungstreue Schätzungen für den Erwartungswert und die Varianz der Zeitdauer an. (b) Bestimmen Sie ein zweiseitiges Konfidenzintervall zum Konfidenzniveau 1 − α = 0.9 für den Erwartungswert der Zeitdauer. (c) Ermitteln Sie eine obere Grenze für die Standardabweichung der Zeitdauer, so dass mit 95%-iger Sicherheit der wahre Wert von σ überdeckt wird. Geben Sie dabei alle notwendigen Voraussetzungen an. Lösung. (a) Erwartungstreue Schätzungen: Y <- c(3,4,5,6,8,9) H <- c(2,4,7,12,4,1) mu <- sum(Y*H)/sum(H) mu # 5.666667 s <- sqrt( sum(H*(Y - mu)^2)/(sum(H)-1 ) ) s # 1.470007 Es ist also X̄ n = 5.666667 und S n = 1.470007. (b) Unter der Annahme, dass die Justierungen normalverteilt sind erhalten wir ein (1 − α)-Konfidenzintervall für µ bei unbekannter Varianz: ¡ ¢ P U ≤ µ ≤O = 1−α Sn U (X 1 , . . . , X n ) = X̄ n − t n−1,1−α/2 p n Sn O(X 1 , . . . , X n ) = X̄ n + t n−1,1−α/2 p . n In diesem Fall heißt das: 1.17. TESTS 81 mu - qt(1-alpha/2, 30-1)*s/sqrt(30) # 5.210646 mu + qt(1-alpha/2, 30-1)*s/sqrt(30) # 6.122687 (c) Ein Konfidenzintervall für σ2 bei unbekanntem µ erhalten wir aus µ ¶ (n − 1)S n2 2 2 P χn−1,α/2 ≤ ≤ χn−1,1−α = 1 − α σ2 ¡ ¢ P U ≤ σ2 ≤ O = 1 − α U= O= (n − 1)S n2 χ2n−1,1−α/2 (n − 1)S n2 χ2n−1,α/2 Einseitiges Konfidenzintervall für σ ist dann p n − 1S n 0, q . χ2n−1,α Für α = 0.05 heißt das konkret [0, 1.881174] . 1.17 Tests 176. Waschmittel. Test. Bei einem Verbrauchertest für Waschmittel werde auch die Abfüllmenge kontrolliert. Dabei ergaben sich bei 10 zufällig ausgewählten 5 kg Packungen einer bestimmten Sorte folgende Abfüllungen (in kg): 4.6 4.95 4.8 4.9 4.75 5.05 4.9 5.1 4.8 4.95 (a) Bestimmen Sie Schätzungen für den Erwartungswert und die Varianz der Abfüllmenge. (b) Ist auf der Basis dieser Beobachtung die Auffassung vertretbar, dass die Packungen im Mittel weniger Waschmittel als angegeben enthalten? Lösung. (a) Erwartungstreue Schätzungen: X <- c( 4.6, 4.95 , 4.8, 4.9 , 5.1 , 4.8 , 4.95 mean(X) # 4.88 var(X) # 0.02177778 4.9 , 4.75, ) 5.05 , 82 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG Es ist also X̄ n = 4.88 und S n2 = 0.02177778. (b) Wir testen H0 : µ ≥ µ0 gegen H1 : µ < µ0 mit µ0 = 5 und verwenden die Teststatistik T= X̄ n − µ0 p n ∼ t n−1 . Sn Als kritischer Bereich ergibt sich K α = (−∞, −t n−1,1−α ). Für α = 0.05 und n = 9 erhalten wir zum Beispiel K 0.05 = (−∞, −1.833113). Ebenso K 0.01 = (−∞, −2.821438). Der Wert der Teststatistik T ist −2.439471. Die Nullhypothese wird also mit Irtumswahrscheinlichkeit α = 0.05 verworfen, kann aber bei α = 0.01 nicht verworfen werden. 177. Messgerät. Test. Die Genauigkeit eines Messgerätes verschlechtere sich im Laufe der Zeit infolge von Abnutzungserscheinungen. Das Messgerät gelte als brauchbar, solange die Varianz σ2 des Messfehlers einen Wert von 10−4 nicht überschreitet. Darf man bei einer zugelassenen Irrtumswahrscheinlichkeit α = 0.05 auf die Brauchbarkeit des Messgerätes schließen, wenn aus 25 Kontrollwerten für die Varianz eine Schätzung s 2 = 0.65 · 10−4 ermittelt werde? Lösung. Wir wollen auf Brauchbarkeit des Geräts schließen, daher testen wir H0 : σ2 ≥ σ20 gegen H1 : σ2 < σ20 mit σ20 = 10−4 . Der Kritische Bereich ist ( K= T= (n − 1)S n2 σ20 ) < χ2n−1,α . Der Wert der Teststatistik ist T = 15.6. Dabei ist χ2n−1,α = 13.84843. Die Nullhypothese kann also nich verworfen werden. 178. Entfernungsmessung. Konfidenzintervall und Test. Beim Messen der Entfernung zwischen zwei Punkten sei der Messwert die Realisierung einer N (µ, σ2 )verteilten Zufallsvariable. Aus 20 Messungen einer bestimmten Entfernung ergaben sich die folgenden Schätzwerte: x̄ = 327.0 m, s 2 = 17.3 m2 . (a) Bestimmen Sie ein 99%-iges Konfidenzintervall für den Erwartungswert. (b) Geben Sie ein einseitiges nach oben beschränktes Konfidenzintervall für σ zum Konfidenzniveau 1 − α = 0.95 an. (c) Lässt sich bei einer zugelassenen Irrtumswahrscheinlichkeit von 5% die Aussage µ > 320 m rechtfertigen? (d) Darf man bei einer zugelassenen Irrtumswahrscheinlichkeit α = 0.05 auf die Brauchbarkeit des Messgerätes schließen, wenn als Kriterium für die Tauglichkeit die Forderung σ < 5.0 m dient? 1.17. TESTS 83 Lösung. (a) Ein zweiseitiges 99%-Konfidenzintervall erhalten wir aus Sn U = X̄ n − t n−1,1−α/2 p = 324.3987 n Sn O = X̄ n + t n−1,1−α/2 p = 329.6013 n (b) Einseitiges 95%-Konfidenzinvervall für σ2 ist 0, (n − 1) S n2 χ2n−1,1− α = [0, 32.48983] . 2 (c) µ > 320 rechtfertigen heißt µ ≤ 320 verwerfen, also H0 : µ ≤ 320 Teststatistik: T= gegen H1 : µ > 320 X̄ n − µ0 p n = 8.414823 Sn Kritischer Bereich: © ª K = T > t n−1,1−α = [1.729133, ∞]. (d) Wir wollen auf die Brauchbarkeit des Geräts schliessen und test H0 : σ2 ≥ σ20 gegen H1 : σ2 < σ20 mit σ20 = 25. Teststatistik: T = (n − 1) S n2 σ20 = 13.148 Kritischer Bereich: © ª K = T < χ2n−1,α = 10.11701 Die Nullhypothese wird also nicht verworfen. 179. Erneuerbare Energien. Test. In einer einfachen Analyse des Strommarktes wird davon ausgegangen, dass die täglich von Solar- und Windgeneratoren zwischen 12 und 13 Uhr erzeugte Energie in den Monaten Juni, Juli und August (92 Tage) die Realisierung einer normalverteilten Zufallsvariable X ∼ N (µ, σ2 ) ist. Es wird angenommen, dass die Standardabweichung σ bekannt ist und beträgt σ = 5.5GW . Ein Analyst hat für die 92 Beobachtungen x 1 , . . . , x 92 folgendes ausgerechnet: 92 X x i = 1802.142. i =1 (a) Geben Sie eine erwartungstreue Schätzung für den Erwartungswert µ der erzeugten Energie. (b) Lässt sich anhand dieser Beobachtung die Hypothese µ ≤ 19 mit Irrtumswahrscheinlichkeit α = 0.1 ablehnen? 84 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG Lösung. (a) µ̂ = 19.5885. X̄ −µ p (b) Wir testen H0 : µ ≤ 19 gegen H1 : µ > 19. Die Teststatistik ist T = nσ 0 n = 1.026308. Der kritische Bereich ist K = [z 1−α , ∞) = [1.281552, ∞). H0 kann nicht abgelehnt werden. 180. Test. Trendvergleich bei Funds. Zur Analyse der Performance zweier Funds werden die Kursveränderungen über den Zeitraum von einem Jahr (250 Busi(1) (2) nesstage) analysiert. Aus den Beobachtungen x 1(1) , . . . , x 250 und x 1(2) , . . . , x 250 wurden folgende Kennzahlen ermittelt: 250 X i =1 x i(1) = 29.96, 250 X i =1 x i(2) = 32.97 Es wird angenommen, dass die Kursveränderungen normalverteilt sind, d.h. X (1) ∼ N (µ1 , σ21 ) und X (2) ∼ N (µ2 , σ22 ), und dass die Varianzen σ2(1) = 0.5 und σ2(2) = 0.55 betragen. (a) Geben Sie je eine erwartungstreue Schätzung für die Erwartungswerte µ1 und µ2 . (b) Lässt sich anhand dieser Beobachtung die Hypothese µ1 = µ2 mit der Irrtumswahrscheinlichkeit α = 0.05 ablehnen? Lösung. (a) µˆ1 = 0.1198547, µˆ2 = 0.1318836. (b) Teststatistik: X̄ (1) − X̄ (2) T=q = −0.1856103. (2) 2 σ(1) /n + σ(2) /n Kritischer Bereich ist |T | ≥ z 1−α/2 = 1.96. Die Nullhypothese kann nicht abgelehnt werden. R source code: > mu1=0.1; mu2=0.13; > s21=0.5; s22=0.55; > X1 = rnorm(250, mu1, sqrt(s21)) > X2 = rnorm(250, mu2, sqrt(s22)) > sum(X1); sum(X2); [1] 29.96367 [1] 32.9709 > mean(X1); mean(X2) [1] 0.1198547 [1] 0.1318836 > n=250 > T = (mean(X1)-mean(X2) )/sqrt( s21/n + s22/n ) > T 1.17. TESTS 85 [1] -0.1856103 > qnorm( 0.975) [1] 1.959964 181. Konfidenzintervall und Test. Normalverteilung. Beim Messen der Entfernung zwischen zwei Punkten sei der Messwert die Realisierung einer N(µ, σ2 )verteilten Zufallsvariable. Aus 20 Messungen einer bestimmten Entfernung ergaben sich die folgenden Schätzwerte: x̄ = 327.3 m, s 2 = 17.3 m 2 . (a) Bestimmen Sie ein 99%-iges Konfidenzintervall für den Erwartungswert. (b) Geben Sie ein einseitiges nach oben beschränktes Konfidenzintervall für σ zum Konfidenzniveau 1 − α = 0.95. (c) Lässt sich bei einer zugelassenen Irrtumswahrscheinlichkeit von 5% die Aussage µ > 320 m rechtfertigen? (d) Darf man bei einer zugelassenen Irrtumswahrscheinlichkeit α = 0.05 auf die Brauchbarkeit des Messgerätes schließen, wenn als Kriterium für die Tauglichkeit die Forderung σ < 5.0 m dient? 182. Analyse des Zuckerpreises. Es seien folgende 41 monatliche Beobachtungen x 1 , . . . , x 41 des internationalen Zuckerpreises aus dem Zeitraum von Januar 2011 bis Mai 2014 (quotiert in US-Cent pro Pfund) gegeben: 29.74 23.42 18.34 17.61 29.31 25.90 23.90 21.84 24.92 29.47 28.87 26.64 26.30 24.52 23.42 24.02 23.79 22.48 20.27 20.10 22.76 20.56 20.21 20.39 19.31 19.20 18.85 18.21 17.66 17.43 16.96 17.10 17.24 17.62 18.81 17.75 16.54 15.71 16.89 17.87 17.50 Wir nehmen an, dass diese Beobachtungen Realisierungen einer normalverteilten Zufallsvariable X ∼ N(µ, σ2 ) sind. Darüberhinaus gilt 41 X i =1 x i = 869.40 41 X i =1 x i2 = 19090.47. (a) Geben Sie je eine erwartungstreue Schätzfunktion für den Mittelwert µ und für die Varianz σ2 der Zufallsgröße an. Erklären Sie in diesem Zusammenhang den Begriff der Erwartungstreue einer Schätzfunktion. (b) Bestimmen Sie ein Konfidenzintervall [0, σ̄] für die Standardabweichung σ zum Konfidenzniveau 1 − α = 0.95. (c) Lässt sich anhand dieser Beobachtungen mit einer zugelassenen Irrtumswahrscheinlichkeit von 10% die Behauptung widerlegen, dass der durchschnittliche Zuckerpreis in diesem Zeitraum unter 18 Cent pro Pfund lag? 86 KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG Lösung. (a) n 1X X i = 21.2048. n i =1 n ¡ ¢2 1 X X i − X̄ n S n2 = n − 1 i =1 ( à !2 ) n n X 1 1 X 2 = X − Xi n − 1 i =1 i n i =1 X̄ n = = 16.3737. (b) v u p u S n2 σ̄ = t(n − 1) 2 = 24.7066 = 4.9705. χn−1,α (c) Wir testen H0 : µ ≤ 18 gegen H1 : µ > 18. Die Testfunktion und der kritische Bereich sind X̄ n − µ0 p n = 5.0714, Sn ¡ ¢ K = t n−1,1−α , +∞ = (1.303, +∞). T= Nachdem die Bedingung T ∈ K erfüllt ist, kann H0 abgelehnt werden. 183. Analyse des Kaffeebohnenpreises. In einer einfachen Analyse wird der Preis des Kaffees der Sorte „Robusta“, quotiert in US-Cent pro Pfund durch International Coffee Organization, auf einen Aufwärtstrend untersucht. Für die 51 Monatsbeobachtungen r 1 , . . . , r 51 der Preisänderungen berechnet ein Analyst die Kenngrößen 51 X r i = 34, 83, i =1 51 X i =1 r i2 = 1225, 01. Es wird angenommen, dass die Kursveränderungen die Realisierungen einer normalverteilten Zufallsvariable X ∼ N(µ, σ2 ) sind. (a) Geben Sie je eine erwartungstreue Schätzfunktion für den Mittelwert µ und für die Varianz σ2 der Kursveränderungen an. Berechnen Sie dafür aus der Stichprobe Schätzwerte im Sinne von Punktschätzungen. (b) Der Analyst behauptet µ > 0 und gibt eine Kaufempfehlung aus. Lässt sich diese Aussage anhand der Beobachtungen mit einer zugelassenen Irrtumswahrscheinlichkeit von 5 % rechtfertigen, d. h. muss man die Hypothese H0 : µ ≤ 0 mit dieser Irrtumswahrscheinlichkeit ablehnen? Lösung. (a) X̄ = 0.6829578849, S¯2 = 24.02442243. (b) Wir testen H0 : µ ≤ 0 vs. H1 : µ > 0. Da σ2 unbekannt ist, ist die Teststatistik © ª p gegeben durch T = pX̄ n2 n und der kritische Bereich des Tests lautet T ≥ t n−1,1−α S̄ n mit α = 0.05. In unserem Fall gilt T = 6.966865879 und t n−1,1−α = t 50,0.95 = 1.676. Somit kann H0 abgelehnt werden. 1.17. TESTS 87 184. Aktie im Bachelier-Modell. Die Kursveränderungen einer Aktie eines börsennotierten Unternehmens werden über den Zeitraum von 3 Wochen (15 Börsentage) analysiert. Die beobachteten Werte x 1 , . . . , x 15 waren: -1.10 -1.52 0.25 1.65 -0.90 2.70 1.34 -1.26 0.22 -0.49 1.59 -0.47 3.62 1.89 0.36 Ein Analyst berechnete daraus 15 X 15 X x i = 7.86, i =1 i =1 x i2 = 37.62. Es wird angenommen, dass die Kursveränderungen die Realisierungen einer normalverteilten Zufallsvariable X ∼ N(µ, σ2 ) sind. (a) Geben Sie je eine erwartungstreue Schätzfunktion für den Mittelwert µ und für die Varianz σ2 der Kursveränderungen an. Berechnen Sie dafür aus der Stichprobe Schätzwerte im Sinne von Punktschätzungen. (b) Bestimmen Sie ein einseitiges Konfidenzintervall [0, σ] für die Standardabweichung σ zum Konfidenzniveau 1 − α = 0.9, d.h. bestimmen Sie die Zahl σ > 0. (c) Ein Analyst behauptet µ > 0 und gibt eine Kaufempfehlung aus. Lässt sich diese Aussage anhand der Beobachtungen mit einer zugelassenen Irrtumswahrscheinlichkeit von 5% rechtfertigen, d.h. muss man die Hypothese H0 : µ ≤ 0 mit dieser Irrtumswahrscheinlichkeit ablehnen ? Lösung. (a) Erwartungstreue Schätzer sind X̄ n = n 1X Xi , n i =1 S n2 = n ¡ ¢2 1 X X i − X̄ n . n − 1 i =1 Daraus ergibt sich X̄ n = 0.524 à ! n X ¡ ¢ 1 2 S n2 = X 2 − n X̄ n n − 1 i =1 i " à !2 # n n X X 1 1 X2− Xi = 2.392954. = n − 1 i =1 i n i =1 (b) σ̄ = (n − 1) S n2 χ2n−1,α = 4.300817. (c) Wir testen H0 : µ ≤ µ0 gegen H1 : µ > µ0 mit µ0 = 0. Der Wert der Teststatistik ist X̄ n − µ0 p n = 1.311927. Sn © ª Der kritische Bereich ist T > t n−1,1−α = {T > 1.76131}. Die Nullhypothese wird T= nicht verworfen. K APITEL 2 Wahrscheinlichkeitstheorie 185. Konvergenz einer Zufallsreihe. Sei X 1 ∼ Uni(0, 1), X 2 ∼ Uni(0, X 1 ), und allgemein X n ∼ Uni(0, X n−1 ) für alle n ∈ N. (a) Zeigen Sie, dass die Reihe S = ∞ i =1 X i fast sicher konvergent ist, das heißt die Zufallsgröße S existiert und fast sicher endlich ist. P (b) Angenommen X n hat eine stetige Verteilung P n mit dem Träger [0, X n ]. Welche Bedingungen muss P n erfüllen, damit die Reihe S in obigem Sinner konvergiert? Lösung. Die bedingte Dichte von X n gegenen X n−1 = x n−1 ist Uni(0, x n−1 ). Es gilt also £ ¤ E X n = E E X n |X n1 = 2−1 E X n1 = 2−n . 186. Kurtosis. Eigenschaften. Seien X 1 , . . . , X n unabhängige Zufallsvariablen mit existierenden Kurtosis γ2 (X i ) und Var X 1 = · · · = Var X n . Zeigen Sie folgende Aussagen: (a) γ2 (X 1 ) ≥ 1. (b) γ2 (X 1 + · · · + X n ) = n −1 γ2 (X 1 ) + · · · + γ2 (X n ) . ¡ ¢ 187. Ordnungsstatistiken. Eigenschaften. Seien X 1 , . . . , X n identisch verteilte stochastisch unabhängige Zufallsgrößen mit der Dichtefunktion f (x) und Verteilungs¡ ¢ funktion F (x). Der Zufallsvektor X (1) , . . . , X (n) enthält aufsteigend geordnete Zufallsgrößen X 1 , . . . , X n . Zeigen Sie folgende Aussagen: ¡ ¢ (a) Die gemeinsame Dichtefunktion von dem Zufallsvektor X (1) , . . . , X (n) ist g (x 1 , . . . , x n ) = ( n! f (x 1 ) . . . f (x n ), 0, falls x 1 < · · · < x n sonst. (b) Die Dichtefunktion von X (k) ist à ! n f (k) (y) = k f (y)(1 − F (y))n−k F (y)k−1 . k (c) Die Dichtefunktion von (X (i ) , X ( j ) ) für i 6= j ist ( n!F (x)i −1 [F (y)−F (x)] j −i −1 [1−F (y)]n− j f (x) f (y) g i , j (x, y) = (i −1)!( j −i −1)!(n− j )! , x<y sonst. 0, 89 90 KAPITEL 2. WAHRSCHEINLICHKEITSTHEORIE Lösung. (a) Ein fixer Punkt des Trägers von g ist ein Bild von n! Punkten in Rn unter der Abbildung (x 1 , . . . , x n ) 7→ (x (1) , . . . , x (n) ). (b) Die Verteilungsfunktion von X (k) is gegeben durch à ! ¡ ¢n−k n P (X (k) < x) = F k (y) = (F (y))k 1 − F (y) k © ª wobei F die Verteilungsfunktion von X 1 ist. Damit X (k) < x eintritt mussen k Komponenten die kleiner als x gewählt werden und der Rest größer oder gleich x. 188. Symmetrische Zufallsvariablen und L p Ungleichungen. X und Y seien unabhängige Zufallsvariablen. X sei symmetrisch, d.h. X und −X sind gleichverteilt. Dann gilt EkX kp ≤ EkX + Y kp . (2.1) Gilt die obige Ungleichung, wenn X und Y nicht unabhängig sind oder wenn X nicht symmetrisch verteilt ist? 189. Dichtefunktionen. Scheffés Identitäten. Seien f und g Dichtefunktionen © ª und A = x : f (x) > g (x) . Zeigen Sie folgende Identitäten: (a) Z Z R © ª max f (x) − g (x), 0 d x ZR Z = 2 f (x)d x − 2 g (x)d x. | f (x) − g (x)|d x = 2 A A (b) ¯Z ¯ Z Z ¯ ¯ 1 sup ¯¯ f (x)d x − g (x)d x ¯¯ = | f (x) − g (x)|d x. 2 R B B ∈B(R) B 190. Selbstunabhängigkeit. Sei X eine Zufallvariable. X ist von X unabhängig, genau dann wenn P (X = c) = 1 für eine Konstante c gilt. 191. Eine Darstellung des Erwartungswertes. riable mit E X < ∞. Sei X eine positive Zufallsva- (a) Ist X ∈ N diskret, so gilt X EX = P (X > n). (2.2) P (X > λ)d λ. (2.3) n∈N (b) Ist X reellwertig, so gilt ∞ Z EX = 0 (c) Ist X reellwertig und E X p < ∞ für ein p > 0, so gilt p EX = ∞ Z 0 pλp−1 P (X > λ)d λ. (2.4) 91 Lösung. Das ist eine Anwendung des Satzes von Fubini. 192. Erwartungstreue einfacher Schätzer. Seien X 1 , . . . , X n i.i.d. mit dem Erwartungswert µ und endlicher Varianz σ2 . Der arithmetische Mittelwert von X = (X 1 , · · · , X n ) ist definiert als X̄ = n 1X Xi . n i =1 Die Stichprobenvarianz ist definiert durch s 2 (X ) := n 1 X (X i − X̄ )2 . n − 1 i =1 Zeigen Sie: (a) Der Mittelwert X̄ ist ein erwartungstreuer Schätzer für den Erwartungswert µ, d.h. E X̄ = µ. (b) Der Schätzer η(X ) = n ¡ ¢2 1X Xi − µ n i =1 ist erwartungstreu für σ2 . Es gilt also Eη(X ) = σ2 . (c) Die Stichprobenvarianz ist ein erwartungstreuer Schätzer für σ2 . Lösung. Die Erwartungstreue der ersten beiden Schätzer ist leicht zu zeigen. " # n n 1X 1X E X̄ = E Xi = EX i = µ n i =1 n i =1 " # n n n 1X 1X 1X Eη(X ) = E (X i − µ)2 = E(X i − µ)2 = σ2 = σ2 . n i =1 n i =1 n i =1 Um den Erwartungswert der Stichprobenvarianz zu zeigen, berechnen wir E(n − 1)s 2 (X ) = E =E n ¡ X i =1 n ¡ X X i − X̄ ¢2 X i − µ + µ − X̄ ¢2 i =1 " =E n X i =1 # (X i − µ)2 + 2(X i − µ)(µ − X̄ ) + (µ − X̄ )2 . 92 KAPITEL 2. WAHRSCHEINLICHKEITSTHEORIE Für die obigen Summanden gilt " E n X E(X i − µ)2 = σ2 # (X i − µ)(µ − X̄ ) = −n E( X̄ − µ)2 i =1 !2 n 1X E( X̄ − µ) = E Xi − µ n i =1 1 X = 2 E(X i − µ)(X j − µ) n i,j à 2 = " E n X n 1 X σ2 σ2 = 2 n i =1 n # (X i − µ)(µ − X̄ ) = −σ2 . i =1 Wir erhalten also E(n − 1)s 2 (X ) = (n − 1)σ2 und daraus Es 2 (X ) = σ2 . 193. Faltungsformel. Haben X und Y die Dichten p X und p Y und beide sind unabhängig, so ist die Dichte von der Summe Z = X + Y gegeben durch Z p Z (z) = R p X (x)p Y (z − x)d x. 194. Abzählbare Familien disjunkter Mengen. Sei ein Wahrscheinlichkeitsraum (Ω, A , P ) und eine Familie (A i )i ∈I mit A i ∈ A und P (A i ) > 0∀i gegeben. Dann ist I höchstens abzählbar. Lösung. Sortiere die Menge der Größe nach. 2.1 Bedingte Erwartungen 195. Bedingte Erwartungen. II. Seien (X i )i ≥1 i.i.d. und integrierbar. Definieren P wir S n = ni=1 X i . Dann gilt: P (a) E X j ¯ S n = n1 ni=1 X i für 1 ≤ j ≤ n . £ ¯ ¤ Lösung. (a) Es gilt ¯ # ¯X n n X ¯ E Xi ¯ Xi = Xi ¯ i =1 i =1 i =1 " und n X ¯ # ¯ n X ¯ E Xi ¯ Sn = E [X i | S n ] = n E [X 1 | S n ] . ¯ i =1 i =1 " n X 2.1. BEDINGTE ERWARTUNGEN 93 Daraus folgt E [X 1 | S n ] = E [X i | S n ] = n 1X Xi n i =1 für alle 1 ≤ i ≤ n . 196. Zusammengesetzte Poissonverteilung. Momentenerzeugende Funktion und Momente. Sei N Poissonverteilt mit dem Parameter λ > 0 und (X i )i ≥1 i.i.d. Zufallsvariablen mit existierender momentenerzeugender Funktion ψ X . Die Zufallsvariablen N , X 1 , X 2 , · · · sind alle unabhängig und es gilt λn , n ∈ N. n! P (N = n) = e −λ Sei Y = N X Xi i =1 wobei wir auf {N = 0} Y = 0 setzen. Zeigen Sie folgende Aussagen. (a) Die momentenerzeugende Funktion ψY von Y ist ¡ ¡ ¢¢ ψY (u) = E exp (uY ) = exp λ ψ X (u) − 1 . (b) Für die ersten zwei Momente gelten die Formeln Var Y = EN E X 12 . EY = EN E X 1 = λE X 1 Lösung. Wir berechnen die momentenerzeugende Funktion von Y . ψY (u) = E exp (uY ) à ! N X = E exp u Xi i =1 " " à = E E exp u N X ! ## X i |N i =1 " = X à E exp u n≥0 n X !# Xi P (N = n) i =1 X ¡ uX ¢n −λ λn Ee 1 e n! n≥0 ¡ ¢n X −λ λψ X (u) = e n! n≥0 ¡ ¡ ¢¢ = exp λ ψ X (u) − 1 . = Den Erwartungswert und die Varianz erhalten wir aus ∂ ψY = ψY (u)λψ0X (u) ∂u¯ ¯ ∂ ψY ¯¯ = EN E X = λE X ∂u u=0 h i ¡ 0 ¢2 ∂2 ∂ 0 00 ψ = λψ (u)ψ (u) = λ λψ (u) ψ (u) + ψ (u)ψ (u) Y Y Y Y X X X ∂u 2 ∂u ¯ 2 ¯ £ ¤ ∂ ψY ¯¯ = λ λ (E X )2 + E X 2 2 ∂u u=0 £ ¤ Var Y = λ λ (E X )2 + E X 2 − λ2 (E X )2 = λE X 2 . 94 KAPITEL 2. WAHRSCHEINLICHKEITSTHEORIE 197. Bedingte Erwartungen. Turmeigenschaft. Gegenbeispiel. Sei X eine integrierbare Zufallsvariable und H , G seien Sub-σ-Algebren von A . Zeigen Sie durch ein Beispiel, dass E [E [X |G ] |H ] 6= E [E [X |H ] |G ] gelten kann. Lösung. Betrachten wir Ω = {1, 2, 3}, A = 2Ω die Potenzmenge von Ω, H = σ ({1, 2}) und G = σ ({2, 3}) sowie P (i ) = 13 für alle i ∈ Ω. Berechnen wir die obigen bedingten Erwartungen für X : Ω → N, i 7→ 2i . E [X |H ] = = E [E [X |H ] |G ] = E [X |G ] = = E [E [X |G ] |H ] = = X (1) + X (2) 1{1,2} + X (3) 1{3} 2 3{1,2} + 8{3} 3+8 3{1} + 1{2,3} 2 X (2) + X (3) X (1) 1{1} + 1{2,3} 2 2{1} + 6{2,3} 2+6 1{1,2} + 6{3} 2 4{1,2} + 6{3} . Dabei bezeichnet 4{1,2} eine Funktion, die den Elementen 1 und 2 den Wert 4 zuordnet und allen anderen den Wert 0. 198. Bedingte Erwartungen. Turmeigenschaft. Sei X eine integrierbare Zufallsvariable und H eine Sub-σ-Algebra von der σ-Algebra G mit H ⊂ G ⊂ A . Zeigen Sie (a) E [E [X |G ] |H ] = E [X |H ]. (b) E [E [X |H ] |G ] = E [X |H ]. Lösung. Wir zeigen zunächst E [E [X |H ] |G ] = E [X |H ]. Nach Definition des bedingten Erwartungswertes ist E [X |H ] H -messbar und daher G -messbar. So bekommen wir E [E [X |H ] |G ] = E [X |H ] E [1|G ] = E [X |H ] . Nun kommen wir zu E [E [X |G ] |H ] = E [X |H ]. Dies gilt genau dann wenn E {X 1 A } = E {E [E [X |G ] |H ] 1 A } ∀A ∈ H . Sei Y = E [X |G ] eine G -messbare Zufallsvariable und A ∈ H . Die Indikatorfunktion 1 A ist H -messbar und daher G -messbar. Wir berechnen E {E [E [X |G ] |H ] 1 A } = E {E [Y |H ] 1 A } = E {Y 1 A } = E {E [X |G ] 1 A } = E {X 1 A } . Daher ist nach Definition des bedingten Erwartungswertes E [E [X |G ] |H ] = E [X |H ] . 2.1. BEDINGTE ERWARTUNGEN 95 199. Bedingte Varianz. Seien X , Y reelle Zufallsvariable mit E X 2 < ∞. Die bedingte Varianz einer Zufallsvariablen X gegeben Y ist definiert durch £ ¤ £ ¤ Var [X |Y ] = E (X − E [X |Y ])2 |Y . Dann gelten (a) Var (X ) = Var (E [X |Y ]) + E [Var [X |Y ]] . (b) £ ¤ Var (X |Y ) = E X 2 |Y − (E [X |Y ])2 . Lösung. Die Behauptung ist äquivalent zu © ª © ª © £ ¤ª E X 2 − E {X }2 = E E [X |Y ]2 − E {E [X |Y ]}2 + E E (X − E [X |Y ])2 |Y . Wir kürzen den Term E {X }2 und erhalten © ª © ª © ª E X 2 = E E [X |Y ]2 + E X 2 − 2X E [X |Y ] + E [X |Y ]2 Diese Gleichung gilt genau dann wenn © ª E {2X E [X |Y ]} = 2E E [X |Y ]2 . Die Turmeigenschaft liefert uns aber E {X E [X |Y ]} = E {E [X E [X |Y ] |Y ]} = E {E [X |Y ] E [X |Y ]} © ª = E E [X |Y ]2 . 200. Bedingte Erwartungen. Einfache Eigenschaften. Sei X eine integrierbare Zufallsvariable und G ⊂ A eine Sub-σ-Algebra. Zeigen Sie die folgenden Aussagen. (a) E [X |X ] = X P -f.s. (b) Falls |X | ≤ c f.s., dann |E [X | G ] | ≤ c f.s. (c) Falls X = α f.s. für α ∈ R, dann gilt E [X |G ] = α f.s. Lösung. (a) Nach Definition ist E [X |X ] = E [X |σ (X )] und da X ja σ (X )-messbar ist, erhalten wir E [X |σ (X )] = X E [1|σ (X )] = X . Wir können diese Aussage auch anders beweisen. Z = E X |X gilt genau dann, wenn Z ∈ σ(X ) und E Z g (X ) = E X g (X ) für alle beschänkte Borelfunktionen g gilt. Würde nicht Z = X fast sicher gelten, so wäre Λ = {Z < X } oder Λ = {Z > X } σ(X )-messbar und keine Nullmenge. Dann wäre aber E Z 1Λ 6= E X 1Λ . (b) Wir beweisen X ≤ c f.s. ⇒ E X |G ≤ c f.s. Nach Definition ist Z = E X |G genau dann, wenn E X Y = E Z Y für alle beschränkte1 Y ∈ G . Nachdem Λ = {Z > c} ∈ G ist und E X 1Λ = E Z 1Λ , es muss P (Λ) = 0 gelten. Nun ist |X | ≤ c f.s. genau dann, wenn X ≤ c und X ≥ −c f.s. gilt. (c) X = α f.s. genau dann, wenn X ≤ α und X ≥ α f.s. gilt. 1 Dies bedeutet, dass Y eine beschränkte G -messbare Zufallsvariable ist 96 KAPITEL 2. WAHRSCHEINLICHKEITSTHEORIE 201. Turmeigenschaft der bedingten Erwartung. Sei ein Wahrscheinlichkeitsraum (Ω, P, A ), eine integrierbare Zufallsvariable X und G , H sub-σ-Algebren von A gegeben. Es gilt H ⊂ G ⊂ A . Y ist bedingte Erwartung von X bezüglich A , notiert als Y = E [X |A ], genau dann wenn E1 A Y = E1 A X für alle A ∈ A gilt. (a) Zeigen Sie E [E [X |H ] |G ] = E [X |H ] P -fast sicher. (b) Zeigen Sie E [E [X |G ] |H ] = E [X |H ] P -fast sicher. Lösung. Wir zeigen zunächst E [E [X |H ] |G ] = E [X |H ]. Nach Definition des bedingten Erwartungswertes ist E [X |H ] H -messbar und daher G -messbar. So bekommen wir E [E [X |H ] |G ] = E [X |H ] E [1|G ] = E [X |H ] . (2.5) Nun kommen wir zu E [E [X |G ] |H ] = E [X |H ]. Dies gilt genau dann wenn E {X 1 A } = E {E [E [X |G ] |H ] 1 A } ∀A ∈ H . (2.6) Sei Y = E [X |G ] eine G -messbare Zufallsvariable und A ∈ H . Die Indikatorfunktion 1 A ist H -messbar und daher G -messbar. Wir berechnen E {E [E [X |G ] |H ] 1 A } = E {E [Y |H ] 1 A } (2.7) = E {E [Y 1 A |H ]} (2.8) = E {Y 1 A } (2.9) = E {E [X |G ] 1 A } (2.10) = E {E [X 1 A |G ]} = E {X 1 A } . (2.11) Daher ist nach Definition des bedingten Erwartungswertes E [E [X |G ] |H ] = E [X |H ] . (2.12) 202. Bedingte Erwartungen und Normalverteilung. Seien X und Y unabhängige standardnormalverteilte Zufallsvariablen. Berechnen Sie E [X | X + Y ]. 203. Bedingte Erwartungen. Exponentialverteilung. und exponentialverteilt. Berechnen Sie: Seien X , Y unabhängig (a) E [Y | Y ∧ t ]. (b) E [X ∧ Y | X ]. 2.2 Stochastische Prozesse 204. Poissonprozess. Charakteristische Funktion. Sei N ein Poissonprozess mit dem Parameter λ > 0 gegeben. N is also ein Lévy Prozess mit den Werten in N und P (N t = n) = e −λt (λt )n . n! (a) Die charakteristische Funktion von N t ist ³ ³ ´´ ψt (u) = E exp i uN t = exp λt e i u − 1 . (b) Die charakteristische Funktion des kompensierten Poissonprozesses Ñ t = N t − λt ist ³ ³ ´´ ψ̃t (u) = E exp i u Ñ t = exp λt e i t − 1 − i u . 2.2. STOCHASTISCHE PROZESSE 97 Lösung. Eine einfache Rechnung liefert E exp i uN t = X exp (i un) P (N t = n) n≥0 = X exp (i un) e −λt n≥0 (λt )n n! ³ ³ ´´ = exp λt e i u − 1 . Nachdem e i uλt die charakteristische Funktion des Dirac-masses an λt ist, erhalten wir ³ ³ ´´ ψ̃t (u) = E exp (i uN t ) = exp λt e i u − 1 − i u . 205. Zusammengesetzter Poissonprocess. Charakteristische Funktion. Sei X ein zusammengesetzter Poissonprozess mit dem Parameter λ > 0 und der Sprungverteilung ν auf Rd mit ν({0}) = 0. (a) Die charakteristische Funktion von X t ist gegeben durch µ Z ¶ iuy ψt (u) = exp λt e − 1 ν(d y) . (b) Die charakteristische Funktion von dem kompensierten zusammengesetzten Poissonprozess X̃ t = X t − E X t ist gegeben durch µ Z ¶ iuy ψ̃t (u) = exp λt e − 1 − i u y ν(d y) . Lösung. Bei der Berechnung benutzen wir die Eigenschaften der bedingten Erwartung. ψt (u) = E exp i uX t " à !¯ # ¯ ¯ = EE exp i u Yi ¯ (N s )s∈[0,t ] ¯ i =1 µZ ¶n X = e i ux ν(d x) P (N t = n) Nt X Rd n≥0 ¶n (λt )n n! n≥0 µ Z ¶ = exp λt e i ux − 1 ν(d x) . = µ X Z e i ux ν(d x) e −λt Wir brauchen nur noch den Erwartungswert von X t zu berechnen. EX t = X µZ n n≥0 Z ¶ Rd = x ν(d x) = λt Z x ν(d x) e −λt X n≥0 ne −λt (λt )n n! (λt )n n! x ν(d x). Insgesamt erhalten wir µ Z ψ̃t (u) = exp λt Rd ¶ e i ux − 1 − i ux ν(d x) . 98 206. KAPITEL 2. WAHRSCHEINLICHKEITSTHEORIE Ornstein-Uhlenbeck SDE. Lösen Sie die SDE ¡ ¢ d X t = α − βX t d t + σdWt , X 0 ∈ R. (2.13) Die Parameter α, β und σ sind reelle Zahlen und σ > 0. (a) Zeigen Sie mit Hilfe der Funktion f (t , x) = x exp(βt ) und der Itô-Formel, dass Xt = e −βt ´ α³ X0 + 1 − e −βt + σ β t Z 0 e β(s−t ) dWs . (2.14) (b) Leiten Sie aus der von Ihnen gefundenen Lösung die Identitäten EX t Var X t = e −βt X 0 + = ´ α³ 1 − e −βt β ´ σ2 ³ 1 − e −2βt 2β (2.15) (2.16) her. (c) Zeigen Sie, dass X t normalverteilt ist. Lösung. Die Lösung ergibt sich durch die Anwendung der Itô-Formel auf die FunkR tion f . Da g (s)dWs für progressiv meßbares g ein Martingal ist, erhalten wir E X t direkt aus der Lösung. Die Formel für die Varianz folgt mit Hilfe der Itô-Isometrie. K APITEL 3 Mathematische Statistik 3.1 Identifizierbarkeit 207. Identifizierbarkeit im linearen Modell. Modell gegeben sei: p X Yi = z i j β j + εi , Man nehme an, dass folgendes i = 1, . . . , n. j =1 Hierbei seien z 11 , . . . , z np bekante Konstanten und ε1 , . . . , εn i.i.d. mit ε1 ∼ N (0, 1). (a) Zeigen Sie, dass β1 , . . . , βp genau dann identifizierbar ist, falls z1 , . . . , zp linear ¡ ¢> unabhängig sind, wobei z j = z 1 j , . . . , z n j . ¡ ¢ (b) Begründen Sie, warum β1 , . . . , βp nicht identifizierbar ist, falls n < p . ¡ ¢ Lösung. Seien Y ¡= (Y¢1 , · · · , Yn )> und ε = (ε1 , · · · , εn )> Zufallsvektoren in Rn . Die kon¡ ¢> stante Matrix Z = z i j i j liegt in Rn×p und der Parametervektor β = β1 , · · · , βp in Rp . Somit ist Θ = Rp . Das Model ist genau dann identifizierbar, wenn verschiedene ¡ ¢ Vektoren β, verschiedene Zufallsvariablen Y (β) induzieren. Sind die Spalten z1 , · · · , zp linear unabhängig, so hat die Matrix Z vollen Rang und die Multiplikation mit Z ist eine Bijektion. In diesem Fall ist das Model identifizierbar. Wenn p > n kann die Matrix Z nicht vollen Rang haben. In diesem Fall ist die Multiplikation mit Z keine Bijektion und es gibt β, β̃ ∈ Rp mit β 6= β̃ und Z β = Z β̃. Das Model ist nicht identifizierbar. 3.2 Suffizienz 208. Suffizienz. Invariante Transformationen. Sei P = p(x, θ) : θ ∈ Θ ein reguläres statistisches Modell, X ∼ P , die Statistiken T (X ) und S(X ) mit T = η(S) und einer messbaren Abbildung η gegeben. Zeigen Sie: Falls T (X ) suffizient für θ ist so ist auch S(X ) suffizient für θ . © Lösung. T ist suffizient, so folgt p θ (x) = g (T (x), θ)h(x) = g (η(S(x)), θ)h(x). Somit ist S ebenfalls suffizient. 99 ª 100 KAPITEL 3. MATHEMATISCHE STATISTIK 209. Qualitätskontrolle. Es sei eine LKW-Ladung mit N Fernsehgeräten gegeben, wovon N θ defekt sind. Es werden N Fernseher (ohne Zurücklegen) überprüft. Man definiere ( 1 i -ter überprüfter Fernseher ist defekt Xi = 0 sonst. (a) Zeigen Sie ohne Verwendung des Faktorisierungstheorems, dass ent für θ ist. (b) Zeigen Sie mit Hilfe des Faktorisierungstheorems, dass ist. 210. Inverse Gamma-Verteilung. Suffizienz. sei invers Gamma-verteilt mit der Dichte p α,β (x) = Pn i =1 X i Pn i =1 X i suffizi- suffizient für θ Eine i.i.d.-Stichprobe X 1 , . . . , X n ¶ µ βα −(α+1) β x exp − 1R>0 (x) Γ (α) x Finden Sie eine zweidimensionale suffiziente Statistik für α und β. 211. te Beta-Verteilung. Suffizienz. p a,b = Seien X 1 , · · · , X n i.i.d. Beta-verteilt mit der Dich- 1 x a−1 (1 − x)b−1 1[0,1] (x) B (a, b) und den Parametern a > 0 und b > 0. Dabei ist B (a, b) = Γ(a)Γ(b) Γ(a+b) . (a) a sei fix und bekannt. Finden Sie eine suffiziente Statistik für b . (b) Finden Sie eine zweidimensionale suffiziente Statistik für (a, b). 212. Pareto-Verteilung. Suffizienz. Dichte p θ (x) = Seien X 1 , . . . , X n i.i.d. Paretoverteilt mit der θa θ x θ+1 1R>a (x), wobei θ > 0 und a fix und bekannt sei. Finden Sie eine reellwertige suffiziente Statistik T (X 1 , . . . , X n ) für θ . 213. Poisson-Verteilung. Suffizienz. Seien X 1 , · · · , X n i.i.d. Poisson-verteilt mit dem Parameter λ > 0 und der Wahrscheinlichkeitsfunktion P (X 1 = k) = e −λ λk , k! k ∈ {0, 1, 2, · · · } . Zeigen Sie ohne Verwendung des Faktorisierungstheorems, dass T (X ) = n X i =1 suffizient für λ ist. Xi 3.2. SUFFIZIENZ 101 214. Suffizienz. Beispiele. Seien X 1 , . . . , X n i.i.d. mit jeweils folgender Dichte. Finden Sie in allen Fällen eine reellwertige suffiziente Statistik T für θ basierend auf der Beobachtung von (X 1 , · · · , X n ). (a) X 1 ist nichtzentral doppelt exponentialverteilt mit der Dichte ¶ µ 1 −|x − µ| p θ (x) = , exp 2θ θ wobei θ > 0 und µ bekannt sei. (b) X 1 ist gleichverteilt auf dem Intervall (−θ, θ) mit der Dichte p θ (x) = 1 1(−θ,θ) (x), 2θ wobei θ > 0. (c) X 1 ist invers Gamma-verteilt mit der Dichte µ ¶ β βα −(α+1) exp − 1R>0 (x), x p θ (x) = Γ(α) x wobei θ = (α, β) und α, β > 0. Lösung. Wir stellen die gemeinsame Dichte p θ (x 1 , · · · , x n ) von (X 1 , · · · , X n ) in der Form p θ (x 1 , · · · , x n ) = g (T (x 1 , · · · , x n ), θ)h(x 1 , · · · , x n ) für geeignete Funktionen g und h dar und wenden den Faktorisierungssatz an. (a) p θ (x 1 , · · · , x n ) = n Y p θ (x i ) i =1 à ! n 1 1X = exp − |x i − µ| . (2θ)n θ i =1 Somit ist T (x 1 , · · · , x n ) = n X |x i − µ| i =1 g (x, µ) = µ ¶ 1 1 x . exp − (2θ)n θ (b) n 1 Y 1(−θ,θ) (x) i =1 2θ µ ¶n 1 = 1(−θ,θ) (max {|x 1 |, · · · , |x n |}). 2θ p θ (x 1 , · · · , x n ) = Somit ist T (x 1 , · · · , x n ) = max {|x 1 |, · · · , |x n |}. 102 KAPITEL 3. MATHEMATISCHE STATISTIK (c) µ ¶ n βα Y β −(α+1) p θ (x 1 , · · · , x n ) = xi exp − 1R>0 (x i ) xi i =1 Γ(α) à ! µ α ¶n à n !−(α+1) n 1 X Y β exp −β 1Rn>0 (x 1 , · · · , x n ). xi = Γ(α) i =1 x i i =1 Wir erhalten à ! n 1 X xi , T (x 1 , · · · , x n ) = i =1 x i i =1 µ α ¶n ¡ ¢ β g (y, z, θ) = y −(α+1) exp −βz Γ(α) n Y h(x 1 , · · · , x n ) = 1Rn>0 (x 1 , · · · , x n ). 215. Nichtzentrale Exponentialverteilung. Suffizienz. Seien X 1 , . . . , X n i.i.d. mit der Dichte ³ ´ p θ (x) = 1 x −µ exp − 1R≥µ (x) σ σ sowie θ = (µ, σ)> und Θ = R × R>0 . (a) Zeigen Sie, dass min(X 1 , . . . , X n ) eine suffiziente Statistik für µ ist, falls σ bekannt ist. (b) Finden Sie eine eindimensionale, suffiziente Statistik für σ, falls µ bekannt ist. (c) Finden Sie eine zweidimensionale suffiziente Statistik für θ an. Lösung. (a) Sei σ > 0 fix und bekannt. ³ x −µ´ n 1 Y i exp − 1R≥µ (x i ) σ σ i =1 à ! n 1 1X nµ = n exp − xi + 1R≥µ (min {x 1 , · · · , x n }) σ σ i =1 σ à ! ³ nµ ´ n 1X −1 1Rn≥µ (min {x 1 , · · · , x n }) exp − xi . = σ exp σ σ i =1 | {z }| {z } p θ (x 1 , · · · , x n ) = =g =h Somit ist T (X ) = min {x 1 , · · · , x n } eine suffiziente Statistik für µ. (b) Sei nun umgekehrt µ bekannt und fix. Mit derselben Methode erhalten wir à ! n X 1 p θ (x 1 , · · · , x n ) = σ−1 exp − (x i − µ) 1Rn≥µ (x 1 , · · · , x n ) σ i =1 T (x 1 , · · · , x n ) = n X i =1 (x i − µ). 3.3. EXPONENTIELLE FAMILIEN 103 (c) Eine zweidimensionale suffiziente Statistik für θ = (µ, θ) erhalten wir aus p θ (x 1 , · · · , x n ) = σ−1 n Y xi e− σ e i =1 nµ σ 1Rn≥µ (min {x 1 , · · · , x n }) ³ Pn ´σ−1 nµ = σ−1 e − i =1 xi e σ 1Rn≥µ (min {x 1 , · · · , x n }) ³ ´ Pn T (x 1 , · · · , x n ) = min {x 1 , · · · , x n } , e − i =1 xi ∈ Θ = R × R>0 . 3.3 Exponentielle Familien 216. Exponentielle Familie mit einer unvollständigen natürlichen Statistik. Finde ein Gegenbeispiel um die Notendigkeit der Bedingung c(Θ) offen zu illustrieren. 217. Beta-Verteilung als exponentielle Familie. Sei X eine Beta-verteilte Zufallsvariable mit der Dichte p a,b = 1 x a−1 (1 − x)b−1 1[0,1] (x) B (a, b) und den Parametern a > 0 und b > 0. Zeigen Sie, dass p (a,b) zu einer zweiparametrigen exponentiellen Familie gehört. Lösung. Die Dichte der Beta-Verteilung lässt sich in der Form p (a,b) = ¡ ¢ 1 exp (a − 1) log x + (b − 1) log(1 − x) 1[0,1] (x) B (a, b) schreiben. Das ist eine exponentielle Familie mit c(a, b) = (a − 1, b − 1) ¡ ¢> T (x) = log x, log(1 − x) d = − log B (a, b) S =0 A = [0, 1]. 218. Gamma-Momente und exponentielle Familien. Sei X Gamma-verteilt mit den Parametern a, λ > 0 und der Dichte p a,λ (x) = λa a−1 −λx x e 1R≥0 (x). Γ(a) Zeigen Sie, dass EX = a λ Var X = a λ2 gilt, indem Sie die Dichte p a,λ bei fixiertem a als einparametrige natürliche exponentielle Familie darstellen und d0 ableiten. 104 KAPITEL 3. MATHEMATISCHE STATISTIK 219. Poisson-Momente und exponentielle Familien. Sei X Poisson-verteilt mit dem Parameter λ > 0 und der Wahrscheinlichkeitsfunktion p λ (k) = P (X = k) = e −λ λk , k! k ∈ {0, 1, · · · } . Zeigen Sie, dass EX = λ Var X = λ gilt, indem Sie die Wahrscheinlichkeitsfunktion p λ als einparametrige natürliche exponentielle Familie darstellen und d0 ableiten. Lösung. Wir schreiben p λ in exponentieller Form p λ (k) = ¡ ¢ e −λ λk = exp k log λ − λ − log k! k! auf. Dabei ist T (k) = k , c(λ) = log λ, d (λ) = −λ, S(k) = − log k!. Wir setzen nun η = log λ und schreiben die Dichte p η (k) als natürliche exponentielle Familie ¡ ¢ p η (k) = exp ηk − e η − log k! . Dabei ist d0 (η) = −e η . Nun erhalten wir ET (X ) = E X = −d 00 (η) = e η = λ Var T (X ) = Var X = −d 000 (η) = e η = λ. 220. Laplace-Verteilung ist keine exponentielle Familie. Für jedes θ ∈ R sei eine Dichte p θ (x) = 1 exp (−|x − θ|) , 2 x ∈R gegeben. Sei P θ das zur Dichte p θ gehörige Wahrscheinlichkeitsmaß. Zeigen Sie, dass {P θ : θ ∈ Θ} keine exponentielle Familie ist. Lösung. Angenommen P θ gehört zu einer einparametrigen exponentiellen Famile. Dann hat die Dichte p θ eine Darstellung p θ (x) = exp (c(θ)T (x) + d (θ)) h(x). Das ist äquivalent zu 1 exp (−|x − θ|) = exp (c(θ)T (x) + d (θ)) h(x) 2 und −|x − θ| = c(θ)T (x) + d (θ) + S(x) für alle x, θ ∈ R. Wir wählen θ1 , θ2 ∈ R und θ1 6= θ2 . Dann gilt −|x − θ1 | + |x − θ2 | = (c(θ1 ) − c(θ2 )) T (x) + d (θ1 ) − d (θ2 ). Daraus folgt T (x) ist differenzierbar für alle x ∈ R \ {θ1 , θ2 }. Eine andere Wahl von θ1 und θ2 liefert die Differenzierbarkeit von T (x) auf ganz R. Widerspruch. 3.3. EXPONENTIELLE FAMILIEN 105 221. Verteilung der natürlichen suffizienten Statistik. riable mit den Werten in (Rn , B(Rn )) und der Dichte Sei X eine Zufallsva- p(x, θ) = exp (c(θ) · T (x) + d (θ) + S(x)) 1 A (x), die einer einparametrigen exponentiellen Familie {P θ : θ ∈ Θ} mit stetigem T angehört. Zeigen Sie, dass die Dichte der natürlichen suffizienten Statistik T (X ) die Form ¡ ¢ q(t , θ) = exp c(θ) · t + d (θ) + S ∗ (t ) 1 A ∗ (t ) mit A ∗ = {T (x) : x ∈ A} hat. 222. Cauchy-Verteilung ist keine exponentielle Familie. Sei eine Familie von Cauchy-Verteilungen {P θ : θ ∈ R} mit den zugehörigen Dichten p θ (x) = 1 £ ¤ π 1 + (x − θ)2 gegeben. Zeigen Sie, dass die Familie {P θ : θ ∈ R} keine exponentielle Familie ist. Lösung. Nehmen wir an Cauchy-Vereilung ist eine expoentielle Familie. Dann gibt es eine Darstellung p θ (x) = 1 £ ¤ = exp (c(θ)T (x) + d (θ)) h(x). π 1 + (x − θ)2 (3.1) TODO: Finish it! 223. Mixtures of Normal Verteilungen sind keine exponentielle Familien. Sei eine Familie von Verteilungen (P µ )µ∈R durch Pµ = ¢ 1¡ N (µ, 1) + N (µ, 2) 2 gegeben. Die Verteilungen P µ sind Mischungen von Normalverteilungen. Zeigen Sie, dass (P µ )µ keine exponentielle Familie ist. 224. Weibull-Verteilung als exponentielle Familie. Sei X Weibull-verteilt mit der Dichte p a,λ = a a−1 − x x e λ 1R>0 (x) λ und den Parametern a, λ > 0. Zeigen Sie folgende Aussagen. (a) Ist a > 0 bekannt und fix, so ist (p λ )λ>0 eine exponentielle Familie. (b) Die Familie (p a,λ )a,λ>0 ist keine exponentielle Familie. 106 KAPITEL 3. MATHEMATISCHE STATISTIK 225. Invers-Gauß-Verteilung als exponentielle Familie. Seien X 1 , . . . , X n i.i.d. Invers-Gauß-verteilte Zufallsvariablen gegeben. D.h. die Dichte von X i ist s ¶ µ λ −3 −λ(x − µ)2 1R>0 (x) x 2 exp 2π 2µ2 x wobei µ > 0, λ > 0 und µ bekannt und fix sei. (a) Zeigen Sie, dass die von dem Zufallsvektor (X 1 , . . . , X n ) erzeugte Familie von Verteilungen {P λ : λ > 0} eine exponentielle Familie ist, indem Sie die gemeinsame Dichte des Vektors (X 1 , . . . , X n ) in die Form p λ (x) = exp (c(λ)T (x) + d (λ) + S(x)) 1 A (x) bringen. Geben Sie dabei explizit c, T, d , S und A an. (b) Zeigen Sie mit Hilfe des Faktorisierungssatzes, dass die Statistik T (X ) suffizient ist. Lösung. Die gemeinsame Dichte von X 1 , · · · , X n lässt sich in folgender Form darstellen. s µ ¶ 3 λ x2 1 + + log x − 2 + log exp − 2 2 µ x λ + λµ 1R>0 (x). 2π 226. Invers-Gamma-Verteilung als exponentielle Familie. Seien X 1 , . . . , X n i.i.d. Invers-Gamma-verteilte Zufallsvariablen gegeben. D.h. die Dichte von X i ist f a (x) = λa −a−1 − λ x e x 1R≥0 (x), Γ(a) wobei a > 0 unbekannt und λ > 0 bekannt und fix sei. (a) Zeigen Sie, dass die von dem Zufallsvektor (X 1 , . . . , X n ) erzeugte Familie von Verteilungen {P a : a > 0} eine exponentielle Familie ist, indem Sie die gemeinsame Dichte des Vektors (X 1 , . . . , X n ) in die Form p a (x) = exp (c(a)T (x) + d (a) + S(x)) 1 A (x) bringen. Geben Sie dabei explizit c, T, d , S und A an. (b) Zeigen Sie mit Hilfe des Faktorisierungssatzes, dass die Statistik T (X ) suffizient ist. Lösung. (a) Die gemeinsame Dichte von (X 1 , . . . , X n ) ist p a (x 1 , . . . , x n ) = Y λa −a−1 − λ xi e xi 1R≥0 (x i ). i Γ(a) Die Darstellung als exponentielle Familie ist à exp (−a − 1) X i ! X 1 λna log x i + log −λ 1Rn≥0 (x 1 , . . . , x n ). Γ(a)n i xi 3.3. EXPONENTIELLE FAMILIEN 107 Dabei ist c(a) = −a − 1 X T (X ) = log X i i λna Γ(a)n X 1 S(x) = −λ i xi d (a) = log A = Rn≥0 . (b) T (X ) ist suffizient, denn die Dichte lässt sich in der Form g (T (x), a)h(x) darstellen. Ebenso ist T (X ) in jeder exponentiellen Familie eine suffiziente Statistik. 227. Lévy-Verteilung als exponentielle Familie. Die Dichte der Lévy-Verteilung mit den Parametern (µ, σ) ∈ Θ = R × R>0 ist r p (µ,σ) (x) = ¶ µ σ σ − 32 1R≥µ (x). (x − µ) exp − 2π 2(x − µ) Zeigen Sie folgende Aussagen. (a) Sei X ∼ N (0, σ1 ) normalverteilt mit σ > 0. Die Zufallsvariable mit den Parametern (0, σ). 1 X2 ist Lévy-verteilt (b) Wenn µ = 0 festgehalten wird, ist die Familie (p (0,σ) )σ>0 eine exponentielle Familie. (c) Die Familie (p µ,σ )(µ,σ)∈Θ ist keine (zweiparametrige) exponentielle Familie. Lösung. (a) Für ein y > 0 gilt µ P Die Dichte von 1 X2 ¶ ¡ ¢ 1 ≤ y = P 1 ≤ yX2 2 X ! Ãs 1 ≤ |X | =P y µ µ ¶¶ 1 = 2 1−P X < p y à Ãs !! σ = 2 1−Φ . y erhalten wir durchs Differenzieren: Ãs ! µ ¶ ¶ µ ∂ 1 σ p 1 −3 P ≤ y = −2φ σ − y 2 ∂y X2 y 2 r µ ¶ 3 σ σ = exp − y−2 . 2π 2y Daher ist 1 X2 ∼ Lévy(σ). 108 KAPITEL 3. MATHEMATISCHE STATISTIK (b) Für µ = 0 lässt sich die Dichte der Lévy-Verteilung in der Form µ ¶ σ 3 1 σ p 0,σ (y) = exp − − log y + log 1R≥0 (y) 2y 2 2 2π darstellen. (c) Im allgemeinen Fall ist der Träger der Dichte p µ,σ von µ abhängig und daher kann p µ,σ keine exponentielle Familie sein. 3.4 Momentenmethode 228. Stetige Gleichverteilung. Momentenschätzer. Seien X 1 , · · · , X n i.i.d. stetig gleichverteilt auf dem Intervall [0, θ] mit θ > 0. Die Dichte von X i ist also p θ (x) = 1 1[0,θ] (x). θ (a) Berechnen Sie einen Momentenschätzer für θ basierend auf dem ersten Moment von X i . (b) Berechnen Sie einen Momentenschätzer für θ basierend auf dem k -ten Moment von X i . Lösung. Wir berechnen zunächst alle Momente der stetigen Gleichverteilung. k 1 x k 1[0,θ] (x)d x θ R Z θk 1 θ k x dx = . = θ 0 k +1 EX = Indem wir m̂k = Pn k i =1 X i Z setzen, erhalten wir m̂ k = θ̂ k k +1 1 θ̂ = ((k + 1)m̂ k ) k . Insbesondere ist der auf dem ersten Moment basierende Schätzer gegeben durch θ̂ = n 2X Xi . n i =1 229. Dreiecksverteilung. Momentenschätzer. Gegeben seien i.i.d. Zufallsvariablen X 1 , . . . , X n mit der Dichte · ¸ 1 |x| Λa (x) = − 1[−a,a] (x) a a2 und dem unbekannten Parameter a > 0. (a) Zeigen Sie, dass die geraden Momente von X 1 durch die Formel E X 1n = 2a n µ 1 1 − n +1 n +2 ¶ gegeben sind und alle ungeraden Momente verschwinden. (b) Geben Sie einen Momentenschätzer für den Parameter a an. 3.4. MOMENTENMETHODE 109 Lösung. (a) Die Momente ergeben sich aus E X 1n Z = a µ −a ¶ 1 |x| n − x d x. a a2 Für gerade n ist E X 1n = 0. Für ungerade n erhalten wir aµ1 ¶ x xn a a2 0 2 1 2 1 = a n+1 − 2 a n+2 a n+ 1 a n + 2 µ ¶ 1 1 n = 2a − . n +1 n +2 E X 1n = 2 Z − p 2 (b) Aus E X 12 = a6 ergibt sich ein Momentenschätzer für a in der Form â = 6m2 mit P m 2 = i X i2 . 230. Momentenschätzer. Beispiele. Bestimmen Sie mittels der Momentenmethode einen Momentenschätzer für θ bei den folgenden Verteilungen: (a) Die Gleichverteilung mit Dichte p θ (x) = ¡ ¢−1 Der Schätzer ist θ̂ = X̄ 1 1(−θ,θ) (x), 2θ θ>0 . (b) Die Gamma-Verteilung mit der Dichte p θ (x) = 231. te βα α−1 −βx x e 1R>0 (x) Γ(β) Weibull-Verteilung. Momentenschätzer. s p(x) = Seien X 1 , . . . , X n i.i.d. mit der Dich- µ ¶ 2θ 3 2 θ 2 x exp − x 1R>0 (x) π 2 wobei der Parameter θ > 0 unbekannt ist. Berechnen Sie den Momentenschätzer für θ basierend auf dem zweiten Moment. 232. Momentenschätzung vs Suffizienz. Betrachten Sie die Verteilungsfamilie von zweiseitigen Exponentialverteilungen gegeben durch die Dichte p θ (x) = 1 exp (−|x − θ|) , 2 θ∈R (a) Zeigen Sie mit dem ersten Moment, dass X̄ ein Momentenschätzer für θ ist. (b) Weisen Sie nach, dass dieser nicht suffizient für θ ist. 110 KAPITEL 3. MATHEMATISCHE STATISTIK Lösung. Wir berechnen zunächst den Erwartungswert der zweiseitigen Exponentialverteilung. Es gilt 1 x exp (−|x − θ|) d x R 2 Z 1 = (x + θ) exp(−|x|)d x 2 R Z Z 1 θ = x exp (−|x|) d x + exp (−|x|) d x 2 R 2 R Z ∞ =θ exp (−x) d x = θ. EX = Z 0 Daher erhalten wir θ̂ = X̄ . Nun werden wir zeigen, dass X̄ nicht suffizient für θ ist. Wäre X̄ suffizient für θ , so würde nach dem Faktorisierungssatz die Darstellbarkeit ! 1X x i , θ h(x 1 , · · · , x n ) p θ (x 1 , · · · , x n ) = g n i à folgen. Die Funktion à ! n X 1 p θ (x 1 , · · · , x n ) = n exp − |x i − θ| 2 i =1 ist positiv, so können wir den Quotienten p θ1 (x 1 , · · · , x n ) p θ2 (x 1 , · · · , x n ) à = exp − n X |x i − θ1 | + i =1 n X ! |x i − θ2 | = i =1 g (x̄, θ1 ) . g (x̄, θ2 ) für θ1 6= θ2 bilden und diesen logarithmieren: ¶ g (x̄, θ1 ) = G(x̄, θ1 , θ2 ). − |x i − θ1 | + |x i − θ2 | = log g (x̄, θ2 ) i =1 i =1 n X n X µ Sei nun n = 2, x 1 + x 2 = 0 und θ1 = 0, θ2 = 1. Dann gilt x 2 = −x 1 und G(x̄, θ1 , θ2 ) = G(0, 0, 1) ist konstant aber − n X i =1 |x i − θ1 | + n X |x i − θ2 | = −|x 1 | − |x 1 | + |x 1 − 1| + | − x 1 − 1| i =1 = −2|x 1 | + |x 1 − 1| + |x 1 + 1| ist keine konstante Funktion von x 1 . Widerspruch. AR1. Die Zufallsvariablen Z1 , . . . , Zn seien i.i.d. mit Z1 ∼ N (0, σ2 ). Die Zeitreihe (X i )1≤i ≤n heißt autoregressiv der Ordnung 1 oder AR (1), falls mit X 0 := µ und für 1 ≤ i ≤ n 233. X i = µ + β(X i −1 − µ) + Zi . (a) Verwenden Sie E X i , um einen Momentenschätzer für µ zu finden. (b) Nun seien µ = µ0 und β = β0 fix und bekannt und weiterhin X i − µ0 Ui = q . Pi −1 2 j β j =0 0 Verwenden Sie E(Ui2 ), um einen Momentenschätzer für σ2 zu finden. 3.4. MOMENTENMETHODE 111 234. Exponentialverteilung. Momentenschätzer. Die Zufallsvariablen X 1 , · · · , X n seien i.i.d. und exponentialverteilt mit Parametern a ∈ R, θ > 0 und der Dichte p a,θ = ³ x −a´ 1 exp − 1R>a (x). θ θ Zeigen Sie die folgenden Aussagen. (a) Der Erwartungswert, die Varianz und der zweite Moment von X 1 sind gegeben durch Var X = θ 2 , E X = a + θ, E X 2 = θ 2 + (a + θ)2 . (b) Die momentenerzeugende Funktion von X 1 ist ψa,θ (u) = e au 1 − θu für u < θ1 . (c) Berechnen Sie Momentenschätzer für (a, θ) basierend auf dem ersten und zweiten Moment von X 1 . Seien X 1 , · · · , X n i.i.d. Rayleigh- 235. Rayleigh-Verteilung. Momentenschätzer. verteilt mit der Dichte µ ¶ p θ (x) = x2 x exp − 2 1R>0 (x) 2 θ 2θ und dem unbekannten Parameter θ > 0. (a) Beweisen Sie die Formel E X i2n = 2n θ 2n Γ(n + 1) für alle n ∈ N. (b) Finden Sie einen Momentenschätzer für θ basierend auf dem zweiten Moment von X i . 236. Gamma-Verteilung. Momentenschätzer. Zufallsvariablen X 1 , . . . , X m mit der Dichte p a,λ (x) = Gegeben seien i.i.d. Gamma-verteilte λa a−1 −λx x e 1R≥0 (x) Γ(a) und Parametern a > 0 und λ > 0. (a) Zeigen Sie für ein positives n ∈ N E X in = a · . . . · (n + a − 1) . λn Dabei können Sie die Identität Γ(a + 1) = aΓ(a), a ∈ R \ {−1, −2, . . .}, verwenden. (b) Berechnen Sie einen Momentenschätzer für die Parameter a und λ basierend auf der Beobachtung von (X 1 , . . . , X m ). 112 KAPITEL 3. MATHEMATISCHE STATISTIK Lösung. (a) EX n λa a−1 −λx x e dx Γ(a) 0 Z ∞ λa+n a · . . . · (a + n − 1) x a+n−1 e −λx d x λn 0 Γ(n + a) a · . . . · (a + n − 1) λn Γ (a + n) . λn Γ (a) Z = = = = ∞ xn (b) Die Momentenschätzer für die Parameter a und λ sind a λ a(a + 1) 2 = EX λ2 a(a + 1) EX2 = (E X )2 2 a µ ¶ 1 2 EX = 1+ (E X )2 a (E X )2 a = E X 2 − (E X )2 EX λ = 2 E X − (E X )2 EX = Die Schätzer erhält man mit Substitutionen E X → n1 P i X und E X 2 → 1 n P i X 2. 237. Beta-Verteilung. Momentenschätzer. Gegeben seien X 1 , . . . , X n i.i.d. Betaverteilte Zufallsvariablen mit der Dichte p a,b (x) = 1 x a−1 (1 − x)b−1 1[0,1] (x) B (a, b) und Parametern a > 0 und b > 0. Dabei ist B (a, b) die Betafunktion charakterisiert durch B (a, b) = Γ(a)Γ(b) . Γ(a + b) (a) Zeigen Sie, dass das k -te Moment der Beta-Verteilung die Gleichung EX k = a +k −1 E X k−1 a +b +k −1 für k ∈ N und k ≥ 1 erfüllt. (b) Berechnen Sie den Momentenschätzer für die Parameter a und b basierend auf dem ersten und zweiten Moment. 3.5. KLEINSTE-QUADRATE-SCHÄTZER 113 Lösung. (a) Durch direktes Berechnen des k -ten Moments erhalten wir 1 1 x a−1 (1 − x)b−1 d x B (a, b) 0 Z B (a + k, b) 1 1 = x a+k−1 (1 − x)b−1 d x B (a, b) B (a + k, b) 0 B (a + k, b) . = b(a, b) EX k = Z xk Und daraus B (a + k, b) B (a, b) Γ(a + k)Γ(b) Γ(a + b) = Γ(a + b + k) Γ(a)Γ(b) Γ(a + k)Γ(a + b) = Γ(a + b + k)Γ(a) a +k −1 = E X k−1 . a +b +k −1 EX k = Es gilt auch a · . . . · (a + k − 1) . (a + b) · . . . · (a + b + k − 1) EX k = (b) Die Substitutionen E X = m̂1 = n1 Pn i =1 X i m̂ 1 = m̂ 2 = und E X 2 = m̂2 = n1 Pn 2 i =1 X i führen zu a a +b a(a + 1) . (a + b)(a + b + 1) Die Auflösung nach a und b liefert 3.5 â = b̂ = m̂ 12 − m̂ 22 m̂ 2 − m̂ 12 a(1 − m̂ 1 ) (m̂ 12 − m̂ 22 )(1 − m̂ 1 ) = . m̂ 1 (m̂ 2 − m̂ 12 )m̂ 1 Kleinste-Quadrate-Schätzer 238. Einfache lineare Regression. Beispielrechnung. Betrachten wir das lineare Modell Y i = θ1 + θ 2 x i + εi , i = 1, · · · , n. Ausgehend von den Daten X n = 10, X y i = 8, y i2 = 26, X x i2 = 200, X X x i = 40, x i y i = 20, berechnen Sie die Werte der Kleinste-Quadrate-Schätzer für die Parameter θ1 und θ2 . 114 KAPITEL 3. MATHEMATISCHE STATISTIK Lösung. Es ist die Funktion Q(θ, y) = n ¡ X y i − θ1 − θ2 x i ¢2 i =1 zu maximieren. Wir stellen also die Normalgleichungen n ¡ X ¢ ∂ Q= y i − θ1 − θ2 x i (−1) = 0 ∂θ1 i =1 n ¡ X ¢ ∂ Q= y i − θ1 − θ2 x i (−x i ) = 0 ∂θ2 i =1 auf und lösen diese. Wir sind nicht an der expliziten Darstellung der Funktion θ̂(y) interessiert, sondern an den Wert θ̂ , der auf unseren Daten basiert. X y i − nθ1 − θ2 x i = 0 X X X x i y i − θ1 x i − θ2 x i2 = 0 X ¢ 1 ¡X θ1 = y i − θ2 x i n 1 θ1 = (8 − 40θ2 ) 10 X Einsetzen in die Gleichung ∂ ∂θ2 Q = 0 liefert 2 − 4θ1 − 20θ2 = 0 ¶ 4 2 − 4 − 4θ2 − 20θ2 = 0 5 µ θ2 = − 3 10 θ1 = 2. 239. Gewichtete einfache lineare Regression. Kleinste-Quadrate -Schätzer θ̂ w im Modell Finden Sie eine Formel für den Y i = θ1 + θ 2 x i + εi wobei ε1 , . . . , εn unabhängig seien mit εi ∼ N (0, σ2 w i ). 3.6 Maximum-likelihood Schätzer 240. Mischung von Gleichverteilungen. MLE. Seien X 1 , . . . , X n i.i.d. mit Dichte p θ und θ ∈ [0, 1]. Zeigen Sie, dass der Maximum-Likelihood-Schätzer für p θ (x) = θ1(−1,0) (x) + (1 − θ) 1(0,1) (x) 1 Pn gerade θ̂ = n i =1 1(−1,0) (X i ) ist. 241. Normalverteilung. MLE. Seien X 1 , . . . , X n i.i.d. und X i ∼ N µ, σ2 mit bekanntem µ. Zeigen Sie, dass der Maximum-Likelihood-Schätzer von σ gerade ¡ σ̂2 (x) = ist. n 1X (X i − µ)2 n i =1 ¢ 3.6. MAXIMUM-LIKELIHOOD SCHÄTZER 115 Lösung. Die Likelihood-Funktion dieses Models ist n Y µ 1 p σ (x i ) = p L σ (x 1 , · · · , x n ) = 2π i =1 ¶n à ! n ¡ ¢2 1 X 1 exp − 2 xi − µ . σn 2σ i =1 Wir erhalten die Log-Likelihood-Funktion indem wir die Likelihood-Funktion logarithmieren. n ¡ p −n ¢2 1 X l σ (x 1 , · · · , x n ) = log 2π + log σ−n − 2 xi − µ 2σ i =1 n ¡ p ¢2 1 X = −n log 2π − n log σ − 2 xi − µ . 2σ i =1 Differenzieren liefert n ¡ ¢2 ∂ n 1 X l σ (x 1 , · · · , x n ) = − + 3 xi − µ ∂σ σ σ i =1 n ¡ X ¢2 ∂2 −2 −4 l (x , · · · , x ) = nσ − 3σ xi − µ . σ 1 n 2 ∂σ i =1 Wir lösen die Gleichung n ¡ ¢2 1 X ∂ n xi − µ = 0 l t (x i ) = − + 3 ∂σ σ σ i =1 n ¡ ¢2 1X σ̂2 = xi − µ . n i =1 Wir setzen den gefunden Schätzer in den Ausdruck ∂2 l ∂σ2 t ein und erhalten ¯ ¯ n2 3n 2 ∂2 ¯ = l (x ) − < 0. P P t i ¯ ∂σ2 (x i − µ)2 (x i − µ)2 σ=σ̂ Die letzte Ungleichung bedeutet, dass die Log-Likelihood-Funktion an der Stelle σ̂ ∂ konkav ist und die gefundene Lösung der Gleichung ∂σ l t = 0 tatsächlich das eindeutige Maximum der Likelihood-Funktion ist. 242. Exponentialverteilung. MLE. Seien X 1 , . . . , X n exponentialverteilt zum Parameter θ . Zeigen Sie, dass θ̂ = ( X̄ )−1 sowohl der Maximum-Likelihood-Schätzer als auch ein Momentenschätzer ist. 243. Maximum-Likelihood-Methode und Suffizienz. Sei p θ : θ ∈ Θ ein reguläres statistisches Modell und T (X ) eine suffiziente Statistik für θ . Weisen Sie nach, dass ein Maximum-Likelihood-Schätzer für θ eine Funktion von T (X ) ist. © ª Lösung. Sei θ̂(x¡ 1 , ·¢· · , x n ) = θ̂(x i ) ein Maximum-Likelihood-Schätzer für θ in einem regulären Model p θ θ∈Θ . Dann maximiert θ̂ die Likelihood-Funktion L θ (x i ) = n Y p θ (x i ) = g (T (x i ), θ) h(x i ) i =1 für fixes (x 1 , · · · , x n ) über alle θ ∈ Θ. Nachdem die Likelihood-Funktion L θ positiv ist und die Funktion h positiv gewählt werden kann, können wir anstelle von L θ die Funktion L̃ θ = g (T (x i ), θ) betrachten. L̃ θ hängt von (x 1 , · · · , x n ) nur über T (x), so können wir θ̂ als eine Funktion ansehen, die für ein fixes T (x 1 , · · · , x n ) ein θ ∈ Θ liefert, das die Funktion L θ (T ) = g (T, θ) maximiert. θ̂ ist also eine Funktion von T = T (x 1 , · · · , x n ). 116 KAPITEL 3. MATHEMATISCHE STATISTIK 244. Zweidimensionale Exponentialverteilung. MLE. Betrachtet werden i.i.d. Zufallsvariablen (Y1 , Z1 ), . . . , (Yn , Zn ). Weiterhin seien Y1 und Z1 unabhängig und exponentialverteilt mit Parametern λ > 0 bzw. µ > 0. Bestimmen Sie den MaximumLikelihood-Schätzer für (λ, µ). Lösung. Nachdem Yi und Zi unabhängig sind, genügt es den MLE für einen der beiden Zufallsvektoren zu bestimmen. Wir berechnen also den MLE für eine eindimensionale Exponentialverteilung mit Parameter θ . Die Likelihood-Funktion ist gegeben durch n Y L(x, θ) = θ exp (−θx i ) (3.2) µ ¶ X = exp −θ x i + log θ n (3.3) i =1 Die Log-Likelihood-Funktion ist dann gegeben durch l (θ, x) = n log θ − θ X xi (3.4) i ∂ l (θ, x) = ∂θ Wir setzen ∂ ∂θ l (θ, x) = 0 n X − xi θ i (3.5) ∂2 n l (θ, x) = − 2 < 0 2 ∂θ θ (3.6) und erhalten den MLE θ̂ = Somit ist der MLE für λ, µ = 1/ ȳ, 1/z̄ ¡ 245. ¢ ¡ 1 P 1 n ¢> xi i = 1 . x̄ (3.7) . Weibull-Verteilung. MLE. Seien X 1 , . . . , X n i.i.d. mit der Dichte s p θ (x) = 2θ 3 2 − θ x 2 x e 2 1R>0 (x) π wobei der Parameter θ > 0 unbekannt ist. Finden Sie den Maximum-LikelihoodSchätzer für θ und klären Sie, ob dieser eindeutig ist. Lösung. Wir berechnen den MLE für die oben angegebene Familie von WeibullVerteilungen indem wir die Log-Likelihood-Funktion maximieren. Die Likelihood-Funktion der Familie ist gegeben durch 2θ 3 L(θ, x) = π µ ¶ n2 Y i ¶ µ θ x i2 exp − x i2 . 2 Für die Log-Likelihood-Funktion gilt X ¢ n¡ θX 2 log 2 + 3 log θ − log π + 2 log x i − x 2 2 i i i ∂ 3n 1 X 2 l (θ, x) = − x ∂θ 2θ 2 i i l (θ, x) = ∂2 3n 1 l (θ, x) = − <0 2 ∂θ 2 θ2 ∀θ ∈ R>0 . 3.6. MAXIMUM-LIKELIHOOD SCHÄTZER 117 Somit ergibt sich die Formel für MLE 3n 1 X 2 ∂ l (θ, x) = − x =0 ∂θ 2θ 2 i i 3 θ̂ = 1 P 2 . n i xi Wegen ∂2 l (θ, x) < 0 ∂θ 2 ist der MLE θ̂ auch eindeutig. Mischung der Verteilungen. MLE. Seien p 1 und p 2 zwei Dichten. Für jedes θ ∈ [0, 1] ist dann die Mischung der beiden Verteilungen durch die Dichte 246. p θ (x) = θp 1 (x) + (1 − θ)p 2 (x) gegeben. (a) Betrachten Sie das parametrische Modell p θ : θ ∈ [0, 1] und bestimmen Sie eine notwendige und hinreichende Bedingung dafür, dass die Likelihood-Gleichung eine Lösung besitzt. © ª (b) Weisen Sie nach, dass diese Lösung, falls sie existiert, der eindeutige MaximumLikelihood-Schätzer für θ ist. (c) Was ist der Maximum-Likelihood-Schätzer, wenn die Likelihood-Gleichung keine Lösung besitzt? Lösung. Betrachten wir zunächst die Log-Likelihood-Funktion und ihre Ableitungen L(θ, x) = Y¡ ¢ θp 1 (x i ) + (1 − θ) p 2 (x i ) (3.8) i l (θ, x) = X ¡ ¢ log θp 1 (x i ) + (1 − θ) p 2 (x i ) (3.9) i X p 1 (x i ) − p 2 (x i ) ∂ l (θ, x) = ∂θ i θp 1 (x i ) + (1 − θ) p 2 (x i ) © ª2 2 X − p 1 (x i ) − p 2 (x i ) ∂ l (θ, x) = © ª2 ∂θ 2 θp 1 (x i ) + (1 − θ) p 2 (x i ) i (3.10) (3.11) Betrachten wir die Frage der Existenz des MLE. Im Falle p 1 (x i ) = p 2 (x i ) für einen Vektor (x 1 , · · · , x n ), hängt die Likelihood-Funktion L (θ, x) nicht von θ ab und somit kann θ̂(x) beliebig gesetzt werden. θ̂ ist in diesem Fall nicht eindeutig. Wenn es einen Vektor (x 1 , · · · , x n ) gibt, der uns erlaubt p 1 und p 2 zu unterscheiden, können wir die Bedingungen für die Existenz und Eindeutigkeit des MLE wie folgt konstruieren. Die Gleichung ∂ l (θ, x) = 0 ∂θ (3.12) ∂ ∂ hat genau dann genau eine Lösung wenn ∂θ l (θ, x)|θ=0 ≥ 0 und ∂θ l (θ, x)|θ=1 ≤ 0 gilt, da die zweite Ableitung der Log-Likelihood-Funktion stickt negativ ist und somit ist ∂ ∂θ l (θ, x) strikt monoton fallend in θ . Im Falle ∂ l (θ, x) > 0 ∂θ ∀θ ∈ [0, 1] (3.13) 118 KAPITEL 3. MATHEMATISCHE STATISTIK bzw. ∂ l (θ, x) < 0 ∂θ (3.14) ∀θ ∈ [0, 1] hat die Maximum-Likelihood-Gleichung keine Lösung und die die Maxima werden jeweils am Rand angenommen, d.h. θ̂ = 1 bzw. θ̂ = 0 und der MLE θ̂(x) kann für x eindeutig festgelegt werden. X 1 , . . . , X n i.i.d. und Beta(θ + 1, 1)-verteilt mit 247. Beta-Verteilung. MLE. Seien © ª dem Parameter θ ∈ Θ = η ∈ R : η > −1 . Die Dichte von X i ist also p θ (x) = (θ + 1)x θ 1[0,1] (x). (a) Bestimmen Sie den Maximum-Likelihood-Schätzer für θ basierend auf der Beobachtung von (X 1 , . . . , X n ). Zeigen Sie dabei, dass der von Ihnen gefundene Schätzer θ̂ das Maximum der Likelihood-Funktion ist. (b) Kann der Maximum-Likelihood-Schätzwert θ̂ (x 1 , . . . , x n ) auf dem Rand des Parameterraumes liegen? Lösung. (a) Die Likelihoodfunktion für eine Beobachtung (X 1 , . . . , X n ) ist !θ à L(θ, X ) = (θ + 1) n Y (3.15) Xi i l (θ, X ) = n log (θ + 1) + θ X log X i (3.16) i ∂ l (θ, X ) = ∂θ X n + log X i θ+1 i ∂2 n l (θ, X ) = − < 0. 2 ∂θ (θ + 1)2 ∂ ∂θ l (θ, X ) = 0 (3.17) (3.18) liefert n . log Xi i θ̂ = −1 − P (3.19) θ̂ ist eindeutiger MLE. (b) Nein, denn Θ offen ist. 248. Pareto-Verteilung. Suffizienz und MLE. verteilt mit der Dichte p θ (x) = θa θ x θ+1 Seien X 1 , . . . , X n i.i.d. und Pareto- 1R>a (x), wobei θ > 0 und a fix und bekannt sei. (a) Finden Sie eine reellwertige suffiziente Statistik T (X 1 , . . . , X n ) für θ . (b) Finden Sie den Maximum-Likelihood-Schätzer θ̂(X 1 , . . . , X n ) für θ . (c) Zeigen Sie, dass der von Ihnen gefundene Schätzer θ̂ suffizient ist. 3.6. MAXIMUM-LIKELIHOOD SCHÄTZER Lösung. Suffiziente Statistik T = Q 1 i xi 119 erhalten wir aus à n nθ p θ (X 1 , . . . , X n ) = θ a Y 1 i xi !θ−1 Y (3.20) 1R>a (x i ) i mit Hilfe des Faktorisierungstheorems. Die Berechnung folgt der üblichen Prozedur des Minimierens der Log-LikelihoodFunktion. ∂ l (x, a, θ) = ∂θ X n + n log a − log x i θ j (3.21) ∂2 n l (x, a, θ) = − 2 < 0 2 ∂θ θ n n ¡Q ¢= θ̂ = P ¡ log i i log x i − log a (3.22) xi a (3.23) ¢ Die suffiziente Statistik T = η(θ̂) ist eine Funktion des MLE, wobei η(x) = exp 1 ¡n ¢ x an (3.24) . Daher ist der MLE θ̂ auch suffizient. 249. Gamma-Verteilung. MLE. Seien X 1 , . . . , X n i.i.d. Gamma-verteilt mit der Dichte a λ x a−1 e −λx 1R>0 (x) Γ(a) und Parametern a und λ. Der Parameter a > 0 ist bekannt und fix. Der Parameter λ dagegen unbekannt und λ > 0. p a,λ (x) = (a) Berechnen Sie einen Maximum-likelihood Schätzer für λ basierend auf der Beobachtung von dem Vektor (X 1 , . . . , X n ). Zeigen Sie, dass der von Ihnen gefundene Schätzer λ̂ das Maximum der Likelihood-Funktion ist. (b) Ist der von Ihnen gefundene Maximum-likelihood Schätzer erwartungstreu? Begründen Sie Ihre Antwort. Dabei können Sie auf die Beziehung X 1 + . . . + X n ∼ Gamma(na, λ) zugreifen. Lösung. (a) Der Standardmethode folgend, berechnen wir die Log-likelihood Funktion und finden ihr Maximum. L(a, λ; X ) = λan Y a−1 −λxi x e Γ(a)n i i l (a, λ; X ) = na log λ − n log Γ (a) + (a − 1) (3.25) X i ∂ l (a, λ; X ) = ∂λ λ̂ = na X − xi = 0 λ i na P i xi ∂2 na l (a, λ; X ) = − 2 < 0 2 ∂λ λ ∀λ > 0. log x i − λ X xi (3.26) i (3.27) (3.28) (3.29) 120 KAPITEL 3. MATHEMATISCHE STATISTIK MLE ist also tatsächlich das Maximum der Likelihood Funktion. (b) Unter Benutzung von X 1 + . . . + X n ∼ Gamma(na, λ) berechnen wir na Eλ̂ = E P i Xi Z ∞ na λna na−1 −λx = x e dx x Γ(na) 0 Z naλna ∞ na−1−1 −λx x e dx = Γ(na) 0 naλna Γ(na − 1) = Γ(na) λna−1 na = λ. na − 1 (3.30) (3.31) (3.32) (3.33) (3.34) Der Schätzer λ̂ ist somit nicht erwartungstreu. 250. Lévy-Verteilung. Dichte und MLS. den Parametern (µ, σ) ∈ Θ = R × R>0 ist r p (µ,σ) (x) = Die Dichte der Lévy-Verteilung mit µ ¶ σ σ − 32 (x − µ) exp − 1R≥µ (x). 2π 2(x − µ) (a) Sei X ∼ N (0, σ1 ) normalverteilt mit σ > 0. Zeigen Sie, dass die Zufallsvariable Lévy-verteilt mit den Parametern (0, σ) ist. 1 X2 (b) Sei µ = 0. Zeigen Sie, dass (p (0,σ) )σ>0 eine exponentielle Familie ist. (c) Sei µ = 0. Berechnen Sie einen Maximum-Likelihood-Schätzer für σ, und klären Sie ob dieser eindeutig ist. Lösung. (a) Für ein y > 0 gilt µ ¶ ¡ ¢ 1 ≤ y = P 1 ≤ yX2 P 2 X Ãs ! 1 =P ≤ |X | y µ µ ¶¶ 1 = 2 1−P X < p y à Ãs !! σ = 2 1−Φ . y Die Dichte von 1 X2 erhalten wir durchs Differenzieren: Ãs ! µ ¶ µ ¶ ∂ 1 σ p 1 −3 P ≤ y = −2φ σ − y 2 ∂y X2 y 2 r µ ¶ 3 σ σ = exp − y−2 . 2π 2y Daher ist 1 X2 ∼ Lévy(σ). 3.7. UMVUE 121 (b) Für µ = 0 lässt sich die Dichte der Lévy-Verteilung in der Form µ ¶ σ 3 1 σ p 0,σ (y) = exp − 1R≥0 (y) − log y + log 2y 2 2 2π darstellen. (c) Der MLS ist σ̂ = P 3.7 n . 1/x i UMVUE Ein Model für das kein erwartungstreuer Schätzer existiert. Seien X 1 , . . . , X n i.i.d. bernoulliverteilt mit dem Parameter p ∈ (0, 1). Zeigen Sie, dass es keinen p erwartungstreuen Schätzer für q(p) = 1−p gibt. 251. Lösung. Sei T (X ) ein Schätzer. Nachdem es 2n verschiedene Werte gibt, die der Zufallsvektor X = (X 1 , · · · , X n ) annehmen kann, können wir den Erwartungswert von T explizit berechnen und erhalten E T (X ) = 2n X T (i )p ν(i ) (1 − p)n−ν(i ) . i =1 Dabei ist ν(i ) eine Funktion, die die Anzahl der Einser in der Binärdarstellung von i ∈ N angibt. T (X ) ist erwartungstreu, wenn E T (X ) = p 1−p p gilt. Nachdem aber E T (X ) ein Polynom in p ist und 1−p nicht als Polynom darstellbar ist, kann es keinen erwartungstreuen Schätzer für q(p) geben. 252. Verschobene Gleichverteilung. Seien X 1 , . . . , X n i.i.d. mit X 1 ∼ U (θ, θ + 1). Der Parameter θ sei unbekannt und X (1) = min {X 1 , . . . , X n } die kleinste Ordnungsgröße P der Daten und X̄ = n1 ni=1 X i . Betrachten Sie die beiden Schätzer T1 (X ) = X̄ − 1 2 T2 (X ) = X (1) − 1 . n +1 Zeigen Sie, dass beide Schätzer erwartungtreu sind. Berechnen Sie die Varianz der beiden Schätzer. Lösung. Wir berechnen jeweils Erwartungswert und Varianz der beiden Schätzer. Zunächst ist = E T1 (X ) = θ+1 1 xd x = θ + . 2 R θ µ ¶ 1X 1 1X 1 1 Xi − = θ + − = θ. n i 2 n i 2 2 Z E Xi Z xp θ (x)d x = (3.35) (3.36) 122 KAPITEL 3. MATHEMATISCHE STATISTIK Das heißt T1 ist erwartungstreu. Die Varianz von T1 berechnen wir folgendermassen " Var T1 = = = = # 1X 1 Var xi − n i 2 !2 # "à 1 1X Xi − − (E T1 )2 E n i 2 "à !2 # 1X 1X 1 E Xi − Xi + − θ2 n i n i 4 "à !2 # µ ¶ 1X 1 1 E Xi − θ + + − θ2 . n i 2 4 (3.37) (3.38) (3.39) (3.40) Nun ist "à E 1X Xi n i !2 # 1 X E Xi X j n2 i j µZ Z = x yd xd y = (3.41) = E Xi X j E X i2 = [θ,θ+1]2 Z θ+1 2 θ x dx = ¶2 θ+1 θ tdt µ ¶ 1 2 = θ+ 2 ¢ 1¡ (θ + 1)3 − θ 3 3 (3.42) (3.43) 1 = θ2 + θ + . 3 (3.44) Also gilt Var T1 auf µ ¶µ ¶ µ ¶ µ ¶ 1 1 2 1 2 1 1 2 1− θ+ + θ +θ+ − θ+ n 2 n 3 2 ¡ −1 ¢ 1 =O n . = 12n = (3.45) (3.46) 1 Nun kommen wir zu T2 = X (1) − n+1 . Die Berechnung des Erwartungswertes führt 1 E T2 (X ) = − + E X (1) Z n +1 E X (1) = min {x 1 , · · · , x n } d x 1 · · · d x n [θ,θ+1]n Z = min {x 1 + θ, · · · , x n + θ} d x 1 · · · d x n [0,1]n Z = θ+ min {x 1 , · · · , x n } d x 1 · · · d x n [0,1]n Z X = θ+ x σ(1) d x 1 · · · d x n (3.47) (3.48) (3.49) (3.50) (3.51) σ∈S n 0≤x σ(1) ≤...≤x σ(n) ≤1 wobei die Summe über alle n! Permutationen der n Elemente geführt wird. Es gilt Z 1 Z 0≤x 1 ≤...≤x n ≤1 x1 d x1 · · · d xn = 0 x2 Z ··· 0 x1 d x1 · · · d xn = 1 (n + 1)! (3.52) und X Z σ∈S n 0≤x σ(1) ≤...≤x σ(n) ≤1 x σ(1) d x 1 · · · d x n = 1 . n +1 (3.53) 3.7. UMVUE 123 Wir erhalten also 1 +θ n +1 (3.54) 1 + E X (1) = θ. n +1 (3.55) E X (1) = und E T2 = − Für die Berechnung der Varianz können wir folgendermassen vorgehen. Var T2 E T22 ¡ ¢ = E T22 − (E T2 )2 ·³ ´2 ¸ = = E X (1)− 1 (3.56) (3.57) n+1 · µ ¶ ¸ 1 2 2 2 = E X (1) − X (1) + n +1 n +1 £ 2 ¤ £ ¤ 2 E X (1) = E min {X 1 , · · · , X n } Z = min {x 1 , · · · , x n }2 d λn n [θ,θ+1] Z = min {x 1 + θ, · · · , x n + θ}2 d λn n [0,1] Z = θ 2 + 2θ min {x 1 , · · · , x n } + min {x 1 , · · · , x n }2 d λn (3.58) (3.59) (3.60) (3.61) (3.62) [0,1]n (3.63) Mit der Hilfsrechnung Z [0,1]n min {x 1 , · · · , x n }2 d λn = X Z σ∈S n = n! 0≤x σ(1) ≤...≤x σ(n) ≤1 2 x σ(1) d λn 1 2 = (n + 2) · · · 3 (n + 1) (n + 2) (3.64) (3.65) erhalten wir £ 2 ¤ 2 2θ E X (1) + = θ2 + n + 1 (n + 1) (n + 2) (3.66) und Var T2 µ ¶ ¸ 1 2 2 X (1) + − θ2 n +1 n +1 µ ¶ µ ¶ 2θ 2 2 1 1 2 2 − = θ + + θ+ + − θ2 n + 1 (n + 1) (n + 2) n + 1 n +1 n +1 n = = O (n −2 ). (n + 1)2 (n + 2) · 2 = E X (1) − (3.67) (3.68) (3.69) Die Varianz von T1 ist also um eine Größenordung höher als die von T2 . 253. UMVUE. Bernoulli-Verteilung. Seien X 1 , . . . , X n i.i.d. und X 1 Bernoulli(θ)verteilt. Zeigen Sie, dass der MLS X̄ ein UMVUE-Schätzer ist. 124 KAPITEL 3. MATHEMATISCHE STATISTIK Lösung. Betrachten wir den Schätzer X̄ . Aus bereits gelösten Übungsblättern wisP sen wir, dass X̄ unverzerrt für θ ist. Wir zeigen, dass die Statistik i X suffizient und vollständig ist und die Behauptung folgt mit dem Satz von Lehmann-Scheffé. Dazu sei g eine messbare reellwertige Funktion mit " à !# X Eθ g Xi =0 i für alle θ ∈ [0, 1]. Das ist äquivalent zu n X à g (k) P ¡P i Xi = k = 0 ∀θ. i k=0 Mit Hilfe der Identität P ! X ¢ ¡ ¢ X i = k = nk θ k (1 − θ)n−k folgern wir, dass die Funktion à ! n k f n (θ) = g (k) θ (1 − θ)n−k k k=0 n X ein Polynom vom Grad höchstens n in θ ist, und höchstens n verschiedene Nullstellen θ ∈ [0, 1] haben kann. Als Normalform dieses Polynoms erhalten wir à ! n k f n (θ) = g (k) θ (1 − θ)n−k k k=0 à ! à ! n X X n −k n k n−k = g (k) θ (−1)n−k−i θ n−k−i k i i =0 k=0 n X und mit ¡n−k ¢ i = n−k ¢ n−k−i ¡ schließlich à ! à ! X n k n−k n −k f n (θ) = g (k) θ (−1)n−k−i θ n−k−i k n − k − i i =0 k=0 à ! à ! n n−k X n k X n −k = g (k) θ (−1)i θ i k i i =0 k=0 à !à ! n n−k X X n −k n = (−1)i g (k) θ i +k i k k=0 i =0 " à !à ! # p n X X n −k n p−k = (−1) g (k) θ p . p=0 k=0 p − k k n X Durchs Betrachten der Koeffizienten dieses Polynoms in aufsteigender Reihenfolge erhalten wir induktiv g (0) = 0, g (1) = 0, . . . und nach n Schritten g (n) = 0. Damit ist g ≡ 0 P und die Statistik i X i vollständig. Aus den bereits gelösten Übungsblättern wissen P wir, dass i X i suffizient für θ ist. Mit " E X̄ | # X X i = X̄ i und dem Satz von Lehmann-Scheffé folgt die Behauptung. 3.7. UMVUE 125 254. Diskrete Gleichverteilung. MLE und UMVUE. Seien X 1 , . . . , X n i.i.d. diskret Gleichverteilt auf der Menge {1, 2, . . . , θ}. (a) Zeigen Sie, dass der Maximum-Likelihood-Schätzer für θ gerade θ̂(X 1 , . . . , X n ) = X (n) = max {X 1 , . . . , X n } ist. (b) Zeigen Sie, dass θ̂ = X (n) vollständig und suffizient jedoch verzerrt ist. (c) Konstruieren Sie einen UMVUE-Schätzer der folgenden Gestalt n+1 X (n) − (X (n) − 1)n+1 n X (n) − (X (n) − 1)n . Lösung. Die Likelihood-Funktion ist L(θ, x) = 1 Y 1[0,θ] (x i ). θn i Für einen fixen Set von i.i.d. Beobachtungen (x 1 , . . . , x n ) wird die Likelihood-Funktion von θ̂(X ) = X (n) minimiert, denn L(θ̂(x), x) = max {L(θ, x) : θ ∈ Θ} und für jedes kleinere θ̄ < θ̂ ist die Likelihood-Funtion gleich Null, für alle größeren θ̄ entfernen wir uns von dem Maximum wegen der in θ fallender Funktion θ1n . Der Erwartungswert von X (n) ist kleiner als θ denn X E X (n) = X (n) X ∈{1,...,θ}n 1 θn kann abgeschätzt werden, indem X (n) durch θ ersetzt wird. Das liefert uns E X (n) < θ . Wegen p θ (x) = ¡ ¢ 1 1[0,θ] X (n) n θ ist X (n) auch suffizient. Für den Beweis der Vollständigkeit setzen wir voraus, dass E θ g (X (n) ) = 0 für alle θ ∈ Θ und ein messbares g gilt. Mit θ = 1 erhalten wir g (1) = 0, θ = 2 impliziert g (2) = 0 und so weiter. Damit folgt g ≡ 0, P (g (X (n) = 0)) = 1 und die Vollständigkeit von X (n) . Ein UMVUE-Schätzer ist eine Funktion h(X (n) ) mit E h(X (n) ) = θ . Diese Überlegung führt uns zu E h(X (n) ) = X x∈{0,...,θ} E h(X (n) ) = θ X h(x (n) ) n 1 =θ θn h(m)(m n − (m − 1)n ) = θ n+1 m=1 und h(m) = m n+1 − (m − 1)n+1 . m n − (m − 1)n 126 KAPITEL 3. MATHEMATISCHE STATISTIK 255. Vollständigkeit und UMVUE. Seien X 1 , . . . , X n i.i.d., wobei X 1 eine diskrete Zufallsvariable mit Wahrscheinlichkeitsfunktion µ ¶|x| θ (1 − θ)1−|x| , x ∈ {−1, 0, 1} , p θ (x) = P θ (X 1 = x) = 2 und unbekanntem Parameter θ ∈ (0, 1) sei. Untersuchen Sie die beiden Schätzer T1 (X ) = X 1 und T2 (X ) = |X 1 | auf Vollständigkeit. Bestimmen Sie einen UMVUE-Schätzer für θ . Lösung. Wir untersuchen zuerst die Vollständigkeit der beiden Schätzer T1 und T2 . Die Dichte von X 1 , . . . , X n ist µ ¶ Y θ |xi | (1 − θ)1−|xi | 2 i µ ¶P |xi | P θ i = (1 − θ)n− i |xi | . 2 p θ (x 1 , · · · , x n ) = (3.70) (3.71) Nehmen wir an, dass für alle θ E θ g (T1 (X )) = 0 (3.72) g (x 1 )p θ (x 1 , · · · , x n ) (3.73) gilt. Das ist äquivalent zu E θ g (X 1 ) = X x i ∈{−1,0,1} = = µ ¶P |xi | P θ i g (x 1 ) (1 − θ)n− i |xi | 2 x i ∈{−1,0,1} " # µ ¶P |xi | P X X θ i g (x 1 ) (1 − θ)n− i |xi | . x 1 ∈{−1,0,1} x 2,...,n ∈{−1,0,1} 2 X (3.74) (3.75) Sei nun A(x 1 , θ) = µ ¶P |xi | P θ i (1 − θ)n− i |xi | . x 2,...,n ∈{−1,0,1} 2 X (3.76) Es ist also X E θ g (T1 (X )) = g (x 1 )A (x 1 , θ) . (3.77) x i ∈{−1,0,1} Nachdem aber A (x 1 , θ) = A(−x 1 , θ) wählen wir g (x) = x und erhalten E θ g (T1 (X )) = 0 ∀θ ∈ Θ (3.78) obwohl g 6≡ 0. T1 (X ) = X 1 ist demzufolge nicht vollständig. Für T2 (X ) führen wir gleiche Rechnung durch und erhalten E θ (g (T2 (X ))) = X g (|x 1 |)A (x 1 , θ) (3.79) x i ∈{−1,0,1} = 2g (1)A(1, θ) + g (0)A(0, θ) = 0 ∀θ ∈ (0, 1). (3.80) A(1, θ) und A(0, θ) sind Polynome vom Grad n . A(0, θ) hat aber im Gegensatz zu A(1, θ) einen nicht verschwindenden konstanten Koeffizienten mit Wert 1. Dieser Koeffizient kommt vom Summanden (x 2 , . . . , x n ) = 0 in der Darstellung µ ¶P |xi | P θ i A(0, θ) = (1 − θ)n− i |xi | . x 2,...,n ∈{−1,0,1} 2 X (3.81) 3.7. UMVUE 127 Daher ist g ≡ 0 und die Statistik T2 (X ) vollständig. Für die Berechnung eines UMVUE-Schätzers sind die obigen Berechnungen nur indirekt hilfreich, da sowohl T1 (X ) als auch T2 (X ) nicht suffizient für θ sind. Für das Auffinden eines UMVUE-Schätzers benötigen wir einiger Beobachtungen. Zunächst ist die Zufallsvariable |X i | Bernoulli verteilt und daher gilt E θ |X i | = θ . T3 (X ) = 1 Pn n i =1 |X i | ist also ein unverzerrter Schätzer für θ und binomialverteilt. T3 ist auch suffizient für θ , denn es gilt P (X = (x 1 , . . . , x n ) |T3 = y) = 1{ ³ ´P P P i |x i | n− i |x i | θ − θ) (1 |x |=y } 2 i i P ¡n ¢ P |x | i (1 − θ)n− i |x i | i θ k à !−1 µ ¶P |x | = 1{Pi |xi |=y } n k 1 2 i (3.82) i . (3.83) Daher ist T3 ein UMVUE-Schätzer für θ . 256. Vollständigkeit. Seien die Statistiken T und S mit S = η(T ) und einer messbaren Abbildung η gegeben. (a) Zeigen Sie: Falls T vollständig ist, so ist S ebenfalls vollständig. (b) Geben Sie ein Beispiel einer nicht vollständigen Statistik, in einem von Ihnen gewählten statistischen Modell. (c) Zeigen Sie, dass die Umkehrung der ersten Aussage falsch ist: Aus Vollständigkeit von S folgt nicht die Vollständigkeit von T . Konstruieren Sie ein Gegenbeispiel. Lösung. (a) T ist vollständig, d.h. für ein messbares g gilt, E θ g (T ) = 0 für alle θ impli¡ ¢ ziert P θ g (T ) = 0 = 1 für alle θ . Für ein g ist E g (S) = 0 ∀θ genau dann wenn ¡ ¢ E g (η(T )) = 0 ∀θ , impliziert P g (η(T )) = 0 = 1 ∀θ . Das ist aber gleichbedeutend mit ¡ ¢ P g (S) = 0 = 1 ∀θ . S ist also vollständig. (b) Sei Θ einelementig, X ∼¡N (0, 1) und¢ T (X ) = X . Für g = id ist zwar E θ g (T (X )) = E θ X = 0 ∀θ aber nicht P θ g (T (X )) = 0 = P θ (X = 0) = 1. T (X ) ist also nicht vollständig. (c) Für eine beliebige unvollständige Statistik T und η ≡ 0 ist S = η(T ) vollständig. 257. Stichprobenvarianz als UMVUE bei Normalverteilung. Seien X 1 , . . . , X n i.i.d. mit X i ∼ N (µ, σ2 ) und µ ∈ R sowie σ > 0. Dann ist die Stichprobenvarianz s 2 (X ) = n 1 X (X i − X̄ )2 n − 1 i =1 ein UMVUE-Schätzer für σ, falls µ unbekannt ist. Ist µ hingegen bekannt, so ist s 2 (X ) kein UMVUE-Schätzer von σ. 128 KAPITEL 3. MATHEMATISCHE STATISTIK Lösung. Die erste Aussage wurde bereits in der Vorlesung behandelt. Sei also µ = µ0 bekannt und fix. Wir wollen die Normalverteilung mit bekanntem Erwartungswert als exponentielle Familie schreiben und mit Hilfe eines Satzes aus der Vorlesung eine vollständige und suffiziente Statistik gewinnen. Es gilt ¶ µ 1 ³ x i − µ0 ´2 exp − p 2 σ 2πσ2 i à ! n ¢2 ¡ ¢ 1 X¡ − = exp − 2 x i − µ0 + log 2πσ2 2 . 2σ i p σ (x i ) = Y 1 (3.84) (3.85) ¢2 Damit erhalten wir c(σ2 ) = − 2σ1 2 und T (X ) = i X i − µ0 . Da c (Θ) = c(R>0 ) = R<0 ein offenes Rechteck enthält, ist T (X ) eine vollständige und suffiziente Statistik für σ2 . Da die Stichprobenvarianz P ¡ σ̂2 (X ) = n 1X (X i − µ0 ) n i =1 (3.86) bei festgehaltenem µ0 ein unverzerrter Schätzer für σ2 ist, können wir den Satz von Lehmann-Scheffé anwenden und berechnen " # n ¡ n 1¡ n 1¡ X X X ¢ ¢ ¢2 2 2 X i − µ0 | X i − µ0 = σ̂2 (X ). T ∗ (X ) = E X i − µ0 = i =1 n i =1 i =1 n (3.87) Die Stichprobenvarianz σ̂2 (X ) ist somit der eindeutige UMVUE-Schätzer für σ2 . Daher kann s 2 (X ) in diesem Kontext kein UMVUE-Schätzer sein. 258. UMVUE. Normalverteilung. Sei X 1 , . . . , X n eine i.i.d. Stichprobe mit X 1 ∼ N (µ, 1). Finden Sie den UMVUE-Schätzer für P µ (X 1 > 0). Betrachten Sie dazu die gemeinsame Verteilung von (X 1 , X̄ ). Lösung. Der Satz von Lehmann-Schéffe ist das wichtigste Tool zur Gewinnung der UMVUE -Schätzern das uns derzeit zur Verfügung. Wir versuchen ihn auch diesmal anzuwenden. Dazu brauchen wir einen unverzerrten Schätzer für P (X 1 > 0), also einen Schätzer S(X ) mit der Eigenschaft E µ [S(X )] = P µ (X 1 > 0). Dies ist aber genau die Eigenschaft der Zufallsvariable 1{X 1 >0} , denn £ ¤ E µ 1{X 1 >0} = P µ (X 1 > 0). Als eine suffiziente und vollständige Statistik verwenden wir X̄ . Nun mit Hilfe der Rao-Blackwellisierung erhalten wir einen UMVU Schätzer £ ¤ ¡ ¢ ¡ ¢ E µ 1{X 1 >0} | X̄ = P µ X 1 > 0| X̄ = P µ X 1 − X̄ > − X̄ | X̄ . Da ¡X 1 und X̄¢ normalverteilt sind mit E X 1 = E X̄ = µ, Var (X 1 ) = 1 und Var X̄ = n1 sowie cov X 1 − X̄ , X̄ = cov(X 1 , X̄ ) − cov( X̄ , X̄ ) = 0 gilt, sind die Zufallsvariablen X 1 − X̄ und X̄ unkorreliert und damit unabhängig. So ist ¡ ¢ ¡ ¢ P µ X 1 − X̄ > − X̄ | X̄ = x̄ = P µ (Z > −x̄) 3.7. UMVUE 129 für Z = X 1 − X̄ . Nachdem E Z = 0 und ¡ ¢ Var Z = Var X 1 − X̄ à ! n −1 1X = Var X1 − Xi n n i ≥2 µ ¶ n −1 2 1 X + 2 Var (X i ) = n n i ≥2 n −1 = n is qZ n−1 2 standardnormalverteilt. So gilt Z P µ Z > − X̄ = P µ q ¡ ¢ n−1 n − X̄ >q n−1 n − X̄ = 1−Φq n−1 n und ein UMVUE-Schätzer für P (X 1 > 0) ist bestimmt. 259. Cramér-Rao Regularität und exponentielle Familien. rametrige exponentielle Familie mit Für eine einpa- p(x, θ) = exp (c(θ)T (x) + d (θ) + S(x)) 1 A (x), ∂ sodass c differenzierbar mit ∂θ c(θ) 6= 0 für alle θ ∈ Θ und Θ offen in R ist, sind die Bedingungen (CR) erfüllt. R ∂ Hinweis: Sie können für die Vertauschbarkeit von ∂θ und den Satz von der monotonen Konvergenz verwenden. Lösung. Für eine Statistik T (X ) mit E θ (|T (X )|) < ∞ zeigen wir, dass für alle θ ∈ Θ ∂ ∂θ Z R T (x)p(x, θ)d x = Z ∂ p(x, θ)T (x)d x R ∂θ (3.88) gilt. Zunächst können wir die exponentielle Darstellung von p(x, θ) reparametrisieren und die Dichte als natürliche exponentielle Familie p(x, θ) = exp (θT (x) + d 0 (θ) + S(x)) 1 A (x) (3.89) schreiben. Wir vereinfachen nun die Darstellung von p(x, θ) indem wir das eindimensionale Lebesguemass durch ein absolut stetiges Mass auf R ersetzen. So ist Z R T (x)p(x, θ)d x Z = = ZR R T (x) exp (θT (x) + d 0 (θ) + S(x)) 1 A (x)d x (3.90) T (x) exp (θT (X ) + d 0 (θ)) d µ (3.91) 130 KAPITEL 3. MATHEMATISCHE STATISTIK Wir zeigen nun ein Hilfsresultat. Es gilt ∂ ∂θ Z R Z e θT (x) d µ = ∂ θT (x) e d µ. R ∂θ (3.92) falls die entsprechenden Integrale existieren und endlich sind. Die Ableitung von R θT (x) e nach θ ist der Grenzwert des Quotienten Z e θ1 T (x) − e θ2 T (x) . θ1 − θ2 (3.93) Den Integranden schätzen wir mit |e y − e x | ≤ e x |y − x| wie folgt ¯ ¯ ¯ e θ1 T (x) − e θ2 T (x) ¯ ¯ ¯ ¯ ¯ ≤ ¯ ¯ θ1 − θ2 e θ2 T (x) |(θ2 − θ1 )T (x)| |θ1 − θ2 | (3.94) ab. Die letzte Funktion ist integrierbar was zusammen mit dem Satz von der majorisierten Konvergenz die Gleichung (3.92) rechtfertigt. Beachten Sie, dass wir bei dieser ∂ Überlegung die Voraussetzungen Θ ist offen und ∂θ c(θ) 6= 0 benutzt haben. Da p(x, θ) eine Dichte ist und somit integrierbar, können wir aus Z R e θT (x)+d0 (θ) d µ = 1 (3.95) die Darstellung e −d 0 (θ) Z = R e θT (x) d µ (3.96) ableiten und stellen mit Hilfe von (3.92) die Differenzierbarkeit von d 0 (θ) fest. E θ (|T (X )|) < ∞ impliziert, dass T (X ) als Differenz zweier positiver integrierbarer Funktionen T (X ) = T + (X ) − T − (X ) geschrieben werden kann. Das führt uns zu Z R T (x)e θT (X )+d0 (θ) d µ = Z R T (x)+ e θT (X )+d0 (θ) d µ − (3.97) Z T (x)− e θT (X )+d0 (θ) d µ Z Z d 0 (θ) θT (X ) + d 0 (θ) = e e dµ − e e θT (X ) d µ− R R R (3.98) (3.99) indem wir T + und T − in den neuen Massen µ+ und µ− verschwinden lassen. Nun können wir das Resultat (3.92) und die Differenzierbarkeit von d0 (θ) anwenden und erhalten (3.88). Mit Hilfe der obigen Überlegungen können wir auch die Existenz der Ableitung ∂ ∂θ log p(x, θ) sicherstellen. Die Übrigen Bedingungen aus ( CR ) sind in unseren Voraussetzungen enthalten. 260. UMVUE. Exponentialverteilung. Seien X 1 , . . . , X m i.i.d. und X i ∼ Exp(θ) exponentialverteilt mit der Dichte θe −θx 1R>0 (x) und θ > 0. (a) Finden Sie einen UMVUE-Schätzer für q(θ) = θ12 . (b) Zeigen Sie, dass dieser die untere Schranke der Informationsungleichung nicht annimmt. 3.7. UMVUE 131 Lösung. (a) Wir stellen die Dichte der Exponentialverteilung als exponentielle Familie ¡ ¢ p θ (x) = exp −θx + log θ 1R>0 (x) dar. Damit ist T (X ) = P i X i eine vollständige und suffiziente Statistik. Laut Satz von Lehmann-Schéffe muss der eindeutige UMVUE-Schätzer eine Funktion h(T (X )) der vollständigen Statistik T (X ) sein. Nachdem der Schätzer h(T (X )) erwartungstreu ist, muss E θ h(T (X )) = gelten. Mit Hilfe von konstruieren. P i 1 θ2 X i ∼ Gamma(n, θ), können wir eine Gleichung für h Z E θ h(T (X )) = R h(x) ∞ Z h(x) 0 θ n n−1 −θx 1 x e 1R>0 (x)d x = 2 Γ(n) θ θ n+2 n−1 −θx x e dx = 1 Γ(n) 2 x Die Gleichheit gilt für h(x) = n(n+1) . Damit ist à S(X ) = h ! X Xi = i der eindeutige UMVUE-Schätzer für ¡P i Xi ¢2 n(n + 1) 1 . θ2 (b) Wir berechnen nun die Schranke der Informationsungleichung – die ( CR ) Bedingungen sind erfüllt, da Exp(θ) eine exponentielle Familie mit c 0 (θ) 6= 0 und ¡ ¢ 2 offenem Parameterraum ist. Es gilt Ψ(θ) = θ12 und Ψ0 (θ) = θ46 , sowie ¶2 ∂ log p(X , θ) ∂θ µ ¶2 ∂ 1 = Eθ log θ − θx = 2 . ∂θ θ µ I 1 (θ) = E θ Damit bekommen wir die Schranke für die Varianz ¡ 0 ¢2 Ψ (θ) nI 1 (θ) = 4 . nθ 4 Mit dieser Schranke können wir die Varianz des Schätzers S(X ) in Beziehung setzen. ¶2 n t2 θ t n−1 e −θt d t n(n + 1) Γ(n) 0 Z (n + 2)(n + 3) ∞ θ4 = t n+4−1 e −θt d t n(n + 1)θ 4 0 Γ(n + 4) (n + 2)(n + 3) = n(n + 1)θ 4 (n + 2)(n + 3) 1 Varθ S(X ) = − 4 n(n + 1)θ 4 θ E θ S(X )2 = Z ∞µ 132 KAPITEL 3. MATHEMATISCHE STATISTIK Nun zeigen wir Varθ S(X ) > ¡ 0 ¢2 Ψ (θ) nI 1 (θ) 4 (n + 2)(n + 3) 1 − 4> n(n + 1)θ 4 θ nθ 4 (n + 2)(n + 3) n + 4 > 4 n(n + 1)θ 4 θ n (n + 2)(n + 3) > (n + 4)(n + 1). 261. UMVUE. Gamma-Verteilung. Eine Stichprobe X 1 , . . . , X n sei i.i.d. und Gammaverteilt mit bekanntem Parameter a > 0 und unbekanntem Parameter λ > 0, d.h. X 1 hat die Dichte a p λ (x) = λ x a−1 e −λx 1R>0 (x). Γ(a) Finden Sie mit Hilfe der Informationsungleichung einen UMVUE-Schätzer für q(λ) = λ1 . Lösung. Die Lösungsmethode ist hier einen unverzerrten Schätzer mit der kleinstmöglichen Varianz zu finden, d.h. der Varianz aus der Informationsungleichung. Zuerst überprüfen wir die (CR) Bedingungen indem wir p λ (x) als exponentielle Familie ¡ ¢ p λ (x) = exp a log λ − Γ(a) + (a − 1) log x − λx 1R>0 (x) darstellen. c(λ) = −λ ist differenzierbar mit c 0 (λ) = −1 6= 0 und Θ = R>0 ist offen. Damit sind ( CR ) Bedingungen erfüllt. Nachdem q(λ) = λ1 und E λ X i = λa gilt, wählen wir den Schätzer T (X ) = 1 X̄ . a T (X ) ist erwartungstreu und hat die Varianz 1 X Xi na i X 1 = 2 2 Varλ X i a n i 1 an 1 = 2 2 2 = . a n λ anλ2 Varλ T (X ) = Varλ Letzes gilt wegen für X = X i . P i X i ∼ Gamma(na, λ). Nun berechnen wir die Fischer-Information ∂ log p(X , λ) ∂λ ∂ λa a−1 −λX = Varλ log X e 1R>0 (X ) ∂λ Γ(a) ¢ ∂ ¡ = Varλ a log λ − λX ³∂λ ´ a a = Varλ −X = 2 λ λ I 1 (λ) = Varλ Mit Ψ(λ) = q(λ) = E λ T (X ) = 1 λ 3.7. UMVUE 133 ¡ 0 ¢2 1 Ψ (λ) = 4 λ ergibt sich ¡ 0 ¢2 Ψ (λ) nI 1 (λ) = 1 λ2 1 = 4 λ an anλ2 und Varλ T (X ) = ¡ 0 ¢2 Ψ (λ) I (λ) . Damit ist T (X ) ein UMVUE-Schätzer für q(λ) = λ1 . 262. Informationsungleichung und Normalverteilung. Gegeben seien X 1 , . . . , X n i.i.d. normalverteilte Zufallsvariablen mit X i ∼ N (θ, σ2 ), wobei θ ∈ R und σ bekannt und fix ist. (a) Zeigen Sie, dass dieses Modell Cramér-Rao-Regularitätsbedingungen erfüllt. (b) Berechnen Sie die Fischer-Information für den Parameter θ . (c) Berechnen Sie die Cramér-Rao-Schranke für die Varianz des Schätzers T (X ) = X̄ = n 1X Xi . n i =1 (3.100) 263. Cramér-Rao-Schranke und die Gleichverteilung. Seien X 1 , . . . , X n i.i.d. und X i ∼ U (0, θ) mit unbekanntem θ > 0. Es bezeichne I (θ) die Fischer-Information. (a) Weisen Sie nach, dass T (X ) = n+1 n X (n) ein erwartungstreuer Schätzer für θ ist und Varθ (T (X )) < 1 , I (θ) für alle θ > 0. (b) Klären Sie, wieso dies nicht im Widerspruch zu der Cramér-Rao-Schranke Varθ (T (X )) ≥ 1 I (θ) steht. Lösung. Wir zeigen zuerst, dass T (X ) ein erwartungstreuer Schätzer für θ ist. Dazu berechnen wir die Verteilung von X (n) . ¡ ¢ P X (n) ≤ t = P (X 1 ≤ t , . . . , X n ≤ t ) = (P (X 1 ≤ t ))n Daraus ergibt sich θ Z E θ X (n) = xd P X (n) (x) Z θ µ n ¶0 x = x n dx θ 0 Z θ xn = n n dx θ 0 Z θ n = (n + 1)x n d x (n + 1)θ n 0 n 1 n+1 n = θ = θ. n n +1 θ n +1 0 134 KAPITEL 3. MATHEMATISCHE STATISTIK Daher ist T (X ) = n+1 n X (n) erwartungstreu für θ . Die Fischer-Information für X 1 ist µ I 1 (θ) = E θ ∂ 1 log ∂θ θ ¶2 ∂ − log θ ∂θ 1 1 = Eθ 2 = 2 . θ θ µ ¶2 = Eθ Somit ist I (θ) = nI 1 (θ) = n . θ2 Berechnen wir nun n +1 Var T (X ) = Var X (n) n ¶2 µ ¶2 µ n +1 n +1 X (n) − E X (n) =E n n µ ¶ n +1 2 2 = E X (n) − θ2 n Z θ 2 x 2 d P X (n) (x) E X (n) = 0 Z n θ n+1 θ 2 n = n x = θ 0 n +2 µ ¶2 2 n +1 θ n θ2 Var T (X ) = − θ2 = . n n +2 n(n + 2) Damit ist Varθ T (X ) = θ2 θ2 1 < = . n(n + 2) n I (θ) Erklärung dafür ist die folgende. Der Träger der Dichte von X i ist vom Parameter θ abhängig und daher sind die ( CR ) Bedingungen verletzt. Deswegen muss die Informationsungleichung für dieses Modell nicht gelten. 264. Cramér-Rao-Schranke ist nicht scharf. Es ist durchaus möglich, dass ein UMVUE-Schätzer eine größere Varianz als die untere Schranke Varθ (T (X )) ≥ 1 I (θ) hat. Betrachtet werden dazu X 1 , . . . , X n i.i.d. mit X i ∼ Poiss(θ) für unbekanntes θ > 0. (a) Zeigen Sie, dass ¶Pn µ 1 i =1 X i T (X ) = 1 − n ein UMVUE-Schätzer für g (θ) = e −θ ist. (b) Zeigen Sie weiterhin, dass die Varianz von T (X ) die Schranke in der Informationsungleichung 0 Φ (θ)2 Varθ (T (X )) ≥ I (θ) für kein θ annimmt. 3.7. UMVUE 135 Lösung. Wir stellen zuerst sicher, dass T (X ) ein UMVUE-Schätzer für g (θ) = e −θ . Nachdem die Summe von poissonverteilten Zufallsvariablen wieder poissonverteilt P P ist, und zwar i X i ∼ Poiss( i λi ) für X i ∼ Poiss(λi ), erhalten wir ! µ ¶ à X 1 k E θ T (X ) = 1− P Xi = k n i k≥0 ¶ µ X 1 k −nθ (nθ)k e = 1− n k! k≥0 X = e −nθ X (n − 1)k θ k k! k≥0 = e −nθ e (n−1)θ = e −θ . T (X ) ist also erwartungstreu für g (θ). Aus der Vorlesung wissen wir, dass i X i eine vollständige und suffiziente Statistik P ist, wenn die Zufallsvariablen X i poissonverteilt sind. T (X ) ist eine Funktion von i X i und damit ein UMVUE-Schätzer für e −θ . Wir berechnen nun die Varianz von T (X ). P µ ¶P 1 i Xi Varθ T (X ) = Varθ 1 − n õ ¶P !2 à µ ¶P !2 1 i Xi 1 i Xi − Eθ 1 − = Eθ 1 − n n µ ¶Pi X i 1 Eθ 1 − = e −θ n õ à ! ¶P !2 µ ¶ X X 1 i Xi 1 2k Eθ 1 − = 1− P Xi = k n n i k≥0 ¶ µ X 1 2k −nθ (nθ)k = e 1− n k! k≥0 ³ ´ k (n−1)2 θ X n −nθ = e k! k≥0 µ ¶ µ µ ¶¶ (n − 1)2 θ 1 = exp (−nθ) exp = exp θ −2 + n n µ ¶ θ(1 − 2n) Varθ T (X ) = exp − exp (−2θ) . n Nun zur Informationsungleichung. Wir haben Ψ(θ) = g (θ) = E T (X ) und Ψ0 (θ) = ¡ ¢ 2 −e −θ und daher Ψ0 (θ) = e −2θ . Die Fischer-Information I (θ) = nθ wurde bereits in der Vorlesung berechnet. Damit erhalten wir ¡ 0 ¢2 Ψ (θ) I (θ) = θe −2θ . n Wir zeigen nun ¡ 0 ¢2 ¶ Ψ (θ) θ(1 − 2n) θe −2θ exp − exp (−2θ) = Varθ T (X ) > = n I (θ) n µ 136 KAPITEL 3. MATHEMATISCHE STATISTIK indem wir äquivalente Ungleichungen betrachten. ¶ θ(1 − 2n) θe −2θ exp − exp (−2θ) > n n ¶ µ ¶ µ θ θ −2θ exp − 2θ > e 1+ n n µ ¶ θ n θ > log 1 + . n µ Wir wissen aber, dass µ ¶ θ n e θ = lim 1 + n→∞ n gilt, und dass die Approximationsfolge streng monoton wachsend ist. Damit ist die Ungleichung für alle θ > 0 bewiesen. Daraus können wir ableiten, dass die Schranke in der Informationsungleichung nie angenommen wird. 265. Log-Normal-Verteilung. MLS und UMVUE. variablen X 1 , · · · , X n mit der Dichte Gegeben seien i.i.d. Zufalls- à ¡ ¢2 ! log x − µ 1 g µ (x) = p exp − 1R>0 (x) 2 x 2π und dem unbekannten Parameter µ ∈ R. (a) Finden Sie einen Maximum-Likelihood-Schätzer (MLS) für den Parameter µ. (b) Zeigen Sie, dass der von Ihnen gefundene MLS erwartungstreu ist. Dabei können Sie die Darstellung als natürliche exponentielle Familie benutzen oder direkt den Erwartungswert von dem MLS berechnen. (c) Finden Sie einen UMVUE Schätzer für µ. Lösung. Einer Standardprozedur folgend berechnen wir den MLS. à ! n ¡ p −n ¢2 1X L(x 1 , · · · , x n ) = 2π exp − log x i − µ 2 i =1 X ¢2 1 X¡ n log x i − µ l (x 1 , · · · , x n ) = − x i − log 2π − 2 2 i i X¡ ¢ X ∂ l= log x i − µ = log x i − nµ. ∂µ i i Y x i−1 ∂2 l = −n < 0 ∂µ2 1X µ̂ = log x i . n i Die Darstellung als natürliche exponentielle Familie ist ! ¡ ¢2 p log x µ2 g (x) = exp µ log x − − log x − − log 2π . 2 2 à 3.7. UMVUE 137 Daraus erhalten wir ¡ ¢ g (x 1 , · · · , x n ) = exp c(µ)T (X ) + d 0 (µ) + S(x) 1R>0 (x) c(µ) = µ X T (X ) = log x i i d 0 (µ) = − nµ2 . 2 Mit Hilfe der Formel E T (X ) = −d 00 (µ) = nµ. können wir nun den Erwartungswert der natürlichen suffizienten Statistik T (X ) P berechnen. Damit ist der MLS µ̂ = n1 i log x i ein erwartungstreuer Schätzer. Nachdem c(R) offenes Rechteck enthält, ist die Statistik T (X ) vollständig und suffizient, und nach dem Satz von Lehmann-Scheffé ist µ̂ ein UMVUE Schätzer. 266. UMVUE-Schätzer für Poisson-Verteilung. sonverteilt mit der Wahrscheinlichkeitsfunktion p(k) = P (X i = k) = e −λ λk k! Seien X 1 , . . . , X n i.i.d. und Pois- k ∈ {0, 1, . . .} und λ > 0. (a) Zeigen Sie, dass die Statistik T (X ) = Testproblem ist. Pn i =1 X i (b) Zeigen Sie, dass der Schätzer S (X ) = n1 vollständig und suffizient für dieses Pn i =1 X i von λ unverzerrt ist. (c) Zeigen Sie, dass S(X ) ein eindeutiger UMVUE-Schätzer für λ ist. Lösung. (a) Die Wahrscheinlichkeitsfunktionen von (X 1 , . . . , X n ) bilden eine exponentielle Familie, denn n Y i =1 p(x i ) = n Y e −λ i =1 λx i xi ! à = exp −λn + log λ · n X xi − i =1 n X ! log x i ! . i =1 Somit ist T (X ) = i X i eine suffiziente Statistik. T (X ) ist auch vollständig, denn © ª log λ | λ > 0 enthält ein offenes Rechteck. Die Vollständigkeit kann man hier auch leicht aus der Definition herleiten. P (b) Wir berechnen EX i = X k≥0 ke −λ λk = λ. k! Daraus ergibt sich ES(X ) = 1X E X i = λ. n i S(X ) ist also ein unverzerrter Schätzer von λ. 138 KAPITEL 3. MATHEMATISCHE STATISTIK (c) Nachdem S(X ) = n1 T (X ) gilt, ist E (S(X )|T (X )) = S(X ) und somit ist S(X ) nach dem Satz von Lehmann-Scheffe ein UMVUE-Schätzer für λ. Die Eindeutigkeit folgt aus Varλ T (X ) < ∞ für alle λ > 0. Das ist der Fall denn E X 2 = λ (λ + 1) Var X = λ. 3.8 Asymptotische Theorie 267. Verschobene Gleichverteilung und Konsistenz. Die Zufallsvariablen X 1 , . . . , X n seien i.i.d. mit X i ∼ U (θ, θ + 1). Der Parameter θ sei unbekannt. Für die Schätzer 1 T1 (X ) = X̄ − 12 und T2 (X ) = X (1) − n+1 haben wir bereits Varθ T1 (X ) = Varθ T2 (X ) = 1 12n n (n + 1)2 (n + 2) gezeigt. Überprüfen Sie nun die beiden Schätzer auf schwache Konsistenz. Lösung. Wir zeigen zunächst, dass die beiden Schätzer erwartungstreu sind. Es gilt θ+1 1 xd x = θ + . 2 R θ µ ¶ 1X 1 1X 1 1 E T1 (X ) = Xi − = θ + − = θ. n i 2 n i 2 2 Z E Xi = Z xp θ (x)d x = Das heißt T1 ist erwartungstreu. 1 Nun kommen wir zu T2 = X (1) − n+1 . Die Berechnung des Erwartungswertes führt auf 1 E T2 (X ) = − + E X (1) Z n +1 E X (1) = min {x 1 , · · · , x n } d x 1 · · · d x n [θ,θ+1]n Z = min {x 1 + θ, · · · , x n + θ} d x 1 · · · d x n [0,1]n Z =θ+ min {x 1 , · · · , x n } d x 1 · · · d x n [0,1]n Z X =θ+ x σ(1) d x 1 · · · d x n σ∈S n 0≤x σ(1) ≤...≤x σ(n) ≤1 wobei die Summe über alle n! Permutationen der n Elemente geführt wird. Es gilt Z 1 Z 0≤x 1 ≤...≤x n ≤1 x1 d x1 · · · d xn = 0 x2 Z ··· 0 x1 d x1 · · · d xn = und X Z σ∈S n 0≤x σ(1) ≤...≤x σ(n) ≤1 x σ(1) d x 1 · · · d x n = 1 . n +1 1 (n + 1)! 3.8. ASYMPTOTISCHE THEORIE 139 Wir erhalten also E X (1) = 1 +θ n +1 und E T2 = − 1 + E X (1) = θ. n +1 Es ist leicht zu sehen, dass beide dieser Schätzer die Bedingungen (a) E θ (Tn2 ) < ∞ für alle θ ∈ Θ und alle n ∈ N. (b) limn→∞ E θ (Tn ) = θ für alle θ ∈ Θ. (c) limn→∞ Varθ Tn = 0 für alle θ ∈ Θ. erfüllen. Es gilt für i = 1, 2 E Ti2 = Var Ti + (E Ti )2 < ∞ sowie E Tn → θ wegen Erwartungstreue und Var Ti → 0. Somit sind beide dieser Schätzer schwach konsistent. Die Aussage kann man auch direkt beweisen. Im Fall T1 bietet sich die Anwendung des schwachen Gesetzes der großen Zahl an. Die schwache Konvergenz von T2 gegen θ folgt mit Hilfe der Markov-Ungleichung. 268. Konsistenz. Hinreichende Bedingungen. Seien X 1 , . . . , X n i.i.d. mit Verteilung Pθ und θ ∈ Θ ⊂ R. Für jedes n ∈ N sei Tn = T (X 1 , . . . , X n ) ein Schätzer für θ mit folgenden Eigenschaften: (a) E θ (Tn2 ) < ∞ für alle θ ∈ Θ und alle n ∈ N. (b) limn→∞ E θ (Tn ) = θ für alle θ ∈ Θ. (c) limn→∞ Varθ Tn = 0 für alle θ ∈ Θ. Dann ist der Schätzer Tn schwach konsistent, d.h. Tn →Pθ θ für n → ∞. Lösung. Der Schätzer Tn ist schwach konsistent wenn P (|Tn − θ| ≥ ε) → 0 wenn n → ∞ für alle ε > 0 und θ ∈ Θ. Wir schätzen die obige Wahrscheinlichkeit mit Hilfe der Markov-Ungleichung P (|X | ≥ ε) ≤ E f (|X |) f (ε) ab und erhalten für feste n, θ und ε P (|Tn − θ| ≥ ε) ≤ = E (Tn − θ)2 2 ¡ ε2 ¢ E Tn − 2θTn + θ 2 ε2 ¡ 2 ¢ = ε E Tn − 2θE Tn + θ 2 ¢ ¡ = ε−2 Var Tn + (E Tn )2 − 2θE Tn + θ 2 . −2 140 KAPITEL 3. MATHEMATISCHE STATISTIK Laut Voraussetzung ist Tn quadratisch integrierbar, daher macht die obige Berechnung Sinn. Für n → ∞ erhalten wir ¡ ¢ ε−2 Var Tn + (E Tn )2 − 2θE Tn + θ 2 → 0 und daraus P (|Tn − θ| ≥ ε) → 0. Der Schätzer Tn ist also schwach Konsistent. Asymptotische Verteilung von MLE. Seien X 1 , . . . , X n i.i.d. mit der Dichte p(x, θ) = θx θ−1 1(0,1) (x) für θ > 0. Finden Sie einen Maximum-Likelihood-Schätzer für θ und seine asymptotische Verteilung. 269. Lösung. Die Likelihoodfunktion der Stichprobe x 1 , . . . , x n ist L(x, θ) = Y p(x i , θ) = θ n Y i i x iθ−1 . Daraus erhalten wir l (x, θ) = log L(x, θ) = n log θ + (θ − 1) X log x i i n X ∂ l (x, θ) = + log x i ∂θ θ i n ∂2 l (x, θ) = − 2 < 0 ∂θ 2 θ ∀θ > 0. Aus der Gleichung ∂ l (x, θ) = 0 ∂θ erhalten wir den Maximum-Likelihood-Schätzer n . i log X i θ̂(X 1 , . . . , X n ) = − P Wir berechnen die Fischer-Information pro Beobachtung. µ I 1 (θ) = E θ ¶2 ∂ log p θ (X ) ∂θ ¶2 ∂ = Eθ log θ + (θ − 1) log X ∂θ µ ¶2 1 = Eθ + log X θ µ ¶ 1 2 = E θ 2 + log X + (log X )2 θ θ µ 3.8. ASYMPTOTISCHE THEORIE 141 Es gilt nun 1 Z E θ log X = 0 log xθx θ−1 d x = ¯1 Z ¯ θ = x log x ¯ − 0 1 0 1 Z log x(x θ )0 d x 0 1 x θ−1 dx = − θ θ 1 Z 2 E θ (log X ) = 0 (log x)2 θx θ−1 d x ¯1 Z 1 2 ¯ = x θ (log x)2 ¯ − 2(log x)x θ−1 d x = 2 0 θ 0 Die Fischer-Information ist nun I 1 (θ) = 1 θ2 und die asymptotische Verteilung von θ̂ erfüllt ¢ L p ¡ n θ̂n (X ) − θ0 −→ N (0, θ 2 ) falls die Bedingungen ( AR ) erfüllt sind. Das ist in der Tat der Fall denn der Parameterraum Θ = R>0 offen ist. Weiters gilt 1 Z 0 ∂2 p(x, θ)d x = ∂θ 2 1 Z 0 ∂2 θx θ−1 d x ∂θ 2 1 Z θ x θ−1 log2 x + 2 x θ−1 log xd x h i1 = x θ log2 x = 0 = 0 0 und ∂2 log p(x, θ) ∂θ 2 ∂2 = 2 log θ + (θ − 1) log x ∂θ 1 =− 2. θ A(θ, x) = A(θ, x) ist von x unabhängig und daher gleichmässig beschränkt in einer hinreichend kleinen Umgebung von θ0 die 0 nicht enthält. K kann daher konstant gewählt werden. Die Fisher-Information ist positiv und aus p(x, θ) = p(x, θ0 ) f.s. in x ∈ R folgt θ = θ0 denn p(x, θ) = θx θ−1 ein Polynom in x ist. Damit sind die ( AR ) Regularitätsbedingungen erfüllt und obige Aussage über die asymptotische Verteilung des MLS gerechtfertigt. 270. Asymptotische Effizienz. Seien X 1 , . . . , X n i.i.d. mit E X 1 = µ 6= 0, Var X 1 = 1 und E X 14 < ∞. Der Erwartungswert µ sei unbekannt. Ferner seien n ¡ ¢ 1X X i2 − 1 n i =1 1 T2 (X ) = X̄ 2 − n T1 (X ) = zwei Schätzer für µ2 . 142 KAPITEL 3. MATHEMATISCHE STATISTIK (a) Zeigen Sie, dass T1 und T2 asymptotisch normalverteilt sind und berechnen Sie deren asymptotische Erwartung und Varianz. (b) Berechnen Sie die asymptotische Effizienz von T1 zu T2 . (c) Zeigen Sie, dass die asymptotische Effizienz von T1 zu T2 nicht größer ist als 1, falls Verteilung von X 1 − µ um 0 symmetrisch ist. Lösung. Betrachten wir zunächst den Schätzer T1 . Wir erhalten E X i2 = Var X i + (E X i )2 = 1 + µ2 à ! ¢ p 1X 2 p ¡ 2 2 n T1 − µ = n X − 1 − µ →d N (0, Var X i2 ) n i i indem wir zentralen Grenzverteilungssatz auf Zufallsvariablen X i2 anwenden. Var X i2 existiert nach Voraussetzung. Wir bestimmen die asymptotische Verteilung von T2 . Zentraler Grenzverteilungssatz liefert uns ¢ p ¡ n X̄ − µ →d N (0, 1). Mit Hilfe der Delta-Methode und des Satzes von Slutsky erhalten wir ¢ p ¡ ¢ p ¡ 1 n T2 − µ2 = n X̄ 2 − µ2 − p →d 2µN (0, 1) = N (0, 4µ2 ). n Die asymptotische Effizienz von T1 zu T2 ist gegeben durch e(θ, T1 , T2 ) = 4µ2 Var X 12 Ist die Verteilung X 1 − µ symmetrisch um 0, so ist die Schiefe der Verteilung gleich ¡ ¢3 0, d.h. E X 1 − µ = 0 und wir können mit Hilfe der Jensenschen Ungleichung auf Var X 12 ≥ 4µ2 und e ≥ 1 schliessen. 3.9 Konfidenzintervalle 271. Konfidenzintervall. Normalverteilung. Seien X 1 , . . . , X n i.i.d. mit X i ∼ N (µ, σ2 ), wobei sowohl µ als auch σ unbekannt seien. Zeigen Sie, dass " n −1 χ2n−1,1−α/2 2 s (X ), n −1 χ2n−1,α/2 # 2 s (X ) ein (1 − α)-Konfidenzintervall für σ2 ist, wobei s 2 (X ) die Stichprobenvarianz und χ2n,a das a -Quantil der χ2n -Verteilung bezeichnen. 3.9. KONFIDENZINTERVALLE 143 Lösung. Die Stichprobenvarianz ist definiert durch n 1 X (X i − X̄ )2 . n − 1 i =1 s 2 (X ) := Die Verteilung der Stichprobenvarianz ist bereits bekannt. n µ X − X̄ ¶2 (n − 1)s 2 (X ) X i = ∼ χ2n−1 2 σ σ i =1 Das Konfidenzintervall erhalten wir aus P µ P n −1 χ2n−1,1− α 2 s 2 (X ) ≤ σ2 ≤ n −1 χ2n−1, α 2 s 2 (X ) = ¶ n −1 2 n −1 2 2 2 s (X ) ≤ χ s (X ) = 1 − α. α ∧χ α ≤ n−1,1− 2 n−1, 2 σ2 σ2 272. Konfidenzintervall. Exponentialverteilung. nentialverteilt mit der Dichte Seien X 1 , . . . , X n i.i.d. expo- p θ (x) = θe −θx 1R>0 (x). Zeigen Sie, dass " ¢ ¡ ¢# ¡ − log 1 − α2 − log α2 , nX (1) nX (1) ein (1 − α)-Konfidenzintervall für θ ist. Lösung. Zu zeigen ist folgende Gleichung, die das Konfidenzintervall charakterisiert: à ¡ ¢ ¡α¢! α P − log 1 − nX (1) 2 ≤θ≤ − log 2 nX (1) = 1 − α. Betrachten wir die Wahrscheinlichkeiten ¡ ¢ Y P nθX (1) ≥ x = P (nθX i ≥ x) i Y ³ x ´ = P Xi ≥ nθ i Y −x −x = e n =e . i Die Gleichung ¡ ¢ P c 1 (α) ≤ nθX (1) ≤ c 2 (α) = e −c1 (α) − e −c2 (α) = 1 − α ¢ ¡ ¢ ¡ ist unter anderem für c 1 = − log 1 − α2 und c 2 = − log α2 erfüllt. Konfidenzintervall. Varianzenvergleich bei Normalverteilung. Seien X 1 , . . . , X n , Y1 , . . . , Yn unabhängig und normalverteilt, mit X i ∼ N (0, σ2X ), Yi ∼ N (0, σ2Y ) P und unbekannten Parametern σ2X > 0 und σ2Y > 0. Zeigen Sie, dass für S 2X = ni=1 X i2 und 273. S Y2 = Pn 2 i =1 Yi " −1 F n,n ³ α ´ S2 2 Y S 2X −1 , F n,n ³ 2 α ´ SY 1− 2 S 2X ein (1 − α)-Konfidenzintervall für den Quotienten Verteilungsfunktion der Fn,n -Verteilung. σ2Y σ2X # ist. Fn,n bezeichnet dabei die 144 KAPITEL 3. MATHEMATISCHE STATISTIK Lösung. Zu zeigen ist die Gleichung " P −1 F n,n ³ α ´ S2 2 Y S 2X σ2Y −1 ≤ F n,n 2 σX ≤ ³ 2 α ´ SY 1− 2 S 2X # = 1 − α. Es gilt aber 2 σ−2 X SX σ−2 S2 Y Y P ³ X i ´2 = i σX i σY ∼ F n,n . P ³ Y i ´2 274. Gleichverteilung. Konfidenzintervall. Seien X 1 , · · · , X n i.i.d. und stetig gleichverteilt auf dem Intervall [0, θ] mit θ > 0. D.h. die Dichte von X 1 ∼ U (0, θ) ist p θ (x) = θ −1 1[0,θ] (x). (a) Zeigen Sie, dass die Zufallsvariable X (n) θ ein Pivot ist. Dabei ist X (n) = max {X 1 , · · · , X n }. (b) Zeigen Sie, dass " X (n) X (n) ¡ ¢ , ¡ α ¢1/n α 1/n 1− 2 2 # ein (1 − α)-Konfidenzintervall für θ ist. Lösung. Wir berechnen zunächst die Verteilung von X (n) . Für 0 ≤ η ≤ θ gilt ¡ ¢ ¡ ¢ P X (n) < η = P X 1 < η ∧ · · · ∧ X n < η n Y ¡ ¢ = P Xi < η i =1 = ³ η ´n θ . Es gilt also P X (n) /θ < η = ηn . Damit erhalten wir ¡ ¢ à " X (n) X (n) P θ∈ ¡ ¢ , ¡ α ¢1/n α 1/n 1− 2 2 #! = 1 − α. 275. Konfidenzintervall. Mittelwert der Normalverteilung. Seien X 1 , . . . , X n i.i.d. normalverteilt mit X i ∼ N (θ, 1), wobei θ ∈ R ein unbekannter Parameter ist. (a) Zeigen Sie, dass die Verteilung von ¢ p ¡ n X̄ − θ unabhängig von dem Parameter θ ist. Dabei ist X̄ = n1 (b) Berechnen Sie ein (1 − α)-Konfidenzintervall für θ . Pn i =1 X i . 3.10. TESTTHEORIE 145 Lösung. (a) Die Verteilung von ¢ p ¡ n X̄ − θ ist n X Xi ∼ N (nθ, n) i =1 n X ³ n´ 1 X i ∼ N θ, 2 n i =1 n ¢ p ¡ n X̄ − θ ∼ N (0, 1) , also unabhängig von θ . (b) Konfidenzintervall ³ ´ ¢ p ¡ P θ z α2 ≤ n X̄ − θ ≤ z 1− α2 = 1−α µ · ¸¶ z 1− α zα P θ θ ∈ X̄ − p 2 , X̄ − p2 = 1 − α. n n 3.10 Testtheorie 276. Test. Mittelwertvergleich unter Normalverteilung. Seien die Zufallsvariablen X 1 , . . . , X n , Y1 , . . . , Yn unabhängig und normalverteit, mit X i ∼ N (µX , σ2X ) und Yi ∼ N (µY , σ2Y ). Die Mittelwerte µ X und µY sind dabei unbekannt, die Varianzen dagegen σ2X > 0, σ2Y > 0 bekannt und fix. (a) Zeigen Sie, dass s X̄ − Ȳ ± σ2X + σ2Y n z 1− α2 ein (1 − α)-Konfidenzintervall für die Differenz der Mittelwerte µX − µY ist. (b) Konstruieren Sie einen Test zu dem Signifikanzniveau von 5% für die Hypothese H0 : µ X = µY gegen die Alternative H1 : µ X 6= µY . (c) Drücken Sie die zum obigen Test gehörige Gütefunktion in Abhängigkeit von ∆ = µ X − µY aus und skizzieren Sie die Gütefunktion. Lösung. Wir betrachten s P X̄ − Ȳ − σ2X + σ2Y n s z 1− α2 ≤ µ X − µY ≤ X̄ − Ȳ + σ2X + σ2Y n z 1− α2 = 1 − α. Und daraus s P − σ2X + σ2Y n s z 1− α2 ≤ Ȳ − µY − X̄ − µ X ≤ ¡ ¢ σ2X + σ2Y n z 1− α2 = Ȳ − µY − X̄ − µ X P −z 1− α2 ≤ ≤ z 1− α2 . q 2 2 ¡ σ X +σY n ¢ 146 KAPITEL 3. MATHEMATISCHE STATISTIK Mit à Ȳ − µY − X̄ − µ X ∼ N 0, ¡ ¢ σ2X n + σ2Y ! n erhalten wir die erste Gleichung. Wir setzen s θ1 = X̄ − Ȳ − n s θ2 = X̄ − Ȳ + σ2X + σ2Y σ2X + σ2Y n z 1− α2 z 1− α2 und konstruieren den Test δ (X , 0) = 1{0∉[θ1 ,θ2 ]} . Mit α = 0.05 ist δ(X , 0) der gesuchte Test mit Signifikanzniveau 5%. ¡ ¢ Berechnen wir die Gütefunktion des Tests δ (X , 0). Mit θ = µX , µY und σ = erhalten wir q σ2X +σ2Y n G δ (θ) = E θ (δ (X , 0))) = P θ (δ(X , 0) = 1) ³ ´ = P θ 0 ≤ X̄ − Ȳ − σz 1− α2 ∨ X̄ − Ȳ + σz 1− α2 ≤ 0 ¶ µ X̄ − Ȳ X̄ − Ȳ = Pθ ≥ z 1− α2 ∨ ≤ z α2 . σ σ Sei nun Z ∼ N (0, 1) und ∆ = µX − µY . Da X̄ −σȲ ∼ N (µX − µY , 1) können wir die Gütefunktion des Test folgendermassen notieren ³ ´ G δ (∆) = P Z ≤ z α2 − ∆ ∨ Z ≥ z 1− α2 − ∆ ³ ´ ³ ´ = Φ z α2 − ∆ + 1 − Φ z 1− α2 − ∆ . Listing 3.1: R Code zum Plotten der Gütefunktion require(ggplot2) alpha=.05 X=seq(-6,6,0.05) g <- function(delta) { return( pnorm(qnorm(alpha/2) - delta ) +1 -pnorm(qnorm(1-alpha/2)-delta)) } qplot(X,g(X), geom="line", xlab="Delta", ylab="Guete") 277. Poisson-Verteilung. Test. Seien X 1 , . . . , X n i.i.d. Poisson-verteilt mit unbekanntem Parameter λ > 0. (a) Verwenden Sie die natürliche suffiziente Statistik, um einen Test mit Signifikanzniveau α für die Hypothese H0 : λ ≤ λ0 gegen die Alternative H1 : λ > λ0 zu finden. Konstruieren Sie dazu zunächst einen Test für die Hypothese λ = λ0 und zeigen Sie, dass die Gütefunktion streng monoton wachsend in λ ist. (b) Benutzen Sie den zentralen Grenzwertsatz, um eine Approximation für den kritischen Wert zu finden. (c) Seien α = 0.05, n = 200, 200 i =1 X i = 2085 und λ0 = 10. Klären Sie, ob die Hypothese H0 : λ ≤ λ0 verworfen wird und bestimmen Sie den p -Wert. P 3.10. TESTTHEORIE 147 Lösung. Wir konstruieren zunächst einen Test für H0 : λ = λ0 H1 : λ > λ0 gegen und werden anschließend zeigen, dass H0 : λ = λ0 durch H0 : λ < λ0 ersetzt werden kann. Die Wahrscheinlichkeitsfunktion der Poisson-Verteilung ist p λ (x) = P (X i = x) λx x! ¡ ¢ = exp x log λ − λ − log x! , P woraus wir die natürliche suffiziente Statistik T (X ) = i X i ablesen können. Betrachten = e −λ wir also den Test δ j (X ) = 1{T (X )> j } (X ) für j > 0. Die Güte dieses Tests ist G δ j (λ) = E λ δ(X ) = P λ (δ(X ) = 1) ¡ ¢ = P λ T (X ) > j ¡ ¢ = 1 − P λ T (X ) ≤ j j X = 1− e −λn i =0 (λn)i , i! da T (X ) ∼ Poiss(nλ). Wir legen j = j (α) so fest, dass der Test δ j Signifikanzniveau α hat, d.h. G δ (λ0 ) = 1 − j X i =0 e −λ0 n (λ0 n)i ≤ α. i! Die Gütefunktion ist streng monoton wachsend, denn die Ableitung nach λ j j X X ∂ i (λn)i −1 (λn)i G δ (λ) = ne −λn − ne −λn ∂λ i! i =0 i ! i =1 " # j −1 X (λn)i jX (λn)i = e −λn n − >0 i =0 i ! i =0 i ! ist positiv, solange λ > 0 gilt. Die Hypothese H0 : λ = λ0 kann also durch H0 : λ ≤ λ0 ersetzt werden, ohne dass Anpassung des Signifikanzniveaus notwendig ist. Berechnen wir nun eine Approximation für j = j (α) vom zentralen Grenzwertsatz ausgehend. à ! X ¡ ¢ P λ0 T (X ) > j = P λ0 Xi > j i à ! X = P λ0 X i − λ0 > j − λ0 i à 1 X X i − λ0 j − nλ0 1 = P λ0 p > p p p n i n λ0 λ0 à ! j − nλ0 1 ' 1−Φ p p . n λ0 ! 148 KAPITEL 3. MATHEMATISCHE STATISTIK Aus à ! j − nλ0 1−Φ p =α λ0 n erhalten wir j − nλ0 = z 1−α p λ0 n p j = λ0 nz 1−α + nλ0 . Für α = 0.05, n = 200, i X i = 2085 und λ0 = 10 ist j ' 2073.56, und somit wird in diesem Fall die Nullhypothese nicht verworfen. P 278. Exponentialverteilung. Test. Seien X 1 , . . . , X n i.i.d. und exponentialverteilt zum Parameter θ . Der Mittelwert werde mit µ = θ −1 bezeichnet. Man interessiert sich für den Test H0 : µ ≤ µ0 gegen die Alternative H1 : µ > µ0 . (a) Sei c 1−α das (1 − α)-Quantil der χ22n -Verteilung. Zeigen Sie, dass ein Test mit Verwerfungsbereich n o µ c X̄ ≥ 0 1−α 2n ein Test mit Signifikanzniveau α ist. (b) Bestimmen Sie die Güte des Tests aus Punkt 1 an der Stelle µ. (c) Zeigen Sie, dass µ0 z α p µ − µ0 + n Φ µ µ µ ¶ eine Approximation der Güte des Tests aus Punkt 1 an der Stelle µ ist, wobei Φ die Verteilungsfunktion und z α das α-Quantil der Standardnormalverteilung bezeichnen. (d) Gegeben sei folgende Stichprobe: 3, 150, 40, 34, 32, 37, 34, 2, 31, 6, 5, 14, 150, 27, 4, 6, 27, 10, 30, 27. Berechnen Sie den p -Wert zum Test aus Punkt 1 und interpretieren Sie diesen für gegebenes µ0 = 25. Lösung. Die Verteilungen in dieser Aufgabe gehören zur Gamma-Familie, denn χ22n = Gamma(n, 12 ) und Exp(θ) = Gamma(1, θ ). Die Dichte von χ2n ist ja p χ2n (x) = n 1 −1 − x ¡ n ¢ x 2 e 2 1R>0 (x). 2 Γ 2 n 2 Das Signifikanzniveau des Tests ist also P µ0 ³ à ! µ0 c 1−α ´ 2 X X̄ ≥ = P µ0 X i > c 1−α 2n µ0 i à ! X = P µ0 2θ0 X i > c 1−α = α i 3.10. TESTTHEORIE 149 denn X Xi ∼ Exp(θ) Xi ∼ Gamma(n, θ) Xi 1 ∼ Gamma(n, ). 2 i 2θ X i Die Güte des Tests ist G δ (θ) = E θ δ(X ) ³ µ0 c 1−α ´ = P θ X̄ ≥ 2n ! à X c 1−α = Pθ 2 X i ≥ . θ0 i Nachdem 2 P i X i ∼ Gamma(n, θ2 ) gilt, können wir Z = 2θ X i setzen und erhalten 1 X i ∼ Gamma(n, ) 2 ¶ θ G δ (θ) = P Z ≥ c 1−α . θ0 µ Um die Güte des Tests zu approximieren, entwickeln wir zunächst eine approximative Version des Tests selbst. Das hat den Vorteil, dass hier das Signifikanzniveau genauer kontrolliert werden kann. Wir berechnen zunächst mit Hilfe der Gleichung à P µ0 ! X Xi ≥ c ≤ α i den approximativen Verwerfungsbereich [c, +∞]. à P µ0 ! 1 X X i − µ0 1 c − nµ0 ≥p ≤ α p µ0 n i n µ0 µ ¶ 1 nµ0 − c Φ p = α n µ0 p nµ0 − µ0 nz α = c Daraus errechnet sich wie folgt die approximative Güte des Tests. à Pµ 1 X Xi − µ 1 c − nµ ≥p p µ n i n µ ! µ ¶ 1 nµ − c = Φ p n µ ¢¶ ¡ p µ 1 nµ − nµ0 − µ0 nz α = Φ p µ n µ ¶ p µ − µ0 µ0 = Φ n + zα . µ µ Für eine feste Beobachtung X ist der p -Wert des Tests das kleinste Signifikanzniveau, bei welchem der Test die Nullhypothese H0 verwirft. Für die Berechnung des 150 KAPITEL 3. MATHEMATISCHE STATISTIK p -Werts benutzen wir die approximative Version des Tests. Dieser Test verwirft H0 , p P wenn i X i ≥ c = nµ0 − µ0 nz α . Das ist äquivalent zu X p ≥ nµ0 − µ0 nz α Xi i µ P ¶ i X i − nµ0 Φ − p ≤ α nµ0 Das kleinste α, das diese Ungleichung erfüllt, ist der p -Wert µ P ¶ i X i − nµ0 Φ − p . nµ0 Für die oben angegebene Stichprobe und µ0 = 25 ist der p -Wert gleich 0.0653, was als Evidenz gegen die Nullhypothese interpretiert werden kann. 279. Rayleigh-Verteilung. UMP-Test. Seien X 1 , . . . , X n i.i.d. und Rayleigh-verteilt zum unbekannten Parameter θ > 0, d.h. X 1 hat die Dichte p θ (x) = x − x 22 e 2θ 1R>0 (x). θ2 (a) Finden Sie eine optimale Teststatistik Tn für H0 : θ ≤ 1 gegen H1 : θ > 1. (b) Konstruieren Sie unter Benutzung von Tn einen UMP-Test mit Signifikanzniveau α, wobei der kritische Wert c approximativ mit Hilfe des zentralen Grenzwertsatzes bestimmt werden soll. Lösung. Der Likelihoodquotient für das Testproblem H0 : θ = 1 gegen H1 : θ = ν ³ x2 ´ exp − 2νi 2 ³ x2 ´ Q x exp − 2i i i õ ! ¶ 1 1 X 2 1 exp − x ν2n 2 2ν2 i i Q L(x, 1, ν) = = xi i ν2 ist eine optimale Teststatistik. T (X ) = f (L(x, 1, ν)) = statistik, denn ¡ ¢ f (η) = P i X i2 ist auch eine optimale Test- log ν2n η 1 2 − 2ν1 2 ist monoton wachsend. Der Test δk (X ) = 1©P i X i2 ≥k ª ist ein NP-Test für H0 : θ = 1 gegen H1 : θ = ν für alle ν > 1. Daher ist δk auch ein UMPTest für das Testproblem H0 : θ = 1 gegen H1 : θ > 1. Um dieses Resultat auf das Testproblem H0 : θ ≤ 1 gegen H1 : θ > 1 zu verallgemeinern, zeigen wir, dass G δk (1) ≥ G δk (θ) 3.10. TESTTHEORIE 151 für alle θ ∈ (0, 1) gilt und somit wird das Signifikanzniveau auf der nun erweiterten Menge Θ0 = {θ ≤ 1} gehalten. Für ein positives k ist ³ p ´ ¡ ¢ P X i2 ≥ k = P X ≥ k Z ∞ x − x2 = p 2 e 2θ2 d x k θ Z ∞ = e −z d z k θ2 monoton fallend, also gilt P θ X i2 ≥ k ≤ α für θ ∈ (0, 1), wenn P 1 X i2 ≥ k ≤ α gilt. Konstruieren wir nun mit Hilfe des zentralen Grenzwertsatzes einen zum Signifikanzniveau α gehörigen Verwerfungsbereich {θ > k}. Zunächst berechnen wir ¢ ¡ EX ¡ ¢ µ ¶ x2 x exp − 2 d x = x θ2 2θ Z0 ∞ ¡ 2 ¢n −z = 2θ z e d z 0 Z ∞ n 2n z (n+1)−1 e −z d z = 2 θ Z 2n ∞ 2n 0 = 2n θ 2n Γ(n + 1) = 2n θ 2n n! und daraus E X 2 = 2θ 2 , E X 4 = 8θ 4 , Var X 2 = 4θ 4 sowie à P ! X i X i2 ≥k ! X X i2 − µ k − nµ = P ≥ p p nσ nσ i ! à 2 X X i − 2 k − 2n = P p ≥ p 2 n i 2 n ¶ µ 2n − k ' Φ . p 2 n à Schließlich erhalten wir aus P (T (X ) ≥ k) ≤ α die Approximation 2n − k Φ p 2 n µ ¶ k ≤ α p = 2n − 2 nz α . 280. Pareto-Verteilung. Optimaler Test. Eine Zufallsvariable heißt Pareto-Verteilt zu den Parametern k > 0, a > 0, falls sie die Dichte p(x) = ak a x −a−1 1R>k (x) besitzt. X 1 , . . . , X n seien i.i.d. Pareto(k, a)-verteilt, wobei k = 1 und a unbekannt sei. P Zeigen Sie, dass T (X 1 , . . . , X n ) = ni=1 log (X i ) eine optimale Teststatistik für H0 : ist. 1 1 ≤ a a0 gegen H1 : 1 1 > a a0 152 KAPITEL 3. MATHEMATISCHE STATISTIK Lösung. Substituieren wir zunächst ã = a1 . Das Testproblem lässt sich nun schreiben als H0 : ã ≤ ã0 gegen H1 : ã > ã0 . Die gemeinsame Dichte der Zufallsvariablen X 1 , . . . , X n kann in exponentieller Form notiert werden p ã = Y1 i − ã1 −1 xi ã õ = exp 1R>1 (x i ) ! ¶ X 1 − −1 log x i − n log ã 1Rn>1 (x 1 , . . . , x n ), ã i woraus wir c(ã) = − ã1 − 1 und T (X ) = i log X i ablesen können. Die Funktion c(ã) ist streng monoton wachsend, denn c 0 (ã) > 0 für alle ã > 0. Die Statistik T (X ) ist daher optimal für das Testproblem. P 281. Poissonverteilung. Optimaler Test. Seien X 1 , · · · , X n i.i.d. poissonverteilt mit dem Parameter λ > 0 und der Wahrscheinlichkeitsfunktion P (X 1 = k) = e −λ λk , k! k ∈ {0, 1, · · · } . Für das Testproblem H0 : λ = λ0 gegen H1 : λ = λ1 mit 0 < λ0 < λ1 soll ein optimaler Test entwickelt werden. (a) Berechnen Sie die Likelihood-Quotienten-Statistik L(X , λ0 , λ1 ) basierend auf der Beobachtung von X = (X 1 , . . . , X n ). (b) Zeigen Sie, dass die Statistik T (X ) = dieses Testproblem ist. Pn i =1 X i ebenfalls eine optimale Statistik für (c) Zeigen Sie, dass die Summe X 1 + X 2 Poissonverteilt mit dem Parameter 2λ ist und schliessen Sie daraus auf X 1 + · · · + X n ∼ Poiss(nλ). (d) Seien nun λ0 = 1 und λ1 = 2. Es wurde folgende Stichprobe beobachtet: 2 120510110 Testen Sie mit Hilfe von δl (X ) = 1{T (X )≥l } , ob die Nullhypothese H0 : λ0 = 1 bei Signifikanzniveau α = 0.05 verworfen werden kann. Dabei können Sie die nachstehende Liste der Werte der Verteilungsfunktion der Poissonverteilung mit dem Parameter κ = 10 verwenden. D.h. jede Zeile ³ P ´ i der Liste enthält das Paar k, ki=0 e −κ κi ! . 0 1 2 3 4 5 6 7 8 9 10 11 0.00004539993 0.00049939923 0.00276939572 0.01033605068 0.02925268808 0.06708596288 0.13014142088 0.22022064660 0.33281967875 0.45792971447 0.58303975019 0.69677614630 3.10. TESTTHEORIE 12 13 14 15 16 17 18 19 153 0.79155647639 0.86446442262 0.91654152707 0.95125959670 0.97295839022 0.98572238640 0.99281349540 0.99654565802 Lösung. (a) Die Likelihood-Funktion für dieses Testproblem ist x Q L(X , λ0 , λ1 ) = −λ1 ie λ1i xi ! e −λ0 λ0i xi ! x Q i µ ¶ Y λ1 xi λ −λ = e 0 1. λ0 i (b) Die nachstehenden Statistiken sind ebenfalls optimal, da sie monotone Transformationen der Likelihood-Quotienten-Statistik sind. ¶P λ1 i xi T1 (X ) = λ0 X T (X ) = x i . µ i (c) Wir berechnen P (X 1 + X 2 = k) = k X P (X 1 = i ∧ X 2 = k − i ) i =0 = k X e −λ i =0 = e −2λ λk λi −λ λk−i e i! (k − i )! k X 1 i !(k − i )! i =0 à ! k k 1 X 1 = i =0 i k! i =0 i !(k − i )! k X = 1 k 2 k! P (X 1 + X 2 = k) = e −2λ λk 2k . k! Das heisst X 1 + X 2 ∼ Poiss(2λ) und X 1 , · · · , X n ∼ Poiss(nλ). (d) Die oben angeführte Stichprobe liefert n = 10 und i x i = 13. Den kritischen Bereich des optimalen Tests mit Signifikanzniveau α = 0.05 erhalten wir aus P P λ0 (T (X ) ≥ l ) ≤ α à ! à ! X X P λ0 Xi ≥ l = 1 − P Xi < l . i i Die Liste liefert l = 16. Die Nullhypothese kann also nicht verworfen werden. 154 KAPITEL 3. MATHEMATISCHE STATISTIK 282. Geometrische Verteilung. Neyman-Pearson-Test. Seien X 1 , . . . , X n i.i.d. geometrisch verteilt mit der Wahrscheinlichkeitsfunktion ¡ ¢k π(k) = P(X i = k) = p 1 − p , k ∈ {0, 1, 2, . . .} und Parameter p ∈ (0, 1). Für das Testproblem H0 : p = p 0 gegen H1 : p = p 1 mit 1 > p 0 > p 1 > 0 soll ein Neyman-Pearson-Test δ? k (X ) = 1{L(x,p 0 ,p 1 )≥k } entwickelt werden. (a) Berechnen Sie die Likelihood-Quotienten-Statistik L(X , p 0 , p 1 ) basierend auf der Beobachtung von (X 1 , . . . , X n ). (b) Zeigen Sie, dass die Statistik T (X ) = dieses Testproblem ist. Pn i =1 X i ebenfalls eine optimale Statistik für (c) Seien nun p 0 = 23 und p 1 = 13 . Es wurde folgende Stichprobe (n = 7) beobachtet: 1 0 10004 Testen Sie mit Hilfe von δl (X ) = 1{T (X )≥l } , ob die Nullhypothese H0 : p 0 = 32 bei Signifikanzniveau α = 0.05 verworfen werden kann. In der nachstehenden Tabelle finden Sie die Werte der Verteilungsfunktion ´ ³ von T (X ) für n = 7 und p = 23 . D.h. jede Zeile enthält ein Paar k, P 2 (T (X ) ≤ k) . 3 0 1 2 3 4 5 6 7 8 9 10 0.05852766 0.1950922 0.3771783 0.5592643 0.7110027 0.8222775 0.8964608 0.9423837 0.9691721 0.9840545 0.9919918 ¡ ¢ Bemerkung. T (X ) ist negativ binomialverteilt mit Parametern n, p . Lösung. (a) Die Wahrscheinlichkeitsfunktion von dem Vektor (X 1 , . . . , X n ) ist π (k 1 , . . . , k n ) = Y p(1 − p)ki i = P p n (1 − p) i ki . Somit ist die Likelihood-Quotienten-Statistik gegeben durch L((k i ), p 0 , p 1 ) = p 1n (1 − p 1 ) P i ki p 0n (1 − p 0 ) i ki µ ¶n µ ¶P p1 1 − p 1 i ki = . p0 1 − p0 P 3.10. TESTTHEORIE 155 (b) Da 1 − p1 > 1, 1 − p0 entsteht T (X ) = i X i aus L((X i ), p 0 , p 1 ) durch eine monotone Transformation. Damit ist T (X ) ebenfalls eine optimale Statistik für dieses Testproblem. P (c) Wir berechnen zunächst den zu dem Signifikanzniveau α = 0.05 gehörigen Verwerfungsbereich [l , +∞). Pp 0 (T (X ) ≥ l ) ≤ α à ! X Pp 0 Xi < l ≥ 1−α i à Pp 0 ! X Xi ≤ l − 1 ≥ 0.95 i Aus der Tabelle lesen wir l − 1 = 8 ab und somit l = 9. Nachdem T (X ) = 6, kann die Nullhypothese nicht verworfen werden. 283. Bernoulli-Verteilung. Neyman-Pearson-Test. Zufallsvariablen mit Wahrscheinlichkeitsfunktion ¡ ¢1−k P (X i = k) = p k 1 − p , Seien X 1 , . . . , X n i.i.d. Bernoulli(p ) k ∈ {0, 1} . Für das Testproblem H0 : p = p 0 gegen H1 : p = p 1 mit 0 < p 0 < p 1 < 1 soll ein NeymanPearson-Test δ? k (X ) = 1{L(x,p 0 ,p 1 )≥k } entwickelt werden. (a) Berechnen Sie die Likelihood-Quotienten-Statistik L(X , p 0 , p 1 ) basierend auf der Beobachtung von (X 1 , . . . , X n ). (b) Zeigen Sie, dass die Statistik T (X ) = dieses Testproblem ist. Pn i =1 X i ebenfalls eine optimale Statistik für (c) Seien nun p 0 = 12 und p 1 = 34 . Es wurde folgende Stichprobe beobachtet: 0 1 10101111111 Testen Sie mit Hilfe von δl (X ) = 1{T (X )≥l } , ob die Nullhypothese H0 : p 0 = 21 bei Signifikanzniveau α =³0.05 verworfen werden´ kann. Dabei können Sie die nachstehende Liste der Paare k, verwenden. 0 1 2 3 4 5 6 7 1 0.9998779296875 0.998291015625 0.98876953125 0.953857421875 0.8665771484375 0.70947265625 0.5 Pn ¡n ¢ i =k i ¡ ¢n−i p 0i 1 − p 0 156 KAPITEL 3. MATHEMATISCHE STATISTIK 8 9 10 11 12 13 0.29052734375 0.1334228515625 0.046142578125 0.01123046875 0.001708984375 0.0001220703125 Lösung. (a) Die Likelihood-Quotienten-Statistik ist ¢1−xi x ¡ p1i 1 − p1 L(x, p 0 , p 1 ) = Q x ¡ ¢1−xi i i p0 1 − p0 ¶ P µ ¶Pi xi µ 1 − p 1 n− i xi p1 = p0 1 − p0 ¢ ¶P xi ¶n µ ¡ µ i p1 1 − p0 1 − p1 ¡ ¢ = . 1 − p0 p0 1 − p1 Q i (b) Optimale Statistiken sind auch ¡ ¢ ¶P xi i p1 1 − p0 ¡ ¢ T1 (X ) = p0 1 − p1 ! à ¡ ¢ X p1 1 − p0 ¢. T2 (X ) = x i log ¡ p0 1 − p1 i µ Die Ungleichung p 1 (1 − p 0 ) > p 0 (1 − p 1 ) impliziert ¡ ¢ p1 1 − p0 ¢ >0 log ¡ p0 1 − p1 und T (X ) = X xi i ist ebenfalls optimale Statistik. (c) Für die angegebene Beobachtung ist T (X ) = 10. Der zum Signifikanzniveau α = 0.05 gehörige kritische Wert folgt aus P p 0 (T (X ) ≥ k) ≤ α à ! n X P p0 Xi ≥ k ≤ α i =1 à ! n n X ¡ ¢n−i p 0i 1 − p 0 i =k i ≤ α Laut Tabelle wählen wir k = 10. Die Nullhypothese wird also verworfen. 3.11. LINEARE REGRESSION 157 284. Gamma-Verteilung. Konfidenzintervall und Test. Gamma-verteilt mit der Dichte p a,λ (x) = Seien X 1 , . . . , X n i.i.d. λa a−1 −λx x e 1R>0 (x) Γ(a) und Parametern a > 0 und λ > 0. Der Parameter a wird als bekannt und fix vorausgesetzt. Des weiteren gelten für c > 0 die Beziehungen ∼ Gammaa+a,λ , Xi + X j ∼ Gammaa, λ . c Xi c (a) Zeigen Sie, dass " −1 α α Gamma−1 na,1 ( 2 ) Gammana,1 (1 − 2 ) X1 + . . . + Xn , # X1 + . . . + Xn ein (1 − α)-Konfidenzintervall für λ ist. Dabei bezeichnet Gamma−1 a,λ die Inverse der Verteilungsfunktion Gammaa,λ . (b) Konstruieren Sie aus dem obigen Konfidenzintervall einen Test zum Signifikanzniveau α für H0 : λ = λ0 gegen H1 : λ 6= λ0 . Lösung. (a) Die Verteilung von λ(X 1 + . . . + X n ) ist Gammana,1 . (b) Mit der Bezeichnung " [L(X ),U (X )] = −1 α α Gamma−1 na,1 ( 2 ) Gammana,1 (1 − 2 ) X1 + . . . + Xn , # X1 + . . . + Xn erhalten wir die Testfunktion δ(X ) = 1{λ∉[L(X ),U (X )]} die das Gewünschte erfüllt. 3.11 285. Lineare Regression Lineare Regression mit Schalter. Gegeben sei das Model Y i = β 0 x i + εi i = 1, . . . , m Y i = β 1 + εi i = m + 1, . . . , m + n ¡ ¢ mit m, n ∈ N und εi ∈ N 0, σ2 , i.i.d. σ > 0. (a) Geben Sie die Designmatrix X für dieses Model explizit an. (b) Berechnen Sie den Kleinste-Quadrate-Schätzer β̂0 , β̂1 basierend auf der Beobachtung von (Y1 , . . . , Ym+n ) und (X 1 , . . . , X m ). ¡ ¢ (c) Berechnen Sie den Kleinste-Quadrate-Schätzer β̂0 , β̂1 basierend auf der Beobachtung von ¡ Y = (1, 4, 2, 8, 6, 0)> X = (3, 2, 1)> . ¢ 158 KAPITEL 3. MATHEMATISCHE STATISTIK Lösung. (a) Die Desingmatrix für dieses Model ist x1 . .. x m X = 0 .. . 0 .. . 0 1 . .. . 1 ¢−1 (b) Die allgemeine Form des LSE ist β̂ = X > X ¡ µ Pm > 2 i =1 x i X X= ¡ ¡ ¡ > X >X X X > X X ¢−1 ¢−1 ¢−1 0 à à X = à X Y = 0 0 1 n X > Y . Wir berechnen ¶ ! x Pm 1 ··· x Pm m 0 ··· 0 0 ··· 0 1 n ··· ¢ ! 1 n 2 i =1 x i > > Pm1 2 i =1 x i = 0 n 0 Pm1 2 i =1 x i ¡ 2 x1 y 1 + . . . + xm y m i =1 x ¡i ¢ 1 n y m+1 + . . . + y m+n µ = ! β̂0 β̂1 ¶ . (c) Die Beobachtung impliziert m = 3 und n = 3. Mit der obigen Formel erhalten wir 14 β̂0 = 13 14 und β̂1 = 3 . 286. 3-Stichprobenproblem. Gegeben sei das Modell Ykl = βk + εkl mit k ∈ {1, 2, 3}, l ∈ {1, 2} und εkl ∼ N (0, σ2 ), i.i.d. σ > 0. (a) Geben Sie die Designmatrix X für dieses Model explizit an. (b) Geben Sie eine koordinatenfreie Darstellung dieses Models an. (c) Berechnen Sie Kleinste-Quadrate-Schätzwerte basierend auf der Beobachtung (Y11 , Y12 , Y21 , Y22 , Y31 , Y32 ) = (74, 92, 16, 22, 98, 16) . Lösung. (a) Das Gleichungsystem in der Kurzschreibweise: Y = Xβ+ε ¡ ¢> ¡ ¢ Dabei ist Y = (Y1 , Y2 , Y3 )> , β = β1 , β2 , β3 , ε ∼ N 0, σ2 I 6 und die Designmatrix 1 0 0 1 0 1 0 1 0 X = . 0 1 0 0 0 1 0 0 1 3.11. LINEARE REGRESSION 159 (b) Koordinatenfreie Darstellung ist Y = ζ + ε mit ¡ ¢ ζ> = β 1 , β 1 , β 2 , β 2 , β 3 , β 3 . (c) Wegen Rang(X ) = p ist der Kleinste-Quadrate-Schätzer für β gegeben durch ¡ ¢−1 > β̂ = X > X X Y . Das führt uns auf β̂1 = β̂2 = β̂3 = 1 (Y1 + Y2 ) 2 1 (Y3 + Y4 ) 2 1 (Y5 + Y6 ) . 2 Entsprechende Werte sind also zu mitteln. 287. KQS ist auch MLS im Normalverteilungsfall. Zeigen Sie, dass der KleinsteQuadrate-Schätzer β̂ auch Maximum-Likelihood-Schätzer im allgemeinen linearen Modell ist, falls ε ∼ N (0, σ2 I n ). Lösung. Betrachten wir ein allgemeines lineares Model Y i = X i β + εi , i = 1, . . . , n. Dabei ist β der p -dimensionale Vektor der Modelparameter, den wir schätzen wollen, X i sind Zeilen einer bekannten Matrix X ∈ Rn×p und (ε1 , . . . , εn ) sind i.i.d. mit εi ∈ N (0, σ2 ), σ > 0. Die Beobachtung Y = (Y1 , . . . , Yn ) ist demnach multivariat normalverteilt, d.h. Y ∼ N (X β, σ2¡I n ). Yi sind i.i.d. mit Yi ∼ N (X i β, σ2 ) und die Likelihoodfunktion der ¢ Beobachtung y = y 1 , . . . , y n ist µ ¶ ¶ 1 yi − X i β 2 exp − L(Y , β) = p 2 σ 2πσ i à ! ¶n µ ¢2 1 1 X¡ exp − 2 yi − X i β . = p 2σ i 2πσ Y µ 1 Bis auf die positive multiplikative Konstante gleich l (Y , β) = − ¡p ¢−n 2πσ ist die Log-Likelihood-Funktion ¢2 1 X¡ yi − X i β 2 2σ i Die Maximierung von l (Y , β) ist gleichbedeutend mit der Minimierung von X¡ yi − X i β ¢2 = ky − X βk2 , i was genau die Eigenschaft des Kleinste-Quadrate-Schätzers ist. Beachten Sie, dass wir in den obigen Überlegungen nicht Rang (X ) = p annehmen mussten. 160 KAPITEL 3. MATHEMATISCHE STATISTIK 288. Einfache lineare Regression. (y i ) gegeben. X Y Seien folgende Beobachtungen von (x i ) und 26 23 27 28 24 25 179 150 160 175 155 150 (a) Berechnen Sie die Kleinste-Quadrate-Schätzer für β0 und β1 der einfachen linearen Regression Yi = β0 + β1 x i + εi . (b) Geben Sie die Designmatrix X für dieses Model explizit an. (c) Veranschaulichen Sie die Daten und die Regressionsgerade graphisch. Lösung. Das betrachtete lineare Model hat die Form Y i = X i β + εi , i = 1, . . . , 6 mit der Designmatrix X> = µ 1 1 1 1 1 1 26 23 27 28 24 25 ¶ und der Zielvariable ¡ ¢ Y > = 179 150 160 175 155 150 . Die Designmatrix hat also den vollen Rang(X ) = 2 und der Kleinste-Quadrate-Schätzer ist ¡ ¢ β̂ = X > X −1 X >Y . Die Berechnung von β̂ kann wie folgt erbracht werden. > X X ¡ ¡ X >X X >X ¢−1 ¢−1 X >Y µ ¶ 6 153 = 153 3919 ¶ µ 1 3919 −153 = 6 105 −153 µ 1343 ¶ 35 = 169 35 Wir erhalten also β0 = 38.37142857142857 β1 = 4.828571428571428 Die Daten und die Regressionsgerade können mit Hilfe des folgenden R-Codes veranschaulicht werden. X=c( 26, 23, 27, 28, 24, 25 ) Y=c( 179, 150, 160, 175, 155, 150 ) b_0 = 38.37142857142857 b_1 = 4.828571428571428 t= seq(23,28,0.01) plot(X,Y); lines(t, b_0 + b_1 * t, lw=2) 3.11. LINEARE REGRESSION 289. 161 Quadratisches Modell. KQS. Es sei das Modell Yi = β1 x i + β2 x i2 + εi für i =¡ 1, . . . , n¢ gegeben. Die zufälligen Fehler ε1 , . . . , εn seien i.i.d. und εi ∼ N (0, σ2 ) mit σ > 0. β1 , β2 sind die unbekannten Parameter. (a) Geben Sie die Designmatrix X für dieses Model explizit an. (b) Berechnen Sie den Kleinste-Quadrate-Schätzer β̂1 , β̂2 basierend auf der Beobachtung von ¡ ¢ X = (2, 0, 1, −1)> Y = (3, 1, −1, 1)> . Für diese Beobachtung gilt ausserdem µ ¶ P 3 ¶−1 1 9 −4 x Pi i4 = . 22 −4 3 i xi µP 2 x Pi i3 i xi Lösung. Das Modell lässt sich in der Form Y = Xβ+ε schreiben, wobei die Designmatrix durch > µ X = x1 x 12 x2 x 22 ... ... xn x n2 ¶ gegeben ist. Für Rang(X ) = 2 ist der Kleinste-Quadrate-Schätzer gegeben durch β̂ = ¡ > ¢−1 > X X x Y . Die Auswertung dieser Formel liefert µ P 2 x X X = Pi i3 x i i > P 3 ¶ x Pi i4 i xi und ¡ 290. > X X ¢−1 µ ¶ 1 −6 X Y = . 11 10 > Quadratisches Modell. Explizite Form des KQS. Es sei das Modell Yi = β0 + β1 x i + β2 x i2 + εi für i = 1, . . . , n gegeben. Die zufälligen Fehler ε1 , . . . , εn seien i.i.d. und εi ∼ N (0, σ2 ) mit σ > 0. Geben Sie die Kleinste-Quadrate-Schätzer für βi , i ∈ {0, 1, 2} explizit an. Lösung. Das Modell lässt sich in der Form Y = Xβ+ε schreiben. Wir nehmen an, dass die Beobachtungen (x 1 , . . . , x n ) voneinander verschieden sind und erhalten die Designmatrix 1 > X = x1 x 12 1 x2 x 22 ... ... ... 1 xn x n2 162 KAPITEL 3. MATHEMATISCHE STATISTIK mit Rang(X ) = 3. Daraus ergibt sich P 0 x Pi i1 > x X X= Pi i2 i xi und mit der Bezeichnung Tk = P i P 1 x Pi i2 x Pi i3 i xi P 2 x Pi i3 x Pi i4 i xi x ik ¡ ¢ ∆ = det X > X ¡ ¢ ¡ ¢ = T0 T2 T4 − T3 2 − T1 (T1 T4 − T2 T3 ) + T2 T1 T3 − T2 2 . Die Regel von Cramer liefert die Inverse der Matrix X > X , nämlich T2 T4 − T3 2 = ∆−1 T2 T3 − T1 T4 T1 T3 − T2 2 ¡ X >X ¢−1 T2 T3 − T1 T4 T0 T4 − T2 2 T1 T2 − T0 T3 T1 T3 − T2 2 T1 T2 − T0 T3 . T0 T2 − T1 2 Sei Z = X > Y , d.h. P Z1 Y P i i Z = Z2 = i Yi x i . P 2 Z3 i Yi x i ¡ ¢−1 > ¡ ¢−1 Der Kleinste-Quadrate-Schätzer β̂ = X > X X Y = X >X Z ist dann explizit gege ben durch und ¡ ¢ ¡ ¢ T1 T3 − T2 2 Z2 + (T2 T3 − T1 T4 ) Z1 + T2 T4 − T3 2 Z0 ¡ ¢ β0 = , T0 T2 − T1 2 T4 − T0 T3 2 + 2 T1 T2 T3 − T2 3 ¡ ¢ (T0 T3 − T1 T2 ) Z2 + T2 2 − T0 T4 Z1 + (T1 T4 − T2 T3 ) Z0 ¡ ¢ , β1 = − T0 T2 − T1 2 T4 − T0 T3 2 + 2 T1 T2 T3 − T2 3 ¡ ¢ ¡ ¢ T0 T2 − T1 2 Z2 + (T1 T2 − T0 T3 ) Z1 + T1 T3 − T2 2 Z0 ¡ ¢ β2 = . T0 T2 − T1 2 T4 − T0 T3 2 + 2 T1 T2 T3 − T2 3 Literatur [1] Claudia Czado und Thorsten Schmidt. Mathematische Statistik. Statistik und Ihre Anwendungen. Springer, 2011. ISBN: 9783642172601. [2] Jean Jacod und Philip Protter. Probability Essentials. 2. Aufl. Springer-Verlag, 2004. ISBN: 9783540438717. [3] Jacek Jakubowski und Rafał Sztencel. Wst˛ep do teorii prawdopodobieństwa. Script, 2001. ISBN: 9788390456454. [4] Jun Shao. Mathematical Statistics. Springer Texts in Statistics. Springer, 2003. ISBN : 9780387953823. [5] Übungsaufgaben zur Wahrscheinlichkeitsrechnung und Statistik. Fakultät für Mathematik, Technische Universität Chemnitz. 163