Problemsupermarkt - Julian Wergieluk

Werbung
Problemsupermarkt
Regale
Wahrscheinlichkeitstheorie und Statistik
J ULIAN W ERGIELUK
Chemnitz, 2014
Inhaltsverzeichnis
Inhaltsverzeichnis
i
Detaliertes Inhaltsverzeichnis
iii
1 Wahrscheinlichkeitsrechnung
1.1 Mengensysteme . . . . . . . . . . . . . . . . . . . .
1.2 Wahrscheinlichkeitsmaße . . . . . . . . . . . . . .
1.3 Kombinatorik. . . . . . . . . . . . . . . . . . . . . .
1.4 Bedingte Wahrscheinlichkeiten . . . . . . . . . .
1.5 Unabhängigkeit . . . . . . . . . . . . . . . . . . . .
1.6 Elementare Maßtheorie . . . . . . . . . . . . . . .
1.7 Diskrete Zufallsvariablen . . . . . . . . . . . . . .
1.8 Ungleichungen der Wahrscheinlichkeitstheorie
1.9 Diskrete Zufallsvariablen - Textaufgaben . . . .
1.10 Stetige Zufallsvariablen . . . . . . . . . . . . . . .
1.11 Stetige Zufallsvariablen – Textaufgaben . . . .
1.12 Mehrdimensionale Verteilungen. . . . . . . . . .
1.13 Quantile . . . . . . . . . . . . . . . . . . . . . . . . .
1.14 Erwartungstreue . . . . . . . . . . . . . . . . . . .
1.15 Einfache Schätzer . . . . . . . . . . . . . . . . . .
1.16 Konfidenzintervalle . . . . . . . . . . . . . . . . .
1.17 Tests . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
3
8
10
17
25
31
32
44
45
53
67
71
75
76
77
77
81
2 Wahrscheinlichkeitstheorie
89
2.1 Bedingte Erwartungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
2.2 Stochastische Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
3 Mathematische Statistik
3.1 Identifizierbarkeit . . . . . . .
3.2 Suffizienz . . . . . . . . . . . . .
3.3 Exponentielle Familien . . . .
3.4 Momentenmethode . . . . . . .
3.5 Kleinste-Quadrate-Schätzer .
3.6 Maximum-likelihood Schätzer
3.7 UMVUE . . . . . . . . . . . . . .
3.8 Asymptotische Theorie . . . .
3.9 Konfidenzintervalle . . . . . .
3.10 Testtheorie . . . . . . . . . . . .
3.11 Lineare Regression . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
i
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
99
99
99
103
108
113
114
121
138
142
145
157
ii
Literatur
INHALTSVERZEICHNIS
163
Detaliertes Inhaltsverzeichnis
Inhaltsverzeichnis
i
Detaliertes Inhaltsverzeichnis
iii
1 Wahrscheinlichkeitsrechnung
1.1 Mengensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1. Ereignisse. Mengenoperationen. . . . . . . . . . . . . . .
2. Ereignisse. Kraftwerk. . . . . . . . . . . . . . . . . . . . .
3. Ereignisse. Aktienmarkt. . . . . . . . . . . . . . . . . . . .
4. Ereignisse. Fertigungsstraße. . . . . . . . . . . . . . . . .
5. Ereignisse. Kosten. . . . . . . . . . . . . . . . . . . . . . . .
6. Zufallsvariablen. Urbildmengen. . . . . . . . . . . . . . .
7. Zufallsvariablen. Zwei unterscheidbare Würfel. . . . . .
8. Zufallsvariablen. Indikatorfunktionen. . . . . . . . . . .
9. Zufallsvariablen. Schachmeister. . . . . . . . . . . . . . .
10. σ-Algebren. Schachspieler. . . . . . . . . . . . . . . . . . .
11. σ-Algebren. Potenzmenge. . . . . . . . . . . . . . . . . . .
12. σ-Algebren. Restriktion. . . . . . . . . . . . . . . . . . . .
13. Ereignisse. Würfel und Münze I. . . . . . . . . . . . . . .
14. Ereignisse. Würfel und Münze II. . . . . . . . . . . . . .
15. Ereignisse. Zerlegung des Würfels. . . . . . . . . . . . . .
16. Ereignisse. Elementare Wahrscheinlichkeiten. . . . . .
1.2 Wahrscheinlichkeitsmaße . . . . . . . . . . . . . . . . . . . . . .
17. Wahrscheinlichkeitsmaße. Monotonie. . . . . . . . . . . .
18. Wahrscheinlichkeitsmaße. Subaditivität. . . . . . . . . .
19. Wahrscheinlichkeitsmaße. Zerlegung der Vereinigung.
20. Wahrscheinlichkeitsmaße. Einfache Ungleichung. . . .
21. Arithmetik der Wahrscheinlichkeitsmaße. . . . . . . . .
1.3 Kombinatorik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
22. Grundformeln der Kombinatorik. . . . . . . . . . . . . . .
23. Kombinatorik. Passwörter. . . . . . . . . . . . . . . . . . .
24. Kombinatorik. PINs und runs. . . . . . . . . . . . . . . .
25. Laplacesche Modelle. Zwei Würfel. . . . . . . . . . . . . .
26. Kombinatorik. Würfel. 4 vs. 24. . . . . . . . . . . . . . . .
27. Kombinatorik. Single choice test. . . . . . . . . . . . . . .
28. Kombinatorik. Aufzug. . . . . . . . . . . . . . . . . . . . .
29. Kombinatorik. Karten. 6 aus 52. . . . . . . . . . . . . . .
30. Kombinatorik. Karten. 13 aus 52. . . . . . . . . . . . . . .
31. Kombinatorik. 2 Kartenspieler. . . . . . . . . . . . . . . .
3
3
3
3
4
4
4
4
4
5
5
5
6
6
6
7
7
7
8
8
8
9
9
9
10
10
10
11
11
12
12
13
13
14
14
iii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
iv
DETALIERTES INHALTSVERZEICHNIS
1.4
1.5
1.6
1.7
32. Kombinatorik. 4 Kartenspieler. . . . . . . . . . . . . . . . . . . . . . . .
33. Gruppeneinteilung bei Fußball WM. . . . . . . . . . . . . . . . . . . . .
34. Kombinatorik. Schachbrett. . . . . . . . . . . . . . . . . . . . . . . . . .
Bedingte Wahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . .
35. Bedingte Wahrscheinlichkeiten. Symmetrie. . . . . . . . . . . . . . . .
36. Bedingte Wahrscheinlichkeiten. 3 Würfel. . . . . . . . . . . . . . . . .
37. Bedingte Wahrscheinlichkeiten. 2 Münzen. . . . . . . . . . . . . . . .
38. Bedingte Wahrscheinlichkeit ist ein Wahrscheinlichkeitsmaß. . . .
39. Bedingte Wahrscheinlichkeiten. Urne mit Kugeln. . . . . . . . . . . .
40. Urnenmodell. 3 Farben. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
41. Multiplikatives Urnenmodell von Pólya. . . . . . . . . . . . . . . . . .
42. Bedingte Wahrscheinlichkeiten. Urnenmodell von Pólya. . . . . . . .
43. Modifiziertes Urnenmodell von Pólya. . . . . . . . . . . . . . . . . . . .
44. Bedingte Wahrscheinlichkeiten. Unfaire Münzen. . . . . . . . . . . .
45. Bedingte Wahrscheinlichkeiten. Urne mit Loch. . . . . . . . . . . . .
46. Bedingte Wahrscheinlichkeiten. Urnen mit unbekanntem Inhalt. .
47. Bedingte Wahrscheinlichkeiten. Versicherungsunternehmen. . . . .
48. Bedingte Wahrscheinlichkeiten. Urnenmodell von Pólya. II. . . . . .
49. Bedingte bedingte Wahrscheinlichkeiten. . . . . . . . . . . . . . . . . .
50. Elfmeterschießen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
51. Schaltkreise. Qualitätskontrolle. . . . . . . . . . . . . . . . . . . . . . .
Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
52. Disjunkt vs. unabhängig. Einfache Rechnungen. . . . . . . . . . . . .
53. Unvereinbar versus unabhängig. Einfache Rechnungen. . . . . . . .
54. Unabhängigkeit. Einfache Rechnungen. . . . . . . . . . . . . . . . . .
55. Unabhängigkeit. Disjunkte Ereignisse. . . . . . . . . . . . . . . . . . .
56. Unabhängigkeit. Gleichwahrscheinliche Ereignisse. . . . . . . . . . .
57. Unabhängigkeit. Münzen. . . . . . . . . . . . . . . . . . . . . . . . . . .
58. Unabhängigkeit. Karten. . . . . . . . . . . . . . . . . . . . . . . . . . . .
59. Unabhängigkeit. Abschätzung mit der Exponentialfunktion. . . . .
60. Unabhängigkeit. Notstromanlage. . . . . . . . . . . . . . . . . . . . . .
61. Unabhängigkeit. Sicherungen. . . . . . . . . . . . . . . . . . . . . . . .
62. Unabhängigkeit. 3-teiliges Gerät. . . . . . . . . . . . . . . . . . . . . . .
63. Unabhängigkeit. Fertigungsprozess. . . . . . . . . . . . . . . . . . . . .
64. Ausfälle der Notstromgeneratoren. . . . . . . . . . . . . . . . . . . . . .
65. Komplexes Gerät. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Elementare Maßtheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
66. Maßtheorie. Borel-messbare Abbildungen. . . . . . . . . . . . . . . . .
67. Maßtheorie. Dirac-Maß. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
68. Maßtheorie. Bildmaß. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
69. Maßtheorie. Ereignisfelder und Information. . . . . . . . . . . . . . .
Diskrete Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
70. Zufallsvariablen. Bernoulli-Verteilung. . . . . . . . . . . . . . . . . . .
71. Zufallsvariablen. Funktionen der Augenzahl. . . . . . . . . . . . . . .
72. Zufallsvariablen. Konstruktion über Wahrscheinlichkeitsfunktion.
73. Zufallsvariablen. Ausfälle der Bauelemente. . . . . . . . . . . . . . . .
74. Zufallsvariablen. Diskrete Gleichverteilung. . . . . . . . . . . . . . . .
75. Erwartungswert. Einfache Eigenschaften. . . . . . . . . . . . . . . . .
76. Geometrische Verteilung. Konstruktion. . . . . . . . . . . . . . . . . .
15
16
16
17
17
17
17
17
18
18
19
19
20
20
21
21
22
22
23
24
24
25
25
25
25
26
26
26
26
27
27
27
29
30
30
31
31
31
31
31
32
32
32
33
33
33
34
34
34
DETALIERTES INHALTSVERZEICHNIS
77.
78.
79.
80.
81.
82.
83.
84.
85.
86.
87.
88.
89.
90.
91.
92.
93.
Geometrische Verteilung. Erwartungswerte. . . . . . . . . . . . . . . .
Geometrische Verteilung. Gedächtnislosigkeit. . . . . . . . . . . . . .
Geometrische Verteilung. Gedächtnislosigkeit und Erwartungswert.
Binomialverteilung. Maximum der Wahrscheinlichkeitsfunktion. .
Binomialverteilung. Gerade Werte. . . . . . . . . . . . . . . . . . . . . .
Poisson-Verteilung. Eigenschaften. . . . . . . . . . . . . . . . . . . . . .
Binomialverteilung. Additionstheorem. . . . . . . . . . . . . . . . . . .
Poisson-Verteilung. Additionstheorem. . . . . . . . . . . . . . . . . . .
Binomialverteilung. Verteilungsfunktion. . . . . . . . . . . . . . . . .
Geometrische Verteilung. Zusammenhang mit der Gleichverteilung.
Negative Binomialverteilung. Konstruktion. . . . . . . . . . . . . . . .
Diskrete Gleichverteilung. Ordnungsstatistiken. . . . . . . . . . . . .
Diskrete Gleichverteilung ist nicht teilbar. . . . . . . . . . . . . . . . .
Geometrische Verteilung. Minima und Maxima. . . . . . . . . . . . .
Geometrische Verteilung. Additionstheorem. . . . . . . . . . . . . . .
Bernoulliverteilung. Momente. . . . . . . . . . . . . . . . . . . . . . . .
Binomialverteilung als Summe von unabhängigen Bernoulli Zufallsvariablen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
94. Binomialverteilung. Momente und momentenerzeugende Funktion.
95. Poisson-Verteilung. Momente. . . . . . . . . . . . . . . . . . . . . . . .
96. Zusammengesetzte Poisson-Verteilung. . . . . . . . . . . . . . . . . . .
97. Benfordsches Gesetz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
98. Rademacher-verteilte Zufallsvariablen. . . . . . . . . . . . . . . . . . .
1.8 Ungleichungen der Wahrscheinlichkeitstheorie . . . . . . . . . . . . . . . .
99. Tschebyscheff ’sche Ungleichung. 100 Würfel. . . . . . . . . . . . . . .
100. Markow’sche Ungleichung. Diskreter Fall. . . . . . . . . . . . . . . . .
1.9 Diskrete Zufallsvariablen - Textaufgaben . . . . . . . . . . . . . . . . . . . .
101. Busfahrerstreik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
102. Hochwasserereignisse. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
103. Gasmelder. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
104. Vulkanausbrüche. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
105. Weinfehler. Verteilungsfunktion. . . . . . . . . . . . . . . . . . . . . . .
106. Grenzverteilungsätze. Weinfehler. . . . . . . . . . . . . . . . . . . . . .
107. Reifenpannen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
108. Beschichtungsfehler. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
109. Übertragungskanal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
110. Übertragungskanal mit stochastischer Fehlerkorrektur. . . . . . . .
111. Übertragungskanal. II . . . . . . . . . . . . . . . . . . . . . . . . . . . .
112. Bitcoin. Einfaches Bubble-Modell. . . . . . . . . . . . . . . . . . . . . .
1.10 Stetige Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
113. Exponentialverteilung. Minima. . . . . . . . . . . . . . . . . . . . . . .
114. Exponentialverteilung. Dichte des Maximums. . . . . . . . . . . . . .
115. Momente der Exponentialverteilung. . . . . . . . . . . . . . . . . . . .
116. Gedächtnislosigkeit der Exponentialverteilung. . . . . . . . . . . . . .
117. Momentenerzeugende Funktion der Exponentialverteilung. . . . .
118. Minimum von exponentialverteilten Zufallsvariablen. . . . . . . . .
119. Gleichverteilung und Exponentialverteilung. . . . . . . . . . . . . . .
120. Erlang-2-Verteilung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
v
34
35
35
35
36
36
36
37
37
38
38
39
39
40
40
41
41
41
42
42
43
44
44
44
45
45
45
46
47
47
48
48
49
50
50
51
51
52
53
53
53
53
54
54
55
55
55
vi
DETALIERTES INHALTSVERZEICHNIS
121. Stetige Gleichverteilung. Momente und Momentenerzeugende Funktion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
122. Stetige Gleichverteilung. Momente. . . . . . . . . . . . . . . . . . . . .
123. Stetige Gleichverteilung ist nicht teilbar. . . . . . . . . . . . . . . . . .
124. Cauchy-Verteilung. Gegenbeispiel. . . . . . . . . . . . . . . . . . . . . .
125. Cauchy-Verteilung. Ein Gegenbeispiel. . . . . . . . . . . . . . . . . . .
126. Cauchy-Verteilung ist hartneckig. . . . . . . . . . . . . . . . . . . . . .
127. Lévy-Verteilung. Dichtefunktion. . . . . . . . . . . . . . . . . . . . . . .
128. Mellin-Transformation. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
129. Normalverteilung. Momentenerzeugende Funktion und Momente.
130. Normalverteilung. Momente. . . . . . . . . . . . . . . . . . . . . . . . .
131. Summen von normalverteilten Zufallsvariablen. . . . . . . . . . . . .
132. Dichte der multivariaten Normalverteilung. . . . . . . . . . . . . . .
133. Gaussche Zufallsvariablen und Unabhängigteit. . . . . . . . . . . . .
134. Log-Normalverteilung. Momente und Dichte. . . . . . . . . . . . . . .
135. Log-Normalverteilung. Dichtefunktion. . . . . . . . . . . . . . . . . . .
136. Log-Normalverteilung. Momente. . . . . . . . . . . . . . . . . . . . . . .
137. Normalverteilung. Abweichungen vom Mittelwert. . . . . . . . . . . .
138. Verteilung der Stichprobenvarianz. . . . . . . . . . . . . . . . . . . . .
139. Symmetrische Zufallsvariablen. . . . . . . . . . . . . . . . . . . . . . .
140. Rayleigh-Verteilung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
141. Beta-verteilung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
142. Gamma-Verteilung. Momente. . . . . . . . . . . . . . . . . . . . . . . . .
143. Momentenerzeugende Funktion einer Gamma-Verteilung. . . . . .
144. Transformationen der Gamma-Verteilung. . . . . . . . . . . . . . . .
145. Gamma-Verteilung und Exponentialverteilung. . . . . . . . . . . . .
146. Mittelwertvergleich bei Gamma-Verteilungen. . . . . . . . . . . . . .
147. χ2 -Verteilung mit einem Freiheitsgrad. . . . . . . . . . . . . . . . . . .
148. Dichte der χ2 -Verteilung. . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.11 Stetige Zufallsvariablen – Textaufgaben . . . . . . . . . . . . . . . . . . . .
149. Widerstände. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
150. Lebensdauer der Glühlampen. . . . . . . . . . . . . . . . . . . . . . . .
151. Radioaktivität. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
152. Entfernungsmessung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
153. Ersatzteillieferung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
154. Grenzverteilungsätze. Cloudrechner. . . . . . . . . . . . . . . . . . . .
155. Grenzverteilungsätze. Schaltkreise. . . . . . . . . . . . . . . . . . . . .
156. Grenzverteilungsätze. Münzen. . . . . . . . . . . . . . . . . . . . . . . .
157. Grenzverteilungsätze. Kondensatoren. . . . . . . . . . . . . . . . . . .
158. Grenzverteilungsätze. Schaltgehäuse. . . . . . . . . . . . . . . . . . . .
1.12 Mehrdimensionale Verteilungen. . . . . . . . . . . . . . . . . . . . . . . . . .
159. Korrelationskoeffizient. Eigenschaften. . . . . . . . . . . . . . . . . . .
160. Bivariate Normalverteilung. Maximum. . . . . . . . . . . . . . . . . .
161. Korrelation und Symmetrie. . . . . . . . . . . . . . . . . . . . . . . . . .
162. Gleichverteilung auf dem Einheitskreis. . . . . . . . . . . . . . . . . .
163. Gleichverteilung auf der Ellipse. . . . . . . . . . . . . . . . . . . . . . .
164. Bedingte Dichten. Ein Rechenbeispiel. . . . . . . . . . . . . . . . . . .
165. Bivariate Rademacherverteilung. . . . . . . . . . . . . . . . . . . . . . .
1.13 Quantile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
55
56
57
57
57
57
57
58
58
60
60
61
61
61
62
63
63
63
63
64
64
64
65
65
65
66
66
66
67
67
67
67
68
68
69
69
70
70
71
71
71
72
72
72
73
74
74
75
DETALIERTES INHALTSVERZEICHNIS
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
75
76
76
76
76
76
77
77
77
77
78
79
80
81
81
82
82
83
84
85
85
86
87
2 Wahrscheinlichkeitstheorie
185. Konvergenz einer Zufallsreihe. . . . . . . . . . . . . . . . . . . . . . . .
186. Kurtosis. Eigenschaften. . . . . . . . . . . . . . . . . . . . . . . . . . . .
187. Ordnungsstatistiken. Eigenschaften. . . . . . . . . . . . . . . . . . . .
188. Symmetrische Zufallsvariablen und L p Ungleichungen. . . . . . . . .
189. Dichtefunktionen. Scheffés Identitäten. . . . . . . . . . . . . . . . . . .
190. Selbstunabhängigkeit. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
191. Eine Darstellung des Erwartungswertes. . . . . . . . . . . . . . . . .
192. Erwartungstreue einfacher Schätzer. . . . . . . . . . . . . . . . . . . .
193. Faltungsformel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
194. Abzählbare Familien disjunkter Mengen. . . . . . . . . . . . . . . . . .
2.1 Bedingte Erwartungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
195. Bedingte Erwartungen. II. . . . . . . . . . . . . . . . . . . . . . . . . . .
196. Zusammengesetzte Poissonverteilung. Momentenerzeugende Funktion und Momente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
197. Bedingte Erwartungen. Turmeigenschaft. Gegenbeispiel. . . . . . .
198. Bedingte Erwartungen. Turmeigenschaft. . . . . . . . . . . . . . . . .
199. Bedingte Varianz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
200. Bedingte Erwartungen. Einfache Eigenschaften. . . . . . . . . . . . .
201. Turmeigenschaft der bedingten Erwartung. . . . . . . . . . . . . . . .
202. Bedingte Erwartungen und Normalverteilung. . . . . . . . . . . . . .
203. Bedingte Erwartungen. Exponentialverteilung. . . . . . . . . . . . . .
2.2 Stochastische Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
204. Poissonprozess. Charakteristische Funktion. . . . . . . . . . . . . . .
205. Zusammengesetzter Poissonprocess. Charakteristische Funktion. .
89
89
89
89
90
90
90
90
91
92
92
92
92
1.14
1.15
1.16
1.17
166. Exponentialverteilung. Quantile. . . . . . . . . . . . . . . .
167. Logistische Verteilung. Quantile. . . . . . . . . . . . . . . .
Erwartungstreue . . . . . . . . . . . . . . . . . . . . . . . . . . . .
168. Schätzung der Varianz bei bekanntem Erwartungswert.
169. Diskrete Gleichverteilung. Erwartungstreuer Schätzer. .
170. Log-Normalverteilung. Erwartungstreuer Schätzer. . . .
Einfache Schätzer . . . . . . . . . . . . . . . . . . . . . . . . . . .
171. Einfache Schätzer. Telefonzentrale. . . . . . . . . . . . . .
Konfidenzintervalle . . . . . . . . . . . . . . . . . . . . . . . . . .
172. Kondensatoren. Konfidenzintervall. . . . . . . . . . . . . .
173. Krankenversicherung. Konfidenzintervall. . . . . . . . . .
174. Qualitätssicherung. Konfidenzintervall. . . . . . . . . . .
175. Justierung. Konfidenzintervall. . . . . . . . . . . . . . . . .
Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
176. Waschmittel. Test. . . . . . . . . . . . . . . . . . . . . . . . .
177. Messgerät. Test. . . . . . . . . . . . . . . . . . . . . . . . . .
178. Entfernungsmessung. Konfidenzintervall und Test. . . .
179. Erneuerbare Energien. Test. . . . . . . . . . . . . . . . . . .
180. Test. Trendvergleich bei Funds. . . . . . . . . . . . . . . . .
181. Konfidenzintervall und Test. Normalverteilung. . . . . .
182. Analyse des Zuckerpreises. . . . . . . . . . . . . . . . . . . .
183. Analyse des Kaffeebohnenpreises. . . . . . . . . . . . . . .
184. Aktie im Bachelier-Modell. . . . . . . . . . . . . . . . . . . .
vii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
93
94
94
95
95
96
96
96
96
96
97
viii
DETALIERTES INHALTSVERZEICHNIS
206. Ornstein-Uhlenbeck SDE. . . . . . . . . . . . . . . . . . . . . . . . . . . 98
3 Mathematische Statistik
99
3.1 Identifizierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
207. Identifizierbarkeit im linearen Modell. . . . . . . . . . . . . . . . . . . 99
3.2 Suffizienz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
208. Suffizienz. Invariante Transformationen. . . . . . . . . . . . . . . . . . 99
209. Qualitätskontrolle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
210. Inverse Gamma-Verteilung. Suffizienz. . . . . . . . . . . . . . . . . . . 100
211. Beta-Verteilung. Suffizienz. . . . . . . . . . . . . . . . . . . . . . . . . . 100
212. Pareto-Verteilung. Suffizienz. . . . . . . . . . . . . . . . . . . . . . . . . 100
213. Poisson-Verteilung. Suffizienz. . . . . . . . . . . . . . . . . . . . . . . . 100
214. Suffizienz. Beispiele. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
215. Nichtzentrale Exponentialverteilung. Suffizienz. . . . . . . . . . . . . 102
3.3 Exponentielle Familien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
216. Exponentielle Familie mit einer unvollständigen natürlichen Statistik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
217. Beta-Verteilung als exponentielle Familie. . . . . . . . . . . . . . . . . 103
218. Gamma-Momente und exponentielle Familien. . . . . . . . . . . . . . 103
219. Poisson-Momente und exponentielle Familien. . . . . . . . . . . . . . 104
220. Laplace-Verteilung ist keine exponentielle Familie. . . . . . . . . . . 104
221. Verteilung der natürlichen suffizienten Statistik. . . . . . . . . . . . 105
222. Cauchy-Verteilung ist keine exponentielle Familie. . . . . . . . . . . 105
223. Mixtures of Normal Verteilungen sind keine exponentielle Familien.105
224. Weibull-Verteilung als exponentielle Familie. . . . . . . . . . . . . . . 105
225. Invers-Gauß-Verteilung als exponentielle Familie. . . . . . . . . . . . 106
226. Invers-Gamma-Verteilung als exponentielle Familie. . . . . . . . . . 106
227. Lévy-Verteilung als exponentielle Familie. . . . . . . . . . . . . . . . . 107
3.4 Momentenmethode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
228. Stetige Gleichverteilung. Momentenschätzer. . . . . . . . . . . . . . . 108
229. Dreiecksverteilung. Momentenschätzer. . . . . . . . . . . . . . . . . . 108
230. Momentenschätzer. Beispiele. . . . . . . . . . . . . . . . . . . . . . . . . 109
231. Weibull-Verteilung. Momentenschätzer. . . . . . . . . . . . . . . . . . . 109
232. Momentenschätzung vs Suffizienz. . . . . . . . . . . . . . . . . . . . . . 109
233. AR1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
234. Exponentialverteilung. Momentenschätzer. . . . . . . . . . . . . . . . 111
235. Rayleigh-Verteilung. Momentenschätzer. . . . . . . . . . . . . . . . . 111
236. Gamma-Verteilung. Momentenschätzer. . . . . . . . . . . . . . . . . . 111
237. Beta-Verteilung. Momentenschätzer. . . . . . . . . . . . . . . . . . . . 112
3.5 Kleinste-Quadrate-Schätzer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
238. Einfache lineare Regression. Beispielrechnung. . . . . . . . . . . . . . 113
239. Gewichtete einfache lineare Regression. . . . . . . . . . . . . . . . . . 114
3.6 Maximum-likelihood Schätzer . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
240. Mischung von Gleichverteilungen. MLE. . . . . . . . . . . . . . . . . . 114
241. Normalverteilung. MLE. . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
242. Exponentialverteilung. MLE. . . . . . . . . . . . . . . . . . . . . . . . . 115
243. Maximum-Likelihood-Methode und Suffizienz. . . . . . . . . . . . . . 115
244. Zweidimensionale Exponentialverteilung. MLE. . . . . . . . . . . . . 116
245. Weibull-Verteilung. MLE. . . . . . . . . . . . . . . . . . . . . . . . . . . 116
DETALIERTES INHALTSVERZEICHNIS
3.7
3.8
3.9
3.10
3.11
246. Mischung der Verteilungen. MLE. . . . . . . . . . . . . . . . . . .
247. Beta-Verteilung. MLE. . . . . . . . . . . . . . . . . . . . . . . . . .
248. Pareto-Verteilung. Suffizienz und MLE. . . . . . . . . . . . . . . .
249. Gamma-Verteilung. MLE. . . . . . . . . . . . . . . . . . . . . . . .
250. Lévy-Verteilung. Dichte und MLS. . . . . . . . . . . . . . . . . . .
UMVUE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
251. Ein Model für das kein erwartungstreuer Schätzer existiert. .
252. Verschobene Gleichverteilung. . . . . . . . . . . . . . . . . . . . .
253. UMVUE. Bernoulli-Verteilung. . . . . . . . . . . . . . . . . . . . .
254. Diskrete Gleichverteilung. MLE und UMVUE. . . . . . . . . . .
255. Vollständigkeit und UMVUE. . . . . . . . . . . . . . . . . . . . . .
256. Vollständigkeit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
257. Stichprobenvarianz als UMVUE bei Normalverteilung. . . . . .
258. UMVUE. Normalverteilung. . . . . . . . . . . . . . . . . . . . . .
259. Cramér-Rao Regularität und exponentielle Familien. . . . . . .
260. UMVUE. Exponentialverteilung. . . . . . . . . . . . . . . . . . . .
261. UMVUE. Gamma-Verteilung. . . . . . . . . . . . . . . . . . . . . .
262. Informationsungleichung und Normalverteilung. . . . . . . . .
263. Cramér-Rao-Schranke und die Gleichverteilung. . . . . . . . . .
264. Cramér-Rao-Schranke ist nicht scharf. . . . . . . . . . . . . . . .
265. Log-Normal-Verteilung. MLS und UMVUE. . . . . . . . . . . . .
266. UMVUE-Schätzer für Poisson-Verteilung. . . . . . . . . . . . . .
Asymptotische Theorie . . . . . . . . . . . . . . . . . . . . . . . . . . . .
267. Verschobene Gleichverteilung und Konsistenz. . . . . . . . . . .
268. Konsistenz. Hinreichende Bedingungen. . . . . . . . . . . . . . .
269. Asymptotische Verteilung von MLE. . . . . . . . . . . . . . . . . .
270. Asymptotische Effizienz. . . . . . . . . . . . . . . . . . . . . . . . .
Konfidenzintervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
271. Konfidenzintervall. Normalverteilung. . . . . . . . . . . . . . . .
272. Konfidenzintervall. Exponentialverteilung. . . . . . . . . . . . .
273. Konfidenzintervall. Varianzenvergleich bei Normalverteilung.
274. Gleichverteilung. Konfidenzintervall. . . . . . . . . . . . . . . . .
275. Konfidenzintervall. Mittelwert der Normalverteilung. . . . . .
Testtheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
276. Test. Mittelwertvergleich unter Normalverteilung. . . . . . . .
277. Poisson-Verteilung. Test. . . . . . . . . . . . . . . . . . . . . . . . .
278. Exponentialverteilung. Test. . . . . . . . . . . . . . . . . . . . . . .
279. Rayleigh-Verteilung. UMP-Test. . . . . . . . . . . . . . . . . . . .
280. Pareto-Verteilung. Optimaler Test. . . . . . . . . . . . . . . . . . .
281. Poissonverteilung. Optimaler Test. . . . . . . . . . . . . . . . . . .
282. Geometrische Verteilung. Neyman-Pearson-Test. . . . . . . . . .
283. Bernoulli-Verteilung. Neyman-Pearson-Test. . . . . . . . . . . .
284. Gamma-Verteilung. Konfidenzintervall und Test. . . . . . . . .
Lineare Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
285. Lineare Regression mit Schalter. . . . . . . . . . . . . . . . . . . .
286. 3-Stichprobenproblem. . . . . . . . . . . . . . . . . . . . . . . . . .
287. KQS ist auch MLS im Normalverteilungsfall. . . . . . . . . . .
288. Einfache lineare Regression. . . . . . . . . . . . . . . . . . . . . .
289. Quadratisches Modell. KQS. . . . . . . . . . . . . . . . . . . . . . .
ix
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
117
118
118
119
120
121
121
121
123
125
126
127
127
128
129
130
132
133
133
134
136
137
138
138
139
140
141
142
142
143
143
144
144
145
145
146
148
150
151
152
154
155
157
157
157
158
159
160
161
x
DETALIERTES INHALTSVERZEICHNIS
290. Quadratisches Modell. Explizite Form des KQS. . . . . . . . . . . . . 161
Literatur
163
Einleitung
Die vorliegende Sammlung enthält über 287 Probleme und Aufgaben, die ich seit 2011
für meine Übungen an der TU Chemnitz verwendet habe. Die Aufgaben sind zum Teil
mit Lösungshinweisen oder mit vollständigen Lösungen versehen.
Quellen
Bei der Erstellung dieser Aufgabensammlung habe ich unter anderen folgende exzellente Bücher verwendet:
• Claudia Czado und Thorsten Schmidt. Mathematische Statistik. Statistik und
Ihre Anwendungen. Springer, 2011. ISBN: 9783642172601
• Jean Jacod und Philip Protter. Probability Essentials. 2. Aufl. Springer-Verlag,
2004. ISBN: 9783540438717
• Jacek Jakubowski und Rafał Sztencel. Wst˛ep do teorii prawdopodobieństwa.
Script, 2001. ISBN: 9788390456454
• Jun Shao. Mathematical Statistics. Springer Texts in Statistics. Springer, 2003.
ISBN : 9780387953823
• Übungsaufgaben zur Wahrscheinlichkeitsrechnung und Statistik. Fakultät für
Mathematik, Technische Universität Chemnitz
Kompilierung der Aufgabensammlung
Um die Datei problem-supermarkt.pdf aus den LATEX-Quellen zu erstellen wird
eine aktuelle TEX-Distribution benötigt, wie zum Beispiel TEXLive 2012.
Basierend auf den Aufgaben in dieser Sammlung können auch automatisiert
Übungsblätter erstellt werden. Dies ist mit Hilfe eines separaten Werkzeugs problemextractor möglich.
Fehler und Korrekturen
Wenn Sie einen Fehler gefunden haben, erstellen Sie bitte ein “Issue” in dem Fehlerverfolgunssystem des Projekts und verweisen Sie in dem Namen des Fehlers auf den
(innerhalb der Sammlung eindeutigen) Titel der Aufgabe.
1
2
DETALIERTES INHALTSVERZEICHNIS
Mitwirkende
Ich möchte mich bei folgenden Personen für das Beitragen der Aufgaben, Lösungen
und Verbesserungsvorschläge herzlich bedanken:
Thorsten Schmidt, Bernd Hofmann, Holger Langenau, Michael Pippig, Toni Volkmer, Susanne Lindner.
Weiterverwendung der Probleme aus dieser Sammlung
Problemsupermarkt ist lizenziert unter einer Creative Commons Namensnennung Weitergabe unter gleichen Bedingungen 4.0 International Lizenz.
Julian Wergieluk, Chemnitz, 2014.
K APITEL
1
Wahrscheinlichkeitsrechnung
1.1
Mengensysteme
1. Ereignisse. Mengenoperationen. Gegeben seien jeweils der Grundraum Ω
sowie zwei Teilmengen A und B :
(a) Ω = {1, 2, ..., 20}, A = {4, 5, 6, 7, 9, 11}, B = {3, 5, 9, 20}
(b) Ω = [−1, 3], A = [0, 1), B = ( 12 , 2]
(c) Ω = R, A = {x ∈ R : |x − 1| < 3}, B = [0, ∞).
Bilden Sie die Mengen A , B , A ∩ B , A ∪ B , A ∪ B , A ∩ B , B ∩ A , (A ∪ B ) ∩ B , B ∪ (B ∩ A).
2. Ereignisse. Kraftwerk. Die Arbeit eines Kraftwerkes wird durch drei unabhängig voneinander arbeitende Kontrollsysteme überwacht, die jedoch auch einer
gewissen Störanfälligkeit unterliegen. Es bezeichne S i das Ereignis, dass das i -te
System störungsfrei arbeitet (i = 1, 2, 3).
(a) Finden Sie einen geeigneten Grundraum Ω, der diese Zufallssituation beschreibt.
Ist Ω eindeutig bestimmt?
(b) Drücken Sie folgende Ereignisse mit Hilfe der Ereignisse S 1 , S 2 und S 3 aus:
A : Alle drei Systeme arbeiten störungsfrei.
B : Kein System arbeitet störungsfrei.
C : Mindestens ein System arbeitet störungsfrei.
D : Genau ein System arbeitet störungsfrei.
E : Höchstens zwei Systeme sind gestört.
(c) Welche der unter (b) genannten Ereignisse sind Elementarereignisse?
(d) Aus wie vielen Elementen bestehen die Ereignisse D und C ?
Lösung. Der Grundraum Ω kann als Ω = (i j k) : i , j , k ∈ {0, 1} gewählt werden. Diese
Wahl ist aber nicht eindeutig. Die Ereignisse A und B sind in diesem Fall Elementarereignisse.
©
3
ª
4
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
3. Ereignisse. Aktienmarkt. Beim Monatsvergleich zweier Technologieaktien
wird für jede Aktie festgestellt, ob es zu einem Gewinn von mindestens 3% kam, ob
sich ein Verlust um mehr als 3% ergab oder ob sich die jeweilige Aktie innerhalb der
6%-Spanne bewegte.
(a) Finden Sie einen geeigneten Grundraum Ω, der diese Zufallssituation beschreibt.
Ist Ω eindeutig bestimmt?
(b) Stellen Sie folgende Ereignisse mit Hilfe der Elementarereignisse dar:
A : Beide Aktien erzielten einen Kursgewinn von mindestens 3%.
B : Die Kurse der beiden Aktien lagen innerhalb der 6%-Spanne.
C : Der Kurs von höchstens einer der beiden Aktien verschlechterte sich um
mehr als 3%.
D : Der Kurs von mindestens einer der beiden Aktien verschlechterte sich um
mehr als 3%.
(c) Welche Bedeutung haben die Ereignisse
E 1 = A ∪C , E 2 = A ∪ D , E 3 = A ∩C , E 4 = A ∩C , E 5 = A ∩ D ?
4. Ereignisse. Fertigungsstraße. Eine Fertigungsstraße bestehe aus einer Maschine vom Typ I, vier Maschinen vom Typ II und zwei Maschinen vom Typ III. Wir
bezeichnen mit A , B k bzw. C j (k = 1, 2, 3, 4; j = 1, 2) die Ereignisse, dass die Maschine
vom Typ I bzw. die k -te Maschine vom Typ II bzw. die j -te Maschine vom Typ III intakt
ist. Die Fertigungsstraße sei arbeitsfähig, wenn mindestens eine Maschine von jedem
Maschinentyp intakt ist. Dieses Ereignis werde mit D bezeichnet.
Beschreiben Sie die Ereignisse D und D mit Hilfe der Ereignisse A , B k , C j .
5. Ereignisse. Kosten. Drei Betriebsteile werden auf Einhaltung eines bestimmten Kostenfaktors überprüft. Das Ereignis A liege vor, wenn mindestens ein Betriebsteil nicht den geforderten Kostenfaktor einhält, das Ereignis B liege vor, wenn alle
drei Betriebsteile den geforderten Kostenfaktor einhalten.
Was bedeuten dann die Ereignisse A ∪ B und A ∩ B ?
6. Zufallsvariablen. Urbildmengen. Gegeben seien ein Grundraum Ω = R und
die Zufallsvariable
X : Ω → R : ω 7→ ω2 .
Geben Sie folgende Mengen explizit an:
{X = 0} ,
{X ∈ [1, 2)} ,
{X > 2} ,
{2X < 4} ,
7. Zufallsvariablen. Zwei unterscheidbare Würfel.
ein schwarzer Würfel werden geworfen.
{|X − 2| > 1} .
Ein weißer Würfel und
(a) Geben Sie einen geeigneten Grundraum Ω an, der diese Zufallssituation beschreibt.
(b) Die Zufallsvariablen W bzw. S geben die Augenzahl des weißen bzw. schwarzen
Würfels an. Geben Sie die Definitionen von W und S explizit an. Wie definieren
Sie den Zustandsraum?
1.1. MENGENSYSTEME
5
(c) Geben Sie folgende Ereignisse explizit an:
½
{W = 6} ,
{W + S = 4} ,
{W > S} ,
¾
W
>1 .
S
8. Zufallsvariablen. Indikatorfunktionen. Ein Experiment bestehe aus einfachem Würfelwurf und wird durch den Grundraum Ω = {1, 2, 3, 4, 5, 6} beschrieben. Die
Zufallsvariable X : Ω → R, ω 7→ ω liefert das Ergebnis des Würfelwurfs. Zeigen Sie
X = 1[1,6] + 1[2,6] + · · · + 1[6,6] .
9. Zufallsvariablen. Schachmeister. Ein Schachmeister besucht einen Schachverein und spielt eine Partie Simultanschach gegen die fünf anwesenden Clubmitglieder. Dazu werden fünf Schachbretter in einer Reihe aufgebaut. Auf der einen Seite
sitzen vor je einem Brett die Vereinsmitglieder, während auf der anderen Seite der
Schachmeister reihum auf jedem Brett zieht.
Es sei X die Anzahl der Spiele, die der Schachmeister gewinnt. (Ein Schachspiel
kann mit Remis beendet werden, so dass keiner gewinnt.)
(a) Geben Sie einen Grundraum Ω, die Zufallsvariable X und den Zustandsraum Z
an.
(b) Bestimmen Sie die Anzahl der Elemente von Ω.
(c) Wie viele Elementarereignisse besitzt das Ereigns {X ≥ 4}?
Lösung.
(a) Ω = {0, 1}5 (1 : gewonnen, 0 : nicht gewonnen), X : Ω → Z = {0, 1, 2, 3, 4, 5}, X (ω) =
P5
i =1 ωi wobei ω = (ω1 , . . . , ω5 ) ∈ Ω
(b) |Ω| = 25 = 32
(c) |{X ≥ 4}| = |{X = 5} ∪ {X = 4}| = 1 + 4 = 5
Die Wahl von Ω ist hierbei nicht eindeutig. Es könnte alternativ auch folgende Lösung
gewählt werden:
(a) Ω = {−1, 0, 1}5 (1 : gewonnen, 0 : nicht gewonnen, −1 : verloren), X : Ω → Z =
{0, 1, 2, 3, 4, 5}
(b) |Ω| = 35 = 243
(c) |{X ≥ 4}| = |{X = 5} ∪ {X = 4}| = 1 + 8 = 9
10. σ-Algebren. Schachspieler. Zwei Schachspieler spielen eine Partie. Das Ereignis A liege vor, falls der erste Spieler gewinnt, das Ereignis B , falls der zweite
gewinnt. Welche Ereignisse sind noch hinzuzufügen, damit eine σ-Algebra entsteht?
6
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
Lösung. Für Ω 6= ; heißt A ⊂ P (Ω) Algebra, falls
(i) Ω ∈ A
(ii) A ∈ A ⇒ A ∈ A
(iii) A 1 , A 2 ∈ A ⇒ A 1 ∪ A 2 ∈ A
Für eine σ-Algebra wird statt (iii) allgemeiner gefordert
(iiiσ ) A i ∈ A , i ∈ N ⇒
S∞
i =1
Ai ∈ A
Für |A | < ∞ sind (iii) und (iiiσ ) äquivalent, d.h. jede endliche Algebra ist auch σAlgebra.
Interpretation: Jede und/oder-Verknüpfung sowie Verneinungen von Ereignissen
sind wieder als Ereignis darstellbar.
• Das Ereignis C liege bei Unentschieden vor.
• Das sichere Ereignis ergibt sich dann offenbar als Ω = A ∪ B ∪C ∈ A (“Ein Spieler
gewinnt oder Unentschieden” tritt immer ein).
• Wegen (ii) ist dann auch das unmögliche Ereignis ; = Ω ∈ A Element der Algebra
(es gibt keine anderen Spielausgänge).
• Wegen (iii) sind außerdem A ∪ B ∈ A , A ∪C ∈ A und B ∪C ∈ A .
• Offenbar gilt A ∪ B = C ∈ A , A ∪C = B ∈ A und B ∪C = A ∈ A
• A = {;, A, B,C , A ∪ B, A ∪ C , B ∪ C , Ω} erfüllt alle Bedingungen einer Algebra. Auf
Grund der Endlichkeit (|A | = 8) ist dies auch eine σ-Algebra.
11. σ-Algebren. Potenzmenge. Sei Ω ein endlicher nichtleerer Grundraum. Zeigen Sie, dass die Menge aller Teilmengen von Ω, also die Potenzmenge P (Ω), endlich
und eine σ-Algebra ist.
12. σ-Algebren. Restriktion. Sei A eine σ-Algebra von Teilmengen eines Grundraumes Ω und B ∈ A mit B 6= ;. Zeigen Sie, dass C = {A ∩ B : A ∈ A } eine σ-Algebra von
Teilmengen von B ist.
13. Ereignisse. Würfel und Münze I. Ein Experiment bestehe aus dem Werfen
eines sechsseitigen Würfels und einer Münze.
(a) Geben Sie einen Grundraum Ω an, der diese Zufallssituation beschreibt.
(b) Stellen Sie die folgenden Ereignisse sowohl formell als auch durch Aufzählung
der Elementareignisse dar.
A : Der Würfel zeigt eine 1 und die Münze zeigt Zahl.
B : Der Würfel zeigt eine gerade Augenzahl.
C : Der Würfel zeigt eine 6 oder die Münze zeigt kein Wappen.
D : Entweder A oder C tritt ein.
1.1. MENGENSYSTEME
7
Lösung.
(a)
Ω = {1, 2, 3, 4, 5, 6} × {W, Z }
= {(w, m) : w ∈ {1, 2, 3, 4, 5, 6}, m ∈ {W, Z }}
= {(1,W ), (2,W ), (3,W ), (4,W ), (5,W ), (6,W ), (1, Z ), (2, Z ), (3, Z ), (4, Z ), (5, Z ), (6, Z )}
(b)
A : W1 := {(1,W ), (1, Z )}, M Z := {(1, Z ), (2, Z ), . . . , (6, Z )},
A = W1 ∩ M Z = {(1, Z )}
B : B = W2 ∪ W4 ∪ W6 = {(2,W ), (2, Z ), (4,W ), (4, Z ), (6,W ), (6, Z )}
C : C = W6 ∪ MW = {(6,W ), (6, Z ), (1, Z ), (2, Z ), (3, Z ), (4, Z ), (5, Z )}
D : A = Ω \ {(1, Z )}, C = {(1,W ), . . . , (5,W )}
D = A4C = (A ∩C ) ∪ (A ∩C ) = Ω \ ((A ∩C ) ∪ (A ∩C )) = {(2, Z ), . . . , (6, Z ), (6,W )}
14. Ereignisse. Würfel und Münze II. Ein Experiment bestehe aus dem Werfen
eines fairen Würfels und einer fairen Münze.
(a) Geben Sie einen Wahrscheinlichkeitsraum (Ω, A , P) an, der diese Zufallssituation beschreibt.
(b) Zeigt die Münze Wappen, so wird die doppelte Augenzahl des Würfels notiert,
bei Zahl nur die einfache. Wie groß ist die Wahrscheinlichkeit, dass eine gerade
Zahl notiert wird?
15. Ereignisse. Zerlegung des Würfels. Ein Würfel, dessen Seitenflächen gleichartig gefärbt sind, werde in 1000 kleine Würfel einheitlicher Größe zerlegt.
Wie groß ist die Wahrscheinlichkeit dafür, dass ein zufällig ausgewählter Würfel
auf mindestens einer Seite gefärbt ist?
16. Ereignisse. Elementare Wahrscheinlichkeiten. Für die Ereignisse A und
B seien folgende Wahrscheinlichkeiten bekannt: P(A) = 0.25, P(B ) = 0.45, P(A ∪ B ) = 0.5.
Berechnen Sie die Wahrscheinlichkeiten:
(a) P(A ∩ B ),
(b) P(A ∩ B ) und
³
´
(c) P (A ∩ B ) ∪ (A ∩ B ) .
Lösung.
(a)
P(A ∪ B ) = P((A ∩ B̄ ) ∪ B ) = P(A ∩ B̄ ) + P(B )
P(A ∪ B̄ ) = P(A ∪ B ) − P(B ) = 0.05.
(b)
P( Ā ∩ B̄ ) = P(A ∪ B ) = 0.5.
8
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
(c) Die symmetrische Differenz A∆B = (A \ B ) ∪ (B \ A) ist eine disjunkte Vereinigung,
und daher
P(A∆B ) = P(A ∩ B̄ ) + P( Ā ∩ B ).
Die vorherigen Überlegungen liefern
P(A ∩ B̄ ) = P(A \ B ) = P(A ∪ B ) − P(B ) = 0.05
P( Ā ∩ B ) = P(B \ A) = P(A ∪ B ) − P(A) = 0.25.
Insgesamt gilt also P(A∆B ) = 0.3.
1.2
Wahrscheinlichkeitsmaße
Wahrscheinlichkeitsmaße. Monotonie. Seien ein Wahrscheinlichkeitsraum
(Ω, A , P) und die Ereignisse A, B ∈ A gegeben. Zeigen Sie
17.
A⊆B
P(A) ≤ P(B ).
⇒
Lösung. P(B ) = P(A ∪ (B \ A)) = P(A) + P(B \ A) ≥ P(A).
18. Wahrscheinlichkeitsmaße. Subaditivität. Seien ein Wahrscheinlichkeitsraum (Ω, A , P) und die Ereignisse A 1 , A 2 , · · · ∈ A gegeben.
(a) Zeigen Sie, dass für alle n ∈ N
Ã
P
!
n
[
Ai ≤
i =1
n
X
P (A i )
i =1
gilt.
(b) Zeigen Sie, dass sogar gilt
Ã
P
∞
[
i =1
!
Ai ≤
∞
X
P (A i ) .
i =1
Lösung.
(a) Betrachte folgende Darstellung der Vereinigung als Summe disjunkter Elemente
von A .
n
[
A i = A 1 ∪ ( Ā 1 ∩ A 2 ) ∪ ( Ā 1 ∩ Ā 2 ∩ A 3 ) ∪ · · · ∪ ( Ā 1 ∩ Ā 2 ∩ · · · ∩ Ā n−1 ∩ A n ).
i =1
(b) Genau das gleiche Argument funktioniert für n = ∞. Das ist die Konsequenz der
σ-Additivität des Wahrscheinlichkeitsmaßes P .
1.2. WAHRSCHEINLICHKEITSMASSE
9
19. Wahrscheinlichkeitsmaße. Zerlegung der Vereinigung. Seien ein Wahrscheinlichkeitsraum (Ω, A , P) und die Ereignisse A, B,C ∈ A sowie A 1 , A 2 , . . . , A n ∈ A
gegeben. Zeigen Sie folgende Aussagen:
(a)
P (A ∪ B ∪C ) = P(A) + P(B ) + P(C ) − P(A ∩ B ) − P(A ∩C ) − P(B ∩C ) + P(A ∩ B ∩C ).
(b)
Ã
P
n
[
i =1
!
Ai =
n
X
P(A i ) −
i =1
X
P(A i ∩ A j )+
i<j
X
P(A i ∩ A j ∩ A k ) − · · · + (−1)n+1 P (A 1 ∩ · · · ∩ A n ) .
i < j <k
Lösung.
(a) Hier genügt eine Überlegung mit Hilfe der Venn-Diagrame.
(b) Die Menge A 1 ∪ · · · ∪ A n ist Vereinigung der Mengen der Form A i 1 ∩ · · · ∩ A i k ∩ Ā i k+1 ∩
· · · ∩ Ā i n , k ≥ 1, wobei i 1 , . . . , i n eine Umnumerierung von 1, . . . , n ist. Nun kommt
¡ ¢
solche Menge in der ersten Summe als Teilmenge von A i genau k1 vor. In der
¡ ¢
¡ ¢
P
zweiten Summe wird die Menge k2 mal abgezogen. Nachdem ki=0 (−1)i ki = 0,
¡ ¢
P
erhalten wir ki=1 (−1)i +1 ki = 1.
20. Wahrscheinlichkeitsmaße. Einfache Ungleichung. Seien ein Wahrscheinlichkeitsraum (Ω, A , P ) und die Ereignisse A und B gegeben. Beweisen Sie die Ungleichung
P (A ∩ B ) ≥ P (A) + P (B ) − 1.
21. Arithmetik der Wahrscheinlichkeitsmaße. Seien ein Wahrscheinlichkeitsraum (Ω, A, P ) und die Ereignisse A, B ∈ A gegeben.
(a) Angenommen P ( Ā) = 13 , P (A ∩ B ) = 14 und P (A ∪ B ) = 32 . Berechnen Sie P (B̄ ), P (A ∩ B̄ )
und P (B ∩ Ā).
(b) Angenommen P (A ∪ B ) = 12 , P (A ∩ B ) =
P (A) und P (A ∩ B̄ ).
Lösung.
(a) B ⊂ A .
(b) P (A) = 38 und P (A \ B ) = 18 .
1
4
und P (A ∩ B̄ ) = P (B ∩ Ā). Berechnen Sie
10
1.3
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
Kombinatorik.
22. Grundformeln der Kombinatorik. Die Kugeln in einer Urne sind mit Zahlen 1, 2, . . . , n nummeriert. Es werden nacheinander m Kugeln aus der Urne entnommen
und die zugehörigen Zahlen notiert. Nach jeder Entnahme können die Kugeln wieder
in die Urne zurückgelegt oder beiseite gelegt werden. Es muss auch festgelegt werden, ob die Reihenfolge der notierten Zahlen eine Rolle spielt. Abhängig von diesen
Entscheidungen ergeben sich folgende Anzahlen der möglichen Ergebnisse:
geordnet (Variationen)
mit Zurücklegen
ohne Zurücklegen
n
ungeordnet (Kombinationen)
m
n!
(n−m)!
¡n+m−1¢
¡m
n¢
m
Betrachten Sie folgende Zufallssituationen
(a) Der Betreiber der Lotto Lotterie (6 aus 49) ermittelt die gewinnende Zahlenkombination.
(b) Ein Benutzer gibt ein zufälliges 8-stelliges Passwort ein.
(c) Es wird zufällig eine injektive (verschiedenwertige) Funktion
f : {1, . . . , m} → {1, . . . , n}
gewählt.
(d) Es wird zufällig eine k -elementige Teilmenge der Menge {1, 2, . . . , n} gewählt.
(e) Es wird zufällig eine Bijektion f : {1, . . . , n} → {1, . . . , n} gewählt.
(f) m Krapfen (nicht unterscheidbar) werden zufällig an n Programmierer verteilt.
(g) Es wird zufällig eine Folge nichtnegativer ganzer Zahlen (r 1 , . . . , r n ) gewählt, so
dass die Gleichung r 1 + · · · + r n = m erfüllt ist.
Geben Sie jeweils eine passende Formel an, die die Anzahl der möglichen Ergebnisse
für diese Zufallssituationen beschreibt.
23. Kombinatorik. Passwörter.
als gegebenen Zeichensatz.
Wir betrachten die Menge A = {a, b, . . . , z, 0, . . . , 9}
(a) Wie viele voneinander verschiedene Passwörter der Länge 8 können aus A
gebildet werden?
(b) Betrachten wir nun die Passwörter aus dem obigen Zeichensatz, die an der letzen
Stelle eine Ziffer aufweisen und sonst aus lauter Buchstaben bestehen. Wie viele
solche Passwörter gibt es?
(c) Vergleichen Sie die Größenordnungen der Mächtigkeiten der obigen Passwortmengen.
1.3. KOMBINATORIK.
11
Lösung.
(a) Die Menge A enthält 36 Elemente. Nachdem in einem Passwort die Reihenfolge der Zeichen wichtig ist und die Zeichen mehrmals vorkommen können,
ist die Anzahl der Passwörter gegeben durch die Anzahl der Variationen mit
Zurücklegen, also durch
368 = 2.821.109.907.456 ≈ 1012.45 .
(1.1)
(b) Es gibt 267 Passwörter mit Länge 7, die nur aus Buchstaben bestehen. Wenn wir
an jedem solchen Passwort eine Ziffer am Ende hinzufügen, erhalten wir 10 · 267
Möglichkeiten.
10 · 267 = 80.318.101.760 ≈ 1010.9 .
(1.2)
(c) Die Mächtigkeiten der obigen Mengen sind also fast zwei Größenordnungen
auseinander.
24. Kombinatorik. PINs und runs. In einem k -stelligen PIN (a1 , a2 , . . . , ak ) wird
eine n -fache Wiederholung (a, a, . . . , a) eines Elementes a mit n ≥ 2 als ein n -run bezeichnet. Zum Beispiel hat die Folge (0, 0, 1, 1, 1, 0) vier runs, nämlich einen 2-run (0, 0),
zwei 2-runs (1, 1), sowie einen 3-run (1, 1, 1).
Betrachten wir nun die Menge der 4-stelligen PINs, die aus den Ziffern {0, 1, . . . , 9}
gebildet werden können.
(a) Wie viele solche PINs gibt es?
(b) Wie viele PINs gibt es, die keine runs enthalten?
(c) Vergleichen Sie die Größenordnungen der Mächtigkeiten der obigen PIN-Mengen.
Zusatz: Führen Sie die obige Berechnung für die 5-stelligen PINs durch.
Lösung.
(a) Es gibt 104 solche PINs.
(b) Um die Anzahl der PINs ohne runs zu erhalten, zählen wir alle möglichen PINs
mit runs auf. Erste Spalte gibt die Form des PINs, zweite die Anzahl solcher
PINs und dritte die Anzahl der symmetrischen Fälle.
------*
--==
--**
*--*
10
10
10
10
10
9
9
9 9
9 9
1
2
1
2
1
Das sind insgesamt 2710 Fälle. Es gibt also 7290 PINs ohne runs.
(c) Wenn wir PINs mit runs ausschliessen, reduziert sich unser pool möglicher PINs
um ein Viertel.
25. Laplacesche Modelle. Zwei Würfel. Wie groß ist die Wahrscheinlichkeit
dafür, beim Werfen von zwei Würfeln eine Augensumme zu erzielen, die größer oder
gleich 10 ist?
12
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
Lösung. Wir lösen die Aufgabe einmal unter der Annahme, dass die Würfel unterschieden werden können und einmal ohne diese Annahme.
Würfel werfen,
ist die 36-elementige Ergeb(a) Wenn wir zwei wohlunterscheidbare
©
ª
nismenge gegeben durch Ω = (i , j ) : i , j ∈ {1, . . . , 6} . Die günstigen Fälle sind
(4, 6), (5, 5), (5, 6), (6, 4), (6, 5), (6, 6).
(1.3)
Nachdem es sich hier um ein Laplace-Modell handelt, ist die Wahrscheinlichkeit,
6
dass die Summe größer als 10 ist, gleich 36
= 16 .
(b) In Falle der nichtunterscheidbaren Würfel ist das kein Laplace-Experiment
mehr. Deswegen muss geeignetes Wahrscheinlichkeitsmaß P betrachtet werden.
26.
Kombinatorik. Würfel. 4 vs. 24. Was ist wahrscheinlicher:
(a) Beim Werfen von vier Würfeln auf wenigstens einem eine Sechs zu erzielen, oder
(b) bei 24 Würfen von zwei Würfeln wenigstens einmal zwei Sechsen zu erhalten?
Lösung.
(a) Das Betrachen des komplementären Ereignisses liefert
1−
54
.
64
(b) Ein äquivalentes Model ist, 24 mal einen 36-Würfel werfen. Die Wahrscheinlichkeit wenigstens ein mal die Zahl 36 zu erhalten, berechnen wir indem wir das
komplementäre Ereignis betrachten:
1−
(c) Was ist größer?
54
64
= 0.4822530864 und
3524
.
3624
3524
3624
= 0.5085961239.
27. Kombinatorik. Single choice test. Bei einem single choice test werden n
Fragen gestellt, wobei jeweils genau eine richtige Antwort aus m Möglichkeiten
gewählt werden soll. Der Test wird als bestanden angesehen, wenn mindestens die
Hälfte der Fragen richtig beantwortet wurden.
Wir testen die Prüfmethode indem wir zufällig jeweils eine Antwort bei jeder Frage
ankreuzen.
(a) Finden Sie einen geeigneten Wahrscheinlichkeitsraum, der diese Zufallssituation
beschreibt.
(b) Wie hoch ist die Wahrscheinlichkeit, dass die zufällige Antwortwahl zum Bestehen des Tests führt?
(c) Berechnen Sie die obige Wahrscheinlichkeit explizit für n = 25 und m = 4.
1.3. KOMBINATORIK.
13
Lösung. Laplace-Modell. Anzahl der Möglichen: |Ω| = m n . Anzahl der Günstigen:
Ã
n
!
d n2 e
(m − 1)
n−d n2 e
Ã
!
à !
n
n
n−d n2 e−1
+ n
(m − 1)
+···+
(m − 1)n−n .
d 2 e+1
n
Hier zählen wir Anzahl der Tests mit d n2 e, d n2 e + 1, . . . richtigen Antworten. Eine andere
Möglichkeit ist die Anzahl der Test mit 0, 1, 2, . . . , b n2 c falschen Antworten zu zählen:
à !
Ã
!
n
n
n
2
1 + n(m − 1) +
(m − 1) + · · · + n (m − 1)b 2 c .
2
b2c
Die Wahrscheinlichkeit für das Bestehen der Prüfung beträgt also
à !
à !µ ¶ µ
¶
n
X
n (m − 1)n−i
n 1 i
1 n−i
=
1
−
.
mn
m
m
i =d n e i
i =d n e i
n
X
2
2
Die letzte Formel kann auch direkt hergeleitet werden. Für den Fall n = 25 und m = 4,
ist d n2 e = 13 und die Anzahl der günstigen Fälle gleich
3794787166756 ≈ 1012.5 .
Nachdem Anzahl der möglichen Fälle ist
m n = 425 = 1125899906842624 ≈ 1015.05 ,
ist die Wahrscheinlichkeit für eine zufällig bestandene Prüfung ungefähr gleich 0.0033.
28. Kombinatorik. Aufzug. In einem Aufzug eines 10-stöckigen Gebäudes befinden sich 7 Personen. Wie hoch ist die Wahrscheinlichkeit dafür, dass alle Personen auf
verschiedenen Stockwerken aussteigen?
Lösung.
o.W.
V10,7
V m.W.
10,7
=
10 · . . . 4
= 0, 06048.
107
29. Kombinatorik. Karten. 6 aus 52. Aus einem gut gemischten Spielkartensatz
bestehend aus 52 Karten werden zufällig 6 Karten gezogen. Wie hoch ist die Wahrscheinlichkeit dafür, dass sich unter den gezogenen Karten schwarze und rote Karten
befinden?
Lösung. Wahrscheinlichkeit dafür, dass nur rote Karten gezogen werden ist
¡26¢
6
p = ¡52
¢.
6
Daher ist die gesuchte Wahrscheinlichkeit 1 − 2p . Man kann die Zufallssituation auch
mit Hilfe der geordneten Ziehungen modellieren. Das Aufzeigen dieser Tatsache wird
sicher zum besseren Verständnis der Materie beitragen.
14
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
30. Kombinatorik. Karten. 13 aus 52. Aus einem gut gemischten Spielkartensatz bestehend aus 52 Karten werden zufällig 13 Karten gezogen. Berechnen Sie die
Wahrscheinlichkeiten der folgenden Ereignisse:
(a) Es wurden alle Kartenwerte (d.h. A,2,3,4,5,6,7,8,9,10,B,D,K) gezogen.
(b) Es wurden 5 Piks, 4 Herzen, 3 Treffs und ein Karo gezogen.
(c) Es wurden 5 Karten der Farbe A , 4 Karten der Farbe B , 3 Karten der Farbe C
und eine Karte der Farbe D gezogen. Wir nehmen an, dass die Farben paarweise
verschieden sind.
Lösung.
(a)
413 · 13!
413
= ¡52¢ .
52 · · · (52 − 13)
13
Alternativ, wählen wir die erste Karte aus 52, die zweite aus 48, usw. Das ergibt
52 · 48 · · · 4
.
¡52¢
13
Nachdem jeder Term im Nenner durch 4 teilbar ist, erhalten wir wieder die obige
Formel.
(b) Es gibt
keit
¡13¢
5
verschiedene 5-Pik Mengen. Daher ist die gesuchte Wahrscheinlich-
13!
/(52 · · · (52 − 13))
p = 13 · · · (13 − 5)13 · · · (13 − 4)13 · · · (13 − 4)13
5!4!3!1!
¡13¢¡13¢¡13¢¡13¢
=
5
4
3
¡52¢
1
.
13
(c) 4!p .
31. Kombinatorik. 2 Kartenspieler. Aus einem gut gemischten Spielkartensatz
bestehend aus 52 Karten werden je 26 Karten an 2 Spieler verteilt. Berechnen Sie
folgende Wahrscheinlichkeiten:
(a) Der erste Spieler bekommt alle Asse und alle Könige.
(b) Der erste Spieler bekommt 7 Piks (♠), 8 Herzen (♥), 5 Treffs (♣) und 6 Karos (♦).
(c) Der zweite Spiele bekommt alle Farben (♣ ♠ ♥ ♦) von genau 5 Werten.
Begründen Sie Ihre Lösung.
1.3. KOMBINATORIK.
15
Lösung. Wir nehmen an, dass die Ordnung in welcher die Karten an die Spieler verteilt werden, keine Rolle spielt. Die Kartenverteilungen sind alle gleichwahrscheinlich,
es handelt sich also um ein Laplace
Modell. Die Anzahl der möglichen Verteilungen
¡52¢
ist dann in allen Fällen gleich 26 .
(a) Alle Asse und alle Könige (8 Karten) können nur auf eine Art an den ersten
Spieler verteilt werden. Zusätzlich erhält der erste Spieler 26 − 8 = 18 Karten aus
¡ ¢
den restlichen 52 − 8 = 44 Karten. Anzahl der möglichen Verteilungen ist also 44
18 .
Die Wahrscheinlichkeit für das beschriebene Ereignis beträgt
¡44¢
18
¡52¢ .
26
(b) Nachdem die Reihenfolge der Kartenverteilung keine Rolle spielt, verteilen wir
zuerst die 7 Piks an den ersten Spieler. Nachdem¡es¢ insgesammt 13 verschiedene
Piks in dem Spielkartensatz gibt, kann das auch 13
erfolgen.
7 verschiedene Arten
¡13¢
Anschliessend erhält der erste Spieler 8 Herzen – dies kann auf 8 Arten
¡ ¢
¡ ¢
geschehen, danach 5 Treffs – 13
und schliesslich 6 Karos – 13
5 Möglichkeiten,
6
¡ ¢¡13¢¡13¢¡13¢
Möglichkeiten. Insgesammt gibt es 13
verschiedene
Verteilungen,
die
7
8
5
6
die geförderte Bedingung erfüllen. Die Wahrscheinlichkeit für das beschriebene
Ereignis beträgt
¡13¢¡13¢¡13¢¡13¢
7
8
5
6
¡52¢
.
26
(c) Wir wählen zuerst 5 Werte aus 13 – 13
5 Möglichkeiten – und verteilen alle 5 × 4 =
20 Karten mit diesen Werten an den zweiten Spieler. Die restlichen 26 − 20 = 6
Karten
verteilen wir aus den übrigen 52 − 20 = 32 Karten. Dabei kommen aber
¡ ¢
8 28
solche
Verteilungen vor, in denen ein der 8 übriggebliebenen Werte 4 mal
2
vertreten ist. Die Wahrscheinlichkeit für das beschriebene Ereignis beträgt also
¡ ¢
¡13¢ ³¡32¢
5
6 −8
¡52¢
¡28¢´
2
.
26
32. Kombinatorik. 4 Kartenspieler. Aus einem gut gemischten Spielkartensatz
bestehend aus 52 Karten werden je 13 Karten an 4 Spieler verteilt. Berechnen Sie
folgende Wahrscheinlichkeiten:
(a) Jeder Spieler bekommt einen Ass.
(b) Erster Spieler bekommt genau 7 Karten einer Farbe.
(c) Erster Spieler bekommt genau 6 Karten einer Farbe.
Lösung.
(a) Wir zählen die Mengen und vernachlässigen dadurch die Reihenfolge der Karten.
Die Anzahl der möglichen Kartenverteilungen an vier Spieler ist
Ã
!Ã !Ã !Ã !
52 39 26 13
.
13 13 13 13
16
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
Die Anzahl der günstigen Verteilungen: Der erste Spieler bekommt einen beliebigen Ass und 12 Karten die keine Asse sind. Der zweite Spieler bekommt
einen der drei übriggebliebenen Asse und 12 Karten die keine Asse sind. Diese
Überlegung liefert
à ! à ! à ! à !
4
48
36
24
12
3
2
1
.
12
12
12
12
Die gesuchte Wahrscheinlichkeit ist demnach
4!48! (13!)4
52! (12!)4
.
(b) Wahrscheinlichkeit für 7 Karten einer Farbe:
4
¡13¢¡39¢
7
¡52¢
6
.
13
(c) Anzahl der Günstigen wie oben. Anzahl der Möglichen:
Ã
13
4
6
! "Ã
!
à !à !#
39
13 26
−3
.
7
6
1
33. Gruppeneinteilung bei Fußball WM. Bei einer Fußballweltmeisterschaft
werden 32 Fußballteams zufällig in 8 Gruppen je 4 Teams eingeteilt. Wir nehmen an,
dass alle Gruppeneinteilungen gleichwahrscheinlich sind. Die Gruppenbezeichnungen
wie „A“, „B“, usw. werden nach erfolgter Einteilung vergeben und spielen hier keine
Rolle.
Wie viele mögliche Gruppeneinteilungen gibt es?
Lösung.
(a) Die Anzahl der möglichen Gruppeneinteilungen beträgt
Ã
!Ã ! Ã !Ã !
32 28
8 4
M=
...
/8!.
4
4
4 4
34. Kombinatorik. Schachbrett. Auf ein Schachbrett (entspricht einer 8 × 8Matrix) werden zufällig 8 Türme gestellt.
(a) Wie groß ist die Wahrscheinlichkeit dafür, dass sich die Türme nicht sehen
können, d. h. in jeder Zeile und jeder Spalte jeweils genau ein Turm steht?
(b) Wie groß ist die Wahrscheinlichkeit dafür, dass in jeder Zeile jeweils genau ein
Turm steht?
Lösung.
(a)
82 72 ···12
64···57
(b)
8! 88
64...57 .
=
8!
(648)
.
1.4. BEDINGTE WAHRSCHEINLICHKEITEN
1.4
17
Bedingte Wahrscheinlichkeiten
35. Bedingte Wahrscheinlichkeiten. Symmetrie. Seien ein Wahrscheinlichkeitsraum (Ω, A , P) und die Ereignisse A, B ∈ A mit P(A) > 0 und P(B ) > 0 gegeben.
Zeigen Sie die Äquivalenz:
P(A|B ) > P(A)
⇐⇒
P(B |A) > P(B ).
Lösung.
P (A|B ) > P (A) ⇐⇒
36.
P (A ∩ B )
> P (A) ⇐⇒ P (A ∩ B ) > P (A)P (B ).
P (B )
Bedingte Wahrscheinlichkeiten. 3 Würfel. Wir werfen drei ideale Würfel.
(a) Wie groß ist die Wahrscheinlichkeit, dass dabei kein Sechser geworfen wurde?
(b) Wie groß ist die Wahrscheinlichkeit, dass dabei kein Sechser geworfen wurde,
wenn bekannt ist, dass drei paarweise verschiedene Zahlen geworfen wurden.
Lösung. Die Menge aller Tripel aus Zahlen 1, . . . , 6 ist die Ergebnismenge. Sei A das
Ereignis, dass keine Sechser geworfen wurden und B das Ereignis, dass geworfene
3
Zahlen verschieden sind. Nun ist P (A) = 563 und P (B ) = 6·5·4
. Mit P (A ∩ B ) = 5·4·3
erhalten
63
63
1
wir P (A|B ) = 2 .
37. Bedingte Wahrscheinlichkeiten. 2 Münzen. Wir werfen zwei ideale Münzen.
(a) Die erste Münze zeigt Kopf. Berechnen Sie die Wahrscheinlichkeit, dass beide
Münzen Kopf zeigen.
(b) Eine der Münzen zeigt Kopf. Berechnen Sie die Wahrscheinlichkeit, dass beide
Münzen Kopf zeigen.
Lösung. Bezeichne mit K 1 bzw. K 2 das Ereignis, dass die erste bzw. die zweite Münze
Kopf zeigt.
(a)
P (K 1 ∩ K 2 |K 1 ) =
P (K 1 ∩ K 2 ∩ K 1 ) 1
= .
P (K 1 )
2
(b)
P (K 1 ∩ K 2 |K 1 ∪ K 2 ) =
P (K 1 ∩ K 2 ) 1
= .
P (K 1 ∪ K 2 ) 3
38. Bedingte Wahrscheinlichkeit ist ein Wahrscheinlichkeitsmaß. Seien ein
Wahrscheinlichkeitsraum (Ω, A, P ) und ein Ereignis B ∈ A mit P (B ) > 0 gegeben.
(a) Zeigen Sie, dass die Funktion Q : A → R, A 7→ P (A|B ) ein Wahrscheinlichkeitsmaß
auf (Ω, A) ist.
(b) Sei AB = {A ∩ B : A ∈ A}. Zeigen Sie, dass die Funktion R : AB → R, A 7→ P (A|B ) ein
Wahrscheinlichkeitsmaß auf (B, AB ) ist.
(c) Zusatz: Zeigen Sie, dass AB alle Eigenschaften eines Ereignisfeldes (σ-Algebra)
aufweist.
18
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
Lösung.
(a) Es sollen die Axiome
von
Kologorov gelten: (A1) 0 ≤ P (A) ≤ 1 für alle A ∈ A, (A2)
¡
¢ P∞
P (Ω) = 1, (A3) P ∪∞
A
=
i =1 P (A i ) für paarweise disjunkte Mengen (A i )i ∈N .
i =1 i
)
Nun ist Q(A) = P (A|B ) = P (A∩B
P (B ) .
(b) Ein Ereignisfeld erfüllt folgende Axiome: (1) Ω ∈ A, (2) A ∈ A ⇒ Ā ∈ A, (3) A 1 , A 2 , · · · ∈
A ⇒ ∪i ∈N A i ∈ A.
39. Bedingte Wahrscheinlichkeiten. Urne mit Kugeln. In einer Urne befinden sich w weiße Kugeln und s schwarze Kugeln. Es wird eine Kugel aus der Urne
gezogen, beiseite gelegt und anschließend eine weitere Kugel gezogen. Berechnen Sie
die Wahrscheinlichkeiten der folgenden Ereignisse:
(a) Beide Kugeln sind weiß.
(b) Die erste Kugel ist weiß und die zweite Kugel ist schwarz.
Geben Sie die obigen Wahrscheinlichkeiten für w = 5 und s = 4 explizit an.
Lösung. Wir bezeichnen mit W1 das Ereignis, dass eine weiße Kugel als erste
gezogen wird, und mit W2 ein Ereignis, dass eine weiße Kugel als zweite gezogen
wird. Wir sind daran interessiert, die Wahrscheinlichkeit P (W1 ∩W2 ) zu berechnen. Wir
w
w−1
wissen aber P (W1 ∩W2 ) = P (W2 |W1 )P (W1 ) und P (W1 ) = w+s
. Es gilt auch P (W2 |W1 ) = w−1+s
.
Insgesamt ist also
P (W1 ∩ W2 ) =
w(w − 1)
.
(w + s)(w − 1 + s)
Ähnlich bezeichnen wir mit S 2 das Ereignis, dass eine schwarze Kugel als zweite
gezogen wird. Damit ergibt sich
P (W1 ∩ S 2 ) = P (S 2 |W1 )P (W1 ) =
ws
.
(w + s)(w + s − 1)
Für die oben angegebenen Werte sind die beiden Wahrscheinlichkeiten gleich
5
18 .
40. Urnenmodell. 3 Farben. Eine Urne enthält 2 weiße, 3 rote und 5 schwarze
Kugeln. Es wird eine Kugel gezogen, ihre Farbe notiert und wieder in die Urne gelegt.
Die Anzahl der Kugeln der gerade notierten Farbe wird anschließend verdoppelt falls
diese Anzahl ungerade ist. Die Prozedur wird anschließend wiederholt.
(a) Wie groß ist die Wahrscheinlichkeit dafür, dass die zweite gezogene Kugel weiß
ist, unter der Bedingung, dass die erste gezogene Kugel nicht weiß ist?
(b) Wie groß ist die Wahrscheinlichkeit dafür, dass die erste gezogene Kugel weiß
ist, unter der Bedingung, dass die zweite gezogene Kugel rot ist?
1.4. BEDINGTE WAHRSCHEINLICHKEITEN
19
Lösung.
(a) P (W2 | W̄1 ) = P (W1 ) = 15 .
(b)
P (R 2 |W1 )P (W1 )
.
P (R 2 )
P (W1 )P (R 2 |W1 )
=
P (R 2 |W1 )P (W1 ) + P (R 2 | R 1 )P (R 1 ) + P (R 2 | S 1 )P (S 1 )
P (W1 | R 2 ) =
= 0.2878.
41. Multiplikatives Urnenmodell von Pólya. Eine Urne enthält 2 schwarze
und 2 weiße Kugeln. Es wird eine Kugel zufällig gezogen, ihre Farbe notiert und
wieder in die Urne gelegt. Die Anzahl der Kugeln der gerade notierten Farbe wird
anschließend verdoppelt und die Prozedur wiederholt.
(a) Wie groß ist die Wahrscheinlichkeit, dass die zweite gezogene Kugel weiß ist?
(b) Wie groß ist die Wahrscheinlichkeit, dass die erste gezogene Kugel weiß ist,
unter der Bedingung, dass die zweite gezogene Kugel weiß ist?
Lösung. Mit der üblichen Notation berechnen wir
P (W2 ) = P (W2 |W1 )P (W1 ) + P (W2 | S 1 )P (S 1 ) =
P (W1 |W2 ) =
1
2
P (W2 |W1 )P (W1 ) 2
= .
P (W2 )
3
42. Bedingte Wahrscheinlichkeiten. Urnenmodell von Pólya. Eine Urne enthält s schwarze und w weiße Kugeln. Es wird eine Kugel zufällig gezogen, ihre Farbe
notiert und die Kugel gemeinsam mit d weiteren Kugeln von der gleichen Farbe in die
Urne gelegt. Die Prozedur wird anschließend wiederholt.
(a) Wie groß ist die Wahrscheinlichkeit, dass die zweite gezogene Kugel weiß ist?
(b) Wie groß ist die Wahrscheinlichkeit, dass die erste gezogene Kugel weiß ist,
unter der Bedingung, dass die zweite gezogene Kugel weiß ist?
Lösung.
(a)
P (W2 ) = P (W2 |W1 )P (W1 ) + P (W2 |S 1 )P (S 1 )
=
w
w
s
w
w +d
+
=
.
w +s +d w +s w +s +d w +s w +s
(b)
P (W1 |W2 ) =
P (W2 |W1 )P (W1 )
w +d
=
.
P (W2 )
w +s +d
20
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
43. Modifiziertes Urnenmodell von Pólya. Eine Urne enthält s = 2 schwarze
und w = 3 weiße Kugeln. Es wird eine Kugel zufällig gezogen und ihre Farbe notiert.
Falls eine weiße Kugel gezogen wurde, wird diese beiseite gelegt. Falls eine schwarze
Kugel gezogen wurde, wird diese zusammen mit einer weiteren schwarzen Kugel in
die Urne gelegt. Die Prozedur wird anschließend wiederholt.
(a) Wie groß ist die Wahrscheinlichkeit, dass die zweite gezogene Kugel weiß ist?
(b) Wie groß ist die Wahrscheinlichkeit, dass die erste gezogene Kugel weiß ist,
unter der Bedingung, dass die zweite gezogene Kugel weiß ist?
Lösung. Wir bezeichnen mit Wi bzw. mit S i das Ereignis, dass bei der i -ten Ziehung
eine weiße bzw. eine schwarze Kugel gezogen wird.
(a)
P (W2 ) = P (W2 |W1 )P (W1 ) + P (W2 | S 1 )P (S 1 )
w
s
w
1
w −1
=
+
= .
s +w −1 s +w s +1+w w +s 2
(b)
P (W1 |W2 ) =
w −1
w
1
3
P (W2 |W1 )P (W1 )
=
= .
P (W2 )
P (W2 ) w − 1 + s s + w 5
44. Bedingte Wahrscheinlichkeiten. Unfaire Münzen. In einem Wurfexperiment werden n Münzen verwendet. Davon sind k Münzen symmetrisch und zeigen
Kopf mit Wahrscheinlichkeit 1/2. Die restlichen n − k Münzen zeigen Kopf mit Wahrscheinlichkeit 1/3.
(a) Es wurde zufällig eine Münze gewählt und geworfen: Kopf. Wie groß ist die
Wahrscheinlichkeit, dass eine asymmetrische Münze gewählt wurde?
(b) Eine zufällig gewählte Münze wird zweimal geworfen und in beiden Würfen
fällt Kopf. Wie groß ist die Wahrscheinlichkeit, dass eine asymmetrische Münze
gewählt wurde.
Lösung. Wir bezeichnen mit S bzw. A das Ereignis, dass eine symmetrische bzw.
asymmetrische Münze gewählt wurde. Es gilt P (S) = nk und P (A) = n−k
n . Sei K das
Ereignis, dass mit einer festen zufällig gewählten Münze Kopf geworfen wird. Wir
suchen P (A|K ). Es gilt aber nach dem Satz von Bayes
P (A|K ) =
P (K |A)P (A)
=
P (K |A)P (A) + P (K |S)P (S)
1 n−k
3 n
1k
n−k
3n + 2 n
=
2(n − k)
.
2n + k
Wenn zwei Münzen geworfen werden, müssen wir das Ereignis K durch das
Ereignis K 2 ersetzen. K 2 tritt ein wenn zwei Köpfe nacheinander geworfen werden.
Dies ergibt
P (A|K 2 ) =
4(n − k)
.
4n + 5k
1.4. BEDINGTE WAHRSCHEINLICHKEITEN
21
45. Bedingte Wahrscheinlichkeiten. Urne mit Loch. In einer Urne befinden
sich s schwarze und w weiße Kugeln. Während die Urne transportiert wird, gehen d
Kugeln verloren. Es wird eine Kugel zufällig aus der Urne gezogen.
(a) Angenommen d = 1. Wie groß ist die Wahrscheinlichkeit, dass die gezogene Kugel
weiß ist?
(b) Nun ist d < s und d < w . Wie groß ist die Wahrscheinlichkeit, dass die gezogene
Kugel weiß ist?
Lösung.
(a) Im Fall d = 1 können wir annehmen, dass eine Kugel entnommen wurde und den
Satz von der vollständigen Wahrscheinlichkeit verwenden.
P (W2 ) = P (W2 |W1 )P (W2 ) + P (W2 |S 1 )P (S 1 ).
(b) Alle Arten auf die i weiße und d −i schwarze Kugeln für i ∈ 0, . . . , d verloren gehen
können, sind gleichwahrscheinlich. Bezeichnen wir dieses Ereignis als Zi . Daher
haben wir
P (W ) =
d
X
P (W |Zi )P (Zi )
i =0
=
d
X
w −i
P (Zi ).
i =0 w + s − i
Nun ist
à !
d
P (Zi ) =
P (W1 ∩ · · · ∩ Wi ∩ S i +1 ∩ · · · ∩ S d )
i
à !
d
=
P (W1 )P (W2 |W1 ) . . . P (S k |W1 ∩ · · · ∩ S i +1 ∩ · · · ∩ S d −1 )
i
à !
d w
w −1
w −i +1
s
s − (d − i ) + 1
=
...
...
s +w −d +1
i w +s w +s −1 s +w −i −1 s +w −i
à !
d (w)i (s)d −i
=
.
i (w + s)d
46. Bedingte Wahrscheinlichkeiten. Urnen mit unbekanntem Inhalt. Es
sind zwei Urnen mit Kugeln gegeben. Eine der Urnen enthält k1 weiße und n 1 schwarze Kugeln und die andere enthält k2 weiße und n 2 schwarze Kugeln. Die Urnen sind
äußerlich nicht unterscheidbar.
(a) Geben Sie einen Ziehungsprozedur an, die die Wahrscheinlichkeit, dass zwei
weiße Kugeln gezogen werden unter allen Ziehungsprozeduren maximiert.
(b) Seien nun k1 = 3, n 1 = 7, k2 = 2 und n 2 = 8. Wie groß ist die Wahrscheinlichkeit,
dass unter Verwendung der von Ihnen gefundenen Prozedur zwei weiße Kugeln
gezogen werden?
22
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
Lösung. Nachdem die Urnen äußerlich nicht unterscheidbar sind, können wir eine
Urne nur zufällig und nur mit Wahrscheinlichkeit 1/2 wählen. Wir wählen also eine
Urne zufällig und ziehen eine Kugel. Es kann nur auf folgende Weisen weiterfahren
werden:
(a) Für die zweite Ziehung wählen wir die Urnen zufällig.
(b) Zweite Kugel ziehen wir aus der anderen Urne.
(c) Zweite Kugel ziehen wir aus derselben Urne.
(d) Zweite Kugel ziehen wir aus derselben Urne falls die erste weiß war.
(e) Zweite Kugel ziehen wir aus anderen Urne falls die erste weiß war.
Bezeichnen wir mit Ui j , i , j ∈ {1, 2} das Ereignis, dass die j -te Urne bei der i -ten Ziehung
gewählt wurde. Nun berechnen wir die Wahrscheinlichkeit, dass zwei weiße Kugel
gezogen werden, also P (W1 ∩ W2 ).
P 1 = P (W1 ∩ W2 ) =
47. Bedingte Wahrscheinlichkeiten. Versicherungsunternehmen. Ein Versicherungsunternehmen versichert n Autofahrer, davon f Frauen und m Männer. Die
Wahrscheinlichkeit, dass innerhalb eines Jahres ein zufällig gewählter männlicher
Autofahrer einen Unfall hat, ist α. Entsprechende Wahrscheinlichkeit für einen weiblichen Autofahrer ist β. Die Unfälle in verschiedenen Jahren sind unabhängig. Ein
Autofahrer wird zufällig gewählt. Berechnen Sie folgende Wahrscheinlichkeiten:
(a) Wie groß ist die Wahrscheinlichkeit, dass der gewählte Autofahrer innerhalb des
nächsten Jahres einen Unfall hat?
(b) Wie groß ist die Wahrscheinlichkeit, dass der gewählte Autofahrer Unfälle in
zwei aufeinanderfolgenden Jahren hat?
(c) Der gewählte Autofahrer hat im letzten Jahr einen Unfall gehabt. Wie groß ist
die Wahrscheinlichkeit, dass der Autofahrer männlich ist?
Lösung.
(a)
αm+β f
n
(b)
α2 m+β2 f
n
(c)
αm
αm+β f
.
.
.
48. Bedingte Wahrscheinlichkeiten. Urnenmodell von Pólya. II. Eine Urne
enthält s schwarze und w weiße Kugeln. Es wird eine Kugel zufällig gezogen, ihre
Farbe notiert und die Kugel gemeinsam mit d weiteren Kugeln von der gleichen Farbe
in die Urne gelegt. Die Prozedur wird anschließend wiederholt.
(a) Berechnen Sie die Wahrscheinlichkeit p k,n , dass in einer Sequenz von n Ziehungen k schwarze Kugeln gezogen werden.
(b) Bezeichne mit S n das Ereignis, dass bei der n -ten Ziehung schwarze Kugel
gezogen wird. Zeigen Sie, dass P (S 1 ) = P (S n ) für alle n ∈ N gilt.
1.4. BEDINGTE WAHRSCHEINLICHKEITEN
23
Lösung.
(a) Es gibt nk mögliche Ziehungen von n Kugeln, die k schwarze Kugeln beinhalten.
Alle diese Ziehungen sind gleichwahrscheinlich, denn eine Ziehung (I 1 , . . . , I n )
kann in eine andere durch einfache Vertauschungen der Form (I 1 , . . . , I k , I k+1 , . . . , I n ) →
(I 1 , . . . , I k+1 , I k , . . . , I n ) überführt werden. Diese Transformationen lassen die Wahrscheinlichkeiten der Ziehungen unverändert. Man kann noch genauer Argumentieren und zeigen
¡ ¢
P (I 1 , . . . , S k ,Wk+1 , . . . , I n ) = P (I 1 , . . . ,Wk , S k+1 , . . . , I n ).
Mit Hilfe der Multiplikationsregel erhalten wir
P (I 1 , . . . , S k ,Wk+1 , . . . , I n ) =
P (I 1 ) . . . P (S k |I k−1 ∩ · · · ∩ I 1 )P (Wk+1 |S k ∩ I k−1 . . . ) . . . P (I n |I n−1 ∩ . . . )
Es sind nur die Wahrscheinlichkeiten in der Mitte des obigen Produkts interessant, da die übrigen von der Ersetzung (S k ∩Wk+1 ) → (Wk ∩S k+1 ) nicht beeinflusst
werden. Wir definieren
Q(A) = P (A|I k−1 ∩ · · · ∩ I 1 )
und zeigen
Q(S k )Q(Wk+1 |S k ) = Q(Wk )Q(S k+1 |Wk )
indem wir die konkrete Zahlen einsetzen.
Demzufolge können wir Ziehungen betrachten in denen zuerst k schwarze Kugeln und dann die n − k weiße Kugeln gezogen werden. Wir verwenden die
Multiplikationsregel:
P (S 1 ∩ · · · ∩ S k ∩ Wk+1 ∩ · · · ∩ Wn ) =
P (S 1 ) . . . P (S k |S 1 ∩ · · · ∩ S k−1 ) . . . P (Wn |S 1 ∩ · · · ∩ Wn−1 ) =
s
s +d
w
s + (k − 1)d
w + (n − k − 1)d
...
...
s +w s +w +d
s + w + (k − 1)d s + w + kd
w + s + (n − 1)d
Wir erhalten also insgesamt
à !
n
p k,n =
P (S 1 ∩ · · · ∩ S k ∩ Wk+1 ∩ · · · ∩ Wn ).
k
(b) FEHLT!
49. Bedingte bedingte Wahrscheinlichkeiten. Seien ein Wahrscheinlichkeitsraum (Ω, A, P ) und die Ereignisse A, B,C ∈ A mit P (A) > 0, P (B ) > 0 und P (C ) > 0 gegeben. Wir definieren P (A|B |C ) = Q(A|B ) für ein Wahrscheinlichkeitsmaß Q mit Q(D) =
P (D|C ) ∀D ∈ A. Zeigen Sie folgende Aussagen:
(a) P (A|B |C ) = P (A|B ∩C ) = P (A|C |B ).
(b) P (A|B |C ) = P (A|C ) falls C ⊂ B .
24
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
50. Elfmeterschießen. In einem einfachen Modell des Elfmeterschießens wird
nur eine Mannschaft betrachtet. Die Wahrscheinlichkeit beim ersten Schuss einen
Tor zu erzielen sei p 1 = 0.8. Ist in der Tat ein Tor gefallen, wird die Treffwahrscheinp
lichkeit beim nächsten Versuch auf p 2 = p 1 erhöht, andernfalls verringert sich diese
Wahrscheinlichkeit und beträgt p 2 = p 12 . Der Vorgang wird wiederholt, wobei die Treffp
wahrscheinlichkeit beim i -ten Schuss p i = p i −1 beträgt, falls vorher ein Tor gefallen
ist, und sonst p i = p i2−1 .
(a) Wie groß ist die Wahrscheinlichkeit dafür, dass beim zweiten Versuch ein Tor
fällt?
(b) Angenommen Sie haben den ersten Schuss nicht gesehen, wissen aber dass beim
zweiten Versuch ein Tor gefallen ist. Unter dieser Bedingung, wie groß ist die
Wahrscheinlichkeit, dass beim ersten Schuss ein Tor gefallen ist?
Lösung. Ti bezeichne Treffer beim i -ten Versuch und Fi = T̄i .
p
(a) P (T2 ) = P (T2 |T1 )P (T1 ) + P (T2 |F1 )P (F1 ) = p 1 ( p 1 + p 1 − p 12 ) = 0.8435.
(b)
P (T1 |T2 ) =
P (T1 )P (T2 |T1 )
= 0.8482.
P (T2 )
51. Schaltkreise. Qualitätskontrolle. Bei einer Endkontrolle von Schaltkreisen
sollen nicht voll funktionsfähige Schaltkreise aussortiert werden. Bekannt sei, dass
im Mittel 20% der erzeugten Schaltkreise nicht voll funktionsfähig sind. Beim Prüfen
werden 95% dieser Schaltkreise aussortiert, aber auch 1% der einwandfreien.
(a) Mit welcher Wahrscheinlichkeit ist ein nicht aussortierter Schaltkreis voll funktionsfähig?
(b) Mit welcher Wahrscheinlichkeit ist ein aussortierter Schaltkreis einwandfrei?
Lösung. Definiere die Ereignisse: A ein Schaltkreis wird aussortiert, und K ein
Schaltkreis ist nicht voll funktionsfähig (kaputt). Wir wissen
P(A|K ) = 0.95
P(A|K̄ ) = 0.01.
Daraus folgt
P( Ā|K̄ ) = 0.99
P( Ā|K ) = 0.05
P(K̄ ) = 0.8.
Wir berechnen mit Hilfe des Satzes von Bayes:
(a)
¡
¢
P K̄ | Ā =
P( Ā|K̄ )P(K̄ )
P( Ā|K̄ )P(K̄ ) + P( Ā|K )P(K )
= 0.9875311 · · ·
(b)
¡
¢
P K̄ |A = 0.0404040 · · ·
1.5. UNABHÄNGIGKEIT
1.5
25
Unabhängigkeit
52. Disjunkt vs. unabhängig. Einfache Rechnungen. Seien (Ω, A , P ) ein Wahrscheinlichkeitsraum und Ereignisse A, B,C ∈ A mit P (A) = 13 , P (B ) = 14 und P (C ) = 16
gegeben. Seien darüber hinaus A und B stochastisch unabhängig, sowie A ∪ B disjunkt
von C . Berechnen Sie folgende Wahrscheinlichkeiten:
(a) P (A ∩ B ∩C ),
(b) P (A ∪ B ∪C ),
(c) P (( Ā ∪ B̄ ) ∩ C̄ ).
Lösung.
(a) P (A ∩ B ∩C ) = 0.
(b) P (A ∪ B ∪C ) = P (C ) + 1 − (1 − P (A))(1 − P (B )) = 2/3.
(c) P (( Ā ∪ B̄ ) ∩ C̄ ) = 1 − P (C ) − P (A)P (B ) = 3/4.
53. Unvereinbar versus unabhängig. Einfache Rechnungen. Gegeben seien
ein Wahrscheinlichkeitsraum (Ω, A, P ) und zufällige Ereignisse A, B,C ∈ A mit P (A) = 31 ,
P (B ) = 14 und P (C ) = 16 . Weiterhin seien die Ereignisse A und B stochastisch unabhängig sowie die Ereignisse A ∪ B und C unvereinbar. Berechnen Sie die folgenden
Wahrscheinlichkeiten:
(a) P (A ∩ B ∩C ),
(b) P (A ∪ B ∪C ),
(c) P (( Ā ∪ B̄ ) ∩ C̄ ).
Lösung.
(a) P (A ∩ B ∩C ) = 0.
(b) P (A ∪ B ∪C ) = P (C ) + 1 − (1 − P (A))(1 − P (B )) = 2/3.
(c) P (( Ā ∪ B̄ ) ∩ C̄ ) = 1 − P (C ) − P (A)P (B ) = 3/4.
54. Unabhängigkeit. Einfache Rechnungen. Seien (Ω, A , P ) ein Wahrscheinlichkeitsraum und die vollständig stochastisch unabhängigen Ereignisse A, B,C ∈ A
mit P (A) = 13 , P (B ) = 14 und P (C ) = 16 gegeben.
(a) Berechnen Sie P (A ∪ B ).
(b) Berechnen Sie P (A ∪ B̄ ∪C ).
Lösung.
(a) P (A ∪ B ) = 21 .
(b) P (A ∪ B̄ ∪C ) = 31
36 .
26
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
55. Unabhängigkeit. Disjunkte Ereignisse. Seien (Ω, A , P) ein Wahrscheinlichkeitsraum und die Ereignisse A, B ∈ A gegeben. Zeigen Sie folgende Aussagen:
(a) Für A ∩B = ; sind die Ereignisse A und B genau dann unabhängig, wenn P(A) = 0
oder P(B ) = 0 gilt.
(b) Sind A und B unabhängig und ist A ∪ B = Ω, dann gilt P(A) = 1 oder P(B ) = 1.
56. Unabhängigkeit. Gleichwahrscheinliche Ereignisse. Seien (Ω, A , P) ein
Wahrscheinlichkeitsraum und A 1 , . . . , A n ∈ A , n ∈ N vollständig stochastisch unabhängige Ereignisse mit P(A i ) = p ∈ [0, 1] ∀i ∈ {1, . . . , n} gegeben. Berechnen Sie die Wahrscheinlichkeiten der folgenden Ereignisse:
(a) Alle Ereignisse A 1 , . . . , A n treten ein.
(b) Keines der Ereignisse A 1 , . . . , A n tritt ein.
(c) Genau eines der Ereignisse A 1 , . . . , A n tritt ein. Warum ist diese Wahrscheinlichkeit kleiner als 1?
Lösung.
(a) P(A 1 ∩ · · · ∩ A n ) = p n .
(b) P(A 1 ∪ · · · ∪ A n ) = (1 − p)n .
(c)
P((A 1 ∩ Ā 2 ∩ · · · ∩ Ā n ) ∪ · · · ∪ ( Ā 1 ∩ · · · ∩ Ā n−1 ∩ A n ) =
n
X
P( Ā 1 ∩ · · · ∩ A i ∩ · · · ∩ Ā n ) = np(1 − p)n−1 .
i =1
Dies ist tatsächlich eine Wahrscheinlichkeit, denn
à !
n n
X
1 = (p + 1 − p) =
p i (1 − p)n−i ,
i
i =0
n
à !
n
= n.
1
57. Unabhängigkeit. Münzen. Eine ideale Münze wird n mal geworfen. Bezeichnen wir als K i , i ∈ {1, . . . , n} das Ereignis, dass beim i -ten Wurf Kopf fällt.
(a) Finden Sie einen geeigneten Wahrscheinlichkeitsraum, der diese Zufallssituation
beschreibt.
(b) Zeigen Sie, dass die Ereignisse K 1 , . . . , K n vollständig stochastisch unabhängig
sind.
58. Unabhängigkeit. Karten. Aus einem gut gemischten Spielkartensatz bestehend aus 52 Karten wird zufällig eine Karte gezogen. Bezeichnen wir mit A das
Ereignis, dass ein Ass gezogen wird und mit K das Ereignis, dass eine Karte mit der
Farbe Karo gezogen wird. Zeigen Sie, dass die Ereignisse A und K unabhängig sind.
1.5. UNABHÄNGIGKEIT
27
59. Unabhängigkeit. Abschätzung mit der Exponentialfunktion. Seien (Ω, A , P)
ein Wahrscheinlichkeitsraum und A 1 , . . . , A n ∈ A vollständig stochastisch unabhängige
Ereignisse gegeben. Zeigen Sie:
Ã
P(A 1 ∪ · · · ∪ A n ) ≤ exp −
n
X
!
P(A i ) .
i =1
Lösung. Benutze 1 − x ≤ e −x und vollständige Induktion.
60. Unabhängigkeit. Notstromanlage. Bei einer Notstromanlage werden von
einem Dieselmotor drei gleichartige Generatoren angetrieben. Die Wahrscheinlichkeit
dafür, dass innerhalb einer Woche ein Defekt am Motor bzw. am Generator auftritt,
sei 0.1 bzw. 0.2. Die einzelnen Teile des Systems fallen unabhängig voneinander aus.
(a) Berechnen Sie die Wahrscheinlichkeit dafür, dass die Stomversorgung im betrachteten Zeitraum vollständig ausfällt.
(b) Mit welcher Wahrscheinlichkeit sind für den angegebenen Zeitraum stets wenigstens 2/3 der maximal möglichen Leistung verfügbar?
Lösung.
(a) Sei M̄ ein Ausfall des Motors und Ḡ 1 , Ḡ 2 , Ḡ 3 die Ausfälle der Generatoren. Der
Ausfall der Notstromanlage hat die Wahrscheinlichkeit
¡
¢
P M̄ ∪ (Ḡ 1 ∩ Ḡ 2 ∩ Ḡ 3 ) = 1 − P (M ∩ (G 1 ∪G 2 ∪G 3 ))
¡
¢
= 1 − P (M ) 1 − P (Ḡ 1 )P (Ḡ 2 )P (Ḡ 3 )
= 1 − 0.9(1 − 0.23 ) = 0.1072.
(b) Hier ist die Wahrscheinlichkeit
¡
¡
¢¢
P M ∩ (G 1 ∩G 2 ∩G 3 ) ∪ (Ḡ 1 ∩G 2 ∩G 3 ) ∩ (G 1 ∩ Ḡ 2 ∩G 3 ) ∪ (G 1 ∩G 2 ∩ Ḡ 3 )
gleich
P (M ∩G 1 ∩G 2 ∩G 3 )+
P (M ∩ Ḡ 1 ∩G 2 ∩G 3 )+
P (M ∩G 1 ∩ Ḡ 2 ∩G 3 )+
P (M ∩G 1 ∩G 2 ∩ Ḡ 3 )
da die entsprechenden Ereignisse disjunkt sind. Wegen der Unabhängigkeit ist
diese Wahrscheinlichkeit gleich
0.9 0.83 + 3 0.9 0.82 0.2 = 0.8064.
61. Unabhängigkeit. Sicherungen. Die nachstehenden Abbildungen zeigen Systeme unabhängiger Sicherungen (symbolisiert durch Kreise). Die Zahlen in den Kreisen geben die Ausfallswahrscheinlichkeiten der jeweiligen Sicherungen innerhalb
eines Jahres an. Geben Sie die Wahrscheinlichkeiten dafür, dass innerhalb eines
Jahres der Strom von (s) nach (t) fließen kann.
28
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
(a)
0.2
s
(b)
0.2
0.2
0.1
t
s
0.25
s
0.3
0.2
0.2
t
0.2
(c)
0.1
0.2
0.1
0.3
0.1
t
0.1
Lösung.
(a) Analog zum Teil (a) von “Unabhängigkeit. Notstromanlage.”
(b) Mit B̄ 1 und B̄ 2 bezeichnen wir die Ausfälle der Sicherungen in dem oberen Teil
des Diagramms. Analog bezeichnet C̄ den Ausfall von dem unteren Teil. Die
gesuchte Wahrscheinlichkeit ist
P (C ∪ (B 1 ∩ B 2 )) = 1 − P (C̄ ∩ (B̄ 1 ∪ B̄ 2 ))
= 1 − P (C̄ ) (1 − P (B 1 )P (B 2 ))
= 0.93.
(c) Wir lösen diese Problem indem wir folgenden Satz anwenden.
Sei (A i j ) mit i = 1, · · · , m j , j = 1, . . . , n ein endliches vollständig stochastisch unabS 1
Smn
hängiges Mengensystem. Dann sind die Mengen m
A ,. . . , i =1
A i n ebenfalls
i =1 i 1
vollständig stochastisch unabhängig.
Beweis: Wir berechnen
Ã
P
!
[
i
Ai 1 ∩ · · · ∩
[
Ã
A i n =1 − P
!
\
i
Ā i 1 ∪ · · · ∪
i
\
Ā i n
i
\
\
=1 − P ( A i 1 ) + · · · + P ( A i n ) + . . .
i
i
Ã
− (−1)
n+1
P
!
\
Ā i 1 ∩ · · · ∩
\
i
Ã
!
= 1−P(
\
Ã
!
\
Ā i 1 ) . . . 1 − P ( Ā i n )
i
i
[
[
=P ( A i 1 ) . . . P ( A i n ).
i
Ā i n
i
i
1.5. UNABHÄNGIGKEIT
29
Dies ist eine Anwendung der Formel aus dem Problem “Wahrscheinlichkeitsmaße. Zerlegung der Vereinigung.”
Wir bezeichnen mit Ā , B̄ und D̄ die Ausfälle der Teilsysteme in der Reihenfolge
von links nach rechts. Es gilt
P (A) = 1 − P ( Ā 3 )(1 − P (A 1 )P (A 2 )) = 0.928
P (B ) = 1 − P (B̄ 1 )P (B̄ 2 ) = 0.91
P (D) = 0.99
P (A ∩ B ) = 0.84448
P (D ∩ (C ∪ (A ∩ B ))) = P (D)(1 − P (A ∩ B )P (C̄ )) = 0.97460352.
62. Unabhängigkeit. 3-teiliges Gerät. Ein Gerät bestehe aus 3 nacheinander
angeordneten Teilsystemen, die unabhängig voneinander mit den Wahrscheinlichkeiten 0.3, 0.4 bzw. 0.6 ausfallen können. Das Gerät sei nur funktionsfähig, wenn alle
Teilsysteme funktionieren.
(a) Mit welcher Wahrscheinlichkeit ist das Gerät funktionsfähig?
(b) Angenommen, das erste Teilsystem fällt niemals aus und dem dritten Teilsystem
werden zwei weitere Reservesysteme (mit derselben Ausfallwahrscheinlichkeit
0.6) parallel geschaltet. Mit welcher Wahrscheinlichkeit ist das Gerät funktionsfähig?
Lösung.
(a) Wir bezeichnen jeweils mit Ā , B̄ , bzw. C̄ die Ausfallereignisse von den Geräten.
Die Wahrscheinlichkeit, dass das System funktionsfähig ist, berechnet sich zu
P (A ∩ B ∩C ) = 0.168.
(b) Nun ist P ( Ā) = 0 und statt C haben wir drei unabhängige Kopien C 1 ,C 2 ,C 3 . Wir
berechnen die Wahrscheinlichkeit
P (B ∩ (C 1 ∪C 2 ∪C 3 )).
Dafür brauchen wir folgenden Satz. Sind die Ereignisse A , B , C vollständig
stochastisch unabhängig, so sind die Ereignisse A und B ∪C ebenfalls unabhängig.
Beweis:
P (A ∩ (B ∪C )) = P ((A ∩ B ) ∪ (A ∪C ))
= P (A ∩ B ) + P (A ∩C ) − P (A ∩ B ∩C )
= P (A) (P (B ) + P (C ) − P (B ∩C ))
= P (A)P (B ∪C ).
Somit ist C 1 unabhängig von C 2 ∪C 3 und
P (B ∩ (C 1 ∪C 2 ∪C 3 )) = P (B )(1 − P (C̄ 1 )P (C̄ 2 )P (C̄ 3 ))
¡
¢
= 0.6 1 − 0.63 = 0.4704.
30
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
63. Unabhängigkeit. Fertigungsprozess. Bei einem kontinuierlichen Fertigungsprozess treten nacheinander die Arbeitsgänge Drehen, Fräsen und Schleifen auf. Zur
Sicherung eines gleichmäßigen Erzeugnisdurchlaufs werden dabei 3 Drehmaschinen,
2 Fräsmaschinen und eine Schleifmaschine eingesetzt. Die benutzten Maschinen
seien voll ausgelastet und fallen innerhalb einer Schicht unabhängig voneinander mit
folgenden Wahrscheinlichkeiten aus:
Maschine
Drehmaschine
Fräsmaschine
Schleifmaschine
Ausfallswahrscheinlichkeit
0.3
0.2
0.1
(a) Berechnen Sie die Wahrscheinlichkeit dafür, dass innerhalb einer Schicht durch
Ausfälle der betrachteten Maschinen der Erzeugnisdurchlauf gestoppt wird.
(b) Geben Sie die Wahrscheinlichkeit dafür an, dass innerhalb einer Schicht durch
Maschinenausfälle der Erzeugnisdurchlauf verlangsamt wird, ohne dass es zu
einem Stopp bei den betrachteten Arbeitsgängen kommt.
Lösung.
(a) Wir bezeichnen die Ausfälle der Drehmaschinen mit D̄ 1 , D̄ 2 , D̄ 3 , der Fräsmaschinen mit F̄1 , F̄2 und der Schleifmaschine mit S̄ 1 . Der Erzeugungsdurchlauf wird
gestoppt mit Wahrscheinlichkeit
¡
¢
P (D̄ 1 ∩ D̄ 2 ∩ D̄ 3 ) ∪ (F̄ 1 ∩ F̄ 2 ) ∪ S̄ 1 =
1 − (1 − P (D̄ 1 )P (D̄ 2 )P (D̄ 3 ))(1 − P (F̄ 1 )P (F̄ 2 ))P (S̄ 1 ) =
= 0.159328
(b) Die Ereignisse “Stopp”, “Verlangsamung”, “Volle Kapazität” sind disjunkt. Das
System läuft mit voller Kapazität mit Wahrscheinlichkeit
P (D 1 ∩ D 2 ∩ D 3 ∩ F 1 ∩ F 2 ∩ S 1 ) = 0.197568.
Daher ist die Wahrscheinlichkeit für den verlangsamten Betrieb
1 − 0.159328 − 0.197568 = 0.643104.
64. Ausfälle der Notstromgeneratoren. Der Betrieb eines Rechenzentrums
wird von einer Kette von Notstromgeneratoren G 1 , . . . ,G n , n ≥ 1 gesichert. Jedem Generator G i wird eine fixe maximale Arbeitsdauer di > 0 (in Stunden) zugeordnet, über die
die Stromversorgung mit G i gewährleistet werden kann. Beim Einschalten, und nur
dann, kann G i mit Wahrscheinlichkeit p i > 0 ausfallen. Die Ausfälle der Generatoren
sind unabhängig voneinander.
Betrachten Sie eine Kette bestehend aus einem Dieselmotor G 1 , sowie zwei Batterieanlagen G 2 und G 3 . Die Arbeitsdauer
sind (d1 , d2 , d3 ) = (24, 2, 1) und die Ausfalls¡
¢
wahrscheinlichkeiten betragen p 1 , p 2 , p 3 = (0.1, 0.02, 0.03).
(a) Berechnen Sie die Wahrscheinlichkeit dafür, dass die Kette (G 1 ,G 2 ,G 3 ) das Rechenzentrum 23 Stunden lang mit Strom versorgen kann.
(b) Berechnen Sie die Wahrscheinlichkeit dafür, dass (G 1 ,G 2 ,G 3 ) das Rechenzentrum
25 Stunden lang mit Strom versorgen kann.
1.6. ELEMENTARE MASSTHEORIE
31
Lösung. Bezeichnen wir mit A 1 , A 2 , A 3 die Ausfallsereignisse der Generatoren und
mit τ die Ausfallszeit der Kette. Folgende Wahrscheinlichkeiten sind zu berechnen:
(a) P (τ > 23) = P ( Ā 1 ) = 0.99.
65. Komplexes Gerät. Ein Gerät besteht aus den Baugruppen B 1 , . . . , B 4 . Es funktioniert, wenn wenigstens eine der Baugruppen B 1 oder B 2 und wenn außerdem
beide Baugruppen B 3 und B 4 funktionieren. Die Baugruppen können unabhängig voneinander ausfallen. Die Ausfallwahrscheinlichkeiten bei 10-stündiger Betriebsdauer
betragen für B 1 und B 2 jeweils 0.5, für B 3 und B 4 jeweils 0.2.
(a) Mit welcher Wahrscheinlichkeit funktioniert das Gerät nach 10-stündigem Betrieb noch?
(b) Mit welcher Wahrscheinlichkeit funktionieren nach dieser Zeit noch alle vier
Bauelemente?
1.6
Elementare Maßtheorie
66. Maßtheorie. Borel-messbare Abbildungen. Sei ein messbarer Raum (Ω, A)
mit Ω = {ω1 , ω2 , ω3 , ω4 } und der σ-Algebra A = {;, Ω, {ω1 , ω2 } , {ω3 , ω4 }} gegeben. Wir betrachten Abbildungen von Ω nach R, wobei R mit der Borel’schen σ-Algebra B(R)
ausgestattet ist.
(a) Zeigen Sie, dass die Abbildung f : Ω → R, ω 7→ 5 messbar ist.
(b) Zeigen Sie, dass die Abbildung g : Ω → R mit g (ωi ) = i für i ∈ {1, 2, 3, 4} nicht messbar
ist.
(c) Beschreiben Sie nun alle messbaren Abbildungen h : Ω → R.
67. Maßtheorie. Dirac-Maß. Sei ein messbarer Raum (R, B(R)) gegeben. Für ein
festes x ∈ R definieren wir die Mengenfunktion δx : B(R) → R als
δx (A) =
(
1
0
falls x ∈ A
sonst.
(a) Zeigen Sie, dass δx für alle x ∈ R ein Maß ist.
(b) Betrachten wir ein n -Tupel (x 1 , . . . , x n ) mit x i > 0 für alle i ∈ {1, . . . , n} und eine
P
Mengenfunktion δ : B(R) → R, A 7→ ni=1 δxi (A). Zeigen Sie, dass δ ein Maß auf
(R, B(R)) ist.
(c) Sei nun (c 1 , . . . , c n ) ein n -Tupel positiver reeller Zahlen mit ni=1 c i = 1. Zeigen Sie,
dass die Mengenfunktion δ ein Wahrscheinlichkeitsmaß auf (R, B(R)) ist.
P
68. Maßtheorie. Bildmaß. Seien als Maßraum ein Wahrscheinlichkeitsraum (Ω, A, P )
und eine Zufallsvariable X : Ω → R gegeben, welche als messbare Abbildung zwischen
den messbaren Räumen (Ω, A) und (R, B(R)) definiert ist. Dabei bezeichnet B(R) die
Borel’sche σ-Algebra auf den reellen Zahlen. Zeigen Sie folgende Aussagen:
(a) Die Mengenfunktion P X : B(R) → [0, 1], A 7→ P (X ∈ A) ist ein Wahrscheinlichkeitsmaß auf (R, B(R)).
32
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
(b) Ist die Ergebnismenge Ω = {ω1 , . . . , ωn } endlich, so gibt es n -Tupel reeller Zahlen
P
(x 1 , . . . , x n ) und (p 1 , . . . , p n ) mit p i > 0 ∀i ∈ {1, . . . , n} und ni=1 p i = 1, sodass
PX =
n
X
p i δx i .
i =1
Dabei ist δx : B(R) → R für ein festes x ∈ R ein Diracmaß mit
δx (B ) =
½
1 falls
0 falls
x ∈B
,
x ∉B
B ∈ B(R).
Sind die Tupel (x 1 , . . . , x n ) und (p 1 , . . . , p n ) eindeutig durch X bestimmt? Welche
Bedeutung haben sie?
Lösung.
(a) P X ist wohldefiniert, normiert und σ-additiv: P X (
P
P
∈ A i ).
k≥0 X (X
S
k≥0
A i ) = P (X ∈
S
k≥0
Ai ) = P (
S
k≥0 {X
∈ A i }) =
69. Maßtheorie. Ereignisfelder und Information. Die Ergebnismenge Ω = (i , j ) : i , j ∈ {1, . . . , 6}
1
gemeinsam mit dem Wahrscheinlichkeitsmaß P ((i , j )) = 36
beschreiben einen Wurfexperiment, in dem zwei ideale wohlunterscheidbare Würfel geworfen werden. Für ein
Ergebnis ω = (i , j ) ∈ Ω definieren wir die Funktionen
©
X 0 (ω) = 0
X 1 (ω) = i + j ,
X 2 (ω) = i ,
(
1
X 3 (ω) =
0
falls i + j = 6
sonst.
(a) Finden Sie die kleinsten Ereignisfelder Ai , i ∈ {0, 1, 2, 3}, sodass X i Zufallsvariablen auf dem Wahrscheinlichkeitsraum (Ω, Ai , P ) sind.
(b) Beschreiben Sie den Zusammenhang zwischen den Ereignisfeldern Ai und der
Information, die die Zufallsvariablen X i über die Ergebnisse ω ∈ Ω liefern.
Lösung.
A0 = {;, Ω}
A1 = σ {{11} , {21, 12} , {13, 22, 31} , . . . , {16, 25, 34, . . . , 61}}
A2 = σ {{11, 12, 13, 14, 15, 16} , . . . , {61, 62, . . . , 66}}
A3 = σ {15, 24, . . . , 51} , {15, 24, . . . , 51} .
©
1.7
ª
Diskrete Zufallsvariablen
70. Zufallsvariablen. Bernoulli-Verteilung. Eine Zufallsvariable X mit den
Werten in der Menge {0, 1} ⊂ R und der Wahrscheinlichkeitsfunktion P(X = 1) = p ,
P(X = 0) = 1 − p mit p ∈ (0, 1) heißt Bernoulli-verteilt mit dem Parameter p .
(a) Geben Sie die Verteilungsfunktion F : R → [0, 1], x 7→ F (x) = P(X ≤ x) von X an.
ª
1.7. DISKRETE ZUFALLSVARIABLEN
33
(b) Berechnen Sie den Erwartungswert E[X ] und die Varianz Var(X ) von X .
(c) Berechnen Sie den Erwartungswert E[Y ] und die Varianz Var(Y ) der Zufallsvariable
Y = exp (X ) .
(d) Berechnen Sie die k -ten Momente mk = E[X k ] und die k -ten zentralen Momente
µk = E[(X − E X )k ] von X für alle k ∈ N.
Lösung. Verteilungsfunktion ist F : x 7→ (1 − p)1[0,∞) (x) + p1[1,+∞) (x). E X = p . Var X =
p(1−p). EY = 1−p +pe . Var Y = p(1−p)(1−e)2 . m k = E X k = E X , da X = X k . µk = E [X − E X ]k =
p(1 − p)k + (−p)k (1 − p).
71. Zufallsvariablen. Funktionen der Augenzahl. In einem Wurfexperiment
werden zwei ideale, wohlunterscheidbare Würfel geworfen. Die Zufallsvariablen X i
geben die geworfene Augenzahl des i -ten Würfels an.
(a) Berechnen Sie die Wahrscheinlichkeiten P(X 1 − X 2 > 2), P(X 1 /X 2 > 1) und
P(|X 1 − X 2 | ≤ 1).
(b) Berechnen Sie die Verteilungsfunktion F der Zufallsvariable Y = X 1 + X 2 .
6+5+5
6
, P(X 1 /X 2 > 1) = 15
Lösung. P(X 1 − X 2 > 2) = 36
36 , P(|X 1 − X 2 | ≤ 1) = 36 .
72. Zufallsvariablen. Konstruktion über Wahrscheinlichkeitsfunktion. Es
sei X eine diskrete Zufallsvariable mit dem Wertebereich Z = {0, 1, 2} und der Wahrscheinlichkeitsfunktion p : Z → [0, 1], x 7→ c · (x + 1).
(a) Bestimmen Sie den Wert der Konstanten c .
(b) Ermitteln Sie die folgenden Wahrscheinlichkeiten: P(X < 2), P(X ≤ 2) und P(0 <
X < 2).
(c) Berechnen Sie den Erwartungswert und die Varianz von X .
(d) Bestimmen Sie den kleinsten Wert von x , für den P(X ≤ x) > 0.5 gilt.
Lösung. c = 16 . P(X < 2) = 12 . P(X ≤ 2) = 1. P(0 < X < 1) = 13 . E X = 43 . Var X = 59 . minx {P(X ≤ x) ≥ 0.5} =
2.
73. Zufallsvariablen. Ausfälle der Bauelemente. In einem vorgegebenen Zeitintervall [0, T ] könnnen drei Baugruppen A 1 , A 2 , bzw. A 3 eines Gerätesystems mit
Wahrscheinlichkeiten 0.95, 0.8 bzw. 0.1 ausfallen. Die Baugruppen arbeiten unabhängig
voneinander.
Bestimmen Sie die Wahrscheinlichkeitsfunktion, den Erwartungswert sowie die
Varianz für die Anzahl der ausgefallenen Baugruppen zum betrachteten Zeitintervall.
Lösung. Seien X 1 ∼ Ber(0.95), X 2 ∼ Ber(0.8), X 3 ∼ Ber(0.1) und Y = X 1 + X 2 + X 3 . EY =
1.85. Var Y = 0.2975. Berechnung der Varianz direkt oder über den Satz von Bienaymé.
34
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
74. Zufallsvariablen. Diskrete Gleichverteilung. Eine Zufallsvariable heißt
diskret gleichverteilt auf {1, . . . , n} falls P(X = i ) = n1 für alle i ∈ {1, . . . , n}.
(a) Geben Sie die Verteilungsfunktion F : R → [0, 1], x 7→ F (x) = P(X ≤ x) von X an.
(b) Berechnen Sie den Erwartungswert und die Varianz von X .
(c) Berechnen Sie den Erwartungswert und die Varianz der Zufallsvariable Y =
log (X ).
n
k 2 = n(n+1)(2n+1)
, E X 2 = (n+1)(2n+1)
, Var X = E X 2 − (E X )2 . E log X =
Lösung. E X = n+1
2 ,
6
6
k=1
¡
¢
¢
¡
P
2
1
1 n
1
2
n log n!. Var log X = n i =1 (log i ) − n log n! .
P
75. Erwartungswert. Einfache Eigenschaften.
riable. Beweisen Sie folgende Aussagen.
Sei X eine diskrete Zufallsva-
(a) E (X − E X )2 = E X 2 − (E X )2 , falls alle diese Erwartungswerte existieren.
(b) (E X )2 ≤ E X 2 , falls beide Erwartungswerte existieren.
(c) Angenommen X hat Werte in N. Dann gilt
EX =
∞
X
P(X > n).
n=0
Lösung.
EX =
X
n P (X = n)
n≥0
= P(X = 1) + P(X = 2) + P(X = 2) + · · · + P(X = n) + · · · + P(X = n) + . . .
|
{z
}
n times
=
X
P(X > n).
n≥0
76. Geometrische Verteilung. Konstruktion. Eine Münze nicht notwendigerweise faire Münze wird wiederholt geworfen, bis Kopf fällt. Bezeichnen wir mit X 0 die
Anzahl der dafür notwendigen Würfe.
(a) Geben Sie die Wahrscheinlichkeitsfunktion der Zufallsvariable X 0 explizit an.
(b) Berechnen Sie den Erwartungswert und die Varianz von X .
77. Geometrische Verteilung. Erwartungswerte. Sei X geometrisch verteilt
mit dem Parameter p ∈ (0, 1). Zeigen Sie folgende Aussagen:
(a)
·
E
¸
³
p ´
1
= log (1 − p) p−1 .
1+ X
(b) Für alle n ∈ {2, 3, . . . } gilt
E [X (X − 1) · · · · · (X − n + 1)] =
n! p n
.
(1 − p)n
1.7. DISKRETE ZUFALLSVARIABLEN
35
Lösung.
(a)
z2 z3
log(1 + z) = z −
+
−···
2
3
µ
¶
p
¡
¢
1
p X (1 − p)k+1
p
E
=
=
log 1 − p = log(1 − p) p−1 .
1+ X
1 − p k≥0 k + 1
p −1
78. Geometrische Verteilung. Gedächtnislosigkeit. Sei X geometrisch verteilt mit dem Parameter p .
(a) Zeigen Sie, dass
¡
¢
¡
¢
P X >i + j |X ≥i =P X > j
für alle i , j > 0 und i , j ∈ N gilt.
(b) Finden Sie eine Interpretation für die obige Beziehung.
Lösung.
¯
¡
¢ P(X > i + j )
P X >i +j ¯X ≥i =
P(X ≥ i )
P
(1 − p)i ∞
p(1 − p)k
k=i +1
=
P
(1 − p)i ∞
p(1 − p)l
l =0
X
=
p(1 − p)k .
k> j
79. Geometrische Verteilung. Gedächtnislosigkeit und Erwartungswert. Sei
X geometrisch verteilt mit dem Parameter p ∈ (0, 1) und der Wahrscheinlichkeitsfunktion
P (X = k) = p(1 − p)k , k = 0, 1, . . .
(a) Zeigen Sie, dass
P (X > i + j | X ≥ i ) = P (X > j )
für alle i , j > 0 gilt.
(b) Zeigen Sie, dass
EX =
1−p
p
gilt.
(c) Berechnen Sie den Erwartungswert der Zufallsvariable Y = 2 X − 1.
Binomialverteilung. Maximum der Wahrscheinlichkeitsfunktion. Sei
X ∼ B(n, p) binomialverteilt mit den Parametern n und p . Zeigen Sie, dass das Maximum der Wahrscheinlichkeitsfunktion von X an der Stelle
80.
argmaxk∈{0,...,n} P (X = k) = b(n + 1)pc.
angenommen wird. Dabei bezeichnet bxc für ein x ∈ R die größte ganze Zahl, die nicht
größer als x ist.
36
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
Lösung. Wir berechnen
P (X = k)/P (X = k − 1) =
n +1−k p
.
k
1−p
Dieser Quotient ist größer als 1 genau dann, wenn
(n + 1)p > k.
81. Binomialverteilung. Gerade Werte. Sei X ∼ B(n, p) binomialverteilt mit den
Parametern n und p . Zeigen Sie, dass die folgende Formel gilt:
¡
¢ 1¡
¢
P X ist eine gerade Zahl = 1 + (1 − 2p)n .
2
Lösung. Sei p n die Wahrscheinlichkeit, dass eine B(n, p)-verteilte Zufallsvariable
gerade ist. p n erfüllt folgende rekursive Relation
p n = p n−1 (1 − 2p) + p,
p 0 = 1.
Nun ist es einfach zu überprüfen, dass 12 (1 + (1 − 2p)n ) die Lösung dieser Rekursion ist.
82. Poisson-Verteilung. Eigenschaften. Sei X Poisson-verteilt mit der Wahrk
scheinlichkeitsfunktion P (X = k) = λk! e −λ , k ∈ {0, 1, . . . } und dem Parameter λ > 0. Beweisen Sie folgende Aussagen:
(a) Die Varianz von X ist
D2 X = λ.
(b) Das Maximum der Wahrscheinlichkeitsfunktion von X wird an der Stelle
argmaxk∈N P (X = k) = bλc
angenommen.
(c) Für n ∈ {2, 3, . . . } gilt E [X (X − 1) · · · · · (X − n + 1)] = λn .
Lösung.
83. Binomialverteilung. Additionstheorem. Sei b(k, n, p) = P (X = k) die Wahrscheinlichkeitsfunktion einer binomialverteilten Zufallsvariable X ∼ B(n, p).
(a) Zeigen Sie, dass für n 1 > 0 und n 2 > 0 die Gleichung
k
X
b(i , n 1 , p) b(k − i , n 2 , p) = b(k, n 1 + n 2 , p).
i =0
gilt.
(b) Geben Sie die wahrscheinlichkeitstheoretische Interpretation der obigen Aussage.
1.7. DISKRETE ZUFALLSVARIABLEN
37
84. Poisson-Verteilung. Additionstheorem. Seien X 1 ∼ Poiss(λ1 ) und X 2 ∼ Poiss(λ2 )
unabhängige Poisson-verteilte Zufallsvariablen mit den Parametern λ1 > 0 und λ2 > 0.
Zeigen Sie, dass die Zufallsvariable
Y = X1 + X2
ebenfalls Poisson-verteilt mit dem Parameter λ = λ1 + λ2 ist.
Lösung.
P (X + Y = n) =
n
X
P (X = i )P (Y = n − i )
i =0
=
n
X
e −λ1
i =0
=
e −λ1 −λ2
n!
λi1
i!
e −λ2
λn−i
2
(n − i )!
à !
n n
X
λi1 λn−i
2
i
i =0
= e −(λ1 +λ2 )
(λ1 + λ2 )n
.
n!
85. Binomialverteilung. Verteilungsfunktion. Seien X ∼ B(n, p) binomialverteilt und B (k, n, p) = P (X < k) die Verteilungsfunktion von X . Zeigen Sie:
à !Z
1−p
n
B (k + 1, n, p) = (n − k)
t n−k−1 (1 − t )k d t .
k 0
Lösung.
(a) Die Formel kann mit Hilfe der partiellen Integration hergeleitet werden.
à !Z
1−p
n
B (k + 1, n, p) = (n − k)
t n−k+1 (1 − t )k d t
k 0
à !·
¸
Z 1−p
n
1
k
= (n − k)
(1 − p)n−k p k +
t n−k (1 − t )k−1 d t
k n −k
n −k 0
à !
Ã
!Z
1−p
n
n
=
(1 − p)n−k p k + (n − (k − 1))
t n−(k−1)−1 (1 − t )k−1 d t
k
k −1 0
à !
n
=
(1 − p)n−k p k + B (k, n, p).
k
à !Z
1−p
n
B (1, n, p) = n
t n−1 d t = (1 − p)n .
0 0
Damit erhalten wir
à !
k n
X
B (k + 1, n, p) =
p i (1 − p)n−i .
i =0 k
38
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
86. Geometrische Verteilung. Zusammenhang mit der Gleichverteilung. Die
Zufallsvariablen X und Y sind stochastisch unabhängig und geometrisch verteilt mit
dem Parameter p ∈ (0, 1).
(a) Berechnen Sie die Wahrscheinlichkeiten der Ereignisse X = Y und X ≥ 2Y .
(b) Zeigen Sie, dass für k, n ∈ N und n > k
P (X = k | X + Y = n) =
1
n +1
gilt. Mit anderen Worten: Die bedingte Verteilung von X bei gegebenem Wert
von X + Y ist die Gleichverteilung.
Lösung.
(a)
P (X = Y ) =
∞
X
P (X = k ∧ Y = k) =
k=0
p
1+p
¡
¢2y
P X ≥ 2y = 1 − p
p
.
P (X ≥ 2Y ) =
1 − (1 − p)3
¡
¢
(b) Für X 1 ∼ Poiss(p 1 ) und X 2 ∼ Poiss(p 2 ) erhalten wir
(1 − p 1 )k (1 − p 2 )n−k
P (X 1 = k | X 1 + X 2 = n) = Pn
.
i
n−i
i =0 (1 − p 1 ) (1 − p 2 )
87. Negative Binomialverteilung. Konstruktion. X ist negativ binomialverteilt mit den Parametern n ∈ N und p ∈ (0, 1), wenn für k ∈ N
Ã
!
k +n −1 n
P (X = k) =
p (1 − p)k
n −1
gilt. Seien Z1 , Z2 . . . stochastisch unabhängige und geometrisch verteilte Zufallsvariablen mit Zi ∼ Geom(p). Zeigen Sie folgende Aussagen:
(a) Die Zufallsvariable Z1 + Z2 ist negativ binomialverteilt mit den Parametern (2, p).
(b) Für k, n ∈ N gilt
Ã
!
Ã
!
k
X
k +n
j +n −1
=
.
n
n −1
j =0
(c) Die Zufallsvariable Z1 + · · · + Zn ist negativ binomialverteilt mit den Parametern
(n, p).
1.7. DISKRETE ZUFALLSVARIABLEN
39
Lösung.
(a)
P (Z1 + Z2 = k) = (k + 1)p 2 (1 − p)k .
(b) Beweisen wir zuerst
à ! Ã
! Ã
!
n
n −1
n −1
=
+
k
k −1
k
Ã
! Ã
!
n +k
n +k
=
k
n
und den Rest mit Induktion.
(c)
Ã
P
n+1
X
i =1
!
Zi = k =
k
X
Ã
P
j =0
n
X
!
¡
¢
Zi = j P Zn+1 = k − j
i =1
Ã
!
j +n −1 n
=
p (1 − p) j (1 − p)k− j p
n
−
1
j =0
Ã
!
Ã
!
k
X
j + n − 1 n+1
k + n n+1
k
=
p
(1 − p) =
(1 − p)k .
p
n
−
1
n
j =0
k
X
88. Diskrete Gleichverteilung. Ordnungsstatistiken. Die Zufallsvariablen X 1 , . . . , X m
seien stochastisch unabhängig und diskret gleichverteilt auf der Menge {1, . . . , n},
mit n > 1. Wir bezeichnen mit X (1) = min(X 1 , . . . , X m ) das Minimum und mit X (m) =
max (X 1 , . . . , X n ) das Maximum der Zufallsvariablen X 1 , . . . , X m . Finden Sie die Wahrscheinlichkeitsfunktion der Zufallsvariablen X (1) und X (n) .
Lösung.
n −k
P X (1) ≤ k = 1 −
n
µ ¶m
¡
¢
k
P X (m) ≤ k =
.
n
¡
¢
µ
¶m
89. Diskrete Gleichverteilung ist nicht teilbar. Sei U diskret gleichverteilt
auf der Menge {1, 2, 3}. Zeigen Sie, dass es nicht möglich ist, U als Summe zweier
unabhängigen diskret und identisch verteilten Zufallsvariablen X und Y darzustellen.
Lösung. Angenommen, es gäbe identisch verteilte unabhängige Zufallsvariablen
X und Y , mit U = X + Y . Dann hat der Wertebereich E von X und Y die Eigenschaft
E + E = {1, 2, 3}, wobei die Summe der Mengen A und B als A + B = {a + b : a ∈ A, b ∈ B }
40
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
definiert sei. Somit ist E =
©1
3
2, 2
ª
. Nun ist
¶ · µ
¶¸
1
1 2 1
1
= P X=
P (U = 1) = P X = ∩ Y =
=
2
2
2
3
p
µ
¶
1
3
P X=
=
.
2
3
¶ µ
¶¶
µµ
3
1
3
1
∪ X = ∩Y =
P (U = 2) = P X = ∩ Y =
2
2
2
2
µ
¶ µ
¶
3
1
1
= 2P X =
P Y =
= .
2
2
3
µ
¶ p
3
3
P X=
=
.
2
6
µ
Es ist also
p
p
p
1
3
3
3
3
P (X = ∪ X = ) =
+
=
> 1.
2
2
3
6
2
Widerspruch.
90. Geometrische Verteilung. Minima und Maxima. Seien Y1 , . . . , Ym stochastisch unabhängig und geometrisch verteilt mit dem Parameter p ∈ (0, 1). Wir bezeichnen mit Y(1) = min(Y1 , . . . , Ym ) das Minimum und mit Y(m) = max (Y1 , . . . , Ym ) das Maximum
der Zufallsvariablen Y1 , . . . , Ym . Finden Sie die Verteilungsfunktionen und Wahrscheinlichkeitsfunktionen der Zufallsvariablen Y(1) und Y(m) .
Lösung. Die Verteilungsfunktion der geometrischen Verteilung an den Stellen k ∈ N
ist gegeben durch
F (k) = P (Yl ≤ k) =
k
X
p(1 − p)i = p
i =0
1 − (1 − p)k+1
= 1 − (1 − p)k+1 .
1 − (1 − p)
Nun ergibt sich unter Ausnutzung der Unabhängigkeit
Ã
F (1) (k) = P
m
[
!
{Yi ≤ k} = 1 −
i =1
Ã
F (m) (k) = P
m
\
i =1
m
Y
i =1
!
{Yi ≤ k} =
m
Y
³
´
m
Y
¡
¢m(k+1)
P {Yi ≤ k} = 1 −
,
[1 − F (k)] = 1 − 1 − p
i =1
h
im
F (k) = 1 − (1 − p)k+1 ,
i =1
¡
¢
£
¤
P Y(1) = k = F (1) (k) − F (1) (k − 1) = (1 − p)km 1 − (1 − p)m ,
h
im h
im
¡
¢
P Y(m) = k = F (m) (k) − F (m) (k − 1) = 1 − (1 − p)(k+1) − 1 − (1 − p)k .
91. Geometrische Verteilung. Additionstheorem. Seien X und Y unabhängig
und geometrisch verteilt mit den Parametern p 1 , p 2 ∈ (0, 1) und p 1 6= p 2 . Zeigen Sie
folgende Aussage: Die Wahrscheinlichkeitsfunktion der Summe X + Y ist gegeben
durch
P (X + Y = n) =
¢
p1 p2 ¡
(1 − p 2 )n+1 − (1 − p 1 )n+1 .
p1 − p2
1.7. DISKRETE ZUFALLSVARIABLEN
41
Lösung.
P (X + Y = n) =
n
X
P (X = i )P (Y = n − i )
i =0
n µ 1 − p ¶i
X
1
= p 1 p 2 (1 − p 2 )
1
−
p
2
i =0
³
´n+1
1−p
1 − 1−p 12
n
= p 1 p 2 (1 − p 2 )
1−p
1 − 1−p 12
µ
µ
¶
¶
p1 p2
1 − p 1 n+1
n+1
=
(1 − p 2 )
1−
.
p1 − p2
1 − p2
n
Bernoulliverteilung. Momente. Sei X Bernoulliverteilt mit dem Parameter
p ∈ (0, 1). Es gilt also X : Ω → {0, 1} und P (X = 1) = p .
92.
(a) Die Momente von X sind gegeben durch
E X n = p,
n ∈ N.
(b) Die momentenerzeugende Funktion von X ist
ψ(u) = E exp (uX ) = p exp(u) + 1 − p.
Lösung. Aus X = X n für alle n ∈ N, erhalten wir
E X = E X n = 1 p + 0 (1 − p) = p.
Auf direktem Wege erhalten wir auch
ψ(u) = E exp(uX ) = exp (u 1) p + exp(0)(1 − p).
93. Binomialverteilung als Summe von unabhängigen Bernoulli Zufallsvariablen. Seien X 1 , · · · , X n , n ∈ N, i.i.d. und Bernoulliverteilt mit dem Parameter
p ∈ (0, 1). Dann ist
Y =
n
X
X i ∼ Bin(n, p)
i =1
binomialverteilt mit Parametern (n, p). D.h., P (Y = k) =
¡n ¢
k
p k (1 − p)n−k , für k ∈ {0, · · · , n}.
94. Binomialverteilung. Momente und momentenerzeugende Funktion.
X binomialverteilt mit den Parametern (n, p), n ∈ N und p ∈ (0, 1). Dann gilt
(a)
E X = np.
(b) Die momentenerzeugende Funktion von X ist gegeben durch
ψ(u) = E exp(uX ) = (1 − p + pe u )n .
Sei
42
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
Lösung. Nachdem X die Summe unabhängiger Bernoulliverteilter Zufallsvariablen
B 1 , · · · , B n ist, können wir die Linearität des Erwartungswertes benutzen, und erhalten
E X = EB 1 + · · · EB n = np.
Zufallsvariablen A und B sind genau dann unabhängig, wenn
E f (A)g (B ) = E f (A) Eg (B )
für alle beschränkte messbare Funktionen gilt.1 Wir können also die zuvor benutzte
Methode wieder einsetzen.
E exp(uX ) = E
n
Y
e uB i =
i =1
n
Y
£
¤n
Ee uB i = e u p + 1 − p .
i =1
Dieses Ergebnis lässt sich auch mit Hilfe der Wahrscheinlichkeitsfunktion der Binomialverteilung herleiten.
à !
n k
E exp(uX ) =
e
p (1 − p)n−k
k
k=0
à !
n n
X
=
(pe u )k (1 − p)n−k
k
k=0
£
¤n
= eu p + 1 − p .
n
X
uk
Poisson-Verteilung. Momente. Sei X Poisson-verteilt mit dem Parameter
λ > 0. Das bedeutet, X : Ω → N hat die Wahrscheinlichkeitsfunktion
95.
P (X = k) =
λk −λ
e .
k!
Es gilt
(a)
E X = Var X = λ.
(b) Die momentenerzeugende Funktion von X ist gegeben durch
¢
¡
ψ(u) = E exp(uX ) = exp λ(e u − 1) .
96. Zusammengesetzte Poisson-Verteilung. Sei N ein Poisson-verteilte Zufallsvariable mit dem Parameter λ > 0 und eine Folge von i.i.d. Zufallsvariablen (Zi )i ∈N
P
mit existierenden momentenerzeungenden Funktion. Wir definieren X = iN=1 Zi . X ist
also eine Summe mit zufälliger Anzahl der Summanden. Wir setzen bei X = 0 auf dem
Ereignis {N = 0}. Zeigen Sie:
(a) Die Momentenerzeugende Funktion von X ist gegeben durch
¡ ¡ ¡
¢¢¢
ψ X (u) = exp λ E exp uZ1 − 1 .
(b) Der Erwartungswert von X ist gegeben durch
E X = λE Z1
falls E Z1 existiert.
1 Beachten Sie, dass E AB = E A EB im Allgemeinen nicht ausreichend für Unabhängigkeit ist!
1.7. DISKRETE ZUFALLSVARIABLEN
43
Lösung. Wir benutzen die Eigenschaften der bedingten Erwartung und erhalten
" "
E E exp u
N
X
##
¡
¢N
= E E exp uZ1
Zi |N
i =0
=
∞ ¡
X
¢k λk −λ
E exp uZ1
e
k!
k=0
= exp (−λEuZ1 − λ)
£ ¡
¢¤
= exp λ Ee uZ1 − 1 .
97. Benfordsches Gesetz. Gegeben sei eine diskret verteilte Zufallsvariable X
mit den Werten in der Menge {1, 2, 3, . . . , 9} und der Wahrscheinlichkeitsfunktion
µ
p(d ) = P (X = d ) = log10
¶
d +1
, d ∈ {1, 2, · · · , 9} .
d
(a) Zeigen Sie, dass die Funktion p tatsächlich eine Wahrscheinlichkeitsfunktion
ist.
(b) Berechnen Sie den Erwartungswert von X .
(c) Berechnen Sie die Verteilungsfunktion von X .
Es sei an folgende Rechenregeln für Logarithmen erinnert:
¡ ¢
c log10 (b) = log10 b c ,
log10 (a) + log10 (b) = log10 (ab) ,
für alle a, b > 0 und c ∈ R.
Lösung.
(a) Offenbar gilt 1 < dd+1 < 10 für alle d ∈ 1, 2,
. . . , 9. Wegen der strengen Monotonie des
´
³
Logarithmus ergibt dies 0 = log(1) < log dd+1 < log(10) = 1. Also hat die Funktion p
Werte in dem Einheitsintervall [0, 1] und erfüllt
9
X
p(d ) =
d =1
9
X
d =1
µ
log10
Ã
!
¶
µ ¶
9 d +1
Y
d +1
10
= log10
= 1.
= log10
d
1
d =1 d
(b)
EX =
9
X
d =1
d p(d ) =
9
X
µ
d log10
d =1
¶
9 µ d + 1 ¶d
Y
d +1
= log10
d
d
d =1
µ
¶
10 10
= log10 10 ·
...
= 9 − log10 9! = 3.4402.
2
9
(c) Die Verteilungsfunktion von X ausgewertet an k ∈ {1, . . . , 9} ist
F (k) = P (X ≤ k) =
k
X
d =1
µ
log10
¶
d +1
= log10 (k + 1).
d
44
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
Für x ∈ R gilt daher


0,





log10 2,




log 3,
10
F (x) = P (X ≤ x) =

.
.
.






log10 9,



1,
falls x < 1,
falls 1 ≤ x < 2,
falls 2 ≤ x < 3,
...
falls 8 ≤ x < 9,
falls 9 ≤ x.
98. Rademacher-verteilte Zufallsvariablen. Sei X Rademacher-verteilt mit
der Wahrscheinlichkeitsfunktion
1
P (X = −1) = ,
2
1
P (X = 1) = .
2
(a) Berechnen Sie den Erwartungswert und die Varianz von X .
(b) Zeigen Sie, dass alle ungeraden Momente und alle ungeraden zentralen Momente
von X verschwinden.
(c) Berechnen Sie die charakteristische Funktion von X .
(d) Seien X 1 und X 2 stochastisch unabhängig und rademacherverteilt. Berechnen
Sie die Wahrscheinlichkeitsfunktion der Zufallsvariable
Y = X1 + X2.
Lösung.
(a) EX = 0, D2 X = EX 2 = 1.
(b) k ∈ 2N+1 impliziert X k = X , daher auch mk = EX k = EX = 0. Die zentralen Momente
µk und Momente m k sind gleich.
(c) φX (t ) = Ee i t X = 21 e i t + e −i t .
¡
¢
(d)
P (Y = k) =
1.8



1/4
1/2


1/4
k =2
k =0
k = −2.
Ungleichungen der Wahrscheinlichkeitstheorie
99. Tschebyscheff’sche Ungleichung. 100 Würfel. Ein idealer Würfel wird 100
mal geworfen. Sei X die Summe der geworfenen Augenzahlen. Finden Sie eine obere
Schranke für die Wahrscheinlichkeit P(|X − 350| > 50).
1.9. DISKRETE ZUFALLSVARIABLEN - TEXTAUFGABEN
45
Lösung. Bezeichne mit X i , i ∈ {1, . . . , 100} die geworfenen Augenzahlen und X = X 1 +
· · · + X 100 . Dann ist
7
EX i = ,
2
Var X i = E X i2 − (E X i )2 =
E X = 350,
Var X =
91 49
− ,
6
4
875
.
3
Daraus erhalten wir
P (|X − E X | > 50) = P (|X − 350| > 50) <
Var X
502
=
875
3 · 502
≈ 0.1167.
100. Markow’sche Ungleichung. Diskreter Fall. Sei X eine Zufallsvariable mit
den Werten in {0, 1, 2, . . . } und a > 0. Zeigen Sie folgende Aussagen:
(a) P (X ≥ a) ≤ EX
a .
(b) Sei h : R → [0, ∞) eine wachsende Funktion. Dann gilt
P (X ≥ a) ≤
Eh(X )
.
h(a)
(c) Zeigen Sie, dass sich die Tschebyscheff’sche Ungleichung aus der obigen Aussage
folgern lässt.
Lösung.
(a)
P(X > a) =
X
P (X = n)
n>a
1 X
n P(X = n)
a n>a
1 X
EX
≤
n P(X = n) =
.
a n≥0
a
<
(b) Folgt aus
h(n)
h(n)
≤
h(n)
h(a)
für alle n > a .
(c) Setze h(x) = x 2 und X̃ = |X − E X |.
1.9
Diskrete Zufallsvariablen - Textaufgaben
101. Busfahrerstreik. Auf dem Weg zur Stochastikprüfung erfahren Sie von einem Busfahrerstreik. Sie kommen an der Bushaltestelle kurz vor 11:00 Uhr an, die
Prüfung beginnt um 14:00 Uhr und die Dauer der Busfahrt inklusive des Fußweges
zum Prüfungsort beziffern Sie erfahrungsgemäß auf eine Stunde. Gemäß Fahrplan
stehen Ihnen drei Busse mit Abfahrtszeiten 11:00 Uhr, 12:00 Uhr und 13:00 Uhr zur
Verfügung. Laut Aussagen anderer Wartender ist mit einer mittleren Verspätungsdauer von einer Stunde zu rechnen. Sie nehmen an, dass die Verspätungsdauern der
Busse B i für i = 1, 2, 3 unabhängig voneinander und exponentialverteilt mit B i ∼ Ex(λ)
und λ > 0 sind.
46
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
(a) Bestimmen Sie den Parameter λ und berechnen Sie die erwartete Ankunftszeit
am Prüfungsort unter der Annahme, dass Sie den Bus mit der planmäßigen
Abfahrtszeit 11:00 Uhr benutzen.
(b) Berechnen Sie die Wahrscheinlichkeit dafür, dass Sie nicht rechtzeitig zur Prüfung kommen können.
(c) Berechnen Sie die Wahrscheinlichkeit dafür, dass Sie mindestens eine halbe
Stunde vor der Prüfung am Prüfungsort ankommen.
Lösung.
(a) EB i = 1 impliziert λ = 1. Die erwartete Ankunftszeit bei Fahrt mit dem ersten Bus
ist E [11 + 1 + B 1 ] = 12 + EB 1 = 13 Uhr.
(b) Bezeichne mit B 1 , B 2 , und B 3 die Verspätungsdauer der Busse. Laut Angabe
sind B i exponentialverteilt mit B i ∼ Ex(1). Die Wahrscheinlichkeit dafür, dass der
Prüfungsort nicht rechtzeitig erreicht werden kann ist
P (B 1 ≥ 2 ∧ B 2 ≥ 1 ∧ B 3 ≥ 0) = P (B 1 ≥ 2)P (B 2 ≥ 1)
= exp (−2) exp(−1) ≈ 0.04978.
(c) Die Wahrscheinlichkeit, dass wir mindestens halbe Stunde vor der Prüfung
ankommen, ist
P (B 1 ≤ 1.5 ∨ B 2 ≤ 0.5) = 1 − P (B 1 > 1.5)P (B 2 > 0.5) ≈ 0.8646.
102. Hochwasserereignisse. Historiker haben festgestellt, dass im Großraum
Halle im Mittel zwei extreme Hochwasserereignisse pro Jahrhundert zu verzeichnen
waren. Wir setzen voraus, dass dafür die Annahmen des Poisson-Prozesses (Stationarität, Homogenität und Ordinarität) gelten mögen.
(a) Wie können diese drei Annahmen für die vorliegende Problematik interpretiert
werden?
(b) Wie wahrscheinlich ist es, dass in einem Jahrhundert mehr als drei extreme
Hochwasserereignisse im Großraum Halle auftreten?
(c) Wie wahrscheinlich ist es, dass nach dem extremen Hochwasser 2013 innerhalb
von 20 Jahren ein weiteres extremes Hochwasser in dieser Region auftreten
wird?
Lösung.
2
(b) Rechnungseinheit Jahre: µ = 100
= 0.02, X t ∼ Poiss(µt ). Sei πλ die Wahrscheinlichkeitsfunktion der Poissonverteilung mit dem Parameter λ. Dann ist t = 100,
λ = µt = 2, P (X 100 > 3) = 1 − π2 (0) − π2 (1) − π2 (2) − π2 (3) = 0.1429.
(c) Zeitraum bis zum nächsten Ereignis: T ∼ Exp(µ). P (T ≤ 20) = 1 − exp(−20µ) =
1 − exp(−0.4) = 0.3297.
1.9. DISKRETE ZUFALLSVARIABLEN - TEXTAUFGABEN
47
103. Gasmelder. Im Hauptgebäude der TU Chemnitz werden Gasmelder bestimmten Typs für die Früherkennung gefährlicher Methankonzentrationen eingesetzt. Es
wird angenommen, dass im 3. Stock im Mittel alle 25 Jahre ein gefährlicher Methanaustritt stattfindet, der durch den entsprechenden Gasmelder signalisiert wird.
Unabhängig davon geht der besagte Melder im Mittel alle 5 Jahre kaputt und signalisiert dabei einen Falschalarm. Der defekte Melder wird aus Sicherheitsgründen
immer sofort ausgetauscht.
(a) Wir setzen im Folgenden voraus, dass beide Ereignisfolgen mit Hilfe des PoissonProzesses modelliert werden können. Diskutieren Sie die zugehörigen Annahmen
der Stationarität, Homogenität und Ordinarität.
(b) Wie wahrscheinlich ist es, dass es in den nächsten 10 Jahren zu mehr als einem
Methanaustritt kommen wird?
(c) Wie wahrscheinlich ist es, dass nach dem Austausch des defekten Melders Ende
Mai der neue Melder innerhalb eines halben Jahres kaputt geht?
Lösung.
(a)
(b) Wir rechnen alles in der Einheit Stunden.
M zähle Methanvorfälle und G zähle Gasmelderausfälle. Es gilt M t ∼ π(µt ) und
G t ∼ π(γt ). Aus EM 25 = 1 = 25 µ und EG 5 = 1 = 5 γ erhalten wir µ = 0.04 und γ = 0.2.
Daher gilt
P (M 10 > 1) = 1 − P (M 10 = 0) − P (M 10 = 1)
= 1 − π0.4 (0) − π0.4 (1) = 0.06155.
(c) Die Zeiten zwischen den Ausfällen der Gasmelder sind exponentialverteilt mit
dem Parameter γ. Es gilt also
P (T ≤ 0.5) = 1 − exp(−γ 0.5) = 0.0951.
104. Vulkanausbrüche. Das Vulkangebiet um Indonesien lässt im Mittel einen
Vulkanausbruch in fünf Jahren erwarten. Wir setzen voraus, dass dafür die Annahmen
des Poisson-Prozesses (Stationarität, Homogenität und Ordinarität) gelten mögen.
(a) Wie können diese drei Annahmen für die vorliegende Problematik interpretiert
werden?
(b) Wie wahrscheinlich ist es dann, dass es in einem Jahrhundert zu gar keinem
Vulkanausbruch in diesem Gebiet kommt?
(c) Wie wahrscheinlich ist es andererseits, dass es nach einem Vulkanausbruch
bereits innerhalb eines Jahres zu einem weiteren Vulkanausbruch kommt?
Lösung.
(b) Rechnungseinheit Jahre: µ = 15 = 0.2, X t ∼ Poiss(µt ). Sei πλ die Wahrscheinlichkeitsfunktion der Poissonverteilung mit dem Parameter λ. Dann ist t = 100,
λ = µt = 20, P (X 100 = 0) = π20 (0) = exp(−20) = 2.0611 × 10−9 .
(c) Zeitraum bis zum nächsten Ereignis: T ∼ Ex(µ). P (T ≤ 1) = 1 − exp(−µ) = 1 −
exp(−0.2) = 0.1813.
48
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
105. Weinfehler. Verteilungsfunktion. Aus einem sehr großen Lieferposten von
Wein werden 100 Flaschen zufällig herausgegriffen und auf Weinfehler getestet. Der
Wein sei ungenießbar, wenn der Anteil an 2, 4, 6-Trichloranisol (TCA) über 5 ng/l
liegt – das zeichnet sich durch einen korkigen Geruch und Geschmack aus. Der
durchschnittliche Anteil unbrauchbarer Weinflaschen betrage 3%.
(a) Wie groß ist die Wahrscheinlichkeit dafür, dass unter 100 zufällig ausgewählten
Weinflaschen genau 3 ungenießbare sind?
(b) Berechnen Sie die Wahrscheinlichkeit dafür, dass unter diesen 100 Weinflaschen
höchstens drei ungenießbare enthalten sind.
Lösung.
(a) X ∼ Bin(n, p) mit n = 100 und p = 0.03.
à !
n 3
P (X = 3) =
p (1 − p)n−3
3
100!
0.033 (1 − 0.03)97
3! 97!
98 · 99 · 100
=
0.033 0.9797 = 0.2275.
6
=
(b)
P (X ≤ 3) = P (X = 0) + · · · + P (X = 3)
à !
3 n
X
=
0.03k 0.97n−k = 0.6472.
k
k=0
Numerische Auswertung solcher Wahrscheinlichkeiten erfolgt mithilfe der Grenzverteilungsätze.
106. Grenzverteilungsätze. Weinfehler. Aus einem sehr großen Lieferposten
Wein werden 500 Flaschen zufällig herausgegriffen und auf Weinfehler getestet. Der
Wein sei ungenießbar, wenn der Anteil an 2, 4, 6-Trichloranisol (TCA) über 5 ng/l
liegt. Dies wirkt sich in Form eines korkigen Geruchs und Geschmacks aus. Der
durchschnittliche Anteil unbrauchbarer Weinflaschen betrage 3 %.
(a) Wie groß ist die Wahrscheinlichkeit dafür, dass unter 500 zufällig ausgewählten
Weinflaschen höchstens 20 ungenießbare enthalten sind?
(b) Es wird eine Lieferung für einen wichtigen Kunden vorbereitet. Es muss sichergestellt werden, dass mit mindestens 99 % Wahrscheinlichkeit 500 Flaschen
in der Lieferung keine Weinfehler aufweisen. Ein Mitarbeiter schlägt vor, 525
Flaschen auszuliefern. Ist die obige Bedingung in diesem Fall erfüllt?
1.9. DISKRETE ZUFALLSVARIABLEN - TEXTAUFGABEN
49
Lösung.
(a) Mit n = 500 und p = 0.03, erhalten wir np = 15 und np(1 − p) = 14.55 > 9. Sei
X ∼ Bin(500, 0.03).
Ã
X − np
20 − 15
≤p
P (X ≤ 20) = P p
14.55
np(1 − p)
!
≈ Φ (1.310806) = 0.9050384.
(b) Die Anzahl der trinkbaren Flaschen werde wir mit Y ∼ Bin(m, 0.97) bezeichnet.
P (Y ≥ 500) ≥ 0.99
P (Y < 500) ≤ 0.01
¶
500 − m 0.97
Φ p p
≤ 0.01.
m 0.03 · 0.97
µ
m = 525 liefert
500 − m0.97
= −2.3665
p p
m 0.03 · 0.97
Φ(−2.3665) = 1 − Φ(2.3665) ≤ 0.01.
107. Reifenpannen. Auf einer bestimmten Rallye-Strecke von 10 000 km sei pro
Pkw im Mittel mit einer Reifenpanne zu rechnen.
(a) Ermitteln Sie die Wahrscheinlichkeit dafür, dass ein Pkw bereits auf den ersten
7 000 km eine Reifenpanne hat.
(b) Eine Mannschaft sei mit drei Pkw an der Rallye beteiligt. Berechnen Sie die
Wahrscheinlichkeit dafür, dass alle Pkw ohne Reifenpanne die Rallye überstehen.
Lösung.
(a) Wir nehmen an, dass die Anzahl und Auftreten der Reifenpannen mit Hilfe
der Poisson-Verteilung modelliert werden kann, da die Voraussetzungen der
Stationarität, Homogenität und Ordinarität erfüllt sind. Wir bezeichnen mit X t
die Anzahl der Reifenpannen bis zum Zeitpunkt t . Wir wissen E X 104 = 1. Es gilt
E X t = µt und daher µ = 10−4 . Die gesuchte Wahrscheinlichkeit ist
P (X 7000 ≥ 1) =
∞
X
e
−7000µ
¡
¢i
7000µ
i!
i =1
= 1 − e −7000µ
(7000µ)0
0!
7
= 1 − e − 10 ≈ 0.5034.
(b) Die Reifenpannen in den einzelnen Fahrzeugen modellieren wir mit X 1,t , X 2,t , X 3,t ∼
Poiss(µt ). Dann ist Y t = X 1,t + X 2,t + X 3,t und Y ∼ Poiss(3µt ) die Anzahl der Reifenpannen in allen drei Fahrzeugen bis zum Zeitpunkt t .
P (Y10000 = 0) = e −3µt = e −3 ≈ 0.0497.
50
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
108. Beschichtungsfehler. Die Anzahl der Beschichtungsfehler einer speziellen
Magnetbandsorte betrage pro 1 000 m im Mittel 1.6. Wie groß ist die Wahrscheinlichkeit dafür, dass ein 500 m langes Bandstück keine Fehler aufweist? Welches Model
verwenden Sie um diese Zufallssituation zu modellieren?
109. Übertragungskanal. Die Fehlerrate eines Übertragungskanals hängt von
der Entfernung D (im m) zwischen Quelle und Senke ab. Die Wahrscheinlichkeit,
dass ein Bit falsch übertragen wird, beträgt p = 0.001 · D für D ≤ 500 m und p = 0.5 für
D > 500 m. Das heißt, bei Entfernungen von über 500 m wird nur noch Rauschen an der
Senke empfangen.
Es wird eine 512 Bit Nachricht zur Übertragung vorbereitet.
(a) Die Entfernung sei D = 5 m. Berechnen Sie unter Benutzung eines geeigneten
Grenzverteilungssatzes die Wahrscheinlichkeit dafür, dass mehr als 2 Bits von
der obigen Nachricht falsch übertragen werden.
(b) Zur Verminderung der Fehlerrate wird jedes Bit der Nachricht 3 mal hintereinander übertragen. Ein Decodieralgorithmus an der Senke zerlegt die Nachricht
in 3 Bit lange Teile und gibt für jeden Teil 1 aus, falls 2 oder 3 Bits gleich 1 sind
und sonst 0. Berechnen Sie bei D = 5 m die Wahrscheinlichkeit dafür, dass mehr
als 2 Bits von der ursprünglichen 512 Bits langen Nachricht falsch übertragen
werden.
Lösung.
(a) Wir approximierten die Binomialverteilung mit Hilfe des Poissonschen Grenzwertsatzes. Bei p = 0.005, n = 512, np = 2.56 und 1500p = 7.5 ist die Faustregel
np ≤ 10 und 1500p ≤ n erfüllt. Sei X ∼ Bin(512, 0.005) die Anzahl der falsch übertragenen Bits. Nun setzen wir λ = np = 2.56. Der Grenzversatz von Poisson liefert
P (X = k) ≈ e −λ
λk
k!
und
P (X > 2) = 1 − P (X ≤ 2)
= 1 − P (X = 0) − P (X = 1) − P (X = 2) ≈ 0.528517.
(b) Die Wahrscheinlichkeit für die falsche Übertragung eines Bits beträgt in diesem
Verfahren
à !
à !
p3 =
¢0
¢3−2
3 3¡
3 2¡
p 1−p +
p 1−p
= 7.475 10−5 .
3
2
Wir erhalten also np 3 = 0.038272. Der Grenzvertsatz von Poisson liefert
P (X > 2) = 1 − P (X ≤ 2)
= 1 − P (X = 0) − P (X = 1) − P (X = 2) ≈ 9.079004 10−6 .
1.9. DISKRETE ZUFALLSVARIABLEN - TEXTAUFGABEN
51
110. Übertragungskanal mit stochastischer Fehlerkorrektur. Die Fehlerwahrscheinlichkeit bei der Übertragung eines Bits ist p = 0.1. Es wird eine 512 Bit Nachricht
zur Übertragung vorbereitet.
(a) Berechnen Sie unter Benutzung eines geeigneten Grenzverteilungssatzes die
Wahrscheinlichkeit dafür, dass mehr als 35 Bits der obigen Nachricht falsch
übertragen werden.
(b) Zur Verminderung der Fehlerrate wird jedes Bit der Nachricht viermal hintereinander übertragen. Ein Decodieralgorithmus beim Empfänger zerlegt die
Nachricht in 4 Bit lange Teile und gibt für jeden Teil 1 aus, falls 3 oder 4 Bits
gleich 1 sind und 0 falls 3 oder 4 Bits gleich 0 sind. Falls zwei Einser und zwei
Nuller empfangen wurden, wird das Ergebnis eines unabhängigen Bernoulliexperiments X ∼ Ber(0.5) ausgegeben.
Berechnen Sie die Fehlerwahrscheinlichkeit bei der Übertragung eines Bits für
den modifizierten Algorithmus.
Lösung.
(a) Sei n = 512, k = 35 und X ∼ Bin(n, p). E X = np = 51.2, σ2X = 46.08. Die Wahrscheinlichkeit, dass mehr als k Bits falsch übertragen werden, ist
P (X > k) = 1 − P (X ≤ k)
Ã
!
X − np
k − np
= 1−P p
≤p
np(1 − p)
np(1 − p)
Ã
!
k − np
≈ 1−Φ p
= 0.9914949.
np(1 − p)
Die Faustregel rechtfertigt dabei die Normalapproximation.
(b) Die Wahrscheinlichkeit für die falsche Übertragung eines Bits bei dem alternativen Algorithmus ist
à !
à !
à !
4 4
4 3
4 2
1
p +
p (1 − p) +
p (1 − p)2 = 0.028.
4
3
2
2
111. Übertragungskanal. II Die Fehlerrate eines Übertragungskanals hängt
von der Entfernung D (im m) zwischen Quelle und Senke ab. Die Wahrscheinlichkeit,
dass ein Bit falsch übertragen wird, beträgt p = 0.001 · D für D ≤ 500 m und p = 0.5 für
D > 500 m. Das heißt, bei Entfernungen von über 500 m wird nur noch Rauschen an der
Senke empfangen.
Es wird eine 512 Bit Nachricht zur Übertragung vorbereitet.
(a) Die Entfernung sei D = 100 m. Berechnen Sie unter Benutzung eines geeigneten
Grenzverteilungssatzes die Wahrscheinlichkeit dafür, dass mehr als 35 Bits von
der obigen Nachricht falsch übertragen werden.
(b) Zur Verminderung der Fehlerrate wird jedes Bit der Nachricht 3 mal hintereinander übertragen. Ein Decodieralgorithmus an der Senke zerlegt die Nachricht
in 3 Bit lange Teile und gibt für jeden Teil 1 aus, falls 2 oder 3 Bits gleich 1 sind
und sonst 0. Berechnen Sie bei D = 100 m die Wahrscheinlichkeit dafür, dass mehr
als 35 Bits von der ursprünglichen 512 Bits langen Nachricht falsch übertragen
werden.
52
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
Lösung.
(a) Sei p = D · 0.001 = 0.1, n = 512, l = 35 und X ∼ B(n, p). EX = np = 51.2, D2 X = 46.08.
Die Wahrscheinlichkeit, dass mehr als l Bits falsch übertragen werden, ist
P (X > l ) = 1 − P (X ≤ l )
Ã
!
l − np
X − np
≤p
= 1−P p
np(1 − p)
np(1 − p)
Ã
!
l − np
≈ 1−Φ p
= 0.9914949.
np(1 − p)
Die Faustregel rechtfertigt dabei die Normalapproximation.
(b) Die Wahrscheinlichkeit für die falsche Übertragung eines Bits beträgt in diesem
Verfahren
à !
à !
p3 =
¢0
¢3−2
3 3¡
3 2¡
p 1−p +
p 1−p
= 0.028.
3
2
Wir erhalten also np 3 = 2.8 und np 3 (1 − p 3 ) = 13.93459 und
¡
¢
P X̃ > l = 1.550534 · 10−8 .
R code:
f <- function(n,p,l) { 1 - pnorm( (l- n*p)/sqrt( n*p*(1-p)))
}
n <- 512; p <- 0.1; l <- 35; f(n,p,l)
# 0.9914949
n <- 512; p <- 0.028; l <- 35; f(n,p,l)
# 1.550534e-08
112. Bitcoin. Einfaches Bubble-Modell. In einem einfachen Marktmodel für
den Euro-Wert einer Bitcoin wird davon ausgegangen, dass es innerhalb eines Jahres
mit Wahrscheinlichkeit p = 0.95 zu einem Crash kommen wird. Der Crash-Zeitpunkt τ
ist dabei exponentialverteilt mit dem Parameter λ. Gleichzeitig nehmen wir an, dass
der Euro-Wert b(t ) einer Bitcoin (1 BTC) durch die Funktion
(
b(t ) =
500 exp(t )
t ≤τ
0
τ<t
gegeben ist. t bezeichnet dabei die Zeit in Jahren.
(a) Berechnen Sie den Wert des Parameters λ.
(b) Berechnen Sie den erwarteten Euro-Wert von 1 BTC zum Crash-Zeitpunkt.
Lösung.
(a) Die Dichte und die Wahrscheinlichkeitsfunktion der Exponentialverteilung sind
gegeben durch
p(t ) = λ exp (−λt ) ,
P (τ ≤ t ) = 1 − exp(−λt ).
Aus P (τ ≤ 1) = 0.95 erhalten wir λ = − log (0.05) ≈ 2.9957.
1.10. STETIGE ZUFALLSVARIABLEN
53
(b) Erwarteter Preis zum Crash-Zeitpunkt ist
Eb(τ) = 500
1.10
λ
≈ 750.5346.
λ−1
Stetige Zufallsvariablen
113. Exponentialverteilung. Minima. Seien X 1 , . . . , X n stochastisch unabhängig
und exponentialverteilt mit X i ∼ Ex(λi ) und λi > 0. Zeigen Sie, dass die Zufallsvariable
X (1) = min {X 1 , . . . , X n }
exponentialverteilt ist und dabei X (1) ∼ Ex(λ1 + · · · + λn ) gilt.
114. Exponentialverteilung. Dichte des Maximums. Seien X 1 , . . . , X n stochastisch unabhängig und exponentialverteilt mit X i ∼ Exp(λ) und λ > 0. Berechnen Sie die
Dichtefunktion der Zufallsvariable X (n) = max {X 1 , . . . , X n }.
Lösung. Die Verteilungsfunktion von X (n) ist
¡
¢
P X (n) ≤ t = P (X 1 ≤ t , . . . , X n ≤ t )
= P (X 1 ≤ t )n
³
´n
= 1 − e −λt .
Die Dichte von X (n) ist demnach
³
´n−1
f (x) = n 1 − e −λx
λe −λx .
115. Momente der Exponentialverteilung. Sei X exponentialverteilt mit dem
Parameter λ > 0. X hat also die Dichte
p(x) = λe −λx 1R≥0 (x)
(a) Die Verteilungsfunktion von X ist gegeben durch
h
i
P (X ≤ x) = 1 − e −λx 1R≥0 (x).
(b) Die Momente der Exponentialverteilung sind für n ∈ N durch
EX n =
n!
λn
gegeben.
(c) Der Erwartungswert und die Varianz der Exponentialverteilung sind
EX =
1
λ
Var X =
1
.
λ2
54
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
Lösung. Wir berechnen
Z
P (X ≤ x) =
x
λe −λx 1R≥0 (x)d x
Z−∞
x
=
λe −λx d x
h0
i
= −e −λx |0x
h
i
= 1 − e −λx 1R≥0 (x).
Die Momente erhalten wir mit Hilfe der partiellen Integration.
n
EX =
Z
∞
Z0 ∞
x n λe −λx d x
³
´0
x n −e −λx d x
0
Z ∞
³
´
³
´
n
−λx ∞
= x −e
|0 −
nx n−1 −e −λx d x
0
Z
n ∞ n−1 −λx
=
x
λe
dx
λ 0
n
= E X n−1 .
λ
=
Mit
E X 0 = E1 = 1
erhalten wir E X n = λn!n und daraus
EX =
1
λ
Var X = E X 2 − (E X )2 =
1
.
λ2
116. Gedächtnislosigkeit der Exponentialverteilung. Sei X exponentialverteilt mit dem Parameter λ > 0. Dann gilt für x, h > 0
P (X > x + h | X > x) = P (X > h).
Warum wird diese Eigenschaft von X Gedächtnislosigkeit genannt?
117. Momentenerzeugende Funktion der Exponentialverteilung.
ponentialverteilt mit dem Parameter λ > 0.
Sei X ex-
(a) Die momentenerzeugende Funktion von X ist
ψ(u) = E exp (uX ) = −
λ
u −λ
für |u| < λ.
(b) Berechnen Sie mit Hilfe von ψ(u) den Erwartungswert und die Varianz von X .
1.10. STETIGE ZUFALLSVARIABLEN
55
Lösung. Wir berechnen
Z
exp (ux) λe −λx 1R≥0 (x)d x
Z ∞
=λ
e (u−λ)x d x
0
µ
¶
1
(u−λ)x ∞
e
|0
=λ
u −λ
λ
=−
.
u −λ
ψ(u) = E exp (uX ) =
R
Um die Momente zu erhalten, brauchen wir nur noch die momentenerzeugende
Funktion zu differenzieren.
∂
ψ(u)|u=0 =
∂u
∂2
ψ(u)|u=0 =
EX 2 =
∂u 2
EX =
1
λ
∂
λ
2
= 2.
2
∂u (u − λ)
λ
118. Minimum von exponentialverteilten Zufallsvariablen. Seien X 1 , . . . , X n
i.i.d. und exponentialverteilt mit X ∼ Exp(λi ) und λi > 0. Dann ist die Zufallsvariable
Y = min {X 1 , · · · , X n }
wieder exponentialverteilt und es gilt Y ∼ Exp(λ1 + · · · + λn ).
119. Gleichverteilung und Exponentialverteilung. Sei X stetig gleichverteilt
auf dem Intervall [0, 1]. Zeigen Sie, dass die Zufallsvariable Y = − log X exponentialverteilt ist.
Lösung. Y ist exponentialverteilt mit λ = 1.
120.
Erlang-2-Verteilung. Sei X stetig verteilt mit der Dichte
f (x) = λ2 xe −λx 1(0,+∞) (x)
und dem positiven Parameter λ > 0. Berechnen Sie den Erwartungswert der Zufallsvariable Y = X1 .
Lösung. E X1 =
R∞
0
1 2
−λx
dx
x λ xe
= λ.
121. Stetige Gleichverteilung. Momente und Momentenerzeugende Funktion. Sei X stetig gleichverteilt auf dem Intervall (a, b) ⊂ R. Dies kann als X ∼ U (a, b)
notiert werden.
(a) Das n -te Moment E X n , für n ∈ N, ist
EX n =
¢
1 ¡ n 0
b a + · · · + b0 an .
n +1
(b) Der Erwartungswert und die Varianz von X sind gegeben durch
EX =
1
(b + a)
2
Var X =
1
(b − a)2 .
12
56
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
(c) Die momentenerzeugende Funktion von X ist
ψ(u) = E exp (uX ) =
³
´
1
e ub − e ua .
u(b − a)
Lösung. Berechnen wir zunächst die n -ten Momente
n
EX =
1
1(a,b) (x)d x
b
−
a
R
Z b
1
xn d x
b−a a
µ n+1 ¶
x
1
|b
b −a n +1 a
¢
1
1 ¡ n+1
b
− a n+1
b −a n +1
an b0 + · · · + a0bn
.
n +1
Z
=
=
=
=
xn
Wir brauchen nur noch n = 1, 2 einzusetzen.
EX =
a +b
2
EX 2 =
b 2 + ab + a 2
3
Var X =
(b − a)2
.
12
Die momentenerzeugende Funktion kann folgendermassen berechnet werden.
ψ(u) = E exp (uX ) =
Z
R
exp (ux)
1
1(a,b) (x)d x
b−a
Z b
1
=
exp(ux)d x
b−a a
e ub − e ua
=
.
u(b − a)
Beachten Sie, dass diese Funktion an Null beliebig oft differenzierbar ist.
122. Stetige Gleichverteilung. Momente. Sei X stetig gleichverteilt auf dem
Intervall [a, b] ⊂ R. Zeigen Sie folgende Aussagen:
(a) Für k = 1, 2, . . . ist das k -te Moment E X k gegeben durch
EX k =
´
1 ³ k 0
b a + · · · + b0 ak .
k +1
(b) Der Erwartungswert und die Varianz von X sind gegeben durch
EX =
1
(b + a)
2
Var X =
Lösung. Berechnen wir zunächst die n -ten Momente
EX n =
=
=
=
=
1
1(a,b) (x)d x
b
−
a
R
Z b
1
xn d x
b−a a
µ n+1 ¶
x
1
|b
b −a n +1 a
¢
1
1 ¡ n+1
b
− a n+1
b −a n +1
an b0 + · · · + a0bn
.
n +1
Z
xn
1
(b − a)2 .
12
1.10. STETIGE ZUFALLSVARIABLEN
57
Wir brauchen nur noch n = 1, 2 einzusetzen.
EX =
a +b
2
EX 2 =
b 2 + ab + a 2
3
Var X =
(b − a)2
.
12
123. Stetige Gleichverteilung ist nicht teilbar. Sei U stetig gleichverteilt auf
dem Intervall [0, 1]. Zeigen Sie, dass es keine unabhängigen identisch verteilten Zufallsvariablen X und Y gibt, so dass X + Y = U gilt.
124. Cauchy-Verteilung. Gegenbeispiel.
funktion
f (x) =
Sei X Cauchy-verteilt mit der Dichte-
1
.
π(1 + x 2 )
Zeigen Sie folgende Aussagen:
(a) Die Funktion f ist wirklich eine Dichtefunktion.
(b) Der Erwartungswert EX existiert nicht.
(c) Die Momente EX k existieren für alle k = 1, 2, . . . nicht.
Lösung.
(a)
R
dx
a 2 +x 2
=
1
a
arctan ax .
(b) EX ist nicht definiert im Sinne von Lebesque, weil EX + = +∞ und EX − = +∞ gilt.
(c) Gleiches folgt für EX n mit einer einfachen Abschätzung.
125.
te
Cauchy-Verteilung. Ein Gegenbeispiel.
p(x) =
Sei X Cauchyverteilt mit der Dich-
1
.
π(1 + x 2 )
Zeigen Sie:
(a) p ist wirklich eine Dichte.
(b) Der Erwartungswert E X existiert nicht.
(c) E X n existiert nicht, für alle positiven n ∈ N.
(d) Die momentenerzeugende Funktion von X existiert für alle t 6= 0 nicht.
126. Cauchy-Verteilung ist hartneckig. Seien X 1 , . . . , X n unabhängig und Cauchyn
Verteilt. Zeigen Sie, dass X 1 die gleiche Verteilung wie X 1 +···+X
hat.
n
127. Lévy-Verteilung. Dichtefunktion.
mit den Parametern (µ, σ) ∈ R × R, σ > 0 ist
(q
f (x) =
0,
σ
− 23
2π (x − µ)
Die Dichtefunktion der Lévy-Verteilung
³
´
σ
exp − 2(x−µ)
,
x ≥0
x < 0.
Sei X ∼ N(0, σ1 ) normalverteilt mit σ > 0. Zeigen Sie, dass die Zufallsvariable
verteilt mit den Parametern (0, σ) ist.
1
X2
Lévy-
58
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
Lösung. Für ein y > 0 gilt
µ
P
Die Dichte von
1
X2
¶
¡
¢
1
≤
y
= P 1 ≤ yX2
2
X
Ãs
!
1
=P
≤ |X |
y
µ
µ
¶¶
1
= 2 1−P X < p
y
Ã
Ãs !!
σ
.
= 2 1−Φ
y
erhalten wir durchs Differenzieren:
Ãs !
µ
¶
¶
µ
∂
1
σ p
1 −3
2
P
≤
y
=
−2φ
y
σ
−
∂y
X2
y
2
r
¶
µ
3
σ
σ
y−2 .
=
exp −
2π
2y
Daher ist
1
X2
∼ Lévy(σ).
128. Mellin-Transformation. Sei X eine positive Zufallsvariable. Die MellinTransformierte T X (θ) von X ist definiert durch
T X (θ) = EX θ
für alle θ ∈ R für die der obige Erwartungswert existiert. Zeigen Sie folgende Aussagen:
(a) Es gilt
T X (θ) = ϕlog X (θ/i )
wenn alle obigen Ausdrucke wohldefiniert sind.
(b) Sind X und Y positive und stochastisch unabhängige Zufallsvariablen, so gilt
T X Y (θ) = T X (θ) TY (θ).
(c) Es gilt
TbX a (θ) = b θ T X (aθ)
für alle b > 0 und alle a für die T X (aθ) existiert.
129.
Normalverteilung.
Momentenerzeugende Funktion und Momente.
¡
¢
2
X ∼ N µ, σ mit µ ∈ R und σ > 0. Die Dichte von X ist also
µ
¶
1
1 ³ x − µ ´2
f (x) = p exp −
.
2
σ
σ 2π
Dann gilt
(a) Die momentenerzeugende Funktion von X ist gegeben durch
ψ(u) = exp
µ
¶
1 2
σu + µu .
2
(b)
E X = µ,
(c) Die Zufallsvariable Z =
X −µ
σ
Var X = σ2 .
ist standardnormalverteilt.
Sei
1.10. STETIGE ZUFALLSVARIABLEN
59
Lösung. Wir berechnen die momentenerzeugende Funktion der Normalverteilung
indem wir das Integral E exp(uX ) auf ein Integral der Dichte einer Normalverteilung
zurückführen.
¡
¢
1 x−µ 2
1
e ux p e − 2 σ d x
R
σ 2π
µ
¶
Z
1
1 (x − µ)2
=
dx
p exp ux −
2 σ2
R σ 2π
ψ(u) = E exp(uX ) =
Z
Nun gilt für den Ausdruck im Exponenten
ux −
¢
1 (x − µ)2
1 ¡
= − 2 −2uσ2 x + x 2 − 2µx + µ2
2
2 σ
2σ
¢
1 ¡
= − 2 x 2 − 2(σ2 u + µ)x + µ2
2σ
´
¢2
1 ³¡
= − 2 x − (σ2 u + µ) − (σ2 u + µ)2 + µ2 .
2σ
Eingesetzt in die obige Formel für ψ(u) ergibt das
(σ2 u + µ)2 − µ2
2σ2
µ
¶
1 2 2
= exp σ u + uµ .
2
ψ(u) = exp
µ
¶Z
¶
µ
1
1 (x − σ2 u + µ)2
dx
exp
−
p
2
σ2
R σ 2π
Der Erwartungswert und die Varianz der Normalverteilung lassen sich nun durchs
Differenzieren berechnen.
¡
¢
∂u ψ(u) = ψ(u) σ2 u + µ
¡
¢2
∂uu ψ(u) = ψ(u) σ2 u + µ + ψ(u)σ2
⇒
⇒
EX = µ
E X 2 = µ2 + σ2
Daraus erhalten wir
Var X = σ2 .
X −µ
Wenden wir uns nun Z = σ zu. Wir zeigen Z ∼ N (0, 1) indem wir die momentenerzeugende Funktion von Z berechnen.
ψ Z (u) = E exp (uZ )
µ
¶
Z
x−µ
1
1 ³ x − µ ´2
u σ
= e
dx
p exp −
2
σ
R
σ 2π
µ
¶
Z
1
x − µ 1 ³ x − µ ´2
=
−
dx
p exp u
σ
2
σ
R σ 2π
¶
µ
Z
¢
1
1 ¡
=
p exp − 2 −2uσ(x − µ) + x 2 − 2µx + µ2 d x
2σ
R σ 2π
µ
¶
Z
¢
1
1 ¡
2
2 2
=
p exp − 2 (x − (uσ + µ)) − u σ d x
2σ
R σ 2π
µ 2¶
u
.
= exp
2
ψ Z ist die momentenerzeugende Funktion der Normalverteilung mit Parametern (0, 1).
Was zu zeigen war.
60
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
130. Normalverteilung. Momente.
N. Zeigen Sie folgende Aussagen:
Sei Z standardisiert normalverteilt und n ∈
(a) Für die geraden Momente von Z gilt die Formel
¡
¢ (2n)!
E Z 2n = n
=: (2n − 1)!!.
2 · n!
(b) Alle ungeraden Momente verschwinden, d.h. es gilt E (Z 2n+1 ) = 0.
(c) Für σ > 0 und µ ∈ R gilt
!
n Ã
c
2
¡
¢n bX
n
σ2k (2k − 1)!! µn−2k .
E σZ + µ =
2k
k=0
Dies ist¡ die ¢Formel für die Momente mn einer normalverteilten Zufallsvariable
X ∼ N µ, σ2 .
Lösung.
(a) Die momentenerzeugende Funktion der Standardnormalverteilung ist
ψ(u) = exp
µ
¶
u2
.
2
Diese Funktion lässt sich leicht ableiten.
ψ(1) = ψu
ψ(2) = ψ(1) u + ψ
ψ(3) = ψ(2) u + 2ψ(1)
ψ(4) = ψ(3) u + 3ψ(2)
ψ(2n) = ψ(2n−1) u + (2n − 1)ψ(2n−2) .
Wenn wir u = 0 einsetzen erhalten wir die Relation
¯
= (2n − 1)ψ2n−2
ψ(2n) ¯u=0 = ψ(2n)
0
0
und daraus
ψ(2n)
= (2n − 1)(2n − 3) · · · 1 =
0
2n!
2n!
= n .
(2n)(2n − 2) · · · 2 2 n!
(b) Das Produkt der Dichte der Standardnormalverteilung und einer ungeraden
Funktion x 2n+1 ist eine ungerade Funktion. Daher muss das Integral dieser
Funktion über R verschwinden.
(c) Die Formel wird mit Hilfe des binomischen Lehrsatzes hergeleitet.
131. Summen von normalverteilten Zufallsvariablen. Sind die Zufallsvariablen X 1 , . . . , X n unabhängig und normalverteilt mit X i ∼ N (νi , σ2i ), so ist die Summe
wieder normalverteilt mit
Ã
!
n
X
i =1
Xi ∼ N
n
X
i =1
νi ,
n
X
i =1
σ2i .
1.10. STETIGE ZUFALLSVARIABLEN
61
Lösung. Wir berechnen die momentenerzeugende Funktion der Zufallsvariable
Pn
i =1 X i und verwenden dabei die Unabhängigkeit von X 1 , · · · , X n .
Ã
E exp u
n
X
!
Xi =
i =1
n
Y
E exp (uX i )
i =1
=
n
Y
Ã
exp
σ2i u 2
2
i =1
Ã
= exp
u2
!
+ νi u
Pn
2
i =1 σi
2
n
X
+u
!
νi .
i =1
Die momentenerzeugende Funktion, wenn sie in einer Umgebung von 0 existiert,
charakterisiert eine Verteilung eindeutig. Die oben berechnete momentenerzeugende
P
Funktion gehört zu einer Normalverteilung mit dem Erwartungswert ni=1 νi und der
Pn
Varianz i =1 σ2i .
132. Dichte der multivariaten Normalverteilung.
folgende Dichte hat, falls Rang(Σ) = p :
p(x) =
Zeigen Sie, dass X ∼ N p µ, Σ
¡
µ
¶
1
> −1
exp
−
Σ
(x
−
µ)
.
(x
−
µ)
2
det(Σ)1/2 (2π)p/2
1
133. Gaussche Zufallsvariablen und Unabhängigteit. Seien X und Y standardnormalverteilt und unabhängig. Dann sind die Zufallsvariablen U = Xp−Y
und
2
V=
Xp
+Y
2
ebenfalls standardnormalverteilt und unabhängig.
Lösung. Betrachte die Transformation der Zufallsvariable (X , Y )> mit der Matrix
¶
µ
1 −1
1 1
normiert mit
p1 .
2
134. Log-Normalverteilung. Momente und Dichte. Sei X ∼ N (µ, σ2 ) normalverteilt, dann ist die Zufallsvariable Y = e X log-normalverteilt, was als Y ∼ L N (µ, σ2 )
notiert werden kann. Beweisen Sie folgende Eigenschaften der Log-Normalverteilung.
(a) Die Dichte von Y ist durch
f (t ) =
µ
µ
¶ ¶
1
1 log t − µ 2
1R≥0 (x)
p exp −
2
σ
σt 2π
gegeben.
(b) Die Momente von Y sind
¶
µ
n 2 σ2
EY n = exp µn +
.
2
(c) Die momentenerzeugende Funktion ψY von Y existiert für alle t 6= 0 nicht.
¢
62
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
Lösung. Sei φX die Dichte und Φ X die Verteilungsfunktion von X . Wir bemerken
zunächst
Z
¡
¢
¡
¢
P e X ≤ t = P X ≤ log t =
log t
−∞
φ X (x)d x.
für t > 0. Dies ist die Verteilungsfunktion von Y . Die Dichte von Y erhalten wir durchs
Differenzieren.
Z
¢ ∂ log t
∂ ¡ X
P e ≤t =
φ(x)d x
∂t
∂t −∞
∂
= Φ(log t )
∂t
= φ(log t )t −1 .
Die Momente der Log-Normalverteilung erhalten wir, indem wir die Beziehung Y = e X
benutzen.
n
EY = Ee
nX
¶
µ
1
1 ³ x − µ ´2
= e
dx
p exp −
2
σ
R
σ 2π
µ
¶
Z
¢
1
1 ¡ 2
2
2
=
p exp − 2 x − 2xµ + µ − 2nσ x d x
2σ
R σ 2π
µ
¶
Z
¢
1
1 ¡
n 2 σ2
2 2
=
d x.
p exp − 2 x − (µ + nσ ) + µn +
2σ
2
R σ 2π
Z
nx
Daraus ergibt sich
·
¸
n 2 σ2
EY = exp µn +
.
2
i
2
n
h
Insbesondere gilt EY = exp µ + σ2 .
Die momentenerzeugende Funktion kann mit der gleichen Methode untersucht
werden. Nehmen wir zunächst an, dass X standardnormalverteilt ist. Dann gilt
¡
¢
ψY = E exp (uY ) = E exp ue X
µ 2¶
Z
x
ue x 1
= e
dx
p exp −
2
R
2π
µ
¶
Z
1
x2
= p exp ue x −
dx
2
R 2π
µ µ
¶
¶
Z
1
x2 x3
x2
≥ p exp u 1 + x +
+
−
d x.
2
6
2
R 2π
Der Ausdruck im Exponenten divergiert für x → ∞ und u > 0. Das Integral muss also
auch divergent sein, und die momentenerzeugende Funktion existiert nur für u = 0.
Die oben bewiesene Aussage gilt auch allgemein für X ∼ N (µ, σ2 ), denn
¡
¢
Ee uY = E exp e u(σX +µ) =
Z
µ 2¶
¡
¢ 1
x
exp ue σx+µ p exp −
d x.
2
R
2π
135. Log-Normalverteilung. Dichtefunktion. Ist X ∼ N(µ, σ2 ) normalverteilt,
dann ist die Zufallsvariable Y = e X log-normalverteilt mit Parametern µ und σ2 .
Zeigen Sie, dass die Dichtefunktion von Y durch
f (x) =


1
p
exp
σx 2π

0,
gegeben ist.
µ ³
´2 ¶
1 log x−µ
−2
,
σ
x ≥0
x <0
1.10. STETIGE ZUFALLSVARIABLEN
63
136. Log-Normalverteilung. Momente. Ist X ∼ N(µ, σ2 ) normalverteilt, dann ist
die Zufallsvariable Y = e X log-normalverteilt mit Parametern µ und σ2 . Zeigen Sie
folgende Aussagen:
(a) Für die Mellin-Transformierte TY von Y gilt
TY (k) = E Y k , k = 1, 2, . . . .
(b) Die Momente mk von Y sind gegeben durch
µ
¶
σ2 k 2
m k = E Y = exp µk +
.
2
k
137. Normalverteilung. Abweichungen vom Mittelwert.
normalverteilte Zufallsvariable X ∼ N (µ, σ2 ).
Wir betrachten die
(a) Berechnen Sie die Wahrscheinlichkeiten P (X − µ ≥ nσ) für n ∈ {1, 2, 6}.
(b) Berechnen Sie die Wahrscheinlichkeiten P (|X − µ| ≥ nσ) für n ∈ {1, 2, 6}.
(c) Ändern sich die Ergebnisse in (a) und (b), wenn ≥ durch > ersetzt würde?
Lösung. P (|X − µ| ≥ nσ) = 2 − 2P (Z ≤ n). Standarisierung und folgende Tabelle liefert
die Lösung.
In [1]: from scipy.stats import norm
In [5]: [ norm.cdf(i) for i in range(7) ]
Out[5]:
[0.5,
0.84134474606854293,
0.97724986805182079,
0.9986501019683699,
0.99996832875816688,
0.99999971334842808,
0.9999999990134123]
138. Verteilung der Stichprobenvarianz. Seien X 1 , . . . , X n i.i.d., normalverteilt
¢2
P ¡
und Var (X 1 ) = σ2 . Für das zweite zentrierte empirische Moment σ̂2 (X ) = n1 ni=1 X i − X̄
gilt, dass
n µ X − X̄ ¶2
n σ̂2 (X ) X
i
∼ χ2n−1 .
=
σ2
σ
i =1
139. Symmetrische Zufallsvariablen. Eine Zufallsvariable X nennen wir symmetrisch, wenn die Verteilungen von X und −X gleich sind. Zeigen Sie folgende
Aussagen:
(a) Hat X eine Dichtefunktion f , so ist X symmetrisch genau dann, wenn f (x) = f (−x)
für alle x ∈ R gilt.
(b) Die charakteristische Funktion ϕ X (t ) einer symmetrischen Zufallsvariable X ist
reellwertig.
(c) Seien X + = max {X , 0} und X − = max {−X , 0}. X ist symmetrisch genau dann, wenn
die Verteilungen von X + und X − gleich sind.
64
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
Lösung.
(a)
(b) Das folgt mit Hilfe der Euler’schen Formel.
(c)
140. Rayleigh-Verteilung.
Dann ist
Seien X und Y unabhängig und N (0, σ2 )-verteilt.
Z=
p
X2 +Y 2
Rayleigh-verteilt. Zeigen Sie:
(a) Z hat die Dichte
z − z 22
e 2σ 1R>0 (z).
σ2
p
(b) Es gilt E (Z ) = σ π/2 und Var (Z ) = σ2 2 − π2 .
141.
¡
¢
Beta-verteilung. Sei X eine Beta(2, 2)-verteilte Zufallsvariable.
(a) Geben Sie die Dichte und Verteilungsfunktion von X explicit an.
(b) Geben Sie die Dichte und Verteilungsfuntion der Zufallsvariable Y =
1
X
− 1 an.
(c) Berechnen Sie EY .
142. Gamma-Verteilung. Momente. Gegeben sei eine Gamma-verteilte Zufallsvariable X mit der Dichte
p a,λ (x) =
λa a−1 −λx
x
e
1R≥0 (x)
Γ(a)
und Parametern a > 0 und λ > 0. Zeigen Sie für ein positives n ∈ N
EXn =
a · . . . · (n + a − 1)
.
λn
Dabei können Sie die Identität Γ(a + 1) = aΓ(a), a ∈ R \ {−1, −2, . . .}, verwenden. [Klausur
WS11]
Lösung.
EXn
λa a−1 −λx
x
e
dx
Γ(a)
0
Z
a · . . . · (a + n − 1) ∞ λa+n
x a+n−1 e −λx d x
λn
0 Γ(n + a)
a · . . . · (a + n − 1)
λn
Γ (a + n)
.
λn Γ (a)
Z
=
=
=
=
∞
xn
1.10. STETIGE ZUFALLSVARIABLEN
65
143. Momentenerzeugende Funktion einer Gamma-Verteilung.
Zeigen Sie, dass für s < λ
¡
¢
Ψ X (s) = E e s X =
Sei X ∼ Gamma(a, λ).
λa
(λ − s)a
gilt. Bestimmen Sie damit den Erwartungswert und die Varianz von X .
144. Transformationen der Gamma-Verteilung. Seien X ∼ Gamma(α1 , β) und
Y ∼ Gamma(α2 , β) zwei unabhängige Zufallsvariablen. Beweisen Sie:
(a) Ist c > 0 so gilt
c X ∼ Gamma(α,
β
).
c
(b)
X + Y ∼ Gamma(α1 + α2 , β).
(c)
(d)
X
∼ Beta(α1 , α2 ).
X +Y
X
X +Y
und X + Y sind unabhängig.
Für die Beweise der letzten zwei Aussagen können Sie den Transformationssatz
verwenden.
145.
Gamma-Verteilung und Exponentialverteilung.
Seien
E 1 , E 2 ∼ Exp(λ)
exponentialverteilt mit dem Parameter λ > 0 und
G ∼ Gamma(a, λ)
Gamma-verteilt mit den Parametern a > 0 und λ > 0. E 1 , E 2 ,G seien unabhängig. Zeigen
Sie die folgenden Aussagen mit Hilfe der Faltungsformel.
(a) E 1 + E 2 ist Gamma-verteilt mit den Parametern (2, λ).
(b) E 1 +G ist Gamma-verteilt mit den Parametern (a + 1, λ).
Lösung. Sei
p(x) = λe −λx 1R≥0 (x)
die Dichte der Exponentialverteilung und
g (x) =
λa a−1 −λx
x
e
1R≥0 (x)
Γ(a)
die Dichte der Gamma-Verteilung. Zunächst stellen wir
Exp(λ) = Gamma(1, λ)
fest. Mit Hilfe der Faltungsformel
Z
f E 1 +G (z) =
R
p(z − y)g (y)d y
66
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
können wir die Dichte der Zufallsvariable E 1 +G berechnen.
Z
f E 1 +G (z) =
R
Z
=
R
p(z − y)g (z)d y
λe −λ(z−y) 1R≥0 (z − y)
λa a−1 −λy
y
e
1R≥0 (y)d y
Γ(a)
Z
λa+1 −λz z a−1
y
dy
=
e
Γ(a)
0
λa+1 −λz z a
=
e
1R (z)
Γ(a)
a ≥0
λa+1 a −λz
z e
1R≥0 (z).
=
Γ(a + 1)
f E 1 +G ist also die Dichte der Verteilung Gamma(a + 1, λ).
146. Mittelwertvergleich bei Gamma-Verteilungen. Seien X 1 , . . . , X n i.i.d. und
Gamma(a, λ1 )-verteilt sowie Y1 , . . . , Yn i.i.d. und Gamma(a, λ2 )-verteilt. Man nehme an,
dass die Vektoren (X 1 , . . . , X n ) und (Y1 , . . . , Yn ) unabhängig sind. Bestimmen Sie die
Verteilung von X̄ /Ȳ .
147. χ2 -Verteilung mit einem Freiheitsgrad.
teilt. Zeigen Sie folgende Aussagen:
Sei X standarisiert normalver-
p
(a) Die Verteilungsfunktion der Zufallsvariable X 2 ist 2 Φ( t ) − 1, wobei Φ die Verteilungsfunktion der standarisierten Normalverteilung bezeichnet.
(b) Die Dichtefunktion von X 2 ist
f (x) =
x
p 1 e− 2
2πx
falls x>0,
0
sonst.
(
148. Dichte der χ2 -Verteilung. Seien X 1 , . . . , X n unabhängige und standardnorP
malverteilte Zufallsvariablen. Dann folgt Y = ni=1 X i2 einer χ2 -Verteilung mit n Freiheitsgraden.
p
(a) Die Verteilungsfunktion von X 12 ist 2Φ( t ) − 1, wobei Φ die Verteilungsfunktion
der Standardnormalverteilung bezeichnet.
(b) Die Dichte von X 12 ist die Gamma( 21 , 12 )-Dichte.
(c) Die Dichte von Y ist die Gamma( n2 , 21 )-Dichte, d.h.
p(x) =
1
2
n
2
Γ( n2 )
x
e− 2 x
n−2
2
1R>0 (x).
1.11. STETIGE ZUFALLSVARIABLEN – TEXTAUFGABEN
67
Lösung. Wir berechnen zunächst die Verteilungsfunktion F von X 1 . Für ein positives
t erhalten wir
¡
¢
F (t ) = P X 2 ≤ t
¡
£ p p ¤¢
= P X ∈ − t, t
Z pt
= p φ(x)d x
− t
p
p
= Φ( t ) − Φ(− t )
p
p
p
= Φ( t ) − (1 − Φ( t )) = 2Φ( t ) − 1.
Das Differenzieren liefert die Dichte f von X 1 , und zwar
p 1
p
¢
∂ ¡
2Φ( t ) − 1 = φ( t ) p
∂t
t
1
1
=p
e − 2 t 1R>0 (t )
2πt
1
− 12 − 12 t
=p
t
e
1R>0 (t ).
2Γ( 21 )
Dies ist die Gamma( 21 , 12 )-Dichte. Der Additionstheorem für Gamma-verteilte Zufallsvariablen mit gleichem Skalenparameter λ liefert die Dichte der χ2 -Verteilung mit n
Freiheitsgraden.
1.11
Stetige Zufallsvariablen – Textaufgaben
149. Widerstände. Ein Automat produziert Widerstände, deren Werte erfahrungsgemäß Realisierungen einer normalverteilten Zufallsvariable mit µ = 1000 Ω und
σ = 20 Ω sind. Widerstände außerhalb der Toleranzgrenzen von 960 Ω und 1050 Ω
gelten als Ausschuss.
(a) Wie viele von 950 Widerständen sind im Mittel Ausschuss?
(b) Der Anteil der Widerstände mit einem Wert größer aus 1050 Ω soll auf durchschnittlich 0.1% gesenkt werden. Wie groß muss dann µ sein, wenn die mittlere
quadratische Abweichung σ2 unverändert bleibt?
150. Lebensdauer der Glühlampen. Die Lebensdauer einer Glühlampe sei eine
exponentialverteilte Zufallsvariable. Es sei bekannt, dass im Durchschnitt 75% der
Glühlampen eine Mindestbrenndauer von 500 Stunden erreichen. Berechnen Sie
Erwartungswert und Standardabweichung der Lebensdauer.
Lösung. Aus X ∼ Exp(λ) mit P (X > 500) = 0.75 folgt λ = −
p
Var X =
1
λ
log 0.75
500
= 0.0005753641. E X =
= 1738.03
151. Radioaktivität. Eine radioaktive Substanz gebe im Verlauf von 7.5s im Mittel 3.87 α-Teilchen ab. Bestimmen Sie die Wahrscheinlichkeit dafür, dass
(a) diese Substanz während einer Sekunde mindestens ein α-Teilchen emittiert,
(b) zwischen der Emission zweier Teilchen mindestens zwei Sekunden vergehen,
(c) die Zeit zwischen zwei Emissionen zwischen einer und zwei Sekunden liegt.
68
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
Lösung. X t ist Anzahl der Teilchen emmitiert im Laufe von [0, t ]. X t kann als Poisson(µt )k
Verteilung modelliert werden. X t ∼ Poiss(µt ) mit P (X t = k) = k! e −µt . Es gilt E X t =
Var X t = µt . E X 7.5 = 3.87 = 7.5µ impliziert µ = 3.87
7.5 = 0.516.
(a) Wir nutzen die Homogenität der Poisson-Verteilung und berechnen
P (X 1 > 0) = 1 − P (X 1 = 0)
µ0 −µ
e
0!
= 1 − e −0.516 ≈ 0.4030966.
= 1−
(b) Die Zwischenankunftszeiten Ti sind Exponentialverteilt mit dem Parameter µ
und es gilt
P (Ti ≥ 2) = exp(−2 µ) ≈ 0.3562937.
(c) Analog erhalten wir
P (1 ≤ Ti ≤ 2) = e −µ − e −2µ ≈ 0.2406097.
152. Entfernungsmessung. Die Entfernung eines Objekts werde mit Hilfe eines
Längenmessgerätes ermittelt. Dabei sei der gemessene Wert die Realisierung einer
normalverteilten Zufallsvariable mit dem Erwartungswert µ und der Standardabweichung von σ = 40 m . Es sei bekannt, dass bei der Messung kein systematischer Fehler
auftritt. Berechnen Sie die Wahrscheinlichkeit dafür, dass bei einem 2 500 m entfernten
Objekt bei der Messung ein um 60 m bis 80 m zu großes Messergebnis ermittelt wird.
Lösung. Für X ∼ N (2500, 160) berechne
3
P (2500 + 60 ≤ X ≤ 2500 + 80) = P (Z ≤ 2) − P (Z ≤ ). ≈ 0.04405707.
2
153. Ersatzteillieferung. Eine Ersatzteillieferung enthalte eine Kiste Kugellager, zwei Kisten Zahnräder und drei Kisten Schrauben. Die Masse der Kisten
(Bruttogewicht in kg) kann durch unabhängige und normalverteilte Zufallsvariablen
X , Y1 , Y2 , Z1 , Z2 , Z3 mit
X ∼ N (125, 1),
Yi ∼ N (84, 4) (i = 1, 2),
Z j ∼ N (65, 3) ( j = 1, 2, 3)
beschrieben werden.
(a) Berechnen Sie die Wahrscheinlichkeit dafür, dass die Masse einer Ersatzteillieferung größer ist als 500 kg.
(b) Wie viele solcher Ersatzteillieferungen darf man maximal auf einem Lastwagen
laden, wenn die Gesamtmasse aller Ersatzteillieferungen mit einer Wahrscheinlichkeit von mindestens 99% unter 18 Tonnen liegen soll?
1.11. STETIGE ZUFALLSVARIABLEN – TEXTAUFGABEN
69
Lösung.
(a) V := X + Y1 + Y2 + Z1 + Z2 + Z3 ∼ N(488, 18).
P (V ≤ 500) = 0.002338867.
500−488
p
18
≈ 2.8284271, und P (V > 500) = 1 −
(b) Größes n ∈ N für das
µ
¶
18.000 − 488n
P W≤
≥ 0.99
p
18n
gilt, ist n = 36.
154. Grenzverteilungsätze. Cloudrechner. Ein bestimmter Rechnertyp wird
für eine Langzeitrechnung eingesetzt. Es ist bekannt, dass ein unter Volllast arbeitender Rechner innerhalb der Dauer der Berechnung T mit Wahrscheinlichkeit p = 0.006
ausfällt. Für die geplante Rechendauer werden n = 56 Rechner gebraucht. Es wird
angenommen, dass die Rechner unabhängig von einander ausfallen und jeder Rechner
höchstens ein mal ausgetauscht werden muss. Unter Verwendung eines geeigneten
Grenzwertsatzes, beantworten Sie folgende Fragen:
(a) Mit welcher Wahrscheinlichkeit fällt höchstens ein Rechner von den 56 Rechnern
aus?
(b) Wie viele Rechner müssen zusätzlich in der Reserve gehalten werden, damit die
Rechnung mit 99% Wahrscheinlichkeit fertiggestellt werden kann.
Lösung. Dies ist eine Anwendung des Grenzwertsatzes von Poisson. Es gilt np =
0.336 = λ und wegen np ≤ 10 und 1500p = 9 ≤ n hat die Approximation der Anzahl der
Ausfälle Y ∼ Bin(n, p) mit Hilfe der Possionverteilung Poiss(λ) ausreichende Qualität.
(a) Höchstens ein Rechner fällt mit Wahrscheinlichkeit
P (Y ≤ 1) = πλ (0) + πλ (1)
= e −λ (1 + λ) = 0.95473646937025258693
aus.
(b) Wir haben auch P (Y ≤ 2) = 0.99507551444735739085. Es reicht also aus 2 Rechner
in der Reserve zu halten.
155. Grenzverteilungsätze. Schaltkreise. Ein spezieller Schaltkreis sei mit der
Wahrscheinlichkeit p = 0.7 voll funktionsfähig. Berechnen Sie die Wahrscheinlichkeit
dafür, dass in einer gefertigten Serie von 1 000 Schaltkreisen
(a) wenigstens 680 Schaltkreise voll funktionsfähig sind,
(b) die Anzahl der voll funktionsfähigen Schaltkreise mindestens 675 aber höchstens
725 Stück beträgt.
70
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
Lösung. Wir verwenden den Grenzverteilungsatz in der Moivre-Laplace Version.
P
Dazu betrachten wir X 1 , . . . , X 1000 ∼ B (p) und i X i ∼ Bin(1000, p). Dann ist die Zufallsvariable
P
i X i − np
Y =p
np(1 − p)
annähernd normalverteilt. Wir berechnen
Ã
P(
X
X i ≥ 680) = 1 − P
i
!
X
X i < 680
i
ÃP
X i − np
680 − np
= 1−P p
<p
np(1 − p)
np(1 − p)
i
!
= 1 − P (Y < −1.380131) ≈ 0.9162269.
Analog ist
P (675 ≤
X
X i ≤ 725) ≈ 0.9155021.
i
156. Grenzverteilungsätze. Münzen. Eine ideale Münze werde n -mal geworfen.
Berechnen Sie unter Nutzung von Grenzverteilungseigenschaften die Wahrscheinlichkeit dafür, dass
(a) bei 100 Würfen die relative Häufigkeit für das Ereignis “Zahl” um weniger als
0.1 Einheiten von der Wahrscheinlichkeit 0.5 abweicht.
(b) Wie oft müsste man die ideale Münze werfen, um mit mindestens 99%-iger
Sicherheit eine Abweichung der relativen Häufigkeit von der Wahrscheinlichkeit
zu erreichen, die kleiner ist als 0.1 Einheiten.
(c) Lösen Sie die Aufgaben (a) und (b) alternativ mit Hilfe der TschebyscheffUngleichung und vergleichen Sie die Ergebnisse.
Lösung. Die Anwendung des Satzes von Moivre-Laplace liefert
à p
!
¡
¢
nε
P |Hn (A)p| ≤ ε = 2Φ p
− 1 ≈ 0.9544997.
p(1 − p)
Für n = 166 wird gerade die 99% Wahrscheinlichkeit erreicht. Mit Hilfe der Tschbyschffschen Ungleichung erhält man die Abschätzung
Ã
!
1X
1
P |
X i − 0.5| ≤ ε > 1 −
.
n i
4nε2
(1.4)
Für n = 100 und ε = 0.1 die obige Abschätzung gleich 0.8502994. Die 99%-ige Sicherheit
erreichen wir erst bei n = 2500.
157. Grenzverteilungsätze. Kondensatoren. Die Wahrscheinlichkeit dafür, dass
ein Kondensator während der Zeit T ausfällt, betrage 0.5.
(a) Bestimmen Sie die Wahrscheinlichkeit dafür, dass von 100 solchen unabhängig voreinander arbeitenden Kondensatoren mehr als 60 Stück in der Zeit T
ausfallen.
1.12. MEHRDIMENSIONALE VERTEILUNGEN.
71
(b) Wie viele Kondensatoren muss man mindestens in Reserve haben, damit nach
der Zeit T mit einer Wahrscheinlichkeit von mindestens 95% alle ausgefallenen
Kondensatoren ersetzt werden können?
Lösung.
(a) X ∼ B (p), Y = 100
i =1 ∼ Bin(100, 0.5), EY = np , Var Y = np(1−p) = 25. Wende den Grenzwertsatz von Moivre-Laplace da die Fausregel np(1 − p) > 9 erfüllt ist.
P
Ã
!
40 − np
P (Y > 60) = P (Y < 40) ≈ Φ p
= Φ(−2) = 0.02275013.
np(1 − p)
(b) P (Y ≤ x) = 0.95, Φ
¡ x−50 ¢
5
≥ 0.95 liefert x = 59.
158. Grenzverteilungsätze. Schaltgehäuse. Beim Gießen spezieller Schaltgehäuse trete ein Ausschussprozentsatz von 10% auf. Für einen reibungslosen Produktionsverlauf müssen je Gießvorgang (mindestens) 100 brauchbare Gehäuse hergestellt
werden. Wie viel Gehäuse müssen mindestens bei einem Vorgang gegossen werden,
um mit mindestens 99%-iger Sicherheit diese Forderung zu erfüllen?
Lösung. Y ∼
x ≥ 2.326348.
Pn
i =1 X i ,
X i ∼ B (p), p = 1 − 0.1 = 0.9. P (Y ≥ 100) ≥ 0.99. Φ(x) ≥ 0.99, wenn
np − 100
≥ 2.3263
p
np(1 − p)
p
p
n − 2.3263 p(1 − p) n − 100 ≥ 100
p
Φ−1 (0.99) p(1 − p) = 0.6979044
Optimierung liefert n = 108.
TODO: Check this calculation. A student reports n = 119, which is more plausible
than 104.
1.12
Mehrdimensionale Verteilungen.
159. Korrelationskoeffizient. Eigenschaften. Seien X und Y Zufallsvariablen
mit existierenden und endlichen Varianzen σ2X , σ2Y und bezeichne mit ρ X ,Y den Korrelationskoeffizienten von X und Y . Zeigen Sie folgende Aussagen:
(a) Für a > 0, c > 0 und b, d ∈ R gilt
ρ aX +b,cY +d = ρ X ,Y .
Geben Sie eine Interpretation dieser Aussage an.
(b) Für a 6= 0 und b ∈ R gilt
ρ X ,aX +b =
(c) Sei
Z=
a
.
|a|
ρ X ,Y
Y
−
X.
σY
σX
Dann gilt
σ2Z = 1 − ρ 2X ,Y .
72
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
Lösung. Cov(aX + b, cY + b) = ac Cov(X , Y ). Var a X = a 2 Var X .
160. Bivariate Normalverteilung. Maximum. Seien (X , Y ) bivariat normalverteilt mit EX = EY = 0, D2 Y = D2 X = 1 und ρ X Y dem Korrellationskoeffizienten von X
und Y Zeigen Sie, dass
r
E [max {X , Y }] =
1−ρ
π
gilt.
161. Korrelation und Symmetrie. Eine Zufallsvariable X nennen wir symmetrisch, wenn die Verteilungen von X und −X gleich sind. Seien X eine stetige Zufallsvariable mit endlicher Varianz und Y = |X |. Beweisen Sie: Ist X symmetrisch, so sind
X und Y unkorreliert aber nicht unabhängig.
Lösung. Ist X symmetrisch, so sind X + und X − gleichverteilt und Cov(X , |X |) =
D2 X + − D2 X − = 0. Klarerweise sind X und |X | nicht unabhängig.
162. Gleichverteilung auf dem Einheitskreis. Sei (X , Y ) ein Zufallsvektor mit
der (zweidimensionalen) Dichtefunktion
f (x, y) =
(
π−1 ,
falls x 2 + y 2 ≤ 1
sonst.
0,
(a) Berechnen Sie die Randdichten f X (x) und f Y (y), und zeigen Sie, dass dies tatsächlich Dichten sind.
(b) Berechnen Sie die Erwartungswerte E X und EY .
(c) Zeigen Sie, dass die Zufallsvariablen X und Y unkorreliert sind.
(d) Zeigen Sie, dass die Zufallsvariablen X und Y nicht unabhängig sind.
Lösung.
(a) Die Randdichte f X (x) ist gegeben durch
Z
f X (x) =
f (x, y)d y
Z
=
x 2 +y 2 ≤1
Z
=
p
1−x 2
π−1 d y
π
p
− 1−x 2
−1
dy
2p
1 − x 2 1[−1,1] .
π
=
(b) Erwartungswert von X ist demnach
EX =
Z
1
x
−1
2p
1 − x 2d x = 0
π
da wir eine ungerade Funktion bezüglich eines um 0 symmetrischen Intervalls
integrieren.
1.12. MEHRDIMENSIONALE VERTEILUNGEN.
73
(c)
Cov(X , Y ) = E (X − E X ) (Y − EY )
= EX Y
Z 1Z
=
p
1−x 2
p
−1 − 1−x 2
1
Z
=
xπ−1
µ
−1
x yπ−1 d yd x
y2
2
¶
p
1−x 2
dx
p
− 1−x 2
= 0.
Die Zufallsvariablen X und Y sind daher unkorreliert.
⊥ Y folgt f (x, y) = h(x)g (y) für alle (x, y) ∈ R2 . Für x = 1 ergibt sich g (y) ∼ 1 y=0 .
(d) Aus X ⊥
g ist aber keine Dichte. Widerspruch.
163. Gleichverteilung auf der Ellipse. Sei (X , Y ) ein Zufallsvektor mit der (zweidimensionalen) Dichtefunktion
f (x, y) =
¡ ¢2
(
(πab)−1 ,
falls ax
sonst,
0,
+
¡ y ¢2
b
≤1
und reellwertigen Parametern a, b > 0.
(a) Berechnen Sie die Randdichten f X und f Y .
(b) Berechnen Sie die Erwartungswerte E X und EY .
(c) Zeigen Sie, dass die Zufallsvariablen X und Y unkorreliert sind.
Lösung. Die Lösung ist eine einfache Verallgemeinerung der Berechnung für die
Gleichverteilung auf dem Einheitskreis.
(a) Die Randdichte f X (x) ist gegeben durch
Z
f X (x) =
f (x, y)d y
r
³ x ´2
2
=
1−
1[−a,a] (x).
πa
a
(b) Erwartungswert von X ist demnach
EX =
a
Z
−a
x f X (x)d x = 0
da wir eine ungerade Funktion bezüglich eines um 0 symmetrischen Intervalls
integrieren.
(c)
Cov(X , Y ) = E (X − E X ) (Y − EY )
= EX Y
Z bZ
=
=
p
b 1−x 2 /a 2
xy
d yd x
p
−b −b 1−x 2 /a 2 πab
p
µ 2 ¶b 1−x 2 /a 2
Z b
x
y
−b
πab
2
dx
p
−b 1−x 2 /a 2
Die Zufallsvariablen X und Y sind daher unkorreliert.
= 0.
74
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
164. Bedingte Dichten. Ein Rechenbeispiel. Sei (X , Y ) ein Zufallsvektor mit
der Dichtefunktion
(
f (x, y) =
3
5 y(x + y),
falls 0 < x < 2 und 0 < y < 1
sonst.
0,
(a) Bestimmen Sie die Randdichten von X und Y .
(b) Bestimmen Sie die bedingte Dichte f Y |X =x (y), für x ∈ (0, 2).
(c) Zeigen Sie, dass P (Y ≤ 12 | X = 1) = 15 gilt.
Lösung.
(a) Wir berechnen die Randdichten f X und f Y :
Z
f X (x) =
f (x, y)d y
1
3
y(x + y)d y
0 5
Z 1
Z
3 1 2
3
yd y +
y dy
= x
5 0
5 0
µ
¶
3
1
=
x + 1[0,2] (x).
10
5
Z
f Y (y) = f (x, y)d x
Z 2
3
=
y(x + y)d x
5
µ0
¶
¢
6 ¡
= y y + 1 1[0,1] (y).
5
Z
=
(b) Bedingte Dichte f Y |X =x (y) is gegeben durch
f (x, y)
f X (x)
y(x + y)
=
1[0,2] (y).
x/2 + 1/3
f Y | X =x (y) =
(c)
µ
¶ Z 1/2
1
P Y ≤ |X =1 =
f Y | X =1 (y)d y
2
0
Z
6 1/2
1
=
y(1 + y)d y = .
5 0
5
165.
Bivariate Rademacherverteilung. Sei X = (X 1 , X 2 ) ein Zufallsvektor mit
X k ∈ {−1, 1}, k = 1, 2 und
P (X 1 = i , X 2 = j ) = p i j
wobei
µ
p −1,−1
p 1,−1
¶
µ
¶
1 1 3
p −1,1
=
.
p 1,1
8 3 1
1.13. QUANTILE
75
(a) Zeigen Sie dass X 1 und X 2 Rademacherverteilt sind, d.h.
1
P (X k = −1) = P (X k = 1) = .
2
Berechnen Sie dabei die Wahrscheinlichkeitsfunktionen von X 1 und X 2 .
(b) Berechnen Sie den Korrelationskoeffizienten von X 1 und X 2 .
(c) Berechnen Sie die Kovarianzmatrix Σ des Zufallsvektors X.
(d) Sind die Zufallsvariablen X 1 und X 2 stochastisch unabhängig?
Lösung. Wegen E X 1 = E X 2 = 0 gilt
Cov(X 1 , X 2 ) = E X Y
und
P (X 1 X 2 = 1) =
1
4
P (X 1 X 2 = −1) =
6
8
1
EX 1 X 2 = − .
2
Es gilt daher
1
ρ X 1 ,X 2 = − .
2
Die Kovarianzmatrix Σ von X ist demnach
µ
1
Σ= 1
−2
1.13
¶
−1/2
.
1
Quantile
166. Exponentialverteilung. Quantile.
dem Paramter λ > 0 und γ ∈ (0, 1) gegeben.
Seien X ∼ Ex(λ) exponentialverteilt mit
(a) Berechnen Sie das γ-Quantil zur X .
(b) Berechnen Sie den Median von X .
Lösung. Dichte und Verteilungsfunktionen der Exponentialverteilung sind
f (x) = λe −λx 1x≥0
³
´
F (x) = 1 − e −λx 1x≥0 .
Daraus ergibt sich für γ ∈ (0, 1)
¡
¢
1
q γ = F −1 (γ) = − log 1 − γ .
λ
Median ist damit gleich − λ1 log 21 .
76
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
167. Logistische Verteilung. Quantile. Eine Zufallsvariable heißt logistisch verteilt mit den Parametern α ∈ R und β > 0, wenn ihre Dichtefunktion die Gestalt
f (x) =
− x−α
β
e
³
´
− x−α 2
β 1+e β
hat.
(a) Zeigen Sie, dass die Verteilungsfunktion von X durch
1
F (x) =
1+e
− x−α
β
gegeben ist.
(b) Berechnen Sie das γ-Quantil zur X für ein γ ∈ (0, 1).
(c) Berechnen Sie den Median von X .
Lösung. Die Quantilfunktion ist gegeben durch
Q(γ) = α − β log
µ
¶
1
−1 .
γ
Der Median ist Q(0.5) = α.
1.14
Erwartungstreue
Schätzung der Varianz bei bekanntem Erwartungswert. Sei X 1 , . . . , X n ,
n > 1 eine n -elementige Stichprobe mit E X i = µ und Var X i = σ2 > 0 gegeben. Zeigen Sie,
168.
dass die Schätzfunktion
V 2 (X 1 , . . . , X n ) =
n ¡
¢2
1X
Xi − µ
n i =1
erwartungstreu für σ2 ist.
169. Diskrete Gleichverteilung. Erwartungstreuer Schätzer. Seien X 1 , . . . , X k
i.i.d. und diskret gleichverteilt auf {1, . . . , N } mit N > 1. Zeigen Sie, dass der Schätzer
T (X 1 , . . . , X k ) =
k +1
X (k) − 1
k
erwartungstreu für N ist. X (k) bezeichnet dabei das Maximum von {X 1 , . . . , X k }.
170. Log-Normalverteilung. Erwartungstreuer Schätzer.
und log-normalverteilt mit der Dichtefunktion
(
f (x) =
p1 exp
x 2π
³
−
(log x−µ)2
2
´
,
x ≥0
x <0
0,
und dem Parameter µ ∈ R. Zeigen Sie, dass der Schätzer
T (X 1 , . . . , X n ) =
erwartungstreu für µ ist.
n
1X
log X i
n i =1
Seien X 1 , . . . , X n i.i.d.
1.15. EINFACHE SCHÄTZER
77
Lösung. Aus der Definition der Log-Normalverteilung oder durch direktes Berechnen, erhalten wir
EX 1 = µ.
Damit ist T erwartungstreu.
1.15
Einfache Schätzer
171. Einfache Schätzer. Telefonzentrale. In einer Telefonzentrale wurden für
11 aufeinanderfolgende Anrufe die Zeitabstände zwischen zwei Anrufen ermittelt. Es
ergaben sich die folgenden Werte:
38.1
74.1
17.7
17.7
1.2
13.2
22.8
35.7
108.6
20.7
Geben Sie auf der Grundlage dieser Stichprobenwerte je eine Schätzung für den
mittleren Zeitabstand und die mittlere quadratische Abweichung der Zeitabstände
vom Erwartungswert an.
Diskutieren Sie die Eigenschaften dieser Schätzfunktionen.
Lösung. Erwartungstreue Schätzfunktionen für den Erwartungswert und die Varianz sind
X̄ n =
n
1X
Xn
n i =1
S n2 =
n ¡
¢2
1 X
X i − X̄ n .
n − 1 i =1
Für diese Stichprobe gilt
10
X
X i = 349.8
i =1
X̄ n = 34.98
S n2 = 1058.384.
1.16
Konfidenzintervalle
172. Kondensatoren. Konfidenzintervall. Aus einer Lieferung von Kondensatoren wurden n Stück zufällig ausgewählt und folgende Kapazitäten (in µF) festgestellt:
281
221
220
221
219
221
220
218
222
219
(a) Berechnen Sie je eine Schätzung für den Erwartungswert und für die Varianz
der Kapazität.
(b) Berechnen Sie auf der Grundlage dieser Stichprobenergebnisse je ein zweiseitiges Konfidenzintervall für den Mittelwert und die Varianz der Kapazität zum
Konfidenzniveau 1 − α = 0.95. Von welchen Verteilungsvoraussetzungen gehen
Sie dabei aus?
78
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
Lösung.
(a) X̄ n = 226.2 = µ̄, S n2 = 372.1778 = σ̄2 .
(b) Wir nehmen an, dass X ∼ N(µ̄, σ̄2 ) gilt. Für die Berechnung des Konfidenzintervall
für µ bei unbekannter Varianz benutzen wir die Beziehung
X̄ n − µ
∼ t n−1 .
Sn
Daraus folgt
µ
¶
X̄ n − µ p
P −t n−1,1− α2 ≤
n ≤ t n−1,1− α2 = 1 − α.
Sn
Die t n -Verteilung ist symmetrisch – das folgt aus der Konstruktion: Für X ∼ N(0, 1)
und Y ∼ χ2n ist
X
∼ tn .
p
Y /n
Insgesamt bekommen wir
µ
¶
Sn
Sn
P X̄ n − t n−1,1− α2 p ≤ µ ≤ X̄ n + t n−1,1− α2 p = 1 − α.
n
n
Konkret in unserem Fall heißt das
t 9,1− 0.05 = 2.262
2
¡
¢
P µ ∈ [212, 240] = 0.95.
0.95-Konfidenzintervall für die Varianz ist
[176.08, 1057.25] .
173. Krankenversicherung. Konfidenzintervall. Einer Krankenversicherung
seien für eine spezielle Gruppe von 15 Versicherungsnehmern mittlere Kosten in
Höhe von x̄ n = 5 500 EUR bei einer Stichprobenstandardabweichung s n = 1 500 EUR
entstanden.
(a) Geben Sie ein zweiseitiges Konfidenzintervall für die mittleren Kosten zum
Konfidenzniveau 1 − α = 0.95 an.
(b) Die Versicherung habe ihren Tarif unter der Annahme kalkuliert, dass die
mittleren Kosten 5 000 EUR betragen. Diskutieren Sie anhand des erhaltenen
Konfidenzintervalls, ob eine Neukalkulation des Tarifs angezeigt erscheint.
Lösung.
(a) Konfidenzintervall für µ bei unbekannter Varianz ist
µ
¶
Sn
Sn
P X̄ n − t n−1,1− α2 p ≤ µ ≤ X̄ n + t n−1,1− α2 p = 1 − α.
n
n
Konkret heißt das in diesem Fall
¡
¢
P µ ∈ [5500 − 830.6723, 5000 + 830.6723] = 0.95
¡
¢
P µ ∈ [4669.328, 6330.672] = 0.95
(b) 5000 liegt im Konfidenzintervall, es gibt also keinen Grund unruhig zu werden.
1.16. KONFIDENZINTERVALLE
79
174. Qualitätssicherung. Konfidenzintervall. Zur Schätzung des Ausschussanteils eines umfangreichen Lieferpostens werde diesem eine Stichprobe von 200 Teilen
entnommen. Dabei wurden 190 einwandfreie Teile festgestellt.
(a) Geben Sie eine Schätzung für den Ausschussanteil an.
(b) Wie groß kann maximal die Varianz der Schätzung sein?
(c) Berechnen Sie ein Konfidenzintervall für den Ausschussanteil zum Konfidenzniveau 0.95 und interpretieren Sie das Ergebnis.
Lösung.
(a) Es gilt
P200
i =1 X i
∼ B(200, p). Die Schätzung für den Anteil ist die Schätzung für p .
p̂ =
n
1X
Xi
n i =1
1
ist ein Erwartungstreuer Schätzer für p . Für die obige Stichprobe gilt p̂ = 20
.
(b) Varianz von p̂ ist
var p̂ =
1
p(1 − p)
n
Diese wird maximal für p = 12 und beträgt in diesem Fall V?2 = 1/800. Maximale
Standardabweichung ist demnach V? = 201p2 .
(c) Nach dem Satz von Moivre/Laplace gilt
¶
µ
p(1 − p)
.
X̄ n ≈ N p,
n
¡
¢
Die Annahme X̄ n ≈ N p,V? führt zur Vergrößerung des Konfidenzintervalls. Wir
erhalten so
µ
¶
X̄ − p
P z α2 ≤ p
≤ z 1− α2 = 1 − α
V?
³
´
p
p
P X̄ n − V? z 1− α2 ≤ p ≤ X̄ n + V? z 1− α2 = 1 − α
¡
¢
P −0.01929519 ≤ p ≤ 0.1192952 = 0.95.
Nachdem p̂ ≥ 0 gelten muss erhalten wir
¡
¢
P 0 ≤ p ≤ 0.1192952 = 0.95.
Negatives Intervall kommt durch die normale Approximation zustande.
Alternative Lösung. Es kann auch mit Hilfe der Tabelle vorgegangen werden.
Die Grenzen des Konfidenzintervalls sind
s
U = X̄ n − z 1− α2
s
O = X̄ n + z 1− α2
X̄ n (1 − X̄ n )
n
X̄ n (1 − X̄ n )
n
80
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
Mit α = 0.05, z 0.975 = 1.96,
s
X̄ n (1 − X̄ n )
= 0.154
n
ergibt sich
[0.0198, 0.0802]
als Konfidenzintervall für den Ausschussanteilt p .
175. Justierung. Konfidenzintervall. Bei einer Arbeitsstudie wurden folgende
Werte für die Zeitdauer der Justierung eines Gerätes gemessen:
Minuten:
3 4 5 6 8 9
Haeufigkeiten: 2 4 7 12 4 1
(a) Geben Sie erwartungstreue Schätzungen für den Erwartungswert und die Varianz der Zeitdauer an.
(b) Bestimmen Sie ein zweiseitiges Konfidenzintervall zum Konfidenzniveau 1 − α =
0.9 für den Erwartungswert der Zeitdauer.
(c) Ermitteln Sie eine obere Grenze für die Standardabweichung der Zeitdauer, so
dass mit 95%-iger Sicherheit der wahre Wert von σ überdeckt wird.
Geben Sie dabei alle notwendigen Voraussetzungen an.
Lösung.
(a) Erwartungstreue Schätzungen:
Y <- c(3,4,5,6,8,9)
H <- c(2,4,7,12,4,1)
mu <- sum(Y*H)/sum(H)
mu
# 5.666667
s <- sqrt( sum(H*(Y - mu)^2)/(sum(H)-1 ) )
s
# 1.470007
Es ist also X̄ n = 5.666667 und S n = 1.470007.
(b) Unter der Annahme, dass die Justierungen normalverteilt sind erhalten wir ein
(1 − α)-Konfidenzintervall für µ bei unbekannter Varianz:
¡
¢
P U ≤ µ ≤O = 1−α
Sn
U (X 1 , . . . , X n ) = X̄ n − t n−1,1−α/2 p
n
Sn
O(X 1 , . . . , X n ) = X̄ n + t n−1,1−α/2 p .
n
In diesem Fall heißt das:
1.17. TESTS
81
mu - qt(1-alpha/2, 30-1)*s/sqrt(30)
# 5.210646
mu + qt(1-alpha/2, 30-1)*s/sqrt(30)
# 6.122687
(c) Ein Konfidenzintervall für σ2 bei unbekanntem µ erhalten wir aus
µ
¶
(n − 1)S n2
2
2
P χn−1,α/2 ≤
≤ χn−1,1−α = 1 − α
σ2
¡
¢
P U ≤ σ2 ≤ O = 1 − α
U=
O=
(n − 1)S n2
χ2n−1,1−α/2
(n − 1)S n2
χ2n−1,α/2
Einseitiges Konfidenzintervall für σ ist dann


p
n − 1S n 

0, q
.
χ2n−1,α
Für α = 0.05 heißt das konkret
[0, 1.881174] .
1.17
Tests
176. Waschmittel. Test. Bei einem Verbrauchertest für Waschmittel werde auch
die Abfüllmenge kontrolliert. Dabei ergaben sich bei 10 zufällig ausgewählten 5 kg
Packungen einer bestimmten Sorte folgende Abfüllungen (in kg):
4.6
4.95
4.8
4.9
4.75
5.05
4.9
5.1
4.8
4.95
(a) Bestimmen Sie Schätzungen für den Erwartungswert und die Varianz der Abfüllmenge.
(b) Ist auf der Basis dieser Beobachtung die Auffassung vertretbar, dass die Packungen im Mittel weniger Waschmittel als angegeben enthalten?
Lösung.
(a) Erwartungstreue Schätzungen:
X <- c( 4.6, 4.95 , 4.8,
4.9 , 5.1 , 4.8 , 4.95
mean(X)
# 4.88
var(X)
# 0.02177778
4.9 , 4.75,
)
5.05 ,
82
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
Es ist also X̄ n = 4.88 und S n2 = 0.02177778.
(b) Wir testen
H0 : µ ≥ µ0 gegen H1 : µ < µ0
mit µ0 = 5 und verwenden die Teststatistik
T=
X̄ n − µ0 p
n ∼ t n−1 .
Sn
Als kritischer Bereich ergibt sich K α = (−∞, −t n−1,1−α ). Für α = 0.05 und n = 9 erhalten wir zum Beispiel K 0.05 = (−∞, −1.833113). Ebenso K 0.01 = (−∞, −2.821438). Der
Wert der Teststatistik T ist −2.439471. Die Nullhypothese wird also mit Irtumswahrscheinlichkeit α = 0.05 verworfen, kann aber bei α = 0.01 nicht verworfen
werden.
177. Messgerät. Test. Die Genauigkeit eines Messgerätes verschlechtere sich im
Laufe der Zeit infolge von Abnutzungserscheinungen. Das Messgerät gelte als brauchbar, solange die Varianz σ2 des Messfehlers einen Wert von 10−4 nicht überschreitet.
Darf man bei einer zugelassenen Irrtumswahrscheinlichkeit α = 0.05 auf die
Brauchbarkeit des Messgerätes schließen, wenn aus 25 Kontrollwerten für die Varianz
eine Schätzung s 2 = 0.65 · 10−4 ermittelt werde?
Lösung. Wir wollen auf Brauchbarkeit des Geräts schließen, daher testen wir
H0 : σ2 ≥ σ20
gegen
H1 : σ2 < σ20
mit σ20 = 10−4 . Der Kritische Bereich ist
(
K= T=
(n − 1)S n2
σ20
)
< χ2n−1,α
.
Der Wert der Teststatistik ist T = 15.6. Dabei ist χ2n−1,α = 13.84843. Die Nullhypothese
kann also nich verworfen werden.
178. Entfernungsmessung. Konfidenzintervall und Test. Beim Messen der
Entfernung zwischen zwei Punkten sei der Messwert die Realisierung einer N (µ, σ2 )verteilten Zufallsvariable. Aus 20 Messungen einer bestimmten Entfernung ergaben
sich die folgenden Schätzwerte:
x̄ = 327.0 m,
s 2 = 17.3 m2 .
(a) Bestimmen Sie ein 99%-iges Konfidenzintervall für den Erwartungswert.
(b) Geben Sie ein einseitiges nach oben beschränktes Konfidenzintervall für σ zum
Konfidenzniveau 1 − α = 0.95 an.
(c) Lässt sich bei einer zugelassenen Irrtumswahrscheinlichkeit von 5% die Aussage
µ > 320 m rechtfertigen?
(d) Darf man bei einer zugelassenen Irrtumswahrscheinlichkeit α = 0.05 auf die
Brauchbarkeit des Messgerätes schließen, wenn als Kriterium für die Tauglichkeit die Forderung σ < 5.0 m dient?
1.17. TESTS
83
Lösung.
(a) Ein zweiseitiges 99%-Konfidenzintervall erhalten wir aus
Sn
U = X̄ n − t n−1,1−α/2 p = 324.3987
n
Sn
O = X̄ n + t n−1,1−α/2 p = 329.6013
n
(b) Einseitiges 95%-Konfidenzinvervall für σ2 ist

0, (n − 1)

S n2
χ2n−1,1− α
 = [0, 32.48983] .
2
(c) µ > 320 rechtfertigen heißt µ ≤ 320 verwerfen, also
H0 : µ ≤ 320
Teststatistik:
T=
gegen
H1 : µ > 320
X̄ n − µ0 p
n = 8.414823
Sn
Kritischer Bereich:
©
ª
K = T > t n−1,1−α = [1.729133, ∞].
(d) Wir wollen auf die Brauchbarkeit des Geräts schliessen und test
H0 : σ2 ≥ σ20
gegen
H1 : σ2 < σ20
mit σ20 = 25. Teststatistik:
T = (n − 1)
S n2
σ20
= 13.148
Kritischer Bereich:
©
ª
K = T < χ2n−1,α = 10.11701
Die Nullhypothese wird also nicht verworfen.
179. Erneuerbare Energien. Test. In einer einfachen Analyse des Strommarktes wird davon ausgegangen, dass die täglich von Solar- und Windgeneratoren zwischen 12 und 13 Uhr erzeugte Energie in den Monaten Juni, Juli und August (92
Tage) die Realisierung einer normalverteilten Zufallsvariable X ∼ N (µ, σ2 ) ist. Es wird
angenommen, dass die Standardabweichung σ bekannt ist und beträgt σ = 5.5GW . Ein
Analyst hat für die 92 Beobachtungen x 1 , . . . , x 92 folgendes ausgerechnet:
92
X
x i = 1802.142.
i =1
(a) Geben Sie eine erwartungstreue Schätzung für den Erwartungswert µ der erzeugten Energie.
(b) Lässt sich anhand dieser Beobachtung die Hypothese µ ≤ 19 mit Irrtumswahrscheinlichkeit α = 0.1 ablehnen?
84
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
Lösung.
(a) µ̂ = 19.5885.
X̄ −µ
p
(b) Wir testen H0 : µ ≤ 19 gegen H1 : µ > 19. Die Teststatistik ist T = nσ 0 n = 1.026308.
Der kritische Bereich ist K = [z 1−α , ∞) = [1.281552, ∞). H0 kann nicht abgelehnt
werden.
180. Test. Trendvergleich bei Funds. Zur Analyse der Performance zweier
Funds werden die Kursveränderungen über den Zeitraum von einem Jahr (250 Busi(1)
(2)
nesstage) analysiert. Aus den Beobachtungen x 1(1) , . . . , x 250
und x 1(2) , . . . , x 250
wurden
folgende Kennzahlen ermittelt:
250
X
i =1
x i(1) = 29.96,
250
X
i =1
x i(2) = 32.97
Es wird angenommen, dass die Kursveränderungen normalverteilt sind, d.h. X (1) ∼
N (µ1 , σ21 ) und X (2) ∼ N (µ2 , σ22 ), und dass die Varianzen σ2(1) = 0.5 und
σ2(2) = 0.55 betragen.
(a) Geben Sie je eine erwartungstreue Schätzung für die Erwartungswerte µ1 und
µ2 .
(b) Lässt sich anhand dieser Beobachtung die Hypothese µ1 = µ2 mit der Irrtumswahrscheinlichkeit α = 0.05 ablehnen?
Lösung.
(a) µˆ1 = 0.1198547, µˆ2 = 0.1318836.
(b) Teststatistik:
X̄ (1) − X̄ (2)
T=q
= −0.1856103.
(2)
2
σ(1) /n + σ(2) /n
Kritischer Bereich ist |T | ≥ z 1−α/2 = 1.96. Die Nullhypothese kann nicht abgelehnt
werden.
R source code:
> mu1=0.1; mu2=0.13;
> s21=0.5; s22=0.55;
> X1 = rnorm(250, mu1, sqrt(s21))
> X2 = rnorm(250, mu2, sqrt(s22))
> sum(X1); sum(X2);
[1] 29.96367
[1] 32.9709
> mean(X1); mean(X2)
[1] 0.1198547
[1] 0.1318836
> n=250
> T = (mean(X1)-mean(X2) )/sqrt( s21/n + s22/n )
> T
1.17. TESTS
85
[1] -0.1856103
> qnorm( 0.975)
[1] 1.959964
181. Konfidenzintervall und Test. Normalverteilung. Beim Messen der Entfernung zwischen zwei Punkten sei der Messwert die Realisierung einer N(µ, σ2 )verteilten Zufallsvariable. Aus 20 Messungen einer bestimmten Entfernung ergaben
sich die folgenden Schätzwerte:
x̄ = 327.3 m,
s 2 = 17.3 m 2 .
(a) Bestimmen Sie ein 99%-iges Konfidenzintervall für den Erwartungswert.
(b) Geben Sie ein einseitiges nach oben beschränktes Konfidenzintervall für σ zum
Konfidenzniveau 1 − α = 0.95.
(c) Lässt sich bei einer zugelassenen Irrtumswahrscheinlichkeit von 5% die Aussage
µ > 320 m rechtfertigen?
(d) Darf man bei einer zugelassenen Irrtumswahrscheinlichkeit α = 0.05 auf die
Brauchbarkeit des Messgerätes schließen, wenn als Kriterium für die Tauglichkeit die Forderung σ < 5.0 m dient?
182. Analyse des Zuckerpreises. Es seien folgende 41 monatliche Beobachtungen x 1 , . . . , x 41 des internationalen Zuckerpreises aus dem Zeitraum von Januar 2011
bis Mai 2014 (quotiert in US-Cent pro Pfund) gegeben:
29.74
23.42
18.34
17.61
29.31 25.90 23.90 21.84 24.92 29.47 28.87 26.64 26.30 24.52 23.42 24.02
23.79 22.48 20.27 20.10 22.76 20.56 20.21 20.39 19.31 19.20 18.85 18.21
17.66 17.43 16.96 17.10 17.24 17.62 18.81 17.75 16.54 15.71 16.89 17.87
17.50
Wir nehmen an, dass diese Beobachtungen Realisierungen einer normalverteilten
Zufallsvariable X ∼ N(µ, σ2 ) sind. Darüberhinaus gilt
41
X
i =1
x i = 869.40
41
X
i =1
x i2 = 19090.47.
(a) Geben Sie je eine erwartungstreue Schätzfunktion für den Mittelwert µ und für
die Varianz σ2 der Zufallsgröße an. Erklären Sie in diesem Zusammenhang den
Begriff der Erwartungstreue einer Schätzfunktion.
(b) Bestimmen Sie ein Konfidenzintervall [0, σ̄] für die Standardabweichung σ zum
Konfidenzniveau 1 − α = 0.95.
(c) Lässt sich anhand dieser Beobachtungen mit einer zugelassenen Irrtumswahrscheinlichkeit von 10% die Behauptung widerlegen, dass der durchschnittliche
Zuckerpreis in diesem Zeitraum unter 18 Cent pro Pfund lag?
86
KAPITEL 1. WAHRSCHEINLICHKEITSRECHNUNG
Lösung.
(a)
n
1X
X i = 21.2048.
n i =1
n ¡
¢2
1 X
X i − X̄ n
S n2 =
n − 1 i =1
(
Ã
!2 )
n
n
X
1
1 X
2
=
X −
Xi
n − 1 i =1 i n i =1
X̄ n =
= 16.3737.
(b)
v
u
p
u
S n2
σ̄ = t(n − 1) 2
= 24.7066 = 4.9705.
χn−1,α
(c) Wir testen H0 : µ ≤ 18 gegen H1 : µ > 18. Die Testfunktion und der kritische Bereich
sind
X̄ n − µ0 p
n = 5.0714,
Sn
¡
¢
K = t n−1,1−α , +∞ = (1.303, +∞).
T=
Nachdem die Bedingung T ∈ K erfüllt ist, kann H0 abgelehnt werden.
183. Analyse des Kaffeebohnenpreises. In einer einfachen Analyse wird der
Preis des Kaffees der Sorte „Robusta“, quotiert in US-Cent pro Pfund durch International Coffee Organization, auf einen Aufwärtstrend untersucht. Für die 51 Monatsbeobachtungen r 1 , . . . , r 51 der Preisänderungen berechnet ein Analyst die Kenngrößen
51
X
r i = 34, 83,
i =1
51
X
i =1
r i2 = 1225, 01.
Es wird angenommen, dass die Kursveränderungen die Realisierungen einer normalverteilten Zufallsvariable X ∼ N(µ, σ2 ) sind.
(a) Geben Sie je eine erwartungstreue Schätzfunktion für den Mittelwert µ und
für die Varianz σ2 der Kursveränderungen an. Berechnen Sie dafür aus der
Stichprobe Schätzwerte im Sinne von Punktschätzungen.
(b) Der Analyst behauptet µ > 0 und gibt eine Kaufempfehlung aus. Lässt sich diese
Aussage anhand der Beobachtungen mit einer zugelassenen Irrtumswahrscheinlichkeit von 5 % rechtfertigen, d. h. muss man die Hypothese H0 : µ ≤ 0 mit dieser
Irrtumswahrscheinlichkeit ablehnen?
Lösung.
(a) X̄ = 0.6829578849, S¯2 = 24.02442243.
(b) Wir testen H0 : µ ≤ 0 vs. H1 : µ > 0. Da σ2 unbekannt ist, ist die Teststatistik
©
ª
p
gegeben durch T = pX̄ n2 n und der kritische Bereich des Tests lautet T ≥ t n−1,1−α
S̄ n
mit α = 0.05. In unserem Fall gilt T = 6.966865879 und t n−1,1−α = t 50,0.95 = 1.676.
Somit kann H0 abgelehnt werden.
1.17. TESTS
87
184. Aktie im Bachelier-Modell. Die Kursveränderungen einer Aktie eines börsennotierten Unternehmens werden über den Zeitraum von 3 Wochen (15 Börsentage)
analysiert. Die beobachteten Werte x 1 , . . . , x 15 waren:
-1.10 -1.52 0.25 1.65 -0.90 2.70 1.34 -1.26 0.22
-0.49 1.59 -0.47 3.62 1.89 0.36
Ein Analyst berechnete daraus
15
X
15
X
x i = 7.86,
i =1
i =1
x i2 = 37.62.
Es wird angenommen, dass die Kursveränderungen die Realisierungen einer normalverteilten Zufallsvariable X ∼ N(µ, σ2 ) sind.
(a) Geben Sie je eine erwartungstreue Schätzfunktion für den Mittelwert µ und
für die Varianz σ2 der Kursveränderungen an. Berechnen Sie dafür aus der
Stichprobe Schätzwerte im Sinne von Punktschätzungen.
(b) Bestimmen Sie ein einseitiges Konfidenzintervall [0, σ] für die Standardabweichung σ zum Konfidenzniveau 1 − α = 0.9, d.h. bestimmen Sie die Zahl σ > 0.
(c) Ein Analyst behauptet µ > 0 und gibt eine Kaufempfehlung aus. Lässt sich diese
Aussage anhand der Beobachtungen mit einer zugelassenen Irrtumswahrscheinlichkeit von 5% rechtfertigen, d.h. muss man die Hypothese H0 : µ ≤ 0 mit dieser
Irrtumswahrscheinlichkeit ablehnen ?
Lösung.
(a) Erwartungstreue Schätzer sind
X̄ n =
n
1X
Xi ,
n i =1
S n2 =
n ¡
¢2
1 X
X i − X̄ n .
n − 1 i =1
Daraus ergibt sich
X̄ n = 0.524
Ã
!
n
X
¡
¢
1
2
S n2 =
X 2 − n X̄ n
n − 1 i =1 i
"
Ã
!2 #
n
n
X
X
1
1
X2−
Xi
= 2.392954.
=
n − 1 i =1 i n i =1
(b)
σ̄ = (n − 1)
S n2
χ2n−1,α
= 4.300817.
(c) Wir testen H0 : µ ≤ µ0 gegen H1 : µ > µ0 mit µ0 = 0. Der Wert der Teststatistik ist
X̄ n − µ0 p
n = 1.311927.
Sn
©
ª
Der kritische Bereich ist T > t n−1,1−α = {T > 1.76131}. Die Nullhypothese wird
T=
nicht verworfen.
K APITEL
2
Wahrscheinlichkeitstheorie
185. Konvergenz einer Zufallsreihe. Sei X 1 ∼ Uni(0, 1), X 2 ∼ Uni(0, X 1 ), und allgemein X n ∼ Uni(0, X n−1 ) für alle n ∈ N.
(a) Zeigen Sie, dass die Reihe S = ∞
i =1 X i fast sicher konvergent ist, das heißt die
Zufallsgröße S existiert und fast sicher endlich ist.
P
(b) Angenommen X n hat eine stetige Verteilung P n mit dem Träger [0, X n ]. Welche
Bedingungen muss P n erfüllen, damit die Reihe S in obigem Sinner konvergiert?
Lösung.
Die bedingte
Dichte von X n gegenen X n−1 = x n−1 ist Uni(0, x n−1 ). Es gilt also
£
¤
E X n = E E X n |X n1 = 2−1 E X n1 = 2−n .
186. Kurtosis. Eigenschaften. Seien X 1 , . . . , X n unabhängige Zufallsvariablen mit
existierenden Kurtosis γ2 (X i ) und Var X 1 = · · · = Var X n . Zeigen Sie folgende Aussagen:
(a) γ2 (X 1 ) ≥ 1.
(b) γ2 (X 1 + · · · + X n ) = n −1 γ2 (X 1 ) + · · · + γ2 (X n ) .
¡
¢
187. Ordnungsstatistiken. Eigenschaften. Seien X 1 , . . . , X n identisch verteilte
stochastisch unabhängige Zufallsgrößen
mit der
Dichtefunktion f (x) und Verteilungs¡
¢
funktion F (x). Der Zufallsvektor X (1) , . . . , X (n) enthält aufsteigend geordnete Zufallsgrößen X 1 , . . . , X n . Zeigen Sie folgende Aussagen:
¡
¢
(a) Die gemeinsame Dichtefunktion von dem Zufallsvektor X (1) , . . . , X (n) ist
g (x 1 , . . . , x n ) =
(
n! f (x 1 ) . . . f (x n ),
0,
falls x 1 < · · · < x n
sonst.
(b) Die Dichtefunktion von X (k) ist
à !
n
f (k) (y) = k
f (y)(1 − F (y))n−k F (y)k−1 .
k
(c) Die Dichtefunktion von (X (i ) , X ( j ) ) für i 6= j ist
( n!F (x)i −1 [F (y)−F (x)] j −i −1 [1−F (y)]n− j f (x) f (y)
g i , j (x, y) =
(i −1)!( j −i −1)!(n− j )!
,
x<y
sonst.
0,
89
90
KAPITEL 2. WAHRSCHEINLICHKEITSTHEORIE
Lösung.
(a) Ein fixer Punkt des Trägers von g ist ein Bild von n! Punkten in Rn unter der
Abbildung (x 1 , . . . , x n ) 7→ (x (1) , . . . , x (n) ).
(b) Die Verteilungsfunktion von X (k) is gegeben durch
à !
¡
¢n−k
n
P (X (k) < x) = F k (y) =
(F (y))k 1 − F (y)
k
©
ª
wobei F die Verteilungsfunktion von X 1 ist. Damit X (k) < x eintritt mussen k
Komponenten die kleiner als x gewählt werden und der Rest größer oder gleich
x.
188. Symmetrische Zufallsvariablen und L p Ungleichungen. X und Y seien
unabhängige Zufallsvariablen. X sei symmetrisch, d.h. X und −X sind gleichverteilt.
Dann gilt
EkX kp ≤ EkX + Y kp .
(2.1)
Gilt die obige Ungleichung, wenn X und Y nicht unabhängig sind oder wenn X nicht
symmetrisch verteilt ist?
189. Dichtefunktionen.
Scheffés Identitäten. Seien f und g Dichtefunktionen
©
ª
und A = x : f (x) > g (x) . Zeigen Sie folgende Identitäten:
(a)
Z
Z
R
©
ª
max f (x) − g (x), 0 d x
ZR
Z
= 2 f (x)d x − 2 g (x)d x.
| f (x) − g (x)|d x = 2
A
A
(b)
¯Z
¯
Z
Z
¯
¯ 1
sup ¯¯ f (x)d x − g (x)d x ¯¯ =
| f (x) − g (x)|d x.
2 R
B
B ∈B(R) B
190. Selbstunabhängigkeit. Sei X eine Zufallvariable. X ist von X unabhängig,
genau dann wenn P (X = c) = 1 für eine Konstante c gilt.
191. Eine Darstellung des Erwartungswertes.
riable mit E X < ∞.
Sei X eine positive Zufallsva-
(a) Ist X ∈ N diskret, so gilt
X
EX =
P (X > n).
(2.2)
P (X > λ)d λ.
(2.3)
n∈N
(b) Ist X reellwertig, so gilt
∞
Z
EX =
0
(c) Ist X reellwertig und E X p < ∞ für ein p > 0, so gilt
p
EX =
∞
Z
0
pλp−1 P (X > λ)d λ.
(2.4)
91
Lösung. Das ist eine Anwendung des Satzes von Fubini.
192. Erwartungstreue einfacher Schätzer. Seien X 1 , . . . , X n i.i.d. mit dem Erwartungswert µ und endlicher Varianz σ2 . Der arithmetische Mittelwert von X =
(X 1 , · · · , X n ) ist definiert als
X̄ =
n
1X
Xi .
n i =1
Die Stichprobenvarianz ist definiert durch
s 2 (X ) :=
n
1 X
(X i − X̄ )2 .
n − 1 i =1
Zeigen Sie:
(a) Der Mittelwert X̄ ist ein erwartungstreuer Schätzer für den Erwartungswert µ,
d.h.
E X̄ = µ.
(b) Der Schätzer
η(X ) =
n ¡
¢2
1X
Xi − µ
n i =1
ist erwartungstreu für σ2 . Es gilt also Eη(X ) = σ2 .
(c) Die Stichprobenvarianz ist ein erwartungstreuer Schätzer für σ2 .
Lösung. Die Erwartungstreue der ersten beiden Schätzer ist leicht zu zeigen.
"
#
n
n
1X
1X
E X̄ = E
Xi =
EX i = µ
n i =1
n i =1
"
#
n
n
n
1X
1X
1X
Eη(X ) = E
(X i − µ)2 =
E(X i − µ)2 =
σ2 = σ2 .
n i =1
n i =1
n i =1
Um den Erwartungswert der Stichprobenvarianz zu zeigen, berechnen wir
E(n − 1)s 2 (X ) = E
=E
n ¡
X
i =1
n ¡
X
X i − X̄
¢2
X i − µ + µ − X̄
¢2
i =1
"
=E
n
X
i =1
#
(X i − µ)2 + 2(X i − µ)(µ − X̄ ) + (µ − X̄ )2 .
92
KAPITEL 2. WAHRSCHEINLICHKEITSTHEORIE
Für die obigen Summanden gilt
"
E
n
X
E(X i − µ)2 = σ2
#
(X i − µ)(µ − X̄ ) = −n E( X̄ − µ)2
i =1
!2
n
1X
E( X̄ − µ) = E
Xi − µ
n i =1
1 X
= 2 E(X i − µ)(X j − µ)
n i,j
Ã
2
=
"
E
n
X
n
1 X
σ2
σ2 =
2
n i =1
n
#
(X i − µ)(µ − X̄ ) = −σ2 .
i =1
Wir erhalten also
E(n − 1)s 2 (X ) = (n − 1)σ2
und daraus
Es 2 (X ) = σ2 .
193. Faltungsformel. Haben X und Y die Dichten p X und p Y und beide sind
unabhängig, so ist die Dichte von der Summe Z = X + Y gegeben durch
Z
p Z (z) =
R
p X (x)p Y (z − x)d x.
194. Abzählbare Familien disjunkter Mengen. Sei ein Wahrscheinlichkeitsraum (Ω, A , P ) und eine Familie (A i )i ∈I mit A i ∈ A und P (A i ) > 0∀i gegeben. Dann ist I
höchstens abzählbar.
Lösung. Sortiere die Menge der Größe nach.
2.1
Bedingte Erwartungen
195. Bedingte Erwartungen. II. Seien (X i )i ≥1 i.i.d. und integrierbar. Definieren
P
wir S n = ni=1 X i . Dann gilt:
P
(a) E X j ¯ S n = n1 ni=1 X i für 1 ≤ j ≤ n .
£
¯
¤
Lösung.
(a) Es gilt
¯
#
¯X
n
n
X
¯
E
Xi ¯
Xi =
Xi
¯ i =1
i =1
i =1
"
und
n
X
¯ #
¯
n
X
¯
E
Xi ¯ Sn =
E [X i | S n ] = n E [X 1 | S n ] .
¯
i =1
i =1
"
n
X
2.1. BEDINGTE ERWARTUNGEN
93
Daraus folgt
E [X 1 | S n ] = E [X i | S n ] =
n
1X
Xi
n i =1
für alle 1 ≤ i ≤ n .
196. Zusammengesetzte Poissonverteilung. Momentenerzeugende Funktion und Momente. Sei N Poissonverteilt mit dem Parameter λ > 0 und (X i )i ≥1 i.i.d.
Zufallsvariablen mit existierender momentenerzeugender Funktion ψ X . Die Zufallsvariablen N , X 1 , X 2 , · · · sind alle unabhängig und es gilt
λn
, n ∈ N.
n!
P (N = n) = e −λ
Sei
Y =
N
X
Xi
i =1
wobei wir auf {N = 0} Y = 0 setzen. Zeigen Sie folgende Aussagen.
(a) Die momentenerzeugende Funktion ψY von Y ist
¡ ¡
¢¢
ψY (u) = E exp (uY ) = exp λ ψ X (u) − 1 .
(b) Für die ersten zwei Momente gelten die Formeln
Var Y = EN E X 12 .
EY = EN E X 1 = λE X 1
Lösung. Wir berechnen die momentenerzeugende Funktion von Y .
ψY (u) = E exp (uY )
Ã
!
N
X
= E exp u
Xi
i =1
" "
Ã
= E E exp u
N
X
!
##
X i |N
i =1
"
=
X
Ã
E exp u
n≥0
n
X
!#
Xi
P (N = n)
i =1
X ¡ uX ¢n −λ λn
Ee 1 e
n!
n≥0
¡
¢n
X −λ λψ X (u)
=
e
n!
n≥0
¡ ¡
¢¢
= exp λ ψ X (u) − 1 .
=
Den Erwartungswert und die Varianz erhalten wir aus
∂
ψY = ψY (u)λψ0X (u)
∂u¯
¯
∂
ψY ¯¯
= EN E X = λE X
∂u
u=0
h
i
¡ 0
¢2
∂2
∂
0
00
ψ
=
λψ
(u)ψ
(u)
=
λ
λψ
(u)
ψ
(u)
+
ψ
(u)ψ
(u)
Y
Y
Y
Y
X
X
X
∂u 2
∂u
¯
2
¯
£
¤
∂
ψY ¯¯
= λ λ (E X )2 + E X 2
2
∂u
u=0
£
¤
Var Y = λ λ (E X )2 + E X 2 − λ2 (E X )2 = λE X 2 .
94
KAPITEL 2. WAHRSCHEINLICHKEITSTHEORIE
197. Bedingte Erwartungen. Turmeigenschaft. Gegenbeispiel. Sei X eine
integrierbare Zufallsvariable und H , G seien Sub-σ-Algebren von A . Zeigen Sie durch
ein Beispiel, dass
E [E [X |G ] |H ] 6= E [E [X |H ] |G ]
gelten kann.
Lösung. Betrachten wir Ω = {1, 2, 3}, A = 2Ω die Potenzmenge von Ω, H = σ ({1, 2})
und G = σ ({2, 3}) sowie P (i ) = 13 für alle i ∈ Ω. Berechnen wir die obigen bedingten
Erwartungen für X : Ω → N, i 7→ 2i .
E [X |H ] =
=
E [E [X |H ] |G ] =
E [X |G ] =
=
E [E [X |G ] |H ] =
=
X (1) + X (2)
1{1,2} + X (3) 1{3}
2
3{1,2} + 8{3}
3+8
3{1} +
1{2,3}
2
X (2) + X (3)
X (1) 1{1} +
1{2,3}
2
2{1} + 6{2,3}
2+6
1{1,2} + 6{3}
2
4{1,2} + 6{3} .
Dabei bezeichnet 4{1,2} eine Funktion, die den Elementen 1 und 2 den Wert 4 zuordnet
und allen anderen den Wert 0.
198. Bedingte Erwartungen. Turmeigenschaft. Sei X eine integrierbare Zufallsvariable und H eine Sub-σ-Algebra von der σ-Algebra G mit H ⊂ G ⊂ A . Zeigen
Sie
(a) E [E [X |G ] |H ] = E [X |H ].
(b) E [E [X |H ] |G ] = E [X |H ].
Lösung. Wir zeigen zunächst E [E [X |H ] |G ] = E [X |H ]. Nach Definition des bedingten
Erwartungswertes ist E [X |H ] H -messbar und daher G -messbar. So bekommen wir
E [E [X |H ] |G ] = E [X |H ] E [1|G ] = E [X |H ] .
Nun kommen wir zu E [E [X |G ] |H ] = E [X |H ]. Dies gilt genau dann wenn
E {X 1 A } = E {E [E [X |G ] |H ] 1 A }
∀A ∈ H .
Sei Y = E [X |G ] eine G -messbare Zufallsvariable und A ∈ H . Die Indikatorfunktion 1 A
ist H -messbar und daher G -messbar. Wir berechnen
E {E [E [X |G ] |H ] 1 A } = E {E [Y |H ] 1 A }
= E {Y 1 A }
= E {E [X |G ] 1 A }
= E {X 1 A } .
Daher ist nach Definition des bedingten Erwartungswertes
E [E [X |G ] |H ] = E [X |H ] .
2.1. BEDINGTE ERWARTUNGEN
95
199. Bedingte Varianz. Seien X , Y reelle Zufallsvariable mit E X 2 < ∞. Die
bedingte Varianz einer Zufallsvariablen X gegeben Y ist definiert durch
£
¤
£
¤
Var [X |Y ] = E (X − E [X |Y ])2 |Y .
Dann gelten
(a)
Var (X ) = Var (E [X |Y ]) + E [Var [X |Y ]] .
(b)
£
¤
Var (X |Y ) = E X 2 |Y − (E [X |Y ])2 .
Lösung. Die Behauptung ist äquivalent zu
© ª
©
ª
© £
¤ª
E X 2 − E {X }2 = E E [X |Y ]2 − E {E [X |Y ]}2 + E E (X − E [X |Y ])2 |Y .
Wir kürzen den Term E {X }2 und erhalten
© ª
©
ª
©
ª
E X 2 = E E [X |Y ]2 + E X 2 − 2X E [X |Y ] + E [X |Y ]2
Diese Gleichung gilt genau dann wenn
©
ª
E {2X E [X |Y ]} = 2E E [X |Y ]2 .
Die Turmeigenschaft liefert uns aber
E {X E [X |Y ]} = E {E [X E [X |Y ] |Y ]}
= E {E [X |Y ] E [X |Y ]}
©
ª
= E E [X |Y ]2 .
200. Bedingte Erwartungen. Einfache Eigenschaften. Sei X eine integrierbare Zufallsvariable und G ⊂ A eine Sub-σ-Algebra. Zeigen Sie die folgenden Aussagen.
(a) E [X |X ] = X P -f.s.
(b) Falls |X | ≤ c f.s., dann |E [X | G ] | ≤ c f.s.
(c) Falls X = α f.s. für α ∈ R, dann gilt E [X |G ] = α f.s.
Lösung.
(a) Nach Definition ist E [X |X ] = E [X |σ (X )] und da X ja σ (X )-messbar ist, erhalten
wir
E [X |σ (X )] = X E [1|σ (X )] = X .
Wir können diese Aussage auch anders beweisen. Z = E X |X gilt genau dann,
wenn Z ∈ σ(X ) und E Z g (X ) = E X g (X ) für alle beschänkte Borelfunktionen g
gilt. Würde nicht Z = X fast sicher gelten, so wäre Λ = {Z < X } oder Λ = {Z > X }
σ(X )-messbar und keine Nullmenge. Dann wäre aber E Z 1Λ 6= E X 1Λ .
(b) Wir beweisen X ≤ c f.s. ⇒ E X |G ≤ c f.s. Nach Definition ist Z = E X |G genau dann,
wenn E X Y = E Z Y für alle beschränkte1 Y ∈ G . Nachdem Λ = {Z > c} ∈ G ist und
E X 1Λ = E Z 1Λ , es muss P (Λ) = 0 gelten. Nun ist |X | ≤ c f.s. genau dann, wenn X ≤ c
und X ≥ −c f.s. gilt.
(c) X = α f.s. genau dann, wenn X ≤ α und X ≥ α f.s. gilt.
1 Dies bedeutet, dass Y eine beschränkte G -messbare Zufallsvariable ist
96
KAPITEL 2. WAHRSCHEINLICHKEITSTHEORIE
201. Turmeigenschaft der bedingten Erwartung. Sei ein Wahrscheinlichkeitsraum (Ω, P, A ), eine integrierbare Zufallsvariable X und G , H sub-σ-Algebren von A
gegeben. Es gilt H ⊂ G ⊂ A . Y ist bedingte Erwartung von X bezüglich A , notiert als
Y = E [X |A ], genau dann wenn E1 A Y = E1 A X für alle A ∈ A gilt.
(a) Zeigen Sie E [E [X |H ] |G ] = E [X |H ] P -fast sicher.
(b) Zeigen Sie E [E [X |G ] |H ] = E [X |H ] P -fast sicher.
Lösung. Wir zeigen zunächst E [E [X |H ] |G ] = E [X |H ]. Nach Definition des bedingten
Erwartungswertes ist E [X |H ] H -messbar und daher G -messbar. So bekommen wir
E [E [X |H ] |G ] = E [X |H ] E [1|G ] = E [X |H ] .
(2.5)
Nun kommen wir zu E [E [X |G ] |H ] = E [X |H ]. Dies gilt genau dann wenn
E {X 1 A } = E {E [E [X |G ] |H ] 1 A }
∀A ∈ H .
(2.6)
Sei Y = E [X |G ] eine G -messbare Zufallsvariable und A ∈ H . Die Indikatorfunktion 1 A
ist H -messbar und daher G -messbar. Wir berechnen
E {E [E [X |G ] |H ] 1 A } = E {E [Y |H ] 1 A }
(2.7)
= E {E [Y 1 A |H ]}
(2.8)
= E {Y 1 A }
(2.9)
= E {E [X |G ] 1 A }
(2.10)
= E {E [X 1 A |G ]} = E {X 1 A } .
(2.11)
Daher ist nach Definition des bedingten Erwartungswertes
E [E [X |G ] |H ] = E [X |H ] .
(2.12)
202. Bedingte Erwartungen und Normalverteilung. Seien X und Y unabhängige standardnormalverteilte Zufallsvariablen. Berechnen Sie E [X | X + Y ].
203. Bedingte Erwartungen. Exponentialverteilung.
und exponentialverteilt. Berechnen Sie:
Seien X , Y unabhängig
(a) E [Y | Y ∧ t ].
(b) E [X ∧ Y | X ].
2.2
Stochastische Prozesse
204. Poissonprozess. Charakteristische Funktion. Sei N ein Poissonprozess
mit dem Parameter λ > 0 gegeben. N is also ein Lévy Prozess mit den Werten in N und
P (N t = n) = e −λt
(λt )n
.
n!
(a) Die charakteristische Funktion von N t ist
³ ³
´´
ψt (u) = E exp i uN t = exp λt e i u − 1 .
(b) Die charakteristische Funktion des kompensierten Poissonprozesses Ñ t = N t − λt
ist
³ ³
´´
ψ̃t (u) = E exp i u Ñ t = exp λt e i t − 1 − i u .
2.2. STOCHASTISCHE PROZESSE
97
Lösung. Eine einfache Rechnung liefert
E exp i uN t =
X
exp (i un) P (N t = n)
n≥0
=
X
exp (i un) e −λt
n≥0
(λt )n
n!
³ ³
´´
= exp λt e i u − 1 .
Nachdem e i uλt die charakteristische Funktion des Dirac-masses an λt ist, erhalten
wir
³ ³
´´
ψ̃t (u) = E exp (i uN t ) = exp λt e i u − 1 − i u .
205. Zusammengesetzter Poissonprocess. Charakteristische Funktion. Sei
X ein zusammengesetzter Poissonprozess mit dem Parameter λ > 0 und der Sprungverteilung ν auf Rd mit ν({0}) = 0.
(a) Die charakteristische Funktion von X t ist gegeben durch
µ Z
¶
iuy
ψt (u) = exp λt e
− 1 ν(d y) .
(b) Die charakteristische Funktion von dem kompensierten zusammengesetzten
Poissonprozess X̃ t = X t − E X t ist gegeben durch
µ Z
¶
iuy
ψ̃t (u) = exp λt e
− 1 − i u y ν(d y) .
Lösung. Bei der Berechnung benutzen wir die Eigenschaften der bedingten Erwartung.
ψt (u) = E exp i uX t
"
Ã
!¯
#
¯
¯
= EE exp i u
Yi ¯ (N s )s∈[0,t ]
¯
i =1
µZ
¶n
X
=
e i ux ν(d x) P (N t = n)
Nt
X
Rd
n≥0
¶n
(λt )n
n!
n≥0
µ Z
¶
= exp λt e i ux − 1 ν(d x) .
=
µ
X Z
e i ux ν(d x)
e −λt
Wir brauchen nur noch den Erwartungswert von X t zu berechnen.
EX t =
X
µZ
n
n≥0
Z
¶
Rd
=
x ν(d x)
= λt
Z
x ν(d x) e −λt
X
n≥0
ne −λt
(λt )n
n!
(λt )n
n!
x ν(d x).
Insgesamt erhalten wir
µ Z
ψ̃t (u) = exp λt
Rd
¶
e i ux − 1 − i ux ν(d x) .
98
206.
KAPITEL 2. WAHRSCHEINLICHKEITSTHEORIE
Ornstein-Uhlenbeck SDE. Lösen Sie die SDE
¡
¢
d X t = α − βX t d t + σdWt ,
X 0 ∈ R.
(2.13)
Die Parameter α, β und σ sind reelle Zahlen und σ > 0.
(a) Zeigen Sie mit Hilfe der Funktion f (t , x) = x exp(βt ) und der Itô-Formel, dass
Xt = e
−βt
´
α³
X0 +
1 − e −βt + σ
β
t
Z
0
e β(s−t ) dWs .
(2.14)
(b) Leiten Sie aus der von Ihnen gefundenen Lösung die Identitäten
EX t
Var X t
= e −βt X 0 +
=
´
α³
1 − e −βt
β
´
σ2 ³
1 − e −2βt
2β
(2.15)
(2.16)
her.
(c) Zeigen Sie, dass X t normalverteilt ist.
Lösung. Die
Lösung ergibt sich durch die Anwendung der Itô-Formel auf die FunkR
tion f . Da g (s)dWs für progressiv meßbares g ein Martingal ist, erhalten wir E X t
direkt aus der Lösung. Die Formel für die Varianz folgt mit Hilfe der Itô-Isometrie.
K APITEL
3
Mathematische Statistik
3.1
Identifizierbarkeit
207. Identifizierbarkeit im linearen Modell.
Modell gegeben sei:
p
X
Yi =
z i j β j + εi ,
Man nehme an, dass folgendes
i = 1, . . . , n.
j =1
Hierbei seien z 11 , . . . , z np bekante Konstanten und ε1 , . . . , εn i.i.d. mit ε1 ∼ N (0, 1).
(a) Zeigen Sie, dass β1 , . . . , βp genau dann identifizierbar ist, falls z1 , . . . , zp linear
¡
¢>
unabhängig sind, wobei z j = z 1 j , . . . , z n j .
¡
¢
(b) Begründen Sie, warum β1 , . . . , βp nicht identifizierbar ist, falls n < p .
¡
¢
Lösung. Seien Y ¡= (Y¢1 , · · · , Yn )> und ε = (ε1 , · · · , εn )> Zufallsvektoren in
Rn . Die kon¡
¢>
stante Matrix Z = z i j i j liegt in Rn×p und der Parametervektor β = β1 , · · · , βp in
Rp . Somit ist Θ = Rp . Das Model ist genau dann identifizierbar, wenn verschiedene
¡
¢
Vektoren β, verschiedene Zufallsvariablen Y (β) induzieren. Sind die Spalten z1 , · · · , zp
linear unabhängig, so hat die Matrix Z vollen Rang und die Multiplikation mit Z ist
eine Bijektion. In diesem Fall ist das Model identifizierbar.
Wenn p > n kann die Matrix Z nicht vollen Rang haben. In diesem Fall ist die
Multiplikation mit Z keine Bijektion und es gibt β, β̃ ∈ Rp mit β 6= β̃ und Z β = Z β̃. Das
Model ist nicht identifizierbar.
3.2
Suffizienz
208. Suffizienz. Invariante Transformationen. Sei P = p(x, θ) : θ ∈ Θ ein reguläres statistisches Modell, X ∼ P , die Statistiken T (X ) und S(X ) mit T = η(S) und
einer messbaren Abbildung η gegeben. Zeigen Sie: Falls T (X ) suffizient für θ ist so ist
auch S(X ) suffizient für θ .
©
Lösung. T ist suffizient, so folgt
p θ (x) = g (T (x), θ)h(x)
= g (η(S(x)), θ)h(x).
Somit ist S ebenfalls suffizient.
99
ª
100
KAPITEL 3. MATHEMATISCHE STATISTIK
209. Qualitätskontrolle. Es sei eine LKW-Ladung mit N Fernsehgeräten gegeben,
wovon N θ defekt sind. Es werden N Fernseher (ohne Zurücklegen) überprüft. Man
definiere
(
1 i -ter überprüfter Fernseher ist defekt
Xi =
0 sonst.
(a) Zeigen Sie ohne Verwendung des Faktorisierungstheorems, dass
ent für θ ist.
(b) Zeigen Sie mit Hilfe des Faktorisierungstheorems, dass
ist.
210. Inverse Gamma-Verteilung. Suffizienz.
sei invers Gamma-verteilt mit der Dichte
p α,β (x) =
Pn
i =1 X i
Pn
i =1 X i
suffizi-
suffizient für θ
Eine i.i.d.-Stichprobe X 1 , . . . , X n
¶
µ
βα −(α+1)
β
x
exp − 1R>0 (x)
Γ (α)
x
Finden Sie eine zweidimensionale suffiziente Statistik für α und β.
211.
te
Beta-Verteilung. Suffizienz.
p a,b =
Seien X 1 , · · · , X n i.i.d. Beta-verteilt mit der Dich-
1
x a−1 (1 − x)b−1 1[0,1] (x)
B (a, b)
und den Parametern a > 0 und b > 0. Dabei ist B (a, b) = Γ(a)Γ(b)
Γ(a+b) .
(a) a sei fix und bekannt. Finden Sie eine suffiziente Statistik für b .
(b) Finden Sie eine zweidimensionale suffiziente Statistik für (a, b).
212. Pareto-Verteilung. Suffizienz.
Dichte
p θ (x) =
Seien X 1 , . . . , X n i.i.d. Paretoverteilt mit der
θa θ
x θ+1
1R>a (x),
wobei θ > 0 und a fix und bekannt sei. Finden Sie eine reellwertige suffiziente Statistik
T (X 1 , . . . , X n ) für θ .
213. Poisson-Verteilung. Suffizienz. Seien X 1 , · · · , X n i.i.d. Poisson-verteilt mit
dem Parameter λ > 0 und der Wahrscheinlichkeitsfunktion
P (X 1 = k) =
e −λ λk
,
k!
k ∈ {0, 1, 2, · · · } .
Zeigen Sie ohne Verwendung des Faktorisierungstheorems, dass
T (X ) =
n
X
i =1
suffizient für λ ist.
Xi
3.2. SUFFIZIENZ
101
214. Suffizienz. Beispiele. Seien X 1 , . . . , X n i.i.d. mit jeweils folgender Dichte. Finden Sie in allen Fällen eine reellwertige suffiziente Statistik T für θ basierend auf der
Beobachtung von (X 1 , · · · , X n ).
(a) X 1 ist nichtzentral doppelt exponentialverteilt mit der Dichte
¶
µ
1
−|x − µ|
p θ (x) =
,
exp
2θ
θ
wobei θ > 0 und µ bekannt sei.
(b) X 1 ist gleichverteilt auf dem Intervall (−θ, θ) mit der Dichte
p θ (x) =
1
1(−θ,θ) (x),
2θ
wobei θ > 0.
(c) X 1 ist invers Gamma-verteilt mit der Dichte
µ
¶
β
βα −(α+1)
exp − 1R>0 (x),
x
p θ (x) =
Γ(α)
x
wobei θ = (α, β) und α, β > 0.
Lösung. Wir stellen die gemeinsame Dichte p θ (x 1 , · · · , x n ) von (X 1 , · · · , X n ) in der Form
p θ (x 1 , · · · , x n ) = g (T (x 1 , · · · , x n ), θ)h(x 1 , · · · , x n )
für geeignete Funktionen g und h dar und wenden den Faktorisierungssatz an.
(a)
p θ (x 1 , · · · , x n ) =
n
Y
p θ (x i )
i =1
Ã
!
n
1
1X
=
exp −
|x i − µ| .
(2θ)n
θ i =1
Somit ist
T (x 1 , · · · , x n ) =
n
X
|x i − µ|
i =1
g (x, µ) =
µ
¶
1
1
x
.
exp
−
(2θ)n
θ
(b)
n 1
Y
1(−θ,θ) (x)
i =1 2θ
µ ¶n
1
=
1(−θ,θ) (max {|x 1 |, · · · , |x n |}).
2θ
p θ (x 1 , · · · , x n ) =
Somit ist T (x 1 , · · · , x n ) = max {|x 1 |, · · · , |x n |}.
102
KAPITEL 3. MATHEMATISCHE STATISTIK
(c)
µ
¶
n βα
Y
β
−(α+1)
p θ (x 1 , · · · , x n ) =
xi
exp −
1R>0 (x i )
xi
i =1 Γ(α)
Ã
!
µ α ¶n à n !−(α+1)
n 1
X
Y
β
exp −β
1Rn>0 (x 1 , · · · , x n ).
xi
=
Γ(α)
i =1 x i
i =1
Wir erhalten
Ã
!
n 1
X
xi ,
T (x 1 , · · · , x n ) =
i =1 x i
i =1
µ α ¶n
¡
¢
β
g (y, z, θ) =
y −(α+1) exp −βz
Γ(α)
n
Y
h(x 1 , · · · , x n ) = 1Rn>0 (x 1 , · · · , x n ).
215. Nichtzentrale Exponentialverteilung. Suffizienz. Seien X 1 , . . . , X n i.i.d.
mit der Dichte
³
´
p θ (x) =
1
x −µ
exp −
1R≥µ (x)
σ
σ
sowie θ = (µ, σ)> und Θ = R × R>0 .
(a) Zeigen Sie, dass min(X 1 , . . . , X n ) eine suffiziente Statistik für µ ist, falls σ bekannt
ist.
(b) Finden Sie eine eindimensionale, suffiziente Statistik für σ, falls µ bekannt ist.
(c) Finden Sie eine zweidimensionale suffiziente Statistik für θ an.
Lösung.
(a) Sei σ > 0 fix und bekannt.
³ x −µ´
n 1
Y
i
exp −
1R≥µ (x i )
σ
σ
i =1
Ã
!
n
1
1X
nµ
= n exp −
xi +
1R≥µ (min {x 1 , · · · , x n })
σ
σ i =1
σ
Ã
!
³ nµ ´
n
1X
−1
1Rn≥µ (min {x 1 , · · · , x n }) exp −
xi .
= σ exp
σ
σ i =1
|
{z
}|
{z
}
p θ (x 1 , · · · , x n ) =
=g
=h
Somit ist T (X ) = min {x 1 , · · · , x n } eine suffiziente Statistik für µ.
(b) Sei nun umgekehrt µ bekannt und fix. Mit derselben Methode erhalten wir
Ã
!
n
X
1
p θ (x 1 , · · · , x n ) = σ−1 exp −
(x i − µ) 1Rn≥µ (x 1 , · · · , x n )
σ i =1
T (x 1 , · · · , x n ) =
n
X
i =1
(x i − µ).
3.3. EXPONENTIELLE FAMILIEN
103
(c) Eine zweidimensionale suffiziente Statistik für θ = (µ, θ) erhalten wir aus
p θ (x 1 , · · · , x n ) = σ−1
n
Y
xi
e− σ e
i =1
nµ
σ
1Rn≥µ (min {x 1 , · · · , x n })
³ Pn ´σ−1 nµ
= σ−1 e − i =1 xi
e σ 1Rn≥µ (min {x 1 , · · · , x n })
³
´
Pn
T (x 1 , · · · , x n ) = min {x 1 , · · · , x n } , e − i =1 xi ∈ Θ = R × R>0 .
3.3
Exponentielle Familien
216. Exponentielle Familie mit einer unvollständigen natürlichen Statistik. Finde ein Gegenbeispiel um die Notendigkeit der Bedingung c(Θ) offen zu illustrieren.
217. Beta-Verteilung als exponentielle Familie. Sei X eine Beta-verteilte Zufallsvariable mit der Dichte
p a,b =
1
x a−1 (1 − x)b−1 1[0,1] (x)
B (a, b)
und den Parametern a > 0 und b > 0. Zeigen Sie, dass p (a,b) zu einer zweiparametrigen
exponentiellen Familie gehört.
Lösung. Die Dichte der Beta-Verteilung lässt sich in der Form
p (a,b) =
¡
¢
1
exp (a − 1) log x + (b − 1) log(1 − x) 1[0,1] (x)
B (a, b)
schreiben. Das ist eine exponentielle Familie mit
c(a, b) = (a − 1, b − 1)
¡
¢>
T (x) = log x, log(1 − x)
d = − log B (a, b)
S =0
A = [0, 1].
218. Gamma-Momente und exponentielle Familien. Sei X Gamma-verteilt
mit den Parametern a, λ > 0 und der Dichte
p a,λ (x) =
λa a−1 −λx
x
e
1R≥0 (x).
Γ(a)
Zeigen Sie, dass
EX =
a
λ
Var X =
a
λ2
gilt, indem Sie die Dichte p a,λ bei fixiertem a als einparametrige natürliche exponentielle Familie darstellen und d0 ableiten.
104
KAPITEL 3. MATHEMATISCHE STATISTIK
219. Poisson-Momente und exponentielle Familien. Sei X Poisson-verteilt
mit dem Parameter λ > 0 und der Wahrscheinlichkeitsfunktion
p λ (k) = P (X = k) =
e −λ λk
,
k!
k ∈ {0, 1, · · · } .
Zeigen Sie, dass
EX = λ
Var X = λ
gilt, indem Sie die Wahrscheinlichkeitsfunktion p λ als einparametrige natürliche
exponentielle Familie darstellen und d0 ableiten.
Lösung. Wir schreiben p λ in exponentieller Form
p λ (k) =
¡
¢
e −λ λk
= exp k log λ − λ − log k!
k!
auf. Dabei ist T (k) = k , c(λ) = log λ, d (λ) = −λ, S(k) = − log k!. Wir setzen nun η = log λ und
schreiben die Dichte p η (k) als natürliche exponentielle Familie
¡
¢
p η (k) = exp ηk − e η − log k! .
Dabei ist d0 (η) = −e η . Nun erhalten wir
ET (X ) = E X = −d 00 (η) = e η = λ
Var T (X ) = Var X = −d 000 (η) = e η = λ.
220. Laplace-Verteilung ist keine exponentielle Familie. Für jedes θ ∈ R sei
eine Dichte
p θ (x) =
1
exp (−|x − θ|) ,
2
x ∈R
gegeben. Sei P θ das zur Dichte p θ gehörige Wahrscheinlichkeitsmaß. Zeigen Sie, dass
{P θ : θ ∈ Θ} keine exponentielle Familie ist.
Lösung. Angenommen P θ gehört zu einer einparametrigen exponentiellen Famile.
Dann hat die Dichte p θ eine Darstellung
p θ (x) = exp (c(θ)T (x) + d (θ)) h(x).
Das ist äquivalent zu
1
exp (−|x − θ|) = exp (c(θ)T (x) + d (θ)) h(x)
2
und
−|x − θ| = c(θ)T (x) + d (θ) + S(x)
für alle x, θ ∈ R. Wir wählen θ1 , θ2 ∈ R und θ1 6= θ2 . Dann gilt
−|x − θ1 | + |x − θ2 | = (c(θ1 ) − c(θ2 )) T (x) + d (θ1 ) − d (θ2 ).
Daraus folgt T (x) ist differenzierbar für alle x ∈ R \ {θ1 , θ2 }. Eine andere Wahl von θ1
und θ2 liefert die Differenzierbarkeit von T (x) auf ganz R. Widerspruch.
3.3. EXPONENTIELLE FAMILIEN
105
221. Verteilung der natürlichen suffizienten Statistik.
riable mit den Werten in (Rn , B(Rn )) und der Dichte
Sei X eine Zufallsva-
p(x, θ) = exp (c(θ) · T (x) + d (θ) + S(x)) 1 A (x),
die einer einparametrigen exponentiellen Familie {P θ : θ ∈ Θ} mit stetigem T angehört.
Zeigen Sie, dass die Dichte der natürlichen suffizienten Statistik T (X ) die Form
¡
¢
q(t , θ) = exp c(θ) · t + d (θ) + S ∗ (t ) 1 A ∗ (t )
mit A ∗ = {T (x) : x ∈ A} hat.
222. Cauchy-Verteilung ist keine exponentielle Familie. Sei eine Familie
von Cauchy-Verteilungen {P θ : θ ∈ R} mit den zugehörigen Dichten
p θ (x) =
1
£
¤
π 1 + (x − θ)2
gegeben. Zeigen Sie, dass die Familie {P θ : θ ∈ R} keine exponentielle Familie ist.
Lösung. Nehmen wir an Cauchy-Vereilung ist eine expoentielle Familie. Dann gibt
es eine Darstellung
p θ (x) =
1
£
¤ = exp (c(θ)T (x) + d (θ)) h(x).
π 1 + (x − θ)2
(3.1)
TODO: Finish it!
223. Mixtures of Normal Verteilungen sind keine exponentielle Familien.
Sei eine Familie von Verteilungen (P µ )µ∈R durch
Pµ =
¢
1¡
N (µ, 1) + N (µ, 2)
2
gegeben. Die Verteilungen P µ sind Mischungen von Normalverteilungen. Zeigen Sie,
dass (P µ )µ keine exponentielle Familie ist.
224. Weibull-Verteilung als exponentielle Familie. Sei X Weibull-verteilt mit
der Dichte
p a,λ =
a a−1 − x
x
e λ 1R>0 (x)
λ
und den Parametern a, λ > 0. Zeigen Sie folgende Aussagen.
(a) Ist a > 0 bekannt und fix, so ist (p λ )λ>0 eine exponentielle Familie.
(b) Die Familie (p a,λ )a,λ>0 ist keine exponentielle Familie.
106
KAPITEL 3. MATHEMATISCHE STATISTIK
225. Invers-Gauß-Verteilung als exponentielle Familie. Seien X 1 , . . . , X n i.i.d.
Invers-Gauß-verteilte Zufallsvariablen gegeben. D.h. die Dichte von X i ist
s
¶
µ
λ −3
−λ(x − µ)2
1R>0 (x)
x 2 exp
2π
2µ2 x
wobei µ > 0, λ > 0 und µ bekannt und fix sei.
(a) Zeigen Sie, dass die von dem Zufallsvektor (X 1 , . . . , X n ) erzeugte Familie von
Verteilungen {P λ : λ > 0} eine exponentielle Familie ist, indem Sie die gemeinsame
Dichte des Vektors (X 1 , . . . , X n ) in die Form
p λ (x) = exp (c(λ)T (x) + d (λ) + S(x)) 1 A (x)
bringen. Geben Sie dabei explizit c, T, d , S und A an.
(b) Zeigen Sie mit Hilfe des Faktorisierungssatzes, dass die Statistik T (X ) suffizient
ist.
Lösung. Die gemeinsame Dichte von X 1 , · · · , X n lässt sich in folgender Form darstellen.


s
µ
¶
3
λ x2 1

+
+ log x − 2 + log
exp −
2
2 µ
x
λ
+ λµ 1R>0 (x).
2π
226. Invers-Gamma-Verteilung als exponentielle Familie. Seien X 1 , . . . , X n i.i.d.
Invers-Gamma-verteilte Zufallsvariablen gegeben. D.h. die Dichte von X i ist
f a (x) =
λa −a−1 − λ
x
e x 1R≥0 (x),
Γ(a)
wobei a > 0 unbekannt und λ > 0 bekannt und fix sei.
(a) Zeigen Sie, dass die von dem Zufallsvektor (X 1 , . . . , X n ) erzeugte Familie von
Verteilungen {P a : a > 0} eine exponentielle Familie ist, indem Sie die gemeinsame
Dichte des Vektors (X 1 , . . . , X n ) in die Form
p a (x) = exp (c(a)T (x) + d (a) + S(x)) 1 A (x)
bringen. Geben Sie dabei explizit c, T, d , S und A an.
(b) Zeigen Sie mit Hilfe des Faktorisierungssatzes, dass die Statistik T (X ) suffizient
ist.
Lösung.
(a) Die gemeinsame Dichte von (X 1 , . . . , X n ) ist
p a (x 1 , . . . , x n ) =
Y λa −a−1 − λ
xi
e xi 1R≥0 (x i ).
i Γ(a)
Die Darstellung als exponentielle Familie ist
Ã
exp (−a − 1)
X
i
!
X 1
λna
log x i + log
−λ
1Rn≥0 (x 1 , . . . , x n ).
Γ(a)n
i xi
3.3. EXPONENTIELLE FAMILIEN
107
Dabei ist
c(a) = −a − 1
X
T (X ) =
log X i
i
λna
Γ(a)n
X 1
S(x) = −λ
i xi
d (a) = log
A
= Rn≥0 .
(b) T (X ) ist suffizient, denn die Dichte lässt sich in der Form g (T (x), a)h(x) darstellen.
Ebenso ist T (X ) in jeder exponentiellen Familie eine suffiziente Statistik.
227. Lévy-Verteilung als exponentielle Familie. Die Dichte der Lévy-Verteilung
mit den Parametern (µ, σ) ∈ Θ = R × R>0 ist
r
p (µ,σ) (x) =
¶
µ
σ
σ
− 32
1R≥µ (x).
(x − µ) exp −
2π
2(x − µ)
Zeigen Sie folgende Aussagen.
(a) Sei X ∼ N (0, σ1 ) normalverteilt mit σ > 0. Die Zufallsvariable
mit den Parametern (0, σ).
1
X2
ist Lévy-verteilt
(b) Wenn µ = 0 festgehalten wird, ist die Familie (p (0,σ) )σ>0 eine exponentielle Familie.
(c) Die Familie (p µ,σ )(µ,σ)∈Θ ist keine (zweiparametrige) exponentielle Familie.
Lösung.
(a) Für ein y > 0 gilt
µ
P
Die Dichte von
1
X2
¶
¡
¢
1
≤
y
= P 1 ≤ yX2
2
X
!
Ãs
1
≤ |X |
=P
y
µ
µ
¶¶
1
= 2 1−P X < p
y
Ã
Ãs !!
σ
= 2 1−Φ
.
y
erhalten wir durchs Differenzieren:
Ãs !
µ
¶
¶
µ
∂
1
σ p
1 −3
P
≤ y = −2φ
σ − y 2
∂y
X2
y
2
r
µ
¶
3
σ
σ
=
exp −
y−2 .
2π
2y
Daher ist
1
X2
∼ Lévy(σ).
108
KAPITEL 3. MATHEMATISCHE STATISTIK
(b) Für µ = 0 lässt sich die Dichte der Lévy-Verteilung in der Form
µ
¶
σ 3
1
σ
p 0,σ (y) = exp −
− log y + log
1R≥0 (y)
2y 2
2
2π
darstellen.
(c) Im allgemeinen Fall ist der Träger der Dichte p µ,σ von µ abhängig und daher
kann p µ,σ keine exponentielle Familie sein.
3.4
Momentenmethode
228. Stetige Gleichverteilung. Momentenschätzer. Seien X 1 , · · · , X n i.i.d. stetig gleichverteilt auf dem Intervall [0, θ] mit θ > 0. Die Dichte von X i ist also
p θ (x) =
1
1[0,θ] (x).
θ
(a) Berechnen Sie einen Momentenschätzer für θ basierend auf dem ersten Moment
von X i .
(b) Berechnen Sie einen Momentenschätzer für θ basierend auf dem k -ten Moment
von X i .
Lösung. Wir berechnen zunächst alle Momente der stetigen Gleichverteilung.
k
1
x k 1[0,θ] (x)d x
θ
R
Z
θk
1 θ k
x dx =
.
=
θ 0
k +1
EX =
Indem wir m̂k =
Pn
k
i =1 X i
Z
setzen, erhalten wir
m̂ k =
θ̂ k
k +1
1
θ̂ = ((k + 1)m̂ k ) k .
Insbesondere ist der auf dem ersten Moment basierende Schätzer gegeben durch
θ̂ =
n
2X
Xi .
n i =1
229. Dreiecksverteilung. Momentenschätzer. Gegeben seien i.i.d. Zufallsvariablen X 1 , . . . , X n mit der Dichte
·
¸
1 |x|
Λa (x) =
−
1[−a,a] (x)
a a2
und dem unbekannten Parameter a > 0.
(a) Zeigen Sie, dass die geraden Momente von X 1 durch die Formel
E X 1n
= 2a
n
µ
1
1
−
n +1 n +2
¶
gegeben sind und alle ungeraden Momente verschwinden.
(b) Geben Sie einen Momentenschätzer für den Parameter a an.
3.4. MOMENTENMETHODE
109
Lösung.
(a) Die Momente ergeben sich aus
E X 1n
Z
=
a
µ
−a
¶
1 |x| n
−
x d x.
a a2
Für gerade n ist E X 1n = 0. Für ungerade n erhalten wir
aµ1
¶
x
xn
a a2
0
2 1
2 1
=
a n+1 − 2
a n+2
a n+
1
a
n
+
2
µ
¶
1
1
n
= 2a
−
.
n +1 n +2
E X 1n = 2
Z
−
p
2
(b) Aus E X 12 = a6 ergibt sich ein Momentenschätzer für a in der Form â = 6m2 mit
P
m 2 = i X i2 .
230. Momentenschätzer. Beispiele. Bestimmen Sie mittels der Momentenmethode einen Momentenschätzer für θ bei den folgenden Verteilungen:
(a) Die Gleichverteilung mit Dichte
p θ (x) =
¡ ¢−1
Der Schätzer ist θ̂ = X̄
1
1(−θ,θ) (x),
2θ
θ>0
.
(b) Die Gamma-Verteilung mit der Dichte
p θ (x) =
231.
te
βα α−1 −βx
x
e
1R>0 (x)
Γ(β)
Weibull-Verteilung. Momentenschätzer.
s
p(x) =
Seien X 1 , . . . , X n i.i.d. mit der Dich-
µ
¶
2θ 3 2
θ 2
x exp − x 1R>0 (x)
π
2
wobei der Parameter θ > 0 unbekannt ist. Berechnen Sie den Momentenschätzer für θ
basierend auf dem zweiten Moment.
232. Momentenschätzung vs Suffizienz. Betrachten Sie die Verteilungsfamilie
von zweiseitigen Exponentialverteilungen gegeben durch die Dichte
p θ (x) =
1
exp (−|x − θ|) ,
2
θ∈R
(a) Zeigen Sie mit dem ersten Moment, dass X̄ ein Momentenschätzer für θ ist.
(b) Weisen Sie nach, dass dieser nicht suffizient für θ ist.
110
KAPITEL 3. MATHEMATISCHE STATISTIK
Lösung. Wir berechnen zunächst den Erwartungswert der zweiseitigen Exponentialverteilung. Es gilt
1
x exp (−|x − θ|) d x
R 2
Z
1
=
(x + θ) exp(−|x|)d x
2 R
Z
Z
1
θ
=
x exp (−|x|) d x +
exp (−|x|) d x
2 R
2 R
Z ∞
=θ
exp (−x) d x = θ.
EX =
Z
0
Daher erhalten wir θ̂ = X̄ .
Nun werden wir zeigen, dass X̄ nicht suffizient für θ ist. Wäre X̄ suffizient für θ ,
so würde nach dem Faktorisierungssatz die Darstellbarkeit
!
1X
x i , θ h(x 1 , · · · , x n )
p θ (x 1 , · · · , x n ) = g
n i
Ã
folgen. Die Funktion
Ã
!
n
X
1
p θ (x 1 , · · · , x n ) = n exp − |x i − θ|
2
i =1
ist positiv, so können wir den Quotienten
p θ1 (x 1 , · · · , x n )
p θ2 (x 1 , · · · , x n )
Ã
= exp −
n
X
|x i − θ1 | +
i =1
n
X
!
|x i − θ2 | =
i =1
g (x̄, θ1 )
.
g (x̄, θ2 )
für θ1 6= θ2 bilden und diesen logarithmieren:
¶
g (x̄, θ1 )
= G(x̄, θ1 , θ2 ).
− |x i − θ1 | +
|x i − θ2 | = log
g (x̄, θ2 )
i =1
i =1
n
X
n
X
µ
Sei nun n = 2, x 1 + x 2 = 0 und θ1 = 0, θ2 = 1. Dann gilt x 2 = −x 1 und G(x̄, θ1 , θ2 ) = G(0, 0, 1)
ist konstant aber
−
n
X
i =1
|x i − θ1 | +
n
X
|x i − θ2 | = −|x 1 | − |x 1 | + |x 1 − 1| + | − x 1 − 1|
i =1
= −2|x 1 | + |x 1 − 1| + |x 1 + 1|
ist keine konstante Funktion von x 1 . Widerspruch.
AR1. Die Zufallsvariablen Z1 , . . . , Zn seien i.i.d. mit Z1 ∼ N (0, σ2 ). Die Zeitreihe
(X i )1≤i ≤n heißt autoregressiv der Ordnung 1 oder AR (1), falls mit X 0 := µ und für 1 ≤ i ≤ n
233.
X i = µ + β(X i −1 − µ) + Zi .
(a) Verwenden Sie E X i , um einen Momentenschätzer für µ zu finden.
(b) Nun seien µ = µ0 und β = β0 fix und bekannt und weiterhin
X i − µ0
Ui = q
.
Pi −1 2 j
β
j =0 0
Verwenden Sie E(Ui2 ), um einen Momentenschätzer für σ2 zu finden.
3.4. MOMENTENMETHODE
111
234. Exponentialverteilung. Momentenschätzer. Die Zufallsvariablen X 1 , · · · , X n
seien i.i.d. und exponentialverteilt mit Parametern a ∈ R, θ > 0 und der Dichte
p a,θ =
³ x −a´
1
exp −
1R>a (x).
θ
θ
Zeigen Sie die folgenden Aussagen.
(a) Der Erwartungswert, die Varianz und der zweite Moment von X 1 sind gegeben
durch
Var X = θ 2 ,
E X = a + θ,
E X 2 = θ 2 + (a + θ)2 .
(b) Die momentenerzeugende Funktion von X 1 ist
ψa,θ (u) =
e au
1 − θu
für u < θ1 .
(c) Berechnen Sie Momentenschätzer für (a, θ) basierend auf dem ersten und zweiten
Moment von X 1 .
Seien X 1 , · · · , X n i.i.d. Rayleigh-
235. Rayleigh-Verteilung. Momentenschätzer.
verteilt mit der Dichte
µ
¶
p θ (x) =
x2
x
exp − 2 1R>0 (x)
2
θ
2θ
und dem unbekannten Parameter θ > 0.
(a) Beweisen Sie die Formel
E X i2n = 2n θ 2n Γ(n + 1)
für alle n ∈ N.
(b) Finden Sie einen Momentenschätzer für θ basierend auf dem zweiten Moment
von X i .
236. Gamma-Verteilung. Momentenschätzer.
Zufallsvariablen X 1 , . . . , X m mit der Dichte
p a,λ (x) =
Gegeben seien i.i.d. Gamma-verteilte
λa a−1 −λx
x
e
1R≥0 (x)
Γ(a)
und Parametern a > 0 und λ > 0.
(a) Zeigen Sie für ein positives n ∈ N
E X in =
a · . . . · (n + a − 1)
.
λn
Dabei können Sie die Identität Γ(a + 1) = aΓ(a), a ∈ R \ {−1, −2, . . .}, verwenden.
(b) Berechnen Sie einen Momentenschätzer für die Parameter a und λ basierend
auf der Beobachtung von (X 1 , . . . , X m ).
112
KAPITEL 3. MATHEMATISCHE STATISTIK
Lösung.
(a)
EX
n
λa a−1 −λx
x
e
dx
Γ(a)
0
Z ∞
λa+n
a · . . . · (a + n − 1)
x a+n−1 e −λx d x
λn
0 Γ(n + a)
a · . . . · (a + n − 1)
λn
Γ (a + n)
.
λn Γ (a)
Z
=
=
=
=
∞
xn
(b) Die Momentenschätzer für die Parameter a und λ sind
a
λ
a(a + 1)
2
=
EX
λ2
a(a
+ 1)
EX2 =
(E X )2
2
a
µ
¶
1
2
EX
= 1+
(E X )2
a
(E X )2
a =
E X 2 − (E X )2
EX
λ =
2
E X − (E X )2
EX
=
Die Schätzer erhält man mit Substitutionen E X → n1
P
i
X und E X 2 →
1
n
P
i
X 2.
237. Beta-Verteilung. Momentenschätzer. Gegeben seien X 1 , . . . , X n i.i.d. Betaverteilte Zufallsvariablen mit der Dichte
p a,b (x) =
1
x a−1 (1 − x)b−1 1[0,1] (x)
B (a, b)
und Parametern a > 0 und b > 0. Dabei ist B (a, b) die Betafunktion charakterisiert
durch
B (a, b) =
Γ(a)Γ(b)
.
Γ(a + b)
(a) Zeigen Sie, dass das k -te Moment der Beta-Verteilung die Gleichung
EX k =
a +k −1
E X k−1
a +b +k −1
für k ∈ N und k ≥ 1 erfüllt.
(b) Berechnen Sie den Momentenschätzer für die Parameter a und b basierend auf
dem ersten und zweiten Moment.
3.5. KLEINSTE-QUADRATE-SCHÄTZER
113
Lösung.
(a) Durch direktes Berechnen des k -ten Moments erhalten wir
1
1
x a−1 (1 − x)b−1 d x
B (a, b)
0
Z
B (a + k, b) 1
1
=
x a+k−1 (1 − x)b−1 d x
B (a, b)
B
(a
+
k,
b)
0
B (a + k, b)
.
=
b(a, b)
EX k =
Z
xk
Und daraus
B (a + k, b)
B (a, b)
Γ(a + k)Γ(b) Γ(a + b)
=
Γ(a + b + k) Γ(a)Γ(b)
Γ(a + k)Γ(a + b)
=
Γ(a + b + k)Γ(a)
a +k −1
=
E X k−1 .
a +b +k −1
EX k =
Es gilt auch
a · . . . · (a + k − 1)
.
(a + b) · . . . · (a + b + k − 1)
EX k =
(b) Die Substitutionen E X = m̂1 = n1
Pn
i =1 X i
m̂ 1
=
m̂ 2
=
und E X 2 = m̂2 = n1
Pn
2
i =1 X i
führen zu
a
a +b
a(a + 1)
.
(a + b)(a + b + 1)
Die Auflösung nach a und b liefert
3.5
â
=
b̂
=
m̂ 12 − m̂ 22
m̂ 2 − m̂ 12
a(1 − m̂ 1 ) (m̂ 12 − m̂ 22 )(1 − m̂ 1 )
=
.
m̂ 1
(m̂ 2 − m̂ 12 )m̂ 1
Kleinste-Quadrate-Schätzer
238. Einfache lineare Regression. Beispielrechnung. Betrachten wir das lineare Modell
Y i = θ1 + θ 2 x i + εi ,
i = 1, · · · , n.
Ausgehend von den Daten
X
n = 10,
X
y i = 8,
y i2 = 26,
X
x i2 = 200,
X
X
x i = 40,
x i y i = 20,
berechnen Sie die Werte der Kleinste-Quadrate-Schätzer für die Parameter θ1 und θ2 .
114
KAPITEL 3. MATHEMATISCHE STATISTIK
Lösung. Es ist die Funktion
Q(θ, y) =
n ¡
X
y i − θ1 − θ2 x i
¢2
i =1
zu maximieren. Wir stellen also die Normalgleichungen
n ¡
X
¢
∂
Q=
y i − θ1 − θ2 x i (−1) = 0
∂θ1
i =1
n ¡
X
¢
∂
Q=
y i − θ1 − θ2 x i (−x i ) = 0
∂θ2
i =1
auf und lösen diese. Wir sind nicht an der expliziten Darstellung der Funktion θ̂(y)
interessiert, sondern an den Wert θ̂ , der auf unseren Daten basiert.
X
y i − nθ1 − θ2 x i = 0
X
X
X
x i y i − θ1 x i − θ2 x i2 = 0
X ¢
1 ¡X
θ1 =
y i − θ2 x i
n
1
θ1 =
(8 − 40θ2 )
10
X
Einsetzen in die Gleichung
∂
∂θ2 Q
= 0 liefert
2 − 4θ1 − 20θ2 = 0
¶
4
2 − 4 − 4θ2 − 20θ2 = 0
5
µ
θ2 = −
3
10
θ1 = 2.
239. Gewichtete einfache lineare Regression.
Kleinste-Quadrate -Schätzer θ̂ w im Modell
Finden Sie eine Formel für den
Y i = θ1 + θ 2 x i + εi
wobei ε1 , . . . , εn unabhängig seien mit εi ∼ N (0, σ2 w i ).
3.6
Maximum-likelihood Schätzer
240. Mischung von Gleichverteilungen. MLE. Seien X 1 , . . . , X n i.i.d. mit Dichte
p θ und θ ∈ [0, 1]. Zeigen Sie, dass der Maximum-Likelihood-Schätzer für
p θ (x) = θ1(−1,0) (x) + (1 − θ) 1(0,1) (x)
1 Pn
gerade θ̂ = n
i =1 1(−1,0) (X i )
ist.
241. Normalverteilung. MLE. Seien X 1 , . . . , X n i.i.d. und X i ∼ N µ, σ2 mit bekanntem µ. Zeigen Sie, dass der Maximum-Likelihood-Schätzer von σ gerade
¡
σ̂2 (x) =
ist.
n
1X
(X i − µ)2
n i =1
¢
3.6. MAXIMUM-LIKELIHOOD SCHÄTZER
115
Lösung. Die Likelihood-Funktion dieses Models ist
n
Y
µ
1
p σ (x i ) = p
L σ (x 1 , · · · , x n ) =
2π
i =1
¶n
Ã
!
n ¡
¢2
1 X
1
exp − 2
xi − µ .
σn
2σ i =1
Wir erhalten die Log-Likelihood-Funktion indem wir die Likelihood-Funktion logarithmieren.
n ¡
p −n
¢2
1 X
l σ (x 1 , · · · , x n ) = log 2π + log σ−n − 2
xi − µ
2σ i =1
n ¡
p
¢2
1 X
= −n log 2π − n log σ − 2
xi − µ .
2σ i =1
Differenzieren liefert
n ¡
¢2
∂
n
1 X
l σ (x 1 , · · · , x n ) = − + 3
xi − µ
∂σ
σ σ i =1
n ¡
X
¢2
∂2
−2
−4
l
(x
,
·
·
·
,
x
)
=
nσ
−
3σ
xi − µ .
σ
1
n
2
∂σ
i =1
Wir lösen die Gleichung
n ¡
¢2
1 X
∂
n
xi − µ = 0
l t (x i ) = − + 3
∂σ
σ σ i =1
n ¡
¢2
1X
σ̂2 =
xi − µ .
n i =1
Wir setzen den gefunden Schätzer in den Ausdruck
∂2
l
∂σ2 t
ein und erhalten
¯
¯
n2
3n 2
∂2
¯
=
l
(x
)
−
< 0.
P
P
t
i
¯
∂σ2
(x i − µ)2
(x i − µ)2
σ=σ̂
Die letzte Ungleichung bedeutet, dass die Log-Likelihood-Funktion an der Stelle σ̂
∂
konkav ist und die gefundene Lösung der Gleichung ∂σ
l t = 0 tatsächlich das eindeutige
Maximum der Likelihood-Funktion ist.
242. Exponentialverteilung. MLE. Seien X 1 , . . . , X n exponentialverteilt zum Parameter θ . Zeigen Sie, dass θ̂ = ( X̄ )−1 sowohl der Maximum-Likelihood-Schätzer als
auch ein Momentenschätzer ist.
243. Maximum-Likelihood-Methode und Suffizienz. Sei p θ : θ ∈ Θ ein reguläres statistisches Modell und T (X ) eine suffiziente Statistik für θ . Weisen Sie nach,
dass ein Maximum-Likelihood-Schätzer für θ eine Funktion von T (X ) ist.
©
ª
Lösung. Sei θ̂(x¡ 1 , ·¢· · , x n ) = θ̂(x i ) ein Maximum-Likelihood-Schätzer für θ in einem
regulären Model p θ θ∈Θ . Dann maximiert θ̂ die Likelihood-Funktion
L θ (x i ) =
n
Y
p θ (x i ) = g (T (x i ), θ) h(x i )
i =1
für fixes (x 1 , · · · , x n ) über alle θ ∈ Θ. Nachdem die Likelihood-Funktion L θ positiv ist und
die Funktion h positiv gewählt werden kann, können wir anstelle von L θ die Funktion
L̃ θ = g (T (x i ), θ) betrachten. L̃ θ hängt von (x 1 , · · · , x n ) nur über T (x), so können wir θ̂ als
eine Funktion ansehen, die für ein fixes T (x 1 , · · · , x n ) ein θ ∈ Θ liefert, das die Funktion
L θ (T ) = g (T, θ) maximiert. θ̂ ist also eine Funktion von T = T (x 1 , · · · , x n ).
116
KAPITEL 3. MATHEMATISCHE STATISTIK
244. Zweidimensionale Exponentialverteilung. MLE. Betrachtet werden i.i.d.
Zufallsvariablen (Y1 , Z1 ), . . . , (Yn , Zn ). Weiterhin seien Y1 und Z1 unabhängig und exponentialverteilt mit Parametern λ > 0 bzw. µ > 0. Bestimmen Sie den MaximumLikelihood-Schätzer für (λ, µ).
Lösung. Nachdem Yi und Zi unabhängig sind, genügt es den MLE für einen der
beiden Zufallsvektoren zu bestimmen. Wir berechnen also den MLE für eine eindimensionale Exponentialverteilung mit Parameter θ . Die Likelihood-Funktion ist gegeben
durch
n
Y
L(x, θ) =
θ exp (−θx i )
(3.2)
µ
¶
X
= exp −θ x i + log θ n
(3.3)
i =1
Die Log-Likelihood-Funktion ist dann gegeben durch
l (θ, x) = n log θ − θ
X
xi
(3.4)
i
∂
l (θ, x) =
∂θ
Wir setzen
∂
∂θ l (θ, x) = 0
n X
− xi
θ
i
(3.5)
∂2
n
l (θ, x) = − 2 < 0
2
∂θ
θ
(3.6)
und erhalten den MLE
θ̂ =
Somit ist der MLE für λ, µ = 1/ ȳ, 1/z̄
¡
245.
¢
¡
1
P
1
n
¢>
xi
i
=
1
.
x̄
(3.7)
.
Weibull-Verteilung. MLE. Seien X 1 , . . . , X n i.i.d. mit der Dichte
s
p θ (x) =
2θ 3 2 − θ x 2
x e 2 1R>0 (x)
π
wobei der Parameter θ > 0 unbekannt ist. Finden Sie den Maximum-LikelihoodSchätzer für θ und klären Sie, ob dieser eindeutig ist.
Lösung. Wir berechnen den MLE für die oben angegebene Familie von WeibullVerteilungen indem wir die Log-Likelihood-Funktion maximieren.
Die Likelihood-Funktion der Familie ist gegeben durch
2θ 3
L(θ, x) =
π
µ
¶ n2
Y
i
¶
µ
θ
x i2 exp − x i2 .
2
Für die Log-Likelihood-Funktion gilt
X
¢
n¡
θX 2
log 2 + 3 log θ − log π + 2 log x i −
x
2
2 i i
i
∂
3n 1 X 2
l (θ, x) =
−
x
∂θ
2θ 2 i i
l (θ, x) =
∂2
3n 1
l (θ, x) = −
<0
2
∂θ
2 θ2
∀θ ∈ R>0 .
3.6. MAXIMUM-LIKELIHOOD SCHÄTZER
117
Somit ergibt sich die Formel für MLE
3n 1 X 2
∂
l (θ, x) =
−
x =0
∂θ
2θ 2 i i
3
θ̂ = 1 P 2 .
n i xi
Wegen
∂2
l (θ, x) < 0
∂θ 2
ist der MLE θ̂ auch eindeutig.
Mischung der Verteilungen. MLE. Seien p 1 und p 2 zwei Dichten. Für jedes
θ ∈ [0, 1] ist dann die Mischung der beiden Verteilungen durch die Dichte
246.
p θ (x) = θp 1 (x) + (1 − θ)p 2 (x)
gegeben.
(a) Betrachten Sie das parametrische Modell p θ : θ ∈ [0, 1] und bestimmen Sie eine
notwendige und hinreichende Bedingung dafür, dass die Likelihood-Gleichung
eine Lösung besitzt.
©
ª
(b) Weisen Sie nach, dass diese Lösung, falls sie existiert, der eindeutige MaximumLikelihood-Schätzer für θ ist.
(c) Was ist der Maximum-Likelihood-Schätzer, wenn die Likelihood-Gleichung keine
Lösung besitzt?
Lösung. Betrachten wir zunächst die Log-Likelihood-Funktion und ihre Ableitungen
L(θ, x) =
Y¡
¢
θp 1 (x i ) + (1 − θ) p 2 (x i )
(3.8)
i
l (θ, x) =
X
¡
¢
log θp 1 (x i ) + (1 − θ) p 2 (x i )
(3.9)
i
X
p 1 (x i ) − p 2 (x i )
∂
l (θ, x) =
∂θ
i θp 1 (x i ) + (1 − θ) p 2 (x i )
©
ª2
2
X
− p 1 (x i ) − p 2 (x i )
∂
l (θ, x) =
©
ª2
∂θ 2
θp 1 (x i ) + (1 − θ) p 2 (x i )
i
(3.10)
(3.11)
Betrachten wir die Frage der Existenz des MLE. Im Falle p 1 (x i ) = p 2 (x i ) für einen
Vektor (x 1 , · · · , x n ), hängt die Likelihood-Funktion L (θ, x) nicht von θ ab und somit kann
θ̂(x) beliebig gesetzt werden. θ̂ ist in diesem Fall nicht eindeutig.
Wenn es einen Vektor (x 1 , · · · , x n ) gibt, der uns erlaubt p 1 und p 2 zu unterscheiden,
können wir die Bedingungen für die Existenz und Eindeutigkeit des MLE wie folgt
konstruieren. Die Gleichung
∂
l (θ, x) = 0
∂θ
(3.12)
∂
∂
hat genau dann genau eine Lösung wenn ∂θ
l (θ, x)|θ=0 ≥ 0 und ∂θ
l (θ, x)|θ=1 ≤ 0 gilt, da
die zweite Ableitung der Log-Likelihood-Funktion stickt negativ ist und somit ist
∂
∂θ l (θ, x) strikt monoton fallend in θ . Im Falle
∂
l (θ, x) > 0
∂θ
∀θ ∈ [0, 1]
(3.13)
118
KAPITEL 3. MATHEMATISCHE STATISTIK
bzw.
∂
l (θ, x) < 0
∂θ
(3.14)
∀θ ∈ [0, 1]
hat die Maximum-Likelihood-Gleichung keine Lösung und die die Maxima werden
jeweils am Rand angenommen, d.h. θ̂ = 1 bzw. θ̂ = 0 und der MLE θ̂(x) kann für x
eindeutig festgelegt werden.
X 1 , . . . , X n i.i.d. und Beta(θ + 1, 1)-verteilt mit
247. Beta-Verteilung.
MLE. Seien
©
ª
dem Parameter θ ∈ Θ = η ∈ R : η > −1 . Die Dichte von X i ist also
p θ (x) = (θ + 1)x θ 1[0,1] (x).
(a) Bestimmen Sie den Maximum-Likelihood-Schätzer für θ basierend auf der Beobachtung von (X 1 , . . . , X n ). Zeigen Sie dabei, dass der von Ihnen gefundene Schätzer
θ̂ das Maximum der Likelihood-Funktion ist.
(b) Kann der Maximum-Likelihood-Schätzwert θ̂ (x 1 , . . . , x n ) auf dem Rand des Parameterraumes liegen?
Lösung.
(a) Die Likelihoodfunktion für eine Beobachtung (X 1 , . . . , X n ) ist
!θ
Ã
L(θ, X ) = (θ + 1)
n
Y
(3.15)
Xi
i
l (θ, X ) = n log (θ + 1) + θ
X
log X i
(3.16)
i
∂
l (θ, X ) =
∂θ
X
n
+ log X i
θ+1 i
∂2
n
l (θ, X ) = −
< 0.
2
∂θ
(θ + 1)2
∂
∂θ l (θ, X ) = 0
(3.17)
(3.18)
liefert
n
.
log
Xi
i
θ̂ = −1 − P
(3.19)
θ̂ ist eindeutiger MLE.
(b) Nein, denn Θ offen ist.
248. Pareto-Verteilung. Suffizienz und MLE.
verteilt mit der Dichte
p θ (x) =
θa θ
x θ+1
Seien X 1 , . . . , X n i.i.d. und Pareto-
1R>a (x),
wobei θ > 0 und a fix und bekannt sei.
(a) Finden Sie eine reellwertige suffiziente Statistik T (X 1 , . . . , X n ) für θ .
(b) Finden Sie den Maximum-Likelihood-Schätzer θ̂(X 1 , . . . , X n ) für θ .
(c) Zeigen Sie, dass der von Ihnen gefundene Schätzer θ̂ suffizient ist.
3.6. MAXIMUM-LIKELIHOOD SCHÄTZER
Lösung. Suffiziente Statistik T =
Q
1
i xi
119
erhalten wir aus
Ã
n nθ
p θ (X 1 , . . . , X n ) = θ a
Y 1
i xi
!θ−1
Y
(3.20)
1R>a (x i )
i
mit Hilfe des Faktorisierungstheorems.
Die Berechnung folgt der üblichen Prozedur des Minimierens der Log-LikelihoodFunktion.
∂
l (x, a, θ) =
∂θ
X
n
+ n log a − log x i
θ
j
(3.21)
∂2
n
l (x, a, θ) = − 2 < 0
2
∂θ
θ
n
n
¡Q
¢=
θ̂ = P ¡
log i
i log x i − log a
(3.22)
xi
a
(3.23)
¢
Die suffiziente Statistik T = η(θ̂) ist eine Funktion des MLE, wobei
η(x) =
exp
1
¡n ¢
x
an
(3.24)
.
Daher ist der MLE θ̂ auch suffizient.
249. Gamma-Verteilung. MLE. Seien X 1 , . . . , X n i.i.d. Gamma-verteilt mit der
Dichte
a
λ
x a−1 e −λx 1R>0 (x)
Γ(a)
und Parametern a und λ. Der Parameter a > 0 ist bekannt und fix. Der Parameter λ
dagegen unbekannt und λ > 0.
p a,λ (x) =
(a) Berechnen Sie einen Maximum-likelihood Schätzer für λ basierend auf der Beobachtung von dem Vektor (X 1 , . . . , X n ). Zeigen Sie, dass der von Ihnen gefundene
Schätzer λ̂ das Maximum der Likelihood-Funktion ist.
(b) Ist der von Ihnen gefundene Maximum-likelihood Schätzer erwartungstreu?
Begründen Sie Ihre Antwort. Dabei können Sie auf die Beziehung
X 1 + . . . + X n ∼ Gamma(na, λ)
zugreifen.
Lösung.
(a) Der Standardmethode folgend, berechnen wir die Log-likelihood Funktion und
finden ihr Maximum.
L(a, λ; X ) =
λan Y a−1 −λxi
x
e
Γ(a)n i i
l (a, λ; X ) = na log λ − n log Γ (a) + (a − 1)
(3.25)
X
i
∂
l (a, λ; X ) =
∂λ
λ̂ =
na X
− xi = 0
λ
i
na
P
i xi
∂2
na
l (a, λ; X ) = − 2 < 0
2
∂λ
λ
∀λ > 0.
log x i − λ
X
xi
(3.26)
i
(3.27)
(3.28)
(3.29)
120
KAPITEL 3. MATHEMATISCHE STATISTIK
MLE ist also tatsächlich das Maximum der Likelihood Funktion.
(b) Unter Benutzung von X 1 + . . . + X n ∼ Gamma(na, λ) berechnen wir
na
Eλ̂ = E P
i Xi
Z ∞
na λna na−1 −λx
=
x
e
dx
x Γ(na)
0
Z
naλna ∞ na−1−1 −λx
x
e
dx
=
Γ(na) 0
naλna Γ(na − 1)
=
Γ(na) λna−1
na
=
λ.
na − 1
(3.30)
(3.31)
(3.32)
(3.33)
(3.34)
Der Schätzer λ̂ ist somit nicht erwartungstreu.
250. Lévy-Verteilung. Dichte und MLS.
den Parametern (µ, σ) ∈ Θ = R × R>0 ist
r
p (µ,σ) (x) =
Die Dichte der Lévy-Verteilung mit
µ
¶
σ
σ
− 32
(x − µ) exp −
1R≥µ (x).
2π
2(x − µ)
(a) Sei X ∼ N (0, σ1 ) normalverteilt mit σ > 0. Zeigen Sie, dass die Zufallsvariable
Lévy-verteilt mit den Parametern (0, σ) ist.
1
X2
(b) Sei µ = 0. Zeigen Sie, dass (p (0,σ) )σ>0 eine exponentielle Familie ist.
(c) Sei µ = 0. Berechnen Sie einen Maximum-Likelihood-Schätzer für σ, und klären
Sie ob dieser eindeutig ist.
Lösung.
(a) Für ein y > 0 gilt
µ
¶
¡
¢
1
≤ y = P 1 ≤ yX2
P
2
X
Ãs
!
1
=P
≤ |X |
y
µ
µ
¶¶
1
= 2 1−P X < p
y
Ã
Ãs !!
σ
= 2 1−Φ
.
y
Die Dichte von
1
X2
erhalten wir durchs Differenzieren:
Ãs !
µ
¶
µ
¶
∂
1
σ p
1 −3
P
≤ y = −2φ
σ − y 2
∂y
X2
y
2
r
µ
¶
3
σ
σ
=
exp −
y−2 .
2π
2y
Daher ist
1
X2
∼ Lévy(σ).
3.7. UMVUE
121
(b) Für µ = 0 lässt sich die Dichte der Lévy-Verteilung in der Form
µ
¶
σ 3
1
σ
p 0,σ (y) = exp −
1R≥0 (y)
− log y + log
2y 2
2
2π
darstellen.
(c) Der MLS ist
σ̂ = P
3.7
n
.
1/x i
UMVUE
Ein Model für das kein erwartungstreuer Schätzer existiert. Seien
X 1 , . . . , X n i.i.d. bernoulliverteilt mit dem Parameter p ∈ (0, 1). Zeigen Sie, dass es keinen
p
erwartungstreuen Schätzer für q(p) = 1−p gibt.
251.
Lösung. Sei T (X ) ein Schätzer. Nachdem es 2n verschiedene Werte gibt, die der
Zufallsvektor X = (X 1 , · · · , X n ) annehmen kann, können wir den Erwartungswert von T
explizit berechnen und erhalten
E T (X ) =
2n
X
T (i )p ν(i ) (1 − p)n−ν(i ) .
i =1
Dabei ist ν(i ) eine Funktion, die die Anzahl der Einser in der Binärdarstellung von
i ∈ N angibt. T (X ) ist erwartungstreu, wenn
E T (X ) =
p
1−p
p
gilt. Nachdem aber E T (X ) ein Polynom in p ist und 1−p nicht als Polynom darstellbar
ist, kann es keinen erwartungstreuen Schätzer für q(p) geben.
252. Verschobene Gleichverteilung. Seien X 1 , . . . , X n i.i.d. mit X 1 ∼ U (θ, θ + 1).
Der Parameter θ sei unbekannt und X (1) = min {X 1 , . . . , X n } die kleinste Ordnungsgröße
P
der Daten und X̄ = n1 ni=1 X i . Betrachten Sie die beiden Schätzer
T1 (X ) = X̄ −
1
2
T2 (X ) = X (1) −
1
.
n +1
Zeigen Sie, dass beide Schätzer erwartungtreu sind. Berechnen Sie die Varianz der
beiden Schätzer.
Lösung. Wir berechnen jeweils Erwartungswert und Varianz der beiden Schätzer.
Zunächst ist
=
E T1 (X ) =
θ+1
1
xd x = θ + .
2
R
θ
µ
¶
1X
1 1X
1
1
Xi − =
θ + − = θ.
n i
2 n i
2
2
Z
E Xi
Z
xp θ (x)d x =
(3.35)
(3.36)
122
KAPITEL 3. MATHEMATISCHE STATISTIK
Das heißt T1 ist erwartungstreu. Die Varianz von T1 berechnen wir folgendermassen
"
Var T1
=
=
=
=
#
1X
1
Var
xi −
n i
2
!2 #
"Ã
1
1X
Xi −
− (E T1 )2
E
n i
2
"Ã
!2
#
1X
1X
1
E
Xi −
Xi +
− θ2
n i
n i
4
"Ã
!2 # µ
¶
1X
1
1
E
Xi
− θ + + − θ2 .
n i
2
4
(3.37)
(3.38)
(3.39)
(3.40)
Nun ist
"Ã
E
1X
Xi
n i
!2 #
1 X
E Xi X j
n2 i j
µZ
Z
=
x yd xd y =
(3.41)
=
E Xi X j
E X i2
=
[θ,θ+1]2
Z θ+1
2
θ
x dx =
¶2
θ+1
θ
tdt
µ
¶
1 2
= θ+
2
¢
1¡
(θ + 1)3 − θ 3
3
(3.42)
(3.43)
1
= θ2 + θ + .
3
(3.44)
Also gilt
Var T1
auf
µ
¶µ
¶
µ
¶ µ
¶
1
1 2 1 2
1
1 2
1−
θ+
+
θ +θ+ − θ+
n
2
n
3
2
¡ −1 ¢
1
=O n
.
=
12n
=
(3.45)
(3.46)
1
Nun kommen wir zu T2 = X (1) − n+1
. Die Berechnung des Erwartungswertes führt
1
E T2 (X ) = −
+ E X (1)
Z n +1
E X (1) =
min {x 1 , · · · , x n } d x 1 · · · d x n
[θ,θ+1]n
Z
=
min {x 1 + θ, · · · , x n + θ} d x 1 · · · d x n
[0,1]n
Z
= θ+
min {x 1 , · · · , x n } d x 1 · · · d x n
[0,1]n
Z
X
= θ+
x σ(1) d x 1 · · · d x n
(3.47)
(3.48)
(3.49)
(3.50)
(3.51)
σ∈S n 0≤x σ(1) ≤...≤x σ(n) ≤1
wobei die Summe über alle n! Permutationen der n Elemente geführt wird. Es gilt
Z
1
Z
0≤x 1 ≤...≤x n ≤1
x1 d x1 · · · d xn =
0
x2
Z
···
0
x1 d x1 · · · d xn =
1
(n + 1)!
(3.52)
und
X Z
σ∈S n 0≤x σ(1) ≤...≤x σ(n) ≤1
x σ(1) d x 1 · · · d x n =
1
.
n +1
(3.53)
3.7. UMVUE
123
Wir erhalten also
1
+θ
n +1
(3.54)
1
+ E X (1) = θ.
n +1
(3.55)
E X (1)
=
und
E T2 = −
Für die Berechnung der Varianz können wir folgendermassen vorgehen.
Var T2
E T22
¡ ¢
= E T22 − (E T2 )2
·³
´2 ¸
=
= E X (1)− 1
(3.56)
(3.57)
n+1
·
µ
¶ ¸
1 2
2
2
= E X (1)
−
X (1) +
n +1
n +1
£ 2 ¤
£
¤
2
E X (1) = E min {X 1 , · · · , X n }
Z
=
min {x 1 , · · · , x n }2 d λn
n
[θ,θ+1]
Z
=
min {x 1 + θ, · · · , x n + θ}2 d λn
n
[0,1]
Z
=
θ 2 + 2θ min {x 1 , · · · , x n } + min {x 1 , · · · , x n }2 d λn
(3.58)
(3.59)
(3.60)
(3.61)
(3.62)
[0,1]n
(3.63)
Mit der Hilfsrechnung
Z
[0,1]n
min {x 1 , · · · , x n }2 d λn
=
X Z
σ∈S n
= n!
0≤x σ(1) ≤...≤x σ(n) ≤1
2
x σ(1)
d λn
1
2
=
(n + 2) · · · 3 (n + 1) (n + 2)
(3.64)
(3.65)
erhalten wir
£ 2 ¤
2
2θ
E X (1)
+
= θ2 +
n + 1 (n + 1) (n + 2)
(3.66)
und
Var T2
µ
¶ ¸
1 2
2
X (1) +
− θ2
n +1
n +1
µ
¶ µ
¶
2θ
2
2
1
1 2
2
−
= θ +
+
θ+
+
− θ2
n + 1 (n + 1) (n + 2) n + 1
n +1
n +1
n
=
= O (n −2 ).
(n + 1)2 (n + 2)
·
2
= E X (1)
−
(3.67)
(3.68)
(3.69)
Die Varianz von T1 ist also um eine Größenordung höher als die von T2 .
253. UMVUE. Bernoulli-Verteilung. Seien X 1 , . . . , X n i.i.d. und X 1 Bernoulli(θ)verteilt. Zeigen Sie, dass der MLS X̄ ein UMVUE-Schätzer ist.
124
KAPITEL 3. MATHEMATISCHE STATISTIK
Lösung. Betrachten wir den Schätzer X̄ . Aus bereits gelösten Übungsblättern wisP
sen wir, dass X̄ unverzerrt für θ ist. Wir zeigen, dass die Statistik i X suffizient und
vollständig ist und die Behauptung folgt mit dem Satz von Lehmann-Scheffé.
Dazu sei g eine messbare reellwertige Funktion mit
" Ã
!#
X
Eθ g
Xi
=0
i
für alle θ ∈ [0, 1]. Das ist äquivalent zu
n
X
Ã
g (k) P
¡P
i
Xi = k = 0
∀θ.
i
k=0
Mit Hilfe der Identität P
!
X
¢ ¡ ¢
X i = k = nk θ k (1 − θ)n−k folgern wir, dass die Funktion
à !
n k
f n (θ) =
g (k)
θ (1 − θ)n−k
k
k=0
n
X
ein Polynom vom Grad höchstens n in θ ist, und höchstens n verschiedene Nullstellen
θ ∈ [0, 1] haben kann. Als Normalform dieses Polynoms erhalten wir
à !
n k
f n (θ) =
g (k)
θ (1 − θ)n−k
k
k=0
à !
Ã
!
n
X
X n −k
n k n−k
=
g (k)
θ
(−1)n−k−i θ n−k−i
k
i
i =0
k=0
n
X
und mit
¡n−k ¢
i
=
n−k ¢
n−k−i
¡
schließlich
à !
Ã
!
X
n k n−k
n −k
f n (θ) =
g (k)
θ
(−1)n−k−i θ n−k−i
k
n
−
k
−
i
i =0
k=0
à !
Ã
!
n
n−k
X
n k X n −k
=
g (k)
θ
(−1)i θ i
k
i
i
=0
k=0
Ã
!Ã !
n n−k
X
X n −k n
=
(−1)i g (k) θ i +k
i
k
k=0 i =0
"
Ã
!Ã !
#
p
n
X
X
n −k n
p−k
=
(−1)
g (k) θ p .
p=0 k=0 p − k k
n
X
Durchs Betrachten der Koeffizienten dieses Polynoms in aufsteigender Reihenfolge
erhalten wir induktiv g (0) = 0, g (1) = 0, . . . und nach n Schritten g (n) = 0. Damit ist g ≡ 0
P
und die Statistik i X i vollständig. Aus den bereits gelösten Übungsblättern wissen
P
wir, dass i X i suffizient für θ ist. Mit
"
E X̄ |
#
X
X i = X̄
i
und dem Satz von Lehmann-Scheffé folgt die Behauptung.
3.7. UMVUE
125
254. Diskrete Gleichverteilung. MLE und UMVUE. Seien X 1 , . . . , X n i.i.d. diskret Gleichverteilt auf der Menge {1, 2, . . . , θ}.
(a) Zeigen Sie, dass der Maximum-Likelihood-Schätzer für θ gerade θ̂(X 1 , . . . , X n ) =
X (n) = max {X 1 , . . . , X n } ist.
(b) Zeigen Sie, dass θ̂ = X (n) vollständig und suffizient jedoch verzerrt ist.
(c) Konstruieren Sie einen UMVUE-Schätzer der folgenden Gestalt
n+1
X (n)
− (X (n) − 1)n+1
n
X (n)
− (X (n) − 1)n
.
Lösung. Die Likelihood-Funktion ist
L(θ, x) =
1 Y
1[0,θ] (x i ).
θn i
Für einen fixen Set von i.i.d. Beobachtungen (x 1 , . . . , x n ) wird die Likelihood-Funktion
von θ̂(X ) = X (n) minimiert, denn
L(θ̂(x), x) = max {L(θ, x) : θ ∈ Θ}
und für jedes kleinere θ̄ < θ̂ ist die Likelihood-Funtion gleich Null, für alle größeren θ̄
entfernen wir uns von dem Maximum wegen der in θ fallender Funktion θ1n .
Der Erwartungswert von X (n) ist kleiner als θ denn
X
E X (n) =
X (n)
X ∈{1,...,θ}n
1
θn
kann abgeschätzt werden, indem X (n) durch θ ersetzt wird. Das liefert uns E X (n) < θ .
Wegen
p θ (x) =
¡
¢
1
1[0,θ] X (n)
n
θ
ist X (n) auch suffizient. Für den Beweis der Vollständigkeit setzen wir voraus, dass
E θ g (X (n) ) = 0
für alle θ ∈ Θ und ein messbares g gilt. Mit θ = 1 erhalten wir g (1) = 0, θ = 2 impliziert
g (2) = 0 und so weiter. Damit folgt g ≡ 0, P (g (X (n) = 0)) = 1 und die Vollständigkeit von
X (n) .
Ein UMVUE-Schätzer ist eine Funktion h(X (n) ) mit E h(X (n) ) = θ . Diese Überlegung
führt uns zu
E h(X (n) ) =
X
x∈{0,...,θ}
E h(X (n) ) =
θ
X
h(x (n) )
n
1
=θ
θn
h(m)(m n − (m − 1)n ) = θ n+1
m=1
und
h(m) =
m n+1 − (m − 1)n+1
.
m n − (m − 1)n
126
KAPITEL 3. MATHEMATISCHE STATISTIK
255. Vollständigkeit und UMVUE. Seien X 1 , . . . , X n i.i.d., wobei X 1 eine diskrete
Zufallsvariable mit Wahrscheinlichkeitsfunktion
µ ¶|x|
θ
(1 − θ)1−|x| , x ∈ {−1, 0, 1} ,
p θ (x) = P θ (X 1 = x) =
2
und unbekanntem Parameter θ ∈ (0, 1) sei. Untersuchen Sie die beiden Schätzer T1 (X ) =
X 1 und T2 (X ) = |X 1 | auf Vollständigkeit. Bestimmen Sie einen UMVUE-Schätzer für θ .
Lösung. Wir untersuchen zuerst die Vollständigkeit der beiden Schätzer T1 und T2 .
Die Dichte von X 1 , . . . , X n ist
µ ¶
Y θ |xi |
(1 − θ)1−|xi |
2
i
µ ¶P |xi |
P
θ i
=
(1 − θ)n− i |xi | .
2
p θ (x 1 , · · · , x n ) =
(3.70)
(3.71)
Nehmen wir an, dass für alle θ
E θ g (T1 (X )) = 0
(3.72)
g (x 1 )p θ (x 1 , · · · , x n )
(3.73)
gilt. Das ist äquivalent zu
E θ g (X 1 ) =
X
x i ∈{−1,0,1}
=
=
µ ¶P |xi |
P
θ i
g (x 1 )
(1 − θ)n− i |xi |
2
x i ∈{−1,0,1}
"
#
µ ¶P |xi |
P
X
X
θ i
g (x 1 )
(1 − θ)n− i |xi | .
x 1 ∈{−1,0,1}
x 2,...,n ∈{−1,0,1} 2
X
(3.74)
(3.75)
Sei nun
A(x 1 , θ) =
µ ¶P |xi |
P
θ i
(1 − θ)n− i |xi | .
x 2,...,n ∈{−1,0,1} 2
X
(3.76)
Es ist also
X
E θ g (T1 (X )) =
g (x 1 )A (x 1 , θ) .
(3.77)
x i ∈{−1,0,1}
Nachdem aber A (x 1 , θ) = A(−x 1 , θ) wählen wir g (x) = x und erhalten
E θ g (T1 (X )) = 0
∀θ ∈ Θ
(3.78)
obwohl g 6≡ 0. T1 (X ) = X 1 ist demzufolge nicht vollständig.
Für T2 (X ) führen wir gleiche Rechnung durch und erhalten
E θ (g (T2 (X ))) =
X
g (|x 1 |)A (x 1 , θ)
(3.79)
x i ∈{−1,0,1}
= 2g (1)A(1, θ) + g (0)A(0, θ) = 0
∀θ ∈ (0, 1).
(3.80)
A(1, θ) und A(0, θ) sind Polynome vom Grad n . A(0, θ) hat aber im Gegensatz zu A(1, θ)
einen nicht verschwindenden konstanten Koeffizienten mit Wert 1. Dieser Koeffizient
kommt vom Summanden (x 2 , . . . , x n ) = 0 in der Darstellung
µ ¶P |xi |
P
θ i
A(0, θ) =
(1 − θ)n− i |xi | .
x 2,...,n ∈{−1,0,1} 2
X
(3.81)
3.7. UMVUE
127
Daher ist g ≡ 0 und die Statistik T2 (X ) vollständig.
Für die Berechnung eines UMVUE-Schätzers sind die obigen Berechnungen nur
indirekt hilfreich, da sowohl T1 (X ) als auch T2 (X ) nicht suffizient für θ sind.
Für das Auffinden eines UMVUE-Schätzers benötigen wir einiger Beobachtungen.
Zunächst ist die Zufallsvariable |X i | Bernoulli verteilt und daher gilt E θ |X i | = θ . T3 (X ) =
1 Pn
n i =1 |X i | ist also ein unverzerrter Schätzer für θ und binomialverteilt. T3 ist auch
suffizient für θ , denn es gilt
P (X = (x 1 , . . . , x n ) |T3 = y) =
1{
³ ´P
P
P
i |x i |
n− i |x i |
θ
−
θ)
(1
|x
|=y
} 2
i
i
P
¡n ¢ P |x |
i (1 − θ)n− i |x i |
i
θ
k
à !−1 µ ¶P
|x |
= 1{Pi |xi |=y }
n
k
1
2
i
(3.82)
i
.
(3.83)
Daher ist T3 ein UMVUE-Schätzer für θ .
256. Vollständigkeit. Seien die Statistiken T und S mit S = η(T ) und einer messbaren Abbildung η gegeben.
(a) Zeigen Sie: Falls T vollständig ist, so ist S ebenfalls vollständig.
(b) Geben Sie ein Beispiel einer nicht vollständigen Statistik, in einem von Ihnen
gewählten statistischen Modell.
(c) Zeigen Sie, dass die Umkehrung der ersten Aussage falsch ist: Aus Vollständigkeit von S folgt nicht die Vollständigkeit von T . Konstruieren Sie ein Gegenbeispiel.
Lösung.
(a) T ist vollständig,
d.h. für ein messbares g gilt, E θ g (T ) = 0 für alle θ impli¡
¢
ziert P θ g (T ) = 0 = 1 für alle
θ . Für ein g ist E g (S) = 0 ∀θ genau dann wenn
¡
¢
E g (η(T )) = 0 ∀θ , impliziert P g (η(T )) = 0 = 1 ∀θ . Das ist aber gleichbedeutend mit
¡
¢
P g (S) = 0 = 1 ∀θ . S ist also vollständig.
(b) Sei Θ einelementig, X ∼¡N (0, 1) und¢ T (X ) = X . Für g = id ist zwar E θ g (T (X )) =
E θ X = 0 ∀θ aber nicht P θ g (T (X )) = 0 = P θ (X = 0) = 1. T (X ) ist also nicht vollständig.
(c) Für eine beliebige unvollständige Statistik T und η ≡ 0 ist S = η(T ) vollständig.
257. Stichprobenvarianz als UMVUE bei Normalverteilung. Seien X 1 , . . . , X n
i.i.d. mit X i ∼ N (µ, σ2 ) und µ ∈ R sowie σ > 0. Dann ist die Stichprobenvarianz
s 2 (X ) =
n
1 X
(X i − X̄ )2
n − 1 i =1
ein UMVUE-Schätzer für σ, falls µ unbekannt ist. Ist µ hingegen bekannt, so ist s 2 (X )
kein UMVUE-Schätzer von σ.
128
KAPITEL 3. MATHEMATISCHE STATISTIK
Lösung. Die erste Aussage wurde bereits in der Vorlesung behandelt.
Sei also µ = µ0 bekannt und fix. Wir wollen die Normalverteilung mit bekanntem
Erwartungswert als exponentielle Familie schreiben und mit Hilfe eines Satzes aus
der Vorlesung eine vollständige und suffiziente Statistik gewinnen. Es gilt
¶
µ
1 ³ x i − µ0 ´2
exp
−
p
2
σ
2πσ2
i
Ã
!
n
¢2
¡
¢
1 X¡
−
= exp − 2
x i − µ0 + log 2πσ2 2 .
2σ i
p σ (x i ) =
Y
1
(3.84)
(3.85)
¢2
Damit erhalten wir c(σ2 ) = − 2σ1 2 und T (X ) = i X i − µ0 . Da c (Θ) = c(R>0 ) = R<0 ein
offenes Rechteck enthält, ist T (X ) eine vollständige und suffiziente Statistik für σ2 .
Da die Stichprobenvarianz
P ¡
σ̂2 (X ) =
n
1X
(X i − µ0 )
n i =1
(3.86)
bei festgehaltenem µ0 ein unverzerrter Schätzer für σ2 ist, können wir den Satz von
Lehmann-Scheffé anwenden und berechnen
"
#
n ¡
n 1¡
n 1¡
X
X
X
¢
¢
¢2
2
2
X i − µ0 |
X i − µ0 = σ̂2 (X ).
T ∗ (X ) = E
X i − µ0
=
i =1 n
i =1
i =1 n
(3.87)
Die Stichprobenvarianz σ̂2 (X ) ist somit der eindeutige UMVUE-Schätzer für σ2 . Daher
kann s 2 (X ) in diesem Kontext kein UMVUE-Schätzer sein.
258.
UMVUE. Normalverteilung.
Sei X 1 , . . . , X n eine i.i.d. Stichprobe mit X 1 ∼
N (µ, 1). Finden Sie den UMVUE-Schätzer für
P µ (X 1 > 0).
Betrachten Sie dazu die gemeinsame Verteilung von (X 1 , X̄ ).
Lösung. Der Satz von Lehmann-Schéffe ist das wichtigste Tool zur Gewinnung der
UMVUE -Schätzern das uns derzeit zur Verfügung. Wir versuchen ihn auch diesmal
anzuwenden.
Dazu brauchen wir einen unverzerrten Schätzer für P (X 1 > 0), also einen Schätzer
S(X ) mit der Eigenschaft
E µ [S(X )] = P µ (X 1 > 0).
Dies ist aber genau die Eigenschaft der Zufallsvariable 1{X 1 >0} , denn
£
¤
E µ 1{X 1 >0} = P µ (X 1 > 0).
Als eine suffiziente und vollständige Statistik verwenden wir X̄ . Nun mit Hilfe der
Rao-Blackwellisierung erhalten wir einen UMVU Schätzer
£
¤
¡
¢
¡
¢
E µ 1{X 1 >0} | X̄ = P µ X 1 > 0| X̄ = P µ X 1 − X̄ > − X̄ | X̄ .
Da ¡X 1 und X̄¢ normalverteilt sind mit E X 1 = E X̄ = µ, Var (X 1 ) = 1 und Var X̄ = n1 sowie
cov X 1 − X̄ , X̄ = cov(X 1 , X̄ ) − cov( X̄ , X̄ ) = 0 gilt, sind die Zufallsvariablen X 1 − X̄ und X̄
unkorreliert und damit unabhängig. So ist
¡ ¢
¡
¢
P µ X 1 − X̄ > − X̄ | X̄ = x̄ = P µ (Z > −x̄)
3.7. UMVUE
129
für Z = X 1 − X̄ . Nachdem E Z = 0 und
¡
¢
Var Z = Var X 1 − X̄
Ã
!
n −1
1X
= Var
X1 −
Xi
n
n i ≥2
µ
¶
n −1 2 1 X
+ 2
Var (X i )
=
n
n i ≥2
n −1
=
n
is
qZ
n−1
2
standardnormalverteilt. So gilt


 Z
P µ Z > − X̄ = P µ  q
¡
¢
n−1
n
− X̄ 
>q


n−1
n

 − X̄ 
= 1−Φq

n−1
n
und ein UMVUE-Schätzer für P (X 1 > 0) ist bestimmt.
259. Cramér-Rao Regularität und exponentielle Familien.
rametrige exponentielle Familie mit
Für eine einpa-
p(x, θ) = exp (c(θ)T (x) + d (θ) + S(x)) 1 A (x),
∂
sodass c differenzierbar mit ∂θ
c(θ) 6= 0 für alle θ ∈ Θ und Θ offen in R ist, sind die
Bedingungen (CR) erfüllt.
R
∂
Hinweis: Sie können für die Vertauschbarkeit von ∂θ
und den Satz von der
monotonen Konvergenz verwenden.
Lösung. Für eine Statistik T (X ) mit E θ (|T (X )|) < ∞ zeigen wir, dass für alle θ ∈ Θ
∂
∂θ
Z
R
T (x)p(x, θ)d x =
Z
∂
p(x, θ)T (x)d x
R ∂θ
(3.88)
gilt.
Zunächst können wir die exponentielle Darstellung von p(x, θ) reparametrisieren
und die Dichte als natürliche exponentielle Familie
p(x, θ) = exp (θT (x) + d 0 (θ) + S(x)) 1 A (x)
(3.89)
schreiben.
Wir vereinfachen nun die Darstellung von p(x, θ) indem wir das eindimensionale
Lebesguemass durch ein absolut stetiges Mass auf R ersetzen. So ist
Z
R
T (x)p(x, θ)d x
Z
=
=
ZR
R
T (x) exp (θT (x) + d 0 (θ) + S(x)) 1 A (x)d x
(3.90)
T (x) exp (θT (X ) + d 0 (θ)) d µ
(3.91)
130
KAPITEL 3. MATHEMATISCHE STATISTIK
Wir zeigen nun ein Hilfsresultat. Es gilt
∂
∂θ
Z
R
Z
e θT (x) d µ =
∂ θT (x)
e
d µ.
R ∂θ
(3.92)
falls
die entsprechenden Integrale existieren und endlich sind. Die Ableitung von
R θT (x)
e
nach θ ist der Grenzwert des Quotienten
Z
e θ1 T (x) − e θ2 T (x)
.
θ1 − θ2
(3.93)
Den Integranden schätzen wir mit |e y − e x | ≤ e x |y − x| wie folgt
¯
¯
¯ e θ1 T (x) − e θ2 T (x) ¯
¯
¯
¯
¯ ≤
¯
¯
θ1 − θ2
e θ2 T (x) |(θ2 − θ1 )T (x)|
|θ1 − θ2 |
(3.94)
ab. Die letzte Funktion ist integrierbar was zusammen mit dem Satz von der majorisierten Konvergenz die Gleichung (3.92) rechtfertigt. Beachten Sie, dass wir bei dieser
∂
Überlegung die Voraussetzungen Θ ist offen und ∂θ
c(θ) 6= 0 benutzt haben.
Da p(x, θ) eine Dichte ist und somit integrierbar, können wir aus
Z
R
e θT (x)+d0 (θ) d µ = 1
(3.95)
die Darstellung
e
−d 0 (θ)
Z
=
R
e θT (x) d µ
(3.96)
ableiten und stellen mit Hilfe von (3.92) die Differenzierbarkeit von d 0 (θ) fest.
E θ (|T (X )|) < ∞ impliziert, dass T (X ) als Differenz zweier positiver integrierbarer
Funktionen T (X ) = T + (X ) − T − (X ) geschrieben werden kann. Das führt uns zu
Z
R
T (x)e θT (X )+d0 (θ) d µ =
Z
R
T (x)+ e θT (X )+d0 (θ) d µ −
(3.97)
Z
T (x)− e θT (X )+d0 (θ) d µ
Z
Z
d 0 (θ)
θT (X )
+
d 0 (θ)
= e
e
dµ − e
e θT (X ) d µ−
R
R
R
(3.98)
(3.99)
indem wir T + und T − in den neuen Massen µ+ und µ− verschwinden lassen. Nun
können wir das Resultat (3.92) und die Differenzierbarkeit von d0 (θ) anwenden und
erhalten (3.88).
Mit Hilfe der obigen Überlegungen können wir auch die Existenz der Ableitung
∂
∂θ log p(x, θ) sicherstellen. Die Übrigen Bedingungen aus ( CR ) sind in unseren Voraussetzungen enthalten.
260. UMVUE. Exponentialverteilung. Seien X 1 , . . . , X m i.i.d. und X i ∼ Exp(θ) exponentialverteilt mit der Dichte θe −θx 1R>0 (x) und θ > 0.
(a) Finden Sie einen UMVUE-Schätzer für q(θ) = θ12 .
(b) Zeigen Sie, dass dieser die untere Schranke der Informationsungleichung nicht
annimmt.
3.7. UMVUE
131
Lösung.
(a) Wir stellen die Dichte der Exponentialverteilung als exponentielle Familie
¡
¢
p θ (x) = exp −θx + log θ 1R>0 (x)
dar. Damit ist T (X ) =
P
i
X i eine vollständige und suffiziente Statistik.
Laut Satz von Lehmann-Schéffe muss der eindeutige UMVUE-Schätzer eine
Funktion h(T (X )) der vollständigen Statistik T (X ) sein. Nachdem der Schätzer
h(T (X )) erwartungstreu ist, muss
E θ h(T (X )) =
gelten. Mit Hilfe von
konstruieren.
P
i
1
θ2
X i ∼ Gamma(n, θ), können wir eine Gleichung für h
Z
E θ h(T (X )) =
R
h(x)
∞
Z
h(x)
0
θ n n−1 −θx
1
x
e
1R>0 (x)d x = 2
Γ(n)
θ
θ n+2 n−1 −θx
x
e
dx = 1
Γ(n)
2
x
Die Gleichheit gilt für h(x) = n(n+1)
. Damit ist
Ã
S(X ) = h
!
X
Xi =
i
der eindeutige UMVUE-Schätzer für
¡P
i
Xi
¢2
n(n + 1)
1
.
θ2
(b) Wir berechnen nun die Schranke der Informationsungleichung – die ( CR ) Bedingungen sind erfüllt, da Exp(θ) eine exponentielle
Familie
mit c 0 (θ) 6= 0 und
¡
¢
2
offenem Parameterraum ist. Es gilt Ψ(θ) = θ12 und Ψ0 (θ) = θ46 , sowie
¶2
∂
log p(X , θ)
∂θ
µ
¶2
∂
1
= Eθ
log θ − θx = 2 .
∂θ
θ
µ
I 1 (θ) = E θ
Damit bekommen wir die Schranke für die Varianz
¡ 0 ¢2
Ψ (θ)
nI 1 (θ)
=
4
.
nθ 4
Mit dieser Schranke können wir die Varianz des Schätzers S(X ) in Beziehung
setzen.
¶2 n
t2
θ
t n−1 e −θt d t
n(n
+
1)
Γ(n)
0
Z
(n + 2)(n + 3) ∞
θ4
=
t n+4−1 e −θt d t
n(n + 1)θ 4 0 Γ(n + 4)
(n + 2)(n + 3)
=
n(n + 1)θ 4
(n + 2)(n + 3) 1
Varθ S(X ) =
− 4
n(n + 1)θ 4
θ
E θ S(X )2 =
Z
∞µ
132
KAPITEL 3. MATHEMATISCHE STATISTIK
Nun zeigen wir
Varθ S(X ) >
¡ 0 ¢2
Ψ (θ)
nI 1 (θ)
4
(n + 2)(n + 3) 1
− 4>
n(n + 1)θ 4
θ
nθ 4
(n + 2)(n + 3) n + 4
> 4
n(n + 1)θ 4
θ n
(n + 2)(n + 3) > (n + 4)(n + 1).
261. UMVUE. Gamma-Verteilung. Eine Stichprobe X 1 , . . . , X n sei i.i.d. und Gammaverteilt mit bekanntem Parameter a > 0 und unbekanntem Parameter λ > 0, d.h. X 1
hat die Dichte
a
p λ (x) =
λ
x a−1 e −λx 1R>0 (x).
Γ(a)
Finden Sie mit Hilfe der Informationsungleichung einen UMVUE-Schätzer für q(λ) = λ1 .
Lösung. Die Lösungsmethode ist hier einen unverzerrten Schätzer mit der kleinstmöglichen Varianz zu finden, d.h. der Varianz aus der Informationsungleichung.
Zuerst überprüfen wir die (CR) Bedingungen indem wir p λ (x) als exponentielle
Familie
¡
¢
p λ (x) = exp a log λ − Γ(a) + (a − 1) log x − λx 1R>0 (x)
darstellen. c(λ) = −λ ist differenzierbar mit c 0 (λ) = −1 6= 0 und Θ = R>0 ist offen. Damit
sind ( CR ) Bedingungen erfüllt.
Nachdem q(λ) = λ1 und E λ X i = λa gilt, wählen wir den Schätzer
T (X ) =
1
X̄ .
a
T (X ) ist erwartungstreu und hat die Varianz
1 X
Xi
na i
X
1
= 2 2 Varλ X i
a n
i
1 an
1
= 2 2 2 =
.
a n λ
anλ2
Varλ T (X ) = Varλ
Letzes gilt wegen
für X = X i .
P
i
X i ∼ Gamma(na, λ). Nun berechnen wir die Fischer-Information
∂
log p(X , λ)
∂λ
∂
λa a−1 −λX
= Varλ
log
X
e
1R>0 (X )
∂λ
Γ(a)
¢
∂ ¡
= Varλ
a log λ − λX
³∂λ
´ a
a
= Varλ
−X = 2
λ
λ
I 1 (λ) = Varλ
Mit
Ψ(λ) = q(λ) = E λ T (X ) =
1
λ
3.7. UMVUE
133
¡ 0 ¢2
1
Ψ (λ) = 4
λ
ergibt sich
¡ 0 ¢2
Ψ (λ)
nI 1 (λ)
=
1 λ2
1
=
4
λ an anλ2
und
Varλ T (X ) =
¡ 0 ¢2
Ψ (λ)
I (λ)
.
Damit ist T (X ) ein UMVUE-Schätzer für q(λ) = λ1 .
262. Informationsungleichung und Normalverteilung. Gegeben seien X 1 , . . . , X n
i.i.d. normalverteilte Zufallsvariablen mit X i ∼ N (θ, σ2 ), wobei θ ∈ R und σ bekannt
und fix ist.
(a) Zeigen Sie, dass dieses Modell Cramér-Rao-Regularitätsbedingungen erfüllt.
(b) Berechnen Sie die Fischer-Information für den Parameter θ .
(c) Berechnen Sie die Cramér-Rao-Schranke für die Varianz des Schätzers
T (X ) = X̄ =
n
1X
Xi .
n i =1
(3.100)
263. Cramér-Rao-Schranke und die Gleichverteilung. Seien X 1 , . . . , X n i.i.d.
und X i ∼ U (0, θ) mit unbekanntem θ > 0. Es bezeichne I (θ) die Fischer-Information.
(a) Weisen Sie nach, dass T (X ) = n+1
n X (n) ein erwartungstreuer Schätzer für θ ist und
Varθ (T (X )) <
1
,
I (θ)
für alle θ > 0.
(b) Klären Sie, wieso dies nicht im Widerspruch zu der Cramér-Rao-Schranke
Varθ (T (X )) ≥
1
I (θ)
steht.
Lösung. Wir zeigen zuerst, dass T (X ) ein erwartungstreuer Schätzer für θ ist. Dazu
berechnen wir die Verteilung von X (n) .
¡
¢
P X (n) ≤ t = P (X 1 ≤ t , . . . , X n ≤ t )
= (P (X 1 ≤ t ))n
Daraus ergibt sich
θ
Z
E θ X (n) =
xd P X (n) (x)
Z θ µ n ¶0
x
=
x n dx
θ
0
Z θ
xn
=
n n dx
θ
0
Z θ
n
=
(n + 1)x n d x
(n + 1)θ n 0
n 1 n+1
n
=
θ
=
θ.
n
n +1 θ
n +1
0
134
KAPITEL 3. MATHEMATISCHE STATISTIK
Daher ist T (X ) = n+1
n X (n) erwartungstreu für θ .
Die Fischer-Information für X 1 ist
µ
I 1 (θ) = E θ
∂
1
log
∂θ
θ
¶2
∂
− log θ
∂θ
1
1
= Eθ 2 = 2 .
θ
θ
µ
¶2
= Eθ
Somit ist
I (θ) = nI 1 (θ) =
n
.
θ2
Berechnen wir nun
n +1
Var T (X ) = Var
X (n)
n
¶2 µ
¶2
µ
n +1
n +1
X (n) − E
X (n)
=E
n
n
µ
¶
n +1 2
2
=
E X (n)
− θ2
n
Z θ
2
x 2 d P X (n) (x)
E X (n) =
0
Z
n θ n+1 θ 2 n
= n
x
=
θ 0
n +2
µ
¶2 2
n +1 θ n
θ2
Var T (X ) =
− θ2 =
.
n
n +2
n(n + 2)
Damit ist
Varθ T (X ) =
θ2
θ2
1
<
=
.
n(n + 2)
n
I (θ)
Erklärung dafür ist die folgende. Der Träger der Dichte von X i ist vom Parameter θ abhängig und daher sind die ( CR ) Bedingungen verletzt. Deswegen muss die
Informationsungleichung für dieses Modell nicht gelten.
264. Cramér-Rao-Schranke ist nicht scharf. Es ist durchaus möglich, dass
ein UMVUE-Schätzer eine größere Varianz als die untere Schranke
Varθ (T (X )) ≥
1
I (θ)
hat. Betrachtet werden dazu X 1 , . . . , X n i.i.d. mit X i ∼ Poiss(θ) für unbekanntes θ > 0.
(a) Zeigen Sie, dass
¶Pn
µ
1 i =1 X i
T (X ) = 1 −
n
ein UMVUE-Schätzer für g (θ) = e −θ ist.
(b) Zeigen Sie weiterhin, dass die Varianz von T (X ) die Schranke in der Informationsungleichung
0
Φ (θ)2
Varθ (T (X )) ≥
I (θ)
für kein θ annimmt.
3.7. UMVUE
135
Lösung. Wir stellen zuerst sicher, dass T (X ) ein UMVUE-Schätzer für g (θ) = e −θ .
Nachdem die Summe von poissonverteilten Zufallsvariablen wieder poissonverteilt
P
P
ist, und zwar i X i ∼ Poiss( i λi ) für X i ∼ Poiss(λi ), erhalten wir
!
µ
¶ Ã
X
1 k
E θ T (X ) =
1−
P
Xi = k
n
i
k≥0
¶
µ
X
1 k −nθ (nθ)k
e
=
1−
n
k!
k≥0
X
= e −nθ
X (n − 1)k θ k
k!
k≥0
= e −nθ e (n−1)θ = e −θ .
T (X ) ist also erwartungstreu für g (θ).
Aus der Vorlesung wissen wir, dass i X i eine vollständige und suffiziente Statistik
P
ist, wenn die Zufallsvariablen X i poissonverteilt sind. T (X ) ist eine Funktion von i X i
und damit ein UMVUE-Schätzer für e −θ .
Wir berechnen nun die Varianz von T (X ).
P
µ
¶P
1 i Xi
Varθ T (X ) = Varθ 1 −
n
õ
¶P !2 Ã µ
¶P !2
1 i Xi
1 i Xi
− Eθ 1 −
= Eθ 1 −
n
n
µ
¶Pi X i
1
Eθ 1 −
= e −θ
n
õ
Ã
!
¶P !2
µ
¶
X
X
1 i Xi
1 2k
Eθ 1 −
=
1−
P
Xi = k
n
n
i
k≥0
¶
µ
X
1 2k −nθ (nθ)k
=
e
1−
n
k!
k≥0
³
´
k
(n−1)2 θ
X
n
−nθ
= e
k!
k≥0
µ
¶
µ µ
¶¶
(n − 1)2 θ
1
= exp (−nθ) exp
= exp θ −2 +
n
n
µ
¶
θ(1 − 2n)
Varθ T (X ) = exp
− exp (−2θ) .
n
Nun zur Informationsungleichung.
Wir haben Ψ(θ) = g (θ) = E T (X ) und Ψ0 (θ) =
¡
¢
2
−e −θ und daher Ψ0 (θ) = e −2θ . Die Fischer-Information I (θ) = nθ wurde bereits in der
Vorlesung berechnet. Damit erhalten wir
¡ 0 ¢2
Ψ (θ)
I (θ)
=
θe −2θ
.
n
Wir zeigen nun
¡ 0 ¢2
¶
Ψ (θ)
θ(1 − 2n)
θe −2θ
exp
− exp (−2θ) = Varθ T (X ) >
=
n
I (θ)
n
µ
136
KAPITEL 3. MATHEMATISCHE STATISTIK
indem wir äquivalente Ungleichungen betrachten.
¶
θ(1 − 2n)
θe −2θ
exp
− exp (−2θ) >
n
n
¶
µ
¶
µ
θ
θ
−2θ
exp
− 2θ > e
1+
n
n
µ
¶
θ n
θ > log 1 +
.
n
µ
Wir wissen aber, dass
µ
¶
θ n
e θ = lim 1 +
n→∞
n
gilt, und dass die Approximationsfolge streng monoton wachsend ist. Damit ist die
Ungleichung für alle θ > 0 bewiesen. Daraus können wir ableiten, dass die Schranke
in der Informationsungleichung nie angenommen wird.
265. Log-Normal-Verteilung. MLS und UMVUE.
variablen X 1 , · · · , X n mit der Dichte
Gegeben seien i.i.d. Zufalls-
à ¡
¢2 !
log x − µ
1
g µ (x) = p exp −
1R>0 (x)
2
x 2π
und dem unbekannten Parameter µ ∈ R.
(a) Finden Sie einen Maximum-Likelihood-Schätzer (MLS) für den Parameter µ.
(b) Zeigen Sie, dass der von Ihnen gefundene MLS erwartungstreu ist. Dabei können
Sie die Darstellung als natürliche exponentielle Familie benutzen oder direkt
den Erwartungswert von dem MLS berechnen.
(c) Finden Sie einen UMVUE Schätzer für µ.
Lösung. Einer Standardprozedur folgend berechnen wir den MLS.
Ã
!
n ¡
p −n
¢2
1X
L(x 1 , · · · , x n ) =
2π exp −
log x i − µ
2 i =1
X
¢2
1 X¡
n
log x i − µ
l (x 1 , · · · , x n ) = − x i − log 2π −
2
2 i
i
X¡
¢ X
∂
l=
log x i − µ = log x i − nµ.
∂µ
i
i
Y
x i−1
∂2
l = −n < 0
∂µ2
1X
µ̂ =
log x i .
n i
Die Darstellung als natürliche exponentielle Familie ist
!
¡
¢2
p
log x
µ2
g (x) = exp µ log x −
− log x −
− log 2π .
2
2
Ã
3.7. UMVUE
137
Daraus erhalten wir
¡
¢
g (x 1 , · · · , x n ) = exp c(µ)T (X ) + d 0 (µ) + S(x) 1R>0 (x)
c(µ) = µ
X
T (X ) = log x i
i
d 0 (µ) = −
nµ2
.
2
Mit Hilfe der Formel
E T (X ) = −d 00 (µ) = nµ.
können wir nun den Erwartungswert der natürlichen suffizienten Statistik T (X )
P
berechnen. Damit ist der MLS µ̂ = n1 i log x i ein erwartungstreuer Schätzer. Nachdem
c(R) offenes Rechteck enthält, ist die Statistik T (X ) vollständig und suffizient, und
nach dem Satz von Lehmann-Scheffé ist µ̂ ein UMVUE Schätzer.
266. UMVUE-Schätzer für Poisson-Verteilung.
sonverteilt mit der Wahrscheinlichkeitsfunktion
p(k) = P (X i = k) = e −λ
λk
k!
Seien X 1 , . . . , X n i.i.d. und Pois-
k ∈ {0, 1, . . .}
und λ > 0.
(a) Zeigen Sie, dass die Statistik T (X ) =
Testproblem ist.
Pn
i =1 X i
(b) Zeigen Sie, dass der Schätzer S (X ) = n1
vollständig und suffizient für dieses
Pn
i =1 X i
von λ unverzerrt ist.
(c) Zeigen Sie, dass S(X ) ein eindeutiger UMVUE-Schätzer für λ ist.
Lösung.
(a) Die Wahrscheinlichkeitsfunktionen von (X 1 , . . . , X n ) bilden eine exponentielle
Familie, denn
n
Y
i =1
p(x i ) =
n
Y
e −λ
i =1
λx i
xi !
Ã
= exp −λn + log λ ·
n
X
xi −
i =1
n
X
!
log x i ! .
i =1
Somit
ist T (X
) = i X i eine suffiziente Statistik. T (X ) ist auch vollständig, denn
©
ª
log λ | λ > 0 enthält ein offenes Rechteck. Die Vollständigkeit kann man hier
auch leicht aus der Definition herleiten.
P
(b) Wir berechnen
EX i =
X
k≥0
ke −λ
λk
= λ.
k!
Daraus ergibt sich
ES(X ) =
1X
E X i = λ.
n i
S(X ) ist also ein unverzerrter Schätzer von λ.
138
KAPITEL 3. MATHEMATISCHE STATISTIK
(c) Nachdem S(X ) = n1 T (X ) gilt, ist
E (S(X )|T (X )) = S(X )
und somit ist S(X ) nach dem Satz von Lehmann-Scheffe ein UMVUE-Schätzer für
λ. Die Eindeutigkeit folgt aus Varλ T (X ) < ∞ für alle λ > 0. Das ist der Fall denn
E X 2 = λ (λ + 1)
Var X = λ.
3.8
Asymptotische Theorie
267. Verschobene Gleichverteilung und Konsistenz. Die Zufallsvariablen X 1 , . . . , X n
seien i.i.d. mit X i ∼ U (θ, θ + 1). Der Parameter θ sei unbekannt. Für die Schätzer
1
T1 (X ) = X̄ − 12 und T2 (X ) = X (1) − n+1
haben wir bereits
Varθ T1 (X ) =
Varθ T2 (X ) =
1
12n
n
(n + 1)2 (n + 2)
gezeigt. Überprüfen Sie nun die beiden Schätzer auf schwache Konsistenz.
Lösung. Wir zeigen zunächst, dass die beiden Schätzer erwartungstreu sind. Es gilt
θ+1
1
xd x = θ + .
2
R
θ
µ
¶
1X
1 1X
1
1
E T1 (X ) =
Xi − =
θ + − = θ.
n i
2 n i
2
2
Z
E Xi =
Z
xp θ (x)d x =
Das heißt T1 ist erwartungstreu.
1
Nun kommen wir zu T2 = X (1) − n+1
. Die Berechnung des Erwartungswertes führt
auf
1
E T2 (X ) = −
+ E X (1)
Z n +1
E X (1) =
min {x 1 , · · · , x n } d x 1 · · · d x n
[θ,θ+1]n
Z
=
min {x 1 + θ, · · · , x n + θ} d x 1 · · · d x n
[0,1]n
Z
=θ+
min {x 1 , · · · , x n } d x 1 · · · d x n
[0,1]n
Z
X
=θ+
x σ(1) d x 1 · · · d x n
σ∈S n 0≤x σ(1) ≤...≤x σ(n) ≤1
wobei die Summe über alle n! Permutationen der n Elemente geführt wird. Es gilt
Z
1
Z
0≤x 1 ≤...≤x n ≤1
x1 d x1 · · · d xn =
0
x2
Z
···
0
x1 d x1 · · · d xn =
und
X Z
σ∈S n 0≤x σ(1) ≤...≤x σ(n) ≤1
x σ(1) d x 1 · · · d x n =
1
.
n +1
1
(n + 1)!
3.8. ASYMPTOTISCHE THEORIE
139
Wir erhalten also
E X (1) =
1
+θ
n +1
und
E T2 = −
1
+ E X (1) = θ.
n +1
Es ist leicht zu sehen, dass beide dieser Schätzer die Bedingungen
(a) E θ (Tn2 ) < ∞ für alle θ ∈ Θ und alle n ∈ N.
(b) limn→∞ E θ (Tn ) = θ für alle θ ∈ Θ.
(c) limn→∞ Varθ Tn = 0 für alle θ ∈ Θ.
erfüllen. Es gilt für i = 1, 2
E Ti2 = Var Ti + (E Ti )2 < ∞
sowie E Tn → θ wegen Erwartungstreue und Var Ti → 0. Somit sind beide dieser Schätzer
schwach konsistent.
Die Aussage kann man auch direkt beweisen. Im Fall T1 bietet sich die Anwendung
des schwachen Gesetzes der großen Zahl an. Die schwache Konvergenz von T2 gegen θ
folgt mit Hilfe der Markov-Ungleichung.
268. Konsistenz. Hinreichende Bedingungen. Seien X 1 , . . . , X n i.i.d. mit Verteilung Pθ und θ ∈ Θ ⊂ R. Für jedes n ∈ N sei Tn = T (X 1 , . . . , X n ) ein Schätzer für θ mit
folgenden Eigenschaften:
(a) E θ (Tn2 ) < ∞ für alle θ ∈ Θ und alle n ∈ N.
(b) limn→∞ E θ (Tn ) = θ für alle θ ∈ Θ.
(c) limn→∞ Varθ Tn = 0 für alle θ ∈ Θ.
Dann ist der Schätzer Tn schwach konsistent, d.h. Tn →Pθ θ für n → ∞.
Lösung. Der Schätzer Tn ist schwach konsistent wenn
P (|Tn − θ| ≥ ε) → 0
wenn n → ∞ für alle ε > 0 und θ ∈ Θ. Wir schätzen die obige Wahrscheinlichkeit mit
Hilfe der Markov-Ungleichung
P (|X | ≥ ε) ≤
E f (|X |)
f (ε)
ab und erhalten für feste n, θ und ε
P (|Tn − θ| ≥ ε) ≤
=
E (Tn − θ)2
2
¡ ε2
¢
E Tn − 2θTn + θ 2
ε2
¡ 2
¢
= ε E Tn − 2θE Tn + θ 2
¢
¡
= ε−2 Var Tn + (E Tn )2 − 2θE Tn + θ 2 .
−2
140
KAPITEL 3. MATHEMATISCHE STATISTIK
Laut Voraussetzung ist Tn quadratisch integrierbar, daher macht die obige Berechnung
Sinn. Für n → ∞ erhalten wir
¡
¢
ε−2 Var Tn + (E Tn )2 − 2θE Tn + θ 2 → 0
und daraus
P (|Tn − θ| ≥ ε) → 0.
Der Schätzer Tn ist also schwach Konsistent.
Asymptotische Verteilung von MLE. Seien X 1 , . . . , X n i.i.d. mit der Dichte
p(x, θ) = θx θ−1 1(0,1) (x) für θ > 0. Finden Sie einen Maximum-Likelihood-Schätzer für θ
und seine asymptotische Verteilung.
269.
Lösung. Die Likelihoodfunktion der Stichprobe x 1 , . . . , x n ist
L(x, θ) =
Y
p(x i , θ) = θ n
Y
i
i
x iθ−1 .
Daraus erhalten wir
l (x, θ) = log L(x, θ)
= n log θ + (θ − 1)
X
log x i
i
n X
∂
l (x, θ) = + log x i
∂θ
θ
i
n
∂2
l (x, θ) = − 2 < 0
∂θ 2
θ
∀θ > 0.
Aus der Gleichung
∂
l (x, θ) = 0
∂θ
erhalten wir den Maximum-Likelihood-Schätzer
n
.
i log X i
θ̂(X 1 , . . . , X n ) = − P
Wir berechnen die Fischer-Information pro Beobachtung.
µ
I 1 (θ) = E θ
¶2
∂
log p θ (X )
∂θ
¶2
∂
= Eθ
log θ + (θ − 1) log X
∂θ
µ
¶2
1
= Eθ
+ log X
θ
µ
¶
1
2
= E θ 2 + log X + (log X )2
θ
θ
µ
3.8. ASYMPTOTISCHE THEORIE
141
Es gilt nun
1
Z
E θ log X =
0
log xθx θ−1 d x =
¯1 Z
¯
θ
= x log x ¯ −
0
1
0
1
Z
log x(x θ )0 d x
0
1
x θ−1
dx = −
θ
θ
1
Z
2
E θ (log X ) =
0
(log x)2 θx θ−1 d x
¯1 Z 1
2
¯
= x θ (log x)2 ¯ −
2(log x)x θ−1 d x = 2
0
θ
0
Die Fischer-Information ist nun
I 1 (θ) =
1
θ2
und die asymptotische Verteilung von θ̂ erfüllt
¢ L
p ¡
n θ̂n (X ) − θ0 −→ N (0, θ 2 )
falls die Bedingungen ( AR ) erfüllt sind. Das ist in der Tat der Fall denn der Parameterraum Θ = R>0 offen ist. Weiters gilt
1
Z
0
∂2
p(x, θ)d x =
∂θ 2
1
Z
0
∂2
θx θ−1 d x
∂θ 2
1
Z
θ x θ−1 log2 x + 2 x θ−1 log xd x
h
i1
= x θ log2 x = 0
=
0
0
und
∂2
log p(x, θ)
∂θ 2
∂2
= 2 log θ + (θ − 1) log x
∂θ
1
=− 2.
θ
A(θ, x) =
A(θ, x) ist von x unabhängig und daher gleichmässig beschränkt in einer hinreichend
kleinen Umgebung von θ0 die 0 nicht enthält. K kann daher konstant gewählt werden.
Die Fisher-Information ist positiv und aus p(x, θ) = p(x, θ0 ) f.s. in x ∈ R folgt θ = θ0 denn
p(x, θ) = θx θ−1 ein Polynom in x ist. Damit sind die ( AR ) Regularitätsbedingungen
erfüllt und obige Aussage über die asymptotische Verteilung des MLS gerechtfertigt.
270. Asymptotische Effizienz. Seien X 1 , . . . , X n i.i.d. mit E X 1 = µ 6= 0, Var X 1 = 1
und E X 14 < ∞. Der Erwartungswert µ sei unbekannt. Ferner seien
n ¡
¢
1X
X i2 − 1
n i =1
1
T2 (X ) = X̄ 2 −
n
T1 (X ) =
zwei Schätzer für µ2 .
142
KAPITEL 3. MATHEMATISCHE STATISTIK
(a) Zeigen Sie, dass T1 und T2 asymptotisch normalverteilt sind und berechnen Sie
deren asymptotische Erwartung und Varianz.
(b) Berechnen Sie die asymptotische Effizienz von T1 zu T2 .
(c) Zeigen Sie, dass die asymptotische Effizienz von T1 zu T2 nicht größer ist als 1,
falls Verteilung von X 1 − µ um 0 symmetrisch ist.
Lösung. Betrachten wir zunächst den Schätzer T1 . Wir erhalten
E X i2 = Var X i + (E X i )2 = 1 + µ2
Ã
!
¢ p 1X 2
p ¡
2
2
n T1 − µ = n
X − 1 − µ →d N (0, Var X i2 )
n i i
indem wir zentralen Grenzverteilungssatz auf Zufallsvariablen X i2 anwenden. Var X i2
existiert nach Voraussetzung.
Wir bestimmen die asymptotische Verteilung von T2 . Zentraler Grenzverteilungssatz liefert uns
¢
p ¡
n X̄ − µ →d N (0, 1).
Mit Hilfe der Delta-Methode und des Satzes von Slutsky erhalten wir
¢ p ¡
¢
p ¡
1
n T2 − µ2 = n X̄ 2 − µ2 − p →d 2µN (0, 1) = N (0, 4µ2 ).
n
Die asymptotische Effizienz von T1 zu T2 ist gegeben durch
e(θ, T1 , T2 ) =
4µ2
Var X 12
Ist die
Verteilung
X 1 − µ symmetrisch um 0, so ist die Schiefe der Verteilung gleich
¡
¢3
0, d.h. E X 1 − µ = 0 und wir können mit Hilfe der Jensenschen Ungleichung auf
Var X 12 ≥ 4µ2
und e ≥ 1 schliessen.
3.9
Konfidenzintervalle
271. Konfidenzintervall. Normalverteilung. Seien X 1 , . . . , X n i.i.d. mit X i ∼ N (µ, σ2 ),
wobei sowohl µ als auch σ unbekannt seien. Zeigen Sie, dass
"
n −1
χ2n−1,1−α/2
2
s (X ),
n −1
χ2n−1,α/2
#
2
s (X )
ein (1 − α)-Konfidenzintervall für σ2 ist, wobei s 2 (X ) die Stichprobenvarianz und χ2n,a
das a -Quantil der χ2n -Verteilung bezeichnen.
3.9. KONFIDENZINTERVALLE
143
Lösung. Die Stichprobenvarianz ist definiert durch
n
1 X
(X i − X̄ )2 .
n − 1 i =1
s 2 (X ) :=
Die Verteilung der Stichprobenvarianz ist bereits bekannt.
n µ X − X̄ ¶2
(n − 1)s 2 (X ) X
i
=
∼ χ2n−1
2
σ
σ
i =1
Das Konfidenzintervall erhalten wir aus

P
µ
P
n −1
χ2n−1,1− α
2
s 2 (X ) ≤ σ2 ≤

n −1
χ2n−1, α
2
s 2 (X ) =
¶
n −1 2
n −1 2
2
2
s
(X
)
≤
χ
s
(X
)
= 1 − α.
α ∧χ
α ≤
n−1,1− 2
n−1, 2
σ2
σ2
272. Konfidenzintervall. Exponentialverteilung.
nentialverteilt mit der Dichte
Seien X 1 , . . . , X n i.i.d. expo-
p θ (x) = θe −θx 1R>0 (x).
Zeigen Sie, dass
"
¢
¡ ¢#
¡
− log 1 − α2 − log α2
,
nX (1)
nX (1)
ein (1 − α)-Konfidenzintervall für θ ist.
Lösung. Zu zeigen ist folgende Gleichung, die das Konfidenzintervall charakterisiert:
Ã
¡
¢
¡α¢!
α
P
− log 1 −
nX (1)
2
≤θ≤
− log
2
nX (1)
= 1 − α.
Betrachten wir die Wahrscheinlichkeiten
¡
¢ Y
P nθX (1) ≥ x = P (nθX i ≥ x)
i
Y ³
x ´
= P Xi ≥
nθ
i
Y −x
−x
= e n =e .
i
Die Gleichung
¡
¢
P c 1 (α) ≤ nθX (1) ≤ c 2 (α) = e −c1 (α) − e −c2 (α) = 1 − α
¢
¡ ¢
¡
ist unter anderem für c 1 = − log 1 − α2 und c 2 = − log α2 erfüllt.
Konfidenzintervall. Varianzenvergleich bei Normalverteilung. Seien
X 1 , . . . , X n , Y1 , . . . , Yn unabhängig und normalverteilt, mit X i ∼ N (0, σ2X ), Yi ∼ N (0, σ2Y )
P
und unbekannten Parametern σ2X > 0 und σ2Y > 0. Zeigen Sie, dass für S 2X = ni=1 X i2 und
273.
S Y2 =
Pn
2
i =1 Yi
"
−1
F n,n
³ α ´ S2
2
Y
S 2X
−1
, F n,n
³
2
α ´ SY
1−
2 S 2X
ein (1 − α)-Konfidenzintervall für den Quotienten
Verteilungsfunktion der Fn,n -Verteilung.
σ2Y
σ2X
#
ist. Fn,n bezeichnet dabei die
144
KAPITEL 3. MATHEMATISCHE STATISTIK
Lösung. Zu zeigen ist die Gleichung
"
P
−1
F n,n
³ α ´ S2
2
Y
S 2X
σ2Y
−1
≤ F n,n
2
σX
≤
³
2
α ´ SY
1−
2 S 2X
#
= 1 − α.
Es gilt aber
2
σ−2
X SX
σ−2
S2
Y Y
P ³ X i ´2
=
i
σX
i
σY
∼ F n,n .
P ³ Y i ´2
274. Gleichverteilung. Konfidenzintervall. Seien X 1 , · · · , X n i.i.d. und stetig gleichverteilt auf dem Intervall [0, θ] mit θ > 0. D.h. die Dichte von X 1 ∼ U (0, θ) ist p θ (x) =
θ −1 1[0,θ] (x).
(a) Zeigen Sie, dass die Zufallsvariable
X (n)
θ
ein Pivot ist. Dabei ist X (n) = max {X 1 , · · · , X n }.
(b) Zeigen Sie, dass
"
X (n)
X (n)
¡
¢ , ¡ α ¢1/n
α 1/n
1− 2
2
#
ein (1 − α)-Konfidenzintervall für θ ist.
Lösung. Wir berechnen zunächst die Verteilung von X (n) . Für 0 ≤ η ≤ θ gilt
¡
¢
¡
¢
P X (n) < η = P X 1 < η ∧ · · · ∧ X n < η
n
Y
¡
¢
=
P Xi < η
i =1
=
³ η ´n
θ
.
Es gilt also P X (n) /θ < η = ηn . Damit erhalten wir
¡
¢
Ã
"
X (n)
X (n)
P θ∈ ¡
¢ , ¡ α ¢1/n
α 1/n
1− 2
2
#!
= 1 − α.
275. Konfidenzintervall. Mittelwert der Normalverteilung. Seien X 1 , . . . , X n
i.i.d. normalverteilt mit X i ∼ N (θ, 1), wobei θ ∈ R ein unbekannter Parameter ist.
(a) Zeigen Sie, dass die Verteilung von
¢
p ¡
n X̄ − θ
unabhängig von dem Parameter θ ist. Dabei ist X̄ = n1
(b) Berechnen Sie ein (1 − α)-Konfidenzintervall für θ .
Pn
i =1 X i .
3.10. TESTTHEORIE
145
Lösung.
(a) Die Verteilung von
¢
p ¡
n X̄ − θ ist
n
X
Xi
∼ N (nθ, n)
i =1
n
X
³ n´
1
X i ∼ N θ, 2
n i =1
n
¢
p ¡
n X̄ − θ ∼ N (0, 1) ,
also unabhängig von θ .
(b) Konfidenzintervall
³
´
¢
p ¡
P θ z α2 ≤ n X̄ − θ ≤ z 1− α2
= 1−α
µ
·
¸¶
z 1− α
zα
P θ θ ∈ X̄ − p 2 , X̄ − p2
= 1 − α.
n
n
3.10
Testtheorie
276. Test. Mittelwertvergleich unter Normalverteilung. Seien die Zufallsvariablen X 1 , . . . , X n , Y1 , . . . , Yn unabhängig und normalverteit, mit X i ∼ N (µX , σ2X ) und
Yi ∼ N (µY , σ2Y ). Die Mittelwerte µ X und µY sind dabei unbekannt, die Varianzen
dagegen σ2X > 0, σ2Y > 0 bekannt und fix.
(a) Zeigen Sie, dass
s
X̄ − Ȳ ±
σ2X + σ2Y
n
z 1− α2
ein (1 − α)-Konfidenzintervall für die Differenz der Mittelwerte µX − µY ist.
(b) Konstruieren Sie einen Test zu dem Signifikanzniveau von 5% für die Hypothese
H0 : µ X = µY gegen die Alternative H1 : µ X 6= µY .
(c) Drücken Sie die zum obigen Test gehörige Gütefunktion in Abhängigkeit von
∆ = µ X − µY aus und skizzieren Sie die Gütefunktion.
Lösung. Wir betrachten
s

P  X̄ − Ȳ −
σ2X + σ2Y
n
s
z 1− α2 ≤ µ X − µY ≤ X̄ − Ȳ +
σ2X + σ2Y
n

z 1− α2  = 1 − α.
Und daraus
 s
P −
σ2X + σ2Y
n
s
z 1− α2 ≤ Ȳ − µY − X̄ − µ X ≤
¡
¢
σ2X + σ2Y
n


z 1− α2  =

Ȳ − µY − X̄ − µ X


P −z 1− α2 ≤
≤ z 1− α2  .
q 2 2
¡
σ X +σY
n
¢
146
KAPITEL 3. MATHEMATISCHE STATISTIK
Mit
Ã
Ȳ − µY − X̄ − µ X ∼ N 0,
¡
¢
σ2X
n
+
σ2Y
!
n
erhalten wir die erste Gleichung. Wir setzen
s
θ1
=
X̄ − Ȳ −
n
s
θ2
=
X̄ − Ȳ +
σ2X + σ2Y
σ2X + σ2Y
n
z 1− α2
z 1− α2
und konstruieren den Test
δ (X , 0) = 1{0∉[θ1 ,θ2 ]} .
Mit α = 0.05 ist δ(X , 0) der gesuchte Test mit Signifikanzniveau 5%.
¡
¢
Berechnen wir die Gütefunktion des Tests δ (X , 0). Mit θ = µX , µY und σ =
erhalten wir
q
σ2X +σ2Y
n
G δ (θ) = E θ (δ (X , 0)))
= P θ (δ(X , 0) = 1)
³
´
= P θ 0 ≤ X̄ − Ȳ − σz 1− α2 ∨ X̄ − Ȳ + σz 1− α2 ≤ 0
¶
µ
X̄ − Ȳ
X̄ − Ȳ
= Pθ
≥ z 1− α2 ∨
≤ z α2 .
σ
σ
Sei nun Z ∼ N (0, 1) und ∆ = µX − µY . Da X̄ −σȲ ∼ N (µX − µY , 1) können wir die Gütefunktion des Test folgendermassen notieren
³
´
G δ (∆) = P Z ≤ z α2 − ∆ ∨ Z ≥ z 1− α2 − ∆
³
´
³
´
= Φ z α2 − ∆ + 1 − Φ z 1− α2 − ∆ .
Listing 3.1: R Code zum Plotten der Gütefunktion
require(ggplot2)
alpha=.05
X=seq(-6,6,0.05)
g <- function(delta) {
return( pnorm(qnorm(alpha/2) - delta ) +1 -pnorm(qnorm(1-alpha/2)-delta))
}
qplot(X,g(X), geom="line", xlab="Delta", ylab="Guete")
277. Poisson-Verteilung. Test. Seien X 1 , . . . , X n i.i.d. Poisson-verteilt mit unbekanntem Parameter λ > 0.
(a) Verwenden Sie die natürliche suffiziente Statistik, um einen Test mit Signifikanzniveau α für die Hypothese H0 : λ ≤ λ0 gegen die Alternative H1 : λ > λ0 zu
finden. Konstruieren Sie dazu zunächst einen Test für die Hypothese λ = λ0 und
zeigen Sie, dass die Gütefunktion streng monoton wachsend in λ ist.
(b) Benutzen Sie den zentralen Grenzwertsatz, um eine Approximation für den
kritischen Wert zu finden.
(c) Seien α = 0.05, n = 200, 200
i =1 X i = 2085 und λ0 = 10. Klären Sie, ob die Hypothese
H0 : λ ≤ λ0 verworfen wird und bestimmen Sie den p -Wert.
P
3.10. TESTTHEORIE
147
Lösung. Wir konstruieren zunächst einen Test für
H0 : λ = λ0
H1 : λ > λ0
gegen
und werden anschließend zeigen, dass H0 : λ = λ0 durch H0 : λ < λ0 ersetzt werden
kann.
Die Wahrscheinlichkeitsfunktion der Poisson-Verteilung ist
p λ (x) = P (X i = x)
λx
x!
¡
¢
= exp x log λ − λ − log x! ,
P
woraus wir die natürliche suffiziente Statistik T (X ) = i X i ablesen können. Betrachten
= e −λ
wir also den Test
δ j (X ) = 1{T (X )> j } (X )
für j > 0. Die Güte dieses Tests ist
G δ j (λ) = E λ δ(X )
= P λ (δ(X ) = 1)
¡
¢
= P λ T (X ) > j
¡
¢
= 1 − P λ T (X ) ≤ j
j
X
= 1−
e −λn
i =0
(λn)i
,
i!
da T (X ) ∼ Poiss(nλ). Wir legen j = j (α) so fest, dass der Test δ j Signifikanzniveau α
hat, d.h.
G δ (λ0 ) = 1 −
j
X
i =0
e −λ0 n
(λ0 n)i
≤ α.
i!
Die Gütefunktion ist streng monoton wachsend, denn die Ableitung nach λ
j
j
X
X
∂
i (λn)i −1
(λn)i
G δ (λ) = ne −λn
− ne −λn
∂λ
i!
i =0 i !
i =1
"
#
j
−1
X
(λn)i jX
(λn)i
= e −λn n
−
>0
i =0 i !
i =0 i !
ist positiv, solange λ > 0 gilt. Die Hypothese H0 : λ = λ0 kann also durch H0 : λ ≤ λ0
ersetzt werden, ohne dass Anpassung des Signifikanzniveaus notwendig ist.
Berechnen wir nun eine Approximation für j = j (α) vom zentralen Grenzwertsatz
ausgehend.
Ã
!
X
¡
¢
P λ0 T (X ) > j = P λ0
Xi > j
i
Ã
!
X
= P λ0
X i − λ0 > j − λ0
i
Ã
1 X X i − λ0 j − nλ0 1
= P λ0 p
> p
p
p
n i
n
λ0
λ0
Ã
!
j − nλ0 1
' 1−Φ p
p .
n
λ0
!
148
KAPITEL 3. MATHEMATISCHE STATISTIK
Aus
Ã
!
j − nλ0
1−Φ p
=α
λ0 n
erhalten wir
j − nλ0
= z 1−α
p
λ0 n
p
j = λ0 nz 1−α + nλ0 .
Für α = 0.05, n = 200, i X i = 2085 und λ0 = 10 ist j ' 2073.56, und somit wird in diesem
Fall die Nullhypothese nicht verworfen.
P
278. Exponentialverteilung. Test. Seien X 1 , . . . , X n i.i.d. und exponentialverteilt
zum Parameter θ . Der Mittelwert werde mit µ = θ −1 bezeichnet. Man interessiert sich
für den Test H0 : µ ≤ µ0 gegen die Alternative H1 : µ > µ0 .
(a) Sei c 1−α das (1 − α)-Quantil der χ22n -Verteilung. Zeigen Sie, dass ein Test mit
Verwerfungsbereich
n
o
µ c
X̄ ≥
0 1−α
2n
ein Test mit Signifikanzniveau α ist.
(b) Bestimmen Sie die Güte des Tests aus Punkt 1 an der Stelle µ.
(c) Zeigen Sie, dass
µ0 z α p µ − µ0
+ n
Φ
µ
µ
µ
¶
eine Approximation der Güte des Tests aus Punkt 1 an der Stelle µ ist, wobei
Φ die Verteilungsfunktion und z α das α-Quantil der Standardnormalverteilung
bezeichnen.
(d) Gegeben sei folgende Stichprobe:
3, 150, 40, 34, 32, 37, 34, 2, 31, 6, 5, 14, 150, 27, 4, 6, 27, 10, 30, 27.
Berechnen Sie den p -Wert zum Test aus Punkt 1 und interpretieren Sie diesen
für gegebenes µ0 = 25.
Lösung. Die Verteilungen in dieser Aufgabe gehören zur Gamma-Familie, denn
χ22n = Gamma(n, 12 ) und Exp(θ) = Gamma(1, θ ). Die Dichte von χ2n ist ja
p χ2n (x) =
n
1
−1 − x
¡ n ¢ x 2 e 2 1R>0 (x).
2 Γ 2
n
2
Das Signifikanzniveau des Tests ist also
P µ0
³
Ã
!
µ0 c 1−α ´
2 X
X̄ ≥
= P µ0
X i > c 1−α
2n
µ0 i
Ã
!
X
= P µ0 2θ0 X i > c 1−α = α
i
3.10. TESTTHEORIE
149
denn
X
Xi
∼ Exp(θ)
Xi
∼ Gamma(n, θ)
Xi
1
∼ Gamma(n, ).
2
i
2θ
X
i
Die Güte des Tests ist
G δ (θ) = E θ δ(X )
³
µ0 c 1−α ´
= P θ X̄ ≥
2n
!
Ã
X
c 1−α
= Pθ 2 X i ≥
.
θ0
i
Nachdem 2
P
i
X i ∼ Gamma(n, θ2 ) gilt, können wir
Z = 2θ
X
i
setzen und erhalten
1
X i ∼ Gamma(n, )
2
¶
θ
G δ (θ) = P Z ≥ c 1−α .
θ0
µ
Um die Güte des Tests zu approximieren, entwickeln wir zunächst eine approximative Version des Tests selbst. Das hat den Vorteil, dass hier das Signifikanzniveau
genauer kontrolliert werden kann. Wir berechnen zunächst mit Hilfe der Gleichung
Ã
P µ0
!
X
Xi ≥ c ≤ α
i
den approximativen Verwerfungsbereich [c, +∞].
Ã
P µ0
!
1 X X i − µ0
1 c − nµ0
≥p
≤ α
p
µ0
n i
n µ0
µ
¶
1 nµ0 − c
Φ p
= α
n µ0
p
nµ0 − µ0 nz α = c
Daraus errechnet sich wie folgt die approximative Güte des Tests.
Ã
Pµ
1 X Xi − µ
1 c − nµ
≥p
p
µ
n i
n µ
!
µ
¶
1 nµ − c
= Φ p
n µ
¢¶
¡
p
µ
1 nµ − nµ0 − µ0 nz α
= Φ p
µ
n
µ
¶
p µ − µ0
µ0
= Φ n
+ zα
.
µ
µ
Für eine feste Beobachtung X ist der p -Wert des Tests das kleinste Signifikanzniveau, bei welchem der Test die Nullhypothese H0 verwirft. Für die Berechnung des
150
KAPITEL 3. MATHEMATISCHE STATISTIK
p -Werts benutzen wir die approximative Version des Tests. Dieser Test verwirft H0 ,
p
P
wenn i X i ≥ c = nµ0 − µ0 nz α . Das ist äquivalent zu
X
p
≥ nµ0 − µ0 nz α
Xi
i
µ P
¶
i X i − nµ0
Φ − p
≤ α
nµ0
Das kleinste α, das diese Ungleichung erfüllt, ist der p -Wert
µ P
¶
i X i − nµ0
Φ − p
.
nµ0
Für die oben angegebene Stichprobe und µ0 = 25 ist der p -Wert gleich 0.0653, was als
Evidenz gegen die Nullhypothese interpretiert werden kann.
279. Rayleigh-Verteilung. UMP-Test. Seien X 1 , . . . , X n i.i.d. und Rayleigh-verteilt
zum unbekannten Parameter θ > 0, d.h. X 1 hat die Dichte
p θ (x) =
x − x 22
e 2θ 1R>0 (x).
θ2
(a) Finden Sie eine optimale Teststatistik Tn für
H0 : θ ≤ 1
gegen
H1 : θ > 1.
(b) Konstruieren Sie unter Benutzung von Tn einen UMP-Test mit Signifikanzniveau
α, wobei der kritische Wert c approximativ mit Hilfe des zentralen Grenzwertsatzes bestimmt werden soll.
Lösung. Der Likelihoodquotient für das Testproblem H0 : θ = 1 gegen H1 : θ = ν
³ x2 ´
exp − 2νi 2
³ x2 ´
Q
x
exp
− 2i
i i
õ
!
¶
1
1 X 2
1
exp
−
x
ν2n
2 2ν2 i i
Q
L(x, 1, ν) =
=
xi
i ν2
ist eine optimale Teststatistik. T (X ) = f (L(x, 1, ν)) =
statistik, denn
¡
¢
f (η) =
P
i
X i2 ist auch eine optimale Test-
log ν2n η
1
2
− 2ν1 2
ist monoton wachsend. Der Test
δk (X ) = 1©P
i
X i2 ≥k
ª
ist ein NP-Test für H0 : θ = 1 gegen H1 : θ = ν für alle ν > 1. Daher ist δk auch ein UMPTest für das Testproblem H0 : θ = 1 gegen H1 : θ > 1. Um dieses Resultat auf das Testproblem H0 : θ ≤ 1 gegen H1 : θ > 1 zu verallgemeinern, zeigen wir, dass G δk (1) ≥ G δk (θ)
3.10. TESTTHEORIE
151
für alle θ ∈ (0, 1) gilt und somit wird das Signifikanzniveau auf der nun erweiterten
Menge Θ0 = {θ ≤ 1} gehalten.
Für ein positives k ist
³
p ´
¡
¢
P X i2 ≥ k = P X ≥ k
Z ∞
x − x2
= p 2 e 2θ2 d x
k θ
Z ∞
=
e −z d z
k
θ2
monoton fallend, also gilt P θ X i2 ≥ k ≤ α für θ ∈ (0, 1), wenn P 1 X i2 ≥ k ≤ α gilt.
Konstruieren wir nun mit Hilfe des zentralen Grenzwertsatzes einen zum Signifikanzniveau α gehörigen Verwerfungsbereich {θ > k}. Zunächst berechnen wir
¢
¡
EX
¡
¢
µ
¶
x2
x
exp − 2 d x
=
x
θ2
2θ
Z0 ∞
¡ 2 ¢n −z
=
2θ z e d z
0
Z ∞
n 2n
z (n+1)−1 e −z d z
= 2 θ
Z
2n
∞
2n
0
= 2n θ 2n Γ(n + 1) = 2n θ 2n n!
und daraus E X 2 = 2θ 2 , E X 4 = 8θ 4 , Var X 2 = 4θ 4 sowie
Ã
P
!
X
i
X i2
≥k
!
X X i2 − µ k − nµ
= P
≥ p
p
nσ
nσ
i
!
Ã
2
X X i − 2 k − 2n
= P
p ≥ p
2 n
i 2 n
¶
µ
2n − k
' Φ
.
p
2 n
Ã
Schließlich erhalten wir aus P (T (X ) ≥ k) ≤ α die Approximation
2n − k
Φ
p
2 n
µ
¶
k
≤ α
p
= 2n − 2 nz α .
280. Pareto-Verteilung. Optimaler Test. Eine Zufallsvariable heißt Pareto-Verteilt
zu den Parametern k > 0, a > 0, falls sie die Dichte
p(x) = ak a x −a−1 1R>k (x)
besitzt. X 1 , . . . , X n seien i.i.d. Pareto(k, a)-verteilt, wobei k = 1 und a unbekannt sei.
P
Zeigen Sie, dass T (X 1 , . . . , X n ) = ni=1 log (X i ) eine optimale Teststatistik für
H0 :
ist.
1
1
≤
a a0
gegen
H1 :
1
1
>
a a0
152
KAPITEL 3. MATHEMATISCHE STATISTIK
Lösung. Substituieren wir zunächst ã = a1 . Das Testproblem lässt sich nun schreiben
als H0 : ã ≤ ã0 gegen H1 : ã > ã0 . Die gemeinsame Dichte der Zufallsvariablen X 1 , . . . , X n
kann in exponentieller Form notiert werden
p ã
=
Y1
i
− ã1 −1
xi
ã
õ
= exp
1R>1 (x i )
!
¶
X
1
− −1
log x i − n log ã 1Rn>1 (x 1 , . . . , x n ),
ã
i
woraus wir c(ã) = − ã1 − 1 und T (X ) = i log X i ablesen können. Die Funktion c(ã) ist
streng monoton wachsend, denn c 0 (ã) > 0 für alle ã > 0. Die Statistik T (X ) ist daher
optimal für das Testproblem.
P
281. Poissonverteilung. Optimaler Test. Seien X 1 , · · · , X n i.i.d. poissonverteilt
mit dem Parameter λ > 0 und der Wahrscheinlichkeitsfunktion
P (X 1 = k) = e −λ
λk
,
k!
k ∈ {0, 1, · · · } .
Für das Testproblem H0 : λ = λ0 gegen H1 : λ = λ1 mit 0 < λ0 < λ1 soll ein optimaler Test
entwickelt werden.
(a) Berechnen Sie die Likelihood-Quotienten-Statistik L(X , λ0 , λ1 ) basierend auf der
Beobachtung von X = (X 1 , . . . , X n ).
(b) Zeigen Sie, dass die Statistik T (X ) =
dieses Testproblem ist.
Pn
i =1 X i
ebenfalls eine optimale Statistik für
(c) Zeigen Sie, dass die Summe X 1 + X 2 Poissonverteilt mit dem Parameter 2λ ist
und schliessen Sie daraus auf X 1 + · · · + X n ∼ Poiss(nλ).
(d) Seien nun λ0 = 1 und λ1 = 2. Es wurde folgende Stichprobe beobachtet:
2 120510110
Testen Sie mit Hilfe von
δl (X ) = 1{T (X )≥l } ,
ob die Nullhypothese H0 : λ0 = 1 bei Signifikanzniveau α = 0.05 verworfen werden
kann. Dabei können Sie die nachstehende Liste der Werte der Verteilungsfunktion der Poissonverteilung mit
dem Parameter
κ = 10 verwenden. D.h. jede Zeile
³ P
´
i
der Liste enthält das Paar k, ki=0 e −κ κi ! .
0
1
2
3
4
5
6
7
8
9
10
11
0.00004539993
0.00049939923
0.00276939572
0.01033605068
0.02925268808
0.06708596288
0.13014142088
0.22022064660
0.33281967875
0.45792971447
0.58303975019
0.69677614630
3.10. TESTTHEORIE
12
13
14
15
16
17
18
19
153
0.79155647639
0.86446442262
0.91654152707
0.95125959670
0.97295839022
0.98572238640
0.99281349540
0.99654565802
Lösung.
(a) Die Likelihood-Funktion für dieses Testproblem ist
x
Q
L(X , λ0 , λ1 ) =
−λ1
ie
λ1i
xi !
e −λ0
λ0i
xi !
x
Q
i
µ ¶
Y λ1 xi λ −λ
=
e 0 1.
λ0
i
(b) Die nachstehenden Statistiken sind ebenfalls optimal, da sie monotone Transformationen der Likelihood-Quotienten-Statistik sind.
¶P
λ1 i xi
T1 (X ) =
λ0
X
T (X ) = x i .
µ
i
(c) Wir berechnen
P (X 1 + X 2 = k) =
k
X
P (X 1 = i ∧ X 2 = k − i )
i =0
=
k
X
e −λ
i =0
= e −2λ λk
λi −λ λk−i
e
i!
(k − i )!
k
X
1
i
!(k
− i )!
i =0
à !
k k 1
X
1
=
i =0 i k!
i =0 i !(k − i )!
k
X
=
1 k
2
k!
P (X 1 + X 2 = k) = e −2λ
λk 2k
.
k!
Das heisst X 1 + X 2 ∼ Poiss(2λ) und X 1 , · · · , X n ∼ Poiss(nλ).
(d) Die oben angeführte Stichprobe liefert n = 10 und i x i = 13. Den kritischen
Bereich des optimalen Tests mit Signifikanzniveau α = 0.05 erhalten wir aus
P
P λ0 (T (X ) ≥ l ) ≤ α
Ã
!
Ã
!
X
X
P λ0
Xi ≥ l = 1 − P
Xi < l .
i
i
Die Liste liefert l = 16. Die Nullhypothese kann also nicht verworfen werden.
154
KAPITEL 3. MATHEMATISCHE STATISTIK
282. Geometrische Verteilung. Neyman-Pearson-Test. Seien X 1 , . . . , X n i.i.d.
geometrisch verteilt mit der Wahrscheinlichkeitsfunktion
¡
¢k
π(k) = P(X i = k) = p 1 − p ,
k ∈ {0, 1, 2, . . .}
und Parameter p ∈ (0, 1). Für das Testproblem H0 : p = p 0 gegen H1 : p = p 1 mit 1 > p 0 >
p 1 > 0 soll ein Neyman-Pearson-Test
δ?
k (X ) = 1{L(x,p 0 ,p 1 )≥k }
entwickelt werden.
(a) Berechnen Sie die Likelihood-Quotienten-Statistik L(X , p 0 , p 1 ) basierend auf der
Beobachtung von (X 1 , . . . , X n ).
(b) Zeigen Sie, dass die Statistik T (X ) =
dieses Testproblem ist.
Pn
i =1 X i
ebenfalls eine optimale Statistik für
(c) Seien nun p 0 = 23 und p 1 = 13 . Es wurde folgende Stichprobe (n = 7) beobachtet:
1 0 10004
Testen Sie mit Hilfe von
δl (X ) = 1{T (X )≥l } ,
ob die Nullhypothese H0 : p 0 = 32 bei Signifikanzniveau α = 0.05 verworfen werden
kann. In der nachstehenden Tabelle finden Sie die Werte der Verteilungsfunktion
´
³
von T (X ) für n = 7 und p = 23 . D.h. jede Zeile enthält ein Paar k, P 2 (T (X ) ≤ k) .
3
0
1
2
3
4
5
6
7
8
9
10
0.05852766
0.1950922
0.3771783
0.5592643
0.7110027
0.8222775
0.8964608
0.9423837
0.9691721
0.9840545
0.9919918
¡
¢
Bemerkung. T (X ) ist negativ binomialverteilt mit Parametern n, p .
Lösung.
(a) Die Wahrscheinlichkeitsfunktion von dem Vektor (X 1 , . . . , X n ) ist
π (k 1 , . . . , k n ) =
Y
p(1 − p)ki
i
=
P
p n (1 − p)
i
ki
.
Somit ist die Likelihood-Quotienten-Statistik gegeben durch
L((k i ), p 0 , p 1 ) =
p 1n (1 − p 1 )
P
i
ki
p 0n (1 − p 0 ) i ki
µ ¶n µ
¶P
p1
1 − p 1 i ki
=
.
p0
1 − p0
P
3.10. TESTTHEORIE
155
(b) Da
1 − p1
> 1,
1 − p0
entsteht T (X ) = i X i aus L((X i ), p 0 , p 1 ) durch eine monotone Transformation.
Damit ist T (X ) ebenfalls eine optimale Statistik für dieses Testproblem.
P
(c) Wir berechnen zunächst den zu dem Signifikanzniveau α = 0.05 gehörigen Verwerfungsbereich [l , +∞).
Pp 0 (T (X ) ≥ l ) ≤ α
Ã
!
X
Pp 0
Xi < l
≥ 1−α
i
Ã
Pp 0
!
X
Xi ≤ l − 1
≥ 0.95
i
Aus der Tabelle lesen wir l − 1 = 8 ab und somit l = 9. Nachdem T (X ) = 6, kann die
Nullhypothese nicht verworfen werden.
283. Bernoulli-Verteilung. Neyman-Pearson-Test.
Zufallsvariablen mit Wahrscheinlichkeitsfunktion
¡
¢1−k
P (X i = k) = p k 1 − p
,
Seien X 1 , . . . , X n i.i.d. Bernoulli(p )
k ∈ {0, 1} .
Für das Testproblem H0 : p = p 0 gegen H1 : p = p 1 mit 0 < p 0 < p 1 < 1 soll ein NeymanPearson-Test
δ?
k (X ) = 1{L(x,p 0 ,p 1 )≥k }
entwickelt werden.
(a) Berechnen Sie die Likelihood-Quotienten-Statistik L(X , p 0 , p 1 ) basierend auf der
Beobachtung von (X 1 , . . . , X n ).
(b) Zeigen Sie, dass die Statistik T (X ) =
dieses Testproblem ist.
Pn
i =1 X i
ebenfalls eine optimale Statistik für
(c) Seien nun p 0 = 12 und p 1 = 34 . Es wurde folgende Stichprobe beobachtet:
0 1 10101111111
Testen Sie mit Hilfe von
δl (X ) = 1{T (X )≥l } ,
ob die Nullhypothese H0 : p 0 = 21 bei Signifikanzniveau α =³0.05 verworfen werden´
kann. Dabei können Sie die nachstehende Liste der Paare k,
verwenden.
0
1
2
3
4
5
6
7
1
0.9998779296875
0.998291015625
0.98876953125
0.953857421875
0.8665771484375
0.70947265625
0.5
Pn
¡n ¢
i =k i
¡
¢n−i
p 0i 1 − p 0
156
KAPITEL 3. MATHEMATISCHE STATISTIK
8
9
10
11
12
13
0.29052734375
0.1334228515625
0.046142578125
0.01123046875
0.001708984375
0.0001220703125
Lösung.
(a) Die Likelihood-Quotienten-Statistik ist
¢1−xi
x ¡
p1i 1 − p1
L(x, p 0 , p 1 ) = Q x ¡
¢1−xi
i
i p0 1 − p0
¶ P
µ ¶Pi xi µ
1 − p 1 n− i xi
p1
=
p0
1 − p0
¢ ¶P xi
¶n µ ¡
µ
i
p1 1 − p0
1 − p1
¡
¢
=
.
1 − p0
p0 1 − p1
Q
i
(b) Optimale Statistiken sind auch
¡
¢ ¶P xi
i
p1 1 − p0
¡
¢
T1 (X ) =
p0 1 − p1
!
Ã
¡
¢
X
p1 1 − p0
¢.
T2 (X ) =
x i log ¡
p0 1 − p1
i
µ
Die Ungleichung p 1 (1 − p 0 ) > p 0 (1 − p 1 ) impliziert
¡
¢
p1 1 − p0
¢ >0
log ¡
p0 1 − p1
und
T (X ) =
X
xi
i
ist ebenfalls optimale Statistik.
(c) Für die angegebene Beobachtung ist T (X ) = 10. Der zum Signifikanzniveau
α = 0.05 gehörige kritische Wert folgt aus
P p 0 (T (X ) ≥ k) ≤ α
Ã
!
n
X
P p0
Xi ≥ k
≤ α
i =1
à !
n n
X
¡
¢n−i
p 0i 1 − p 0
i =k i
≤ α
Laut Tabelle wählen wir k = 10. Die Nullhypothese wird also verworfen.
3.11. LINEARE REGRESSION
157
284. Gamma-Verteilung. Konfidenzintervall und Test.
Gamma-verteilt mit der Dichte
p a,λ (x) =
Seien X 1 , . . . , X n i.i.d.
λa a−1 −λx
x
e
1R>0 (x)
Γ(a)
und Parametern a > 0 und λ > 0. Der Parameter a wird als bekannt und fix vorausgesetzt. Des weiteren gelten für c > 0 die Beziehungen
∼ Gammaa+a,λ ,
Xi + X j
∼ Gammaa, λ .
c Xi
c
(a) Zeigen Sie, dass
"
−1
α
α
Gamma−1
na,1 ( 2 ) Gammana,1 (1 − 2 )
X1 + . . . + Xn
,
#
X1 + . . . + Xn
ein (1 − α)-Konfidenzintervall für λ ist. Dabei bezeichnet Gamma−1
a,λ die Inverse
der Verteilungsfunktion Gammaa,λ .
(b) Konstruieren Sie aus dem obigen Konfidenzintervall einen Test zum Signifikanzniveau α für H0 : λ = λ0 gegen H1 : λ 6= λ0 .
Lösung.
(a) Die Verteilung von λ(X 1 + . . . + X n ) ist Gammana,1 .
(b) Mit der Bezeichnung
"
[L(X ),U (X )] =
−1
α
α
Gamma−1
na,1 ( 2 ) Gammana,1 (1 − 2 )
X1 + . . . + Xn
,
#
X1 + . . . + Xn
erhalten wir die Testfunktion
δ(X ) = 1{λ∉[L(X ),U (X )]}
die das Gewünschte erfüllt.
3.11
285.
Lineare Regression
Lineare Regression mit Schalter. Gegeben sei das Model
Y i = β 0 x i + εi
i = 1, . . . , m
Y i = β 1 + εi
i = m + 1, . . . , m + n
¡
¢
mit m, n ∈ N und εi ∈ N 0, σ2 , i.i.d. σ > 0.
(a) Geben Sie die Designmatrix X für dieses Model explizit an.
(b) Berechnen Sie den Kleinste-Quadrate-Schätzer β̂0 , β̂1 basierend auf der Beobachtung von (Y1 , . . . , Ym+n ) und (X 1 , . . . , X m ).
¡
¢
(c) Berechnen Sie den Kleinste-Quadrate-Schätzer β̂0 , β̂1 basierend auf der Beobachtung von
¡
Y = (1, 4, 2, 8, 6, 0)>
X = (3, 2, 1)> .
¢
158
KAPITEL 3. MATHEMATISCHE STATISTIK
Lösung.
(a) Die Desingmatrix für dieses Model ist

x1
 .
 ..

 x
 m
X =
 0

 ..
 .
0
.. 
. 

0
1


.


.. 
. 
1
¢−1
(b) Die allgemeine Form des LSE ist β̂ = X > X
¡
µ Pm
>
2
i =1 x i
X X=
¡
¡
¡
>
X >X
X X
>
X X
¢−1
¢−1
¢−1
0
Ã
Ã
X =
Ã
X Y =
0
0
1
n
X > Y . Wir berechnen
¶
!
x
Pm 1
···
x
Pm m
0
···
0
0
···
0
1
n
···
¢ !
1
n
2
i =1 x i
>
>
Pm1
2
i =1 x i
=
0
n

0
Pm1
2
i =1 x i
¡
2 x1 y 1 + . . . + xm y m
i =1 x
¡i
¢
1
n y m+1 + . . . + y m+n
µ
=
!
β̂0
β̂1
¶
.
(c) Die Beobachtung impliziert m = 3 und n = 3. Mit der obigen Formel erhalten wir
14
β̂0 = 13
14 und β̂1 = 3 .
286. 3-Stichprobenproblem.
Gegeben sei das Modell
Ykl = βk + εkl
mit k ∈ {1, 2, 3}, l ∈ {1, 2} und εkl ∼ N (0, σ2 ), i.i.d. σ > 0.
(a) Geben Sie die Designmatrix X für dieses Model explizit an.
(b) Geben Sie eine koordinatenfreie Darstellung dieses Models an.
(c) Berechnen Sie Kleinste-Quadrate-Schätzwerte basierend auf der Beobachtung
(Y11 , Y12 , Y21 , Y22 , Y31 , Y32 ) = (74, 92, 16, 22, 98, 16) .
Lösung.
(a) Das Gleichungsystem in der Kurzschreibweise:
Y = Xβ+ε
¡
¢>
¡
¢
Dabei ist Y = (Y1 , Y2 , Y3 )> , β = β1 , β2 , β3 , ε ∼ N 0, σ2 I 6 und die Designmatrix


1 0 0
 1 0 1 


 0 1 0 


X =
.
 0 1 0 


 0 0 1 
0 0 1
3.11. LINEARE REGRESSION
159
(b) Koordinatenfreie Darstellung ist Y = ζ + ε mit
¡
¢
ζ> = β 1 , β 1 , β 2 , β 2 , β 3 , β 3 .
(c) Wegen Rang(X ) = p ist der Kleinste-Quadrate-Schätzer für β gegeben durch
¡
¢−1 >
β̂ = X > X
X Y . Das führt uns auf
β̂1
=
β̂2
=
β̂3
=
1
(Y1 + Y2 )
2
1
(Y3 + Y4 )
2
1
(Y5 + Y6 ) .
2
Entsprechende Werte sind also zu mitteln.
287. KQS ist auch MLS im Normalverteilungsfall. Zeigen Sie, dass der KleinsteQuadrate-Schätzer β̂ auch Maximum-Likelihood-Schätzer im allgemeinen linearen
Modell ist, falls ε ∼ N (0, σ2 I n ).
Lösung. Betrachten wir ein allgemeines lineares Model
Y i = X i β + εi ,
i = 1, . . . , n.
Dabei ist β der p -dimensionale Vektor der Modelparameter, den wir schätzen wollen,
X i sind Zeilen einer bekannten Matrix X ∈ Rn×p und (ε1 , . . . , εn ) sind i.i.d. mit εi ∈
N (0, σ2 ), σ > 0. Die Beobachtung Y = (Y1 , . . . , Yn ) ist demnach multivariat normalverteilt,
d.h. Y ∼ N (X β, σ2¡I n ). Yi sind
i.i.d. mit Yi ∼ N (X i β, σ2 ) und die Likelihoodfunktion der
¢
Beobachtung y = y 1 , . . . , y n ist
µ
¶ ¶
1 yi − X i β 2
exp −
L(Y , β) =
p
2
σ
2πσ
i
Ã
!
¶n
µ
¢2
1
1 X¡
exp − 2
yi − X i β .
=
p
2σ i
2πσ
Y
µ
1
Bis auf die positive multiplikative Konstante
gleich
l (Y , β) = −
¡p
¢−n
2πσ
ist die Log-Likelihood-Funktion
¢2
1 X¡
yi − X i β
2
2σ i
Die Maximierung von l (Y , β) ist gleichbedeutend mit der Minimierung von
X¡
yi − X i β
¢2
= ky − X βk2 ,
i
was genau die Eigenschaft des Kleinste-Quadrate-Schätzers ist.
Beachten Sie, dass wir in den obigen Überlegungen nicht Rang (X ) = p annehmen
mussten.
160
KAPITEL 3. MATHEMATISCHE STATISTIK
288. Einfache lineare Regression.
(y i ) gegeben.
X
Y
Seien folgende Beobachtungen von (x i ) und
26 23 27 28 24 25
179 150 160 175 155 150
(a) Berechnen Sie die Kleinste-Quadrate-Schätzer für β0 und β1 der einfachen
linearen Regression Yi = β0 + β1 x i + εi .
(b) Geben Sie die Designmatrix X für dieses Model explizit an.
(c) Veranschaulichen Sie die Daten und die Regressionsgerade graphisch.
Lösung. Das betrachtete lineare Model hat die Form
Y i = X i β + εi ,
i = 1, . . . , 6
mit der Designmatrix
X> =
µ
1
1
1
1
1
1
26 23 27 28 24 25
¶
und der Zielvariable
¡
¢
Y > = 179 150 160 175 155 150 .
Die Designmatrix hat also den vollen Rang(X ) = 2 und der Kleinste-Quadrate-Schätzer
ist
¡
¢
β̂ = X > X
−1
X >Y .
Die Berechnung von β̂ kann wie folgt erbracht werden.
>
X X
¡
¡
X >X
X >X
¢−1
¢−1
X >Y
µ
¶
6
153
=
153 3919
¶
µ
1
3919 −153
=
6
105 −153
µ 1343 ¶
35
=
169
35
Wir erhalten also
β0
= 38.37142857142857
β1
= 4.828571428571428
Die Daten und die Regressionsgerade können mit Hilfe des folgenden R-Codes
veranschaulicht werden.
X=c( 26, 23, 27, 28, 24, 25 )
Y=c( 179, 150, 160, 175, 155, 150 )
b_0 = 38.37142857142857
b_1 = 4.828571428571428
t= seq(23,28,0.01)
plot(X,Y); lines(t, b_0 + b_1 * t, lw=2)
3.11. LINEARE REGRESSION
289.
161
Quadratisches Modell. KQS. Es sei das Modell
Yi = β1 x i + β2 x i2 + εi
für i =¡ 1, . . . , n¢ gegeben. Die zufälligen Fehler ε1 , . . . , εn seien i.i.d. und εi ∼ N (0, σ2 ) mit
σ > 0. β1 , β2 sind die unbekannten Parameter.
(a) Geben Sie die Designmatrix X für dieses Model explizit an.
(b) Berechnen Sie den Kleinste-Quadrate-Schätzer β̂1 , β̂2 basierend auf der Beobachtung von
¡
¢
X = (2, 0, 1, −1)>
Y = (3, 1, −1, 1)> .
Für diese Beobachtung gilt ausserdem
µ
¶
P 3 ¶−1
1 9 −4
x
Pi i4
=
.
22 −4 3
i xi
µP 2
x
Pi i3
i xi
Lösung. Das Modell lässt sich in der Form
Y = Xβ+ε
schreiben, wobei die Designmatrix durch
>
µ
X =
x1
x 12
x2
x 22
...
...
xn
x n2
¶
gegeben ist. Für Rang(X ) = 2 ist der Kleinste-Quadrate-Schätzer gegeben durch β̂ =
¡ > ¢−1 >
X X
x Y . Die Auswertung dieser Formel liefert
µ P 2
x
X X = Pi i3
x
i i
>
P 3 ¶
x
Pi i4
i xi
und
¡
290.
>
X X
¢−1
µ ¶
1 −6
X Y =
.
11 10
>
Quadratisches Modell. Explizite Form des KQS. Es sei das Modell
Yi = β0 + β1 x i + β2 x i2 + εi
für i = 1, . . . , n gegeben. Die zufälligen Fehler ε1 , . . . , εn seien i.i.d. und εi ∼ N (0, σ2 ) mit
σ > 0. Geben Sie die Kleinste-Quadrate-Schätzer für βi , i ∈ {0, 1, 2} explizit an.
Lösung. Das Modell lässt sich in der Form
Y = Xβ+ε
schreiben. Wir nehmen an, dass die Beobachtungen (x 1 , . . . , x n ) voneinander verschieden sind und erhalten die Designmatrix
1
>

X = x1
x 12

1
x2
x 22
...
...
...

1
xn 
x n2
162
KAPITEL 3. MATHEMATISCHE STATISTIK
mit Rang(X ) = 3. Daraus ergibt sich
 P 0
x
Pi i1
>

x
X X=
Pi i2
i xi
und mit der Bezeichnung Tk =
P
i
P 1
x
Pi i2
x
Pi i3
i xi
P 2 
x
Pi i3
x 
Pi i4
i xi
x ik
¡
¢
∆ = det X > X
¡
¢
¡
¢
= T0 T2 T4 − T3 2 − T1 (T1 T4 − T2 T3 ) + T2 T1 T3 − T2 2 .
Die Regel von Cramer liefert die Inverse der Matrix X > X , nämlich
T2 T4 − T3 2
= ∆−1  T2 T3 − T1 T4
T1 T3 − T2 2

¡
X >X
¢−1
T2 T3 − T1 T4
T0 T4 − T2 2
T1 T2 − T0 T3

T1 T3 − T2 2
T1 T2 − T0 T3  .
T0 T2 − T1 2
Sei Z = X > Y , d.h.
  P

Z1
Y
P i i
Z =  Z2  =  i Yi x i  .
P
2
Z3
i Yi x i
¡
¢−1 >
¡
¢−1
Der Kleinste-Quadrate-Schätzer β̂ = X > X
X Y = X >X
Z ist dann explizit gege
ben durch
und
¡
¢
¡
¢
T1 T3 − T2 2 Z2 + (T2 T3 − T1 T4 ) Z1 + T2 T4 − T3 2 Z0
¡
¢
β0 =
,
T0 T2 − T1 2 T4 − T0 T3 2 + 2 T1 T2 T3 − T2 3
¡
¢
(T0 T3 − T1 T2 ) Z2 + T2 2 − T0 T4 Z1 + (T1 T4 − T2 T3 ) Z0
¡
¢
,
β1 = −
T0 T2 − T1 2 T4 − T0 T3 2 + 2 T1 T2 T3 − T2 3
¡
¢
¡
¢
T0 T2 − T1 2 Z2 + (T1 T2 − T0 T3 ) Z1 + T1 T3 − T2 2 Z0
¡
¢
β2 =
.
T0 T2 − T1 2 T4 − T0 T3 2 + 2 T1 T2 T3 − T2 3
Literatur
[1] Claudia Czado und Thorsten Schmidt. Mathematische Statistik. Statistik und
Ihre Anwendungen. Springer, 2011. ISBN: 9783642172601.
[2] Jean Jacod und Philip Protter. Probability Essentials. 2. Aufl. Springer-Verlag,
2004. ISBN: 9783540438717.
[3] Jacek Jakubowski und Rafał Sztencel. Wst˛ep do teorii prawdopodobieństwa.
Script, 2001. ISBN: 9788390456454.
[4] Jun Shao. Mathematical Statistics. Springer Texts in Statistics. Springer, 2003.
ISBN : 9780387953823.
[5] Übungsaufgaben zur Wahrscheinlichkeitsrechnung und Statistik. Fakultät für
Mathematik, Technische Universität Chemnitz.
163
Herunterladen