statistik - Fakultät Informatik/Mathematik

Werbung
STATISTIK
Wintersemester 2016/2017
Vorlesungsfolien
Andreas Löpker, HTW Dresden
7. Februar 2017
Inhaltsverzeichnis
1
2
Einführung
1
1.1
Was ist Statistik? . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
1.2
R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
Deskriptive Statistik
2.1
2.2
2.3
2.4
Ausgangspunkt
6
. . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
2.1.1
Die Grundgesamtheit . . . . . . . . . . . . . . . . . . .
6
2.1.2
Stichproben . . . . . . . . . . . . . . . . . . . . . . . .
8
2.1.3
Merkmale . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.4
Klassikation von Merkmalen
Kenngröÿen univariater Daten
. . . . . . . . . . . . . .
9
11
. . . . . . . . . . . . . . . . . . . .
16
2.2.1
Stichproben . . . . . . . . . . . . . . . . . . . . . . . .
16
2.2.2
Häugkeiten
2.2.3
Klassenbildung
2.2.4
Empirische Verteilungsfunktion . . . . . . . . . . . . . .
Diagramme und Graken
. . . . . . . . . . . . . . . . . . . . . . .
17
. . . . . . . . . . . . . . . . . . . . . .
21
26
. . . . . . . . . . . . . . . . . . . . . . .
30
2.3.1
Stab- und Säulendiagramme . . . . . . . . . . . . . . .
30
2.3.2
Kreis- und Tortendiagramme . . . . . . . . . . . . . . .
32
2.3.3
Histogramm und empirische Dichtefunktion . . . . . . .
33
Lagemaÿe
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
38
2.4.1
Arithmetisches Mittel . . . . . . . . . . . . . . . . . . .
38
1
Ÿ0.0
2.5
2.4.2
Arithmetisches Mittel für klassierte Daten . . . . . . . .
43
2.4.3
Arithmetisches Mittel für gepoolte Daten . . . . . . . .
44
2.4.4
Die Ordnungsstatistik
46
2.4.5
Getrimmtes Mittel
2.4.6
Median
2.4.7
Quantile und Quartile
. . . . . . . . . . . . . . . . . .
53
2.4.8
Das geometrische Mittel . . . . . . . . . . . . . . . . .
54
2.4.9
Weitere Mittelwerte
Streuungsmaÿe
. . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
47
. . . . . . . . . . . . . . . . . . . . . . . . . .
50
. . . . . . . . . . . . . . . . . . .
56
. . . . . . . . . . . . . . . . . . . . . . . . . . . .
58
2.5.1
Varianz und Standardabweichung
2.5.2
Varianz für gepoolte Daten (Varianzzerlegung)
. . . . . . . . . . . .
. . . . .
65
2.5.3
Spannweite und Interquartilsabstand . . . . . . . . . . .
67
2.5.4
Variationskoezient
68
2.5.5
Weitere Streuungsmaÿe
. . . . . . . . . . . . . . . . . . .
58
. . . . . . . . . . . . . . . . .
69
2.6
Boxplots . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
80
2.7
Konzentrationsmaÿe
2.8
. . . . . . . . . . . . . . . . . . . . . . . . .
83
2.7.1
Die Lorenz-Kurve . . . . . . . . . . . . . . . . . . . . .
83
2.7.2
Das Gini-Maÿ . . . . . . . . . . . . . . . . . . . . . . .
Bivariate Daten
. . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.8.1
Häugkeiten und Kontingenztabellen
2.8.2
Unabhängige Merkmale
. . . . . . . . . .
2.8.3
Zusammenhangsmaÿe für nominale Daten
2.8.4
Zusammenhangsmaÿe für metrische Daten
2.8.5
Zusammenhangsmaÿe für ordinale Daten
. . . . . . . . . . . . . . . . .
. . . . . . .
87
89
91
95
97
. . . . . . .
102
. . . . . . . .
107
Seite ii
Ÿ0.0
3
Wahrscheinlichkeitsrechnung
3.1
3.2
3.3
111
Ereignisse und Wahrscheinlichkeiten
113
3.1.1
Laplace-Experimente . . . . . . . . . . . . . . . . . . .
118
3.1.2
Bedingte Wahrscheinlichkeiten . . . . . . . . . . . . . .
121
3.1.3
Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . .
123
Kombinatorik
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.1
Permutationen
. . . . . . . . . . . . . . . . . . . . . .
3.2.2
Variationen und Kombinationen
Zufallsvariablen und ihre Verteilungen
125
125
. . . . . . . . . . . . .
126
. . . . . . . . . . . . . . . .
130
3.3.1
Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . .
130
3.3.2
Verteilungsfunktionen
. . . . . . . . . . . . . . . . . .
131
. . . . . . . . . . . . . . . . . . . . .
136
3.4
Erwartungswert und Varianz
3.5
Das Gesetz der groÿen Zahlen
3.6
Unabhängigkeit und Korrelation
3.7
Fünf wichtige Verteilungen
3.8
. . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
139
. . . . . . . . . . . . . . . . . . .
142
. . . . . . . . . . . . . . . . . . . . . .
144
3.7.1
Die Bernoulli-Verteilung
. . . . . . . . . . . . . . . . .
3.7.2
Die Binomialverteilung
144
. . . . . . . . . . . . . . . . . .
145
3.7.3
Die geometrische Verteilung . . . . . . . . . . . . . . .
147
3.7.4
Die Multinomialverteilung
151
3.7.5
Die stetige Gleichverteilung
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
156
Die Normalverteilung und ihre Verwandten . . . . . . . . . . . . . .
159
3.8.1
Die Standardnormalverteilung
159
3.8.2
Tabellen und Quantile
3.8.3
Der zentrale Grenzwertsatz
. . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
161
164
Seite iii
Ÿ0.0
3.8.4
Abschätzungen . . . . . . . . . . . . . . . . . . . . . .
170
3.8.5
Die allgemeine Normalverteilung . . . . . . . . . . . . .
173
3.8.6
Rechenregeln und Transformationen für die Normalverteilung
4
. . . . . . . . . . . . . . . . . . . . . . . . . .
3.8.7
Die Chi-Quadrat-Verteilung
3.8.8
3.8.9
3.8.10
178
Die t-Verteilung
. . . . . . . . . . . . . . . . . . . . .
180
Die F-Verteilung
. . . . . . . . . . . . . . . . . . . . .
182
Ein Beispiel zum Schluss . . . . . . . . . . . . . . . . .
184
Induktive Statistik
4.1
189
Punktschätzer . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
189
4.1.1
193
4.1.2
Punktschätzer für den Erwartungswert
. . . . . . . . .
Punktschätzer für die Varianz bei bekanntem Erwartungswert . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.3
4.2
176
. . . . . . . . . . . . . . .
197
Punktschätzer für die Varianz bei unbekanntem Erwartungswert . . . . . . . . . . . . . . . . . . . . . . . . .
198
Intervallschätzer . . . . . . . . . . . . . . . . . . . . . . . . . . . .
200
4.2.1
Intervallschätzer für den Erwartungswert bei bekannter
Varianz
4.2.2
. . . . . . . . . . . . . . . . . . . . . . . . . .
ter Varianz
4.2.3
200
Intervallschätzer für den Erwartungswert bei unbekann. . . . . . . . . . . . . . . . . . . . . . . .
205
Intervallschätzer für die Varianz bei bekanntem Erwartungswert . . . . . . . . . . . . . . . . . . . . . . . . .
209
Seite iv
Ÿ0.0
4.2.4
4.2.5
4.3
Intervallschätzer für die Varianz bei unbekanntem Erwartungswert . . . . . . . . . . . . . . . . . . . . . . . . .
211
Schätzen ohne Zurücklegen
215
. . . . . . . . . . . . . .
Hypothesentests . . . . . . . . . . . . . . . . . . . . . . . . . . . .
216
4.3.1
Idee . . . . . . . . . . . . . . . . . . . . . . . . . . . .
216
4.3.2
Wahl des Ablehnungsbereiches . . . . . . . . . . . . . .
220
4.3.3
Vorgehensweise . . . . . . . . . . . . . . . . . . . . . .
222
4.3.4
Die Gütefunktion . . . . . . . . . . . . . . . . . . . . .
226
4.3.5
Der p-Wert . . . . . . . . . . . . . . . . . . . . . . . .
227
4.3.6
Einstichprobentests für den Erwartungswert bei normalverteilter Grundgesamtheit . . . . . . . . . . . . . . . .
4.3.7
(1)
Test bei bekannter Varianz
. . . . . . . . . .
(2)
Test bei unbekannter Varianz (t-Test)
. . . .
232
234
Einstichprobentests für die Varianz bei normalverteilter
Grundgesamtheit . . . . . . . . . . . . . . . . . . . . .
4.3.8
231
(1)
Test bei bekanntem Erwartungswert
. . . . .
(2)
Test bei unbekanntem Erwartungswert
. . . .
238
239
244
Zweistichprobentest auf gleiche Erwartungswerte (t-Test) 246
4.3.9
Zweistichprobentest auf gleiche Varianzen (F-Test) . . .
250
4.3.10
Chi-Quadrat-Anpassungstest . . . . . . . . . . . . . . .
254
4.3.11
Weitere Tests auf Normalität
4.3.12
Q-Q-Plots
4.3.13
Der Chi-Quadrat-Homogenitätstest
. . . . . . . . . . .
269
4.3.14
Der Chi-Quadrat-Unabhängigkeitstest . . . . . . . . . .
273
. . . . . . . . . . . . . .
261
. . . . . . . . . . . . . . . . . . . . . . . .
262
Seite v
Ÿ0.0
4.3.15
4.4
A
B
. . . . . . . . . . . . . . . . . . . .
277
Einfache lineare Regression . . . . . . . . . . . . . . . . . . . . . .
Test auf Ausreiÿer
281
4.4.1
Die Kleinste-Quadrate-Methode . . . . . . . . . . . . .
286
4.4.2
Prognosen
292
4.4.3
Standardbedingungen und Güte der Schätzer
4.4.4
Das Bestimmtheitsmaÿ . . . . . . . . . . . . . . . . . .
296
4.4.5
Intervallschätzer
301
4.4.6
Tests zur Anpassungsgüte
4.4.7
Beispielregression mit R
. . . . . . . . . . . . . . . . . . . . . . . .
. . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
303
. . . . . . . . . . . . . . . . .
306
Übungsaufgaben
313
A.1
Aufgaben
A.2
Musterlösungen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . .
Anhang
B.1
B.2
294
313
345
352
Kleine Formelsammlung . . . . . . . . . . . . . . . . . . . . . . . .
352
B.1.1
Notationen (Deskriptive Statistik) . . . . . . . . . . . .
352
B.1.2
Wahrscheinlichkeitstheorie
353
B.1.3
Schätzer und Kondenzintervalle
Tabellen
B.2.1
B.2.2
B.2.3
B.2.4
. . . . . . . . . . . . . . . .
. . . . . . . . . . . .
355
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
356
z der Normalverteilung . . . . . . .
(x ) der Normalverteilung
Quantile tn; der t-Verteilung . . . . . . . . .
Quantile n; der Chi-Quadrat-Verteilung . . .
Quantile
. . . . .
356
Verteilungsfunktion
. . . . .
357
. . . . .
359
. . . . .
361
Seite vi
Ÿ0.0
B.2.5
C
Quantile
F(n;m); der F-Verteilung
. . . . . . . . . . . .
Hinweise zur Klausur
363
368
C.1
Hilfsmittel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
368
C.2
Welche Abschnitte und Gegenstände werden nicht abgefragt?
. . .
369
C.3
Grundsätzliches
. . . . . . . . . . . . . . . . . . . . . . . . . . . .
370
Seite vii
Ÿ1.0
1.
Einführung
Beispiel B1.1: Eine Firma stellt Spielwürfel her und überprüft von
Zeit zu Zeit ihre Produkte, indem sie Stichproben zieht. Dazu wird ein
Würfel ausgewählt und 120 Mal geworfen. Die Anzahl der Würfe für die
verschiedenen Augenzahlen wird notiert.
Seite 1
Ÿ1.0
Es ergibt sich folgende Häugkeitstabelle:
Augenzahl:
1
2
3
4
5
6
Häugkeit:
15
18
30
18
21
18
Wir können z.B. folgende Fragen stellen:
Wie kann man die Daten grasch darstellen?
Wie häug sollten die Augenzahlen bei einem fairen Würfel vorkommen? (Ist so eine Frage überhaupt sinnvoll?)
Welche Abweichungen sind noch akzeptabel?
Kann man sagen, ob der vorliegende Würfel fair ist?
Mit welcher Sicherheit ist eine solche Aussage zu machen?
Seite 2
Ÿ1.1
1.1. Was ist Statistik?
Erhebung, Erfassung, Darstellung/Präsentation, Analyse und Interpretation von Daten.
Man unterscheidet:
Deskriptive/beschreibende Statistik: Reduktion von Datenmengen,
Darstellung durch Tabellen und Diagramme, Ermittlung aussagekräftiger Kenngröÿen (z.B. Mittelwert, Varianz)
Induktive Statistik: Weitere Rückschlüsse durch mathematische Methoden aus der Wahrscheinlichkeitsrechnung (z.B. Schätzen des Erwartungswertes, Hypothesentests)
Seite 3
Ÿ1.1
Woher kommen die Daten?
Beispiele:
Technische Messungen (z.B. in der Meteorologie)
Umfragen (z.B. im Vorfeld von Wahlen oder zur Kundenzufriedenheit)
Nutzerstatistiken (z.B. für Internetprovider)
Patientendaten
Zugverspätungen
Jahresberichte von Konzernen
Statistische Ämter
Finanzdaten: z.B. via Yahoo-Finance
...
Seite 4
Ÿ1.2
1.2. R
Die Graken/Analysen in diesem Skript wurden mit R, einer Programmiersprache, die primär für statistische Anwendungen geschaen wurde,
erstellt.
Begleitend zur Vorlesung kann optional R auf dem Rechner installiert
werden (s. erste Übung). Das Erlernen von R ist nicht Gegenstand der
Vorlesung und wird nicht von den Studierenden verlangt.
Gleichwohl ist ein begleitendes Lernen computergestützter Methoden
mit R hilfreich für das Verständnis im Umgang mit Daten.
Links:
The R Project for Statistical Computing
RStudio (GUI)
Seite 5
Ÿ2.1
2.
Deskriptive Statistik
2.1. Ausgangspunkt
2.1.1. Die Grundgesamtheit
bezeichnet man eine Menge von
sogenannten statistischen Einheiten ! 2 .
Als Grundgesamtheit (Population)
Beispiel B2.1: Beim einmaligen Würfeln kann man als Grundgesamtheit
= f1; 2; 3; 4; 5; 6g wählen. Jede der sechs Elemente ist dann eine
statistische Einheit.
Seite 6
Ÿ2.1
Beispiel B2.2: Alle Studierenden der HTW Dresden werden im Rahmen einer Umfrage befragt. Wir wählen z.B.
= f00000; : : : ; 99999g
und identizieren die Studierenden mit ihrer fünfstelligen Matrikelnummer.
Beispiel B2.3: Ein Thermometer misst jeden Tag morgens um acht
Uhr die Auÿentemperatur. Man kann das Intervall
= [ 30; 50]
als Grundgesamtheit wählen.
Seite 7
Ÿ2.1
2.1.2. Stichproben
Man unterscheidet bei der Datenerhebung zwischen:
Vollerhebungen: Erfassung der gesamten Population
.
Beispiel B2.4)B2 :2 : Alle Studierenden der HTW werden befragt.
Teilerhebungen: Erfassung einer Stichprobe
S
Beispiel B2.5)B2 :2 : Nur die Studierenden der Vorlesung Statistik
werden befragt.
Teilerhebungen sind kostengünstiger und weniger aufwendig, aber der
Statistiker muss von der Stichprobe auf die Grundgesamtheit schlieÿen.
Seite 8
Ÿ2.1
2.1.3. Merkmale
Ein Merkmal ist eine Eigenschaft, die jede der statistische Einheiten
aufweist.
Beispiel B2.6)B2 :2 : Studierende an der HTW werden in einer Umfrage befragt. Folgende drei Merkmale werden erfasst:
das Semester,
die gesammelten ECTS-Punkte,
das Alter,
mit Abitur?
Für jeden Studierenden ergibt sich für jedes dieser Merkmale jeweils
eine Beobachtung, z.B. für den Studierenden mit der Matrikelnummer
60182, Semester=1, ECTS-Punkte=0, Alter=19.
Seite 9
Ÿ2.1
X als Abbildungen aus der Menge
in die Menge aller möglichen Merkmalsausprägungen MX auassen:
Mathematisch kann man ein Merkmal
X : ! MX :
Beispiel B2.7)B2 :2 : Das Merkmal
Dann ist
X eine Abbildung von
X repräsentiere die Semesterzahl.
= f00000; : : : ; 99999g
in die Menge der Merkmalsausprägungen
MX = f1; 2; 3; 4; 5; 6; 7; 8; 9; 10g:
Seite 10
Ÿ2.1
2.1.4. Klassikation von Merkmalen
Merkmale werden u.a. nach ihrem Skalenniveau eingeteilt:
Nominalskala: Keine sinnvolle Anordnung der Ausprägungen.
Beispiel B2.8)B2 :2 : Das Merkmal Y nehme die beiden Werte Ja
oder Nein an, je nachdem, ob der Studierende das Abitur besitzt oder
nicht, es ist also
MY = fJa; Neing. Dann ist Y
ein nominales Merkmal,
denn es gibt keine Reihenfolge unter den Ausprägungen.
Beispiel B2.9: An einer Autobahn werden die vorbeifahrenden Wagen
notiert. Das Merkmal Automarke ist ein nominales Merkmal.
Seite 11
Ÿ2.1
Ordinalskala: Die Ausprägungen lassen sich anordnen und die Anord-
'-Relation.
nung macht Sinn. Es gibt eine '
Beispiel B2.10: Die Examensnote von Studierenden ist ein ordinales
Merkmal.
Beispiel B2.11: Die monatlichen Ausgaben eines Haushalts sind ein
ordinales Merkmal.
Seite 12
Ÿ2.1
Intervallskala: Es macht auÿerdem Sinn von einem Abstand bzw. der
Dierenz zwischen den Ausprägungen zu sprechen. Kein sinnvoller
Nullpunkt und keine Möglichkeit der Multiplikation.
Beispiel B2.12: Eine gemessene Temperatur ist intervallskaliert.
(Was ist mit dem Nullpunkt?)
Beispiel B2.13: Das Merkmal Uhrzeit ist intervallskaliert.
Seite 13
Ÿ2.1
Verhältnisskala: Es macht Sinn von Verhältnissen zwischen den Ausprägungen zu sprechen. Multiplikation und Division machen Sinn, ein
Nullpunkt ist vorhanden.
Beispiel B2.14: Die Körpergröÿe von Befragten ist verhältnisskaliert.
Beispiel B2.15: Das Merkmal Preis für eine Ware ist verhältnisskaliert.
Seite 14
Ÿ2.1
Ein Merkmal ist diskret, wenn es nur abzählbar viele Werte annehmen
kann.
A heiÿt abzählbar, wenn man ein
Verfahren angeben kann, mit dem man an jedes Element in A
(Abzählbar)
Eine Menge
eine eindeutige Nummer
2 N vergeben kann.
Beispiel B2.16)B2 :2 : Das Merkmal Lebensalter (angegeben in Jahren) ist ein diskretes Merkmal.
Ein Merkmal ist stetig, wenn praktisch jeder Zahlenwert in einem
Zahlenintervall als Ausprägung vorkommen kann.
Beispiel B2.17: Das Merkmal L, dass die Länge eines gefertigten
Werkstücks bezeichnet, ist ein stetiges Merkmal.
Seite 15
Ÿ2.2
2.2. Kenngröÿen univariater Daten
Univariate Daten liegen vor, wenn nur ein Merkmal
X untersucht wird.
2.2.1. Stichproben
Wir betrachten eine Stichprobe des Merkmals
X vom Umfang n, also n
Beobachtungen
x = X (! ); x = X (! ); : : : ; xn = X (!n ):
1
1
2
2
Wir schreiben dafür meistens einfach
x ; x ; : : : ; xn :
1
2
Es können natürlich verschiedene Beobachtungen denselben Werte besitzen.
Seite 16
Ÿ2.2
2.2.2. Häugkeiten
Es sei nun
X zusätzlich diskret, d.h.
MX = fa ; a ; a ; : : :g
1
mit den Merkmalsausprägungen
3
ai , i = 1; 2; 3; : : :.
(Mächtigkeit einer Menge)
der Elemente in einer Menge
2
Wir schreiben
A, z.B.
]A
für die Anzahl
]f1; 2; 3; 4; 5; 6g = 6; ]fA; B; C g = 3; ]N = 1
Die absolute Häugkeit der Ausprägung
ai 2 MX
ist der Wert
ni = n(ai ) = Anzahl der xj mit xj = ai
= ]fj 2 f1; 2; : : : ; ngjxj = ai g:
Seite 17
Ÿ2.2
Beispiel B2.18: Ein Würfel wird
X entspreche der Augenzahl, d.h.
n = 5 Mal geworfen. Das Merkmal
MX = f1; 2; 3; 4; 5; 6g; a = 1; a = 2; : : : ; a = 6:
1
2
6
Die entsprechenden Beobachtungen seien
x = 3; x = 6; x = 1; x = 5; x = 6:
1
2
3
4
5
Dann sind die absoluten Häugkeiten der Merkmalsausprägungen gegeben durch
n = n(1) = 1; n = n(2) = 0;
n = n(3) = 1; n = n(4) = 0;
n = n(5) = 1; n = n(6) = 2:
1
2
3
4
5
6
Seite 18
Ÿ2.2
ai 2 MX
n
hi = h(ai ) = ni :
Die relative Häugkeit der Ausprägung
ist der Wert
Es gilt
0 hi 1;
(2.1)
ni = n;
(2.2)
hi = 1:
(2.3)
]MX
X
i =1
]M
XX
i =1
Man drückt die relativen Häugkeiten auch in Prozent aus: Einer relativen Häugkeit von
hi
entsprechen dann
hi 100%.
Seite 19
Ÿ2.2
Die kumulativen absoluten/relativen Häugkeiten sind gegeben durch
die Summen
Ni = N ( a i ) = n + n + : : : + n i =
1
2
H i = H ( ai ) = h + h + : : : + h i =
1
2
i
X
k =1
i
X
k =1
nk ;
hk :
Beispiel B2.19)B2 :18 : Im obigen Beispiel ergibt sich:
i ni hi Ni Hi
1
1
0.2
1
0.2
2
0
0.0
1
0.2
3
1
0.2
2
0.4
4
1
0.2
3
0.6
5
0
0.0
3
0.6
6
2
0.4
5
1.0
Seite 20
Ÿ2.2
2.2.3. Klassenbildung
Ist die Anzahl der Ausprägungen eines Merkmals sehr groÿ oder sogar
unendlich, so empehlt es sich, die Daten in Klassen einzuteilen.
Die Klassen müssen folgende Eigenschaften erfüllen:
Jede Ausprägung muss in einer Klasse vorkommen,
Keine zwei Klassen enthalten dieselbe Ausprägung.
Natürlich ist die Klasseneinteilung mit einem Informationsverlust verbunden.
Faustregeln für die Klassenanzahl
p
m:
m n
m 1 + log (n):
2
(Sturges)
Seite 21
Ÿ2.2
Man deniert Klassenhäugkeiten als absolute/relative Häugkeiten,
summiert über alle Elemente der Klasse.
Für eine Klasse
K MX
ergibt sich also
n (K ) =
h (K ) =
X
a 2K
X
a 2K
n (a );
h (a ):
Seite 22
Ÿ2.2
Beispiel B2.20: Fläche von 407 bundesdeutschen Landkreisen (in
2
km , Quelle: Stat. Bundesamt).
Seite 23
Ÿ2.2
Wir teilen die Merkmalsausprägungen in Klassen ein:
K = (0; 500]; K = (500; 1000]; K = (1000; 1500];
K = (1500; 2000]; K = (2000; 1):
1
2
3
4
5
Absolute und relative Häugkeiten:
i
n ( Ki ) h ( Ki )
1
129
0.317
2
127
0.312
3
96
0.236
4
30
0.074
5
30
0.074
Seite 24
Ÿ2.2
Daten sortiert nach der Kreisgröÿe:
Seite 25
Ÿ2.2
2.2.4. Empirische Verteilungsfunktion
Die empirische Verteilungsfunktion beschreibt für jedes
tive Anzahl von Beobachtungen
Fn (x ) =
xi
mit
xi x :
x 2 R die rela-
]fi 2 f1; 2; : : : ; ngjxi x g
:
n
Es gilt:
1.
2.
3.
Fn (x ) ist monoton steigend (aber nicht streng monoton),
0 Fn (x ) 1, Fn (x ) strebt gegen 0, wenn x gegen 1 strebt,
Fn (x ) strebt gegen 1, wenn x gegen 1 strebt,
Fn (x ) ist dort konstant, wo keine Beobachtungswerte vorliegen.
Seite 26
Ÿ2.2
Beispiel B2.21)B2 :18 : Ein Würfel wird
n = 5 Mal geworfen, die ent-
sprechenden Beobachtungen sind:
x = 3; x = 6; x = 1; x = 5; x = 6:
1
2
3
4
5
Es ergibt sich folgende empirische Verteilungsfunktion:
Seite 27
Ÿ2.2
Beispiel B2.22)B1 :1 : Im Eingangsbeispiel wurde ein Testwürfel
120
Mal geworfen. Es ergibt sich:
Wir werden später sehen, dass
Fn (x ) etwa der Verteilungsfunktion der
Zufallsvariablen Augenzahl entspricht.
Seite 28
Ÿ2.2
Beispiel B2.23)B2 :20 : Für das Landkreisgröÿen-Beispiel ergibt sich
die folgende empirische Verteilungsfunktion:
Seite 29
Ÿ2.3
2.3. Diagramme und Graken
2.3.1. Stab- und Säulendiagramme
In Stabdiagrammen werden die relativen/absoluten Häugkeiten als vertikale Linien dargestellt.
Beispiel B2.24)B1 :1 :
Seite 30
Ÿ2.3
Im Balkendiagramm verwendet man stattdessen Balken.
Beispiel
B2.25)B1 :1 :
Seite 31
Ÿ2.3
2.3.2. Kreis- und Tortendiagramme
Im Kreisdiagramm werden die relativen Häugkeiten durch Kreissektoren
beschrieben. Das Tortendiagramm ist eine dreidimensionale Variante.
Beispiel B2.26)B1 :1 :
Seite 32
Ÿ2.3
2.3.3. Histogramm und empirische Dichtefunktion
Klassierte Daten kann man übersichtlich in einem Histogramm darstellen. Dabei repräsentiert jeder Balken die absoluten Klassenhäugkeiten
der entsprechenden Klasse.
Beispiel B2.27: Tagesgewinne/-verluste des DAX vom 1.Januar bis
27.April 2011, in Punkten (Quelle: yahoo.com)
Seite 33
Ÿ2.3
Wenn die Klassen nicht alle gleich groÿ sind, ist es nicht ratsam in
Histogrammen absolute oder relative Häugkeiten anzugeben.
Beispiel B2.28: 200 Besucher eines Einkaufszentrums werden befragt, über wieviel Geld sie im Monat verfügen (Nettogehalt). Die
Befragung ergibt folgende Zahlen:
Klasse
n (K )
0-1000
64
40
1000-1500
1500-2000
30
2000-3500
47
3500-1
19
Die 70 Befragten mit Gehältern zwischen 1000 und 2000 Euro und
die 19 Befragten über 3500 Euro scheinen in der Grak unter- bzw.
überrepräsentiert.
Seite 34
Ÿ2.3
Die empirische Dichtefunktion ist im Falle von Klassenbildung mit Klassen
Ki = (ai ; bi ] deniert als
h (K )
fn (x ) = b ia ; x 2 Ki :
i
i
(2.4)
Vorteil: Im Balkendiagramm ist die Gesamtäche der Balken stets eins.
Im Diagramm entspricht nun die Balkenäche der (geschätzten) Wahrscheinlichkeit dafür, dass das Merkmal einen Wert in der entsprechenden
Klasse annimmt.
Bei klassierten Daten mit unterschiedlich groÿen Klassen besser geeignet als das Standardhistogramm!
Seite 35
Ÿ2.3
Beispiel B2.29)B2 :28 : Vergleich des klassischen Histogramms mit
dem Diagramm für die empirische Dichte:
Seite 36
Ÿ2.3
Beispiel B2.30: Einwohnerzahl 187 deutscher Städte am 31.12.2015
(Quelle: http://www.citypopulation.de, Angaben in Mill. Einwohnern).
Wir denieren folgende Klassen der Form
(a; b] (in Mill. Einw.):
n ( K i ) h ( Ki )
fn (Ki )
i
a
b
1
0
0.1
108
0.578
5.775
2
0.1
0.4
64
0.342
1.141
3
0.4
1.0
11
0.059
0.098
4
1.0
4.0
4
0.021
0.007
Es ergeben sich folgende Diagramme:
Seite 37
Ÿ2.4
2.4. Lagemaÿe
Lagemaÿe sind im Allgemeinen für intervall- und verhältnisskalierte
Daten (sog. metrische Daten) deniert.
Lagemaÿe sollen einen ersten Eindruck über die durchschnittliche Lage der Daten geben.
2.4.1. Arithmetisches Mittel
Das arithmetische Mittel (häug einfach Mittelwert) einer Stichprobe
x ; x ; : : : ; xn ist deniert als
1
2
x=
Pn
i =1 xi :
n
Seite 38
Ÿ2.4
Das arithmetische Mittel ist eine gewichtete Summe mit jeweils identischen Gewichten
1=n.
Das arithmetische Mittel ist linear:
ax + b = ax + b;
a; b 2 R:
Speziell gelten die Identitäten
und
ax = ax
x + y = x + y:
Beide Eigenschaften sind mehr oder weniger oensichtlich (Beweis in
der Übung).
Warnung: Es gilt i.A. keineswegs
f (x ) = f (x ), z.B ist (x ) 6= (x )
2
2
.
Seite 39
Ÿ2.4
Beispiel B2.31)B2 :18 : Ein Würfel wird
n = 5 Mal geworfen:
x = 3; x = 6; x = 1; x = 5; x = 6:
1
2
3
4
5
Dann ergibt sich
x=
3 + 6 + 1 + 5 + 6 = 21 :
5
5
Auÿerdem berechnet man leicht, dass
(x ) = 9 + 36 + 15+ 25 + 36 = 107
= 21:4
5
441 = 17:64
(x ) = 21
=
5
25
2
2
aber
2
gilt.
Seite 40
Ÿ2.4
Die Summe der Abweichungen vom Mittelwert ist null:
n
X
i =1
(xi x ) = 0:
Das arithmetische Mittel minimiert das mittlere Abweichungsquadrat:
n
X
i =1
(xi c )
2
.
Alternative Formeln:
1
x=n
oder auch
x=
X
m 2M X
X
m2MX
m n (m )
m h (m )
Seite 41
Ÿ2.4
Vorteile des arithmetischen Mittels als Lagemaÿ:
Intuitive Formel, die leicht zu berechnen ist.
Nachteile:
Das arithmetische Mittel ist nicht robust, sondern reagiert empndlich auf Ausreiÿer (s.Übung).
Manchmal ist die Interpretation als Mittelwert fragwürdig (s. geometrisches Mittel 2.4.8).
Seite 42
Ÿ2.4
2.4.2. Arithmetisches Mittel für klassierte Daten
Angenommen
die
Daten
liegen
in
1
2
reduzierter
Form
in
Klassen
K ; K ; : : : ; Kn vor. Dabei seien ; ; : : : ; n die entsprechenden Klas1
2
senmittelwerte (z.B. die Intervallmitten).
Dann berechnen wir als arithmetisches Mittel
x=
n
X
i =1
h(Ki ) i :
Oenbar haben wir dabei implizit vorausgesetzt, dass die Daten in
ihren Klassen gleichverteilt sind.
Der so ermittelte Mittelwert stimmt nicht mit dem arithmetischen
Mittel der unklassierten Originaldaten überein.
Seite 43
Ÿ2.4
2.4.3. Arithmetisches Mittel für gepoolte Daten
Angenommen es liegen mehrere Stichproben
x ;x ;:::;x n
x ;x ;:::;x n
Stichprobe 1:
Stichprobe 2:
11
12
1 1
21
22
2 2
.
.
.
.
.
.
xm ; xm ; : : : ; xmnm
Stichprobe m:
mit verschiedenen Mittelwerten
.
.
.
1
2
x ; x ; : : : ; x m vor.
1
2
Dann kann man den Mittelwert der gepoolten Daten
x ; x ; : : : ; xmnm
11
21
einfach berechnen, ohne die Daten selbst zu kennen:
x=
m
X
xk
k =1
nk
n
(gepoolter Mittelwert).
Seite 44
Ÿ2.4
Spezialfall: Möchte man zu einer Stichprobe
x ; x ; : : : ; xn
1
einen weiteren Datenpunkt
xn
+1
x neu =
2
hinzufügen, so ergibt sich
n x alt + xn
n+1
+1
(2.5)
als der neue Mittelwert.
Man erkennt, dass für sehr groÿe Werte von
n etwa
x
x neu x alt + nn
+1
gilt, d.h. die Änderung des Mittelwertes ist etwa von der Gröÿenordnung
xn =n.
+1
Seite 45
Ÿ2.4
2.4.4. Die Ordnungsstatistik
Gegeben seien ordinalskalierte Daten
x ; x ; : : : ; xn :
1
2
Als Ordnungsstatistik bezeichnet man die in aufsteigender Gröÿe angeordneten Daten
x x ::: x n :
(1)
(2)
( )
Dann ist z.B.
x = minfx ; x ; : : : ; xn g;
x n = maxfx ; x ; : : : ; xn g:
(1)
( )
1
1
2
2
Seite 46
Ÿ2.4
2.4.5. Getrimmtes Mittel
Das arithmetische Mittel ist anfällig für Ausreiÿer. Das getrimmte Mittel
ignoriert die
bnc gröÿten und kleinsten Beobachtungen:
nX
bnc
1
x = n 2bnc
xi :
i bnc
(
)
( )
=
+1
Vorteile:
Robust gegen Ausreiÿer.
Nachteile:
Einige Datenpunkte werden nicht verwendet.
Wahl von
beliebig. Missbrauch möglich.
Seite 47
Ÿ2.4
Beispiel B2.32: Dreiÿig Jahre lang wurde an einem Ort die Tageshöchsttemperatur am 1.September gemessen:
Es ergibt sich ein arithmetisches Mittel von
t = 20:3o C
Seite 48
Ÿ2.4
Wir wählen
und
= 0:1
= 0:2:
Seite 49
Ÿ2.4
2.4.6. Median
xe , für die mindestens die
e ist und die andere Hälfte xe ist.
Hälfte der Beobachtungen x
Der (empirische) Median ist die kleinste Zahl
Genaue Denition:
xe = med (x ) =
x bn= c
x n= + x n=
(
(
1
2
2 +1)
(
2)
Der Median minimiert den Abstand
(
2+1)
Pn
i =1 jxi
; n=2 62 N
; n=2 2 N
c j.
Seite 50
Ÿ2.4
Vorteile des Median:
Robust gegen Ausreiÿer
Nachteile des Median:
Nicht alle Datenpunkte werden berücksichtigt.
Seite 51
Ÿ2.4
Beispiel B2.33)B2 :32 : Ordnungsstatistik der Temperaturen:
9, 11, 13, 13, 16, 16, 16, 16, 17, 18,
18, 18, 19, 19, 20, 20, 20, 21, 21, 21,
21, 22, 22, 22, 25, 26, 29, 32, 34, 34.
Da
n = 30 ist ergibt sich n=2 2 N, also ist
xe =
x
(15)
+x
2
(16)
= 20 +2 20 = 20:
n = 5 Mal geworfen:
Beispiel B2.34)B2 :18 : Ein Würfel wird
x = 3; x = 6; x = 1; x = 5; x = 6:
1
Da
2
3
4
5
n=2 62 N ergibt sich für den Median
xe = x = 5:
(3)
Seite 52
Ÿ2.4
2.4.7. Quantile und Quartile
Das
-Quantil ist die kleinste Zahl xe für die mindestens n der Daten
xe sind:
x bnc
x n + x n
(
xe =
(
1
2
Der Median ist das
Die
+1)
(
)
(
+1)
; n 62 N
; n 2 N
50%-Quantil.
25%- und 75%-Quantile heiÿen auch unteres und oberes Quartil.
Beispiel B2.35)B2 :32 : Ordnungsstatistik der Temperaturen:
9, 11, 13, 13, 16, 16, 16, 16, 17, 18,
18, 18, 19, 19, 20, 20, 20, 21, 21, 21,
21, 22, 22, 22, 25, 26, 29, 32, 34, 34.
Dann ergibt sich für das untere Quartil
xe : = x b : c
0 25
( 7 5 +1)
= x = 16:
(8)
Seite 53
Ÿ2.4
2.4.8. Das geometrische Mittel
Beispiel B2.36: Ein Aktienindex steigt in drei Jahren zunächst um
15%, dann um 21% und sinkt schlieÿlich um 12%. Wie groÿ ist das
durchschnittliche Wachstum?
Insgesamt steigt der Index um den Faktor
also um knapp
22%.
1:15 1:21 0:92 = 1:22452,
Wie hoch müsste das Wachstum im Durchschnitt jährlich sein, um in
drei Jahren insgesamt auf den Faktor
1:22452 zu kommen?
Wir suchen eine Lösung der Gleichung
x = 1:22452;
3
also
p
x = 1:22452 = 1:069848, das mittlere Wachstum beträgt also
3
knapp 7%.
Seite 54
Ÿ2.4
Das geometrische Mittel verwendet man, um Mittelwerte von relativen
Wachstumszahlen zu berechnen:
v
u n
uY
n
xk :
xg = t
k =1
Liegen die Daten nahe bei eins, so gilt die Schätzung
x g x:
Beispiel B2.37: Es sei
x = 1:1; x = 1:03; x = 0:99; x = 1:07:
1
2
3
4
Dann ist
x = 1:0475; x g = 1:046676:
Seite 55
Ÿ2.4
2.4.9. Weitere Mittelwerte
Das harmonische Mittel ist gegeben durch die Formel
n
X
1
1
xh = n x
!
1
k =1 k
:
Es entspricht also dem Kehrwert des arithmetischen Mittels der Datenkehrwerte.
Beispiel B2.38: Drei Autos legen eine Strecke von 100 km mit unterschiedlichen Geschwindigkeiten zurück (100 km/h, 150 km/h und 200
km/h). Wie ist ihre Durchschnittsgeschwindigkeit?
vh =
100
100
+
300
100
150
+
100
200
=
1
100
+
1
150
3
+
1
200
1
= 138:4615 km/h:
Seite 56
Ÿ2.4
Der Modalwert (Modus)
xm ist bei diskreten Merkmalen die in der Stich-
probe am häugsten vorkommende Beobachtung. Bei klassierten Daten
wählt man die Mitte der Klasse mit den meisten Beobachtungen.
Der Modalwert ist nicht eindeutig.
Modus und arithmetisches Mittel müssen keinesfalls nahe beieinander
liegen.
Beispiel B2.39)B2 :32 : Im Beispiel B2.32 wurden 30 Jahre lang Temperaturen gemessen:
9, 11, 13, 13, 16, 16, 16, 16, 17, 18,
18, 18, 19, 19, 20, 20, 20,21, 21, 21,
21, 22, 22, 22, 25, 26, 29, 32, 34, 34.
Sowohl 16 als auch 21 sind Modi.
Seite 57
Ÿ2.5
2.5. Streuungsmaÿe
In der Aufgabe 12 zeigte sich, dass sehr unterschiedliche Datensätze
denselben Mittelwert aufweisen können. Um Daten adäquat mit wenigen
Kennzahlen zu beschreiben, benötigen wir mindestens noch ein weiteres
Maÿ für die Streuung der Daten um den Mittelwert.
2.5.1. Varianz und Standardabweichung
Die empirische Varianz ist durch
b (x ) =
2
Pn
k =1 (xk
n
x)
2
deniert, also durch die mittlere quadratische Abweichung der Datenpunkte von ihrem Mittelwert.
Seite 58
Ÿ2.5
b (x ) ist immer nicht-negativ und null nur dann, wenn alle xk
2
gleich
sind.
Wie schon im Falle des Mittelwerts gibt es eine oftmals kürzere Variante, die mit Hilfe der relativen Häugkeiten formuliert wird:
1
b (x ) = n
2
X
m 2M X
(m x ) n (m ):
2
Meistens ist folgende alternative Formel leichter zu berechnen:
b (x ) = (x ) (x ) :
2
2
2
Die emp. Varianz ist nicht linear, aber es gilt aber
b (ax + b) = a b (x ):
2
2
2
Speziell ist die Varianz translationsinvariant.
Seite 59
Ÿ2.5
Die Standardabweichung ist deniert als
b (x ) = b (x ):
p
2
Die Standardabweichung hat dieselbe Einheit, wie die Originaldaten.
Es gilt die einprägsame Formel
b (ax + b) = ab (x ).
Vorteile und Nachteile der Varianz (Standardabweichung) als Streuungsmaÿ:
Einleuchtende Interpretation.
Leicht zu berechnen und mathematisch handhabbar.
Anwendbar nur bei hinlänglich symmetrischen und möglichst eingipfeligen Verteilungen der Daten.
Die emp. Varianz und die Standardabweichung reagieren empndlich
auf Ausreiÿer.
Seite 60
Ÿ2.5
In der Statistik benötigt man neben der oben beschriebenen empirischen Varianz noch die Stichprobenvarianz (korrigierte Varianz) und die
Stichprobenstandardabweichung (korrigierte Standardabweichung):
b (x ) =
2
Pn
k =1 (xk
p n 1
b(x ) = b (x ):
x)
2
;
2
Es gilt oenbar
n
b (x ) = n 1 b (x ):
2
2
Die Stichprobenvarianten der Varianz und der Standardabweichung
werden in der Schätztheorie verwendet, weil sie sog. erwartungstreue
Schätzer liefern.
Für groÿe Werte von
n sind beide Varianten etwa gleich.
Seite 61
Ÿ2.5
Beispiel B2.40:
x = 67:73633;
b (x ) = 472:267;
b(x ) = 21:73171;
Fn (x + b (x )) Fn (x b (x )) = 0:7
2
Seite 62
Ÿ2.5
Beispiel B2.41:
x = 60:44387
b (x ) = 452:3576;
b(x ) = 21:2687;
Fn (x + b (x )) Fn (x b (x )) = 0:56
2
Seite 63
Ÿ2.5
Beispiel B2.42:
x = 65:37265
b (x ) = 4082:81;
b(x ) = 63:89687;
Fn (x + b (x )) Fn (x b (x )) = 0:84
2
Seite 64
Ÿ2.5
2.5.2. Varianz für gepoolte Daten (Varianzzerlegung)
Bei mehreren Stichproben
Stichprobe 1:
Stichprobe 2:
x ;x ;:::;x n
x ;x ;:::;x n
11
12
1 1
21
22
2 2
.
.
.
Stichprobe m:
mit
verschiedenen
.
.
.
xm ; xm ; : : : ; xmnm
Mittelwerten
1
b (x ); b (x ); : : : ; b (xm ) ergibt sich
2
1
2
.
.
.
2
x ; x ; : : : ; xm
1
2
und
Varianzen
2
2
b (x ) =
2
m 2
X
b (xk ) nk
n
|k =1 {z
}
interne V arianz
+
m
X
(x k
x ) nk
:
n
2
|k =1
{z
}
externe V arianz
(Varianzzerlegung).
Seite 65
Ÿ2.5
Beispiel B2.43: Gegeben seien die Stichproben
xki
nk x k
b (xk )
1
1,3,2,5,4
5
3.0
2.0
2
5,5,5
3
5.0
0.0
3
6,1,4,5
4
4.0
3.5
Gepoolter Mittlerwert:
2
x = = 3:83.
5 3+3 5+4 4
5+3+4
Pm b2 (xk )nk
= 2:0
k =1
n
Pm (x k x )2 nk
= 0:638.
Varianz:
k =1
n
Interne Varianz:
Externe
Varianz:
b (x ) = 2 + 0:63 = 2:638.
2
Seite 66
Ÿ2.5
2.5.3. Spannweite und Interquartilsabstand
Als Spannweite bezeichnet man den Abstand zwischen Minimum und
Maximum der Stichprobe:
Rx = x n
( )
x :
(1)
Nur wenige Daten ieÿen in die Berechnung ein.
Oenbar ist die Spannweite nicht robust gegenüber Ausreiÿern.
Der
Interquartilsabstand
misst
den
Abstand
zwischen
oberem
und
unterem Quartil:
IQRx
= xeo xeu :
Robust in Bezug auf Ausreiÿer.
Seite 67
Ÿ2.5
2.5.4. Variationskoezient
Der Variationskoezient setzt die durch die Standardabweichung gemessene Streuung ins Verhältnis zu ihrem Mittelwert:
b (x )
V (x ) = x
Relatives Streuungsmaÿ
0 V (x ) p n .
Deniert für positive metrische Daten.
Es gilt
Daher deniert man den normierten
Variationskoezienten
b (x )
V (x ) = p
nx
mit Werten im Intervall
[0; 1].
Seite 68
Ÿ2.5
2.5.5. Weitere Streuungsmaÿe
Der Median der absoluten Abweichungen (MAD)
MADx
= med (jx xej)
ist unempndlich in Bezug auf Ausreiÿer (viele Varianten).
Die mittlere absolute Abweichung vom Mittel
jx x j
und die mittlere absolute Abweichungen vom Median
jx xej
sind weniger robust.
Seite 69
Ÿ2.5
Beispiel B2.44)B2 :18 : Für sechs Monate wird die Anzahl der Unfälle
an einer befahrenen Ausfahrtstraÿe in einer Statistik erfasst:
x = 5; x = 1; x = 3; x = 2; x = 1; x = 6
1
Es ist
2
3
4
5
6
x = 18=6 = 3 und daher
(5 3) + (1 3) + : : : + (6 3)
6
4
+
4
+
0
+
1
+
4
+ 9 = 22 = 3:3:
=
6
6
b (x ) =
2
2
2
2
Seite 70
Ÿ2.5
Alternative Formel:
(x )
= 5 + 1 + 3 +6 2 + 1 + 6
22 = 3:3:
= 76
9
=
6
6
b (x ) = x
2
2
2
2
2
2
2
2
2
3
2
Seite 71
Ÿ2.5
Für die Standardabweichung ergibt sich
b (x ) = b (x ) 1:92
p
2
Die Stichprobenvarianz ist entsprechend etwas gröÿer als die empirische
Varianz:
22
n
b (x ) = n 1 b (x ) = 5 = 4:4
2
Dementsprechend ist
2
p
b(x ) = 4:4 2:1
Die Spannweite der Daten ist oenbar
Rx = 6 1 = 5:
Seite 72
Ÿ2.5
Zur Berechnung des Interquartilabstands benötigen wir das untere und
das obere Quartil. Es ist
x = 1; x = 1; x = 2; x = 3; x = 5; x = 6
(1)
(2)
(3)
(4)
(5)
(6)
Also ergibt sich
xe : = x b = c = x = 1;
xe : = x b = c = x = 5:
0 25
( 6 4 +1)
0 75
( 18 4 +1)
(2)
(5)
Dann erhalten wir
IQRx
= 5 1 = 4:
Seite 73
Ÿ2.5
Variationskoezient:
22=6
b (x )
V (x ) = x = 3 0:64
V (x )
V (x ) = p 0:26
p
6
MAD:
MADx
= med (2:5; 1:5; 0:5; 0:5; 1:5; 3:5) = 1:5
Mittlere absolute Abweichung vom Mittel:
jx x j = (2; 2; 0; 1; 2; 3) = 10
6 1:67
Mittlere absolute Abweichungen vom Median (
xe = 2:5):
jx xej = (2:5; 1:5; 0:5; 0:5; 1:5; 3:5) = 10
6
Seite 74
Ÿ2.5
Im siebten Monat geschehen 20 Unfälle.
Nun ergibt sich:
b (x )
b (x )
Rx
2
IQRx
MADx
Alt
Neu
3.67
38.53
1.91
6.21
5
19
4
5
1.5
2
Seite 75
Ÿ2.5
Beispiel B2.45: IT-Unternehmen in Österreich mit mehr als 99 Mitarbeitern (Quelle:http://data.opendataportal.at)
1
2
3
Name Umsatz Mitarbeiter
A1 Telekom Austria AG
256
16240
Raiffeisen Informatik GmbH
172
3000
KAPSCH Group
361
5250
Wir betrachten die Umsatzwerte für 67 Firmen mit weniger als 50 Mio
Euro Umsatz.
Seite 76
Ÿ2.5
Histogramm:
Arithmetisches Mittel und Median:
U = 21:8394
Ue = 19:
Seite 77
Ÿ2.5
Varianz, Standardabweichung:
b (U ) = 90:90
b (U ) = 9:53
2
b (U ) = 92:28
b(U ) = 9:61
2
Seite 78
Ÿ2.5
Quartile:
0%
25%
50%
75%
100%
8.70
13.93
19.00
28.40
48.00
Spannweiter und Interquartilsabstand:
RU = 48 8:7 = 39:3
IQRU = 28:4
13:93 = 14:47
Seite 79
Ÿ2.6
2.6. Boxplots
In einem Boxplot werden die wichtigsten Lage- und Streuungsmaÿe grasch zusammengefasst.
Vorgehensweise:
Eine horizontale Linie wird auf der Höhe des Median eingezeichnet.
Das oberes und untere Quartil bestimmen die obere und untere
Seite der Box.
Die Länge der beiden Antennen (Whiskers) entspricht maximal
dem 1.5-fachen des IQR (gerechnet vom oberen- bzw. unteren
Quartil aus). Die Antennen enden aber beim letzten tatsächlich
vorliegenden Datenwert unter- bzw. oberhalb dieser Marke.
Alle Datenpunkte auÿerhalb der Antennen werden als Ausreiÿer
als Punkte eingezeichnet.
Seite 80
Ÿ2.6
x = (4; 7; 9; 11; 12; 14; 14; 15; 22; 27). Hier ist n = 10, xe = 13,
xeu = 9, xeo = 15, IQRx = 6 und 1:5 IQR = 9.
Beispiel:
Seite 81
Ÿ2.7
Beispiel B2.46: Bürgerschaftswahlen in Hamburg (2009)
Stimmanteile für die CDU in den Wahllokalen
Seite 82
Ÿ2.7
2.7. Konzentrationsmaÿe
2.7.1. Die Lorenz-Kurve
Beispiel B2.47)B2 :45 : Umsatz und Mitarbeiterzahl von österreichischen IT-Unternehmen. Empirische Verteilungsfunktion für die Umsätze
im Beispiel B2.45:
Ein relativ groÿer Teil der Umsatzgesamtsumme entfällt auf wenige
Firmen (sog. Konzentration).
Seite 83
Ÿ2.7
Um eine solche Konzentration grasch darzustellen, verwendet man
häug die Lorenz-Kurve.
Berechne zunächst für
Li =
=
i = 1; 2; : : : ; n die Werte
Summe der kleinsten i Umsätze
Gesamtsumme der Umsätze
Pi
x
Pkn =1 (k ) :
k =1 x(k )
100 i=n Prozent der kleinsten Beobachtungen machen
in der Summe 100 Li Prozent der Gesamtsumme der Beobachtungen
Interpretation:
aus.
Zeichne dann eine Kurve, die im Einheitsquadrat die Punkte
(i=n; Li )
miteinander verbindet (Polygonzug)
Seite 84
Ÿ2.7
Beispiel B2.48: Sechs Mitarbeiter einer Firma haben folgende jährliche Gehälter (in tsd. Euro):
Gehalt:
30
20
30
70
30
Orderst.:
20
20
30
30
30
70
0.1
0.2
0.35
0.5
0.65
1.0
1/6
2/6
3/6
4/6
5/6
6/6
Li :
i=n:
20
Seite 85
Ÿ2.7
Beispiel B2.49)B2 :45 :
Interpretation:
Auf die oberen 20% der Firmen entfallen etwa 90% der Umsätze
Seite 86
Ÿ2.7
2.7.2. Das Gini-Maÿ
Um eine Konzentration auch quantitativ zu erfassen, kann man das
Gini-Maÿ berechnen:
Gx =
Pn
i =1 (2i
nx
1)x i
( )
2
1:
Das Gini-Maÿ entspricht der doppelten Fläche zwischen der LorenzKurve und der Winkelhalbierenden.
Gx ausfällt, desto gröÿer ist die Konzentration.
Es gilt 0 Gx (n
1)=n, daher berechnet man auch das normierte
Je gröÿer
Gini-Maÿ
n
Gx = n 1 Gx :
mit Werten im Intervall [0; 1].
Seite 87
Ÿ2.7
Beispiel B2.50)B2 :48 &B2 :45 :
Gx = 0:23;
Gx = 0:28:
Gx = 0:8645807;
Gx = 0:8654585:
Seite 88
Ÿ2.8
2.8. Bivariate Daten
Häug interessiert man sich in der Statistik gleichzeitig für mehrere
Merkmale. Insbesondere versucht man etwas über die Abhängigkeit der
Merkmale untereinander herauszunden. Wir beschäftigen uns in diesem
Paragraphen mit der Statistik bivariater Daten, also mit dem Fall zweier
Merkmale.
Seien im Folgenden
X
und
Y
zwei Merkmale (deniert als Funktionen
auf demselben Stichprobenraum/derselben Grundgesamtheit).
Die entsprechenden Merkmalsausprägungen seien
MX = fa ; a ; : : :g
MY = fb ; b ; : : :g:
1
2
1
2
Seite 89
Ÿ2.8
Bivariate Daten lassen sich besonders einfach im Streudiagramm darstellen.
Beispiel B2.51)B2 :45 : Umsatz und Mitarbeiterzahl von österreichischen IT-Unternehmen mit weniger als 100 Mill. Euro Umsatz (Quelle:http://data.opendataportal.at).
Seite 90
Ÿ2.8
2.8.1. Häugkeiten und Kontingenztabellen
Wir betrachten jetzt Stichproben der Form
(xi ; yi ), genauer
f(xi ; yi ); i = 1; 2; : : : ; n; Xi 2 MX ; yi 2 MY g:
Wie schon bei den univariaten Daten denieren wir die absolute bivariate
Häugkeit der Ausprägung
(ai ; bj ).:
nij = n(ai ; bj ) = ]fk : xk = ai ; yk = bj g:
Als absolute Randhäugkeit bezeichnen wir die Werte
ni = ]fk : xk = ai g;
nj = ]fk : yk = bj g:
Seite 91
Ÿ2.8
Entsprechend ist
n
hij = nij
die relative bivariate Häugkeit der Ausprägung
(ai ; bj ) und
n
hi = ni ;
n
hj = nj
die relative Randhäugkeit.
Seite 92
Ÿ2.8
Im Falle endlich vieler Merkmalsausprägungen werden die bivariaten
Häugkeiten am übersichtlichsten durch sogenannte Kontingenztafeln
bzw. Kontingenztabellen dargestellt. Dort werden die bivariaten Häugkeiten
nij
in der i-ten Zeile und j-ten Spalte eingetragen.
Beispiel B2.52: Für 40 Studierende werden das Geburtsjahr und der
gewünschte Studienabschluss (B/M/D) ermittelt.
Kontingenztabelle mit absoluten Häugkeiten:
B
M
D
ni 1990-1994
1
9
5
15
1995-1999
15
9
1
25
16
18
6
40
Studienabschluss:
Geburtsjahr
nj
Seite 93
Ÿ2.8
Kontingenztabelle mit relativen Häugkeiten:
B
M
D
hi 1990-1994
1/40
9/40
1/8
3/8
1995-1999
3/8
9/40
1/40
5/8
2/5
9/20
3/20
1
Studienabschluss:
Geburtsjahr
hj
Die relative Häugkeit für die Ausprägung
(1990 1994; D) ist
h ; = 1=8 = 12:5%
1 3
Die relative Randhäugkeit für den Bachelor-Studienabschluss ist
h = 2=5 = 40%:
1
Seite 94
Ÿ2.8
2.8.2. Unabhängige Merkmale
Die Merkmale
X und Y
heiÿen unabhängig, wenn
h(ai ; bj ) = h(ai ; ) h(; bj )
für jede Kombination
(ai ; bj ) mit ai 2 MX und bj 2 MY
gilt. Wir können
das auch kurz als
hij = hi hj ;
8i; j : 1 i k; 1 j l
n n
nij = i n j ;
8i; j : 1 i k; 1 j l
oder
schreiben.
8 ist der sog. Allquantor und bedeutet für alle.
Seite 95
Ÿ2.8
Beispiel B2.53)B2 :52 : Im obigen Beispiel,
B
M
D
hi 1990-1994
1/40
9/40
1/8
3/8
1995-1999
3/8
9/40
1/40
5/8
2/5
9/20
3/20
1
Studienabschluss:
Geburtsjahr
hj
sind die Merkmale gewiss nicht unabhängig, denn es gilt z.B.
h ; = 9=40 6= h h; = 3=8 9=20 = 27=160:
1 2
1
2
Seite 96
Ÿ2.8
2.8.3. Zusammenhangsmaÿe für nominale Daten
Die über alle Kombinationen von i und j summierte quadrierte Abstand
nij
ni nj n
2
kann als Maÿ für die Unabhängigkeit der beiden untersuchten Merkmale
gelten.
Um später entsprechende statistische Tests durchführen zu können, teilt
man noch durch
ni nj
n
und deniert den Chi-Quadrat-Koezienten (auch
einfach nur Chi-Quadrat) als:
=
2
k X
l
X
i =1 j =1
nij
ni nj 2
n
:
ni nj
n
Seite 97
Ÿ2.8
Zwei alternative Formeln (häug einfacher zu verwenden):
=n
2
k X
l
X
i =1 j =1
nij
ni nj
2
!
!
1
!
!
und
=n
2
k X
l
X
i =1 j =1
hij
hi hj
2
1 :
Auch für nominalskalierte Merkmale deniert.
Schwer vergleichbar, da von der Dimension der Kontingenztafel abhängig.
Seite 98
Ÿ2.8
Korrektur: Der Pearsonsche Kontingenzkoezient ist gegeben durch
C=
s
2
+ n:
2
Weitere Verbesserung: korrigierter Pearsonsche Kontingenzkoezient
C =
s
minfk; l g C:
minfk; l g 1
Dann gilt
0 C 1:
Seite 99
Ÿ2.8
Beispiel B2.54)B2 :52 : Gegeben Sei folgende Kontingenztabelle:
A
B
ni C
4
2
6
D
1
8
9
5
10
15
nj
Wir tragen die Werte für
nij2
ni nj
ein:
A
B
C
8/15
1/15
D
1/45
32/45
24
+
3
+
1
+
32
= 15 1 = 5:
45
2
Seite 100
Ÿ2.8
Es ist
C=
s
5 =1
=
+n
20 2
2
r
2
und
C =
s
minfk; l g C = p2 1 = 0:7071
minfk; l g 1
2
Deutet eher auf einen stärkeren Zusammenhang der beiden Merkmale
hin.
Seite 101
Ÿ2.8
2.8.4. Zusammenhangsmaÿe für metrische Daten
Gibt es einen positiven Zusammenhang zwischen
X und Y , so gilt:
(xi x ) positiv, so gilt das häug auch für (yi y ).
Ist (xi
x ) negativ, so gilt das häug auch für (yi y ).
Also gilt für viele Datenpaare (x ; yi ): (xi
x ) (yi y ) > 0.
Ist
1
Daher wählt man als Maÿzahl die empirische Kovarianz
n
X
1
sxy = n (xi x ) (yi y )
i =1
bzw. die Stichprobenkovarianz
n
X
1
sbxy = n 1 (xi x ) (yi y ):
i
=1
Seite 102
Ÿ2.8
Beispiel B2.55)B2 :45 : Umsatz und Mitarbeiterzahl von österreichischen IT-Unternehmen mit weniger als 100 Mill. Euro Umsatz.
sxy = 730:9737;
sbxy = 731:7472:
Seite 103
Ÿ2.8
Alternative Berechnungsformel:
sxy = xy x y:
Es gilt:
s ax
(
b
sxy = syx ;
cx d = a c syx ;
sxx = b (x )
+ )(
+ )
2
und die Cauchy-Schwarzsche Ungleichung:
jsxy j b(x )b(y ).
Man verwendet daher den (empirischen) Korrelationskoezienten
(Bravais/Pearson)
s
rxy = b (x )xyb (y )
mit Werten im Intervall
[ 1; 1].
Seite 104
Ÿ2.8
rxy
kann als Maÿ für einen linearen Zusammenhang gelten:
rxy
=1
x = ay + b, a > 0, perfekte pos. Korrelation
2 [0:5; 1)
starke positive Korrelation
2 [0; 0:5)
schwache positive Korrelation
2 [ 0:5; 0) schwache negative Korrelation
2 [ 1; 0:5) starke negative Korrelation
= 1
x = ay + b, a < 0, perfekte neg. Korrelation
Ein unmittelbarer kausaler Zusammenhang kann nicht erkannt werden.
Wir werden später noch sehen, wie man einen möglichen linearen Zusammenhang genauer untersuchen kann (Abschnitt Lineare Regression)
Seite 105
Ÿ2.8
Seite 106
Ÿ2.8
2.8.5. Zusammenhangsmaÿe für ordinale Daten
Beispiel B2.56: Zehn Studierende werden nach ihrer Motivation Y
(
MX = f; g) und
der Statistikklausurnote Y (
MY = f1; 2; : : : ; 5g)
gefragt.
Motivation:
Note:
4
4
2
3
5
1
3
4
1
5
Gibt es einen Zusammenhang?
Kontingenztabelle:
1
2
3
4
5
2
1
2
1
1
7
0
0
0
2
1
3
2
1
2
3
2
10
Seite 107
Ÿ2.8
R(xi ) einer Beobachtung x
= xi gilt.
Der Rang
die
xm
(
)
1
ist als die Zahl
m deniert, für
Ist der Rang nicht eindeutig (sog. Bindungen), so bildet man den
Durchschnittswert der in Frage kommenden Ränge.
Beispiel B2.57)B2 :56 : Im obigen Beispiel ergeben sich die folgenden
Ränge für die beiden Merkmale:
Motivation:
R(xi ):
Note:
R(yi ):
2
7
7
7
2
7
7
2
7
7
4
4
2
3
5
1
3
4
1
5
7
7
3
4.5
9.5
1.5
4.5
7
1.5
9.5
Seite 108
Ÿ2.8
Es gilt für den Mittelwert der Ränge
n+1
R= 2 :
Gauÿsche Summenformel:
Idee:
Man
verwendet
die
1 + 2 + 3 + ::: + n = n n
( +1)
2
ermittelten
Ränge
um
den
sog.
Rangkorrelationskoezienten (Spearman) zu berechnen:
Rxy =
Pn
2
R
(
x
i )R(yi ) nR
k
=1
q
q
Pn
Pn
2
2
2
nR k =1 R(xi )
k =1 R(yi )
Es gilt wieder
nR
2
:
Rxy 2 [ 1; 1].
Seite 109
Ÿ2.8
Perfekter Zusammenhang, wenn
jRxy j = 1 gilt, abnehmend mit ab-
nehmendem Absolutbetrag des Koezienten.
Seite 110
Ÿ3.0
3.
Wahrscheinlichkeitsrechnung
Beispiel B3.1)B1 :1 : Im Beispiel B1.1 wurde ein Spielwürfel 120 Mal
gewürfelt. Es ergaben sich folgende Augenzahlen:
Häugkeitstabelle:
Augenzahl: 1 2 3 4 5 6
Häugkeit: 15 18 30 18 21 18
Seite 111
Ÿ3.0
Neben den statistischen Fragestellungen, die unmittelbar die erhobenen
Daten betreen, können wir noch vom konkreten Experiment abstrahieren und uns allgemeinere Fragen stellen:
Wie wahrscheinlich sind die verschiedenen Augenzahlen bei einem
Würfelwurf ?
Wie wahrscheinlich sind die hier vorliegenden Augenzahlenhäugkeiten bei 120 Würfen?
Was ist Wahrscheinlichkeit überhaupt?
Frequentistische Interpretation: Die Wahrscheinlichkeit eines Ereignisses ist der Zahlenwert, gegen die relative Häugkeit mit wachsendem
Stichprobenumfang konvergiert.
Seite 112
Ÿ3.1
3.1. Ereignisse und Wahrscheinlichkeiten
Die axiomatische Wahrscheinlichkeitstheorie lässt die philosophischen
Fragen hinter sich und betrachtet Ereignisse und Wahrscheinlichkeiten
als mathematische Objekte mit bestimmten Eigenschaften.
Das Grundgerüst kennen wir bereits aus der Statistik:
Die Grundgesamtheit
wird nun Wahrscheinlichkeitsraum genannt.
Die Merkmale heiÿen nun Zufallsvariablen.
Die Teilmengen von
heiÿen Ereignisse.
Seite 113
Ÿ3.1
Die gesamte Menge
repräsentiert das sichere Ereignis,
; das unmögliche Ereignis.
Die Vereinigungsmenge A [ B repräsentiert das Eintreten von A oder
die leere Menge
B (dabei wird zugelassen, dass beide Ereignisse eintreten).
Die Schnittmenge A \ B repräsentiert das gleichzeitige Eintreten von
A und B.
von
A und B heiÿen unvereinbar, wenn A und B disjunkt
sind, d.h. es gilt A \ B = ;.
Zwei Ereignisse
Seite 114
Ÿ3.1
A=B repräsentiert das Eintreten von A bei gleichzeitigem Nicht-Eintreten von B .
Das Komplement A repräsentiert das Nicht-Eintreten von A.
Die Dierenzmenge
Seite 115
Ÿ3.1
Jedem
A Ereignis
kann
man
eine
Zahl
P
(A),
seine
Wahrscheinlichkeit, zuordnen.
In der mathematischen Wahrscheinlichkeitstheorie stellt sich
heraus, dass man nicht jedem Ereignis eine Wahrscheinlichkeit
zuordnen kann. Das führt zu einigen Komplikationen, die wir hier
! Vitali-Mengen, Banach-Tarski-Paradoxon).
ignorieren wollen (
Das Wahrscheinlichkeitsmaÿ P muss dabei folgende Bedingungen erfüllen:
(
) = 1,
P (A [ B ) = P (A) + P (B ), wenn A und B unvereinbar sind.
1. P
2.
Seite 116
Ÿ3.1
Folgende Regeln gelten dann automatisch:
(A) = 1 P A .
P (; ) = 0 .
P (A) P (B ) wenn A ) B .
P
Additionsregel:
P
(A [ B ) = P (A) + P (B )
P
(A \ B ) :
Seite 117
Ÿ3.1
3.1.1. Laplace-Experimente
Wir
sprechen
von
einem
f! ; ! ; : : : ; !n g endlich ist und
1
Laplace-Experiment,
wenn
=
2
P
(! ) = P (! ) = : : : = P (!n ) = n1
1
2
gilt.
Bei Laplace-Experimenten kann man Wahrscheinlichkeiten abzählen:
Satz 3.2 (Laplace-Experiment)
Im Laplace-Experiment gilt für jedes Ereignis
P
A
(A) = ]A
n:
Seite 118
Ÿ3.1
Beispiel B3.2: Ein Würfel wird geworfen. Es sei
= f1; 2; 3; 4; 5; 6g:
Dann handelt es sich um ein Laplace-Experiment mit
P
Es sei
(!) = 61 ; 8! 2 :
A = f2; 4; 6g das Ereignis, dass die Augenzahl gerade ist. Dann
gilt
P
(A) = 63 = 12 :
Liegt kein Laplace-Experiment vor, so gilt allgemein nur noch
P
(A) =
X
! 2A
P
(!) :
Seite 119
Ÿ3.1
Beispiel B3.3: Ein Würfel werde zweimal geworfen. Wir wählen
= f(i; j )ji; j 2 f1; 2; 3; 4; 5; 6gg:
Dann handelt es sich um ein Laplace-Experiment mit
P
Es sei
1 ; 8 ! 2 :
(!) = 36
A = f(i; j ) 2 ji < j g das Ereignis, dass der zweite Wurf eine
höhere Augenzahl anzeigt, als der erste Wurf. Dann ist
P
3 + 2 + 1 = 15 = 5 :
(A) = 5 + 4 +36
36 12
Seite 120
Ÿ3.1
3.1.2. Bedingte Wahrscheinlichkeiten
Als bedingte Wahrscheinlichkeit bezeichnet man die Wahrscheinlichkeit
A, unter der Voraussetzung, dass der Eintritt
zweiten Ereignisses B (mit P (B ) 6= 0) schon bekannt ist:
eines Ereignisses
P
eines
(AjB) = P (A; gegeben B) :
Satz 3.3
Es gilt
P
(AjB) = P (PA(B\ )B) ;
Daraus ergibt sich unmittelbar
P
(A) = P (AjB) P (B) :
Seite 121
Ÿ3.1
Beispiel B3.4: Es werde ein Würfel geworfen. Es sei
A
B
=
=
= f2; 4; 6g;
Die Augenzahl kleiner als 5 = f1; 2; 3; 4g:
Die Augenzahl ist gerade
Dann gilt
(AjB) = P (Pf1(f; 22;; 43g; 4) g) = 21 ;
P (f2; 4g)
2:
P (B jA) =
=
P (f2; 4; 6g)
3
P
Seite 122
Ÿ3.1
3.1.3. Unabhängigkeit
Zwei Ereignisse
A und B heiÿen stochastisch unabhängig, wenn
P
(A \ B) = P (A) P (B)
gilt.
Die obige Bedingung ist gleichbedeutend mit
P
(AjB) = P (A)
bzw.
P
(BjA) = P (B) :
Nicht mit Unvereinbarkeit verwechseln: Zwei unvereinbare Ereignisse
sind fast immer abhängig.
Seite 123
Ÿ3.1
Beispiel B3.5)B3 :4 : Es sei wieder
A
B
=
=
= f2; 4; 6g;
Die Augenzahl kleiner als 5 = f1; 2; 3; 4g:
Die Augenzahl ist gerade
Die beiden Ereignisse sind stochastisch unabhängig:
P
(A \ B) = P (f2; 4g) = 13 = 36 46 = P (A) P (B) :
Die Ereignisse
A und A sind nicht unabhängig:
P
1
A \ A = P (;) = 0 6= 4 = P (A) :
2
Seite 124
Ÿ3.2
3.2. Kombinatorik
3.2.1. Permutationen
Aus einem Gefäÿ mit
n
Kugeln werden alle Kugeln gezogen. Wieviele
Möglichkeiten der Anordnung (sog. Permutationen) dieser gezogenen
Kugeln gibt es?
Satz 3.4
Es gibt
n! verschiedene Möglichkeiten n Objekte anzuordnen.
Seite 125
Ÿ3.2
3.2.2. Variationen und Kombinationen
Als nächstes ziehen wir nur
k
der
n Kugeln.
Seite 126
Ÿ3.2
Unterscheidet man die Reihenfolge der gezogenen Kugeln, so spricht
man von Variationen.
Legt man die Kugeln nicht wieder zurück, so kommt man auf
n!
n (n 1) (n k + 1) = (n k )!
Möglichkeiten.
Legt man die Kugeln nach dem Ziehen jeweils wieder zurück, so ergeben sich
n n n = nk
verschiedene Möglichkeiten.
Seite 127
Ÿ3.2
Unterscheidet man die Reihenfolge der gezogenen Kugeln nicht, so
spricht man von Kombinationen.
Möglichkeiten ohne Zurücklegen:
n!
(n k )! | {z }
V ariationen
1
k!
|{z}
Anordnungen
= kn :
Möglichkeiten mit Zurücklegen (ohne Beweis):
n+k 1
:
k
Seite 128
Ÿ3.2
Zurücklegen
Ohne Zurücklegen
Reihenfolge
Reihenfolge
V kn = nk
Vnk =
n!
(n
k )!
Zurücklegen
Ohne Zurücklegen
Ohne Reihenfolge
Ohne Reihenfolge
C
k
n =
n+k
k
1
C
k
n =
n
k
Seite 129
Ÿ3.3
3.3. Zufallsvariablen und ihre Verteilungen
3.3.1. Zufallsvariablen
Zufallsvariablen sind die wahrscheinlichkeitstheoretischen Pendants metrischer Merkmale, also Abbildungen
! R.
Wir unterscheiden wie bei den Merkmalen diskrete und stetige Zufallsvariablen.
Eine Zufallsvariable ist diskret, wenn sie nur abzählbar viele Werte
annehmen kann.
Ein Zufallsvariable heiÿt stetig, wenn ihr Wertebereich ein Intervall
oder die ganze Zahlengerade ist und eine weiter Bedingung erfüllt ist,
die wir später betrachten.
(X x ) an Stelle der korrekteren
aber umständlicheren Schreibweise P (f! 2 jX (! ) x g).
Wir schreiben im Folgenden kurz P
Seite 130
Ÿ3.3
3.3.2. Verteilungsfunktionen
Die Verteilungsfunktion einer Zufallsvariablen
X
ist gegeben durch die
Funktion
FX (x ) = P (X x ) :
Wir schreiben kurz
F
statt
FX ,
wenn klar ist, welche Zufallsvariable
gemeint ist.
F
F
ist stets nicht-fallend,
ist rechtsseitig stetig,
limx ! 1 F (x ) = 0, limx !1 F (x ) = 1.
Die stochastischen Eigenschaften einer Zufallsvariablen werden durch
Angabe der Verteilungsfunktion vollständig beschrieben.
Seite 131
Ÿ3.3
Mit Hilfe der Verteilungsfunktion kann man Wahrscheinlichkeiten berechnen:
(X > x ) = 1 F (x )
P (y < X x ) = F (x )
F (y )
P (X = x ) = F (x )
F (x )
P (X < x ) = F (x )
P (X x ) = 1
F (x )
P (y X x ) = F (x )
F (y )
P
.
.
.
.
.
.
.
.
.
F (x ) bezeichnet den linksseitigen Grenzwert
F (x ) = lim
F (u ):
u "x
Seite 132
Ÿ3.3
Es gibt noch weitere Möglichkeiten die stochastischen Eigenschaften
einer Zufallsvariablen zu beschreiben:
Für eine diskrete Zufallsvariable
X
mit Werten
MX = fx ; x ; : : :g
1
2
deniert man die Wahrscheinlichkeitsfunktion:
p (x ) = P (X = x ) =
; x 62 Mx
P (X = xi )
; x = xi
0
(
Für stetige Zufallsvariablen fordern wir, dass
F
stetig und stückweise
dierenzierbar ist. Man deniert dann die Wahrscheinlichkeitsdichte
als die Ableitung
f (x ) = F 0 (x )
an den Stellen, wo
man
F
dierenzierbar ist (an allen anderen Stellen kann
f (x ) beliebig denieren).
Seite 133
Ÿ3.3
Beispiel B3.6)B3 :4 : Es sei wieder
X
die Augenzahl beim einmaligen
Wurf mit einem fairen Würfel. Verteilungsfunktion:
Wahrscheinlichkeitsfunktion:
p (x ) =
0 ; x 62 f1; 2; 3; 4; 5; 6g
1=6 ; x 2 f1; 2; 3; 4; 5; 6g
(
Seite 134
Ÿ3.3
Diskreten und stetigen Zufallsvariablen ist also die Verteilungsfunktion
F (x ) = P (X x )
gemeinsam.
Sie unterscheiden sich bei der Wahrscheinlichkeits- bzw. Dichtefunktion:
Symbol
Nicht-Negativität
Normierung
Wahrscheinlichkeiten
W.-Funktion
W.-Dichte
für diskrete ZV.
für stetige ZV.
p (x ) = P (X = x )
f (x )
p (x ) 0
f (x ) 0
pP(x ) = 0; 8x 62 MX R
1
1 p(x ) = 1
i P
i
1 f (x )Rdx = 1
P (A) =
p(x ) P (A) = x 2A f (x ) dx
x 2A \M X
=1
Seite 135
Ÿ3.4
3.4. Erwartungswert und Varianz
Der Erwartungswert ist das wahrscheinlichkeitstheoretische Gegenstück
zum arithmetischen Mittel.
Für diskrete Zufallsvariablen:
E
(X ) =
1
X
i =1
xi p(xi ):
Für stetige Zufallsvariablen:
E
(X ) =
Z 1
1
x f (x ) dx:
Seite 136
Ÿ3.4
Allgemeiner kann man den Erwartungswert von Funktionen
g:R!R
einer Zufallsvariablen erklären:
Für diskrete Zufallsvariablen:
E
(g (X )) =
1
X
i =1
g (xi ) p(xi ):
Für stetige Zufallsvariablen:
E
(g (X )) =
Z 1
1
g (x ) f (x ) dx:
Natürlich ist der Erwartungswert nur deniert, wenn die entsprechende
Summe oder das entsprechende Integral deniert sind. Auf den Fall, wo
diese Gröÿen deniert aber unendlich sind, gehen wir hier nicht näher
ein.
Seite 137
Ÿ3.4
Die Varianz und die Standardabweichung einer Zufallsvariable sind deniert als
Var
(X ) = E (X
E
(X )) = E X
2
2
E
(X ) :
2
und
b (X ) =
p
Var
(X ):
Beide Gröÿen beschreiben die Streuung der Zufallsvariablen
X.
Es gelten die schon vom arithmetischen Mittel vertrauten Rechenregeln:
(aX + b) = aE (X ) + b,
Var (aX + b ) = a Var (X ),
b (aX + b) = ab (X ),
E (X + Y ) = E (X ) + E (Y ).
E
2
Seite 138
Ÿ3.5
3.5. Das Gesetz der groÿen Zahlen
Beispiel B3.7)B1 :1 : Im Beispiel B1.1 ergab sich ein arithmetisches
Mittel von
x = 3:55.
Das liegt verdächtig nahe beim theoretischen
Erwartungswert
E
( X ) = 3 :5
der Augenzahlen-Zufallsvariable
X.
Seite 139
Ÿ3.5
Wir betrachten den Mittelwert
xn = n
1
Pn
i =1 xi
der ersten
n Würfe:
Man kann zeigen: Das ist kein Spezialfall, sondern einer der wesentlichen
Grenzwertsätze der Wahrscheinlichkeitstheorie.
Seite 140
Ÿ3.5
Satz 3.6 (Das starke Gesetz der groÿen Zahlen)
X ; X ; : : : unabhängige und identisch verteilte Zufallsvariablen mit dem gemeinsamen Erwartungswert und
Es seien
1
2
Xn =
Pn
i =1 Xi :
n
Dann ist die Wahrscheinlichkeit dafür, dass
lim X n = n!1
gilt, eins.
Xn
ist also bei groÿen Stichprobenumfängen ein guter Schätzer für
den u.U. unbekannten Erwartungswert (ein sog. stark konsistenter
Schätzer).
Seite 141
Ÿ3.6
3.6. Unabhängigkeit und Korrelation
Zwei Zufallsvariablen X und Y heiÿen stochastisch unabhängig, wenn
die gemeinsame Verteilungsfunktion
FX;Y (x; y ) = P (X x
und
Y y ) = P (X x; Y y )
die Produktgleichung
FX;Y (x; y ) = FX (x )FY (y ):
erfüllt.
Für unabhängige Zufallsvariablen
Var
X und Y
gilt
(X + Y ) = Var (X ) + Var (Y ) :
Seite 142
Ÿ3.6
Als Maÿ für den Zusammenhang zweier Zufallsvariablen kann die
Kovarianz
(X; Y ) = E ((X E (X )) (Y E (Y )))
= E (XY ) E (X ) E (Y )
Cov
verwendet werden.
Der Korrelationskoezient
Cov(X; Y )
%(X; Y ) = b (X )b (Y )
nimmt Werte im Intervall
[ 1; 1] an und gibt Auskunft über den li-
nearen Zusammenhang der beiden Zufallsvariablen.
Gilt E
(XY ) = E (X ) E (Y ), so nennt man X und Y
unkorreliert. Un-
abhängige Zufallsvariablen sind immer unkorreliert.
Seite 143
Ÿ3.7
3.7. Fünf wichtige Verteilungen
3.7.1. Die Bernoulli-Verteilung
Eine Bernoulli-verteilte Zufallsvariable
X
nimmt nur die beiden Werte
x = 0 (Misserfolg) und x = 1 (Erfolg) an. Sie ist dann das Ergebnis
1
2
eines sog. Bernoulli-Experiments.
P
(X = 1) = p;
P
(X = 0) = 1 p:
Oenbar gilt
E
(X ) = (1 p) 0 + p 1 = p
und
Var
(X ) = E X E (X )
= (1 p) 0 + p 1
2
2
2
2
p = p(1 p):
2
Seite 144
Ÿ3.7
3.7.2. Die Binomialverteilung
n Bernoulli-Experimente unabhängig voneinander mit Ergebnissen X ; X ; : : : ; Xn durchgeführt, so hat die Zufallsvariable
Werden
1
2
K =
Anzahl der Erfolge
eine Binomialverteilung und es gilt
(K = k ) = kn pk (1 p)n k :
P
Dann ergibt sich
(K ) = nE (X ) = np;
Var (K ) = n Var (X ) = np (1
p):
E
1
1
Seite 145
Ÿ3.7
n = 10; p = 0:5
n = 10; p = 0:3
Seite 146
Ÿ3.7
3.7.3. Die geometrische Verteilung
Es werden Bernoulli-Experimente solange ausgeführt, bis zum ersten
Mal Erfolg eintritt. Es sei
gilt. Dann hat
Z der Index, für den zum ersten Mal XZ = 1
Z eine geometrische Verteilung (Typ I):
P
(Z = k ) = (1 p)k p; k = 1; 2; 3; : : : :
1
Die Anzahl der Misserfolge
M = Z 1 hat eine geometrische Verteilung
vom Typ II:
P
(M = k ) = (1 p)k p; k = 0; 1; 2; 3; : : : :
Es gilt
E
p
1
p
Var
()
p
p2
1 p
p2
1
1
Typ I
Typ II
()
p
Seite 147
Ÿ3.7
p = 0:3
p = 0:8
Seite 148
Ÿ3.7
p = 0:5
p = 0:1
Seite 149
Ÿ3.7
Übersicht:
Verteilung
Anzahl
Gefragt
Experimente
Bernoulli
1
Ausgang (0=Misserfolg, 1=Erfolg)
Binomial
n
Anzahl der Erfolge
Geometrisch I
unbegrenzt
Index mit erstem Erfolg
Geometrisch II
unbegrenzt
Index mit letztem Misserfolg
Seite 150
Ÿ3.7
3.7.4. Die Multinomialverteilung
Gegeben
mit
seien
Werten
in
eine
Folge
der
Menge
Wahrscheinlichkeitsfunktion
der
diskreter
X -Zufallsvariablen
p.
Zufallsvariablen
fx ; x ; : : : ; x m g
1
2
Es
mit Wert
sei
xi .
Ki
die
und
X ; X ; : : : ; Xn
1
2
jeweils
absolute
gleicher
Häugkeit
Dann gilt für die gemeinsame
Wahrscheinlichkeitsfunktion
(K = k ; K = k ; : : : ; K m = km )
n
= k k k p(x )k p(x )k p(xm )km ;
P
1
1
1
wobei
Pm
i =1 ki
2
2
1
m
2
1
2
2
= n gelten muss.
(Multinomialkoezient)
n!
=
k k kn
k !k ! kn ! :
n
1
2
1
2
Seite 151
Ÿ3.7
Beispiel B3.8)B1 :1 : Es sei
Ai die Augenzahl im i-ten Wurf mit einem
fairen Würfels und
Xi =
Dann besitzen die
E
Xi
1 ; Ai = 6;
0 ; Ai 6= 6:
(
jeweils eine Bernoulli-Verteilung mit
(Xi ) = 61 ;
Var
p=
1
6
, d.h.
5:
(Xi ) = p(1 p) = 36
Es gilt z.B.
(X = 1; X = 2; : : : ; X = 6) = 16
6
P
1
2
6
1 :
= 46656
Seite 152
Ÿ3.7
Es sei
K die Anzahl der 6er bei 120 Würfen. Dann ist K binomialverteilt,
d.h.
120
k
n k
P (K = k ) =
k (1=6) (5=6) :
Zum Beispiel ist
120
P (K = 18) =
18 (1=6) (5=6) 0:09
18
102
und
P
P
(K 18) =
(K 30) =
18 X
120
j
(1=6)j (5=6)
j
(1=6)j (5=6)
j =0
120 X
120
j =30
120
120
j
= 0:3657
j
= 0:0129
Seite 153
Ÿ3.7
Es sei
B das Ereignis, dass folgende Häugkeiten beobachtet werden:
Augenzahl: 1 2 3 4 5 6
Häugkeit: 15 18 30 18 21 18
Dann ist
1 6 10 :
120
P (B ) =
15 18 30 18 21 18 6
120
7
Wollen wir die Wahrscheinlichkeit einer Abweichung von der zu erwartenden Tabelle
Augenzahl: 1 2 3 4 5 6
Häugkeit: 20 20 20 20 20 20
berechnen, müssen wir tiefer in die Trickkiste greifen. Mehr dazu später.
Seite 154
Ÿ3.7
Wie lange dauert es im Mittel, bis eine 6 gewürfelt wird?
Die Zufallsvariable
Z = ] Versuche, bis eine 6 gewürfelt wird:
Dann hat
Z eine geometrische Verteilung, d.h.
5
P (Z = k ) =
6
k
1
1 ; k = 1; 2; 3; : : : :
6
Als Erwartungswert erhalten wir
E
(Z ) = p1 = 6:
Seite 155
Ÿ3.7
3.7.5. Die stetige Gleichverteilung
Ist
X
gleichverteilt auf dem Intervall
[a; b], so liegt X
quasi maximal
zufällig verteilt in dem Intervall.
Handelsübliche Taschenrechner verfügen über eine
RND -Taste, die
gleichverteilte Zufallszahlen erzeugt.
Mit Hilfe gleichverteilter Zufallsvariablen kann man anders verteilte
Zufallszahlen erzeugen (Inversionsmethode, Monte-Carlo-Simulation)
Seite 156
Ÿ3.7
Verteilungs- und Dichtefunktion der stetigen Gleichverteilung sind gegeben durch


0



;x < a
x a
F (x ) = 
; x 2 [a; b)
b
a


1
;x b
(
1 ; x 2 [a; b)
f (x ) =
0 ; x 62 [a; b)
a = 0; b = 1
Seite 157
Ÿ3.7
Es gilt für eine auf
[a; b] gleichverteilte Zufallsvariable
a+b
E (X ) =
2 ;
(b a) :
Var (X ) =
12
2
Seite 158
Ÿ3.8
3.8. Die Normalverteilung und ihre Verwandten
3.8.1. Die Standardnormalverteilung
Die wichtigste Verteilung der Statistik ist die Standardnormalverteilung.
Die Standardnormalverteilung besitzt die Dichtefunktion
1
'(x ) = p e
2
x 2 =2 :
Die zugehörige Verteilungsfunktion lässt sich nicht in geschlossener
Form angeben:
Z x
1
(x ) = p
e
2 1
u 2 =2 du:
Seite 159
Ÿ3.8
Verteilungsfunktion
(x ) und Dichtefunktion '(x ):
= 0; = 1
Wir schreiben
N (0; 1)
für die Standardnormalverteilung und
N (0; 1) für eine standardnormalverteilte Zufallsvariable.
Für X N (0; 1) gilt E (X ) = 0 und Var (X ) = 1.
X Seite 160
Ÿ3.8
3.8.2. Tabellen und Quantile
Die Werte
(x ) sind tabellarisch gegeben oder können mit Taschen-
rechnern und Computern abgerufen werden (s. Tabelle Seite
Beispiel:
(1:16) = 0:877
??).
Seite 161
Ÿ3.8
Für negative Argumente kann man die Umformungsregel
( x ) = 1 (x )
verwenden.
Beispiel:
( 1:0) = 1 0:8413 = 0:1587,
Seite 162
Ÿ3.8
Als
-Quantil
bezeichnet den Wert
verwendet die Bezeichnung
z
für den
z für diesen Wert.
(z ) = gilt. Man
Die Quantile kann man ebenfalls aus der Tabelle auf Seite
?? entneh-
men.
Beispiel:
z : = 0:25.
0 6
Seite 163
Ÿ3.8
3.8.3. Der zentrale Grenzwertsatz
Beispiel B3.9)B1 :1 : Wir wiederholen das Würfelexperiment aus dem
Beispiel B1.1 eintausend Mal und betrachten für jeden Durchgang das
arithmetische Mittel:
Standardabweichung dieser Mittelwerte:
0:159.
Seite 164
Ÿ3.8
Wir würfeln nun
n = 1000 Mal und wiederholen das Experiment 1000
Mal:
Standardabweichung der Mittelwerte:
0:054.
Wir beobachten: Die Standardabweichung wird mit wachsendem
n
immer kleiner.
Seite 165
Ÿ3.8
Es seien
X ;X ;X ;:::
1
2
3
unabhängige und identisch verteilte Zufallsva-
riablen mit Erwartungswert
und Standardabweichung und
n
1X
X
Xn = n
i =1
i
ihr arithmetisches Mittel.
Dann gilt
E
n
X
1
X n = n E (Xi ) = ;
Var
i =1
n
1X
Xn = n
b (X n ) =
2
i =1
q
Var
(Xi ) = n ;
2
Var
Xn = p :
n
Seite 166
Ÿ3.8
Satz 3.8
X n der Zufallsvariablen X ; X ; : :p
: besitzt den Erwartungswert und die Standardabweichung = n .
Das arithmetische Mittel
1
2
Es folgt, dass die standardisierte Zufallsvariable
p Xn Xn = n den Erwartungswert
0 und die Standardabweichung 1 besitzt.
Wir können auch mit
n erweitern und schreiben:
Pn
X n
:
Xn = i pi
n
=1
Welche Verteilung besitzt
Xn ?
Seite 167
Ÿ3.8
120 Würfe, 100 Mal wiederholt:
= 0; = 1
10 000 Würfe, 10 000 Mal wiederholt:
= 0; = 1
Seite 168
Ÿ3.8
Satz 3.9 (Zentraler Grenzwertsatz)
Gegeben seien unabhängige und identisch verteilte Zufallsvariablen
X ; X ; : : : mit Erwartungswert und Varianz 1
2
2
. Dann konver-
tiert die Verteilung der standardisierten Zufallsvariablen
p Xn Xn = n für
n ! 1 gegen die Standardnormalverteilung (x ).
= 0; = 1
Seite 169
Ÿ3.8
3.8.4. Abschätzungen
Mit Hilfe des zentralen Grenzwertsatzes können wir Wahrscheinlichkeiten für den Mittelwert und Summen von unabhängigen und identisch
verteilten Zufallsvariablen abschätzen.
Satz 3.10 (Zentraler Grenzwertsatz, Teil II)
Für groÿe Werte von
P
n gilt
n
X
i =1
x n
Xi x p
:
n
!
und
P
x p
Xn x :
= n
Seite 170
Ÿ3.8
Beispiel B3.10)B1 :1 : War der gewürfelte Mittelwert im Beispiel B1.1
signikant abweichend vom Erwartungswert?
Wie groÿ ist die Wahrscheinlichkeit, bei 120 Würfen mit einem Spielwürfel, einen Mittelwert
P
X
120
X n > 3:55 zu erhalten?
3:55


3:55 3:5 
1 q
p
= 120
= 1 (0:3207135)
S:??
= 1 0:6255
= 0:3745
> 3:55 = 1
P
X
120
35
12
Die Wahrscheinlichkeit für einen Mittelwert über
Würfen etwa
37:5%.
3:55 beträgt bei 120
Seite 171
Ÿ3.8
Beispiel B3.11: Bei einem Spiel verliert der Spieler mit Wahrscheinlichkeit 0.7 fünf Euro und gewinnt mit Wahrscheinlichkeit 0.3 acht Euro.
Es sei
Xi
der Gewinn bzw. Verlust im i-ten Spiel (sog. Irrfahrt/Random
Walk). Wie groÿ ist die Wahrscheinlichkeit, dass der Spieler nach 30
Spielen einen (positiven) Gewinn verzeichnet?
= E (X ) = 0:7 5 + 0:3 8 =
0:7 25 + 0:3 64 1:1 = 35:49.
Es gilt
1:1
und Var
(X ) =
2
Damit erhalten wir
P
30
X
k =1
!
Xk > 0 = 1
P
30
X
k =1
!
Xk 0
0
30
(
1
:
1)
1 p35:49 30
= 1 (1:011)
= 1 0:8438 = 0:1562:
Seite 172
Ÿ3.8
3.8.5. Die allgemeine Normalverteilung
Wenn
X N (0; 1) gilt, dann besitzt X + eine sog. Normalverteilung.
Die Normalverteilung besitzt die Dichtefunktion
1 e = ( x ) :
2
Die zugehörige Verteilungsfunktion ; lässt sich wieder nicht in ge'; (x ) = p
1 2
2
schlossener Form angeben.
Wir schreiben
N (; ) für die Normalverteilung.
In vielen Büchern bezeichnet
wartungswert
N (; s )
und Varianz s .
eine Normalverteilung mit Er-
Seite 173
Ÿ3.8
= 0; = 1
= 5; = 1
Seite 174
Ÿ3.8
= 5; = 2
= 5 ; = 1 =3
Seite 175
Ÿ3.8
3.8.6. Rechenregeln und Transformationen für die Normalverteilung
Angenommen
X N (; ). Dann gilt
aX + b N (a + b; jaj ):
Speziell erhalten wir, wenn wir
a=
1
und
b = = wählen,
X N (0; 1):
Umgekehrt folgt aus
X N (0; 1)
X + N (; ):
Seite 176
Ÿ3.8
Die Summe von zwei normalverteilten Zufallsvariablen ist wieder
normalverteilt. Falls
Y N (; )
und
X N (; )
unabhängig
sind, gilt
X + Y N ( + ; + ):
p
Wenn
X ; X ; : : : ; Xn
1
2
2
unabhängig sind und
2
Xi N (; ) gilt, so
ergibt sich
n
X
i =1
p
Xi N (n; n)
und
p
X n N (; = n):
Seite 177
Ÿ3.8
3.8.7. Die Chi-Quadrat-Verteilung
Wenn
X ; X ; : : : ; Xn standardnormalverteilte unabhängige Zufallsvaria1
2
blen sind, so besitzt die Summe der Quadrate
=
2
n
X
i =1
eine sog. Chi-Quadrat-Verteilung mit
Xi
2
n Freiheitsgraden.
n=3
Seite 178
Ÿ3.8
-Quantil n; der Chi-Quadrat-Verteilung mit n Freiheitsgraden
der Werte z für den F (z ) = gilt, wenn F die Chi-Quadrat-
Das
ist
Verteilungsfunktion bezeichnet.
Die Quantile sind aus der Tabelle auf Seite
?? zu entnehmen. Zum
Beispiel ist
; : = 16:81:
6 0 99
Das bedeutet, dass
P
6
X
i =1
ist, wenn die
!
Xi 16:81 = 0:99
2
Xi unabhängige standardnormalverteilte Zufallsvariablen
sind.
Seite 179
Ÿ3.8
3.8.8. Die t-Verteilung
Wenn
X
und
X ; X ; : : : ; Xn
1
2
standardnormalverteilte unabhängige Zu-
fallsvariablen sind, dann besitzt die Zufallsvariable
T=q
eine (Student)-t-Verteilung mit
X
Pn
1
2
n i =1 Xi
n Freiheitsgraden .
n=3
Seite 180
Ÿ3.8
-Quantil tn; der t-Verteilung mit n Freiheitsgraden ist der Werte z für den F (z ) = gilt, wenn F die t-Verteilungsfunktion bezeichDas
net.
Die Quantile sind aus der Tabelle auf Seite
?? zu entnehmen.
Beispielsweise ergibt sich
t
;:
20 0 9
= 1:325;
d.h.
P
(T 1:325) = 0:9:
Seite 181
Ÿ3.8
3.8.9. Die F-Verteilung
Es seien
X
riablen mit
1
und
X
2
zwei Chi-Quadrat-verteilte unabhängige Zufallsva-
n bzw. m Freiheitsgraden. Dann hat die Zufallsvariable
X
F=X
eine F-Verteilung mit
1
2
n und m Freiheitsgraden .
n = 10, m = 5
Seite 182
Ÿ3.8
-Quantil F n;m ; der F-Verteilung mit n und m Freiheitsgraden
der Werte z für den F (z ) = gilt, wenn F die entsprechende
Das
ist
(
)
Verteilungsfunktion bezeichnet.
Die Quantile ndet man in den Tabellen ab Seite
F
; ;:
(10 5) 0 95
??. Es ist z.B.
= 4:735;
d.h.
P
(F 4:735) = 0:95:
Seite 183
Ÿ3.8
3.8.10. Ein Beispiel zum Schluss
Beispiel B3.12: In einer Fabrik wird Obst verpackt. Die Packungsgröÿe soll dabei jeweils 500g betragen, allerdings kommt es naturgemäÿ
zu kleinen Schwankungen.
X einer Obstpackung sei normalverteilt mit einem Mittelwert von = 500g und einer Standardabweichung von = 3:
Das Gewicht
Stichprobe,
n = 30
Seite 184
Ÿ3.8
Stichprobe,
Stichprobe,
n = 100
n = 5000
Seite 185
Ÿ3.8
Nach einer Norm für den Obsthandel darf die Packungsgröÿe der Ware
nicht um mehr als fünf Gramm vom angegebenen Gewicht abweichen.
Wie groÿ ist die Wahrscheinlichkeit einer solchen unzulässigen Abweichung?
Seite 186
Ÿ3.8
X in eine standardnormalverteilte Zufallsvariable:
P (X > 505 oder X < 495)
= 1 P (X 2 [495; 505])
X 500 495 500 505 500
=1 P
3 2
3 ; 3
Wir transformieren
X 500
=1 P
3 2 [ 5=3; 5=3]
= 1 ((5=3) ( 5=3)) = 2(1 (5=3)) = 0:075
Seite 187
Ÿ3.8
In einem LKW sollen
3 3 3 90 = 2430 der Obstpackungen transportiert
werden, aber höchstens 1230 Kilogramm. Mit welcher Wahrscheinlichkeit ist das möglich?
Das Gesamtgewicht
E
Y
der 2430 Packungen ist normalverteilt mit
(Y ) = 0:5 2430 = 1215
kg und
b (Y ) = 0:003 2430 = 7:29.
1230
1215
1215
P (Y 1230) = P
7:29 7:29
= (2:058) = 0:98
Y
Seite 188
Ÿ4.1
4.
Induktive Statistik
4.1. Punktschätzer
Beispiel B4.1: Bei einem Spiel ist dem Spieler die Wahrscheinlichkeit
zu gewinnen nicht bekannt. In 20 Spielen hat er fünf Mal gewonnen.
Wie kann der Spieler die Gewinnwahrscheinlichkeit schätzen?
Beispiel B4.2: In zehn Würfen mit einem u.U. nicht fairen Würfel ist
die Augensumme 41. Wie kann man den Erwartungswert der Augenzahl
schätzen? Wie kann man die Varianz schätzen?
Seite 189
Ÿ4.1
Gegeben seien unabhängige und identisch verteilte Zufallsvariablen
X ; X ; X ; : : : ; Xn ;
1
2
3
eine sog. Stichprobe. Die gemeinsame Verteilung der
Xi nennen wir auch
Verteilung der Grundgesamtheit.
Wir schreiben
= E (X )
1
für den gemeinsamen Erwartungswert und
= Var (X )
= b (X )
2
1
1
für die Varianz und die Standardabweichung der Stichprobenelemente.
Seite 190
Ÿ4.1
Eine Zufallsvariable
S , die aus den Zufallsvariablen X
1
bis
Xn
gebildet
wird heiÿt Statistik.
Beispiele für Statistiken:
Pn
i =1 Xi ,
P
X = n1 ni=1 Xi ,
Pn
1
2
n i =1 (Xi X ) ,
Pn
1
2
n i =1 (Xi E (X )) ,
mini
maxi
; ;:::;n Xi ,
=1 2
; ;:::;n Xi .
=1 2
Seite 191
Ÿ4.1
Punktschätzer sind Statistiken, die geeignet sind, einzelne Parameter
der zugrundeliegenden Verteilung zu schätzen.
Solche Parameter sind z.B.
Die Erfolgswahrscheinlichkeit
p der Bernoulli-Verteilung,
n oder p bei der Binomialverteilung,
p bei der geometrischen Verteilung,
den Erwartungswert oder die Varianz Wir schreiben
b
b für
2
.
,
, oder b
einen Punktschätzer des Parameters
für einen Punktschätzer des Erwartungswertes
also z.B.
für einen
Punktschätzer der Standardabweichung.
Seite 192
Ÿ4.1
4.1.1. Punktschätzer für den Erwartungswert
Es sei
der Erwartungswert der Zufallsvariablen X ; X ; X ; : : :.
1
Ein naheliegender Schätze für
2
3
ist der Mittelwert
n
X
1
b = X =
X:
n
Dabei ist zu beachten, dass
b,
i =1
i
im Gegensatz zur Zahl
,
weiterhin
eine Zufallsvariable ist, also eine Verteilung, einen Erwartungswert und
eine Varianz besitzt.
Seite 193
Ÿ4.1
Wir haben schon früher den Erwartungswert der Zufallsvariablen
X
berechnet. Es ergab sich
E
Wir sagen:
(b) = :
b ist erwartungstreu , bzw. unverzerrt: Der geschätzte
Wert ist im Mittel gleich dem zu schätzenden Wert.
Beispiel B1.1:
b für n = 20, 1000 Mal wiederholt.
Seite 194
Ÿ4.1
) Satz 3.8.3)
Es gilt (
b (b) = p ;
n
d.h. die Standardabweichung nimmt mit wachsendem
n immer weiter
ab
Auÿerdem gilt
lim b (b) = 0:
n!1 Wir sagen dann, dass
b ein konsistenter Schätzer ist.
Seite 195
Ÿ4.1
Im allgemeinen ist die Verteilung von
b nicht einfach zu beschreiben.
Es gilt aber nach dem zentralen Grenzwertsatz
b
für groÿe Werte von
N (; pn )
annähernd
n.
Ist die Grundgesamtheit normalverteilt mit bekanntem
tem
, dann ergibt sich, wie bereits oben gezeigt,
b N (; p ):
n
und bekann-
Seite 196
Ÿ4.1
4.1.2. Punktschätzer für die Varianz bei bekanntem Erwartungswert
Ist der Erwartungswert
bekannt, so ist die empirische Varianz
n
X
1
b = n (Xi )
2
2
i =1
ein konsistenter und erwartungstreuer Schätzer, d.h.
E
b = Var (X )
2
lim Var b = 0:
n!1
2
und
Ist die Grundgesamtheit normalverteilt, so besitzt die Zufallsvariable
b
n 2
2
hat eine Chi-Quadrat-Verteilung mit
n Freiheitsgraden.
Seite 197
Ÿ4.1
4.1.3. Punktschätzer für die Varianz bei unbekanntem Erwartungswert
Wenn man bei unbekanntem
den Ansatz
n
1X
X
i X
n
2
i =1
als Punktschätzer für die Varianz verwendet, so stellt sich heraus, dass
der Erwartungswert dieses Schätzers
n
n
1
2
ist.
Um einen erwartungstreuen Schätzer der Varianz zu erhalten, müssen
wir also den Schätzer
n
X
1
Xi X
b = b (X ) = n 1
i
2
2
2
=1
verwenden.
Seite 198
Ÿ4.1
Dieser neue Schätzer ist erwartungstreu,
E
b = ;
2
2
und konsistent:
lim Var b = 0:
n!1
2
Ist die Grundgesamtheit normalverteilt, so hat die Zufallsvariable
(n 1) b
eine Chi-Quadrat-Verteilung mit (n
1) Freiheitsgraden.
2
2
Seite 199
Ÿ4.2
4.2. Intervallschätzer
4.2.1. Intervallschätzer für den Erwartungswert bei bekannter Varianz
b ein erwartungstreuer und
konsistenter Schätzer für den Erwartungswert ist.
Wir haben gesehen, dass der Mittelwert
Es wäre interessant zu wissen, was man über die Abweichung
j bj
sagen kann.
Der Einfachheit halber gehen wir nun davon aus, dass
1. die Grundgesamtheit normalverteilt ist, d.h. es gilt
Xi N (; )
und
2. die Varianz
2
bekannt ist.
Seite 200
Ÿ4.2
b normalverteilt mit Erwartungswert und Standardabweip
chung = n , d.h.
Dann ist
P
für jedes Zahl
Wenn wir
b b + c p = P p c = (c )
n
n
!
c 2 R.
c =z
1
=2
(Quantil der Normalverteilung) wählen, so gilt
b + z
P
pn = 1 2 :
1
=2
Ebenso kann man zeigen:
b z
P
pn = 2
1
=2
Seite 201
Ÿ4.2
Es ergibt sich dann
P
b z
1
=2
pn b + z
pn = 1 :
1
=2
Das zufällige Intervall
heiÿt
b z
1
=2
pn ; b + z
1
(1 ) 100%-Kondenzintervall.
=2
pn
Es enthält (als Zufallsgrö-
ÿe verstanden, also solange es noch nicht konkret anhand vorliegender Daten ausgerechnet wurde) mit Wahrscheinlichkeit
schätzenden Parameter
.
1 den zu
Seite 202
Ÿ4.2
Beispiel B4.3: Die Temperaturen an einem Ort werden 100 Jahre
lang jeweils am 1.Juni gemessen. Angenommen die Standardabweichung
der Temperaturen betrage
4 Grad und die Temperaturen seien normal-
verteilt.
Es ergibt sich als Schätzer für den Erwartungswert der Temperatur
b = 22:6
Seite 203
Ÿ4.2
= 0:05) erhalten wir dann
Als 95%-Kondenzintervall (
b z : p ; b + z : p
n
n 4 ; 22:6 + 1:96 4
= 22:6 1:96
10
10
0 975
0 975
= [21:82; 23:38] :
= 0:1) berechnen
wir
b z : p ; b + z : p
n
n
1
:645 4
1
:645 4
= 22:6
10 ; 22:6 + 10
Als 90%-Kondenzintervall (
0 95
0 95
= [21:94; 23:26] :
liegt nicht mit 90% bzw. 95% Wahrscheinlichkeit in diesen Intervallen! ist eine feste Zahl, keine Zufallsvariable.
Der Erwartungswert
Seite 204
Ÿ4.2
4.2.2. Intervallschätzer für den Erwartungswert bei unbekannter
Varianz
Ist die Varianz unbekannt, so muss sie geschätzt werden:
n
X
1
b = n 1
Xi X
i
2
2
=1
Um allerdings
P
b b
b + c p = P b p c
n
= n
zu berechnen, benötigen wir die Verteilung der Zufallsvariablen
b T=bp :
= n
Man kann zeigen, dass
T
eine t-Verteilung mit (n-1)-Freiheitsgraden
besitzt.
Seite 205
Ÿ4.2
Wenn wir
c = tn
; =2 (Quantil der t-Verteilung) wählen,
b
b + tn 1;1 =2
P = 1 :
1 1
pn
und
b tn
P
Wir erhalten das
so gilt
2
pbn = 2 :
; =2
1 1
(1 ) 100%-Kondenzintervall
b tn
; =2
1 1
pbn ; b + tn
dass den zu schätzenden Parameter
pbn ;
; =2
1 1
mit Wahrscheinlichkeit 1 enthält (solange noch kein konkretes Intervall berechnet wurde).
Seite 206
Ÿ4.2
Beispiel B4.4)B4 :3 : Die Temperaturen an einem Ort werden 100
Jahre lang jeweils am 1.Juni gemessen. Angenommen die Temperaturen
seien normalverteilt mit unbekanntem
und unbekanntem 2
.
Die Punktschätzer für den Erwartungswert und die Varianz (Standardabweichung) der Temperatur sind
b = 22:6
b = 12:25; (b = 3:5)
2
Seite 207
Ÿ4.2
= 0:05) erhalten wir dann
Als 95%-Kondenzintervall (
b
b
b t ; : p ; b + t ; : p
n
n
1
:984 3:5
1
:984 3:5
= 22:6
10 ; 22:6 + 10
99 0 975
99 0 975
= [21:91; 23:29] :
Seite 208
Ÿ4.2
4.2.3. Intervallschätzer für die Varianz bei bekanntem Erwartungswert
Ist
bekannt, so ist b
2
unser erwartungstreuer Schätzer für die Va-
rianz und es gilt
P
wobei
F
c b = P
2
2
b n
n c = 1 F (n=c );
2
2
die Verteilungsfunktion einer Chi-Quadrat-Verteilung mit
n
Freiheitsgraden bezeichnet.
Wir setzen
n
c = n;=
2
bzw.
c = n; n =
1
2
und erhalten
nb
=
1
;
P n;=
2
nb
P =
n; =
2:
2
2
2
2
2
1
2
Seite 209
Ÿ4.2
Dann ergibt sich
P
Wir erhalten das
nb
2
n;
1
nb
n;=
2
2
=2
2
= 1 :
(1 ) 100%-Kondenzintervall
nb
2
n;
1
=2
nb
; :
n;=
2
2
Seite 210
Ÿ4.2
4.2.4. Intervallschätzer für die Varianz bei unbekanntem Erwartungswert
Ist
unbekannt, so verwenden den Schätzer b
2
.
Es gilt dann, ganz ähnlich wie im Fall bekannten Erwartungswertes,
P
c b = P
2
wobei
2
F
(n 1) b n c 1 = 1 F ((1 n)=c );
2
2
die Verteilungsfunktion einer Chi-Quadrat-Verteilung mit
(n 1) Freiheitsgraden bezeichnet.
Wie oben ergibt sich das (1
) 100%-Kondenzintervall
(n 1)b ; (n 1)b :
2
2
n
; =2
1 1
n
;=2
1
Seite 211
Ÿ4.2
Beispiel B4.5: Es seien
X ;X ;:::;X
1
2
20
die Ausgaben von zwanzig
Kunden in einem bestimmten Supermarkt. Wir gehen von einer Normalverteilung
Xi N (; ) der Grundgesamtheit aus.
Die Punktschätzer für den Erwartungswert und die Varianz (Standardabweichung) sind:
b = 36:23
b = 327:94
2
(b = 18:11)
Seite 212
Ÿ4.2
= 10%)
Wir erhalten die Intervallschätzer (
b tn
; =2
1 1
pbn ; b + tn
; =2
1 1
= [29:23; 43:23]
pbn
für den Erwartungswert und
(n 1)b ; (n 1)b n ; = n ;=
= [206:70; 615:87] ([14:3; 24:82])
2
1 1
2
2
1
2
für die Varianz (bzw. Standardabweichung).
Seite 213
Ÿ4.2
90%-Kondenzintervalle für für 100 Supermärkte:
Seite 214
Ÿ4.2
4.2.5. Schätzen ohne Zurücklegen
Wird eine Stichprobe ohne Zurücklegen aus einer endlichen Grundgesamtheit
der
Gröÿe
N
gezogen,
so
sind
die
Zufallsvariablen
X ; X ; : : : ; Xn nicht mehr unabhängig.
b = X ist weiterhin ein erwartungstreuer konsistenter
Der Mittelwert Schätzer für den wahren Erwartungswert .
1
2
Allerdings ist der Schätzer für die Varianz nicht länger erwartungstreu.
Ein erwartungstreuer und konsistente Schätzer ist nun
n
X
N
1
1
b = N n 1
Xi X :
i
2
2
=1
Oensichtlich liegt der Korrekturfaktor
N sehr groÿ ist.
(N 1)=N nahe bei eins, wenn
Seite 215
Ÿ4.3
4.3. Hypothesentests
4.3.1. Idee
Bei einem statistischen Test versucht man anhand von Daten, den
Wahrheitsgehalt von Hypothesen zu bestimmen.
Meistens handelt es sich um Hypothesen, die die wahre Verteilung der
Stichprobe betreen, z.B. die Hypothesen
über den Erwartungswert,
über die Varianz,
über den Median oder Quartile,
über die Verteilung.
Es kann auch eine Hypothese über den Zusammenhang oder über
Unabhängigkeit von Merkmalen getestet werden.
Seite 216
Ÿ4.3
Meistens wird zunächst eine Nullhypothese
der Erwartungswert
H
0
formuliert, z.B., dass
einen bestimmten Wert 0
H :
hat:
= :
0
0
Eine einfache Hypothese liegt vor, wenn wir, wie im Fall oben, annehmen, dass ein Verteilungsparameter einen bestimmten Wert annimt.
Ansonsten ist die Hypothese zusammengesetzt.
Die
Alternative
H
1
beschreibt
eine
zweite
Hypothese
Gegenhypothese), die nur dann eintreten kann, wenn
H
0
(die
nicht ein-
tritt, z.B.
H : >
H : 6= :
oder
Häug handelt es sich bei
H
1
1
0
1
0
um das logische Komplement von
H
0.
Seite 217
Ÿ4.3
Die generelle Vorgehensweise bei einem Hypothesentest ist:
1. Wir stellen eine Hypothese auf und formulieren sie mathematisch.
2. Wir nden eine passende Teststatistik
T.
3. Wir nden einen sinnvollen Ablehnungsbereich
die Hypothese dann ablehnen, wenn
probe in
A liegt.
A derart, dass wir
T nach Auswertung der Stich-
Seite 218
Ÿ4.3
Beispiel B4.6)B1 :1 : Wir haben den Verdacht, dass bei unserem Würfelexperiment zu Beginn der Vorlesung die Drei häuger erschien, als
gewöhnlich. Es sei
1. Es sei
p
X ;:::;X
1
120
eine Stichprobe von Augenzahlen.
die Wahrscheinlichkeit einer Drei. Dann stellen wir die
Nullhypothese
H : p = 1=6:
0
auf. Die Alternative wäre
H : p > 1=6.
1
2. Als Teststatistik wählen wir die Anzahl
T
der Dreier bei
n Würfen:
T = ]fXi jXi = 3g
T > 20 + C ist, wobei wir C
wählen müssen. Es ist also A = (20 + C; 1).
3. und lehnen ab, wenn
noch passend
Seite 219
Ÿ4.3
4.3.2. Wahl des Ablehnungsbereiches
Es stellt sich die Frage, wie wir einen passenden und sinnvollen Ablehnungsbereich nden können.
Meistens ergeben sich aus der Hypothese bereits Ansatzpunkte, z.B.,
dass
A, wie im obigen Beispiel, ein bestimmtes Intervall ist, bei dem
noch die Intervallgrenzen zu bestimmen sind.
Nach welchen Kriterien soll man
A wählen?
Wir überlegen uns, dass wir insgesamt zwei wichtige Fehler machen
können:
1. Fehler erster Art: Wir lehnen die Hypothese ab, obschon sie
zutrit.
2. Fehler zweiter Art: Wir lehnen die Hypothese nicht ab, obschon
sie nicht zutrit.
Seite 220
Ÿ4.3
Üblicherweise wird nun bei einem statistischen Hypothesentest der
Ablehnungsbereich
A so festgelegt, dass die Wahrscheinlichkeit eines
Fehlers erster Art eine bestimmte, vorher festgelegte Schwelle, das
Signikanzniveau
, nicht überschreitet.
Dazu benötigt man natürlich die Verteilung von
H
0
gilt).
Warum sollte man nicht versuchen,
T unter H
0
(d.h. wenn
A so festzulegen, dass die Wahr-
scheinlichkeit eines Fehlers erster Art minimal wird?
Seite 221
Ÿ4.3
4.3.3. Vorgehensweise
1. Formulierung der Hypothese
2. Finden einer geeigneten Teststatistik
H
0
T,
deren Verteilung unter
bekannt ist.
3. Festlegen eines Signikanzniveaus
.
4. Angabe eines Ablehnungsbereiches mit
P
(T 2 AjH ) = :
0
5. Konkrete Berechnung der Teststatistik
t
anhand der Daten.
6. Ablehnen der Hypothese genau dann, wenn
t 2 A gilt.
Seite 222
Ÿ4.3
Beispiel B4.7)B1 :1 : Die Anzahl
T
der Dreier bei 120 Würfen ist
binomialverteilt mit Erfolgswahrscheinlichkeit
Wir lehnen die Hypothese
p. Wir setzen = 0:01.
p = 1=6 ab, wenn T > 20 + C ist.
Die Wahrscheinlichkeit eines Fehlers erster Art ist:
P
(T > 20 + C jH ) =
Es ist sehr aufwendig
0
120
X
120
k
k (1=6) (5=6)
k =20+C
120
k
C so zu bestimmen, dass
P
(T > 20 + C jH ) = 0:01
0
gilt.
Seite 223
Ÿ4.3
Wir verwenden den zentralen Grenzwertsatz in folgender sehr bekannter
Form:
Satz 4.1 (Satz von Moivre-Laplace)
Ist
T
binomialverteilt, so konvergiert die Verteilung von
T np
np(1 p)
p
für
n ! 1 gegen eine Standardnormalverteilung.
Entsprechend haben wir die Näherung
x np
p
P (T x ) :
np(1 p)
!
Seite 224
Ÿ4.3
Also gilt

P
(T > 20 + C jH ) 1  q C
n (1
0
1
6
=1 C
100=6
p

1
6
!
)

= 0:01
!
genau dann, wenn
C = 100=6 z : = 4:0825 2:3264 = 9:4973
p
0 99
ist, d.h. unser Ablehnugsbereich ist
A = (29:4973; 1):
Bei 30 Dreiern, wie im Beispiel B1.1, würden wir also zum 1%-Niveau
die Hypothese
p = 1=6 zu Gunsten der Alternative p > 1=6 ablehnen!
Seite 225
Ÿ4.3
4.3.4. Die Gütefunktion
Angenommen unsere Hypothese beinhaltet einen Parameter
Erwartungswert
oder die Varianz 2
(z.B. den
).
Die Gütefunktion
G (x ) = P (T 2 Aj = x )
beschreibt die Wahrscheinlichkeit, die Hypothese abzulehnen, wenn
=x
ist.
Bei einem Signikanzniveau
gilt G (x ) wenn x
in dem Bereich
liegt, wo die Nullhypothese gilt.
Seite 226
Ÿ4.3
4.3.5. Der p-Wert
Bei einem Hypothesentest beschreibt der p-Wert die Wahrscheinlichkeit,
bei einer erneuten Stichprobe eine Teststatistik
T
zu beobachten, die
unplausibler ist, als die konkret beobachtete Statistik
Ist
t.
A = [a; 1) (rechtsseitiger Test), so ergibt sich
p = P (T t jH ) :
0
Ist
A = ( 1; b] (linksseitiger Test), so ergibt sich
p = P (T t jH ) :
0
Ist
A = ( 1; b] [ [b; 1) (zweiseitiger Test), so ergibt sich
p = P (jT j jt j jH ) :
0
Seite 227
Ÿ4.3
Ist der p-Wert klein, so ist der Wert
t
der Teststatistik als extrem
anzusehen und daher die Nullhypothese abzulehnen.
Ist der p-Wert groÿ, so ist der Wert
t der Teststatistik als eher durch-
schnittlich anzusehen und daher die Nullhypothese nicht abzulehnen.
Bei einem Signikanztest zum Signikanzniveau
(vor dem Test fest-
zulegen) lehnen wir die Nullhypothese genau dann ab, wenn
p
ist.
Computersoftware berechnet heute bei Hypothesentests immer auch
den zugehörigen p-Wert. Eine Kenntnis des Wertes der Teststatistik
und des Ablehnungsbereichs ist dann in der Regel nicht mehr notwendig.
Seite 228
Ÿ4.3
Beispiel B4.8)B1 :1 : Für das Würfelbeispiel B1.1 ergibt sich die Gütefunktion
G (x ) = P (T > 29:4973jp = x )
!
29
:
4973
120
x
1 p
:
120x (1 x )
Seite 229
Ÿ4.3
Unsere Teststatistik
T =
hatte den konkreten Wert
Anzahl der Dreier
t = 30 angenommen.
Es ergibt sich der p-Wert
10
p = P (T > 30) 1 p
= 0:0072;
100=6
!
d.h. wir würden die Hypothese
p = 1=6
zu jedem Niveau
> 0:72%
ablehnen.
Seite 230
Ÿ4.3
4.3.6. Einstichprobentests für den Erwartungswert bei normalverteilter Grundgesamtheit
Wir gehen wieder von einer normalverteilten Grundgesamtheit aus und
wollen die Hypothese
=
0
gegen die Alternative
6= >
<
Dabei ist
0
(zweiseitiger Test) bzw.
0
(rechtsseitiger Test) oder
0
(linksseitiger Test) testen.
0
ein fester vorgegebener Wert (der hypothetische Erwar-
tungswert).
Seite 231
Ÿ4.3
(1) Test bei bekannter Varianz
In dem eher unrealistischen Fall bekannter Varianz
Teststatistik
2
wählen wir als
p X T = n N (0; 1):
0
Es ergeben sich die Ablehnungsbereiche
A = ( 1; z = ) [ (z
A = (z ; 1);
A = ( 1; z ) :
1
2
1
=2 ;
1);
1
1
Seite 232
Ÿ4.3
Wir lehnen also in folgenden Fällen ab:
jT j > z
1
=2 ;
T >z
1
;
T< z
1
:
Für die p-Wert ergibt sich
p = P (jT j > jt j jH ) = 2(1 (jt j));
p = P (T > t jH ) = 1 (t );
p = P (T < t jH ) = (t ):
0
0
0
Gütefunktion (
= 0, = 1, = 10%):
0
Seite 233
Ÿ4.3
(2) Test bei unbekannter Varianz (t-Test)
Im Normalfall wird die Varianz, wie der Erwartungswert, nicht bekannt
sein. In dem Fall schätzen wir
b
2
2
durch den erwartungstreuen Schätzer
und verwenden die t-verteilte Teststatistik
p X T = n b t (n 1):
0
Es ergeben sich die Ablehnungsbereiche
A = ( 1; tn ; = ) [ (tn
A = (tn ; ; 1);
A = ( 1; tn ; ):
1 1
2
; =2 ;
1 1
1);
1 1
1 1
Seite 234
Ÿ4.3
Wir lehnen also in folgenden Fällen ab:
jT j > tn
; =2 ;
1 1
T > tn ;
T < tn
1 1
;
; :
1 1
Wir erhalten die p-Werte
p = P (jT j > jt j jH ) = 2(1 Fn (jt j));
p = P (T > t jH ) = 1 Fn (t );
p = P (T < t jH ) = Fn (t ):
0
1
0
0
Hier bezeichnet
Fn
1) Freiheitsgraden.
1
1
1
die Verteilungsfunktion der t-Verteilung mit
(n
Seite 235
Ÿ4.3
Beispiel B4.9: Tägliche Renditen für den DAX, 2016 (Quelle: Yahoo)
Wir wollen zum Niveau
10% testen, ob = 0 gilt:
H : = 0; H : 6= 0:
0
1
Seite 236
Ÿ4.3
Es ergibt sich in diesem Fall
p X b
p
3:085 = 0:484;
= 255 101
:84
t = n
0
mit dem Schätzer für die Standardabweichung
sP
n
k =1 (xk
b =
n 1
Es ist
t
;:
254 0 95
= 1:651 also jt j < t
)
;:
2
254 0 95
= 101:84:
d.h.
H
0
wird nicht abgelehnt.
Alternative: Als p-Wert ergibt sich
p = 2 (1 F (0:412)) = 0:629
254
so dass wir zu allen üblichen Signikanzniveaus
H
0
nicht ablehnen.
Seite 237
Ÿ4.3
4.3.7. Einstichprobentests für die Varianz bei normalverteilter
Grundgesamtheit
Wir gehen von einer normalverteilten Grundgesamtheit aus und wollen
die Hypothese
=
2
2
0
gegen die Alternative
=
6 >
<
2
2
0
(zweiseitiger Test) bzw.
2
2
0
(rechtsseitiger Test) oder
2
2
0
(linksseitiger Test) testen.
Die hypothetische Varianz
0
ist dabei ein fest vorgegebener Wert.
Seite 238
Ÿ4.3
(1) Test bei bekanntem Erwartungswert
Bei bekanntem
wählen wir als Teststatistik
b
T = n (n):
2
2
2
0
Es ergeben sich die Ablehnungsbereiche
A = [0; n;= ) [ (n;
A = (n; = ; 1);
A = [0; n;= ):
2
1
1
=2 ;
1);
2
2
Wir lehnen also in folgenden Fällen ab:
T < n;= oder T > n;
T > n; ;
T < n; :
2
1
=2
1
Seite 239
Ÿ4.3
p-Werte:
p = (komplizierter)
p = P (T > t jH ) = 1 Fn (t );
p = P (T < t jH ) = Fn (t ):
0
0
Hier
bezeichnet
Verteilung mit
Fn
die
Verteilungsfunktion
n Freiheitsgraden.
der
Chi-Quadrat-
Seite 240
Ÿ4.3
Beispiel B4.10: Jahresmitteltemperaturen in Sachsen, 1881-2016
(Quelle: DWD):
Dies ist ein Beispiel für eine Zeitreihe. Oenbar existiert ein gewisser
Trend, den man mit Hilfe der Zeitreihenanalyse (Kleinste-QuadrateMethode) herausrechnen kann.
Seite 241
Ÿ4.3
x ;x ;:::;x
Jahresmittelwerte ohne Trend (
Wir wollen die Hypothese
H :
0
1
Var
2
136 ):
(X ) = = 0:4 (=Varianz der Daten
2
für Bayern) mit einem zweiseitigen statistischen Test zum Signikanz-
= 5% untersuchen. Dabei können wir für den Erwartungswert
E (X ) = = 0 annehmen.
niveau
Seite 242
Ÿ4.3
Als erstes schätzen wir die Varianz mit Hilfe der empirischen Varianz
b =
2
Pn
k =1 (xk
n
)
2
P136 2
k =1 xk
= 136 = 0:495:
Dann bestimmen wir den Wert der Teststatistik:
b
t = n = 168:2:
2
2
0
Für die beiden relevanten Quartile ergibt sich
;:
136 0 025
= 105:61 und
= 170:18. Da t 2 [105:61; 170:18], lehnen wir H , d.h. die
Hypothese, dass die Varianz 0:4 ist, nicht ab.
;:
136 0 975
0
Seite 243
Ÿ4.3
(2) Test bei unbekanntem Erwartungswert
Bei nicht bekanntem
ergibt sich als Teststatistik
b
T = (n 1) (n 1):
2
2
2
0
Es ergeben sich die Ablehnungsbereiche
A = [0; n
A = (n ;
A = [0; n
[ (n
= ; 1);
;= ):
;=2 )
1
1 1
1
; =2 ;
1 1
1);
2
2
Wir lehnen also in folgenden Fällen ab:
T < n
T > n
T < n
1
;=2
oder
; ;
T > n
; =2
1 1
1 1
1
; :
Seite 244
Ÿ4.3
p-Werte:
p = (komplizierter)
p = P (T > t jH ) = 1 Fn (t );
p = P (T < t jH ) = Fn (t ):
0
0
Hier
bezeichnet
Verteilung mit
Fn
1
die
1
1
Verteilungsfunktion
(n 1) Freiheitsgraden.
der
Chi-Quadrat-
Seite 245
Ÿ4.3
4.3.8. Zweistichprobentest auf gleiche Erwartungswerte (t-Test)
Wir
betrachten
ger Stichproben
nun
den
Fall
zweier
normalverteilter
X ; X ; : : : ; X n N ( ; )
1
2
1
N ( ; ) mit gleichen, unbekannten Varianzen.
und
unabhängi-
Y ; Y ; : : : ; Ym 1
2
2
Das Problem eines entsprechenden Tests mit möglicherweise ungleichen Varianzen ist schwerer zu lösen (Behrens-Fisher-Problem,
Welch-Test).
Wir wollen also die Hypothese
H : =
0
1
2
gegen die Alternative
H : 6= 1
1
2
testen.
Seite 246
Ÿ4.3
Wir verwenden die Teststatistik
X Y
T=p
(n 1)b + (m 1)b
2
1
die unter
H
0
r
2
2
nm(n + m 2)
;
n+m
(n + m 2) Freiheitsgraden besitzt.
eine t-Verteilung mit
Ablehnungsbereich:
A = ( 1; tn
d.h. wir lehnen ab, falls
m 2;1 =2 )
+
jT j > tn
[ (tn
m 2;1 =2
+
m 2;1 =2 ;
+
1):
ist.
P-Wert:
p = P (jT j > jt j jH ) = 2(1 Fn
0
m
+
2
(jt j)):
Seite 247
Ÿ4.3
Beispiel B4.11: Zwei Maschinen stellen Bauteile mit einem Gewicht
X bzw. Y
her (Angaben in Gramm). Es ist bekannt, dass beide Maschi-
nen bei der Produktion Fehler mit derselben (unbekannten) Varianz
2
machen. Es wird eine Stichprobe von 30, bzw. 20 Bauteilen untersucht.
Wir wollen zu einem Signikanzniveau von
10% die Hypothese unter-
suchen, dass die Mittelwerte der Bauteilgewichte für beide Maschinen
identisch sind.
Seite 248
Ÿ4.3
Wir erhalten
x = 2197:571; y = 2206:815
b = 320:3355; b = 323:2014
9:244066 p
t = 124:2198 24 = 1:786
p = 2 (1 F (1:786)) = 0:08042
2
1
2
2
48
H
0
wird zu jedem Niveau
> 0:08042 abgelehnt, also auch in unserem
Fall.
Seite 249
Ÿ4.3
4.3.9. Zweistichprobentest auf gleiche Varianzen (F-Test)
Wir betrachten den Fall zweier normalverteilter unabhängiger Stichproben
X ; X ; : : : ; Xn N ( ; ) und Y ; Y ; : : : ; Ym N ( ; ).
1
2
1
1
1
2
2
2
Wir wollen nun die Hypothese
H : =
2
2
H : 6= 2
2
0
2
1
gegen die Alternative
1
2
1
testen.
Seite 250
Ÿ4.3
Die Teststatistik
b
T = b
2
1
2
2
besitzt eine
F -Verteilung mit n 1 und m 1 Freiheitsgraden.
Ablehnungsbereich:
A = [0; F n
(
1
;=2 )
;m
1)
[ (F n
(
;m
1
; =2 ;
1) 1
1):
Wir lehnen ab, wenn
T <Fn
(
;m
1
;=2
1)
oder
T >Fn
(
;m
1
; =2
1) 1
ist.
Seite 251
Ÿ4.3
Beispiel B4.12: Fünf bzw. sieben Wochen lang wird jeden Tag von 16
bis 17 Uhr die Verkehrsdichte (Fahrzeuge/h) an zwei Ausfahrtstraÿen
einer Groÿstadt aufgezeichnet.
Es ist
b = 749347:3; b = 913983
2
1
Wir wollen zum Signikanzniveau
2
2
= 10% testen, ob die Varianzen
Seite 252
Ÿ4.3
gleich sind:
H : = ; H : 6= :
2
1
0
Es ist
2
2
2
1
1
2
2
b
T = b = 0:82
2
1
2
2
und
F
;
;:
(34 48) 0 05
= 0:582; F
;
;:
(34 48) 0 95
= 1:672:
Wir lehnen also die Hypothese nicht ab. Mit Hilfe von Statistiksoftware
kann man den p-Wert
p = 0:548 berechnen.
Seite 253
Ÿ4.3
4.3.10. Chi-Quadrat-Anpassungstest
Wir wollen jetzt Hypothesen der Form
F
H :F =F
0
0
testen. Dabei ist
die (wahre und unbekannte) Verteilungsfunktion der Grundge-
samtheit,
F
0
unsere hypothetische Verteilungsfunktion.
Gegeben seien
eine Stichprobe
X ; X ; : : : ; Xn
1
2
von unabhängigen Beobachtun-
gen,
Klassen
K ; K ; : : : ; Km
1
2
(u.U. auch aus einzelnen Ausprägungen
bestehend),
n(Ki ) und zu erwartende Klassenhäugkeiten für den Fall, dass H zutrit, ne (Ki ) = n P (X 2 Ki ).
absolute Häugkeiten
0
Seite 254
Ÿ4.3
Beispiel B4.13)B1 :1 : Für unser ursprüngliches Würfelbeispiel ergibt
sich, wenn unsere Hypothese die diskrete Gleichverteilung betrit:
Augenzahl:
n ( Ki ) :
ne (Ki ):
1
2
3
4
5
6
15
18
30
18
21
18
20
20
20
20
20
20
Als Testvariable könnten wir die absoluten Abstände
m
X
k =1
jn(Ki ) ne (Ki )j
verwenden. Es stellt sich heraus, dass eine etwas anders gewählte Statistik besser geeignet ist.
Seite 255
Ÿ4.3
Die Chi-Quadrat-Statistik ist gegeben durch
T=
T
besitzt unter
Verteilung mit
m
X
( n ( Ki )
ne (Ki ))
:
ne (Ki )
k =1
2
H asymptotisch (also für n ! 1) eine Chi-Quadrat(m 1) Freiheitsgraden. Für jede Schätzung eines
0
weiteren Parameters verringert sich diese Zahl um eins.
Wir lehnen die Hypothese ab, wenn
T > m
; 1 1
ist.
Als p-Wert ergibt sich
p = P (T > t jH ) = 1 Fm (t );
0
wo
Fm
1
1
die Verteilungsfunktion der Chi-Quadrat-Verteilung ist.
Seite 256
Ÿ4.3
Beispiel B4.14)B1 :1 :
Augenzahl:
n ( Ki ) :
ne (Ki ):
1
2
3
4
5
6
15
18
30
18
21
18
20
20
20
20
20
20
Es ist
t=
25 + 4 + 100 + 4 + 1 + 4 = 6:9
20
und
p = 1 F (6:9) = 0:2281843
5
Wir lehnen die Hypothese zu keinem vernünftigen Signikanzniveau ab
und gehen dementsprechend bis auf weiteres von einer diskreten Gleichverteilung (fairer Würfel) aus.
Seite 257
Ÿ4.3
Beispiel B4.15)B4 :10 : Jahresmitteltemperaturen in Sachsen, 18812016, ohne Trend:
Einteilung in Klassen:
(-3,-2]
(-2,-1]
(-1,0]
(0,1]
(1,2]
1
11
50
69
5
Liegt eine Normalverteilung vor?
Seite 258
Ÿ4.3
Es ist
b = 0 und b = 0:703, also ergibt sich für unsere Hypothese
H : X N (0; 0:703):
0
Ki
n(Ki )
(ai =b)
(bi =b)
(bi =b) (ai =b)
ne (Ki )
t=
(-3,-2]
(-2,-1]
(-1,0]
(0,1]
(1,2]
1
11
50
69
5
0.001
0.023
0.159
0.500
0.841
0.023
0.159
0.500
0.841
0.977
0.021
0.136
0.341
0.341
0.136
2.9
18.5
46.4
46.4
18.5
m
X
(n(Ki )
k =1
ne (Ki ))
= 25:42
ne (Ki )
2
Seite 259
Ÿ4.3
Die Teststatistik
T hat etwa eine Chi-Quadrat-Verteilung mit 5 1 1 =
3 Freiheitsgraden (wir haben ja die Varianz geschätzt!).
Es ist
p = 1 F (25:42) = 1:26 10 :
3
5
Wir lehnen die Hypothese zu allen gängigen Signikanzniveaus ab.
Seite 260
Ÿ4.3
4.3.11. Weitere Tests auf Normalität
Es gibt noch eine Reihe weiterer Tests auf Normalität, für die allerdings
die Anwendung von Statistiksoftware notwendig ist.
Der Shapiro-Wilks-Test liefert für das obige Beispiel:
Test Name :
Data :
Test Statistic :
P - value :
Shapiro - Wilk normality test
t
W = 0.9774639
0.02354978
Beim Lilliefors-Test ergibt sich:
Test Name :
+ Smirnov ) normality test
Data :
Test Statistic :
P - value :
Lilliefors ( Kolmogorov t
D = 0.07416185
0.0641023
Seite 261
Ÿ4.3
4.3.12. Q-Q-Plots
Optisch besteht die Möglichkeit sich mit Hilfe eines sog. Q-Q-Plots
(Quantil-Quantil-Plot) von der Normalität der Daten zu überzeugen.
Dabei werden die Quantile der Normalverteilung und die empirischen
Quantile der vorliegenden Daten in einem Diagramm aufgetragen.
Auÿerdem wird eine Hilfsgerade berechnet und aufgetragen.
Im Fall einer vorliegenden Normalverteilung liegen die Punkte etwa
auf der angegebenen Geraden.
Seite 262
Ÿ4.3
Etwa normalverteilte Daten (oben: n=5000, unten: n=25):
Seite 263
Ÿ4.3
Rechtsschiefe Daten:
Seite 264
Ÿ4.3
Linksschiefe Daten:
Seite 265
Ÿ4.3
Bimodale Daten:
Seite 266
Ÿ4.3
Beschränkter Träger:
Seite 267
Ÿ4.3
Wir erhalten im obigen Beispiel:
Seite 268
Ÿ4.3
4.3.13. Der Chi-Quadrat-Homogenitätstest
Wir wollen jetzt testen ob zwei unabhängige Stichproben
und
Y ; Y ; : : : ; Ym ein und dieselbe Verteilung besitzen:
1
X ; X ; : : : ; Xn
1
2
2
H : F =F :
0
1
2
Wir verwenden folgende Gröÿen:
Klassen
K ; K ; : : : ; Kk
1
(u.U. auch aus einzelnen Ausprägungen
2
bestehend),
absolute Häugkeiten:
Klasse:
X
Y
1
n;
n;
n
1 1
2 1
1
2
...
1 2
...
2 2
...
2
...
n;
n;
n
k
n ;k n = n
n ;k n = m
nk n + m
1
1
2
2
Seite 269
Ÿ4.3
Als Teststatistik dient der Chi-Quadrat-Koezient
=
2
2
k
X
X
i =1 j =1
nij
ni nj 2
n+m
ni nj
n +m
k 1 Freiheitsgraden besitzt.
Ablehnung der Hypothese, falls > k
; ist.
P-Wert, falls = c ist:
der etwa eine
2
-Verteilung mit
2
1 1
2
p = P > c = 1 Fk (c );
2
wobei
Fk
1
1
die entsprechende Chi-Quadrat-Verteilungsfunktion ist.
Seite 270
Ÿ4.3
Beispiel B4.16: Die Besuchszahlen des Oktoberfestes werden für zwei
Jahre (X,Y) an jeweils 30 Tagen verglichen.
0-30
30-50
50-70
70-90
90-110
ni X
2
9
10
6
3
30
Y
0
1
12
15
2
30
nj
2
10
22
21
5
60
Klassen:
Liegen für
X und Y
identische Verteilungen vor?
Seite 271
Ÿ4.3
Wir testen bei einem Signikanzniveau von
= 0:01. Es ist
= 12:639
2
und
; : = 13:2767
4 0 99
wir lehnen also
H
0
nicht ab.
Alternativ können wir den p-Wert berechnen und erhalten:
p = 1 F (12:639) = 0:01318:
4
Seite 272
Ÿ4.3
4.3.14. Der Chi-Quadrat-Unabhängigkeitstest
Wir wollen jetzt testen ob zwei Merkmale
H :
X und Y
unabhängig sind:
X und Y unabhängig
0
Voraussetzungen:
X ; X ; : : : ; Xn und Y ; Y ; : : : ; Ym ,
Klassen oder Ausprägungen K ; K ; : : : ; Kk und L ; L ; : : : ; Lr ,
Stichproben
1
2
1
1
2
2
1
2
absolute Häugkeiten:
L
K
n;
1
1
.
.
.
1 1
Lr nr;
Y
n
.
.
.
1
1
K
n;
2
...
1 2
...
nr;
n
.
.
.
.
.
.
2
...
2
...
Kk
n ;k
1
.
.
.
n
1
.
.
.
nr;k
nr nk n + m
Seite 273
Ÿ4.3
Als Teststatistik dient erneut der Chi-Quadrat-Koezient
=
2
der etwa eine
2
r X
k
X
i =1 j =1
-Verteilung mit
besitzt.
Ablehnung der Hypothese, falls
P-Wert, falls
c
nij
ni nj 2
n+m
ni nj
n +m
` = (r 1) (k 1) Freiheitsgraden
> `;
2
1
ist.
die berechnete Teststatistik ist:
p = P > c = 1 F` (c );
2
wobei
F` die entsprechende Chi-Quadrat-Verteilungsfunktion ist.
Seite 274
Ÿ4.3
Beispiel B4.17: (Vergleiche mit Aufgabe 46) An einer Hochschule starten 140 Studierende ins erste Semester. Sie können zwischen 3
Studiengängen A,B,C und D wählen. Sind die beiden Merkmale
Studiengang und
Y =
Geschlecht unabhängig?
A
B
C
D
m
10
30
10
5
55
w
20
20
40
5
85
30
50
50
10
140
Wir testen zum Niveau
X =
= 0:1.
Seite 275
Ÿ4.3
Wir erhalten
= 17:718
2
und
; : = 6:251389:
3 0 9
Wir lehnen also ab.
In der Tat ist
p = 0:0005028544 < 0:01:
Seite 276
Ÿ4.3
4.3.15. Test auf Ausreiÿer
Ein Ausreiÿer ist ein Datenwert, der auÿergewöhnlich weit von den
übrigen, bzw. von den meisten anderen Daten entfernt liegt. Es gibt
keine genaue mathematische Denition.
Der Grubbs-Test kann Ausreiÿer feststellen. Dazu wird angenommen,
dass die Grundgesamtheit normalverteilt ist und die Teststatistik
T=
maxi
=1
j
xj
;:::;n xi
b
berechnet.
Die Nullhypothese es liegt kein Ausreiÿer vor wird abgelehnt, wenn
tn ;= n
n 1
t > c = p
n n 2 + tn ;= n
s
2
2
2
2
2
2
ist.
Seite 277
Ÿ4.3
Wird die Hypothese abgelehnt, so kann man den verdächtigen Datenwert entfernen und einen neuen Test starten.
Dieses Verfahren wird solange durchgeführt, bis kein Ausreiÿer mehr
erkannt wird
Das Entfernen von Datenpunkten muss sich aus dem jeweiligen Zusammenhang rechtfertigen lassen. Im Normalfall dürfen keine Daten
entfernt werden!
Seite 278
Ÿ4.3
Beispiel B4.18: Ein handschriftlich notierter ursprünglich normalverteilter Datensatz weist u.U. Zahlendreher auf:
13:3; 31:1; 10:0; 60:2; 33:7; 15:2; 16:2;
14:9; 17:7; 21:1; 29:8; 13:6; 11:4; 18:7; 41:1
Seite 279
Ÿ4.4
Wir verwenden den Grubbs-Test zum Niveau 10%.
Es ist
x = 23:2, b(x ) = 13:748 und
37
t = 13:748 = 2:691;
s
tn ;= n
n
1
c = p
= 2:409:
n n 2 + tn ;= n
2
2
2
2
2
2
Wir lehnen also die Nullhypothese ab.
Wir entfernen den Datenwert
60:2 und erhalten im zweiten Durchlauf
t = 2:157; c = 2:372:
Wir lehnen die Nullhypothese nicht ab, belassen also alle übrigen Werte
im Datensatz.
Seite 280
Ÿ4.4
4.4. Einfache lineare Regression
In der einfachen linearen Regression versucht man lineare Zusammenhänge zwischen zwei Gröÿen
X
X und Y
nachzuweisen. Dabei ist
eine für uns nicht zufällige, also deterministische Gröÿe (die
erklärende Variable, exogene Variable oder Regressor), nach Ermittlung einer Stichprobe konkret gegeben durch Datenpunkte
x ; x ; : : : ; xn und
Y eine zufällige Gröÿe
1
2
(die zu erklärende Variable, endogene
Variable oder Regressand), konkret gegeben durch eine Stichprobe
y ; y ; : : : ; yn .
1
2
Zu jedem Datenelement
xi
gehört eindeutig eine Stichprobe
yi .
Seite 281
Ÿ4.4
Idealerweise läge ein linearer Zusammenhang vor:
Y = + X
0
1
mit zwei unbekannten Regressionsparametern
;
0
1.
Tatsächlich werden allerdings noch gewisse Fehler- oder Störterme
Z
auftreten, so dass dann
Y = + X + Z;
0
gilt.
Wenn wir annehmen, dass E
1
(Z ) = 0 ist, dann können wir auch schrei-
ben:
E
(Y jX = x ) = + x:
0
1
Seite 282
Ÿ4.4
Beispiel B4.19: Wir betrachten die Jahresmitteltemperaturen in
Deutschland für den Zeitraum 1970-2016 (Quelle: DWD):
Es ist hier
X
Y
=
=
Zeit seit 1970 (on Jahren)
Jahresmitteltemperatur Deutschland
Seite 283
Ÿ4.4
Wir nehmen an, es gäbe einen linearen Trend.
Mathematische Formulierung:
E
(Y jX = x ) = + x:
Die beiden Regressionsparameter
0
0
und
1
1
sind prinzipiell unbekannt
und können statistisch niemals mit 100%er Sicherheit ermittelt werden. Wir werden sie schätzen müssen...
Seite 284
Ÿ4.4
In der Praxis liegen konkrete Daten
x ; x ; : : : ; xn
1
2
und
y ; y ; : : : ; yn
1
2
vor und es gilt i.A. nicht
yk = + xk ;
0
sondern
1
yk = + xk + zk ;
0
1
mit konkreten, aber prinzipiell unbekannten Fehlern
z ; z ; : : : ; zn .
1
2
Seite 285
Ÿ4.4
4.4.1. Die Kleinste-Quadrate-Methode
und schätzen,
b ; b berechnen.
anhand der Daten möglichst gute Schätzer Wie müssen die unbekannten Parameter
0
1
0
also
1
Die Ausgleichs- oder Regressionsgerade sollte so verlaufen, dass sie
die Daten möglichst gut beschreibt.
Was bedeutet möglichst gut?
Seite 286
Ÿ4.4
Wir versuchen die Regressionsparameter so zu wählen, dass der quadratische Fehler
Q =
2
n X
yi
i =1
(b0 + b1x )
2
möglichst klein wird.
Die auf diese Art und Weise minimierten Fehler
zbi = yi (b + b x )
0
1
(4.1)
nennen wir Residuen.
Wir minimieren also die Summe der Residuenquadrate:
Q =
2
n
X
i =1
zbi :
2
Seite 287
Ÿ4.4
Seite 288
Ÿ4.4
Seite 289
Ÿ4.4
Mit Hilfe der Analysis (Extremwertbestimmung bei Funktionen mit
mehreren
Variablen,
s.Mathe-Vorlesung)
Q (b ; b ) minimieren.
2
0
kann
man
die
Funktion
1
Es ergibt sich dann für die Steigung der Regressionsgeraden
b =
1
x y x y
= bsxy(x )
x x
2
2
2
und für den Achsenabschnitt (Intercept)
b = y b x:
0
Speziell liegt der Schwerpunkt
1
(x; y ) immer auf der Regressionsgera-
den.
Seite 290
Ÿ4.4
Beispiel B4.20)B4 :19 :
x y = 208:464; x = 23; y = 8:794
x y x y = 6:211; x x = 184
x y x y
= 0:0338; b = y b x: = 8:017:
b =
x x
Interpretation: Die Temperatur steigt mit jedem Jahr um 0:0338 Grad.
2
1
2
2
2
0
1
Seite 291
Ÿ4.4
4.4.2. Prognosen
Mit Hilfe der K-Q-Schätzer für das lineare Modell können wir für
ein beliebiges
berechnen:
x einen Schätzer yb für das unbekannte zugehörige y
yb = b + b x :
0
1
Dabei machen wir naturgemäÿ einen Fehler, den Prognosefehler
= yb y
Seite 292
Ÿ4.4
Beispiel B4.21)B4 :19 : Jahresmitteltemperaturen in Deutschland,
1970-2016:
Für das obige Beispiel ergibt sich für die Jahresmitteltemperatur des
Jahres 2020:
yb = 8:017 + 0:0338 50 = 9:705
also knapp
9:7 Grad Celsius.
Seite 293
Ÿ4.4
4.4.3. Standardbedingungen und Güte der Schätzer
Normalerweise fordert man von den Residuen folgende Eigenschaften:
1.
Zi N (0; )
res
(Normalverteilung der Störterme, mit Erwar-
tungswert null und Homoskedasitizität, d.h. identische Varianzen
2.
2
),
rZi Zj = 0 für i 6= j
res
(keine Autokorrelation).
Wir wollen das ab jetzt voraussetzen.
Unter diesen Bedingungen sind

b
b N  ; 0
und
0
s
0
2
res
b
1
jeweils normalverteilt:
1+ x
2
nb (x )
n
2

;
b N ; nb (x ) :
s
2
!
res
1
1
2
Die beiden Koezienten sind nicht stochastisch unabhängig!
Seite 294
Ÿ4.4
Satz 4.2
Unter
den
Schätzer
b
0
genannten
und
b
1
Voraussetzungen
sind
die
beiden
K-Q-
erwartungstreu und konsistent, d.h
b0 = 0 ;
E b1 = 1 ;
E lim Var b0 = 0;
n!1
b1 = 0:
lim
Var n!1
Auÿerdem besitzen sie die sog. BLUE-Eigenschaft, d.h. die Varianzen der beiden Schätzer sind jeweils kleiner als die Varianzen aller anderen linearen erwartungstreuer Schätzer (die Schätzer sind
ezient).
Seite 295
Ÿ4.4
4.4.4. Das Bestimmtheitsmaÿ
Die
y -Datenwerte
besitzen für die verschiedenen
xi
jeweils unter-
schiedliche Werte. Die resultierende Streuung um den Mittelwert wird
durch die Stichprobenvarianz beschrieben:
n
X
1
b (y ) = n 1 (yi y ) :
i
2
2
=1
Seite 296
Ÿ4.4
Die erklärte Varianz
n
X
1
be (y ) = n 1 (ybi y ) :
i
2
2
=1
misst Abweichungen der Schätzungen vom y-Mittelwert.
Seite 297
Ÿ4.4
Die nicht erklärte Varianz der Residuen
n
X
1
bu (y ) = n 1 (yi yb)
i
2
2
=1
misst die Streuung um die Regressionsgerade.
Seite 298
Ÿ4.4
Satz 4.3 (Varianzzerlegung)
Es gilt
b (y ) = be (y ) + bu (y ):
2
2
2
Je höher der Anteil der erklärten Varianz an der Gesamtvarianz ausfällt, desto besser ist unser Modell angepasst.
Der Anteil
b (y )
R = be (y )
2
2
2
der erklärten Varianz an der Gesamtvarianz von
Güte des Modells. Man nennt
R
2
y
ist ein Maÿ für die
das Bestimmtheitsmaÿ.
Seite 299
Ÿ4.4
Je höher
R
2
ausfällt, desto besser ist das Modell an die vorliegenden
x die Variable y .
Es gibt keine generelle Richtlinie, wie hoch R ausfallen muss, damit
von einer guten Anpassung geredet werden kann. Werte < 0:3 deuten
Daten angepasst, d.h. desto besser erklärt
2
allerdings eine schlechte Anpassung an.
R
2
nimmt zu, wenn weitere erklärende Variablen hinzugezogen wer-
den, auch wenn sich das Modell durch die Hinzunahme nicht verbessert.
In
diesem
Fall
verwendet
man
auch
das
korrigierte/adjustierte
Bestimmtheitsmaÿ
n 1
R = 1 (1 R ) n k 1 ;
2
mit
2
k = Anzahl der erklärenden Variablen.
Seite 300
Ÿ4.4
4.4.5. Intervallschätzer
Mit
b
0
und
b
1
besitzen wir zwei Punktschätzer für die unbekannten
Regressionsparameter.
Wie kennen, unter den Standardbedingungen, sogar ihre Verteilung:

s
b N  ; 0
0
2
1+ x
nb (x )
n
res
2
2

;
b N ; nb (x ) :
s
!
2
res
1
1
2
Allerdings muss vorher noch die Varianz
2
res
der Residuen geschätzt
werden. Wir verwenden den erwartungstreuen Schätzer
n
X
1
b = n 2 (yi ybi ) :
i
2
2
res
=1
Seite 301
Ÿ4.4
Damit lässt sich problemlos ein
(1 ) 100%-Kondenzintervall für
0
I =
h
0
und für
b1
i
b
b
b
tn 2;1 =2 b(0 ); 1 + tn 2;1 =2 b(0 ) :
1
I = b
h
1
0
tn
; =2
2 1
b(b ); b + tn
1
0
; =2
2 1
b(b ) :
i
1
bestimmen.
Dabei benutzen wir die Schätzer
b(b0 ) =
s
b
nb (x ) ;
2
res
2
b(b1 ) =
s
b
2
res
1+ x
n
2
nb (x ) :
2
Seite 302
Ÿ4.4
4.4.6. Tests zur Anpassungsgüte
Wenn wir die Güte unserer Schätzungen beurteilen wollen, können wir
entsprechende Hypothesentests verwenden.
Als Hypothese bietet sich an, jeweils die Nullhypothesen
H : = 0; H : 6= 0
0
0
1
0
und
H : = 0; H : 6= 0
0
1
1
1
zu testen.
Werden die Hypothesen abgelehnt, so spricht das für unser lineares
Modell. Anderenfalls muss ggf. über ein anderes Modell nachgedacht
werden.
Seite 303
Ÿ4.4
Wir wissen bereits, dass unsere Schätzer unter den Standardannahmen normalverteilt sind, d.h. unter der Hypothese
= 0 bzw. = 0
0
1
gilt
 s
b N 0; 0
2
res
1+ x
2
nb (x )
n
2

;
b N 0; nb (x ) :
s
2
!
res
1
2
Dementsprechend können wir die ersten beiden Hypothesen mit dem
uns bekannten t-Test testen (s. Abschnitt (2)).
Seite 304
Ÿ4.4
Zum testen der Hypothese
i = 0 (i 2 0; 1)
verwenden wird die
Teststatistik
T=
bi
b(bi )
und lehnen ab, wenn
jT j > tn
; =2
2 1
ist.
Als p-Wert ergibt sich also
p = P (jT j > jt j) = 2 (1 Fn (jt j)) ;
2
mit der Verteilungsfunktion
Fn
2
der t-Verteilung mit
(n 2) Frei-
heitsgraden.
Seite 305
Ÿ4.4
4.4.7. Beispielregression mit R
Beispiel B4.22)B4 :19 : Wir betrachten wieder die Jahresmitteltemperaturen in Deutschland für den Zeitraum 1970-2016 (Quelle: DWD):
>
>
>
>
>
tb = read . table ( " DWD . txt " , sep = " ; " , dec = " . " , header =T , fill = T )
tb = tb [90:136 ,]
x = tb $ Jahr -1970
t = tb $ Deutschland
x
[1] 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
+ 20 21 22 23 24
[26] 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44
+ 45 46
> t
[1] 7.7 8.4 7.8 8.2 8.8 8.9 8.5 8.7 7.8 7.7 7.6 8.2
+ 8.9 9.0 8.0
[16] 7.4 7.9 7.4 9.1 9.5 9.5 8.3 9.4 8.5 9.7 8.9 7.2
+ 8.9 9.1 9.5
[31] 9.9 9.0 9.6 9.4 8.9 9.0 9.5 9.9 9.5 9.2 7.8 9.6
+ 9.1 8.7 10.3
[46] 9.9 9.5
Seite 306
Ÿ4.4
> plot (x ,t , col = col , pch =20 , cex =1.4 , ylab = " Jahresmittel " )
> cor (x , t )
[1] 0.5895415
Seite 307
Ÿ4.4
> lin = lm ( t ~ x )
> abline ( lin , col = " red " )
> lin
Call :
lm ( formula = t ~ x )
Coefficients :
( Intercept )
8.01729
x
0.03375
Seite 308
Ÿ4.4
> plot (x , lin $ residuals , col = col , pch =20 , cex =1.4 , ylab = " Residuen " )
> abline ( h =0 , col = " red " )
> mean ( lin $ residuals )
[1] -2.406021 e -17
> sd ( lin $ residuals )
[1] 0.6340938
> summary ( lin $ residuals )
Min . 1 st Qu .
Median
-1.69500 -0.32610 0.08145
Mean
0.00000
3 rd Qu .
0.49010
Max .
0.87260
Seite 309
Ÿ4.4
>
>
>
>
par ( mar = c (2 ,4 ,1 ,1) , mfrow = c (1 ,2) )
plot ( density ( lin $ residuals ) , main = " " , lwd =2 , col = " red " )
qqnorm ( lin $ residuals , pch =16 , main = " " )
qqline ( lin $ residuals , col = " red " , lwd =2)
Seite 310
Ÿ4.4
> summary ( lin )
Call :
lm ( formula = t ~ x )
Residuals :
Min
1Q
-1.69488 -0.32611
Median
0.08145
3Q
0.49014
Max
0.87263
Coefficients :
Estimate Std . Error t value Pr ( >| t |)
( Intercept ) 8.017287
0.184083 43.553 < 2e -16 * * *
x
0.033753
0.006894
4.896 1.3 e -05 * * *
--Signif . codes : 0 ` * * * ` 0.001 ` * * ` 0.01 ` * ` 0.05 ` . ` 0.1 ` ` 1
Residual standard error : 0.6411 on 45 degrees of freedom
Multiple R - squared : 0.3476 ,
Adjusted R - squared : 0.3331
F - statistic : 23.97 on 1 and 45 DF , p - value : 1.299 e -05
Seite 311
Ÿ4.4
> par ( mfrow = c (2 ,3) , mar = c (3 ,3 ,3 ,3) )
> for ( i in 1:6) plot ( lin , which = i )
Seite 312
Ÿ1.1
A.
Übungsaufgaben
A.1. Aufgaben
Übung 1
Aufgabe 1: Es sei
a)
b)
P5
k =1 xk
5
P5
l =1 (xl
x = (6; 1; 3; 4; 1). Berechnen
Sie:
P
c)
i i x i
5
1
=1
3)
2
d)
Q5
j =1 (
6
1)xj
bx c ist als die gröÿte ganze Zahl, die
kleiner oder gleich x ist, deniert. Es sei n = 8. Geben Sie bn c für
= 0:1; 0:4; 0:7 an.
Aufgabe 2:
Die Gauÿklammer
Seite 313
Ÿ1.1
Aufgabe 3: Berechnen Sie
6
2
.
Aufgabe 4: Gelten die folgenden Rechenregeln?
a)
b)
c)
d)
(x y )b = x b y b
(x + y )b = x b + y b
e x = (e x )
p
x = jx j
(
2
)
2
2
e)
f)
g)
h)
log(x + y ) = log(x ) + log(y )
log(x y ) = log(x ) log(y )
log(x y ) = log(x ) + log(y )
Pn
Pn
k ak = k ak
1
=1
=0
+1
Aufgabe 5: Vereinfachen Sie:
a)
b)
3a 3b 3c
a b c
3
3
3
Aufgabe 6: Skizzieren Sie die folgenden Funktionen:
Seite 314
Ÿ1.1
a)
f (x ) = 2x 3
b)
f (x ) = log(x )
c)
f (x ) = e x
d)
f (x ) = e
x
e)
f (x ) = e
x2
f)
f (x ) = e
(
g)
f (x ) = e
x
x
(
2
1)
2)2
4
Übung 2
Aufgabe 7:
Im Rahmen einer Wahlumfrage wird für 700 am Telefon
Befragte das Alter und die bevorzugte Partei (A,B,C oder D) ermittelt. Geben Sie ein passendes
an und beschreiben Sie die Merkmale
mathematisch durch Angabe der Merkmalsausprägungen.
Aufgabe 8:
Geben Sie für das Beispiel B1.1 eine Tabelle an, die die
relativen und absoluten Häugkeiten, sowie die kumulativen relativen
und kumulativen absoluten Häugkeiten enthält.
Seite 315
Ÿ1.1
Aufgabe 9: Warum gelten die Gleichungen 2.12.3?
Aufgabe 10: Geben Sie jeweils ein weiteres Beispiel für die besprochenen vier Merkmalsskalen an.
Aufgabe 11: Auf der Straÿe werden 20 erwachsene Passanten im Rahmen einer Umfrage befragt. Eines der erfassten Merkmale ist die Kinderzahl
K . Folgende Beobachtungen werden notiert:
1; 2; 0; 0; 2; 0; 0; 2; 1; 0; 3; 1; 0; 0; 0; 1; 1; 1; 0; 1
a) Geben Sie die Menge der Merkmalsausprägungen für das Merkmal
K an.
b) Stellen Sie eine Tabelle auf, die die relativen und absoluten Häugkeiten, sowie die kumulativen relativen und kumulativen absoluten
Häugkeiten enthält.
Seite 316
Ÿ1.1
c) Zeichnen Sie die empirische Verteilungsfunktion.
Übung 3
Aufgabe 12:
a) Berechnen Sie das arithmetische Mittel der folgenden drei Datenreihen.
(i) 4, 6, 9, 10, 13, 18 (ii) 0, 2, 2, 3, 3, 50 (iii) 1, 2, 3, 17, 18, 19
b) Worin unterscheiden sich die Datensätze hinsichtlich der Lage der
Datenwerte in Bezug auf ihren Mittelwert?
Aufgabe 13: Zeichnen Sie ein Histogramm für das Beispiel B2.20.
Seite 317
Ÿ1.1
Aufgabe 14: Für 200 Hotels in Sachsen werden die monatlichen Übernachtungszahlen in klassierter Form betrachtet:
Klasse:
]Hotels:
0-100
100-500
500-2000
2000-5000
20
90
40
50
a) Zeichnen Sie ein Histogramm.
b) Zeichnen Sie ein Diagramm, das die zugehörige empirische Dichte
zeigt.
c) Berechnen Sie das arithmetische Mittel für die klassiert vorliegenden Übernachtungszahlen.
Aufgabe 15: Wann wird das arithmetische Mittel bei Hinzunahme eines
weiteren Datenpunktes groÿer? Argumentieren Sie unter Zuhilfenahme
von Gleichung (2.5).
Seite 318
Ÿ1.1
Aufgabe 16: Betrachten Sie die Daten aus Aufgabe 11.
a) Zeichnen Sie ein Balkendiagramm und ein Kreisdiagramm.
b) Berechnen Sie das arithmetische Mittel der Kinderzahl.
c) Geben Sie die Ordnungsstatistik an.
d) Berechnen Sie den Median.
e) Berechnen Sie das
-getrimmte Mittel für = 0; 1.
f ) Geben Sie das obere Quartil an.
Aufgabe 17: Zeigen Sie, dass die Formel
Zahlen
ax + b = ax + b für beliebige
a; b 2 R gilt (Linearität des arithmetischen Mittels).
Seite 319
Ÿ1.1
Übung 4
Aufgabe 18:
Auf einer Insel werden drei Jahre lang Erdbeben und
ihre Stärke registriert. Dabei werden folgende Jahresmittelwerte und
Varianzen beobachtet.
Jahr
] Beben x
Var
(x )
2012
6
2
1
2013
3
4
4
2014
7
3
2
Berechnen Sie den gepoolten Mittelwert und die gepoolte Varianz der
Erdbebenstärken.
Seite 320
Ÿ1.1
Aufgabe 19: Betrachten Sie die Daten aus dem Beispiel B1.1.
a) Berechnen Sie die Varianz und die Standardabweichung des beobachteten Merkmals Augenzahl.
b) Wieviele Daten liegen im Intervall
[x b(x ); x + b(x )]?
c) Berechnen Sie den Median, die Quartile und den IQR.
Aufgabe 20:
Entwerfen Sie eine Stichprobe von
n=6
Daten mit
folgenden Anforderungen:
a)
x = 0,
c)
xe: = 3, xe: = 4
b)
x = 5, b (x ) = 1,
d)
xe = 7, Rx = 10.
25
75
Seite 321
Ÿ1.1
Aufgabe 21:
Gegeben seien die folgenden Schlusskurse des DAX an
sieben aufeinander folgenden Tagen.
Tag
Schlusskurs
2016-10-26
10710
2016-10-25
10757
2016-10-24
10761
2016-10-21
10711
2016-10-20
10701
a) Berechnen Sie die Stichprobenvarianz und die Stichprobenstandardabweichung der Schlusskurse.
b) Geben Die die Spannweite, den IQR, sowie den Variationskoezienten an.
c) Berechnen Sie den MAD.
Seite 322
Ÿ1.1
Übung 5
Aufgabe 22:
Sind alle Werte in einer Kontingenztafel eindeutig be-
stimmt, wenn nur die absoluten Randhäugkeiten angegeben sind?
Aufgabe 23:
Geben Sie ktive absolute Häugkeiten für eine
3 2-
Kontingenztabelle für zwei unabhängige Merkmale an.
Aufgabe 24:
Ein neues Produkt kommt in drei Varianten I,II und III
auf den Markt. Es ergeben sich an einem Tag an drei verschiedenen
Standorten A,B und C in Deutschland folgende Verkaufszahlen:
I
II
III
A
8
8
4
B
10
20
5
C
22
32
11
a) Geben Sie die relativen Häugkeiten und die Randhäugkeiten an.
Seite 323
Ÿ1.1
b) Sind die beiden Merkmale Version und Standort unabhängig?
c) Berechnen Sie
2
und beide Varianten des Pearsonschen Kontin-
genzkoezienten.
d) Interpretieren Sie das Ergebnis.
Aufgabe 25: In einem Land besitzen die fünf gröÿten Städte 3 000 000,
1 000 000, 500 000, 250 000 und 250 000 Einwohner. Zeichnen Sie eine
Lorenz-Kurve und geben Sie den Gini-Koezienten an.
Aufgabe 26: Warum ist der gröÿtmögliche Wert des Gini-Maÿes
Übung 6
n
n
1
?
Aufgabe 27: 14 Tage lang werden die Verkaufszahlen für ein Buch in
einer Buchhandlung notiert: 7, 11, 12, 8, 10, 9, 9, 8, 0, 6, 13, 18, 5
und 11. Zeichnen Sie einen Boxplot für die Daten.
Aufgabe 28:
Für 6 Straÿen werden die Durchschnittsgeschwindigkeit
Seite 324
Ÿ1.1
und die Anzahl der Unfälle in einem Jahr angegeben:
Geschw.: 50 60 100 70 50 40
Unfälle: 2 2
7 4 2 1
:
Geben Sie die für die beiden Merkmale die empirische Kovarianz und
den Korrelationskoezienten an un interpretieren Sie das Resultat.
Aufgabe 29:
An zwei Hochschulen setzt man unterschiedliche Be-
notungssysteme ein. Während die Hochschule A die Benotungsskala
I ! II ! III ! IV verwendet, mit I als bester Note, ist an der
Hochschule B die Skala a ! b ! c , mit a als bester Note, in Gebrauch.
Für 20 Studierende, die von A nach B wechselten, wird die letzte Note an
der Hochschule A mit der ersten Note an der Hochschule B verglichen:
Seite 325
Ÿ1.1
A
I
I
I
I
I
I
I
II
II
II
B
a
a
a
a
a
b
b
a
a
a
A
II
II
II
III
III
III
III
IV
IV
IV
B
a
b
b
a
b
b
c
b
b
c
Berechnen Sie den Rangkorrelationskoezienten und interpretieren Sie
das Ergebnis.
Übung 7
Aufgabe 30:
Ein Würfel wird dreimal geworfen. Bestimmen Sie die
Wahrscheinlichkeit,. . .
a) . . . , dass keine Sechs fällt,
b) . . . , dass die Augenzahlen gleich sind,
c) . . . , dass die Augensumme 8 ist,
Seite 326
Ÿ1.1
d) . . . , dass die Augensumme 8 ist, gegeben, dass keine Sechs fällt.
e) . . . , dass genau zwei Sechsen fallen.
Aufgabe 31:
In einem Raum benden sich 12 Stühle. Fünf Personen
kommen in den Raum, wählen sich zufällig einen Stuhl aus und setzen
sich.
a) Wie groÿ ist die Wahrscheinlichkeit, dass fünf vorher ausgewählte
Stühle besetzt sind?
b) Wie groÿ ist die Wahrscheinlichkeit, dass die vorher ausgewählten
Stühle mit vorher genau benannten Personen besetzt sind?
Aufgabe 32:
Eine Zufallsvariable
X
nimmt die Werte -2,-1,0,1 und
2 mit den Wahrscheinlichkeiten 0.2,0.1,0.4,0.1,0.2 an. Zeichnen Sie
die Wahrscheinlichkeitsfunktion und berechnen Sie P
Var
(X ) und E (jX j).
(X 0:7), E (X ),
Seite 327
Ÿ1.1
Übung 8
Aufgabe 33: Die Zufallsvariable
X beschreibe die Dauer zwischen zwei
aufeinanderfolgenden Ankünften von Kunden in einer Bank (Einheit:
Minuten).
X besitze die Verteilungsfunktion
(
F (x ) =
0
1 e
x=2
;x < 0
;x 0
a) Zeichnen Sie die Verteilungsfunktion.
b) Geben Sie die zugehörige Dichtefunktion an und zeichnen Sie sie.
c) Wie groÿ ist die Wahrscheinlichkeit, dass zwischen zwei Kundenankünften weniger als fünf Minuten vergehen?
d) Ein Kunde erreicht die Bank um 12 Uhr. Wie groÿ ist die Wahrscheinlichkeit, dass der nächste Kunde nach 12:01 Uhr, aber vor
12:03 ankommt?
Seite 328
Ÿ1.1
e) Berechnen Sie den Erwartungswert für die Zwischenankunftszeiten.
f ) Mit welcher Wahrscheinlichkeit ist eine Zwischenankunftszeit länger als der oben berechnete Erwartungswert?
Aufgabe 34:
Angenommen zehn Prozent aller Autos seien weiÿ, 60
Prozent schwarz und 30 Prozent besäÿen eine andere Lackierung.
a) Auf einem Parkplatz stehen 30 Autos. Wie groÿ ist der Erwartungswert der Anzahl weiÿer Autos?
b) Wie groÿ ist die Wahrscheinlichkeit, dass unter den Wagen auf
dem Parkplatz weniger als drei weiÿe Autos sind?
c) Wie groÿ ist die Wahrscheinlichkeit, dass an einer Kreuzung erst 15
nicht-weiÿe Autos vorbeifahren, bevor schlieÿlich ein weiÿes Auto
vorbeikommt?
Seite 329
Ÿ1.1
d) Wie lange muss man im Durchschnitt auf ein weiÿes Auto warten?
e) Wie groÿ ist die Wahrscheinlichkeit unter zehn Autos zwei weiÿe,
fünf schwarze und drei andersfarbige Wagen zu nden?
Übung 9
Aufgabe 35: Angenommen
X
besitze eine Standardnormalverteilung.
Berechnen Sie die folgenden Wahrscheinlichkeiten.
(X 1),
P ( 1 X 1),
P (X > 2),
P (X > 2 oder X <
2).
a) P
b)
c)
d)
Welche Verteilung besitzen die folgenden Zufallsvariablen?
e)
f)
g)
X=10,
3 X + 2,
5 (X 6).
Seite 330
Ÿ1.1
Aufgabe 36: Der jährliche Gewinn
Erwartungswert
X einer Firma sei normalverteilt mit
70 Mill. Euro und Standardabweichung 12 Mill. Euro.
Berechnen Sie die Wahrscheinlichkeit, dass der Gewinn
a) gröÿer als 80 Millionen Euro ist,
b) kleiner als 50 Millionen Euro ist,
c) zwischen 50 und 80 Millionen liegt.
Eine zweite Firma macht
Y N (40; 5) Millionen Euro Gewinn.
d) Wie groÿ ist die Wahrscheinlichkeit, dass die Summe der Gewinne
beider Firmen die 100-Millionen-Euro-Marke überschreitet?
Aufgabe 37:
Es gelte
X N (; ).
Wie groÿ sind folgende Wahr-
scheinlichkeiten?
a) P
b) P
(X > + ),
(X ),
c) P
(X 2 [ ; + ]),
Seite 331
Ÿ1.1
x gilt
P (X > + x ) = 0:1,
P (X x) = 0:1,
P (X 2 [
x; + x]) = 0:9 ?
Für welchen Wert
g)
h)
i)
Übung 10
Aufgabe 38: Das Einkommen von Arbeitern in einem Land sei normalverteilt mit
= 3:5 und = 0:8 (tsd.Euro monatlich).
a) Wie groÿ ist die Wahrscheinlichkeit, dass ein Arbeiter mehr 3500,
aber weniger als 5000 Euro verdient?
b) Ein Arbeiter sagt, 80% seiner Kollegen verdienten mehr als er.
Wieviel zusätzliches Gehalt müsste er bekommen, damit nur noch
50% der Kollegen mehr verdienten?
c) Wie groÿ ist der Erwartungswert und die Standardabweichung des
arithmetischen Mittels von 100 zufällig ausgewählten Arbeitern?
Seite 332
Ÿ1.1
Aufgabe 39: Ein Würfel werde 120 Mal gewürfelt.
a) Geben Sie ein genähertes Intervall an, in dem die Augensumme
mit 90% Wahrscheinlichkeit liegt.
b) Wir betrachten das konkrete Beispiel B1.1. Geben Sie Schätzer
für den Erwartungswert und die Varianz der Augenzahlen an.
c) Schätzen Sie die Standardabweichung des Schätzers für den Erwartungswert.
Aufgabe 40: Wir betrachten das Beispiel B4.1. Stellen Sie einen geeigneten Schätzer auf und überlegen Sie, ob der Schätzer erwartungstreu
und konsistent ist.
Seite 333
Ÿ1.1
Übung 11
Aufgabe 41 : Eine Firma verkauft in 6 Monaten 18,17,19,10,14 und
15 Fahrzeuge. Bestimmen Sie
a) das arithmetische Mittel,
d) das
0:2-Quantil und
b) die Stichprobenvarianz,
c) den Median,
Aufgabe 42:
e) den IQR.
Geben Sie für die Daten in Aufgabe 41 ein 99%-
Kondenzintervall für den Erwartungswert und die Varianz an. Gehen
Sie von normalverteilten Daten aus.
Aufgabe 43: Berechnen Sie für das Beispiel B1.1 ein genähertes
95%-
Kondenzintervall für den Erwartungswert und für die Varianz.
Seite 334
Ÿ1.1
Aufgabe 44:
Ein Spieler gewinnt einen Euro, wenn er bei einem
Münzwurf die richtige Seite vorhersagt, ansonsten verliert er zwei Euro.
Der Spieler startet mit einem Guthaben von 40 Euro.
a) Geben Sie ein genähertes Intervall an, in dem das verbliebene Guthaben des Spielers nach 100 Spielen mit 99% Wahrscheinlichkeit
liegt.
b) Geben Sie eine genäherte Wahrscheinlichkeit dafür an, dann noch
ein positives Guthaben aufzuweisen.
Seite 335
Ÿ1.1
Übung 12
Aufgabe 45 : Für zwei Studiengänge A und B werden 2016 an einer
Hochschule insgesamt 1000 Studenten eingeschrieben. Davon entfallen
auf die verschiedenen Studiengänge und Geschlechter:
A
B
m
250
100
w
450
200
a) Sind die beiden Merkmale Studiengang (=X) und Geschlecht (=Y)
unabhängig?
b) Berechnen Sie den Pearsonschen Kontingenzkoezienten.
c) Interpretieren Sie das Ergebnis.
Seite 336
Ÿ1.1
Aufgabe 46: Die Anzahl der Studierenden in der Vorlesung Statistik
sei normalverteilt. In 10 Jahren ergeben sich folgende Studierendenzahlen:
88; 75; 72; 87; 99; 80; 70; 59; 69; 84:
a) Geben Sie Schätzer für den Erwartungswert und die Standardabweichung an.
b) Die wahre Standardabweichung sei von nun an
= 10. Geben Sie
ein 90%-Kondenzintervall für den Erwartungswert an.
= 80 ist. Diese Hypothese
b <D
wird zugunsten der Alternative < 80 abgelehnt, wenn ist. Bestimmen Sie die Konstante D so, dass der Fehler erster Art
c) Jemand stellt die Hypothese auf, dass
kleiner als 5% wird.
d) Der wahre Erwartungswert sei in der Tat
= 80. Wie groÿ ist die
Wahrscheinlichkeit, dass ein Raum mit 90 Sitzplätzen zu klein für
die Vorlesung ist?
Seite 337
Ÿ1.1
Übung 13
Aufgabe 47 :
Die Körpergröÿe der Bevölkerung sei in Deutschland
normalverteilt mit Erwartungswert
chung
= 10 cm.
= 170
cm und Standardabwei-
a) Wie groÿ ist die Wahrscheinlichkeit dafür, dass eine zufällig ausgewählten Person über 190 cm groÿ ist?
b) Wie groÿ ist die Wahrscheinlichkeit unter 50 zufällig ausgewählten
Probanden weniger als zwei mit einer Körpergröÿe über 190 cm
zu nden?
c) Für einen Film wird ein Statist mit einer Gröÿe zwischen 190cm
und 195cm gesucht. Wie viele zufällig ausgewählte Kandidaten
muss man im Durchschnitt einladen, bis ein passender Kandidat
gefunden ist?
Seite 338
Ÿ1.1
Aufgabe 48: Gegeben seien folgende Daten aus einer normalverteilten
Grundgesamtheit:
12; 6; 8; 15; 14; 10; 25; 11; 10; 9:
10% die Hypothese H : = 11 gegen die
Alternative H : > 11.
b) Testen Sie zum Niveau 10% die Hypothese H : = 30 gegen
die Alternative 6= 30.
Für eine zweite normalverteilte Stichprobe vom Umfang m = 10 ergibt
sich ein arithmetisches Mittel y = 10 und eine Stichprobenvarianz von
b (y ) = 25.
c) Testen Sie zum Niveau 10% die Hypothese gleicher Erwartungsa) Testen Sie zum Niveau
0
1
0
2
2
2
werte.
d) Testen Sie zum Niveau
10% die Hypothese gleicher Varianzen.
Seite 339
Ÿ1.1
Aufgabe 49
:
Erwartungswert
Der Preis
W
eines Produktes sei normalverteilt mit
= 120 Euro und Varianz = 100 Euro.
2
Bestimmen Sie die Wahrscheinlichkeiten für folgende Ereignisse:
a)
W > 120
d)
b)
W < 120
e)
c)
W > 130
f)
W < 130
110 < W < 130
W > 140 oder W < 100
Seite 340
Ÿ1.1
Übung 14
Aufgabe 50
:
Der Preis
W
eines Produktes sei normalverteilt mit
= 120 Euro und Varianz = 100 Euro. Geben Sie
im folgenden jeweils eine passende Zahl z an.
a) P (W > z ) = 0:1,
c) P (W < z ) = 0:99,
2
Erwartungswert
b) P
(W < z ) = 0:05,
d) P
(jW 120j > z ) = 0:2.
Aufgabe 51: Angeblich wählen 30% aller Wähler eines Landes die Partei A, 20% Partei B, 20% Partei C und 15% die Partei D (die übrigen
Wähler sind Nichtwähler). Eine Umfrage mit 80 Befragten ergibt folgende Häugkeiten:
A
B
C
D
N
20
14
11
19
16
:
Testen Sie mit einem Signikanztest zum Niveau 10%, ob die obige
Aussage plausibel ist.
Seite 341
Ÿ1.1
Aufgabe 52: An vier Standorten A,B,C und D einer Lebensmittelkette werden drei verschiedene Varianten (I,II,III) eines Nahrungsmittels
verkauft. An einem Wochenende ergeben sich folgende Verkaufszahlen.
A
B
C
D
I
10
34
40
25
II
25
29
37
39
III
27
25
26
40
a) Testen Sie zum Niveau 5% die Unabhängigkeit der beiden Merkmale Standort und Variante.
b) Testen Sie zum Niveau 10% die Hypothese, die drei Nahrungsmittelvarianten würden im Verhältnis 3:5:4 verkauft.
Seite 342
Ÿ1.1
Aufgabe 53:
Für 10 Studierende wird die Statistiknote
Mathematiknote
xi
yi
Y
X
und die
verglichen (Noten: 0 bis 15).
3
7
12
11
15
14
11
13
5
7
5
9
11
7
11
12
11
13
6
8
Zeichnen Sie ein Streudiagramm.
Übung 15
Aufgabe 54:
Bei einem Hypothesentest zum Signikanzniveau 10%
der Nullhypothese
die Teststatistik
Höhe von
0:07?
H : = 0 gegen die Alternative H : < 0 wird für
0
1
T = 8 berechnet. Was genau bedeutet der p-Wert in
Seite 343
Ÿ1.1
Aufgabe 55 : (s. Aufgabe 53) Für 10 Studierende wird die Statistiknote
X und die Mathematiknote Y
xi
yi
verglichen (Noten: 0 bis 15).
3
7
12
11
15
14
11
13
5
7
5
9
11
7
11
12
11
13
6
8
a) Berechnen Sie die Schätzer für die Regressionskoezienten.
b) Geben Sie auch die Residuen an.
Aufgabe 56 : Angenommen die Grundgesamtheit in Aufgabe 55 besäÿe eine Normalverteilung.
a) Geben Sie für die
x -Daten ein 99%-Kondenzintervall für den Er-
wartungswert an.
x -Daten zum Signikanzniveau 10% die Hypothese H : = 12 gegen H : > 12.
b) Testen Sie für die
0
1
Seite 344
Ÿ1.2
A.2. Musterlösungen
Lösung 41:
a)
x = 18+17+6 :::+15 = 15:5
b) Zwei mögliche Rechenwege:
6 18 + 17 + : : : + 15 15:5 = 10:7
6
(18
15
:
5)
+
: : : + (15 15:5)
b (x ) =
= 10:7
5
b2 (x ) = 5
2
2
2
2
2
2
2
c) Ordnungsstatistik: 10, 14, 15, 17, 18, 19
xe =
x(3) + x(4)
2
= 16:
Seite 345
Ÿ1.2
d)
x(0:2) = x(b1:2c+1) = x(2) = 14
x(0:25) = x(b1:5c+1) = x(2) = 14
x(0:75) = x(b4:5c+1) = x(5) = 18
e)
Lösung 45:
Es ergeben sich folgende Randhäugkeiten:
A
B
m
250
100
w
450
200
650
700
300
1000
350
a) Nein, denn es ist z.B.
h11 = 0:25 6= 0:35 0:7 = 0:245 = h1 h1
Seite 346
Ÿ1.2
b) Wir berechnen zunächst den Chi-Quadrat-Koezienten:
k X
l
X
nij2  
2 = n 
1 = 0:5232862
n n
i =1 j =1 i j



Damit ergibt sich
C=
s
2
+ n = 0:02286947
2
und dann der Pearsonsche Kontingenzkoezient:
C =
c) Da
s
minfk; l g C = 2 0:02286947 = 0:03234231:
minfk; l g 1
1
r
C sehr nahe bei 0 liegt, können wir von einer weitgehenden Unabhängigkeit
der beiden Merkmale ausgehen.
Seite 347
Ÿ1.2
Lösung 47:
a) Es sei
X die Körpergröÿe einer zufällig ausgewählten Person. Dann ist
P
b) Es sei
N
(X > 190) = P X 10170 > 190 10 170
= P (X > 2) = 1 (2) = 0:0228
die Anzahl von Kandidaten mit einer Körpergröÿe über 190cm.
besitzt eine Binomialverteilung mit
P
(N < 2) = P (N = 0) + P (N = 1)
50 p (1 p)
= 50
p
(1
p
)
+
0
1
= 0:6847559:
0
c) Es sei
M
p = 0:0228 und n = 50. Es gilt also
50
1
N
49
die Anzahl der Kandidaten, die eingeladen werden müssen. Dann ist
Seite 348
Ÿ1.2
M geometrisch verteilt mit Erfolgswahrscheinlichkeit
q =P (190 < X < 195)
190
170
195
170
=P
10 < X < 10
= (2:5) (2) = 0:01654047
Es gilt (s. Seite 287) E
(M ) = 1=q = 60:45779.
Lösung 49:
(W > 120) = 0:5 (Symmetrie der Normalverteilung)
P (W < 120) = 0:5 (Symmetrie der Normalverteilung)
W
>
= P (W > 1) = 1 (1) = 0:1586553
P (W > 130) = P
P (W < 130) = 1
P (W > 130) = 1
0:158655 = 0:8413447
P (110 < W < 130) = P ( 1 < W < 1) = (1)
( 1) = 0:6826895
P (W > 140 oder W < 100) = P (W > 140) + P (W < 100) = P (W > 2) +
P (W <
2) = 2(1 (2)) = 0:04550026
a) P
b)
c)
d)
e)
f)
120
10
130 120
10
Seite 349
Ÿ1.2
Lösung 50:
a)
(W > z ) = 0:1
z 120
, P W > 10 = 0:1 , z 10120 = z :
, z = 120 + z : 10 = 132:8155:
P
09
09
b)
120
= 0:05
P (W < z ) = 0:05 ,
P
10
, z 10120 = z : , z = 120 + z : 10 = 103:5515:
0 05
c)
z
W <
0 05
(W < z ) = 0:99
z 120
, P W < 10 = 0:99
, z 10120 = z :
, z = 120 + z : 10 = 143:2635:
P
0 99
0 99
Seite 350
Ÿ1.2
d)
(jW 120j > z ) = 0:2
, P (W < 120 z ) + P (W > 120 + z ) = 0:2
z
, P W < 10z + P W > 10
= 0:2
P
,
,
,
z
= 0:2 ,
2P W > 10
z
10 = z : = 1:281552
z = 12:81552:
P
z
W > 10 = 0:1
09
Seite 351
Ÿ2.1
B.
Anhang
B.1. Kleine Formelsammlung
B.1.1. Notationen (Deskriptive Statistik)
x
b2 (x ); b2
b2 (x ); b2
b (x ); b
b(x ); b
sxy
rxy
Arithmetisches Mittel
Empirische Varianz (früher Var(x))
\)
Stichprobenvarianz (früher Var(x)
Empirische Standardabweichung (früher (x ))
Stichprobenstandardabweichung
Empirische Kovarianz
Empirischer Korrelationskoezient
Seite 352
Ÿ2.1
B.1.2. Wahrscheinlichkeitstheorie
P A = 1 P (A)
P (A [ B) = P (A) + P (B) P (A \ B)
P (A [ B) = P (A) + P (B)
falls A; B unvereinbar
P (A \ B) = P (A) P (B)
falls A; B unabhängig
P (AjB) = P (A \ B) =P (B)
P (AjB) = P (A)
falls A; B unabhängig
E (aX + b) = aE (X ) + b a; b 2 R
E (X + Y ) = E (X ) + E (Y ) X; Y nicht notw. unabhängig
E (X Y ) = E (X ) E (Y ) falls X; Y unkorelliert
E Pni Xi = n
falls E (X ) = E (X ) = : : : = E X =
falls E (X ) = E (X ) = : : : = =1
1
1
1
1
Seite 353
Ÿ2.1
Var (X ) = E (X E (X )) = E
p
b (X ) = Var (X )
Var (aX + b) = a Var (X )
2
2
X2
E (X )
2
a; b 2 R
a; b 2 R
b (aX + b) = jaj b (X )
Var (X + Y ) = Var (X ) + Var (Y ) + 2Cov(X; Y )
p
b (X + Y ) = b (X ) + b (Y ) + 2Cov(X; Y )
Var (X + Y ) = Var (X ) + Var (Y )
falls X; Y unkorelliert
p
b (X + Y ) = b (X ) + b (Y )
falls X; Y unabhängig
2
2
2
2
Seite 354
Ÿ2.1
B.1.3. Schätzer und Kondenzintervalle
Schätzer für..
b = X
b2 =
Pn
i =1 (Xi
n
1
KI für..
KI
h
b z1
b+z
p
=2 pn ; 1 =2 n
h
b t1
=2;n
2
h
2
1
X )2
i
pbn ; b + t1 =2;n
i
nb2
nb2
n;1 =2 ; n;=2
h
i
b2
b2
(n 1)
(n 1)
n 1;1 =2 ; n 1;=2
Eigenschaften
erwartungstreu, konsistent
erwartungstreu, konsistent
1
pbn
i
Voraussetzung
Xi normalverteilt, bekannt
Xi normalverteilt, unbekannt
Xi normalverteilt, bekannt
Xi normalverteilt, unbekannt
Seite 355
Ÿ2.2
B.2. Tabellen
B.2.1. Quantile z der Normalverteilung
Es gilt
z
0.8
0.9
0.95
0.975
0.99
0.995
0.999
0.842
1.282
1.645
1.960
2.326
2.576
3.090
z
0.2
0.1
0.05
0.025
0.01
0.005
0.001
-0.842
-1.282
-1.645
-1.960
-2.326
- 2.576
-3.090
(x ) = genau dann, wenn x = zv ist.
Beispiel: Eine Zufallsvariable
X
besitze eine Standardnormalverteilung.
Dann gilt
P
(X > z ) = 5% , (z ) = 0:95 , z = z : = 1:645:
0 95
Seite 356
Ÿ2.2
B.2.2. Verteilungsfunktion
(x ) der Normalverteilung
Angegeben sind die Werte für die Verteilungsfunktion, z.B.
(1:46) = 0:928
= 10
und Standardabweichung = 8. Mit welcher Wahrscheinlichkeit ist X
Beispiel:
X
besitzt eine Normalverteilung mit Erwartungswert
positiv?
Es gilt
X 10
0
10
P (X > 0) = P
8 > 8
= P (X > 5=4) = 1 ( 1:25)
= (1:25) = 0:894:
Seite 357
Ÿ2.2
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
2
2.1
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9
3
0
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
0.1
0.500
0.540
0.579
0.618
0.655
0.691
0.726
0.758
0.788
0.816
0.841
0.864
0.885
0.903
0.919
0.933
0.945
0.955
0.964
0.971
0.977
0.982
0.986
0.989
0.992
0.994
0.995
0.997
0.997
0.998
0.999
0.504
0.544
0.583
0.622
0.659
0.695
0.729
0.761
0.791
0.819
0.844
0.867
0.887
0.905
0.921
0.934
0.946
0.956
0.965
0.972
0.978
0.983
0.986
0.990
0.992
0.994
0.995
0.997
0.998
0.998
0.999
0.508
0.548
0.587
0.626
0.663
0.698
0.732
0.764
0.794
0.821
0.846
0.869
0.889
0.907
0.922
0.936
0.947
0.957
0.966
0.973
0.978
0.983
0.987
0.990
0.992
0.994
0.996
0.997
0.998
0.998
0.999
0.512
0.552
0.591
0.629
0.666
0.702
0.736
0.767
0.797
0.824
0.848
0.871
0.891
0.908
0.924
0.937
0.948
0.958
0.966
0.973
0.979
0.983
0.987
0.990
0.992
0.994
0.996
0.997
0.998
0.998
0.999
0.516
0.556
0.595
0.633
0.670
0.705
0.739
0.770
0.800
0.826
0.851
0.873
0.893
0.910
0.925
0.938
0.949
0.959
0.967
0.974
0.979
0.984
0.987
0.990
0.993
0.994
0.996
0.997
0.998
0.998
0.999
0.520
0.560
0.599
0.637
0.674
0.709
0.742
0.773
0.802
0.829
0.853
0.875
0.894
0.911
0.926
0.939
0.951
0.960
0.968
0.974
0.980
0.984
0.988
0.991
0.993
0.995
0.996
0.997
0.998
0.998
0.999
0.524
0.564
0.603
0.641
0.677
0.712
0.745
0.776
0.805
0.831
0.855
0.877
0.896
0.913
0.928
0.941
0.952
0.961
0.969
0.975
0.980
0.985
0.988
0.991
0.993
0.995
0.996
0.997
0.998
0.998
0.999
0.528
0.567
0.606
0.644
0.681
0.716
0.749
0.779
0.808
0.834
0.858
0.879
0.898
0.915
0.929
0.942
0.953
0.962
0.969
0.976
0.981
0.985
0.988
0.991
0.993
0.995
0.996
0.997
0.998
0.999
0.999
0.532
0.571
0.610
0.648
0.684
0.719
0.752
0.782
0.811
0.836
0.860
0.881
0.900
0.916
0.931
0.943
0.954
0.962
0.970
0.976
0.981
0.985
0.989
0.991
0.993
0.995
0.996
0.997
0.998
0.999
0.999
0.536
0.575
0.614
0.652
0.688
0.722
0.755
0.785
0.813
0.839
0.862
0.883
0.901
0.918
0.932
0.944
0.954
0.963
0.971
0.977
0.982
0.986
0.989
0.992
0.994
0.995
0.996
0.997
0.998
0.999
0.999
0.540
0.579
0.618
0.655
0.691
0.726
0.758
0.788
0.816
0.841
0.864
0.885
0.903
0.919
0.933
0.945
0.955
0.964
0.971
0.977
0.982
0.986
0.989
0.992
0.994
0.995
0.997
0.997
0.998
0.999
0.999
Seite 358
Ÿ2.2
tn; der t-Verteilung
Eine Zufallsvariable T hat eine t-Verteilung mit 10 Freiheitsgraden. Wir
wollen z so bestimmen, dass
B.2.3. Quantile
P
(T < z ) = 0:9
ist.
Es gilt
P
(T < z ) = 0:9 , z = t
;:
10 0 9
= 1:372:
Seite 359
Ÿ2.2
2
3
4
5
6
7
8
9
10
19
20
29
30
39
40
49
50
59
60
69
70
79
80
89
90
99
100
109
110
119
120
0.001
0.01
0.025
0.05
0.1
0.9
0.95
0.975
0.99
0.999
-22.327
-10.215
-7.173
-5.893
-5.208
-4.785
-4.501
-4.297
-4.144
-3.579
-3.552
-3.396
-3.385
-3.313
-3.307
-3.265
-3.261
-3.234
-3.232
-3.213
-3.211
-3.197
-3.195
-3.184
-3.183
-3.175
-3.174
-3.167
-3.166
-3.160
-3.160
-6.965
-4.541
-3.747
-3.365
-3.143
-2.998
-2.896
-2.821
-2.764
-2.539
-2.528
-2.462
-2.457
-2.426
-2.423
-2.405
-2.403
-2.391
-2.390
-2.382
-2.381
-2.374
-2.374
-2.369
-2.368
-2.365
-2.364
-2.361
-2.361
-2.358
-2.358
-4.303
-3.182
-2.776
-2.571
-2.447
-2.365
-2.306
-2.262
-2.228
-2.093
-2.086
-2.045
-2.042
-2.023
-2.021
-2.010
-2.009
-2.001
-2.000
-1.995
-1.994
-1.990
-1.990
-1.987
-1.987
-1.984
-1.984
-1.982
-1.982
-1.980
-1.980
-2.920
-2.353
-2.132
-2.015
-1.943
-1.895
-1.860
-1.833
-1.812
-1.729
-1.725
-1.699
-1.697
-1.685
-1.684
-1.677
-1.676
-1.671
-1.671
-1.667
-1.667
-1.664
-1.664
-1.662
-1.662
-1.660
-1.660
-1.659
-1.659
-1.658
-1.658
-1.886
-1.638
-1.533
-1.476
-1.440
-1.415
-1.397
-1.383
-1.372
-1.328
-1.325
-1.311
-1.310
-1.304
-1.303
-1.299
-1.299
-1.296
-1.296
-1.294
-1.294
-1.292
-1.292
-1.291
-1.291
-1.290
-1.290
-1.289
-1.289
-1.289
-1.289
1.886
1.638
1.533
1.476
1.440
1.415
1.397
1.383
1.372
1.328
1.325
1.311
1.310
1.304
1.303
1.299
1.299
1.296
1.296
1.294
1.294
1.292
1.292
1.291
1.291
1.290
1.290
1.289
1.289
1.289
1.289
2.920
2.353
2.132
2.015
1.943
1.895
1.860
1.833
1.812
1.729
1.725
1.699
1.697
1.685
1.684
1.677
1.676
1.671
1.671
1.667
1.667
1.664
1.664
1.662
1.662
1.660
1.660
1.659
1.659
1.658
1.658
4.303
3.182
2.776
2.571
2.447
2.365
2.306
2.262
2.228
2.093
2.086
2.045
2.042
2.023
2.021
2.010
2.009
2.001
2.000
1.995
1.994
1.990
1.990
1.987
1.987
1.984
1.984
1.982
1.982
1.980
1.980
6.965
4.541
3.747
3.365
3.143
2.998
2.896
2.821
2.764
2.539
2.528
2.462
2.457
2.426
2.423
2.405
2.403
2.391
2.390
2.382
2.381
2.374
2.374
2.369
2.368
2.365
2.364
2.361
2.361
2.358
2.358
22.327
10.215
7.173
5.893
5.208
4.785
4.501
4.297
4.144
3.579
3.552
3.396
3.385
3.313
3.307
3.265
3.261
3.234
3.232
3.213
3.211
3.197
3.195
3.184
3.183
3.175
3.174
3.167
3.166
3.160
3.160
Seite 360
Ÿ2.2
B.2.4. Quantile
n; der Chi-Quadrat-Verteilung
Im Rahmen eines Chi-Quadrat-Tests ergibt sich für die Teststatistik
T = 19:
T
hat eine Chi-Quadrat-Verteilung mit 59 Freiheitsgraden, d.h. als kri-
tischen Wert für den Test erhalten wir bei einem Niveau von 5%
;:
59 0 05
Da
T <
;:
59 0 05
= 42:339:
lehnen wir die Hypothese nicht ab.
Seite 361
Ÿ2.2
2
3
4
5
6
7
8
9
10
18
19
20
28
29
30
38
39
40
48
49
50
58
59
60
68
69
70
98
99
100
0.01
0.025
0.05
0.1
0.9
0.95
0.975
0.99
0.020
0.115
0.297
0.554
0.872
1.239
1.646
2.088
2.558
7.015
7.633
8.260
13.565
14.256
14.953
20.691
21.426
22.164
28.177
28.941
29.707
35.913
36.698
37.485
43.838
44.639
45.442
68.396
69.230
70.065
0.051
0.216
0.484
0.831
1.237
1.690
2.180
2.700
3.247
8.231
8.907
9.591
15.308
16.047
16.791
22.878
23.654
24.433
30.755
31.555
32.357
38.844
39.662
40.482
47.092
47.924
48.758
72.501
73.361
74.222
0.103
0.352
0.711
1.145
1.635
2.167
2.733
3.325
3.940
9.390
10.117
10.851
16.928
17.708
18.493
24.884
25.695
26.509
33.098
33.930
34.764
41.492
42.339
43.188
50.020
50.879
51.739
76.164
77.046
77.929
0.211
0.584
1.064
1.610
2.204
2.833
3.490
4.168
4.865
10.865
11.651
12.443
18.939
19.768
20.599
27.343
28.196
29.051
35.949
36.818
37.689
44.696
45.577
46.459
53.548
54.438
55.329
80.541
81.449
82.358
4.605
6.251
7.779
9.236
10.645
12.017
13.362
14.684
15.987
25.989
27.204
28.412
37.916
39.087
40.256
49.513
50.660
51.805
60.907
62.038
63.167
72.160
73.279
74.397
83.308
84.418
85.527
116.315
117.407
118.498
5.991
7.815
9.488
11.070
12.592
14.067
15.507
16.919
18.307
28.869
30.144
31.410
41.337
42.557
43.773
53.384
54.572
55.758
65.171
66.339
67.505
76.778
77.931
79.082
88.250
89.391
90.531
122.108
123.225
124.342
7.378
9.348
11.143
12.833
14.449
16.013
17.535
19.023
20.483
31.526
32.852
34.170
44.461
45.722
46.979
56.896
58.120
59.342
69.023
70.222
71.420
80.936
82.117
83.298
92.689
93.856
95.023
127.282
128.422
129.561
9.210
11.345
13.277
15.086
16.812
18.475
20.090
21.666
23.209
34.805
36.191
37.566
48.278
49.588
50.892
61.162
62.428
63.691
73.683
74.919
76.154
85.950
87.166
88.379
98.028
99.228
100.425
133.476
134.642
135.807
Seite 362
Ÿ2.2
B.2.5. Quantile
T
P
F n;m ; der F-Verteilung
(
)
besitzte eine F-Verteilung mit
5
und
9
Freiheitsgraden. Es soll
(T > z ) = 0:05 gelten. Wie groÿ muss man z wählen?
P
(T > z ) = 0:01 , z = F
; ;:
(5 9) 0 95
= 3:482:
In der Tabelle stehen in der ersten Spalte die Werte von
ersten Zeile die Werte für
m.
n,
in der
Seite 363
Ÿ2.2
= 0:005
2
3
4
5
7
9
14
19
24
29
34
39
44
49
54
59
64
69
74
79
84
89
94
99
104
109
114
119
124
2
3
4
9
15
19
29
39
49
69
99
0.005
0.020
0.038
0.055
0.081
0.099
0.126
0.141
0.150
0.156
0.161
0.164
0.167
0.169
0.171
0.172
0.174
0.175
0.176
0.176
0.177
0.178
0.178
0.179
0.179
0.180
0.180
0.180
0.181
0.005
0.021
0.041
0.060
0.092
0.115
0.150
0.169
0.181
0.190
0.196
0.200
0.204
0.207
0.209
0.211
0.213
0.214
0.216
0.217
0.218
0.219
0.219
0.220
0.221
0.221
0.222
0.222
0.223
0.005
0.022
0.043
0.064
0.099
0.126
0.167
0.190
0.205
0.215
0.222
0.228
0.232
0.236
0.239
0.241
0.243
0.245
0.247
0.248
0.249
0.250
0.251
0.252
0.253
0.254
0.254
0.255
0.256
0.005
0.023
0.047
0.073
0.117
0.153
0.212
0.247
0.271
0.287
0.299
0.309
0.316
0.322
0.327
0.332
0.335
0.338
0.341
0.344
0.346
0.348
0.349
0.351
0.352
0.354
0.355
0.356
0.357
0.005
0.023
0.049
0.076
0.126
0.166
0.235
0.279
0.308
0.329
0.345
0.357
0.367
0.375
0.382
0.388
0.393
0.397
0.401
0.404
0.407
0.410
0.412
0.414
0.416
0.418
0.420
0.421
0.423
0.005
0.023
0.049
0.077
0.128
0.171
0.245
0.291
0.323
0.347
0.364
0.378
0.389
0.398
0.406
0.413
0.418
0.423
0.427
0.431
0.434
0.437
0.440
0.443
0.445
0.447
0.449
0.450
0.452
0.005
0.024
0.050
0.079
0.132
0.177
0.258
0.310
0.347
0.374
0.395
0.411
0.424
0.435
0.445
0.453
0.460
0.466
0.471
0.476
0.480
0.483
0.487
0.490
0.493
0.495
0.498
0.500
0.502
0.005
0.024
0.051
0.080
0.135
0.181
0.265
0.321
0.361
0.390
0.413
0.431
0.446
0.458
0.468
0.477
0.485
0.492
0.498
0.503
0.508
0.512
0.516
0.520
0.523
0.526
0.529
0.531
0.534
0.005
0.024
0.051
0.080
0.136
0.183
0.270
0.328
0.369
0.400
0.425
0.444
0.460
0.473
0.485
0.494
0.503
0.510
0.517
0.523
0.528
0.533
0.537
0.541
0.545
0.548
0.551
0.554
0.556
0.005
0.024
0.051
0.081
0.137
0.186
0.276
0.336
0.380
0.413
0.440
0.461
0.478
0.493
0.505
0.516
0.526
0.534
0.541
0.548
0.554
0.559
0.564
0.569
0.573
0.577
0.580
0.583
0.587
0.005
0.024
0.051
0.081
0.139
0.188
0.280
0.343
0.389
0.424
0.452
0.474
0.493
0.509
0.523
0.535
0.545
0.554
0.563
0.570
0.577
0.583
0.588
0.593
0.598
0.602
0.606
0.610
0.613
Seite 364
Ÿ2.2
= 0:05
2
3
4
5
7
9
14
19
24
29
34
39
44
49
54
59
64
69
74
79
84
89
94
99
104
109
114
119
124
2
3
4
9
15
19
29
39
49
69
99
0.053
0.105
0.144
0.173
0.211
0.235
0.267
0.284
0.294
0.301
0.305
0.309
0.312
0.314
0.316
0.317
0.318
0.320
0.320
0.321
0.322
0.323
0.323
0.324
0.324
0.325
0.325
0.325
0.326
0.052
0.108
0.152
0.185
0.230
0.259
0.299
0.320
0.332
0.341
0.347
0.351
0.355
0.358
0.360
0.362
0.364
0.365
0.367
0.368
0.369
0.369
0.370
0.371
0.371
0.372
0.373
0.373
0.373
0.052
0.110
0.157
0.193
0.243
0.275
0.321
0.345
0.360
0.370
0.377
0.383
0.387
0.390
0.393
0.396
0.398
0.399
0.401
0.402
0.403
0.404
0.405
0.406
0.407
0.407
0.408
0.409
0.409
0.052
0.113
0.167
0.210
0.272
0.315
0.378
0.413
0.435
0.450
0.461
0.469
0.476
0.481
0.486
0.490
0.493
0.495
0.498
0.500
0.502
0.503
0.505
0.506
0.507
0.508
0.509
0.510
0.511
0.051
0.115
0.171
0.217
0.285
0.333
0.406
0.448
0.474
0.493
0.507
0.518
0.526
0.533
0.539
0.544
0.548
0.551
0.554
0.557
0.560
0.562
0.564
0.565
0.567
0.568
0.570
0.571
0.572
0.051
0.115
0.172
0.219
0.289
0.339
0.417
0.461
0.490
0.511
0.526
0.538
0.547
0.555
0.561
0.566
0.571
0.575
0.578
0.581
0.584
0.587
0.589
0.591
0.593
0.594
0.596
0.597
0.598
0.051
0.116
0.174
0.222
0.296
0.349
0.432
0.481
0.514
0.537
0.555
0.569
0.580
0.589
0.596
0.603
0.608
0.613
0.617
0.621
0.624
0.627
0.630
0.632
0.634
0.636
0.638
0.640
0.641
0.051
0.116
0.175
0.224
0.299
0.353
0.441
0.493
0.528
0.553
0.572
0.587
0.599
0.609
0.617
0.624
0.630
0.636
0.640
0.645
0.648
0.652
0.655
0.657
0.660
0.662
0.664
0.666
0.668
0.051
0.117
0.175
0.225
0.301
0.357
0.446
0.500
0.536
0.563
0.583
0.599
0.612
0.622
0.631
0.639
0.645
0.651
0.656
0.661
0.665
0.669
0.672
0.675
0.678
0.680
0.682
0.685
0.687
0.051
0.117
0.176
0.226
0.304
0.360
0.452
0.508
0.547
0.575
0.596
0.614
0.627
0.639
0.649
0.657
0.665
0.671
0.677
0.682
0.686
0.691
0.694
0.698
0.701
0.704
0.706
0.709
0.711
0.051
0.117
0.177
0.227
0.305
0.363
0.457
0.515
0.555
0.585
0.607
0.626
0.641
0.653
0.664
0.673
0.681
0.688
0.694
0.700
0.705
0.709
0.714
0.717
0.721
0.724
0.727
0.730
0.732
Seite 365
Ÿ2.2
= 0:95
2
3
4
5
7
9
14
19
24
29
34
39
44
49
54
59
64
69
74
79
84
89
94
99
104
109
114
119
124
2
3
4
9
15
19
29
39
49
69
99
19.000
19.164
19.247
19.296
19.353
19.385
19.424
19.443
19.454
19.461
19.466
19.470
19.473
19.475
19.477
19.479
19.480
19.481
19.482
19.483
19.484
19.484
19.485
19.486
19.486
19.487
19.487
19.487
19.488
9.552
9.277
9.117
9.013
8.887
8.812
8.715
8.667
8.639
8.620
8.606
8.596
8.588
8.582
8.577
8.573
8.569
8.566
8.563
8.561
8.559
8.557
8.556
8.554
8.553
8.552
8.551
8.550
8.549
6.944
6.591
6.388
6.256
6.094
5.999
5.873
5.811
5.774
5.750
5.732
5.719
5.709
5.701
5.694
5.689
5.684
5.680
5.677
5.674
5.671
5.668
5.666
5.664
5.663
5.661
5.660
5.658
5.657
4.256
3.863
3.633
3.482
3.293
3.179
3.025
2.948
2.900
2.869
2.846
2.829
2.815
2.805
2.796
2.789
2.782
2.777
2.772
2.768
2.765
2.761
2.759
2.756
2.754
2.752
2.750
2.748
2.746
3.682
3.287
3.056
2.901
2.707
2.588
2.424
2.340
2.288
2.253
2.227
2.208
2.192
2.180
2.170
2.162
2.154
2.148
2.143
2.138
2.134
2.130
2.127
2.124
2.121
2.119
2.117
2.114
2.113
3.522
3.127
2.895
2.740
2.544
2.423
2.256
2.168
2.114
2.077
2.050
2.030
2.014
2.001
1.990
1.981
1.974
1.967
1.961
1.956
1.952
1.948
1.944
1.941
1.938
1.935
1.933
1.931
1.929
3.328
2.934
2.701
2.545
2.346
2.223
2.050
1.958
1.901
1.861
1.832
1.809
1.792
1.777
1.766
1.756
1.747
1.740
1.733
1.727
1.722
1.718
1.714
1.710
1.707
1.704
1.701
1.699
1.696
3.238
2.845
2.612
2.456
2.255
2.131
1.954
1.860
1.800
1.759
1.728
1.704
1.686
1.670
1.658
1.647
1.638
1.630
1.623
1.617
1.611
1.607
1.602
1.598
1.595
1.591
1.588
1.585
1.583
3.187
2.794
2.561
2.404
2.203
2.077
1.899
1.803
1.742
1.699
1.667
1.643
1.623
1.607
1.594
1.583
1.573
1.565
1.557
1.551
1.545
1.540
1.535
1.531
1.527
1.524
1.520
1.517
1.515
3.130
2.737
2.505
2.348
2.145
2.019
1.838
1.739
1.676
1.632
1.599
1.573
1.552
1.536
1.521
1.509
1.499
1.490
1.482
1.475
1.469
1.463
1.458
1.453
1.449
1.445
1.442
1.439
1.436
3.088
2.696
2.464
2.306
2.103
1.976
1.793
1.693
1.628
1.582
1.548
1.521
1.499
1.482
1.467
1.454
1.443
1.433
1.425
1.417
1.411
1.405
1.399
1.394
1.389
1.385
1.381
1.378
1.375
Seite 366
Ÿ2.2
= 0:995
2
3
4
5
7
9
14
19
24
29
34
39
44
49
54
59
64
69
74
79
84
89
94
99
104
109
114
119
124
2
3
4
9
15
19
29
39
49
69
99
199.000
199.166
199.250
199.300
199.357
199.388
199.428
199.447
199.458
199.465
199.470
199.474
199.477
199.479
199.481
199.483
199.484
199.485
199.486
199.487
199.488
199.488
199.489
199.489
199.490
199.490
199.491
199.491
199.492
49.799
47.467
46.195
45.392
44.434
43.882
43.172
42.826
42.622
42.487
42.392
42.320
42.265
42.221
42.185
42.155
42.130
42.108
42.089
42.073
42.058
42.045
42.034
42.024
42.014
42.006
41.998
41.991
41.984
26.284
24.259
23.155
22.456
21.622
21.139
20.515
20.210
20.030
19.911
19.826
19.763
19.713
19.674
19.642
19.616
19.593
19.574
19.557
19.542
19.530
19.518
19.508
19.499
19.490
19.483
19.476
19.470
19.464
10.107
8.717
7.956
7.471
6.885
6.541
6.089
5.864
5.729
5.639
5.575
5.527
5.489
5.459
5.435
5.414
5.397
5.382
5.369
5.358
5.348
5.339
5.331
5.324
5.317
5.311
5.306
5.301
5.297
7.701
6.476
5.803
5.372
4.847
4.536
4.122
3.913
3.786
3.701
3.639
3.593
3.557
3.528
3.504
3.484
3.467
3.452
3.440
3.429
3.419
3.410
3.402
3.395
3.389
3.383
3.378
3.373
3.369
7.093
5.916
5.268
4.853
4.345
4.043
3.638
3.432
3.306
3.221
3.160
3.114
3.077
3.048
3.024
3.004
2.987
2.972
2.959
2.948
2.938
2.929
2.922
2.914
2.908
2.902
2.897
2.892
2.887
6.396
5.276
4.659
4.262
3.775
3.483
3.088
2.885
2.759
2.674
2.612
2.565
2.527
2.497
2.473
2.452
2.434
2.419
2.405
2.394
2.383
2.374
2.366
2.358
2.351
2.345
2.339
2.334
2.329
6.088
4.995
4.392
4.004
3.526
3.239
2.848
2.645
2.519
2.433
2.369
2.321
2.283
2.252
2.227
2.205
2.187
2.171
2.157
2.145
2.134
2.124
2.116
2.108
2.100
2.094
2.088
2.082
2.077
5.915
4.838
4.243
3.860
3.387
3.102
2.713
2.510
2.384
2.296
2.233
2.183
2.145
2.113
2.087
2.065
2.046
2.029
2.015
2.002
1.991
1.981
1.972
1.964
1.956
1.950
1.943
1.938
1.932
5.727
4.667
4.081
3.703
3.237
2.955
2.568
2.364
2.236
2.148
2.083
2.033
1.993
1.960
1.933
1.910
1.890
1.873
1.858
1.845
1.833
1.822
1.812
1.804
1.796
1.789
1.782
1.776
1.770
5.592
4.545
3.966
3.592
3.130
2.850
2.464
2.260
2.131
2.041
1.975
1.923
1.882
1.849
1.820
1.797
1.776
1.758
1.742
1.728
1.716
1.705
1.695
1.685
1.677
1.669
1.662
1.656
1.650
Seite 367
Ÿ3.1
C.
Hinweise zur Klausur
C.1. Hilfsmittel
Als Hilfsmittel sind zugelassen:
Taschenrechner
Eine gedruckte oder handschriftliche Formelsammlung
Das komplette Vorlesungsskript, auch mit handschriftlichen Notizen, allerdings nicht mit Notizen zu den Lösungen, die wir in der
Übung erarbeitet haben.
Generell nicht zugelassen sind Aufzeichnungen aus den Übungen.
Seite 368
Ÿ3.2
C.2. Welche Abschnitte und Gegenstände werden nicht
abgefragt?
Kombinatorik (3.2)
Schätzen ohne Zurücklegen (4.2.5)
Beispielregression mit R (4.4.7)
Der Satz von Moivre-Laplace (S. 224)
Die Gütefunktion.
Im Kapitel Einfache lineare Regression (4.4): Testverfahren und
Kondenzintervalle.
Seite 369
Ÿ3.3
C.3. Grundsätzliches
Lesen Sie sich die Aufgaben genau durch!
Beantworten Sie nur die Aufgabenstellung!
Geben Sie den Rechenweg an!
Sie können in 120 Minuten insgesamt 120 Punkte erreichen (also
maximal 1 Punkt/Minute). Als bestanden gilt eine Klausur bei
einer erreichten Punktzahl
60.
Folgefehler nur dann negativ bewertet, wenn sich aus dem begangenen Fehler eine deutliche Vereinfachung der übrigen Aufgaben
ergibt.
Seite 370
Herunterladen