STATISTIK Wintersemester 2016/2017 Vorlesungsfolien Andreas Löpker, HTW Dresden 7. Februar 2017 Inhaltsverzeichnis 1 2 Einführung 1 1.1 Was ist Statistik? . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2 R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Deskriptive Statistik 2.1 2.2 2.3 2.4 Ausgangspunkt 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.1.1 Die Grundgesamtheit . . . . . . . . . . . . . . . . . . . 6 2.1.2 Stichproben . . . . . . . . . . . . . . . . . . . . . . . . 8 2.1.3 Merkmale . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.4 Klassikation von Merkmalen Kenngröÿen univariater Daten . . . . . . . . . . . . . . 9 11 . . . . . . . . . . . . . . . . . . . . 16 2.2.1 Stichproben . . . . . . . . . . . . . . . . . . . . . . . . 16 2.2.2 Häugkeiten 2.2.3 Klassenbildung 2.2.4 Empirische Verteilungsfunktion . . . . . . . . . . . . . . Diagramme und Graken . . . . . . . . . . . . . . . . . . . . . . . 17 . . . . . . . . . . . . . . . . . . . . . . 21 26 . . . . . . . . . . . . . . . . . . . . . . . 30 2.3.1 Stab- und Säulendiagramme . . . . . . . . . . . . . . . 30 2.3.2 Kreis- und Tortendiagramme . . . . . . . . . . . . . . . 32 2.3.3 Histogramm und empirische Dichtefunktion . . . . . . . 33 Lagemaÿe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 2.4.1 Arithmetisches Mittel . . . . . . . . . . . . . . . . . . . 38 1 0.0 2.5 2.4.2 Arithmetisches Mittel für klassierte Daten . . . . . . . . 43 2.4.3 Arithmetisches Mittel für gepoolte Daten . . . . . . . . 44 2.4.4 Die Ordnungsstatistik 46 2.4.5 Getrimmtes Mittel 2.4.6 Median 2.4.7 Quantile und Quartile . . . . . . . . . . . . . . . . . . 53 2.4.8 Das geometrische Mittel . . . . . . . . . . . . . . . . . 54 2.4.9 Weitere Mittelwerte Streuungsmaÿe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 . . . . . . . . . . . . . . . . . . . . . . . . . . 50 . . . . . . . . . . . . . . . . . . . 56 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 2.5.1 Varianz und Standardabweichung 2.5.2 Varianz für gepoolte Daten (Varianzzerlegung) . . . . . . . . . . . . . . . . . 65 2.5.3 Spannweite und Interquartilsabstand . . . . . . . . . . . 67 2.5.4 Variationskoezient 68 2.5.5 Weitere Streuungsmaÿe . . . . . . . . . . . . . . . . . . . 58 . . . . . . . . . . . . . . . . . 69 2.6 Boxplots . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 2.7 Konzentrationsmaÿe 2.8 . . . . . . . . . . . . . . . . . . . . . . . . . 83 2.7.1 Die Lorenz-Kurve . . . . . . . . . . . . . . . . . . . . . 83 2.7.2 Das Gini-Maÿ . . . . . . . . . . . . . . . . . . . . . . . Bivariate Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.8.1 Häugkeiten und Kontingenztabellen 2.8.2 Unabhängige Merkmale . . . . . . . . . . 2.8.3 Zusammenhangsmaÿe für nominale Daten 2.8.4 Zusammenhangsmaÿe für metrische Daten 2.8.5 Zusammenhangsmaÿe für ordinale Daten . . . . . . . . . . . . . . . . . . . . . . . . 87 89 91 95 97 . . . . . . . 102 . . . . . . . . 107 Seite ii 0.0 3 Wahrscheinlichkeitsrechnung 3.1 3.2 3.3 111 Ereignisse und Wahrscheinlichkeiten 113 3.1.1 Laplace-Experimente . . . . . . . . . . . . . . . . . . . 118 3.1.2 Bedingte Wahrscheinlichkeiten . . . . . . . . . . . . . . 121 3.1.3 Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . 123 Kombinatorik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1 Permutationen . . . . . . . . . . . . . . . . . . . . . . 3.2.2 Variationen und Kombinationen Zufallsvariablen und ihre Verteilungen 125 125 . . . . . . . . . . . . . 126 . . . . . . . . . . . . . . . . 130 3.3.1 Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . 130 3.3.2 Verteilungsfunktionen . . . . . . . . . . . . . . . . . . 131 . . . . . . . . . . . . . . . . . . . . . 136 3.4 Erwartungswert und Varianz 3.5 Das Gesetz der groÿen Zahlen 3.6 Unabhängigkeit und Korrelation 3.7 Fünf wichtige Verteilungen 3.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 . . . . . . . . . . . . . . . . . . . 142 . . . . . . . . . . . . . . . . . . . . . . 144 3.7.1 Die Bernoulli-Verteilung . . . . . . . . . . . . . . . . . 3.7.2 Die Binomialverteilung 144 . . . . . . . . . . . . . . . . . . 145 3.7.3 Die geometrische Verteilung . . . . . . . . . . . . . . . 147 3.7.4 Die Multinomialverteilung 151 3.7.5 Die stetige Gleichverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156 Die Normalverteilung und ihre Verwandten . . . . . . . . . . . . . . 159 3.8.1 Die Standardnormalverteilung 159 3.8.2 Tabellen und Quantile 3.8.3 Der zentrale Grenzwertsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 164 Seite iii 0.0 3.8.4 Abschätzungen . . . . . . . . . . . . . . . . . . . . . . 170 3.8.5 Die allgemeine Normalverteilung . . . . . . . . . . . . . 173 3.8.6 Rechenregeln und Transformationen für die Normalverteilung 4 . . . . . . . . . . . . . . . . . . . . . . . . . . 3.8.7 Die Chi-Quadrat-Verteilung 3.8.8 3.8.9 3.8.10 178 Die t-Verteilung . . . . . . . . . . . . . . . . . . . . . 180 Die F-Verteilung . . . . . . . . . . . . . . . . . . . . . 182 Ein Beispiel zum Schluss . . . . . . . . . . . . . . . . . 184 Induktive Statistik 4.1 189 Punktschätzer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 4.1.1 193 4.1.2 Punktschätzer für den Erwartungswert . . . . . . . . . Punktschätzer für die Varianz bei bekanntem Erwartungswert . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.3 4.2 176 . . . . . . . . . . . . . . . 197 Punktschätzer für die Varianz bei unbekanntem Erwartungswert . . . . . . . . . . . . . . . . . . . . . . . . . 198 Intervallschätzer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 4.2.1 Intervallschätzer für den Erwartungswert bei bekannter Varianz 4.2.2 . . . . . . . . . . . . . . . . . . . . . . . . . . ter Varianz 4.2.3 200 Intervallschätzer für den Erwartungswert bei unbekann. . . . . . . . . . . . . . . . . . . . . . . . 205 Intervallschätzer für die Varianz bei bekanntem Erwartungswert . . . . . . . . . . . . . . . . . . . . . . . . . 209 Seite iv 0.0 4.2.4 4.2.5 4.3 Intervallschätzer für die Varianz bei unbekanntem Erwartungswert . . . . . . . . . . . . . . . . . . . . . . . . . 211 Schätzen ohne Zurücklegen 215 . . . . . . . . . . . . . . Hypothesentests . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216 4.3.1 Idee . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216 4.3.2 Wahl des Ablehnungsbereiches . . . . . . . . . . . . . . 220 4.3.3 Vorgehensweise . . . . . . . . . . . . . . . . . . . . . . 222 4.3.4 Die Gütefunktion . . . . . . . . . . . . . . . . . . . . . 226 4.3.5 Der p-Wert . . . . . . . . . . . . . . . . . . . . . . . . 227 4.3.6 Einstichprobentests für den Erwartungswert bei normalverteilter Grundgesamtheit . . . . . . . . . . . . . . . . 4.3.7 (1) Test bei bekannter Varianz . . . . . . . . . . (2) Test bei unbekannter Varianz (t-Test) . . . . 232 234 Einstichprobentests für die Varianz bei normalverteilter Grundgesamtheit . . . . . . . . . . . . . . . . . . . . . 4.3.8 231 (1) Test bei bekanntem Erwartungswert . . . . . (2) Test bei unbekanntem Erwartungswert . . . . 238 239 244 Zweistichprobentest auf gleiche Erwartungswerte (t-Test) 246 4.3.9 Zweistichprobentest auf gleiche Varianzen (F-Test) . . . 250 4.3.10 Chi-Quadrat-Anpassungstest . . . . . . . . . . . . . . . 254 4.3.11 Weitere Tests auf Normalität 4.3.12 Q-Q-Plots 4.3.13 Der Chi-Quadrat-Homogenitätstest . . . . . . . . . . . 269 4.3.14 Der Chi-Quadrat-Unabhängigkeitstest . . . . . . . . . . 273 . . . . . . . . . . . . . . 261 . . . . . . . . . . . . . . . . . . . . . . . . 262 Seite v 0.0 4.3.15 4.4 A B . . . . . . . . . . . . . . . . . . . . 277 Einfache lineare Regression . . . . . . . . . . . . . . . . . . . . . . Test auf Ausreiÿer 281 4.4.1 Die Kleinste-Quadrate-Methode . . . . . . . . . . . . . 286 4.4.2 Prognosen 292 4.4.3 Standardbedingungen und Güte der Schätzer 4.4.4 Das Bestimmtheitsmaÿ . . . . . . . . . . . . . . . . . . 296 4.4.5 Intervallschätzer 301 4.4.6 Tests zur Anpassungsgüte 4.4.7 Beispielregression mit R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303 . . . . . . . . . . . . . . . . . 306 Übungsaufgaben 313 A.1 Aufgaben A.2 Musterlösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Anhang B.1 B.2 294 313 345 352 Kleine Formelsammlung . . . . . . . . . . . . . . . . . . . . . . . . 352 B.1.1 Notationen (Deskriptive Statistik) . . . . . . . . . . . . 352 B.1.2 Wahrscheinlichkeitstheorie 353 B.1.3 Schätzer und Kondenzintervalle Tabellen B.2.1 B.2.2 B.2.3 B.2.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356 z der Normalverteilung . . . . . . . (x ) der Normalverteilung Quantile tn; der t-Verteilung . . . . . . . . . Quantile n; der Chi-Quadrat-Verteilung . . . Quantile . . . . . 356 Verteilungsfunktion . . . . . 357 . . . . . 359 . . . . . 361 Seite vi 0.0 B.2.5 C Quantile F(n;m); der F-Verteilung . . . . . . . . . . . . Hinweise zur Klausur 363 368 C.1 Hilfsmittel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 368 C.2 Welche Abschnitte und Gegenstände werden nicht abgefragt? . . . 369 C.3 Grundsätzliches . . . . . . . . . . . . . . . . . . . . . . . . . . . . 370 Seite vii 1.0 1. Einführung Beispiel B1.1: Eine Firma stellt Spielwürfel her und überprüft von Zeit zu Zeit ihre Produkte, indem sie Stichproben zieht. Dazu wird ein Würfel ausgewählt und 120 Mal geworfen. Die Anzahl der Würfe für die verschiedenen Augenzahlen wird notiert. Seite 1 1.0 Es ergibt sich folgende Häugkeitstabelle: Augenzahl: 1 2 3 4 5 6 Häugkeit: 15 18 30 18 21 18 Wir können z.B. folgende Fragen stellen: Wie kann man die Daten grasch darstellen? Wie häug sollten die Augenzahlen bei einem fairen Würfel vorkommen? (Ist so eine Frage überhaupt sinnvoll?) Welche Abweichungen sind noch akzeptabel? Kann man sagen, ob der vorliegende Würfel fair ist? Mit welcher Sicherheit ist eine solche Aussage zu machen? Seite 2 1.1 1.1. Was ist Statistik? Erhebung, Erfassung, Darstellung/Präsentation, Analyse und Interpretation von Daten. Man unterscheidet: Deskriptive/beschreibende Statistik: Reduktion von Datenmengen, Darstellung durch Tabellen und Diagramme, Ermittlung aussagekräftiger Kenngröÿen (z.B. Mittelwert, Varianz) Induktive Statistik: Weitere Rückschlüsse durch mathematische Methoden aus der Wahrscheinlichkeitsrechnung (z.B. Schätzen des Erwartungswertes, Hypothesentests) Seite 3 1.1 Woher kommen die Daten? Beispiele: Technische Messungen (z.B. in der Meteorologie) Umfragen (z.B. im Vorfeld von Wahlen oder zur Kundenzufriedenheit) Nutzerstatistiken (z.B. für Internetprovider) Patientendaten Zugverspätungen Jahresberichte von Konzernen Statistische Ämter Finanzdaten: z.B. via Yahoo-Finance ... Seite 4 1.2 1.2. R Die Graken/Analysen in diesem Skript wurden mit R, einer Programmiersprache, die primär für statistische Anwendungen geschaen wurde, erstellt. Begleitend zur Vorlesung kann optional R auf dem Rechner installiert werden (s. erste Übung). Das Erlernen von R ist nicht Gegenstand der Vorlesung und wird nicht von den Studierenden verlangt. Gleichwohl ist ein begleitendes Lernen computergestützter Methoden mit R hilfreich für das Verständnis im Umgang mit Daten. Links: The R Project for Statistical Computing RStudio (GUI) Seite 5 2.1 2. Deskriptive Statistik 2.1. Ausgangspunkt 2.1.1. Die Grundgesamtheit bezeichnet man eine Menge von sogenannten statistischen Einheiten ! 2 . Als Grundgesamtheit (Population) Beispiel B2.1: Beim einmaligen Würfeln kann man als Grundgesamtheit = f1; 2; 3; 4; 5; 6g wählen. Jede der sechs Elemente ist dann eine statistische Einheit. Seite 6 2.1 Beispiel B2.2: Alle Studierenden der HTW Dresden werden im Rahmen einer Umfrage befragt. Wir wählen z.B. = f00000; : : : ; 99999g und identizieren die Studierenden mit ihrer fünfstelligen Matrikelnummer. Beispiel B2.3: Ein Thermometer misst jeden Tag morgens um acht Uhr die Auÿentemperatur. Man kann das Intervall = [ 30; 50] als Grundgesamtheit wählen. Seite 7 2.1 2.1.2. Stichproben Man unterscheidet bei der Datenerhebung zwischen: Vollerhebungen: Erfassung der gesamten Population . Beispiel B2.4)B2 :2 : Alle Studierenden der HTW werden befragt. Teilerhebungen: Erfassung einer Stichprobe S Beispiel B2.5)B2 :2 : Nur die Studierenden der Vorlesung Statistik werden befragt. Teilerhebungen sind kostengünstiger und weniger aufwendig, aber der Statistiker muss von der Stichprobe auf die Grundgesamtheit schlieÿen. Seite 8 2.1 2.1.3. Merkmale Ein Merkmal ist eine Eigenschaft, die jede der statistische Einheiten aufweist. Beispiel B2.6)B2 :2 : Studierende an der HTW werden in einer Umfrage befragt. Folgende drei Merkmale werden erfasst: das Semester, die gesammelten ECTS-Punkte, das Alter, mit Abitur? Für jeden Studierenden ergibt sich für jedes dieser Merkmale jeweils eine Beobachtung, z.B. für den Studierenden mit der Matrikelnummer 60182, Semester=1, ECTS-Punkte=0, Alter=19. Seite 9 2.1 X als Abbildungen aus der Menge in die Menge aller möglichen Merkmalsausprägungen MX auassen: Mathematisch kann man ein Merkmal X : ! MX : Beispiel B2.7)B2 :2 : Das Merkmal Dann ist X eine Abbildung von X repräsentiere die Semesterzahl. = f00000; : : : ; 99999g in die Menge der Merkmalsausprägungen MX = f1; 2; 3; 4; 5; 6; 7; 8; 9; 10g: Seite 10 2.1 2.1.4. Klassikation von Merkmalen Merkmale werden u.a. nach ihrem Skalenniveau eingeteilt: Nominalskala: Keine sinnvolle Anordnung der Ausprägungen. Beispiel B2.8)B2 :2 : Das Merkmal Y nehme die beiden Werte Ja oder Nein an, je nachdem, ob der Studierende das Abitur besitzt oder nicht, es ist also MY = fJa; Neing. Dann ist Y ein nominales Merkmal, denn es gibt keine Reihenfolge unter den Ausprägungen. Beispiel B2.9: An einer Autobahn werden die vorbeifahrenden Wagen notiert. Das Merkmal Automarke ist ein nominales Merkmal. Seite 11 2.1 Ordinalskala: Die Ausprägungen lassen sich anordnen und die Anord- '-Relation. nung macht Sinn. Es gibt eine ' Beispiel B2.10: Die Examensnote von Studierenden ist ein ordinales Merkmal. Beispiel B2.11: Die monatlichen Ausgaben eines Haushalts sind ein ordinales Merkmal. Seite 12 2.1 Intervallskala: Es macht auÿerdem Sinn von einem Abstand bzw. der Dierenz zwischen den Ausprägungen zu sprechen. Kein sinnvoller Nullpunkt und keine Möglichkeit der Multiplikation. Beispiel B2.12: Eine gemessene Temperatur ist intervallskaliert. (Was ist mit dem Nullpunkt?) Beispiel B2.13: Das Merkmal Uhrzeit ist intervallskaliert. Seite 13 2.1 Verhältnisskala: Es macht Sinn von Verhältnissen zwischen den Ausprägungen zu sprechen. Multiplikation und Division machen Sinn, ein Nullpunkt ist vorhanden. Beispiel B2.14: Die Körpergröÿe von Befragten ist verhältnisskaliert. Beispiel B2.15: Das Merkmal Preis für eine Ware ist verhältnisskaliert. Seite 14 2.1 Ein Merkmal ist diskret, wenn es nur abzählbar viele Werte annehmen kann. A heiÿt abzählbar, wenn man ein Verfahren angeben kann, mit dem man an jedes Element in A (Abzählbar) Eine Menge eine eindeutige Nummer 2 N vergeben kann. Beispiel B2.16)B2 :2 : Das Merkmal Lebensalter (angegeben in Jahren) ist ein diskretes Merkmal. Ein Merkmal ist stetig, wenn praktisch jeder Zahlenwert in einem Zahlenintervall als Ausprägung vorkommen kann. Beispiel B2.17: Das Merkmal L, dass die Länge eines gefertigten Werkstücks bezeichnet, ist ein stetiges Merkmal. Seite 15 2.2 2.2. Kenngröÿen univariater Daten Univariate Daten liegen vor, wenn nur ein Merkmal X untersucht wird. 2.2.1. Stichproben Wir betrachten eine Stichprobe des Merkmals X vom Umfang n, also n Beobachtungen x = X (! ); x = X (! ); : : : ; xn = X (!n ): 1 1 2 2 Wir schreiben dafür meistens einfach x ; x ; : : : ; xn : 1 2 Es können natürlich verschiedene Beobachtungen denselben Werte besitzen. Seite 16 2.2 2.2.2. Häugkeiten Es sei nun X zusätzlich diskret, d.h. MX = fa ; a ; a ; : : :g 1 mit den Merkmalsausprägungen 3 ai , i = 1; 2; 3; : : :. (Mächtigkeit einer Menge) der Elemente in einer Menge 2 Wir schreiben A, z.B. ]A für die Anzahl ]f1; 2; 3; 4; 5; 6g = 6; ]fA; B; C g = 3; ]N = 1 Die absolute Häugkeit der Ausprägung ai 2 MX ist der Wert ni = n(ai ) = Anzahl der xj mit xj = ai = ]fj 2 f1; 2; : : : ; ngjxj = ai g: Seite 17 2.2 Beispiel B2.18: Ein Würfel wird X entspreche der Augenzahl, d.h. n = 5 Mal geworfen. Das Merkmal MX = f1; 2; 3; 4; 5; 6g; a = 1; a = 2; : : : ; a = 6: 1 2 6 Die entsprechenden Beobachtungen seien x = 3; x = 6; x = 1; x = 5; x = 6: 1 2 3 4 5 Dann sind die absoluten Häugkeiten der Merkmalsausprägungen gegeben durch n = n(1) = 1; n = n(2) = 0; n = n(3) = 1; n = n(4) = 0; n = n(5) = 1; n = n(6) = 2: 1 2 3 4 5 6 Seite 18 2.2 ai 2 MX n hi = h(ai ) = ni : Die relative Häugkeit der Ausprägung ist der Wert Es gilt 0 hi 1; (2.1) ni = n; (2.2) hi = 1: (2.3) ]MX X i =1 ]M XX i =1 Man drückt die relativen Häugkeiten auch in Prozent aus: Einer relativen Häugkeit von hi entsprechen dann hi 100%. Seite 19 2.2 Die kumulativen absoluten/relativen Häugkeiten sind gegeben durch die Summen Ni = N ( a i ) = n + n + : : : + n i = 1 2 H i = H ( ai ) = h + h + : : : + h i = 1 2 i X k =1 i X k =1 nk ; hk : Beispiel B2.19)B2 :18 : Im obigen Beispiel ergibt sich: i ni hi Ni Hi 1 1 0.2 1 0.2 2 0 0.0 1 0.2 3 1 0.2 2 0.4 4 1 0.2 3 0.6 5 0 0.0 3 0.6 6 2 0.4 5 1.0 Seite 20 2.2 2.2.3. Klassenbildung Ist die Anzahl der Ausprägungen eines Merkmals sehr groÿ oder sogar unendlich, so empehlt es sich, die Daten in Klassen einzuteilen. Die Klassen müssen folgende Eigenschaften erfüllen: Jede Ausprägung muss in einer Klasse vorkommen, Keine zwei Klassen enthalten dieselbe Ausprägung. Natürlich ist die Klasseneinteilung mit einem Informationsverlust verbunden. Faustregeln für die Klassenanzahl p m: m n m 1 + log (n): 2 (Sturges) Seite 21 2.2 Man deniert Klassenhäugkeiten als absolute/relative Häugkeiten, summiert über alle Elemente der Klasse. Für eine Klasse K MX ergibt sich also n (K ) = h (K ) = X a 2K X a 2K n (a ); h (a ): Seite 22 2.2 Beispiel B2.20: Fläche von 407 bundesdeutschen Landkreisen (in 2 km , Quelle: Stat. Bundesamt). Seite 23 2.2 Wir teilen die Merkmalsausprägungen in Klassen ein: K = (0; 500]; K = (500; 1000]; K = (1000; 1500]; K = (1500; 2000]; K = (2000; 1): 1 2 3 4 5 Absolute und relative Häugkeiten: i n ( Ki ) h ( Ki ) 1 129 0.317 2 127 0.312 3 96 0.236 4 30 0.074 5 30 0.074 Seite 24 2.2 Daten sortiert nach der Kreisgröÿe: Seite 25 2.2 2.2.4. Empirische Verteilungsfunktion Die empirische Verteilungsfunktion beschreibt für jedes tive Anzahl von Beobachtungen Fn (x ) = xi mit xi x : x 2 R die rela- ]fi 2 f1; 2; : : : ; ngjxi x g : n Es gilt: 1. 2. 3. Fn (x ) ist monoton steigend (aber nicht streng monoton), 0 Fn (x ) 1, Fn (x ) strebt gegen 0, wenn x gegen 1 strebt, Fn (x ) strebt gegen 1, wenn x gegen 1 strebt, Fn (x ) ist dort konstant, wo keine Beobachtungswerte vorliegen. Seite 26 2.2 Beispiel B2.21)B2 :18 : Ein Würfel wird n = 5 Mal geworfen, die ent- sprechenden Beobachtungen sind: x = 3; x = 6; x = 1; x = 5; x = 6: 1 2 3 4 5 Es ergibt sich folgende empirische Verteilungsfunktion: Seite 27 2.2 Beispiel B2.22)B1 :1 : Im Eingangsbeispiel wurde ein Testwürfel 120 Mal geworfen. Es ergibt sich: Wir werden später sehen, dass Fn (x ) etwa der Verteilungsfunktion der Zufallsvariablen Augenzahl entspricht. Seite 28 2.2 Beispiel B2.23)B2 :20 : Für das Landkreisgröÿen-Beispiel ergibt sich die folgende empirische Verteilungsfunktion: Seite 29 2.3 2.3. Diagramme und Graken 2.3.1. Stab- und Säulendiagramme In Stabdiagrammen werden die relativen/absoluten Häugkeiten als vertikale Linien dargestellt. Beispiel B2.24)B1 :1 : Seite 30 2.3 Im Balkendiagramm verwendet man stattdessen Balken. Beispiel B2.25)B1 :1 : Seite 31 2.3 2.3.2. Kreis- und Tortendiagramme Im Kreisdiagramm werden die relativen Häugkeiten durch Kreissektoren beschrieben. Das Tortendiagramm ist eine dreidimensionale Variante. Beispiel B2.26)B1 :1 : Seite 32 2.3 2.3.3. Histogramm und empirische Dichtefunktion Klassierte Daten kann man übersichtlich in einem Histogramm darstellen. Dabei repräsentiert jeder Balken die absoluten Klassenhäugkeiten der entsprechenden Klasse. Beispiel B2.27: Tagesgewinne/-verluste des DAX vom 1.Januar bis 27.April 2011, in Punkten (Quelle: yahoo.com) Seite 33 2.3 Wenn die Klassen nicht alle gleich groÿ sind, ist es nicht ratsam in Histogrammen absolute oder relative Häugkeiten anzugeben. Beispiel B2.28: 200 Besucher eines Einkaufszentrums werden befragt, über wieviel Geld sie im Monat verfügen (Nettogehalt). Die Befragung ergibt folgende Zahlen: Klasse n (K ) 0-1000 64 40 1000-1500 1500-2000 30 2000-3500 47 3500-1 19 Die 70 Befragten mit Gehältern zwischen 1000 und 2000 Euro und die 19 Befragten über 3500 Euro scheinen in der Grak unter- bzw. überrepräsentiert. Seite 34 2.3 Die empirische Dichtefunktion ist im Falle von Klassenbildung mit Klassen Ki = (ai ; bi ] deniert als h (K ) fn (x ) = b ia ; x 2 Ki : i i (2.4) Vorteil: Im Balkendiagramm ist die Gesamtäche der Balken stets eins. Im Diagramm entspricht nun die Balkenäche der (geschätzten) Wahrscheinlichkeit dafür, dass das Merkmal einen Wert in der entsprechenden Klasse annimmt. Bei klassierten Daten mit unterschiedlich groÿen Klassen besser geeignet als das Standardhistogramm! Seite 35 2.3 Beispiel B2.29)B2 :28 : Vergleich des klassischen Histogramms mit dem Diagramm für die empirische Dichte: Seite 36 2.3 Beispiel B2.30: Einwohnerzahl 187 deutscher Städte am 31.12.2015 (Quelle: http://www.citypopulation.de, Angaben in Mill. Einwohnern). Wir denieren folgende Klassen der Form (a; b] (in Mill. Einw.): n ( K i ) h ( Ki ) fn (Ki ) i a b 1 0 0.1 108 0.578 5.775 2 0.1 0.4 64 0.342 1.141 3 0.4 1.0 11 0.059 0.098 4 1.0 4.0 4 0.021 0.007 Es ergeben sich folgende Diagramme: Seite 37 2.4 2.4. Lagemaÿe Lagemaÿe sind im Allgemeinen für intervall- und verhältnisskalierte Daten (sog. metrische Daten) deniert. Lagemaÿe sollen einen ersten Eindruck über die durchschnittliche Lage der Daten geben. 2.4.1. Arithmetisches Mittel Das arithmetische Mittel (häug einfach Mittelwert) einer Stichprobe x ; x ; : : : ; xn ist deniert als 1 2 x= Pn i =1 xi : n Seite 38 2.4 Das arithmetische Mittel ist eine gewichtete Summe mit jeweils identischen Gewichten 1=n. Das arithmetische Mittel ist linear: ax + b = ax + b; a; b 2 R: Speziell gelten die Identitäten und ax = ax x + y = x + y: Beide Eigenschaften sind mehr oder weniger oensichtlich (Beweis in der Übung). Warnung: Es gilt i.A. keineswegs f (x ) = f (x ), z.B ist (x ) 6= (x ) 2 2 . Seite 39 2.4 Beispiel B2.31)B2 :18 : Ein Würfel wird n = 5 Mal geworfen: x = 3; x = 6; x = 1; x = 5; x = 6: 1 2 3 4 5 Dann ergibt sich x= 3 + 6 + 1 + 5 + 6 = 21 : 5 5 Auÿerdem berechnet man leicht, dass (x ) = 9 + 36 + 15+ 25 + 36 = 107 = 21:4 5 441 = 17:64 (x ) = 21 = 5 25 2 2 aber 2 gilt. Seite 40 2.4 Die Summe der Abweichungen vom Mittelwert ist null: n X i =1 (xi x ) = 0: Das arithmetische Mittel minimiert das mittlere Abweichungsquadrat: n X i =1 (xi c ) 2 . Alternative Formeln: 1 x=n oder auch x= X m 2M X X m2MX m n (m ) m h (m ) Seite 41 2.4 Vorteile des arithmetischen Mittels als Lagemaÿ: Intuitive Formel, die leicht zu berechnen ist. Nachteile: Das arithmetische Mittel ist nicht robust, sondern reagiert empndlich auf Ausreiÿer (s.Übung). Manchmal ist die Interpretation als Mittelwert fragwürdig (s. geometrisches Mittel 2.4.8). Seite 42 2.4 2.4.2. Arithmetisches Mittel für klassierte Daten Angenommen die Daten liegen in 1 2 reduzierter Form in Klassen K ; K ; : : : ; Kn vor. Dabei seien ; ; : : : ; n die entsprechenden Klas1 2 senmittelwerte (z.B. die Intervallmitten). Dann berechnen wir als arithmetisches Mittel x= n X i =1 h(Ki ) i : Oenbar haben wir dabei implizit vorausgesetzt, dass die Daten in ihren Klassen gleichverteilt sind. Der so ermittelte Mittelwert stimmt nicht mit dem arithmetischen Mittel der unklassierten Originaldaten überein. Seite 43 2.4 2.4.3. Arithmetisches Mittel für gepoolte Daten Angenommen es liegen mehrere Stichproben x ;x ;:::;x n x ;x ;:::;x n Stichprobe 1: Stichprobe 2: 11 12 1 1 21 22 2 2 . . . . . . xm ; xm ; : : : ; xmnm Stichprobe m: mit verschiedenen Mittelwerten . . . 1 2 x ; x ; : : : ; x m vor. 1 2 Dann kann man den Mittelwert der gepoolten Daten x ; x ; : : : ; xmnm 11 21 einfach berechnen, ohne die Daten selbst zu kennen: x= m X xk k =1 nk n (gepoolter Mittelwert). Seite 44 2.4 Spezialfall: Möchte man zu einer Stichprobe x ; x ; : : : ; xn 1 einen weiteren Datenpunkt xn +1 x neu = 2 hinzufügen, so ergibt sich n x alt + xn n+1 +1 (2.5) als der neue Mittelwert. Man erkennt, dass für sehr groÿe Werte von n etwa x x neu x alt + nn +1 gilt, d.h. die Änderung des Mittelwertes ist etwa von der Gröÿenordnung xn =n. +1 Seite 45 2.4 2.4.4. Die Ordnungsstatistik Gegeben seien ordinalskalierte Daten x ; x ; : : : ; xn : 1 2 Als Ordnungsstatistik bezeichnet man die in aufsteigender Gröÿe angeordneten Daten x x ::: x n : (1) (2) ( ) Dann ist z.B. x = minfx ; x ; : : : ; xn g; x n = maxfx ; x ; : : : ; xn g: (1) ( ) 1 1 2 2 Seite 46 2.4 2.4.5. Getrimmtes Mittel Das arithmetische Mittel ist anfällig für Ausreiÿer. Das getrimmte Mittel ignoriert die bnc gröÿten und kleinsten Beobachtungen: nX bnc 1 x = n 2bnc xi : i bnc ( ) ( ) = +1 Vorteile: Robust gegen Ausreiÿer. Nachteile: Einige Datenpunkte werden nicht verwendet. Wahl von beliebig. Missbrauch möglich. Seite 47 2.4 Beispiel B2.32: Dreiÿig Jahre lang wurde an einem Ort die Tageshöchsttemperatur am 1.September gemessen: Es ergibt sich ein arithmetisches Mittel von t = 20:3o C Seite 48 2.4 Wir wählen und = 0:1 = 0:2: Seite 49 2.4 2.4.6. Median xe , für die mindestens die e ist und die andere Hälfte xe ist. Hälfte der Beobachtungen x Der (empirische) Median ist die kleinste Zahl Genaue Denition: xe = med (x ) = x bn= c x n= + x n= ( ( 1 2 2 +1) ( 2) Der Median minimiert den Abstand ( 2+1) Pn i =1 jxi ; n=2 62 N ; n=2 2 N c j. Seite 50 2.4 Vorteile des Median: Robust gegen Ausreiÿer Nachteile des Median: Nicht alle Datenpunkte werden berücksichtigt. Seite 51 2.4 Beispiel B2.33)B2 :32 : Ordnungsstatistik der Temperaturen: 9, 11, 13, 13, 16, 16, 16, 16, 17, 18, 18, 18, 19, 19, 20, 20, 20, 21, 21, 21, 21, 22, 22, 22, 25, 26, 29, 32, 34, 34. Da n = 30 ist ergibt sich n=2 2 N, also ist xe = x (15) +x 2 (16) = 20 +2 20 = 20: n = 5 Mal geworfen: Beispiel B2.34)B2 :18 : Ein Würfel wird x = 3; x = 6; x = 1; x = 5; x = 6: 1 Da 2 3 4 5 n=2 62 N ergibt sich für den Median xe = x = 5: (3) Seite 52 2.4 2.4.7. Quantile und Quartile Das -Quantil ist die kleinste Zahl xe für die mindestens n der Daten xe sind: x bnc x n + x n ( xe = ( 1 2 Der Median ist das Die +1) ( ) ( +1) ; n 62 N ; n 2 N 50%-Quantil. 25%- und 75%-Quantile heiÿen auch unteres und oberes Quartil. Beispiel B2.35)B2 :32 : Ordnungsstatistik der Temperaturen: 9, 11, 13, 13, 16, 16, 16, 16, 17, 18, 18, 18, 19, 19, 20, 20, 20, 21, 21, 21, 21, 22, 22, 22, 25, 26, 29, 32, 34, 34. Dann ergibt sich für das untere Quartil xe : = x b : c 0 25 ( 7 5 +1) = x = 16: (8) Seite 53 2.4 2.4.8. Das geometrische Mittel Beispiel B2.36: Ein Aktienindex steigt in drei Jahren zunächst um 15%, dann um 21% und sinkt schlieÿlich um 12%. Wie groÿ ist das durchschnittliche Wachstum? Insgesamt steigt der Index um den Faktor also um knapp 22%. 1:15 1:21 0:92 = 1:22452, Wie hoch müsste das Wachstum im Durchschnitt jährlich sein, um in drei Jahren insgesamt auf den Faktor 1:22452 zu kommen? Wir suchen eine Lösung der Gleichung x = 1:22452; 3 also p x = 1:22452 = 1:069848, das mittlere Wachstum beträgt also 3 knapp 7%. Seite 54 2.4 Das geometrische Mittel verwendet man, um Mittelwerte von relativen Wachstumszahlen zu berechnen: v u n uY n xk : xg = t k =1 Liegen die Daten nahe bei eins, so gilt die Schätzung x g x: Beispiel B2.37: Es sei x = 1:1; x = 1:03; x = 0:99; x = 1:07: 1 2 3 4 Dann ist x = 1:0475; x g = 1:046676: Seite 55 2.4 2.4.9. Weitere Mittelwerte Das harmonische Mittel ist gegeben durch die Formel n X 1 1 xh = n x ! 1 k =1 k : Es entspricht also dem Kehrwert des arithmetischen Mittels der Datenkehrwerte. Beispiel B2.38: Drei Autos legen eine Strecke von 100 km mit unterschiedlichen Geschwindigkeiten zurück (100 km/h, 150 km/h und 200 km/h). Wie ist ihre Durchschnittsgeschwindigkeit? vh = 100 100 + 300 100 150 + 100 200 = 1 100 + 1 150 3 + 1 200 1 = 138:4615 km/h: Seite 56 2.4 Der Modalwert (Modus) xm ist bei diskreten Merkmalen die in der Stich- probe am häugsten vorkommende Beobachtung. Bei klassierten Daten wählt man die Mitte der Klasse mit den meisten Beobachtungen. Der Modalwert ist nicht eindeutig. Modus und arithmetisches Mittel müssen keinesfalls nahe beieinander liegen. Beispiel B2.39)B2 :32 : Im Beispiel B2.32 wurden 30 Jahre lang Temperaturen gemessen: 9, 11, 13, 13, 16, 16, 16, 16, 17, 18, 18, 18, 19, 19, 20, 20, 20,21, 21, 21, 21, 22, 22, 22, 25, 26, 29, 32, 34, 34. Sowohl 16 als auch 21 sind Modi. Seite 57 2.5 2.5. Streuungsmaÿe In der Aufgabe 12 zeigte sich, dass sehr unterschiedliche Datensätze denselben Mittelwert aufweisen können. Um Daten adäquat mit wenigen Kennzahlen zu beschreiben, benötigen wir mindestens noch ein weiteres Maÿ für die Streuung der Daten um den Mittelwert. 2.5.1. Varianz und Standardabweichung Die empirische Varianz ist durch b (x ) = 2 Pn k =1 (xk n x) 2 deniert, also durch die mittlere quadratische Abweichung der Datenpunkte von ihrem Mittelwert. Seite 58 2.5 b (x ) ist immer nicht-negativ und null nur dann, wenn alle xk 2 gleich sind. Wie schon im Falle des Mittelwerts gibt es eine oftmals kürzere Variante, die mit Hilfe der relativen Häugkeiten formuliert wird: 1 b (x ) = n 2 X m 2M X (m x ) n (m ): 2 Meistens ist folgende alternative Formel leichter zu berechnen: b (x ) = (x ) (x ) : 2 2 2 Die emp. Varianz ist nicht linear, aber es gilt aber b (ax + b) = a b (x ): 2 2 2 Speziell ist die Varianz translationsinvariant. Seite 59 2.5 Die Standardabweichung ist deniert als b (x ) = b (x ): p 2 Die Standardabweichung hat dieselbe Einheit, wie die Originaldaten. Es gilt die einprägsame Formel b (ax + b) = ab (x ). Vorteile und Nachteile der Varianz (Standardabweichung) als Streuungsmaÿ: Einleuchtende Interpretation. Leicht zu berechnen und mathematisch handhabbar. Anwendbar nur bei hinlänglich symmetrischen und möglichst eingipfeligen Verteilungen der Daten. Die emp. Varianz und die Standardabweichung reagieren empndlich auf Ausreiÿer. Seite 60 2.5 In der Statistik benötigt man neben der oben beschriebenen empirischen Varianz noch die Stichprobenvarianz (korrigierte Varianz) und die Stichprobenstandardabweichung (korrigierte Standardabweichung): b (x ) = 2 Pn k =1 (xk p n 1 b(x ) = b (x ): x) 2 ; 2 Es gilt oenbar n b (x ) = n 1 b (x ): 2 2 Die Stichprobenvarianten der Varianz und der Standardabweichung werden in der Schätztheorie verwendet, weil sie sog. erwartungstreue Schätzer liefern. Für groÿe Werte von n sind beide Varianten etwa gleich. Seite 61 2.5 Beispiel B2.40: x = 67:73633; b (x ) = 472:267; b(x ) = 21:73171; Fn (x + b (x )) Fn (x b (x )) = 0:7 2 Seite 62 2.5 Beispiel B2.41: x = 60:44387 b (x ) = 452:3576; b(x ) = 21:2687; Fn (x + b (x )) Fn (x b (x )) = 0:56 2 Seite 63 2.5 Beispiel B2.42: x = 65:37265 b (x ) = 4082:81; b(x ) = 63:89687; Fn (x + b (x )) Fn (x b (x )) = 0:84 2 Seite 64 2.5 2.5.2. Varianz für gepoolte Daten (Varianzzerlegung) Bei mehreren Stichproben Stichprobe 1: Stichprobe 2: x ;x ;:::;x n x ;x ;:::;x n 11 12 1 1 21 22 2 2 . . . Stichprobe m: mit verschiedenen . . . xm ; xm ; : : : ; xmnm Mittelwerten 1 b (x ); b (x ); : : : ; b (xm ) ergibt sich 2 1 2 . . . 2 x ; x ; : : : ; xm 1 2 und Varianzen 2 2 b (x ) = 2 m 2 X b (xk ) nk n |k =1 {z } interne V arianz + m X (x k x ) nk : n 2 |k =1 {z } externe V arianz (Varianzzerlegung). Seite 65 2.5 Beispiel B2.43: Gegeben seien die Stichproben xki nk x k b (xk ) 1 1,3,2,5,4 5 3.0 2.0 2 5,5,5 3 5.0 0.0 3 6,1,4,5 4 4.0 3.5 Gepoolter Mittlerwert: 2 x = = 3:83. 5 3+3 5+4 4 5+3+4 Pm b2 (xk )nk = 2:0 k =1 n Pm (x k x )2 nk = 0:638. Varianz: k =1 n Interne Varianz: Externe Varianz: b (x ) = 2 + 0:63 = 2:638. 2 Seite 66 2.5 2.5.3. Spannweite und Interquartilsabstand Als Spannweite bezeichnet man den Abstand zwischen Minimum und Maximum der Stichprobe: Rx = x n ( ) x : (1) Nur wenige Daten ieÿen in die Berechnung ein. Oenbar ist die Spannweite nicht robust gegenüber Ausreiÿern. Der Interquartilsabstand misst den Abstand zwischen oberem und unterem Quartil: IQRx = xeo xeu : Robust in Bezug auf Ausreiÿer. Seite 67 2.5 2.5.4. Variationskoezient Der Variationskoezient setzt die durch die Standardabweichung gemessene Streuung ins Verhältnis zu ihrem Mittelwert: b (x ) V (x ) = x Relatives Streuungsmaÿ 0 V (x ) p n . Deniert für positive metrische Daten. Es gilt Daher deniert man den normierten Variationskoezienten b (x ) V (x ) = p nx mit Werten im Intervall [0; 1]. Seite 68 2.5 2.5.5. Weitere Streuungsmaÿe Der Median der absoluten Abweichungen (MAD) MADx = med (jx xej) ist unempndlich in Bezug auf Ausreiÿer (viele Varianten). Die mittlere absolute Abweichung vom Mittel jx x j und die mittlere absolute Abweichungen vom Median jx xej sind weniger robust. Seite 69 2.5 Beispiel B2.44)B2 :18 : Für sechs Monate wird die Anzahl der Unfälle an einer befahrenen Ausfahrtstraÿe in einer Statistik erfasst: x = 5; x = 1; x = 3; x = 2; x = 1; x = 6 1 Es ist 2 3 4 5 6 x = 18=6 = 3 und daher (5 3) + (1 3) + : : : + (6 3) 6 4 + 4 + 0 + 1 + 4 + 9 = 22 = 3:3: = 6 6 b (x ) = 2 2 2 2 Seite 70 2.5 Alternative Formel: (x ) = 5 + 1 + 3 +6 2 + 1 + 6 22 = 3:3: = 76 9 = 6 6 b (x ) = x 2 2 2 2 2 2 2 2 2 3 2 Seite 71 2.5 Für die Standardabweichung ergibt sich b (x ) = b (x ) 1:92 p 2 Die Stichprobenvarianz ist entsprechend etwas gröÿer als die empirische Varianz: 22 n b (x ) = n 1 b (x ) = 5 = 4:4 2 Dementsprechend ist 2 p b(x ) = 4:4 2:1 Die Spannweite der Daten ist oenbar Rx = 6 1 = 5: Seite 72 2.5 Zur Berechnung des Interquartilabstands benötigen wir das untere und das obere Quartil. Es ist x = 1; x = 1; x = 2; x = 3; x = 5; x = 6 (1) (2) (3) (4) (5) (6) Also ergibt sich xe : = x b = c = x = 1; xe : = x b = c = x = 5: 0 25 ( 6 4 +1) 0 75 ( 18 4 +1) (2) (5) Dann erhalten wir IQRx = 5 1 = 4: Seite 73 2.5 Variationskoezient: 22=6 b (x ) V (x ) = x = 3 0:64 V (x ) V (x ) = p 0:26 p 6 MAD: MADx = med (2:5; 1:5; 0:5; 0:5; 1:5; 3:5) = 1:5 Mittlere absolute Abweichung vom Mittel: jx x j = (2; 2; 0; 1; 2; 3) = 10 6 1:67 Mittlere absolute Abweichungen vom Median ( xe = 2:5): jx xej = (2:5; 1:5; 0:5; 0:5; 1:5; 3:5) = 10 6 Seite 74 2.5 Im siebten Monat geschehen 20 Unfälle. Nun ergibt sich: b (x ) b (x ) Rx 2 IQRx MADx Alt Neu 3.67 38.53 1.91 6.21 5 19 4 5 1.5 2 Seite 75 2.5 Beispiel B2.45: IT-Unternehmen in Österreich mit mehr als 99 Mitarbeitern (Quelle:http://data.opendataportal.at) 1 2 3 Name Umsatz Mitarbeiter A1 Telekom Austria AG 256 16240 Raiffeisen Informatik GmbH 172 3000 KAPSCH Group 361 5250 Wir betrachten die Umsatzwerte für 67 Firmen mit weniger als 50 Mio Euro Umsatz. Seite 76 2.5 Histogramm: Arithmetisches Mittel und Median: U = 21:8394 Ue = 19: Seite 77 2.5 Varianz, Standardabweichung: b (U ) = 90:90 b (U ) = 9:53 2 b (U ) = 92:28 b(U ) = 9:61 2 Seite 78 2.5 Quartile: 0% 25% 50% 75% 100% 8.70 13.93 19.00 28.40 48.00 Spannweiter und Interquartilsabstand: RU = 48 8:7 = 39:3 IQRU = 28:4 13:93 = 14:47 Seite 79 2.6 2.6. Boxplots In einem Boxplot werden die wichtigsten Lage- und Streuungsmaÿe grasch zusammengefasst. Vorgehensweise: Eine horizontale Linie wird auf der Höhe des Median eingezeichnet. Das oberes und untere Quartil bestimmen die obere und untere Seite der Box. Die Länge der beiden Antennen (Whiskers) entspricht maximal dem 1.5-fachen des IQR (gerechnet vom oberen- bzw. unteren Quartil aus). Die Antennen enden aber beim letzten tatsächlich vorliegenden Datenwert unter- bzw. oberhalb dieser Marke. Alle Datenpunkte auÿerhalb der Antennen werden als Ausreiÿer als Punkte eingezeichnet. Seite 80 2.6 x = (4; 7; 9; 11; 12; 14; 14; 15; 22; 27). Hier ist n = 10, xe = 13, xeu = 9, xeo = 15, IQRx = 6 und 1:5 IQR = 9. Beispiel: Seite 81 2.7 Beispiel B2.46: Bürgerschaftswahlen in Hamburg (2009) Stimmanteile für die CDU in den Wahllokalen Seite 82 2.7 2.7. Konzentrationsmaÿe 2.7.1. Die Lorenz-Kurve Beispiel B2.47)B2 :45 : Umsatz und Mitarbeiterzahl von österreichischen IT-Unternehmen. Empirische Verteilungsfunktion für die Umsätze im Beispiel B2.45: Ein relativ groÿer Teil der Umsatzgesamtsumme entfällt auf wenige Firmen (sog. Konzentration). Seite 83 2.7 Um eine solche Konzentration grasch darzustellen, verwendet man häug die Lorenz-Kurve. Berechne zunächst für Li = = i = 1; 2; : : : ; n die Werte Summe der kleinsten i Umsätze Gesamtsumme der Umsätze Pi x Pkn =1 (k ) : k =1 x(k ) 100 i=n Prozent der kleinsten Beobachtungen machen in der Summe 100 Li Prozent der Gesamtsumme der Beobachtungen Interpretation: aus. Zeichne dann eine Kurve, die im Einheitsquadrat die Punkte (i=n; Li ) miteinander verbindet (Polygonzug) Seite 84 2.7 Beispiel B2.48: Sechs Mitarbeiter einer Firma haben folgende jährliche Gehälter (in tsd. Euro): Gehalt: 30 20 30 70 30 Orderst.: 20 20 30 30 30 70 0.1 0.2 0.35 0.5 0.65 1.0 1/6 2/6 3/6 4/6 5/6 6/6 Li : i=n: 20 Seite 85 2.7 Beispiel B2.49)B2 :45 : Interpretation: Auf die oberen 20% der Firmen entfallen etwa 90% der Umsätze Seite 86 2.7 2.7.2. Das Gini-Maÿ Um eine Konzentration auch quantitativ zu erfassen, kann man das Gini-Maÿ berechnen: Gx = Pn i =1 (2i nx 1)x i ( ) 2 1: Das Gini-Maÿ entspricht der doppelten Fläche zwischen der LorenzKurve und der Winkelhalbierenden. Gx ausfällt, desto gröÿer ist die Konzentration. Es gilt 0 Gx (n 1)=n, daher berechnet man auch das normierte Je gröÿer Gini-Maÿ n Gx = n 1 Gx : mit Werten im Intervall [0; 1]. Seite 87 2.7 Beispiel B2.50)B2 :48 &B2 :45 : Gx = 0:23; Gx = 0:28: Gx = 0:8645807; Gx = 0:8654585: Seite 88 2.8 2.8. Bivariate Daten Häug interessiert man sich in der Statistik gleichzeitig für mehrere Merkmale. Insbesondere versucht man etwas über die Abhängigkeit der Merkmale untereinander herauszunden. Wir beschäftigen uns in diesem Paragraphen mit der Statistik bivariater Daten, also mit dem Fall zweier Merkmale. Seien im Folgenden X und Y zwei Merkmale (deniert als Funktionen auf demselben Stichprobenraum/derselben Grundgesamtheit). Die entsprechenden Merkmalsausprägungen seien MX = fa ; a ; : : :g MY = fb ; b ; : : :g: 1 2 1 2 Seite 89 2.8 Bivariate Daten lassen sich besonders einfach im Streudiagramm darstellen. Beispiel B2.51)B2 :45 : Umsatz und Mitarbeiterzahl von österreichischen IT-Unternehmen mit weniger als 100 Mill. Euro Umsatz (Quelle:http://data.opendataportal.at). Seite 90 2.8 2.8.1. Häugkeiten und Kontingenztabellen Wir betrachten jetzt Stichproben der Form (xi ; yi ), genauer f(xi ; yi ); i = 1; 2; : : : ; n; Xi 2 MX ; yi 2 MY g: Wie schon bei den univariaten Daten denieren wir die absolute bivariate Häugkeit der Ausprägung (ai ; bj ).: nij = n(ai ; bj ) = ]fk : xk = ai ; yk = bj g: Als absolute Randhäugkeit bezeichnen wir die Werte ni = ]fk : xk = ai g; nj = ]fk : yk = bj g: Seite 91 2.8 Entsprechend ist n hij = nij die relative bivariate Häugkeit der Ausprägung (ai ; bj ) und n hi = ni ; n hj = nj die relative Randhäugkeit. Seite 92 2.8 Im Falle endlich vieler Merkmalsausprägungen werden die bivariaten Häugkeiten am übersichtlichsten durch sogenannte Kontingenztafeln bzw. Kontingenztabellen dargestellt. Dort werden die bivariaten Häugkeiten nij in der i-ten Zeile und j-ten Spalte eingetragen. Beispiel B2.52: Für 40 Studierende werden das Geburtsjahr und der gewünschte Studienabschluss (B/M/D) ermittelt. Kontingenztabelle mit absoluten Häugkeiten: B M D ni 1990-1994 1 9 5 15 1995-1999 15 9 1 25 16 18 6 40 Studienabschluss: Geburtsjahr nj Seite 93 2.8 Kontingenztabelle mit relativen Häugkeiten: B M D hi 1990-1994 1/40 9/40 1/8 3/8 1995-1999 3/8 9/40 1/40 5/8 2/5 9/20 3/20 1 Studienabschluss: Geburtsjahr hj Die relative Häugkeit für die Ausprägung (1990 1994; D) ist h ; = 1=8 = 12:5% 1 3 Die relative Randhäugkeit für den Bachelor-Studienabschluss ist h = 2=5 = 40%: 1 Seite 94 2.8 2.8.2. Unabhängige Merkmale Die Merkmale X und Y heiÿen unabhängig, wenn h(ai ; bj ) = h(ai ; ) h(; bj ) für jede Kombination (ai ; bj ) mit ai 2 MX und bj 2 MY gilt. Wir können das auch kurz als hij = hi hj ; 8i; j : 1 i k; 1 j l n n nij = i n j ; 8i; j : 1 i k; 1 j l oder schreiben. 8 ist der sog. Allquantor und bedeutet für alle. Seite 95 2.8 Beispiel B2.53)B2 :52 : Im obigen Beispiel, B M D hi 1990-1994 1/40 9/40 1/8 3/8 1995-1999 3/8 9/40 1/40 5/8 2/5 9/20 3/20 1 Studienabschluss: Geburtsjahr hj sind die Merkmale gewiss nicht unabhängig, denn es gilt z.B. h ; = 9=40 6= h h; = 3=8 9=20 = 27=160: 1 2 1 2 Seite 96 2.8 2.8.3. Zusammenhangsmaÿe für nominale Daten Die über alle Kombinationen von i und j summierte quadrierte Abstand nij ni nj n 2 kann als Maÿ für die Unabhängigkeit der beiden untersuchten Merkmale gelten. Um später entsprechende statistische Tests durchführen zu können, teilt man noch durch ni nj n und deniert den Chi-Quadrat-Koezienten (auch einfach nur Chi-Quadrat) als: = 2 k X l X i =1 j =1 nij ni nj 2 n : ni nj n Seite 97 2.8 Zwei alternative Formeln (häug einfacher zu verwenden): =n 2 k X l X i =1 j =1 nij ni nj 2 ! ! 1 ! ! und =n 2 k X l X i =1 j =1 hij hi hj 2 1 : Auch für nominalskalierte Merkmale deniert. Schwer vergleichbar, da von der Dimension der Kontingenztafel abhängig. Seite 98 2.8 Korrektur: Der Pearsonsche Kontingenzkoezient ist gegeben durch C= s 2 + n: 2 Weitere Verbesserung: korrigierter Pearsonsche Kontingenzkoezient C = s minfk; l g C: minfk; l g 1 Dann gilt 0 C 1: Seite 99 2.8 Beispiel B2.54)B2 :52 : Gegeben Sei folgende Kontingenztabelle: A B ni C 4 2 6 D 1 8 9 5 10 15 nj Wir tragen die Werte für nij2 ni nj ein: A B C 8/15 1/15 D 1/45 32/45 24 + 3 + 1 + 32 = 15 1 = 5: 45 2 Seite 100 2.8 Es ist C= s 5 =1 = +n 20 2 2 r 2 und C = s minfk; l g C = p2 1 = 0:7071 minfk; l g 1 2 Deutet eher auf einen stärkeren Zusammenhang der beiden Merkmale hin. Seite 101 2.8 2.8.4. Zusammenhangsmaÿe für metrische Daten Gibt es einen positiven Zusammenhang zwischen X und Y , so gilt: (xi x ) positiv, so gilt das häug auch für (yi y ). Ist (xi x ) negativ, so gilt das häug auch für (yi y ). Also gilt für viele Datenpaare (x ; yi ): (xi x ) (yi y ) > 0. Ist 1 Daher wählt man als Maÿzahl die empirische Kovarianz n X 1 sxy = n (xi x ) (yi y ) i =1 bzw. die Stichprobenkovarianz n X 1 sbxy = n 1 (xi x ) (yi y ): i =1 Seite 102 2.8 Beispiel B2.55)B2 :45 : Umsatz und Mitarbeiterzahl von österreichischen IT-Unternehmen mit weniger als 100 Mill. Euro Umsatz. sxy = 730:9737; sbxy = 731:7472: Seite 103 2.8 Alternative Berechnungsformel: sxy = xy x y: Es gilt: s ax ( b sxy = syx ; cx d = a c syx ; sxx = b (x ) + )( + ) 2 und die Cauchy-Schwarzsche Ungleichung: jsxy j b(x )b(y ). Man verwendet daher den (empirischen) Korrelationskoezienten (Bravais/Pearson) s rxy = b (x )xyb (y ) mit Werten im Intervall [ 1; 1]. Seite 104 2.8 rxy kann als Maÿ für einen linearen Zusammenhang gelten: rxy =1 x = ay + b, a > 0, perfekte pos. Korrelation 2 [0:5; 1) starke positive Korrelation 2 [0; 0:5) schwache positive Korrelation 2 [ 0:5; 0) schwache negative Korrelation 2 [ 1; 0:5) starke negative Korrelation = 1 x = ay + b, a < 0, perfekte neg. Korrelation Ein unmittelbarer kausaler Zusammenhang kann nicht erkannt werden. Wir werden später noch sehen, wie man einen möglichen linearen Zusammenhang genauer untersuchen kann (Abschnitt Lineare Regression) Seite 105 2.8 Seite 106 2.8 2.8.5. Zusammenhangsmaÿe für ordinale Daten Beispiel B2.56: Zehn Studierende werden nach ihrer Motivation Y ( MX = f; g) und der Statistikklausurnote Y ( MY = f1; 2; : : : ; 5g) gefragt. Motivation: Note: 4 4 2 3 5 1 3 4 1 5 Gibt es einen Zusammenhang? Kontingenztabelle: 1 2 3 4 5 2 1 2 1 1 7 0 0 0 2 1 3 2 1 2 3 2 10 Seite 107 2.8 R(xi ) einer Beobachtung x = xi gilt. Der Rang die xm ( ) 1 ist als die Zahl m deniert, für Ist der Rang nicht eindeutig (sog. Bindungen), so bildet man den Durchschnittswert der in Frage kommenden Ränge. Beispiel B2.57)B2 :56 : Im obigen Beispiel ergeben sich die folgenden Ränge für die beiden Merkmale: Motivation: R(xi ): Note: R(yi ): 2 7 7 7 2 7 7 2 7 7 4 4 2 3 5 1 3 4 1 5 7 7 3 4.5 9.5 1.5 4.5 7 1.5 9.5 Seite 108 2.8 Es gilt für den Mittelwert der Ränge n+1 R= 2 : Gauÿsche Summenformel: Idee: Man verwendet die 1 + 2 + 3 + ::: + n = n n ( +1) 2 ermittelten Ränge um den sog. Rangkorrelationskoezienten (Spearman) zu berechnen: Rxy = Pn 2 R ( x i )R(yi ) nR k =1 q q Pn Pn 2 2 2 nR k =1 R(xi ) k =1 R(yi ) Es gilt wieder nR 2 : Rxy 2 [ 1; 1]. Seite 109 2.8 Perfekter Zusammenhang, wenn jRxy j = 1 gilt, abnehmend mit ab- nehmendem Absolutbetrag des Koezienten. Seite 110 3.0 3. Wahrscheinlichkeitsrechnung Beispiel B3.1)B1 :1 : Im Beispiel B1.1 wurde ein Spielwürfel 120 Mal gewürfelt. Es ergaben sich folgende Augenzahlen: Häugkeitstabelle: Augenzahl: 1 2 3 4 5 6 Häugkeit: 15 18 30 18 21 18 Seite 111 3.0 Neben den statistischen Fragestellungen, die unmittelbar die erhobenen Daten betreen, können wir noch vom konkreten Experiment abstrahieren und uns allgemeinere Fragen stellen: Wie wahrscheinlich sind die verschiedenen Augenzahlen bei einem Würfelwurf ? Wie wahrscheinlich sind die hier vorliegenden Augenzahlenhäugkeiten bei 120 Würfen? Was ist Wahrscheinlichkeit überhaupt? Frequentistische Interpretation: Die Wahrscheinlichkeit eines Ereignisses ist der Zahlenwert, gegen die relative Häugkeit mit wachsendem Stichprobenumfang konvergiert. Seite 112 3.1 3.1. Ereignisse und Wahrscheinlichkeiten Die axiomatische Wahrscheinlichkeitstheorie lässt die philosophischen Fragen hinter sich und betrachtet Ereignisse und Wahrscheinlichkeiten als mathematische Objekte mit bestimmten Eigenschaften. Das Grundgerüst kennen wir bereits aus der Statistik: Die Grundgesamtheit wird nun Wahrscheinlichkeitsraum genannt. Die Merkmale heiÿen nun Zufallsvariablen. Die Teilmengen von heiÿen Ereignisse. Seite 113 3.1 Die gesamte Menge repräsentiert das sichere Ereignis, ; das unmögliche Ereignis. Die Vereinigungsmenge A [ B repräsentiert das Eintreten von A oder die leere Menge B (dabei wird zugelassen, dass beide Ereignisse eintreten). Die Schnittmenge A \ B repräsentiert das gleichzeitige Eintreten von A und B. von A und B heiÿen unvereinbar, wenn A und B disjunkt sind, d.h. es gilt A \ B = ;. Zwei Ereignisse Seite 114 3.1 A=B repräsentiert das Eintreten von A bei gleichzeitigem Nicht-Eintreten von B . Das Komplement A repräsentiert das Nicht-Eintreten von A. Die Dierenzmenge Seite 115 3.1 Jedem A Ereignis kann man eine Zahl P (A), seine Wahrscheinlichkeit, zuordnen. In der mathematischen Wahrscheinlichkeitstheorie stellt sich heraus, dass man nicht jedem Ereignis eine Wahrscheinlichkeit zuordnen kann. Das führt zu einigen Komplikationen, die wir hier ! Vitali-Mengen, Banach-Tarski-Paradoxon). ignorieren wollen ( Das Wahrscheinlichkeitsmaÿ P muss dabei folgende Bedingungen erfüllen: ( ) = 1, P (A [ B ) = P (A) + P (B ), wenn A und B unvereinbar sind. 1. P 2. Seite 116 3.1 Folgende Regeln gelten dann automatisch: (A) = 1 P A . P (; ) = 0 . P (A) P (B ) wenn A ) B . P Additionsregel: P (A [ B ) = P (A) + P (B ) P (A \ B ) : Seite 117 3.1 3.1.1. Laplace-Experimente Wir sprechen von einem f! ; ! ; : : : ; !n g endlich ist und 1 Laplace-Experiment, wenn = 2 P (! ) = P (! ) = : : : = P (!n ) = n1 1 2 gilt. Bei Laplace-Experimenten kann man Wahrscheinlichkeiten abzählen: Satz 3.2 (Laplace-Experiment) Im Laplace-Experiment gilt für jedes Ereignis P A (A) = ]A n: Seite 118 3.1 Beispiel B3.2: Ein Würfel wird geworfen. Es sei = f1; 2; 3; 4; 5; 6g: Dann handelt es sich um ein Laplace-Experiment mit P Es sei (!) = 61 ; 8! 2 : A = f2; 4; 6g das Ereignis, dass die Augenzahl gerade ist. Dann gilt P (A) = 63 = 12 : Liegt kein Laplace-Experiment vor, so gilt allgemein nur noch P (A) = X ! 2A P (!) : Seite 119 3.1 Beispiel B3.3: Ein Würfel werde zweimal geworfen. Wir wählen = f(i; j )ji; j 2 f1; 2; 3; 4; 5; 6gg: Dann handelt es sich um ein Laplace-Experiment mit P Es sei 1 ; 8 ! 2 : (!) = 36 A = f(i; j ) 2 ji < j g das Ereignis, dass der zweite Wurf eine höhere Augenzahl anzeigt, als der erste Wurf. Dann ist P 3 + 2 + 1 = 15 = 5 : (A) = 5 + 4 +36 36 12 Seite 120 3.1 3.1.2. Bedingte Wahrscheinlichkeiten Als bedingte Wahrscheinlichkeit bezeichnet man die Wahrscheinlichkeit A, unter der Voraussetzung, dass der Eintritt zweiten Ereignisses B (mit P (B ) 6= 0) schon bekannt ist: eines Ereignisses P eines (AjB) = P (A; gegeben B) : Satz 3.3 Es gilt P (AjB) = P (PA(B\ )B) ; Daraus ergibt sich unmittelbar P (A) = P (AjB) P (B) : Seite 121 3.1 Beispiel B3.4: Es werde ein Würfel geworfen. Es sei A B = = = f2; 4; 6g; Die Augenzahl kleiner als 5 = f1; 2; 3; 4g: Die Augenzahl ist gerade Dann gilt (AjB) = P (Pf1(f; 22;; 43g; 4) g) = 21 ; P (f2; 4g) 2: P (B jA) = = P (f2; 4; 6g) 3 P Seite 122 3.1 3.1.3. Unabhängigkeit Zwei Ereignisse A und B heiÿen stochastisch unabhängig, wenn P (A \ B) = P (A) P (B) gilt. Die obige Bedingung ist gleichbedeutend mit P (AjB) = P (A) bzw. P (BjA) = P (B) : Nicht mit Unvereinbarkeit verwechseln: Zwei unvereinbare Ereignisse sind fast immer abhängig. Seite 123 3.1 Beispiel B3.5)B3 :4 : Es sei wieder A B = = = f2; 4; 6g; Die Augenzahl kleiner als 5 = f1; 2; 3; 4g: Die Augenzahl ist gerade Die beiden Ereignisse sind stochastisch unabhängig: P (A \ B) = P (f2; 4g) = 13 = 36 46 = P (A) P (B) : Die Ereignisse A und A sind nicht unabhängig: P 1 A \ A = P (;) = 0 6= 4 = P (A) : 2 Seite 124 3.2 3.2. Kombinatorik 3.2.1. Permutationen Aus einem Gefäÿ mit n Kugeln werden alle Kugeln gezogen. Wieviele Möglichkeiten der Anordnung (sog. Permutationen) dieser gezogenen Kugeln gibt es? Satz 3.4 Es gibt n! verschiedene Möglichkeiten n Objekte anzuordnen. Seite 125 3.2 3.2.2. Variationen und Kombinationen Als nächstes ziehen wir nur k der n Kugeln. Seite 126 3.2 Unterscheidet man die Reihenfolge der gezogenen Kugeln, so spricht man von Variationen. Legt man die Kugeln nicht wieder zurück, so kommt man auf n! n (n 1) (n k + 1) = (n k )! Möglichkeiten. Legt man die Kugeln nach dem Ziehen jeweils wieder zurück, so ergeben sich n n n = nk verschiedene Möglichkeiten. Seite 127 3.2 Unterscheidet man die Reihenfolge der gezogenen Kugeln nicht, so spricht man von Kombinationen. Möglichkeiten ohne Zurücklegen: n! (n k )! | {z } V ariationen 1 k! |{z} Anordnungen = kn : Möglichkeiten mit Zurücklegen (ohne Beweis): n+k 1 : k Seite 128 3.2 Zurücklegen Ohne Zurücklegen Reihenfolge Reihenfolge V kn = nk Vnk = n! (n k )! Zurücklegen Ohne Zurücklegen Ohne Reihenfolge Ohne Reihenfolge C k n = n+k k 1 C k n = n k Seite 129 3.3 3.3. Zufallsvariablen und ihre Verteilungen 3.3.1. Zufallsvariablen Zufallsvariablen sind die wahrscheinlichkeitstheoretischen Pendants metrischer Merkmale, also Abbildungen ! R. Wir unterscheiden wie bei den Merkmalen diskrete und stetige Zufallsvariablen. Eine Zufallsvariable ist diskret, wenn sie nur abzählbar viele Werte annehmen kann. Ein Zufallsvariable heiÿt stetig, wenn ihr Wertebereich ein Intervall oder die ganze Zahlengerade ist und eine weiter Bedingung erfüllt ist, die wir später betrachten. (X x ) an Stelle der korrekteren aber umständlicheren Schreibweise P (f! 2 jX (! ) x g). Wir schreiben im Folgenden kurz P Seite 130 3.3 3.3.2. Verteilungsfunktionen Die Verteilungsfunktion einer Zufallsvariablen X ist gegeben durch die Funktion FX (x ) = P (X x ) : Wir schreiben kurz F statt FX , wenn klar ist, welche Zufallsvariable gemeint ist. F F ist stets nicht-fallend, ist rechtsseitig stetig, limx ! 1 F (x ) = 0, limx !1 F (x ) = 1. Die stochastischen Eigenschaften einer Zufallsvariablen werden durch Angabe der Verteilungsfunktion vollständig beschrieben. Seite 131 3.3 Mit Hilfe der Verteilungsfunktion kann man Wahrscheinlichkeiten berechnen: (X > x ) = 1 F (x ) P (y < X x ) = F (x ) F (y ) P (X = x ) = F (x ) F (x ) P (X < x ) = F (x ) P (X x ) = 1 F (x ) P (y X x ) = F (x ) F (y ) P . . . . . . . . . F (x ) bezeichnet den linksseitigen Grenzwert F (x ) = lim F (u ): u "x Seite 132 3.3 Es gibt noch weitere Möglichkeiten die stochastischen Eigenschaften einer Zufallsvariablen zu beschreiben: Für eine diskrete Zufallsvariable X mit Werten MX = fx ; x ; : : :g 1 2 deniert man die Wahrscheinlichkeitsfunktion: p (x ) = P (X = x ) = ; x 62 Mx P (X = xi ) ; x = xi 0 ( Für stetige Zufallsvariablen fordern wir, dass F stetig und stückweise dierenzierbar ist. Man deniert dann die Wahrscheinlichkeitsdichte als die Ableitung f (x ) = F 0 (x ) an den Stellen, wo man F dierenzierbar ist (an allen anderen Stellen kann f (x ) beliebig denieren). Seite 133 3.3 Beispiel B3.6)B3 :4 : Es sei wieder X die Augenzahl beim einmaligen Wurf mit einem fairen Würfel. Verteilungsfunktion: Wahrscheinlichkeitsfunktion: p (x ) = 0 ; x 62 f1; 2; 3; 4; 5; 6g 1=6 ; x 2 f1; 2; 3; 4; 5; 6g ( Seite 134 3.3 Diskreten und stetigen Zufallsvariablen ist also die Verteilungsfunktion F (x ) = P (X x ) gemeinsam. Sie unterscheiden sich bei der Wahrscheinlichkeits- bzw. Dichtefunktion: Symbol Nicht-Negativität Normierung Wahrscheinlichkeiten W.-Funktion W.-Dichte für diskrete ZV. für stetige ZV. p (x ) = P (X = x ) f (x ) p (x ) 0 f (x ) 0 pP(x ) = 0; 8x 62 MX R 1 1 p(x ) = 1 i P i 1 f (x )Rdx = 1 P (A) = p(x ) P (A) = x 2A f (x ) dx x 2A \M X =1 Seite 135 3.4 3.4. Erwartungswert und Varianz Der Erwartungswert ist das wahrscheinlichkeitstheoretische Gegenstück zum arithmetischen Mittel. Für diskrete Zufallsvariablen: E (X ) = 1 X i =1 xi p(xi ): Für stetige Zufallsvariablen: E (X ) = Z 1 1 x f (x ) dx: Seite 136 3.4 Allgemeiner kann man den Erwartungswert von Funktionen g:R!R einer Zufallsvariablen erklären: Für diskrete Zufallsvariablen: E (g (X )) = 1 X i =1 g (xi ) p(xi ): Für stetige Zufallsvariablen: E (g (X )) = Z 1 1 g (x ) f (x ) dx: Natürlich ist der Erwartungswert nur deniert, wenn die entsprechende Summe oder das entsprechende Integral deniert sind. Auf den Fall, wo diese Gröÿen deniert aber unendlich sind, gehen wir hier nicht näher ein. Seite 137 3.4 Die Varianz und die Standardabweichung einer Zufallsvariable sind deniert als Var (X ) = E (X E (X )) = E X 2 2 E (X ) : 2 und b (X ) = p Var (X ): Beide Gröÿen beschreiben die Streuung der Zufallsvariablen X. Es gelten die schon vom arithmetischen Mittel vertrauten Rechenregeln: (aX + b) = aE (X ) + b, Var (aX + b ) = a Var (X ), b (aX + b) = ab (X ), E (X + Y ) = E (X ) + E (Y ). E 2 Seite 138 3.5 3.5. Das Gesetz der groÿen Zahlen Beispiel B3.7)B1 :1 : Im Beispiel B1.1 ergab sich ein arithmetisches Mittel von x = 3:55. Das liegt verdächtig nahe beim theoretischen Erwartungswert E ( X ) = 3 :5 der Augenzahlen-Zufallsvariable X. Seite 139 3.5 Wir betrachten den Mittelwert xn = n 1 Pn i =1 xi der ersten n Würfe: Man kann zeigen: Das ist kein Spezialfall, sondern einer der wesentlichen Grenzwertsätze der Wahrscheinlichkeitstheorie. Seite 140 3.5 Satz 3.6 (Das starke Gesetz der groÿen Zahlen) X ; X ; : : : unabhängige und identisch verteilte Zufallsvariablen mit dem gemeinsamen Erwartungswert und Es seien 1 2 Xn = Pn i =1 Xi : n Dann ist die Wahrscheinlichkeit dafür, dass lim X n = n!1 gilt, eins. Xn ist also bei groÿen Stichprobenumfängen ein guter Schätzer für den u.U. unbekannten Erwartungswert (ein sog. stark konsistenter Schätzer). Seite 141 3.6 3.6. Unabhängigkeit und Korrelation Zwei Zufallsvariablen X und Y heiÿen stochastisch unabhängig, wenn die gemeinsame Verteilungsfunktion FX;Y (x; y ) = P (X x und Y y ) = P (X x; Y y ) die Produktgleichung FX;Y (x; y ) = FX (x )FY (y ): erfüllt. Für unabhängige Zufallsvariablen Var X und Y gilt (X + Y ) = Var (X ) + Var (Y ) : Seite 142 3.6 Als Maÿ für den Zusammenhang zweier Zufallsvariablen kann die Kovarianz (X; Y ) = E ((X E (X )) (Y E (Y ))) = E (XY ) E (X ) E (Y ) Cov verwendet werden. Der Korrelationskoezient Cov(X; Y ) %(X; Y ) = b (X )b (Y ) nimmt Werte im Intervall [ 1; 1] an und gibt Auskunft über den li- nearen Zusammenhang der beiden Zufallsvariablen. Gilt E (XY ) = E (X ) E (Y ), so nennt man X und Y unkorreliert. Un- abhängige Zufallsvariablen sind immer unkorreliert. Seite 143 3.7 3.7. Fünf wichtige Verteilungen 3.7.1. Die Bernoulli-Verteilung Eine Bernoulli-verteilte Zufallsvariable X nimmt nur die beiden Werte x = 0 (Misserfolg) und x = 1 (Erfolg) an. Sie ist dann das Ergebnis 1 2 eines sog. Bernoulli-Experiments. P (X = 1) = p; P (X = 0) = 1 p: Oenbar gilt E (X ) = (1 p) 0 + p 1 = p und Var (X ) = E X E (X ) = (1 p) 0 + p 1 2 2 2 2 p = p(1 p): 2 Seite 144 3.7 3.7.2. Die Binomialverteilung n Bernoulli-Experimente unabhängig voneinander mit Ergebnissen X ; X ; : : : ; Xn durchgeführt, so hat die Zufallsvariable Werden 1 2 K = Anzahl der Erfolge eine Binomialverteilung und es gilt (K = k ) = kn pk (1 p)n k : P Dann ergibt sich (K ) = nE (X ) = np; Var (K ) = n Var (X ) = np (1 p): E 1 1 Seite 145 3.7 n = 10; p = 0:5 n = 10; p = 0:3 Seite 146 3.7 3.7.3. Die geometrische Verteilung Es werden Bernoulli-Experimente solange ausgeführt, bis zum ersten Mal Erfolg eintritt. Es sei gilt. Dann hat Z der Index, für den zum ersten Mal XZ = 1 Z eine geometrische Verteilung (Typ I): P (Z = k ) = (1 p)k p; k = 1; 2; 3; : : : : 1 Die Anzahl der Misserfolge M = Z 1 hat eine geometrische Verteilung vom Typ II: P (M = k ) = (1 p)k p; k = 0; 1; 2; 3; : : : : Es gilt E p 1 p Var () p p2 1 p p2 1 1 Typ I Typ II () p Seite 147 3.7 p = 0:3 p = 0:8 Seite 148 3.7 p = 0:5 p = 0:1 Seite 149 3.7 Übersicht: Verteilung Anzahl Gefragt Experimente Bernoulli 1 Ausgang (0=Misserfolg, 1=Erfolg) Binomial n Anzahl der Erfolge Geometrisch I unbegrenzt Index mit erstem Erfolg Geometrisch II unbegrenzt Index mit letztem Misserfolg Seite 150 3.7 3.7.4. Die Multinomialverteilung Gegeben mit seien Werten in eine Folge der Menge Wahrscheinlichkeitsfunktion der diskreter X -Zufallsvariablen p. Zufallsvariablen fx ; x ; : : : ; x m g 1 2 Es mit Wert sei xi . Ki die und X ; X ; : : : ; Xn 1 2 jeweils absolute gleicher Häugkeit Dann gilt für die gemeinsame Wahrscheinlichkeitsfunktion (K = k ; K = k ; : : : ; K m = km ) n = k k k p(x )k p(x )k p(xm )km ; P 1 1 1 wobei Pm i =1 ki 2 2 1 m 2 1 2 2 = n gelten muss. (Multinomialkoezient) n! = k k kn k !k ! kn ! : n 1 2 1 2 Seite 151 3.7 Beispiel B3.8)B1 :1 : Es sei Ai die Augenzahl im i-ten Wurf mit einem fairen Würfels und Xi = Dann besitzen die E Xi 1 ; Ai = 6; 0 ; Ai 6= 6: ( jeweils eine Bernoulli-Verteilung mit (Xi ) = 61 ; Var p= 1 6 , d.h. 5: (Xi ) = p(1 p) = 36 Es gilt z.B. (X = 1; X = 2; : : : ; X = 6) = 16 6 P 1 2 6 1 : = 46656 Seite 152 3.7 Es sei K die Anzahl der 6er bei 120 Würfen. Dann ist K binomialverteilt, d.h. 120 k n k P (K = k ) = k (1=6) (5=6) : Zum Beispiel ist 120 P (K = 18) = 18 (1=6) (5=6) 0:09 18 102 und P P (K 18) = (K 30) = 18 X 120 j (1=6)j (5=6) j (1=6)j (5=6) j =0 120 X 120 j =30 120 120 j = 0:3657 j = 0:0129 Seite 153 3.7 Es sei B das Ereignis, dass folgende Häugkeiten beobachtet werden: Augenzahl: 1 2 3 4 5 6 Häugkeit: 15 18 30 18 21 18 Dann ist 1 6 10 : 120 P (B ) = 15 18 30 18 21 18 6 120 7 Wollen wir die Wahrscheinlichkeit einer Abweichung von der zu erwartenden Tabelle Augenzahl: 1 2 3 4 5 6 Häugkeit: 20 20 20 20 20 20 berechnen, müssen wir tiefer in die Trickkiste greifen. Mehr dazu später. Seite 154 3.7 Wie lange dauert es im Mittel, bis eine 6 gewürfelt wird? Die Zufallsvariable Z = ] Versuche, bis eine 6 gewürfelt wird: Dann hat Z eine geometrische Verteilung, d.h. 5 P (Z = k ) = 6 k 1 1 ; k = 1; 2; 3; : : : : 6 Als Erwartungswert erhalten wir E (Z ) = p1 = 6: Seite 155 3.7 3.7.5. Die stetige Gleichverteilung Ist X gleichverteilt auf dem Intervall [a; b], so liegt X quasi maximal zufällig verteilt in dem Intervall. Handelsübliche Taschenrechner verfügen über eine RND -Taste, die gleichverteilte Zufallszahlen erzeugt. Mit Hilfe gleichverteilter Zufallsvariablen kann man anders verteilte Zufallszahlen erzeugen (Inversionsmethode, Monte-Carlo-Simulation) Seite 156 3.7 Verteilungs- und Dichtefunktion der stetigen Gleichverteilung sind gegeben durch 0 ;x < a x a F (x ) = ; x 2 [a; b) b a 1 ;x b ( 1 ; x 2 [a; b) f (x ) = 0 ; x 62 [a; b) a = 0; b = 1 Seite 157 3.7 Es gilt für eine auf [a; b] gleichverteilte Zufallsvariable a+b E (X ) = 2 ; (b a) : Var (X ) = 12 2 Seite 158 3.8 3.8. Die Normalverteilung und ihre Verwandten 3.8.1. Die Standardnormalverteilung Die wichtigste Verteilung der Statistik ist die Standardnormalverteilung. Die Standardnormalverteilung besitzt die Dichtefunktion 1 '(x ) = p e 2 x 2 =2 : Die zugehörige Verteilungsfunktion lässt sich nicht in geschlossener Form angeben: Z x 1 (x ) = p e 2 1 u 2 =2 du: Seite 159 3.8 Verteilungsfunktion (x ) und Dichtefunktion '(x ): = 0; = 1 Wir schreiben N (0; 1) für die Standardnormalverteilung und N (0; 1) für eine standardnormalverteilte Zufallsvariable. Für X N (0; 1) gilt E (X ) = 0 und Var (X ) = 1. X Seite 160 3.8 3.8.2. Tabellen und Quantile Die Werte (x ) sind tabellarisch gegeben oder können mit Taschen- rechnern und Computern abgerufen werden (s. Tabelle Seite Beispiel: (1:16) = 0:877 ??). Seite 161 3.8 Für negative Argumente kann man die Umformungsregel ( x ) = 1 (x ) verwenden. Beispiel: ( 1:0) = 1 0:8413 = 0:1587, Seite 162 3.8 Als -Quantil bezeichnet den Wert verwendet die Bezeichnung z für den z für diesen Wert. (z ) = gilt. Man Die Quantile kann man ebenfalls aus der Tabelle auf Seite ?? entneh- men. Beispiel: z : = 0:25. 0 6 Seite 163 3.8 3.8.3. Der zentrale Grenzwertsatz Beispiel B3.9)B1 :1 : Wir wiederholen das Würfelexperiment aus dem Beispiel B1.1 eintausend Mal und betrachten für jeden Durchgang das arithmetische Mittel: Standardabweichung dieser Mittelwerte: 0:159. Seite 164 3.8 Wir würfeln nun n = 1000 Mal und wiederholen das Experiment 1000 Mal: Standardabweichung der Mittelwerte: 0:054. Wir beobachten: Die Standardabweichung wird mit wachsendem n immer kleiner. Seite 165 3.8 Es seien X ;X ;X ;::: 1 2 3 unabhängige und identisch verteilte Zufallsva- riablen mit Erwartungswert und Standardabweichung und n 1X X Xn = n i =1 i ihr arithmetisches Mittel. Dann gilt E n X 1 X n = n E (Xi ) = ; Var i =1 n 1X Xn = n b (X n ) = 2 i =1 q Var (Xi ) = n ; 2 Var Xn = p : n Seite 166 3.8 Satz 3.8 X n der Zufallsvariablen X ; X ; : :p : besitzt den Erwartungswert und die Standardabweichung = n . Das arithmetische Mittel 1 2 Es folgt, dass die standardisierte Zufallsvariable p Xn Xn = n den Erwartungswert 0 und die Standardabweichung 1 besitzt. Wir können auch mit n erweitern und schreiben: Pn X n : Xn = i pi n =1 Welche Verteilung besitzt Xn ? Seite 167 3.8 120 Würfe, 100 Mal wiederholt: = 0; = 1 10 000 Würfe, 10 000 Mal wiederholt: = 0; = 1 Seite 168 3.8 Satz 3.9 (Zentraler Grenzwertsatz) Gegeben seien unabhängige und identisch verteilte Zufallsvariablen X ; X ; : : : mit Erwartungswert und Varianz 1 2 2 . Dann konver- tiert die Verteilung der standardisierten Zufallsvariablen p Xn Xn = n für n ! 1 gegen die Standardnormalverteilung (x ). = 0; = 1 Seite 169 3.8 3.8.4. Abschätzungen Mit Hilfe des zentralen Grenzwertsatzes können wir Wahrscheinlichkeiten für den Mittelwert und Summen von unabhängigen und identisch verteilten Zufallsvariablen abschätzen. Satz 3.10 (Zentraler Grenzwertsatz, Teil II) Für groÿe Werte von P n gilt n X i =1 x n Xi x p : n ! und P x p Xn x : = n Seite 170 3.8 Beispiel B3.10)B1 :1 : War der gewürfelte Mittelwert im Beispiel B1.1 signikant abweichend vom Erwartungswert? Wie groÿ ist die Wahrscheinlichkeit, bei 120 Würfen mit einem Spielwürfel, einen Mittelwert P X 120 X n > 3:55 zu erhalten? 3:55 3:55 3:5 1 q p = 120 = 1 (0:3207135) S:?? = 1 0:6255 = 0:3745 > 3:55 = 1 P X 120 35 12 Die Wahrscheinlichkeit für einen Mittelwert über Würfen etwa 37:5%. 3:55 beträgt bei 120 Seite 171 3.8 Beispiel B3.11: Bei einem Spiel verliert der Spieler mit Wahrscheinlichkeit 0.7 fünf Euro und gewinnt mit Wahrscheinlichkeit 0.3 acht Euro. Es sei Xi der Gewinn bzw. Verlust im i-ten Spiel (sog. Irrfahrt/Random Walk). Wie groÿ ist die Wahrscheinlichkeit, dass der Spieler nach 30 Spielen einen (positiven) Gewinn verzeichnet? = E (X ) = 0:7 5 + 0:3 8 = 0:7 25 + 0:3 64 1:1 = 35:49. Es gilt 1:1 und Var (X ) = 2 Damit erhalten wir P 30 X k =1 ! Xk > 0 = 1 P 30 X k =1 ! Xk 0 0 30 ( 1 : 1) 1 p35:49 30 = 1 (1:011) = 1 0:8438 = 0:1562: Seite 172 3.8 3.8.5. Die allgemeine Normalverteilung Wenn X N (0; 1) gilt, dann besitzt X + eine sog. Normalverteilung. Die Normalverteilung besitzt die Dichtefunktion 1 e = ( x ) : 2 Die zugehörige Verteilungsfunktion ; lässt sich wieder nicht in ge'; (x ) = p 1 2 2 schlossener Form angeben. Wir schreiben N (; ) für die Normalverteilung. In vielen Büchern bezeichnet wartungswert N (; s ) und Varianz s . eine Normalverteilung mit Er- Seite 173 3.8 = 0; = 1 = 5; = 1 Seite 174 3.8 = 5; = 2 = 5 ; = 1 =3 Seite 175 3.8 3.8.6. Rechenregeln und Transformationen für die Normalverteilung Angenommen X N (; ). Dann gilt aX + b N (a + b; jaj ): Speziell erhalten wir, wenn wir a= 1 und b = = wählen, X N (0; 1): Umgekehrt folgt aus X N (0; 1) X + N (; ): Seite 176 3.8 Die Summe von zwei normalverteilten Zufallsvariablen ist wieder normalverteilt. Falls Y N (; ) und X N (; ) unabhängig sind, gilt X + Y N ( + ; + ): p Wenn X ; X ; : : : ; Xn 1 2 2 unabhängig sind und 2 Xi N (; ) gilt, so ergibt sich n X i =1 p Xi N (n; n) und p X n N (; = n): Seite 177 3.8 3.8.7. Die Chi-Quadrat-Verteilung Wenn X ; X ; : : : ; Xn standardnormalverteilte unabhängige Zufallsvaria1 2 blen sind, so besitzt die Summe der Quadrate = 2 n X i =1 eine sog. Chi-Quadrat-Verteilung mit Xi 2 n Freiheitsgraden. n=3 Seite 178 3.8 -Quantil n; der Chi-Quadrat-Verteilung mit n Freiheitsgraden der Werte z für den F (z ) = gilt, wenn F die Chi-Quadrat- Das ist Verteilungsfunktion bezeichnet. Die Quantile sind aus der Tabelle auf Seite ?? zu entnehmen. Zum Beispiel ist ; : = 16:81: 6 0 99 Das bedeutet, dass P 6 X i =1 ist, wenn die ! Xi 16:81 = 0:99 2 Xi unabhängige standardnormalverteilte Zufallsvariablen sind. Seite 179 3.8 3.8.8. Die t-Verteilung Wenn X und X ; X ; : : : ; Xn 1 2 standardnormalverteilte unabhängige Zu- fallsvariablen sind, dann besitzt die Zufallsvariable T=q eine (Student)-t-Verteilung mit X Pn 1 2 n i =1 Xi n Freiheitsgraden . n=3 Seite 180 3.8 -Quantil tn; der t-Verteilung mit n Freiheitsgraden ist der Werte z für den F (z ) = gilt, wenn F die t-Verteilungsfunktion bezeichDas net. Die Quantile sind aus der Tabelle auf Seite ?? zu entnehmen. Beispielsweise ergibt sich t ;: 20 0 9 = 1:325; d.h. P (T 1:325) = 0:9: Seite 181 3.8 3.8.9. Die F-Verteilung Es seien X riablen mit 1 und X 2 zwei Chi-Quadrat-verteilte unabhängige Zufallsva- n bzw. m Freiheitsgraden. Dann hat die Zufallsvariable X F=X eine F-Verteilung mit 1 2 n und m Freiheitsgraden . n = 10, m = 5 Seite 182 3.8 -Quantil F n;m ; der F-Verteilung mit n und m Freiheitsgraden der Werte z für den F (z ) = gilt, wenn F die entsprechende Das ist ( ) Verteilungsfunktion bezeichnet. Die Quantile ndet man in den Tabellen ab Seite F ; ;: (10 5) 0 95 ??. Es ist z.B. = 4:735; d.h. P (F 4:735) = 0:95: Seite 183 3.8 3.8.10. Ein Beispiel zum Schluss Beispiel B3.12: In einer Fabrik wird Obst verpackt. Die Packungsgröÿe soll dabei jeweils 500g betragen, allerdings kommt es naturgemäÿ zu kleinen Schwankungen. X einer Obstpackung sei normalverteilt mit einem Mittelwert von = 500g und einer Standardabweichung von = 3: Das Gewicht Stichprobe, n = 30 Seite 184 3.8 Stichprobe, Stichprobe, n = 100 n = 5000 Seite 185 3.8 Nach einer Norm für den Obsthandel darf die Packungsgröÿe der Ware nicht um mehr als fünf Gramm vom angegebenen Gewicht abweichen. Wie groÿ ist die Wahrscheinlichkeit einer solchen unzulässigen Abweichung? Seite 186 3.8 X in eine standardnormalverteilte Zufallsvariable: P (X > 505 oder X < 495) = 1 P (X 2 [495; 505]) X 500 495 500 505 500 =1 P 3 2 3 ; 3 Wir transformieren X 500 =1 P 3 2 [ 5=3; 5=3] = 1 ((5=3) ( 5=3)) = 2(1 (5=3)) = 0:075 Seite 187 3.8 In einem LKW sollen 3 3 3 90 = 2430 der Obstpackungen transportiert werden, aber höchstens 1230 Kilogramm. Mit welcher Wahrscheinlichkeit ist das möglich? Das Gesamtgewicht E Y der 2430 Packungen ist normalverteilt mit (Y ) = 0:5 2430 = 1215 kg und b (Y ) = 0:003 2430 = 7:29. 1230 1215 1215 P (Y 1230) = P 7:29 7:29 = (2:058) = 0:98 Y Seite 188 4.1 4. Induktive Statistik 4.1. Punktschätzer Beispiel B4.1: Bei einem Spiel ist dem Spieler die Wahrscheinlichkeit zu gewinnen nicht bekannt. In 20 Spielen hat er fünf Mal gewonnen. Wie kann der Spieler die Gewinnwahrscheinlichkeit schätzen? Beispiel B4.2: In zehn Würfen mit einem u.U. nicht fairen Würfel ist die Augensumme 41. Wie kann man den Erwartungswert der Augenzahl schätzen? Wie kann man die Varianz schätzen? Seite 189 4.1 Gegeben seien unabhängige und identisch verteilte Zufallsvariablen X ; X ; X ; : : : ; Xn ; 1 2 3 eine sog. Stichprobe. Die gemeinsame Verteilung der Xi nennen wir auch Verteilung der Grundgesamtheit. Wir schreiben = E (X ) 1 für den gemeinsamen Erwartungswert und = Var (X ) = b (X ) 2 1 1 für die Varianz und die Standardabweichung der Stichprobenelemente. Seite 190 4.1 Eine Zufallsvariable S , die aus den Zufallsvariablen X 1 bis Xn gebildet wird heiÿt Statistik. Beispiele für Statistiken: Pn i =1 Xi , P X = n1 ni=1 Xi , Pn 1 2 n i =1 (Xi X ) , Pn 1 2 n i =1 (Xi E (X )) , mini maxi ; ;:::;n Xi , =1 2 ; ;:::;n Xi . =1 2 Seite 191 4.1 Punktschätzer sind Statistiken, die geeignet sind, einzelne Parameter der zugrundeliegenden Verteilung zu schätzen. Solche Parameter sind z.B. Die Erfolgswahrscheinlichkeit p der Bernoulli-Verteilung, n oder p bei der Binomialverteilung, p bei der geometrischen Verteilung, den Erwartungswert oder die Varianz Wir schreiben b b für 2 . , , oder b einen Punktschätzer des Parameters für einen Punktschätzer des Erwartungswertes also z.B. für einen Punktschätzer der Standardabweichung. Seite 192 4.1 4.1.1. Punktschätzer für den Erwartungswert Es sei der Erwartungswert der Zufallsvariablen X ; X ; X ; : : :. 1 Ein naheliegender Schätze für 2 3 ist der Mittelwert n X 1 b = X = X: n Dabei ist zu beachten, dass b, i =1 i im Gegensatz zur Zahl , weiterhin eine Zufallsvariable ist, also eine Verteilung, einen Erwartungswert und eine Varianz besitzt. Seite 193 4.1 Wir haben schon früher den Erwartungswert der Zufallsvariablen X berechnet. Es ergab sich E Wir sagen: (b) = : b ist erwartungstreu , bzw. unverzerrt: Der geschätzte Wert ist im Mittel gleich dem zu schätzenden Wert. Beispiel B1.1: b für n = 20, 1000 Mal wiederholt. Seite 194 4.1 ) Satz 3.8.3) Es gilt ( b (b) = p ; n d.h. die Standardabweichung nimmt mit wachsendem n immer weiter ab Auÿerdem gilt lim b (b) = 0: n!1 Wir sagen dann, dass b ein konsistenter Schätzer ist. Seite 195 4.1 Im allgemeinen ist die Verteilung von b nicht einfach zu beschreiben. Es gilt aber nach dem zentralen Grenzwertsatz b für groÿe Werte von N (; pn ) annähernd n. Ist die Grundgesamtheit normalverteilt mit bekanntem tem , dann ergibt sich, wie bereits oben gezeigt, b N (; p ): n und bekann- Seite 196 4.1 4.1.2. Punktschätzer für die Varianz bei bekanntem Erwartungswert Ist der Erwartungswert bekannt, so ist die empirische Varianz n X 1 b = n (Xi ) 2 2 i =1 ein konsistenter und erwartungstreuer Schätzer, d.h. E b = Var (X ) 2 lim Var b = 0: n!1 2 und Ist die Grundgesamtheit normalverteilt, so besitzt die Zufallsvariable b n 2 2 hat eine Chi-Quadrat-Verteilung mit n Freiheitsgraden. Seite 197 4.1 4.1.3. Punktschätzer für die Varianz bei unbekanntem Erwartungswert Wenn man bei unbekanntem den Ansatz n 1X X i X n 2 i =1 als Punktschätzer für die Varianz verwendet, so stellt sich heraus, dass der Erwartungswert dieses Schätzers n n 1 2 ist. Um einen erwartungstreuen Schätzer der Varianz zu erhalten, müssen wir also den Schätzer n X 1 Xi X b = b (X ) = n 1 i 2 2 2 =1 verwenden. Seite 198 4.1 Dieser neue Schätzer ist erwartungstreu, E b = ; 2 2 und konsistent: lim Var b = 0: n!1 2 Ist die Grundgesamtheit normalverteilt, so hat die Zufallsvariable (n 1) b eine Chi-Quadrat-Verteilung mit (n 1) Freiheitsgraden. 2 2 Seite 199 4.2 4.2. Intervallschätzer 4.2.1. Intervallschätzer für den Erwartungswert bei bekannter Varianz b ein erwartungstreuer und konsistenter Schätzer für den Erwartungswert ist. Wir haben gesehen, dass der Mittelwert Es wäre interessant zu wissen, was man über die Abweichung j bj sagen kann. Der Einfachheit halber gehen wir nun davon aus, dass 1. die Grundgesamtheit normalverteilt ist, d.h. es gilt Xi N (; ) und 2. die Varianz 2 bekannt ist. Seite 200 4.2 b normalverteilt mit Erwartungswert und Standardabweip chung = n , d.h. Dann ist P für jedes Zahl Wenn wir b b + c p = P p c = (c ) n n ! c 2 R. c =z 1 =2 (Quantil der Normalverteilung) wählen, so gilt b + z P pn = 1 2 : 1 =2 Ebenso kann man zeigen: b z P pn = 2 1 =2 Seite 201 4.2 Es ergibt sich dann P b z 1 =2 pn b + z pn = 1 : 1 =2 Das zufällige Intervall heiÿt b z 1 =2 pn ; b + z 1 (1 ) 100%-Kondenzintervall. =2 pn Es enthält (als Zufallsgrö- ÿe verstanden, also solange es noch nicht konkret anhand vorliegender Daten ausgerechnet wurde) mit Wahrscheinlichkeit schätzenden Parameter . 1 den zu Seite 202 4.2 Beispiel B4.3: Die Temperaturen an einem Ort werden 100 Jahre lang jeweils am 1.Juni gemessen. Angenommen die Standardabweichung der Temperaturen betrage 4 Grad und die Temperaturen seien normal- verteilt. Es ergibt sich als Schätzer für den Erwartungswert der Temperatur b = 22:6 Seite 203 4.2 = 0:05) erhalten wir dann Als 95%-Kondenzintervall ( b z : p ; b + z : p n n 4 ; 22:6 + 1:96 4 = 22:6 1:96 10 10 0 975 0 975 = [21:82; 23:38] : = 0:1) berechnen wir b z : p ; b + z : p n n 1 :645 4 1 :645 4 = 22:6 10 ; 22:6 + 10 Als 90%-Kondenzintervall ( 0 95 0 95 = [21:94; 23:26] : liegt nicht mit 90% bzw. 95% Wahrscheinlichkeit in diesen Intervallen! ist eine feste Zahl, keine Zufallsvariable. Der Erwartungswert Seite 204 4.2 4.2.2. Intervallschätzer für den Erwartungswert bei unbekannter Varianz Ist die Varianz unbekannt, so muss sie geschätzt werden: n X 1 b = n 1 Xi X i 2 2 =1 Um allerdings P b b b + c p = P b p c n = n zu berechnen, benötigen wir die Verteilung der Zufallsvariablen b T=bp : = n Man kann zeigen, dass T eine t-Verteilung mit (n-1)-Freiheitsgraden besitzt. Seite 205 4.2 Wenn wir c = tn ; =2 (Quantil der t-Verteilung) wählen, b b + tn 1;1 =2 P = 1 : 1 1 pn und b tn P Wir erhalten das so gilt 2 pbn = 2 : ; =2 1 1 (1 ) 100%-Kondenzintervall b tn ; =2 1 1 pbn ; b + tn dass den zu schätzenden Parameter pbn ; ; =2 1 1 mit Wahrscheinlichkeit 1 enthält (solange noch kein konkretes Intervall berechnet wurde). Seite 206 4.2 Beispiel B4.4)B4 :3 : Die Temperaturen an einem Ort werden 100 Jahre lang jeweils am 1.Juni gemessen. Angenommen die Temperaturen seien normalverteilt mit unbekanntem und unbekanntem 2 . Die Punktschätzer für den Erwartungswert und die Varianz (Standardabweichung) der Temperatur sind b = 22:6 b = 12:25; (b = 3:5) 2 Seite 207 4.2 = 0:05) erhalten wir dann Als 95%-Kondenzintervall ( b b b t ; : p ; b + t ; : p n n 1 :984 3:5 1 :984 3:5 = 22:6 10 ; 22:6 + 10 99 0 975 99 0 975 = [21:91; 23:29] : Seite 208 4.2 4.2.3. Intervallschätzer für die Varianz bei bekanntem Erwartungswert Ist bekannt, so ist b 2 unser erwartungstreuer Schätzer für die Va- rianz und es gilt P wobei F c b = P 2 2 b n n c = 1 F (n=c ); 2 2 die Verteilungsfunktion einer Chi-Quadrat-Verteilung mit n Freiheitsgraden bezeichnet. Wir setzen n c = n;= 2 bzw. c = n; n = 1 2 und erhalten nb = 1 ; P n;= 2 nb P = n; = 2: 2 2 2 2 2 1 2 Seite 209 4.2 Dann ergibt sich P Wir erhalten das nb 2 n; 1 nb n;= 2 2 =2 2 = 1 : (1 ) 100%-Kondenzintervall nb 2 n; 1 =2 nb ; : n;= 2 2 Seite 210 4.2 4.2.4. Intervallschätzer für die Varianz bei unbekanntem Erwartungswert Ist unbekannt, so verwenden den Schätzer b 2 . Es gilt dann, ganz ähnlich wie im Fall bekannten Erwartungswertes, P c b = P 2 wobei 2 F (n 1) b n c 1 = 1 F ((1 n)=c ); 2 2 die Verteilungsfunktion einer Chi-Quadrat-Verteilung mit (n 1) Freiheitsgraden bezeichnet. Wie oben ergibt sich das (1 ) 100%-Kondenzintervall (n 1)b ; (n 1)b : 2 2 n ; =2 1 1 n ;=2 1 Seite 211 4.2 Beispiel B4.5: Es seien X ;X ;:::;X 1 2 20 die Ausgaben von zwanzig Kunden in einem bestimmten Supermarkt. Wir gehen von einer Normalverteilung Xi N (; ) der Grundgesamtheit aus. Die Punktschätzer für den Erwartungswert und die Varianz (Standardabweichung) sind: b = 36:23 b = 327:94 2 (b = 18:11) Seite 212 4.2 = 10%) Wir erhalten die Intervallschätzer ( b tn ; =2 1 1 pbn ; b + tn ; =2 1 1 = [29:23; 43:23] pbn für den Erwartungswert und (n 1)b ; (n 1)b n ; = n ;= = [206:70; 615:87] ([14:3; 24:82]) 2 1 1 2 2 1 2 für die Varianz (bzw. Standardabweichung). Seite 213 4.2 90%-Kondenzintervalle für für 100 Supermärkte: Seite 214 4.2 4.2.5. Schätzen ohne Zurücklegen Wird eine Stichprobe ohne Zurücklegen aus einer endlichen Grundgesamtheit der Gröÿe N gezogen, so sind die Zufallsvariablen X ; X ; : : : ; Xn nicht mehr unabhängig. b = X ist weiterhin ein erwartungstreuer konsistenter Der Mittelwert Schätzer für den wahren Erwartungswert . 1 2 Allerdings ist der Schätzer für die Varianz nicht länger erwartungstreu. Ein erwartungstreuer und konsistente Schätzer ist nun n X N 1 1 b = N n 1 Xi X : i 2 2 =1 Oensichtlich liegt der Korrekturfaktor N sehr groÿ ist. (N 1)=N nahe bei eins, wenn Seite 215 4.3 4.3. Hypothesentests 4.3.1. Idee Bei einem statistischen Test versucht man anhand von Daten, den Wahrheitsgehalt von Hypothesen zu bestimmen. Meistens handelt es sich um Hypothesen, die die wahre Verteilung der Stichprobe betreen, z.B. die Hypothesen über den Erwartungswert, über die Varianz, über den Median oder Quartile, über die Verteilung. Es kann auch eine Hypothese über den Zusammenhang oder über Unabhängigkeit von Merkmalen getestet werden. Seite 216 4.3 Meistens wird zunächst eine Nullhypothese der Erwartungswert H 0 formuliert, z.B., dass einen bestimmten Wert 0 H : hat: = : 0 0 Eine einfache Hypothese liegt vor, wenn wir, wie im Fall oben, annehmen, dass ein Verteilungsparameter einen bestimmten Wert annimt. Ansonsten ist die Hypothese zusammengesetzt. Die Alternative H 1 beschreibt eine zweite Hypothese Gegenhypothese), die nur dann eintreten kann, wenn H 0 (die nicht ein- tritt, z.B. H : > H : 6= : oder Häug handelt es sich bei H 1 1 0 1 0 um das logische Komplement von H 0. Seite 217 4.3 Die generelle Vorgehensweise bei einem Hypothesentest ist: 1. Wir stellen eine Hypothese auf und formulieren sie mathematisch. 2. Wir nden eine passende Teststatistik T. 3. Wir nden einen sinnvollen Ablehnungsbereich die Hypothese dann ablehnen, wenn probe in A liegt. A derart, dass wir T nach Auswertung der Stich- Seite 218 4.3 Beispiel B4.6)B1 :1 : Wir haben den Verdacht, dass bei unserem Würfelexperiment zu Beginn der Vorlesung die Drei häuger erschien, als gewöhnlich. Es sei 1. Es sei p X ;:::;X 1 120 eine Stichprobe von Augenzahlen. die Wahrscheinlichkeit einer Drei. Dann stellen wir die Nullhypothese H : p = 1=6: 0 auf. Die Alternative wäre H : p > 1=6. 1 2. Als Teststatistik wählen wir die Anzahl T der Dreier bei n Würfen: T = ]fXi jXi = 3g T > 20 + C ist, wobei wir C wählen müssen. Es ist also A = (20 + C; 1). 3. und lehnen ab, wenn noch passend Seite 219 4.3 4.3.2. Wahl des Ablehnungsbereiches Es stellt sich die Frage, wie wir einen passenden und sinnvollen Ablehnungsbereich nden können. Meistens ergeben sich aus der Hypothese bereits Ansatzpunkte, z.B., dass A, wie im obigen Beispiel, ein bestimmtes Intervall ist, bei dem noch die Intervallgrenzen zu bestimmen sind. Nach welchen Kriterien soll man A wählen? Wir überlegen uns, dass wir insgesamt zwei wichtige Fehler machen können: 1. Fehler erster Art: Wir lehnen die Hypothese ab, obschon sie zutrit. 2. Fehler zweiter Art: Wir lehnen die Hypothese nicht ab, obschon sie nicht zutrit. Seite 220 4.3 Üblicherweise wird nun bei einem statistischen Hypothesentest der Ablehnungsbereich A so festgelegt, dass die Wahrscheinlichkeit eines Fehlers erster Art eine bestimmte, vorher festgelegte Schwelle, das Signikanzniveau , nicht überschreitet. Dazu benötigt man natürlich die Verteilung von H 0 gilt). Warum sollte man nicht versuchen, T unter H 0 (d.h. wenn A so festzulegen, dass die Wahr- scheinlichkeit eines Fehlers erster Art minimal wird? Seite 221 4.3 4.3.3. Vorgehensweise 1. Formulierung der Hypothese 2. Finden einer geeigneten Teststatistik H 0 T, deren Verteilung unter bekannt ist. 3. Festlegen eines Signikanzniveaus . 4. Angabe eines Ablehnungsbereiches mit P (T 2 AjH ) = : 0 5. Konkrete Berechnung der Teststatistik t anhand der Daten. 6. Ablehnen der Hypothese genau dann, wenn t 2 A gilt. Seite 222 4.3 Beispiel B4.7)B1 :1 : Die Anzahl T der Dreier bei 120 Würfen ist binomialverteilt mit Erfolgswahrscheinlichkeit Wir lehnen die Hypothese p. Wir setzen = 0:01. p = 1=6 ab, wenn T > 20 + C ist. Die Wahrscheinlichkeit eines Fehlers erster Art ist: P (T > 20 + C jH ) = Es ist sehr aufwendig 0 120 X 120 k k (1=6) (5=6) k =20+C 120 k C so zu bestimmen, dass P (T > 20 + C jH ) = 0:01 0 gilt. Seite 223 4.3 Wir verwenden den zentralen Grenzwertsatz in folgender sehr bekannter Form: Satz 4.1 (Satz von Moivre-Laplace) Ist T binomialverteilt, so konvergiert die Verteilung von T np np(1 p) p für n ! 1 gegen eine Standardnormalverteilung. Entsprechend haben wir die Näherung x np p P (T x ) : np(1 p) ! Seite 224 4.3 Also gilt P (T > 20 + C jH ) 1 q C n (1 0 1 6 =1 C 100=6 p 1 6 ! ) = 0:01 ! genau dann, wenn C = 100=6 z : = 4:0825 2:3264 = 9:4973 p 0 99 ist, d.h. unser Ablehnugsbereich ist A = (29:4973; 1): Bei 30 Dreiern, wie im Beispiel B1.1, würden wir also zum 1%-Niveau die Hypothese p = 1=6 zu Gunsten der Alternative p > 1=6 ablehnen! Seite 225 4.3 4.3.4. Die Gütefunktion Angenommen unsere Hypothese beinhaltet einen Parameter Erwartungswert oder die Varianz 2 (z.B. den ). Die Gütefunktion G (x ) = P (T 2 Aj = x ) beschreibt die Wahrscheinlichkeit, die Hypothese abzulehnen, wenn =x ist. Bei einem Signikanzniveau gilt G (x ) wenn x in dem Bereich liegt, wo die Nullhypothese gilt. Seite 226 4.3 4.3.5. Der p-Wert Bei einem Hypothesentest beschreibt der p-Wert die Wahrscheinlichkeit, bei einer erneuten Stichprobe eine Teststatistik T zu beobachten, die unplausibler ist, als die konkret beobachtete Statistik Ist t. A = [a; 1) (rechtsseitiger Test), so ergibt sich p = P (T t jH ) : 0 Ist A = ( 1; b] (linksseitiger Test), so ergibt sich p = P (T t jH ) : 0 Ist A = ( 1; b] [ [b; 1) (zweiseitiger Test), so ergibt sich p = P (jT j jt j jH ) : 0 Seite 227 4.3 Ist der p-Wert klein, so ist der Wert t der Teststatistik als extrem anzusehen und daher die Nullhypothese abzulehnen. Ist der p-Wert groÿ, so ist der Wert t der Teststatistik als eher durch- schnittlich anzusehen und daher die Nullhypothese nicht abzulehnen. Bei einem Signikanztest zum Signikanzniveau (vor dem Test fest- zulegen) lehnen wir die Nullhypothese genau dann ab, wenn p ist. Computersoftware berechnet heute bei Hypothesentests immer auch den zugehörigen p-Wert. Eine Kenntnis des Wertes der Teststatistik und des Ablehnungsbereichs ist dann in der Regel nicht mehr notwendig. Seite 228 4.3 Beispiel B4.8)B1 :1 : Für das Würfelbeispiel B1.1 ergibt sich die Gütefunktion G (x ) = P (T > 29:4973jp = x ) ! 29 : 4973 120 x 1 p : 120x (1 x ) Seite 229 4.3 Unsere Teststatistik T = hatte den konkreten Wert Anzahl der Dreier t = 30 angenommen. Es ergibt sich der p-Wert 10 p = P (T > 30) 1 p = 0:0072; 100=6 ! d.h. wir würden die Hypothese p = 1=6 zu jedem Niveau > 0:72% ablehnen. Seite 230 4.3 4.3.6. Einstichprobentests für den Erwartungswert bei normalverteilter Grundgesamtheit Wir gehen wieder von einer normalverteilten Grundgesamtheit aus und wollen die Hypothese = 0 gegen die Alternative 6= > < Dabei ist 0 (zweiseitiger Test) bzw. 0 (rechtsseitiger Test) oder 0 (linksseitiger Test) testen. 0 ein fester vorgegebener Wert (der hypothetische Erwar- tungswert). Seite 231 4.3 (1) Test bei bekannter Varianz In dem eher unrealistischen Fall bekannter Varianz Teststatistik 2 wählen wir als p X T = n N (0; 1): 0 Es ergeben sich die Ablehnungsbereiche A = ( 1; z = ) [ (z A = (z ; 1); A = ( 1; z ) : 1 2 1 =2 ; 1); 1 1 Seite 232 4.3 Wir lehnen also in folgenden Fällen ab: jT j > z 1 =2 ; T >z 1 ; T< z 1 : Für die p-Wert ergibt sich p = P (jT j > jt j jH ) = 2(1 (jt j)); p = P (T > t jH ) = 1 (t ); p = P (T < t jH ) = (t ): 0 0 0 Gütefunktion ( = 0, = 1, = 10%): 0 Seite 233 4.3 (2) Test bei unbekannter Varianz (t-Test) Im Normalfall wird die Varianz, wie der Erwartungswert, nicht bekannt sein. In dem Fall schätzen wir b 2 2 durch den erwartungstreuen Schätzer und verwenden die t-verteilte Teststatistik p X T = n b t (n 1): 0 Es ergeben sich die Ablehnungsbereiche A = ( 1; tn ; = ) [ (tn A = (tn ; ; 1); A = ( 1; tn ; ): 1 1 2 ; =2 ; 1 1 1); 1 1 1 1 Seite 234 4.3 Wir lehnen also in folgenden Fällen ab: jT j > tn ; =2 ; 1 1 T > tn ; T < tn 1 1 ; ; : 1 1 Wir erhalten die p-Werte p = P (jT j > jt j jH ) = 2(1 Fn (jt j)); p = P (T > t jH ) = 1 Fn (t ); p = P (T < t jH ) = Fn (t ): 0 1 0 0 Hier bezeichnet Fn 1) Freiheitsgraden. 1 1 1 die Verteilungsfunktion der t-Verteilung mit (n Seite 235 4.3 Beispiel B4.9: Tägliche Renditen für den DAX, 2016 (Quelle: Yahoo) Wir wollen zum Niveau 10% testen, ob = 0 gilt: H : = 0; H : 6= 0: 0 1 Seite 236 4.3 Es ergibt sich in diesem Fall p X b p 3:085 = 0:484; = 255 101 :84 t = n 0 mit dem Schätzer für die Standardabweichung sP n k =1 (xk b = n 1 Es ist t ;: 254 0 95 = 1:651 also jt j < t ) ;: 2 254 0 95 = 101:84: d.h. H 0 wird nicht abgelehnt. Alternative: Als p-Wert ergibt sich p = 2 (1 F (0:412)) = 0:629 254 so dass wir zu allen üblichen Signikanzniveaus H 0 nicht ablehnen. Seite 237 4.3 4.3.7. Einstichprobentests für die Varianz bei normalverteilter Grundgesamtheit Wir gehen von einer normalverteilten Grundgesamtheit aus und wollen die Hypothese = 2 2 0 gegen die Alternative = 6 > < 2 2 0 (zweiseitiger Test) bzw. 2 2 0 (rechtsseitiger Test) oder 2 2 0 (linksseitiger Test) testen. Die hypothetische Varianz 0 ist dabei ein fest vorgegebener Wert. Seite 238 4.3 (1) Test bei bekanntem Erwartungswert Bei bekanntem wählen wir als Teststatistik b T = n (n): 2 2 2 0 Es ergeben sich die Ablehnungsbereiche A = [0; n;= ) [ (n; A = (n; = ; 1); A = [0; n;= ): 2 1 1 =2 ; 1); 2 2 Wir lehnen also in folgenden Fällen ab: T < n;= oder T > n; T > n; ; T < n; : 2 1 =2 1 Seite 239 4.3 p-Werte: p = (komplizierter) p = P (T > t jH ) = 1 Fn (t ); p = P (T < t jH ) = Fn (t ): 0 0 Hier bezeichnet Verteilung mit Fn die Verteilungsfunktion n Freiheitsgraden. der Chi-Quadrat- Seite 240 4.3 Beispiel B4.10: Jahresmitteltemperaturen in Sachsen, 1881-2016 (Quelle: DWD): Dies ist ein Beispiel für eine Zeitreihe. Oenbar existiert ein gewisser Trend, den man mit Hilfe der Zeitreihenanalyse (Kleinste-QuadrateMethode) herausrechnen kann. Seite 241 4.3 x ;x ;:::;x Jahresmittelwerte ohne Trend ( Wir wollen die Hypothese H : 0 1 Var 2 136 ): (X ) = = 0:4 (=Varianz der Daten 2 für Bayern) mit einem zweiseitigen statistischen Test zum Signikanz- = 5% untersuchen. Dabei können wir für den Erwartungswert E (X ) = = 0 annehmen. niveau Seite 242 4.3 Als erstes schätzen wir die Varianz mit Hilfe der empirischen Varianz b = 2 Pn k =1 (xk n ) 2 P136 2 k =1 xk = 136 = 0:495: Dann bestimmen wir den Wert der Teststatistik: b t = n = 168:2: 2 2 0 Für die beiden relevanten Quartile ergibt sich ;: 136 0 025 = 105:61 und = 170:18. Da t 2 [105:61; 170:18], lehnen wir H , d.h. die Hypothese, dass die Varianz 0:4 ist, nicht ab. ;: 136 0 975 0 Seite 243 4.3 (2) Test bei unbekanntem Erwartungswert Bei nicht bekanntem ergibt sich als Teststatistik b T = (n 1) (n 1): 2 2 2 0 Es ergeben sich die Ablehnungsbereiche A = [0; n A = (n ; A = [0; n [ (n = ; 1); ;= ): ;=2 ) 1 1 1 1 ; =2 ; 1 1 1); 2 2 Wir lehnen also in folgenden Fällen ab: T < n T > n T < n 1 ;=2 oder ; ; T > n ; =2 1 1 1 1 1 ; : Seite 244 4.3 p-Werte: p = (komplizierter) p = P (T > t jH ) = 1 Fn (t ); p = P (T < t jH ) = Fn (t ): 0 0 Hier bezeichnet Verteilung mit Fn 1 die 1 1 Verteilungsfunktion (n 1) Freiheitsgraden. der Chi-Quadrat- Seite 245 4.3 4.3.8. Zweistichprobentest auf gleiche Erwartungswerte (t-Test) Wir betrachten ger Stichproben nun den Fall zweier normalverteilter X ; X ; : : : ; X n N ( ; ) 1 2 1 N ( ; ) mit gleichen, unbekannten Varianzen. und unabhängi- Y ; Y ; : : : ; Ym 1 2 2 Das Problem eines entsprechenden Tests mit möglicherweise ungleichen Varianzen ist schwerer zu lösen (Behrens-Fisher-Problem, Welch-Test). Wir wollen also die Hypothese H : = 0 1 2 gegen die Alternative H : 6= 1 1 2 testen. Seite 246 4.3 Wir verwenden die Teststatistik X Y T=p (n 1)b + (m 1)b 2 1 die unter H 0 r 2 2 nm(n + m 2) ; n+m (n + m 2) Freiheitsgraden besitzt. eine t-Verteilung mit Ablehnungsbereich: A = ( 1; tn d.h. wir lehnen ab, falls m 2;1 =2 ) + jT j > tn [ (tn m 2;1 =2 + m 2;1 =2 ; + 1): ist. P-Wert: p = P (jT j > jt j jH ) = 2(1 Fn 0 m + 2 (jt j)): Seite 247 4.3 Beispiel B4.11: Zwei Maschinen stellen Bauteile mit einem Gewicht X bzw. Y her (Angaben in Gramm). Es ist bekannt, dass beide Maschi- nen bei der Produktion Fehler mit derselben (unbekannten) Varianz 2 machen. Es wird eine Stichprobe von 30, bzw. 20 Bauteilen untersucht. Wir wollen zu einem Signikanzniveau von 10% die Hypothese unter- suchen, dass die Mittelwerte der Bauteilgewichte für beide Maschinen identisch sind. Seite 248 4.3 Wir erhalten x = 2197:571; y = 2206:815 b = 320:3355; b = 323:2014 9:244066 p t = 124:2198 24 = 1:786 p = 2 (1 F (1:786)) = 0:08042 2 1 2 2 48 H 0 wird zu jedem Niveau > 0:08042 abgelehnt, also auch in unserem Fall. Seite 249 4.3 4.3.9. Zweistichprobentest auf gleiche Varianzen (F-Test) Wir betrachten den Fall zweier normalverteilter unabhängiger Stichproben X ; X ; : : : ; Xn N ( ; ) und Y ; Y ; : : : ; Ym N ( ; ). 1 2 1 1 1 2 2 2 Wir wollen nun die Hypothese H : = 2 2 H : 6= 2 2 0 2 1 gegen die Alternative 1 2 1 testen. Seite 250 4.3 Die Teststatistik b T = b 2 1 2 2 besitzt eine F -Verteilung mit n 1 und m 1 Freiheitsgraden. Ablehnungsbereich: A = [0; F n ( 1 ;=2 ) ;m 1) [ (F n ( ;m 1 ; =2 ; 1) 1 1): Wir lehnen ab, wenn T <Fn ( ;m 1 ;=2 1) oder T >Fn ( ;m 1 ; =2 1) 1 ist. Seite 251 4.3 Beispiel B4.12: Fünf bzw. sieben Wochen lang wird jeden Tag von 16 bis 17 Uhr die Verkehrsdichte (Fahrzeuge/h) an zwei Ausfahrtstraÿen einer Groÿstadt aufgezeichnet. Es ist b = 749347:3; b = 913983 2 1 Wir wollen zum Signikanzniveau 2 2 = 10% testen, ob die Varianzen Seite 252 4.3 gleich sind: H : = ; H : 6= : 2 1 0 Es ist 2 2 2 1 1 2 2 b T = b = 0:82 2 1 2 2 und F ; ;: (34 48) 0 05 = 0:582; F ; ;: (34 48) 0 95 = 1:672: Wir lehnen also die Hypothese nicht ab. Mit Hilfe von Statistiksoftware kann man den p-Wert p = 0:548 berechnen. Seite 253 4.3 4.3.10. Chi-Quadrat-Anpassungstest Wir wollen jetzt Hypothesen der Form F H :F =F 0 0 testen. Dabei ist die (wahre und unbekannte) Verteilungsfunktion der Grundge- samtheit, F 0 unsere hypothetische Verteilungsfunktion. Gegeben seien eine Stichprobe X ; X ; : : : ; Xn 1 2 von unabhängigen Beobachtun- gen, Klassen K ; K ; : : : ; Km 1 2 (u.U. auch aus einzelnen Ausprägungen bestehend), n(Ki ) und zu erwartende Klassenhäugkeiten für den Fall, dass H zutrit, ne (Ki ) = n P (X 2 Ki ). absolute Häugkeiten 0 Seite 254 4.3 Beispiel B4.13)B1 :1 : Für unser ursprüngliches Würfelbeispiel ergibt sich, wenn unsere Hypothese die diskrete Gleichverteilung betrit: Augenzahl: n ( Ki ) : ne (Ki ): 1 2 3 4 5 6 15 18 30 18 21 18 20 20 20 20 20 20 Als Testvariable könnten wir die absoluten Abstände m X k =1 jn(Ki ) ne (Ki )j verwenden. Es stellt sich heraus, dass eine etwas anders gewählte Statistik besser geeignet ist. Seite 255 4.3 Die Chi-Quadrat-Statistik ist gegeben durch T= T besitzt unter Verteilung mit m X ( n ( Ki ) ne (Ki )) : ne (Ki ) k =1 2 H asymptotisch (also für n ! 1) eine Chi-Quadrat(m 1) Freiheitsgraden. Für jede Schätzung eines 0 weiteren Parameters verringert sich diese Zahl um eins. Wir lehnen die Hypothese ab, wenn T > m ; 1 1 ist. Als p-Wert ergibt sich p = P (T > t jH ) = 1 Fm (t ); 0 wo Fm 1 1 die Verteilungsfunktion der Chi-Quadrat-Verteilung ist. Seite 256 4.3 Beispiel B4.14)B1 :1 : Augenzahl: n ( Ki ) : ne (Ki ): 1 2 3 4 5 6 15 18 30 18 21 18 20 20 20 20 20 20 Es ist t= 25 + 4 + 100 + 4 + 1 + 4 = 6:9 20 und p = 1 F (6:9) = 0:2281843 5 Wir lehnen die Hypothese zu keinem vernünftigen Signikanzniveau ab und gehen dementsprechend bis auf weiteres von einer diskreten Gleichverteilung (fairer Würfel) aus. Seite 257 4.3 Beispiel B4.15)B4 :10 : Jahresmitteltemperaturen in Sachsen, 18812016, ohne Trend: Einteilung in Klassen: (-3,-2] (-2,-1] (-1,0] (0,1] (1,2] 1 11 50 69 5 Liegt eine Normalverteilung vor? Seite 258 4.3 Es ist b = 0 und b = 0:703, also ergibt sich für unsere Hypothese H : X N (0; 0:703): 0 Ki n(Ki ) (ai =b) (bi =b) (bi =b) (ai =b) ne (Ki ) t= (-3,-2] (-2,-1] (-1,0] (0,1] (1,2] 1 11 50 69 5 0.001 0.023 0.159 0.500 0.841 0.023 0.159 0.500 0.841 0.977 0.021 0.136 0.341 0.341 0.136 2.9 18.5 46.4 46.4 18.5 m X (n(Ki ) k =1 ne (Ki )) = 25:42 ne (Ki ) 2 Seite 259 4.3 Die Teststatistik T hat etwa eine Chi-Quadrat-Verteilung mit 5 1 1 = 3 Freiheitsgraden (wir haben ja die Varianz geschätzt!). Es ist p = 1 F (25:42) = 1:26 10 : 3 5 Wir lehnen die Hypothese zu allen gängigen Signikanzniveaus ab. Seite 260 4.3 4.3.11. Weitere Tests auf Normalität Es gibt noch eine Reihe weiterer Tests auf Normalität, für die allerdings die Anwendung von Statistiksoftware notwendig ist. Der Shapiro-Wilks-Test liefert für das obige Beispiel: Test Name : Data : Test Statistic : P - value : Shapiro - Wilk normality test t W = 0.9774639 0.02354978 Beim Lilliefors-Test ergibt sich: Test Name : + Smirnov ) normality test Data : Test Statistic : P - value : Lilliefors ( Kolmogorov t D = 0.07416185 0.0641023 Seite 261 4.3 4.3.12. Q-Q-Plots Optisch besteht die Möglichkeit sich mit Hilfe eines sog. Q-Q-Plots (Quantil-Quantil-Plot) von der Normalität der Daten zu überzeugen. Dabei werden die Quantile der Normalverteilung und die empirischen Quantile der vorliegenden Daten in einem Diagramm aufgetragen. Auÿerdem wird eine Hilfsgerade berechnet und aufgetragen. Im Fall einer vorliegenden Normalverteilung liegen die Punkte etwa auf der angegebenen Geraden. Seite 262 4.3 Etwa normalverteilte Daten (oben: n=5000, unten: n=25): Seite 263 4.3 Rechtsschiefe Daten: Seite 264 4.3 Linksschiefe Daten: Seite 265 4.3 Bimodale Daten: Seite 266 4.3 Beschränkter Träger: Seite 267 4.3 Wir erhalten im obigen Beispiel: Seite 268 4.3 4.3.13. Der Chi-Quadrat-Homogenitätstest Wir wollen jetzt testen ob zwei unabhängige Stichproben und Y ; Y ; : : : ; Ym ein und dieselbe Verteilung besitzen: 1 X ; X ; : : : ; Xn 1 2 2 H : F =F : 0 1 2 Wir verwenden folgende Gröÿen: Klassen K ; K ; : : : ; Kk 1 (u.U. auch aus einzelnen Ausprägungen 2 bestehend), absolute Häugkeiten: Klasse: X Y 1 n; n; n 1 1 2 1 1 2 ... 1 2 ... 2 2 ... 2 ... n; n; n k n ;k n = n n ;k n = m nk n + m 1 1 2 2 Seite 269 4.3 Als Teststatistik dient der Chi-Quadrat-Koezient = 2 2 k X X i =1 j =1 nij ni nj 2 n+m ni nj n +m k 1 Freiheitsgraden besitzt. Ablehnung der Hypothese, falls > k ; ist. P-Wert, falls = c ist: der etwa eine 2 -Verteilung mit 2 1 1 2 p = P > c = 1 Fk (c ); 2 wobei Fk 1 1 die entsprechende Chi-Quadrat-Verteilungsfunktion ist. Seite 270 4.3 Beispiel B4.16: Die Besuchszahlen des Oktoberfestes werden für zwei Jahre (X,Y) an jeweils 30 Tagen verglichen. 0-30 30-50 50-70 70-90 90-110 ni X 2 9 10 6 3 30 Y 0 1 12 15 2 30 nj 2 10 22 21 5 60 Klassen: Liegen für X und Y identische Verteilungen vor? Seite 271 4.3 Wir testen bei einem Signikanzniveau von = 0:01. Es ist = 12:639 2 und ; : = 13:2767 4 0 99 wir lehnen also H 0 nicht ab. Alternativ können wir den p-Wert berechnen und erhalten: p = 1 F (12:639) = 0:01318: 4 Seite 272 4.3 4.3.14. Der Chi-Quadrat-Unabhängigkeitstest Wir wollen jetzt testen ob zwei Merkmale H : X und Y unabhängig sind: X und Y unabhängig 0 Voraussetzungen: X ; X ; : : : ; Xn und Y ; Y ; : : : ; Ym , Klassen oder Ausprägungen K ; K ; : : : ; Kk und L ; L ; : : : ; Lr , Stichproben 1 2 1 1 2 2 1 2 absolute Häugkeiten: L K n; 1 1 . . . 1 1 Lr nr; Y n . . . 1 1 K n; 2 ... 1 2 ... nr; n . . . . . . 2 ... 2 ... Kk n ;k 1 . . . n 1 . . . nr;k nr nk n + m Seite 273 4.3 Als Teststatistik dient erneut der Chi-Quadrat-Koezient = 2 der etwa eine 2 r X k X i =1 j =1 -Verteilung mit besitzt. Ablehnung der Hypothese, falls P-Wert, falls c nij ni nj 2 n+m ni nj n +m ` = (r 1) (k 1) Freiheitsgraden > `; 2 1 ist. die berechnete Teststatistik ist: p = P > c = 1 F` (c ); 2 wobei F` die entsprechende Chi-Quadrat-Verteilungsfunktion ist. Seite 274 4.3 Beispiel B4.17: (Vergleiche mit Aufgabe 46) An einer Hochschule starten 140 Studierende ins erste Semester. Sie können zwischen 3 Studiengängen A,B,C und D wählen. Sind die beiden Merkmale Studiengang und Y = Geschlecht unabhängig? A B C D m 10 30 10 5 55 w 20 20 40 5 85 30 50 50 10 140 Wir testen zum Niveau X = = 0:1. Seite 275 4.3 Wir erhalten = 17:718 2 und ; : = 6:251389: 3 0 9 Wir lehnen also ab. In der Tat ist p = 0:0005028544 < 0:01: Seite 276 4.3 4.3.15. Test auf Ausreiÿer Ein Ausreiÿer ist ein Datenwert, der auÿergewöhnlich weit von den übrigen, bzw. von den meisten anderen Daten entfernt liegt. Es gibt keine genaue mathematische Denition. Der Grubbs-Test kann Ausreiÿer feststellen. Dazu wird angenommen, dass die Grundgesamtheit normalverteilt ist und die Teststatistik T= maxi =1 j xj ;:::;n xi b berechnet. Die Nullhypothese es liegt kein Ausreiÿer vor wird abgelehnt, wenn tn ;= n n 1 t > c = p n n 2 + tn ;= n s 2 2 2 2 2 2 ist. Seite 277 4.3 Wird die Hypothese abgelehnt, so kann man den verdächtigen Datenwert entfernen und einen neuen Test starten. Dieses Verfahren wird solange durchgeführt, bis kein Ausreiÿer mehr erkannt wird Das Entfernen von Datenpunkten muss sich aus dem jeweiligen Zusammenhang rechtfertigen lassen. Im Normalfall dürfen keine Daten entfernt werden! Seite 278 4.3 Beispiel B4.18: Ein handschriftlich notierter ursprünglich normalverteilter Datensatz weist u.U. Zahlendreher auf: 13:3; 31:1; 10:0; 60:2; 33:7; 15:2; 16:2; 14:9; 17:7; 21:1; 29:8; 13:6; 11:4; 18:7; 41:1 Seite 279 4.4 Wir verwenden den Grubbs-Test zum Niveau 10%. Es ist x = 23:2, b(x ) = 13:748 und 37 t = 13:748 = 2:691; s tn ;= n n 1 c = p = 2:409: n n 2 + tn ;= n 2 2 2 2 2 2 Wir lehnen also die Nullhypothese ab. Wir entfernen den Datenwert 60:2 und erhalten im zweiten Durchlauf t = 2:157; c = 2:372: Wir lehnen die Nullhypothese nicht ab, belassen also alle übrigen Werte im Datensatz. Seite 280 4.4 4.4. Einfache lineare Regression In der einfachen linearen Regression versucht man lineare Zusammenhänge zwischen zwei Gröÿen X X und Y nachzuweisen. Dabei ist eine für uns nicht zufällige, also deterministische Gröÿe (die erklärende Variable, exogene Variable oder Regressor), nach Ermittlung einer Stichprobe konkret gegeben durch Datenpunkte x ; x ; : : : ; xn und Y eine zufällige Gröÿe 1 2 (die zu erklärende Variable, endogene Variable oder Regressand), konkret gegeben durch eine Stichprobe y ; y ; : : : ; yn . 1 2 Zu jedem Datenelement xi gehört eindeutig eine Stichprobe yi . Seite 281 4.4 Idealerweise läge ein linearer Zusammenhang vor: Y = + X 0 1 mit zwei unbekannten Regressionsparametern ; 0 1. Tatsächlich werden allerdings noch gewisse Fehler- oder Störterme Z auftreten, so dass dann Y = + X + Z; 0 gilt. Wenn wir annehmen, dass E 1 (Z ) = 0 ist, dann können wir auch schrei- ben: E (Y jX = x ) = + x: 0 1 Seite 282 4.4 Beispiel B4.19: Wir betrachten die Jahresmitteltemperaturen in Deutschland für den Zeitraum 1970-2016 (Quelle: DWD): Es ist hier X Y = = Zeit seit 1970 (on Jahren) Jahresmitteltemperatur Deutschland Seite 283 4.4 Wir nehmen an, es gäbe einen linearen Trend. Mathematische Formulierung: E (Y jX = x ) = + x: Die beiden Regressionsparameter 0 0 und 1 1 sind prinzipiell unbekannt und können statistisch niemals mit 100%er Sicherheit ermittelt werden. Wir werden sie schätzen müssen... Seite 284 4.4 In der Praxis liegen konkrete Daten x ; x ; : : : ; xn 1 2 und y ; y ; : : : ; yn 1 2 vor und es gilt i.A. nicht yk = + xk ; 0 sondern 1 yk = + xk + zk ; 0 1 mit konkreten, aber prinzipiell unbekannten Fehlern z ; z ; : : : ; zn . 1 2 Seite 285 4.4 4.4.1. Die Kleinste-Quadrate-Methode und schätzen, b ; b berechnen. anhand der Daten möglichst gute Schätzer Wie müssen die unbekannten Parameter 0 1 0 also 1 Die Ausgleichs- oder Regressionsgerade sollte so verlaufen, dass sie die Daten möglichst gut beschreibt. Was bedeutet möglichst gut? Seite 286 4.4 Wir versuchen die Regressionsparameter so zu wählen, dass der quadratische Fehler Q = 2 n X yi i =1 (b0 + b1x ) 2 möglichst klein wird. Die auf diese Art und Weise minimierten Fehler zbi = yi (b + b x ) 0 1 (4.1) nennen wir Residuen. Wir minimieren also die Summe der Residuenquadrate: Q = 2 n X i =1 zbi : 2 Seite 287 4.4 Seite 288 4.4 Seite 289 4.4 Mit Hilfe der Analysis (Extremwertbestimmung bei Funktionen mit mehreren Variablen, s.Mathe-Vorlesung) Q (b ; b ) minimieren. 2 0 kann man die Funktion 1 Es ergibt sich dann für die Steigung der Regressionsgeraden b = 1 x y x y = bsxy(x ) x x 2 2 2 und für den Achsenabschnitt (Intercept) b = y b x: 0 Speziell liegt der Schwerpunkt 1 (x; y ) immer auf der Regressionsgera- den. Seite 290 4.4 Beispiel B4.20)B4 :19 : x y = 208:464; x = 23; y = 8:794 x y x y = 6:211; x x = 184 x y x y = 0:0338; b = y b x: = 8:017: b = x x Interpretation: Die Temperatur steigt mit jedem Jahr um 0:0338 Grad. 2 1 2 2 2 0 1 Seite 291 4.4 4.4.2. Prognosen Mit Hilfe der K-Q-Schätzer für das lineare Modell können wir für ein beliebiges berechnen: x einen Schätzer yb für das unbekannte zugehörige y yb = b + b x : 0 1 Dabei machen wir naturgemäÿ einen Fehler, den Prognosefehler = yb y Seite 292 4.4 Beispiel B4.21)B4 :19 : Jahresmitteltemperaturen in Deutschland, 1970-2016: Für das obige Beispiel ergibt sich für die Jahresmitteltemperatur des Jahres 2020: yb = 8:017 + 0:0338 50 = 9:705 also knapp 9:7 Grad Celsius. Seite 293 4.4 4.4.3. Standardbedingungen und Güte der Schätzer Normalerweise fordert man von den Residuen folgende Eigenschaften: 1. Zi N (0; ) res (Normalverteilung der Störterme, mit Erwar- tungswert null und Homoskedasitizität, d.h. identische Varianzen 2. 2 ), rZi Zj = 0 für i 6= j res (keine Autokorrelation). Wir wollen das ab jetzt voraussetzen. Unter diesen Bedingungen sind b b N ; 0 und 0 s 0 2 res b 1 jeweils normalverteilt: 1+ x 2 nb (x ) n 2 ; b N ; nb (x ) : s 2 ! res 1 1 2 Die beiden Koezienten sind nicht stochastisch unabhängig! Seite 294 4.4 Satz 4.2 Unter den Schätzer b 0 genannten und b 1 Voraussetzungen sind die beiden K-Q- erwartungstreu und konsistent, d.h b0 = 0 ; E b1 = 1 ; E lim Var b0 = 0; n!1 b1 = 0: lim Var n!1 Auÿerdem besitzen sie die sog. BLUE-Eigenschaft, d.h. die Varianzen der beiden Schätzer sind jeweils kleiner als die Varianzen aller anderen linearen erwartungstreuer Schätzer (die Schätzer sind ezient). Seite 295 4.4 4.4.4. Das Bestimmtheitsmaÿ Die y -Datenwerte besitzen für die verschiedenen xi jeweils unter- schiedliche Werte. Die resultierende Streuung um den Mittelwert wird durch die Stichprobenvarianz beschrieben: n X 1 b (y ) = n 1 (yi y ) : i 2 2 =1 Seite 296 4.4 Die erklärte Varianz n X 1 be (y ) = n 1 (ybi y ) : i 2 2 =1 misst Abweichungen der Schätzungen vom y-Mittelwert. Seite 297 4.4 Die nicht erklärte Varianz der Residuen n X 1 bu (y ) = n 1 (yi yb) i 2 2 =1 misst die Streuung um die Regressionsgerade. Seite 298 4.4 Satz 4.3 (Varianzzerlegung) Es gilt b (y ) = be (y ) + bu (y ): 2 2 2 Je höher der Anteil der erklärten Varianz an der Gesamtvarianz ausfällt, desto besser ist unser Modell angepasst. Der Anteil b (y ) R = be (y ) 2 2 2 der erklärten Varianz an der Gesamtvarianz von Güte des Modells. Man nennt R 2 y ist ein Maÿ für die das Bestimmtheitsmaÿ. Seite 299 4.4 Je höher R 2 ausfällt, desto besser ist das Modell an die vorliegenden x die Variable y . Es gibt keine generelle Richtlinie, wie hoch R ausfallen muss, damit von einer guten Anpassung geredet werden kann. Werte < 0:3 deuten Daten angepasst, d.h. desto besser erklärt 2 allerdings eine schlechte Anpassung an. R 2 nimmt zu, wenn weitere erklärende Variablen hinzugezogen wer- den, auch wenn sich das Modell durch die Hinzunahme nicht verbessert. In diesem Fall verwendet man auch das korrigierte/adjustierte Bestimmtheitsmaÿ n 1 R = 1 (1 R ) n k 1 ; 2 mit 2 k = Anzahl der erklärenden Variablen. Seite 300 4.4 4.4.5. Intervallschätzer Mit b 0 und b 1 besitzen wir zwei Punktschätzer für die unbekannten Regressionsparameter. Wie kennen, unter den Standardbedingungen, sogar ihre Verteilung: s b N ; 0 0 2 1+ x nb (x ) n res 2 2 ; b N ; nb (x ) : s ! 2 res 1 1 2 Allerdings muss vorher noch die Varianz 2 res der Residuen geschätzt werden. Wir verwenden den erwartungstreuen Schätzer n X 1 b = n 2 (yi ybi ) : i 2 2 res =1 Seite 301 4.4 Damit lässt sich problemlos ein (1 ) 100%-Kondenzintervall für 0 I = h 0 und für b1 i b b b tn 2;1 =2 b(0 ); 1 + tn 2;1 =2 b(0 ) : 1 I = b h 1 0 tn ; =2 2 1 b(b ); b + tn 1 0 ; =2 2 1 b(b ) : i 1 bestimmen. Dabei benutzen wir die Schätzer b(b0 ) = s b nb (x ) ; 2 res 2 b(b1 ) = s b 2 res 1+ x n 2 nb (x ) : 2 Seite 302 4.4 4.4.6. Tests zur Anpassungsgüte Wenn wir die Güte unserer Schätzungen beurteilen wollen, können wir entsprechende Hypothesentests verwenden. Als Hypothese bietet sich an, jeweils die Nullhypothesen H : = 0; H : 6= 0 0 0 1 0 und H : = 0; H : 6= 0 0 1 1 1 zu testen. Werden die Hypothesen abgelehnt, so spricht das für unser lineares Modell. Anderenfalls muss ggf. über ein anderes Modell nachgedacht werden. Seite 303 4.4 Wir wissen bereits, dass unsere Schätzer unter den Standardannahmen normalverteilt sind, d.h. unter der Hypothese = 0 bzw. = 0 0 1 gilt s b N 0; 0 2 res 1+ x 2 nb (x ) n 2 ; b N 0; nb (x ) : s 2 ! res 1 2 Dementsprechend können wir die ersten beiden Hypothesen mit dem uns bekannten t-Test testen (s. Abschnitt (2)). Seite 304 4.4 Zum testen der Hypothese i = 0 (i 2 0; 1) verwenden wird die Teststatistik T= bi b(bi ) und lehnen ab, wenn jT j > tn ; =2 2 1 ist. Als p-Wert ergibt sich also p = P (jT j > jt j) = 2 (1 Fn (jt j)) ; 2 mit der Verteilungsfunktion Fn 2 der t-Verteilung mit (n 2) Frei- heitsgraden. Seite 305 4.4 4.4.7. Beispielregression mit R Beispiel B4.22)B4 :19 : Wir betrachten wieder die Jahresmitteltemperaturen in Deutschland für den Zeitraum 1970-2016 (Quelle: DWD): > > > > > tb = read . table ( " DWD . txt " , sep = " ; " , dec = " . " , header =T , fill = T ) tb = tb [90:136 ,] x = tb $ Jahr -1970 t = tb $ Deutschland x [1] 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 + 20 21 22 23 24 [26] 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 + 45 46 > t [1] 7.7 8.4 7.8 8.2 8.8 8.9 8.5 8.7 7.8 7.7 7.6 8.2 + 8.9 9.0 8.0 [16] 7.4 7.9 7.4 9.1 9.5 9.5 8.3 9.4 8.5 9.7 8.9 7.2 + 8.9 9.1 9.5 [31] 9.9 9.0 9.6 9.4 8.9 9.0 9.5 9.9 9.5 9.2 7.8 9.6 + 9.1 8.7 10.3 [46] 9.9 9.5 Seite 306 4.4 > plot (x ,t , col = col , pch =20 , cex =1.4 , ylab = " Jahresmittel " ) > cor (x , t ) [1] 0.5895415 Seite 307 4.4 > lin = lm ( t ~ x ) > abline ( lin , col = " red " ) > lin Call : lm ( formula = t ~ x ) Coefficients : ( Intercept ) 8.01729 x 0.03375 Seite 308 4.4 > plot (x , lin $ residuals , col = col , pch =20 , cex =1.4 , ylab = " Residuen " ) > abline ( h =0 , col = " red " ) > mean ( lin $ residuals ) [1] -2.406021 e -17 > sd ( lin $ residuals ) [1] 0.6340938 > summary ( lin $ residuals ) Min . 1 st Qu . Median -1.69500 -0.32610 0.08145 Mean 0.00000 3 rd Qu . 0.49010 Max . 0.87260 Seite 309 4.4 > > > > par ( mar = c (2 ,4 ,1 ,1) , mfrow = c (1 ,2) ) plot ( density ( lin $ residuals ) , main = " " , lwd =2 , col = " red " ) qqnorm ( lin $ residuals , pch =16 , main = " " ) qqline ( lin $ residuals , col = " red " , lwd =2) Seite 310 4.4 > summary ( lin ) Call : lm ( formula = t ~ x ) Residuals : Min 1Q -1.69488 -0.32611 Median 0.08145 3Q 0.49014 Max 0.87263 Coefficients : Estimate Std . Error t value Pr ( >| t |) ( Intercept ) 8.017287 0.184083 43.553 < 2e -16 * * * x 0.033753 0.006894 4.896 1.3 e -05 * * * --Signif . codes : 0 ` * * * ` 0.001 ` * * ` 0.01 ` * ` 0.05 ` . ` 0.1 ` ` 1 Residual standard error : 0.6411 on 45 degrees of freedom Multiple R - squared : 0.3476 , Adjusted R - squared : 0.3331 F - statistic : 23.97 on 1 and 45 DF , p - value : 1.299 e -05 Seite 311 4.4 > par ( mfrow = c (2 ,3) , mar = c (3 ,3 ,3 ,3) ) > for ( i in 1:6) plot ( lin , which = i ) Seite 312 1.1 A. Übungsaufgaben A.1. Aufgaben Übung 1 Aufgabe 1: Es sei a) b) P5 k =1 xk 5 P5 l =1 (xl x = (6; 1; 3; 4; 1). Berechnen Sie: P c) i i x i 5 1 =1 3) 2 d) Q5 j =1 ( 6 1)xj bx c ist als die gröÿte ganze Zahl, die kleiner oder gleich x ist, deniert. Es sei n = 8. Geben Sie bn c für = 0:1; 0:4; 0:7 an. Aufgabe 2: Die Gauÿklammer Seite 313 1.1 Aufgabe 3: Berechnen Sie 6 2 . Aufgabe 4: Gelten die folgenden Rechenregeln? a) b) c) d) (x y )b = x b y b (x + y )b = x b + y b e x = (e x ) p x = jx j ( 2 ) 2 2 e) f) g) h) log(x + y ) = log(x ) + log(y ) log(x y ) = log(x ) log(y ) log(x y ) = log(x ) + log(y ) Pn Pn k ak = k ak 1 =1 =0 +1 Aufgabe 5: Vereinfachen Sie: a) b) 3a 3b 3c a b c 3 3 3 Aufgabe 6: Skizzieren Sie die folgenden Funktionen: Seite 314 1.1 a) f (x ) = 2x 3 b) f (x ) = log(x ) c) f (x ) = e x d) f (x ) = e x e) f (x ) = e x2 f) f (x ) = e ( g) f (x ) = e x x ( 2 1) 2)2 4 Übung 2 Aufgabe 7: Im Rahmen einer Wahlumfrage wird für 700 am Telefon Befragte das Alter und die bevorzugte Partei (A,B,C oder D) ermittelt. Geben Sie ein passendes an und beschreiben Sie die Merkmale mathematisch durch Angabe der Merkmalsausprägungen. Aufgabe 8: Geben Sie für das Beispiel B1.1 eine Tabelle an, die die relativen und absoluten Häugkeiten, sowie die kumulativen relativen und kumulativen absoluten Häugkeiten enthält. Seite 315 1.1 Aufgabe 9: Warum gelten die Gleichungen 2.12.3? Aufgabe 10: Geben Sie jeweils ein weiteres Beispiel für die besprochenen vier Merkmalsskalen an. Aufgabe 11: Auf der Straÿe werden 20 erwachsene Passanten im Rahmen einer Umfrage befragt. Eines der erfassten Merkmale ist die Kinderzahl K . Folgende Beobachtungen werden notiert: 1; 2; 0; 0; 2; 0; 0; 2; 1; 0; 3; 1; 0; 0; 0; 1; 1; 1; 0; 1 a) Geben Sie die Menge der Merkmalsausprägungen für das Merkmal K an. b) Stellen Sie eine Tabelle auf, die die relativen und absoluten Häugkeiten, sowie die kumulativen relativen und kumulativen absoluten Häugkeiten enthält. Seite 316 1.1 c) Zeichnen Sie die empirische Verteilungsfunktion. Übung 3 Aufgabe 12: a) Berechnen Sie das arithmetische Mittel der folgenden drei Datenreihen. (i) 4, 6, 9, 10, 13, 18 (ii) 0, 2, 2, 3, 3, 50 (iii) 1, 2, 3, 17, 18, 19 b) Worin unterscheiden sich die Datensätze hinsichtlich der Lage der Datenwerte in Bezug auf ihren Mittelwert? Aufgabe 13: Zeichnen Sie ein Histogramm für das Beispiel B2.20. Seite 317 1.1 Aufgabe 14: Für 200 Hotels in Sachsen werden die monatlichen Übernachtungszahlen in klassierter Form betrachtet: Klasse: ]Hotels: 0-100 100-500 500-2000 2000-5000 20 90 40 50 a) Zeichnen Sie ein Histogramm. b) Zeichnen Sie ein Diagramm, das die zugehörige empirische Dichte zeigt. c) Berechnen Sie das arithmetische Mittel für die klassiert vorliegenden Übernachtungszahlen. Aufgabe 15: Wann wird das arithmetische Mittel bei Hinzunahme eines weiteren Datenpunktes groÿer? Argumentieren Sie unter Zuhilfenahme von Gleichung (2.5). Seite 318 1.1 Aufgabe 16: Betrachten Sie die Daten aus Aufgabe 11. a) Zeichnen Sie ein Balkendiagramm und ein Kreisdiagramm. b) Berechnen Sie das arithmetische Mittel der Kinderzahl. c) Geben Sie die Ordnungsstatistik an. d) Berechnen Sie den Median. e) Berechnen Sie das -getrimmte Mittel für = 0; 1. f ) Geben Sie das obere Quartil an. Aufgabe 17: Zeigen Sie, dass die Formel Zahlen ax + b = ax + b für beliebige a; b 2 R gilt (Linearität des arithmetischen Mittels). Seite 319 1.1 Übung 4 Aufgabe 18: Auf einer Insel werden drei Jahre lang Erdbeben und ihre Stärke registriert. Dabei werden folgende Jahresmittelwerte und Varianzen beobachtet. Jahr ] Beben x Var (x ) 2012 6 2 1 2013 3 4 4 2014 7 3 2 Berechnen Sie den gepoolten Mittelwert und die gepoolte Varianz der Erdbebenstärken. Seite 320 1.1 Aufgabe 19: Betrachten Sie die Daten aus dem Beispiel B1.1. a) Berechnen Sie die Varianz und die Standardabweichung des beobachteten Merkmals Augenzahl. b) Wieviele Daten liegen im Intervall [x b(x ); x + b(x )]? c) Berechnen Sie den Median, die Quartile und den IQR. Aufgabe 20: Entwerfen Sie eine Stichprobe von n=6 Daten mit folgenden Anforderungen: a) x = 0, c) xe: = 3, xe: = 4 b) x = 5, b (x ) = 1, d) xe = 7, Rx = 10. 25 75 Seite 321 1.1 Aufgabe 21: Gegeben seien die folgenden Schlusskurse des DAX an sieben aufeinander folgenden Tagen. Tag Schlusskurs 2016-10-26 10710 2016-10-25 10757 2016-10-24 10761 2016-10-21 10711 2016-10-20 10701 a) Berechnen Sie die Stichprobenvarianz und die Stichprobenstandardabweichung der Schlusskurse. b) Geben Die die Spannweite, den IQR, sowie den Variationskoezienten an. c) Berechnen Sie den MAD. Seite 322 1.1 Übung 5 Aufgabe 22: Sind alle Werte in einer Kontingenztafel eindeutig be- stimmt, wenn nur die absoluten Randhäugkeiten angegeben sind? Aufgabe 23: Geben Sie ktive absolute Häugkeiten für eine 3 2- Kontingenztabelle für zwei unabhängige Merkmale an. Aufgabe 24: Ein neues Produkt kommt in drei Varianten I,II und III auf den Markt. Es ergeben sich an einem Tag an drei verschiedenen Standorten A,B und C in Deutschland folgende Verkaufszahlen: I II III A 8 8 4 B 10 20 5 C 22 32 11 a) Geben Sie die relativen Häugkeiten und die Randhäugkeiten an. Seite 323 1.1 b) Sind die beiden Merkmale Version und Standort unabhängig? c) Berechnen Sie 2 und beide Varianten des Pearsonschen Kontin- genzkoezienten. d) Interpretieren Sie das Ergebnis. Aufgabe 25: In einem Land besitzen die fünf gröÿten Städte 3 000 000, 1 000 000, 500 000, 250 000 und 250 000 Einwohner. Zeichnen Sie eine Lorenz-Kurve und geben Sie den Gini-Koezienten an. Aufgabe 26: Warum ist der gröÿtmögliche Wert des Gini-Maÿes Übung 6 n n 1 ? Aufgabe 27: 14 Tage lang werden die Verkaufszahlen für ein Buch in einer Buchhandlung notiert: 7, 11, 12, 8, 10, 9, 9, 8, 0, 6, 13, 18, 5 und 11. Zeichnen Sie einen Boxplot für die Daten. Aufgabe 28: Für 6 Straÿen werden die Durchschnittsgeschwindigkeit Seite 324 1.1 und die Anzahl der Unfälle in einem Jahr angegeben: Geschw.: 50 60 100 70 50 40 Unfälle: 2 2 7 4 2 1 : Geben Sie die für die beiden Merkmale die empirische Kovarianz und den Korrelationskoezienten an un interpretieren Sie das Resultat. Aufgabe 29: An zwei Hochschulen setzt man unterschiedliche Be- notungssysteme ein. Während die Hochschule A die Benotungsskala I ! II ! III ! IV verwendet, mit I als bester Note, ist an der Hochschule B die Skala a ! b ! c , mit a als bester Note, in Gebrauch. Für 20 Studierende, die von A nach B wechselten, wird die letzte Note an der Hochschule A mit der ersten Note an der Hochschule B verglichen: Seite 325 1.1 A I I I I I I I II II II B a a a a a b b a a a A II II II III III III III IV IV IV B a b b a b b c b b c Berechnen Sie den Rangkorrelationskoezienten und interpretieren Sie das Ergebnis. Übung 7 Aufgabe 30: Ein Würfel wird dreimal geworfen. Bestimmen Sie die Wahrscheinlichkeit,. . . a) . . . , dass keine Sechs fällt, b) . . . , dass die Augenzahlen gleich sind, c) . . . , dass die Augensumme 8 ist, Seite 326 1.1 d) . . . , dass die Augensumme 8 ist, gegeben, dass keine Sechs fällt. e) . . . , dass genau zwei Sechsen fallen. Aufgabe 31: In einem Raum benden sich 12 Stühle. Fünf Personen kommen in den Raum, wählen sich zufällig einen Stuhl aus und setzen sich. a) Wie groÿ ist die Wahrscheinlichkeit, dass fünf vorher ausgewählte Stühle besetzt sind? b) Wie groÿ ist die Wahrscheinlichkeit, dass die vorher ausgewählten Stühle mit vorher genau benannten Personen besetzt sind? Aufgabe 32: Eine Zufallsvariable X nimmt die Werte -2,-1,0,1 und 2 mit den Wahrscheinlichkeiten 0.2,0.1,0.4,0.1,0.2 an. Zeichnen Sie die Wahrscheinlichkeitsfunktion und berechnen Sie P Var (X ) und E (jX j). (X 0:7), E (X ), Seite 327 1.1 Übung 8 Aufgabe 33: Die Zufallsvariable X beschreibe die Dauer zwischen zwei aufeinanderfolgenden Ankünften von Kunden in einer Bank (Einheit: Minuten). X besitze die Verteilungsfunktion ( F (x ) = 0 1 e x=2 ;x < 0 ;x 0 a) Zeichnen Sie die Verteilungsfunktion. b) Geben Sie die zugehörige Dichtefunktion an und zeichnen Sie sie. c) Wie groÿ ist die Wahrscheinlichkeit, dass zwischen zwei Kundenankünften weniger als fünf Minuten vergehen? d) Ein Kunde erreicht die Bank um 12 Uhr. Wie groÿ ist die Wahrscheinlichkeit, dass der nächste Kunde nach 12:01 Uhr, aber vor 12:03 ankommt? Seite 328 1.1 e) Berechnen Sie den Erwartungswert für die Zwischenankunftszeiten. f ) Mit welcher Wahrscheinlichkeit ist eine Zwischenankunftszeit länger als der oben berechnete Erwartungswert? Aufgabe 34: Angenommen zehn Prozent aller Autos seien weiÿ, 60 Prozent schwarz und 30 Prozent besäÿen eine andere Lackierung. a) Auf einem Parkplatz stehen 30 Autos. Wie groÿ ist der Erwartungswert der Anzahl weiÿer Autos? b) Wie groÿ ist die Wahrscheinlichkeit, dass unter den Wagen auf dem Parkplatz weniger als drei weiÿe Autos sind? c) Wie groÿ ist die Wahrscheinlichkeit, dass an einer Kreuzung erst 15 nicht-weiÿe Autos vorbeifahren, bevor schlieÿlich ein weiÿes Auto vorbeikommt? Seite 329 1.1 d) Wie lange muss man im Durchschnitt auf ein weiÿes Auto warten? e) Wie groÿ ist die Wahrscheinlichkeit unter zehn Autos zwei weiÿe, fünf schwarze und drei andersfarbige Wagen zu nden? Übung 9 Aufgabe 35: Angenommen X besitze eine Standardnormalverteilung. Berechnen Sie die folgenden Wahrscheinlichkeiten. (X 1), P ( 1 X 1), P (X > 2), P (X > 2 oder X < 2). a) P b) c) d) Welche Verteilung besitzen die folgenden Zufallsvariablen? e) f) g) X=10, 3 X + 2, 5 (X 6). Seite 330 1.1 Aufgabe 36: Der jährliche Gewinn Erwartungswert X einer Firma sei normalverteilt mit 70 Mill. Euro und Standardabweichung 12 Mill. Euro. Berechnen Sie die Wahrscheinlichkeit, dass der Gewinn a) gröÿer als 80 Millionen Euro ist, b) kleiner als 50 Millionen Euro ist, c) zwischen 50 und 80 Millionen liegt. Eine zweite Firma macht Y N (40; 5) Millionen Euro Gewinn. d) Wie groÿ ist die Wahrscheinlichkeit, dass die Summe der Gewinne beider Firmen die 100-Millionen-Euro-Marke überschreitet? Aufgabe 37: Es gelte X N (; ). Wie groÿ sind folgende Wahr- scheinlichkeiten? a) P b) P (X > + ), (X ), c) P (X 2 [ ; + ]), Seite 331 1.1 x gilt P (X > + x ) = 0:1, P (X x) = 0:1, P (X 2 [ x; + x]) = 0:9 ? Für welchen Wert g) h) i) Übung 10 Aufgabe 38: Das Einkommen von Arbeitern in einem Land sei normalverteilt mit = 3:5 und = 0:8 (tsd.Euro monatlich). a) Wie groÿ ist die Wahrscheinlichkeit, dass ein Arbeiter mehr 3500, aber weniger als 5000 Euro verdient? b) Ein Arbeiter sagt, 80% seiner Kollegen verdienten mehr als er. Wieviel zusätzliches Gehalt müsste er bekommen, damit nur noch 50% der Kollegen mehr verdienten? c) Wie groÿ ist der Erwartungswert und die Standardabweichung des arithmetischen Mittels von 100 zufällig ausgewählten Arbeitern? Seite 332 1.1 Aufgabe 39: Ein Würfel werde 120 Mal gewürfelt. a) Geben Sie ein genähertes Intervall an, in dem die Augensumme mit 90% Wahrscheinlichkeit liegt. b) Wir betrachten das konkrete Beispiel B1.1. Geben Sie Schätzer für den Erwartungswert und die Varianz der Augenzahlen an. c) Schätzen Sie die Standardabweichung des Schätzers für den Erwartungswert. Aufgabe 40: Wir betrachten das Beispiel B4.1. Stellen Sie einen geeigneten Schätzer auf und überlegen Sie, ob der Schätzer erwartungstreu und konsistent ist. Seite 333 1.1 Übung 11 Aufgabe 41 : Eine Firma verkauft in 6 Monaten 18,17,19,10,14 und 15 Fahrzeuge. Bestimmen Sie a) das arithmetische Mittel, d) das 0:2-Quantil und b) die Stichprobenvarianz, c) den Median, Aufgabe 42: e) den IQR. Geben Sie für die Daten in Aufgabe 41 ein 99%- Kondenzintervall für den Erwartungswert und die Varianz an. Gehen Sie von normalverteilten Daten aus. Aufgabe 43: Berechnen Sie für das Beispiel B1.1 ein genähertes 95%- Kondenzintervall für den Erwartungswert und für die Varianz. Seite 334 1.1 Aufgabe 44: Ein Spieler gewinnt einen Euro, wenn er bei einem Münzwurf die richtige Seite vorhersagt, ansonsten verliert er zwei Euro. Der Spieler startet mit einem Guthaben von 40 Euro. a) Geben Sie ein genähertes Intervall an, in dem das verbliebene Guthaben des Spielers nach 100 Spielen mit 99% Wahrscheinlichkeit liegt. b) Geben Sie eine genäherte Wahrscheinlichkeit dafür an, dann noch ein positives Guthaben aufzuweisen. Seite 335 1.1 Übung 12 Aufgabe 45 : Für zwei Studiengänge A und B werden 2016 an einer Hochschule insgesamt 1000 Studenten eingeschrieben. Davon entfallen auf die verschiedenen Studiengänge und Geschlechter: A B m 250 100 w 450 200 a) Sind die beiden Merkmale Studiengang (=X) und Geschlecht (=Y) unabhängig? b) Berechnen Sie den Pearsonschen Kontingenzkoezienten. c) Interpretieren Sie das Ergebnis. Seite 336 1.1 Aufgabe 46: Die Anzahl der Studierenden in der Vorlesung Statistik sei normalverteilt. In 10 Jahren ergeben sich folgende Studierendenzahlen: 88; 75; 72; 87; 99; 80; 70; 59; 69; 84: a) Geben Sie Schätzer für den Erwartungswert und die Standardabweichung an. b) Die wahre Standardabweichung sei von nun an = 10. Geben Sie ein 90%-Kondenzintervall für den Erwartungswert an. = 80 ist. Diese Hypothese b <D wird zugunsten der Alternative < 80 abgelehnt, wenn ist. Bestimmen Sie die Konstante D so, dass der Fehler erster Art c) Jemand stellt die Hypothese auf, dass kleiner als 5% wird. d) Der wahre Erwartungswert sei in der Tat = 80. Wie groÿ ist die Wahrscheinlichkeit, dass ein Raum mit 90 Sitzplätzen zu klein für die Vorlesung ist? Seite 337 1.1 Übung 13 Aufgabe 47 : Die Körpergröÿe der Bevölkerung sei in Deutschland normalverteilt mit Erwartungswert chung = 10 cm. = 170 cm und Standardabwei- a) Wie groÿ ist die Wahrscheinlichkeit dafür, dass eine zufällig ausgewählten Person über 190 cm groÿ ist? b) Wie groÿ ist die Wahrscheinlichkeit unter 50 zufällig ausgewählten Probanden weniger als zwei mit einer Körpergröÿe über 190 cm zu nden? c) Für einen Film wird ein Statist mit einer Gröÿe zwischen 190cm und 195cm gesucht. Wie viele zufällig ausgewählte Kandidaten muss man im Durchschnitt einladen, bis ein passender Kandidat gefunden ist? Seite 338 1.1 Aufgabe 48: Gegeben seien folgende Daten aus einer normalverteilten Grundgesamtheit: 12; 6; 8; 15; 14; 10; 25; 11; 10; 9: 10% die Hypothese H : = 11 gegen die Alternative H : > 11. b) Testen Sie zum Niveau 10% die Hypothese H : = 30 gegen die Alternative 6= 30. Für eine zweite normalverteilte Stichprobe vom Umfang m = 10 ergibt sich ein arithmetisches Mittel y = 10 und eine Stichprobenvarianz von b (y ) = 25. c) Testen Sie zum Niveau 10% die Hypothese gleicher Erwartungsa) Testen Sie zum Niveau 0 1 0 2 2 2 werte. d) Testen Sie zum Niveau 10% die Hypothese gleicher Varianzen. Seite 339 1.1 Aufgabe 49 : Erwartungswert Der Preis W eines Produktes sei normalverteilt mit = 120 Euro und Varianz = 100 Euro. 2 Bestimmen Sie die Wahrscheinlichkeiten für folgende Ereignisse: a) W > 120 d) b) W < 120 e) c) W > 130 f) W < 130 110 < W < 130 W > 140 oder W < 100 Seite 340 1.1 Übung 14 Aufgabe 50 : Der Preis W eines Produktes sei normalverteilt mit = 120 Euro und Varianz = 100 Euro. Geben Sie im folgenden jeweils eine passende Zahl z an. a) P (W > z ) = 0:1, c) P (W < z ) = 0:99, 2 Erwartungswert b) P (W < z ) = 0:05, d) P (jW 120j > z ) = 0:2. Aufgabe 51: Angeblich wählen 30% aller Wähler eines Landes die Partei A, 20% Partei B, 20% Partei C und 15% die Partei D (die übrigen Wähler sind Nichtwähler). Eine Umfrage mit 80 Befragten ergibt folgende Häugkeiten: A B C D N 20 14 11 19 16 : Testen Sie mit einem Signikanztest zum Niveau 10%, ob die obige Aussage plausibel ist. Seite 341 1.1 Aufgabe 52: An vier Standorten A,B,C und D einer Lebensmittelkette werden drei verschiedene Varianten (I,II,III) eines Nahrungsmittels verkauft. An einem Wochenende ergeben sich folgende Verkaufszahlen. A B C D I 10 34 40 25 II 25 29 37 39 III 27 25 26 40 a) Testen Sie zum Niveau 5% die Unabhängigkeit der beiden Merkmale Standort und Variante. b) Testen Sie zum Niveau 10% die Hypothese, die drei Nahrungsmittelvarianten würden im Verhältnis 3:5:4 verkauft. Seite 342 1.1 Aufgabe 53: Für 10 Studierende wird die Statistiknote Mathematiknote xi yi Y X und die verglichen (Noten: 0 bis 15). 3 7 12 11 15 14 11 13 5 7 5 9 11 7 11 12 11 13 6 8 Zeichnen Sie ein Streudiagramm. Übung 15 Aufgabe 54: Bei einem Hypothesentest zum Signikanzniveau 10% der Nullhypothese die Teststatistik Höhe von 0:07? H : = 0 gegen die Alternative H : < 0 wird für 0 1 T = 8 berechnet. Was genau bedeutet der p-Wert in Seite 343 1.1 Aufgabe 55 : (s. Aufgabe 53) Für 10 Studierende wird die Statistiknote X und die Mathematiknote Y xi yi verglichen (Noten: 0 bis 15). 3 7 12 11 15 14 11 13 5 7 5 9 11 7 11 12 11 13 6 8 a) Berechnen Sie die Schätzer für die Regressionskoezienten. b) Geben Sie auch die Residuen an. Aufgabe 56 : Angenommen die Grundgesamtheit in Aufgabe 55 besäÿe eine Normalverteilung. a) Geben Sie für die x -Daten ein 99%-Kondenzintervall für den Er- wartungswert an. x -Daten zum Signikanzniveau 10% die Hypothese H : = 12 gegen H : > 12. b) Testen Sie für die 0 1 Seite 344 1.2 A.2. Musterlösungen Lösung 41: a) x = 18+17+6 :::+15 = 15:5 b) Zwei mögliche Rechenwege: 6 18 + 17 + : : : + 15 15:5 = 10:7 6 (18 15 : 5) + : : : + (15 15:5) b (x ) = = 10:7 5 b2 (x ) = 5 2 2 2 2 2 2 2 c) Ordnungsstatistik: 10, 14, 15, 17, 18, 19 xe = x(3) + x(4) 2 = 16: Seite 345 1.2 d) x(0:2) = x(b1:2c+1) = x(2) = 14 x(0:25) = x(b1:5c+1) = x(2) = 14 x(0:75) = x(b4:5c+1) = x(5) = 18 e) Lösung 45: Es ergeben sich folgende Randhäugkeiten: A B m 250 100 w 450 200 650 700 300 1000 350 a) Nein, denn es ist z.B. h11 = 0:25 6= 0:35 0:7 = 0:245 = h1 h1 Seite 346 1.2 b) Wir berechnen zunächst den Chi-Quadrat-Koezienten: k X l X nij2 2 = n 1 = 0:5232862 n n i =1 j =1 i j Damit ergibt sich C= s 2 + n = 0:02286947 2 und dann der Pearsonsche Kontingenzkoezient: C = c) Da s minfk; l g C = 2 0:02286947 = 0:03234231: minfk; l g 1 1 r C sehr nahe bei 0 liegt, können wir von einer weitgehenden Unabhängigkeit der beiden Merkmale ausgehen. Seite 347 1.2 Lösung 47: a) Es sei X die Körpergröÿe einer zufällig ausgewählten Person. Dann ist P b) Es sei N (X > 190) = P X 10170 > 190 10 170 = P (X > 2) = 1 (2) = 0:0228 die Anzahl von Kandidaten mit einer Körpergröÿe über 190cm. besitzt eine Binomialverteilung mit P (N < 2) = P (N = 0) + P (N = 1) 50 p (1 p) = 50 p (1 p ) + 0 1 = 0:6847559: 0 c) Es sei M p = 0:0228 und n = 50. Es gilt also 50 1 N 49 die Anzahl der Kandidaten, die eingeladen werden müssen. Dann ist Seite 348 1.2 M geometrisch verteilt mit Erfolgswahrscheinlichkeit q =P (190 < X < 195) 190 170 195 170 =P 10 < X < 10 = (2:5) (2) = 0:01654047 Es gilt (s. Seite 287) E (M ) = 1=q = 60:45779. Lösung 49: (W > 120) = 0:5 (Symmetrie der Normalverteilung) P (W < 120) = 0:5 (Symmetrie der Normalverteilung) W > = P (W > 1) = 1 (1) = 0:1586553 P (W > 130) = P P (W < 130) = 1 P (W > 130) = 1 0:158655 = 0:8413447 P (110 < W < 130) = P ( 1 < W < 1) = (1) ( 1) = 0:6826895 P (W > 140 oder W < 100) = P (W > 140) + P (W < 100) = P (W > 2) + P (W < 2) = 2(1 (2)) = 0:04550026 a) P b) c) d) e) f) 120 10 130 120 10 Seite 349 1.2 Lösung 50: a) (W > z ) = 0:1 z 120 , P W > 10 = 0:1 , z 10120 = z : , z = 120 + z : 10 = 132:8155: P 09 09 b) 120 = 0:05 P (W < z ) = 0:05 , P 10 , z 10120 = z : , z = 120 + z : 10 = 103:5515: 0 05 c) z W < 0 05 (W < z ) = 0:99 z 120 , P W < 10 = 0:99 , z 10120 = z : , z = 120 + z : 10 = 143:2635: P 0 99 0 99 Seite 350 1.2 d) (jW 120j > z ) = 0:2 , P (W < 120 z ) + P (W > 120 + z ) = 0:2 z , P W < 10z + P W > 10 = 0:2 P , , , z = 0:2 , 2P W > 10 z 10 = z : = 1:281552 z = 12:81552: P z W > 10 = 0:1 09 Seite 351 2.1 B. Anhang B.1. Kleine Formelsammlung B.1.1. Notationen (Deskriptive Statistik) x b2 (x ); b2 b2 (x ); b2 b (x ); b b(x ); b sxy rxy Arithmetisches Mittel Empirische Varianz (früher Var(x)) \) Stichprobenvarianz (früher Var(x) Empirische Standardabweichung (früher (x )) Stichprobenstandardabweichung Empirische Kovarianz Empirischer Korrelationskoezient Seite 352 2.1 B.1.2. Wahrscheinlichkeitstheorie P A = 1 P (A) P (A [ B) = P (A) + P (B) P (A \ B) P (A [ B) = P (A) + P (B) falls A; B unvereinbar P (A \ B) = P (A) P (B) falls A; B unabhängig P (AjB) = P (A \ B) =P (B) P (AjB) = P (A) falls A; B unabhängig E (aX + b) = aE (X ) + b a; b 2 R E (X + Y ) = E (X ) + E (Y ) X; Y nicht notw. unabhängig E (X Y ) = E (X ) E (Y ) falls X; Y unkorelliert E Pni Xi = n falls E (X ) = E (X ) = : : : = E X = falls E (X ) = E (X ) = : : : = =1 1 1 1 1 Seite 353 2.1 Var (X ) = E (X E (X )) = E p b (X ) = Var (X ) Var (aX + b) = a Var (X ) 2 2 X2 E (X ) 2 a; b 2 R a; b 2 R b (aX + b) = jaj b (X ) Var (X + Y ) = Var (X ) + Var (Y ) + 2Cov(X; Y ) p b (X + Y ) = b (X ) + b (Y ) + 2Cov(X; Y ) Var (X + Y ) = Var (X ) + Var (Y ) falls X; Y unkorelliert p b (X + Y ) = b (X ) + b (Y ) falls X; Y unabhängig 2 2 2 2 Seite 354 2.1 B.1.3. Schätzer und Kondenzintervalle Schätzer für.. b = X b2 = Pn i =1 (Xi n 1 KI für.. KI h b z1 b+z p =2 pn ; 1 =2 n h b t1 =2;n 2 h 2 1 X )2 i pbn ; b + t1 =2;n i nb2 nb2 n;1 =2 ; n;=2 h i b2 b2 (n 1) (n 1) n 1;1 =2 ; n 1;=2 Eigenschaften erwartungstreu, konsistent erwartungstreu, konsistent 1 pbn i Voraussetzung Xi normalverteilt, bekannt Xi normalverteilt, unbekannt Xi normalverteilt, bekannt Xi normalverteilt, unbekannt Seite 355 2.2 B.2. Tabellen B.2.1. Quantile z der Normalverteilung Es gilt z 0.8 0.9 0.95 0.975 0.99 0.995 0.999 0.842 1.282 1.645 1.960 2.326 2.576 3.090 z 0.2 0.1 0.05 0.025 0.01 0.005 0.001 -0.842 -1.282 -1.645 -1.960 -2.326 - 2.576 -3.090 (x ) = genau dann, wenn x = zv ist. Beispiel: Eine Zufallsvariable X besitze eine Standardnormalverteilung. Dann gilt P (X > z ) = 5% , (z ) = 0:95 , z = z : = 1:645: 0 95 Seite 356 2.2 B.2.2. Verteilungsfunktion (x ) der Normalverteilung Angegeben sind die Werte für die Verteilungsfunktion, z.B. (1:46) = 0:928 = 10 und Standardabweichung = 8. Mit welcher Wahrscheinlichkeit ist X Beispiel: X besitzt eine Normalverteilung mit Erwartungswert positiv? Es gilt X 10 0 10 P (X > 0) = P 8 > 8 = P (X > 5=4) = 1 ( 1:25) = (1:25) = 0:894: Seite 357 2.2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9 3 0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.1 0.500 0.540 0.579 0.618 0.655 0.691 0.726 0.758 0.788 0.816 0.841 0.864 0.885 0.903 0.919 0.933 0.945 0.955 0.964 0.971 0.977 0.982 0.986 0.989 0.992 0.994 0.995 0.997 0.997 0.998 0.999 0.504 0.544 0.583 0.622 0.659 0.695 0.729 0.761 0.791 0.819 0.844 0.867 0.887 0.905 0.921 0.934 0.946 0.956 0.965 0.972 0.978 0.983 0.986 0.990 0.992 0.994 0.995 0.997 0.998 0.998 0.999 0.508 0.548 0.587 0.626 0.663 0.698 0.732 0.764 0.794 0.821 0.846 0.869 0.889 0.907 0.922 0.936 0.947 0.957 0.966 0.973 0.978 0.983 0.987 0.990 0.992 0.994 0.996 0.997 0.998 0.998 0.999 0.512 0.552 0.591 0.629 0.666 0.702 0.736 0.767 0.797 0.824 0.848 0.871 0.891 0.908 0.924 0.937 0.948 0.958 0.966 0.973 0.979 0.983 0.987 0.990 0.992 0.994 0.996 0.997 0.998 0.998 0.999 0.516 0.556 0.595 0.633 0.670 0.705 0.739 0.770 0.800 0.826 0.851 0.873 0.893 0.910 0.925 0.938 0.949 0.959 0.967 0.974 0.979 0.984 0.987 0.990 0.993 0.994 0.996 0.997 0.998 0.998 0.999 0.520 0.560 0.599 0.637 0.674 0.709 0.742 0.773 0.802 0.829 0.853 0.875 0.894 0.911 0.926 0.939 0.951 0.960 0.968 0.974 0.980 0.984 0.988 0.991 0.993 0.995 0.996 0.997 0.998 0.998 0.999 0.524 0.564 0.603 0.641 0.677 0.712 0.745 0.776 0.805 0.831 0.855 0.877 0.896 0.913 0.928 0.941 0.952 0.961 0.969 0.975 0.980 0.985 0.988 0.991 0.993 0.995 0.996 0.997 0.998 0.998 0.999 0.528 0.567 0.606 0.644 0.681 0.716 0.749 0.779 0.808 0.834 0.858 0.879 0.898 0.915 0.929 0.942 0.953 0.962 0.969 0.976 0.981 0.985 0.988 0.991 0.993 0.995 0.996 0.997 0.998 0.999 0.999 0.532 0.571 0.610 0.648 0.684 0.719 0.752 0.782 0.811 0.836 0.860 0.881 0.900 0.916 0.931 0.943 0.954 0.962 0.970 0.976 0.981 0.985 0.989 0.991 0.993 0.995 0.996 0.997 0.998 0.999 0.999 0.536 0.575 0.614 0.652 0.688 0.722 0.755 0.785 0.813 0.839 0.862 0.883 0.901 0.918 0.932 0.944 0.954 0.963 0.971 0.977 0.982 0.986 0.989 0.992 0.994 0.995 0.996 0.997 0.998 0.999 0.999 0.540 0.579 0.618 0.655 0.691 0.726 0.758 0.788 0.816 0.841 0.864 0.885 0.903 0.919 0.933 0.945 0.955 0.964 0.971 0.977 0.982 0.986 0.989 0.992 0.994 0.995 0.997 0.997 0.998 0.999 0.999 Seite 358 2.2 tn; der t-Verteilung Eine Zufallsvariable T hat eine t-Verteilung mit 10 Freiheitsgraden. Wir wollen z so bestimmen, dass B.2.3. Quantile P (T < z ) = 0:9 ist. Es gilt P (T < z ) = 0:9 , z = t ;: 10 0 9 = 1:372: Seite 359 2.2 2 3 4 5 6 7 8 9 10 19 20 29 30 39 40 49 50 59 60 69 70 79 80 89 90 99 100 109 110 119 120 0.001 0.01 0.025 0.05 0.1 0.9 0.95 0.975 0.99 0.999 -22.327 -10.215 -7.173 -5.893 -5.208 -4.785 -4.501 -4.297 -4.144 -3.579 -3.552 -3.396 -3.385 -3.313 -3.307 -3.265 -3.261 -3.234 -3.232 -3.213 -3.211 -3.197 -3.195 -3.184 -3.183 -3.175 -3.174 -3.167 -3.166 -3.160 -3.160 -6.965 -4.541 -3.747 -3.365 -3.143 -2.998 -2.896 -2.821 -2.764 -2.539 -2.528 -2.462 -2.457 -2.426 -2.423 -2.405 -2.403 -2.391 -2.390 -2.382 -2.381 -2.374 -2.374 -2.369 -2.368 -2.365 -2.364 -2.361 -2.361 -2.358 -2.358 -4.303 -3.182 -2.776 -2.571 -2.447 -2.365 -2.306 -2.262 -2.228 -2.093 -2.086 -2.045 -2.042 -2.023 -2.021 -2.010 -2.009 -2.001 -2.000 -1.995 -1.994 -1.990 -1.990 -1.987 -1.987 -1.984 -1.984 -1.982 -1.982 -1.980 -1.980 -2.920 -2.353 -2.132 -2.015 -1.943 -1.895 -1.860 -1.833 -1.812 -1.729 -1.725 -1.699 -1.697 -1.685 -1.684 -1.677 -1.676 -1.671 -1.671 -1.667 -1.667 -1.664 -1.664 -1.662 -1.662 -1.660 -1.660 -1.659 -1.659 -1.658 -1.658 -1.886 -1.638 -1.533 -1.476 -1.440 -1.415 -1.397 -1.383 -1.372 -1.328 -1.325 -1.311 -1.310 -1.304 -1.303 -1.299 -1.299 -1.296 -1.296 -1.294 -1.294 -1.292 -1.292 -1.291 -1.291 -1.290 -1.290 -1.289 -1.289 -1.289 -1.289 1.886 1.638 1.533 1.476 1.440 1.415 1.397 1.383 1.372 1.328 1.325 1.311 1.310 1.304 1.303 1.299 1.299 1.296 1.296 1.294 1.294 1.292 1.292 1.291 1.291 1.290 1.290 1.289 1.289 1.289 1.289 2.920 2.353 2.132 2.015 1.943 1.895 1.860 1.833 1.812 1.729 1.725 1.699 1.697 1.685 1.684 1.677 1.676 1.671 1.671 1.667 1.667 1.664 1.664 1.662 1.662 1.660 1.660 1.659 1.659 1.658 1.658 4.303 3.182 2.776 2.571 2.447 2.365 2.306 2.262 2.228 2.093 2.086 2.045 2.042 2.023 2.021 2.010 2.009 2.001 2.000 1.995 1.994 1.990 1.990 1.987 1.987 1.984 1.984 1.982 1.982 1.980 1.980 6.965 4.541 3.747 3.365 3.143 2.998 2.896 2.821 2.764 2.539 2.528 2.462 2.457 2.426 2.423 2.405 2.403 2.391 2.390 2.382 2.381 2.374 2.374 2.369 2.368 2.365 2.364 2.361 2.361 2.358 2.358 22.327 10.215 7.173 5.893 5.208 4.785 4.501 4.297 4.144 3.579 3.552 3.396 3.385 3.313 3.307 3.265 3.261 3.234 3.232 3.213 3.211 3.197 3.195 3.184 3.183 3.175 3.174 3.167 3.166 3.160 3.160 Seite 360 2.2 B.2.4. Quantile n; der Chi-Quadrat-Verteilung Im Rahmen eines Chi-Quadrat-Tests ergibt sich für die Teststatistik T = 19: T hat eine Chi-Quadrat-Verteilung mit 59 Freiheitsgraden, d.h. als kri- tischen Wert für den Test erhalten wir bei einem Niveau von 5% ;: 59 0 05 Da T < ;: 59 0 05 = 42:339: lehnen wir die Hypothese nicht ab. Seite 361 2.2 2 3 4 5 6 7 8 9 10 18 19 20 28 29 30 38 39 40 48 49 50 58 59 60 68 69 70 98 99 100 0.01 0.025 0.05 0.1 0.9 0.95 0.975 0.99 0.020 0.115 0.297 0.554 0.872 1.239 1.646 2.088 2.558 7.015 7.633 8.260 13.565 14.256 14.953 20.691 21.426 22.164 28.177 28.941 29.707 35.913 36.698 37.485 43.838 44.639 45.442 68.396 69.230 70.065 0.051 0.216 0.484 0.831 1.237 1.690 2.180 2.700 3.247 8.231 8.907 9.591 15.308 16.047 16.791 22.878 23.654 24.433 30.755 31.555 32.357 38.844 39.662 40.482 47.092 47.924 48.758 72.501 73.361 74.222 0.103 0.352 0.711 1.145 1.635 2.167 2.733 3.325 3.940 9.390 10.117 10.851 16.928 17.708 18.493 24.884 25.695 26.509 33.098 33.930 34.764 41.492 42.339 43.188 50.020 50.879 51.739 76.164 77.046 77.929 0.211 0.584 1.064 1.610 2.204 2.833 3.490 4.168 4.865 10.865 11.651 12.443 18.939 19.768 20.599 27.343 28.196 29.051 35.949 36.818 37.689 44.696 45.577 46.459 53.548 54.438 55.329 80.541 81.449 82.358 4.605 6.251 7.779 9.236 10.645 12.017 13.362 14.684 15.987 25.989 27.204 28.412 37.916 39.087 40.256 49.513 50.660 51.805 60.907 62.038 63.167 72.160 73.279 74.397 83.308 84.418 85.527 116.315 117.407 118.498 5.991 7.815 9.488 11.070 12.592 14.067 15.507 16.919 18.307 28.869 30.144 31.410 41.337 42.557 43.773 53.384 54.572 55.758 65.171 66.339 67.505 76.778 77.931 79.082 88.250 89.391 90.531 122.108 123.225 124.342 7.378 9.348 11.143 12.833 14.449 16.013 17.535 19.023 20.483 31.526 32.852 34.170 44.461 45.722 46.979 56.896 58.120 59.342 69.023 70.222 71.420 80.936 82.117 83.298 92.689 93.856 95.023 127.282 128.422 129.561 9.210 11.345 13.277 15.086 16.812 18.475 20.090 21.666 23.209 34.805 36.191 37.566 48.278 49.588 50.892 61.162 62.428 63.691 73.683 74.919 76.154 85.950 87.166 88.379 98.028 99.228 100.425 133.476 134.642 135.807 Seite 362 2.2 B.2.5. Quantile T P F n;m ; der F-Verteilung ( ) besitzte eine F-Verteilung mit 5 und 9 Freiheitsgraden. Es soll (T > z ) = 0:05 gelten. Wie groÿ muss man z wählen? P (T > z ) = 0:01 , z = F ; ;: (5 9) 0 95 = 3:482: In der Tabelle stehen in der ersten Spalte die Werte von ersten Zeile die Werte für m. n, in der Seite 363 2.2 = 0:005 2 3 4 5 7 9 14 19 24 29 34 39 44 49 54 59 64 69 74 79 84 89 94 99 104 109 114 119 124 2 3 4 9 15 19 29 39 49 69 99 0.005 0.020 0.038 0.055 0.081 0.099 0.126 0.141 0.150 0.156 0.161 0.164 0.167 0.169 0.171 0.172 0.174 0.175 0.176 0.176 0.177 0.178 0.178 0.179 0.179 0.180 0.180 0.180 0.181 0.005 0.021 0.041 0.060 0.092 0.115 0.150 0.169 0.181 0.190 0.196 0.200 0.204 0.207 0.209 0.211 0.213 0.214 0.216 0.217 0.218 0.219 0.219 0.220 0.221 0.221 0.222 0.222 0.223 0.005 0.022 0.043 0.064 0.099 0.126 0.167 0.190 0.205 0.215 0.222 0.228 0.232 0.236 0.239 0.241 0.243 0.245 0.247 0.248 0.249 0.250 0.251 0.252 0.253 0.254 0.254 0.255 0.256 0.005 0.023 0.047 0.073 0.117 0.153 0.212 0.247 0.271 0.287 0.299 0.309 0.316 0.322 0.327 0.332 0.335 0.338 0.341 0.344 0.346 0.348 0.349 0.351 0.352 0.354 0.355 0.356 0.357 0.005 0.023 0.049 0.076 0.126 0.166 0.235 0.279 0.308 0.329 0.345 0.357 0.367 0.375 0.382 0.388 0.393 0.397 0.401 0.404 0.407 0.410 0.412 0.414 0.416 0.418 0.420 0.421 0.423 0.005 0.023 0.049 0.077 0.128 0.171 0.245 0.291 0.323 0.347 0.364 0.378 0.389 0.398 0.406 0.413 0.418 0.423 0.427 0.431 0.434 0.437 0.440 0.443 0.445 0.447 0.449 0.450 0.452 0.005 0.024 0.050 0.079 0.132 0.177 0.258 0.310 0.347 0.374 0.395 0.411 0.424 0.435 0.445 0.453 0.460 0.466 0.471 0.476 0.480 0.483 0.487 0.490 0.493 0.495 0.498 0.500 0.502 0.005 0.024 0.051 0.080 0.135 0.181 0.265 0.321 0.361 0.390 0.413 0.431 0.446 0.458 0.468 0.477 0.485 0.492 0.498 0.503 0.508 0.512 0.516 0.520 0.523 0.526 0.529 0.531 0.534 0.005 0.024 0.051 0.080 0.136 0.183 0.270 0.328 0.369 0.400 0.425 0.444 0.460 0.473 0.485 0.494 0.503 0.510 0.517 0.523 0.528 0.533 0.537 0.541 0.545 0.548 0.551 0.554 0.556 0.005 0.024 0.051 0.081 0.137 0.186 0.276 0.336 0.380 0.413 0.440 0.461 0.478 0.493 0.505 0.516 0.526 0.534 0.541 0.548 0.554 0.559 0.564 0.569 0.573 0.577 0.580 0.583 0.587 0.005 0.024 0.051 0.081 0.139 0.188 0.280 0.343 0.389 0.424 0.452 0.474 0.493 0.509 0.523 0.535 0.545 0.554 0.563 0.570 0.577 0.583 0.588 0.593 0.598 0.602 0.606 0.610 0.613 Seite 364 2.2 = 0:05 2 3 4 5 7 9 14 19 24 29 34 39 44 49 54 59 64 69 74 79 84 89 94 99 104 109 114 119 124 2 3 4 9 15 19 29 39 49 69 99 0.053 0.105 0.144 0.173 0.211 0.235 0.267 0.284 0.294 0.301 0.305 0.309 0.312 0.314 0.316 0.317 0.318 0.320 0.320 0.321 0.322 0.323 0.323 0.324 0.324 0.325 0.325 0.325 0.326 0.052 0.108 0.152 0.185 0.230 0.259 0.299 0.320 0.332 0.341 0.347 0.351 0.355 0.358 0.360 0.362 0.364 0.365 0.367 0.368 0.369 0.369 0.370 0.371 0.371 0.372 0.373 0.373 0.373 0.052 0.110 0.157 0.193 0.243 0.275 0.321 0.345 0.360 0.370 0.377 0.383 0.387 0.390 0.393 0.396 0.398 0.399 0.401 0.402 0.403 0.404 0.405 0.406 0.407 0.407 0.408 0.409 0.409 0.052 0.113 0.167 0.210 0.272 0.315 0.378 0.413 0.435 0.450 0.461 0.469 0.476 0.481 0.486 0.490 0.493 0.495 0.498 0.500 0.502 0.503 0.505 0.506 0.507 0.508 0.509 0.510 0.511 0.051 0.115 0.171 0.217 0.285 0.333 0.406 0.448 0.474 0.493 0.507 0.518 0.526 0.533 0.539 0.544 0.548 0.551 0.554 0.557 0.560 0.562 0.564 0.565 0.567 0.568 0.570 0.571 0.572 0.051 0.115 0.172 0.219 0.289 0.339 0.417 0.461 0.490 0.511 0.526 0.538 0.547 0.555 0.561 0.566 0.571 0.575 0.578 0.581 0.584 0.587 0.589 0.591 0.593 0.594 0.596 0.597 0.598 0.051 0.116 0.174 0.222 0.296 0.349 0.432 0.481 0.514 0.537 0.555 0.569 0.580 0.589 0.596 0.603 0.608 0.613 0.617 0.621 0.624 0.627 0.630 0.632 0.634 0.636 0.638 0.640 0.641 0.051 0.116 0.175 0.224 0.299 0.353 0.441 0.493 0.528 0.553 0.572 0.587 0.599 0.609 0.617 0.624 0.630 0.636 0.640 0.645 0.648 0.652 0.655 0.657 0.660 0.662 0.664 0.666 0.668 0.051 0.117 0.175 0.225 0.301 0.357 0.446 0.500 0.536 0.563 0.583 0.599 0.612 0.622 0.631 0.639 0.645 0.651 0.656 0.661 0.665 0.669 0.672 0.675 0.678 0.680 0.682 0.685 0.687 0.051 0.117 0.176 0.226 0.304 0.360 0.452 0.508 0.547 0.575 0.596 0.614 0.627 0.639 0.649 0.657 0.665 0.671 0.677 0.682 0.686 0.691 0.694 0.698 0.701 0.704 0.706 0.709 0.711 0.051 0.117 0.177 0.227 0.305 0.363 0.457 0.515 0.555 0.585 0.607 0.626 0.641 0.653 0.664 0.673 0.681 0.688 0.694 0.700 0.705 0.709 0.714 0.717 0.721 0.724 0.727 0.730 0.732 Seite 365 2.2 = 0:95 2 3 4 5 7 9 14 19 24 29 34 39 44 49 54 59 64 69 74 79 84 89 94 99 104 109 114 119 124 2 3 4 9 15 19 29 39 49 69 99 19.000 19.164 19.247 19.296 19.353 19.385 19.424 19.443 19.454 19.461 19.466 19.470 19.473 19.475 19.477 19.479 19.480 19.481 19.482 19.483 19.484 19.484 19.485 19.486 19.486 19.487 19.487 19.487 19.488 9.552 9.277 9.117 9.013 8.887 8.812 8.715 8.667 8.639 8.620 8.606 8.596 8.588 8.582 8.577 8.573 8.569 8.566 8.563 8.561 8.559 8.557 8.556 8.554 8.553 8.552 8.551 8.550 8.549 6.944 6.591 6.388 6.256 6.094 5.999 5.873 5.811 5.774 5.750 5.732 5.719 5.709 5.701 5.694 5.689 5.684 5.680 5.677 5.674 5.671 5.668 5.666 5.664 5.663 5.661 5.660 5.658 5.657 4.256 3.863 3.633 3.482 3.293 3.179 3.025 2.948 2.900 2.869 2.846 2.829 2.815 2.805 2.796 2.789 2.782 2.777 2.772 2.768 2.765 2.761 2.759 2.756 2.754 2.752 2.750 2.748 2.746 3.682 3.287 3.056 2.901 2.707 2.588 2.424 2.340 2.288 2.253 2.227 2.208 2.192 2.180 2.170 2.162 2.154 2.148 2.143 2.138 2.134 2.130 2.127 2.124 2.121 2.119 2.117 2.114 2.113 3.522 3.127 2.895 2.740 2.544 2.423 2.256 2.168 2.114 2.077 2.050 2.030 2.014 2.001 1.990 1.981 1.974 1.967 1.961 1.956 1.952 1.948 1.944 1.941 1.938 1.935 1.933 1.931 1.929 3.328 2.934 2.701 2.545 2.346 2.223 2.050 1.958 1.901 1.861 1.832 1.809 1.792 1.777 1.766 1.756 1.747 1.740 1.733 1.727 1.722 1.718 1.714 1.710 1.707 1.704 1.701 1.699 1.696 3.238 2.845 2.612 2.456 2.255 2.131 1.954 1.860 1.800 1.759 1.728 1.704 1.686 1.670 1.658 1.647 1.638 1.630 1.623 1.617 1.611 1.607 1.602 1.598 1.595 1.591 1.588 1.585 1.583 3.187 2.794 2.561 2.404 2.203 2.077 1.899 1.803 1.742 1.699 1.667 1.643 1.623 1.607 1.594 1.583 1.573 1.565 1.557 1.551 1.545 1.540 1.535 1.531 1.527 1.524 1.520 1.517 1.515 3.130 2.737 2.505 2.348 2.145 2.019 1.838 1.739 1.676 1.632 1.599 1.573 1.552 1.536 1.521 1.509 1.499 1.490 1.482 1.475 1.469 1.463 1.458 1.453 1.449 1.445 1.442 1.439 1.436 3.088 2.696 2.464 2.306 2.103 1.976 1.793 1.693 1.628 1.582 1.548 1.521 1.499 1.482 1.467 1.454 1.443 1.433 1.425 1.417 1.411 1.405 1.399 1.394 1.389 1.385 1.381 1.378 1.375 Seite 366 2.2 = 0:995 2 3 4 5 7 9 14 19 24 29 34 39 44 49 54 59 64 69 74 79 84 89 94 99 104 109 114 119 124 2 3 4 9 15 19 29 39 49 69 99 199.000 199.166 199.250 199.300 199.357 199.388 199.428 199.447 199.458 199.465 199.470 199.474 199.477 199.479 199.481 199.483 199.484 199.485 199.486 199.487 199.488 199.488 199.489 199.489 199.490 199.490 199.491 199.491 199.492 49.799 47.467 46.195 45.392 44.434 43.882 43.172 42.826 42.622 42.487 42.392 42.320 42.265 42.221 42.185 42.155 42.130 42.108 42.089 42.073 42.058 42.045 42.034 42.024 42.014 42.006 41.998 41.991 41.984 26.284 24.259 23.155 22.456 21.622 21.139 20.515 20.210 20.030 19.911 19.826 19.763 19.713 19.674 19.642 19.616 19.593 19.574 19.557 19.542 19.530 19.518 19.508 19.499 19.490 19.483 19.476 19.470 19.464 10.107 8.717 7.956 7.471 6.885 6.541 6.089 5.864 5.729 5.639 5.575 5.527 5.489 5.459 5.435 5.414 5.397 5.382 5.369 5.358 5.348 5.339 5.331 5.324 5.317 5.311 5.306 5.301 5.297 7.701 6.476 5.803 5.372 4.847 4.536 4.122 3.913 3.786 3.701 3.639 3.593 3.557 3.528 3.504 3.484 3.467 3.452 3.440 3.429 3.419 3.410 3.402 3.395 3.389 3.383 3.378 3.373 3.369 7.093 5.916 5.268 4.853 4.345 4.043 3.638 3.432 3.306 3.221 3.160 3.114 3.077 3.048 3.024 3.004 2.987 2.972 2.959 2.948 2.938 2.929 2.922 2.914 2.908 2.902 2.897 2.892 2.887 6.396 5.276 4.659 4.262 3.775 3.483 3.088 2.885 2.759 2.674 2.612 2.565 2.527 2.497 2.473 2.452 2.434 2.419 2.405 2.394 2.383 2.374 2.366 2.358 2.351 2.345 2.339 2.334 2.329 6.088 4.995 4.392 4.004 3.526 3.239 2.848 2.645 2.519 2.433 2.369 2.321 2.283 2.252 2.227 2.205 2.187 2.171 2.157 2.145 2.134 2.124 2.116 2.108 2.100 2.094 2.088 2.082 2.077 5.915 4.838 4.243 3.860 3.387 3.102 2.713 2.510 2.384 2.296 2.233 2.183 2.145 2.113 2.087 2.065 2.046 2.029 2.015 2.002 1.991 1.981 1.972 1.964 1.956 1.950 1.943 1.938 1.932 5.727 4.667 4.081 3.703 3.237 2.955 2.568 2.364 2.236 2.148 2.083 2.033 1.993 1.960 1.933 1.910 1.890 1.873 1.858 1.845 1.833 1.822 1.812 1.804 1.796 1.789 1.782 1.776 1.770 5.592 4.545 3.966 3.592 3.130 2.850 2.464 2.260 2.131 2.041 1.975 1.923 1.882 1.849 1.820 1.797 1.776 1.758 1.742 1.728 1.716 1.705 1.695 1.685 1.677 1.669 1.662 1.656 1.650 Seite 367 3.1 C. Hinweise zur Klausur C.1. Hilfsmittel Als Hilfsmittel sind zugelassen: Taschenrechner Eine gedruckte oder handschriftliche Formelsammlung Das komplette Vorlesungsskript, auch mit handschriftlichen Notizen, allerdings nicht mit Notizen zu den Lösungen, die wir in der Übung erarbeitet haben. Generell nicht zugelassen sind Aufzeichnungen aus den Übungen. Seite 368 3.2 C.2. Welche Abschnitte und Gegenstände werden nicht abgefragt? Kombinatorik (3.2) Schätzen ohne Zurücklegen (4.2.5) Beispielregression mit R (4.4.7) Der Satz von Moivre-Laplace (S. 224) Die Gütefunktion. Im Kapitel Einfache lineare Regression (4.4): Testverfahren und Kondenzintervalle. Seite 369 3.3 C.3. Grundsätzliches Lesen Sie sich die Aufgaben genau durch! Beantworten Sie nur die Aufgabenstellung! Geben Sie den Rechenweg an! Sie können in 120 Minuten insgesamt 120 Punkte erreichen (also maximal 1 Punkt/Minute). Als bestanden gilt eine Klausur bei einer erreichten Punktzahl 60. Folgefehler nur dann negativ bewertet, wenn sich aus dem begangenen Fehler eine deutliche Vereinfachung der übrigen Aufgaben ergibt. Seite 370