Mathematik 2 Statistik Institut für Angewandte Simulation Autor: Olivier Merlo Datum: 16.2.2017 Version: 1.1 Studiengang: Chemie Zürcher Fachhochschule Das Skript: Dieses Skript wurde von Olivier Merlo geschrieben und wurde im Laufe der Jahre immer wieder überarbeitet. © 2016, Olivier Merlo, ZHAW. Dieses Skript darf ganz oder in Teilen weitergegeben und nicht kommerziell verwendet werden, wobei dieser Copyright‐Vermerk mitkopiert werden muss. Kommerzielle Verwendung nur mit Bewilligung des Autors. Sowohl Olivier Merlo als auch die ZHAW lehnen jegliche Haftung ab für Schäden, die sich aus der Verwendung dieses Skriptes ergeben. Inhaltsverzeichnis 1 Vorwort 1.1 Prüfungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 6 6 2 Einführung 2.1 Begriff Statistik . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Der Begriff der Wahrscheinlichkeit . . . . . . . . . . . . . . . . . 2.3 Wichtige Gesetze . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Kombinatorik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.1 Ziehung von Kugeln mit Berücksichtigung der Reihenfolge 2.4.2 Ziehung von Kugeln ohne Berücksichtigung der Reihenfolge 2.5 Bedingte Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . 2.6 Ereignisbaum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.7 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . 7 7 7 8 11 12 12 14 15 16 3 Deskriptive (beschreibende) Statistik 3.1 Datenerfassung . . . . . . . . . . . . . 3.2 Datenbearbeitung . . . . . . . . . . . . 3.3 Klassierung . . . . . . . . . . . . . . . 3.4 Lagemass für ordinalskalierte Daten . 3.4.1 Median . . . . . . . . . . . . . 3.4.2 Quantile . . . . . . . . . . . . . 3.5 Lagemass für metrisch skalierte Daten 3.6 Standardisieren . . . . . . . . . . . . . 3.7 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 17 18 19 20 20 21 21 23 23 4 Verteilungen 4.1 Diskrete Verteilungen . . . . . . . . . . . . . . . . . . . . 4.1.1 Uniforme Verteilung . . . . . . . . . . . . . . . . . 4.1.2 Binomialverteilung B(n,p) . . . . . . . . . . . . . . 4.1.3 Poissonverteilung . . . . . . . . . . . . . . . . . . . 4.2 Kontinuierliche Verteilungen . . . . . . . . . . . . . . . . . 4.2.1 Uniforme Verteilung . . . . . . . . . . . . . . . . . 4.2.2 Maxwell-Boltzmann Verteilung . . . . . . . . . . . 4.2.3 Exponentialverteilung . . . . . . . . . . . . . . . . 4.2.4 Normalverteilung . . . . . . . . . . . . . . . . . . . 4.3 Zusammenhang zwischen den verschiedenen Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 25 26 26 28 29 31 32 33 34 36 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 INHALTSVERZEICHNIS 4.4 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . 38 5 Statistische Tests 5.1 Freiheitsgrade . . . . . . . . . . . . . . . . 5.2 Schätzer . . . . . . . . . . . . . . . . . . . 5.2.1 Beispiele für verschiedene Schätzer 5.3 Vertrauensintervall . . . . . . . . . . . . . 5.4 Hypothesen-Tests . . . . . . . . . . . . . . 5.4.1 Hypothese . . . . . . . . . . . . . . 5.5 Welcher Test? . . . . . . . . . . . . . . . . 5.5.1 Vorgehensweise . . . . . . . . . . . 5.6 Test auf Normalverteilung . . . . . . . . . 5.6.1 QQ-Plot . . . . . . . . . . . . . . . 5.6.2 Kolmogorov-Smirnov Test . . . . . 5.6.3 χ2 -Test auf Normalverteilung . . . 5.6.4 t-Test . . . . . . . . . . . . . . . . 5.6.5 Grubbs Test . . . . . . . . . . . . . 5.7 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 39 40 40 41 43 43 45 47 47 47 50 51 54 58 59 6 Messfehler 6.1 Ein Messwert . . . . . . . . . . . . . . . 6.2 Fehlerfortpflanzung . . . . . . . . . . . . 6.3 Korrelation . . . . . . . . . . . . . . . . 6.3.1 Deskriptive Statistik . . . . . . . 6.4 Regression . . . . . . . . . . . . . . . . . 6.4.1 Methode der kleinsten Quadrate 6.5 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 61 62 63 63 64 65 72 7 Boltzmann Verteilung 7.1 Diskrete Boltzmann Verteilung . . . . 7.1.1 spezifische Molwärme . . . . . 7.2 kontinuierliche Boltzmann Verteilung . 7.2.1 Maxwell-Boltzmann Verteilung 7.3 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 73 73 74 74 75 8 Tabellen 8.1 Normalverteilung . . . . . . . 8.2 Student t Tabelle . . . . . . . 8.3 χ2 − T abelle . . . . . . . . . 8.4 Kolmogorov Smirnov Test . . 8.5 Grubbs-Test (Ausreissertest) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 77 78 79 80 81 . . . . . . . . . . . . . . . . . . . . . . . . . Kapitel 1 Vorwort Es handelt sich hier um eine sehr knappe Einführung in die wichtigsten Begriffe und Methoden der Statistik. Spezielles Gewicht wird auf den Begriff der Verteilung gelegt, insbesondere im Zusammenhang mit der statistischen Physik. Wer sich später wirklich mit Statistik beschäftigen muss, z.B. im Zusammenhang mit Qualitätskontrolle, kommt um Weiterbildung und den Gebrauch einer anständigen Statistiksoftware (nicht Excel) nicht herum. 1.1 Prüfungen Die Anerkennung des Kurses wird durch ein Modulexamen am Ende des Semesters und diverse Examen während dem Semester geprüft. Die Modulprüfung zählt zu 70% und die Prüfungen während des Semesters zu 30% zur Gesamtbeurteilung. Die Note N errechnet sich immer aus der erreichten Punktzahl PE und den Maximalpunktzahl PM mittels: E N = 1 + 5 PPM Die Prüfung während des Semesters erfolgt am 1. Freitag, 21. April 2017 Bei einer Absenz an einer Prüfung muss eine schriftliche Begründung bis spätestens 2 Wochen nach der Prüfung bei mir eintreffen. Falls dies nicht erfolgt, muss die Prüfung leider mit einer Note 1 gewertet werden. Die Vornote des Kurses ist der Mittelwert der 3 Prüfungen während des Semesters. 5 6 KAPITEL 1. VORWORT 1.2 Literatur Das vorliegende Skript basiert auf dem Skript auf den Büchern: 1. Köhler und Schachtel, Biostatistik, Springer Verlag. 2. Moore, McCabe, Duckworth and Sclove, The practice of business statistics, Freeman and Company. 3. Für Regression: Mager, Moderne Regressionsanalyse, Otto Sale Verlag. 1.3 Definitionen R N ∈ {a, b, c, . . . , d} [a, b] (a, b) |A | A1 ∩ A2 A1 ∪ A2 Ac Ø lim l P Menge der reellen Zahlen Menge der natürlichen Zahlen ist Element von Menge der dargestellten Elemente abgeschlossenes Intervall von a nach b offenes Intervall von a nach b Anzahl der Elemente der Menge A Schnittmenge von A1 mit A2 Vereinigung der Mengen A1 mit A2 Komplement der Menge A leere Menge Grenzwert Summe der Elemente von Index i bis l k=i A⇒B A⇔B = ≈ ∼ Aus A folgt B Aus A folgt B und umgekehrt gleich näherungsweise proportional Kapitel 2 Einführung 2.1 Begriff Statistik 7. Jh.: Statistik = Lehre von den Staatsmerkwürdigkeiten (Anzahl der Einwohner, der Soldaten; Steueraufkommen, etc.) [lat. statisticum: den Staat betreffend] • als Datensammlung (z.B. Meldestatistik, Unfallstatistik) • als mathematische Funktion (Schätzstatistik, Teststatistik) • als Wissenschaft (Statistische Methodenlehre, Statistische Physik) Statistische Methoden sind in allen empirischen Wissenschaften zur Beschreibung und Beurteilung der erhobenen oder gemessenen Daten notwendig. In diesem einführenden Kapitel werden die wichtigsten Begriffe und Gesetze vorgestellt. Wir arbeiten dabei mit dem Beispiel des Würfelns oder auch mit dem Werfen einer Münze. 2.2 Der Begriff der Wahrscheinlichkeit Beispiel: Ein Würfel wird sehr oft geworfen. Das Werfen eines Würfels ist ein Zufallsexperiment. Die relative Häufigkeit die Zahlen 1, 2, . . . bzw. 6 zu würfeln konvergiert gegen einen bestimmten Wert p(Wurf=1), p(Wurf=2) . . . p(Wurf=6). Der Wert p(. . . ) wird empirische Wahrscheinlichkeit genannt. Dabei bedeutet p(. . . ) = 0 ein unmögliches Ereignis (z.B. Werfen der Zahl 7) und p(. . . ) = 1 bedeutet ein sicheres Ereignis (man wirft eine der Zahlen 1 bis 6). Das Elementarereignis ω ist das Ereignis eines Experimentes, z.B. ”Werfen der Zahl 5”. Der Ereignisraum Ω ist die Menge aller möglicher Elementarereignisse ωi ; hier: Ω = {1, 2, 3, 4, 5, 6} . 7 8 KAPITEL 2. EINFÜHRUNG Definition 2.1 (Elementare Definitionen) Die Menge aller Elementarereignisse eines Zufallsexperiments wird Ereignisraum Ω genannt. Ein einzelnes Element ωi des Ereignisraums wird Elementarereignis genannt. Die empirische Wahrscheinlichkeit das Elementarereignis zu erhalten wird durch p(ωi ) gegeben. Das Ereignis wird nicht erhalten, falls p(ωi ) = 0 ist. Falls p(ωi ) = 1 ist, so ist dies ein sicheres Ereignis. Eine Teilmenge A von Ω wird Ereignis genannt. 2.3 Wichtige Gesetze In den nächsten Kapiteln gehen wir nicht von Experimenten aus, sondern es wird um theoretische Überlegungen gehen. Beispiel: Wir betrachten das Werfen von einem Würfel. Die Elementarereignisse ωi sind gegeben durch das Werfen der Anzahl Augen 1, 2, 3, . . . , 6. Die Anzahl der Elementarereignisse ist also gegeben durch |Ω| = 6. Die Anzahl Möglichkeiten die Anzahl Augen gleich 1 zu werfen ist 1,A(ω = 1) = 1, da genau eine Möglichkeit w1 besteht, diese Zahl zu würfeln. Damit erhält man die Wahrscheinlichkeit eine Anzahl Augen von 1 zu werfen von p(A) = 61 . Man hat dazu die Anzahl der Möglichkeiten durch die gesamte Anzahl der Ereignisse dividiert. Man geht also davon aus, dass alle Elementarereignisse die gleiche Wahrscheinlichkeit besitzen einzutreffen. Definition 2.2 (Laplace Annahme) Hat der Ereignisraum Ω endlich viele Elemente ωi mit der gleichen Wahrscheinlichkeit p. Dann gilt für die Berechnung der Wahrscheinlichkeit: p(A) = |A| |Ω| Anzahl Elementarereignisse in A = Anzahl Elementarereignisse in Ω Beispiel: Wie gross ist die Wahrscheinlichkeit mit einem Würfel eine gerade Anzahl Augen zu werfen? Man hat die Elementarereignisse Werfen von 2, 4 oder 6. Wenn man aber die Anzahl Augen gleich 2 geworfen hat, kann man nicht die 4 geworfen haben. Diese Ereignisse schliessen einander aus. Solche Ereignisse werden disjunkte Ereignisse genannt. Bei disjunkten Ereignissen ist die gesamte Anzahl der Ereignisse gleich der Summe der einzelnen Ereignisse. In diesem Fall ist A = {2, 4, 6}. Verallgemeinert gesagt hat man die Ereignisse A1 = {2}, A2 = {4} und A3 = {6}, und das Ereignis eine gerade Anzahl Augen zu würfeln ist gegeben durch die Vereinigung der Mengen Ai . Somit besitzt die Menge A = ∪3i=1 Ai = {2, 4, 6} insgesamt 3 Elementarereignisse und die Wahrscheinlichkeit eine gerade Anzahl 3 1 Augen zu würfeln ist gegeben durch p(A) = |A| |Ω| = 6 = 2 . Definition 2.3 (Disjunkte Ereignisse) Die Ereignisse A1 und A2 werden disjunkt genannt, falls die Schnittmenge A1 ∩ A2 = Ø die leere Menge ist; also wenn sie keine gemeinsamen Elemente besitzen. Die Anzahl der Elemente der Menge A = A1 ∪A2 ist dann die Summe der Anzahl Elemente der beiden Teilmengen. |A| = |A1 | + |A2 |, falls A1 ∩ A2 = Ø. 2.3. WICHTIGE GESETZE 9 Anmerkung: 1. Hat man n Ereignisse, die alle disjunkt sind, so ist die Wahrscheinlichkeit Ereignis A1 oder A2 oder . . . oder An zu erhalten (A = ∪ni=1 Ai ) gegeben durch |A1 |+|A2 |+...+|An | p(A) = |A| = p(A1 ) + p(A2 ) + . . . + p(An ). |Ω| = |Ω| Beispiele 2.1 Gesucht ist die Wahrscheinlichkeit, beim Werfen mit zwei Würfeln eine Gesamtaugenzahl von 7 zu erhalten. Es existieren die Möglichkeiten {1 | 6, 2 | 5, 3 | 4, 4 | 3, 5 | 2, 6 | 1}. Dabei bedeutet 1 | 6, dass wir mit dem ersten Würfel die Zahl 1 und mit dem zweiten Würfel die Zahl 6 werfen. Alle diese Ereignisse sind disjunkt zueinander. Das Ereignis {1 | 6} ist verschieden von dem Ereignis {6 | 1}. Es spielt also eine Rolle, mit welchem Würfel man welche Zahl wirft. Damit ist die Anzahl der ‘günstigen Ereignisse‘ durch |A| = 6 gegeben. Der Ereignisraum besitzt 36 Ereignisse |Ω| = 36. Daher ist die Wahrscheinlichkeit, dass die Augenzahl gleich 6 = 16 . 7 ist: p(A) = 36 Zusatz: Wie gross ist die Wahrscheinlichkeit, dass die Augenzahl gleich 6 ist? 5 ) (Lösung: p(ω = 6) = 36 Beispiel: Man betrachtet wieder das Werfen mit 2 Würfeln. Wieviele Anzahl Kombinationen (Ereignisse) existieren insgesamt? Es existieren 6 Möglichkeiten für den ersten Würfel und 6 weitere für den zweiten Würfel, nämlich je die Zahlen 1 bis 6. Es hat keinen Einfluss auf den 2. Würfel, was ich mit dem ersten Würfel geworfen habe. Solche Ereignisse werden unabhängige Ereignisse genannt. Hier ist die gesamte Anzahl der Ereignisse gegeben durch Multiplikation der Anzahl der einzelnen Ereignissen |Ω| = 6 · 6 = 36. Man erhält also zuerst ein Ereignis und anschliessend ein zweites Ereignis. Definition 2.4 (Unabhängige Ereignisse) Man habe die unabhängigen Ereignisse A1 und A2 . Dann ist die Menge A = {ωA1 | ωA2 } mit ωA1 ∈ A1 und ωA2 ∈ A2 . Die Anzahl der Elemente der Menge A ist dann das Produkt der Anzahl Elemente der beiden Teilmengen. |A| = |A1 | · |A2 |, falls A1 unabhängig von A2 ist. 10 KAPITEL 2. EINFÜHRUNG Anmerkung 1. Hat man 2 Ereignisse die voneinander unabhängig sind, so kann die Wahrscheinlichkeit, Ereignis A1 und A2 zu erhalten, berechnet werden. Man benutzt dabei die einzelnen Wahrscheinlichkeiten in den Teilmengen. Man |A2 | 1| definiert p(A1 ) = |A |Ω1 | und p(A2 ) = |Ω2 | , wobei die Ωi die gesamte Anzahl der Ereignisse von den Ereignissen i ist. Da die Ereignisse unabhängig sind, ist die Gesamtanzahl der Ereignisse gegeben durch |Ω| = |Ω1 | · |Ω2 |. Somit |A1 |·|A2 | ist die Wahrscheinlichkeit von A gegeben durch p(A) = |A| |Ω| = |Ω1 |·|Ω2 | = p(A1 ) · p(A2 ). Man findet in Büchern häufig, dass die unabhängigen Ereignisse mit diesem Resultat definiert werden. 2. Es ist für Studierende nicht immer einfach zu entscheiden, ob zwei Ereignisse disjunkt oder unabhängig sind. Häufig funktioniert eine Verbalisierung mit dem Worten und resp. oder. Ist man daran interessiert, ob der Würfel 2 oder 4 oder 6 anzeigt, so sind die Ereignisse 2 resp. 4 resp. 6 zu würfeln disjunkt. Ist man daran interessiert, ob zuerst mit dem ersten Würfel etwas geworfen wird und anschliessend mit einem anderen Würfel geworfen wird so ist das Werfen der beiden Würfel unabhängig. Ist man daran interessiert, dass der erste Würfel eine gerade Anzahl Augen anzeigt und der zweite die Anzahl Augen 2 oder 5. So hat man disjunkte und unabhängige Ereignisse. 2.4. KOMBINATORIK 11 Beispiele 2.2 1. Man betrachtet wieder das Würfeln mit 2 Würfeln. Wie gross ist die Wahrscheinlichkeit, dass man mit dem ersten Würfel eine gerade Zahl würfelt und mit dem 2. Würfel die Zahl 3 oder 5? Es existieren 3 Möglichkeiten mit dem ersten Würfel eine gerade Zahl und 2 Möglichkeiten mit dem 2. Würfel die Zahlen 2 oder 5 zu würfeln. Die Ereignisse sind disjunkt, daher ist die gesamte Anzahl der Ereignisse gegeben durch |A| = 3 · 2 = 6. Die Wahrscheinlichkeit dieses Ereignis zu erhalten ist also gegeben durch p(A) = 61 . 2. Wie gross ist die Wahrscheinlichkeit mit einem Würfel eine gerade Zahl und mit dem anderen Würfel die Zahlen 2 oder 5 zu würfeln? Man hat also 6 Möglichkeiten mit dem ersten Würfel eine gerade Zahl und mit dem 2. Würfel die Zahl 2 oder 5 zu würfeln. Man hat natürlich umgekehrt mit dem 2. Würfel eine gerade Zahl zu würfeln usw. auch 6 Möglichkeiten. Die Wahrscheinlichkeit, dieses Ereignis A zu erhalten ist 11 aber gegeben durch p(A) = 36 . Das Problem liegt darin, dass die beiden Mengen nicht disjunkt sind. Die Schnittmenge besitzt ein Element |A1 ∩ A2 | = 1. Welches ist dieses? 2.4 Kombinatorik In der Kombinatorik berechnet man die oben betrachtete Anzahl der günstigen Ereignisse |A| und die Anzahl aller Ereignisse |Ω|. Wir benutzen eigentlich nur die Regeln für disjunkte und unabhängige Ereignisse um die Anzahl eines bestimmten Ereignisses zu berechnen. Bemerkung 2.1 (Komplementäre Ereignisse) Manchmal ist es einfacher das komplementäre Ereignis Ac zu betrachten. Dann gilt |A| = |Ω| − |Ac |. Triviales Beispiel Wir wollen wissen, wieviele Möglichkeiten man besitzt mit 1 Würfel keine der Zahlen 1, 2, 3, 4, 5 zu würfeln. Das komplementäre Ereignis ist, die Zahl 6 zu würfeln. Somit ist die Anzahl Möglichkeiten gegeben durch 6 − 1 = 5. Historisch gesehen betrachtet man in der Kombinatorik eine Urne mit verschiedenfarbigen Kugeln, aus welcher man Kugeln zieht. Dies kann mit oder ohne Zurücklegen der gezogen Kugel passieren. Auch die Reihenfolge des Ziehens kann eine Rolle spielen. 12 KAPITEL 2. EINFÜHRUNG 2.4.1 Ziehung von Kugeln mit Berücksichtigung der Reihenfolge 1. mit Zurücklegen In diesem Fall ist jedes Ziehen einer Kugel unabhängig von den anderen Ereignissen(bei k-maligem Ziehen). Jedes Mal hat man bei einer Urne mit n Kugeln, n Möglichkeiten und erhält so die Gesamtzahl der Möglichkeiten zu |Ω| = nk . Beispiel (a) Mehrmaliges Werfen eines Würfels oder einer Münze. (b) Wie gross ist die Wahrscheinlichkeit bei 3 maligem Werfen eines Würfels dreimal eine gerade Anzahl Augen zu erhalten? Lösung: |A| = 33 und |Ω| = 63 ⇒ p(A) = 33 63 = 1 8 2. ohne Zurücklegen In diesem Fall hat man bei einer Urne mit n Kugeln das erste Mal n Möglichkeiten, anschliessend n−1 Möglichkeiten bis n−k+1 Möglichkeiten beim k-ten Mal zu ziehen. So ergibt sich die Gesamtzahl der Möglichkeiten n! zu |Ω| = n · (n − 1) · (n − 2) . . . (n − k + 1) = (n−k)! . Dabei ist die Funktion n! durch n! = n · (n − 1) · (n − 2) . . . 1 definiert. Beispiel (a) Die Anzahl der höchstens vierstelligen Zahlen mit lauter verschiedenen Ziffern von 0-9 ist. |A| = 10 · 9 · 8 · 7 = 5040. Man beachte, dass hier die Ziffer 0 auch am Anfang stehen kann. 2.4.2 Ziehung von Kugeln ohne Berücksichtigung der Reihenfolge Falls die Reihenfolge keine Rolle spielt, so muss man sich überlegen auf wieviele Arten man k-Objekte auf die k-Plätze verteilen kann. Dies ist gegeben durch k · (k − 1) · (k − 2) . . . 1 = k!. Man kann sich das wie hinlegen ohne zurücknehmen vorstellen. Die verschiedenen Anordnung werden Permutationen genannt. Da alle diese Ereignisse unabhängig voneinander sind, ergibt sich dann die Anzahl der Ereignisse durch Division durch diese k! Möglichkeiten. 2.4. KOMBINATORIK 13 Beispiele 1. mit Zurücklegen Betrachten wir den Fall den 3-maligen Wurf einer Münze. Wir haben dann die Ereignisse 0, 1, 2 resp. 3 Mal Kopf zu werfen. Diese Ereignisse besitzen aber nicht die gleiche Wahrscheinlichkeit, daher ist bei dieser betrachtungsweise die Laplace Annahme nicht gültig. Diese Wahrscheinlichkeiten können berechnet werden, indem man die Anzahl Permutationen der einzelnen Ereignisse bestimmt. Dazu schreibt man am besten eine 0 für das Werfen von Kopf und eine 1 für das Werfen von Zahl. Dann schreibt sich das Ereignis 0 mal Werfen von Kopf als 111. Schreiben wir eine Tabelle aller möglichen Ereignisse mit den Anzahl der Permutationen. Ereignis Anzahl Permutationen 000 1 001 011 111 1 Die Anzahl der Ereignisse können natürlich auf verschiedene Arten berechnet werden. Ich werde meine betrachtungsweise am Beispiel 001 zeigen. Wir verteilen am Anfang 3 verschiedene Elemente auf 3 Plätze. Wir betrachten hier die beiden 0 als verschieden. Damit erhält man 3! = 6 Möglichkeiten, da es ohne zurücklegen ist. Nun betrachten wir die Elemente die gleich sind. Die beiden 0 werden nun wieder als gleich betrachtet. Man kann diese vertauschen und erhält das gleiche Bild, damit erhält dass man am Anfang alle Ereignisse doppelt gezählt hat. Damit erhält man die 3! Anzahl Ereignisse mit 2 Mal 0 und einmal 1 zu 2!·1! = 3. 2. ohne Zurücklegen (a) Die Anzahl der verschiedenen Kombinationen von Lottozahlen (man 49! . zieht 6 Kugeln aus 49 verschiedenen Kugeln) ist gegeben durch (49−6)! Nun spielt es aber keine Rolle, in welcher Reihenfolge die Zahlen gezogen werden. Diese 6 Zahlen können auf 6! verschiedene Arten ge49! Möglichkeiten. Diese schrieben werden. Daher ergeben sich (49−6)!6! Kombination ist so häufig, dass sie eine eigene Notation bekommen 49 49! hat = (49−6)!6! . (Gesprochen 49 tief 6). 6 Es gilt: 49 49 = 6 49 − 6 (b) Man hat in einem Modul 7 Vorlesungen, wobei man 4 davon besuchen muss. Wieviele verschiedene Modulzusammenstellungen existieren? |A| = 7 4 = 7·6·5·4 4! = 35 14 KAPITEL 2. EINFÜHRUNG Satz 2.1 (Berechnung der Anzahl Permutationen) Um die Anzahl Permutationen zu berechnen betrachtet man am besten alle Möglichkeiten und dividiert durch die Anzahl der identischen Möglichkeiten. Wir betrachten k verschiedenfarbige Kugeln. Von jeder Kugelfarbe i besitzen wir ni k P ni und die Gesamtzahl der AnordnunKugeln. Die Gesamtzahl ist also n = i=1 gen ist dann gegeben durch n! (mit Unterscheidung). Jede Kugelart besitzt ni ! Permutationen. Somit erhält man die Anzahl der Möglichkeiten zu n1 !·nn! . 2 !...nk ! 2.5 Bedingte Wahrscheinlichkeit Beispiel 1. Neulich erfuhren wir durch die Wettervorhersage, dass es am Samstag mit fünfzig-prozentiger Wahrscheinlichkeit und am Sonntag ebenfalls mit fünfzig-prozentiger Wahrscheinlichkeit regnen werde. Wie gross ist nun die Wahrscheinlichkeit, dass es am Wochenende regnet? Anmerkung: Das Wetter von Morgen hat einen starken kausalen Zusammenhang mit dem Wetter von heute. Daher ist das Ereignis äm Sonntag regnet es”nicht unabhängig vom Ereignis äm Samstag regnet es”. Wenn die Ereignisse vollkommen unabhängig wären, so wäre die Wahrscheinlich2 keit gegeben durch p(A) = 1 − 21 . 2. Wir betrachten die folgenden Wahrscheinlichkeiten. (a) ein Schweizer hat die Muttersprache deutsch (b) eine Person, die die Muttersprache deutsch hat, ist Schweizer Antwort Ohne die Auslandsschweizer ist die Wahrscheinlichkeit (a) ca. 60%. Für (b) gilt: weltweit haben ca. 100 Millionen Menschen die Muttersprache deutsch. Daraus ergibt sich, dass die Wahrscheinlichkeit (b) gegeben ist 6 ·0.6 durch 7·10 100·106 = 0.042 = 4.2% Definition 2.5 (Bedingte Wahrscheinlichkeit) Unter bedingter Wahrscheinlichkeit versteht man die Wahrscheinlichkeit, dass ein Ereignis eintritt, vorausgesetzt dass ein anderes Ereignis vorher schon eingetreten ist. Die Wahrscheinlichkeit, dass ein Ereignis A eintritt, falls das Ereignis B schon eingetroffen ist, ist gegeben durch: p(A | B) = Anzahl von A in B = Anzahl von B |A∩B| |B| = |A∩B| |Ω| |Ω| |B| = p(A∩B) p(B) Kommentar Sind 2 Ereignisse A und B unabhängig voneinander so gilt p(A ∩ B) = p(A) · p(B). Dies führt auf p(A | B) = p(A∩B) = p(A)·p(B) = p(A). Das heisst p(B) p(B) 2.6. EREIGNISBAUM 15 das Eintreffen vom Ereignis B hat keinen Einfluss auf das Eintreten von Ereignis A (anders gesagt: die Wahrscheinlichkeit, dass A eintrifft ist gleich gross, ob B vorher eingetroffen ist oder nicht). 2.6 Ereignisbaum Beispiel Wir betrachten den Münzwurf einer nicht genau symmetrischen Münze. Diese habe die Wahrscheinlichkeit p = 0.4 Kopf (K) anzuzeigen und die Wahrscheinlichkeit q = 1 − p = 0.6 Zahl (Z) anzuzeigen. Nach zweimaligen Werfen der Münze wollen wir wissen, wie gross die Wahrscheinlichkeit ist, dass wir 1 Mal Kopf und 1 Mal Zahl geworfen haben. In der Abbildung 2.1 haben wir den Ereignisbaum dieses Experiments abgebildet. Wir fangen ganz oben an und können beim ersten Mal entweder Kopf oder Zahl werfen. Man zeichnet für jedes mögliche Ereignis eine Verzweigung und schreibt darüber, wie gross die Wahrscheinlichkeit für dieses Ereignis ist. Die Ereignisse (K) und (Z) sind disjunkt und zusätzlich sind es alle Möglichkeiten, die die Münze besitzt. Somit muss die Summe der Wahrscheinlichkeiten von (K) und (Z) 1 ergeben. Anschliessend können bei jedem Zweig wieder die beiden Ereignisse Kopf oder Zahl eintreten. Der zweite Wurf ist unabhängig vom ersten. Falls man sich auf einem Zweig herunter bewegt sind die Ereignisse daher unabhängig voneinander. Man erhält die Wahrscheinlichkeit, für den betrachteten Zweig durch Multiplikation der entsprechenden Wahrscheinlichkeiten. In der folgenden Tabelle sind die Wahrscheinlichkeiten des gezeigten Ereignisbaums gegeben. Ereignis Wahrscheinlichkeit KK p = 0.4 · 0.4 = 0.16 KZ p = 0.4 · 0.6 = 0.24 ZK p = 0.6 · 0.4 = 0.24 ZZ p = 0.6 · 0.6 = 0.36 Falls man nur an den Ereignissen 2 Mal Kopf, 2 Mal Zahl und 1 Mal Kopf und 1 Mal Zahl interessiert ist, dann sind die Ereignisse KZ und ZK die gleichen und da diese Ereignisse disjunkt sind, können die beiden Wahrscheinlichkeiten einfach addiert werden. So erhält man die Wahrscheinlichkeit P = 0.48, dass man 1 Mall Kopf und 1 Mal Zahl wirft. Die folgenden Regeln gelten in einem Ereignisbaum: • Die Summe der Wahrscheinlichkeiten nach einer Verzweigung ist 1 (disjunkte Ereignisse, von denen eines eintreten muss; jeder Zweig bedeutet eine Möglichkeit für den Fortgang). • Längs eines Weges müssen die Wahrscheinlichkeiten multipliziert werden (unabhängige Ereignisse). • Wenn verschiedene Wege zum gleichen Resultat führen, müssen deren Wahrscheinlichkeiten addiert werden (disjunkte Ereignisse). 16 KAPITEL 2. EINFÜHRUNG K 0.4 p= Z q= 0.4 gig en ha p= 0.4 un ab 0.6 p= 0.4 q= Z .4 q=0 K K Z disjunkt Abbildung 2.1: Der Ereignisbaum des 2maligen Werfens einer Münze, mit den Wahrscheinlichkeiten p = 0.4 für Kopf (K) und p = 0.6 für Zahl (Z). 2.7 Zusammenfassung Nach der Laplace Annahme ist die Wahrscheinlichkeit, dass ein Ereignis eintritt, gegeben durch die Anzahl der Ereignisse dividiert durch die Anzahl aller Ereignisse. Man geht dabei davon aus, dass alle Ereignisse gleich wahrscheinlich sind. Man unterscheidet zwischen unabhängigen und disjunkten Ereignissen. Bei unabhängigen Ereignissen werden die Anzahl der Möglichkeiten multipliziert und bei den disjunkten addiert. Dies führt darauf, dass die Wahrscheinlichkeiten auch multipliziert oder addiert werden können. (Hier muss man aufpassen: Wahrscheinlichkeit bezüglich was?) Folgenden Regeln sind zur Berechnung der Anzahl Möglichkeiten wichtig: Berechnung Ziehen von Kugeln mit zurücklegen Reihenfolge spielt Rolle Ziehen von Kugeln ohne zurücklegen Reihenfolge spielt Rolle Ziehen von Kugeln ohne zurücklegen Reihenfolge spielt keine Rolle Noch zwei Kontrollfragen. 1. Was ist eine bedingte Wahrscheinlichkeit? 2. Was ist ein Ereignisbaum und wie berechnet sich die Wahrscheinlichkeit für ein Ereignis? Kapitel 3 Deskriptive (beschreibende) Statistik Ziel Beschreibende Statistik besteht in der Aufbereitung, Darstellung und Analyse gesammelter Daten. Die Daten gehören zu einer Vollerhebung (Volkszählung) oder - viel häufiger - zu einer Stichprobe. Man unterscheidet zwischen quantitativen und qualitativen Daten. 1. quantitative Daten Diese werden in diskrete (z.B. Noten einer Prüfung, Anzahl Studenten) und kontinuierliche Daten (Grösse, Gewicht) unterschieden. 2. qualitative Daten Hier unterscheidet man nominale Daten (z.B. Haarfarbe, Tierart), wo keine sinnvolle Zuordnung zu Zahlen möglich ist und ordinale Daten (z.B. hervorragend, gut, usw.). Letztere beziehen sich normalerweise auf eine grösser/kleiner Relation (Mohs’sche Härteskala). Eine Zuordnung zu Zahlen ist möglich. 3.1 Datenerfassung Typischerweise wird nicht eine Vollerhebung der Daten durchgeführt, sei es aus Kostengründen oder auch weil die Gesamtheit schlichtweg nicht bekannt ist; z.B. alle hochbegabten Kinder. Daher wird häufig eine repräsentative Stichprobe ausgewählt und es wird danach aus den Eigenschaften der Stichprobe auf die Eigenschaften der Grundgesamtheit geschlossen. Eine repräsentative Stichprobe auszuwählen ist nicht immer einfach zu realisieren. Im folgenden sind die Voraussetzungen für eine repräsentative Stichprobe zusammengestellt: 17 18 KAPITEL 3. DESKRIPTIVE (BESCHREIBENDE) STATISTIK • Die Stichprobe ist homogen • Es liegen gleiche Produktionsbedingungen für die Stichprobe und die Grundgesamtheit vor • Das Fertigungsverfahren wird und wurde nicht geändert, der Prozess wurde nicht gestört Eine repräsentative Stichprobe erfordert, dass alle Vertreter der untersuchten Population (z.B. Tieren, Pflanzen, Menschen) mit der gleichen Wahrscheinlichkeit in der Stichprobe vertreten sind. Dies kann einerseits dadurch erreicht werden, dass die Stichprobe vollkommen zufällig gezogen wird. Gerade bei kleinen Stichprobengrössen kann jedoch eine solche zufällige Stichprobe zur Über- oder Unter-Repräsentierung bestimmter Teilpopulationen führen. Zur Lösung dieses Problems werden oftmals geschichtete (= stratifizierte) Zufalls-Stichproben gezogen, wobei zunächst festgelegt wird, welche Teilpopulationen zu welchen Anteilen in der Stichprobe vertreten sein sollen. Innerhalb dieser Teilpopulationen werden die Stichproben dann zufällig gezogen. 3.2 Datenbearbeitung Beispiel Wir betrachten mehrere Würfe mit 2 Würfeln und zählen die Gesamtzahl der Augen. Typischerweise werden dann in einer Tabelle die Häufigkeit der verschiedenen Ereignisse eingetragen. Dies kann relativ oder absolut erfolgen. Eine andere etwas weniger gebräuchliche Darstellung ist die kumulierte Häufigkeit oder Summenkurve. Dabei werden die Ereignisse, die einen kleineren oder gleichgrossen Wert einnehmen als die Zahl angegeben. Beispiel: In der unteren Tabelle werde 7 Mal eine kleiner oder gleichgrosse Zahl als 3 geworfen. Augenzahl absolut relativ abs. kum. rel. kum. 2 2 0.02 2 0.02 3 5 0.05 7 0.07 4 5 0.05 12 0.12 5 10 0.10 22 0.22 6 15 0.15 37 0.37 7 21 0.21 58 0.58 8 13 0.13 71 0.71 9 9 0.09 80 0.80 10 8 0.08 88 0.88 11 7 0.07 95 0.95 graphische Darstellung Für die Darstellung der Daten existieren verschiedene Möglichkeiten. Erwähnt seien Stabdiagramm, Säulendiagramm (Histogramm) und Kuchendiagramm. Die Höhe des Stabs bzw. die Fläche der Säule oder des Kuchenstücks Nr. j entspricht der absoluten oder der relativen Häufigkeit (häufig in %). Die Daten können natürlich auch durch die kumulierte Häufigkeit dargestellt werden. In der Abbildung 3.1 wird die absolute und die absolute kumulierte Häufigkeit als Stabdiagramm dargestellt. 12 5 0.05 100 1 3.3. KLASSIERUNG 19 100 20 80 60 Prozent rel. Haeufigkeit 15 10 40 5 20 0 0 2 3 4 5 6 7 8 Anzahl Augen 9 10 11 12 2 3 4 5 6 7 8 Anzahl Augen 9 10 11 12 Abbildung 3.1: Links ist die absolute Häufigkeit als Stabdiagramm dargestellt und rechts die absolute kumulierte Häufigkeit des Beispiels der Augenzahl mit 2 Würfeln. 3.3 Klassierung Falls eine kontinuierlichen Messgrösse betrachtet wird, z.B. die Masse oder die Grösse von Personen, dann bringt eine solche Häufigkeitstabelle nichts, da jeder Wert typischerweise nur einmal auftritt. Histogramme sind gleichwohl eine effiziente und gebräuchliche Methode, um Verteilungen von kontinuierlichen Variablen zu beschreiben. Im Allgemeinen stellen Histogramme die Häufigkeit des Auftretens einer Beobachtung innerhalb gegebener Intervalle gleicher Breite dar. Histogramme können als eine Art Klassifikation von Daten betrachtet werden. Jeder Datenpunkt wird, abhängig von seinem Wert, in eines der Intervalle sortiert. Eine wichtige Frage ist die Zahl der Intervalle, die für ein Histogramm verwendet werden soll. Falls die Zahl der Klassen zu niedrig oder zu hoch ist, könnte das Histogramm die Information in den Daten verdecken. Als Faustregel gilt, √ dass man für einen Datensatz mit n Daten in etwa n Klassen verwendet. Beispiel Man untersucht das Gewicht von Schülern in einer Klasse. Die folgende Aufzählung gibt die Masse der verschiedenen Schüler in kg an: 23, 26, 25, 27, 25, 26, 24, 28, 35, 34, 29, 29, 35, 36, 34, 35, 37, 31, 30, 31 √ Es sind 20 Schüler und daher sollten in etwa 20 = 4.47 ∼ 4−5 HistogrammKlassen verwendet werden. Die unterste Grenze sollte 23 kg und die oberste Grenze 37 kg beinhalten. Die Breite eines Intervalls ist dann gegeben durch 37.5−22.5 = 3. In der unten stehenden Tabelle sind die absolute Häufigkeit und 5 die dazugehörigen Intervalle angegeben. Typischerweise wird als Repräsentant des Intervalls die Intervalmitte angegeben. 20 KAPITEL 3. DESKRIPTIVE (BESCHREIBENDE) STATISTIK Intervall Repräsentant abs. H. [22.5, 25.5) 24 4 [25.5, 28.5) 27 4 [28.5, 31.5) 30 5 [31.5, 34.5) 33 2 [34.5, 37.5) 36 5 Die Verteilung solcher Daten wird in einem Histogramm dargestellt. Die kumulierte Verteilungsfunktion ist eine Treppenfunktion mit Sprungstellen beim kleinsten prinzipiell möglichen Wert einer Klasse. Anmerkungen 1. Werden ungleich breite Klassen verwendet, so ist unbedingt darauf zu achten, dass nicht die Höhe der Säule sondern deren Fläche der Häufigkeit entspricht. 2. Man nütze die Freiheiten um ein möglichst schönes Histogramm zu erhalten. Unschön kann z.B. sein, dass leere Klassen existieren. Die Freiheiten bestehen in der Anzahl der Klassen sowie oft in der Wahl freier Stellen an den Rändern. 3.4 3.4.1 Lagemass für ordinalskalierte Daten Median Definition 3.1 (Medianwert) Der Median Q50 ist derjenige Wert, der die der Grösse nach aufsteigend geordnete Daten in zwei gleich grosse Werteintervalle teilt; oberhalb wie unterhalb des Median liegen also 50% der Daten. Zur Berechnung des Medianwertes muss zwischen einer geraden und einer ungeraden Anzahl Daten xi unterschieden Werten. Für n ungerade gilt, dass Q50 = xk mit k = n+1 2 . Falls n gerade ist, so ist der xn/2 +xn/2+1 Median durch Q50 = definiert. 2 Beispiele 1. x = {3, 4, 5, 6, 7}, dann ist der Median Q50 = 5. 2. x = {3, 4, 5, 6}, dann ist der Median Q50 = 4+5 2 Es gibt sehr viele verschiedene Definitionen des Medianwertes, alle sind mehr oder weniger gleichwertig. 3.5. LAGEMASS FÜR METRISCH SKALIERTE DATEN 3.4.2 21 Quantile Falls man das Prinzip des Medianwertes verallgemeinert, kommt man zum Begriff des Quantils. Definition 3.2 (Quantil) Das α%-Quantil Qα ist derjenige Wert, der die der Grösse nach aufsteigend geordnete Daten so teilt, dass α% der Werte unterhalb von Qα liegen bzw. (100−α)% oberhalb. Die Berechnung ist ähnlich zu derjenigen des Medianwertes. Sei n die Anzahl der Daten. Fall 1: k = n · α/100 ist eine ganze Zahl, dann ist Qα = xk+12+xk Fall 2: k = n · α/100 ist keine ganze Zahl, dann schneide man von k die Nachkommastellen ab und mit diesem neuen k ′ ist: Qα = xk′ +1 . Achtung 1. In der Literatur gibt es verschiedenste Definitionen des Quantils. Die oben genannte ist nur eine davon. Daher kann es sein, dass bei Verwendung eines Programms (z.B. Excel) die erhaltenen Werte nicht mit dem durch das oben genannte Verfahren erhaltenen übereinstimmen. 2. In Programmen wird häufig anstatt α in % auch einfach die mehr mathematische Notation 100% = b 1 verwendet. Beispiel Beispiel 1 von oben. Q25 = 4 oder Q20 = 3.5 Anmerkungen 1. Die 25%- Quantile wird auch 1.Quartile genannt. 2. Der Medianwert ist identisch mit Q50 und der 2.Quartile. 3. Die 75%- Quantile wird auch 3 Quartile genannt. 3.5 Lagemass für metrisch skalierte Daten Die Verteilung der Daten kann durch Kennzahlen charakterisiert werden, welche die Lage und die Streuung beschreiben. Die wichtigsten Kennzahlen sind der Mittelwert und die empirische Varianz. Definition 3.3 (Mittelwert) Seien n Messwerte gegeben durch xi mit i = 1 . . . n. Dann ist der Mittelwert n P gegeben durch x̄ = n1 xk . Es wird häufig das Symbol µ für den Mittelwert benutzt. k=1 22 KAPITEL 3. DESKRIPTIVE (BESCHREIBENDE) STATISTIK Anmerkungen Fasst man alle gleichen Ereignisse xi zusammen, so ergibt sich die folgende Gleichung für die Berechnung des Mittelwertes. x̄ = 1 n l P hk yk , wobei die hi die absolute Häufigkeit des Ereignisses yi ist. k=1 Die Ereignisse yk müssen disjunkt sein und alle Ereignisse von xi enthalten. Falls alle Ereignisse xk verschieden sind, so gilt yi = xi und hi = 1. Das obige Resultat kann nochmals umgeformt werden. x̄ = l P p(yk )yk . Hier ist p(yk ) die empirische Wahrscheinlichkeit, dass das k=1 Ereignisses yk eintritt. Beispiel Wir werfen einen Würfel 9 mal und erhalten die Augenzahlen 3, 3, 2, 3, 2, 2, 1, 2, 6. Wie wahrscheinlich ist es, dass die Zahl 4 nie gewürfelt wurde, falls man annimmt, dass alle Zahlen die gleichgrosse Wahrscheinlichkeit haben? (p = 0.161) Dies ergibt einen Mittelwert der Anzahl Augen von x̄ = 3.9. Den Mittelwert kann man nun aber auch mittels der hi und der p(yi ) berechnen. Wir definieren zuerst die y1 = 1, y2 = 2 . . . , y6 = 6. Also y1 entspricht dem Ereignis, dass der Würfel die Zahl 1 zeigt. Die verschiedenen hi sind dann durch h1 = 1, h2 = 4, h3 = 3, h4 = 0, h5 = 0, h6 = 1 gegeben. Die p(yi ) sind dann durch hi /n gegeben. Ich gebe hier nur den Wert für p(y1 ) = 91 an. Natürlich erhält man mit allen Methoden den gleichen Mittelwert. Die letzte Definition des Mittelwerts wird auch gewichteter Mittelwert genannt. Die praktische Anwendung des gewichteten Mittelwertes ist vielfältig. Beispiel Berechnung des Gebiets-Niederschlages auf der Basis punkthafter Niederschlagsmessungen an Messstationen. Nehmen wir an, dass 4 Messstationen den Niederschlag für ein gewisses Gebiet repräsentativ messen. Messstation A B C D Summe Mittelwert gew. Mittelwert Messwert [mm] 21 18 20 4 63 15.8 16.1 Umgebung [km2 ] 7 6 4 5 22 p(yi ) 0.318 0.273 0.182 0.227 1 3.6. STANDARDISIEREN 23 weitere Definitionen • Modalwert: das ist der wahrscheinlichste Wert. Dies bedeutet, dass der Wert die grösste Wahrscheinlichkeit besitzt. In einem Histogramm ist dies also der höchste Balken. • empirische Varianz k 1 P hj (yj − x̄)2 = s2x = n−1 j=1 n n−1 k P j=1 p(yj )(yj − x̄)2 Dass man durch n − 1 dividiert hat mit der Anzahl Freiheitsgraden zu tun, wir werden später darauf zurückkommen. p Die empirische Standardabweichung ist dann durch sx = s2x gegeben. • α−Quantile ist genau gleich definiert, wie bei den ordinalskalierten Daten. • Spannweite = Differenz zwischen dem maximalen und dem minimalen Wert • Quartilsabstand = Differenz zwischen dem 1. Quartil und dem 3.Quartil 3.6 Standardisieren transformiert (x̄ ist der Mittelwert), so besitzen Werden die xi auf zi = xis−x̄ x die zi einen Mittelwert von 0 und eine empirische Varianz von 1. Dies ist sehr nützlich falls man zeigen möchte, dass eine Datenmenge eine gewisse Häufigkeitsverteilung besitzt. Beispiel Zeige, dass durch das Standardisieren der Mittelwert 0 und die empirische Varianz 1 ist. Lösung xi −x̄ und damit berechnet sich der Mittelwert s x n n P P xi 1 n·x̄ x̄ = n1 n·x̄ = 0. Man − n sx sx sx − sx i=1 i=1 2 n n P P 2 xi −x̄ 1 1 = (n−1)s (xi − x̄) = 1 2 (n−1) sx x i=1 i=1 Es gilt also zi = n P xi −x̄ z̄ = n1 = sx i=1 Varianz s2x = 3.7 von zi zu erhält die Zusammenfassung Ein paar Fragen. 1. Es existieren 2 grundsätzlich verschiedene Arten von Daten, welche sind dies? 2. Welche Probleme können bei der Datenerfassung auftreten? 3. Bei der Datenbearbeitung muss zwischen 2 Arten der Daten unterschieden werden, welche sind dies? 24 KAPITEL 3. DESKRIPTIVE (BESCHREIBENDE) STATISTIK 4. Welche Art der Darstellung von Daten kennen sie? 5. Wieviele Klassen benutzen sie, falls sie n Daten besitzen? Versuchen sie in der nächsten Tabelle die entsprechenden Lagemasse für metrischskalierte Daten einzutragen. für ordinalskalierte Daten für metrischskalierte Daten Medianwert α−Quantile Quartile 6. Was ist der Modalwert? 7. Was ist die empirische Varianz? 8. Wo kann die Standardisierung Sinn machen? Kapitel 4 Verteilungen 4.1 Diskrete Verteilungen Beispiel Wir werfen eine Münze und ordnen dem Resultat eine Zahl zu. Zum Beispiel sei X=1, falls man Kopf und X=0, falls man Zahl geworfen hat. Nun können wir das Ereignis des Werfens einer Münze mit Hilfe von Zahlen schreiben. So eine Zuordnung wird Zufallsvariable genannt. Wir können auch die Wahrscheinlichkeit für so ein Ereignis angeben. Dies wird mit der folgenden Notation geschrieben. Die Wahrscheinlichkeit das Kopf geworfen wird ist gleich p(X = 0) = für Zahl p(X = 1) = 21 . 1 2 und Beispiel Würfeln mit 2 Würfeln Wir definieren die Zufallsvariable X als Anzahl der Augen und die Ereignisse Ai = i + 1, i = 1, . . . , 11 (mit 2 Würfeln kann man die Werte 2 bis 12 würfeln). 11 P p(X = Ai ) = 1 Es gilt nun, dass man mit Sicherheit eine dieser Zahlen wirft j=1 (∪Ai = Ω, Ai sind disjunkt). Jeder dieser Werte besitzt eine eigene Wahrscheinlichkeit, wie häufig dieser geworfen wird. Wir berechnen nun für jede mögliche Anzahl Augen diese Wahrscheinlichkeit. Dazu benutzt man die Laplace Annahme und zusätzlich, dass gewisse Ereignisse disjunkt und andere unabhängig sind. Wir berechnen dabei die Anzahl Möglichkeiten eine Zahl zu würfeln. z.B. wir haben die folgenden Möglichkeiten die Zahl 5 zu würfeln. {1|4, 2|3, 3|2, 4|1}. Daher ist die Wahrscheinlichkeit eine 5 zu würfeln gleich 5 p(X = 5) = 36 . Diese Zuordnung der Ai zu den Wahrscheinlichkeiten wird Wahrscheinlichkeitsverteilung genannt. In der Praxis wird oft versucht, eine empirische Verteilung mit der Vertei25 26 KAPITEL 4. VERTEILUNGEN lung eines Modells zu vergleichen. Die beiden werden praktisch gleich untersucht, aber es werden zum Teil andere Bezeichnungen benutzt. Modellverteilung mit m Ereignissen Wahrscheinlichkeitsverteilung p(X = Aj ) m P p(X = Aj )Aj Erwartungswert E(X) = m P j=1 j=1 2 p(X = Aj ) (Aj − E(X)) p Standardabweichung σ = V ar(X) Varianz V ar(X) = j=1 Beispiel Stichprobe vom Umfang n mit m Ereignissen Experimentelle Verteilung mit pk = hnk m P pj xj Arithmetischer Mittelwert x̄ = s2x n n−1 pj (xj − x̄)2 p empirische Standardabweichung sx = s2x empirische Varianz = j=1 Wir betrachten wieder das obige Beispiel des Werfens von 2 Würfeln. Der Erwartungswert ist, dann gegeben durch 1 E(X) = 36 (1·2+2·3+3·4+4·5+5·6+7·6+8·5+9·4+10·3+11·2+12·1) = 7 und die Varianz ist gegeben durch V ar(X) = 35 6 = 5.83. Daraus erhält man eine q 35 Standardabweichung von σ = 6 = 2.42. 4.1.1 Uniforme Verteilung Definition 4.1 (Uniforme Verteilung) Bei einer uniformen Verteilung sind alle Ereignisse gleich wahrscheinlich. Beispiel Berechne den Erwartungswert und die Varianz der Augenzahl beim Würfeln mit einem Würfel. Jede der Zahlen ist gleich Wahrscheinlich p = 16 . Damit berechnet sich der 6 P j · 16 = 3 + 12 und die Varianz zu V ar(X) = Erwartungswert zu E(X) = j=1 6 P j=1 1 6 j− 3+ 4.1.2 1 2 2 = m P 35 12 Binomialverteilung B(n,p) Beispiel Wir werfen eine Münze n-Mal und fragen uns wie gross die Wahrscheinlichkeit ist k-Mal Kopf zu erhalten. Wie wir gesehen haben ist die Wahrscheinlichkeit eines solchen Ereignisses (die Reihenfolge spielt keine Rolle) n p(X = k) = B(n, p) = pk (1 − p)n−k k Wobei die Wahrscheinlichkeit Kopf zu werfen p und die Wahrscheinlichkeit Zahl zu werfen 1 − p ist. 4.1. DISKRETE VERTEILUNGEN 27 0.25 0.35 0.3 0.2 0.25 0.15 p p 0.2 0.15 0.1 0.1 0.05 0.05 0 0 10 9 8 7 6 5 4 3 2 1 10 9 8 7 6 5 4 3 2 1 Anzahl Kopf Anzahl Kopf Abbildung 4.1: Stabdiagramm von zwei Binomialverteilungen (symmetrisch und links schief) Falls p < 0.5 ist, ist die Verteilung links schief Falls p = 0.5 ist, ist die Verteilung vollkommen symmetrisch Falls p > 0.5 ist, ist die Verteilung rechts schief Die Kennzahlen der Verteilung ergeben sich zu E(X) = np und V ar(X) = np(1 − p). Anwendungen • Wahrscheinlichkeitsberechnung von 2 disjunkten Ereignissen • Ziehen mit Zurücklegen aus einer Grundgesamtheit • Wiederholtes Werfen einer Münze • Verteilungen zur Reinigung von Gemischen (Extraktion) Anmerkung: Aus der Verteilung ergibt sich die folgende Beziehung n X n pk (1 − p)n−k = (p + (1 − p))n = 1 k k=0 Beispiel 1. Wir werfen eine Münze, welche die Wahrscheinlichkeit Kopf (K) zu erhalten p = 0.4 hat und q = 1 − p = 0.6 Zahl (Z) zu erhalten. Die Wahrscheinlichkeiten sind dann gegeben durch: KK KZ ZZ 2 0.42 (1 − 0.4)(2−2) = 0.16 2 2 p= 0.41 (1 − 0.4)(2−1) = 0.48 1 2 p= 0.40 (1 − 0.4)(2−0) = 0.36 0 p= Sie können dies mit dem Resultat vom Beispiel zum Ereignisbaum vergleichen. 28 KAPITEL 4. VERTEILUNGEN 2. Man kann die Binomialverteilung auch zur Beschreibung irgendeiner Chromatographie benutzen, sei es GC, HPLC usw. Betrachten wir dazu ein paar Scheidetrichter, welche hintereinander geschaltet sind. Wir benutzen zur Extraktion Essigester und Wasser. Wir bestimmen das Lösungsgleichgewicht und bemerken, dass von einer Substanz A pA = 0.6 in der Essigesterphase und von einer anderen Substanz B pB = 0.45 in der Essigesterphase ist. Nun stellen wir eine Reihe von Scheidetrichter (n=200) auf und wollen wissen, wo die Substanz nach 100 maligen schütteln ist, falls der Essigester von Scheidetrichter 1 zu 2 resp. 2 zu 3 usw. weitertransportiert wird. Wir können nun den Erwartungswert und die Varianz für die beiden Substanzen getrennt berechnen. Substanz A B E(X) E(X) = pA n = 60 E(X) = 45 V ar(X) √ V ar(X) = npA (1 − pA ) = 24 ⇒ σ = 24 √ V ar(X) = 24.75 ⇒ σ = 24.75 Wir kommen später nochmals auf dieses Beispiel zurück. 4.1.3 Poissonverteilung Die Poissonverteilung beschreibt die absolute Häufigkeit, mit welcher ein Ereignis in einem bestimmten Zeitintervall τ auftritt. Voraussetzung ist, dass die Ereignisse unabhängig voneinander sind und mit einer im Mittel konstanten Rate λ pro Zeitintervall τ eintreten. Pλ (X = k) = λk e−λ k! Die Kennzahlen sind E(X) = λ und V ar(X) = λ Anwendungen • Das sicher bekannteste Beispiel ist der radioaktive Zerfall. Die Zerfälle der Atome sind vollkommen unabhängig voneinander. • Es treffen pro Minute λ Meteoriten auf die Erdatmosphäre. Wie gross ist die Wahrscheinlichkeit, dass in einer Minute k Meteoriten auf die Atmosphäre treffen? Beispiel 1. An einer Kreuzung ereignen sich im Mittel 0.4 Unfälle pro Monat. Mit welcher Wahrscheinlichkeit ereignet sich auf diesem Strassenstück mehr als 1 Unfall in einem Monat? Wir nehmen an, dass alle Unfälle völlig zufällig und unabhängig voneinander sind. Damit sind die Bedingungen für die Poissonverteilung erfüllt. Der 4.2. KONTINUIERLICHE VERTEILUNGEN 29 Erwartungswert der Poissonverteilung ist λ, daher ist λ = 0.4 für einen Monat. Die Wahrscheinlichkeit, dass sich mehr als 1 Unfälle ereignen ist gleich p = 1 − P0.4 (X = 0) − P0.4 (X = 1) = 0.062 2. Eines der klassischen Beispiele für die Poisson-Verteilung ist die Anzahl der Kavalleristen der preussischen Armee, die durch Hufschlag getötet wurden. Bei zehn Truppenteilen gab es in 20 Jahren die folgenden Anzahlen von Toten pro Jahr und Truppenteil. Anzahl der getöteten Soldaten 0 1 2 3 4 Summe Anzahl der Truppenteil-Jahre 109 65 22 3 1 200 Man berechnet einen Mittelwert pro Jahr von x̄ = 1 (0 · 109 + 1 · 65 + 2 · 22 + 3 · 3 + 4 · 1) = 0.61 200 Da E(X) = λ bei der Poissonverteilung ist 0.61 eine Schätzung von λ. Man erhält mit diesem λ die folgende Anzahl der getöteten Soldaten. Anzahl der getöteten 0 1 2 3 4 Summe Anzahl der Truppenteile aus der Poissonverteilung 108.7 66.3 20.1 4.1 0.6 199.9 Man sieht also, dass die Abweichungen marginal sind. 4.2 Kontinuierliche Verteilungen Beispiel Bei einem Gas hat jedes Gasteilchen eine eigene Geschwindigkeit. Man kann sich nun fragen wie gross die Wahrscheinlichkeit ist, dass ein Gasteilchen einen gewissen Betrag der Geschwindigkeit (oder Energie) besitzt. Der Betrag der Geschwindigkeit ist eine kontinuierliche Grösse, dadurch ist die Wahrscheinlichkeitsverteilung grundsätzlich verschieden von denjenigen der vorherigen Beispiele. Diese Verteilung ist nun eine Funktion auf den positiven Zahlen. Eine solche Funktion f (x) (diese kann auch auf ganz R definiert sein) heisst Wahrscheinlichkeitsdichte. Die Wahrscheinlichkeitsdichte muss die folgenden Eigenschaften besitzen. Wir nehmen an, dass die Wahrscheinlichkeitsdichte (siehe Abbildung 4.2) im Intervall [a, b] definiert ist. Als Eselsleiter soll man beachten, dass bei alle Definitionen der diskreten Statistik das Summenzeichen durch das Integralzeichen 30 KAPITEL 4. VERTEILUNGEN y y = f (x) p(x < b) b x Abbildung 4.2: Die Darstellung einer Wahrscheinlichkeitsdichte. zu ersetzten ist. Eigenschaften der Wahrscheinlichkeitsdichte 1. f (x) ≥ 0 , ∀ x ∈ [a, b]. Warum ist dies so? 2. Rd f (x)dx ist die Wahrscheinlichkeit, dass die Zufallsvariable einen Wert c zwischen c und d annimmt. 3. Rb f (x)dx = 1, Sicherheit einen Wert zwischen a und b zu erhalten. a 4. Die kumulierte Wahrscheinlichkeit ist gegeben durch F (c) := Rc f (x)dx, a wobei a die untere Grenze des Definitionsbereiches von f (x) ist. 5. Die α-Quantile ist derjenige Wert x̃, für welchen gilt α = F (x̃). Also ist die Grösse der Fläche welche links von x̃ liegt genau α. 6. E(X) = Rb xf (x)dx ist der Erwartungswert (Mittelwert). a 7. V ar(X) = Rb f (x)(x−E(x))2 dx. Man sollte sich darunter die durchschnitt- a liche Abweichung vom Mittelwert vorstellen. 8. Erwartungswert irgendeiner Funktion g(x) ist gleich E(g(X)) = Rb g(x)f (x)dx a Im folgenden betrachten wir verschiedene Beispiele von kontinuierlichen Verteilungen. 4.2. KONTINUIERLICHE VERTEILUNGEN 4.2.1 31 Uniforme Verteilung Die Wahrscheinlichkeitsdichte sei auf einem Intervall überall gleich gross und sonst 0. ( 1 , falls x ∈ [µ − δ, µ + δ], p(x) = 2δ 0, sonst Im folgenden sind die Kennzahlen dieser Wahrscheinlichkeitsdichte angegeben. 0, falls x < µ − δ 2 F (x) = (x−µ+δ) , für x ∈ [µ − δ, µ + δ] , E(X) = µ, V ar(X) = δ3 2δ 1, falls x > µ + δ Man kann auch die α Quantile dieser Verteilung ausrechnen. Das heisst α Prozent liegen links vom Wert x̃(α). Man muss also die Gleichung F (x̃) = α nach x̃ auflösen. (x̃ − µ + δ) = α ⇒ 2αδ − δ + µ 2δ Beispiel 1. Wie gross ist die Wahrscheinlichkeit, falls man völlig zufällig eine Zahl zwischen 0 und 1 wählt, dass diese zwischen 14 und 34 liegt? Intuitiv sollte klar sein, dass die Wahrscheinlichkeit durch p = 12 gegeben ist. Da alle Zahlen gleich wahrscheinlich gezogen werden ist die Wahrscheinlichkeitsdichte gegeben durch p(x) = 1. Kontrolliere, ob dies eine Wahrscheinlichkeitsdichte ist! Dann ist die Wahrscheinlichkeit gegeben durch 3 Z4 1 p = 1dx = 2 1 4 2. Man möchte wissen, wie gross die Wahrscheinlichkeit bei einem gleichschenkligen Dreieck ist, dass die Seite s länger ist als diejenige der gleichen Schenkel d (Siehe Abbildung 4.3). (a) Lösung 1 Wie wir wissen, liegt die Grenze zwischen grösser und kleiner bei einem Öffnungswinkel von 60◦ . Man kann den Winkel von 0◦ bis 180◦ wählen. Somit ist die Wahrscheinlichkeit, dass die Seite s grösser als 60 d ist gegeben durch p = 1 − 180 = 32 . (b) Lösung 2 Wir zeichnen nun einen Kreis mit Radius 1 und definieren, dass die obere Spitze des Dreiecks am höchsten Punkt dieses Kreises liegt, wie in der Abbildung 4.3 rechts. Nun definieren die Schnittpunkte der gleichen Schenkel mit dem Kreis eine horizontale Linie, zusammen 32 KAPITEL 4. VERTEILUNGEN } D d d s Abbildung 4.3: Wie gross ist die Wahrscheinlichkeit, dass die Seite s länger ist als d. mit dem obersten Punkt ein Dreieck. Falls D < 23 ist, dann ist s > d. Somit ist die Wahrscheinlichkeit gegeben durch p = 23 · 12 = 43 . Was stimmt nun, ist es 32 oder 43 . Man sieht hier, dass es auch auf die Auswahl (Winkel, Strecke) ankommt. 4.2.2 Maxwell-Boltzmann Verteilung Die Maxwell-Boltzmann Verteilung gibt die Wahrscheinlichkeit an, dass ein Gasteilchen mit der Molmasse M bei der Temperatur T den Betrag der Geschwindigkeit v besitzt (R ist die Gaskonstante). Die Wahrscheinlichkeitsdichte ist gegeben durch: q v2 M 3/2 2 − M p(v) = π2 RT v e 2RT Diese Wahrscheinlichkeitsdichte besitzt die oben beschriebenen Eigenschaften und ist nur auf den positiven Zahlen v ≥ 0 definiert. In der Abbildung 4.4 ist die Maxwell-Boltzmann Verteilung für Stickstoff bei 25◦ C abgebildet. Um die folgenden Berechnungen durchzuführen ist es vorteilhaft, die beiden folgenden Integrale zu kennen (diese können mittels partieller Integration berechnet werden). R∞ x2n e−x 2 /a2 dx = 0 R∞ 0 x2n+1 e−x 2 /a2 √ (2n)! π n! dx = a 2n+1 2 (a2 )n+1 n! 2 Berechne damit folgendes: 4.2. KONTINUIERLICHE VERTEILUNGEN 33 p(v) E(v) vh 0 100 200 300 400 500 600 700 800 900 1000 v Abbildung 4.4: Die Maxwell Boltzmann Verteilung für Stickstoff bei 25◦ C. 1. Zeige, dass R∞ p(v)dv = 1, d.h die Funktion p(v) ist eine Wahrscheinlich- 0 keitsdichte (mit der Bedingung, dass p(v) ≥ 0). 2. Berechne die Geschwindigkeit, mit welcher die Gasteilchen am häufigsten im Gas vorkommen. 3. Berechne den Erwartungswert der Geschwindigkeit v. Im folgenden berechnen wir den Erwartungswert der kinetischen Energie Ekin = 21 M v 2 . q R∞ R∞ E(Ekin ) = 12 M v 2 p(v)dv = 21 M v 2 π2 0 0 q R∞ 4 −Mv2 /(2RT ) 2 M 3/2 1 v e dv = 23 RT 2M π 2RT M 3/2 2RT v 2 e−Mv 2 /(2RT ) dv = 0 Falls wir also Gasteilchen aus einem Gas herauspicken, so besitzen sie im Mittel die Energie 23 RT . 4.2.3 Exponentialverteilung Diese Verteilung folgt aus der Poissonverteilung, wenn als Zufallsvariable die Dauer bis zum Eintreten des nächsten Ereignisses betrachtet wird. Dabei spielt es keine Rolle, ob gerade ein Ereignis eingetreten ist oder nicht (Unabhängigkeit). Beispiel 1. Die Zeit zwischen zwei Zusammenstössen in einem Gas. 2. Besitzen die Zeiten zwischen Erdbeben in einem Gebiet diese Verteilung? Wie ist es, wenn man die Erdbeben in schwache und starke aufteilt? ( 0, falls x < 0 p(x) = λe−λx , sonst 34 KAPITEL 4. VERTEILUNGEN Die Kenngrössen sind hier durch ( 0, falls x < 0 F (x) = 1 − e−λx , sonst die Variation ist V ar(X) = λ12 , der Erwartungswert E(X) = α ln(1− 100 ) Quantile durch x̃(α) = − gegeben. λ 4.2.4 1 λ und die α- Normalverteilung Die weitaus wichtigste Verteilung haben wir uns bis zum Schluss aufgespart. Die Bedeutung dieser Verteilung kommt vom zentralen Grenzwertsatz her. Dieser sagt aus, dass man von irgendeiner Grundgesamtheit mit irgendeiner Verteilung (kann auch 2 Maxima besitzen) m Mal den Mittelwert mit n Anzahl Daten bestimmt. Diese verschiedenen Mittelwerte dann den Mittelwert der Verteilung besitzen und dass ihre Verteilung für den Grenzwert m → ∞, gegen die Normalverteilung konvergiert. Es spielt dabei keine Rolle ob man z.B. die Grösse aller Menschen oder nur die von Erwachsenen benutzt. Die statistischen Kenngrössen unterscheiden sich, aber nicht die Form der Verteilung. p(x) = √ 1 2πσ 2 e− (x−µ)2 2σ2 Die statistischen Kenngrössen sind durch E(X) = µ (Mittelwert) und V ar(X) = σ 2 (Standardabweichung) möglichst einfach gegeben. Hier haben wir einen Fall, bei der die kumulierte Häufigkeit F (X) nicht durch allgemeine Integrationsregeln berechnet werden kann. Diese Funktion ist normalerweise in Computerprogrammen enthalten und wird dort häufig als Fehlerfunktion bezeichnet. Besser wäre Gauss’sche Fehlerfunktion, da der Begriff Fehlerfunktion zum Teil auch eine andere Verwendung besitzt. Frage Skizzieren Sie die Funktion p(x) oben. Berechnen sie dazu die Extrema (Maxima bei x = µ) und zeigen sie, dass die Funktion bei µ ± σ einen Wendepunkt (f ′′ (x) = 0 und f ′′′ (x) 6= 0) besitzt. Eine weitere wichtige Eigenschaft der Normalverteilung ist der Additionssatz. Dieser besagt, dass falls man 2 Zufallsvariablen (X1 und X2 ) hat, welche normalverteilt sind und die Kenngrössen (µ1 , σ12 ) und (µ2 , σ22 ) besitzen, die Addition und Subtraktion X1 ± X2 dieser beiden Zufallsvariablen auch normalverteilt sind und die Kenngrössen (µ1 ± µ2 , σ12 + σ22 ) besitzen. Folgerung q Für den Mittelwert von n Messungen ergibt sich, dass der Mittelwert mit n1 gegen den Mittelwert der Verteilung konvergiert. Nun sieht man, dass Wiederholungen von Messungen nur bis zu einer gewissen Anzahl Sinn machen. 4.2. KONTINUIERLICHE VERTEILUNGEN 35 1 p(x) F(x) 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 -3 -2 -1 0 1 2 3 x Abbildung 4.5: Standardnormalverteilung und ihre kumulierte Häufigkeit) Beispiel Abschätzungsweise kann die folgende Näherung benutzt werden. Später werden wir dann noch sehen, dass dies nur eine Näherung ist. Um die Genauigkeit eines Resultats zu erhöhen kann man mehrere Messungen hintereinander durchführen. Anzahl Messungen: 2, Verdoppelung der Genauigkeit des Mittelwertes bei 4 = 22 · 2 Messungen. Anzahl Messungen: 10, Verdoppelung der Genauigkeit bei 40 = 22 · 10 Messungen. Standardnormalverteilung Die Standardnormalverteilung ist die Normalverteilung mit Mittelwert µ = 0 und Standardabweichung σ 2 = 1. Jede Normalverteilung kann durch die Transformation z = x−µ σ in die Standardnormalverteilung transformiert werden. Diese Transformation ist vor allem für die kumulierte Wahrscheinlichkeit wichtig, da in Büchern oft die Werte dieser Funktion tabeliert sind. Im folgende ist angegeben wieviel Prozent der Werte bei der Standardabweichung innerhalb des Intervalls [−kσ, kσ] (siehe 8.1) liegen. Intervall [−σ, σ] [−2σ, 2σ] [−3σ, 3σ] % aller Werte 68.3 95.4 99.7 Dieses Resultat ist wichtig, da es für alle Normalverteilungen mit (µ, σ) gilt. Wie gross ist die Wahrscheinlichkeit von [0, σ]? ( 68.3 2 = 34.15) 36 KAPITEL 4. VERTEILUNGEN Extraktion 0.09 Substanz A Substanz B 0.08 0.07 0.06 p 0.05 0.04 0.03 0.02 0.01 0 0 20 40 60 80 100 Gefäss Abbildung 4.6: Beispiel der Extraktion von 2 Substanzen. Die Trennung ist noch nicht gut. 4.3 Zusammenhang zwischen den verschiedenen Verteilungen Die Poissonverteilung und auch die Gaussverteilung sind Spezialfälle der Binomialverteilung. Es ist viel einfacher mit der Gaussverteilung oder der Poissonverteilung als mit der Binomialverteilung zu rechnen, daher haben diese ihre Berechtigungen. In der folgenden Tabelle sind die Bedingungen aufgestellt unter welchen die Binomialverteilung durch die Gaussverteilung oder die Poissonverteilung angenähert werden kann. Bedingung Falls p < 0.05 und n > 10 Falls np(1 − p) > 9 Näherung durch Poissonverteilung mit λ = np Gaussverteilung mit µ = np und σ 2 = np(1 − p) Beispiel 1. Wir betrachten wieder das Beispiel der Extraktion. Nun können wir ohne Probleme mithilfe der Gaussverteilung die Graphen 4.6 zeichnen und auch die Trennung der Substanzen abschätzen. Um die Trennung abschätzen zu können, berechnen wir ob sich die Intervalle in welchen 95% der Substanz A resp. B sind, überschneiden. Man erhält für Substanz A [50, 70] und für Substanz B [35, 55]. Man könnte sich fragen, wieviel Extraktionen man machen muss, damit sich die 99.7% Intervalle nicht überschneiden. (Lösung: n = 390). 2. Man habe einen Münzwurf mit der Wahrscheinlichkeit p = 0.01 Kopf zu erhalten.Wie gross ist dann die Wahrscheinlichkeit 10 Mal Kopf zu werfen, 4.3. ZUSAMMENHANG ZWISCHEN DEN VERSCHIEDENEN VERTEILUNGEN37 falls man die Münze 1000 man wirft? Mit der Binomialverteilung: p(10) = 0.12574 Mit der Poissonverteilung: p(10) = 0.12511 3. Betrachten wir noch einmal die Kreuzung auf welcher sich im Mittel 0.4 Unfälle pro Monat ereignen. Wir nehmen nun an, dass sich in einem Monat ein Unfall ereignet mit Wahrscheinlichkeit p = 0.4, dann stimmt der Erwartungswert dieser Verteilung mit der Wirklichkeit überein, aber es kann auch mehr als 1 Unfall passieren, welches durch diese Verteilung nicht beschrieben wird. Um das ganze zu verbessern teilen wir den Monat in n Zeitintervalle, mit n → ∞, p = nµ → 0, µ = n · p = 0.4. Solche Ereignisse werden durch eine Binomialverteilung B(n, 0.4 n ) beschrieben. Für n gegen Unendlich konvergiert diese Binomialverteilung gegen die Poissonverteilung pλ=0.4 und daher ist das Resultat bei der Poissonverteilung korrekt. 38 KAPITEL 4. VERTEILUNGEN 4.4 Zusammenfassung Die Wahrscheinlichkeitsverteilung gibt an, wie sich die Wahrscheinlichkeiten auf die möglichen Zufallsereignisse verteilen. Man unterscheidet zwischen der Häufigkeitsverteilung (empirische Daten) und den Verteilungen aus theoretischen Überlegungen. Füllen sie in die Tabelle die fehlenden Informationen ein. Modellverteilung mit m Ereignissen Wahrscheinlichkeitsverteilung p(X = Aj ) Stichprobe vom Umfang n Experimentelle Verteilung mit pk = Erwartungswert E(X) = Mittelwert x̄ = Varianz V ar(X) = emp. Varianz s2x = hk n Ein paar Fragen. 1. Was für diskrete Verteilungen kennen sie? Und geben sie für jede dieser Verteilungen ein typisches Beispiel an. Wie gross sind die Erwartungswerte und die Varianz dieser Verteilungen? 2. Welche Bedingungen muss eine Wahrscheinlichkeitsdichte erfüllen? 3. Wie berechnet man den Erwartungswert, die Varianz und die α-Quantile bei einer Wahrscheinlichkeitsdichte? 4. Was für kontinuierliche Verteilungen kennen sie? Geben sie für jede dieser Verteilungen ein Beispiel an. Wie gross sind die Erwartungswerte und die Varianz dieser Verteilungen? 5. Was ist standardisieren? 6. Was ist das spezielle der Gaussverteilung? Wieviel Prozent der Fläche liegt zwischen µ ± σ, µ ± 2σ und µ ± 3σ? 7. Skizziere die Gaussverteilung. 8. Wie hängen die Binomialverteilung, die Poissonverteilung und die Gaussverteilung zusammen? - Kapitel 5 Statistische Tests Man will hier aus den Daten einer zufälligen Stichprobe Aussagen über Kenngrössen oder auch über die Wahrscheinlichkeitsdichte machen. Die Stichprobe kann z.B. aus ein paar Exemplaren von Tabletten bestehen (Bestimmung der Konzentration des Wirkstoffs), welche zufällig entnommen wurden, die Grundgesamtheit ist dann z.B. die Tagesproduktion. Üblicherweise wird bei den folgenden Tests angenommen, dass die Daten normalverteilt sind. 5.1 Freiheitsgrade Um die statistischen Tests zu verstehen, muss der Begriff des Freiheitsgrades eingeführt werden. Bei der Berechnung eines statistischen Parameters eines Datensatzes ist es oft notwendig zunächst ein Zwischenergebnis zu berechnen (z.B. den Mittelwert). Wenn solche Parameter bei der Berechnung berücksichtigt werden, wird die Zahl der unabhängigen Werte reduziert, da das Zwischenergebnis ja bereits alle Werte mit einbezieht. Ein Beispiel soll das erklären: Überlegen Sie sich die Berechnung der empirischen Varianz, die durch Mitteln der Quadrate der Abweichungen vom Mittelwert x̄ berechnet wird. n s2x = 1 X (xk − x̄)2 n−1 k=1 Weil der Mittelwert x̄ von allen Werten bereits berechnet wurde, ist die Anzahl der unabhängigen Werte in der Formel für die empirische Varianz um 1 reduziert (man könnte ja einen der ursprünglichen Werte durch Verwenden des Mittelwerts und aller anderen Werte berechnen). Allgemein gesprochen hängen die Anzahl der Freiheitsgrade (F G) von der Zahl an unabhängigen Beobachtungen ab: F G ist die Zahl der Beobachtungen n minus der Zahl der berücksichtigen Parameter a, F G = (n − a) , wobei die Wahl der Verteilung auch ein Parameter sein kann. 39 40 KAPITEL 5. STATISTISCHE TESTS 5.2 Schätzer Im vorherigen Beispiel haben wir schon bemerkt, dass man aus den Daten der Stichprobe die Kennwerte der Verteilung der Grundgesamtheit nur schätzen kann. Funktionen, welche das tun, heissen Schätzer. Wir haben schon solche Funktion angetroffen, nämlich den Mittelwert x̄, der den Erwartungswert der Verteilung E(X) schätzt. Der Schätzer sollte die folgenden Eigenschaften besitzen. 1. Der geschätzte Wert (Mittelwert x̄ einer Stichprobe mit n Elementen) sollte für n → ∞ gegen den Erwartungswert E(X) der Grundgesamtheit konvergieren (erwartungstreu). 2. Die Varianz des Schätzers sollte mit n → ∞ gegen 0 streben(konsistent). Ein effizienter und konsistenter Schätzer des Erwartungswertes E(X) ist der arithmetische Mittelwert der Probe. Derjenige für die Varianz ist die Stichprobenvarianz. 5.2.1 Beispiele für verschiedene Schätzer 1. Poissonstatistik Wir haben im Abschnitt über die Verteilungen gesehen, dass der Mittelwert x̄ ein Schätzer f ür den Parameter λ ist und dass auch die Standardabweichung im Quadrat s2x ein Schätzer für λ ist. Welcher soll man nun wählen? Ist einer besser als der andere? Wir möchten einen Schätzer, der bei Messwiederholung möglichst nahe bei dem Erwartungswert des Schätzer liegt. Dies Abweichung beschreiben wir am einfachsten mit der Standardabweichung dieser ’identischen’ Messungen. In den beiden folgenden Graphen sind die Histogramme der Schätzung von 100000 Experimenten aufgetragen. Shätzer s2n fuer λ 8000 8000 7000 7000 6000 6000 Häugkeit Häugkeit Shätzer x̄ fuer λ 9000 5000 4000 3000 5000 4000 3000 2000 2000 1000 1000 0 0 2 4 6 8 10 λ Abbildung 5.1: Histogram des Schätzers x̄ für λ für 105 Experimente 0 0 2 4 6 8 10 λ Abbildung 5.2: Histogram des Schätzers s2x für λ für 105 Experimente 5.3. VERTRAUENSINTERVALL 41 2. Federkonstante Im Physikpraktikum haben wir die Federkonstante einer Feder bestimmt. Einzelne Studierende wollen die Federkonstante Di = Fxii für jeden einzelnen Messwert der Auslenkung xi bezüglich angewandten Kraft Fi berechnen. Danach möchten sie den Mittelwert der so erhaltenen Schätzer der Federkonstante berechnen. Es kann gezeigt werden, dass dieser Schätzer fast immer schlechter ist, als derjenige der Regression. Dieser Schätzer besitzt eine deutlich grössere Varianz als derjenige der Regression. 5.3 Vertrauensintervall Der arithmetische Mittelwert gibt eine Schätzung für den Erwartungswert E(X). Dies ist aber genau ein Wert. Wir wissen aber, dass die Stichprobe mit grosser Wahrscheinlichkeit nicht den wahren Wert ausgibt sondern einen Wert nahe des Erwartungswertes. Man stellt sich nun die Frage: wie weit nach links und rechts vom Mittelwert aus, erstreckt sich das Intervall, welches mit einer gewissen Wahrscheinlichkeit (=gewähltes Vertrauensniveau) den wahren Wert enthält. Dieses Intervall wird Vertrauensintervall genannt. Wegen des zentralen Grenzwertsatzes liegen ca. 95% der Daten zwischen µ ± 2 √σn . Dieses Intervall wird 95% Vertrauensintervall (Irrtumswahrscheinlichkeit α = 1 − 0.95) genannt. Nun kennen wir aber σ nicht genau sondern können dieses nur mittels sx schätzen. In der Praxis kann man bei einer Anzahl Daten von n > 30 mit sx rechnen. Bei weniger Messungen muss man einen Korrekturfaktor einführen, weil die Standardabweichung der Stichprobe selbst eine Zufallsvariable ist. Der Mathematiker Gosset hat die Verteilung dieser standardisierten Mittelwerts untersucht und unter dem Pseudonym Student veröffentlicht. Sie hängt von n ab und heisst Student t-Verteilung für n − 1 Freiheitsgrade. Die Student t-Verteilung geht für n → ∞ in die Normalverteilung über. Um das σ zu schätzen muss nun die empirische Varianz sx nicht mit dem 1 − α/2Quantil der Standardnormalverteilung, sondern mit derjenigen der Student tVerteilung (siehe 8.2) mit n − 1 Freiheitsgrade multipliziert werden. Beispiel Bestimmen Sie das 95%-Vertrauensintervall des folgenden Beispiels. Der arithmetische Mittelwert einer Stichprobe mit n = 8 sei x̄ = 2.11 und die empirische √ = Varianz s2x = 1.22 . Dies ergibt ein 95%-Vertrauensintervall von 2.11 ± 1.2·2.365 7 2.11 ± 1.07 (siehe Tabelle der Student t-Verteilung am Schluss des Skripts 8.2 mit tα/2,8−1 = t0.025,7 = 2.365). 42 KAPITEL 5. STATISTISCHE TESTS Hilfsmittel 1. Statistikprogramm R Daten seien im Vektor x, dann berechnet t.test(x) das Vertrauensintervall und gibt es aus. Eingabe t.test(x,conf.level=0.975) Ausgabe One-Sample t-Test data:x Hier Daten, welche dann für den t-Test relevant sind. 97.5 percent confidence intervall: 2803 6002 sample estimates: mean of x 4360 2. Excel Hier gibt es 2 Möglichkeiten. (a) Im Moodle Kurs Hilfsmittel zur Datenanalyse kann das Excel File: 1 Stichprobe metrisch benutzt werden. (b) Es gibt den Befehl T IN V (α, n − 1) im Excel um den t-Wert zu berechnen. 5.4. HYPOTHESEN-TESTS 5.4 5.4.1 43 Hypothesen-Tests Hypothese Mit einem statistischen Test wird beurteilt, ob Daten mit einer Anfangshypothese, der Nullhypothese, vereinbar sind oder Evidenz dagegen liefern und eher für eine Alternativhypothese sprechen. Hypothesen sind Aussagen über die Verteilung einer Zufallsvariable und/oder über Parameter der Verteilung. Ein Hypothesentest ist eine Entscheidungsgrundlage. Der P -Wert ist die Wahrscheinlichkeit, berechnet unter Annahme der Nullhypothese, einen mindestens so extremen Wert der Testgrösse zu erhalten wie derjenige, der beobachtet wurde. Wenn der P -Wert kleiner als eine vorgegebene Zahl α ist, dann ist der Test statistisch signifikant auf dem Signifikanzniveau α. Die Nullhypothese (NH) wird dann verworfen. Bei einem Hypothesentest sind 4 Varianten denkbar. NH wird beibehalten NH wird verworfen P >α P ≤α NH trifft zu Ok. (p = 1 − α) Fehler 1.Art (α Fehler) (p = α) NH trifft nicht zu Fehler 2.Art (β Fehler) Ok! (p = 1 − β wird Power genannt) Bei einer Irrtumswahrscheinlichkeit von < 5% spricht man von signifikanten Ergebnissen. Ist die Irrtumswahrscheinlichkeit < 1% spricht man von hochsignifikant. Bemerkungen Man sollte darauf achten, dass eine Hypothese eigentlich nicht bewiesen werden kann, sie kann im mathematisch strengen Sinne nur verworfen werden und dieses auch nur mit einer gewissen Wahrscheinlichkeit. Beispiel 1 In den folgenden Abbildungen 5.3 ist eine typische Situation eines Hypothesentests anhand eines Mittelwertes dargestellt. Vergesst in einem ersten Schritt einmal die rechte Glockenkurve im oberen Graphen. Trifft nun die Nullhypothese zu, so liegen bei einer Messwiederholung α Prozent in den beiden grauen Bereichen (symmetrisch um 0). Man würde in diesem Fall die Nullhypothese verwerfen, obwohl sie zutrifft. Nehmen wir nun an, dass unsere Probe einen Erwartunsgwert von µ = 2 besitzt, dann trifft die Alternativhypothese zu. In diesem Fall ist der β Fehler durch die rote Kurve links neben dem rechten Teil der den α Fehler repressentierenden Fläche gegeben. In der unteren Grafik ist die gleiche Situation dargestellt, für den Fall dass der Erwarttungswert der Probe bei 1 liegt. In diesem Fall ist die Trennschärfe des Tests stark verkleinert. 44 KAPITEL 5. STATISTISCHE TESTS µ1 = 0 α 2 µ2 = 2 β µ1 = 0 α 2 α 2 µ2 = 1 β α 2 Abbildung 5.3: Hypothesentest am Beispiel der Mittelwerte. Das obere Beispiel besitzt eine deutlich bessere Trennschärfe als das untere Beispiel. Beispiel 2 Betrachten wir 2 Münzen. Eine sei völlig ausbalanciert, was bedeutet, dass die Wahrscheinlichkeit Kopf zu werfen gleich gross ist wie die Wahrscheinlichkeit Zahl zu werfen. Die andere Münze besitze eine Wahrscheinlichkeit p = 0.3 Kopf anzuzeigen und eine Wahrscheinlichkeit 1 − p = 0.7 Kopf anzuzeigen. Falls wir zufällig eine dieser beiden Münzen nehmen und diese werfen: existiert eine Möglichkeit, dass wir 100% sicher sein können, welche Münze wir in der Hand haben? Die Antwort ist “Nein”. Man müsste die Münze unendlich oft werfen, um dies mit Sicherheit entscheiden zu können. Berechnen wir einmal ein paar Wahrscheinlichkeiten dazu. 5.5. WELCHER TEST? 45 Beispiele 5.1 Wir Werfen die Münze 3 Mal und möchten nun entscheiden, welche Münze wir in der Hand haben. Berechnen wir die Wahrscheinlichkeiten, dass wir 0,1,2,3 Mal Kopf geworfen haben unter den Hypothesen, dass wir die ausgewogene Münze (H0 ) resp. die nicht ausgewogene Münze (H1 ) in der Hand haben. Dies sind bedingte Wahrscheinlichkeiten. Man erhält die folgende Tabelle. Anzahl Zahl p(ω|H0 ) p(ω|H1 ) 0 0.125 0.343 1 0.375 0.441 2 0.375 0.189 3 0.125 0.027 Falls wir nun bei einem Experiment 0 Mal Zahl erhalten haben, so ist nach der obigen Tabelle die Wahrscheinlichkeit grösser, dass die Hypothese H1 eintrifft. Es kann aber nicht ausgeschlossen werden, dass die Hypothese H0 zutrifft. Im obigen Fall würden wir also falls wir 0 oder 1 Mal Zahl geworfen haben, annehmen, dass wir die nicht ausgewogene Münze in den Händen halten. Haben wir hingegen 2 oder 3 Mal Zahl geworfen, so ist es wahrscheinlicher,dass wir die ausgewogene Münze in den Händen haben. Nehmen wir nun als Nullhypothese an, dass wir die ausgewogene Münze in den Händen haben. Wie gross ist nun die Wahrscheinlichkeit einen Fehler 1. Art (α- Fehler) zu begehen? Dies bedeutet, dass die NH verworfen wird, obwohl die NH zutrifft. Diese Wahrscheinlichkeit können wir mithilfe der obigen Tabelle berechnen. Es ist dies pα = 0.125 + 0.375. Der β-Fehler (die NH wird beibehalten, obwohl sie nicht zutrifft) kann auch mithilfe der Tabelle berechnet werden. Dort gilt pβ = 0.189 + 0.027. Man sieht also, dass der α-Fehler nicht unabhängig vom β-Fehler ist. 5.5 Welcher Test? Es gibt praktisch unendlich viele Tests. Diese werden auch häufig in grafischer Form zusammen gestellt, so dass man sich entscheiden kann, welchen Test man nehmen sollte. In der Abbildung 5.4 ist so ein Entscheidungsbaum abgebildet. Für die Durchführung der Tests empfehle ich die Statistiksoftware R, welche frei verfügbar ist. Es gibt aber ein paar kleine Einstiegshürden. Um diese zu verkleinern, sollte man sich den Moodle Kurs (R-Online Course (Department Life Science, Übergreifend, Mathematik und Physik)) anschauen. 46 KAPITEL 5. STATISTISCHE TESTS Abbildung 5.4: Ein möglicher Entscheidungsbaum. Bei den Tests handelt es sich um eine kleine Auswahl. 5.6. TEST AUF NORMALVERTEILUNG 5.5.1 47 Vorgehensweise Bei einem statistischen Test, muss man vor dem Experiment schon bewusst sein,was man Testen will und wie!! 1. Was möchte man Testen? 2. Welche Methode und welche Signifiknazniveau? (Auswege falls Voraussetzungen nicht erfüllt schon im Hinterkopf haben) 3. Auswertung 5.6 Test auf Normalverteilung Bei sogenannt parametrischen Tests wird häufig benötigt, dass die Daten normalverteilt sind (parametrische Tests). Dies kann man mit verschiedenen Tests herausfinden. Alle geben typischerweise leicht verschiedene p-Werte an. Wir betrachten zuerst den QQ-Plot, welcher kein eigentlicher Test ist, aber eine Methode um grafisch abzuschätzen, ob die Daten normalverteilt sind. 5.6.1 QQ-Plot Beispiel Ein Material soll den Volumenaufbau von Weichgeweben im Mund gewährleisten. Das Material wurde im Reaktor mit Zellen besiedelt und anschliessend unter statischen Bedingungen 14 Tage kultiviert. Danach wurde die Anzahl der aktiven Zellen auf dem Material gemessen. Man hat 19 verschiedene Proben hergestellt und ausgemessen. Man hat die folgenden Messwerte 3211.44, 4038.14, 3226.97, 1239.87, 851.5, 1769.38, 7615.08, 6865.6, 5109.29, 3221.19, 3267.5, 3930.4, 3301.19, 5270.05, 4648.16, 7804.68, 12533.99, 2240.12, 2777.09 erhalten. Theorie Bei diesem Test werden die experimentellen Werte (Anzahl aktive Zellen) gegen die theoretische Quantile einer Normalverteilung aufgetragen, um die beiden Verteilungen zu vergleichen. Dazu ordnen wir zuerst die experimentellen Daten der Grösse nach und nummerieren sie von 1 bis n durch. Nun wird zu jedem experimentellen Wert die dazugehörige theoretische α−Quantile der Normalverteilung berechnet. Dazu berechnen wir zuerst aus der Position i die kumulierte Häufigkeit P (i) von jedem der Grösse nach geordneten Messwert i. Es existieren viele mehr oder weniger äquivalente Methoden dies zu bewerkstelligen, aber i− 3 wir werden nur eine davon benutzen P (i) = n+81 . Anschliessend wird mit der 4 kumulierten Häufigkeit Pi die α-Quantile der Normalverteilung αtheo berechnet 48 KAPITEL 5. STATISTISCHE TESTS oder aus einer Tabelle ausgelesen. Werden nun die Messwerte gegen die theoretischen α-Quantilen der Normalverteilung aufgetragen, so müssen die Punkte auf einer Geraden liegen, falls sie normalverteilt sind. Oft wird die Gerade so gezeichnet, dass sie durch die 1. und die 3. Quartile geht, dies sind hier die Punkte (−0.6745, 2994) und (0.6745, 5190). Anwendung auf das obige Beispiel Nun sortieren wir die Messewerte der Proben der Grösse nach und nummerieren sie durch. Anschliessend berechnen wir die kumulierte Häufigkeit mittels i− 3 P (i) = n+81 . 4 Wir besitzen n = 19 Messwerte und für den kleinsten Wert 851.5 ist i = 1 5 ≈ 0.03. Anschliessend wird aus der Tabelle die α-Quantile und damit P (1) = 154 der Normalverteilung ausgelesen zth (1) = −1.85. Wert i P (i) zth zex 851.5 1 0.03 -1.85 -1.26 1239.87 2 0.08 -1.38 -1.12 1769.38 3 0.14 -1.1 -0.93 2240.12 4 0.19 -0.88 -0.76 2777.09 5 0.24 -0.71 -0.57 3211.44 6 0.29 -0.55 -0.41 3221.19 7 0.34 -0.4 -0.41 3226.97 8 0.4 -0.26 -0.41 3267.5 9 0.45 -0.13 -0.39 3301.19 10 0.5 0 -0.38 3930.4 11 0.55 0.13 -0.16 4038.14 12 0.6 0.26 -0.12 4648.16 13 0.66 0.4 0.1 5109.29 14 0.71 0.55 0.27 5270.05 15 0.76 0.71 0.33 6865.6 16 0.81 0.88 0.9 7615.08 17 0.86 1.1 1.17 7804.68 18 0.92 1.38 1.24 12533.99 19 0.97 1.85 2.94 In der Abbildung 5.5 ist der Wert gegen die theoretische Quantilen aufgetragen und in der Tabelle sind die berechneten Werte enthalten. Es sieht in diesem Fall nicht so aus, dass die Daten normalverteilt sind. Dies wollen wir aber nun mit dem Kolmogorov-Smirnov Test quantifizieren. Anmerkung Betrachtet man diese Methode ein bisschen genauer, so sieht man direkt, dass man Daten damit auf eine beliebige Verteilung testen kann. Das einzige was sich ändert sind die α−Quantile der theoretischen Verteilung. Diese kann man aber entweder ausrechnen oder aus einer Tabelle auslesen. 5.6. TEST AUF NORMALVERTEILUNG 14000 49 Daten Linie 12000 Experiment 10000 8000 6000 4000 2000 0 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 zth Abbildung 5.5: QQ Plot der Daten aus den Versuchen des Gewebeaufbaus. Hilfsmittel 1. Statistikprogramm R Daten seien im Vektor x, dann führt qqplot(x) zum Graph und eine Linie wird mit qqline(x) dazu gebracht. Befehl qqplot(x) qqline(x) Output Es wird direkt der benötigte Graph produziert. 2. Excel Im Moodle Kurs Hilfsmittel zur Datenanalyse kann das Excel File: 1 Stichprobe metrisch benutzt werden. 50 KAPITEL 5. STATISTISCHE TESTS 5.6.2 Kolmogorov-Smirnov Test Die Nullhypothese ist die, dass die Daten aus einer Grundgesamtheit mit normalverteilten Zufallsvariablen stammt. Dieser Test ist relativ einfach, leider ist seine Trennschärfe nicht sehr gross. Beispiel aus dem Kapitel QQ-Plot Man hat die folgenden Messwerte 3211.44, 4038.14, 3226.97, 1239.87, 851.5, 1769.38, 7615.08, 6865.6, 5109.29, 3221.19, 3267.5, 3930.4, 3301.19, 5270.05, 4648.16, 7804.68, 12533.99, 2240.12, 2777.09 erhalten. Als erstes berechnen wir den Mittelwert und die Varianz der Verteilung mit µ = 4365 und Standardabweichung zu 2782 und wählen ein Signifikanzniveau von 95% (α = 0.05) aus. Anschliessend werden die Werte wieder aufsteigend geordnet und anschliessend wird die Summenfunktion berechnet. Um die Summenfunktion zu berechnen nimmt man im Gegensatz zum QQ-Plot an, dass jeder Wert das Gewicht 1/N mit N der Anzahl Messwerte besitzt. Danach wird in einer Spalte die Differenz der Summenfunktion zu der theoretischen Funktion (theoretische Summenfunktion der Normalverteilung mit Mittelwert µ = 4365 und Standardabweichung 2782) berechnet oder aus einer Tabelle ausgelesen. i 851.5 1239.87 1769.38 2240.12 2777.09 3211.44 3221.19 3226.97 3267.5 3301.19 3930.4 4038.14 4648.16 5109.29 5270.05 6865.6 7615.08 7804.68 12533.99 xi 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 S(xi ) 1 19 1 19 1 19 1 19 1 19 1 19 1 19 1 19 1 19 1 19 1 19 1 19 1 19 1 19 1 19 1 19 1 19 1 19 1 19 F (xi ) 0.053 0.105 0.158 0.211 0.263 0.316 0.368 0.421 0.474 0.526 0.579 0.632 0.684 0.737 0.789 0.842 0.895 0.947 1.000 |S(xi−1 ) − F (xi )| 0.103 0.131 0.175 0.223 0.284 0.339 0.341 0.341 0.347 0.351 0.438 0.453 0.541 0.606 0.628 0.816 0.879 0.892 0.998 |S(xi ) − F (xi )| 0.051 0.025 0.018 0.012 0.021 0.023 0.028 0.080 0.127 0.175 0.141 0.178 0.144 0.131 0.162 0.026 0.016 0.055 0.002 Man wählt nun den absolut grössten Wert ∆max aus der Tabelle mit den Differenzen aus und vergleicht diesen mit einer statistischen Grösse. Falls der Wert ∆max ist als derjenige in der Tabelle (siehe 8.4) unten kann die Hypothese, dass die Messwerte von einer Normalverteilung kommen, auf einem Signifikanzniveau von 95% verworfen werden. Wir haben nun 19 Messwerte und unser ∆max ist 0.178 < 0.3 und daher kann die Nullhypothese nicht verworfen werden. Somit nehmen wir an, dass die 5.6. TEST AUF NORMALVERTEILUNG 51 Stichprobe aus einer Grundgesamtheit, welche eine Normalverteilung besitzt entstammt. Hilfsmittel 1. Statistikprogramm R Daten seien im Vektor x, dann führt ks.test(x,”pnorm”,mean(x),sd(x)) den SK-Test durch mit Ausgabe. Befehl ks.test(x,”pnorm”,mean(x),sd(x)) Output One-Sample KS-Test data: x D=0.178, p-Value=0.5246 alternative Hypothesis: two.sided. Hinweise: Die Funktionen mean und sd berechnen den Mittelwert und die Standardabweichung des Datensatz x und der p-Value¿1-0.95, daher kann die Nullhypothese der normalverteilung der Daten nicht verworfen werden. 2. Excel Im Moodle Kurs Hilfsmittel zur Datenanalyse kann das Excel File: 1 Stichprobe metrisch benutzt werden. 5.6.3 χ2 -Test auf Normalverteilung Auch hier ist die Nullhypothese ist die, dass die Daten aus einer Grundgesamtheit mit normverteilten Zufallsvariablen stammt und wir betrachten auch wieder den Datensatz aus dem Beispiel des QQ-Plots. Der Durchschnitt der Messwerte beträgt µ = 4365 und die empirische Standardabweichung 2782. Zuerst werden bei diesem Test die Daten in Klassen aufgeteilt. In der folgenden Tabelle sind die Klassen und die entsprechende Anzahl der Messwerte, die in diese Klasse gehören, eingetragen. Es muss beachtet werden, dass man die Tabelle so ergänzt, dass die Wahrscheinlichkeit 1 ergibt. Man hat da einfach nichts gefunden. 52 KAPITEL 5. STATISTISCHE TESTS 10 Gauss Anzahl Werte 8 6 4 2 0 0 2000 4000 6000 8000 10000 12000 14000 Anzahl Zellen Abbildung 5.6: χ2 -Test auf Normalverteilung) untere Grenze obere Grenze Anzahl n aus Gauss χ2 -∞ 0 0 1.11 1.11 0 2000 3 2.65 0.139 2000 4000 8 4.75 0.091 4000 6000 4 5.20 0.25 6000 8000 3 3.47 0.0046 8000 10000 0 1.41 0.22 10000 12000 0 0.35 0.457 12000 14000 1 0.052 0.69 14000 ∞ 0 0.005 0.005 Summe 19 19 22.6 Diese benutzt man um die theoretische Anzahl nth , die in den verschiedenen Klassen liegen sollten, zu berechnen. Mittels dieser theoretischen Anzahl kann man anschliessend den χ2 -Test durchführen. Um den Wert zu berechnen wird P (nexp,k −nth,k )2 berechnet. dabei die Summe χ2 = nth,k Nun sollte diese Zahl der χ2 -Verteilung mit m − 3 = 9 − 3 = 6 Freiheitsgraden gehorchen. Man hat hier die Statistik, nämlich die Gaussverteilung gewählt, welche durch den Mittelwert und die empirische Varianz eindeutig definiert ist. Daher hat man n − 3 Freiheitsgrade (1 FG für die Statistik und je 1 FG für den Mittelwert und die empirische Varianz) In unserem Fall ergibt sich für 95% (siehe 8.3) ein χ2 von 12.59, dies besagt, dass die NH (die Daten stammen aus einer Grundgesamtheit mit Gaussverteilung) auf dem Signifikanzniveau 95% verworfen werden kann. 5.6. TEST AUF NORMALVERTEILUNG 53 Hilfsmittel 1. Statistikprogramm R Daten seien im Vektor x, dann führt chisq.test(x) einen Test durch, dass ist aber nicht derjenige den wir wollen!! Er basiert auf gleicher Wahrscheinlichkeit für jede Klasse. Wir müssen also zuerst die Wahrscheinlichkeiten berechnen. Folgendes Programm sollte funktionieren. Daten in x. Befehle histo=hist(x) probs=pnorm(histo$breaks,mean(x),sd(x)) proba=c() for(i in 2:(length(probs))) delta=probs[i]-probs[i-1] proba=c(proba,delta) delta=1-sum(proba) proba=c(proba,delta) coun=c(0,histo$counts,0) a=chisq.test(coun,p=proba) Befehl für Ausgabe p-Wert 1-pchisq(a$statistics,df=length(proba)-3) Hinweis: Die Funktionen mean und sd berechnen den Mittelwert und die Standardabweichung des Datensatz x. 54 KAPITEL 5. STATISTISCHE TESTS 5.6.4 t-Test Ein-Stichproben Test Man untersucht hier mittels einer Stichprobe die Frage, ob eine Grundgesamtheit einen bestimmten Mittelwert überschreitet oder nicht. Die Voraussetzung ist, dass die Daten normalverteilt sind. Sind die Daten nicht normalverteilt, so muss man den Wilcoxon-Test verwenden, welcher aber Mediane vergleicht. Beispiel Der Gehalt eines Wirkstoffs einer Tablette sollte innerhalb gewisser Grenzen liegen. Ist der Gehalt zu hoch, so kann dies gesundheitsschädlich sein, ist er dagegen zu tief, so ist die Tablette nicht mehr wirksam. Die Entscheidung kann anhand der Tabelle getroffen werden (µ0 ist der Mittelwert der Grundgesamtheit): Hypothese einseitiger Test H0 : µ 1 ≥ µ 0 H1 : µ 1 < µ 0 zweiseitiger Test H0 : µ 1 = µ 0 H1 : µ1 6= µ0 √0 Testgrösse t = (sx−µ x / n) Rückweisung H0 ablehnen falls t < −tα,n−1 H0 ablehnen falls |t| > tα/2,n−1 Beispiel Man habe bei 5 Tablette den Wirkstoff (Sollwert=100mg) gemessen und erhält x̄ = 95.5 mg und eine empirische Varianz von sx = 4 mg2 . 1. Kann auf einem Signifikanzniveau von 95% gesagt werden, dass der Gehalt der Tablette grösser als 100mg ist? Man erhält t = 95.5−100 4 √ 5 = −2.52. Aus einer Tabelle erhält man t0.05,5−1 = 2.132, daraus ergibt sich, dass die NH x̄ ≥ 100mg abgelehnt werden muss (einseitiger Test). 2. Kann man mit auf einem Signifikanzniveauvon 95% sagen, dass der Gehalt der Tablette gleich 100mg ist? Man erhält wie oben t = 2.52 und daraus 2.52 < t0.05/2,5−1 = 2.776 (siehe 8.2). Man kann also die NH, dass der Mittelwert 100mg beträgt, nicht verwerfen. 5.6. TEST AUF NORMALVERTEILUNG 55 3000 2000 1000 Sample Quantiles 4000 Normal Q−Q Plot −2 −1 0 1 2 Theoretical Quantiles Abbildung 5.7: QQ-Plot Datensatz 2 Beispiel 2 Beim Beispiel aus dem QQ-Plot Kapitel sind die Daten nicht normalverteilt, daher kann der t-Test nicht angewandt werden. Ich habe aber noch einen anderen Datensatz der Anzahl aktiver Zellen der Biotechnologen erhalten. Sie haben die Daten 543, 944, 1227, 1428, 1622, 1649, 1727, 1774, 2188, 2356, 2402, 2517, 2529, 2771, 2809, 2892, 2906, 3076, 4485 erhalten. Im QQ-Plot (Abbildung 5.7) ist ersichtlich, dass diese schon eher normalverteilt sind. Die Daten sind nach dem KS-Test (p-Wert=0.94) und dem χ2 Test (pWert=0.62) normalverteilt. Der Mittelwert beträgt x = 2202 und die Standardabweichung sx = 908. Wir können uns nun fragen, ob die Zellaktivität bei einem Signifikanzniveau von 98% 2000 beträgt. Dazu berechnen wir den t-Wert: t= |2202−2000| 908 √ 19 = 0.97115 Aus der Tabelle (siehe 8.2) liest man ein kritischen t-Wert von t0.02/2,19−1 = 2.552, daher kann die Nullhypothese nicht verworfen werden. 56 KAPITEL 5. STATISTISCHE TESTS Hilfsmittel (a) Statistikprogramm R Daten seien im Vektor x, dann führt t.test(x,alternative =”two.sided”resp. ”less”resp. ”greater”, mu =) den t-Test durch. Für das obiges Beispiel. Befehl t.test(x,mu=2000,alternative=two.sided”) Output One-Sample t-Test data: x t=0.97, df=18, p-value=0.34 alternative Hypothesis: true mean is not equal to 2000 95% condidence interval: 1764 2640 Der p-Wert ist grösser als 0.02/2, daher kann die NH nicht abgelehnt werden. (b) Excel Im Moodle Kurs Hilfsmittel zur Datenanalyse kann das Excel File: 1 Stichprobe metrisch benutzt werden. Zwei-Stichproben Test Die Nullhypothese dieses t-Tests lautet, dass 2 Stichproben aus der selben Grundgesamtheit mit demselben Erwartungswert stammen. Die Prüfgrösse wird aus der Anzahl der Daten, dem Mittelwert und der Standardabweichung der beiden Messreihen gebildet. Sie gehorcht der Student-t-Verteilung. Die Idee hinter dem Test ist sehr einfach. Man betrachtet die beiden berechneten Mittelwerte und schaut, wieviele Standardabweichungen sie voneinander entfernt sind. Die Standardabweichung ist dabei gegeben durch s2t = (n1 −1)s21 +(n2 −1)s22 . Falls die Standardabweichungen stark verschieden sind, muss n1 +n2 −2 s2 s2 der Welch-Test verwendet werden. Dabei wird s2t durch n11 + n22 berechnet. Um zu bestimmen ob die Varianzen gleich sind kann der Levene Test benutzt werden. 5.6. TEST AUF NORMALVERTEILUNG Hypothese Testgrösse Rückweisung 57 zweiseitiger Test H0 : µ 1 − µ 0 = ω H1 :q µ1 − µ0 6= ω n2 x1 −x2 −ω t = (nn11+n st 2) H0 ablehnen falls |t| > tα/2,n1 +n2 −2 Beispiel Man habe bei einer Charge bei 5 Tablette den Wirkstoff gemessen und man erhält x̄1 = 96 mg und eine empirische Varianz von s1 = 4.6 mg2 und bei einer 2. Charge einen Mittelwert von x̄1 = 95.1 mg und eine empirische Varianz von s1 = 3.5 mg2 . Die Varianzen seien gleich (Levene-Test p-Wert=0.686). Kann auf einem Signifikanzniveau von 95% gesagt werden, dass der Gehalt in den Tabletten in den beiden Chargen gleich sind? q 5·7 (96−95.1) √ = 0.367. Aus einer Tabelle Man erhält s2t = 15.88 und t = (5+7) 15.88 (siehe 8.2) erhält man t0.025,5+7−2 = 2.228, daraus ergibt sich, dass die NH, dass beide Mittelwerte identisch sind nicht abgelehnt werden kann. Hilfsmittel 1. Statistikprogramm R Daten seien im Vektor x1 und x2, dann führt t.test(x1,x2,var.equal=TRUE) den t-Test durch. Aufpassen standardmässig ist der Welchtest eingestellt. Für das obiges Beispiel. Befehl t.test(x1,x2,var.equal=TRUE) Output Two-Sample t-Test data: x1 and x2 t=0.37, df=10, p-value=0.72 alternative Hypothesis: true differences in means is not equal to 0 Der p-Wert ist grösser als 0.025, daher kann die NH nicht abgelehnt werden. 2. Excel Im Moodle Kurs Hilfsmittel zur Datenanalyse kann das Excel File: 2 Stichproben metrisch benutzt werden. 58 KAPITEL 5. STATISTISCHE TESTS Bemerkungen 1. Sind die Daten nicht normalverteilt, so sollte der Mann Whitney U-Test verwendet werden. 2. Besitzt man mehr als 2 Stichproben die man miteinander vergleichen möchte so sollte bei normalverteilten Daten ANOVA und sonst KruskalWallis verwendet werden. 5.6.5 Grubbs Test Beim Ausreissertest nach Grubbs wird getestet ob eine Stichprobe einen Ausreisser enthält. Die Voraussetzung für den Grubbstest ist, dass die Stichprobe normalverteilt ist. Wir haben gesehen, dass man dies mittels eines QQ-Plots oder einem χ2 -Test herausfinden kann. Sind die Daten nun normalverteilt, so standardisiert man diese zuerst. Anschliessend betrachtet man nur den Wert der vom Betrage her die grösste Abweichung vom Mittelwert besitzt und schaut in der Tabelle am Ende nach, ob dieser Wert grösser als der Tabellenwert ist. Ist er grösser so wird er als Ausreisser betrachtet und aus der Stichprobe entfernt. Diese Prozedur darf man auch mehrmals Anwenden. Beispiel Beim Beispiel für den Volumenaufbau von Mundgewebe (t-Test) merkt, dass die Daten normalverteilt sind. Besitzen wir da bei kanzniveau von 95% einen Ausreisser? Der grösste (4485) resp. Wert besitzt ein zex von 2.51 resp −1.83. Aus der Tabelle (siehe ein zkr = 2.681. Damit ist keiner der Werte ein Ausreisser. haben wir beeinem Signifikleinste (543) 8.5) liest man 5.7. ZUSAMMENFASSUNG 59 Hilfsmittel 1. Statistikprogramm R Daten seien im Vektor x, dann führt grubbs.test(x,two.sided=TRUE) den Grubbs-Test durch. Für das obiges Beispiel. Befehl grubbs.test(x,two.sided=TRUE) Output Grubbs test for one outlier data: x G=2.51, U=0.629, p-value=0.108 alternative Hypothesis: highest value 4485 is an outlier Der p-Wert ist grösser als 0.05, daher kann die NH nicht abgelehnt werden. 5.7 Zusammenfassung Ein paar Fragen 1. Was ist eine Freiheitsgrad? Worum dividiert man bei der empirischen Varianz durch n − 1? 2. Was für verschiedene Tests zur Prüfung auf Normalverteilung kennen sie? 3. Was kann man mittels χ2 -Test testen? 4. Was ist ein Konfidenzintervall? 5. Wo kann die Student t-Verteilung benutzt werden? 6. Was für verschiedene t-Tests existieren? 7. Wie kann man einen Ausreisser definieren? 8. Was für einen Ausreissertest kennen sie? Welche Bedingungen müssen erfüllt sein? 60 KAPITEL 5. STATISTISCHE TESTS Kapitel 6 Messfehler Bei einer Messung können grundsätzlich zwei verschiedene Fehler das Messresultat verfälschen. Beispiel Wir werfen einen Stein aus dem 3. Stock und messen mit einer Stoppuhr, wie lange der Stein braucht bis er unten auftrifft. Nun wiederholen wir das Experiment ein paar Mal und betrachten die erhaltenen Messwerte. Diese verteilen sich gemäss der Normalverteilung um den Mittelwert. Wir sehen also, dass die einzelnen Messungen zufällig um den Mittelwert verteilt sind. Solche Fehler werden statistische Messfehler genannt. Nehmen wir nun an, dass unsere Uhr nicht exakt läuft, was normalerweise der Fall ist. Läuft sie zum Beispiel zu langsam, so messen wir grundsätzlich eine zu kurze Zeit. Ein solcher Fehler wird systematischer Fehler genannt. Im folgenden werden wir uns nur um die Behandlung von statistischen Fehlern kümmern. 6.1 Ein Messwert Normalerweise wird eine Messung wiederholt und danach bestimmt man den Mittelwert und das Vertrauensintervall. Die Wiederholung der Messung ergibt viel mehr Information als eine einzige Messung. Mit der Wiederholung der Messung erhält man auch eine Information über die Unsicherheit des Mittelwertes. Bei einer einzelnen Messung muss man sich Informationen über die Messungenauigkeit σ beschaffen. Man hat verschiedene Möglichkeiten dazu. 1. Schätzung für σ aus früheren gleichartigen Messungen. 2. Die Gerätebeschreibung enthält eine Angabe zu σ. 61 62 KAPITEL 6. MESSFEHLER 6.2 Fehlerfortpflanzung Beispiel Wir betrachten zur Vereinfachung eine Messung, bei welcher das Resultat nur von einer Variable abhängig ist. Nehmen wir dazu das Experiment der Bestimmung der Federkonstanten D mittels der Schwingungsfrequenz einer Feder aus dem Physikpraktikum 4π 2 m . D= τ2 Nehmen wir nun an, dass die Masse m sehr genau gemessen werden kann und daher dieser Fehler sicher viel kleiner ist als derjenigen der Messung der Periodendauer τ0 = 0.5 s. Die Messung der Periodendauer sei auf ∆τ0 = 0.1 s genau bestimmt. Um den Fehler der Federkonstante abzuschätzen, nähern wir die Funktion D(τ ) um den Punkt τ = τ0 durch eine Gerade an. Bei mehrdimensionalen Funktionen wird die Funktion dann durch eine Ebene approximiert. Diese Prozedur wird Linearisierung der Funktion genannt. Die Linearisierung der Federkonstante D(τ ) um den Punkt τ = τ0 ist gegeben durch: D(τ ) = 4π 2 m + τ02 −2 · 4π 2 m (τ − τ0 ) . τ3 τ =τ0 Diese funktionelle Abhängigkeit liefert durch Einsetzen von τ = τ0 ± ∆τ0 4π 2 m −2 · 4π 2 m ± D= ∆τ0 . τ02 τ03 In unserem Fall ergibt dies eine Federkonstante von D = 1.58 N/m und eine Unsicherheit von ±0.06 N/m. Definition 6.1 (Fehlerfortpflanzung) Nehmen wir an, dass wir eine Funktion f (x1 , x2 . . . xn ) von mehreren Veränderlichen xi mit den Unsicherheiten ∆xi haben. Nun wird diese Funktion bezüglich allen Veränderlichen linearisiert und anschliessend nach Pythagoras die Distanz gemessen (Annahme: Messgrössen sind unabhängig und normalverteilt). Dies ist dann genau die absolute Unsicherheit ∆ des Messresultats. ∆2 = ∂f ∂x1 ∆x1 2 + ∂f ∂x2 ∆x2 2 + ...+ ∂f ∂xn ∆xn 2 = n P ∂f i=1 ∂xi ∆xi 2 Spezialfälle 1. Funktion ist eine Summe: f = x1 + x2 ⇒ ∆2 = ∆x21 + ∆x22 2. Funktion ist ein Produkt f= β γ xα 1 x2 x3 ∆2 ... ⇒ 2 = f 2 2 2 ∆x1 ∆x2 ∆x3 α + β + γ + ... x1 x2 x3 6.3. KORRELATION 6.3 63 Korrelation Häufig haben wir den Fall, dass man zwei Variablen misst und untersucht, ob diese einen Zusammenhang aufweisen; z.B. Messung der Fallzeit und Höhe eines Falles, die Konzentration einer Lösung und Absorption von Licht. 6.3.1 Deskriptive Statistik Es seien n Wertepaare (xi |yi ) mit quantitativen Variablen (metrische Daten) erhoben worden. Nun stellt sich die Frage, ob ein Zusammenhang zwischen den Grössen x und y besteht. Dazu erstellt man zuerst einmal ein Streudiagramm und betrachtet dieses. Es gibt statistische Kennzahlen, welche die Stärke des Zusammenhangs beschreiben. Die Pearson-Korrelation (meist kurz Korrelation genannt) misst Stärke und Richtung des linearen Zusammenhangs. Definition 6.2 (Pearson-Korrelation) Seien x resp. y die Mittelwerte der sx resp. sy die empirischen Standardabweichungen der Variablen x resp. y, dann berechnet sich der Pearson Korrelationskoeffizient folgendermassen. (x1 − x) (y1 − y) (x2 − x) (y2 − y) (xn − x) (yn − y) 1 + + ...+ r= n−1 sx sy sx sy sx sy Man sieht, dass die Funktion symmetrisch in x resp. y ist. Eigenschaften des Pearson Korrelationskoeffizienten • +1, wenn alle Punkte exakt auf einer Geraden mit positiver Steigung liegen. • −1, , wenn alle Punkte exakt auf einer Geraden mit negativer Steigung liegen. • nahe bei -1 oder +1, wenn die Punkte eng um eine Gerade streuen. • 0, wenn kein linearer Zusammenhang zwischen x und y besteht. Wichtig: Ein Korrelationskoeffizient soll nie ohne Betrachtung des dazugehörigen Streudiagramms betrachtet werden. Falls der Zusammenhang nicht linear ist kann auch der Rangkorrelationskoeffizient nach Spearman benutzt werden. 64 KAPITEL 6. MESSFEHLER 6.4 Regression Falls die Punkte im Streudiagramm ’schön’ auf einer Linie liegen, so kann man versuchen, den Zusammenhang durch eine Funktion zu beschreiben. Dies macht vor allem dann Sinn, falls die Funktion aus theoretischen Überlegungen bekannt ist. Dann versucht man durch anpassen der Parameter die Daten so gut wie möglich durch die Funktion zu beschreiben. Diese Suche nach den Parametern wird Regression genannt. Ist die Funktion linear in den Parametern, dann kann die Methode aus dem Analysis-Skript benutzt werden. Häufig kann man aber die Werte auch so transformieren, dass man auf einen linearen Zusammenhang kommt. Beispiel Im Praktikum haben wir den Wasserstand in einem Gefäss mit Ausfluss in Abhängigkeit der Zeit gemessen. Dieser Ausfluss sollte gemäss Theorie den folgenden Zusammenhang besitzen: 2 V (t) = (A − B t) . Sind mehr Messpunkte (ti , Vi ) als Parameter vorhanden so ist das Gleichungssystem überbestimmt und man muss definieren, was beste Approximation heisst. Die obige Gleichung können wir umformen und erhalten V (t) − (A − B t)2 = 0 . Diese Relation sollte für alle Wertepaare exakt stimmen, falls die Messungen exakt und das Modell exakt die Abhängigkeit der beiden Messwerte voneinander angibt. Dies ist aber nie der Fall!!! Wir definieren zuerst das Residuum ri = Vi − V (ti ). Anmerkungen Im folgenden werden wir die Regression für Funktionen behandeln, bei welchen wir alles analytisch berechnen können. Es tauchen aber auch in der Chemie häufig Fälle auf, welche anders behandelt werden müssen. Im folgenden zähle ich ein paar Beispiele auf. 1. Funktionen welche nicht-linear in den Koeffizienten sind 2. verschiedene Unsicherheiten für verschiedene x−Werte 3. Berücksichtigung, dass x und y Werte Unsicherheiten aufweisen. Benutzt für solche Fälle doch die Möglichkeit, dass ihr Anspruch auf Statistikberatung an unserem Institut habt. 6.4. REGRESSION 6.4.1 65 Methode der kleinsten Quadrate Um diese Methode anwenden zu können sollten alle Messfehler der Vi in etwa gleich gross und diejenige der ti viel kleiner als diejenigen der Vi sein. Im Praktikum haben wir die Messwerte die beste Approximation an die Funktion √ V = A − Bt gesucht. In diesem Fall sind dann ein paar der obigen Annahmen nicht mehr genau erfüllt. Aber häufig ist eine solche Approximation genügend. Die beste Approximation wird dann erreicht, falls die Summe aller Residuen n P rj2 minimal ist. j=1 Wie gut die Daten approximiert werden, wird durch das Bestimmtheitsmass R2 (0 ≤ R2 ≤ 1) angezeigt. Wie im Analysis Skript besprochen sollte nie nur das Bestimmtheitsmass zur Kontrolle der Approximation betrachtet werden. Definition 6.3 (Bestimmtheitsmass) Sei ri das Residuum und y der Mittelwert aller yi , dann wird das Bestimmtheitsmass folgendermassen berechnet. R2 = 1 − P n j=1 n P j=1 rj2 (yj − y)2 Grafische Darstellung Die Daten sollten in einem Plot als Punkte und die Regressionskurve als Linie dargestellt werden. Lineare Regression in Koeffizienten Ein Spezialfall der Regression ist die Anpassung an eine Gerade, welche nicht zwingendermassen durch den Nullpunkt geht (in den meisten praktischen Fällen ist der Nullpunkt nicht absolut sicher, sondern das Resultat einer Justierung). In Analysis haben wir gesehen wir man die Regression mit Hilfe von Matrizen berechnet. Hier geben wir einmal die Resultate mit Hilfe von Summen an. Gleichung: y(x) = ãx + b̃ Steigung: ã = n P (xi yi − x̄ · y) i=1 n P i=1 Achsenabschnitt: (x2i − x̄2 ) b̃ = ȳ − ãx̄ Aus der Berechnung des Achsenabschnitts sieht man, dass die Summe der n P ri = 0 ist (speziell). Die 2. spezielle Eigenschaft ist, dass das BeResiduen i=1 stimmtheitsmass exakt gleich dem Pearson- Korrelation Koeffizient ist: R2 = r2 . 66 KAPITEL 6. MESSFEHLER Es gibt 2 grundsätzlich verschiedene Arten die Regression zu benutzen. 1. Wir haben ein lineares Gesetz und bestimmen Konstanten eines Systems (z.B. Bestimmung der Federkonstante) 2. Kalibrationsgerade Die Unsicherheiten der Koeffizienten ã und b̃ kann mit Hilfe der Messwerte berechnet werden. In Analysis haben wir gesehen, dass man die Suche nach der besten Gerade auf ein überbestimmtes lineares System von Gleichungen kommt, welches durch Ax = B gegeben ist. Die Lösung ergibt sich dann durch Berechnung von x = (AT A)−1 AT B. Die Unsicherheit der Koeffizienten sind dann durch die Diagonalelemente der folgenden Matrix gegeben. ∆x2 = −1 rT r AT A (n − 2) 1 x1 1 x2 Dabei ist r der Residuenvektor (ri = yi −(ãxi +b̃)) und A = 1 x3 . Dann ··· 1 xn ist die Unsicherheit ∆b̃ von b̃ gleich der Wurzel des ersten Diagonalelementes der Matrix ∆x2 und diejenige von ã ist die Wurzel des zweiten Diagonalelementes ∆ã. Um die Vertrauensintervalle der Koeffizienten oder der Kalibriergeraden zu berechnen geht man davon aus, dass die Residuen normalverteilt sind. Dies sollte man üblicherweise noch testen (siehe Kapitel Hypothesentests). Sind die Residuen normalverteilt, dann gilt, dass kann man um die Vertrauensintervalle zu erhalten die Unsicherheit mit dem entsprechenden t-Wert (zweiseitig) multiplizieren. Die Vertrauensintervalle der Parameter sind dann durch ã±t1−α/2,n−2 ∆ã und b̃ ± t1−α,/2n−2 ∆b̃ gegeben. Man kann auch einen t-Test mithilfe dieser Infos durchführen (genaueres siehe folgendes Beispiel). Mit Hilfe all dieser Informationen kann ein α Prozent Intervall für den berechneten Funktionswert an der Stelle x0 angegeben werden. Wird dies für viele Punkte x0 berechnet und anschliessend im Graphen eingetragen, so erhält man die Fehlertrompeten. n 2 P (x0 −x) 1 rj2 . mit s2 = n−2 Man berechnet zuerst g(x0 ) = s2 n1 + P n (xi −x)2 i=1 Anschliessend sind die beiden Fehlertrompeten gegeben durch p ã · x0 + b̃ ± t1−α/2,n−2 g(x0 ) . j=1 6.4. REGRESSION 67 Beispiel 1 Wir haben im Physikpraktikum die Federkonstante durch anhängen von verschiedenen Gewichten an die Feder bestimmt. Gewicht F [N] Auslenkung x [m] 2 0.019 4 0.04 6 0.06 7 0.071 Da man einen linearen Zusammenhang (mit Achsenabschnitt) erwartet (F = D · x − D · x0 , D Federkonstante und x0 Gleichgewichtslage). Schreiben wir einmal die Gleichungen mit Steigung ã und Achsenabschnitt b̃ hin. 2 = ã · 0.019 + b̃ 4 = ã · 0.04 + b̃ 6 = ã · 0.06 + b̃ 7 = ã · 0.071 + b̃ Dieses Gleichungssystem kann man nun mithilfe von Matrizen schreiben. 2 0.019 1 4 0.04 1 ã . , B = und x = Ax = B mit A = 6 0.06 1 b̃ 7 0.071 1 Man macht die folgenden Matrixmultiplikationen und erhält: 0.010602 0.19 AT A = 0.19 4 634.1 −30.12 (AT A)−1 = −30.12 1.6807 1.055 AT B = 19 96.7 T −1 T Damit berechnet man die Koeffizienten zu x = (A A) A B = 0.16 Ein auslesen aus der Lösung ergibt, dass F = 96.7x + 0.16 ist. Durch Koeffizientenvergleich erhält man ã = D = 96.7 und b̃ = D · x0 = 0.16. Da es sich um eine Messung mit einer gewissen Unsicherheit handelt, können wir nun das 95% Vertrauensintervall der beiden Koeffizienten bestimmen. Dazu müssen wir zuerst die Residuen berechnen. −0.00602 0.02473 r = Ax − B = −0.041218 0.02251 Die Residuen müssten nun auf Normalverteilung getestet werden, bei 4 Werten macht das aber wenig Sinn, daher lassen wir das nun weg und berechnen direkt die geschätzten Varianzen der Faktoren. 68 KAPITEL 6. MESSFEHLER ∆x2 = rT r (n−2) −1 AT A = 0.905 −0.043 −0.043 0.00240 Damit erhält man also die folgenden Vertrauensintervalle (95%): √ ã: 96.7 ± tα/2,4−2 0.905 = 96.7 ± 4.1 √ b̃: 0.16 ± tα/2,4−2 0.00240 = 0.16 ± 0.21 Wir können nun auch einen t-Test durchführen (Annahme Residuen sind normalverteilt) und uns Fragen ob die Federkonstante 100N/m und die Gleichgewichtslage x0 gleich 0 ist. Bei der Federkonstanten können wir direkt den t-Test (siehe 8.2 t-Wert (FG=4-2)= 4.3) anwenden. (Hinweis: der Wurzelfaktor wurde nicht vergessen!) t= |100−96.7| √ 0.905 = 3.47 Damit kann die NH, dass die Federkonstante 100N/m beträgt nicht verworfen werden. Um zu testen, ob die Gleichgewichtslage 0 ist, müssen wir zuerst die Gleichgewichtslage berechnen. Man erhält durch Koeffizientenvergleich b̃ = −D · x0 , also x0 = −Db̃ = −0.0016. Die Unsicherheit dieses Wertes müssen wir mithilfe der Fehlerfortpflanzung (partiellen Ableitungen) berechnen. r ∆x0 = 1 · ∆b̃ −D 2 + b̃ D2 ∆D 2 = 5 · 10−4 Damit kann man nun den t-Wert für die Hypothese x0 = 0 berechnen. t= |0−(−0.0016)| 5·10−4 = 3.19 Man erhält also, dass die NH nicht verworfen werden. Zum Abschluss wollen wir noch die Fehlertrompeten zeichnen. Das s2 ist n P (xi − x)2 = 0.001577 und damit = 0.00143, x̄ = 0.0475 und gleich 0.00265 4−2 i=1 −0.0475)2 . In der Abbildung 6.1 sind die erhält man g(x0 ) = 0.00143 41 + (x00.001577 Messwerte, die Approximation und die Fehlertrompeten abgebildet. Man bemerkt nun, dass die Kurve viel zu genau ist. Von Auge sind die 3 Kurven praktisch identisch. Um bei solchen Fällen doch etwas aussagen zu können trägt man die Residuen auf. Zusätzlich sieht man beim Auftragen der Residuen, ob ein Trend in den Residuen steckt. Dies würde darauf hindeuten, dass die Daten durch durch eine andere Abhängigkeit zusammen verknüpft sind, da die Messpunkte statistisch um den Wert 0 verteilt sein müssen. In der Abbildung 6.2 sind die Residuen und die Fehlertrompeten aufgetragen. 6.4. REGRESSION 69 12 Data Regresssion 10 Vertrauensband F[N℄ 8 6 4 2 0 -2 0 0.02 0.04 0.06 0.08 0.1 x[m℄ Abbildung 6.1: In dieser Abbildung sind die Messwerte der Bestimmung der Federkonstanten, die Approximation und die Fehlertrompeten eingezeichnet. 0.25 Data Regresssion 0.2 Vertrauensband 0.15 Residuum 0.1 0.05 0 -0.05 -0.1 -0.15 -0.2 -0.25 0 0.02 0.04 0.06 0.08 0.1 x[m℄ Abbildung 6.2: In dieser Abbildung sind Residuen der Bestimmung der Federkonstanten und die Fehlertrompeten eingezeichnet. 70 KAPITEL 6. MESSFEHLER Hilfsmittel 1. Statistikprogramm R Daten seien in den Vektoren x und y, dann führt lm(y x) eine lineare Regression durch. Für das obiges Beispiel. Befehl a=lm(y x) in a ist alles gespeichert. summary(a) Output lm(formula=y x) 1 2 3 4 Coefficients: −0.00602 0.02473 −0.041218 0.02251 Estimate StdError tvalue P r(> |t|) (Intercept) 0.156 0.049 3.198 0.0854 Multiple Rx 96.7 0.95 102 9 · 10−5 ∗ ∗∗ Squared: 0.9998, adjusted R-Squared 0.9997 Residuals: Beispiel 2 Wir haben im Physikpraktikum den zeitlichen Verlauf des Ausflusses einer Flüssigkeit aus einem zylinderförmigen Gefäss betrachtet. Wir haben gesehen, dass die zeitliche Abhängigkeit der Füllhöhe im Gefäss dem Gesetz h(t) = at2 + bt + c gehorcht. Im folgenden gebe ich die Daten nicht an und gebe ein paar Grafiken und ein paar p-Werte an. Der lineare Fit ist in der Abbildung 6.3 ersichtlich. Man sieht direkt, dass eine lineare Funktion die Daten schlecht beschreibt. Ein χ2 Test auf normalverteilung der Residuen ergibt einen p-Wert von 0.57. Die Residuen sind also normalverteilt. Hier sieht man, dass ein normalverteilungstest für die Residuen nicht reicht. Man kann auch die Korrelation der Residuen testen . In diesem Fall zeigt sich, dass die Residuen stark korrelliert sind. Macht man nun einen quadratische Fit, so erhält man die Abbildungen 6.4. Man sieht direkt, dass die Funktion viel besser ist. 6.4. REGRESSION 71 Residuen linearer Fit 0.01 Residuen −0.01 0.05 0.00 0.10 Hoehe [m] 0.15 0.02 0.20 0.03 linearer Fit 0 20 40 60 80 100 120 140 0 20 40 60 Zeit[s] 80 100 120 140 Zeit[s] Abbildung 6.3: In der Abbildung links sind die Messwerte und der lineare Fit abgebildet. Im rechten Teil habe ich die Residuen geplottet. Residuen quadratischer Fit 5e−04 0e+00 Residuen 0.15 0 20 40 60 80 Zeit[s] 100 120 140 −1e−03 0.05 −5e−04 0.10 Hoehe [m] 0.20 quadratischer Fit 0 20 40 60 80 100 120 140 Zeit[s] Abbildung 6.4: In der Abbildung links sind die Messwerte und der quadratische Fit mit den Konfidenzintervallen abgebildet. Die Konfidenzintervalle sind nicht sichtbar, da sie genau auf der Kurve liegen. Im rechten Teil habe ich die Residuen mit den Konfidenzintervallen geplottet. 72 KAPITEL 6. MESSFEHLER Ein χ2 Test auf normalverteilung der Residuen ergibt einen p-Wert von 0.53. Die Residuen sind also normalverteilt. In diesem Fall zeigt sich, dass die Residuen noch leicht korreliert sind. 6.5 Zusammenfassung Bei Messungen ergeben sich häufig Daten, welche einen Zusammenhang besitzen. Mittels der Methode der Regression können die Parameter der Kurve bestimmt werden, welche die beste Approximation ergibt. Es sollte aber üblicherweise der funktionale Zusammenhang zwischen den beiden Grössen bekannt sein. Mittels Residuen muss das Resultat der Regression überprüft werden. Einerseits durch die Berechnung des Bestimmtheitsmasses und andererseits grafisch. Kapitel 7 Boltzmann Verteilung Die Boltzmannverteilung beschreibt die Besetzungsverteilung eines physikalischen Systems im thermischen Gleichgewicht. 7.1 Diskrete Boltzmann Verteilung Gegeben sei ein quantenmechanisches System mit n möglichen diskreten Energiezuständen Ek mit der Temperatur T . Dann ist die Wahrscheinlichkeit pk , es im Zustand mit der Energie Ek zu finden gegeben durch: Pk = − gk e Pn j=1 gj Ek kB T Ej − e kB T Dabei ist gk die Anzahl der entarteten Energiezuständen mit der Energie Ek , k die Boltzmannkonstante kB = NRa = 1.38 · 10−23 J/K (Na ist die Avogadrokonstante). Wie ihr vielleicht schon gehört habt entspricht kB T der thermischen Energie. Die innere Energie pro Mol ist dann durch den Erwartungswert der Energie gegeben. U = Na E(E) = Na n P pk Ek k=1 Die spezifische Molwärme wird dann durch die Ableitung der inneren Energie nach der Zeit gegeben. 7.1.1 spezifische Molwärme Wir betrachten ein System mit 2 Energiezuständen, welche nicht entartet sind. Nehmen wir dabei an, dass E1 = 0 und E2 = E ist. Da der Energienullpunkt völlig willkürlich ist, kann man immer dies bei den statistischen Betrachtungen immer machen. Dann ist die Summe der Exponentialfunktionen gegeben durch: − E − E e0 + e kB T = 1 + e kB T , somit ergeben sich die Wahrscheinlichkeiten 73 74 KAPITEL 7. BOLTZMANN VERTEILUNG 1 6 p1 p2 5 4 0.6 cv Besetzungszahl 0.8 3 0.4 2 0.2 1 0 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 2 4 6 8 10 T Temperatur Abbildung 7.1: Links sind die Wahrscheinlichkeiten der beiden Zustände aufgetragen in Abhängigkeit der Temperatur aufgetragen. Rechts wird die Abhängigkeit der molaren Wärmekapazität eines Systems mit 2 Zuständen von der Temperatur gezeigt. p1 = 1 − E 1+e kB T und p2 = E kB T − E 1+e kB T − e Man erhält damit eine innere U = Na (p1 E1 + p2 E2 ) = Energie von − E − E 1 e kB T e kB T Na 0 − E + E = Na E . − E − E 1+e kB T kB T 1+e 1+e kB T Die spezifische Molwärme ist dann gegeben durch: cv = 7.2 E − N ·E 2 2 e kB T a − E k T 2 B kB T 1+e kontinuierliche Boltzmann Verteilung Man kann eigentlich die diskrete Boltzmann Verteilung benutzen und die Summen durch Integrale ersetzen. Man muss sich dazu noch bewusst sein, dass es sich am eine kontinuierliche Verteilung handelt. Die Wahrscheinlichkeitsdichte für ein Teilchen mit der Energie E ist gegeben durch − g(E)e p(E) = R E kB T − g(E)e E kB T dE ganze E g(E) ist die Zustandsdichte der Energie E. 7.2.1 Maxwell-Boltzmann Verteilung Man sucht die Wahrscheinlichkeit, dass ein Teilchen mit der Masse m in einem idealen Gas eine gewisse Geschwindigkeit v besitzt. Die Energie ist dann natürlich durch die kinetische Energie des Teilchens gegeben (E = 21 mv 2 ). Diese ist immer grösser gleich 0. Daher sind die Integrationsgrenzen gegeben durch E = 0 und E = ∞. Nun stellt sich noch die Frage, wie gross g(E) ist. Die Anzahl der ’Zustände’ ist proportional zu der Fläche der Kugel mit Radius v, 7.3. ZUSAMMENFASSUNG 75 0.0035 T = 100K T = 300 T = 2000K 0.003 0.0025 p(v) 0.002 0.0015 0.001 0.0005 0 0 500 1000 1500 2000 v[m/s] Abbildung 7.2: Die Geschwindigkeitsverteilung p(v) vom Gas N2 bei den angegebenen Temperaturen. also zu 4πv 2 . Achtung: Hier ist m die reale Masse des Teilchens nicht die Molmasse. − g(E)e p(E) = E kB T − R g(E)e E kB T = dE ganze E 2 − mv 2kB T 2 ∞ R − mv 4πv 2 e 2kB T 4πv 2 e Wir haben gesehen, dass R∞ 4πv 2 e 0 2 mv − 2k T B Wahrscheinlichkeitsdichte gegeben durch: q 2 π 7.3 m kB T 32 dv 0 dv = 2πkB T m 23 ist. Daher ist die 2 e mv − 2k T B Zusammenfassung Die Wahrscheinlichkeit ein physikalisches System mit der Energie E bei der − E Temperatur T diesem Zustand zu finden ist proportional zu e kB T . In der Quantenmechanik gibt es dann noch gewisse Einschränkungen, auf welche wir hier nicht eingehen. 76 KAPITEL 7. BOLTZMANN VERTEILUNG Kapitel 8 Tabellen 8.1 Normalverteilung Werte der Verteilungsfunktion der Standardnormalverteilung für typische Werte von z. 0.0000 0.0100 0.0200 0.0300 0.0400 0.0500 0.0600 0.0700 z 0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 77 0.0800 0.5319 0.5714 0.6103 0.6480 0.6844 0.7190 0.7517 0.7823 0.8106 0.8365 0.8599 0.8810 0.8997 0.9162 0.9306 0.9429 0.9535 0.9625 0.9699 0.9761 0.9812 0.9854 0.9887 0.9913 0.9934 0.9951 0.9963 0.9973 0.9980 0.9986 0.0900 0.5359 0.5753 0.6141 0.6517 0.6879 0.7224 0.7549 0.7852 0.8133 0.8389 0.8621 0.8830 0.9015 0.9177 0.9319 0.9441 0.9545 0.9633 0.9706 0.9767 0.9817 0.9857 0.9890 0.9916 0.9936 0.9952 0.9964 0.9974 0.9981 0.9986 78 8.2 KAPITEL 8. TABELLEN Student t Tabelle Tabelle der Quantile der Student’schen t-Verteilung. Die Zeilen geben bei festem Wert des Freiheitsgrades für typische Werte von q. P (x < t) FG 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 0.600 t0.4 0.325 0.289 0.277 0.271 0.267 0.265 0.263 0.262 0.261 0.260 0.260 0.259 0.259 0.258 0.258 0.258 0.257 0.257 0.257 0.257 0.257 0.256 0.256 0.256 0.256 0.256 0.256 0.256 0.256 0.256 0.750 t0.25 1.000 0.816 0.765 0.741 0.727 0.718 0.711 0.706 0.703 0.700 0.697 0.695 0.694 0.692 0.691 0.690 0.689 0.688 0.688 0.687 0.686 0.686 0.685 0.685 0.684 0.684 0.684 0.683 0.683 0.683 0.900 t0.1 3.078 1.886 1.638 1.533 1.476 1.440 1.415 1.397 1.383 1.372 1.363 1.356 1.350 1.345 1.341 1.337 1.333 1.330 1.328 1.325 1.323 1.321 1.319 1.318 1.316 1.315 1.314 1.313 1.311 1.310 0.950 t0.05 6.314 2.920 2.353 2.132 2.015 1.943 1.895 1.860 1.833 1.812 1.796 1.782 1.771 1.761 1.753 1.746 1.740 1.734 1.729 1.725 1.721 1.717 1.714 1.711 1.708 1.706 1.703 1.701 1.699 1.697 0.975 t0.025 12.706 4.303 3.182 2.776 2.571 2.447 2.365 2.306 2.262 2.228 2.201 2.179 2.160 2.145 2.131 2.120 2.110 2.101 2.093 2.086 2.080 2.074 2.069 2.064 2.060 2.056 2.052 2.048 2.045 2.042 0.990 t0.001 31.821 6.965 4.541 3.747 3.365 3.143 2.998 2.896 2.821 2.764 2.718 2.681 2.650 2.624 2.602 2.583 2.567 2.552 2.539 2.528 2.518 2.508 2.500 2.492 2.485 2.479 2.473 2.467 2.462 2.457 0.995 t0.0005 63.657 9.925 5.841 4.604 4.032 3.707 3.499 3.355 3.250 3.169 3.106 3.055 3.012 2.977 2.947 2.921 2.898 2.878 2.861 2.845 2.831 2.819 2.807 2.797 2.787 2.779 2.771 2.763 2.756 2.750 8.3. χ2 − T ABELLE 8.3 79 χ2 − T abelle Tabelle der Quantile der χ2 -Verteilung. Die Zeilen geben bei festem Wert des Freiheitsgrades für typische Werte von q. P (x < t) FG 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 0.600 χ20.4 0.708 1.833 2.946 4.045 5.132 6.211 7.283 8.351 9.414 10.473 11.530 12.584 13.636 14.685 15.733 16.780 17.824 18.868 19.910 20.951 21.991 23.031 24.069 25.106 26.143 27.179 28.214 29.249 30.283 31.316 0.750 χ20.25 1.323 2.773 4.108 5.385 6.626 7.841 9.037 10.219 11.389 12.549 13.701 14.845 15.984 17.117 18.245 19.369 20.489 21.605 22.718 23.828 24.935 26.039 27.141 28.241 29.339 30.435 31.528 32.620 33.711 34.800 0.900 χ20.1 2.706 4.605 6.251 7.779 9.236 10.645 12.017 13.362 14.684 15.987 17.275 18.549 19.812 21.064 22.307 23.542 24.769 25.989 27.204 28.412 29.615 30.813 32.007 33.196 34.382 35.563 36.741 37.916 39.087 40.256 0.950 χ20.05 3.841 5.991 7.815 9.488 11.070 12.592 14.067 15.507 16.919 18.307 19.675 21.026 22.362 23.685 24.996 26.296 27.587 28.869 30.144 31.410 32.671 33.924 35.172 36.415 37.652 38.885 40.113 41.337 42.557 43.773 0.975 χ20.025 5.024 7.378 9.348 11.143 12.833 14.449 16.013 17.535 19.023 20.483 21.920 23.337 24.736 26.119 27.488 28.845 30.191 31.526 32.852 34.170 35.479 36.781 38.076 39.364 40.646 41.923 43.195 44.461 45.722 46.979 0.990 χ20.001 6.635 9.210 11.345 13.277 15.086 16.812 18.475 20.090 21.666 23.209 24.725 26.217 27.688 29.141 30.578 32 33.409 34.805 36.191 37.566 38.932 40.289 41.638 42.980 44.314 45.642 46.963 48.278 49.588 50.892 0.995 χ20.0005 7.879 10.597 12.838 14.860 16.750 18.548 20.278 21.955 23.589 25.188 26.757 28.300 29.819 31.319 32.801 34.267 35.718 37.156 38.582 39.997 41.401 42.796 44.181 45.559 46.928 48.290 49.645 50.993 52.336 53.672 80 8.4 KAPITEL 8. TABELLEN Kolmogorov Smirnov Test ∆max > Tabellenwert =⇒ Nicht normalverteilt Anzahl Messwerte N 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 25 30 35 > 35 0.2 0.9 0.68 0.57 0.49 0.45 0.41 0.38 0.36 0.34 0.32 0.31 0.3 0.28 0.27 0.27 0.26 0.25 0.24 0.24 0.23 0.21 0.19 0.18 √ 1.07/ N 0.15 0.93 0.73 0.6 0.53 0.47 0.44 0.41 0.38 0.36 0.34 0.33 0.31 0.3 0.29 0.28 0.27 0.27 0.26 0.25 0.25 0.22 0.2 0.19 √ 1.22/ N Signifikanzlevel 0.1 0.05 0.95 0.98 0.78 0.84 0.64 0.71 0.56 0.62 0.51 0.57 0.47 0.52 0.44 0.49 0.41 0.46 0.39 0.43 0.37 0.41 0.35 0.39 0.34 0.38 0.33 0.36 0.31 0.35 0.3 0.34 0.3 0.33 0.29 0.32 0.28 0.31 0.27 0.3 0.26 0.29 0.24 0.27 0.22 0.24 0.21 0.23 √ √ 1.36/ N 1.52/ N 0.01 1 0.93 0.83 0.73 0.67 0.62 0.58 0.54 0.51 0.49 0.47 0.45 0.43 0.42 0.4 0.39 0.38 0.37 0.36 0.36 0.32 0.29 0.27 √ 1.63/ N 8.5. GRUBBS-TEST (AUSREISSERTEST) 8.5 Grubbs-Test (Ausreissertest) , ist P W = |xis−x| x n 95% 3 1.154 4 1.481 5 1.715 1.887 6 7 2.02 8 2.127 2.215 9 10 2.29 11 2.355 12 2.412 13 2.462 14 2.507 15 2.548 16 2.586 17 2.62 18 2.652 19 2.681 20 2.708 21 2.734 22 2.758 23 2.78 24 2.802 25 2.822 26 2.841 27 2.859 28 2.876 29 2.893 30 2.908 P W >Tabellenwert(P%,N), so liegt ein Ausreisser vor. 97.5% 99% 1.155 1.155 1.491 1.5 1.742 1.783 1.933 2.02 2.081 2.217 2.201 2.383 2.3 2.524 2.383 2.645 2.455 2.75 2.519 2.843 2.574 2.924 2.624 2.997 2.669 3.063 2.71 3.123 2.748 3.177 2.782 3.226 2.814 3.272 2.843 3.314 2.871 3.353 2.897 3.389 2.921 3.423 2.944 3.455 2.965 3.484 2.986 3.513 3.005 3.539 3.023 3.564 3.041 3.588 3.058 3.61 81 Forschungsprojekte iGräser App – Pflanzen bestimmen leicht gemacht Mit iGräser kann man die 111 häufigsten einheimischen Wald- und Freiland-Grasarten (Poaceae) der Schweiz sowohl im nicht-blühenden als auch im blühenden Zustand einfach, schnell, zuverlässig und unter Einbezug der Verbreitungsdaten via GPS-Ortung bestimmen. Die App ermöglicht ein mobiles Lernen (E-Learning) für die Studierenden. Im Rahmen des Projektes wurden vom Institut für Angewandte Simulation mit wissenschaftlich systematischem Vorgehen «Effiziente Bestimmungsalgorithmen» entwickelt. Die programmtechnische Umsetzung für iPhone und Android erfolgte ebenfalls am IAS. Projektpartner: Institut für Umwelt und Natürliche Ressourcen, Fachstelle Vegetative Analyse. Info Flora Schweiz http://www.igraeser.ch Institut für Angewandte Simulation ZHAW LSFM Expertensystem für Werbeartikel Prognosesystem für nachhaltiges Verkehrsmanagement Das richtige Werbegeschenk zu finden ist eine langwierige, repetitive Aufgabe. Durch intelligenten Einsatz von bekanntem Wissen über die Zielgruppen, Einsicht in die Struktur des Verkaufsgesprächs und dem Einsatz von statistischer Programmierung können nun die Ressourcen von Lieferanten und Käufern besser und zielführender eingesetzt werden, ohne dabei die Fachkompetenz der Verkäufer ausser Acht zu lassen. Das Resultat ist die vom IAS in Zusammenarbeit mit der HSG erstellte Experten-Plattform dayzzi.com. Die zunehmende Stauhäufigkeit im Verkehr, die mit grossen Kosten für die Umwelt und die Gesellschaft verbunden ist, konfrontiert die Strassenbenutzer/-innen und die Strassenbetreiber mit dem Problem, die Strassennutzung zu optimieren. Dafür braucht es ein intelligentes Verkehrsmanagement, welches das Verkehrsgeschehen gesamthaft überblickt und es erlaubt, die Entwicklung des Verkehrszustandes vorauszusehen. Solche Verkehrsprognosen ermöglichen es, mit frühzeitigen Massnahmen den Verkehr besser zu verteilen und gewisse Stauspitzen schon vor der Entstehung zu brechen. Projektpartner: Institut für Marketing Universität St.Gallen dayzzi (Schweiz) AG Förderung: Kommission für Technologie und Innovation KTI Im Rahmen dieses Projektes werden die Rahmenbedingungen, die ein solches innovatives Verkehrsprognosesystem erfüllen muss, untersucht und ein entsprechendes System für das Schweizer Nationalstrassennetz mit den dafür geeigneten Prognosemethoden und Algorithmen entwickelt. Projektpartner: RappTrans AG, Bundesamt für Strassen ASTRA Projektförderung: Bundesamt für Strassen ASTRA Lehrangebot des IAS BT CH LM UI Data Management and Visualisation (T4) Angebote in Masterprogrammen FM Statistik Modeling of Complex Systems (T15) SCM Biostatistik Master-Thesis Informatik Informatik Informatik Informatik Informatik Mathematik Mathematik Mathematik Mathematik Mathematik Physik Physik Physik Physik Statistik Statistik Statistik Statistik Angebote im BachelorProgramm SCM Sys. Eng. Literaturar. Semesterarbeiten Bachelor-Thesis Vorkurs Mathematik Vorkurs Physik Studienvorbereitung eLearning-Einheit Mathi-Fitnessstudio eLearning-Einheit Energie eLearning-Einheit Hydrostatik eLearning-Einheit Kalorik Institut für Angewandte Simulation ZHAW LSFM SCM