Statistische Datenanalyse und Versuchsplanung Wahlpflicht für Studenten der Biotechnologie 2 SWS IV (VL/Ü/PR) ⇒ Abschluss: Übungsnote U. Römisch http:// www.lmtc.tu-berlin.de/angewandte_statistik_und_consulting LITERATUR zur Lehrveranstaltung „Statistische Datenanalyse und Versuchsplanung“ /1/ Autorenkollektiv (2004): Einführung in die Biometrie. 1- Grundbegriffe und Datenanalyse 2- Schätzen eines Parameters und Vergleich von bis zu zwei Parametern Schumacher, E.: 3- Vergleich von mehr als zwei Parametern Rasch, D. und R. Verdooren: 4- Grundlagen der Korrelations- und Regressionsanalyse. 2. Aufl., Saphir- Verl. Ribbesbüttel Richter , Ch.: Sumpf, D. und E. Moll: /2/ Bärlocher, F. (2008): Biostatistik. 2. Aufl., Thieme Verl. Stuttgart /3/ Bortz, J., G. A. Lienert u. K. Boehnke (1990): Verteilungsfreie Methoden in der Biostatistik. Springer- Verl. Berlin /4/ Fahrmeir, L., R. Künstler, I. Pigeot u. G. Tutz (2004): Statistik- Der Weg zur Datenanalyse. 5. Aufl., Springer- Verl. Berlin /5/ Hartung, J. u. a. (1989): Statistik. Lehr- und Handbuch der angewandten Statistik. 7. Aufl., Oldenbourg Verl. München /6/ Klein, Bernd (2007): Versuchsplanung- DoE. Einführung in die Taguchi/Shainin- Methodik. 2. Aufl. Oldenbourg Verl. München /7/ Kleppmann, W. (2006): Taschenbuch Versuchsplanung 4. Auflage Hanser Verl. München /8/ Rudolf, M. u. W. Kuhlisch (2008) Biostatistik- Eine Einführung für Biowissenschaftler. Pearson Studium, München /9/ Stahel, W. (1999): Statistische Datenanalyse - Eine Einführung für Naturwissenschaftler. 2. Aufl., Vieweg Verl. Braunschweig/ Wiesbaden /10/ Timischl, W. (2000) Biostatistik- Eine Einführung für Biologen und Mediziner. 2. Aufl., Springer Verl. Berlin Inhaltsverzeichnis EINLEITUNG 1. Was versteht man unter Statistik, Biometrie, Chemometrie, Ökonometrie und Technometrie und stat. Versuchsplanung? 2. Wie lügt man mit Statistik? ● Umfragen ● Mittelwert- und Streuungsmaße ● Grafiken Teil I: Statistische Datenanalyse 1. Beschreibende und explorative Methoden 1.1 Charakterisierung von Merkmalen 1.2 Grundgesamtheit und Stichprobe 1.3 Die Häufigkeitsverteilung diskreter und stetiger eindim. Merkmale - absolute u. relative Häufigkeiten und ihre grafische Darstellung, empirische Verteilungsfunktion 1.4 Lage- und Streuungsmaße, Schiefe und Exzeß - arithm. Mittel, Median, gestutztes Mittel, Modalwert, geometrisches Mittel, α- Quantil - Spannweite, Medianabstand, Quartilsabstand, Varianz, Standardabweichung, Standardfehler des arithm. Mittelwertes, Variationskoeffizient, Box- und Whisker Plots - zufällige und systematische Fehler - Schiefe und Exzess 1.5. Zweidimensionale Merkmale - grafische Darstellung (XY-Scatterplot) - 2-dim. Häufigkeitsverteilung - Zusammenhangsmaße (Maß- und Rangkorrelationskoeffizient) - lineare Regression (einf. und multiple lineare Regression) 2. Wahrscheinlichkeitsrechnung 2.1 Zufälliges Ereignis, Wahrscheinlichkeit, Zufallsgröße 2.2 Parameter von Verteilungen (Erwartungswert u. Varianz) 2.3 Normalverteilung 2.4 Prüfverteilungen (χ2-, t- u. F- Verteilung) 3. Schließende Methoden 3.1 Punktschätzungen, Konfidenzintervalle 3.2 Statistische Tests 3.2 Varianzanalyse Teil 2: Statistische Versuchsplanung 4. Einführung in die stat. Versuchsplanung 4.1 Arten statistischer Versuchspläne - Faktorielle Versuchspläne 1. Ordnung 2k und 2k-1 - Zentral zusammengesetzte Versuchspläne - Mischungspläne 4.2 Beispiele zu stat. Versuchsplänen - Herstellung eines chemischen Produktes - Entwicklung eines glutenfreien und ballaststoffangereicherten Gebäckes mit optimalen Eigenschaften In einer Übung am PC werden mit einem Statistikprogramm konkrete Datensätze ausgewertet. EINLEITUNG 1. Was ist Statistik? (Biometrie, Technometrie, Ökonometrie) Statistik ist die Wissenschaft des Sammelns, Analysierens und Interpretierens von Daten. Sie beantwortet die Fragen: 1. Wie gewinnt man welche Daten? 2. Wie kann man Daten beschreiben? und 3. Welche Schlüsse kann man aus Daten ziehen? Teilgebiete: Stochastik Beschreibende Statistik Wahrscheinlichkeitstheorie Schließende Statistik Stat. DA Stat. VP 2. Wie lügt man mit Statistik? Bsp. 1: Wir leben im Zeitalter der Umfragen! Bsp. 2: Mittelwert- und Streuungsmaße Bsp. 3: Vorsicht bei Grafiken! 1.Teil: Statistische Datenanalyse 1. Beschreibende Methoden s. /11/ Stahel Die Beschreibende und explorative Statistik dient der Beschreibung, Strukturierung und Verdichtung umfangreichen Datenmaterials. Wie erhält man nun Daten und welcher Art sind die Daten? Erhebungen und Versuche Ziel: Kenntnisse über die Eigenschaften bestimmter Objekte (z.B. Anlagen, Messmethoden, Weinproben, Hefestämme) oder Individuen (z.B. Personen, Tiere, Pflanzen) zu erhalten • Erhebungen ⇒ • Versuche ⇒ Ist-Standsanalysen - Vergleich von Gruppen - Untersuchung von Zusammenhängen zwischen Merkmalen 1.1. Charakterisierung von Merkmalen Die Objekte/ Individuen, an denen Beobachtungen vorgenommen werden, heißen Beobachtungseinheiten (Merkmalsträger). Dabei ist kein Objekt/ Individuum mit einem anderen identisch. Diese Unterschiedlichkeit nennt man Variabilität. Die Variabilität biologischer Objekte/ Individuen ist häufig genetisch oder umweltbedingt. - Die Größen oder Eigenschaften, auf die sich die Beobachtungen beziehen, heißen Merkmale. - Jedes Objekt/ Individuum ist durch eine spezielle Merkmalsausprägung gekennzeichnet. - Alle beobachteten Werte eines Merkmals heißen Merkmalswerte. Klassifizierung von Merkmalen 1. Merkmale Quantitative Merkmale Qualitative Merkmale (Unterscheidung durch Art) Bsp.: Geschlecht, Rasse, Sorte, (Unterscheidung durch Größe) Bsp.: Alter, Gewicht, Masse, Länge, Land, Hefestamm, Aroma 2. Merkmale Diskrete Merkmale (endlich viele oder abzählbar unendlich viele Merkmalsausprägungen) Bsp.: Geschlecht, Rasse, Sorte, Land, Hefestamm, Aroma, Zellzahl Volumen, Einkommen, Wasser- u. Lufttemperatur, Konzentration, Zellzahl Stetige Merkmale (überabzählbar unendlich viele Ausprägungen, d.h. Werte im reellen Zahlenintervall) Bsp.: Alter, Gewicht, Masse, J Merkmale 3. Nominalskalierte Merkmale (Skala mit niedrigstem Niveau, keine Vergleichbarkeit oder Rangfolge zwischen den Werten) Bsp.: Geschlecht, Rasse, Sorte, Land, Hefestamm, Aroma Ordinalskalierte Merkmale Metrisch skalierte Merkmale (Skala mit höherem (Skala mit höchstem Niveau, Werte unterNiveau, Abstände scheiden sich in ihrer zwischen den Werten Intensität, ermöglichen sind interpretierbar) eine Rangfolgeordnung, jedoch keine Bsp.: Alter, Gewicht, Masse, Länge, Volumen, EinInterpretation der kommen, Wasser- u. Abstände zwischen Lufttemperatur, Zellden Rängen) zahl, Konzentration, Bsp.: Aroma, Härtegrad, sensor. Parameter, Zensuren Intervallskala Proportionsskala 1.2. Grundgesamtheit und Stichprobe Daten kann man durch Befragung von Personen (Erhebungen) oder durch Experimente (Messungen) gewinnen. Experimente Passive Experimente Alle Beobachtungswerte ergeben sich zufällig während des Versuches! Aktive Experimente Aktive Planung der Experimente vor deren Durchführung, Planung der Versuchsbedingungen Kombinierte Experimente Anwendung der Methoden der statistischen Versuchsplanung (SVP)! Methoden der statistischen Versuchsplanung Ziel: Erzielen von Ergebnissen mit ausreichender Sicherheit und Genauigkeit bei minimaler Anzahl von Versuchen Problem Planung 3 (4) Versuchsetappen: Durchführung Auswertung Bsp.: Herstellung einer Chemikalie Mittelwerte der Ausbeute mit Konfidenzintervall 68,012 (66,48,69,55) (+++) 55,387 (53,85,56,92) 62,387 (60,85,63,92) Katalysator 54,012 (52,48,55,55) 68,887 (67,35,70,42) 56,112 (54,58,57,65) 61,813 (60,28,63,35) 53,287 (51,75,54,82) Zeit (- - -) Temperatur Def.: Die Menge aller möglichen Werte eines Merkmals nennt man Grundgesamtheit. Eine endliche Teilmenge der Grundgesamtheit nennt man Stichprobe. Besteht die Teilmenge aus n Elementen, so heißt n Stichprobenumfang. Def.: Der Gesamtheit der Merkmalswerte entspricht eindeutig eine Gesamtheit von Beobachtungseinheiten (Merkmalsträgern), die man ebenfalls als Grundgesamtheit oder Population bezeichnet. Die Grundgesamtheit muss bei jeder Aufgabenstellung festgelegt werden! Eine Grundgesamtheit kann auch unendlich viele Elemente enthalten, denn theoretisch können wir den Versuch unendlich oft wiederholen. Mathematische Statistik Beschreibende Statistik Schließende Statistik Wahrscheinlichkeitsrechnung Induktionsschluss Stichprobe Grundgesamtheit Deduktionsschluss Was ist bei einer Stichprobenentnahme zu beachten? Die Stichprobenauswahl muss so erfolgen, dass die Stichprobe die Grundgesamtheit repräsentiert! 1. Zufälligkeit der Stichprobe 2. Vermeiden systematischer Fehler 3. Umfang der Stichprobe Optimaler Stichprobenumfang ist abhängig von : - zeitlichen, arbeitstechnischen und finanziellen Faktoren - Wahl des statistischen Modells - Genauigkeit der Ergebnisse - Umfang der Grundgesamtheit 4. Homogenität und gleiche Genauigkeit 5. Vergleichbarkeit 1.3. Die Häufigkeitsverteilung diskreter und stetiger eindim. Merkmale Bei einem Versuch wird an n Beobachtungseinheiten ein Merkmal X beobachtet, d.h. an jeder Einheit wird die Ausprägung dieses Merkmals festgestellt. Sind a1,...,am die möglichen Ausprägungen des Merkmals X, so wird also der i-ten Beobachtungseinheit (i=1,...n) seine Ausprägung aj als Merkmalswert xi zugeordnet: xi = aj (i) Merkmalswert Beobachtungseinheit Ausprägung Schritte der Datenerfassung und -aufbereitung: 1. Schritt: Erfassung der Daten eines oder mehrerer Merkmale Stichprobe (ungeordnete Urliste): Merkmalswerte x1,...,xn Variationsreihe (geordnete Urliste): x(1) ,...,x(n) , wobei x(1) ≤... ≤ x(n) Skalierung der Ausprägungen: a1,J,am Bsp.: Weindaten Nr. i Land L Art A Rebsorte R Histamingehalt H [mg/l] Butandiolgehalt B [g/l] 1 l1 a1 r1 h1 b1 J J J J J J 7 l7 = 5 a7 = 2 r7 = 2 h7 = 0,4 b7 = 0,49 J J J J J J n ln an rn hn bn Skalierung: Land: li = 1 = „Deutschland“ 2 = „Bulgarien“ 3 = „Österreich“ 4 = „Frankreich“ 5 = „Australien“ Art: ai = 1 = „Rotwein“ 2 = „Weißwein“ 3 = „Roséwein“ Rebsorte: ri = 1 = „Cabernet Sauvignon“ 2 = „Chardonnay“ 3 = „Merlot“ 4 = „Riesling“ 2. Schritt: Ermittlung der abs. und rel. Häufigkeiten 2.1. (Primäre) Häufigkeitsverteilung (HV) bei diskreten Merkmalen Def.: Beobachtet man an n Beobachtungseinheiten ein Merkmal X, das in m Ausprägungen a1,...,am vorkommt, so heißt fn(aj) = "Anzahl der Fälle, in denen aj auftritt" für j=1,...,m absolute Häufigkeit der Ausprägung aj. Bem.: - Σ fn(aj) = n - Die abs. Häufigkeiten hängen vom Stichprobenumfang n ab Def.: Die relative Häufigkeit hn(aj) = (1/n) fn(aj) für j=1,...,m gibt den Anteil der Beobachtungseinheiten bezogen auf n an, die die Ausprägung aj haben. Bem.: - Σ hn(aj) = 1 - 0 ≤ hn(aj) ≤ 1 - Die Folge der relativen Häufigkeiten hn(a1),...,hn(am) heißt rel. Häufigkeitsverteilung des Merkmals X. 2.2. (Sekundäre) Häufigkeitsverteilung (HV) bei stetigen Merkmalen (mit Klassenbildung) - Da stetige Merkmale in sehr vielen Ausprägungen auftreten, fasst man verschiedene Ausprägungen in Klassen zusammen. - Man zerlegt das Intervall, in dem alle Beobachtungswerte liegen in m Klassen: K1,...,Km mit Kj = (yj-1; yj] ; j=1,...,m mit den Klassengrenzen: yj-1 und yj und den Klassenmitten: xj = (yj-1+yj) /2 - Die Anzahl der Klassen wählt man häufig m ≤ n (oder 5 ≤ m ≤ 20), wobei n der Stichprobenumfang ist. - Der Abstand d =yj - yj-1 für j=1,...,m heißt Klassenbreite. (äquidistante Klassen) Bem.: Durch die Angabe der unteren Anfangsklassengrenze y0 und die Klassenbreite d oder durch y0, ym und m wird eine Klasseneinteilung eindeutig bestimmt. Def.: Als absolute Klassenhäufigkeit bezeichnet man fn(xj) = "Anzahl der Beobachtungswerte in der j- ten Klasse mit der Klassenmitte xj" (j=1,...,m) Def.: Als relative Klassenhäufigkeit bezeichnet man hn(xj) = (1/n) · fn(xj) Bem.: Die Folge der relativen Häufigkeiten hn(x1),...,hn(xm) heißt rel. Häufigkeitsverteilung des stet. Merkmals X. 3. Schritt: Grafische Darstellungen - Stabdiagramm (Strecken- oder Liniendiagramm) hn(aj) ● über jeder Ausprägung auf der Abszisse wird die zugehörige Häufigkeit als senkrechte Strecke abgetragen, ● besonders für diskrete Merkmale geeignet, z.B.: Anzahl der Stillstände einer Anlage, Aromastufen, Hefestämme, Schrotarten - Häufigkeitspolygon a1... aj hn(aj) ● erhält man durch Verbindung der Endpunkte der Strecken des Stabdiagramms, ● besonders zur Darstellung zeitlicher Verläufe geeignet, z.B.: monatliche Entwicklung der Arbeitslosenzahlen a1... aj - Histogramm hn(xj) ● Häufigkeiten werden als aneinanderstoßende Rechtecke dargestellt, deren Flächen proportional den Häufigkeiten sind, ● besonders für stetige Merkmale geeignet - Flächendiagramme, z.B.: Kreisdiagramme ● Häufigkeiten werden durch Flächen repräsentiert, ● zur Strukturdarstellung geeignet, z.B.: Anzahl der Beschäftigten in verschiedenen Wirtschaftszweigen, Wahlergebnisse x1 y0 y1 J 13% 13% 57% 17% xj 4. Schritt: Ermittlung der empirischen Verteilungsfunktion 4.1. (Primäre) Häufigkeitsverteilung bei diskreten Merkmalen (ohne Klassenbildung) Def.: Die absolute Summenhäufigkeit der j- ten Ausprägung aj ist die Anzahl der Beobachtungseinheiten, bei denen eine Ausprägung ≤ aj beobachtet wurde, d.h. j fn(a1) + ... + fn(aj) = ∑ f (a n k ) ; j=1,...,m k =1 Def.: Die relative Summenhäufigkeit der j- ten Ausprägung gibt den Anteil der Beobachtungseinheiten an, bei denen eine Ausprägung ≤ aj beobachtet wurde, d.h. j hn(a1) + ... + hn(aj) = ∑ h (a n k =1 k ) ; j=1,J,m Durch die Folge der relativen Summenhäufigkeiten wird die empirische Verteilungsfunktion des Merkmals X bestimmt. Def.: Die empirische Verteilungsfunktion des Merkmals X ist eine Funktion über dem Bereich der reellen Zahlen R 0 ; x < a1 j F̂n ( x ) = ∑ hn (ak ) ; a j ≤ x < a j+1 j = 1,..., m k =1 1 ; x ≥ am (x∈R) Bem.: Die empirische Verteilungsfunktion ist auf jedem Intervall [aj,aj+1) konstant und springt bei aj+1 um den Wert hn(aj+1) nach oben. Die erste Sprungstelle liegt bei der kleinsten, die letzte bei der größten beobachteten Merkmalsausprägung. F̂n (x) 1 hn(a1)+ hn(a2) hn(a1) x a1 a2 Ausprägungen 4.2. (Sekundäre) Häufigkeitsverteilung (HV) bei stetigen Merkmalen (mit Klassenbildung) Def.: Die absolute Klassensummenhäufigkeit der j- ten Klasse ist die Anzahl der Beobachtungswerte, die in einer Klasse mit einer Klassenmitte ≤ xj liegen, d.h. j fn(x1) + ... + fn(xj) = ∑ f (x n k ) ; j=1,...,m k =1 Def.: Die relative Klassensummenhäufigkeit der j- ten Klasse gibt den Anteil der Beobachtungswerte an, die in einer Klasse mit der Klassenmitte ≤ xj liegen, d.h. j hn(x1) + ... + hn(xj) = ∑h (x n k ) ; j=1,...,m k =1 Durch die Folge der relativen Klassensummenhäufigkeiten wird die empirische Verteilungsfunktion von X bestimmt! Def.: Die empirische Verteilungsfunktion des Merkmals X, deren Beobachtungswerte in Klassen vorliegen, hat folgende Gestalt: 0 ; x < x1 j F̂n ( x ) = ∑ hn ( x k ) ; x j ≤ x < x j+1 j = 1,...,m k =1 1 ; x ≥ xm Bem.: Die empirische Verteilungsfunktion an der Stelle x ist die Summe der relativen Häufigkeiten aller Klassen, deren Mitten xj ≤ x sind. Als Sprungstellen werden jetzt die Klassenmitten verwendet. Bsp.: Weindaten- stet. Merkmal Butandiolgehalt Sekundäre Verteilungstabelle (y0 = 0 ; d = 0,25): Kl.Nr. Kl.grenzen Kl.mitte abs.Häuf. rel.Häuf. abs.K.S.H. rel.K.S.H. j (yj-1 ; yj] xj fn(xj) hn(xj) -----------------------------------------------------------------------------------------------------0 (- ∞ ; 0] 1 (0 ; 0,25] 0,125 f1 h1 f1 h1 2 (0,25 ; 0,50] 0,375 f2 h2 f1+f2 h1+h2 M 7 M (1,50 ; 1,75] (1,75 ; ∞) 1,625 M f7 h7 n M 1 j=1,J.m Bem.: Die empirische Verteilungsfunktion ist auf jedem Intervall [xj,xj+1) konstant und springt bei xj+1 um den Wert hn(xj+1) nach oben. Die erste Sprungstelle liegt bei der kleinsten, die letzte bei der größten Klassenmitte. F̂n (x) 1 hn(x1)+ hn(x2) hn(x1) x x1 x2 Klassenmitten Bsp.1: Kolonien von Mikroorganismen (s. /9/) Aufgabe: Untersuchung der Eigenschaften von Mikroorganismen in der Luft Versuch: Nährboden auf Agarplatte wurde 30 min. bei Zimmertemperatur offen im Raum stehen gelassen, nach Inkubation über 3 Tage waren 40 Pilz- bzw. Bakterienkolonien gewachsen, von denen der Durchmesser, die Antibiotikaresistenz, sowie die Farbe bestimmt wurden. 1. Frage: Wie kann man die Verteilung der Merkmale beschreiben? Unterscheiden sich die Verteilungen der Durchmesser zwischen den Kolonien unterschiedlicher Farbe? 1. Schritt: Datenerfassung und Merkmalsklassifizierung X: Durchmesser [mm] – quantitativ, stetig, metrisch skaliert Y: Antibiotikaresistenz [-] – qualitativ, diskret, ordinal skaliert Ausprägungen: 1- sehr sensitiv, 2- sensitiv, 3- intermediär, 4- resistent, 5- sehr resistent Z: Farbe [-] – qualitativ, diskret, nominal skaliert Ausprägungen: 1- gelb, 2- weißlich, 3- braun, 4- orange, 5- farblos, 6- rosa, 7- grün 2. Schritt: Erfassung der Daten Nr. i Durchmesser xi Resistenz yi (Stichprobe) yi cod Farbe zi zi cod 1 0,5 sehr sensitiv 1 gelb 1 2 4,1 sensitiv 2 gelb 1 J J J J J 14 2,1 resistent weißlich 2 J J J J J 28 0,2 sehr sensitiv 1 orange 4 29 1,5 sensitiv 2 orange 4 30 2,8 intermediär 3 farblos 5 J J J J J 34 4,2 resistent rosa 6 J J J J J 38 10,1 sehr sensitiv 1 braun 3 39 3,3 intermediär 3 grün 7 40 4,2 intermediär 3 grün 7 4 4 3. Schritt: Bestimmung der empir. Häufigkeitsverteilung Merkmal X: Durchmesser Frequency Tabulation for Durchmesser -------------------------------------------------------------------------------Lower Upper Relative Cumulative Cum. Rel. Class Limit Limit Midpoint Frequency Frequency Frequency Frequency -------------------------------------------------------------------------------at or below 0,0 0 0,0000 0 0,0000 1 0,0 2,0 1,0 3 0,0750 3 0,0750 2 2,0 4,0 3,0 7 0,1750 10 0,2500 3 4,0 6,0 5,0 10 0,2500 20 0,5000 4 6,0 8,0 7,0 10 0,2500 30 0,7500 5 8,0 10,0 9,0 7 0,1750 37 0,9250 6 10,0 12,0 11,0 3 0,0750 40 1,0000 above 12,0 0 0,0000 40 1,0000 -------------------------------------------------------------------------------- Histogram (abs. frequencies) percentage [%] 10 Durchmesser frequency 12 100 10 80 8 60 6 40 4 20 2 0 2 4 6 8 10 12 Durchmesser 8 6 4 2 0 0 0 Box-and-Whisker Plot Histogram (rel. cumulative frequencies) 0 2 4 6 8 Durchmesser 10 12 Merkmal Y: Antibiotikaresistenz (Ausprägungen hier nicht codiert!) Frequency Table for Antibiotikaresistenz -----------------------------------------------------------------------Relative Cumulative Cum. Rel. Class Value Frequency Frequency Frequency Frequency -----------------------------------------------------------------------1 intermediär 8 0,2000 8 0,2000 2 resistent 6 0,1500 14 0,3500 3 sehr resistent 4 0,1000 18 0,4500 4 sehr sensitiv 13 0,3250 31 0,7750 5 sensitiv 9 0,2250 40 1,0000 ------------------------------------------------------------------------ Barchart for Antibiotikaresistenz frequency 15 12 9 6 Piechart for Antibiotikaresistenz 3 0 22,50% 20,00% 32,50% 15,00% Antibiotikaresistenz intermediär resistent 10,00% sehr resistent sehr sensitiv sensitiv intermediär resistent sehr resistent sehr sensitiv sensitiv Kategorien weisen hier keine Ordnung auf! Merkmal Y: Antibiotikaresistenz (Ausprägungen hier numerisch codiert!) Frequency Tabulation for Antibiotikaresistenz_1 Ausprägungen -------------------------------------------------------------------------------Lower Upper Relative Cumulative Cum. Rel. Class Limit Limit Midpoint Frequency Frequency Frequency Frequency -------------------------------------------------------------------------------at or below 0,5 0 0,0000 0 0,0000 1 0,5 1,5 1,0 13 0,3250 13 0,3250 2 1,5 2,5 2,0 9 0,2250 22 0,5500 3 2,5 3,5 3,0 8 0,2000 30 0,7500 4 3,5 4,5 4,0 6 0,1500 36 0,9000 5 4,5 5,5 5,0 4 0,1000 40 1,0000 above 5,5 0 0,0000 40 1,0000 -------------------------------------------------------------------------------- Histogram Ordnung zwischen den Kategorien 12 9 Dot Diagram 6 13 3 0 0 1 2 3 4 5 Antibiotikaresistenz_1 6 Frequency frequency 15 0 0 1 2 3 4 5 Antibiotikaresistenz_1 Merkmal Z: Farbe (Ausprägungen hier nicht codiert!) Frequency Table for Farbe -----------------------------------------------------------------------Relative Cumulative Cum. Rel. Class Value Frequency Frequency Frequency Frequency -----------------------------------------------------------------------1 braun 1 0,0250 1 0,0250 2 farblos 4 0,1000 5 0,1250 3 gelb 13 0,3250 18 0,4500 4 grün 2 0,0500 20 0,5000 5 orange 2 0,0500 22 0,5500 6 rosa 4 0,1000 26 0,6500 7 weißlich 14 0,3500 40 1,0000 ------------------------------------------------------------------------ Barchart for Farbe frequency 15 Kategorien weisen keine Ordnung auf! 12 Piechart for Farbe 9 2,50% 10,00% 6 3 35,00% 0 braun farblos gelb grün orange rosa weißlich 10,00% 5,00% 5,00% Farbe braun 32,50% farblos gelb grün orange rosa weißlich Vergleich der rel. Häufigkeitsverteilungen der Durchmesser zwischen den Kolonien unterschiedlicher Farbe Histogram Histogram 40 30 percentage percentage 25 30 20 20 15 10 10 0 5 0 0 2 4 6 8 10 12 0 Durchmesser der gelben Kolonien percentage 40 30 20 10 0 1 4 6 8 10 12 Durchmesser der weißlichen Kolonien Histogram -1 2 3 5 7 9 11 Durchmesser der sonstigen Kolonien 2. Frage: Wie kann man mittels statistischer Maßzahlen einen quantitativen Vergleich der Häufigkeitsverteilungen vornehmen? Wie unterscheiden sich die mittleren Durchmesser zwischen den Kolonien unterschiedlicher Farbe, wie stark streuen die Werte? 1.4 Lage- und Streuungsmaße, Schiefe und Exzeß 1.4.1 Lagemaße 1. Mittelwertmaße Mittelwertmaße geben an, wo sich das Zentrum einer Häufigkeitsverteilung befindet. ● Arithmetischer Mittelwert Seien x1, ... ,xn die Beobachtungswerte des Merkmals X 1 n x = ∑ xi n i =1 Vorteile: - der arithm. Mittelwert einer Stichprobe ist ein unverzerrter Schätzwert für den Mittelwert einer normalverteilten Grundgesamtheit und gut geeignet bei eingipfligen Häufigkeitsverteilungen - alle Informationen der Stichprobe werden ausgeschöpft Nachteile: - das arithm. Mittel ist unbrauchbar bei schiefen oder mehrgipfligen Verteilungen - das arithm. Mittel ist nicht robust gegenüber Ausreißern ● Median (Zentralwert) - Der Median ist dadurch charakterisiert, dass jeweils 50 % der Beobachtungswerte einen Wert ≤ und 50 % einen Wert ≥ dem Median haben. - Wir ordnen daher die Beobachtungswerte der Größe nach und erhalten die Variationsreihe x(1) , ... ,x(n) mit x(1) ≤ ... ≤ x(n) ~ x 0 ,5 x ( k +1) ; für n = 2k + 1 = x ( k ) + x ( k +1) ; für n = 2k 2 Vorteile: - der Median ist auch bei asymmetrischen und mehrgipfligen Verteilungen verwendbar - er ist zu bevorzugen bei nur wenigen Messwerten und auch bei ordinalskalierten Beobachtungsmerkmalen - er ist robust gegenüber Ausreißern Nachteile: - es werden nicht alle Informationen der Stichprobe ausgeschöpft (nicht alle Messwerte gehen in die Berechnung des Medianes ein) - bei normalverteilten Merkmalen hat er schlechtere Schätzeigenschaften als das arithm. Mittel ● Gestutztes Mittel - Wir ordnen wieder die Stichprobe der Größe nach und streichen dann die m untersten und die m obersten Merkmalswerte. - Dann erhält man das (m/n) ·100 % - gestutzte Mittel, indem man das arithmetische Mittel aus den verbleibenden n - 2m Merkmalswerten bildet. 1 xm = ( x(m+1) + ... + x(n−m) ) n − 2m n • Vorteil: - das gestutzte Mittel ist robust gegenüber Ausreißern und basiert im Vergleich zum Median auf einer größeren Anzahl von Werten • Nachteil: - es besitzt bei Normalverteilung schlechtere Schätzeigenschaften als das arithm. Mittel und schöpft nicht alle Informationen der Stichprobe aus ● Modalwert (Dichtemittel, Modus) Bei eingipfligen Verteilungen gibt das Dichtemittel die Ausprägung mit der größten Häufigkeit in der Messreihe an. Bei klassierten Daten (stet. Merkmale) gibt es die Klassenmitte der Klasse mit der größten Klassenhäufigkeit an. fn (xmod) ≥ fn (aj) ∀aj j=1,...,m Vorteile: - das Dichtemittel ist auch bei nominal- und ordinalskalierten Merkmalen anwendbar - bei mehrgipfligen Verteilungen gibt man neben dem Median auch die lokalen Dichtemittel an - das Dichtemittel ist robust gegenüber Ausreißern Nachteile: - bei Normalverteilung hat das Dichtemittel schlechtere Eigenschaften als das arithm. Mittel - nicht alle Beobachtungswerte gehen in die Berechnung des Dichtemittels ein ● Geometrisches Mittel - Sind die Merkmalswerte relative Änderungen (Zuwachsraten, Produktionssteigerungen), so wird das geometrische Mittel verwendet, da die Gesamtänderung nicht durch eine Summe, sondern durch ein Produkt beschrieben wird. - Die Bezeichnung geom. Mittel ist ein Hinweis auf Zähl- oder Messdaten, die statt der arithm. eine geometr. Zahlenfolge bilden (z.B. bei Verdünnungsreihen). - Es wird verwendet bei Zähldaten, von denen bekannt ist, dass sie durch multiplikative Wirkungen entstanden sind und deren Werte sehr unterschiedliche Größenordnungen aufweisen, sowie fast immer eine stark asymmetrische Häufigkeitsverteilung aufweisen (z.B. Keimzahlen in flüssigen Medien, wie Milch und Gülle). - das geom. Mittel findet auch Anwendung bei logarithmischen Daten (z.B. Spektralanalyse) Es gibt folgende Möglichkeiten der Berechnung des geom. Mittels und der durchschnittlichen Zuwachsrate: 1. Seien x1, ... ,xn Beobachtungswerte (rel. Änderungen, bez. auf 1 = 100%) mit xi ≥ 0 für i=1,...,n und r die durchschnittliche Zuwachsrate. xg = n x1 ⋅K⋅ xn und r = xg − 1 2. Manche Analysenmethoden liefern die Logarithmen der gesuchten Gehalte (z.B. Spektralanalyse). 1 n lg x g = ∑ lg x i = n i=1 lg x x g = 10 lg x 3. Wenn sich eine Anfangsmenge A in einer Zeiteinheit um eine konstante Zuwachsrate r erhöht, dann erhält man nach n Zeiteinheiten die Endmenge E: E = A(1+r)n xg = n E A und r = xg − 1 Bsp.: In einer best. Kultur erhöhte sich in 3 Tagen die Zahl der Bakterien pro Einheit von 100 auf 500. Wie groß ist die durchschnittliche tägliche Zunahme in [%]? Lösung: Bsp.: Bei 12 Milchproben wurden folgende Keimzahlen in [103] gemessen: 5150 26900 285 265 4750 60900 1410 3950 2150 8250 30500 295 Wie groß ist die mittlere Keimzahl? Lösung: Bsp.: In einer best. Kultur erhöhte sich in 3 Tagen die Zahl der Bakterien pro Einheit von 100 auf 500. Wie groß ist die durchschnittliche tägliche Zunahme in [%]? Lösung: r = x g − 1 = n E A − 1 = 0,71 = 71 % Bsp.: Bei 12 Milchproben wurden folgende Keimzahlen in [103] gemessen: 5150 26900 285 265 4750 60900 1410 3950 2150 8250 30500 295 Wie groß ist die mittlere Keimzahl? Lösung: Da die Werte über mehrere Zehnerpotenzen schwanken, wird das geom. Mittel bestimmt. x g = 10 = 3.433.998 (Im Vergleich: x = 12.067.083 ) lg x = 10 6,5358 2. Weitere Lagemaße: ● α - Quantil Wir betrachten die Variationsreihe x (1) , ... ,x (n) . Dann sind α % der Merkmalswerte ≤ und (1- α) % der Merkmalswerte ≥ dem α - Quantil. x(k+1) ;k = int(n ⋅ α), falls n ⋅ α keine ~ xα = x(k ) + x(k+1) ;k = n ⋅ α, falls n ⋅ α 2 g.Z. g.Z. (int = ganzer Teil; g.Z.= ganze Zahl) Wenn 0 ,5 α = 0 , 25 0 , 75 ⇒ Median ⇒ unteres Quartil ⇒ oberes Quartil 1.4.2. Streuungsmaße - Maße, die die Abweichung der Beobachtungswerte vom Zentrum einer Häufigkeitsverteilung beschreiben, heißen Streuungs- oder Dispersionsmaße. - Kennt man Lage- und Streuungsmaße, hat man schon eine recht gute Vorstellung von der Häufigkeitsverteilung, ohne diese explizit zu kennen. ● Spannweite (Range, Variationsbreite) Sie ist das einfachste Streuungsmaß und gibt den Streubereich einer HV an, d.h. den Bereich, in dem alle Merkmalswerte liegen. Sei x(1), ... ,x(n) eine Variationsreihe, dann gilt: R = x(n) - x(1) . Vorteil: - Einfach zu bestimmendes Streuungsmaß, einfach interpretierbar Nachteile: - R ist nicht robust gegenüber Ausreißern - R besitzt keine guten stat. Schätzeigenschaften, da außer den extremen Merkmalswerten alle anderen Werte unberücksichtigt bleiben. ● Quartilsabstand (Interquartile range) - Der Quartilsabstand gibt den Bereich zwischen oberem und unterem Quartil einer Messreihe an. - Er enthält 50 % aller Merkmalswerte. I = ~ x 0 ,75 − ~ x 0 , 25 Vorteile: - I ist robust gegenüber Ausreißern - I ist anschaulich und besitzt bessere statistische Schätzeigenschaften als die Spannweite Nachteil: - nicht alle Informationen der Stichprobe gehen in die Berechnung ein ● Mittlere absolute Abweichung vom Median Man wählt hier als Bezugsgröße für die Abweichung der Merkmalswerte vom Zentrum der Häufigkeitsverteilung den Median. 1 n d = ∑ xi − ~ x 0 ,5 n i =1 Vorteile: - d ist robust gegenüber Ausreißern - d ist gut geeignet bei schiefen Häufigkeitsverteilungen Nachteil: - bei Normalverteilung ist die empir. Varianz das bessere Schätzmaß ● Median der absoluten Abweichungen vom Median y 0 ,5 x 0 ,5 ) = ~ MAD = med ( x i − ~ x 0 ,5 yi = x i − ~ Vor- und Nachteile: analog wie mittlere abs. Abweichung vom Median ● Stichprobenvarianz und Standardabweichung - Wir betrachten nun als Bezugsgröße für das Zentrum der HV das arithmetische Mittel. - Dann ist die Stichprobenvarianz die durchschnittliche quadratische Abweichung der Messwerte vom arithmetischen Mittelwert. - Dabei wird jedoch durch den Faktor (n-1), d.h. die Anzahl der voneinander unabhängigen Abweichungen, genannt Freiheitsgrad, dividiert. - Der Stichprobenumfang n sollte mindestens 6 betragen! n n 1 1 2 2 2 2 ∑ xi − n ⋅ x s = ( xi − x ) = ∑ n − 1 i=1 n − 1 i=1 - Als Standardabweichung s bezeichnet man: s= 1 n 2 ( x − x ) = ∑ i n − 1 i=1 n 1 2 (( ∑ x i ) − n x 2 ) n − 1 i=1 - Der Standardfehler des arithm. Mittelwertes bezieht sich auf den Stichprobenumfang: s sx = n Vorteile: - Die Varianz s2 hat die besten Schätzeigenschaften bei Normalverteilung - Die Standardabweichung s hat die gleiche Dimension wie die Messwerte und der arithm. Mittelwert, man kann daher Intervalle der Form x±s bzw. x ± 3 ⋅ s angeben. Nachteil: - s2 ist nicht robust gegenüber Ausreißern - Variationskoeffizient Der Variationskoeffizient ist ein von x bereinigtes Streuungs- maß, das das Verhältnis von s und x misst. s v= ⋅ [100 %] I xI Vorteil: - v ist gut geeignet zum Vergleich von Streuungen von Beobachtungsreihen mit unterschiedlichem Mittelwert Grafische Darstellung von Lage- und Streuungsmaßen: 1. Box- und Whisker Plot Enzymaktivitäten von 8 Mutanten Vanadiumgehalt von Weinen Multipler Box- Whisker Plot für Vanadium Box & Whisker Plot (Enzymaktivitäten) 3,0 75 2,5 2,0 65 1,5 60 1,0 55 0,5 20 1 2 3 4 5 Mutanten 6 7 8 Median 25%-75% Min-Max Weisswein Rotwein Land So uth Africa 25 Ro mania 30 Hu ngary -1,5 35 Czech Republic -1,0 So uth Africa 40 -0,5 Ro mania 45 0,0 Hu ngary 50 Czech Republic Vanad ium Enzymkonzentrationen 70 Median 25%-75% Non-Outlier Range Grafische Darstellung von Lage- und Streuungsmaßen: 2. Mittelwertplots Enzymaktivitäten von 8 Mutanten Mittelwertplot Mittelwertplot (Enzymaktivitäten von Mutanten) (Enzymaktivitäten) 75 70 70 65 Enzymkonzentrationen Enzymkonzentrationen 65 60 55 50 45 40 35 60 55 50 45 40 35 30 30 25 20 1 2 3 4 5 Mutanten 6 7 8 arithm . Mittelwert MW + - 95%-iges Konfidenzintervall Extrem werte 25 1 2 3 4 5 Mutanten 6 7 8 arithm . MW Mean±0,95*SD Bsp.1: 40 Kolonien von Mikroorganismen Mittelwertmaße: Merkmal X: Durchmesser (metrisch) Stichprobe Verteilungsform Alle Kolonien (40) Gelbe Kolonien (13) Weißliche Kolonien (14) SonstigeKolonien (13) Arithm. MW Median Vergleich symmetrisch 5,9 6,0 ≈ rechtssteil 7,1 7,7 < symmetrisch 6,0 6,0 ≈ linkssteil 4,5 4,2 > Merkmal Y: Antibiotikaresistenz (ordinal) Median: ~ x 0,5 = 2 Modalwert: D = 1 (sensitiv) (13 · „1“, 10 · „2“, 8 · „3“, 5 · „4“, 4 · „5“ ) (sehr sensitiv) Merkmal Z: Farbe (nominal) Modalwert: D = 2 (weißlich ist die am häufigsten auftretende Farbe) Streuungsmaße: Merkmal X: Durchmesser Spannweite Varianz Stand. abw. Quartilsabst. Var. koeff. Alle Kolonien (40) 11,7 8,71 2,95 4,3 0,50 Gelbe Kolonien (13) 11,4 8,77 2,96 3,6 0,41 Weißliche Kolonien (14) 8,0 7,50 2,74 3,8 0,45 Sonstige Kolonien (13) 9,9 7,62 2,76 3,4 0,61 Stichprobe Box-and-Whisker Plot 12 12 10 10 Durchmesser Durchmesser Box-and-Whisker Plot 8 6 4 2 0 8 6 4 2 0 gelb sonstige Farbgruppe weißlich braunfarblosgelb grünorangerosaweißlich Farbe 1.4.3. Schiefe und Exzess 1. Schiefe - Wenn der Median und der Modalwert vom arithmetischen Mittel abweichen, bezeichnet man eine Verteilung als schief. - Man charakterisiert schiefe Verteilungen außerdem durch die Schiefe g1 als Maß für die Schiefheit und ihre Richtung. - Echt schiefe Verteilungen liegen vor, wenn bei Vorliegen einer großen Anzahl von Beobachtungswerten und der Anwendung aller möglichen Transformation der Daten die Schiefheit der Verteilung bestehen bleibt. - Keine echte Schiefe liegt vor, wenn man schiefe Verteilungen durch Transformationen (z.B. Logarithmieren) in symmetrische überführen kann. Bsp.: Auftreten log. Verteilungen bei: • Analyse sehr niedriger Gehalte (z.B. Spurenanalyse) • Merkmalen mit sehr großer Spannweite (mehrere Zehnerpotenzen) • sehr großem Zufallsfehler (z.B. halbquantitative Spektralanalyse) g1 = 1 n 3 ( x − x ) ∑ i n i=1 1 n ( ∑ ( x i − x ) 2 )3 n i=1 1 n xi − x = ∑ n i=1 s Eine HV ist symmetrisch, wenn 3 x=~ x 0,5 = x mod Eine HV ist linksschief oder rechtssteil, wenn und g1 = 0 x<~ x 0,5 < x mod und g1 < 0 ~ Eine HV ist rechtsschief oder linkssteil, wenn x > x 0,5 > x mod und g1 > 0 2. Exzeß und Kurtosis - Mängel in den gewählten Versuchsbedingungen können zu einer Überhöhung (Streckung) oder Unterhöhung (Stauchung) der Häufigkeitsverteilung führen. Derartig verzerrte Verteilungen werden durch den Exzeß g2 charakterisiert. - Der Exzeß gibt an, ob das absolute Maximum der Häufigkeitsverteilung (bei annähernd gleicher Varianz) größer oder kleiner dem Maximum der Normalverteilungsdichte ist. 1 n 4 ( x − x ) 4 ∑ i n − 1 x x i n i=1 g2 = − 3 = − 3 = g 2 ' −3 ∑ 2 n i=1 s 1 n 2 n ∑ (xi − x) i=1 g2‘ heißt Kurtosis. Wenn g2 = 0 ⇒ Häufigkeitsverteilung entspricht der NV Wenn g2 < 0 ⇒ abs. Häufigkeitsmaximum < Maximum der NV- Dichte (HV ist flachgipfliger), d.h. die Anzahl „größerer“ Abweichungen von x ist geringer als bei der NV bei gleicher Varianz. Wenn g2 > 0 ⇒ abs. Häufigkeitsmaximum > Maximum der NV- Dichte (HV ist steilgipfliger), d.h. die Anzahl „größerer“ Abweichungen von x ist größer als bei der NV bei gleicher Varianz. Als k- tes Moment bezeichnet man: und als k-tes zentriertes Moment: 1 n n ∑ xi k i=1 1 n k ( x − x ) ∑ i n i =1 Bem.: Damit stellen der arithm. Mittelwert das 1. Moment und die empirische Varianz das 2. zentrierte Moment dar, während Schiefe und Exzeß auf dem 3. bzw. 4. zentrierten Moment basieren. 1.5. Mehrdimensionale Merkmale - Bei vielen praktischen Problemen wirken Merkmale nicht nur einzeln, sondern auch im Komplex. Es interessiert dann der Zusammenhang zwischen zwei oder mehreren Merkmalen. - Wir bezeichnen einen Komplex von Merkmalen auch als mehrdimensionales Merkmal (od. Merkmalsvektor) und schreiben: (X1,...,Xn), bzw. (X,Y) bei einem zweidimensionalen Merkmal. Beispiele: 1. X- Lagerzeit von Zuckerrüben Y- Saccharosegehalt von Zuckerrüben 2. X- Körpermasse von Schweinen Y- Körpergröße von Schweinen (X- deterministische d.h. einstellbare Einflussgröße, Y- zufällige Zielgröße) (X und Y - zufällige Größen, jede kann als Einfluss- bzw. Zielgröße betrachtet werden) 3. Prozess des Nass-Salzens von Hartkäse (X1,X2,X3 - determ. X1- Natriumchloridgehalt im Salzbad Einflussgrößen, X2- Temperatur des Salzbades Y1,Y2 - zufällige X3- Salzdauer Zielgrößen) Y1- Masseausbeute des Käses nach dem Salzen Y2- Sensorischer Qualitätsparameter WICHTIG: Erfassung aller für den zu untersuchenden Sachverhalt (Produkt, Prozess) wesentlichen Merkmale! 5 Fragestellungen sind von Interesse: 1. Welche Art von Merkmalen werden betrachtet? (Klassifizierung, Einflussgröße einstellbar oder zufällig?) 2. Wie lassen sich zweidimensionale Merkmale grafisch darstellen? (Punktwolke, Streudiagramm, XY- Scatterplot) 3. Wie sieht die Häufigkeitsverteilung (tabellarisch und grafisch) eines zweidimensionalen Merkmals aus? (2-dim. Häufigk.tabelle, Kontingenztafel, 3-dim. Histogramm) 4. Wie stark ist der Zusammenhang zwischen 2 Merkmalen X und Y und welche Richtung hat er? (Assoziations-, Kontingenz-, Maßkorrelations- oder Rangkorrelationskoeffizient) 5. In welcher Form lässt sich der Zusammenhang darstellen? (Kontingenztafel-, Varianz- u. Regressionsanalyse) zu 2.) Streudiagramm (XY- Scatterplot) y annähernd linearer Zusammenhang x y y Hyperbel Rezipr. Transf. x Bsp.: Fallhöhe und Schwingungsfrequenz von Wasserfällen 1/x zu 3.) Häufigkeitsverteilung Zur Darstellung von Häufigkeitsverteilungen dienen Häufigkeitstabellen (Vierfeldertafeln, Kontingenztafeln) und grafische Darstellungen durch zweidimensionale Histogramme oder Polygone. 1. Fall: - Sei (X,Y) ein nominalskaliertes 2- dim. Merkmal mit je 2 Ausprägungen (aj,bk) j,k=1,2 (z.B.: ja/ nein, vorhanden, nicht vorhanden) Vierfeldertafel (2 x 2): Y Summe vorhanden nicht vorhanden X vorhanden nicht vorh. f11 f12 f11+f12 f21 f22 f21+f22 Summe f11+f21 f12+f22 n Bem.: - Die absoluten Häufigkeiten fjk (j,k=1,2) im Innern der Tafel stellen die 2- dim. absolute Häufigkeitsverteilung dar. (analog: die relativen Häufigkeiten hjk = fjk/n stellen die 2dim. relative Häufigkeitsverteilung dar). - Die Randsummenhäufigkeiten (Zeilen- und Spaltensummen) stellen die entsprechenden 1- dim. Häufigkeitsverteilungen von X bzw. Y dar. - Aus der zweidimensionalen Häufigkeitsverteilung kann man auf die eindimensionalen Häufigkeitsverteilungen schließen, es gilt aber nicht die Umkehrung! Bsp.: Untersuchung von 227 Ratten auf Milbenbefall der Spezies A und B Vierfeldertafel (2x2): Spezies A Summe vorhanden nicht vorhanden Spezies vorhanden B nicht vorhanden 44 23 67 75 85 160 Summe 119 108 227 - Die Randsummen geben Aufschluss darüber, wie viele der Ratten eine der beiden Milben beherbergen bzw. nicht beherbergen, unabhängig davon, ob die andere Spezies vorhanden ist oder nicht, d.h. sie geben die eindimensionalen Häufigkeitsverteilungen an. Ergebnis: - Die Chance, eine A- Milbe anzutreffen, ist bei den Ratten, bei denen schon B- Milben festgestellt wurden, größer als bei allen Ratten zusammengenommen, denn: nur auf etwa der Hälfte aller 227 Ratten kamen A- Milben vor (Randsumme 119), aber in der Teilmenge der 67 Ratten, die B- Milben beherbergen, befinden sich 44 Träger von A- Milben. Damit ist der Anteil der Träger von A- Milben unter den Trägern von B- Milben größer als in der Gesamtprobe! Umgekehrt gilt dasselbe. - Zwischen dem A- Milbenbefall und dem B- Milbenbefall scheint also ein statistischer Zusammenhang zu bestehen. 2. Fall: - Sei (X,Y) ein ordinalskaliertes 2- dim. Merkmal, bei dem jede Komponente auf einer Rangskala gemessen wird, d.h. als Merkmalsausprägung eine Rangzahl hat. - Vorliegen einer Tabelle der Rangzahlen (keine Häufigkeitstabelle!) Tabelle der Rangzahlen: i R(xi) R(yi) di di2 1 R(x1) R(y1) d1 d12 ... ... ... ... ... n R(xn) R(yn) dn dn2 - dabei ist di = R(xi) - R(yi) die Differenz der Rangzahlen der i- ten Komponente von X und Y Bsp.: Weinverkostung Bei einer Weinverkostung sollen 8 Weinsorten hinsichtlich ihres Aromas in eine Rangordnung gebracht werden. 2 Prüfer sollen unabhängig voneinander die Sorten begutachten, wobei die Sorte mit dem schwächsten Aroma die Rangzahl 1 und die Sorte mit dem stärksten Aroma die Rangzahl 8 erhalten soll. Tabelle der Rangzahlen: i Sorte Prüfer 1 R(xi) Prüfer 2 R(yi) di 1 A 6 5 1 2 B 3 2 1 3 C 8 8 0 4 D 2 4 -2 5 E 1 1 0 6 F 7 6 1 7 G 4 3 1 8 H 5 7 -2 Ergebnis: - Nur bei 2 Sorten gab es Übereinstimmung in der Bewertung, bei allen übrigen Sorten gab es Differenzen, die aber nicht mehr als 2 Rangzahlen betragen. - Man kann einen statistischen Zusammenhang vermuten, denn je höher im allgemeinen die Rangzahl des 1. Prüfers ist, desto höher ist im allgemeinen auch die Rangzahl des 2. Prüfers. - Die Weinsorten scheinen also Aromaunterschiede aufzuweisen und beide Prüfer waren in der Lage, diese zu erkennen. 3. Fall: - Sei (X,Y) ein nominal- oder ordinalskaliertes 2- dim. Merkmal, deren Ausprägungen (aj,bk) mit den absoluten Häufigkeiten fjk und den relativen Häufigkeiten hjk für j=1,...,l und k=1,...,m auftreten. Kontingenztafel (l x m): Y X Summe b1 b2 a1 f11 f12 ... f1m f1. a2 f21 f22 ... f2m f2. ... ... ... ... ... al fl1 fl2 f.1 f.2 Summe ... ... bm flm fl . f.m n Bsp.: Untersuchung der Noten von 32 Studenten in (2 ordinalskalierte Merkmale) Mathematik und Statistik Kontingenztafel (5 x 5): Note in Mathematik Note in Statistik 1 2 3 4 5 Summe 1 1 1 0 0 0 2 2 0 2 3 0 0 5 3 0 2 10 4 0 16 4 0 0 2 4 0 6 5 0 0 1 1 1 3 Summe 1 5 16 9 1 32 Ergebnis: - Je besser im allgemeinen die Note in Mathematik ist, desto besser ist im allgemeinen auch die Note in Statistik und umgekehrt. - Man kann also einen statistischen Zusammenhang zwischen den Noten vermuten, den man daran erkennt, dass die in der Nähe der Diagonalen gelegenen Felder der Kontingenztafel die höchsten absoluten Häufigkeiten aufweisen. 4. Fall: - Sei (X,Y) ein metrisch skaliertes 2- dim. Merkmal, für deren Komponenten X und Y eine Klasseneinteilung vorliegt Häufigkeitstabelle (analog Kontingenztafel!) (l x m): Klassengrenzen (y0;y1] Y (y1;y2] ... (ym-1;ym] Summe f11 f12 ... f1m f1. f21 f22 ... f2m f2. ... ... ... ... ... (xl-1;xl] fl1 fl2 f.1 f.2 (x0;x1] X (x1;x2] Summe ... flm fl⋅ f.m n Bsp.: Untersuchung des Asche- und Kaliumgehaltes von Weinen Bsp.: Weindaten (3- dim.Histogramm) 2- dim. Histogramm (Weine aus Ungarn und Tschechien) 2- dim. Histogramm (Weine aus Ungarn und Tschechien) zu 4.) Zusammenhangsmaße Art der Merkmale Häufigkeitsvert. Zusammenhangsmaß nominalskaliert Vierfeldertafel Assoziationskoeff. von Cramér, Kontingenzkoeff. von Pearson nominal- oder (und) ordinalskaliert Kontingenztafel Assoziationskoeff. von Cramér und Kontingenzkoeff. von Pearson ordinalskaliert (Tab. von Rangzahlen) Rangkorrelationskoeff. von Spearman metrisch skaliert 2- dim. Häufigkeitstabelle (Kontingenztafel) Vor.: X,Y zufällige Merkmale Lin. Abhängigkeit → Maßkorrelationskoeff. von Bravais/ Pearson Mon. Abhängigkeit → Rangkorrelationskoeff. von Spearman 1. Kontingenzkoeffizient C von Pearson: - Sei (X,Y) ein 2- dim. , nominal- oder ordinalskaliertes diskretes Merkmal, das in den Ausprägungen (aj, bk) für j = 1,Jl und k = 1,J,m mit den abs. Häufigkeiten fjk auftritt. - Der Kontingenzkoeffizient ist ein Maß für die Stärke des stochastischen Zusammenhanges zwischen 2 diskreten Merkmalen. χ2 C= 2 χ +n wobei f j⋅ ⋅ f⋅k f − jk l m n 2 χ = ∑∑ f j⋅ ⋅ f⋅k j =1 k =1 n 2 Bem.: - Der Kontingenzkoeffizient C nimmt Werte im Intervall vollst. Zusammenhang kein Zusammenhang 0≤C≤ min (l, m ) − 1 min (l, m ) an. - Der maximale Wert von C (d.h. vollständige Kontingenz) ist von der Tafelgröße (Zeilen- bzw. Spaltenzahl l und m) abhängig und nähert sich für große l bzw. m gegen 1. ⇒ besser: korrigierter Kontingenzkoeffizient von Pearson Ccorr - Für die Vierfeldertafel gilt: 0 ≤ C ≤ 0,707 Bem.: - Der korrigierte Kontingenzkoeffizient Ccorr wird berechnet nach: C corr = χ2 min (l, m ) ⋅ 2 χ +n min (l, m ) − 1 und es gilt nun: 0 ≤ Ccorr ≤ 1 , d.h. bei vollständiger Kontingenz wird immer der Wert 1 angenommen, unabhängig von der Größe der Kontingenztafel. 2. Assoziationskoeffizient von Cramér (Cramér‘s V): - Sei (X,Y) ein 2- dim. , nominal- oder ordinalskaliertes diskretes Merkmal, das in den Ausprägungen (aj, bk) für j = 1,Jl und k = 1,J,m mit den abs. Häufigkeiten fjk auftritt. - Der Assoziationskoeffizient ist ebenfalls ein Maß für die Stärke des stochastischen Zusammenhanges zwischen 2 diskreten Merkmalen. vollst. Zusammenhang kein Zusammenhang V= wobei χ2 n (min (l, m )) − 1 mit f j⋅ ⋅ f⋅k f − jk l m n 2 χ = ∑∑ f j⋅ ⋅ f⋅k j =1 k =1 n 2 0≤V≤1 3. Rangkorrelationskoeffizient rs von SPEARMAN: - Sei (X,Y) ein 2- dim. , ordinal oder metrisch skaliertes Merkmal, bei dem jede Komponente Merkmalswerte mit einer eindeutigen Rangfolge hat (rangskaliert). - Wir beobachten an den n Beobachtungseinheiten die Merkmalswerte (xi,yi) für i=1,...,n - Wir ordnen nun jedem Beobachtungswert xi bzw. yi für i=1,...,n eine Rangzahl R(xi) bzw. R(yi) zu, wobei gilt: R(x(i)) = i für i=1,...,n und x(1) ≤ x(2) ≤ ... ≤ x(n) - Tritt eine Ausprägung mehrfach auf („Bindungen“), so ordnet man diesen gleichen Werten als Rang das arithmetische Mittel der Ränge zu, die sie einnehmen. - Bsp.: x(1)=2; x(2)=4; x(3) =4; x(4) =6; x(5) =9 → R(x(1))=1; R(x(2))=2,5; R(x(3))=2,5; R(x(4))=4; R(x(5))=5 - Der Rangkorrelationskoeffizient ist ein Maß für die Stärke und Richtung eines monotonen stochastischen Zusammenhanges zwischen 2 rangskalierten Merkmalen. Formel für den Rangkorrelationskoeffizienten rs: ∑ (R (x ) − R (x ))⋅ (R (y ) − R (y )) n i rs = i i=1 (∑ (R (x ) − R (x )) )⋅ (∑ (R (y ) − R (y )) ) 2 2 i rs = i n ∑ R (x i ) ⋅ R (y i ) − n ⋅ R ( x ) ⋅ R ( y ) i =1 ((∑ R (x ) ) − n ⋅ R (x ) )⋅ ((∑ R (y ) ) − n ⋅ R (y ) ) 2 i 2 2 i 2 Wenn keine „Bindungen“ vorliegen, d.h. wenn xi ≠ xj für i ≠ j und yi ≠ yj für i ≠ j gilt: 6 ⋅ rs = 1 − n ∑ ( i= 1 2 n ⋅ n di 2 − 1 ) , wobei d i = R (x i ) − R (y i ) i=1,J,n Bem.: Für den Rangkorrelationskoeffizienten gilt: ● Wenn rs < 0 → neg. Rangkorrelation Wenn rs > 0 → pos. Rangkorrelation ● -1 ≤ rs ≤ +1 ● |rs| = 1 , wenn X und Y monoton zusammenhängen rs = 1 , wenn die x- Ränge mit den y- Rängen übereinstimmen rs = -1 , wenn die x- und y- Ränge genau entgegengesetzte Rangfolgen ergeben. Bsp.: Aromaprüfung von 8 Weinsorten durch 2 Prüfer Der Rangkorrelationskoeffizient von rs = 0,86 deutet auf einen recht starken, monoton wachsenden stochastischen Zusammenhang hin. 4. Maßkorrelationskoeffizient rXY von BRAVAIS- PEARSON: - Sei (X,Y) ein metrisch skaliertes 2- dim. Merkmal, deren Merkmalswerte (xi,yi) , i=1,...,n, einen näherungsweise linearen Zusammenhang zwischen X und Y vermuten lassen. - Wir beobachten an den n Beobachtungseinheiten die Merkmalswerte (xi,yi) für i=1,...,n - Der Maßkorrelationskoeffizient ist ein Maß für die Stärke und Richtung eines linearen stochast. Zusammenhanges zwischen 2 metrisch skalierten Merkmalen. Formel für den Maßkorrelationskoeffizienten rXY: ( n − 1) rXY = n ∑ (x i − x ) ⋅ (y i − y ) i =1 (∑ (x ( n − 1) rXY = i ) (∑ (y − x) ⋅ 2 − y) 2 i n ∑ x i ⋅ y i − n ⋅ x ⋅ y i=1 ((∑ x ) − n ⋅ x )⋅ ((∑ y ) − n ⋅ y ) 2 i 2 2 i 2 ) Bem.: Für den Maßkorrelationskoeffizienten rXY gilt: ● Wenn rXY < 0 → negative Korrelation Wenn rXY > 0 → positive Korrelation ● -1 ≤ rXY ≤ +1 ● |rXY| = 1 , wenn X und Y linear zusammenhängen ● Wenn rXY = 0 → Unkorreliertheit zwischen X und Y Wenn rXY = 0 und (X,Y) 2- dim. normalverteilt → Unabhängigkeit zwischen X und Y ● Der Korrelationskoeffizient ist nicht imstande, nichtlineare Zusammenhänge zwischen Merkmalen zu erkennen. ● Man beachte Schein- und Unsinnkorrelationen! Bem.: ● Merkmale mit sehr schiefen Häufigkeitsverteilungen können mitunter auch einen Korrelationskoeffizienten nahe 0 haben, obwohl ein statistischer Zusammenhang zwischen ihnen besteht. ● B = rXY2 heißt Bestimmtheitsmaß. Es gibt den Anteil der Variation der y- Werte an, der durch den linearen Zusammenhang zwischen X und Y bestimmt wird. ● Bei der Untersuchung von linearen Abhängigkeiten zwischen mehr als 2 Merkmalen gibt es: - partielle Korrelationskoeffizienten, - multiple Korrelationskoeffizienten und - kanonische Korrelationskoeffizienten. Zu 5.) Form der statistischen Abhängigkeit - Sei (X,Y) ein metrisch skaliertes 2- dim. Merkmal mit den Merkmalswerten (xi,yi) für i=1,...,n. - Es interessiert die Form der Abhängigkeit eines Merkmals Y (abhängiges Merkmal, Zielgröße, Regressand) von einem Merkmal X (unabh. Merkmal, Einflussgröße, Regressor). - Alle kontrollierbaren Einflussgrößen werden konstant gehalten. - Wir beschränken uns auf den Fall des Modells I der einfachen linearen Regression (1Einflussgröße, lineare Abhängigkeit). Vor.: ● Y zuf. Merkmal, einstellbares Merkmal ● X zuf. Merkmal, mit kleinem Fehler messbar → RM I zuf. Merkmal → RM II ● Streudiagramm (XY- Scatterplot) → Annahme eines linearen Modells für die Abhängigkeit zwischen X und Y in der Grundgesamtheit: y = β0 + β1 x, genannt lineare Regressionsgleichung. Dann gilt für die zuf. Beobachtungen der Zielgröße: i=1,J,n Yi = β0 + β1 xi + εi Zufallsfehler, wobei εi unabhängig und identisch verteilt mit Eεi =0 und D2εi = σ2 und σ2 unabhängig von den Messpunkten xi Bem.: Wenn εi ~ N(0, σ2) → bei RM I : Yi~ N(β0 + β1 xi, σ2) bzw. Y~ N(β0 + β1 x, σ2) Regressionsanalyse: 1. Schätzung der empirischen linearen Regressionsgleichung (Ausgleichsgerade) nach der Methode der kleinsten Quadrate (MkQ, LS): Zuf. Beobachtungswerte Modellwerte 1 n 1 n 2 2 Q(β0 , β1 ) = ∑ (Yi − (β0 + β1 ⋅ x i )) = ∑ εi → min n i=1 n i=1 Residuen Die Werte von β0 und β1, für die Q(β0, β1) ihr Minimum annimmt, nennt man Kleinste-Quadrate-Schätzer βˆ 0 und βˆ1 . Durch Nullsetzen der partiellen Ableitungen von Q nach β0 und β1 erhält man ein Normalgleichungssystem, das zu lösen ist. Die auf der Basis der konkreten Stichprobe ermittelten Schätzwerte für β0 und β1 bezeichnet man mit b0 und b1. n b1 = ∑ (x i − x ) ⋅ (y i − y ) i =1 n ∑ (x − x) 2 i SPXY = SQ X oder: b 1 = rXY sY sX i=1 und b0 = y − b1 ⋅ x → geschätzte lineare Regressionsgleichung: ŷ (b 0 , b1 ) = b 0 + b 1 ⋅ x Bem.: s XY 1 n 1 (x i − x ) ⋅ (y i − y ) = = ⋅ SP XY ∑ n − 1 i =1 n −1 heißt Kovarianz zwischen X und Y und sX 2 1 n 1 2 (x i − x ) = = ⋅ SQ X ∑ n − 1 i=1 n −1 Varianz von X. 2. Zeichnen der Regressionsgerade ins Streudiagramm: y ŷ = b0 + b1 ⋅ x ŷ i ε̂ yi i b0 0 xi x 3. Güte des Regressionsmodells - Beurteilung der Güte der Modellvorhersage für jeden Messwert mit Hilfe der geschätzten Residuen εˆ i = y i − ŷ i , i=1,J, n - Maß für die Variation der Stichprobenwerte um die geschätzte Regressionsgerade: Restvarianz sR 2 sR 1 n 1 n 1 n 2 2 2 (y i − ŷi ) = (y i − (b0 + b1 ⋅ x i )) = = εˆ i ∑ ∑ ∑ n − 2 i=1 n − 2 i=1 n − 2 i=1 2 1 = ⋅ SQR n−2 geschätzte Residuen Restquadratsumme FG - Streuungszerlegung (Zerlegung der Quadratsummen!): SQ T = SQR + SQM „Gesamtstreuung“ n ∑ (y i=1 „Reststreuung“ n n − y ) = ∑ (y i − ŷ i ) + ∑ (ŷ i − y ) 2 i durch den Modellzusammenhang erklärte „Streuung“ i=1 2 i =1 2 Erklärte Streuung: Darstellung der Variation der y- Werte, die auf den linearen Zusammenhang SQM zwischen X und Y zurückzuführen ist, d.h. sie enthält die Variation der Werte auf der Geraden um den Mittelwert y . Reststreuung: SQR Verbleibender Rest der Variation der yWerte Bem.: ● Liegen alle beobachteten Werte exakt auf einer Geraden, so sind die Residuen 0 und ebenso die Reststreuung. Dann ließe sich die gesamte Variation von Y durch den linearen Modellzusammenhang mit X erklären (funktionaler linearer Zusammenhang). ● Je größer die Reststreuung ist, desto schlechter beschreibt das Modell die Daten. - Als Maßzahl für die Güte der Modellanpassung verwendet man häufig das Bestimmtheitsmaß B. Es gibt den Anteil an der Gesamtstreuung der y- Werte an, der durch die Regression von Y auf X erklärt wird und ist der Quotient aus erklärter und Gesamtstreuung. n SQM B= = SQ T ∑ (ŷi − y ) n 2 i=1 n 2 ( ) y − y ∑ i = 1− i =1 2 ( ) y − ŷ ∑ i i i=1 n 2 ( ) y − y ∑ i i=1 0≤B≤1 kein linearer Zusammenhang B = rXY2 funktionaler linearer Zusammenhang Für Vorhersagen sollte das Bestimmtheitsmaß möglichst ≥ 0,8 sein! Aber: B ist bei RM I vom Versuchsplan abhängig! - Tests zur Prüfung der Modelladäquatheit (F- Test der Varianzanalyse) und zur Prüfung der Modellparameter (t- Tests, Konfidenzintervalle) im Rahmen der schließenden Statistik 4. Residualanalyse - Prüfen der Modellvoraussetzungen über den Zufallsfehler (ε ~ N(0, σ2) und σ2 unabhängig von den Messpunkten xi) - Residualplots εˆ i = y i − ŷ i → normierte Residuen d εˆ i di = s εˆ d Ausreißer d +3 ŷ 0 idealer Verlauf 0 ŷ 0 -3 ungleiche Varianzen ŷ d i > 3 → Ausreißer Bsp.: Weindaten, Abhängigkeit zwischen den seltenen ErdenParametern Lanthanum und Gadolinum XY- Scatterplot (Lanthanum, Gadolinum) y = -0,7128 + ,91690 * x Korrelationskoeffizient: r = 0,98136 1 0 Gadolinum -1 -2 -3 -4 -5 -4 -3 -2 -1 Lanthanum 0 1 2 95% Konfigen zgrenzen Normierte Residuen 1,2 1,0 0,8 Normierte Residuen 0,6 0,4 0,2 0,0 -0,2 -0,4 -0,6 -0,8 -1,0 -1,2 -1,4 -5 -4 -3 -2 -1 Geschätzte Werte für Gadolinum 0 1 Geschätzte gegen beobachtete Werte (Gadolinum) 1 Beobachtete Werte 0 -1 -2 -3 -4 -5 -5 -4 -3 -2 Geschätzte Werte -1 0 1 95% Konfidenzgrenzen Bsp.: Weindaten (Matrix Plot) Matrix Plot (Histogramm und Scatterplot) für Alkalinität, Asche und Kalium (transformiert) Alkalinität As che Kalium 2. Wahrscheinlichkeitsrechnung Die Wahrscheinlichkeitsrechnung liefert mathematische Modelle für Zufallserscheinungen. /11/ Stahel, W. (1995) Es werden Experimente betrachtet, deren Ergebnisse einen zufälligen Ausgang haben, so genannte zufällige Versuche. 2.1. Zufälliges Ereignis, Wahrscheinlichkeit, Zufallsgröße Begriffe und Definitionen: Def.: Ein zufälliges Ereignis ist ein Ereignis, das bei einem Versuch, bei dem bestimmte Bedingungen eingehalten werden, eintreten kann, aber nicht notwendig eintreten muss. Es ist das Ergebnis eines zufälligen Versuches. Bez.: A,B,C,...,A1,B1,... Bsp. 1: Würfeln mit einem idealen Würfel und Beobachtung der geworfenen Augenzahl (zuf. Versuch) • zufällige Ereignisse sind: • Ai := "Augenzahl i wird gewürfelt, i=1,...,6 ", • aber auch: A7:= "Eine gerade Augenzahl wird gewürfelt" Begriffe: - Elementarereignis: Elementarereignisse lassen sich nicht weiter in zufällige Ereignisse zerlegen. Bez.: ei ; i=1,...,n Bsp.1: ei := "Würfeln der Augenzahl i, i=1,...,6 " - Zusammengesetzte Ereignisse: lassen sich weiter in zufällige Ereignisse zerlegen. Bez.: Ai, Bi,... ; i=1,...,n Bsp.1: A7 := "Würfeln einer geraden Zahl" = {e2,e4,e6} Def.: Die Menge E (oder: Ω) heißt Menge der zu einem zufälligen Versuch gehörenden Elementarereignisse, wenn jedem Versuchsausgang genau ein Element dieser Menge E entspricht. Bsp.1: E = {e1,...,e6} ⇒ Schlussfolgerung: Methoden der Mengenlehre (Vereinigung, Durchschnitt, Differenz) sind anwendbar! Def.: Ein zufälliges Ereignis A ist eine Teilmenge der Menge E der Elementarereignisse, d.h. A ⊆ E . Grenzfälle von zufälligen Ereignissen: Def.: Sichere Ereignisse sind dadurch gekennzeichnet, dass sie immer eintreten. Sie bilden die Teilmenge von E, die alle Elementarereignisse enthält. Bsp.1: E: = "Es wird eine Zahl zwischen 1 und 6 gewürfelt" = {e1,...,e6} Def.: Unmögliche Ereignisse sind dadurch charakterisiert, dass sie nicht eintreten können. Sie sind die Teilmenge, die kein Elementarereignis enthält. Bsp.1: Ø := "Es wird eine '0' gewürfelt!" Relationen und Operationen zwischen zufälligen Ereignissen: Def.: Ein zufälliges Ereignis A ist genau dann in dem zufälligen Ereignis B enthalten, wenn alle Elementarereignisse, die zu A gehören, auch zu B gehören. Bez.: A ⊆ B Bsp.1: Würfeln mit 1 Würfel: A 2 ⊆ A 7 Bem.: Für ein beliebiges zufälliges Ereignis A gilt immer: Ø ⊆ A ⊆E Def.: Zwei zuf. Ereignisse A und B heißen äquivalent (gleich), wenn sowohl das Ereignis A in B enthalten ist ( A ⊆ B ), als auch das Ereignis B in A enthalten ist (B ⊆ A ) . Bez.: A = B Def.: Sind A und B zuf. Ereignisse, so verstehen wir unter der Summe von A und B (Vereinigung) das Ereignis, das genau die Elementarereignisse enthält, die zu A oder zu B gehören. E Bez.: A ∪B Bsp.1: Würfeln A B A1 ∪ A 7 = {e1, e2 , e 4 , e6 } Def.: Sind A und B zuf. Ereignisse, so verstehen wir unter dem Produkt von A und B (Durchschnitt) das Ereignis, das genau die Elementarereignisse enthält, die zu A und zu B gehören. E Bez.: A ∩B Bsp.1: Würfeln A A1 ∩ A 7 = ∅ B Def.: Zwei zufällige Ereignisse A und B heißen miteinander unvereinbar (unverträglich), wenn sie keine gemeinsamen Elementarereignisse besitzen. Bez.: A ∩ B = ∅ Bsp.1: A1 ∩ A7= ∅ Def.: Ist A ein zufälliges Ereignis, so nennen wir das Ereignis, das genau die Elementarereignisse enthält, die nicht zu A gehören, das zu A komplementäre Ereignis. Bez.: A Bsp.1: A 7 = {1,3,5} Def.: Sind A, B zufällige Ereignisse, so verstehen wir unter der Differenz von A und B das Ereignis, das genau die Elementarereignisse enthält, die zu A, aber nicht zu B gehören. (d.h. wenn A, aber nicht B eintritt!) Bez.: A \ B Bsp.1: Würfeln A7 \ A2 = {4, 6} Es gelten folgende Aussagen: • A =E\A • A ∩B = A \ B E A B Wahrscheinlichkeit: Die Wahrscheinlichkeit ist das Maß für den Grad der Gewissheit des Eintretens eines zufälligen Ereignisses A 1. Klassische Definition der Wahrscheinlichkeit (Laplace): Ausgangspunkt: • zufälliger Versuch mit endlich vielen Versuchsausgängen n, d.h. E = {e1, ..., en} • jeder Versuchsausgang sei gleichmöglich (Symmetrie) • N(A) - Anzahl der Versuchausgänge, bei denen A eintritt • n = N(E) - Gesamtzahl der Versuchsausgänge Def.: Das Verhältnis von N(A) und n heißt Wahrscheinlichkeit des zuf. Ereignisses A und wird mit P(A) bezeichnet. N( A ) P( A ) = n Satz: Eigenschaften der klassische Wahrscheinlichkeit: 1. 0 ≤ P(A) ≤ 1 2. P(E) = 1 und P(∅) = 0 3. Sind A und B unvereinbare zuf. Ereignisse, d.h. A ∩ B = ∅, so gilt: P(A ∪ B) = P(A) + P(B) (Additionsregel für unvereinbare zuf. Ereignisse) 4. Sind A, B beliebige zuf. Ereignisse, so gilt: P(A ∪ B) = P(A) + P(B) – P(A ∩ B) (allg. Additionsregel für bel. zuf. Ereignisse) 5. P( A) = 1 – P(A) 6. Sind A und B unabhängige zuf. Ereignisse, so gilt: P(A ∩ B) = P(A) ⋅ P(B) (Multiplikationsregel für unabhängige zuf. Ereignisse) Bsp.: In einem Bierkasten befinden sich 25 Flaschen Bier, von diesen sind 2 nicht qualitätsgerecht. Der zufällige Versuch bestehe in der Entnahme einer Flasche, wobei jede Flasche die gleiche Chance habe, entnommen zu werden. Frage: Wie groß ist die Wahrscheinlichkeit, dass eine zufällig entnommene Flasche qualitätsgerecht ist (Ereignis A)? Lösung: ● Anzahl der möglichen Versuchsausgänge n = 25 ● Anzahl der für A „günstigen“ Versuchsausgänge N(A) = 25 – 2 = 23 N( A ) 23 = = 0,92 Damit ergibt sich: P( A ) = n 25 2. Statistische Definition der Wahrscheinlichkeit: Wir betrachten das Bsp.1: Würfeln mit 1 Würfel Sei A das zuf. Ereignis, das im Ergebnis des zuf. Versuches eine „6“ gewürfelt wird. Der Versuch wird n- mal wiederholt (n = 50, 100, ...). Dabei trat das Ereignis A N(A)- mal (z.B. N(A) = 7, 18, ...) auf, d.h. N(A) ist die absolute Häufigkeit des Auftretens von A. Def.: Der Quotient aus der absoluten Häufigkeit und der Gesamtzahl der Versuche heißt relative Häufigkeit N( A ) hn ( A ) = n und hn(A) konvergiert stochastisch gegen P(A). hn(A) ist also ein Schätzwert der Wahrscheinlichkeit P(A). Anzahl der Würfe n Anzahl des Auftretens des "Wappen" N(A) relative Häufigkeit hn=N(A)/n 4040 2048 0.5069 Pearson 12000 6019 0.5016 Pearson 24000 12012 0.5005 Bsp.: Münzwurf Buffon Stabilität der relativen Häufigkeit hn(A) P(A) 0 n ∞ Zufallsgröße (ZG) Zufällige Ereignisse kann man durch reelle Zahlen ausdrücken: Zufallsgröße X E . ei 0 xi =X(ei) R Def.: Eine Abbildung X heißt Zufallsgröße (ZG), wenn sie ihre Werte mit einer bestimmten Wahrscheinlichkeit annimmt. X ei ∈ E → xi ∈ R X(ei) = xi Beispiele Elementarereignisse Werte der ZG X e1 – “Würfeln einer 1” J e6 – “Würfeln einer 6” → 1 gewürfelte J Augenzahl →6 2. Herstellung e0 – “genau 0 Ausschusserzeugnisse” von e1– “genau 1 Ausschusserzeugnis” Erzeugnissen J en– “genau n Ausschusserzeugnisse” → 0 Anzahl der → 1 AusschussJ erzeug. →n 1. Würfeln mit einem Würfel (Augenzahl) Bez.: Zufallsgrößen bezeichnet man mit: X, Y, Z bzw. Xi, Yi, Zi und ihre Werte (Realisierungen) mit: x, y, z bzw. xi, yi, zi. Weitere Beispiele für Zufallsgrößen sind: ● Länge von Baumwollfasern einer bestimmten Sorte ● Länge und Volumen von Escherichia Coli -Zellen ● Anzahl der Stillstände einer Flaschenreinigungsanlage ● Anzahl nicht qualitätsgerechter Produkte ● Stickstoffmon- und -dioxidgehalt, Kohlenmonoxid- und Ozongehalt, sowie Schwebestaubgehalt in der Luft ● Natrium,- Kalium-, Eisen- und Cadmiumgehalt von Weinen ● Enzymkonzentrationen verschiedener Mutanten der Gattung Aspergillus niger ● Zellzahlen, Mikrokoloniezahlen Wahrscheinlichkeit von zuf. Ereignissen → Wahrscheinlichkeit von Zufallsgrößen Bsp.: Münzwurf e1:= “Wappen“ → P(e1) = 0,5 → P(e2) = 0,5 e2:= “Zahl“ P(e1) = P(X=0) = 0,5 P(e2) = P(X=1) = 0,5 Bsp. 1: Würfeln mit 1 Würfel A:= “Würfeln einer Augenzahl i ≤ 3“ A = {e1, e2, e3} → 3 P( A ) = = 0,5 6 P( A ) = P( X ≤ 3) = 0,5 1 1 1 P( X ≤ 3) = P( X = 1) + P( X = 2) + P( X = 3) = + + = 0,5 6 6 6 Def.: Sei X eine Zufallsgröße und P die Wahrscheinlichkeit Dann heißt die durch FX(x) = P(X ≤ x) definierte Funktion FX Verteilungsfunktion der ZG X. Dann gilt auch: P(X > x) = 1- FX(x) und P(a < X ≤ b) = FX(b) – FX(a) Def. : Eine Zufallsgröße X heißt diskret, wenn sie endlich oder abzählbar unendlich viele Werte annehmen kann. Bsp.: Zellzahlen, Anzahl nicht qualitätsgerechter Produkte Bem.: Man beschreibt eine diskrete ZG X durch die Werte xi, die sie annehmen kann und die Einzelwahrscheinlichkeiten pi = P(X = xi), mit denen sie diese Werte annimmt. ∞ Es gilt: ∑ p i = 1 i =1 Bsp. 1: Würfeln mit 1 Würfel (Gleichverteilung) Verteilungstabelle mit Verteilungsfunktion: xi <1 1 2 3 4 5 pi = P(X = xi) 0 1/6 1/6 1/6 1/6 1/6 1/6 0 FX(xi) 0 1/6 2/6 3/6 4/6 5/6 1 1 FX (x) 6 >6 1 p1=1/6 x 1 2 3 4 5 6 Die Verteilungsfunktion ist: FX ( x i ) = P ( X ≤ x i ) = ∑ P( X = x k xk ≤ xi k ) Def.: Eine Zufallsgröße heißt stetig, wenn sie überabzählbar unendlich viele Werte (d.h. Werte aus einem reellen Zahlenintervall) annehmen kann. Ihre Verteilungsfunktion lässt sich wie folgt darstellen: x P(X ≤ x) = F X ( x ) = ∫f X ( t ) dt ∀x∈R −∞ fX(x) heißt Dichtefunktion von X Bsp.: Eiweiß- und Fettgehalt von Milch, Enzymkonzentration, Cholesteringehalt im Blut Bem.: Für die Dichtefunktion gilt: +∞ ∫f −∞ X ( x ) dx = 1 Dichtefunktion der Normalverteilung 0,4 0,1 Dichte 0,3 Bsp.: Normalverteilung 0,2 X ~ N(0,1) 0,1 0 -5 -3 -1 0 1 3 (Standard-Normalverteilung) 5 x Verteilungsfunktion Verteilungsfunktion der Normalverteilung 1 0,1 0,8 0,6 0,4 0,2 0 -5 -3 -1 0 x 1 3 5 x FX ( x ) = ∫f −∞ X ( t ) dt Bem.: Für eine stetige ZG X gilt: x 1. P( X ≤ x) = FX ( x) = ∫ f(t)dt −∞ x ∫ 2. P( X > x) = 1− FX (x) = 1− f (t)dt −∞ b ∫ 3. P(a < X ≤ b) = FX (b) − FX (a) = f ( x)dx a ∀x mit a < x ≤ b P(a < X ≤ b) ist die Wahrscheinlichkeit dafür, dass eine Realisierung von X in das Intervall (a, b] fällt! 2.2 Parameter von Verteilungen 1. Erwartungswert: Def.: Als Erwartungswert EX einer ZG X bezeichnen wir das Zentrum ihrer Verteilung: ∞ xi ⋅ pi , X diskr. ZG ∑ i =1 EX ∈ R +∞ EX = ∫ x ⋅ fX (x)dx , X stet. ZG −∞ Bem.: Der Erwartungswert einer diskr. ZG ist das gewogene Mittel aller Werte xi von X, wobei die Einzelwahrscheinlichkeiten pi die Gewichte darstellen. Bsp. 1: Würfeln mit 1 Würfel (Gleichvert.) ⇒ EX = 3,5 2. Varianz: Def.: Als Varianz bezeichnen wir die mittlere (erwartete) quadratische Abweichung einer ZG X von ihrem Erwartungswert: D2X = E [X - EX]2 ∞ 2 ( x − EX ) ⋅ pi ∑ i = , X diskr. ZG i =1 D2 X ∈ R +∞ ∫ (x − EX) ⋅ fX (x)dx 2 , X stet. ZG −∞ D2 X heißt Standardabweichung. Bsp. 1: Würfeln mit 1 Würfel (Gleichvert.) ⇒ D2X = 2,92 Satz: Eigenschaften der Varianz: (Fehlerfortpflanzung) Für die Varianz von diskreten oder stetigen Zufallsgrößen X, X1, J, Y, Z und Konstanten a,b ∈R gilt: 1. D2X ≥ 0, D2X = 0 ⇔ P(X = EX) = 1 2. D2X = EX2 – [EX]2 (Verschiebungsregel) 3. D2 [aX + b] = a2 • D2X (lin. Transformation) 4. X1,X2 unabhängig ⇒ D2 [X1 + X2] = D2 [X1 - X2] = D2X1 + D2X2 (Summe, Differenz) und für Y =X1• X2 und Z = X1/X2 2 2 D Y D X1 D X2 + ≈ EY EX1 EX2 2 2 2 (Produkt und Quotient) 2 D Z ≈ EZ 2 2 (Quadr. Variationskoeffizienten addieren sich!) Bsp. 2: Würfeln mit 2 unterscheidbaren Würfeln, X:=„ Augensumme“, X = X1 + X2 D2X = D2 [X1 + X2] = D2 X1 + D2 X2 = 5,83 Normierung und Standardisierung: Def.: Eine ZG X heißt normiert, wenn D2X = 1 gilt. Def.: Eine ZG X heißt standardisiert, wenn D2X = 1 und EX = 0 gilt. Satz: Für eine beliebige ZG X gilt: 1. 2. Y= Y= X D2 X ist eine normierte ZG und X − EX 2 D X ist eine standardisierte ZG. Wahrscheinlichkeitsverteilungen Diskrete Verteilungen - 2- Pkt.- Verteilung (Münzwurf) - Gleichverteilung (Bsp. 1: Würfeln mit 1 Würfel) - Binomialverteilung (Qualitätskontrolle) Stetige Verteilungen - Gleichmäßig stet. Verteilung - Normalverteilung und logarithmische NV - Exponentialverteilung (Wachstumsprozesse) - Hypergeometrische Vert. - Weibullverteilung (Abnutzungsprozesse) - Poissonverteilung - Prüfvert. (t-, χ2-, F- Vert.) 2.3 Normalverteilung (Gauss, 1809: „Theorie der Beobachtungsfehler“) Hintergrund: Führt man wiederholt Messungen an ein und demselben Objekt (Fettgehalt in Milchprobe) durch, so ergibt auf Grund zufälliger Einflüsse nicht jede Messung den gleichen Wert. Es zeigt sich aber, dass bei häufiger Wiederholung der Messung die erhaltenen Werte kleinere oder größere Abweichungen voneinander und von einem bestimmtem „wahren“ Wert, dem Erwartungswert, aufweisen. Beispiele: ● zuf. Mess- und Beobachtungsfehler ● Fett- und Eiweißgehalt von Milch, Stammwürzegehalt von Bier, Saccharosegehalt von Zuckerrüben Def.: Eine stetige ZG X heißt normalverteilt mit den Parametern µ und σ2 (X ~ N (µ, σ2)), wenn ihre Dichtefunktion die Form fX ( x ) = 1 ⋅e 2π ⋅ σ 2 ( x −µ ) − 2 ⋅σ 2 x∈R, hat. Satz: Eigenschaften der Dichtefunktion der NV 1. fX(x) ≥ 0 x∈R 2. fX besitzt an der Stelle x = µ ein Maximum und 1 fX (µ) = 2π ⋅ σ 3. fX besitzt an den Stellen x1 = µ -σ und x2 = µ + σ zwei Wendepunkte 4. fX ist symmetrisch bez. µ: fX(µ - x) = fX(µ + x) Dichtefunktion der Normalverteilung 0,8 0,1 4,1 4,2 4,0,5 0,2 Dichte 0,6 0,4 0,2 fX(x; 0, 1) = ϕX(x) 0 -10 -6 -2 2 6 10 14 x Verteilungsfunktion Verteilungsfunktion der Normalverteilung Standard- Normalverteilung X ~ N (0, 1) 1 0,1 4,1 4,2 4,0,5 0,2 0,8 0,6 0,4 FX(x; 0, 1) = ΦX(x) 0,2 ist tabelliert! 0 -10 -6 -2 2 x 6 10 14 Bem.: - Für eine normalverteilte ZG X gilt: EX = µ und D2X = σ2 - Der Parameter µ bedeutet : Verschiebung des Symmetriezentrums Der Parameter σ bedeutet: Streckung oder Stauchung der Dichte x - Die Verteilungsfunktion: FX (x)= P(X ≤ x) = aber: ∫ f (t )dt X −∞ Integral nicht geschlossen integrierbar! ⇒ Standardisierung der normalverteilten ZG X und Bestimmen der standardisierten Verteilungsfunktion Φ (ist tabelliert!) ! Satz: Eine stet. ZG X mit X ~ N(µ, σ2), kann durch Y = (X-µ)/ σ standardisiert werden, so dass Y ~ N(0, 1), und man erhält: fX(x) = (1/σ) • ϕY(y) und FX(x) = ΦY(y) (Zusammenhang von Dichte- und Verteilungsfunktionen) N(0,1) 0,4 0,1 Dichte 0,3 0,2 0,1 0 -5 -3 -1 1 3 x ϕY(-y) = ϕY(y) 5 Verteilungsfunktion der Normalverteilung Verteilungsfunktion Dichtefunktion der Normalverteilung N(0,1) 1 0,1 0,8 0,6 0,4 0,2 0 -5 -3 -1 1 3 5 x ΦY(-y) = 1- ΦY(y) Bestimmen von Intervallwahrscheinlichkeiten: X−µ x −µ 1. P( X ≤ x) = FX ( x) = P ≤ = P( Y ≤ y) = Φ Y ( y) σ σ 2. P( X > x) = 1− P( X ≤ x) = 1 − FX ( x) = X−µ x −µ 1− P ≤ = 1− P( Y ≤ y) = 1− Φ Y ( y) σ σ 3. P( x1 < X ≤ x 2 ) = FX ( x 2 ) − FX ( x1 ) X−µ = P y1 < Y = ≤ y 2 = Φ Y ( y 2 ) − Φ Y ( y1 ) σ x1 −µ y1 = σ x2 −µ y2 = σ 4. Spezialfall von 3. Seien x1 = µ - kσ und x2 = µ + kσ Dann gilt: P(|X - µ|) ≤ kσ) = Φ(k) - Φ(-k) = 2 Φ(k) – 1 Bem.: Betrachtet man k = 1,2 und 3, so ergeben sich folgende Wahrscheinlichkeiten: P(|X - µ|) ≤ 1σ) = 0,638 P(|X - µ|) ≤ 2σ) = 0,955 P(|X - µ|) ≤ 3σ) = 0,997 3σ σ- Regel d.h. es ist praktisch „fast sicher“, dass eine normalverteilte ZG X Werte zwischen µ - 3σ und µ - 3σ annimmt. Bsp.: Eine Maschine füllt Tüten. Die Masse der Tüten (ZG X) sei normalverteilt mit X~ N(31,4; 0,04) [g]. Eine Tüte ist normgerecht gefüllt, wenn X Werte im Intervall [30,9; 31,7] annimmt. a) Wieviel % der Tüten sind normgerecht gefüllt? b) Wieviel % der Tüten sind nicht normgerecht gefüllt? c) Wieviel % der Tüten sind unterdosiert? d) Wieviel % der Tüten sind überdosiert? e) Wie müßte die untere Grenze des Toleranzbereiches xu sein, damit nur 0,2 % der Tüten unterdosiert sind? f) Welchen Wert müßte die Standardabweichung σ haben, damit bei ursprünglichem Toleranzbereich nur 2% der Tüten unterdosiert sind? Lösung: a) P(A) = P(30,9 < X ≤ 31,7) = ΦY(1,5) - ΦY(-2,5) = 0,93319(1-0,99379) = 0,92698 ≈ 92,7 % b) P( A ) = 1- P(A) = 7,3 % c) P(X ≤ 30,9) = ΦY(-2,5) = (1-0,99379) = 0,00621 ≈ 0,6 % d) P(X > 31,7) = 1- P(X ≤ 31,7) = 1 - ΦY(1,5) = 0,06681 ≈ 6,7 % e) P(X ≤ xu) = 0,002 x u − 31,4 1-0,002 = 0,998 = 0,002 = ΦY 0,2 → ΦY(2,88) = 0,998 x u − 31,4 → ΦY(-2,88) = 0,002 → = −2,88 0,2 → xu = 30,824 f) analog zu e) 30,9 − 31,4 30,9 − 31,4 = −2,88 ΦY = 0,002 → σ σ → σ = 0,1736 2.4 Prüfverteilungen Prüfverteilungen sind Verteilungen stetiger Zufallsgrößen, die insbesondere in der induktiven Statistik eine Rolle spielen. Für die praktische Durchführung von Prüfverfahren benötigt man insbesondere die Quantile dieser Prüfverteilungen. Def.: Sei X eine stetige ZG mit der Verteilungsfunktion FX und p∈(0,1) ⊆ R. Dann heißt eine Zahl xp Quantil der Ordnung p, wenn Fx(xP) = P(X ≤ xP) = p gilt. Bem.: Ein Quantil der Ordnung p = ½ heißt Median χ² - Verteilung (Helmert, 1876) Chi-Quadrat Verteilung 0,1 FG 10 20 30 50 100 Dichte 0,08 0,06 (n − 1)S ² W = ~ χ ²( m ) σ² 0,04 Freiheitsgrad m = n-1 0,02 0 0 30 60 90 120 150 180 x Das Quantil der Ordnung p der χ²-Verteilung mit m Freiheitsgraden wird mit χ²p;m bezeichnet. t-Verteilung („STUDENT“ , W. Gosset) t- Verteilung 0,4 FG 10 20 30 50 100 Dichte 0,3 0,2 X −µ t= ⋅ n ~ t (m ) S 0,1 0 -6 -4 -2 0 2 4 6 x - Das Quantil der Ordnung p der t- Vert. mit m FG- en wird mit tp;m bezeichnet. - Die t- Verteilung ist symmetrisch und konvergiert für m→∞ gegen die Standardnormalverteilung Verteilungsfunktion t- Verteilung 1 FG 10 20 30 50 100 0,8 0,6 0,4 0,2 0 -6 -4 -2 0 x 2 4 6 F-Verteilung (Fisher) F- Verteilung FG 10,10 20,20 30,30 50,50 100,100 2,4 Dichte 2 1,6 1,2 2 1 2 2 S F= ~ F(m1, m2 ) S 0,8 0,4 0 0 1 2 3 4 5 x F- Verteilung Verteilungsfunktion Das Quantil der Ordnung p der F-Verteilung mit m1 und m2 FG- en wird mit Fp;m1;m2 bezeichnet. 1 FG 10,10 20,20 30,30 50,50 100,100 0,8 0,6 0,4 0,2 0 0 1 2 3 x 4 5 3. Schließende Methoden /11/ Stahel, W. (1995) Obj. Realität Merkmale Stat. Modell Zufallsgröße X mit best. Vert. oder Menge aller Real. der ZG, d.h. Menge E aller Versuchsausgänge: x1, x2, ... Menge aller möglichen Stichproben vom Umfang n: X = (X1, ..., Xn) Messwerte = GG = Mathem. Stichprobe Realisierungen der ZG X: = Konkrete x = (x1, ..., xn) Stichprobe 1- Stichprobenproblem: Konkrete Stichprobe (x1, Y, xn) Schätzwert (Realisierung) Mathematische Stichprobe (X1, Y, Xn) Grundgesamtheit Schätzfunktion X (Stichprobenfunktion) F̂n ( x ) Fn ( x) 1 n x = ∑ xi n i =1 1 n X = ∑ Xi n i=1 ~ x 0 ,5 x mod ~ X 0 ,5 X mod Mod 1 n 2 s = ( x i − x )2 ∑ n − 1 i=1 1 n S = ( Xi − X)2 ∑ n − 1 i=1 σ2 bei X~N(µ, σ2) mad g1 g2 Y MAD 2 G1 G2 Y FX ( x ) µ bei X~N(µ, σ2) ρ0 MADth γ1 γ2 Y Wichtigste Aufgabe der Statistik: Aus den in der Stichprobe enthaltenen Informationen Aussagen über die Grundgesamtheit zu gewinnen! Es treten dabei 2 wichtige Probleme auf: 1. Schätzen der Verteilung der GG bzw. von Parametern 2. Prüfen von Hypothesen über die Verteilung der GG bzw. von Parametern 3.1 Punktschätzungen und Konfidenzintervalle Wir betrachten Punkt- und Intervallschätzungen für Parameter von Zufallsgrößen. Auf der Basis konkreter Stichproben führen: Punktschätzungen ⇒ Näherungswerten und Intervallschätzungen ⇒ Näherungsintervallen für einen unbekannten Parameter. 1. Punktschätzungen Bei Punktschätzungen wird ein einziger aus der Stichprobe gewonnener Wert zur Schätzung des unbekannten Parameters herangezogen. Ein Punktschätzer ist eine Stichprobenfunktion T(X1,J, Xn) der math. Stichprobe und ein Schätzwert ist eine Realisierung t(x1,J, xn) auf der Basis der konkreten Stichprobe. Bsp.: Unter der Voraussetzung, dass die GG X normalverteilt ist mit EX = µ und D2X = σ2 , haben die Punktschätzer n 1 1 n 2 und S2 = ( X − X ) X = ∑ Xi ∑ i n − 1 n i=1 i=1 die besten statistischen Eigenschaften (Erwartungstreue, Konsistenz, Effizienz, Suffizienz)! Man erhält Punktschätzer mit folgenden Schätzmethoden: ● Momentenmethode ● Maximum Likelihood- Methode (MLM) ● Methode der kleinsten Quadrate (MkQ) Die Realisierungen x und s2 stellen die zugehörigen Punktschätzwerte (reelle Zahlen) aufgrund einer konkreten Stichprobe dar. Veranschaulichung von Treff- und Wiederholgenauigkeit Parameter Θ (Schießscheibe) Treff- u. Wieder- Treffgenauigkeit holungsgenauig- niedrig, keit hoch Wiederholungsgenauigkeit hoch Treffgenauigkeit hoch, Wiederholungsgenauigkeit niedrig Treff- u. Wiederholungsgenauigkeit niedrig Bem.: Die Treffgenauigkeit (Erwartungstreue) eines Schätzers ist hoch (Bias klein), wenn die Schätzwerte wiederholter Schätzungen den Parameter im Mittel gut treffen. Die Wiederholungsgenauigkeit (Präzision) ist hoch ( D 2 θ̂ klein), wenn die Schätzwerte wiederholter Schätzungen nahe beieinander liegen. 2. Konfidenzintervalle (Vertrauensintervalle) ● Mit einer Punktschätzung gewinnen wir keine Aussage über die Genauigkeit einer solchen Schätzung. ● Die Abweichungen einzelner Punktschätzwerte vom wahren Wert des Parameters können z.B. dann recht groß sein, wenn der Stichprobenumfang klein ist. ● Mit Hilfe einer Intervallschätzung können wir uns eine Vorstellung von der Genauigkeit der Schätzung verschaffen. Def.: Ein Konfidenzintervall ist ein Intervall, dass einen unbekannten Parameter der Grundgesamtheit mit einer vorgegebenen Wahrscheinlichkeit (1-α) enthält. Bsp.: Konfidenzintervall für den Erwartungswert µ einer normalverteilten GG Sei X ~ N(µ, σ2) eine normalverteilte ZG und (X1, ..., Xn) eine mathematische Stichprobe aus der GG X. 1. Fall: Die Varianz σ2 der normalverteilten GG sei bekannt Für den unbekannten Parameter µ ist eine Konfidenzschätzung anzugeben. Dann hat das Konfidenzintervall für µ die Form: σ σ = P X − ⋅z α < µ < X+ ⋅ z α = 1 − α 1− 1− n n 2 2 wobei z α das 1− ist. 2 (1− α ) 2 - Quantil der Standardnormalverteilung Jede konkrete Stichprobe liefert uns dann ein realisiertes z α Konfidenzintervall: 1− z 1-α α 2 σ σ ⋅ z α; x + ⋅z α x − n 1− 2 n 1− 2 0,95 0,05 1,96 0,99 0,01 2,58 1-α 1,64 2,33 α Φ z α = 1− 2 1− 2 Dichtefunktion der Standard- Normalverteilung 0,4 Dichte 0,3 1-α 0,2 α/2 α/2 0,1 0 -5 -3 -1 z α 2 = −z 1− 1 z α 2 z 3 1− 5 α 2 1− α -Quantil der Standard- NV 2 Bem.: Die Breite dieses Konfidenzintervalls für den Erwartungswert µ beträgt 2d und ist von α, n, σ und der Verteilung des zugehörigen Schätzers abhängig. σ 2d = 2 ⋅z α 1− n 2 Je größer α desto kleiner das Konfidenzintervall Je größer n desto kleiner das Konfidenzintervall Die Breite des Konfidenzintervalls ist hier ein Maß für die Genauigkeit der Schätzung von µ und die Irrtumswahrscheinlichkeit α ein Maß für das Risiko. ⇒ Planung des Stichprobenumfangs: geg.: halbe Breite des Konf.intervalls d, 2 2 σ Varianz σ , → n = 2 ⋅ z 2 1− α 2 d Konfidenzniveau (1-α) 2. Fall: Die Varianz σ2 der normalverteilten GG sei nicht bekannt und muß geschätzt werden. Für den unbekannten Parameter µ ist eine Konfidenzschätzung anzugeben. Wir wählen als Punktschätzer: für den Erwartungswert µ: 1 n X = ∑ Xi n i=1 für die Varianz σ2 n 1 2 S2 = ( X − X ) ∑ i n − 1 i=1 und Dann hat das Konfidenzintervall für µ die Form: S S P X − ⋅t α < µ < X+ ⋅ t α = (1 − α) 1− ; m 1− ; m n n 2 2 wobei t 1− α ;m das 2 (1− α ) 2 - Quantil der t- Verteilung ist. Jede konkrete Stichprobe liefert uns wieder ein realisiertes Konfidenzintervall: s s x − n ⋅t α 1− ; m 2 ;x + n ⋅t α 1− ; m 2 s d= ⋅t α n 1− 2 ;m Veranschaulichung analog wie beim 1. Fall! Toleranzintervall: Anwendung bei der Kontrollkartentechnik: ( x - Kontrollkarte) Mittelwert liegt außerhalb des Toleranzbereiches! µ0 + S ⋅t α n 1− 2 ;m Toleranzbereich µ0 s µ0 − ⋅ t α n 1− 2;m xi x1 x3 x5 x7 3.2 Statistische Tests Es werden zwei Hypothesen für die GG aufgestellt: ● die Nullhypothese H0 (Annahme über die Verteilung oder unbekannte Parameter in der Grundgesamtheit) und ● die Alternativhypothese HA (wird angenommen, falls H0 verworfen wird) Durch einen statistische Test wird eine Entscheidung zwischen beiden Hypothesen auf Grund einer Stichprobe herbeigeführt. Bei der Entscheidung für eine der beiden Hypothesen durch einen Test kann man zwei Fehler begehen: - Fehler 1. Art: Entscheidung für HA, obwohl H0 richtig ist und - Fehler 2. Art: Entscheidung für H0, obwohl HA richtig ist Betrachten wir ein paar Beispiele: Bsp. 1: Es ist auf Grund einer Stichprobe zu prüfen, ob die Länge von Escherichia Coli- Zellen eines best. Bakterienstammes normalverteilt ist. H0: FX = F0X HA: FX ≠ F0X (F0 - Vert.fkt. der Normalvert.!) ⇒ Test auf Normalverteilung Bsp. 2: Der Wassergehalt von Butter X sei normalverteilt. Auf Grund einer Stichprobe aus einer Molkerei soll geprüft werden, ob der erhaltene Mittelwert mit dem Qualitätssollwert µ0 = 15% verträglich ist, d.h. ob die Abweichung zwischen x und µ0 nur zufällig ist oder ob stat. signifikante Unterschiede vorliegen. H0 : µ = µ0 = 84% ⇒ HA: µ ≠ µ0 = 84% Mittelwerttest für ein Einstichprobenproblem Bsp. 3: Eine sehr zeitaufwendige Standardmethode M1 zur Bestimmung der Trockenmasse von Kondensmilch soll durch eine Schnellmethode M2 ersetzt werden. Auf der Basis zweier Stichproben ist nun zu prüfen, ob die Mittelwerte und Varianzen beider Methoden übereinstimmen oder ob es signifikante Unterschiede gibt. H0: µ1 = µ2 HA: µ1 ≠ µ2 (Vor.: NV!) H0: σ12 = σ22 HA: σ12 ≠ σ22 ⇒ Mittelwert- und Varianztest für ein 2-Stichprobenproblem Bsp.4: Es ist zu prüfen, ob in einer Stichprobe ein stark nach oben (bzw. nach unten) abweichender Wert als „Ausreißer“ zu betrachten ist. (Vor.: NV!) H0: xmax ist kein Ausreißer ⇒ Ausreißertest HA: xmax ist ein Ausreißer Mögliche Entscheidungen bei einem stat. Test: Realität H0 richtig Entscheidung für H0 HA wird abgelehnt richtige Entscheidung Sicherheitswahrsch. (1- α) HA richtig Fehler 2. Art β Entscheidung für HA H0 wird abgelehnt Fehler 1. Art Irrtumswahrsch. α richtige Entscheidung Güte des Tests (1- β) Bei zwei Entscheidungen entscheidet man sich richtig, jeweils mit den Wahrscheinlichkeiten (1- α) bzw. (1- β) . Führt ein Test nun zur Ablehnung von H0, so ist diese Entscheidung für HA mit einer Irrtumswahrscheinlichkeit von α behaftet und man sagt: Das Ergebnis ist signifikant zum Signifikanzniveau α. Bem.: 1. Beim Signifikanztest (auch α- Test genannt) wird nur der Fehler 1. Art durch die Vorgabe von α kontrolliert, während der Fehler 2. Art, der mit der (unbekannten) Wahrscheinlichkeit β auftritt, unberücksichtigt bleibt. Daher formuliert man die Hypothesen so, dass der Fehler 1. Art der in seinen Folgen schwerwiegendere ist, den man auf jeden Fall vermeiden möchte! 2. Beide Fehler kann man nicht gleichzeitig minimieren. Denn: Je kleiner der eine Fehler ist, desto größer wird der andere. Aber: Beide Fehler werden bei der Planung des Stichprobenumfanges mit berücksichtigt. 3. Das Signifikanzniveau α ist unter Beachtung der konkreten Aufgabenstellung und insbesondere der Folgen des Fehlers 1. Art festzulegen. Übliche Werte für α sind: 0,1; 0,05; 0,01; 0,005; 0,001. Arten statistischer Tests Parametrische Tests Verteilungsfreie (nichtparametrische) Tests Ann. eines best. Verteilungstyps (z.B. NV!) für die GG, Keine Ann. eines best. Verteilungstyps für die GG, nur Stetigkeit oder Diskretheit, Prüfung von Hypothesen über die Parameter (z.B. Erwartungswert und Varianz) Prüfung von Hypothesen über die Art der Verteilung (z.B. NV durch Anpassungstests) oder Parameter (z.B. Median) Tests basieren oft auf Rangstatistiken Allgemeine Vorgehensweise bei einem Parametertest: 1. Formulierung der Aufgabenstellung, einschließlich aller Voraussetzungen über die GG 2. Aufstellen der Null- und Alternativhypothese H0 und HA 3. Wahl der Stichprobenfunktion T (Teststatistik) auf der Basis der math. Stichprobe und Angabe ihrer Verteilung bei richtiger Nullhypothese 4. Berechnung eines Wertes der Teststatistik t auf der Basis einer konkreten Stichprobe 5. Wahl des kritischen Bereiches K für vorgegebene Irrtumswahrscheinlichkeit α 6. Testentscheidung Wenn t∈K → Ablehnung von H0 u. Annahme von HA Wenn t∈K → Annahme von H0 u. Ablehnung von HA 1. Vergleich der Parameter einer NV mit Sollwerten Einstichprobentest Annahme: Sei X~N(µ, σ2), (X1, ..., Xn) math. Stichprobe aus GG X 3.2.1.1. Vergleich des Mittelwertes einer NV mit einem Sollwert (Einstichproben- Test) 1. Fall: σ2 bekannt (Gauß- oder Z- Test) 1. Kann auf Grund einer Stichprobe geschlossen werden, dass diese aus einer normalverteilten GG stammt, deren Erwartungswert µ gleich einem vorgegebenen Sollwert µ0 ist? Mit anderen Worten: Ist x mit µ0 verträglich oder a) gibt es signifikante Abweichungen b) ist der MW echt größer als µ0 c) ist der MW echt kleiner als µ0? → 2- seit. Test → 1- seit. Test Vor.: X~N(µ, σ2), σ2 ist bekannt 2. Null- und Alternativhypothese b) H02: µ ≤ µ0 HA2: µ > µ0 a) H01: µ = µ0 HA1: µ ≠ µ0 2-seit. Fragestellung c) H03: µ ≥ µ0 HA3: µ < µ0 1-seit. Fragestellung 3. Wahl der Teststatistik Wählen X als geeigneten Punktschätzer für µ und standardisieren: X → X − µ0 Z= ⋅ n ~ N( 0,1) σ Teststatistik (unter H0!) 1 n σ2 da X = ∑ X i ~ N(µ, ) n i=1 n 4. Berechnen des Wertes der Teststatistik x − µ0 z= ⋅ n σ 5. Wahl des kritischen Bereiches (Verwerfungsbereich) K Der krit. Bereich ist abhängig von der Irrtumswahrscheinlichkeit α und der Art der Alternativhypothese. P(Z∈K / H0) = α und P(Z∈K / H0) = (1- α) a) HA1: µ ≠ µ0 K = − ∞; z α ∪ z α ;+∞ 2 1− 2 Dichtefunktion der Standard- Normalverteilung 0,4 1-α Dichte 0,3 kritische Grenzen 0,2 0,1 α/2 α/2 K = z / | z |> z α 1− 2 0 -5 -3 zα -1 2 1 z z 3 1− 5 α 2 Ann.bereich H0 b) HA2: µ > µ0 c) HA3: µ < µ0 Dichtefunktion der Standard- Normalverteilung Dichtefunktion der Standard- Normalverteilung 0,4 0,4 0,3 1-α Dichte Dichte 0,3 0,2 α 0,1 1-α 0,2 α 0,1 0 0 -5 -3 -1 1 z 3 5 z1−α K = (z1− α ;+∞ ) = {z / z > z1− α } -5 -3 -1 zα 1 3 5 z K = (− ∞; z α ) = {z / z < z α } 6. Testentscheidung H0: µ = µ0 wird abgelehnt, wenn a) z > z α 1− 2 b) z > z1−α c) z < zα Analog gilt: H0 wird abgelehnt, wenn der zu z gehörige P-Wert < α ist. P heißt „Probability value“ oder „Grenzniveau“ oder „Überschreitungswahrscheinlichkeit“. Er ermöglicht eine differenziertere Testentscheidung. Häufig interpretiert man den P-Wert wie folgt: Wenn P ≥ 0,05 Wenn 0,05 > P ≥ 0,01 Wenn 0,01 > P ≥ 0,001 Wenn 0,001 > P → → → → kein stat. sign. Unterschied stat. sign. Unterschied * stark sign. Unterschied ** sehr stark sign. Unterschied *** Bem.: 1. Falls die Nullhypothese wahr ist, ergeben sich folgende Entscheidungsbereiche: a) HA1: µ ≠ µ0 b) HA2: µ > µ0 1-α 1-α Ann.bereich von H0 Ann.bereich von H0 Die schraffierten Flächen α (Irrtumswahrscheinlichkeit) geben die Wahrscheinlichkeiten an, dass die Nullhypothese fälschlicherweise verworfen wird. Bem.: 2. Falls die Nullhypothese falsch ist und µ = µ1 > µ0, ergeben sich folgende Entscheidungsbereiche: a) HA1: µ ≠ µ0 b) HA2: µ > µ0 β α/2 Ann.bereich von HA β α Ann.bereich von HA Die schraffierten Flächen (1-β) (Trennschärfe, Macht eines Tests) geben die Wahrscheinlichkeiten an, dass die wahre Alternativhypothese durch den Test auch angenommen wird. Die Macht (1-β) sinkt, je kleiner α wird. 2. Fall: σ2 unbekannt → Schätzen durch s2 (t- Test) 3. Teststatistik unter H0: X − µ0 t= ⋅ n ~ t ( n − 1) S 4. Wert der Teststatistik: x − µ0 t̂ = ⋅ n s 5. Kritischer Bereich K: a) HA1: µ ≠ µ0 K = − ∞; t α ∪ t α ;+∞ = t̂ / | t̂ |> t α ,m 1− ,m 2 2 1− 2 ,m b) HA2: µ > µ0 K = (t 1− α ,m ;+∞ ) = t̂ / t̂ > t 1− α ,m c) HA3: µ < µ0 K = (− ∞; t α ,m { } ) = {t̂ / t̂ < t } α ,m 6. Testentscheidung H0: µ = µ0 wird abgelehnt, wenn a) | t̂ |> t t̂ > t 1− α ,m b) α 1− ,m 2 c) t̂ < t α,m bzw. wenn der zu t̂ gehörige P-Wert < α ist. b) Dichtefunktion der t- Verteilung 0,4 FG: 10 Dichte 0,3 P-Wert 0,2 Hier: Annahme von H0 ! α 0,1 0 -6 -4 -2 0 t t̂ Ann.bereich vonH0 2 4 6 t1−α,10 (1-α)- Quantil der t- Vert. zum FG 10 Ein Test ist von folgenden Größen abhängig: ● Mindestdifferenz d (Genauigkeitsvorgabe) ● Wahrscheinlichkeit für den Fehler 1. Art α ● Schranke für die Wahrscheinlichkeit für den Fehler 2. Art β0 ● Varianz σ2 (1. Fall) bzw. s2 (2. Fall) a) b) Verlauf der Gütefunktion (Macht, Power) eines zweiseitigen Tests (für kleinen und großen Stichprobenumfang) und eines 1-seitigen Tests Bsp.: Wassergehalt von Butter (Gauß- Test) 1. Für die Zufallsgröße X – Wassergehalt [%] von Butter sei NV-Annahme gerechtfertigt. Es liegt eine Stichprobe vom Umfang 10 vor und es ist durch einen Test zu prüfen, ob diese Stichprobe aus einer GG mit dem Erwartungswert µ0 = 15,2 [%] (Sollwert) stammt. Die Varianz σ2 = 0,04 [%]2 kann als bekannt vorausgesetzt werden. a) Weicht x signifikant von µ0 ab? oder b) Ist x signifikant größer als µ0? Die Messwerte seien: 15,05 15,52 15,44 15,35 15,24 14,89 15,47 15,28 15,18 15,39 2. Hypothesen: a) H01: µ = µ0 HA1: µ ≠ µ0 b) H02: µ ≤ µ0 HA2: µ > µ0 X − µ0 3. Teststatistik: Z = ⋅ n ~ N(0,1) σ x − µ0 4. Wert der Teststatistik: z = ⋅ n = 1,28 σ x = 15,28[%] 5. Kritischer Bereich K: a) K = − ∞; z α ∪ z α ;+∞ 2 1− 2 K = z / | z |> z α 1− 2 α = 0,05 → z α 1− 2 b) K = (z1− α ;+∞ ) K = {z / z > z1− α } = 1,96 z α = 1,645 6. Testentscheidung: | z |= 1,28 < z α 1− 2 = 1,96 z < z1−α = 1,645 Ergebnis: Für α = 0,05 wird H0 beibehalten, sowohl bei der 2- seitigen als auch bei der 1- seitigen Fragestellung. D.h.: Abweichungen bzw. eine Überschreitung des Sollwertes sind nicht feststellbar. Bem.: Wäre die Varianz σ2 = 0,04 [%]2 nicht bekannt, dann müsste sie durch s2 geschätzt werden (t- Test, 2. Fall) 3. Teststatistik: t= X − µ0 ⋅ n ~ t(m) S x − µ0 ⋅ n = 1,2934 4. Wert der Teststatistik: t̂ = s x = 15,281 [%] 5. Kritischer Bereich K: α = 0,05 → 6. Testentscheidung: t a) α 1− ,m 2 =t α 1− ,9 2 | t̂ |≤ t n = 10 s = 0,198 [%] b) = 2,26 α 1 − ,m 2 t 1− α ,m = t 1− α ,9 = 1,83 t̂ = 1,29 ≤ t1− α,9 Ergebnis: Für α = 0,05 sind Abweichungen bzw. eine Überschreitung des Sollwertes nicht feststellbar. Allgemeine Bemerkungen zu Hypothesentests 1. Erweist sich ein Unterschied als nicht signifikant, so sagt das noch nicht, dass damit die Hypothese wahr ist. Es sagt bloß: Die Hypothese steht zum Ergebnis der Stichprobe nicht im Widerspruch. 2. Ist die Abweichung des wahren Parameters, z.B. µ, vom Sollwert µ0 nur klein, wird das Ergebnis einer kleinen Stichprobe nur selten im Widerspruch zu µ0 stehen. D.h., ob eine bestehende Abweichung von der Hypothese erkannt wird oder nicht, hängt entscheidend von der Größe der Stichprobe ab. Wollte man das Ergebnis „nicht signifikant“ als eine Bestätigung der Nullhypothese auffassen, so brauchte man bloß eine hinreichend kleine Stichprobe zu wählen und könnte damit fast jede Nullhypothese bestätigen. ⇒ Als Nullhypothese wählt man daher stets das Gegenteil von dem, was man beweisen möchte und versucht, es zu widerlegen. 3. Eine Ablehnung von H0 und Annahme von HA bedeutet: Wir können nicht sicher sein, uns richtig entschieden zu haben, in Wirklichkeit könnte auch H0 wahr sein, dann hätten wir jedoch H0 nur mit einer Wahrscheinlichkeit von höchstens α (Wahrscheinlichkeit für Fehler 1. Art) durch den Test abgelehnt, d.h. wir haben uns mit großer Sicherheit richtig entschieden. 4. Eine Annahme von H0 bedeutet: Falls in Wirklichkeit HA wahr sein würde, hätten wir einen Fehler 2. Art begangen, deren Wahrscheinlichkeit durch den Signifikanztest nicht kontrolliert wird. Sie lässt sich allerdings durch die Gütefunktion bestimmen. 5. Es gilt nicht: Mit 95%-iger Sicherheit ist bei Ablehnung von H0 HA wahr. Wir wissen nur, dass in 95% der Fälle die wahre H0 durch den Test bestätigt wird und in 5% der Fälle nicht. 6. In zu kleinen Stichproben können selbst grosse, praktisch bedeutsame Unterschiede oder Effekte nicht nachgewiesen werden, da sie sich nicht klar genug von den zufälligen Fehlern abheben. Mit grossen Stichproben kann man dagegen praktisch unwichtige Unterschiede oder Effekte als “statistisch signifikant” ausweisen. ⇒ “Praktische Relevanz” beachten und auf der Basis von Vorgaben über die Wahrscheinlichkeiten für die Fehler 1. u. 2. Art den Stichprobenumfang berechnen! Übersicht über Parametertests (1- und 2- Stichprobenproblem) Art des Tests H0 und HA Teststatistik Vergleich des Mittelwertes mit einer Konstanten a) 1-StichprobenGauß-Test b) 1-Stichprobent-Test H01: µ = µ0 HA1: µ ≠ µ0 H02: µ ≤ µ0 HA2: µ > µ0 H03: µ ≥ µ0 HA3: µ < µ0 a) σ bekannt X − µ0 Z= ⋅ n ~ N(0,1) σ b) σ unbekannt t= Entscheidung Annahme H0 P ≥ 0,05 Krit. Bereich a) HA1: K= (- ∞, z α )∪( z 2 a) z ≤ z 1− α 2 1− , ∞) HA2: K = (z 1-α, ∞) HA3: K= (- ∞, z α) α 2 z ≤ z1−α z ≥ zα t̂ ≤ t α X − µ0 1− ,m ⋅ n ~ t(m) b) HA1: b) 2 S K = (- ∞,t α )∪( t α , ∞) ,m 1− ,m m = n-1 2 t̂ ≤ t1−α,m 2 t̂ ≥ t α,m HA2: K = (t1-α,m , ∞) HA3: K= (- ∞, tα,m) Vergleich der Varianz mit einer Konstanten 1-Stichprobenχ2- Test H01: σ2 = σ02 HA1: σ2 ≠ σ02 (n − 1)S2 2 χ = ~ χ (m) 2 σ0 2 H02: σ2 ≤ σ02 HA2: σ2 > σ02 HA1: χ 2α χ2 α K = (- ∞, 2 ,m )∪( 1− 2 ,m , ∞) χ12−α,m HA2: K = ( m = n -1 , ∞) χ2α ≤ χˆ 2 ≤ χ2 α 2 ,m 1− ,m 2 χˆ 2 ≤ χ12−α,m Entscheidung Annahme H0 P ≥ 0,05 Art des Tests H0 und HA Teststatistik Krit. Bereich a) σ1, σ2 bekannt a) HA1: K= (- ∞, z α )∪( z Vergleich von 2 Mittelwerten bei unabhängigen Stichproben Z= a) 2-StichprobenGauß-Test b) 2-Stichprobent-Test H01: µ1 = µ2 HA1: µ1 ≠ µ2 H02: µ1 ≤ µ2 HA2: µ1 > µ2 2 X1 − X 2 σ σ + n1 n 2 2 1 2 2 ~ N(0,1) b) σ12, σ22 unbekannt, aber σ12= σ22 t= α 1− 2 a) , ∞) 2 ,m b) α 1− ,m 2 α 2 z ≤ z1−α , ∞) X1 − X 2 n1 ⋅ n 2 ⋅ ~ t(m) HA2: K = (t1-α,m , ∞) Sd n1 + n 2 (n1 − 1) S12 + (n 2 − 1) S 22 Sd = n1 + n 2 − 2 m = n1+n2 -2 1− HA2: K = (z 1-α, ∞) b) HA1: K = (- ∞, t α )∪(t z ≤z m = n1+n2 -2 t̂ ≤ t α 1− ,m 2 t̂ ≤ t1−α,m Art des Tests H0 und HA Teststatistik Krit. Bereich c) σ12, σ22 unbekannt, aber σ12≠ σ22 c) HA1: K= (- ∞, t α )∪( t Vergleich von 2 Mittelwerten bei unabhängigen Stichproben c) 2-Stichprobent-Test mit WelchKorrektur H01: µ1 = µ2 HA1: µ1 ≠ µ2 H02: µ1 ≤ µ2 HA2: µ1 > µ2 X1 − X 2 t= S12 S 22 + n1 n 2 2-StichprobenF-Test = ≠ σ22 σ22 H02: σ11 ≤ σ22 HA2: σ11 > σ22 α 1− ,m 2 t̂ ≤ t , ∞) HA2: K = (t1-α,m , ∞) α 1− ,m 2 t̂ ≤ t1−α,m aber.: unterschiedliches m im Vergleich zu b)! 1 c2 (1 − c ) 2 = + m n 2 − 1 n1 − 1 c= H01: σ12 HA1: σ12 c) mit und Vergleich von 2 Varianzen bei unabhängigen Stichproben ~ t(m) 2 ,m Entscheidung Annahme H0 P ≥ 0,05 s 22 n1 s12 s 22 + n1 n 2 S12 F = 2 ~ F(m1, m2 ) S2 m1 = n1 – 1; m2 = n2 - 1 Vor.: s12 ≥ s22 , sonst Stichproben vertauschen! HA1: K = (- ∞, Fα 2 ∪(F ,m1,m2 α 1− ,m1,m2 2 HA2: K = ( Fα ) 2 ,m1,m 2 ≤ f ≤F , ∞) F1−α,m1,m2 , ∞) f ≤ F1−α,m1,m2 α 1− ,m1,m 2 2 3.3 Varianzanalyse - Die Varianzanalyse ermöglicht es, Unterschiede zwischen den Erwartungswerten normalverteilter Zufallsgrößen (hier: Faktoren) in mehr als zwei Gruppen (oder Stufen) zu untersuchen. Sie ist damit eine Erweiterung des Mittelwertvergleichs (t- Test) von zwei auf mehr als zwei Gruppen. - Je nach Anzahl der Faktoren unterscheidet man zwischen einfaktorieller und mehrfaktorieller Varianzanalyse - Bei VA- Modellen vom Typ I werden nur Faktoren mit festen Stufen betrachtet. - Sie heißt Varianzanalyse, weil geprüft wird, ob die Variabilität zwischen den Gruppen größer ist als innerhalb der Gruppen. Bsp.: 4 Laboratorien sind hinsichtlich ihres mittleren 2,3Butandiolgehaltes in Wein zu vergleichen. Voraussetzungen für die Varianzanalyse: Umfang der i-ten Gruppe ● Xi ~ N(µi, σ2) i = 1, ..., a j = 1, ..., ni Anz. der Gruppen od. Stufen ● Homogenität der Varianzen: σi2 = σ2 ∀i ⇒ Bartlett-Test ( NV, ni > 5) Cochran-Test (NV, ni=n ∀i) Levéne-Test (keine NV) Man betrachtet a Stichproben: Xij: X 11 .... X a 1 : X 1n 1 .... X an a VA- Modell I mit einfacher Klassifikation: Xij = µi + εij Xij = µ + αi + εij i = 1, ..., a j = 1, ..., ni mit εij ~ N(0, σ2) (zufälliger Fehler) wobei: µ - Gesamterwartungswert αi - Effekt der i- ten Stufe des Faktors A; αi = µi - µ - χ2- Anpassungstest - Shapiro- Wilks-Test - T. auf Schiefe und Exzess - Kolmogorov- Smirnov-T. mit Lilliefors- Korrektur Bsp.: Vergleich des mittleren Butandiolgehaltes in 4 Laboratorien Ausgangstabelle (Versuchsplan): Nr. der Wdhlg. j 1 2 3 4 5 6 xi. s i. a=4 Anz. der Laboratorien Stufen des Faktors: Labor L1 L2 L3 L4 0,780 0,810 0,760 0,746 0,770 0,790 0,750 0,750 0,780 0,770 0,720 0,734 0,774 0,780 0,756 0,741 0,750 0,760 0,770 0,739 0,790 0,770 0,780 0,736 0,774 0,780 0,756 0,741 0,014 0,018 0,021 0,006 ni = n = 6 Gruppenumfang N = 24 Gesamtstichprobenumfang Box- Whisker Plot ansehen! Box- Whisker Plot Butandiolgehalt 0,82 0,8 0,78 0,76 0,74 0,72 L1 L2 L3 L4 1. Unterscheiden sich die 4 Laboratorien hinsichtlich des mittleren Butandiolgehaltes von Wein, d.h. hat der Faktor “Laboratorium” Einfluss auf den Butandiolgehalt? Vor.: Xi ~ N(µi, σ2) (?) i = 1, ..., 4 j = 1, ..., 6 Homogenität der Varianzen: (Test: H0: σ12 = ... = σ42 gegen HA: ∃ (i,j): σi2 ≠ σj2 (i ≠ j) → kann angenommen werden (?) Modellannahme: Xij = µ + αi + εij = µi + εij 2. Hypothesen: H0: µ1 = ... = µ4 äquivalent HA: ∃ (i,j): µi ≠ µj (i ≠ j) mit εij ~ N(0, σ2) H0: α1 = ... = α4 = 0 HA: ∃ (i,j): αi ≠ αj (i ≠ j) 3. Teststatistik unter H0: Teststatistik basiert auf Zerlegung der Summe der Abweichungsquadrate Ausgangspunkt: Empirische Varianz s2 a 1 s = ∑ N − 1 i =1 2 ni 1 ( X ij − X ⋅⋅ ) = SQ G ∑ N −1 j =1 2 SQG – Summe der Abweichungsquadrate der Messwerte vom Gesamtmittelwert SQG = SQI + SQZ SQ I = a ni i=1 j=1 ∑∑ ( X ij − X i⋅ ) 2 SQI - Summe der Abweichungsquadrate innerhalb einer Gruppe (Stufe) SQ Z = a ∑ ∑ (X i=1 wobei ni − X ⋅⋅ ) i⋅ 2 j=1 SQZ - Summe der Abweichungsquadrate zwischen den Gruppen (Stufen) ni 1 Xi⋅ = ∑ Xij ni j=1 1 X ⋅⋅ = N Es gilt ebenfalls: Gruppenmittelwert ni a ∑∑X i =1 ij Gesamtmittelwert j =1 FGG = FGI + FGZ (N-1) = (N-a) + (a-1) ⇒ ⇒ MQ G 1 =s = SQ G N −1 2 MQ I = 1 SQ I N−a MQZ = 1 SQZ a −1 Teststatistik unter H0: MQ Z F= ~ F ( m 1, m 2 ) MQ I m1 = a-1 m2 = N-a 4. Wert der Teststatistik: ⇒ Varianztabelle (ANOVA-Tabelle) Variationsursache S Q̂ FG MQ̂ zwischen den Stufen SQ̂Z a-1 MQ̂ Z 0,00565 innerhalb der Stufen SQ̂I 0,00482 Gesamt SQ̂G 0,009538 3 N-a 20 N-1 23 0,00188 MQ̂I 0,00024 MQ̂G Wert der Teststatistik f f= M Q̂ Z M Q̂ I = 7,82 P-Wert P= 0,0012 5. Kritischer Bereich K: Dichtefunktion der F- Verteilung 0,8 FG 3,20 Dichte 0,6 0,4 0,2 α 0 0 1 2 3 4 5 F F 3; 20; 0,95 6. Testentscheidung: Wenn f > Fa-1; N-a; 1-α → Ablehnung von H0 Da 7,82 = f > F3; 19; 0,95 = 3,127 → Ablehnung von H0, d.h. die Mittelwerte des Butandiolgehaltes der Laboratorien unterscheiden sich zum Signifikanzniveau α = 0,05. Bem.: Wenn die Nullhypothese H0 abgelehnt wird, ist man daran interessiert, herauszufinden, welche Gruppen einen signifikant höheren oder niedrigeren Mittelwert aufweisen und schließt daher multiple paarweise Vergleiche, z.B. mit der Prozedur von Tukey- Kramer an. Man prüft dann den folgenden Hypothesenkomplex, a a ⋅ ( a − 1) bestehend aus = Hypothesen: 2 2 H0: µi = µj (i ≠ j) gegen HA: µi ≠ µj (i≠j) MW und 95%-iges HSD- Intervall von Tukey 0,8 MW 0,78 0,76 0,74 0,72 L1 L2 L3 L4 HSD- Test von Tukey- Kramer (α = 0,05 versuchsbezogen, wird für alle Vergleiche eingehalten!) ------------------------------------------------------------------------------------ Gruppe Anz. MW Homogene Gruppen -----------------------------------------------------------------------------------L4 6 0,741 X L3 6 0,756 XX L1 6 0,774 X L2 6 0,78 X ------------------------------------------------------------------------------------ Kontrast Differenz +/- Grenzen -----------------------------------------------------------------------------------L1-L2 -0,006 0,0251053 L1-L3 0,018 0,0251053 L1-L4 *0,033 0,0251053 L2-L3 0,024 0,0251053 L2-L4 *0,039 0,0251053 L3-L4 0,015 0,0251053 -----------------------------------------------------------------------------------* statistisch signifikante Differenz (α = 0,05) Ergebnis: - Zwischen zwei Laboratorien gibt es statistisch signifikante Mittelwertunterschiede hinsichtlich des Butandiolgehaltes von Weinen auf dem 5%- igen Signifikanzniveau, d.h. in 5 % aller Fälle liefert die HSD- Methode von TukeyCramer fälschlicherweise ein oder mehr signifikante Paare mit Mittelwertdifferenzen. - Zwei homogene Gruppen von Laboratorien wurden gebildet: Gruppe 1: L 3 und L 4 und Gruppe 2: L 1, L 2 und L 3. Bem.: Wenn Xi nicht normalverteilt und/ oder keine Varianzhomogenität vorliegen würde (s. Box- Whisker Plot!) → Kruskal- Wallis Test (unabh. Stichproben) anwenden! Anz. MW der Ränge -----------------------------------------------------------L1 6 16,8333 L2 6 17,75 L3 6 10,75 L4 6 4,66667 ------------------------------------------------------------ H0: ζ1 =J= ζ4 (Mediane) HA: ∃ (i,j): ζi ≠ ζj (i ≠j) Wert der Teststatistik = 13,4436 → P- Wert = 0,0038 < α = 0,05 → Ablehnung von H0 (Gleichheit der Mediane) Um zu ermitteln, welcher der Mediane sich signifikant von welchem unterscheidet, kann man den Box- Whisker Plot mit der „notch option“ auswählen. Bem.: Bei zwei oder mehr Faktoren im Varianzanalysemodell können neben den Haupteffekten der Faktoren auch deren Wechselwirkungen bestimmt werden. Bsp.: Der Vanadiumgehalt in Wein ist von den Faktoren „Land“, „Typ“ und „Farbe“ abhängig. Means Plot with confidence limits for Vanadium (Interaction: Type*Country*Colour) 2,5 2,0 Vanadium WechselWirkungsplot 1,5 1,0 0,5 0,0 -0,5 -1,0 Ty pe: Authentic Commercial White wines Type: Authentic Commercial Red wines Czech Republic Hungary Romania South Africa