Biometrie Pflicht für Studierende im MasterStudium der Lebensmitteltechnologie 4 SWS VL/ UE am PC ⇒ Abschluss: Klausur U. Römisch http:// www.lmtc.tu-berlin.de/angewandte_statistik_und_consulting LITERATUR zur Lehrveranstaltung „Biometrie“ /1/ Autorenkollektiv (2004): Einführung in die Biometrie. 2. Aufl., Saphir- Verl. Ribbesbüttel /2/ Backhaus, K., Erichson, B., Plinke,W., Weiber,R. (2011) Multivariate Analysemethoden. 10. Aufl. Springer- Verl Berlin /2/ Bärlocher, F. (2008): Biostatistik. 2. Aufl., Thieme Verl. Stuttgart /3/ Bortz, J., G. A. Lienert u. K. Boehnke (1990): Verteilungsfreie Methoden in der Biostatistik. Springer- Verl. Berlin /4/ Fahrmeir, L., R. Künstler, I. Pigeot u. G. Tutz (2004): Statistik- Der Weg zur Datenanalyse. 5. Aufl., Springer- Verl. Berlin /5/ Hartung, J. u. a. (1989): Statistik. Lehr- und Handbuch der angewandten Statistik. 7. Aufl., Oldenbourg Verl. München /6/ Klein, Bernd (2007): Versuchsplanung- DoE. Einführung in die Taguchi/Shainin- Methodik. 2. Aufl. Oldenbourg Verl. München /7/ Kleppmann, W. (2006): Taschenbuch Versuchsplanung 4. Auflage Hanser Verl. München /8/ Rudolf, M. u. W. Kuhlisch (2008) Biostatistik- Eine Einführung für Biowissenschaftler. Pearson Studium, München /9/ Stahel, W. (1999): Statistische Datenanalyse - Eine Einführung für Naturwissenschaftler. 2. Aufl., Vieweg Verl. Braunschweig/ Wiesbaden /10/ Timischl, W. (2000) Biostatistik- Eine Einführung für Biologen und Mediziner. 2. Aufl., Springer Verl. Berlin Inhaltsverzeichnis EINLEITUNG 1. Was versteht man unter Statistik, Biometrie, Chemometrie, Ökonometrie und Technometrie? 2. Wie lügt man mit Statistik? ● Umfragen ● Mittelwert- und Streuungsmaße ● Grafiken ● Signifikanzaussagen bei stat. Tests Teil I: Statistische Datenanalyse 1. Beschreibende und explorative Methoden 1.1 Charakterisierung von Merkmalen 1.2 Grundgesamtheit und Stichprobe 1.3 Die Häufigkeitsverteilung diskreter und stetiger eindim. Merkmale - absolute u. relative Häufigkeiten und ihre grafische Darstellung, empirische Verteilungsfunktion 1.4 Lage- und Streuungsmaße, Schiefe und Exzeß - arithm. Mittel, Median, gestutztes Mittel, Modalwert, geometrisches Mittel, α- Quantil - Spannweite, Medianabstand, Quartilsabstand, Varianz, Standardabweichung, Standardfehler des arithm. Mittelwertes, Variationskoeffizient, Box- und Whisker Plots - Schiefe und Exzess 1.5. Zwei- und mehrdimensionale Merkmale - grafische Darstellung (XY-Scatterplot) - 2-dim. Häufigkeitsverteilung - Zusammenhangsmaße (Assoziations,- Maß- und Rangkorrelationskoeffizient) - lineare Regression (einf. und multiple lineare Regression) 2. Wahrscheinlichkeitsrechnung 2.1 Zufälliges Ereignis, Wahrscheinlichkeit, Zufallsgröße 2.2 Parameter von Zufallsgrößen (Erwartungswert u. Varianz) 2.3 Spezielle Verteilungen (Binomial- und Normalverteilung) 2.4 Prüfverteilungen (χ2-, t- u. F- Verteilung) 3. Schließende Methoden 3.1 Punktschätzungen, Konfidenzintervalle, Toleranzintervalle 3.2 Statistische Tests bei 1- und 2- Stichprobenproblemen 3.2 1- und 2-faktorielle Varianzanalyse bei Mehrstichprobenproblemen 3.3 Einf. lin. und polynomiale Regression und multiple lin. Regression Teil 2: Statistische Versuchsplanung 4. Einführung in die stat. Versuchsplanung 4.1 Arten statistischer Versuchspläne - Faktorielle Versuchspläne 1. Ordnung 2k und 2k-1 - Zentral zusammengesetzte Versuchspläne - Mischungspläne 4.2 Beispiele zu stat. Versuchsplänen - Herstellung eines chemischen Produktes - Untersuchung des Fermentationsprozesses zur Gewinnung von Ethanol - Entwicklung eines glutenfreien und ballaststoffangereicherten Gebäckes mit optimalen Eigenschaften Teil 3: Multivariate stat. Methoden 5. Übersicht über multivariate stat. Methoden 5.1 Strukturen-entdeckende Verfahren - Hauptkomponentenanalyse - Faktorenanalyse - Clusteranalyse 5.2 Strukturen-prüfende Verfahren - Regressionsanalyse, Varianzanalyse - Diskriminanzanalyse 5.3 Beispiel zu multivariaten stat. Methoden - Herkunftsbestimmung von Weinen auf der Basis chemischer Parameter EINLEITUNG 1. Was ist Statistik? (Biometrie, Technometrie, Ökonometrie) Statistik ist die Wissenschaft des Sammelns, Analysierens und Interpretierens von Daten. Sie beantwortet die Fragen: 1. Wie gewinnt man welche Daten? 2. Wie kann man Daten beschreiben? und 3. Welche Schlüsse kann man aus Daten ziehen? Teilgebiete: Stochastik Beschreibende Statistik Wahrscheinlichkeitstheorie Schließende Statistik Stat. DA Stat. VP 2. Wie lügt man mit Statistik? Bsp. 1: Wir leben im Zeitalter der Umfragen! ● Bsp.: Das Ergebnis einer Umfrage unter 1883 Lesern der NZZ ergab, dass 139 das NZZ- Folio zum Thema „Katastrophen“ aus einer Liste von 12 Folios besonders gut gefallen hat, dabei war dieses Folio nie erschienen. ● Bsp.: Bei der Frage, “welche der folgenden Bücher haben Sie gelesen?” behaupteten 416 (22%) der Teilnehmer “Ulysses” von J. Joyce, das waren nur geringfügig weniger als jene, die “Sakrileg” von D. Brown gelesen hatten, während nur 75 (4%) Metzlers “Grissini & Alpenbitter” gelesen hatten. Fazit: 1. Meist werden Multiple-Choice- Fragebögen eingesetzt, die eine einfachere Auswertung ermöglichen, aber den Nachteil haben, dass vorgegebene Antworten die Leute auf Ideen bringen, die sie sonst nicht gehabt hätten und differenzierte Antworten unmöglich machen. 2. Eine Umfrage verrät nie, was die Leute tatsächlich denken oder tun, sondern nur, was sie sagen, sie würden es denken oder tun. Die Wahrheit lässt sich nicht aus einem Fragebogen ablesen! 3. Es ist ein Merkmal von Umfragen, dass niemand für seine Behauptungen geradestehen muss. Müssen Teilnehmer befürchten, dass ihre Antworten überprüft werden, fallen die Ergebnisse anders aus, als wenn sie anonym erhoben werden. Jeder Fragebogen, anonym oder nicht, ist also eine Einladung zur Selbsttäuschung. 4. Ergebnisse von Umfragen hängen häufig von der Fragestellung ab und davon, wer sie stellt und laden damit zur bewussten Irreführung ein. Im Rahmen seriöser, wissenschaftlich fundierter Fragebogenuntersuchungen gibt es Möglichkeiten, Antworten auf ihre Zuverlässigkeit zu prüfen. (z.B. Prüfen der Konsistenz von Antworten, keine Zulassung von Suggestivfragen, Anwendung zertifizierter Fragebögen,…) Dennoch: Misstrauen bei der Deutung von Umfrageergebnissen in Medien (Presse, Telefon, Internet), Politik, Wirtschaft und gesellschaftlichen Organisationen ist angebracht! Bsp. 2: Mittelwert- und Streuungsmaße ● Bsp.: Das durchschnittliche Einkommen niedergelassener Ärzte in der Schweiz beträgt jährlich 205000 SF, behaupten Politiker, stimmt nicht, behaupten die Ärzte, die von 165000 SF ausgehen. Wer hat Recht? Bsp. 2: Mittelwert- und Streuungsmaße ● Bsp.: Das durchschnittliche Einkommen niedergelassener Ärzte in der Schweiz beträgt jährlich 205000 SF, behaupten Politiker, stimmt nicht, behaupten die Ärzte, die von 165000 SF ausgehen. Wer hat Recht? ⇒ die Ärzte, denn man muss den Median als Zentrum der linkssteilen, rechtsschiefen Häufigkeitsverteilung (wenige Ärzte verdienen sehr viel mehr!) zu Grunde legen, Gleiches gilt für Spareinlagen, Vermögen,… Der Median (Zentralwert, 0,5-Quantil) ist außerdem robust gegenüber Ausreißern. Das arithm. Mittel ist dagegen der beste Schätzwert bei normalverteilten Grundgesamten. Dazu muss man sich die Verteilung aber vorher ansehen und sie auf Normalverteilung prüfen! ● Bsp.: In einer best. Kultur erhöhte sich in 3 Tagen die Zahl der Bakterien pro Einheit von 100 auf 500. Man bestimme die durchschnittliche tägliche Zunahme in [%]. ● Bsp.: Die mittlere Keimzahl von Milchproben ist zu bestimmen, wobei sich die Messwerte um Zehnerpotenzen unterscheiden. ⇒Bei der Bestimmung mittlerer Wachstumsraten, ebenso wie bei Zähldaten, die sich um Zehnerpotenzen in den Werten unterscheiden, verwendet man dagegen das geometrische Mittel. Neben Mittelwertmaßen liefern Streuungsmaße wichtige Informationen über Daten. ● Bsp.: Wenn man im Durchschnitt an jedem Tag des Monats ein Glas Rotwein trinkt, aber alle an einem Tag, bekommt man eine Alkoholvergiftung und überlebt sie vermutlich nicht. Trinkt man aber jeden Tag des Monats nur ein Glas, lebt man vielleicht sogar länger, als wenn man nie Rotwein trinken würde. ⇒ Im Mittel erhält man den gleichen Wert, aber die Abweichung vom Mittelwert ist im ersten Fall viel größer. ⇒ Allen Mittelwertmaßen fügt man entsprechende Streuungsmaße, wie z.B. Standardabweichung oder Medianabstand bei. Bsp. 3: Vorsicht bei Grafiken! 55 100 54,5 54 80 53,5 53 60 Reihe1 52,5 Reihe1 52 40 51,5 51 20 50,5 50 0 1 2 3 1 2 3 Achtung: Wenn eine vertikale Achse nicht bei 0 beginnt, werden Unterschiede überhöht! Bsp. 5: Signifikanzaussagen bei stat. Tests ● Regelmässig werden Studienergebnisse veröffentlicht, die einander widersprechen: - Chem. Industriegebiete ↔ Leukämie - Hormonersatztherapie ↔ Herzerkrankungen ● Um die Chancen für die Veröffentlichung eines Artikels zu erhöhen, werden “ungünstige” oder negative Ergebnisse oft weggelassen. Schädliche Therapiewirkungen, wie Schmerzintensität, bleiben häufig unbeachtet. ● Es gibt einen Zusammenhang zwischen den Resultaten von Studien und ihrer Finanzierung (Pos. Ergebnisse bei 80% der industriefinanzierten Projekte, nur 50% bei unabh. Forschern- laut Auswertung von 1000 Studien), ● Viele Forscher benutzen statistische Verfahren, die sie nicht verstehen! Mit Signifikanztests will man eine Entscheidung zwischen zwei Hypothesen, der Nullhypothese H0 und einer Alternativhypothese HA herbeiführen. Dabei kann man 2 Fehler begehen: die Fehler 1. oder 2. Art mit den Wahrscheinlichkeiten α bzw. β. H0 wahr HA wahr Testannahme von H0 Richtige Entsch. (1-α) Fehler 2. Art (β) Testannahme von HA Fehler 1. Art (α) Richtige Entsch. (1-β) In Signifikanztests wird nur das Risiko für den Fehler 1. Art α kontrolliert, während das Risiko für den Fehler 2. Art β unberücksichtigt bleibt, d.h. aber nicht, dass es nicht vorhanden ist! ⇒ Folgen des F.1. A. sollten die sein, die man auf jeden Fall vermeiden möchte! ● Bsp.: Grenzwert für Asbestfasern in Gebäuden liege bei einer Konzentration von λ0 = 1000 Fasern /m3 (X~π π(λ λ)) π- Poissonverteilung λ- Mittelwert der PV Variante 1: H0: λ ≤ λ0 HA: λ > λ0 Variante 2: H0: λ ≥ λ0 HA: λ < λ0 ● Bsp.: Grenzwert für Asbestfasern in Gebäuden liege bei einer Konzentration von λ0 = 1000 Fasern /m3 (X~π π(λ λ)) π- Poissonverteilung λ- Mittelwert der PV Variante 1: H0: λ ≤ λ0 HA: λ > λ0 Variante 2: H0: λ ≥ λ0 HA: λ < λ0 F.1.A. bei Variante 1: Obwohl in Wirklichkeit die Asbestkonzentration unterhalb des Grenzwertes liegt, wird das Gebäude saniert. bei Variante 2: Obwohl der Grenzwert der Konzentration überschritten wird, wird das Gebäude nicht saniert! (zu bevorzugende Variante!) Stichprobenumfangproblem: In zu kleinen Stichproben können selbst große, praktisch bedeutsame Effekte nicht nachgewiesen werden, da sie sich nicht klar genug von den zufälligen Fehlern abheben. Mit großen Stichproben kann man dagegen praktisch unwichtige Effekte als “statistisch signifikant” ausweisen. ⇒ “Praktische Relevanz” beachten und auf der Basis von Vorgaben über die Wahrscheinlichkeiten für die Fehler 1. u. 2. Art den Stichprobenumfang berechnen! 1.Teil: Statistische Datenanalyse 1. Beschreibende Methoden s. /9/ Stahel Die Beschreibende und explorative Statistik dient der Beschreibung, Strukturierung und Verdichtung umfangreichen Datenmaterials. Wie erhält man nun Daten und welcher Art sind die Daten? Erhebungen und Versuche Ziel: Kenntnisse über die Eigenschaften bestimmter Objekte (z.B. Anlagen, Messmethoden, Weinproben, Hefestämme) oder Individuen (z.B. Personen, Tiere, Pflanzen) zu erhalten • Erhebungen ⇒ Ist-Standsanalysen • Versuche - Vergleich von Gruppen - Untersuchung von Zusammenhängen zwischen Merkmalen ⇒ 1.1. Charakterisierung von Merkmalen Die Objekte/ Individuen, an denen Beobachtungen vorgenommen werden, heißen Beobachtungseinheiten (Merkmalsträger). Dabei ist kein Objekt/ Individuum mit einem anderen identisch. Diese Unterschiedlichkeit nennt man Variabilität. Die Variabilität biologischer Objekte/ Individuen ist häufig genetisch oder umweltbedingt. - Die Größen oder Eigenschaften, auf die sich die Beobachtungen beziehen, heißen Merkmale. - Jedes Objekt/ Individuum ist durch eine spezielle Merkmalsausprägung gekennzeichnet. - Alle beobachteten Werte eines Merkmals heißen Merkmalswerte. Klassifizierung von Merkmalen 1. Merkmale Quantitative Merkmale Qualitative Merkmale (Unterscheidung durch Art) Bsp.: Geschlecht, Rasse, Sorte, (Unterscheidung durch Größe) Bsp.: Alter, Gewicht, Masse, Länge, Land, Hefestamm, Aroma 2. Merkmale Diskrete Merkmale (endlich viele oder abzählbar unendlich viele Merkmalsausprägungen) Bsp.: Geschlecht, Rasse, Sorte, Land, Hefestamm, Aroma, Zellzahl Volumen, Einkommen, Wasser- u. Lufttemperatur, Konzentration, Zellzahl Stetige Merkmale (überabzählbar unendlich viele Ausprägungen, d.h. Werte im reellen Zahlenintervall) Bsp.: Alter, Gewicht, Masse, … Merkmale 3. Nominalskalierte Merkmale (Skala mit niedrigstem Niveau, keine Vergleichbarkeit oder Rangfolge zwischen den Werten) Bsp.: Geschlecht, Rasse, Sorte, Land, Hefestamm, Aroma Ordinalskalierte Merkmale Metrisch skalierte Merkmale (Skala mit höherem (Skala mit höchstem Niveau, Werte unterNiveau, Abstände scheiden sich in ihrer zwischen den Werten Intensität, ermöglichen sind interpretierbar) eine Rangfolgeordnung, jedoch keine Bsp.: Alter, Gewicht, Masse, Länge, Volumen, EinInterpretation der kommen, Wasser- u. Abstände zwischen Lufttemperatur, Zellden Rängen) zahl, Konzentration, Bsp.: Aroma, Härtegrad, sensor. Parameter, Zensuren Intervallskala Proportionsskala 1.2. Grundgesamtheit und Stichprobe Daten kann man durch Befragung von Personen (Erhebungen) oder durch Experimente (Messungen) gewinnen. Experimente Passive Experimente Alle Beobachtungswerte ergeben sich zufällig während des Versuches! Aktive Experimente Aktive Planung der Experimente vor deren Durchführung, Planung der Versuchsbedingungen Kombinierte Experimente Anwendung der Methoden der statistischen Versuchsplanung (SVP)! Methoden der statistischen Versuchsplanung Ziel: Erzielen von Ergebnissen mit ausreichender Sicherheit und Genauigkeit bei minimaler Anzahl von Versuchen Problem Planung 3 (4) Versuchsetappen: Durchführung Auswertung Bsp.1: Herstellung einer Chemikalie [s. /7/] PROBLEM: Zur Herstellung einer Chemikalie werden mehrere Ausgangsstoffe einschließlich Katalysator vermischt und über längere Zeit erhitzt. Dabei erfolgt eine Reaktion und das Reaktionsprodukt wird abgetrennt. ZIEL: Erhöhung der Ausbeute durch eine Untersuchung der Wirkung der Einflussgrößen: - Temperatur [°C] - Reaktionszeit [h] und - Katalysatormenge [%] und ihrer Wechselwirkungen Faktorielle VP 1. Ordnung vom Typ 2k (k=3) Vers. Einflussgrößen 2-fakt. WW Nr. B X X2 X3 X1X2 X1X3 X2X3 1 B j 1 + - - - + + + 2 + + - - - - + 3 - - + - - + - 4 - + + - + - - 5 - - - + + - - 6 - + - + - + - 7 + - + + - - + 8 + + + + + + + 0 0 0 9-14 Zielgrößen Y1 Y2 Bsp1.: Herstellung einer Chemikalie Mittelwerte der Ausbeute mit Konfidenzintervall 68,012 (66,48,69,55) (+++) 55,387 (53,85,56,92) 62,387 (60,85,63,92) Katalysator 54,012 (52,48,55,55) 68,887 (67,35,70,42) 56,112 (54,58,57,65) 61,813 (60,28,63,35) 53,287 (51,75,54,82) Zeit (- - -) Temperatur Def.: Die Menge aller möglichen Werte eines Merkmals nennt man Grundgesamtheit. Eine endliche Teilmenge der Grundgesamtheit nennt man Stichprobe. Besteht die Teilmenge aus n Elementen, so heißt n Stichprobenumfang. Def.: Der Gesamtheit der Merkmalswerte entspricht eindeutig eine Gesamtheit von Beobachtungseinheiten (Merkmalsträgern), die man ebenfalls als Grundgesamtheit oder Population bezeichnet. Die Grundgesamtheit muss bei jeder Aufgabenstellung festgelegt werden! Bsp.: Die Füllhöhe von 50 Bierflaschen (Stichprobe) der Tagesproduktion (Grundgesamtheit) einer Brauerei soll untersucht werden. Mathematische Statistik Beschreibende Statistik Schließende Statistik Wahrscheinlichkeitsrechnung Induktionsschluss Stichprobe Grundgesamtheit Deduktionsschluss Was ist bei einer Stichprobenentnahme zu beachten? Die Stichprobenauswahl muss so erfolgen, dass die Stichprobe die Grundgesamtheit repräsentiert! 1. Zufälligkeit der Stichprobe 2. Vermeiden systematischer Fehler 3. Umfang der Stichprobe Optimaler Stichprobenumfang ist abhängig von : - zeitlichen, arbeitstechnischen und finanziellen Faktoren - Wahl des statistischen Modells - Genauigkeit der Ergebnisse - Umfang der Grundgesamtheit 4. Homogenität und gleiche Genauigkeit 5. Vergleichbarkeit 1.3. Die Häufigkeitsverteilung diskreter und stetiger eindim. Merkmale Bei einem Versuch wird an n Beobachtungseinheiten ein Merkmal X beobachtet, d.h. an jeder Einheit wird die Ausprägung dieses Merkmals festgestellt. Sind a1,...,am die möglichen Ausprägungen des Merkmals X, so wird also der i-ten Beobachtungseinheit (i=1,...n) seine Ausprägung aj als Merkmalswert xi zugeordnet: xi = aj (i) Bsp.: n = 100 Bierflaschen X = Biersorte a1 = Radeberger a2 = Paulaner a3 = Kindl Merkmalswert Ausprägung Beobachtungseinheit Schritte der Datenerfassung und -aufbereitung: 1. Schritt: Erfassung der Daten eines oder mehrerer Merkmale Stichprobe (ungeordnete Urliste): Merkmalswerte x1,...,xn Variationsreihe (geordnete Urliste): x(1) ,...,x(n) , wobei x(1) ≤... ≤ x(n) Skalierung der Ausprägungen: a1,…,am Bsp.: Weindaten Nr. i Land L Art A Rebsorte R Histamingehalt H [mg/l] Butandiolgehalt B [g/l] 1 l1 a1 r1 h1 b1 … … … … … … 7 l7 = 5 a7 = 2 r7 = 2 h7 = 0,4 b7 = 0,49 … … … … … … n ln an rn hn bn Skalierung: Land: li = 1 = „Deutschland“ 2 = „Bulgarien“ 3 = „Österreich“ 4 = „Frankreich“ 5 = „Australien“ Art: ai = 1 = „Rotwein“ 2 = „Weißwein“ 3 = „Roséwein“ Rebsorte: ri = 1 = „Cabernet Sauvignon“ 2 = „Chardonnay“ 3 = „Merlot“ 4 = „Riesling“ 2. Schritt: Ermittlung der abs. und rel. Häufigkeiten 2.1. (Primäre) Häufigkeitsverteilung (HV) bei diskreten Merkmalen Def.: Beobachtet man an n Beobachtungseinheiten ein Merkmal X, das in m Ausprägungen a1,...,am vorkommt, so heißt fn(aj) = "Anzahl der Fälle, in denen aj auftritt" für j=1,...,m absolute Häufigkeit der Ausprägung aj. Bem.: - Σ fn(aj) = n - Die abs. Häufigkeiten hängen vom Stichprobenumfang n ab Def.: Die relative Häufigkeit hn(aj) = (1/n) fn(aj) für j=1,...,m gibt den Anteil der Beobachtungseinheiten bezogen auf n an, die die Ausprägung aj haben. Bem.: - Σ hn(aj) = 1 - 0 ≤ hn(aj) ≤ 1 - Die Folge der relativen Häufigkeiten hn(a1),...,hn(am) heißt rel. Häufigkeitsverteilung des Merkmals X. 2.2. (Sekundäre) Häufigkeitsverteilung (HV) bei stetigen Merkmalen (mit Klassenbildung) - Da stetige Merkmale in sehr vielen Ausprägungen auftreten, fasst man verschiedene Ausprägungen in Klassen zusammen. - Man zerlegt das Intervall, in dem alle Beobachtungswerte liegen in m Klassen: K1,...,Km mit Kj = (yj-1; yj] ; j=1,...,m mit den Klassengrenzen: yj-1 und yj und den Klassenmitten: xj = (yj-1+yj) /2 - Die Anzahl der Klassen wählt man häufig m ≤ n (oder 5 ≤ m ≤ 20), wobei n der Stichprobenumfang ist. - Der Abstand d =yj - yj-1 für j=1,...,m heißt Klassenbreite. (äquidistante Klassen) Bem.: Durch die Angabe der unteren Anfangsklassengrenze y0 und die Klassenbreite d oder durch y0, ym und m wird eine Klasseneinteilung eindeutig bestimmt. Def.: Als absolute Klassenhäufigkeit bezeichnet man fn(xj) = "Anzahl der Beobachtungswerte in der j- ten Klasse mit der Klassenmitte xj" (j=1,...,m) Def.: Als relative Klassenhäufigkeit bezeichnet man hn(xj) = (1/n) · fn(xj) Bem.: Die Folge der relativen Häufigkeiten hn(x1),...,hn(xm) heißt rel. Häufigkeitsverteilung des stet. Merkmals X. 3. Schritt: Grafische Darstellungen - Stabdiagramm (Strecken- oder Liniendiagramm) hn(aj) ● über jeder Ausprägung auf der Abszisse wird die zugehörige Häufigkeit als senkrechte Strecke abgetragen, ● besonders für diskrete Merkmale geeignet, z.B.: Anzahl der Stillstände einer Anlage, Aromastufen, Hefestämme, Schrotarten - Häufigkeitspolygon a1... aj hn(aj) ● erhält man durch Verbindung der Endpunkte der Strecken des Stabdiagramms, ● besonders zur Darstellung zeitlicher Verläufe geeignet, z.B.: monatliche Entwicklung der Arbeitslosenzahlen a1... aj - Histogramm hn(xj) ● Häufigkeiten werden als aneinanderstoßende Rechtecke dargestellt, deren Flächen proportional den Häufigkeiten sind, ● besonders für stetige Merkmale geeignet - Flächendiagramme, z.B.: Kreisdiagramme ● Häufigkeiten werden durch Flächen repräsentiert, ● zur Strukturdarstellung geeignet, z.B.: Anzahl der Beschäftigten in verschiedenen Wirtschaftszweigen, Wahlergebnisse x1 y0 y1 … 13% 13% 57% 17% xj 4. Schritt: Ermittlung der empirischen Verteilungsfunktion 4.1. (Primäre) Häufigkeitsverteilung bei diskreten Merkmalen (ohne Klassenbildung) Def.: Die absolute Summenhäufigkeit der j- ten Ausprägung aj ist die Anzahl der Beobachtungseinheiten, bei denen eine Ausprägung ≤ aj beobachtet wurde, d.h. j fn(a1) + ... + fn(aj) = ∑ f (a k =1 n k ) ; j=1,...,m Def.: Die relative Summenhäufigkeit der j- ten Ausprägung gibt den Anteil der Beobachtungseinheiten an, bei denen eine Ausprägung ≤ aj beobachtet wurde, d.h. j hn(a1) + ... + hn(aj) = ∑ h (a k =1 n k ) ; j=1,…,m Durch die Folge der relativen Summenhäufigkeiten wird die empirische Verteilungsfunktion des Merkmals X bestimmt. Def.: Die empirische Verteilungsfunktion des Merkmals X ist eine Funktion über dem Bereich der reellen Zahlen R 0 ; x < a1 j F̂n ( x ) = ∑ hn (ak ) ; a j ≤ x < a j+1 j = 1,..., m k =1 1 ; x ≥ am (x∈R) Bem.: Die empirische Verteilungsfunktion ist auf jedem Intervall [aj,aj+1) konstant und springt bei aj+1 um den Wert hn(aj+1) nach oben. Die erste Sprungstelle liegt bei der kleinsten, die letzte bei der größten beobachteten Merkmalsausprägung. F̂n (x) 1 hn(a1)+ hn(a2) hn(a1) x a1 a2 Ausprägungen 4.2. (Sekundäre) Häufigkeitsverteilung (HV) bei stetigen Merkmalen (mit Klassenbildung) Def.: Die absolute Klassensummenhäufigkeit der j- ten Klasse ist die Anzahl der Beobachtungswerte, die in einer Klasse mit einer Klassenmitte ≤ xj liegen, d.h. j fn(x1) + ... + fn(xj) = ∑ f (x k =1 n k ) ; j=1,...,m Def.: Die relative Klassensummenhäufigkeit der j- ten Klasse gibt den Anteil der Beobachtungswerte an, die in einer Klasse mit der Klassenmitte ≤ xj liegen, d.h. j hn(x1) + ... + hn(xj) = ∑h (x k =1 n k ) ; j=1,...,m Durch die Folge der relativen Klassensummenhäufigkeiten wird die empirische Verteilungsfunktion von X bestimmt! Def.: Die empirische Verteilungsfunktion des Merkmals X, deren Beobachtungswerte in Klassen vorliegen, hat folgende Gestalt: 0 ; x < x1 j F̂n ( x ) = ∑ hn ( x k ) ; x j ≤ x < x j+1 j = 1,..., m k =1 1 ; x ≥ xm Bem.: Die empirische Verteilungsfunktion an der Stelle x ist die Summe der relativen Häufigkeiten aller Klassen, deren Mitten xj ≤ x sind. Als Sprungstellen werden jetzt die Klassenmitten verwendet. Bsp.: Weindaten- stet. Merkmal Butandiolgehalt Sekundäre Verteilungstabelle (y0 = 0 ; d = 0,25): Kl.Nr. Kl.grenzen Kl.mitte abs.Häuf. rel.Häuf. abs.K.S.H. rel.K.S.H. j (yj-1 ; yj] xj fn(xj) hn(xj) -----------------------------------------------------------------------------------------------------0 (- ∞ ; 0] 1 (0 ; 0,25] 0,125 f1 h1 f1 h1 2 (0,25 ; 0,50] 0,375 f2 h2 f1+f2 h1+h2 M 7 M (1,50 ; 1,75] (1,75 ; ∞) 1,625 M f7 h7 n M 1 j=1,….m Bem.: Die empirische Verteilungsfunktion ist auf jedem Intervall [xj,xj+1) konstant und springt bei xj+1 um den Wert hn(xj+1) nach oben. Die erste Sprungstelle liegt bei der kleinsten, die letzte bei der größten Klassenmitte. F̂n (x) 1 hn(x1)+ hn(x2) hn(x1) x x1 x2 Klassenmitten Bsp.1: Kolonien von Mikroorganismen (s. /9/) Aufgabe: Untersuchung der Eigenschaften von Mikroorganismen in der Luft Versuch: Nährboden auf Agarplatte wurde 30 min. bei Zimmertemperatur offen im Raum stehen gelassen, nach Inkubation über 3 Tage waren 40 Pilz- bzw. Bakterienkolonien gewachsen, von denen der Durchmesser, die Antibiotikaresistenz, sowie die Farbe bestimmt wurden. 1. Frage: Wie kann man die Verteilung der Merkmale beschreiben? Unterscheiden sich die Verteilungen der Durchmesser zwischen den Kolonien unterschiedlicher Farbe? 1. Schritt: Datenerfassung und Merkmalsklassifizierung X: Durchmesser [mm] – quantitativ, stetig, metrisch skaliert Y: Antibiotikaresistenz [-] – qualitativ, diskret, ordinal skaliert Ausprägungen: 1- sehr sensitiv, 2- sensitiv, 3- intermediär, 4- resistent, 5- sehr resistent Z: Farbe [-] – qualitativ, diskret, nominal skaliert Ausprägungen: 1- gelb, 2- weißlich, 3- braun, 4- orange, 5- farblos, 6- rosa, 7- grün 2. Schritt: Erfassung der Daten Nr. i Durchmesser xi Resistenz yi (Stichprobe) yi cod Farbe zi zi cod 1 0,5 sehr sensitiv 1 gelb 1 2 4,1 sensitiv 2 gelb 1 … … … … … 14 2,1 resistent weißlich 2 … … … … … 28 0,2 sehr sensitiv 1 orange 4 29 1,5 sensitiv 2 orange 4 30 2,8 intermediär 3 farblos 5 … … … … … 34 4,2 resistent rosa 6 … … … … … 38 10,1 sehr sensitiv 1 braun 3 39 3,3 intermediär 3 grün 7 40 4,2 intermediär 3 grün 7 4 4 3. Schritt: Bestimmung der empir. Häufigkeitsverteilung Merkmal X: Durchmesser Frequency Tabulation for Durchmesser -------------------------------------------------------------------------------Lower Upper Relative Cumulative Cum. Rel. Class Limit Limit Midpoint Frequency Frequency Frequency Frequency -------------------------------------------------------------------------------at or below 0,0 0 0,0000 0 0,0000 1 0,0 2,0 1,0 3 0,0750 3 0,0750 2 2,0 4,0 3,0 7 0,1750 10 0,2500 3 4,0 6,0 5,0 10 0,2500 20 0,5000 4 6,0 8,0 7,0 10 0,2500 30 0,7500 5 8,0 10,0 9,0 7 0,1750 37 0,9250 6 10,0 12,0 11,0 3 0,0750 40 1,0000 above 12,0 0 0,0000 40 1,0000 -------------------------------------------------------------------------------- Histogram (abs. frequencies) percentage [%] 10 Durchmesser frequency 12 100 10 80 8 60 6 40 4 20 2 0 2 4 6 8 10 12 Durchmesser 8 6 4 2 0 0 0 Box-and-Whisker Plot Histogram (rel. cumulative frequencies) 0 2 4 6 8 Durchmesser 10 12 Merkmal Y: Antibiotikaresistenz (Ausprägungen hier nicht codiert!) Frequency Table for Antibiotikaresistenz -----------------------------------------------------------------------Relative Cumulative Cum. Rel. Class Value Frequency Frequency Frequency Frequency -----------------------------------------------------------------------1 intermediär 8 0,2000 8 0,2000 2 resistent 6 0,1500 14 0,3500 3 sehr resistent 4 0,1000 18 0,4500 4 sehr sensitiv 13 0,3250 31 0,7750 5 sensitiv 9 0,2250 40 1,0000 ------------------------------------------------------------------------ Barchart for Antibiotikaresistenz frequency 15 12 9 6 Piechart for Antibiotikaresistenz 3 0 22,50% 20,00% 32,50% 15,00% Antibiotikaresistenz intermediär resistent 10,00% sehr resistent sehr sensitiv sensitiv intermediär resistent sehr resistent sehr sensitiv sensitiv Kategorien weisen hier keine Ordnung auf! Merkmal Y: Antibiotikaresistenz (Ausprägungen hier numerisch codiert!) Frequency Tabulation for Antibiotikaresistenz_1 -------------------------------------------------------------------------------Lower Upper Relative Cumulative Cum. Rel. Class Limit Limit Midpoint Frequency Frequency Frequency Frequency -------------------------------------------------------------------------------at or below 0,5 0 0,0000 0 0,0000 1 0,5 1,5 1,0 13 0,3250 13 0,3250 2 1,5 2,5 2,0 9 0,2250 22 0,5500 3 2,5 3,5 3,0 8 0,2000 30 0,7500 4 3,5 4,5 4,0 6 0,1500 36 0,9000 5 4,5 5,5 5,0 4 0,1000 40 1,0000 above 5,5 0 0,0000 40 1,0000 -------------------------------------------------------------------------------- Ausprägungen Histogram Ordnung zwischen den Kategorien 12 9 Dot Diagram 6 13 3 0 0 1 2 3 4 5 Antibiotikaresistenz_1 6 Frequency frequency 15 0 0 1 2 3 4 5 Antibiotikaresistenz_1 Merkmal Z: Farbe (Ausprägungen hier nicht codiert!) Frequency Table for Farbe -----------------------------------------------------------------------Relative Cumulative Cum. Rel. Class Value Frequency Frequency Frequency Frequency -----------------------------------------------------------------------1 braun 1 0,0250 1 0,0250 2 farblos 4 0,1000 5 0,1250 3 gelb 13 0,3250 18 0,4500 4 grün 2 0,0500 20 0,5000 5 orange 2 0,0500 22 0,5500 6 rosa 4 0,1000 26 0,6500 7 weißlich 14 0,3500 40 1,0000 ------------------------------------------------------------------------ Barchart for Farbe frequency 15 Kategorien weisen keine Ordnung auf! 12 Piechart for Farbe 9 2,50% 10,00% 6 3 35,00% 0 braun farblos gelb grün orange rosa weißlich 10,00% 5,00% 5,00% Farbe braun 32,50% farblos gelb grün orange rosa weißlich Vergleich der rel. Häufigkeitsverteilungen der Durchmesser zwischen den Kolonien unterschiedlicher Farbe Histogram Histogram 40 30 percentage percentage 25 30 20 20 15 10 10 0 5 0 0 2 4 6 8 10 12 0 Durchmesser der gelben Kolonien percentage 40 30 20 10 0 1 4 6 8 10 12 Durchmesser der weißlichen Kolonien Histogram -1 2 3 5 7 9 11 Durchmesser der sonstigen Kolonien 2. Frage: Wie kann man mittels statistischer Maßzahlen einen quantitativen Vergleich der Häufigkeitsverteilungen vornehmen? Wie unterscheiden sich die mittleren Durchmesser zwischen den Kolonien unterschiedlicher Farbe, wie stark streuen die Werte? 1.4. Lage- und Streuungsmaße, Schiefe und Exzeß 1.4.1 Lagemaße 1. Mittelwertmaße Mittelwertmaße geben an, wo sich das Zentrum einer Häufigkeitsverteilung befindet. ● Arithmetischer Mittelwert Seien x1, ... ,xn die Beobachtungswerte des Merkmals X 1 n x = ∑ xi n i =1 ● Arithmetischer Mittelwert Seien x1, ... ,xn die Beobachtungswerte des Merkmals X 1 n x = ∑ xi n i =1 Vorteile: - der arithm. Mittelwert einer Stichprobe ist ein unverzerrter Schätzwert für den Mittelwert einer normalverteilten Grundgesamtheit und gut geeignet bei eingipfligen Häufigkeitsverteilungen - alle Informationen der Stichprobe werden ausgeschöpft Nachteile: - das arithm. Mittel ist unbrauchbar bei schiefen oder mehrgipfligen Verteilungen - das arithm. Mittel ist nicht robust gegenüber Ausreißern ● Median (Zentralwert) - Der Median ist dadurch charakterisiert, dass jeweils 50 % der Beobachtungswerte einen Wert ≤ und 50 % einen Wert ≥ dem Median haben. - Wir ordnen daher die Beobachtungswerte der Größe nach und erhalten die Variationsreihe x(1) , ... ,x(n) mit x(1) ≤ ... ≤ x(n) ~ x 0 ,5 x ( k +1) ; für n = 2k + 1 = x ( k ) + x ( k +1) ; für n = 2k 2 Vorteile: - der Median ist auch bei asymmetrischen und mehrgipfligen Verteilungen verwendbar - er ist zu bevorzugen bei nur wenigen Messwerten und auch bei ordinalskalierten Beobachtungsmerkmalen - er ist robust gegenüber Ausreißern Nachteile: - es werden nicht alle Informationen der Stichprobe ausgeschöpft (nicht alle Messwerte gehen in die Berechnung des Medianes ein) - bei normalverteilten Merkmalen hat er schlechtere Schätzeigenschaften als das arithm. Mittel ● Gestutztes Mittel - Wir ordnen wieder die Stichprobe der Größe nach und streichen dann die m untersten und die m obersten Merkmalswerte. - Dann erhält man das (m/n) ·100 % - gestutzte Mittel, indem man das arithmetische Mittel aus den verbleibenden n - 2m Merkmalswerten bildet. 1 xm = ( x(m+1) + ... + x(n−m) ) n − 2m n ● Gestutztes Mittel - Wir ordnen wieder die Stichprobe der Größe nach und streichen dann die m untersten und die m obersten Merkmalswerte. - Dann erhält man das (m/n) ·100 % - gestutzte Mittel, indem man das arithmetische Mittel aus den verbleibenden n - 2m Merkmalswerten bildet. 1 xm = ( x(m+1) + ... + x(n−m) ) n − 2m n • Vorteil: - das gestutzte Mittel ist robust gegenüber Ausreißern und basiert im Vergleich zum Median auf einer größeren Anzahl von Werten • Nachteil: - es besitzt bei Normalverteilung schlechtere Schätzeigenschaften als das arithm. Mittel und schöpft nicht alle Informationen der Stichprobe aus ● Modalwert (Dichtemittel, Modus) Bei eingipfligen Verteilungen gibt das Dichtemittel die Ausprägung mit der größten Häufigkeit in der Messreihe an. Bei klassierten Daten (stet. Merkmale) gibt es die Klassenmitte der Klasse mit der größten Klassenhäufigkeit an. fn (xmod) ≥ fn (aj) ∀aj j=1,...,m ● Modalwert (Dichtemittel, Modus) Bei eingipfligen Verteilungen gibt das Dichtemittel die Ausprägung mit der größten Häufigkeit in der Messreihe an. Bei klassierten Daten (stet. Merkmale) gibt es die Klassenmitte der Klasse mit der größten Klassenhäufigkeit an. fn (xmod) ≥ fn (aj) ∀aj j=1,...,m Vorteile: - das Dichtemittel ist auch bei nominal- und ordinalskalierten Merkmalen anwendbar - bei mehrgipfligen Verteilungen gibt man neben dem Median auch die lokalen Dichtemittel an - das Dichtemittel ist robust gegenüber Ausreißern Nachteile: - bei Normalverteilung hat das Dichtemittel schlechtere Eigenschaften als das arithm. Mittel - nicht alle Beobachtungswerte gehen in die Berechnung des Dichtemittels ein ● Geometrisches Mittel - Sind die Merkmalswerte relative Änderungen (Zuwachsraten, Produktionssteigerungen), so wird das geometrische Mittel verwendet, da die Gesamtänderung nicht durch eine Summe, sondern durch ein Produkt beschrieben wird. - Anwendung bei Messdaten, die statt der arithm. eine geometr. Zahlenfolge bilden (z.B. bei Verdünnungsreihen). - Anwendung bei Zähldaten, von denen bekannt ist, dass sie durch multiplikative Wirkungen entstanden sind, deren Werte sehr unterschiedliche Größenordnungen aufweisen und die eine stark asymmetrische Häufigkeitsverteilung aufweisen (z.B. Keimzahlen in flüssigen Medien, wie Milch und Gülle). - Anwendung bei logarithmischen Daten (z.B. Spektralanalyse) Es gibt folgende Möglichkeiten der Berechnung des geom. Mittels und der durchschnittlichen Zuwachsrate: 1. Seien x1, ... ,xn Beobachtungswerte (rel. Änderungen, bez. auf 1 = 100%) mit xi ≥ 0 für i=1,...,n und r die durchschnittliche Zuwachsrate. xg = n x1 ⋅K⋅ xn und r = xg − 1 2. Manche Analysenmethoden liefern die Logarithmen der gesuchten Gehalte (z.B. Spektralanalyse). 1 n lg x g = ∑ lg x i = n i=1 lg x x g = 10 lg x 3. Wenn sich eine Anfangsmenge A in einer Zeiteinheit um eine konstante Zuwachsrate r erhöht, dann erhält man nach n Zeiteinheiten die Endmenge E: E = A(1+r)n xg = n E A und r = xg − 1 Bsp.: In einer best. Kultur erhöhte sich in 3 Tagen die Zahl der Bakterien pro Einheit von 100 auf 500. Wie groß ist die durchschnittliche tägliche Zunahme ? Lösung: Bsp.: Bei 12 Milchproben wurden folgende Keimzahlen in [103] gemessen: 5150 26900 285 265 4750 60900 1410 3950 2150 8250 30500 295 Wie groß ist die mittlere Keimzahl? Lösung: Bsp.: In einer best. Kultur erhöhte sich in 3 Tagen die Zahl der Bakterien pro Einheit von 100 auf 500. Wie groß ist die durchschnittliche tägliche Zunahme? Lösung: r = x g − 1 = n E A − 1 = 0,71 = 71 % Bsp.: Bei 12 Milchproben wurden folgende Keimzahlen in [103] gemessen: 5150 26900 285 265 4750 60900 1410 3950 2150 8250 30500 295 Wie groß ist die mittlere Keimzahl? Lösung: Da die Werte über mehrere Zehnerpotenzen schwanken, wird das geom. Mittel bestimmt. x g = 10lg x = 106,5358 = 3.433.998 (Im Vergleich: x = 12.067.083 ) 2. Weitere Lagemaße: ● α - Quantil Wir betrachten die Variationsreihe x (1) , ... ,x (n) . Dann sind α % der Merkmalswerte ≤ und (1- α) % der Merkmalswerte ≥ dem α - Quantil. x(k+1) ;k = int(n ⋅ α), falls n ⋅ α keine ~ xα = x(k ) + x(k+1) ;k = n ⋅ α, falls n ⋅ α 2 g.Z. g.Z. (int = ganzer Teil; g.Z.= ganze Zahl) Wenn 0 ,5 α = 0 , 25 0 , 75 ⇒ ⇒ ⇒ Median unteres oberes Quartil Quartil 1.4.2 Streuungsmaße Maße, die die Abweichung der Beobachtungswerte vom Zentrum einer Häufigkeitsverteilung beschreiben, heißen Streuungs- oder Dispersionsmaße. ● Spannweite (Range, Variationsbreite) Einfachstes Streuungsmaß, gibt den Streubereich einer HV an, d.h. den Bereich, in dem alle Merkmalswerte liegen. Sei x(1), ... ,x(n) eine Variationsreihe, dann gilt: R = x(n) - x(1) . Vorteil: - Einfach zu bestimmendes Streuungsmaß, einfach interpretierbar Nachteile: - R ist nicht robust gegenüber Ausreißern - R besitzt keine guten stat. Schätzeigenschaften ● Quartilsabstand (Interquartile range) - Der Quartilsabstand gibt den Bereich zwischen oberem und unterem Quartil einer Messreihe an. - Er enthält 50 % aller Merkmalswerte. I = ~ x 0 ,75 − ~ x 0 ,25 Vorteile: - I ist robust gegenüber Ausreißern - I ist anschaulich und besitzt bessere statistische Schätzeigenschaften als die Spannweite Nachteil: - nicht alle Informationen der Stichprobe gehen in die Berechnung ein ● Median der absoluten Abweichungen der Werte vom Median ~ mad = med ( x i − x 0 ,5 ) = ~ y 0 ,5 ~ yi = x i − x 0 , 5 Vorteile: - d ist robust gegenüber Ausreißern - d ist gut geeignet bei schiefen Häufigkeitsverteilungen Nachteil: - bei Normalverteilung ist die empir. Varianz das bessere Schätzmaß ● Stichprobenvarianz und Standardabweichung - Wir betrachten nun als Bezugsgröße für das Zentrum der HV das arithmetische Mittel. - Dann ist die Stichprobenvarianz die durchschnittliche quadratische Abweichung der Messwerte vom arithmetischen Mittelwert. - Dabei wird jedoch durch den Faktor (n-1), d.h. die Anzahl der voneinander unabhängigen Abweichungen, genannt Freiheitsgrad, dividiert. - Der Stichprobenumfang n sollte mindestens 6 betragen! n n 1 1 2 2 2 2 ∑ xi − n ⋅ x s = ( xi − x ) = ∑ n − 1 i=1 n − 1 i=1 - Als Standardabweichung s bezeichnet man: s= 1 n 2 ( x − x ) = ∑ i n − 1 i=1 n 1 2 (( ∑ x i ) − n x 2 ) n − 1 i=1 - Der Standardfehler des arithm. Mittelwertes bezieht sich auf den Stichprobenumfang: s sx = n Vorteile: - Die Varianz s2 hat die besten Schätzeigenschaften bei Normalverteilung - Die Standardabweichung s hat die gleiche Dimension wie die Messwerte und der arithm. Mittelwert, man kann daher Intervalle der Form x±s bzw. x ± 3 ⋅ s angeben. Nachteil: - s2 ist nicht robust gegenüber Ausreißern - Variationskoeffizient Der Variationskoeffizient ist ein von x bereinigtes Streuungs- maß, das das Verhältnis von s und x misst. s v= ⋅ [100 %] I xI Vorteil: - v ist gut geeignet zum Vergleich von Streuungen von Beobachtungsreihen mit unterschiedlichem Mittelwert Grafische Darstellung von Lage- und Streuungsmaßen: 1. Box- und Whisker Plot Enzymaktivitäten von 8 Mutanten Vanadiumgehalt von Weinen Multipler Box- Whisker Plot für Vanadium Box & Whisker Plot (Enzymaktivitäten) 3,0 75 2,5 2,0 65 1,5 60 1,0 55 0,5 20 1 2 3 4 5 Mutanten 6 7 8 Median 25%-75% Min-Max Weisswein Rotwein Land So uth Africa 25 Ro mania 30 Hu ngary -1,5 35 Czech Republic -1,0 So uth Africa 40 -0,5 Ro mania 45 0,0 Hu ngary 50 Czech Republic Vanad ium Enzymkonzentrationen 70 Median 25%-75% Non-Outlier Range Grafische Darstellung von Lage- und Streuungsmaßen: 2. Mittelwertplots Enzymaktivitäten von 8 Mutanten Mittelwertplot Mittelwertplot (Enzymaktivitäten von Mutanten) (Enzymaktivitäten) 75 70 70 65 Enzymkonzentrationen Enzymkonzentrationen 65 60 55 50 45 40 35 60 55 50 45 40 35 30 30 25 20 1 2 3 4 5 Mutanten 6 7 8 arithm . Mittelwert MW + - 95%-iges Konfidenzintervall Extrem werte 25 1 2 3 4 5 Mutanten 6 7 8 arithm . MW Mean±0,95*SD Bsp.1: 40 Kolonien von Mikroorganismen Mittelwertmaße: Merkmal X: Durchmesser (metrisch) Stichprobe Verteilungsform Alle Kolonien (40) Gelbe Kolonien (13) Weißliche Kolonien (14) SonstigeKolonien (13) Arithm. MW Median Vergleich symmetrisch 5,9 6,0 ≈ rechtssteil 7,1 7,7 < symmetrisch 6,0 6,0 = linkssteil 4,5 4,2 > Merkmal Y: Antibiotikaresistenz (ordinal) Median: ~ x 0,5 = 2 Modalwert: D = 1 (sensitiv) (13 · „1“, 10 · „2“, 8 · „3“, 5 · „4“, 4 · „5“ ) (sehr sensitiv) Merkmal Z: Farbe (nominal) Modalwert: D = 2 (weißlich ist die am häufigsten auftretende Farbe) Streuungsmaße: Merkmal X: Durchmesser Varianz Stand. abw. Quartilsabst. Var. koeff. 11,7 8,71 2,95 4,3 0,50 Gelbe Kolonien (13) 11,4 8,77 2,96 3,6 0,41 Weißliche Kolonien (14) 8,0 7,50 2,74 3,8 0,45 Sonstige Kolonien (13) 9,9 7,62 2,76 3,4 0,61 Spannweite Alle Kolonien (40) Stichprobe Box-and-Whisker Plot 12 12 10 10 Durchmesser Durchmesser Box-and-Whisker Plot 8 6 4 2 8 6 4 2 0 0 gelb sonstige Farbgruppe weißlich braunfarblosgelb grünorangerosaweißlich Farbe 1.4.3. Schiefe und Exzess 1. Schiefe - Wenn der Median und der Modalwert vom arithmetischen Mittel abweichen, bezeichnet man eine Verteilung als schief. - Man charakterisiert schiefe Verteilungen außerdem durch die Schiefe g1 als Maß für die Schiefheit und ihre Richtung. - Echt schiefe Verteilungen liegen vor, wenn bei Vorliegen einer großen Anzahl von Beobachtungswerten und der Anwendung aller möglichen Transformation der Daten die Schiefheit der Verteilung bestehen bleibt. - Keine echte Schiefe liegt vor, wenn man schiefe Verteilungen durch Transformationen (z.B. Logarithmieren) in symmetrische überführen kann. Bsp.: Auftreten log. Verteilungen bei: • Analyse sehr niedriger Gehalte (z.B. Spurenanalyse) • Merkmalen mit sehr großer Spannweite (mehrere Zehnerpotenzen) • sehr großem Zufallsfehler (z.B. halbquantitative Spektralanalyse) g1 = 1 n 3 − ( x x ) ∑ i n i=1 1 n ( ∑ ( x i − x ) 2 )3 n i=1 1 n xi − x = ∑ n i=1 s Eine HV ist symmetrisch, wenn 3 x=~ x 0,5 = x mod Eine HV ist linksschief oder rechtssteil, wenn und g1 = 0 x<~ x 0,5 < x mod und g1 < 0 ~ Eine HV ist rechtsschief oder linkssteil, wenn x > x 0,5 > x mod und g1 > 0 2. Exzeß und Kurtosis - Mängel in den gewählten Versuchsbedingungen können zu einer Verzerrung (Überhöhung- Streckung oder Unterhöhung -Stauchung) der Häufigkeitsverteilung führen. Sie werden durch den Exzeß g2 charakterisiert. - Der Exzeß gibt an, ob das absolute Maximum der Häufigkeitsverteilung (bei annähernd gleicher Varianz) größer oder kleiner dem Maximum der Normalverteilungsdichte ist. g2 = 1 n 4 ( x − x ) ∑ i n i=1 1 2 n ∑ (xi − x) i=1 n 2 g2‘ heißt Kurtosis. −3 = 4 1 xi − x − 3 = g 2 ' −3 ∑ n i=1 s n Wenn g2 = 0 ⇒ Häufigkeitsverteilung entspricht der NV Wenn g2 < 0 ⇒ abs. Häufigkeitsmaximum < Maximum der NV- Dichte (HV ist flachgipfliger), d.h. die Anzahl „größerer“ Abweichungen von x ist geringer als bei der NV bei gleicher Varianz. Wenn g2 > 0 ⇒ abs. Häufigkeitsmaximum > Maximum der NV- Dichte (HV ist steilgipfliger), d.h. die Anzahl „größerer“ Abweichungen von x ist größer als bei der NV bei gleicher Varianz. Als k- tes Moment bezeichnet man: und als k-tes zentriertes Moment: 1 n n ∑ i=1 xi k 1 n k ( x − x ) ∑ i n i =1 Bem.: Damit stellen der arithm. Mittelwert das 1. Moment und die empirische Varianz das 2. zentrierte Moment dar, während Schiefe und Exzeß auf dem 3. bzw. 4. zentrierten Moment basieren. 1.5. Mehrdimensionale Merkmale Wir haben bisher überwiegend Aufgabenstellungen betrachtet, bei denen an jeder Beobachtungseinheit nur ein einziges Merkmal beobachtet wurde. - Bei vielen praktischen Problemen wirken jedoch Merkmale nicht nur einzeln, sondern auch im Komplex. Es interessiert dann der Zusammenhang zwischen zwei oder mehreren Merkmalen. - Wir bezeichnen einen Komplex von Merkmalen auch als mehrdimensionales Merkmal (od. Merkmalsvektor) und schreiben: (X1,...,Xn), bzw. (X,Y) bei einem zweidimensionalen Merkmal. Beispiele: 1. X- Lagerzeit von Zuckerrüben Y- Saccharosegehalt von Zuckerrüben 2. X- Kaliumgehalt von Weinen Y- Aschegehalt von Weinen (X- deterministische d.h. einstellbare Einflussgröße, Y- zufällige Zielgröße) (X und Y - zufällige Größen, jede kann als Einfluss- bzw. Zielgröße betrachtet werden) 3. Prozess des Nass-Salzens von Hartkäse (X1,X2,X3 - determ. X1- Natriumchloridgehalt im Salzbad Einflussgrößen, X2- Temperatur des Salzbades Y1,Y2 - zufällige X3- Salzdauer Zielgrößen) Y1- Masseausbeute des Käses nach dem Salzen Y2- Sensorischer Qualitätsparameter WICHTIG: Erfassung aller für den zu untersuchenden Sachverhalt (Produkt, Prozess) wesentlichen Merkmale! 5 Fragestellungen sind von Interesse: 1. Welche Art von Merkmalen werden betrachtet? (Klassifizierung, Einflussgröße einstellbar oder zufällig?) 2. Wie lassen sich zweidimensionale Merkmale grafisch darstellen? (Punktwolke, Streudiagramm, XY- Scatterplot) 3. Wie sieht die Häufigkeitsverteilung (tabellarisch und grafisch) eines zweidimensionalen Merkmals aus? (2-dim. Häufigk.tabelle, Kontingenztafel, 3-dim. Histogramm) 4. Wie stark ist der Zusammenhang zwischen 2 Merkmalen X und Y und welche Richtung hat er? (Assoziations-, Kontingenz-, Maßkorrelations- oder Rangkorrelationskoeffizient) 5. In welcher Form lässt sich der Zusammenhang darstellen? (Kontingenztafel-, Varianz- u. Regressionsanalyse) zu 2.) Streudiagramm (XY- Scatterplot) y annähernd linearer Zusammenhang x y y Hyperbel Rezipr. Transf. x Bsp.: Fallhöhe und Schwingungsfrequenz von Wasserfällen 1/x zu 3.) Häufigkeitsverteilung Zur Darstellung von Häufigkeitsverteilungen dienen Häufigkeitstabellen (Vierfeldertafeln, Kontingenztafeln) und grafische Darstellungen durch zweidimensionale Histogramme oder Polygone. 1. Fall: - Sei (X,Y) ein nominalskaliertes 2- dim. Merkmal mit je 2 Ausprägungen (aj,bk) j,k=1,2 (z.B.: ja/ nein, vorhanden, nicht vorhanden) Vierfeldertafel (2 x 2): Y X vorhanden nicht vorh. Summe Summe vorhanden nicht vorhanden f11 f12 f11+f12 f21 f22 f21+f22 f11+f21 f12+f22 n Bsp.: Untersuchung von 227 Ratten auf Milbenbefall der Spezies A und B Vierfeldertafel (2x2): Spezies A Summe vorhanden nicht vorhanden Spezies vorhanden B nicht vorhanden 44 23 67 75 85 160 Summe 119 108 227 - Die Randsummen geben Aufschluss darüber, wie viele der Ratten eine der beiden Milben beherbergen bzw. nicht beherbergen, unabhängig davon, ob die andere Spezies vorhanden ist oder nicht, d.h. sie geben die eindimensionalen Häufigkeitsverteilungen an. Ergebnis: - Der Anteil der Träger von A- Milben unter den Trägern von BMilben ist größer als in der Gesamtprobe, denn nur auf etwa der Hälfte aller 227 Ratten kamen A- Milben vor (Randsumme 119), aber in der Teilmenge der 67 Ratten, die B- Milben beherbergen, befinden sich 44 Träger von A- Milben. Umgekehrt gilt dasselbe. - Zwischen dem A- Milbenbefall und dem B- Milbenbefall scheint also ein statistischer Zusammenhang zu bestehen. Bem.: - In einer Vierfeldertafel erkennt man einen statistischen Zusammenhang daran, dass die abs. Häufigkeiten einer Reihe bzw. Spalte im Tafelinnern nicht proportional zu den entsprechenden Randsummen sind (44/23 ≠ 119/108 bzw. 75/85 ≠ 119/108, analog die Verhältnisse zur Zeilensumme!) - aber: bei kleinen abs. Häufigkeiten können durch Zufall Disproportionalitäten vorgetäuscht sein, d.h. die Sicherheit für das Vorhanden sein eines statistischen Zusammenhanges ist entsprechend gering! 2. Fall: - Sei (X,Y) ein ordinalskaliertes 2- dim. Merkmal, bei dem jede Komponente auf einer Rangskala gemessen wird, d.h. als Merkmalsausprägung eine Rangzahl hat. - Vorliegen einer Tabelle der Rangzahlen (keine Häufigkeitstabelle!) Tabelle der Rangzahlen: i R(xi) R(yi) di di2 1 R(x1) R(y1) d1 d1 2 ... ... ... ... ... n R(xn) R(yn) dn dn 2 - dabei ist di = R(xi) - R(yi) die Differenz der Rangzahlen der i- ten Komponente von X und Y Bsp.: Weinverkostung Bei einer Weinverkostung sollen 8 Weinsorten hinsichtlich ihres Aromas in eine Rangordnung gebracht werden. 2 Prüfer sollen unabhängig voneinander die Sorten begutachten, wobei die Sorte mit dem schwächsten Aroma die Rangzahl 1 und die Sorte mit dem stärksten Aroma die Rangzahl 8 erhalten soll. Tabelle der Rangzahlen: i Sorte Prüfer 1 R(xi) Prüfer 2 R(yi) di 1 A 6 5 1 2 B 3 2 1 3 C 8 8 0 4 D 2 4 -2 5 E 1 1 0 6 F 7 6 1 7 G 4 3 1 8 H 5 7 -2 Ergebnis: - Nur bei 2 Sorten gab es Übereinstimmung in der Bewertung, bei allen übrigen Sorten gab es Differenzen, die aber nicht mehr als 2 Rangzahlen betragen. - Man kann einen statistischen Zusammenhang vermuten, denn je höher im allgemeinen die Rangzahl des 1. Prüfers ist, desto höher ist im allgemeinen auch die Rangzahl des 2. Prüfers. - Die Weinsorten scheinen also Aromaunterschiede aufzuweisen und beide Prüfer waren in der Lage, diese zu erkennen. 3. Fall: Sei (X,Y) ein nominal- oder ordinalskaliertes 2- dim. Merkmal, deren Ausprägungen (aj,bk) mit den relativen Häufigkeiten hjk für j=1,...,l auftreten. Bsp.: Untersuchung der Noten von 32 Studenten in Mathematik und Statistik (2 ordinalskalierte Merkmale) Kontingenztafel (5 x 5): Note in Mathematik Note in Statistik 1 2 3 4 5 Summe 1 1 1 0 0 0 2 2 0 2 3 0 0 5 3 0 2 10 4 0 16 4 0 0 2 4 0 6 5 0 0 1 1 1 3 Summe 1 5 16 9 1 32 Bsp.: Untersuchung des Zusammenhangs von Haar- und Augenfarbe von Frauen (Nominalskala) (Lebart, L. u.a.,1995) Haarfarbe Augenfarbe schwarz braun rot blond Σ 68 119 26 7 220 15 54 14 10 93 grün 5 29 14 16 64 blau 20 84 17 94 215 Σ 108 286 71 127 592 dunkelbraun hellbraun 4. Fall: - Sei (X,Y) ein metrisch skaliertes 2- dim. Merkmal, für deren Komponenten X und Y eine Klasseneinteilung vorliegt Häufigkeitstabelle (analog Kontingenztafel!) (l x m): Klassengrenzen X (y0;y1] Y (y1;y2] ... (ym-1;ym] Summe (x0;x1] f11 f12 ... f1m f1. (x1;x2] f21 f22 ... f2m f2. ... ... ... ... ... (xl-1;xl] fl1 fl2 f.1 f.2 Summe ... flm fl⋅ f.m n Bsp.: Untersuchung des Asche- und Kaliumgehaltes von Weinen Bsp.: Weindaten (3- dim.Histogramm) 2- dim. Histogramm (Weine aus Ungarn und Tschechien) 2- dim. Histogramm (Weine aus Ungarn und Tschechien) zu 4.) Zusammenhangsmaße Art der Merkmale Häufigkeitsvert. Zusammenhangsmaß nominalskaliert Vierfeldertafel Assoziationskoeff. von Cramér, Kontingenzkoeff. von Pearson nominal- oder (und) ordinalskaliert Kontingenztafel Assoziationskoeff. von Cramér und Kontingenzkoeff. von Pearson ordinalskaliert (Tab. von Rangzahlen) Rangkorrelationskoeff. von Spearman metrisch skaliert 2- dim. Häufigkeitstabelle (Kontingenztafel) Vor.: X,Y zufällige Merkmale Lin. Abhängigkeit → Maßkorrelationskoeff. von Bravais/ Pearson Mon. Abhängigkeit → Rangkorrelationskoeff. von Spearman 1. Kontingenzkoeffizient C von Pearson: - Sei (X,Y) ein 2- dim. , nominal- oder ordinalskaliertes diskretes Merkmal, das in den Ausprägungen (aj, bk) für j = 1,…l und k = 1,…,m mit den abs. Häufigkeiten fjk auftritt. - Der Kontingenzkoeffizient ist ein Maß für die Stärke des stochastischen Zusammenhanges zwischen 2 diskreten Merkmalen. χ C= 2 χ +n 2 wobei f j⋅ ⋅ f⋅k f − l m jk n 2 χ =∑∑ f j⋅ ⋅ f⋅k j =1 k =1 n 2 Bem.: - Der Kontingenzkoeffizient C nimmt Werte im Intervall vollst. Zusammenhang kein Zusammenhang min (l, m ) − 1 min (l, m ) 0≤C≤ an. - Der maximale Wert von C (d.h. vollständige Kontingenz) ist von der Tafelgröße (Zeilen- bzw. Spaltenzahl l und m) abhängig und nähert sich für große l bzw. m gegen 1. ⇒ besser: korrigierter Kontingenzkoeffizient von Pearson Ccorr - Für die Vierfeldertafel gilt: χ C= 2 χ +n 2 und 0 ≤ C ≤ 0,707 Bem.: - Der korrigierte Kontingenzkoeffizient Ccorr wird berechnet nach: C corr = χ min (l, m ) ⋅ 2 χ +n min (l, m ) − 1 2 und es gilt nun: 0 ≤ Ccorr ≤ 1 , d.h. bei vollständiger Kontingenz wird immer der Wert 1 angenommen, unabhängig von der Größe der Kontingenztafel. 2. Assoziationskoeffizient von Cramér (Cramér‘s V): - Sei (X,Y) ein 2- dim. , nominal- oder ordinalskaliertes diskretes Merkmal, das in den Ausprägungen (aj, bk) für j = 1,…l und k = 1,…,m mit den abs. Häufigkeiten fjk auftritt. - Der Assoziationskoeffizient ist ebenfalls ein Maß für die Stärke des stochastischen Zusammenhanges zwischen 2 diskreten Merkmalen. vollst. Zusammenhang kein Zusammenhang V= wobei χ n (min (l, m )) − 1 2 mit f j⋅ ⋅ f⋅k f − l m jk n 2 χ = ∑∑ f j⋅ ⋅ f⋅k j =1 k =1 n 2 0≤V≤1 3. Rangkorrelationskoeffizient rs von SPEARMAN: - Sei (X,Y) ein 2- dim. , ordinal oder metrisch skaliertes Merkmal, bei dem jede Komponente Merkmalswerte mit einer eindeutigen Rangfolge hat (rangskaliert). - Wir beobachten an den n Beobachtungseinheiten die Merkmalswerte (xi,yi) für i=1,...,n - Wir ordnen nun jedem Beobachtungswert xi bzw. yi für i=1,...,n eine Rangzahl R(xi) bzw. R(yi) zu, wobei gilt: R(x(i)) = i für i=1,...,n und x(1) ≤ x(2) ≤ ... ≤ x(n) - Tritt eine Ausprägung mehrfach auf („Bindungen“), so ordnet man diesen gleichen Werten als Rang das arithmetische Mittel der Ränge zu, die sie einnehmen. - Bsp.: x(1)=2; x(2)=4; x(3) =4; x(4) =6; x(5) =9 → R(x(1))=1; R(x(2))=2,5; R(x(3))=2,5; R(x(4))=4; R(x(5))=5 - Der Rangkorrelationskoeffizient ist ein Maß für die Stärke und Richtung eines monotonen stochastischen Zusammenhanges zwischen 2 rangskalierten Merkmalen. Formel für den Rangkorrelationskoeffizienten rs: ∑ (R (x ) − R (x ))⋅ (R (y ) − R (y )) n rs = i i=1 i (∑ (R (x ) − R (x )) )⋅ (∑ (R (y ) − R (y )) ) 2 i 2 i Wenn keine „Bindungen“ vorliegen, d.h. wenn xi ≠ xj für i ≠ j und yi ≠ yj für i ≠ j gilt: 6 ⋅ rs = 1 − n ∑ ( i= 1 2 n ⋅ n di 2 − 1 ) , wobei d i = R (x i ) − R (y i ) i=1,…,n Bem.: Für den Rangkorrelationskoeffizienten gilt: ● Wenn rs < 0 → neg. Rangkorrelation Wenn rs > 0 → pos. Rangkorrelation ● -1 ≤ rs ≤ +1 ● |rs| = 1 , wenn X und Y monoton zusammenhängen rs = 1 , wenn die x- Ränge mit den y- Rängen übereinstimmen rs = -1 , wenn die x- und y- Ränge genau entgegengesetzte Rangfolgen ergeben. Bsp.: Aromaprüfung von 8 Weinsorten durch 2 Prüfer Der Rangkorrelationskoeffizient von rs = 0,86 deutet auf einen recht starken, monoton wachsenden stochastischen Zusammenhang hin. 4. Maßkorrelationskoeffizient rXY von BRAVAIS- PEARSON: - Sei (X,Y) ein metrisch skaliertes 2- dim. Merkmal, deren Merkmalswerte (xi,yi) , i=1,...,n, einen näherungsweise linearen Zusammenhang zwischen X und Y vermuten lassen. - Wir beobachten an den n Beobachtungseinheiten die Merkmalswerte (xi,yi) für i=1,...,n - Der Maßkorrelationskoeffizient ist ein Maß für die Stärke und Richtung eines linearen stochast. Zusammenhanges zwischen 2 metrisch skalierten Merkmalen. Formel für den Maßkorrelationskoeffizienten rXY: ( n − 1) rXY = n ∑ (x i =1 (n − 1) (∑ (x i − x ) ⋅ (y i − y ) 2 i ) (∑ (y − x) ⋅ − y) 2 i ) Bem.: Für den Maßkorrelationskoeffizienten rXY gilt: ● Wenn rXY < 0 → negative Korrelation Wenn rXY > 0 → positive Korrelation ● -1 ≤ rXY ≤ +1 ● |rXY| = 1 , wenn X und Y linear zusammenhängen ● Wenn rXY = 0 → Unkorreliertheit zwischen X und Y Wenn rXY = 0 und (X,Y) 2- dim. normalverteilt → Unabhängigkeit zwischen X und Y ● Der Korrelationskoeffizient ist nicht imstande, nichtlineare Zusammenhänge zwischen Merkmalen zu erkennen. ● Man beachte Schein- und Unsinnkorrelationen! Bem.: ● B = rXY2 heißt Bestimmtheitsmaß. Es gibt den Anteil der Variation der y- Werte an, der durch den linearen Zusammenhang zwischen X und Y bestimmt wird. ● Bei der Untersuchung von linearen Abhängigkeiten zwischen mehr als 2 Merkmalen gibt es: - partielle Korrelationskoeffizienten, - multiple Korrelationskoeffizienten und - kanonische Korrelationskoeffizienten. Zu 5.) Form der statistischen Abhängigkeit - Sei (X,Y) ein metrisch skaliertes 2- dim. Merkmal mit den Merkmalswerten (xi,yi) für i=1,...,n. - Es interessiert die Form der Abhängigkeit eines Merkmals Y (abhängiges Merkmal, Zielgröße, Regressand) von einem Merkmal X (unabh. Merkmal, Einflussgröße, Regressor). - Alle kontrollierbaren Einflussgrößen werden konstant gehalten. - Wir beschränken uns auf den Fall des Modells I der einfachen linearen Regression (1Einflussgröße, lineare Abhängigkeit). Vor.: ● Y zuf. Merkmal, einstellbares Merkmal ● X zuf. Merkmal, mit kleinem Fehler messbar → RM I zuf. Merkmal → RM II ● Streudiagramm (XY- Scatterplot) → Annahme eines linearen Modells für die Abhängigkeit zwischen X und Y in der Grundgesamtheit: y = β0 + β1 x, genannt lineare Regressionsgleichung. Dann gilt für die zuf. Beobachtungen der Zielgröße: Yi = β0 + β1 xi + εi i=1,…,n Residuen, wobei εi unabhängig und identisch verteilt mit Eεi =0 und D2εi = σ2 und σ2 unabhängig von den Messpunkten xi Bem.: Wenn εi ~ N(0, σ2) → bei RM I : Yi~ N(β0 + β1 xi, σ2) bzw. Y~ N(β0 + β1 x, σ2) Regressionsanalyse: 1. Schätzung der empirischen linearen Regressionsgleichung (Ausgleichsgerade) nach der Methode der kleinsten Quadrate (MkQ, LS): Zuf. Beobachtungswerte Modellwerte 1 n 1 n 2 2 Q(β0 , β1 ) = ∑ (Yi − (β0 + β1 ⋅ x i )) = ∑ εi → min n i=1 n i=1 Residuen Die Werte von β0 und β1, für die Q(β0, β1) ihr Minimum annimmt, nennt man Kleinste-Quadrate-Schätzer βˆ 0 und βˆ1 . Durch Nullsetzen der partiellen Ableitungen von Q nach β0 und β1 erhält man ein Normalgleichungssystem, das zu lösen ist. Die auf der Basis der konkreten Stichprobe ermittelten Schätzwerte für β0 und β1 bezeichnet man mit b0 und b1. n b1 = ∑ (x i =1 i n ∑ (x i =1 und − x ) ⋅ (y i − y ) − x) 2 i = SPXY SQ X oder: b 1 = rXY sY sX b0 = y − b1 ⋅ x → geschätzte lineare Regressionsgleichung: ŷ (b 0 , b1 ) = b 0 + b1 ⋅ x Bem.: s XY 1 n 1 ( ) ( ) = x − x ⋅ y − y = ⋅ SP XY ∑ i i n − 1 i =1 n −1 heißt Kovarianz zwischen X und Y und sX 2 1 n 1 2 (x i − x ) = = ⋅ SQ X ∑ n − 1 i=1 n −1 Varianz von X. 2. Zeichnen der Regressionsgerade ins Streudiagramm: y ŷ = b0 + b1 ⋅ x ŷ i ε̂ yi i b0 0 xi x 3. Güte des Regressionsmodells - Beurteilung der Güte der Modellvorhersage für jeden Messwert mit Hilfe der geschätzten Residuen εˆ i = y i − ŷ i , i=1,…, n - Maß für die Variation der Stichprobenwerte um die geschätzte Regressionsgerade: Restvarianz sR 2 sR 1 n 1 n 1 n 2 2 2 (yi − ŷ i ) = (y i − (b0 + b1 ⋅ x i )) = = εˆ i ∑ ∑ ∑ n − 2 i=1 n − 2 i=1 n − 2 i=1 2 1 = ⋅ SQR n−2 geschätzte Residuen Restquadratsumme FG - Streuungszerlegung (Zerlegung der Quadratsummen!): SQ T = SQR + SQM „Gesamtstreuung“ n ∑ (yi − y ) i=1 2 durch den Modellzusammenhang erklärte „Streuung“ „Reststreuung“ n n = ∑ (y i − ŷ i ) + ∑ (ŷ i − y ) i=1 2 i=1 2 Erklärte Streuung: Darstellung der Variation der y- Werte, die auf den linearen Zusammenhang SQM zwischen X und Y zurückzuführen ist, d.h. sie enthält die Variation der Werte auf der Geraden um den Mittelwert y . Reststreuung: SQR Verbleibender Rest der Variation der yWerte Bem.: ● Liegen alle beobachteten Werte exakt auf einer Geraden, so sind die Residuen 0 und ebenso die Reststreuung. Dann ließe sich die gesamte Variation von Y durch den linearen Modellzusammenhang mit X erklären (funktionaler linearer Zusammenhang). ● Je größer die Reststreuung ist, desto schlechter beschreibt das Modell die Daten. - Als Maßzahl für die Güte der Modellanpassung verwendet man häufig das Bestimmtheitsmaß B. Es gibt den Anteil an der Gesamtstreuung der y- Werte an, der durch die Regression von Y auf X erklärt wird und ist der Quotient aus erklärter und Gesamtstreuung. n SQM B= = SQ T ∑ (ŷ i=1 n − y) n 2 i 2 ( ) y − y ∑ i = 1− i=1 ∑ (y i=1 n − ŷ i ) 2 i 2 ( ) y − y ∑ i i=1 0≤B≤1 kein linearer Zusammenhang B = rXY2 funktionaler linearer Zusammenhang Für Vorhersagen sollte das Bestimmtheitsmaß möglichst ≥ 0,8 sein! Aber: B ist bei RM I vom Versuchsplan abhängig! - Tests zur Prüfung der Modelladäquatheit (F- Test der Varianzanalyse) und zur Prüfung der Modellparameter (t- Tests, Konfidenzintervalle) im Rahmen der schließenden Statistik 4. Residualanalyse - Prüfen der Modellvoraussetzungen über den Zufallsfehler (ε ~ N(0, σ2) und σ2 unabhängig von den Messpunkten xi) - Residualplots εˆ i = y i − ŷ i → normierte Residuen d εˆ i di = sεˆ d Ausreißer d +3 ŷ 0 0 x 0 -3 idealer Verlauf ungleiche Varianzen ŷ d i > 3 → Ausreißer Bsp.: Weindaten, Abhängigkeit zwischen den seltenen ErdenParametern Lanthanum und Gadolinum XY- Scatterplot (Lanthanum, Gadolinum) y = -0,7128 + ,91690 * x Korrelationskoeffizient: r = 0,98136 1 0 Gadolinum -1 -2 -3 -4 -5 -4 -3 -2 -1 Lanthanum 0 1 2 95% Konfigen zgrenzen Normierte Residuen 1,2 1,0 0,8 Normierte Residuen 0,6 0,4 0,2 0,0 -0,2 -0,4 -0,6 -0,8 -1,0 -1,2 -1,4 -5 -4 -3 -2 -1 Geschätzte Werte für Gadolinum 0 1 Geschätzte gegen beobachtete Werte (Gadolinum) 1 Beobachtete Werte 0 -1 -2 -3 -4 -5 -5 -4 -3 -2 Geschätzte Werte -1 0 1 95% Konfidenzgrenzen Bsp.: Weindaten (Matrix Plot) Matrix Plot (Histogramm und Scatterplot) für Alkalinität, Asche und Kalium (transformiert) Alkalinität As che Kalium 2. Wahrscheinlichkeitsrechnung Die Wahrscheinlichkeitsrechnung liefert mathematische Modelle für Zufallserscheinungen. /9/ Stahel, W. (1995) Es werden Experimente betrachtet, deren Ergebnisse einen zufälligen Ausgang haben, so genannte zufällige Versuche. 2.1. Zufälliges Ereignis, Wahrscheinlichkeit, Zufallsgröße, Verteilungsfunktion Begriffe und Definitionen: Def.: Ein zufälliges Ereignis ist ein Ereignis, das bei einem Versuch, bei dem bestimmte Bedingungen eingehalten werden, eintreten kann, aber nicht notwendig eintreten muss. Es ist das Ergebnis eines zufälligen Versuches. Bez.: A,B,C,...,A1,B1,... Bsp. 1: Würfeln mit einem idealen Würfel und Beobachtung der geworfenen Augenzahl (zuf. Versuch) • zufällige Ereignisse sind: • Ai := "Augenzahl i wird gewürfelt, i=1,...,6 ", • aber auch: A7:= "Eine gerade Augenzahl wird gewürfelt" Begriffe: - Elementarereignis: Elementarereignisse lassen sich nicht weiter in zufällige Ereignisse zerlegen. Bez.: ei ; i=1,...,n Bsp.1: ei := "Würfeln der Augenzahl i, i=1,...,6 " - Zusammengesetzte Ereignisse: lassen sich weiter in zufällige Ereignisse zerlegen. Bez.: Ai, Bi,... ; i=1,...,n Bsp.1: A7 := "Würfeln einer geraden Zahl" = {e2,e4,e6} Def.: Die Menge E (oder: Ω) heißt Menge der zu einem zufälligen Versuch gehörenden Elementarereignisse Bsp.1: E = {e1,...,e6} ⇒ Schlussfolgerung: Methoden der Mengenlehre (Vereinigung, Durchschnitt, Differenz) sind anwendbar! Def.: Ein zufälliges Ereignis A ist eine Teilmenge der Menge E der Elementarereignisse, d.h. A ⊆ E . Grenzfälle von zufälligen Ereignissen: Def.: Sichere Ereignisse sind dadurch gekennzeichnet, dass sie immer eintreten. Bsp.1: E: = "Es wird eine Zahl zwischen 1 und 6 gewürfelt" = {e1,...,e6} Def.: Unmögliche Ereignisse sind dadurch charakterisiert, dass sie nicht eintreten können. Bsp.1: Ø := "Es wird eine '0' gewürfelt!" Relationen und Operationen zwischen zufälligen Ereignissen: Def.: Ein zufälliges Ereignis A ist genau dann in B enthalten, wenn alle Elementarereignisse, die zu A gehören, auch A ⊆B zu B gehören. Bez.: Bsp.1: Würfeln mit 1 Würfel: A2 ⊆ A7 Def.: Sind A und B zuf. Ereignisse, so verstehen wir unter der Vereinigung von A und B das Ereignis, das genau die Elementarereignisse enthält, die zu A oder zu B gehören. E Bez.: A ∪B Bsp.1: Würfeln A B A1 ∪ A 7 = {e1, e2 , e4 , e6 } Def.: Sind A und B zuf. Ereignisse, so verstehen wir unter dem Durchschnitt von A und B das Ereignis, das genau die Elementarereignisse enthält, die zu A und zu B gehören. E Bez.: A ∩B Bsp.1: Würfeln A A1 ∩ A 7 = ∅ B Def.: Zwei zufällige Ereignisse A und B heißen miteinander unvereinbar (unverträglich), wenn sie keine gemeinsamen Elementarereignisse besitzen. Bez.: A ∩ B = ∅ Bsp.1: A1 ∩ A7= ∅ Def.: Ist A ein zufälliges Ereignis, so nennen wir das Ereignis, das genau die Elementarereignisse enthält, die nicht zu A gehören, das zu A komplementäre Ereignis. Bez.: A Bsp.1: A 7 = {1,3,5} Def.: Sind A, B zufällige Ereignisse, so verstehen wir unter der Differenz von A und B das Ereignis, das genau die Elementarereignisse enthält, die zu A, aber nicht zu B gehören. (d.h. wenn A, aber nicht B eintritt!) Bez.: A \ B Bsp.1: Würfeln A7 \ A2 = {4, 6} Damit gilt: • A =E\A E A B Wahrscheinlichkeit: Die Wahrscheinlichkeit ist das Maß für den Grad der Gewissheit des Eintretens eines zufälligen Ereignisses A 1. Klassische Definition der Wahrscheinlichkeit (Laplace): Ausgangspunkt: • zufälliger Versuch mit endlich vielen Versuchsausgängen n, d.h. E = {e1, ..., en} • jeder Versuchsausgang sei gleichmöglich • N(A) - Anzahl der Versuchausgänge, bei denen A eintritt • n = N(E) - Gesamtzahl der Versuchsausgänge Def.: Das Verhältnis von N(A) und n heißt Wahrscheinlichkeit des zuf. Ereignisses A und wird mit P(A) bezeichnet. N( A ) P( A ) = n Satz: Eigenschaften der klassische Wahrscheinlichkeit: 1. 0 ≤ P(A) ≤ 1 2. P(E) = 1 und P(∅) = 0 3. Sind A und B unvereinbare zuf. Ereignisse, d.h. A ∩ B = ∅, so gilt: P(A ∪ B) = P(A) + P(B) (Additionsregel für unvereinbare zuf. Ereignisse) 4. Sind A, B beliebige zuf. Ereignisse, so gilt: P(A ∪ B) = P(A) + P(B) – P(A ∩ B) (allg. Additionsregel für bel. zuf. Ereignisse) 5. P( A) = 1 – P(A) 6. Sind A und B unabhängige zuf. Ereignisse, so gilt: P(A ∩ B) = P(A) ⋅ P(B) (Multiplikationsregel für unabhängige zuf. Ereignisse) Bem.: Der klassischen Definition der Wahrscheinlichkeit kommt deshalb besondere Bedeutung zu, weil man auf dieser Grundlage für zahlreiche praktische Fragestellungen Wahrscheinlichkeiten berechnen kann. Die Berechnung interessierender Wahrscheinlichkeiten erfolgt nach Rechenregeln, wobei die Berechnung der Anzahl der möglichen Fälle und der Anzahl der günstigen Fälle für ein Ereignis häufig auf der Basis der Methoden der Kombinatorik (Variation, Kombination mit oder ohne Wiederholung), erfolgt. Bsp.: In einem Bierkasten befinden sich 25 Flaschen Bier, von diesen sind 2 nicht qualitätsgerecht. Frage: Wie groß ist die Wahrscheinlichkeit, dass eine zufällig entnommene Flasche qualitätsgerecht ist (Ereignis A)? Lösung: ● Anzahl der möglichen Versuchsausgänge n = 25 ● Anzahl der für A „günstigen“ Versuchsausgänge N(A) = 25 – 2 = 23 Damit ergibt sich: N( A ) 23 P( A ) = = = 0,92 n 25 Bsp. 2: Würfeln mit 2 unterscheidbaren Würfeln E = {(ei,ej), i,j = 1, ..., 6} = {(i, j), i,j = 1, ..., 6} Anzahl der Elementarereignisse: n = 36 ( W VmK = mk , m = 6, k = 2) (Variation, d.h. mit Berücksichtigung der Anordnung, mit Wiederholung) C:= „Die Summe der Augenzahlen aus beiden Würfeln (i + j) bzw. (j + i) sei 10 oder 11“. D:= „Die Summe der Augenzahlen aus beiden Würfeln sei ‚mindestens 10“ (10, 11 oder 12).“ ges.: P(C) und P(D) C = {(4,6), (5,5), (5,6), (6,4), (6,5)} Es gilt: P(C) ≤ P(D), da C ⊆ D ⇒ N(C) = 5 5 ⇒ P (C ) = = 0 ,139 36 D = {(4,6), (5,5), (5,6), (6,4), (6,5), (6,6)} ⇒ N(D) = 6 ⇒ P(D) = 6 = 1 = 0,16 36 6 Die bedingte Wahrscheinlichkeit und die Unabhängigkeit von Ereignissen: Sei A ∈ ℰ. Die Zahl P(A) gibt die Wahrscheinlichkeit des Ereignisses A im Rahmen der Bedingungen an, die den betrachteten zufälligen Versuch kennzeichnen. Nehmen wir gedanklich zu diesen Bedingungen noch die Bedingung „Das zufällige Ereignis B ∈ ℰ ist bereits eingetreten“ hinzu, so wird die Wahrscheinlichkeit des Eintretens von A nun durch eine i.a. von P(A) verschiedene Zahl beschrieben. Bsp.2: Würfeln mit 2 unterscheidbaren Würfeln E = {(i,j) / i, j = 1, ..., 6} C:= “ Summe der Augenzahlen 10 oder 11“ 5 C = {(5,5), (4,6), (6,4), (5,6)} P(C) = 36 B1:= „1. Würfel zeigt eine 3“ B2:= „1. Würfel zeigt eine 5“ ges.: P(C/B1) und P(C/B2) Lösung: B2 = {(5,1), (5,2), (5,3), (5,4), (5,5), (5,6)} Dann ist P(C/B1) = 0 P(C/B2) = 2 = 0 ,3 6 Es gilt: (C ∩ B2) = {(5,5), (5,6)} Erweiterung von Zähler und Nenner mit 1/36: 2 P(C ∩ B 2 ) 1 36 = = = 0,3 P(C/B2) = 6 P (B 2 ) 3 36 ⇒ Bedingte Wahrscheinlichkeiten können auf unbedingte Wahrscheinlichkeiten zurückgeführt werden. Def.: Seien A, B ∈ ℰ mit P(B) > 0, dann heißt die Wahrscheinlichkeit des Ereignisses A unter der Bedingung, dass das Ereignis B schon eingetreten ist, bedingte Wahrscheinlichkeit des Ereignisses A unter der Bedingung B und wird nach der Formel P( A ∩ B ) P( A / B ) = P (B ) berechnet. Satz: Seien A, B ∈ ℰ und P(B) > 0 bzw. P(A) > 0. Dann gilt: P(A ∩ B) = P(A/B) ⋅ P(B) P(A ∩ B) = P(B ∩ A) = P(B/A) ⋅ P(A) (Multiplikationsregel für bedingte Ereignisse) 2. Statistische Definition der Wahrscheinlichkeit: Wir betrachten das Bsp.1: Würfeln mit 1 Würfel Sei A das zuf. Ereignis, dass eine „6“ gewürfelt wird. Der Versuch wird n- mal wiederholt (n = 50, 100, ...). Dabei trat das Ereignis A N(A)- mal (z.B. N(A) = 7, 18, ...) auf. Def.: Der Quotient aus der absoluten Häufigkeit und der Gesamtzahl der Versuche heißt relative Häufigkeit N( A ) hn ( A ) = n und hn(A) konvergiert stochastisch gegen P(A). hn(A) ist also ein Schätzwert der Wahrscheinlichkeit P(A). Anzahl der Würfe n Anzahl des Auftretens des "Wappen" N(A) relative Häufigkeit hn=N(A)/n 4040 2048 0.5069 Pearson 12000 6019 0.5016 Pearson 24000 12012 0.5005 Bsp.: Münzwurf Buffon Stabilität der relativen Häufigkeit hn(A) P(A) 0 n ∞ Zufallsgröße (ZG) Zufällige Ereignisse kann man durch reelle Zahlen ausdrücken: Zufallsgröße X E . ei 0 xi =X(ei) R Def.: Eine Abbildung X heißt Zufallsgröße (ZG), wenn sie ihre Werte mit einer bestimmten Wahrscheinlichkeit annimmt. X ei ∈ E → xi ∈ R X(ei) = xi Beispiele 1. Würfeln mit einem Würfel (Augenzahl) Elementarereignisse e1 – “Würfeln einer 1” … e6 – “Würfeln einer 6” 2. Herstellung e0 – “genau 0 Ausschusserzeugnisse” von e1– “genau 1 Ausschusserzeugnis” Erzeugnissen … en– “genau n Ausschusserzeugnisse” Werte der ZG X → 1 gewürfelte … Augenzahl →6 → 0 Anzahl der → 1 Ausschuss… erzeug. →n Bez.: Zufallsgrößen bezeichnet man mit: X, Y, Z bzw. Xi, Yi, Zi und ihre Werte (Realisierungen) mit: x, y, z bzw. xi, yi, zi. Weitere Beispiele für Zufallsgrößen sind: ● Länge von Baumwollfasern einer bestimmten Sorte ● Länge und Volumen von Escherichia Coli -Zellen ● Anzahl der Stillstände einer Flaschenreinigungsanlage ● Anzahl nicht qualitätsgerechter Produkte ● Stickstoffmon- und -dioxidgehalt, Kohlenmonoxid- und Ozongehalt, sowie Schwebestaubgehalt in der Luft ● Natrium,- Kalium-, Eisen- und Cadmiumgehalt von Weinen ● Enzymkonzentrationen verschiedener Mutanten der Gattung Aspergillus niger ● Zellzahlen, Mikrokoloniezahlen Wahrscheinlichkeit von zuf. Ereignissen → Wahrscheinlichkeit von Zufallsgrößen Bsp.: Münzwurf e1:= “Wappen“ → P(e1) = 0,5 e2:= “Zahl“ → P(e2) = 0,5 P(e1) = P(X=0) = 0,5 P(e2) = P(X=1) = 0,5 Bsp. 1: Würfeln mit 1 Würfel A:= “Würfeln einer Augenzahl i ≤ 3“ A = {e1, e2, e3} → 3 P( A ) = = 0,5 6 P( A ) = P( X ≤ 3) = 0,5 1 1 1 P( X ≤ 3) = P( X = 1) + P( X = 2) + P( X = 3) = + + = 0,5 6 6 6 Def.: Sei X eine Zufallsgröße und P die Wahrscheinlichkeit Dann heißt die durch FX(x) = P(X ≤ x) definierte Funktion FX Verteilungsfunktion der ZG X. Dann gilt auch: P(X > x) = 1- FX(x) und P(a < X ≤ b) = FX(b) – FX(a) Def. : Eine Zufallsgröße X heißt diskret, wenn sie endlich oder abzählbar unendlich viele Werte annehmen kann. Bsp.: Zellzahlen, Anzahl nicht qualitätsgerechter Produkte Bem.: Man beschreibt eine diskrete ZG X durch die Werte xi, die sie annehmen kann und die Einzelwahrscheinlichkeiten pi = P(X = xi), mit denen sie diese Werte annimmt. ∞ Es gilt: ∑ p i = 1 i =1 Bsp. 1: Würfeln mit 1 Würfel (Gleichverteilung) Verteilungstabelle mit Verteilungsfunktion: xi <1 1 2 3 4 5 pi = P(X = xi) 0 1/6 1/6 1/6 1/6 1/6 1/6 0 FX(xi) 0 1/6 2/6 3/6 4/6 5/6 1 1 FX (x) 6 >6 1 p1=1/6 x 1 2 3 4 5 6 Die Verteilungsfunktion ist: FX ( x i ) = P ( X ≤ x i ) = ∑ P( X = x k xk ≤ xi k ) Def.: Eine Zufallsgröße heißt stetig, wenn sie überabzählbar unendlich viele Werte (d.h. Werte aus einem reellen Zahlenintervall) annehmen kann. Ihre Verteilungsfunktion lässt sich wie folgt darstellen: x P(X ≤ x) = F X ( x ) = ∫f X ( t ) dt ∀x∈R −∞ fX(x) heißt Dichtefunktion von X Bsp.: Eiweiß- und Fettgehalt von Milch, Enzymkonzentration, Cholesteringehalt im Blut Bem.: Für die Dichtefunktion gilt: +∞ ∫f −∞ X ( x ) dx = 1 Dichtefunktion der Normalverteilung 0,4 0,1 Dichte 0,3 Bsp.: Normalverteilung 0,2 X ~ N(0,1) 0,1 0 -5 -3 -1 0 1 3 (Standard-Normalverteilung) 5 x Verteilungsfunktion Verteilungsfunktion der Normalverteilung 1 0,1 0,8 0,6 0,4 0,2 0 -5 -3 -1 0 x 1 3 5 x FX ( x ) = ∫f −∞ X ( t ) dt Bem.: Für eine stetige ZG X gilt: x 1. P( X ≤ x) = FX ( x) = ∫ f (t)dt −∞ x ∫ 2. P( X > x) = 1− FX (x) = 1− f (t)dt −∞ b ∫ 3. P(a < X ≤ b) = FX (b) − FX (a) = f ( x)dx a ∀x mit a < x ≤ b P(a < X ≤ b) ist die Wahrscheinlichkeit dafür, dass eine Realisierung von X in das Intervall (a, b] fällt! Diskrete ZG Stetige ZG endlich oder abzählbar unendlich viele Werte überabzählbar unendlich viele Werte Einzelwahrscheinlichkeiten pi: pi = P(X = xi) i = 1, 2, … 0 ≤ pi ≤ 1 Dichtefunktion fX: fX(x) ≥ 0 ∞ ∑ i=1 +∞ pi = 1 ∫f ( x )dx = 1 −∞ Verteilungsfunktion: FX(x) = P(X ≤ x) FX ( x ) = X ∑p ∀x∈R Verteilungsfunktion: FX(x) = P(X ≤ x) ∀x∈R x FX ( x ) = i i xi≤ x X ( t )dt −∞ FX rechtsseitig stetige Treppenfunktion, monoton wachsendR P(a < X ≤ b) = ∫f ∑p i i a< x i ≤b FX stetig, monoton wachsend b P ( a < X ≤ b ) = ∫ f X ( x )dx a 2.2 Parameter von Verteilungen 1. Erwartungswert: Def.: Als Erwartungswert EX einer ZG X bezeichnen wir das Zentrum ihrer Verteilung: ∞ ∑x i =1 EX = i ⋅ pi , X diskr. ZG +∞ ∫x⋅f X ( x)dx EX ∈ R , X stet. ZG −∞ Bsp. 1: Würfeln mit 1 Würfel (Gleichvert.) ⇒ EX = 3,5 Satz: Eigenschaften des Erwartungswertes Für die Erwartungswerte von diskreten oder stetigen Zufallsgrößen X, X1, … und Konstante a,b ∈R gelten folgende Aussagen: 1. Ea = a 2. E [EX] = EX 3. E [X1 +…+ Xn] = EX1 +…+ EXn (Additionsregel) 4. E [aX] = a EX (Linearitätsregel) 5. E [aX + b] = a EX + b (lin. Transformation) 6. X1,…,Xn unabhängig ⇒ E [X1•…•Xn] = EX1•…•EXn (Multiplikationsregel) 7. X ≥ 0 ⇒ EX ≥ 0 und X ≥ Y ⇒ EX ≥ EY 2. Varianz: Def.: Als Varianz bezeichnen wir die mittlere (erwartete) quadratische Abweichung einer ZG X von ihrem Erwartungswert: D2X = E [X - EX]2 ∞ 2 ( x − EX ) ⋅ pi ∑ i = , X diskr. ZG i =1 D2X ∈ R +∞ 2 ( x − EX ) ⋅ fX ( x)dx ∫ , X stet. ZG −∞ D2 X heißt Standardabweichung. Bsp. 1: Würfeln mit 1 Würfel (Gleichvert.) ⇒ D2X = 2,92 Satz: Eigenschaften der Varianz: (Fehlerfortpflanzung) Für die Varianz von diskreten oder stetigen Zufallsgrößen X, X1, …, Y, Z und Konstanten a,b ∈R gilt: 1. D2X ≥ 0, D2X = 0 ⇔ P(X = EX) = 1 2. D2X = EX2 – [EX]2 (Verschiebungsregel) 3. D2 [aX + b] = a2 • D2X (lin. Transformation) 4. X1,X2 unabhängig ⇒ D2 [X1 + X2] = D2 [X1 - X2] = D2X1 + D2X2 (Summe, Differenz) und für Y =X1• X2 und Z = X1/X2 2 2 D2 Y D X1 D X2 + ≈ EY EX1 EX2 2 2 2 (Produkt und Quotient) D2 Z ≈ EZ 2 (Quadr. Variationskoeffizienten addieren sich!) Bsp. 2: Würfeln mit 2 unterscheidbaren Würfeln, X:=„ Augensumme“, X = X1 + X2 D2X = D2 [X1 + X2] = D2 X1 + D2 X2 = 5,83 Normierung und Standardisierung: Def.: Eine ZG X heißt normiert, wenn D2X = 1 gilt. Def.: Eine ZG X heißt standardisiert, wenn D2X = 1 und EX = 0 gilt. Satz: Für eine beliebige ZG X gilt: 1. 2. Y= Y= X D2 X X − EX 2 D X ist eine normierte ZG und ist eine standardisierte ZG. 2.3 Spezielle Verteilungen von Zufallsgrößen Wahrscheinlichkeitsverteilungen Diskrete Verteilungen - 2- Pkt.- Verteilung (Münzwurf) - Gleichverteilung (Bsp. 1: Würfeln mit 1 Würfel) - Binomialverteilung (Qualitätskontrolle) Stetige Verteilungen - Gleichmäßig stet. Verteilung - Normalverteilung und logarithmische NV - Exponentialverteilung (Wachstumsprozesse) - Hypergeometrische Vert. - Weibullverteilung (Abnutzungsprozesse) - Poissonverteilung - Prüfvert. (t-, χ2-, F- Vert.) 1. Binomialverteilung (Anw. bei Qualitätskontrolle) Beispiele: - Zuf. Anzahl der in einem bestimmten Zeitabschnitt ausfallenden Maschinen von insgesamt n Maschinen gleicher Bauart, wenn die Wahrscheinlichkeit, dass eine Maschine ausfällt, p ist. - Zuf. Anzahl nicht qualitätsgerecht produzierter Joghurtbecher von insgesamt n Joghurtbechern, wenn die Wahrscheinlichkeit, einen Ausschußbecher zu produzieren, p ist. - Allgemein: X := „Anzahl der beobachteten (gezogenen) Objekte aus einer Menge von n Objekten mit der Eigenschaft A“ Bernoullisches Versuchsschema (Urnenmodell mit Zurücklegen): - Urne enthält weiße und schwarze Kugeln, die Wahrscheinlichkeit, eine weiße Kugel zu ziehen (Ereignis A), sei P(A) = p. - n- malige Entnahme einer Kugel und Feststellen, ob Kugel weiß (A) oder schwarz ( A ) war, jeweils Zurücklegen der Kugel. (Durch Zurücklegen wird Unabhängigkeit der Einzelziehungen erreicht, die Wahrscheinlichkeit, eine weiße Kugel zu ziehen, bleibt gleich!) - Von Interesse: Wahrscheinlichkeit, bei n Entnahmen k weiße Kugeln zu ziehen. - Bei Qualitätskontrolle: A :=„ Entnahme eines guten Teils“ A :=„ Entnahme eines Ausschußteils“ Def.: Eine diskrete ZG X heißt binomialverteilt mit den Parametern n und p (X ~ B(n,p)), wenn sie die Wahrscheinlichkeitsfunktion n k P( X = k ) = ⋅ p ⋅ (1 − p)n−k k ,k = 0,…,n besitzt. Bem.: - Die Binomialverteilung wird durch die Parameter n und p eindeutig bestimmt. - EX = n • p - D2X = n • p • (1-p) = n • p • q - P(X ≤ k) = P(X=0)+…+P(X=k) = n i n−i ⋅ p ⋅ ( 1 − p ) ∑ i i =0 - P(X ≥ k) = P(X=k)+…+P(X=n) = n i n−i ⋅ p ⋅ ( 1 − p ) ∑ i i=k k P(X ≥ 1) = 1- P(X=0) n Bsp.: 10 Äpfel einer Partie werden untersucht. Es ist bekannt, dass 10% der Äpfel angeschlagen sind. a) Wie groß ist die Wahrscheinlichkeit, 3 angeschlagene Äpfel in der Stichprobe zu finden? b) Wie groß ist die Wahrscheinlichkeit, höchstens einen angeschlagenen Apfel in der Stichprobe zu finden? Lösung: geg.: n = 10, P(A)= p = 0,1 10 a) P(X = 3) = ⋅ 0,13 ⋅ (1 − 0,1)10 − 3 = 0,057 3 b) P(X ≤ 1) = P(X = 0) + P(X = 1) = 0,736 10 10 0 10 1 9 ⋅ 0,1 ⋅ 0,9 + ⋅ 0,1 ⋅ 0,9 = 0,910 + 0,9 9 0 1 2. Normalverteilung (Gauss, 1809: „Theorie der Beobachtungsfehler“) Hintergrund: Führt man wiederholt Messungen an ein und demselben Objekt (Fettgehalt in Milchprobe) durch, so ergibt auf Grund zufälliger Einflüsse nicht jede Messung den gleichen Wert. Es zeigt sich aber, dass bei häufiger Wiederholung der Messung die erhaltenen Werte kleinere oder größere Abweichungen voneinander und von einem bestimmtem „wahren“ Wert, dem Erwartungswert, aufweisen. Beispiele: ● zuf. Mess- und Beobachtungsfehler ● Fett- und Eiweißgehalt von Milch, Stammwürzegehalt von Bier, Saccharosegehalt von Zuckerrüben Def.: Eine stetige ZG X heißt normalverteilt mit den Parametern µ und σ2 (X ~ N (µ, σ2)), wenn ihre Dichtefunktion die Form fX ( x ) = 1 ⋅e 2π ⋅ σ 2 ( x −µ ) − 2 ⋅σ 2 x∈R, hat. Satz: Eigenschaften der Dichtefunktion der NV 1. fX(x) ≥ 0 x∈R 2. fX besitzt an der Stelle x = µ ein Maximum und 1 fX (µ) = 2π ⋅ σ 3. fX besitzt an den Stellen x1 = µ -σ und x2 = µ + σ zwei Wendepunkte 4. fX ist symmetrisch bez. µ: fX(µ - x) = fX(µ + x) Dichtefunktion der Normalverteilung 0,8 0,1 4,1 4,2 4,0,5 0,2 Dichte 0,6 0,4 0,2 fX(x; 0, 1) = ϕX(x) 0 -10 -6 -2 2 6 10 14 x Verteilungsfunktion Verteilungsfunktion der Normalverteilung Standard- Normalverteilung X ~ N (0, 1) 1 0,1 4,1 4,2 4,0,5 0,2 0,8 0,6 FX(x; 0, 1) = ΦX(x) 0,4 0,2 ist tabelliert! 0 -10 -6 -2 2 x 6 10 14 Bem.: - Für eine normalverteilte ZG X gilt: EX = µ und D2X = σ2 - Der Parameter µ bedeutet : Verschiebung des Symmetriezentrums Der Parameter σ bedeutet: Streckung oder Stauchung der Dichte x - Die Verteilungsfunktion: FX (x)= P(X ≤ x) = aber: ∫ f (t )dt X −∞ Integral nicht geschlossen integrierbar! ⇒ Standardisierung der normalverteilten ZG X und Bestimmen der standardisierten Verteilungsfunktion Φ (ist tabelliert!) ! Satz: Eine stet. ZG X mit X ~ N(µ, σ2), kann durch Y = (X-µ)/ σ standardisiert werden, so dass Y ~ N(0, 1), und man erhält: fX(x) = (1/σ) • ϕY(y) und FX(x) = ΦY(y) (Zusammenhang von Dichte- und Verteilungsfunktionen) N(0,1) 0,4 0,1 Dichte 0,3 0,2 0,1 0 -5 -3 -1 1 3 x ϕY(-y) = ϕY(y) 5 Verteilungsfunktion der Normalverteilung Verteilungsfunktion Dichtefunktion der Normalverteilung N(0,1) 1 0,1 0,8 0,6 0,4 0,2 0 -5 -3 -1 1 3 5 x ΦY(-y) = 1- ΦY(y) Bestimmen von Intervallwahrscheinlichkeiten: X−µ x −µ 1. P( X ≤ x) = FX ( x) = P ≤ = P( Y ≤ y) = Φ Y ( y) σ σ 2. P( X > x) = 1 − P( X ≤ x) = 1− FX ( x) = X−µ x −µ 1− P ≤ = 1− P( Y ≤ y) = 1− Φ Y ( y) σ σ 3. P( x1 < X ≤ x 2 ) = FX ( x 2 ) − FX ( x1 ) X−µ = P y1 < Y = ≤ y 2 = Φ Y ( y 2 ) − Φ Y ( y1 ) σ x1 −µ y1 = σ x2 −µ y2 = σ 4. Spezialfall von 3. Seien x1 = µ - kσ und x2 = µ + kσ Dann gilt: P(|X - µ|) ≤ kσ) = Φ(k) - Φ(-k) = 2 Φ(k) – 1 Bem.: Betrachtet man k = 1,2 und 3, so ergeben sich folgende Wahrscheinlichkeiten: P(|X - µ|) ≤ 1σ) = 0,638 P(|X - µ|) ≤ 2σ) = 0,955 P(|X - µ|) ≤ 3σ) = 0,997 3σ σ- Regel d.h. es ist praktisch „fast sicher“, dass eine normalverteilte ZG X Werte zwischen µ - 3σ und µ - 3σ annimmt. Bsp.: Eine Maschine füllt Tüten. Die Masse der Tüten (ZG X) sei normalverteilt mit X~ N(31,4; 0,04) [g]. Eine Tüte ist normgerecht gefüllt, wenn X Werte im Intervall [30,9; 31,7] annimmt. a) Wieviel % der Tüten sind normgerecht gefüllt? b) Wieviel % der Tüten sind nicht normgerecht gefüllt? c) Wieviel % der Tüten sind unterdosiert? d) Wieviel % der Tüten sind überdosiert? e) Wie müßte die untere Grenze des Toleranzbereiches xu sein, damit nur 0,2 % der Tüten unterdosiert sind? f) Welchen Wert müßte die Standardabweichung σ haben, damit bei ursprünglichem Toleranzbereich nur 2% der Tüten unterdosiert sind? Lösung: a) P(A) = P(30,9 < X ≤ 31,7) = ΦY(1,5) - ΦY(-2,5) = 0,93319(1-0,99379) = 0,92698 ≈ 92,7 % b) P( A ) = 1- P(A) = 7,3 % c) P(X ≤ 30,9) = ΦY(-2,5) = (1-0,99379) = 0,00621 ≈ 0,6 % d) P(X > 31,7) = 1- P(X ≤ 31,7) = 1 - ΦY(1,5) = 0,06681 ≈ 6,7 % e) P(X ≤ xu) = 0,002 x u − 31,4 1-0,002 = 0,998 = 0,002 = ΦY 0,2 → ΦY(2,88) = 0,998 x u − 31,4 → ΦY(-2,88) = 0,002 → = −2,88 0,2 → xu = 30,824 f) analog zu e) 30,9 − 31,4 30,9 − 31,4 = −2,88 ΦY = 0,002 → σ σ → σ = 0,1736 2.4 Prüfverteilungen Prüfverteilungen sind Verteilungen stetiger Zufallsgrößen, die insbesondere in der induktiven Statistik eine Rolle spielen. Für die praktische Durchführung von Prüfverfahren benötigt man insbesondere die Quantile dieser Prüfverteilungen. Def.: Sei X eine stetige ZG mit der Verteilungsfunktion FX und p∈(0,1) ⊆ R. Dann heißt eine Zahl xp Quantil der Ordnung p, wenn Fx(xP) = P(X ≤ xP) = p gilt. Bem.: Ein Quantil der Ordnung p = ½ heißt Median χ² - Verteilung (Helmert, 1876) Chi-Quadrat Verteilung 0,1 FG 10 20 30 50 100 Dichte 0,08 0,06 (n − 1)S ² W = ~ χ ²( m ) σ² 0,04 Freiheitsgrad m = n-1 0,02 0 0 30 60 90 120 150 180 x Das Quantil der Ordnung p der χ²-Verteilung mit m Freiheitsgraden wird mit χ²p;m bezeichnet. t-Verteilung („STUDENT“ , W. Gosset) t- Verteilung 0,4 FG 10 20 30 50 100 Dichte 0,3 0,2 X −µ t= ⋅ n ~ t(m ) S 0,1 0 -6 -4 -2 0 2 4 6 x Verteilungsfunktion - Das Quantil der Ordnung p der t- Vert. mit m FG- en wird mit tp;m bezeichnet. - Die t- Verteilung ist symmetrisch und konvergiert für m→∞ gegen die Standardnormalverteilung t- Verteilung 1 FG 10 20 30 50 100 0,8 0,6 0,4 0,2 0 -6 -4 -2 0 x 2 4 6 F-Verteilung (Fisher) F- Verteilung FG 10,10 20,20 30,30 50,50 100,100 2,4 Dichte 2 1,6 1,2 S12 F = 2 ~ F(m1, m2 ) S2 0,8 0,4 0 0 1 2 3 4 5 x Das Quantil der Ordnung p der F-Verteilung mit m1 und m2 FG- en wird mit Fp;m1;m2 bezeichnet. Verteilungsfunktion F- Verteilung 1 FG 10,10 20,20 30,30 50,50 100,100 0,8 0,6 0,4 0,2 0 0 1 2 3 x 4 5 3. Schließende Methoden /9/ Stahel, W. (1995) Obj. Realität Merkmale Stat. Modell Zufallsgröße X mit best. Vert. oder Menge aller Real. der ZG, d.h. Menge E aller Versuchsausgänge: x1, x2, ... Menge aller möglichen Stichproben vom Umfang n: X = (X1, ..., Xn) Messwerte = GG = Mathem. Stichprobe Realisierungen der ZG X: = Konkrete x = (x1, ..., xn) Stichprobe 1- Stichprobenproblem: Konkrete Stichprobe (x1, …, xn) Schätzwert (Realisierung) Mathematische Stichprobe (X1, …, Xn) Grundgesamtheit Schätzfunktion X (Stichprobenfunktion) F̂n ( x ) Fn ( x) 1 n x = ∑ xi n i =1 1 n X = ∑ Xi n i =1 FX ( x ) µ bei X~N(µ, σ2) ρ0 x mod ~ X 0 ,5 X mod Mod 1 n s = ( x i − x )2 ∑ n − 1 i=1 1 n S = ( Xi − X)2 ∑ n − 1 i=1 σ2 bei X~N(µ, σ2) mad g1 g2 … MAD ~ x 0 ,5 2 2 G1 G2 … MADth γ1 γ2 … Wichtigste Aufgabe der Statistik: Aus den in der Stichprobe enthaltenen Informationen Aussagen über die Grundgesamtheit zu gewinnen! Es treten dabei 2 wichtige Probleme auf: 1. Schätzen der Verteilung der GG bzw. von Parametern 2. Prüfen von Hypothesen über die Verteilung der GG bzw. von Parametern 3.1 Punktschätzungen und Konfidenzintervalle Wir betrachten Punkt- und Intervallschätzungen für Parameter von Zufallsgrößen. Auf der Basis konkreter Stichproben führen: Punktschätzungen ⇒ Näherungswerten und Intervallschätzungen ⇒ Näherungsintervallen für einen unbekannten Parameter. 1. Punktschätzungen Bei Punktschätzungen wird ein einziger aus der Stichprobe gewonnener Wert zur Schätzung des unbekannten Parameters herangezogen. Ein Punktschätzer ist eine Stichprobenfunktion T(X1,…, Xn) der math. Stichprobe und ein Schätzwert ist eine Realisierung t(x1,…, xn) auf der Basis der konkreten Stichprobe. Bsp.: Unter der Voraussetzung, dass die GG X normalverteilt ist mit EX = µ und D2X = σ2 , haben die Punktschätzer 1 n 1 n 2 2 S = ( X − X ) und X = ∑ Xi ∑ i n − 1 i=1 n i=1 die besten statistischen Eigenschaften (Erwartungstreue, Konsistenz, Effizienz, Suffizienz)! Man erhält Punktschätzer mit folgenden Schätzmethoden: ● Momentenmethode ● Maximum Likelihood- Methode (MLM) ● Methode der kleinsten Quadrate (MkQ) Die Realisierungen x und s2 stellen die zugehörigen Punktschätzwerte (reelle Zahlen) aufgrund einer konkreten Stichprobe dar. Veranschaulichung von Treff- und Wiederholgenauigkeit Parameter Θ (Schießscheibe) Treff- u. Wieder- Treffgenauigkeit holungsgenauig- niedrig, keit hoch Wiederholungsgenauigkeit hoch Treffgenauigkeit hoch, Wiederholungsgenauigkeit niedrig Treff- u. Wiederholungsgenauigkeit niedrig Bem.: Die Treffgenauigkeit (Erwartungstreue) eines Schätzers ist hoch (Bias klein), wenn die Schätzwerte wiederholter Schätzungen den Parameter im Mittel gut treffen. Die Wiederholungsgenauigkeit (Präzision) ist hoch ( D 2 θ̂ klein), wenn die Schätzwerte wiederholter Schätzungen nahe beieinander liegen. 2. Konfidenzintervalle (Vertrauensintervalle) ● Mit einer Punktschätzung gewinnen wir keine Aussage über die Genauigkeit einer solchen Schätzung. ● Die Abweichungen einzelner Punktschätzwerte vom wahren Wert des Parameters können z.B. dann recht groß sein, wenn der Stichprobenumfang klein ist. ● Mit Hilfe einer Intervallschätzung können wir uns eine Vorstellung von der Genauigkeit der Schätzung verschaffen. Def.: Ein Konfidenzintervall ist ein Intervall, dass einen unbekannten Parameter der Grundgesamtheit mit einer vorgegebenen Wahrscheinlichkeit (1-α) enthält. Bsp.: Konfidenzintervall für den Erwartungswert µ einer normalverteilten GG Sei X ~ N(µ, σ2) eine normalverteilte ZG und (X1, ..., Xn) eine mathematische Stichprobe aus der GG X. 1. Fall: Die Varianz σ2 der normalverteilten GG sei bekannt Für den unbekannten Parameter µ ist eine Konfidenzschätzung anzugeben. Dann hat das Konfidenzintervall für µ die Form: σ σ = P X − ⋅z α < µ < X+ ⋅ z α = 1 − α n 1− 2 n 1− 2 wobei z α das 1− ist. 2 (1− α ) 2 - Quantil der Standardnormalverteilung Jede konkrete Stichprobe liefert uns dann ein realisiertes z α Konfidenzintervall: 1− 1-α α z 2 σ σ ⋅ z α; x + ⋅z α x − n 1− 2 n 1− 2 0,95 0,05 1,96 0,99 0,01 2,58 1-α 1,64 2,33 α Φ z α = 1− 2 1− 2 Dichtefunktion der Standard- Normalverteilung 0,4 Dichte 0,3 1-α 0,2 α/2 α/2 0,1 0 -5 -3 -1 z α 2 = −z 1− 1 z α 2 z 3 1− 5 α 2 1− α -Quantil der Standard- NV 2 Bem.: Die Breite dieses Konfidenzintervalls für den Erwartungswert µ beträgt 2d und ist von α, n, σ und der Verteilung des zugehörigen Schätzers abhängig. σ 2d = 2 ⋅z α 1− n 2 Je größer α desto kleiner das Konfidenzintervall Je größer n desto kleiner das Konfidenzintervall Die Breite des Konfidenzintervalls ist hier ein Maß für die Genauigkeit der Schätzung von µ und die Irrtumswahrscheinlichkeit α ein Maß für das Risiko. ⇒ Planung des Stichprobenumfangs: geg.: halbe Breite des Konf.intervalls d, 2 2 σ Varianz σ , → n = 2 ⋅ z 2 1− α 2 d Konfidenzniveau (1-α) 2. Fall: Die Varianz σ2 der normalverteilten GG sei nicht bekannt und muß geschätzt werden. Für den unbekannten Parameter µ ist eine Konfidenzschätzung anzugeben. Wir wählen als Punktschätzer: für den Erwartungswert µ: 1 n X = ∑ Xi n i=1 für die Varianz σ2 n 1 2 S2 = ( X − X ) ∑ i n − 1 i=1 und Dann hat das Konfidenzintervall für µ die Form: S S P X − ⋅t α < µ < X+ ⋅ t α = (1 − α) n 1− 2 ;m n 1− 2 ; m wobei t 1− α ;m das 2 (1− α ) 2 - Quantil der t- Verteilung ist. Jede konkrete Stichprobe liefert uns wieder ein realisiertes Konfidenzintervall: s s x − n ⋅t α 1− ; m 2 ;x + n ⋅t α 1− ; m 2 s d= ⋅t α n 1− 2 ;m Veranschaulichung analog wie beim 1. Fall! Toleranzintervall: Anwendung bei der Kontrollkartentechnik: ( x - Kontrollkarte) Mittelwert liegt außerhalb des Toleranzbereiches! µ0 + S ⋅t α n 1− 2;m Toleranzbereich µ0 µ0 − s ⋅t α n 1− 2;m xi x1 x3 x5 x7 3.2 Statistische Tests Es werden zwei Hypothesen für die GG aufgestellt: ● die Nullhypothese H0 (Annahme über die Verteilung oder unbekannte Parameter in der Grundgesamtheit) und ● die Alternativhypothese HA (wird angenommen, falls H0 verworfen wird) Durch einen statistische Test wird eine Entscheidung zwischen beiden Hypothesen auf Grund einer Stichprobe herbeigeführt. Bei der Entscheidung für eine der beiden Hypothesen durch einen Test kann man zwei Fehler begehen: - Fehler 1. Art: Entscheidung für HA, obwohl H0 richtig ist und - Fehler 2. Art: Entscheidung für H0, obwohl HA richtig ist Betrachten wir ein paar Beispiele: Bsp. 1: Es ist auf Grund einer Stichprobe zu prüfen, ob die Länge von Escherichia Coli- Zellen eines best. Bakterienstammes normalverteilt ist. H0: FX = F0X HA: FX ≠ F0X (F0 - Vert.fkt. der Normalvert.!) ⇒ Test auf Normalverteilung Bsp. 2: Der Wassergehalt von Butter X sei normalverteilt. Auf Grund einer Stichprobe aus einer Molkerei soll geprüft werden, ob der erhaltene Mittelwert mit dem Qualitätssollwert µ0 = 15% verträglich ist, d.h. ob die Abweichung zwischen x und µ0 nur zufällig ist oder ob stat. signifikante Unterschiede vorliegen. H0 : µ = µ0 = 84% ⇒ HA: µ ≠ µ0 = 84% Mittelwerttest für ein Einstichprobenproblem Bsp. 3: Eine sehr zeitaufwendige Standardmethode M1 zur Bestimmung der Trockenmasse von Kondensmilch soll durch eine Schnellmethode M2 ersetzt werden. Auf der Basis zweier Stichproben ist nun zu prüfen, ob die Mittelwerte und Varianzen beider Methoden übereinstimmen oder ob es signifikante Unterschiede gibt. H0: µ1 = µ2 HA: µ1 ≠ µ2 (Vor.: NV!) HA: σ12 ≠ σ22 H0: σ12 = σ22 ⇒ Mittelwert- und Varianztest für ein 2-Stichprobenproblem Bsp.4: Es ist zu prüfen, ob in einer Stichprobe ein stark nach oben (bzw. nach unten) abweichender Wert als „Ausreißer“ zu betrachten ist. (Vor.: NV!) H0: xmax ist kein Ausreißer ⇒ Ausreißertest HA: xmax ist ein Ausreißer Mögliche Entscheidungen bei einem stat. Test: Realität H0 richtig Entscheidung für H0 HA wird abgelehnt richtige Entscheidung Sicherheitswahrsch. (1- α) HA richtig Fehler 2. Art β Entscheidung für HA H0 wird abgelehnt Fehler 1. Art Irrtumswahrsch. α richtige Entscheidung Güte des Tests (1- β) Bei zwei Entscheidungen entscheidet man sich richtig, jeweils mit den Wahrscheinlichkeiten (1- α) bzw. (1- β) . Führt ein Test nun zur Ablehnung von H0, so ist diese Entscheidung für HA mit einer Irrtumswahrscheinlichkeit von α behaftet und man sagt: Das Ergebnis ist signifikant zum Signifikanzniveau α. Bem.: 1. Beim Signifikanztest (auch α- Test genannt) wird nur der Fehler 1. Art durch die Vorgabe von α kontrolliert, während der Fehler 2. Art, der mit der (unbekannten) Wahrscheinlichkeit β auftritt, unberücksichtigt bleibt. Daher formuliert man die Hypothesen so, dass der Fehler 1. Art der in seinen Folgen schwerwiegendere ist, den man auf jeden Fall vermeiden möchte! 2. Beide Fehler kann man nicht gleichzeitig minimieren. Denn: Je kleiner der eine Fehler ist, desto größer wird der andere. Aber: Beide Fehler werden bei der Planung des Stichprobenumfanges mit berücksichtigt. 3. Das Signifikanzniveau α ist unter Beachtung der konkreten Aufgabenstellung und insbesondere der Folgen des Fehlers 1. Art festzulegen. Übliche Werte für α sind: 0,1; 0,05; 0,01; 0,005; 0,001. Arten statistischer Tests Parametrische Tests Verteilungsfreie (nichtparametrische) Tests Ann. eines best. Verteilungstyps (z.B. NV!) für die GG, Keine Ann. eines best. Verteilungstyps für die GG, nur Stetigkeit oder Diskretheit, Prüfung von Hypothesen über die Parameter (z.B. Erwartungswert und Varianz) Prüfung von Hypothesen über die Art der Verteilung (z.B. NV durch Anpassungstests) oder Parameter (z.B. Median) Tests basieren oft auf Rangstatistiken Allgemeine Vorgehensweise bei einem Parametertest: 1. Formulierung der Aufgabenstellung, einschließlich aller Voraussetzungen über die GG 2. Aufstellen der Null- und Alternativhypothese H0 und HA 3. Wahl der Stichprobenfunktion T (Teststatistik) auf der Basis der math. Stichprobe und Angabe ihrer Verteilung bei richtiger Nullhypothese 4. Berechnung eines Wertes der Teststatistik t auf der Basis einer konkreten Stichprobe 5. Wahl des kritischen Bereiches K für vorgegebene Irrtumswahrscheinlichkeit α 6. Testentscheidung Wenn t∈K → Ablehnung von H0 u. Annahme von HA Wenn t∈K → Annahme von H0 u. Ablehnung von HA 1. Vergleich der Parameter einer NV mit Sollwerten Einstichprobentest Annahme: Sei X~N(µ, σ2), (X1, ..., Xn) math. Stichprobe aus GG X 3.2.1.1. Vergleich des Mittelwertes einer NV mit einem Sollwert (Einstichproben- Test) 1. Fall: σ2 bekannt (Gauß- oder Z- Test) 1. Kann auf Grund einer Stichprobe geschlossen werden, dass diese aus einer normalverteilten GG stammt, deren Erwartungswert µ gleich einem vorgegebenen Sollwert µ0 ist? Mit anderen Worten: Ist x mit µ0 verträglich oder a) gibt es signifikante Abweichungen b) ist der MW echt größer als µ0 c) ist der MW echt kleiner als µ0? → 2- seit. Test → 1- seit. Test Vor.: X~N(µ, σ2), σ2 ist bekannt 2. Null- und Alternativhypothese b) H02: µ ≤ µ0 HA2: µ > µ0 a) H01: µ = µ0 HA1: µ ≠ µ0 2-seit. Fragestellung c) H03: µ ≥ µ0 HA3: µ < µ0 1-seit. Fragestellung 3. Wahl der Teststatistik Wählen X als geeigneten Punktschätzer für µ und standardisieren: X → X − µ0 Z= ⋅ n ~ N( 0,1) σ Teststatistik (unter H0!) 1 n σ2 da X = ∑ X i ~ N(µ, ) n i=1 n 4. Berechnen des Wertes der Teststatistik x − µ0 z= ⋅ n σ 5. Wahl des kritischen Bereiches (Verwerfungsbereich) K Der krit. Bereich ist abhängig von der Irrtumswahrscheinlichkeit α und der Art der Alternativhypothese. P(Z∈K / H0) = α und P(Z∈K / H0) = (1- α) a) HA1: µ ≠ µ0 K = − ∞; z α ∪ z α ;+∞ 2 1− 2 Dichtefunktion der Standard- Normalverteilung 0,4 1-α Dichte 0,3 0,2 α/2 α/2 0,1 kritische Grenzen K = z / | z |> z α 1− 2 0 -5 -3 zα -1 2 1 z z 1− 3 5 α 2 Ann.bereich H0 b) HA2: µ > µ0 c) HA3: µ < µ0 Dichtefunktion der Standard- Normalverteilung Dichtefunktion der Standard- Normalverteilung 0,4 0,4 0,3 1-α Dichte Dichte 0,3 0,2 α 0,1 1-α 0,2 α 0,1 0 0 -5 -3 -1 1 z 3 5 z1−α K = (z1− α ;+∞ ) = {z / z > z1− α } -5 -3 -1 zα 1 3 5 z K = (− ∞; z α ) = {z / z < z α } 6. Testentscheidung H0: µ = µ0 wird abgelehnt, wenn a) z > z α 1− 2 b) z > z1−α c) z < zα Analog gilt: H0 wird abgelehnt, wenn der zu z gehörige P-Wert < α ist. P heißt „Probability value“ oder „Grenzniveau“ oder „Überschreitungswahrscheinlichkeit“. Er ermöglicht eine differenziertere Testentscheidung. Häufig interpretiert man den P-Wert wie folgt: Wenn P ≥ 0,05 Wenn 0,05 > P ≥ 0,01 Wenn 0,01 > P ≥ 0,001 Wenn 0,001 > P → → → → kein stat. sign. Unterschied stat. sign. Unterschied * stark sign. Unterschied ** sehr stark sign. Unterschied *** Bem.: 1. Falls die Nullhypothese wahr ist, ergeben sich folgende Entscheidungsbereiche: a) HA1: µ ≠ µ0 b) HA2: µ > µ0 1-α 1-α Ann.bereich von H0 Ann.bereich von H0 Die schraffierten Flächen α (Irrtumswahrscheinlichkeit) geben die Wahrscheinlichkeiten an, dass die Nullhypothese fälschlicherweise verworfen wird. Bem.: 2. Falls die Nullhypothese falsch ist und µ = µ1 > µ0, ergeben sich folgende Entscheidungsbereiche: a) HA1: µ ≠ µ0 b) HA2: µ > µ0 β α/2 Ann.bereich von HA β α Ann.bereich von HA Die schraffierten Flächen (1-β) (Trennschärfe, Macht eines Tests) geben die Wahrscheinlichkeiten an, dass die wahre Alternativhypothese durch den Test auch angenommen wird. Die Macht (1-β) sinkt, je kleiner α wird. 2. Fall: σ2 unbekannt → Schätzen durch s2 (t- Test) 3. Teststatistik unter H0: X − µ0 t= ⋅ n ~ t ( n − 1) S 4. Wert der Teststatistik: x − µ0 t̂ = ⋅ n s 5. Kritischer Bereich K: a) HA1: µ ≠ µ0 K = − ∞; t α ∪ t α ;+∞ = t̂ / | t̂ |> t α ,m 1− ,m 2 2 1− 2 ,m b) HA2: µ > µ0 K = (t 1− α ,m ;+∞ ) = t̂ / t̂ > t 1− α ,m c) HA3: µ < µ0 K = (− ∞; t α ,m { } ) = {t̂ / t̂ < t } α ,m 6. Testentscheidung H0: µ = µ0 wird abgelehnt, wenn a) | t̂ |> t t̂ > t 1− α ,m b) α 1− ,m 2 c) t̂ < t α,m bzw. wenn der zu t̂ gehörige P-Wert < α ist. b) Dichtefunktion der t- Verteilung FG: 10 0,4 Dichte 0,3 P-Wert 0,2 Hier: Annahme von H0 ! α 0,1 0 -6 -4 -2 0 t t̂ Ann.bereich vonH0 2 4 6 t1−α,10 (1-α)- Quantil der t- Vert. zum FG 10 Ein Test ist von folgenden Größen abhängig: ● Mindestdifferenz d (Genauigkeitsvorgabe) ● Wahrscheinlichkeit für den Fehler 1. Art α ● Schranke für die Wahrscheinlichkeit für den Fehler 2. Art β0 ● Varianz σ2 (1. Fall) bzw. s2 (2. Fall) a) b) Verlauf der Gütefunktion (Macht, Power) eines zweiseitigen Tests (für kleinen und großen Stichprobenumfang) und eines 1-seitigen Tests Bsp.: Wassergehalt von Butter (Gauß- Test) 1. Für die Zufallsgröße X – Wassergehalt [%] von Butter sei NV-Annahme gerechtfertigt. Es liegt eine Stichprobe vom Umfang 10 vor und es ist durch einen Test zu prüfen, ob diese Stichprobe aus einer GG mit dem Erwartungswert µ0 = 15,2 [%] (Sollwert) stammt. Die Varianz σ2 = 0,04 [%]2 kann als bekannt vorausgesetzt werden. a) Weicht x signifikant von µ0 ab? oder b) Ist x signifikant größer als µ0? Die Messwerte seien: 15,05 15,52 15,44 15,35 15,24 14,89 15,47 15,28 15,18 15,39 2. Hypothesen: a) H01: µ = µ0 HA1: µ ≠ µ0 b) H02: µ ≤ µ0 HA2: µ > µ0 X − µ0 Z= ⋅ n ~ N(0,1) σ x − µ0 4. Wert der Teststatistik: z = ⋅ n = 1,28 σ 3. Teststatistik: x = 15,28[%] 5. Kritischer Bereich K: a) K = − ∞; z α ∪ z α ;+∞ 2 1− 2 K = z / | z |> z α 1− 2 α = 0,05 → z α 1− 2 b) K = (z1− α ;+∞ ) K = {z / z > z1− α } z α = 1,645 = 1,96 6. Testentscheidung: | z |= 1,28 < z α 1− 2 = 1,96 z < z1−α = 1,645 Ergebnis: Für α = 0,05 wird H0 beibehalten, sowohl bei der 2- seitigen als auch bei der 1- seitigen Fragestellung. D.h.: Abweichungen bzw. eine Überschreitung des Sollwertes sind nicht feststellbar. Bem.: Wäre die Varianz σ2 = 0,04 [%]2 nicht bekannt, dann müsste sie durch s2 geschätzt werden (t- Test, 2. Fall) 3. Teststatistik: t= X − µ0 ⋅ n ~ t(m) S 4. Wert der Teststatistik: x − µ0 t̂ = ⋅ n = 1,2934 s x = 15,281 [%] 5. Kritischer Bereich K: α = 0,05 → 6. Testentscheidung: t a) α 1− ,m 2 =t α 1− ,9 2 | t̂ |≤ t n = 10 s = 0,198 [%] b) = 2,26 α 1 − ,m 2 t 1− α ,m = t 1− α ,9 = 1,83 t̂ = 1,29 ≤ t1− α,9 Ergebnis: Für α = 0,05 sind Abweichungen bzw. eine Überschreitung des Sollwertes nicht feststellbar. Allgemeine Bemerkungen zu Hypothesentests 1. Erweist sich ein Unterschied als nicht signifikant, so sagt das noch nicht, dass damit die Hypothese wahr ist. Es sagt bloß: Die Hypothese steht zum Ergebnis der Stichprobe nicht im Widerspruch. 2. Ist die Abweichung des wahren Parameters, z.B. µ, vom Sollwert µ0 nur klein, wird das Ergebnis einer kleinen Stichprobe nur selten im Widerspruch zu µ0 stehen. D.h., ob eine bestehende Abweichung von der Hypothese erkannt wird oder nicht, hängt entscheidend von der Größe der Stichprobe ab. Wollte man das Ergebnis „nicht signifikant“ als eine Bestätigung der Nullhypothese auffassen, so brauchte man bloß eine hinreichend kleine Stichprobe zu wählen und könnte damit fast jede Nullhypothese bestätigen. ⇒ Als Nullhypothese wählt man daher stets das Gegenteil von dem, was man beweisen möchte und versucht, es zu widerlegen. 3. Eine Ablehnung von H0 und Annahme von HA bedeutet: Wir können nicht sicher sein, uns richtig entschieden zu haben, in Wirklichkeit könnte auch H0 wahr sein, dann hätten wir jedoch H0 nur mit einer Wahrscheinlichkeit von höchstens α (Wahrscheinlichkeit für Fehler 1. Art) durch den Test abgelehnt, d.h. wir haben uns mit großer Sicherheit richtig entschieden. 4. Eine Annahme von H0 bedeutet: Falls in Wirklichkeit HA wahr sein würde, hätten wir einen Fehler 2. Art begangen, deren Wahrscheinlichkeit durch den Signifikanztest nicht kontrolliert wird. Sie lässt sich allerdings durch die Gütefunktion bestimmen. 5. Es gilt nicht: Mit 95%-iger Sicherheit ist bei Ablehnung von H0 HA wahr. Wir wissen nur, dass in 95% der Fälle die wahre H0 durch den Test bestätigt wird und in 5% der Fälle nicht. 6. In zu kleinen Stichproben können selbst grosse, praktisch bedeutsame Unterschiede oder Effekte nicht nachgewiesen werden, da sie sich nicht klar genug von den zufälligen Fehlern abheben. Mit grossen Stichproben kann man dagegen praktisch unwichtige Unterschiede oder Effekte als “statistisch signifikant” ausweisen. ⇒ “Praktische Relevanz” beachten und auf der Basis von Vorgaben über die Wahrscheinlichkeiten für die Fehler 1. u. 2. Art den Stichprobenumfang berechnen! Übersicht über Parametertests (1- und 2- Stichprobenproblem) Art des Tests H0 und HA Teststatistik Vergleich des Mittelwertes mit einer Konstanten a) 1-StichprobenGauß-Test b) 1-Stichprobent-Test H01: µ = µ0 HA1: µ ≠ µ0 H02: µ ≤ µ0 HA2: µ > µ0 H03: µ ≥ µ0 HA3: µ < µ0 a) σ bekannt X − µ0 Z= ⋅ n ~ N(0,1) σ b) σ unbekannt t= Entscheidung Annahme H0 P ≥ 0,05 Krit. Bereich a) HA1: K= (- ∞, z α )∪( z 2 1− α 2 , ∞) HA2: K = (z 1-α, ∞) HA3: K= (- ∞, z α) a) z ≤ z z ≤ z1−α z ≥ zα 2 t̂ ≤ t1−α,m 2 t̂ ≥ t α,m HA2: K = (t1-α,m , ∞) HA3: K= (- ∞, tα,m) 1-Stichprobenχ2- Test H01: σ2 = σ02 HA1: σ2 ≠ σ02 (n − 1)S2 χ = ~ χ2 (m) 2 σ0 2 H02: σ2 ≤ σ02 HA2: σ2 > σ02 α 2 t̂ ≤ t α X − µ0 1− ,m ⋅ n ~ t(m) b) HA1: b) 2 S K = (- ∞,t α )∪( t α , ∞) ,m 1− ,m m = n-1 Vergleich der Varianz mit einer Konstanten 1− HA1: 2 2 K = (- ∞,χ α2 ,m )∪( χ1− α2 ,m , ∞) χ12−α,m HA2: K = ( m = n -1 , ∞) χ2α ≤ χˆ 2 ≤ χ2 α 2 ,m 1− ,m 2 χˆ 2 ≤ χ12−α,m Art des Tests H0 und HA Teststatistik a) σ1, σ2 bekannt Vergleich von 2 Mittelwerten bei unabhängigen Stichproben Z= a) 2-StichprobenGauß-Test b) 2-Stichprobent-Test H01: µ1 = µ2 HA1: µ1 ≠ µ2 H02: µ1 ≤ µ2 HA2: µ1 > µ2 X1 − X 2 σ12 σ 22 + n1 n 2 b) σ12, σ22 unbekannt, aber σ12= σ22 t= Sd = Krit. Bereich a) HA1: K= (- ∞, z α )∪( z α 1− 2 2 ~ N(0,1) Entscheidung Annahme H0 P ≥ 0,05 a) , ∞) 2 ,m b) α 1− ,m 2 α 2 z ≤ z1−α , ∞) X1 − X 2 n1 ⋅ n 2 ⋅ ~ t(m) HA2: K = (t1-α,m , ∞) Sd n1 + n 2 (n1 − 1) S12 + (n 2 − 1) S 22 n1 + n 2 − 2 m = n1+n2 -2 1− HA2: K = (z 1-α, ∞) b) HA1: K = (- ∞, t α )∪(t z ≤z m = n1+n2 -2 t̂ ≤ t α 1− ,m 2 t̂ ≤ t1−α,m Art des Tests H0 und HA Teststatistik Krit. Bereich c) σ12, σ22 unbekannt, aber σ12≠ σ22 c) HA1: K= (- ∞, t α )∪( t Vergleich von 2 Mittelwerten bei unabhängigen Stichproben c) 2-Stichprobent-Test mit WelchKorrektur H01: µ1 = µ2 HA1: µ1 ≠ µ2 H02: µ1 ≤ µ2 HA2: µ1 > µ2 X1 − X 2 t= 2 1 2 2 S S + n1 n 2 2-StichprobenF-Test H02: σ11 ≤ σ22 HA2: σ11 > σ22 α 1− ,m 2 , ∞) t̂ ≤ t HA2: K = (t1-α,m , ∞) α 1− ,m 2 t̂ ≤ t1−α,m aber.: unterschiedliches m im Vergleich zu b)! 1 c2 (1 − c ) 2 = + m n 2 − 1 n1 − 1 c= H01: σ12 = σ22 HA1: σ12 ≠ σ22 c) mit und Vergleich von 2 Varianzen bei unabhängigen Stichproben ~ t(m) 2 ,m Entscheidung Annahme H0 P ≥ 0,05 s 22 n1 s12 s 22 + n1 n 2 S12 F = 2 ~ F(m1, m2 ) S2 m1 = n1 – 1; m2 = n2 1 Vor.: s12 ≥ s22 , sonst Stichproben vertauschen! HA1: K = (- ∞, Fα 2 ∪( F ,m1,m2 α 1− ,m1,m2 2 HA2: K = ( Fα ) 2 ,m1,m 2 ≤ f ≤F , ∞) F1−α,m1,m2 , ∞) f ≤ F1−α,m1,m2 α 1− ,m1,m 2 2 3.3 Varianzanalyse - Die Varianzanalyse ermöglicht es, Unterschiede zwischen den Erwartungswerten normalverteilter Zufallsgrößen (hier: Faktoren) in mehr als zwei Gruppen (oder Stufen) zu untersuchen. Sie ist damit eine Erweiterung des Mittelwertvergleichs (t- Test) von zwei auf mehr als zwei Gruppen. - Je nach Anzahl der Faktoren unterscheidet man zwischen einfaktorieller und mehrfaktorieller Varianzanalyse - Bei VA- Modellen vom Typ I werden nur Faktoren mit festen Stufen betrachtet. - Sie heißt Varianzanalyse, weil geprüft wird, ob die Variabilität zwischen den Gruppen größer ist als innerhalb der Gruppen. Bsp.: 4 Laboratorien sind hinsichtlich ihres mittleren 2,3Butandiolgehaltes in Wein zu vergleichen. Voraussetzungen für die Varianzanalyse: Umfang der i-ten Gruppe ● Xi ~ N(µi, σ2) i = 1, ..., a j = 1, ..., ni Anz. der Gruppen od. Stufen ● Homogenität der Varianzen: σi2 = σ2 ∀i ⇒ Bartlett-Test ( NV, ni > 5) Cochran-Test (NV, ni=n ∀i) Levéne-Test (keine NV) Man betrachtet a Stichproben: Xij: X 11 .... X a 1 : X 1n 1 .... X an a VA- Modell I mit einfacher Klassifikation: Xij = µi + εij Xij = µ + αi + εij i = 1, ..., a j = 1, ..., ni mit εij ~ N(0, σ2) (zufälliger Fehler) wobei: µ - Gesamterwartungswert αi - Effekt der i- ten Stufe des Faktors A; αi = µi - µ - χ2- Anpassungstest - Shapiro- Wilks-Test - T. auf Schiefe und Exzess - Kolmogorov- Smirnov-T. mit Lilliefors- Korrektur Bsp.: Vergleich des mittleren Butandiolgehaltes in 4 Laboratorien Ausgangstabelle (Versuchsplan): Nr. der Wdhlg. j 1 2 3 4 5 6 xi. s i. a=4 Anz. der Laboratorien Stufen des Faktors: Labor L2 L3 L4 L1 0,780 0,810 0,760 0,746 0,770 0,790 0,750 0,750 0,780 0,770 0,720 0,734 0,774 0,780 0,756 0,741 0,750 0,760 0,770 0,739 0,790 0,770 0,780 0,736 0,774 0,780 0,756 0,741 0,014 0,018 0,021 0,006 ni = n = 6 Gruppenumfang N = 24 Gesamtstichprobenumfang Box- Whisker Plot ansehen! Box- Whisker Plot Butandiolgehalt 0,82 0,8 0,78 0,76 0,74 0,72 L1 L2 L3 L4 1. Unterscheiden sich die 4 Laboratorien hinsichtlich des mittleren Butandiolgehaltes von Wein, d.h. hat der Faktor “Laboratorium” Einfluss auf den Butandiolgehalt? Vor.: Xi ~ N(µi, σ2) (?) i = 1, ..., 4 j = 1, ..., 6 Homogenität der Varianzen: (Test: H0: σ12 = ... = σ42 gegen HA: ∃ (i,j): σi2 ≠ σj2 (i ≠ j) → kann angenommen werden (?) Modellannahme: Xij = µ + αi + εij = µi + εij 2. Hypothesen: H0: µ1 = ... = µ4 äquivalent HA: ∃ (i,j): µi ≠ µj (i ≠ j) mit εij ~ N(0, σ2) H0: α1 = ... = α4 = 0 HA: ∃ (i,j): αi ≠ αj (i ≠ j) 3. Teststatistik unter H0: Teststatistik basiert auf Zerlegung der Summe der Abweichungsquadrate Ausgangspunkt: Empirische Varianz s2 a 1 2 s = ∑ N − 1 i =1 ni 1 ( X ij − X ⋅⋅ ) = SQ G ∑ N −1 j =1 2 SQG – Summe der Abweichungsquadrate der Messwerte vom Gesamtmittelwert SQG = SQI + SQZ SQ I = a ni i=1 j=1 ∑∑ ( X ij − X i⋅ ) 2 SQI - Summe der Abweichungsquadrate innerhalb einer Gruppe (Stufe) SQ Z wobei = a ni i=1 j=1 ∑∑ ( X i ⋅ − X ⋅⋅ ) 2 SQZ - Summe der Abweichungsquadrate zwischen den Gruppen (Stufen) ni 1 Xi⋅ = ∑ Xij ni j=1 1 X ⋅⋅ = N Es gilt ebenfalls: Gruppenmittelwert ni a ∑∑X i =1 j =1 ij Gesamtmittelwert FGG = FGI + FGZ (N-1) = (N-a) + (a-1) ⇒ ⇒ MQ G 1 =s = SQ G N −1 2 MQ I = 1 SQ I N−a MQZ = 1 SQZ a −1 Teststatistik unter H0: F= MQ Z ~ F ( m 1, m 2 ) MQ I m1 = a-1 m2 = N-a 4. Wert der Teststatistik: ⇒ Varianztabelle (ANOVA-Tabelle) Variationsursache SQ̂ FG MQ̂ zwischen den Stufen SQ̂Z a-1 MQ̂ Z innerhalb der Stufen Gesamt 0,00565 3 0,00188 SQ̂I N-a MQ̂I 0,00482 20 N-1 SQ̂G 0,009538 23 0,00024 MQ̂G Wert der Teststatistik f f= M Q̂ Z M Q̂ I = 7,82 P-Wert P= 0,0012 5. Kritischer Bereich K: Dichtefunktion der F- Verteilung 0,8 FG 3,20 Dichte 0,6 0,4 0,2 α 0 0 1 2 3 4 5 F F 3; 20; 0,95 6. Testentscheidung: Wenn f > Fa-1; N-a; 1-α → Ablehnung von H0 Da 7,82 = f > F3; 19; 0,95 = 3,127 → Ablehnung von H0, d.h. die Mittelwerte des Butandiolgehaltes der Laboratorien unterscheiden sich zum Signifikanzniveau α = 0,05. Bem.: Wenn die Nullhypothese H0 abgelehnt wird, ist man daran interessiert, herauszufinden, welche Gruppen einen signifikant höheren oder niedrigeren Mittelwert aufweisen und schließt daher multiple paarweise Vergleiche, z.B. mit der Prozedur von Tukey- Kramer an. Man prüft dann den folgenden Hypothesenkomplex, a a ⋅ ( a − 1) bestehend aus = Hypothesen: 2 2 H0: µi = µj (i ≠ j) gegen HA: µi ≠ µj (i≠j) MW und 95%-iges HSD- Intervall von Tukey 0,8 MW 0,78 0,76 0,74 0,72 L1 L2 L3 L4 HSD- Test von Tukey- Kramer (α = 0,05 versuchsbezogen, wird für alle Vergleiche eingehalten!) ------------------------------------------------------------------------------------ Gruppe Anz. MW Homogene Gruppen -----------------------------------------------------------------------------------L4 6 0,741 X L3 6 0,756 XX L1 6 0,774 X L2 6 0,78 X ------------------------------------------------------------------------------------ Kontrast Differenz +/- Grenzen -----------------------------------------------------------------------------------L1-L2 -0,006 0,0251053 L1-L3 0,018 0,0251053 L1-L4 *0,033 0,0251053 L2-L3 0,024 0,0251053 L2-L4 *0,039 0,0251053 L3-L4 0,015 0,0251053 -----------------------------------------------------------------------------------* statistisch signifikante Differenz (α = 0,05) Ergebnis: - Zwischen zwei Laboratorien gibt es statistisch signifikante Mittelwertunterschiede hinsichtlich des Butandiolgehaltes von Weinen auf dem 5%- igen Signifikanzniveau, d.h. in 5 % aller Fälle liefert die HSD- Methode von TukeyCramer fälschlicherweise ein oder mehr signifikante Paare mit Mittelwertdifferenzen. - Zwei homogene Gruppen von Laboratorien wurden gebildet: Gruppe 1: L 3 und L 4 und Gruppe 2: L 1, L 2 und L 3. Bem.: Wenn Xi nicht normalverteilt und/ oder keine Varianzhomogenität vorliegen würde (s. Box- Whisker Plot!) → Kruskal- Wallis Test (unabh. Stichproben) anwenden! Anz. MW der Ränge -----------------------------------------------------------L1 6 16,8333 L2 6 17,75 L3 6 10,75 L4 6 4,66667 ------------------------------------------------------------ H0: ζ1 =…= ζ4 (Mediane) HA: ∃ (i,j): ζi ≠ ζj (i ≠j) Wert der Teststatistik = 13,4436 → P- Wert = 0,0038 < α = 0,05 → Ablehnung von H0 (Gleichheit der Mediane) Um zu ermitteln, welcher der Mediane sich signifikant von welchem unterscheidet, kann man den Box- Whisker Plot mit der „notch option“ auswählen. Bem.: Bei zwei oder mehr Faktoren im Varianzanalysemodell können neben den Haupteffekten der Faktoren auch deren Wechselwirkungen bestimmt werden. Bsp.: Der Vanadiumgehalt in Wein ist von den Faktoren „Land“, „Typ“ und „Farbe“ abhängig. Means Plot with confidence limits for Vanadium (Interaction: Type*Country*Colour) 2,5 2,0 Vanadium WechselWirkungsplot 1,5 1,0 0,5 0,0 -0,5 -1,0 Ty pe: Authentic Commercial White wines Type: Authentic Commercial Red wines Czech Republic Hungary Romania South Africa