Methodenlehre & Statistik Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Mathematische und statistische Methoden II Wallstr. 3, 6. Stock, Raum 06-206 Dr. Malte Persike [email protected] lordsofthebortz.de lordsofthebortz.de/g+ facebook.com/methodenlehre twitter.com/methodenlehre youtube.com/methodenlehre SoSe 2012 Folie 2 Psychologisches Institut Johannes Gutenberg Universität Mainz Methodenlehre & Statistik Vorlesung Organisatorisches Einführung Unsere Website http://lordsofthebortz.de Tutorien Literatur Software Folie 3 Methodenlehre & Statistik Vorlesung Organisatorisches Einführung Der Kummerkasten http://lordsofthebortz.de/box Tutorien Literatur Software Folie 4 Methodenlehre & Statistik Vorlesung Organisatorisches Einführung Soziale Netzwerke http://lordsofthebortz.de/g+ Tutorien Literatur Blog der Abteilung auf Google+, Antworten auf statistische Fragen und Einträge aus der Kommentarbox http://twitter.com/methodenlehre Neuigkeiten aus der Abteilung Software http://youtube.com/methodenlehre Vorlesungen und Statistikhäppchen zum Nachschauen http://facebook.com/methodenlehre Tutorengruppe, Reposts von der Google+ Seite Folie 5 Methodenlehre & Statistik Vorlesung Tutorien Organisatorisches Der Gaussian Hangout Sind Fragen übrig, die weder in der Vorlesung, im Tutorium oder sonstwo geklärt werden konnten? Literatur Software Dann besucht uns im Hangout. Jeden Donnerstag im Semester von 18-19 Uhr http://lordsofthebortz.de/g+ Folie 6 Einführung Methodenlehre & Statistik Vorlesung Organisatorisches Einführung Organisatorisches Aufbau des Moduls Methodenlehre Semester 1 Semester 2 Statistik I/II Literatur Vorlesung Statistik II/I Software Forschungsmethoden Softwaremethoden Tutorien Vorlesung Vorlesung Seminar (120 min.) Modulabschlussklausur Folie 7 Methodenlehre & Statistik Vorlesung Organisatorisches Einführung Organisatorisches Probeklausur für Erstsemester – Ausblick Semester 1 Semester 2 Statistik I/II Literatur Vorlesung Statistik II/I Software Forschungsmethoden Softwaremethoden Tutorien Vorlesung Vorlesung Seminar (120 min.) Probeklausur Folie 8 Abschlussklausur (60 min.) Abschlussklausur oder (60 min.) Methodenlehre & Statistik Vorlesung Tutorien Organisatorisches Einführung Organisatorisches Probeklausur für Erstsemester – Disclaimer Die Teilnahme an der Probeklausur nach dem ersten Semester ist freiwillig, es findet keine Anmeldung im Rahmen des BSc Studiums statt. Literatur Es entstehen daraus keine studienwirksamen Konsequenzen für die Teilnahme an der Modulabschlussklausur (z.B. Verlust eines Versuchs) Software Die Probeklausur wird nicht benotet Es entsteht kein Anrecht auf Berücksichtigung des erzielten Ergebnisses in der Modulabschlussklausur (120 min.) Probeklausur Folie 9 Abschlussklausur (60 min.) Abschlussklausur oder (60 min.) Methodenlehre & Statistik Vorlesung Tutorien Organisatorisches Einführung Organisatorisches I. Bestandteile der Veranstaltung Vorlesung wöchentliche Hausaufgaben Tutorien (Übungen & Besprechung der HA) II. Leistungskriterium Bestehen der Modulabschlussprüfung Literatur Software III. Unser Qualitätsversprechen Emails werden im Semester innerhalb von 24h beantwortet (an Werktagen) Folien sind ab 20:00 Uhr des Tages vor der Veranstaltung herunterladbar Klausuren werden innerhalb von 3 Wochen nachgesehen Folie 10 Methodenlehre & Statistik Vorlesung Organisatorisches Tutorien Josephine Clausen Tutorien Einführung Di 9 - 11 Uhr Do 9 - 11 Uhr Mo 14 - 16 Uhr Mo 16 - 18 Uhr (CIP Pool, Raum 01-236) Josephine Clausen (CIP Pool, Raum 01-236) Literatur Bernhard Both (CIP Pool, Raum 01-236) Software Bernhard Both (CIP Pool, Raum 01-236) Die Tutorien beginnen ab dem 03.05.2012. Bitte um gleichmäßige Verteilung auf die 4 Tutorien Wenn möglich: eigenes Notebook mitbringen Folie 11 Methodenlehre & Statistik Vorlesung Tutorien Organisatorisches Einführung Inhalte der Vorlesung im SoSe Wahrscheinlichkeitstheorie Einführung und zentrale Konzepte Stichprobenverteilungen Literatur Deskriptive Statistik Software Tabellarische und grafische Möglichkeiten der Ergebnisdarstellung Kennwerte Inferenzstatistik Folie 12 Tests für Unterschiede (Differenzentests) Tests für Zusammenhänge (Korrelationstests) Methodenlehre & Statistik Vorlesung Tutorien Literatur Organisatorisches Literatur Basiswerke Bortz, J. & Schuster, C. (2010). Statistik für Human- und Sozialwissenschaftler (7. Aufl.). Berlin: Springer-Verlag Software Fahrmeir, L., Künstler, R., Pigeot, I. & Tutz, G. (2009). Statistik - Der Weg zur Datenanalyse (6. Aufl.). Berlin: Springer. Folie 13 Einführung Methodenlehre & Statistik Vorlesung Tutorien Organisatorisches Literatur Vorbereitung Steland, A. (2003). Mathematische Grundlagen der empirischen Forschung. Heidelberg: Springer Literatur Software Huber, O. (2009). Das psychologische Experiment: Eine Einführung. Bern: Huber Folie 14 Einführung Methodenlehre & Statistik Vorlesung Organisatorisches Einführung Literatur Arbeitsbücher Tutorien Literatur Spiegel, M. R. (2008). Statistics. Hamburg: Schaum‘s Outlines Software Bernstein, S. & Bernstein, R. (1999). Elements of Statistics I & II Hamburg: Schaum‘s Outlines Folie 15 Methodenlehre & Statistik Vorlesung Organisatorisches Einführung Software Datenerfassung Tutorien Datentransformation Deskriptive Auswertung Literatur Darstellung & Visualisierung Kennwertberechnung Software Einfache statistische Analysen Einarbeitung und Mitarbeit erforderlich! Statistik verstehen durch Arbeit an Daten! Excel-basierte Klausuren Folie 16 Methodenlehre & Statistik Organisatorisches Einführung Vorlesung Exceleinführung Tutorien Termin 1 – Erste Schritte Mittwoch, Literatur 25.04. von 14-16 Uhr (CIP Pool, Raum 01-236) Termin 2 – Vertiefung Software Donnerstag, 26.04. von 9-11 Uhr (CIP Pool, Raum 01-236) Notebooks mitbringen! Folie 17 Methodenlehre & Statistik Empirie & Theorie Wissenschaftl. Aussagen Variablen Statistik Folie 18 Organisatorisches Einführung Psychologie als Wissenschaft „Wozu brauchen wir das?“ Gegenstand Die Psychologie ist eine empirische Wissenschaft über (menschliches) Verhalten und Erleben. Empirische Wissenschaft Auf Erfahrung beruhend, erfahrungswissenschaftlich Prüfung von Hypothesen über Tatsachenbeobachtungen, zumeist an Stichproben Empirische Methoden: a) Prinzip der systematischen Manipulation und Beobachtung; b) Aussagen werden über die Regeln des logischen Schließens verknüpft Verallgemeinerung durch statistischen Induktionsschluss: Was in der Stichprobe gilt, gilt auch in der Population. Methodenlehre & Statistik Empirie & Theorie Wissenschaftl. Aussagen Variablen Statistik Folie 19 Organisatorisches Einführung Psychologie als Wissenschaft Grundbegriffe wissenschaftlicher Datensammlung Merkmal: Isolierte Eigenschaft eines größeren Ganzen, z.B. Intelligenz, Geschlecht, Depressivität Ausprägung: Zustand des Merkmals, z.B. IQ=115, Geschlecht=männlich, Depressivität=hoch Merkmalsträger (auch: statistische Einheiten, Beobachtungseinheiten): „Objekte“ bei denen man die Ausprägung von Merkmalen beobachten kann In der Psychologie zumeist Menschen, aber auch Tiere oder Aggregate wie z.B. Abteilungen in Firmen Methodenlehre & Statistik Empirie & Theorie Wissenschaftl. Aussagen Organisatorisches Einführung Psychologie als Wissenschaft Grundbegriffe wissenschaftlicher Datensammlung Beobachtungen: Feststellung der Ausprägung von Merkmalen bei Merkmalsträgern Beobachtungen im engeren Sinn (z.B. Verhaltensbeobachtung, Bildgebende Verfahren) Ergebnisse in einem Leistungstest, Selbstauskunft Variablen Statistik Daten: Sämtliche Beobachtungen bei der Informationssammlung Statistik (im weiteren Sinn): Methoden zur Sammlung und Analyse von Daten Folie 20 Methodenlehre & Statistik Organisatorisches Einführung Forschungsprozeß Theorien/Empirie Fragestellung/Problem Vermutung über Zusammenhang von Größen Formulierung inhaltlicher Hypothesen Identifikation der AV und UV Operationalisierung der AV und UV: Festlegen von Größen auf die Art, in der sie gemessen werden können & des Messinstrumentes Datenauswertung: Beschreibung der Daten, Statistischer Schluss von der Stichprobe auf die Population Formulierung der statistischen Hypothesen Rückschluss auf die zu erfassenden Konstrukte Wahl der Stichprobe (Ort, Zeit, Umfang etc.) Konfrontation der Ergebnisse mit den inhaltlichen Hypothesen Messung der AV und UV Beantwortung der Fragestellung Folie 21 Methodenlehre & Statistik Empirie & Theorie Wissenschaftl. Aussagen Organisatorisches Einführung Wissenschaftliche Aussagen Anforderungen Einfachheit (Ockham‘s Razor) Variablen Statistik Eindeutigkeit Logische Konsistenz (innere und äußere) Falsifizierbarkeit, Prüfbarkeit durch Tatsachenbezug Folie 22 Methodenlehre & Statistik Empirie & Theorie Wissenschaftl. Aussagen Organisatorisches Einführung Wissenschaftliche Aussagen „Interpersonale Hilfeperformanz nach der Konsumption von interaktiven Telemedien wird durch contentdeterminierte Affektlagen moduliert.“ Einfachheit (Ockham‘s Razor) Variablen Statistik Eindeutigkeit Logische Konsistenz (innere und äußere) Falsifizierbarkeit, Prüfbarkeit durch Tatsachenbezug Folie 23 Methodenlehre & Statistik Empirie & Theorie Organisatorisches Einführung Wissenschaftliche Aussagen „Die Teilnahme an gewalthaltigen Computerspielen verringert die Bereitschaft zu helfen.“ Wissenschaftl. Aussagen Einfachheit (Ockham‘s Razor) Variablen Statistik Eindeutigkeit Logische Konsistenz (innere und äußere) Falsifizierbarkeit, Prüfbarkeit durch Tatsachenbezug Folie 24 Methodenlehre & Statistik Empirie & Theorie Wissenschaftl. Aussagen Organisatorisches Einführung Wissenschaftliche Aussagen „Die Teilnahme an gewalthaltigen Computerspielen verringert die Bereitschaft, anderen Menschen in einer Notlage zu helfen.“ Einfachheit (Ockham‘s Razor) Variablen Statistik Eindeutigkeit Logische Konsistenz (innere und äußere) Falsifizierbarkeit, Prüfbarkeit durch Tatsachenbezug Folie 25 Methodenlehre & Statistik Empirie & Theorie Wissenschaftl. Aussagen Organisatorisches Einführung Wissenschaftliche Aussagen „Die Teilnahme an gewalthaltigen Computerspielen verringert und erhöht die Bereitschaft, anderen Menschen in einer Notlage zu helfen.“ Einfachheit (Ockham‘s Razor) Variablen Statistik Eindeutigkeit Logische Konsistenz (innere und äußere) Falsifizierbarkeit, Prüfbarkeit durch Tatsachenbezug Folie 26 Methodenlehre & Statistik Empirie & Theorie Wissenschaftl. Aussagen Organisatorisches Einführung Wissenschaftliche Aussagen „Die Teilnahme an gewalthaltigen Computerspielen verringert oder erhöht die Bereitschaft, anderen Menschen in einer Notlage zu helfen oder sie bleibt gleich.“ Einfachheit (Ockham‘s Razor) Variablen Statistik Eindeutigkeit Logische Konsistenz (innere und äußere) Falsifizierbarkeit, Prüfbarkeit durch Tatsachenbezug Folie 27 Methodenlehre & Statistik Empirie & Theorie Wissenschaftl. Aussagen Organisatorisches Einführung Psychologische Aussagen Psychologische Aussagen orientieren sich an den 4 Anforderungen für wissenschaftliche Aussagen. Hypothesen in der Psychologie sind üblicherweise Aussagen über Gesetzmäßigkeiten, die als „WennDann“-Aussagen formuliert sind Variablen Statistik „Wenn sich der Gewaltgehalt von Computerspielen erhöht, dann verringert sich die Bereitschaft der Spieler, anderen Personen in einer Notlage zu helfen.“ Folie 28 Methodenlehre & Statistik Empirie & Theorie Wissenschaftl. Aussagen Variablen Organisatorisches Einführung Psychologische Aussagen Psychologische Aussagen orientieren sich an den 4 Anforderungen für wissenschaftliche Aussagen. Hypothesen in der Psychologie sind üblicherweise Aussagen über Gesetzmäßigkeiten, die als „WennDann“-Aussagen formuliert sind Trifft eine Wenn-Dann-Aussage zu, so gilt immer, dass „Wenn sich A verändert, verändert sich auch B“. Statistik „Die „Wenn Teilnahme sich der an Gewaltgehalt gewalthaltigen von Computerspielen (A) verringert erhöht, dann dieverringert Bereitschaft, sichanderen die Bereitschaft Menschen der inSpieler, einer helfen (B).“ Notlage anderenzu Personen helfen.“in einer Notlage zu helfen.“ Folie 29 Methodenlehre & Statistik Empirie & Theorie Wissenschaftl. Aussagen Variablen Statistik Folie 30 Organisatorisches Einführung Psychologische Aussagen Psychologische Aussagen orientieren sich an den 4 Anforderungen für wissenschaftliche Aussagen. Hypothesen in der Psychologie sind üblicherweise Aussagen über Gesetzmäßigkeiten, die als „WennDann“-Aussagen formuliert sind Trifft eine Wenn-Dann-Aussage zu, so gilt immer, dass „Wenn sich A verändert, verändert sich auch B“. Diese Kovariation zwischen Begriffen kann empirisch über Beobachtung und Messung geprüft werden Methodenlehre & Statistik Empirie & Theorie Wissenschaftl. Aussagen Variablen Organisatorisches Einführung Psychologische Aussagen Das Kovariationsprinzip Das Kovariationsprinzip ist eines der elementaren Konzepte in der Statistik Es vereinigt die zwei alltagssprachlich verschiedenen Begriffe des Zusammenhangs und Unterschieds als zwei Perspektiven desselben Prinzips: Ein Unterschied ist ein Zusammenhang Statistik Ein Zusammenhang ist ein Unterschied Für beide Perspektiven existieren statistische Verfahren zur Feststellung und Überprüfung Folie 31 Methodenlehre & Statistik Empirie & Theorie Wissenschaftl. Aussagen Variablen Statistik Organisatorisches Psychologische Aussagen Das Kovariationsprinzip Beispiel: Mädchen rund um die Welt erleben ihre Adoleszenz stressreicher als Jungen (Persike und Seiffge-Krenke, 2011) Der Unterschied liegt im verschiedenen Stresserleben von Jungen und Mädchen. Der Zusammenhang liegt in der Kovariation der beiden Merkmale Geschlecht und Stresserleben. Merkmal Geschlecht Merkmal Mädchen Stress Folie 32 Einführung W Stress M > Stress Jungen Methodenlehre & Statistik Empirie & Theorie Organisatorisches Einführung In der Praxis Beispiel für psychologische Forschung Forschungsvorhaben: Aversive Bilder & sportliche Leistung Wissenschaftl. Aussagen Variablen Selbstbeobachtung „Ich jogge schneller, wenn ich mich vorher geärgert habe.“ Alltagssprachliche Fragestellung „Erhöht sich die sportliche Leistungsfähigkeit bei stark negativen Gefühlszuständen?“ Statistik Hypothese „Wenn Menschen Stimuli mit hohem aversiven Anregungsgehalt dargeboten bekommen, dann erhöht sich ihre physiologische Aktivierung bei sportlichen Tätigkeiten.“ Folie 33 Methodenlehre & Statistik Organisatorisches Einführung Forschungsprozeß Theorien/Empirie Fragestellung/Problem Vermutung über Zusammenhang von Größen Formulierung inhaltlicher Hypothesen Identifikation der AV und UV Operationalisierung der AV und UV: Festlegen von Größen auf die Art, in der sie gemessen werden können & des Messinstrumentes Datenauswertung: Beschreibung der Daten, Statistischer Schluss von der Stichprobe auf die Population Formulierung der statistischen Hypothesen Rückschluss auf die zu erfassenden Konstrukte Wahl der Stichprobe (Ort, Zeit, Umfang etc.) Konfrontation der Ergebnisse mit den inhaltlichen Hypothesen Messung der AV und UV Beantwortung der Fragestellung Folie 34 Methodenlehre & Statistik Empirie & Theorie Organisatorisches Variablen Vom Merkmal zur Variable Bei den Merkmalsträgern werden anfangs immer Merkmale beobachtet, z.B. Alter, IQ, libidinöse Erregung. Die „Werte“, die ein Merkmal annehmen kann, heißen Ausprägungen Ein Merkmal hat mindestens zwei Ausprägungen, die beliebig beschrieben sein können, z.B. verbal (jung/alt), Wissenschaftl. Aussagen Variablen numerisch (0/1), bildlich ( Statistik Folie 35 Einführung / ) Der Begriff Beobachtung in der psychologischen Forschung bezeichnet streng genommen nur die Feststellung der Ausprägung eines Merkmals Methodenlehre & Statistik Empirie & Theorie Wissenschaftl. Aussagen Organisatorisches Einführung Variablen Die Statistik als mathematische Disziplin muss mit Zahlen arbeiten, nicht mit den beliebig kodierten Ausprägungen eines Merkmals. Man ordnet daher zunächst den Ausprägungen eines Merkmals feste Zahlen zu. Ein zahlenmäßig kodiertes Merkmal heißt dann Variable. Variablen Statistik Folie 36 Merkmal Variable (Altersgruppe) (Altersgruppe) mit Ausprägungen mit Ausprägungen (jung, alt) (0, 1) Methodenlehre & Statistik Empirie & Theorie Wissenschaftl. Aussagen Organisatorisches Einführung Variablen Die Statistik als mathematische Disziplin muss mit Zahlen arbeiten, nicht mit den beliebig kodierten Ausprägungen eines Merkmals. Sie ordnet daher zunächst den Ausprägungen eines Merkmals feste Zahlen zu. Ein zahlenmäßig kodiertes Merkmal heißt dann Variable. Die Überführung der Beobachtung eines Merkmals in den Zahlenwert einer Variable wird als Messung bezeichnet. Der festgestellte Zahlenwert ist der Messwert einer Variablen. Es gibt verschiedene Klassifikationssysteme, um Typen von Variablen zu unterscheiden. Variablen Statistik Folie 37 Methodenlehre & Statistik Empirie & Theorie Wissenschaftl. Aussagen Variablen Statistik Organisatorisches Einführung Variablen Unterscheidung nach Art der Manipulation ihrer Werte Eine unabhängige Variable (UV, IV) besitzt Werte, die ein Versuchsleiter willkürlich hergestellt hat (z.B. Dosis eines verabreichten Medikamentes, Einteilung in Gruppen, die bestimmte Treatments bekommen) Eine abhängige Variable (AV, DV) besitzt Werte, die man erst über die Messung bei den Merkmalsträgern gewinnt (z.B. Reaktionszeit, Fehlerquote, Erregungsniveau, etc.) Schema: Unabhängige Variable UV Folie 38 Abhängige Variable AV Methodenlehre & Statistik Empirie & Theorie Wissenschaftl. Aussagen Organisatorisches Variablen Unterscheidung nach Art der Manipulation ihrer Werte Einfache Merkregel Unabhängige Variablen sind Variablen, deren Ausprägungen der Versuchsleiter im Experiment verändert/kontrolliert, die er also vorher kennt. Abhängige Variablen sind Variablen, die im Experiment an der Versuchsperson gemessen werden. Die Ausprägung der UV soll die Größe der AV beeinflussen, niemals umgekehrt. Dies ist wieder das Kovariationsprinzip Variablen Statistik Folie 39 Einführung Methodenlehre & Statistik Empirie & Theorie Wissenschaftl. Aussagen Organisatorisches Einführung In der Praxis Beispiel für psychologische Forschung Forschungsvorhaben: Aversive Bilder & sportliche Leistung Variablen Merkmale Negativer Anregungsgehalt der Bilder Physiologische Aktivierung Statistik Variablen Festlegung numerischer Werte bzw. einer Messskala für die Ausprägungen der Merkmale Problem Wie werden die Variablen überhaupt gemessen? Folie 40 Methodenlehre & Statistik Organisatorisches Einführung Forschungsprozeß Theorien/Empirie Fragestellung/Problem Vermutung über Zusammenhang von Größen Formulierung inhaltlicher Hypothesen Identifikation der AV und UV Operationalisierung der AV und UV: Festlegen von Größen auf die Art, in der sie gemessen werden können & des Messinstrumentes Datenauswertung: Beschreibung der Daten, Statistischer Schluss von der Stichprobe auf die Population Formulierung der statistischen Hypothesen Rückschluss auf die zu erfassenden Konstrukte Wahl der Stichprobe (Ort, Zeit, Umfang etc.) Konfrontation der Ergebnisse mit den inhaltlichen Hypothesen Messung der AV und UV Beantwortung der Fragestellung Folie 41 Methodenlehre & Statistik Empirie & Theorie Wissenschaftl. Aussagen Variablen Statistik Organisatorisches Einführung Operationalisierung In Hypothesen kommen theoretische Merkmale, sog. Konstrukte vor, die nicht direkt messbar sind (z.B. Intelligenz, Angst, Kreativität, Leistungsfähigkeit) Einer Hypothese müssen somit beobachtbare Phänomene zugeordnet werden. Die Vorschrift, wie ein Konstrukt durch Beobachtung bzw. Messung festgestellt werden kann, nennt man Operationalisierung. Das beobachtbare Phänomen wird häufig auch als Indikator die daraus erzeugt Variable als Indikatorvariable bezeichnet. Daten im Forschungsprozess sind also Informationen, die mithilfe einer Operationalisierung gewonnen wurden Folie 42 Methodenlehre & Statistik Empirie & Theorie Organisatorisches Einführung In der Praxis Beispiel für psychologische Forschung Forschungsvorhaben: Aversive Bilder & sportliche Leistung Wissenschaftl. Aussagen Merkmale Negativer Anregungsgehalt der Bilder Physiologische Aktivierung beim Joggen Variablen Operationalisierung Anregungsgehalt: Einschätzung einer Expertengruppe Statistik Physiologische Aktivierung: Herzrate und Adrenalinkonzentration Variablen Anregungsgehalt: Einschätzung auf einer 7-PunkteSkala von 1=neutral bis 7 = stark negativ Folie 43 Physiologische Aktivierung: bpm (Herzrate) und mmol/l (Adrenalinkonzentration) Methodenlehre & Statistik Organisatorisches Einführung Forschungsprozeß Theorien/Empirie Fragestellung/Problem Vermutung über Zusammenhang von Größen Formulierung inhaltlicher Hypothesen Identifikation der AV und UV Operationalisierung der AV und UV: Festlegen von Gößen auf die Art, in der sie gemessen werden können & des Messinstrumentes Datenauswertung: Beschreibung der Daten, Statistischer Schluss von der Stichprobe auf die Population Formulierung der statistischen Hypothesen Rückschluss auf die zu erfassenden Konstrukte Wahl der Stichprobe (Ort, Zeit, Umfang etc.) Konfrontation der Ergebnisse mit den inhaltlichen Hypothesen Messung der AV und UV Beantwortung der Fragestellung Folie 44 Methodenlehre & Statistik Organisatorisches Einführung Empirie & Theorie Ziele der Anwendung statistischer Methoden Wissenschaftl. Aussagen Design: Planung und Ausführung von Untersuchungen (Art der Stichprobe, Wahl des Messinstrumentes, Kontrolle der Messung etc.) Variablen Statistik Folie 45 Deskription (Beschreibung) und Exploration (Entdecken): Zusammenfassung, Darstellung und das Auffinden von systematischen Strukturen in Daten der untersuchten Stichprobe Inferenz (schließende, induktive Statistik): Generalisierung und Vorhersagen über gemachte Beobachtungen von der untersuchten Stichprobe auf die Grundgesamtheit (Population) Methodenlehre & Statistik Empirie & Theorie Organisatorisches Einführung Daten und ihre Analyse Daten werden in Matrizen Festgehalten (Datenmatrix) Wissenschaftl. Aussagen Variablen Für jeden Merkmalsträger wird in einer Zeile die Ausprägung der UV(n) und der AV(n) codiert Statistik Die Kodierung erfolgt über Zahlen. Diese haben vielfach unterschiedliche Bedeutungen. Folie 46 Matrixorganisation: Personen x Merkmale (Zeile) (Spalten) Methodenlehre & Statistik Empirie & Theorie Wissenschaftl. Aussagen Variablen Statistik Organisatorisches Deskriptive statistische Methoden Kennwerte Kennwerte fassen die Eigenschaften der Verteilung der gemessenen Variablen zusammen, z.B. Mittelwert Berechnung, Darstellung und Vergleiche von Daten und Kennwerten sind für statistische Entscheidungen wichtig Anregung Hoch Mittelwert Maximalpuls 181.58 Adrenalin Niedrig Maximalpuls Adrenalin Folie 47 Einführung Standardab Standardfehler Median weichung des Mittelwerts Minimum Maximum 181.92 12.01 3.80 159.84 201.81 44 44 3 1 41 51 165.79 164.01 8.83 2.79 152.41 179.21 38 37 2 1 35 43 Methodenlehre & Statistik Empirie & Theorie Wissenschaftl. Aussagen Variablen Statistik Folie 48 Organisatorisches Einführung Deskriptive statistische Methoden Diagramme Methodenlehre & Statistik Empirie & Theorie Organisatorisches Einführung Korrelation & Regression Zusammenhang zwischen zwei Variablen (bivariate Statistik) 50 Wissenschaftl. Aussagen 48 Anregung hoch 46 Anregung niedrig y = 0.2242x + 3.1538 R² = 0.78 Variablen Adrenalin 44 42 40 38 36 Statistik 34 y = 0.2034x + 4.1835 R² = 0.6108 32 30 120 140 160 180 Maximalpuls Folie 49 200 220 Methodenlehre & Statistik Empirie & Theorie Wissenschaftl. Aussagen Variablen Statistik Folie 50 Organisatorisches Einführung Inferenzstatistische Methoden Zusammenhänge von Stichprobe und Grundgesamtheit Was kann man mit Kennwerten, gewonnen aus Stichproben, über die Kennwerte der Population aussagen? Schätzen Wie und wie genau kann man Kennwerte der Population aus Stichproben schätzen? Testen Kann man etwas über die Gleichheit oder Ungleichheit von aus Stichproben geschätzen Kennwerten mit einer bestimmten statistischen Verlässlichkeit sagen? Methodenlehre & Statistik Organisatorisches Einführung Forschungsprozeß Theorien/Empirie Fragestellung/Problem Vermutung über Zusammenhang von Größen Formulierung inhaltlicher Hypothesen Identifikation der AV und UV Operationalisierung der AV und UV: Festlegen von Größen auf die Art, in der sie gemessen werden können & des Messinstrumentes Datenauswertung: Beschreibung der Daten, Statistischer Schluss von der Stichprobe auf die Population Formulierung der statistischen Hypothesen Rückschluss auf die zu erfassenden Konstrukte Wahl der Stichprobe (Ort, Zeit, Umfang etc.) Konfrontation der Ergebnisse mit den inhaltlichen Hypothesen Messung der AV und UV Beantwortung der Fragestellung Folie 51 Methodenlehre & Statistik Organisatorisches Einführung Wahrheit in der Psychologie Probabilistische Zusammenhänge Problem: Wenn-Dann-Aussagen gelten in der Psychologie niemals für alle Merkmalsträger und Situationen Seymour Epstein (1979) On predicting most of the people much of the time: The stability of behavior Daryl Bem & Andrea Allen (1974) On predicting some of the people some of the time: The search for crosssituational consistencies in behavior Folie 52 Also: Hypothesen werden statistisch immer beantwortet im Sinne von „Wenn-Dann wahrscheinlich” Aussagen (Probabilismus) Methodenlehre & Statistik Organisatorisches Einführung Wahrheit in der Psychologie Probabilistische Zusammenhänge Problem: Wenn-Dann-Aussagen gelten in der Psychologie niemals für alle Merkmalsträger und Situationen Gründe: – Wirkung von Stör- bzw. unbekannten Variablen – Nichtberücksichtigung komplexer Interaktionen – Unbestimmtheit von Anfangsbedingungen in komplexen Situationen In der Psychologie gilt eine Gesetzmäßigkeit als belegt, wenn sich die Kovariation von Variablen statistisch als existent erweist Folie 53 Sie gilt als bestätigt oder bewährt, wenn die statistische Existenz mehrfach aufgewiesen werden konnte. Methodenlehre & Statistik Organisatorisches Einführung In der Praxis Beispiel für psychologische Forschung Forschungsvorhaben: Aversive Bilder & sportliche Leistung Statistischer Schluss Bei der Behauptung, dass mit steigendem negativen Anregungsgehalt von Bildern die physiologische Aktivierung bei sportlicher Betätigung steigt, beträgt die Irrtumswahrscheinlichkeit 5%. Inhaltlicher Schluss Negativ erregt zu sein bringt den Körper beim Sport stärker in Wallung. Folie 54 Beantwortung der Fragestellung Prinzipiell ist die Fragestellung beantwortet, aber: – Laufe ich deshalb schneller? – Gilt die Beobachtung bei allen Sportarten? – … Methodenlehre & Statistik Ende. Anfang. [email protected] [email protected] Folie 55 Methodenlehre & Statistik Inhalte dieser Sitzung Von Merkmalen zu Variablen Von Variablen zu Zufallsvariablen – das Experiment Das Sichere am Zufall: Ergebnisse und Ereignisse Laplaces Antwort auf die Frage „Was ist eigentlich Wahrscheinlichkeit?“ Folie 2 Methodenlehre & Statistik Variablen Variablen Zufallsvariablen Merkmale & Variablen Grundlagen Zufallsexperimente Eigenschaften, deren Werte bei den statistischen Einheiten beobachtet werden, heißen Merkmale Die „Werte“, die ein Merkmal annehmen kann, heißen Ausprägungen Stichprobenraum Die Ausprägungen eines Merkmals können beliebiger Art sein (z.B. Worte, Formen, Farben etc.) Eine Variable wird definiert, indem den Ausprägungen des Merkmals Zahlen zugeordnet werden. Diese Zahlen heißen Realisationen oder Werte. Zufallsvariablen „2“ „13“ Merkmal Punkte auf Fläche Folie 3 „5“ „36“ Variable Zahlen Methodenlehre & Statistik Variablen Variablen Zufallsvariablen Merkmale & Variablen Notation Zufallsexperimente Stichprobenraum Zufallsvariablen Folie 4 Variablen werden mit Großbuchstaben symbolisiert, häufig verwendet man X und Y Die Realisationen einer Variablen werden dann mit den entsprechenden Kleinbuchstaben gekennzeichnet, also x und y Die Menge aller möglichen Realisationen ist der Wertebereich einer Variablen Methodenlehre & Statistik Variablen Variablen Zufallsvariablen Variablen Definition Zufallsexperimente Variablen werden immer über eine mathematische Formulierung definiert, z.B. Merkmal Stichprobenraum Zufallsvariablen Variable 0, wenn x1: 1, x : 2, 2 1, wenn X x 6 : 6, 5, wenn Die extensionale Definition zählt alle Realisationen der Variablen auf und weist ihnen Symbole zu (x1, x2, …). Folie 5 Methodenlehre & Statistik Variablen Variablen Zufallsvariablen Variablen Definition Zufallsexperimente Variablen werden immer über eine mathematische Formulierung definiert, z.B. Merkmal Stichprobenraum Variable X 0 Zufallsvariablen Die intensionale Definition gibt eine Vorschrift an, die die Variable und ihre Realisationen eindeutig spezifiziert. Folie 6 Methodenlehre & Statistik Variablen Variablen & Skalen Nominaldaten Exkurs: Notation Indizierung von Realisationen und Merkmalsträgern Zufallsexperimente Frage: Wie werden Realisationen symbolisiert? Stichprobenraum Hat eine Variable X genau k mögliche Realisationen, so werden diese fortlaufend mit x1, x2, …, xk indiziert Zufallsvariablen Folie 7 Ziel: Eine formale Schreibweise für „Der Wert der vierten Ausprägung von X“ zu finden Die Laufindizes dienen dazu, die einzelnen Realisationen eindeutig zu adressieren (Beginn bei 1). x1: 1, wenn <18 Alter X x2 : 2, wenn <68 x : 3, wenn 68 3 y1: 0, wenn <18 Alter Y y2 : 18, wenn <68 y3 : 68, wenn 68 Methodenlehre & Statistik Variablen Variablen & Skalen Nominaldaten Exkurs: Notation Indizierung von Realisationen und Merkmalsträgern Zufallsexperimente Stichprobenraum Zufallsvariablen Folie 8 Frage: Wie werden Realisationen symbolisiert? Ziel: Eine formale Schreibweise für „Der Wert der vierten Ausprägung von X“ zu finden Hat eine Variable X genau k mögliche Realisationen, so werden diese fortlaufend mit x1, x2, …, xk indiziert Die Laufindizes dienen dazu, die einzelnen Realisationen eindeutig zu adressieren (Beginn bei 1) Das Symbol xj mit j = 1…k bezeichnet dann die j-te Realisation der Zufallsvariablen X. Diese Indizierung ist nur für diskrete Variablen sinnvoll, da stetige Variablen unendlich viele Realisationen haben Methodenlehre & Statistik Variablen Variablen & Skalen Nominaldaten Exkurs: Notation Indizierung von Realisationen und Merkmalsträgern Zufallsexperimente Stichprobenraum Zufallsvariablen Frage: Wie werden Merkmalsträger symbolisiert? Ziel: Eine formale Schreibweise für „Der Wert der vierten Person in der Stichprobe“ zu finden Konvention: Für die Gesamtzahl von Personen wird nahezu immer das Zeichen n (oder N) benutzt. Für die Gesamtzahl von Realisationen werden andere Kleinbuchstaben verwendet (z.B. k) Dann dient wieder ein Laufindex dazu, die einzelnen Personen zu adressieren Folie 9 Das Symbol xi mit i = 1…n bezeichnet dann die i-te Messung der Zufallsvariablen X. Methodenlehre & Statistik Variablen Variablen & Skalen Nominaldaten Exkurs: Notation Indizierung von Realisationen und Merkmalsträgern Zufallsexperimente Problem: Das Symbol x3 Stichprobenraum Zufallsvariablen Folie 10 kann „die dritte Realisation der Zufallsvariablen X“ sein oder auch „der Wert der 3. Person in der Stichprobe“ Also: Es muss vorher definiert sein, was der Laufindex bedeutet, z.B. „Die Variable X habe k Realisationen und sei an n Personen gemessen worden“. xi xj mit i = 1…n mit j = 1…k Methodenlehre & Statistik Variablen Variablen & Skalen Nominaldaten Exkurs: Notation Indizierung von Realisationen und Merkmalsträgern Skalen Nominalskala Notation In psychologischen Experimenten gibt es oft viele Variablen, die als UV oder AV erhoben werden. Beispiel: An einer Stichprobe von Personen verschiedenen Geschlechts wird der durchschnittliche Alkoholkonsum über einen Monat hinweg gemessen. Man hat hier offenbar 3 Variablen sowie mehrere Messungen verschiedener Merkmalsträger • • • IQ als AV: (X) Geschlecht als UV (Y) Alkoholabhängigkeit als UV (Z) Frage: Wie indiziert man z.B. „Die IQ-Messung des 4. Mannes in der Gruppe der Alkoholiker?“ Folie 11 Methodenlehre & Statistik Variablen Variablen & Skalen Nominaldaten Exkurs: Notation Indizierung von Realisationen und Merkmalsträgern Skalen Die Variable Geschlecht (Y) wird in k=2 Ausprägungen gemessen: y1: 0 = männlich y2: 1 = weiblich Nominalskala Notation Die Variable Alkoholkonsum (Z) wird diskretisiert in m=5 Ausprägungen (Jelinek, 1951) gemessen: Z= Folie 12 z1: z2: z3: z4: z5: 0 1 2 3 4 = = = = = Kein Alkoholkonsum Konflikt-/Erleichterungstrinker Gelegenheitstrinken Rauschtrinken (Alkoholiker) Periodisches Trinken (Alkoholiker) Es nehmen insgesamt n=220 Personen teil Methodenlehre & Statistik Variablen Variablen & Skalen Nominaldaten Exkurs: Notation Indizierung von Realisationen und Merkmalsträgern Skalen Nominalskala Notation Die AV ist der IQ. Dies ist die Variable, deren Realisation im Experiment bei den Merkmalsträgern gemessen wird. Die beiden anderen Variablen sind UVen, deren Realisationen vor dem Experiment bereits feststehen, bzw. erhoben werden. Zur eindeutigen Indizierung des IQ eines Merkmalsträgers werden nun mehrere Laufindizes benötigt Folie 13 Methodenlehre & Statistik Variablen Variablen & Skalen Nominaldaten Exkurs: Notation Indizierung von Realisationen und Merkmalsträgern Skalen Nominalskala Notation Eine Person fällt immer in eine der km = 25 = 10 Gruppen von Geschlecht und Alkoholkonsum Der Laufindex für Geschlecht sei r = 1…k und für Alkoholkonsum s = 1…m Jede der 10 Gruppen hat also nrs Mitglieder Jede Person kann eindeutig identifiziert werden über xirs Folie 14 mit i=1…nrs r=1…k, s=1…m So ist z.B. x4,1,3 der IQ des vierten Mannes unter den Gelegenheitstrinkern Methodenlehre & Statistik Variablen Variablen Zufallsvariablen Variablen Typisierung von Merkmalen und Variablen Zufallsexperimente Stichprobenraum Die wichtigste Typisierung unterscheidet diskrete von stetigen (kontinuierlichen) Daten Hierbei sind Typen von Merkmalen und Typen von Variablen streng zu unterscheiden. ● x1: 0, wenn <18 Alter X x 2 : 1, wenn <68 x : 2, wenn 68 3 Zufallsvariablen ● Folie 15 Alter ist ein stetiges Merkmal. Eine Variable „Alter“ kann aber diskret definiert werden als Gleiches gilt z.B. für Intelligenz, Schulleistung, Sehvermögen, Fahreignung Methodenlehre & Statistik Variablen Variablen Zufallsvariablen Variablen & Messungen Unterscheidung Zufallsexperimente Die empirische Feststellung der Realisation einer Variablen wird als Messung bezeichnet Stichprobenraum Dabei ist zu unterscheiden zwischen der Beobachtung der Ausprägung des Merkmals und der Messung der Realisation der Variablen Zufallsvariablen Denn: Die Beobachtung kann eine Information in beliebiger Form erheben (z.B. verbal, bildlich), die Messung liefert immer eine Zahl. Die gemessenen Zahlenwerte einer Variablen heißen Messwerte Folie 16 Methodenlehre & Statistik Variablen Variablen Zufallsvariablen Das Zufallsexperiment Von Variablen zu Zufallsvariablen Zufallsexperimente Eine Variable wird zur Zufallsvariablen, wenn ihre Realisation in einem Zufallsexperiment festgestellt wird. Stichprobenraum (Zufalls-)Experiment = Ein Satz von Regeln, unter denen eine bestimmte Handlung ausgeführt wird (Bedingungskomplex Ξ, „Xi“) Trial = Eine Durchführung des Experimentes Zufallsvariablen Ergebnis = Beobachtung am Ende des Trials (in beliebiger Form, z.B. als Zahl, Bild, Symbol, Farbe etc.) Ereignis = Jede beliebige Menge von Ergebnissen Achtung: Ergebnisse & Ereignisse sind noch nicht zwangsläufig Realisationen einer Zufallsvariablen Folie 17 Methodenlehre & Statistik Variablen Zufallsexperimente Stichprobenraum Zufallsvariablen Folie 18 Variablen Zufallsvariablen Das Zufallsexperiment Von Variablen zu Zufallsvariablen Beispiel I: Einmaliger Würfelwurf Zufallsexperiment (Ξ): Ein 6-seitiger Würfel ist einmal zu werfen. Er kann nicht auf einer Kante liegen bleiben. Ergebnis ist die Augenzahl der oben liegenden Seite. Ergebnisse: Jede mögliche Augenzahl (1, 2, 3, 4, 5, 6) Ereignisse: „1“, „1 oder 6“, „Augenzahl ≤ 3“, „ungerade Zahl“, „irgendeine Zahl“ Trial: Der einmalige Wurf des Würfels Methodenlehre & Statistik Variablen Zufallsexperimente Stichprobenraum Zufallsvariablen Folie 19 Variablen Zufallsvariablen Das Zufallsexperiment Von Variablen zu Zufallsvariablen Beispiel II: Zweimaliger Münzwurf Zufallsexperiment (Ξ): Eine Münze ist zweimal zu werfen. Sie kann nicht auf einer Kante liegen bleiben. Ergebnis ist die oben liegende Seite. Ergebnisse: Jede mögliche Kombination der zwei Münzen (K+K, K+Z, Z+K, Z+Z) Ereignisse: „zweimal dieselbe Seite“, „Kein Kopf“ Trial: Der zweimalige Wurf der Münze Achtung: Die Durchführung von 2 Trials des Zufallsexperimentes „Eine Münze wird einmal geworfen“ ist ein anderes Experiment. Methodenlehre & Statistik Variablen Zufallsexperimente Stichprobenraum Zufallsvariablen Folie 20 Variablen Zufallsvariablen Das Zufallsexperiment Von Variablen zu Zufallsvariablen Beispiel III: Zulassung zum Psychologiestudium Zufallsexperiment (Ξ): Aus 782 Bewerbern werden 44 verschiedene Personen zufällig ausgewählt. Ergebnis ist die Menge der 44 Personen. Ergebnisse: Jede Menge von 44 Personen Ereignisse: „die 44 Besten“, „die 44 Besten oder die 44 Schlechtesten“, „jede Auswahl von 44 Personen aus den besten 391“ Trial: Die einmalige Auswahl von 44 Personen Achtung: Die Durchführung von 44 Trials des Zufallsexperimentes „Aus 742 Bewerbern wird 1 Person ausgewählt“ ist ein anderes Experiment. Methodenlehre & Statistik Variablen Zufallsexperimente Stichprobenraum Zufallsvariablen Variablen Zufallsvariablen Das Zufallsexperiment Von Variablen zu Zufallsvariablen Das Zufallsexperiment ist in weiten Teilen ein sehr deterministisches Konzept, denn der Ablauf eines Trials ist a-priori vollständig bestimmt die möglichen Ergebnisse sind a-priori vollständig bestimmt nur das konkrete Ergebnis (die Beobachtung) ist a-priori unbestimmt Daher kann sich die Statistik dem Verständnis des Zufallsexperimentes über mathematische Hilfsmittel nähern, nämlich der Mengenlehre Folie 21 Methodenlehre & Statistik Variablen Variablen Zufallsvariablen Ereignisse & Elementarereignisse Verbindung zur Mengenlehre Zufallsexperimente Definition: Ergebnisse eines Zufallsexperimentes sind immer Mengen. Diese Mengen können auch nur aus einem Element bestehen. Stichprobenraum Beispiel I: Einmaliger Würfelwurf Zufallsvariablen {1}, {2}, {3}, {4}, {5}, {6} Beispiel II: Zweimaliger Münzwurf {K, K}, {K, Z}, {Z, K}, {Z, Z} Beispiel III: IQ-Test {0}, {1}, {2}, …, {100}, {101}, … Folie 22 Methodenlehre & Statistik Variablen Variablen Zufallsvariablen Ereignisse & Elementarereignisse Verbindung zur Mengenlehre Zufallsexperimente Es galt: Ereignis = Jede beliebige Menge (Kombination) möglicher Ergebnisse eines Trials Stichprobenraum Elementarereignisse = die kleinste Menge disjunkter Ereignisse, in die sich die möglichen Ergebnisse eines Trials zerlegen lassen Zufallsvariablen Zwei Ereignisse E1 und E2 heißen disjunkt (paarweise unvereinbar), wenn gilt E1 E2 Schnittmenge Folie 23 Unmögliches Ereignis Methodenlehre & Statistik Variablen Zufallsexperimente Variablen Zufallsvariablen Ereignisse & Elementarereignisse Verbindung zur Mengenlehre Beispiel I: Beim Wurf eines Würfels lauten die Elementarereignisse {1}, {2}, {3}, {4}, {5}, {6}, Stichprobenraum nicht aber {{2}, {4}, {6}} oder {{1},{ 5}} Zufallsvariablen Beispiel II: Beim Wurf zweier Würfel sind die Elementarereignisse (obwohl diese disjunkt sind) {1,1} , {1,2} , {1,3},…, {6,5}, {6,6}, nicht aber {{1, 6}, {6, 1}} oder {{1, 1}, {3, 3}, {6, 6}} (und vor allem nicht das Ereignis {1}, das überhaupt nicht vorkommen kann) Folie 24 Methodenlehre & Statistik Variablen Variablen Zufallsvariablen Ereignisse & Elementarereignisse Verbindung zur Mengenlehre Zufallsexperimente Die vollständige Menge der Elementarereignisse eines Zufallsexperimentes heißt Stichprobenraum Ω. Stichprobenraum Der Stichprobenraum umfasst alle Elementarereignisse (also alle möglichen Ergebnisse) eines Zufallsexperimentes Zufallsvariablen Der Stichprobenraum ist eine Menge Beispiel: Der Stichprobenraum beim einmaligen Würfelwurf ist Ω = {1, 2, 3, 4, 5, 6} Hinweis: Eigentlich müsste man schreiben: Ω = {{1}, {2}, {3}, {4}, {5}, {6}} Folie 25 Methodenlehre & Statistik Variablen Zufallsexperimente Stichprobenraum Zufallsvariablen Variablen Zufallsvariablen Ereignisse & Elementarereignisse Partitionierung Jedes Ereignis E teilt den gesamten Stichprobenraum immer in zwei Untermengen Ein Teil der Elementarereignisse gehört zum Ereignis E, der andere Teil gehört nicht dazu Diese Aufteilung nennt man Partitionierung des Stichprobenraums „Alle geraden Augenzahlen“ E = {2, 4, 6} Folie 26 Methodenlehre & Statistik Variablen Zufallsexperimente Stichprobenraum Zufallsvariablen Variablen Zufallsvariablen Ereignisse & Elementarereignisse Partitionierung Jedes Ereignis E teilt den gesamten Stichprobenraum immer in zwei Untermengen Ein Teil der Elementarereignisse gehört zum Ereignis E, der andere Teil gehört nicht dazu Diese Aufteilung nennt man Partitionierung des Stichprobenraums „Eins oder Sechs“ E = {1, 6} Folie 27 Methodenlehre & Statistik Variablen Zufallsexperimente Stichprobenraum Zufallsvariablen Variablen Zufallsvariablen Ereignisse & Elementarereignisse Partitionierung Jedes Ereignis E teilt den gesamten Stichprobenraum immer in zwei Untermengen Ein Teil der Elementarereignisse gehört zum Ereignis E, der andere Teil gehört nicht dazu Diese Aufteilung nennt man Partitionierung des Stichprobenraums „Drei“ E = {3} Folie 28 Methodenlehre & Statistik Variablen Zufallsexperimente Stichprobenraum Zufallsvariablen Variablen Zufallsvariablen Ereignisse & Elementarereignisse Partitionierung Jedes Ereignis E teilt den gesamten Stichprobenraum immer in zwei Untermengen Ein Teil der Elementarereignisse gehört zum Ereignis E, der andere Teil gehört nicht dazu Diese Aufteilung nennt man Partitionierung des Stichprobenraums „Irgend eine Zahl“ E = {1, 2, 3, 4, 5, 6} Folie 29 Methodenlehre & Statistik Variablen Zufallsexperimente Stichprobenraum Zufallsvariablen Variablen Zufallsvariablen Ereignisse & Elementarereignisse Partitionierung Jedes Ereignis E teilt den gesamten Stichprobenraum immer in zwei Untermengen Ein Teil der Elementarereignisse gehört zum Ereignis E, der andere Teil gehört nicht dazu Diese Aufteilung nennt man Partitionierung des Stichprobenraums „Keine Zahl“ E = {} Folie 30 Methodenlehre & Statistik Variablen Variablen Zufallsvariablen Ereignisse & Elementarereignisse Verbindung zur Mengenlehre Zufallsexperimente Die Menge aller Kombinationen von Ereignissen aus dem Stichprobenraum heißt SigmaAlgebra σ Stichprobenraum Zusätzlich enthält σ noch das unmögliche Ereignis Zufallsvariablen Folie 31 σ umfasst also alle möglichen Kombinationen aus den Elementarereignissen plus Merksatz: σ enthält alle Kombinationen von Ergebnissen eines Zufallsexperimentes, auf die man wetten könnte Methodenlehre & Statistik Variablen Zufallsexperimente Variablen Ereignisse & Elementarereignisse Verbindung zur Mengenlehre Beispiel: Einmaliger Münzwurf Elementarereignisse: K, Z, S Stichprobenraum: Stichprobenraum Zufallsvariablen Zufallsvariablen Ω = {K, Z, S} , K ,Z ,S ,K , Z ,K , S ,Z , S , K , Z , S Ω Die Anzahl der Elemente in der Sigma-Algebra heißt Mächtigkeit Achtung: Für die Mächtigkeit spielt die Reihenfolge der Elementarereignisse keine Rolle. Frage: Was ist hier die Zufallsvariable? Folie 32 Methodenlehre & Statistik Variablen Variablen Zufallsvariablen Zufallsvariablen Definition Zufallsexperimente Eine Zufallsvariable ist eine 1:1 Abbildung („bijektiv“) der Elemente des Stichprobenraums auf eine Menge von Zahlen. Stichprobenraum Es gelten alle Regeln, die bereits für Variablen eingeführt wurden. Zufallsvariablen Beispiel: KK,,ZZ,,SS Folie 33 0, wenn wenn "K" "K" xx11:: -1, XX xx22:: 1, wenn "Z" x : 0, 3 2, wenn "S" Methodenlehre & Statistik Variablen Variablen Zufallsvariablen Zufallsvariablen Prinzip Zufallsexperimente Stichprobenraum Zufallsvariablen Beispiel: Experiment = Eimaliger Münzwurf Definition eines Zufallsexperimentes: Mögliche Ergebnisse eines Trials: Kopf, Zahl, Seite Durchführung eines Trials und Feststellung des Ergebnisses: Zahl Definition des Stichprobenraums und damit auch von Definition einer Zufallsvariablen X() Messung: X = 1 Frage: Was bedeutet „zufällig“? Folie 34 Methodenlehre & Statistik Laplace Kolmogoroff Geschichte Geschichte der WT Definition Anfänge Mitte des 17. Jh. (Cardano, Bernoulli, Huygens, Pascal, Fermat). Aufgaben des Glücksspiels. Nur Arithmetik und Kombinatorik. Vererbung Weiterentwicklungen im 18.-19. Jh. durch Laplace, Gauss, Poisson: Fehlertheorie, Ballistik, Populationsstatistik. Beispiele Durchbruch zu Beginn des 20. Jh: Entwicklung der WTheorie, Fundament im axiomatischen Aufbau (Kolmogoroff). Theorie der stochastischen Prozesse (Wiener, Markov, Khintchin). Heute zentraler Bestandteil empirischer Forschung: Informationstheorie, Physik, Bevölkerungsstatistik, Epidemiologie, Materialprüfung, Statik, Personalauswahl, psychologische Testung, Versuchsplanung und Stichprobentheorie. Folie 35 Methodenlehre & Statistik Geschichte Definition Vererbung Beispiele Laplace Kolmogoroff Die Wahrscheinlichkeitsdefinition von Laplace Wahrscheinlichkeiten im Stichprobenraum Grundannahme: Alle Elementarereignisse („kleinomega“) im Stichprobenraum Ω sind gleichmöglich Wenn der Stichprobenraum die k Elementarereignisse 1 bis k enthält, so ist die Wahrscheinlichkeit für jedes von diesen einfach 1 p i k mit i 1 k p() ist demnach eine auf dem Stichprobenraum definierte mathematische Funktion (i.e. eine Konstante), die so genannte Wahrscheinlichkeitsfunktion. Folie 36 Methodenlehre & Statistik Geschichte Definition Vererbung Beispiele Laplace Kolmogoroff Die Wahrscheinlichkeitsdefinition von Laplace Wahrscheinlichkeiten in der -Algebra Jedem Ereignis E, welches der σ-Algebra angehört, kann nun ebenfalls eine Wahrscheinlichkeit zugewiesen werden. m = Mächtigkeit der Menge an gleichmöglichen Elementarereignissen aus Ω, die Teilereignis von E sind. m p( E ) k „Günstige durch Mögliche“ k = Mächtigkeit des Stichprobenraumes (also Anzahl aller Elementarereignisse aus Ω) p(E) ist wieder eine Wahrscheinlichkeitsfunktion, diesmal definiert auf der -Algebra. Folie 37 Methodenlehre & Statistik Geschichte Definition Vererbung Laplace Kolmogoroff Die Wahrscheinlichkeitsdefinition von Laplace Wahrscheinlichkeiten in der -Algebra Laplaces Definition der Wahrscheinlichkeitsfunktion p(E) beruht auf dem Prinzip der Partitionierung Das Ereignis E partitioniert den Stichprobenraum in Beispiele ● m Elementarereignisse, die Teil von E sind. ● k–m Elementarereignisse, die nicht Teil von E sind Die Wahrscheinlichkeit p(E) ist also einfach die Summe der Wahrscheinlichkeiten seiner m Elementarereignisse 1 1 1 m p( E ) k k k k Folie 38 m-mal Methodenlehre & Statistik Geschichte Definition Vererbung Beispiele Laplace Die Wahrscheinlichkeitsdefinition von Laplace Vererbung Frage: Der Stichprobenraum ist noch nicht die Zufallsvariable X – wie erhält man deren Wahrscheinlichkeiten? Definition: Die Zufallsvariable „erbt“ die Wahrscheinlichkeitsfunktion des Stichprobenraums, auf dem sie beruht. Stichprobenraum: Zufallsvariable: Folie 39 Kolmogoroff Bube, Dame, König , As p 1 , 4 1 , 4 1 , 4 1 4 X x1: 0, x2 : 1, x3: 2, x3 : 4 p x 1 , 4 1 , 4 1 , 4 1 4 Methodenlehre & Statistik Geschichte Definition Vererbung Laplace Kolmogoroff Die Wahrscheinlichkeitsdefinition von Laplace Vererbung Vollständige Schreibweise für Zufallsvariable und deren Wahrscheinlichkeitsfunktion: x1: 0, wenn Bube x : 1, wenn Dame X 2 x3 : 2, wenn König x3 : 4, wenn As Beispiele p X p X p x p X p X Folie 40 x1 : 1 4 x2 : 1 4 x3 : 1 4 x4 : 1 4 Methodenlehre & Statistik Geschichte Laplace Kolmogoroff Die Wahrscheinlichkeitsdefinition von Laplace Definition Beispiele Vererbung Summe von 2 Würfelwürfen Beispiele Anzahl von „Zahl“ bei 3 Münzwürfen Frage des Landsknechts an Huygens Folie 41 Methodenlehre & Statistik Relevante Excel Funktionen Wahrscheinlichkeitsrechnung • Grundrechenarten +, –, ×, / • SUMME(), PRODUKT() Folie 42 Methodenlehre & Statistik Inhalte dieser Sitzung Herumgedrückt: Die Wahrscheinlichkeitsdefinition von Kolmogoroff Wie misst man Wahrscheinlichkeiten – das Gesetz der großen Zahl Bedingte Wahrscheinlichkeiten: Wie wahrscheinlich sind blaue Streifen bei Schwangerschaft – und wie wahrscheinlich ist Schwangerschaft bei blauen Streifen? Der Satz von Bayes Folie 2 Methodenlehre & Statistik Laplace Kolmogoroff Die axiomatische WkDefinition von Kolmogoroff Probleme der Laplace‘schen Definition Die Definition von p() ist zirkulär, da „Gleichmöglichkeit“ nur ein Synonym für Gleichwahrscheinlichkeit ist. Die Klasse der enthaltenen Zufallsprozesse ist durch das Konzept der Gleichmöglichkeit von Elementarereignissen stark eingeschränkt. Beispiel: Kopf, Zahl und Seite Folie 3 Methodenlehre & Statistik VennDiagramme Definition Laplace Kolmogoroff Exkurs: Venn-Diagramme Illustration von Ereignissen & Wahrscheinlichkeiten Jedes Ereignis ist durch einen Kreis repräsentiert Die Fläche des Kreises repräsentiert die Wahrscheinlichkeit des Ereignisses Folgerungen Das umgebende Quadrat ist der Stichprobenraum Poisson A B Folie 4 A und B haben eine Schnittmenge, sind aber ungleich A B A ist ein Teilereignis von B Methodenlehre & Statistik Laplace Kolmogoroff VennDiagramme Die axiomatische WkDefinition von Kolmogoroff Definition Die auf der σ–Algebra definierte Funktion p(E) besitzt folgende Eigenschaften: Folgerungen 1. Für jedes Ereignis E der σ–Algebra gilt: p(E) 0 Poisson 2. Für das sichere Ereignis gilt: p() = 1 3. Lässt sich das Ereignis E in die disjunkten Teilereignisse A und B zerlegen, gilt: (E, A, B σ; A B = ) 4. p(E) = p(A +B) = p(A) + p(B) Additionssatz der Wahrscheinlichkeiten Folie 5 Methodenlehre & Statistik VennDiagramme Definition Folgerungen Poisson Laplace Kolmogoroff Folgerungen aus den Axiomen Der Erweiterte Additionssatz Der Additionssatz kann beliebig weit verschachtelt werden, wenn die Teilereignisse selbst wieder in disjunkte Teilereignisse zerlegbar sind. Konsequenz: Ist ein Ereignis E in k disjunkte Teilereignisse e1 … ek zerlegbar, so folgt durch vollständige Induktion: p(E) = p(e1) + p(e2) + … + p(en) Erweiterter Additionssatz Folie 6 Methodenlehre & Statistik VennDiagramme Definition Laplace Kolmogoroff Folgerungen aus den Axiomen Die Wahrscheinlichkeit des unmöglichen Ereignisses p 0 Folgerungen Wahrscheinlichkeit des unmöglichen Ereignisses ist 0. Poisson Es gilt ja für den Stichprobenraum : Und mit Axiom 3 (Additionssatz): p () p p Und mit Axiom 2 nun: 1 1 p() Durch Umformen folgt der Satz. Folie 7 Methodenlehre & Statistik VennDiagramme Definition Laplace Kolmogoroff Folgerungen aus den Axiomen Die Wahrscheinlichkeit des Gegenereignisses p( E ) 1 p E E E Folgerungen Wahrscheinlichkeit des Komplements ist 1 minus die WK des Ereignisses Poisson Es gilt ja für den Stichprobenraum : EE Und mit Axiom 2 folglich: 1 pE E Und mit Axiom 3 (Additionssatz) dann: 1 pE pE Woraus der Satz folgt. Folie 8 Methodenlehre & Statistik VennDiagramme Definition Folgerungen Poisson Laplace Kolmogoroff Folgerungen aus den Axiomen Verbundwahrscheinlichkeiten Merke: Wenn zwei Ereignisse aus einer -Algebra eine Schnittmenge haben, so ist diese Schnittmenge wieder ein Ereignis in . A Die Wahrscheinlichkeit p(A dieser Schnittmenge ist immer gleich oder größer 0 A AB B Man bezeichnet p(A auch als Verbundwahrscheinlichkeit von A und B Folie 9 Methodenlehre & Statistik VennDiagramme Definition Folgerungen Laplace Kolmogoroff Folgerungen aus den Axiomen Der Allgemeine Additionssatz Problem: Wenn zwei Ereignisse nicht disjunkt sind, ist der Additionssatz nicht unmittelbar anwendbar: A AB B p(A B) ≠ p(A) + p(B) wenn p(A B) > 0 Poisson Die Wahrscheinlichkeit der Schnittmenge, also die Verbundwahrscheinlichkeit, geht dann doppelt ein. Die Verbundwahrscheinlichkeit muss also einmal subtrahiert werden. p(A B) = p(A) + p(B) – p(A B) Allgemeiner Additionssatz Folie 10 Methodenlehre & Statistik VennDiagramme Definition Folgerungen Poisson Laplace Kolmogoroff Wahrscheinlichkeitsfunktionen Notation für Wahrscheinlichkeiten Genau wie bei Laplace kann nun auf den Elementarereignissen des Stichprobenraums und den Ereignissen der -Algebra eine Wahrscheinlichkeitsfunktion definiert werden. Dies geschieht einfach über die Zuweisung reeller Zahlen, die die Kolmogoroff Axiome erfüllen Die Zahlen können dann als Wahrscheinlichkeiten für die Ereignisse E aufgefasst werden. Jede auf oder definierte Zufallsvariable „erbt“ wieder die Wahrscheinlichkeitsfunktion. Folie 11 Methodenlehre & Statistik VennDiagramme Laplace Wahrscheinlichkeitsfunktionen Notation für Wahrscheinlichkeiten Definition Folgerungen Poisson Folie 12 Kolmogoroff Die Definition der Wahrscheinlichkeitsfunktion p(x) entspricht der Definition der Zufallsvariablen K , Z , S p( ="K"): 0.49999 p p( ="Z"): 0.49999 p( ="S"): 0.00002 Methodenlehre & Statistik VennDiagramme Laplace Wahrscheinlichkeitsfunktionen Notation für Wahrscheinlichkeiten Definition Folgerungen Kolmogoroff Die Definition der Wahrscheinlichkeitsfunktion p(x) entspricht der Definition der Zufallsvariablen K , Z , S x1: 0, wenn "K" X x 2 : 1, wenn "Z" x : 2, wenn "S" 3 Poisson p(X=x1 ): 0.49999 p x p(X=x 2 ): 0.49999 p(X=x ): 0.00002 2 Folie 13 Frage: Woher kennen wir die Wahrscheinlichkeiten p? Methodenlehre & Statistik VennDiagramme Definition Laplace Wahrscheinlichkeitsfunktionen Häufigkeit und Wahrscheinlichkeit Wenn ein Zufallsexperiment mehrmals wiederholt wird, so wird die Anzahl der Trials oft mit n bezeichnet. Man kann dann die Häufigkeiten zählen, mit denen jede der möglichen Realisationen xi aufgetreten ist. Diese werden als h(X=xi) oder h(xi) oder hi geschrieben h(X=xi) wird auch als absolute Häufigkeit bezeichnet Die relative Häufigkeit berechnet man nun als Folgerungen Poisson Kolmogoroff f X xi Folie 14 h X xi n Methodenlehre & Statistik VennDiagramme Laplace Wahrscheinlichkeitsfunktionen Häufigkeit und Wahrscheinlichkeit Problem: Häufigkeiten sind keine Wahrscheinlichkeiten Die Wahrscheinlichkeitsfunktion einer Zufallsvariablen bestimmt lediglich, was bei einer realen Durchführung des Zufallsexperimentes für die beobachteten Häufigkeiten zu erwarten ist Definition Folgerungen Poisson Kolmogoroff p(x1) = 0.2 p(x2) = 0.4 f(x1) ≈ 0.18 f(x2) ≈ 0.33 Folie 15 p(x3) = 0.1 … Theorie f(x3) ≈ 0.15 … Empirie Frage: Woher kennen wir die Wahrscheinlichkeiten p? Methodenlehre & Statistik VennDiagramme Laplace Wahrscheinlichkeiten Empirische Definition der Wahrscheinlichkeit (Poisson, 1835) – The Law of Large Numbers Definition h( xi ) p X xi : lim n n Folgerungen h( xi ) : Häufigkeit des Ereignisses n : Gesamtzahl aller Versuche Poisson Folie 16 Kolmogoroff Beispiel: Relative Häufigkeit für das Würfeln einer „6“ in Abhängigkeit von der Anzahl der Würfelversuche: Bei unabhängigen Wiederholungen eines Zufallsexperiments strebt die relative Häufigkeit für das Auftreten eines Ereignisses xi gegen die Wahrscheinlichkeit p(X=xi). Methodenlehre & Statistik Definition Bedingte Wk Satz von Bayes Bedingte Wahrscheinlichkeit Einführendes Beispiel Theoreme Wk-Bäume Unabhängigkeit Bei den Bundesjugendspielen interessiert sich ein Sportpsychologe für den Zusammenhang zwischen unterirdischem Abschneiden in verschiedenen Disziplinen. Er erhebt dazu ● Verfehlen (A) oder Erreichen (nicht A) des Zeitkriteriums beim 100m Lauf ● Negative (B) bzw. positive (nicht B) Weite beim Ballwurf. Der Sportpsychologe beobachtet an n=100 Kindern ● p(A) = 0.12 ● p(B) = 0.05 ● p(A B) = 0.04 Folie 17 Methodenlehre & Statistik Definition Bedingte Wk Bedingte Wahrscheinlichkeit p( A B) p ( B | A) p ( A) Theoreme Wk-Bäume Unabhängigkeit Satz von Bayes Bedingte Wahrscheinlichkeit Grundwahrscheinlichkeit Ist die Wahrscheinlichkeit für das Ereignis B, gegeben dass das Ereignis A bereits eingetreten ist (lies: „B gegeben A“). Im Venn Diagramm kann p(B | A) als Anteil der Fläche A B an der Fläche A interpretiert werden (und nicht mehr am gesamten Stichprobenraum ). Folie 18 (Unbedingte) Verbundwahrscheinlichkeit A AB B Methodenlehre & Statistik Definition Bedingte Wk Satz von Bayes Bedingte Wahrscheinlichkeit Im Laplace Ansatz Theoreme Es seien n die Menge aller Elementarereignisse in . Wk-Bäume a die für das Ereignis A günstigen Elementarereignisse b die für das Ereignis B günstigen Elementarereignisse c die für das Ereignis A B günstigen Elementarereign. Unabhängigkeit 100m Verfehler negative Weite a p ( A) n b p( B) n a c b n c c p( A B) und p ( B | A) n a Folie 19 c und p ( A | B ) b Methodenlehre & Statistik Definition Bedingte Wk Satz von Bayes Bedingte Wahrscheinlichkeit Im Laplace Ansatz Theoreme Es seien n die Menge aller Elementarereignisse in . Wk-Bäume a die für das Ereignis A günstigen Elementarereignisse b die für das Ereignis B günstigen Elementarereignisse c die für das Ereignis A B günstigen Elementarereign. Unabhängigkeit Es ist also zunächst p(A) = a / n p(B) = b / n p(AB) = c / n Aus dem Venn Diagramm sah man auch: p(B | A) = c / a Umformen und Kürzen ergibt Folie 20 p ( B | A) c p( A B) a p ( A) Methodenlehre & Statistik Definition Bedingte Wk Satz von Bayes Bedingte Wahrscheinlichkeit Im Kolmogoroff Ansatz Theoreme Wk-Bäume Unabhängigkeit In der axiomatischen Definition der Wahrscheinlichkeit kann die Berechnungsvorschrift für bedingte Wahrscheinlichkeiten nicht bewiesen werden. Deshalb muss die bedingte Wahrscheinlichkeit hier definiert werden: ! p( A B) p ( B | A) p ( A) Folie 21 Methodenlehre & Statistik Definition Bedingte Wk Satz von Bayes Bedingte Wahrscheinlichkeit Der Multiplikationssatz Theoreme Man sieht sofort dass gilt: p(A B) = p(B A) Wk-Bäume Damit erhalten wir durch Umformen Unabhängigkeit p ( B | A) p( A B) p ( A) p ( A B ) p( B | A) p( A) p( A | B) p( A B) p( A | B) p( B) Multiplikationssatz Folie 22 p( A B) p( B) Methodenlehre & Statistik Definition Theoreme Wk-Bäume Bedingte Wk Satz von Bayes Satz der totalen Wahrscheinlichkeit Wenn die Ereignisse B1, B2, … Bk paarweise disjunkt sind und das Ereignis A immer mit einem der Bi auftritt, gilt A = (AB1) + (AB2) + … + (ABk) Mit dem Additionsthorem erhalten wir Unabhängigkeit p ( A) p ( A B1 ) p ( A Bk ) Bk … B1 B2 … … … … A Und mit dem Multiplikationssatz wird daraus p ( A) p ( B1 ) p ( A | B1 ) p ( B2 ) p ( A | B2 ) p ( Bk ) p ( A | Bk ) Folie 23 Satz der totalen Wahrscheinlichkeit Methodenlehre & Statistik Bedingte Wk Satz von Bayes Definition Wahrscheinlichkeitsbäume Theoreme Additions- und Multiplikationssatz für bedingte Wahrscheinlichkeiten lassen sich gut an einem Wahrscheinlichkeitsbaum veranschaulichen. Wk-Bäume Ereignis B, gegeben A Ereignis A p(B1|A1) A1 p(B2|A1) Unabhängigkeit p(A1) p(B1|A2) S p(A2) A2 B1 B2 B1 p(B1|A1)p(A1) p(B2|A1)p(A1) p(B1|A2)p(A2) B2 p(B |A )p(A ) 2 2 2 p(A3) A3 B1 p(B1|A3)p(A3) p(B2|A3) B2 Folie 24 Man sieht auch: p(A1B1+A2B1 +A3B1)= p(B2|A2) p(B1|A3) Multiplikationssatz für Wahrsch.keiten p(B2|A3)p(A3) p(B1|A1)p(A1)+ p(B1|A2)p(A2)+ p(B1|A3)p(A3) Satz der totalen Wahrscheinlichkeit Methodenlehre & Statistik Definition Bedingte Wk Satz von Bayes Stochastische Unabhängigkeit Wenn gilt: Theoreme Wk-Bäume Unabhängigkeit p(B) = p(B | A) werden die Ereignisse A und B stochastisch unabhängig genannt, weil die Wahrscheinlichkeit des Auftretens des Ereignisses B nicht vom Auftreten von A abhängt. Setzen wir die rechte Seite der Gleichung in den Multiplikationssatz ein, erhalten wir: p(A B) = p(B | A) p(A) = p(A)·p(B) Kurz: Folie 25 p(A B) = p(A)·p(B) Multiplikationssatz für stoch. unabh. Ereignisse Methodenlehre & Statistik Definition Bedingte Wk Satz von Bayes Stochastische Unabhängigkeit Verallgemeinerung des Multiplikationssatzes Theoreme Wk-Bäume Unabhängigkeit Wenn die Ereignisse A1, A2, … Ak insgesamt unabhängig sind, so gilt p(A1A2… Ak) = p(A1)·p(A2)·… ·p(Ak) Achtung: Die Disjunktheit von Ereignissen hat mit der stochastischen Unabhängigkeit nichts zu tun. A und B sind disjunkt (A B = {}). Wenn aber A eingetreten ist, reduziert sich p(B|A) auf Null. Folie 26 A B Methodenlehre & Statistik Definition Bedingte Wk Satz von Bayes Stochastische Unabhängigkeit Wechselseitigkeit Theoreme Wk-Bäume Für stochastisch unabhängige Ereignisse kann man aus den Kolmogoroff Axiomen allgemeine Regeln herleiten: 1. Ist A von B unabhängig, so ist es auch B von A Unabhängigkeit 2. Sind A und B unabhängig, so sind es auch ihre Gegenereignisse 3. Sind A und B unabhängig so sind es auch alle Kombination von A und B mit ihren Gegenereignissen Folie 27 Methodenlehre & Statistik Beispiel Bedingte Wk Satz von Bayes Satz von Bayes Beispiel Definition Ein Statistikdozent in der Psychologie fragt sich, ob das Bestehen seiner Fachprüfung überhaupt etwas über die Eignung eines bereits immatrikulierten Psychologiestudierenden für das Studium aussagt. Er erhebt dazu in zwei Semestern mehrere Wahrscheinlichkeiten: ● p(Klausurverfehler) = 0.05 ● p(Studiumsgeeignete) = 0.95 ● p(Klausurverfehler Studiumsgeeignete) = 0.045 in Semester I oder ● p(Klausurverfehler Studiumsgeeignete) = 0.005 in Semester II Folie 28 Methodenlehre & Statistik Beispiel Bedingte Wk Satz von Bayes Satz von Bayes Beispiel Definition Studiumsgeeignete Folie 29 Studiumsgeeignete Klausurverfehler Klausurverfehler Methodenlehre & Statistik Beispiel Bedingte Wk Satz von Bayes Satz von Bayes Beispiel Definition Studiumsgeeignete Folie 30 Studiumsgeeignete Klausurverfehler Klausurverfehler Methodenlehre & Statistik Beispiel Definition Bedingte Wk Satz von Bayes Satz von Bayes Wir sehen anhand des Multiplikationssatzes, dass p(B | A) p(A) = p(A | B) p(B) Damit gilt p ( B | A) p( A | B) p( B) p ( A) bzw. p( A | B) p ( B | A) p ( A) p( B) Die bedingte Wahrscheinlichkeit eines Ereignisses A gegeben B ist zu berechnen aus der Wahrscheinlichkeit für B gegeben A und den Grundwahrscheinlichkeiten von A und B. Diese Beziehung ist der Satz von Bayes. Folie 31 Methodenlehre & Statistik Beispiel Bedingte Wk Satz von Bayes Satz von Bayes Verallgemeinerung Definition Hat man mehrere Ereignisse B1, B2, …, Bk gilt beim Satz von Bayes p ( A | Bi ) p( Bi ) p ( Bi | A) p ( A) vorausgesetzt, dass die Grundwahrscheinlichkeit für A bekannt ist. Häufig kennt man aber nur alle p(A|Bi). Mit dem Satz der totalen Wahrscheinlichkeit erhält man aus dem Satz von Bayes diese allgemeine Bayes-Formel: p ( Bi | A) Folie 32 p ( A | Bi ) p ( Bi ) p ( A | B1 ) p ( B1 ) p ( A | B2 ) p ( B2 ) p ( A | Bk ) p ( Bk ) Methodenlehre & Statistik Relevante Excel Funktionen Wahrscheinlichkeitsrechnung • Zufallszahl(), Zufallsbereich() Folie 33 Methodenlehre & Statistik Inhalte dieser Sitzung Theoretische Wahrscheinlichkeiten und empirische Häufigkeiten Bernoulli Experimente Binomial- und Poisson-Verteilung Folie 2 Methodenlehre & Statistik Definition Diskrete Verteilungen Stetige Verteilungen Diskrete Zufallsvariablen Recap – Notation Bernoulli Experimente Binomialvert. Poisson Vert. Eine Zufallsvariable, die abzählbar viele Werte annehmen kann (in endlich oder unendlich vielen Ausprägungen), wird als diskrete Zufallsvariable bezeichnet Das Ereignis, dass die diskrete Zufallsvariable X eine bestimmte (die i-te) Ausprägung annimmt, wird bezeichnet als X = xi Die Wk für X = xi wird als p(X = xi) oder kürzer p(xi) oder ganz kurz pi bezeichnet p(X = xi) ist eine Punktwahrscheinlichkeit Folie 3 Methodenlehre & Statistik Definition Diskrete Verteilungen Stetige Verteilungen Diskrete Zufallsvariablen Recap – Wahrscheinlichkeitsverteilung Bernoulli Experimente Binomialvert. Poisson Vert. Die Verteilung der p(X = xi) auf alle möglichen Ausprägungen von X wird als diskrete Wahrscheinlichkeitsverteilung bezeichnet. Sie beschreibt theoretische Punktwahrscheinlichkeiten und wird definiert als p ( X xi ) : falls x i x1 xk p ( x) 0 sonst Wert von X p(X = xi) Folie 4 x1 x2 p(x1) p(x2) … xi p(xi) … xk p(xk) Methodenlehre & Statistik Definition Diskrete Verteilungen Stetige Verteilungen Diskrete Zufallsvariablen Recap – Verteilungsfunktion Bernoulli Experimente Binomialvert. Die Verteilung der p(X ≤ xm) wird als Verteilungsfunktion der Zufallsvariablen X oder kumulierte Wahrscheinlichkeitsverteilung bezeichnet. Sie beschreibt theoretische Intervallwahrscheinlichkeiten und wird definiert als m Poisson Vert. P( x) p ( X xm ) p1 p2 pm pi i 1 Wert von X p(X ≤ xi) Folie 5 x1 x2 p(x1) p(x1) + p(x2) … xm … p(x1) + p(x2) + … + p(xm) Methodenlehre & Statistik Definition Diskrete Verteilungen Stetige Verteilungen Diskrete Zufallsvariablen Recap – Häufigkeit und Wahrscheinlichkeit Bernoulli Experimente Binomialvert. Poisson Vert. Folie 6 Methodenlehre & Statistik Diskrete Verteilungen Stetige Verteilungen Diskrete Zufallsvariablen Recap – Häufigkeit und Wahrscheinlichkeit Absolute Häufigkeit eines Wertes x: Relative Häufigkeit eines Wertes x: (n = Anzahl aller Werte) Empirisch Theoretisch h x h x f x n p x (Häufigkeitsverteilung) Kumulierte absolute Häufigkeit bis zu einer Schranke u: Relative kumulierte Häufigkeit bis zu einer Schranke u: H x h xi xi u P x p xi i F x f xi xi u i (Emp. Verteilungsfunktion) Folie 7 (Wk.-Verteilung) i (Verteilungsfunktion) Methodenlehre & Statistik Definition Diskrete Verteilungen Stetige Verteilungen Diskrete Zufallsvariablen Recap – Häufigkeit und Wahrscheinlichkeit Bernoulli Experimente Die empirische Häufigkeitsverteilung f(x) und die Wahrscheinlichkeitsverteilung p(x) einer Zufallsvariablen sind konzeptuell strikt zu trennen Binomialvert. Die empirische und theoretische Verteilungsfunktion sind ebenfalls strikt zu trennen Poisson Vert. Die theoretischen Verteilungen bedürfen keiner Daten, denn sie sind gegeben Die theoretische Verteilung bestimmt, was für die empirische Verteilung zu erwarten ist Aber: In der Notation wird oft einfach f(x) bzw. F(x) geschrieben, gleichgültig, ob es um Häufigkeiten oder Wahrscheinlichkeiten geht. Folie 8 Methodenlehre & Statistik Definition Diskrete Verteilungen Stetige Verteilungen Folgen unabhängiger Ereignisse Bernoulli Experimente Bernoulli Experimente Binomialvert. Poisson Vert. Kann ein Zufallsexperiment mehrfach unter demselben Komplex Ξ durchgeführt werden und sind die einzelnen Versuche stochastisch unabhängig, so spricht man von einem Bernoulli Experiment. Das Bernoulli Experiment ist ein Art MetaExperiment, dessen Trials aus der mehrfachen Durchführung des zugrunde liegenden Experimentes bestehen. Der typische Stichprobenraum eines Bernoulli Experimentes ergibt sich erst nach der sinnvollen Definition einer Zufallsvariablen. Folie 9 Methodenlehre & Statistik Definition Diskrete Verteilungen Stetige Verteilungen Folgen unabhängiger Ereignisse Bernoulli Experimente Bernoulli Experimente Beispiel: Das Experiment Ξ sei der einmalige Wurf einer fairen Münze, wobei die Münze nicht auf der Kante liegen bleiben kann. Binomialvert. Der Stichprobenraum ist Kopf , Zahl Poisson Vert. Als Zufallsvariable könnte man definieren y1: 0, wenn Kopf Y mit y2 : 1, wenn Zahl Folie 10 p Y y1 : 0.5 p y p Y y2 : 0.5 Methodenlehre & Statistik Definition Diskrete Verteilungen Stetige Verteilungen Folgen unabhängiger Ereignisse Bernoulli Experimente Bernoulli Experimente Beispiel: Das Bernoulli Experiment bestehe nun in der 20maligen Durchführung des Zufallsexperimentes Ξ Binomialvert. Sein Stichprobenraum umfasst alle möglichen 20elementigen Folgen von Kopf und Zahl, also Poisson Vert. K , K , K , K , K , K , K , K , K , K , K , K , K , K , K , K , K , K , K , K , , , , , , , , , , , , , , , , , , , , , K K K K K K K K K K K K K K K K K K K Z ' , K , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z Folie 11 Ein Elementarereignis Methodenlehre & Statistik Definition Diskrete Verteilungen Stetige Verteilungen Folgen unabhängiger Ereignisse Bernoulli Experimente Bernoulli Experimente Auf dem Stichprobenraum eines solchen Bernoulli Experimentes können viele verschiedene Zufallsvariablen definiert werden. Binomialvert. Beispiel: Jedem möglichen der insgesamt k Elemente des Stichprobenraumes wird eine eindeutige Zahl zugewiesen: Poisson Vert. X x1 : 1, wenn K , K , , K X x : 2, wenn K , K , , Z 2 X X xk : 1048576, wenn Z , Z , , Z Folie 12 Methodenlehre & Statistik Definition Diskrete Verteilungen Stetige Verteilungen Folgen unabhängiger Ereignisse Bernoulli Experimente Bernoulli Experimente Auf dem Stichprobenraum eines solchen Bernoulli Experimentes können viele verschiedene Zufallsvariablen definiert werden. Binomialvert. Beispiel: Jedem möglichen der insgesamt k Elemente des Stichprobenraumes wird eine eindeutige Zahl zugewiesen: Poisson Vert. X x1 : 1, wenn y1 , y1 , , y1 X x : 2, wenn y , y , , y 2 1 1 2 X X xk : 1048576, wenn y 2 , y2 , , y2 Folie 13 Methodenlehre & Statistik Definition Diskrete Verteilungen Stetige Verteilungen Folgen unabhängiger Ereignisse Bernoulli Experimente Bernoulli Experimente Binomialvert. Poisson Vert. Folie 14 Zur Definition der Wahrscheinlichkeitsverteilung dieser Zufallsvariablen kann der Multiplikationssatz für stochastisch unabhängige Ereignisse herangezogen werden p X x1 : p y1 p y1 p y1 p X x2 : p y1 p y1 p y2 p x p X x : p y p y p y k 2 2 2 Methodenlehre & Statistik Definition Diskrete Verteilungen Stetige Verteilungen Folgen unabhängiger Ereignisse Bernoulli Experimente Bernoulli Experimente Aber: Zu Zeiten Bernoullis wurde Wahrscheinlichkeitsrechnung vor allem zum besseren Verständnis des Glücksspieles betrieben Binomialvert. Deshalb spielte die Ordnung der Ergebnisse aus den Trials eines Bernoulli Experimentes eher keine Rolle Poisson Vert. Die Zufallsvariable eines Bernoulli Experimentes ist per definitionem einfach die Summe der Realisationen aus den n durchgeführten Trials, also n X y1 y2 yn yi i 1 mit n=20 in unserem Beispiel Folie 15 Methodenlehre & Statistik Definition Diskrete Verteilungen Stetige Verteilungen Folgen unabhängiger Ereignisse Bernoulli Experimente Bernoulli Experimente Binomialvert. Poisson Vert. Im Beispiel mit n=20 ist dies aber gleichbedeutend mit der Definition X x1 : 0, wenn 0 Zahl X x : 1, wenn 1 Zahl 2 X X x21 : 1, wenn 20 Zahl Wenn in der zugrunde liegenden Zufallsvariable Y ein „Treffer“ (hier: Zahl) die 1 erhalten hat, liefert X also einfach die Anzahl der Treffer in den n Trials Achtung: Diese Übertragung ist nicht mehr gültig, sobald die Zufallsvariable Y anders definiert wird Folie 16 (z.B. mit umgekehrter Zuweisung von 0/1 zu Kopf/Zahl) Methodenlehre & Statistik Definition Diskrete Verteilungen Stetige Verteilungen Folgen unabhängiger Ereignisse Bernoulli Experimente Bernoulli Experimente Frage: Angenommen, die Wahrscheinlichkeitsfunktion der Zufallsvariablen X aus dem zugrunde liegenden Experiment ist bekannt – kann dann die Wahrscheinlichkeitsfunktion von Y ermittelt werden? Binomialvert. Am Beispiel: Gibt es die mathematische Beziehung Poisson Vert. p Y y1 : 0.5 p y p Y y2 : 0.5 Folie 17 ? p X x1 p X x2 p x p X x 20 Methodenlehre & Statistik Definition Diskrete Verteilungen Stetige Verteilungen Diskrete Wk-Verteilungen Binomialverteilung Bernoulli Experimente Der einfachste Fall eines Bernoulli Experimentes beruht auf einem Experiment mit nur zwei möglichen disjunkten Ergebnissen Binomialvert. Man definiere für dieses Experiment die folgende Zufallsvariable und Wahrscheinlichkeitsfunktion: Poisson Vert. Y y1 : 0 Y Y y2 : 1 p Y y1 : q p y p Y y2 : p mit q = 1–p Beispiel: Beim Münzwurf wäre z.B. p = q = 0.5 Folie 18 (p ist die so genannte „Treffer- oder Erfolgswahrscheinlichkeit“) Methodenlehre & Statistik Definition Diskrete Verteilungen Stetige Verteilungen Diskrete Wk-Verteilungen Binomialverteilung Bernoulli Experimente Man hat Y y1 : 0 Y Y y2 :1 und kennt p Y y1 : 1 p p( y) p Y y2 : p Binomialvert. Poisson Vert. ist gesucht p X x1 : ? p X x2 : ? p ( x) pX x : ? n 1 Folie 19 Bei n Trials X x1 : 0 X x :1 2 X X xn 1 : n Methodenlehre & Statistik Definition Diskrete Verteilungen Stetige Verteilungen Diskrete Wk-Verteilungen Binomialverteilung Bernoulli Experimente Wird ein dichotomes Experiment n mal durchgeführt, kann die Wahrscheinlichkeitsfunktion der möglichen Realisationen für das resultierende Bernoulli Experiment mathematisch hergeleitet werden: Binomialvert. Poisson Vert. n x n x f ( x , n, p ) p q x mit n = Anzahl aller Trials Dies ist die Binomialverteilung x = Anzahl günstiger Ergebnisse in den n Trials p = Wk für jedes x q = Wk der übrigen n-x Ergebnisse, also, q = 1–p Folie 20 Methodenlehre & Statistik Definition Diskrete Verteilungen Stetige Verteilungen Diskrete Wk-Verteilungen Binomialverteilung Bernoulli Experimente und kennt Man hat Y y1 : 0 Y Y y2 :1 p Y y1 : 1 p p( y) p Y y2 : p Binomialvert. Poisson Vert. ist gesucht n f ( x , n, p ) p x q n x x Bei n Trials p X x1 : ? p X x2 : ? p ( x) pX x : ? n 1 Folie 21 X x1 : 0 X x :1 2 X X xn 1 : n Methodenlehre & Statistik Definition Diskrete Verteilungen Stetige Verteilungen Diskrete Wk-Verteilungen Exkurs: Fakultät und der Binomialkoeffizient Bernoulli Experimente Der Binomialkoeffizient ist definiert als n n! x x ! (n x)! Binomialvert. Poisson Vert. Dabei ist n ! 1 2 3 n per definitionem mit 0! = 1 Folie 22 lies: „n über x“ lies: „n Fakultät“ Methodenlehre & Statistik Definition Diskrete Verteilungen Stetige Verteilungen Diskrete Wk-Verteilungen Binomialverteilung Bernoulli Experimente Die Binomialverteilung ist eine diskrete Wahrscheinlichkeitsverteilung, da sie nur endlich viele verschiedene Werte annehmen kann Binomialvert. Die mathematische Funktion kann nur dann angewandt werden, wenn die Zufallsvariable des zugrunde liegenden Experimentes 0/1-kodiert ist Poisson Vert. Die Funktion f(x,n,p) gibt dann die Wahrscheinlichkeit für jede mögliche Häufigkeit von 1en in den n Versuchen an Anzahl der „Treffer“ Die Binomialverteilung ist die „Mutter aller Verteilungen“, da aus ihr praktisch alle wichtigen weiteren Verteilungen abgeleitet werden können Folie 23 Methodenlehre & Statistik Definition Diskrete Verteilungen Stetige Verteilungen Diskrete Wk-Verteilungen Binomialverteilung Bernoulli Experimente Die Wahrscheinlichkeitsfunktion f(x,n,p) liefert die Punktwahrscheinlichkeiten für ein genau xmaliges Auftreten der Realisation 1 einer 0/1 kodierten Zufallsvariablen. Binomialvert. Zusätzlich existiert auch die Verteilungsfunktion der Intervallwahrscheinlichkeiten für ein maximal x-maliges Auftreten der Realisation 1 Poisson Vert. Diese ist einfach die Summe aller Punktwahrscheinlichkeiten bis zur Realisation xi k F x, n, p f xi , n, p i 1 Folie 24 Methodenlehre & Statistik Definition Diskrete Verteilungen Stetige Verteilungen Diskrete Wk-Verteilungen Binomialverteilung Bernoulli Experimente Am Beispiel mit p=0.5 und n=20 ergäbe sich x Binomialvert. Poisson Vert. Folie 25 f(x) F(x) 0 0.000 0.000 1 0.000 0.000 2 0.000 0.000 3 0.001 0.001 4 0.005 0.006 5 0.015 0.021 … … … 20 0.000 1.000 x x Methodenlehre & Statistik Diskrete Verteilungen Stetige Verteilungen Diskrete Zufallsvariablen Recap – Häufigkeit und Wahrscheinlichkeit Absolute Häufigkeit eines Wertes x: Relative Häufigkeit eines Wertes x: (n = Anzahl aller Werte) Empirisch Theoretisch h x h x f x n p x (Häufigkeitsverteilung) Kumulierte absolute Häufigkeit bis zu einer Schranke u: Relative kumulierte Häufigkeit bis zu einer Schranke u: H x h xi xi u P x p xi i F x f xi xi u i (Emp. Verteilungsfunktion) Folie 26 (Wk.-Verteilung) i (Verteilungsfunktion) Methodenlehre & Statistik Definition Diskrete Verteilungen Stetige Verteilungen Diskrete Wk-Verteilungen Poisson Verteilung Bernoulli Experimente Binomialvert. Poisson Vert. Für ein Bernoulli Experiment mit 2 disjunkten Ergebnissen gelte die Häufigkeit, mit dem ein Ereignis in einem bestimmten Zeitintervall typischerweise auftritt, sei . die Wahrscheinlichkeit des Eintretens von m Ereignissen in einem Zeitintervall ist nur von der Länge des Intervalls abhängig, nicht von seiner Lage auf der Zeitachse die Ereignisse sind stochastisch unabhängig Die Wahrscheinlichkeit für das Eintreten von m Ereignissen in einem Zeitintervall ist dann e x f ( x, ) x! Folie 27 Poisson Verteilung (e = Eulersche Zahl; 2.718) Methodenlehre & Statistik Definition Diskrete Verteilungen Stetige Verteilungen Diskrete Wk-Verteilungen Poisson Verteilung Bernoulli Experimente e x f ( x, ) x! Binomialvert. Poisson Vert. wird auch als Intensitätsparameter der PoissonVerteilung bezeichnet Anders als die Binomialverteilung ist die PoissonVerteilung unendlich abzählbar. Folie 28 Methodenlehre & Statistik Definition Diskrete Verteilungen Stetige Verteilungen Diskrete Wk-Verteilungen Poisson Verteilung als Approximation der Binomialvert. Bernoulli Experimente Wenn n groß ist und p klein, ist die Bestimmung von Wahrscheinlichkeiten aus der Binomialverteilung mathematisch aufwändig Binomialvert. Die Poisson-Verteilung approximiert die Binomialverteilung für seltene Ereignisse sehr gut, wenn n ≥ 100 und np ≤ 10 Poisson Vert. Dabei wird angenommen, dass λ = np e n p ( n p ) x n x f ( x, n p ) p (1 p ) n x f ( x, n, p ) x! x Poisson Folie 29 Binomial Methodenlehre & Statistik Definition Diskrete Verteilungen Stetige Verteilungen Diskrete Wk-Verteilungen Poisson Verteilung als Approximation der Binomialvert. Bernoulli Experimente Die Poisson Verteilung geht mathematisch unmittelbar aus der Binomialverteilung hervor Binomialvert. Die Poisson Verteilung wird häufig als Verteilung für seltene Ereignisse bezeichnet. Poisson Vert. Hier ist streng zu unterscheiden zwischen einer kleinen Wahrscheinlichkeit p und einer theoretisch recht großen Anzahl n·p der unwahrscheinlichen Ereignisse. Die Güte der Approximation bezieht sich auf den relativen Approximationsfehler, d.h. den Quotienten aus der Binomial-Wk und der Poisson-Wk Folie 30 Methodenlehre & Statistik Relevante Excel Funktionen Diskrete Wahrscheinlichkeitsverteilungen • BINOM.VERT() • POISSON.VERT() oder EXP() und POTENZ() bzw. ^ („hoch“) • FAKULTÄT(), KOMBINATIONEN() Folie 31 Methodenlehre & Statistik Diskrete Verteilungen Inferenzstatistik Inhalte dieser Sitzung Tabellarische Darstellung von Wahrscheinlichkeitsverteilungen Eine Zahl für Alles: Kennwerte Bilder sagen mehr als Worte: Grafische Darstellung Was ist eine große Zahl – Einführung in das statistische Testen Binomial- und Poisson-Test Folie 2 Methodenlehre & Statistik Kreuztabellen Diskrete Verteilungen Inferenzstatistik Diskrete Wk-Verteilungen Recap Kennwerte Grafiken Die Binomial- und Poissonverteilung beschreiben die Auftretenswahrscheinlichkeiten einer 0/1kodierten Zufallsvariablen bei n Trials Es wird immer angenommen, dass der Stichprobenraum eines Trials definiert ist als = {Misserfolg, Erfolg} X() = {0,1} Ein Elementarereignis des gesamten BernoulliExperimentes mit n Trials ist so immer eine Folge von n Nullen bzw. Einsen. Folie 3 Die Anzahl von Erfolgen ist einfach die Summe der Trialrealisationen. Methodenlehre & Statistik Kreuztabellen Diskrete Verteilungen Inferenzstatistik Diskrete Wk-Verteilungen Numerische Beschreibung: univariate Kreuztabellen Kennwerte Grafiken Die vollständige numerische Darstellung der Wahrscheinlichkeitsverteilung oder Verteilungsfunktion wird über so genannte Kreuztabellen (oder Kontingenztabellen) vorgenommen. Wert von X x1 x2 … xi … xk Folie 4 f(X = xi) h(x1) h(x2) … h(xi) … h(xk) F(X = xi) f(x1) f(x2) … f(xi) … f(xk) Methodenlehre & Statistik Kreuztabellen Diskrete Verteilungen Inferenzstatistik Diskrete Wk-Verteilungen Numerische Beschreibung: multivariate Kreuztabellen Kennwerte Grafiken Oft betrachtet man Wahrscheinlichkeiten für das gemeinsame Auftreten zweier Merkmale (bivariat) Beispiel: Frauen/Männer, die unter-/normal/übergewichtig sind In diesem Fall werden 2 Variablen betrachtet: X: Geschlecht (x1, x2) Y: Gewichtsstatus (y1, y2, y3) Die Wahrscheinlichkeiten sind Verbundwahrscheinlichkeiten, die das Vorkommen jeder möglichen Kombination aus x und y beschreiben Folie 5 Methodenlehre & Statistik Kreuztabellen Diskrete Verteilungen Inferenzstatistik Diskrete Wk-Verteilungen Numerische Beschreibung: multivariate Kreuztabellen Kennwerte Tabellarische Darstellung über bivariate Kreuztabellen Grafiken Geschlecht Männlich (x1) Weiblich (x2) Unter (y1) f(x1,y1) f(x2,y1) Gewicht Normal (y2) f(x1,y2) f(x2,y2) Über (y3) f(x1,y3) f(x2,y3) Σ f(x1,●) f(x2,●) Folie 6 Randhäufigkeiten Σ f(●,y1) f(●,y2) f(●,y3) f(●,●) Methodenlehre & Statistik Kreuztabellen Diskrete Verteilungen Inferenzstatistik Diskrete Wk-Verteilungen Numerische Beschreibung: multivariate Kreuztabellen Kennwerte Tabellarische Darstellung über bivariate Kreuztabellen Grafiken Varianten: Kreuztabellen der unbedingten Verbundwahrscheinlichkeiten oder Kreuztabellen der bedingten Wahrscheinlichkeiten. Geschlecht Männlich (x1) Weiblich (x2) Unter (y1) f(x1 | y1) f(x2 | y1) Gewicht Normal (y2) f(x1 | y2) f(x2 | y2) Über (y3) f(x1 | y3) f(x2 | y3) Σ f(x1,●) f(x2,●) Folie 7 Σ f(●,y1) f(●,y2) f(●,y3) f(●,●) Methodenlehre & Statistik Kreuztabellen Diskrete Verteilungen Inferenzstatistik Diskrete Wk-Verteilungen Numerische Beschreibung: multivariate Kreuztabellen Kennwerte Tabellarische Darstellung über bivariate Kreuztabellen Grafiken Varianten: Kreuztabellen der unbedingten Verbundwahrscheinlichkeiten oder Kreuztabellen der bedingten Wahrscheinlichkeiten. Geschlecht Männlich (x1) Weiblich (x2) Unter (y1) f(y1 | x1) f(y1 | x2) Gewicht Normal (y2) f(y2 | x1) f(y2 | x2) Über (y3) f(y3 | x1) f(y3 | x2) Σ f(x1,●) f(x2,●) Folie 8 Σ f(●,y1) f(●,y2) f(●,y3) f(●,●) Methodenlehre & Statistik Kreuztabellen Diskrete Verteilungen Inferenzstatistik Diskrete Wk-Verteilungen Numerische Beschreibung: Kennwerte Kennwerte Grafiken Als Kennwert bezeichnet man ein statistisches Maß, das eine Wahrscheinlichkeitsverteilung über zumeist nur eine Zahl beschreibt Kennwerte dienen der Informationsreduktion, um die Eigenschaften einer Verteilung möglichst sparsam zu beschreiben Kennwerte charakterisieren immer nur bestimmte Eigenschaften der gegebenen Verteilung, sie bedeuten also einen Informationsverlust Folie 9 Methodenlehre & Statistik Kreuztabellen Diskrete Verteilungen Inferenzstatistik Diskrete Wk-Verteilungen Numerische Beschreibung: Erwartungswert Kennwerte Grafiken Die Lage der Wahrscheinlichkeitsverteilung einer Zufallsvariablen X wird durch den Erwartungswert von X, geschrieben als E(X), charakterisiert. Oft wird E(X) alternativ als („mü“) bezeichnet Der Erwartungswert kann als Maß verstanden werden, das den Schwerpunkt einer Verteilung kennzeichnet. Der Erwartungswert ist für die theoretische Wahrscheinlichkeitsverteilung das, was der Mittelwert für die empirische Häufigkeitsverteilung ist. Folie 10 Der Erwartungswert einer Zufallsvariablen erfordert keine Beobachtungen, sondern bezieht sich auf die theoretische Wahrscheinlichkeitsverteilung. Methodenlehre & Statistik Kreuztabellen Diskrete Verteilungen Inferenzstatistik Diskrete Wk-Verteilungen Numerische Beschreibung: Erwartungswert Kennwerte Grafiken Für eine diskrete Zufallsvariable X mit endlich vielen Ausprägungen x1,…, xk und Wahrscheinlichkeiten pi = p(X=xi) ergibt sich der Erwartungswert über k E ( X ) pi xi i 1 kann als gewichtetes Mittel der möglichen Realisationen einer Zufallsvariablen aufgefasst werden, wobei die Wahrscheinlichkeiten die Gewichte darstellen. Dabei gilt: Folie 11 E ( a X b) a E X b Methodenlehre & Statistik Kreuztabellen Diskrete Verteilungen Inferenzstatistik Diskrete Wk-Verteilungen Numerische Beschreibung: Varianz Kennwerte Grafiken Die Breite der Wahrscheinlichkeitsverteilung einer Zufallsvariablen X wird durch die Varianz von X, geschrieben ²(X), charakterisiert. Oft wird ²(X) abgekürzt zu ² („sigma Quadrat“). Die Varianz kann als Maß verstanden werden, die die Ausdehnung der Wahrscheinlichkeitsverteilung um den Erwartungswert herum beschreibt. Die Varianz einer Zufallsvariablen erfordert keine Beobachtungen, sondern bezieht sich auf die theoretische Wahrscheinlichkeitsverteilung. Folie 12 Methodenlehre & Statistik Kreuztabellen Diskrete Verteilungen Inferenzstatistik Diskrete Wk-Verteilungen Numerische Beschreibung: Varianz Kennwerte Grafiken Für eine diskrete Zufallsvariable X mit endlich vielen Ausprägungen x1,…, xk und Wahrscheinlichkeiten pi = p(X=xi) ergibt sich die Varianz über E X E X 2 k 2 X pi xi 2 i 1 ²(X) kann als gewichtetes Mittel der quadrierten Abweichungen der möglichen Realisationen einer Zufallsvariablen zum Erwartungswert aufgefasst werden, wobei die Wahrscheinlichkeiten die Gewichte darstellen. Folie 13 Methodenlehre & Statistik Kreuztabellen Diskrete Verteilungen Inferenzstatistik Diskrete Wk-Verteilungen Numerische Beschreibung: Standardabweichung Kennwerte Grafiken Die Varianz erfüllt nicht die Forderung der Proportionalität bei der Multiplikation der Zufallsvariablen mit einem festen Wert a. ²(a X ) a 2 X Es gilt also nicht sondern statt dessen ²(a X ) a 2 2 X Dieses Problem wird durch Wurzelziehen beseitigt. Man erhält so die Standardabweichung (X), abgekürzt einfach („sigma“). X 2X Folie 14 Methodenlehre & Statistik Kreuztabellen Diskrete Verteilungen Inferenzstatistik Diskrete Wk-Verteilungen Einfache Rechenregeln für Kennwerte Kennwerte Grafiken Für eine binomialverteilte Zufallsvariable X mit der Wahrscheinlichkeitsverteilung f(m, n, p) gilt 1. = n · p Erwartungswert 2. ² = n · p · q Varianz 3. = Standardabweichung n·p·q Nur für X()={0,1} Folie 15 Methodenlehre & Statistik Kreuztabellen Diskrete Verteilungen Inferenzstatistik Diskrete Wk-Verteilungen Transformation der Zufallsvariablen Kennwerte Grafiken Folie 16 Frage: Wie berechnet sich der Erwartungswert für eine binomialverteilte, aber nicht 0/1-kodierte Zufallsvariable? Beispiel: Die Wahrscheinlichkeit, ohne Mammografie an Brustkrebs zu erkanken, betrage p=0.1. Eine Brustkrebspatientin verursacht Krankheitskosten von etwa 28.500€. Die regelmäßige Brustkrebsvorsorge durch Mammografie kostet 9.000€, senkt aber das Brustkrebsrisiko auf p=0.05. Eine Krankenversicherung beauftragt einen Gesundheitspsychologen zu berechnen, ob sie billiger wegkommt, wenn sie ihren weiblichen Mitglieder kostenlose Mammografien verordnet. Methodenlehre & Statistik Kreuztabellen Diskrete Verteilungen Inferenzstatistik Diskrete Wk-Verteilungen Transformation der Zufallsvariablen Kennwerte Grafiken Man hat hier zwei Zufallsvariablen mit eigentlich folgenden Eigenschaften: X = {0, 1} Y = {0, 1} p(X) = {0.9, 0.1} p(Y) = {0.95, 0.05} mit 0 = kein Brustkrebs, 1 = Brustkrebs. Man geht nun davon aus, dass die neue Zufallsvariable „Kosten“ nur eine mathematische Transformation der Zufallsvariable „Häufigkeit“ ist. Die neue Zufallsvariable erbt wieder die Wahrscheinlichkeitsverteilung der alten Zufallsvariablen. Folie 17 Methodenlehre & Statistik Kreuztabellen Diskrete Verteilungen Inferenzstatistik Diskrete Wk-Verteilungen Transformation der Zufallsvariablen Kennwerte Grafiken Es gilt also für die neue Zufallsvariable „Kosten“: X‘ = {0, 28.500} Y‘ = {9.000, 37.500} p(X‘) = {0.9, 0.1} p(Y‘) = {0.95, 0.05} Daraus lässt sich nun wie üblich der Erwartungswert bestimmen als p‘ix‘i. Und die Varianz ist dementsprechend Man kann nun mathematische Beziehungen für die Veränderung von Erwartungswert und Varianz bei der Transformation von Zufallsvariablen herleiten Folie 18 Methodenlehre & Statistik Kreuztabellen Diskrete Verteilungen Inferenzstatistik Diskrete Wk-Verteilungen Transformation der Zufallsvariablen Kennwerte Grafiken Voraussetzung: Die Wahrscheinlichkeitsverteilung einer Zufallsvariablen X mit beliebig vielen Ausprägungen sei bekannt. x1 x 2 X xk p1 p 2 p( X ) pk k X pi xi i 1 k pi xi X 2 X 2 i 1 Oder x und ² sind direkt berechenbar (z.B. bei der Binomialverteilung mit 0/1) Folie 19 Methodenlehre & Statistik Kreuztabellen Diskrete Verteilungen Inferenzstatistik Diskrete Wk-Verteilungen Einfache Rechenregeln für Kennwerte Kennwerte Grafiken Für eine poisssonverteilte Zufallsvariable X mit der Wahrscheinlichkeitsverteilung f(, n) gilt 1. = Erwartungswert 2. ² = · (1-/n) Varianz 3. = Standardabw. für große n (siehe 2.) Nur für X()={0,1} Folie 20 Methodenlehre & Statistik Kreuztabellen Diskrete Verteilungen Inferenzstatistik Diskrete Wk-Verteilungen Transformation der Zufallsvariablen Kennwerte Grafiken Variante 1: Die neue Zufallsvariable X‘ ist eine einfache mathematische Transformation (Multiplikation und Addition) der alten Zufallsvariablen X. X ' a X b Dann gilt Folie 21 X ' a X b X2 ' a 2 X2 Der Erwartungswert verändert sich also genau so wie die Zufallsvariable, die Varianz wächst mit dem Quadrat des Multiplikators. Methodenlehre & Statistik Kreuztabellen Diskrete Verteilungen Inferenzstatistik Diskrete Wk-Verteilungen Transformation der Zufallsvariablen Kennwerte Grafiken Variante 2: Die neue Zufallsvariable X‘ ist eine beliebige Transformation der alten Zufallsvariablen X. x '1 x ' 2 X ' x 'k p1 p 2 p ( X ') pk k Dann muss neu gerechnet werden: X ' pi x 'i i 1 k X2 ' pi x 'i X ' i 1 Folie 22 2 Methodenlehre & Statistik Kreuztabellen Diskrete Verteilungen Inferenzstatistik Diskrete Wk-Verteilungen Grafische Beschreibung: Kreisdiagramm Kennwerte Grafiken Das Kreis- oder Tortendiagramm stellt die Wahrscheinlichkeiten von Ausprägungen einer Zufallsvariablen als Kreissegmente eines Vollkreises („Tortenstücke“) dar. Der Öffnungswinkel α eines Segmentes ist dabei durch die Wahrscheinlichkeit der Ausprägung p(xi) definiert 360 p( xi ) Die Summe der Öffnungswinkel aller Kreissegmente sollte wieder 360° ergeben Folie 23 Methodenlehre & Statistik Kreuztabellen Diskrete Verteilungen Inferenzstatistik Diskrete Wk-Verteilungen Grafische Beschreibung: Kreisdiagramm Kennwerte Grafiken Folie 24 Beispiel: Die Wahrscheinlichkeit, in einem Experiment zur visuellen Wahrnehmung einen epileptischen Anfall zu bekommen, betrage p=0.0017. An einem konkreten Experiment sollen n=200 Personen teilnehmen. Methodenlehre & Statistik Kreuztabellen Diskrete Verteilungen Inferenzstatistik Diskrete Wk-Verteilungen Grafische Beschreibung: Säulendiagramm Kennwerte Grafiken Das Säulen- oder Balkendiagramm stellt die Wahrscheinlichkeiten von Ausprägungen einer Zufallsvariablen als Balken (waagerecht) oder Säulen (senkrecht) dar. Der Länge der Säulen bzw. Balken ist dabei durch die Wahrscheinlichkeit p(xi) bestimmt. Die Breite der Säulen bzw. Balken variiert i.d.R. nicht innerhalb eines Diagramms Zur Darstellung den Wahrscheinlichkeitsverteilung bzw. Verteilungsfunktion wird zwischen den Säulen bzw. Balken zumeist kein Raum gelassen Folie 25 Methodenlehre & Statistik Kreuztabellen Diskrete Verteilungen Inferenzstatistik Diskrete Wk-Verteilungen Grafische Beschreibung: Säulendiagramm Kennwerte Grafiken Beispiel: Das Neuroleptikum Tavor führt bei längerer Einnahme mit einer Wahrscheinlichkeit von p=0.73 zu Abhängigkeit. In einer Langzeittherapiestudie soll das Medikament an n=10 Personen eingesetzt werden. Verteilungsfunktion F(x, 10, 0.73) Punktwahrscheinlichkeit p(x) Intervallwahrscheinlichkeit P(x) Wahrscheinlichkeitsverteilung f(x, 10, 0.73) Anzahl Abhängigkeitsfälle x Folie 26 Anzahl Abhängigkeitsfälle x Methodenlehre & Statistik Diskrete Verteilungen Inferenzstatistik Diskrete Wk-Verteilungen Kreuztabellen Grafische Beschreibung: Säulendiagramm Kennwerte Wahrscheinlichkeitsverteilung f(x, 10, 0.73) Wahrscheinlichkeitsverteilung f(x, 10, 0.73) Punktwahrscheinlichkeit p(x) Punktwahrscheinlichkeit p(x) Grafiken Warum gleiche Säulenbreiten? Anzahl Abhängigkeitsfälle x Anzahl Abhängigkeitsfälle x Menschen neigen zur Größenbewertung anhand der Fläche. Folie 27 Methodenlehre & Statistik Einführung Diskrete Verteilungen Inferenzstatistik Inferenzstatistik – Primer Beispiel Testarten Gustav Fechner, Urvater der Experimentellen Psychologie, entwickelte zentrale Methoden der modernen Psychophysik mit genau einem Ziel: den Beweis zu führen, dass Pflanzen eine Seele haben. Er perfektionierte eine Methode der Mikrostimulation, auf die hin er eine biologische Reaktion und bei Pflanzen nachweisen wollte. Eine solche Reaktion wäre der Beleg, dass Pflanzen fühlen können. Damit wäre es zum Denken und schließlich zur Seele nicht mehr weit. Fechner führte insgesamt n=24576 Messungen von ReizReaktionsmusters bei Pflanzen durch. Folie 28 Angenommen, Pflanzen zeigen die gewünschte Reaktion auch ohne Stimulation (d.h. zufällig) mit einer Wahrscheinlichkeit von p=.25. Fechner möge eine Reaktion in x=6306 Fällen finden. Haben Pflanzen eineauf Seele? Reagieren Pflanzen die Stimulation? Methodenlehre & Statistik Einführung Diskrete Verteilungen Inferenzstatistik Inferenzstatistik – Primer Das Prinzip des statistischen Testens Testarten Das Ziel Fechners war die Beantwortung der Frage, ob Pflanzen auf die Stimulation oder nur zufällig reagieren Die Beantwortung sollte sich nach Möglichkeit auf die Population aller Pflanzen beziehen, nicht nur auf die Stichprobe der Pflanzen in Fechners Labor Es sind also Methoden erforderlich, welche die Verallgemeinerung von Beobachtungen in einer Stichprobe auf die zugrunde liegende Population erlauben Diese Methoden stellt die Inferenzstatistik („schließende Statistik“) zur Verfügung Folie 29 Population ? Daten (beobachtet) Methodenlehre & Statistik Einführung Diskrete Verteilungen Inferenzstatistik Inferenzstatistik – Primer Das Prinzip des statistischen Testens Testarten Es existieren eine Vielzahl inferenzstatistischer Tests für nahezu beliebige Arten von Hypothesen, z.B. Gehört ein Messwert (und damit sein Merkmalsträger) zu einer bestimmten Population? Sind Häufigkeiten verschieden? Sind die Mittelwerte von Messwerten zwischen Gruppen unterschiedlich? Sind die Varianzen von Messwerten zwischen Gruppen unterschiedlich? Hängt die Ausprägung eines Merkmals mit einer bestimmten Intervention zusammen? Folie 30 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Inhalte dieser Sitzung Stetige Verteilungen Kennwerte und Darstellungen z-Standardisierung und ihre Folgen z-Test Folie 2 Statistik & Methodenlehre Definition Stetige Verteilungen Inferenzstatistik Stetige Zufallsvariablen Definition Kennwerte & Darstellung Normalverteilung z-Werte Folie 3 Eine Zufallsvariable, die jeden Wert in einem Intervall annehmen kann, ist eine stetige Zufallsvariable Statistik & Methodenlehre Definition Stetige Verteilungen Inferenzstatistik Stetige Zufallsvariablen Definition Kennwerte & Darstellung Normalverteilung z-Werte Die Wahrscheinlichkeitsverteilung f(x) einer stetigen Zufallsvariable X wird zumeist als mathematische Funktion definiert. Sie wird bei stetigen Zufallsvariablen auch als Dichtefunktion bezeichnet. Die Verteilungsfunktion einer stetigen Zufallsvariablen ist dann k P( x) p X xi i 1 Diskret Folie 4 F ( x) xk f x dx x Stetig Die Verteilungsfunktion gibt wieder an, wie wahrscheinlich X einen Wert kleiner oder gleich x annimmt. Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Stetige Zufallsvariablen Definition Definition Kennwerte & Darstellung Normalverteilung Eine Funktion f(x) ist gemäß der Kolmogoroff Axiome genau dann eine Dichtefunktion, wenn gilt f ( x) 0 F ( x) und f ( x) dx 1 Dabei reicht der Wertebereich von f(x) nicht für jede stetige Verteilung von - bis + (z.B. Reaktionszeit). Standardnormalverteilung Standardnormalverteilung 0.45 0.4 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 F(z,,) f(z,,) z-Werte ‐3 Folie 5 ‐2 ‐1 0 z‐Wert 1 2 3 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 ‐3 ‐2 ‐1 0 z‐Wert 1 2 3 Statistik & Methodenlehre Definition Stetige Verteilungen Inferenzstatistik Stetige Zufallsvariablen Definition Kennwerte & Darstellung Normalverteilung z-Werte Für eine stetige Zufallsvariable ist die Punktwahrscheinlichkeit f(X = x) nicht definiert (bzw. immer 0). Die Dichtefunktion f(x) liefert also nicht unmittelbar die Wahrscheinlichkeiten für Ereignisse, die Wahrscheinlichkeiten ergeben sich aus der Fläche unter der Dichtefunktion Es sind nur Wahrscheinlichkeiten für Intervalle von Realisationen zu bestimmen, also F(xi X xj). Diese werden dann berechnet als xj F ( xi X x j ) f ( x) dx F ( x j ) F ( xi ) xi Folie 6 Statistik & Methodenlehre Definition Stetige Verteilungen Inferenzstatistik Stetige Zufallsvariablen Kennwerte Kennwerte & Darstellung Der Erwartungswert einer stetigen Zufallsvariablen ist ähnlich definiert wie im diskreten Fall Normalverteilung z-Werte f x x dx x Auch Varianz und Standardabweichung werden analog berechnet 2 x x Folie 7 x f x x dx 2 2 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Stetige Zufallsvariablen Definition Darstellung Die Darstellung der Dichtefunktion und Verteilungsfunktion einer stetigen Zufallsvariablen findet zumeist über kontinuierliche Graphen statt. Normalverteilung f(z,,) z-Werte Standardnormalverteilung 0.45 0.4 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 ‐3 ‐2 ‐1 0 z‐Wert Folie 8 Standardnormalverteilung F(z,,) Kennwerte & Darstellung 1 2 3 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 ‐3 ‐2 ‐1 0 z‐Wert 1 2 3 Statistik & Methodenlehre Definition Stetige Verteilungen Inferenzstatistik Normalverteilung Definition Kennwerte & Darstellung Normalverteilung z-Werte Im psychologischen Kontext ist die Normalverteilung die wohl prominenteste Wahrscheinlichkeitsverteilung. Sie ist theoretischer Natur, da sie (anders als z.B. die Binomialverteilung) nicht direkt aus dem Bedingungskomplex abgeleitet werden kann. Die Normalverteilung ist durch zwei Parameter, und definiert. 1 f ( x, , ) e 2 1 x 2 2 Ist eine Zufallsvariable X normalverteilt, wird dies häufig geschrieben als X N(, ) Folie 9 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Normalverteilung Kennwerte Der Parameter ist direkt der Erwartungswert der Normalverteilung ²ist direkt die Varianz der Normalverteilung Folie 10 Statistik & Methodenlehre Definition Stetige Verteilungen Inferenzstatistik Normalverteilung Warum die Normalverteilung - Zentraler Grenzwertsatz Kennwerte & Darstellung Der Zentrale Grenzwertsatz (Central Limit Theorem): Die Summe einer großen Zahl unabhängiger, identisch verteilter Zufallsvariablen ist approximativ normalverteilt. Normalverteilung z-Werte Folie 11 Dies veranlasste Sir Francis Galton (1889) zu der enthusiasmierten Lobpreisung „Ich kenne kaum etwas, das unsere Imaginationskraft so bewegen kann wie die wundervolle Form kosmischer Ordnung, die sich im ‚Gesetz der Verteilung von Fehlern‘ ausdrückt. Hätten die Griechen es gekannt, sie hätten es personifiziert und als Gottheit angebetet. Es herrscht mit bescheidener Gelassenheit in der wildesten Konfusion. Je gewaltiger die Horde, je ärger die augenscheinliche Anarchie, um so souveräner ist seine Herrschaft. Wann immer eine Menge chaotischer Elemente nach ihrer Größe angeordnet wird, tritt es hinter dem Schleier des Chaos als unverhoffte und wunderschöne Form der Regelmäßigkeit hervor.“ Statistik & Methodenlehre Definition Stetige Verteilungen Inferenzstatistik Normalverteilung Warum die Normalverteilung Kennwerte & Darstellung 1. Sie ergibt sich, wenn viele Zufallsprozesse bei der Realisierung einer Zufallsvariablen additiv zusammenwirken. Normalverteilung 2. Sie ist die Verteilung des Mittelwerts aller Realisierungen bei sehr häufiger Wiederholung eines Zufallsexperimentes („Zentraler Grenzwertsatz“). z-Werte 3. Sie ist die Verteilung von Zufallsvariablen, wenn diese eine messfehlerbehaftete Erfassung eines Merkmals darstellen. 4. Sie ist mathematisch relativ leicht zu behandeln. Folie 12 Statistik & Methodenlehre Definition Stetige Verteilungen Inferenzstatistik Normalverteilung Eigenschaften Kennwerte & Darstellung Normalverteilung Ist symmetrisch, eingipflig und glockenförmig Verschiedene Normalverteilungen unterscheiden sich bezüglich Erwartungswert (µ) und/oder Standardabweichung () Der Wertebereich reicht von – bis + Die Kurve berührt oder schneidet nie die x-Achse z-Werte Jedes Intervall mit einer Länge größer Null hat eine Wahrscheinlichkeit größer Null Die Verteilungsfunktion der Normalverteilung wird auch als (x) (Phi) geschrieben. Folie 13 Statistik & Methodenlehre Definition Stetige Verteilungen Inferenzstatistik Exkurs: z-Standardisierung Grundlagen Kennwerte & Darstellung Normalverteilung z-Werte Ziel: Angabe der relativen Lage von Werten in einer Verteilung. 1. Angabe einer normierten Differenz eines Messwertes zum Erwartungswert 2. Umwandlung einer Skala in eine andere mit vorgegebenem und . Berechnungsvorschrift: Jede Differenz eines Messwertes wird durch die Standardabweichung aller Messwerte geteilt. Die erhaltenen Werte werden als z-Werte bezeichnet. z Folie 14 x x Statistik & Methodenlehre Definition Stetige Verteilungen Inferenzstatistik Exkurs: z-Standardisierung Skalentransformation Kennwerte & Darstellung Normalverteilung Mithilfe der z-Transformation können Messdaten mit beliebigem Mittelwert und Standardabweichung in Daten transformiert werden, die einen definierten Mittelwert und Standardabweichung aufweisen. Schritt 1: z-Standardisierung jedes Datenpunktes Schritt 2: Transformation jedes Datenpunktes in die neue Skala z-Werte xneu z sneu xneu Beispiele: Hamburg-Wechsler IQ-Test (MW=100, s=15), IQ-Skala laut IST (MW=100, s=10), StanineSkala (MW=5, s=2), Folie 15 Statistik & Methodenlehre Definition Stetige Verteilungen Inferenzstatistik Exkurs: z-Standardisierung Standardnormalverteilung Kennwerte & Darstellung z-transformiert man eine normalverteilte Zufallsvariable erhält man die Standardnormalverteilung. Für die Standardnormalverteilung gilt: = 0, = 1 Normalverteilung z-Werte Die Formel der Normalverteilung reduziert sich damit auf 1 1 z2 f ( z) e 2 2 Der Werte der Dichte- und Verteilungsfunktion hängen also nur von z ab Folie 16 Statistik & Methodenlehre Definition Stetige Verteilungen Standardnormalverteilung Wichtige Punkte Kennwerte & Darstellung Normalverteilung z-Werte Folie 17 Inferenzstatistik Statistik & Methodenlehre Definition Stetige Verteilungen Inferenzstatistik Standardnormalverteilung Wichtige Punkte – die 68-95-99 Regel Kennwerte & Darstellung Normalverteilung z-Werte Folie 18 Statistik & Methodenlehre Definition Stetige Verteilungen Standardnormalverteilung Verteilungsfunktion Kennwerte & Darstellung Normalverteilung z-Werte Folie 19 Inferenzstatistik Statistik & Methodenlehre Relevante Excel Funktionen Normalverteilung, z-Transformation • NORM.VERT(), NORM.S.VERT() • NORM.INV(), NORM.S.INV() • STANDARDISIERUNG() Folie 20 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Inhalte dieser Sitzung Kann das wahr sein? Die statistische Formalisierung des Hypothesentestens Inferenzstatistik für Anfänger: der einfache z-Test Folie 2 Statistik & Methodenlehre Beispiel Stetige Verteilungen Inferenzstatistik z-Test Beispiel Hypothesen & Bestätigung z-Test Konfidenzintervalle Ein Gesundheitspsychologe beschäftigt sich mit dem BurnoutSyndrom. Er möchte das Maslach Burnout Inventory (Maslach & Jackson, 1981) verwenden, um Personen zu identifizieren, die an Burnout leiden. Der Psychologe hat herausgefunden, dass Normalpersonen im MBI einen Erwartungswert von 11.4 Punkten erzielen. Die Varianz beträgt 5.76. Zudem nimmt der Psychologe auf Basis theoretischer Erwägungen an, dass der MBI Punktwert normalverteilt ist. Ein Patient hat einen MBI Punktwert von 16.3. Stammt er aus der Verteilung der Normalpersonen? Welchen Wert müsste ein Patient erreichen, damit er unter der gegebenen Verteilungsannahme statistisch signifikant wird? Folie 3 Statistik & Methodenlehre Beispiel Stetige Verteilungen Inferenzstatistik z-Test Einführung Hypothesen & Bestätigung Ziel: Prüfung, ob eine Beobachtung x aus einer Population stammen kann, deren Wahrscheinlichkeitsverteilung eine Normalverteilung mit gegebenen und ist. z-Test Als „Beobachtung“ ist hier die Messung der Realisation einer gegebenen Zufallsvariablen zu verstehen Konfidenzintervalle Folie 4 Weitere Beispiele: Ist ein Schüler zu intelligent, um der Population normal intelligenter Kinder ( =100, =10) anzugehören? Sind die Leistungen eines Bewerbers im AC zu schlecht, um ihn der Population normal geeigneter Bewerber zuzuordnen? Statistik & Methodenlehre Diskrete Verteilungen Inferenzstatistik Forschungsprozeß Theorien/Empirie Fragestellung/Problem Vermutung über Zusammenhang von Größen Formulierung inhaltlicher Hypothesen Identifikation der AV und UV Operationalisierung der AV und UV: Festlegen von Gößen auf die Art, in der sie gemessen werden können & des Messinstrumentes Datenauswertung: Beschreibung der Daten, Statistischer Schluss von der Stichprobe auf die Population Formulierung der statistischen Hypothesen Rückschluss auf die zu erfassenden Konstrukte Wahl der Stichprobe (Ort, Zeit, Umfang etc.) Konfrontation der Ergebnisse mit den inhaltlichen Hypothesen Messung der AV und UV Beantwortung der Fragestellung Folie 5 Statistik & Methodenlehre Beispiel Diskrete Verteilungen Inferenzstatistik Inferenzstatistik – Primer Inhaltliche Hypothesen Hypothesen & Bestätigung z-Test Die inhaltliche Hypothese im Beispiel könnte lauten: Wenn eine Person einen MBI-Wert von 16.3 hat, gehört sie zu den Gesunden. Zu jeder wissenschaftlichen Hypothese existiert eine Komplementärhypothese, in diesem Fall Konfidenzintervalle Wenn eine Person einen MBI-Wert von 16.3 hat, gehört sie nicht mehr zu den Gesunden. Das Ziel der inferenzstatistischen Analyse ist eine Entscheidung für eine der beiden Hypothesen und das Verwerfen der anderen Folie 6 Statistik & Methodenlehre Beispiel Diskrete Verteilungen Inferenzstatistik Inferenzstatistik – Primer Inhaltliche Hypothesen Hypothesen & Bestätigung Zumeist ist es so, dass eine der beiden komplementären Hypothesen den vom Wissenschaftler erwünschten Zustand beschreibt, die andere den unerwünschten. z-Test Da es in der Wissenschaft darum geht, neue Erkenntnisse über Wirkungen und Zusammenhänge zu gewinnen, lässt sich die Frage nach erwünscht/unerwünscht neu fassen: Konfidenzintervalle Nullhypothese: Das Resultat des Experimentes ist der bekannte/übliche/unveränderte Zustand H0 Alternativhypothese: H1 Das Resultat des Experimentes ist ein neuer/veränderter Zustand Diese inhaltliche Definition muss nun in statistische Hypothesen überführt werden Folie 7 Statistik & Methodenlehre Beispiel Diskrete Verteilungen Inferenzstatistik Inferenzstatistik – Primer Inhaltliche Hypothesen Hypothesen & Bestätigung Wenn die Nullhypothese eine bekannte, übliche Realisation einer Zufallsvariablen beschreibt, dürfte ebenfalls bekannt sein, welche Wahrscheinlichkeitsverteilung die Zufallsvariable im üblichen, bekannten Fall haben sollte. z-Test Tatsächlich ist die Nullhypothese statistischen gesehen nicht mehr als die Annahme einer bestimmten Wahrscheinlichkeitsverteilung für die Beobachtung Konfidenzintervalle Diese Annahme hat zwei Komponenten: 1. Die Vermutung, welche Form die Wahrscheinlichkeitsverteilung im Fall der Nullhypothese haben sollte (z.B. Normal) 2. Die Annahme, welche Parameter diese Wahrscheinlichkeitsverteilung hat (z.B. μ und σ) Folie 8 Statistik & Methodenlehre Beispiel Diskrete Verteilungen Inferenzstatistik Inferenzstatistik – Primer Statistische Hypothesen Hypothesen & Bestätigung Die Festlegung der Wahrscheinlichkeitsverteilung der beobachteten Zufallsvariablen und ihrer Parameter wird als Verteilungsannahme bezeichnet z-Test Ein statistischer Test zur Entscheidung für die H0/H1 kann immer nur entweder die Form der Wahrscheinlichkeitsverteilung oder einen der Parameter prüfen Konfidenzintervalle Die anderen werden a-priori als korrekt hingenommen Grundsätzlich gibt es nun 2 statistische Hypothesen: Nullhypothese: Die angenommene Form/Parameter sind zutreffend („wahr“) H0 Alternativhypothese: H1 Folie 9 Die angenommene Form/Parameter sind nicht zutreffend Statistik & Methodenlehre Beispiel Diskrete Verteilungen Inferenzstatistik Inferenzstatistik – Primer Statistische Hypothesen Hypothesen & Bestätigung Um nun zu überprüfen, ob die angenommenen Parameter zutreffend sein können, steht nun nur die konkrete Beobachtung im Experiment zur Verfügung Es wird einfach berechnet, wie wahrscheinlich die Beobachtung wäre, wenn die unter der H0 angenommene Wahrscheinlichkeitsverteilung auf die beobachtete Zufallsvariablen zuträfe z-Test Konfidenzintervalle Dann gilt die einfache Entscheidungsregel Ist die Beobachtung eher wahrscheinlich, lehne man die H1 ab und bleibe bei der H0 Ist die Beobachtung zu unwahrscheinlich, verwerfe man die H0 und nehme die H1 an Folie 10 Statistik & Methodenlehre Beispiel Diskrete Verteilungen Inferenzstatistik Inferenzstatistik – Primer Statistische Hypothesen Hypothesen & Bestätigung Schema: Der Weg von nur einer konkreten Beobachtung zur Entscheidung über Annahme oder Ablehnung der Verteilungsannahme: Hypothesen: H0: μ ist 11.4 H1: μ ist ein anderer Wert z-Test Konfidenzintervalle Folie 11 Beobachtung: x = 16.3 (gegeben Normalverteilung mit σ=2.4) Entscheidung: Ist die Wahrscheinlichkeit zu klein, kann das μ nicht zutreffen Berechnung: Wahrscheinlichkeit für Beobachtung x H0 verwerfen, H1 annehmen gegeben dass X ~ NV(μ, σ) Statistik & Methodenlehre Beispiel Diskrete Verteilungen Inferenzstatistik Inferenzstatistik – Primer Das Prinzip des statistischen Testens Hypothesen & Bestätigung Problem: Aufgrund der zufälligen Ziehung wird das beobachtete x immer schwanken (Stichprobenfehler) Frage: Wie extrem muss das beobachtete x sein, damit wir begründet annehmen können, dass diese Beobachtung nicht passt „Wie wahrscheinlich ist zu unwahrscheinlich?“ z-Test Konfidenzintervalle Hier haben sich in der Praxis zwei Cut-Off Werte eingebürgert, die als α–Niveaus oder Signifikanzniveaus bezeichnet werden. Es gilt: Folie 12 p 0.05 statistisch nicht signifikant p 0.05 p 0.01 statistisch signifikant statistisch hochsignifikant Statistik & Methodenlehre Beispiel Diskrete Verteilungen Inferenzstatistik Inferenzstatistik – Primer Das Prinzip des statistischen Testens Hypothesen & Bestätigung Problem: Aufgrund der zufälligen Ziehung wird das beobachtete x schwanken (Stichprobenfehler) z-Test Frage: Wie extrem muss das beobachtete x sein, damit wir begründet annehmen können, dass diese Beobachtung nicht passt Schreibe: „Wie wahrscheinlich ist zu auf „Es wird getestet unwahrscheinlich?“ einem Signifikanzniveau von …“ Konfidenzintervalle α = .05 oder Hier haben sich in der Praxis zwei Cut-Off Werte α = .01 eingebürgert, die als α–Niveaus oder Signifikanzniveaus bezeichnet werden. Es gilt: Folie 13 p 0.05 statistisch nicht signifikant p 0.05 p 0.01 statistisch signifikant statistisch hochsignifikant Statistik & Methodenlehre Beispiel Diskrete Verteilungen Inferenzstatistik Inferenzstatistik – Primer Das Prinzip des statistischen Testens Hypothesen & Bestätigung Die Aussage, ein x sei statistisch signifikant, ist eine Wahrscheinlichkeitsaussage bei der immer ein Restirrtum verbleibt, die Irrtumswahrscheinlichkeit. Diese Irrtumswahrscheinlichkeit hängt nicht von der konkret erhaltenen Wahrscheinlichkeit p ab, sondern vom gewählten Signifikanzniveau α. z-Test Konfidenzintervalle Bei α=0.05 beträgt die Irrtumswahrscheinlichkeit also 5%, bei α=0.01 ist sie 1%. In der Praxis wird das α-Niveau deshalb oft auch als Irrtumswahrscheinlichkeit oder α-Fehler bezeichnet. Folie 14 Statistik & Methodenlehre Beispiel Diskrete Verteilungen Inferenzstatistik Inferenzstatistik – Primer Das Prinzip des statistischen Testens Hypothesen & Bestätigung Bei der Entscheidung für die H0 oder H1 können je zwei Arten richtiger/falscher Entscheidungen getroffen werden In der Population gilt z-Test Konfidenzintervalle H0 H0 H1 Correct Rejection Miss Entscheidung für H1 Folie 15 False Alarm (-Fehler, Fehler 1. Art) (-Fehler, Fehler 2. Art) Hit Statistik & Methodenlehre Beispiel Diskrete Verteilungen Inferenzstatistik Inferenzstatistik – Primer Statistische Hypothesen und ihre Interpretation Hypothesen & Bestätigung Die Hypothesenrichtung muss vor dem Experiment festgelegt werden z-Test Ebenso muss das Signifikanzniveau vor dem Experiment festgelegt werden Konfidenzintervalle Finden diese Festlegungen erst nach Ansehen der Daten statt, wird Forschungsergebnis an die Daten angepasst Data Snooping Folie 16 Statistik & Methodenlehre Beispiel Stetige Verteilungen Inferenzstatistik Inferenzstatistik Zusammenfassung Hypothesen & Bestätigung z-Test Soll die Größe eine gemessenen Wertes bewertet werden, sind zunächst die Wahrscheinlichkeitsverteilung und ihre Parameter zu bestimmen, aus der dieser Wert „normalerweise“ stammen sollte Die Annahme der Form oder eines der Parameter ist die Nullhypothese H0 Konfidenzintervalle Die Nullhypothese bezeichnet im Allgemeinen den Zustand, den der Forscher nicht beobachten möchte Beispiele: Pflanzen sollten auf Fechners Stimulation nicht zufällig antworten; ein auf Hochbegabung zu testendes Kind sollte nicht aus der Normalpopulation stammen; nach einer Exposition sollten die Patienten nicht genau so höhenängstlich sein wie vorher Folie 17 Statistik & Methodenlehre Beispiel Stetige Verteilungen Inferenzstatistik Inferenzstatistik Zusammenfassung Hypothesen & Bestätigung Dann wird theoriegeleitet festgelegt, in welche Richtung der zu messende Wert x von der H0 (also dem angenommen Wert x0 für den Parameter) abweichen sollte. Diese Hypothesenrichtung definiert die Formulierung der Alternativhypothese H1 z-Test Die H0 ist somit einfach das Gegenteil der H1 Konfidenzintervalle Folie 18 Dabei gibt es prinzipiell nur drei Möglichkeiten: H 0 : x x0 H1 : x x0 H 0 : x x0 H 0 : x0i x x0 j H1 : x x0 H1 : x x0i , x x0 j Statistik & Methodenlehre Beispiel Stetige Verteilungen Inferenzstatistik Inferenzstatistik Zusammenfassung Hypothesen & Bestätigung Dann wird theoriegeleitet festgelegt, in welche Richtung der zu messende Wert x von der H0 (also dem angenommen Wert x0 für den Parameter) abweichen sollte. Diese Hypothesenrichtung definiert die Formulierung der Alternativhypothese H1 Lies: „Der gemessene Wert x ist größer als sein angenommener Wert xder Die H0 ist somit einfach das Gegenteil 0“ H1 z-Test Konfidenzintervalle Folie 19 Dabei gibt es prinzipiell nur drei Möglichkeiten: H 0 : x x0 H1 : x x0 H 0 : x x0 H 0 : x0i x x0 j H1 : x x0 H1 : x x0i , x x0 j Statistik & Methodenlehre Beispiel Stetige Verteilungen Inferenzstatistik Inferenzstatistik Zusammenfassung Hypothesen & Bestätigung z-Test Konfidenzintervalle Folie 20 Dann wird theoriegeleitet festgelegt, in welche Richtung der zu messende Wert x von der H0 (also dem angenommen Wert x0 für den Parameter) abweichen sollte. Diese Hypothesenrichtung definiert die Formulierung der Alternativhypothese H1 Lies: „Der gemessene Wert x ist kleiner als Die H0 ist somit einfach das Gegenteil der H1 sein angenommener Wert x0“ Dabei gibt es prinzipiell nur drei Möglichkeiten: H 0 : x x0 H1 : x x0 H 0 : x x0 H 0 : x0i x x0 j H1 : x x0 H1 : x x0i , x x0 j Statistik & Methodenlehre Beispiel Stetige Verteilungen Inferenzstatistik Inferenzstatistik Zusammenfassung Hypothesen & Bestätigung Dann wird theoriegeleitet festgelegt, in welche Richtung der zu messende Wert x von der H0 (also dem angenommen Wert x0 für den Parameter) abweichen sollte. Diese Hypothesenrichtung definiert die Formulierung der Alternativhypothese H1 z-Test Konfidenzintervalle Folie 21 Lies: einfach „Der gemessene Wert der x liegt Die H0 ist somit das Gegenteil H1 außerhalb des Bereiches von x0i bis x0j“ Dabei gibt es prinzipiell nur drei Möglichkeiten: H 0 : x x0 H1 : x x0 H 0 : x x0 H 0 : x0i x x0 j H1 : x x0 H1 : x x0i , x x0 j Statistik & Methodenlehre Beispiel Stetige Verteilungen Inferenzstatistik Inferenzstatistik Zusammenfassung Hypothesen & Bestätigung Neben den Hypothesen wird das Signifikanzniveau definiert, auf dem die berechnete Wahrscheinlichkeit bewertet werden soll z-Test Schließlich werden diese Wahrscheinlichkeit p(x | H0) bestimmt und die Signifikanzaussage getroffen Konfidenzintervalle Die Signifikanzaussage ist prinzipiell nichts anderes als die Entscheidung für die H0 oder H1. Die Logik dabei lautet: Wenn die H0 nicht gilt, dann muss die H1 gelten Aber: Bei dieser Entscheidung irrt man sich mit einer Irrtumswahrscheinlichkeit von 100%. Folie 22 Statistik & Methodenlehre Beispiel Stetige Verteilungen Inferenzstatistik z-Test Einführung Hypothesen & Bestätigung Am Beispiel: Im Experiment mit einer angenommenen Normalverteilung f(x, =11.4, =2.4) beobachte man ein x=16.4. Es muss zunächst geklärt werden, welche der drei Hypothesenkomponenten Gegenstand der Testung sein soll: a) Normalverteilung, b) =11.4 oder c) =2.4. z-Test Konfidenzintervalle Im Beispiel ist die Normalverteilung a-priori gesetzt. Per Konvention wird die Lage einer Beobachtung über den Erwartungswert geprüft, nicht über die Streuung. Es ist also zu testen, ob =11.4 beibehalten werden kann (H0) oder die H1 („ein anderes “) gewählt werden muss. Folie 23 Zur Prüfung dieses Parameters dient der z-Test Statistik & Methodenlehre Beispiel Stetige Verteilungen Inferenzstatistik z-Test Einführung Hypothesen & Bestätigung Der z-Test folgt exakt der bereits kennen gelernten Logik des Hypothesentestens, allerdings mit einem weiteren Zwischenschritt 1. Verteilungsannahme treffen: Normalverteilt mit den gegebenen und z-Test Konfidenzintervalle 2. Hypothesenrichtung festlegen und statistische Hypothesen formulieren 3. Signifikanzniveau festlegen 4. Prüfgröße z bestimmen (diese ist eine Realisation der neuen Zufallsvariablen Z) 5. Wahrscheinlichkeit für die berechnete Prüfgröße bestimmen und mit dem Signifkanzniveau vergleichen Folie 24 Statistik & Methodenlehre Beispiel Stetige Verteilungen Inferenzstatistik z-Test Das Konzept der Prüfgröße Hypothesen & Bestätigung Beim z-Test wird nicht die Wahrscheinlichkeit für die beobachtete Realisation x selbst, sondern für eine so genannte Prüfgröße bestimmt Eine Prüfgröße ist ein Zahlenwert, der durch mathematische Umformungen aus dem beobachteten x berechnet wird (anders als z.B. beim Binomialtest) z-Test Konfidenzintervalle Prüfgrößen sind also nichts anderes als neue Zufallsvariablen, die durch Transformation der alten entstehen Prüfgrößen kommen immer dann zum Einsatz, wenn die Wahrscheinlichkeitsfunktion der Zufallsvariablen X, aus der die Beobachtung x stammt, nicht oder nicht einfach bestimmt werden kann – diejenige der Prüfgröße aber sehr wohl Folie 25 Statistik & Methodenlehre Beispiel Stetige Verteilungen Inferenzstatistik z-Test Das Konzept der Prüfgröße Hypothesen & Bestätigung Beim z-Test lautet die Prüfgröße z z-Test Konfidenzintervalle x Aus der Zufallsvariablen X wird über eine mathematische Transformation eine neue Zufallsvariable Z erzeugt Deren Wahrscheinlichkeitsverteilung ist bekannt, nämlich die Standardnormalverteilung Damit kann auch jede Intervallwahrscheinlichkeit bei der Hypothesenprüfung, z.B. p(Z≤z), bestimmt werden Folie 26 Statistik & Methodenlehre Beispiel Stetige Verteilungen Inferenzstatistik z-Test Hypothesen Hypothesen & Bestätigung Beim z-Test sind weitaus häufiger als z.B. beim Binomialtest alle drei möglichen Hypothesenrichtungen von Interesse. z-Test Konfidenzintervalle H 0 : 0 Verwerfen der Verteilungsannahme H1 : 0 bei einem zu großen Wert H 0 : 0 Verwerfen der Verteilungsannahme H1 : 0 bei einem zu kleinen Wert „Einseitige“ oder „gerichtete“ Hypothese Der unter der H0 angenommene Wert für (hier: 0 = 11.4) Folie 27 Statistik & Methodenlehre Beispiel Stetige Verteilungen Inferenzstatistik z-Test Hypothesen Hypothesen & Bestätigung Beim z-Test sind weitaus häufiger als z.B. beim Binomialtest alle drei möglichen Hypothesenrichtungen von Interesse. z-Test Konfidenzintervalle H 0 : 0 Verwerfen der Verteilungsannahme H1 : 0 bei einem zu großen Wert H 0 : 0 Verwerfen der Verteilungsannahme H1 : 0 bei einem zu kleinen Wert „Einseitige“ oder „gerichtete“ Hypothese Folie 28 H 0 : 0 Verwerfen der Verteilungsannahme H1 : 0 , 0 bei einem zu extremen Wert „Zweiseitige“ oder „ungerichtete“ Hypothese Statistik & Methodenlehre Beispiel Stetige Verteilungen Inferenzstatistik z-Test Durchführung Hypothesen & Bestätigung Man ermittelt nun die Auftretenswahrscheinlichkeit p(z|H0) unter der Annahme, dass die angenommene Wahrscheinlichkeitsverteilung gilt. Dazu berechnet man z-Test Konfidenzintervalle pZ z für die H 0 : 0 pZ z für die H 0 : 0 p Z z p Z z für die H 0 : 0 Verwerfen der H0 bei einer zu großen Beobachtung Verwerfen der H0 bei einer zu kleinen Beobachtung Verwerfen der H0 bei einer zu extremen Beobachtung und vergleicht p mit dem Signifikanzniveau Folie 29 Das p(…) wird aus der Verteilungsfunktion der Normalverteilung berechnet Statistik & Methodenlehre Beispiel Stetige Verteilungen Inferenzstatistik z-Test Zusammenfassung Hypothesen & Bestätigung Beobachtung im Experiment: X=x Frage: Kann x aus einer Normalverteilung mit =0 stammen? Geht die Höhe des Wertes x auf einen Stichprobenfehler zurück? (1) Bestimmung der Verteilung der Zufallsvariablen Z z-Test (2) Festlegung des Signifikanzniveaus α Konfidenzintervalle (3) Berechnung der Prüfgröße z (4) Bestimmung der Wahrscheinlichkeit für dieses z unter Annahme der H0, z. B. p(Z≥z) Folie 30 (5) Vergleich von p mit α und Treffen der Signifikanzaussage Aber: Bei dieser Aussage irrt man sich mit einer Wahrscheinlichkeit von α·100% Statistik & Methodenlehre Beispiel Hypothesen & Bestätigung Stetige Verteilungen Inferenzstatistik Konfidenzintervalle Zwei Perspektiven Ist die Verteilungsfunktion einer Zufallsvariablen bekannt, a) kann die Überschreitungswahrscheinlichkeit für einen gegebenen Wert ermittelt werden b) kann ein so genannter kritischer Wert zu einer gegebenen Überschreitungswahrscheinlichkeit (i.e. Signifikanzniveau) gefunden werden z-Test Konfidenzintervalle Folie 31 Statistik & Methodenlehre Beispiel Hypothesen & Bestätigung z-Test Stetige Verteilungen Inferenzstatistik Konfidenzintervalle Zwei Perspektiven Frage 1: Unterschreitet die Wahrscheinlichkeit für eine so extreme oder noch extremere Abweichung der Beobachtung von der Erwartung, gegebenen dass die H0 gilt, ein Signifikanzniveau ? Diese Frage wird über inferenzstatistische Tests beantwortet. Konfidenzintervalle Frage 2: Welches Intervall um den Erwartungswert überdeckt typische Beobachtungen mit einer Wahrscheinlichkeit von 1-. Diese Frage wird über Konfidenzintervalle beantwortet Folie 32 Statistik & Methodenlehre Beispiel Hypothesen & Bestätigung Stetige Verteilungen Inferenzstatistik Konfidenzintervalle Die inverse Verteilungsfunktion Für die Ermittlung des kritischen Wertes ist es wichtig, die Inverse der Verteilungsfunktion der Normalverteilung zu kennen. z-Test Erst dann kann für eine gegebene Wahrscheinlichkeit der kritische Wert berechnet werden. Konfidenzintervalle Die Inverse der Verteilungsfunktion einer normalverteilten Zufallsvariablen wird geschrieben als F-1(x) oder -1(x). Sowohl die Verteilungsfunktion der Normalverteilung (x) als auch deren Inverse -1(x) sind mathematisch nicht als einfacher Formelausdruck zu beschreiben (anders als die Dichtefunktion). Folie 33 Statistik & Methodenlehre Beispiel Hypothesen & Bestätigung z-Test Konfidenzintervalle Stetige Verteilungen Inferenzstatistik Konfidenzintervalle Bestimmung der Grenzen x Die Prüfgröße im z-Test lautet z Diese Gleichung lässt sich umstellen zu x z Mit einem kritischen Wert wird daraus x z z ist dabei der kritische Wert zu einem Signifkanzniveau , der aus einer Normalverteilung mit den Parametern und ermittelt wurde. Folie 34 Das berechnete x ist dann der Wert, den ein Datum unterschreiten müsste, um signifikant zu werden Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Beispiel Konfidenzintervalle Hypothesen & Bestätigung Mithilfe des Vorzeichens lassen sich nun zwei Grenzen bestimmen Bestimmung der Grenzen xUG z ˆ X z-Test Konfidenzintervalle Folie 35 xOG z1 ˆ X Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Beispiel Konfidenzintervalle Hypothesen & Bestätigung Beim Konfidenzintervall interessiert der Bereich, der die typischen Werte überdeckt, nicht der Bereich außerhalb. Bestimmung der Grenzen Für die symmetrische Normalverteilung spielt dies aber keine Rolle, da F(-z) = F(z). z-Test xUG z1 ˆ X Konfidenzintervalle Folie 36 xOG z ˆ X Statistik & Methodenlehre Beispiel Hypothesen & Bestätigung Stetige Verteilungen Inferenzstatistik Konfidenzintervalle Bestimmung der Grenzen Einseitige Konfidenzintervalle sind möglich, allerdings ist die zweiseitige Variante wesentlich verbreiteter Man veranschaulicht dies, in dem man den kritischen Wert mit /2 kennzeichnet. z 2 ˆ X x z1 2 ˆ X z-Test Konfidenzintervalle Folie 37 Statistik & Methodenlehre Beispiel Hypothesen & Bestätigung Stetige Verteilungen Inferenzstatistik Konfidenzintervalle Normalverteilte Prüfgrößen – Zusammenfassung Für Konfidenzintervalle für normalverteilte Daten wird zunächst ein kritischer Wert z bzw. z/2 bestimmt. Die Bestimmung verläuft über die Standardnormalverteilung z-Test Die Grenzen der einseitigen Konfidenzintervalle sind dann Konfidenzintervalle z ; bzw. ; z1 Das zweiseitige Konfidenzintervall ist z 2 ; z1 2 Folie 38 Statistik & Methodenlehre Relevante Excel Funktionen Normalverteilung, z-Test, z-Transformation • NORM.VERT(), NORM.S.VERT() • NORM.INV(), NORM.S.INV() • STANDARDISIERUNG() Folie 39 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Inhalte dieser Sitzung Welche Münze soll man werfen? Vergleich von Häufigkeiten über den Binomialtest für 2 unabhängige Stichproben. Hinterher besser als Vorher? Vergleich von Häufigkeiten über den McNemar Test für 2 abhängige Stichproben Was ist typisch? Der ²-Test für zwei unabhängige Merkmale. Folie 2 Statistik & Methodenlehre Binomialtest Inferenzstatistik Testarten und Skalenniveau McNemar Test Bisher haben wird inferenzstatistische Tests für eine Beobachtung kennen gelernt ²-Test Beispiele: Binomial- und Poissontest für eine Häufigkeit, z-Test für einen Datenwert Oft erhebt man aber in einer oder mehreren Stichproben mehrere Daten- oder Kennwerte Zur Bewertung solcher Werte gibt es verschiedene Tests, abhängig vom Skalenniveau der Messwerte, z.B. 1. Nominalskala (i.e. Häufigkeiten): Binomialtest, ²-Test, McNemar-Test. 2. Ordinalskala: U-Test, Vorzeichenrangtest Folie 3 3. Intervallskala: t-Test, F-Test, Zusammenhangstests Statistik & Methodenlehre Binomialtest Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten Binomialtest für 2 unabhängige Stichproben McNemar Test Ein Personalpsychologe des Psychologischen Instituts wird beauftragt, die Gleichstellungsbeauftragte der Universität Mainz bei einer statistischen Analyse zu unterstützen. ²-Test Es soll geprüft werden, ob die Einstellungsquoten zwischen weiblichen und männlichen Bewerbern unterschiedlich sind. Von 300 männlichen Bewerbern wurden 50 eingestellt, von 170 weiblichen Bewerbern wurden 40 eingestellt. Gibt es hinsichtlich der Einstellungsquoten Handlungsbedarf für die Gleichstellungsbeauftragte? Folie 4 Statistik & Methodenlehre Binomialtest Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten Binomialtest für 2 unabhängige Stichproben McNemar Test Ziel: Prüfung, ob die in zwei unabhängigen Gruppen beobachteten Häufigkeiten einer dichotomen Zufallsvariablen aus derselben Population (mit identischer Wahrscheinlichkeitsverteilung) stammen können. ²-Test Definition: Stichproben gelten als unabhängig, wenn unterschiedliche Personen in ihnen vorhanden sind. Weitere Beispiele: Ist die Wahrscheinlichkeit für ein Todesurteil bei farbigen und weißen Angeklagten unterschiedlich? Sind Heilungsquoten bei massierter Konfrontation besser als bei gradueller Konfrontation? Folie 5 Statistik & Methodenlehre Binomialtest Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten Binomialtest für 2 unabhängige Stichproben McNemar Test Man habe 2 dichotome Zufallsvariablen A und X. ²-Test Man beobachte nun bei N Merkmalsträgern die Ausprägung beider Variablen und ermittle die absoluten Verbundhäufigkeiten hij. a1 a2 x1 h11 h12 h1 x2 h21 h22 h2 h1 h2 N Eine der ZV (hier: A) unterscheide 2 Gruppen, die andere repräsentiere das interessierende Merkmal (hier: X) Am Beispiel: A sei das Geschlecht (a1 = männlich, a2 = weiblich), X die Einladung zum Vorstellungsgespräch (x1 = abgelehnt, x2 = eingeladen) Folie 6 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Binomialtest Tests für Nominaldaten McNemar Test Die Prüfung solcher Fragen erfordert die Berechnung bedingter Häufigkeiten, nämlich Binomialtest für 2 unabhängige Stichproben f1 f ( x | a1 ) ²-Test f 2 f ( x | a2 ) z.B. x = Einladung a1 = männlich a2 = weiblich Welche der beiden Realisationen von X gewählt wird (z.B. 0 oder 1), spielt dabei keine Rolle Inhaltlich soll nun geprüft werden, ob f1 und f2 gleich sein können oder ob sie unterschiedlich sind. Frage: Man hat hier mehrere Zufallsvariablen – wie lautet die Verteilungsannahme unter der Nullhypothese? Folie 7 Statistik & Methodenlehre Binomialtest McNemar Test ²-Test Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten Binomialtest für 2 unabhängige Stichproben Die Trefferhäufigkeiten f1 und f2 sind nichts anderes als die Realisationen von transformierten Zufallsvariablen aus einem Bernoulli-Experiment Xi Fi ni Xi = Absolute Trefferhäufigkeit in Gruppe i mit ni = Anzahl der Trials in Gruppe i Fi = Relative Trefferhäufigkeit in Gruppe i Die Nullhypothese kann also formuliert werden als: „Die absoluten Trefferhäufigkeiten x1 und x2, die zu den relativen Trefferhäufigkeiten f1 und f2 geführt haben, stammen aus derselben Wahrscheinlichkeitsverteilung“ Die Alternativhypothese ist wie üblich das genaue Gegenteil Folie 8 Statistik & Methodenlehre Binomialtest McNemar Test ²-Test Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten Binomialtest für 2 unabhängige Stichproben Wären die Wahrscheinlichkeitsverteilungen der Zufallsvariablen Xi (absolute Trefferhäufigkeiten) in beiden Gruppen bekannt, könnten diese unmittelbar auch für die Zufallsvariablen Fi (relative Trefferhäufigkeiten) zugrunde gelegt werden Vererbung Probleme: Die Wahrscheinlichkeitsverteilungen sind nicht bekannt. Zudem erwartet die Nullhypothese eine Wahrscheinlichkeitsverteilung, nicht zwei. Solche Probleme löst die Statistik oft über die Transformation der vorhanden Zufallsvariablen in eine neue Zufallsvariable. Folie 9 Statistik & Methodenlehre Binomialtest McNemar Test ²-Test Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten Binomialtest für 2 unabhängige Stichproben Ansatz: Die zwei Zufallsvariablen F1 und F2 werden zu einer einzigen neuen Zufallsvariablen verknüpft, indem man einfach die Differenz aus beiden berechnet F1 F2 Für einen Hypothesentest ist nun die Wahrscheinlichkeitsverteilung von unter der Nullhypothese zu bestimmen Es lässt sich zeigen, dass normalverteilt ist, wenn jede der absoluten Häufigkeiten in der Kreuztabelle A × X mindestens 5 ist (alle nij > 5) Frage: Wie lauten und für die Normalverteilung des Wertes unter Annahme der Nullhypothese? Folie 10 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Binomialtest Tests für Nominaldaten McNemar Test Für die Erwartungswerte der beiden Fi gilt gemäß unserer Transformationsregeln Binomialtest für 2 unabhängige Stichproben ²-Test F X i n i Die Rechenregeln für Erwartungswerte besagen, dass bei F1 F2 unmittelbar gilt F F 1 Folie 11 2 Statistik & Methodenlehre Binomialtest McNemar Test ²-Test Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten Binomialtest für 2 unabhängige Stichproben Idee: Wenn die beobachteten Treffer X in beiden Gruppen aus derselben Wahrscheinlichkeitsverteilung stammen, müssen sie denselben Erwartungswert haben X X 1 2 F1 F2 F Damit ergibt sich für die soeben aufgestellte Beziehung F F F F 0 1 2 Der Erwartungswert der Normalverteilung des ist also 0 Folie 12 Statistik & Methodenlehre Binomialtest McNemar Test ²-Test Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten Binomialtest für 2 unabhängige Stichproben Die Herleitung der Standardabweichung des ist etwas aufwändiger: für zwei Gruppen der Umfänge n1 und n2 und des Gesamtumfangs N = n1+n2 zeigt sich, dass mit f12 (1 f12 ) (1 n1 1 n2 ) n1 n2 f12 f1 f 2 N N Damit liegt die Wahrscheinlichkeitsverteilung der Differenz der beiden Fi unter der Nullhypothese fest und der statistische Test kann durchgeführt werden. Folie 13 Statistik & Methodenlehre Binomialtest McNemar Test ²-Test Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten Binomialtest für 2 unabhängige Stichproben Der Binomialtest folgt exakt der bereits kennen gelernten Logik des Hypothesentestens, allerdings mit einem weiteren Zwischenschritt 1. Voraussetzungen prüfen 2. Verteilungsannahme treffen: Normalverteilt mit den berechneten und 3. Hypothesenrichtung festlegen und statistische Hypothesen formulieren 4. Signifikanzniveau festlegen 5. Prüfgröße z bestimmen (diese ist eine Realisation der neuen Zufallsvariablen Z) 6. Wahrscheinlichkeit für die berechnete Prüfgröße bestimmen und mit dem Signifkanzniveau vergleichen Folie 14 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Binomialtest Tests für Nominaldaten McNemar Test Prüfgröße bei zwei unabhängigen Stichproben der Umfänge n1 und n2 und des Gesamtumfangs N = n1+n2 Binomialtest für 2 unabhängige Stichproben z ²-Test mit d f1 f 2 f12 (1 f12 ) (1 n1 1 n2 ) n1 n2 f12 f1 f 2 N N Unter der Nullhypothese ist die Prüfgröße standardnormalverteilt, wenn in der 2×2 Kreuztabelle der beobachteten absoluten Häufigkeiten alle nij > 5 sind. Folie 15 Der Binomialtest wird also zu einem einfachen z-Test Statistik & Methodenlehre Binomialtest McNemar Test Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten Binomialtest für 2 unabhängige Stichproben Beim Binomialtest sind wie beim z-Test potentiell alle drei möglichen Hypothesenrichtungen von Interesse. ²-Test H 0 : f1 f 2 Verwerfen der Verteilungsannahme H1 : f1 f 2 bei einer zu positiven Differenz H 0 : f1 f 2 Verwerfen der Verteilungsannahme H1 : f1 f 2 bei einer zu negativen Differenz „Einseitige“ oder „gerichtete“ Hypothese H 0 : f1 f 2 Verwerfen der Verteilungsannahme H1 : f1 f 2 ; f1 f 2 ) bei einer zu extremen Differenz „Zweiseitige“ oder „ungerichtete“ Hypothese Folie 16 Statistik & Methodenlehre Binomialtest McNemar Test Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten Binomialtest für 2 unabhängige Stichproben Formuliert man die H0/H1 bezogen auf die Prüfgröße mit ihrem Erwartungswert =0, ist dies gleichbedeutend zu ²-Test H 0 : 0 Verwerfen der Verteilungsannahme H1 : 0 bei einer zu positiven Differenz H 0 : 0 Verwerfen der Verteilungsannahme H1 : 0 bei einer zu negativen Differenz „Einseitige“ oder „gerichtete“ Hypothese H0 : 0 Verwerfen der Verteilungsannahme H1 : 0, 0) bei einer zu extremen Differenz „Zweiseitige“ oder „ungerichtete“ Hypothese Folie 17 Statistik & Methodenlehre Binomialtest Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten Binomialtest für 2 unabhängige Stichproben McNemar Test Man ermittelt nun die Auftretenswahrscheinlichkeit p(z|H0) unter der Annahme, dass die angenommene Wahrscheinlichkeitsverteilung gilt. ²-Test Dazu berechnet man pZ z für die H 0 : f1 f 2 Verwerfen der H0 bei einer zu positiven Differenz pZ z für die H 0 : f1 f 2 Verwerfen der H0 bei einer zu negativen Differenz p Z z p Z z für die H 0 : f1 f 2 Verwerfen der H0 bei einer zu extremen Differenz und vergleicht p mit dem Signifikanzniveau Folie 18 Das p(…) wird aus der Verteilungsfunktion der Normalverteilung berechnet Statistik & Methodenlehre Binomialtest McNemar Test ²-Test Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten Binomialtest für 2 unabhängige Stichproben Wichtig: In die Prüfung der Hypothese, ob f1 = f2 gehen ausschließlich empirisch gemessene Werte aus der Stichprobe ein. Eigentlich möchte man aber im Rahmen der Inferenzstatistik prüfen, ob sich (theoretische) Populationen unterscheiden. Hier behilft man sich mit dem inferenzstatistischen Schluss: Dieser besagt, dass die gemessenen Werte erwartungstreue (sprich: gute) Schätzungen für die wahren Werte sind Lies: „f dach“ empirisch Folie 19 fi fˆi theoretisch geschätzt Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Binomialtest Tests für Nominaldaten McNemar Test Beobachtung im Experiment: f1 und f2 Binomialtest für 2 unabhängige Stichproben Frage: Können die Stichproben aus einer Population stammen? Geht die Unterschiedlichkeit der Häufigkeiten auf einen Stichprobenfehler zurück? ²-Test (1) Bestimmung der Verteilung der Zufallsvariablen Z (2) Festlegung d. Signifikanzniveaus α (3) Berechnung der Prüfgröße z (4) Bestimmung der Wahrscheinlichkeit für dieses z unter Annahme der H0, z. B. p(Z≤z) Folie 20 (5) Vergleich von p mit α und Treffen der Signifikanzaussage Achtung: Vorher immer Prüfung der Voraussetzungen! Aber: Bei dieser Aussage irrt man sich mit einer Wahrscheinlichkeit von α·100% Statistik & Methodenlehre Binomialtest Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten Binomialtest für 2 unabhängige Stichproben McNemar Test Voraussetzung 1: Die Messungen müssen unabhängig sein. ²-Test Voraussetzung 2: Die Zufallsvariablen müssen dichotom sein Voraussetzung 3: In der Kreuztabelle der beobachteten absoluten Häufigkeiten müssen alle nij > 5 sein Folie 21 Statistik & Methodenlehre Binomialtest McNemar Test ²-Test Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten McNemar Test für 2 abhängige Stichproben Eine Sexualpsychologin untersucht die sexuelle Aktivität von Paaren. Sie befragt hierzu Paare mit dem Fragebogen zur sexuellen Zufriedenheit (FSZ, Christmann & Hoyndorf, 1988) einen Monat nach dem Beginn der Beziehung sowie noch einmal zwölf Monate nach dem Beginn. Sie wertet zunächst nur eines der Items aus, in dem gefragt wird, ob die Paare in der vergangenen Woche intime Kontakte miteinander hatten. Sie ermittelt, dass von 70 Paaren nach einem Monat 15 keine intimen Kontakte angeben, nach zwölf Monaten 27. Nur 7 Paare geben zu beiden Zeitpunkten keine Intimkontakte an. Folie 22 Die Psychologin möchte ermitteln, ob sich das Sexualverhalten der Personen über die Beziehungszeit verändert hat. Statistik & Methodenlehre Binomialtest McNemar Test ²-Test Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten McNemar Test für 2 abhängige Stichproben Ziel: Prüfung, ob die zu zwei Messzeitpunkten beobachteten Häufigkeiten eines Wertes x aus derselben Population mit identischer Wahrscheinlichkeitsverteilung stammen können. Definition: Stichproben gelten als abhängig, wenn dieselben Personen in beiden Stichproben vorhanden sind. Weitere Beispiele: Steigt das Ausmaß aggressiven Verhaltens nach Erleben entsprechender Verhaltensmodelle? Sinkt die Rückfallwahrscheinlichkeit nach einem Rauchentwöhnungstraining durch die Teilnahme an einem speziellen Rückfallprophylaxeprogramm? Folie 23 Binomialtest McNemar Test ²-Test Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten McNemar Test für 2 abhängige Stichproben Man habe für 2 abhängige Stichproben folgende Kontingenztabelle der Zufallsvariable X erhalten: Gibt es systematische Veränderungen zwischen den Stichproben, so müssen die Randhäufigkeiten unterschiedlich sein Messung 1 Messung 2 Statistik & Methodenlehre x1 x2 x1 h11 h12 h1 x2 h21 h22 h2 h1 h2 N Unter der Nullhypothese sollte also gelten h1 h1 h11 h12 h11 h21 h2 h2 h22 h12 h22 h21 Folie 24 Statistik & Methodenlehre Binomialtest Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten McNemar Test für 2 abhängige Stichproben McNemar Test Hier haben wir es mit vier Zufallsvariablen zu tun, die H0 ist noch schwieriger zu formulieren als beim Binomialtest. ²-Test Ansatz: Die inhaltlichen Hypothesen H 0 : h1 h1 , h2 h2 H1 : h1 h1 , h2 h2 lassen sich kombinieren zu H 0 : h12 h21 H1 : h12 h21 Damit liegen ähnlich wie beim Binomialtest zwei absolute Trefferhäufigkeiten h12 und h21 vor, die unter der Nullhypothese aus derselben Wahrscheinlichkeitsverteilung kommen sollen Folie 25 Statistik & Methodenlehre Binomialtest McNemar Test ²-Test Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten McNemar Test für 2 abhängige Stichproben Wieder können die zugrunde liegenden zwei Zufallsvariablen H1 und H2 per Differenzenbildung zu einer einzigen neuen Zufallsvariablen verknüpft werden H1 H 2 Die Wahrscheinlichkeitsverteilung des ist beim McNemar Test schwieriger zu ermitteln als beim Binomialtest Nach einer weiteren mathematischen Transformation des in eine neue Zufallsvariable („Chi“) ergibt sich für diese aber eine einfache Wahrscheinlichkeitsverteilung Die neue Zufallsvariable wird deshalb als Prüfgröße verwendet. Folie 26 Statistik & Methodenlehre Binomialtest McNemar Test ²-Test Folie 27 Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten Exkurs: Die ²-Verteilung 1 f x, df x df /21e x /2 2df /2 (df / 2) Statistik & Methodenlehre Binomialtest McNemar Test ²-Test Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten McNemar Test für 2 abhängige Stichproben Der McNemar Test folgt exakt der bereits kennen gelernten Logik des Hypothesentestens, allerdings mit einem weiteren Zwischenschritt 1. Voraussetzungen prüfen 2. Verteilungsannahme treffen: ²-verteilt mit den gegebenen df 3. Hypothesenrichtung festlegen und statistische Hypothesen formulieren 4. Signifikanzniveau festlegen 5. Prüfgröße ² bestimmen (diese ist eine Realisation der neuen Zufallsvariablen ) 6. Wahrscheinlichkeit für die berechnete Prüfgröße bestimmen und mit dem Signifkanzniveau vergleichen Folie 28 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Binomialtest Tests für Nominaldaten McNemar Test Die Prüfgröße beim McNemar Test wird berechnet als ²-Test McNemar Test für 2 abhängige Stichproben 2 h 12 h21 0.5 2 h12 h21 Unter der Nullhypothese ist die Prüfgröße ²-verteilt ist, wenn in der 2×2 Kreuztabelle h12 + h21 > 25 gilt Die ²-Verteilung hat einen Parameter, die so genannten Freiheitsgrade df. Für den McNemar Test gilt immer df = 1. Folie 29 Statistik & Methodenlehre Binomialtest McNemar Test Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten McNemar Test für 2 abhängige Stichproben Beim McNemar Test können prinzipiell alle drei Hypothesenrichtungen geprüft werden ²-Test H 0 : h12 h21 Verwerfen der Verteilungsannahme H1 : h12 h21 bei einer zu positiven Differenz H 0 : h12 h21 Verwerfen der Verteilungsannahme H1 : h12 h21 bei einer zu negativen Differenz „Einseitige“ oder „gerichtete“ Hypothese H 0 : h12 h21 Verwerfen der Verteilungsannahme H1 : h12 h21 , h12 h21 bei einer zu extremen Differenz „Zweiseitige“ oder „ungerichtete“ Hypothese Folie 30 Statistik & Methodenlehre Binomialtest McNemar Test ²-Test Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten McNemar Test für 2 abhängige Stichproben Aufgrund der speziellen Prüfgröße ist beim McNemar Test jedoch nur eine Hypothesenrichtung relevant, da der Zähler immer größer ist als der Nenner H 0 : p ( 2 ) Verwerfen der Verteilungsannahme H1 : p ( 2 ) bei einem noch größeren Wert „Einseitige“ oder „gerichtete“ Hypothese Wichtig: In die Prüfung der Hypothese h12 = h21 gehen wieder nur empirisch gemessene Werte ein. Bei der Übertragung auf die Population behilft man sich wieder mit dem inferenzstatistischen Schluss: empirisch Folie 31 hi hˆi theoretisch geschätzt Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Binomialtest Tests für Nominaldaten McNemar Test Beobachtung im Experiment: h12 und h21 McNemar Test für 2 abhängige Stichproben Frage: Können die Messungen aus einer Population stammen? Geht die Unterschiedlichkeit der Häufigkeiten auf einen Stichprobenfehler zurück? ²-Test (1) Bestimmung der Verteilung der Zufallsvariablen (2) Festlegung d. Signifikanzniveaus α (3) Berechnung der Prüfgröße ² (4) Bestimmung der Wahrscheinlichkeit für dieses z unter Annahme der H0, z. B. p( ≤ ²) Folie 32 (5) Vergleich von p mit α und Treffen der Signifikanzaussage Achtung: Vorher immer Prüfung der Voraussetzungen! Aber: Bei dieser Aussage irrt man sich mit einer Wahrscheinlichkeit von α·100% Statistik & Methodenlehre Binomialtest Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten McNemar Test für 2 abhängige Stichproben McNemar Test Voraussetzung 1: Die Messungen müssen abhängig sein. ²-Test Voraussetzung 2: Die Zufallsvariablen müssen dichotom sein Voraussetzung 3: In der Kreuztabelle der beobachteten absoluten Häufigkeiten sollte h12 + h21 > 25 sein Folie 33 Statistik & Methodenlehre Binomialtest Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten χ²-Test für k unabhängige Stichproben McNemar Test Eine weit verbreitete Vermutung in der klinischen Psychologie bezieht sich auf den Zusammenhang zwischen der Händigkeit einer Person und der Entwicklung psychischer Störungen. So sollen Linkshändige eher als Rechtshändige zu Persönlichkeitsstörungen (z.B. Schizophrenie) neigen. ²-Test Eine Forschergruppe möchte diese Annahme überprüfen. Sie stellen bei 1546 Patienten einer psychiatrischen Einrichtung die Variablen Händigkeit und Primärdiagnose fest. Die Forschergruppe möchte herausfinden, ob Händigkeit und psychische Störung tatsächlich zusammenhängen. Folie 34 Statistik & Methodenlehre Binomialtest McNemar Test ²-Test Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten χ²-Test für k unabhängige Stichproben Ziel: Prüfung, ob die in beliebig vielen unabhängigen Gruppen beobachteten Häufigkeiten einer polytomen Zufallsvariablen aus derselben Population (mit identischer Wahrscheinlichkeitsverteilung) stammen Um zu prüfen, ob die Merkmale unabhängig voneinander sind wird der χ²-Test verwendet. Weitere Beispiele: Wählen Frauen Parteien in anderen Häufigkeiten als Männer? Kommen bei endogen Depressiven andere Komorbiditäten vor als bei reaktiv Depressiven? Folie 35 Statistik & Methodenlehre Binomialtest McNemar Test Stetige Verteilungen Tests für Nominaldaten χ²-Test für k unabhängige Stichproben Man habe folgende Kontingenztafel für die beobachteten Zufallsvariablen A und X: ²-Test Folie 36 Inferenzstatistik a1 a2 ak x1 h11 h12 … h1k h1 x2 h21 h22 … … h2 … … … … … … xm hm1 hm2 … hmk hm h1 h2 … hk N Statistik & Methodenlehre Binomialtest Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten χ²-Test für k unabhängige Stichproben McNemar Test Wenn zwei Merkmale A und X unabhängig sind, beeinflusst die Ausprägung in einem Merkmal nicht die Auftretenswahrscheinlichkeiten im anderen Merkmal ²-Test Unabhängigkeit zweier ZV im ²-Test meint also nichts anderes als stochastische Unabhängigkeit. Für solche Zufallsvariablen gilt der Multiplikationssatz: p( A X ) p( A) p( X ) Ist N die Gesamtzahl der Beobachtungen, lassen sich daraus auch erwartete absolute Häufigkeiten schätzen h( A) h( X ) hˆ( A X ) N Folie 37 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Binomialtest Tests für Nominaldaten McNemar Test Die inhaltlichen Hypothesen sind also χ²-Test für k unabhängige Stichproben H 0 : h A X hˆ A X ²-Test für alle Kombinationen von ai und xj H 0 : h A X hˆ A X für mind. eine Kombination von ai und xj Es ist zu prüfen, ob die einzelnen Verbundhäufigkeiten vereinbar mit Wahrscheinlichkeitsverteilungen sind, die bei Unabhängigkeit der Zufallsvariablen erwartet würden. Folie 38 Statistik & Methodenlehre Binomialtest McNemar Test ²-Test Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten χ²-Test für k unabhängige Stichproben Hier liegen eine Vielzahl von Verteilungen vor, die zur statistischen Prüfung in einer Zufallsvariable integriert werden müssen Wie beim McNemar Test können die zugrunde liegenden Zufallsvariablen H und Ĥ per Differenzenbildung zu einer einzigen neuen Zufallsvariablen verknüpft werden H1 Hˆ 2 Auch hier ergibt eine weitere mathematische Transformation eine neue ²-verteilte Zufallsvariable Folie 39 Statistik & Methodenlehre Binomialtest McNemar Test Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten χ²-Test für k unabhängige Stichproben Der ² Test folgt exakt der bereits beim McNemar Test kennen gelernten Logik des Hypothesentestens 1. Voraussetzungen prüfen ²-Test 2. Verteilungsannahme treffen: ²-verteilt mit den gegebenen df 3. Hypothesenrichtung festlegen und statistische Hypothesen formulieren 4. Signifikanzniveau festlegen 5. Prüfgröße ² bestimmen (diese ist eine Realisation der neuen Zufallsvariablen ) 6. Wahrscheinlichkeit für die berechnete Prüfgröße bestimmen und mit dem Signifkanzniveau vergleichen Folie 40 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Binomialtest Tests für Nominaldaten McNemar Test Die Prüfgröße wird aus der km Kontingenztabelle wie folgt berechnet. ²-Test χ²-Test für k unabhängige Stichproben m k 2 i 1 j 1 hij hˆij hˆij 2 mit ˆh hi h j ij N Die einzelnen Terme der Prüfgröße sind also immer aufgebaut als beobachtet erwartet erwartet Folie 41 2 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Binomialtest Tests für Nominaldaten McNemar Test Die Prüfgröße wird aus der km Kontingenztabelle wie folgt berechnet. ²-Test χ²-Test für k unabhängige Stichproben m k 2 i 1 j 1 hij hˆij hˆij 2 mit ˆh hi h j ij N Die Prüfgröße ist χ²-verteilt, wenn in der Kontingenztabelle der beobachteten absoluten Häufigkeiten alle hij ≥ 5 sind. Die ²-Verteilung hat df=(k-1)·(m-1) Freiheitsgrade Folie 42 Statistik & Methodenlehre Binomialtest McNemar Test ²-Test Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten χ²-Test für k unabhängige Stichproben Beim ² Test ist wie bereits beim McNemar Test nur eine Hypothesenrichtung von Interesse H 0 : hij hˆij für alle Kombinationen i, j H1 : hij hˆij , hij hˆij für mind. eine Kombination i, j Verwerfen der Verteilungsannahme „Zweiseitige“ oder „ungerichtete“ Hypothese bei einer zu extremen Differenz Die Hypothese umfasst also die Vergleich aller unter Unabhängigkeit geschätzten mit allen beobachteten Häufigkeiten Folie 43 Statistik & Methodenlehre Binomialtest McNemar Test Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten χ²-Test für k unabhängige Stichproben Durch die spezielle Berechnung der Prüfgröße im ² Test wird daraus die Prüfung der Hypothese H 0 : p ( 2 ) Verwerfen der Verteilungsannahme H1 : p ( 2 ) bei einem noch größeren Wert ²-Test „Einseitige“ oder „gerichtete“ Hypothese Wichtig: In die Prüfung der Hypothese gehen erneut nur empirisch an einer Stichprobe gemessene Werte ein. Bei der Übertragung auf die Population behilft man sich wieder mit dem inferenzstatistischen Schluss: empirisch Folie 44 h hˆ theoretisch geschätzt Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Binomialtest Tests für Nominaldaten McNemar Test Beobachtung im Experiment: diverse hij χ²-Test für k unabhängige Stichproben Frage: Sind die Merkmale unabhängig voneinander? Gehen die Schwankungen der Häufigkeiten auf einen Stichprobenfehler zurück? ²-Test (1) Bestimmung der Verteilung der Zufallsvariablen (2) Festlegung d. Signifikanzniveaus α (3) Berechnung der Prüfgröße ² (4) Bestimmung der Wahrscheinlichkeit für dieses z unter Annahme der H0, z. B. p( ≤ ²) Folie 45 (5) Vergleich von p mit α und Treffen der Signifikanzaussage Achtung: Vorher immer Prüfung der Voraussetzungen! Aber: Bei dieser Aussage irrt man sich mit einer Wahrscheinlichkeit von α·100% Statistik & Methodenlehre Binomialtest Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten χ²-Test für k unabhängige Stichproben McNemar Test Voraussetzung 1: Die Messungen müssen unabhängig sein. ²-Test Voraussetzung 2: Die Zufallsvariablen müssen polytom sein Voraussetzung 3: In der Kreuztabelle der erwarteten absoluten Häufigkeiten müssen alle nij > 5 sein Folie 46 Statistik & Methodenlehre Binomialtest Stetige Verteilungen Inferenzstatistik Tests für Nominaldaten Tests für k abhängige Stichproben McNemar Test Sollen multinomiale Merkmale oder mehr als 2 abhängige Stichproben auf Unterschiedlichkeit geprüft werden, müssen andere Tests verwendet werden ²-Test Diese Tests (u.a. Cochran-Test, Stuart-Maxwell-Test, Bhapkar-Test) haben z.T. sehr spezifische Anwendungsbereiche, sind mathematisch aufwändiger und werden daher hier nicht behandelt. Folie 47 Statistik & Methodenlehre Relevante Excel Funktionen Tests für Nominaldaten • CHIQU.VERT() • ABS() Folie 48 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Inhalte dieser Sitzung Welche Gruppe ist besser? Vergleich von 2 unabhängigen Stichproben. Hinterher besser als Vorher? Vergleich von 2 abhängigen Stichproben. Folie 2 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Tests für Ordinaldaten U-Test U-Test nach Mann-Whitney für unabh. Stichpr. Wilcoxon Vorzeichenrangtest Eine Bildungswissenschaftlerin hat den Verdacht, dass Studierende mit Migrationshintergrund in mündlichen Prüfungen systematisch schlechter beurteilt werden als solche mit deutscher Herkunft. Sie lässt exakt dieselbe Prüfung wortgleich von zwei Schauspielerinnen nachstellen. Rike hat erkennbar deutsche Wurzeln, Reyhan hingegen ist offensichtlich arabischer Herkunft. Beide sprechen fehlerfreies Deutsch, jedoch mit hörbarem Akzent – hanseatisch auf der einen und türkisch auf der anderen Seite. Die Prüfungen werden von 20 Universitätsdozenten per Video angesehen und anschließend auf einer Oberstufenskala von 0-15 Punkten beurteilt. Folie 3 Erzielt Rike bessere Noten als Reyhan? Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik U-Test Tests für Ordinaldaten Wilcoxon Vorzeichenrangtest Ziel: Test, ob sich zwei unabhängige Stichproben in ihrer Ausprägung auf einem ordinalskalierten Merkmal unterscheiden. U-Test nach Mann-Whitney für unabh. Stichpr. Definition: Ordinalskala = Eine nach der Größe geordnete Wertereihe für die Realisationen einer Zufallsvarialben, wobei der numerische Betrag der Skalenwerte in keiner Weise interpretierbar ist Weitere Beispiele: Ist das Kindeswohl nach einer Scheidung stärker beeinträchtigt als nach dem Tod eines Elternteils? Sind junge Frauen anders mit einem bestimmten Produkt zufrieden als ältere Frauen? Folie 4 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik U-Test Tests für Ordinaldaten Wilcoxon Vorzeichenrangtest Datenlage: Man hat an zwei unabhängigen Stichproben der Größen n1 und n2 ein ordinalskaliertes Merkmal erhoben. U-Test nach Mann-Whitney für unabh. Stichpr. Bewertet worden sei die Prüfungsleistung von Rike (X, nX=11) und Reyhan (Y, nY=9) auf einer Punkteskala von 0 – 15. X: 13, 9, 11, 14, 13, 8, 10, 11, 7, 12, 10 Y: 11, 9, 6, 5, 8, 10, 12, 7, 8 Frage: Erreichen die Kandidatinnen unterschiedliche Punktzahlen? Folie 5 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik U-Test Tests für Ordinaldaten Wilcoxon Vorzeichenrangtest Für Ordinaldaten können prinzipiell keine theoretischen Wahrscheinlichkeitsverteilungen formal abgeleitet werden, da die Werte beliebig sind U-Test nach Mann-Whitney für unabh. Stichpr. Aber: Wenn zwei Stichproben aus derselben Population stammen, sollten ihre Wahrscheinlichkeitsverteilungen f(X) gleich sein (wenn auch unbekannt) In diesem Fall sollte gelten: vergleicht man paarweise alle gemessenen Realisationen von X mit denen von Y, so wird man finden dass xi < yj etwa gleich häufig vorkommt wie xi > yj, also h xi y j h xi y j Folie 6 Dies ist die inhaltliche Nullhypothese Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Tests für Ordinaldaten U-Test U-Test nach Mann-Whitney für unabh. Stichpr. Wilcoxon Vorzeichenrangtest Problem: Die Anzahl der notwendigen paarweisen Vergleiche wird sehr schnell sehr groß Sei nX die Anzahl der Werte in Stichprobe 1 und nY die Anzahl der Werte in Stichprobe 2, so gilt für die Anzahl aller paarweisen Vergleiche C paarweise nX nY Comparisons Gesucht ist also ein Verfahren, mit dem h(xi < yj) bzw. h(xi > yj) schnell ermittelt werden können Folie 7 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik U-Test Tests für Ordinaldaten Wilcoxon Vorzeichenrangtest Statistische Methoden für Ordinaldaten greifen oft auf das Verfahren der Rangbildung zurück, da hier die Größe der betrachteten Werte keine Rolle mehr spielt U-Test nach Mann-Whitney für unabh. Stichpr. Statt also für eine Datenreihe zu prüfen, ob Fall 1: X Y Fall 2 : X Y Fall 3 : X Y kann äquivalent geprüft werden, ob Fall 1: rg ( X ) rg (Y ) Fall 2 : rg ( X ) rg (Y ) Fall 2 : rg ( X ) rg (Y ) Folie 8 Niedrigere Zahl, niedrigerer Rang Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Tests für Ordinaldaten U-Test U-Test nach Mann-Whitney für unabh. Stichpr. Wilcoxon Vorzeichenrangtest Methode: Das Verfahren der Rangbildung beim U-Test Es werden Ränge für die Vereinigung der Datentabelle von X und Y gebildet, bei der die Zugehörigkeit eines Wertes keine Rolle mehr spielt X Folie 9 X Rang(X) Rang(Y) 13 11 18.5 14 9 9 8.5 8.5 11 6 14 2 14 5 20 1 13 8 18.5 6 8 10 6 11 10 12 11 16.5 11 7 14 3.5 7 8 3.5 6 12 16.5 10 11 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Tests für Ordinaldaten U-Test U-Test nach Mann-Whitney für unabh. Stichpr. Wilcoxon Vorzeichenrangtest Achtung: Datei erhält die kleinste Zahl den kleinsten Rang. Bei Ties (Rangbindungen) wird ein mittlerer Rang vergeben X Folie 10 X Rang(X) Rang(Y) 13 11 18.5 14 9 9 8.5 8.5 11 6 14 2 14 5 20 1 13 8 18.5 6 8 10 6 11 10 12 11 16.5 11 7 14 3.5 7 8 3.5 6 12 16.5 10 11 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Tests für Ordinaldaten U-Test U-Test nach Mann-Whitney für unabh. Stichpr. Wilcoxon Vorzeichenrangtest Nach der Rangbildung für die vereinigte Stichprobe können drei Werte berechnet werden U h rg X rg Y Summe d. Rangunterschreitungen U ' h rg X rg Y Summe d. Rangüberschreitungen Tie h rg X rg Y Summe d. Rangbindungen U ist also die Menge aller Vergleiche zwischen Werten aus X mit Werten aus Y, bei denen xi < yj U‘ ist die Menge aller Vergleiche, für die xi > yj Problem: Damit ist noch nicht viel gewonnen – statt des paarweisen Vergleichs aller Werte sind nun alle Ränge paarweise zu vergleichen Folie 11 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik U-Test Tests für Ordinaldaten Wilcoxon Vorzeichenrangtest Idee: Würde man die Ränge in den Stichproben separat bilden, gäbe es für Stichprobe 1 genau nX Ränge und für Stichprobe 2 genau nY U-Test nach Mann-Whitney für unabh. Stichpr. Der U-Test beginnt mit der Bildung von Rangsummen RX 1 2 n X und RY 1 2 nY Für die jeweilige Rangsumme gilt gemäß der Lösung des 9jährigen Carl Friedrich Gauß nX (nX 1) RX 2 Folie 12 und nY (nY 1) RY 2 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik U-Test Tests für Ordinaldaten Wilcoxon Vorzeichenrangtest Daraus lassen sich Berechnungsformeln für Anzahl der Rangunter-/-überschreitungen herleiten. Es gilt: U-Test nach Mann-Whitney für unabh. Stichpr. U C RX S X U ' C RY SY Gesamtzahl aller Vergleiche zwischen X und Y C nX nY Folie 13 Rangsumme für die separaten Stichproben Tatsächliche Rangsumme für die Vereinigung n (n 1) R 2 S rg x bzw. rg y Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik U-Test Tests für Ordinaldaten Wilcoxon Vorzeichenrangtest Unter der Nullhypothese sollte von allen Vergleichen etwa die Hälfte eine Rangunter- und die andere Hälfte eine Rangüberschreitung sein U-Test nach Mann-Whitney für unabh. Stichpr. Es sollte unter der H0 also gelten U U ' Somit ist es gleichgültig, mit welchem der beiden Werte der statistische Test durchgeführt wird Es ist lediglich zu klären, welche Wahrscheinlichkeitsverteilung den Zufallsvariablen U und U‘ zugrunde liegt Folie 14 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik U-Test Tests für Ordinaldaten Wilcoxon Vorzeichenrangtest Die exakte Wahrscheinlichkeitsverteilung des U oder U‘ ist nur schwer zu bestimmen U-Test nach Mann-Whitney für unabh. Stichpr. Sie ist mit einigen Voraussetzungen belegt und liegt für kleine n tabelliert in Büchern vor Es zeigt sich aber, dass bei größeren Stichproben (mindestens ein n > 10) das U oder U‘ approximativ normalverteilt ist Frage: Wie lauten und für die Normalverteilung der Werte U oder U‘ unter Annahme der Nullhypothese? Folie 15 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik U-Test Tests für Ordinaldaten Wilcoxon Vorzeichenrangtest Unter der Nullhypothese sollte von allen Vergleichen C etwa die Hälfte eine Rangunter- und die andere Hälfte eine Rangüberschreitung sein U-Test nach Mann-Whitney für unabh. Stichpr. Der Erwartungswert für Rangunter- und Rangüberschreitungen muss also der Hälfte aller Vergleiche entsprechen C nX nY U 2 2 Folie 16 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Tests für Ordinaldaten U-Test U-Test nach Mann-Whitney für unabh. Stichpr. Wilcoxon Vorzeichenrangtest Die Herleitung der Standardabweichung U des U oder U‘ ist etwas aufwändiger: für zwei Gruppen der Umfänge nX und nY zeigt sich, dass nX nY nX nY 1 U 12 „Magic Number“ Damit liegt die Wahrscheinlichkeitsverteilung der Differenz von U und U‘ unter der Nullhypothese fest und der statistische Test kann durchgeführt werden. Folie 17 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Tests für Ordinaldaten U-Test U-Test nach Mann-Whitney für unabh. Stichpr. Wilcoxon Vorzeichenrangtest Der U-Test folgt exakt der üblichen Logik des Hypothesentestens 1. Voraussetzungen prüfen 2. Verteilungsannahme treffen: Normalverteilt mit den berechneten und 3. Hypothesenrichtung festlegen und statistische Hypothesen formulieren 4. Signifikanzniveau festlegen 5. Prüfgröße z bestimmen (diese ist eine Realisation der neuen Zufallsvariablen Z) 6. Wahrscheinlichkeit für die berechnete Prüfgröße bestimmen und mit dem Signifkanzniveau vergleichen Folie 18 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Tests für Ordinaldaten U-Test U-Test nach Mann-Whitney für unabh. Stichpr. Wilcoxon Vorzeichenrangtest Prüfgröße bei zwei unabhängigen Stichproben der Umfänge nX und nY. z U U 0.5 U U nX nY 0.5 2 nX nY nX nY 1 12 Dabei ist U einer der beiden Werte U oder U‘. z ist standardnormalverteilt Liegen viele Ties vor, empfiehlt sich eine Korrektur der Standardabweichung, die von Statistikprogrammen automatisch vorgenommen wird Folie 19 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Tests für Ordinaldaten U-Test U-Test nach Mann-Whitney für unabh. Stichpr. Wilcoxon Vorzeichenrangtest Beim U-Test sind wie beim z-Test potentiell alle drei möglichen Hypothesenrichtungen von Interesse. H 0 : U U ' Verwerfen der Verteilungsannahme H1 : U U ' bei höheren Werten in X H 0 : U U ' Verwerfen der Verteilungsannahme H1 : U U ' bei niedrigeren Werten in X „Einseitige“ oder „gerichtete“ Hypothese H0 : U U ' Verwerfen der Verteilungsannahme H1 : U U ';U U ') bei extremeren Werten in X „Zweiseitige“ oder „ungerichtete“ Hypothese Folie 20 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Tests für Ordinaldaten U-Test U-Test nach Mann-Whitney für unabh. Stichpr. Wilcoxon Vorzeichenrangtest Man ermittelt nun die Auftretenswahrscheinlichkeit p(z|H0) unter der Annahme, dass die angenommene Wahrscheinlichkeitsverteilung gilt. Dazu berechnet man pZ z p Z z p Z z für die H 0 : U U ' und die H 0 : U U ' für die H 0 : U U ' Verwerfen der H0 bei höheren/niedrigeren Werten in X (wegen der Betragsbildung) Verwerfen der H0 bei einer zu extremen Differenz und vergleicht p mit dem Signifikanzniveau Das p(…) wird aus der Verteilungsfunktion der Normalverteilung berechnet Folie 21 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Tests für Ordinaldaten U-Test U-Test nach Mann-Whitney für unabh. Stichpr. Wilcoxon Vorzeichenrangtest Beobachtung im Experiment: U und U‘ Frage: Können die Stichproben aus einer Population stammen? Geht die Abweichung der Rangunter-/-überschreitungen auf einen Stichprobenfehler zurück? (1) Bestimmung der Verteilung der Zufallsvariablen Z (2) Festlegung d. Signifikanzniveaus α (3) Berechnung der Prüfgröße z (4) Bestimmung der Wahrscheinlichkeit für dieses z unter Annahme der H0, z. B. p(Z≤z) Folie 22 (5) Vergleich von p mit α und Treffen der Signifikanzaussage Achtung: Vorher immer Prüfung der Voraussetzungen! Aber: Bei dieser Aussage irrt man sich mit einer Wahrscheinlichkeit von α·100% Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Tests für Ordinaldaten U-Test U-Test nach Mann-Whitney für unabh. Stichpr. Wilcoxon Vorzeichenrangtest Voraussetzung 1: Die Messungen müssen unabhängig sein. Voraussetzung 2: Die Zufallsvariablen müssen mindestens ordinalskaliert sein Voraussetzung 3: Für mindestens eine der Stichprobengrößen soll n > 10 gelten Folie 23 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Tests für Ordinaldaten U-Test U-Test und Wilcoxon Rangsummentest Wilcoxon Vorzeichenrangtest Hinweis: Der U-Test nach Mann-Whitney ist mathematisch äquivalent zum so genannten Wilcoxon Rangsummentest, der von einer ähnlichen Testidee ausgeht. Der U-Test wird daher manchmal auch als MWW-Test (Mann-Whitney-Wilcoxon Test) bezeichnet. Er ist nicht zu verwechseln mit dem Wilcoxon Vorzeichenrangtest für abhängige Stichproben. Folie 24 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Tests für Ordinaldaten U-Test Wilcoxon Vorzeichenrangtest für abh. Stichpr. Wilcoxon Vorzeichenrangtest Die Lufthansa hat Probleme mit der Freundlichkeit des Servicepersonals auf einzelnen Linien. Eine Arbeitspsychologin wird beauftragt, eine Schulung in Sachen Kundenorientierung durchzuführen. Es nehmen insgesamt n=13 FlugbegleiterInnen teil, die sowohl vor als auch nach dem Training hinsichtlich ihrer Servicequalität von einer Expertengruppen beurteilt werden. Die dabei verwendete Skala reicht von 0 = Ein Reinfall bis 30 = Ein Träumchen. Die für die Lufthansa einzig entscheidende Frage lautet: Hat sich die Servicequalität verbessert? Folie 25 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik U-Test Tests für Ordinaldaten Wilcoxon Vorzeichenrangtest Ziel: Test, ob sich zwei abhängige Stichproben in ihrer Ausprägung auf einem ordinalskalierten Merkmal unterscheiden Wilcoxon Vorzeichenrangtest für abh. Stichpr. Hinweis: Abhängigkeit bedeutet wieder, dass die Stichproben dieselben Merkmalsträger oder eindeutige Paare von gleichartigen Merkmalsträgern enthalten. Beispiele: Verbessert sich die Leistung in mündlichen Prüfungen nach einem Rhetorik-Training? Sinkt das subjektive Laustärke-Empfinden von Bewohnern in der Einflugschneise des Frankfurter Flughafens nach einem Volkshochschulkurs Zen-Meditation? Folie 26 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik U-Test Tests für Ordinaldaten Wilcoxon Vorzeichenrangtest Datenlage: Man hat an zwei abhängigen Stichproben der Größe n ein ordinalskaliertes Merkmal erhoben. Wilcoxon Vorzeichenrangtest für abh. Stichpr. Es werden die Leistungen von n=13 FlugbegleiterInnen vor und nach einen Serviceorientierungstraining von einer Expertengruppe auf einer Ratinskala von 0 – 30 eingeschätzt. X1: 18, 21, 15, 10, 11, 16, 14, 6, 9, 20, 7, 22, 14 X2: 13, 18, 17, 22, 24, 20, 25, 21, 27, 19, 17, 22, 21 Frage: Werden die Leistungen zum Zeitpunkt t2 besser beurteilt als zum Zeitpunkt t1? Folie 27 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik U-Test Tests für Ordinaldaten Wilcoxon Vorzeichenrangtest Wie beim U-Test können für Ordinaldaten keine theoretischen Wahrscheinlichkeitsverteilungen formal abgeleitet werden, da die Werte beliebig sind Wilcoxon Vorzeichenrangtest für abh. Stichpr. Testidee: Für jede Beobachtungseinheit können Differenzen zwischen den beiden Stichproben berechnet werden ( = X – Y). Zwar ist der absolute Betrag dieser Differenzen nicht interpretierbar, die Differenzen sind aber weiterhin ordinalskaliert. Größere Differenzen bedeuten also größere Veränderungen zwischen den Stichproben. Das Vorkommen von positiven und negativen Vorzeichen bei verschiedenen Differenzen sollte ungefähr gleich sein Folie 28 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Tests für Ordinaldaten U-Test Wilcoxon Vorzeichenrangtest für abh. Stichpr. Wilcoxon Vorzeichenrangtest Folie 29 Methode: Zur Durchführung des Wilcoxon Vorzeichenrangtests werden also zunächst die Differenzen di zwischen beiden Stichproben gebildet. Nr. t1 t2 d 1 18 13 -5 2 21 18 -3 3 15 17 2 4 10 22 12 5 11 24 13 6 16 20 4 7 14 25 11 8 6 21 15 9 9 27 18 10 20 19 -1 11 7 17 10 12 22 22 0 13 14 21 7 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Tests für Ordinaldaten U-Test Wilcoxon Vorzeichenrangtest für abh. Stichpr. Wilcoxon Vorzeichenrangtest Folie 30 Dann werden die Absolutwerte |di| dieser Differenzen gebildet. Nr. t1 t2 d |d| 1 18 13 -5 5 2 21 18 -3 3 3 15 17 2 2 4 10 22 12 12 5 11 24 13 13 6 16 20 4 4 7 14 25 11 11 8 6 21 15 15 9 9 27 18 18 10 20 19 -1 1 11 7 17 10 10 12 22 22 0 0 13 14 21 7 7 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Tests für Ordinaldaten U-Test Wilcoxon Vorzeichenrangtest für abh. Stichpr. Wilcoxon Vorzeichenrangtest Folie 31 Nun erhalten diesen Absolutwerte Rangplätze rg(|di|). Achtung: Dabei gilt kleinste Differenz = kleinster Rang Nr. t1 t2 d |d| Rang(|d|) 1 18 13 -5 5 6 2 21 18 -3 3 4 3 15 17 2 2 3 4 10 22 12 12 10 5 11 24 13 13 11 6 16 20 4 4 5 7 14 25 11 11 9 8 6 21 15 15 12 9 9 27 18 18 13 10 20 19 -1 1 2 11 7 17 10 10 8 12 22 22 0 0 1 13 14 21 7 7 7 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Tests für Ordinaldaten U-Test Wilcoxon Vorzeichenrangtest für abh. Stichpr. Wilcoxon Vorzeichenrangtest Folie 32 Schließlich werden die Ränge korrigiert, indem die Anzahl der Nulldifferenzen abgezogen wird. Nr. t1 t2 d |d| Rang(d) Rang(d)korr 1 18 13 -5 5 6 5 2 21 18 -3 3 4 3 3 15 17 2 2 3 2 4 10 22 12 12 10 9 5 11 24 13 13 11 10 6 16 20 4 4 5 4 7 14 25 11 11 9 8 8 6 21 15 15 12 11 9 9 27 18 18 13 12 10 20 19 -1 1 2 1 11 7 17 10 10 8 7 12 22 22 0 0 1 0 13 14 21 7 7 7 6 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Tests für Ordinaldaten U-Test Wilcoxon Vorzeichenrangtest für abh. Stichpr. Wilcoxon Vorzeichenrangtest Folie 33 Schließlich werden die Vorzeichen der Differenzen festgestellt. Nr. t1 t2 d |d| Rang(d) Rang(d)korr Vorzeichen 1 18 13 -5 5 6 5 -1 2 21 18 -3 3 4 3 -1 3 15 17 2 2 3 2 1 4 10 22 12 12 10 9 1 5 11 24 13 13 11 10 1 6 16 20 4 4 5 4 1 7 14 25 11 11 9 8 1 8 6 21 15 15 12 11 1 9 9 27 18 18 13 12 1 10 20 19 -1 1 2 1 -1 11 7 17 10 10 8 7 1 12 22 22 0 0 1 0 0 13 14 21 7 7 7 6 1 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik U-Test Tests für Ordinaldaten Wilcoxon Vorzeichenrangtest Nulldifferenzen (Anzahl: m) werden a priori von der Rangplatzvergabe ausgeschlossen. Damit reduziert sich die Anzahl zu berücksichtigender Differenzen auf Wilcoxon Vorzeichenrangtest für abh. Stichpr. n* n m Nach der Rangbildung sind zwei Werte zu berechnen: T Summe der Ränge mit negativem Vorzeichen T Summe der Ränge mit positivem Vorzeichen Beide Summen zusammen müssen wieder die gesamte Rangsumme ergeben Folie 34 n* (n* 1) R T T 2 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik U-Test Tests für Ordinaldaten Wilcoxon Vorzeichenrangtest Unter der Nullhypothese sollte von allen Vergleichen etwa die Hälfte eine Rangunter- und die andere Hälfte eine Rangüberschreitung sein Wilcoxon Vorzeichenrangtest für abh. Stichpr. Es sollte unter der H0 also gelten T T Somit ist es gleichgültig, mit welchem der beiden Werte der statistische Test durchgeführt wird Es ist lediglich zu klären, welche Wahrscheinlichkeitsverteilung den Zufallsvariablen T+ und T– zugrunde liegt Folie 35 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik U-Test Tests für Ordinaldaten Wilcoxon Vorzeichenrangtest Die exakte Wahrscheinlichkeitsverteilung des T+ und T– ist nur schwer zu bestimmen Wilcoxon Vorzeichenrangtest für abh. Stichpr. Sie ist mit einigen Voraussetzungen belegt und liegt für kleine n tabelliert in Büchern vor Es zeigt sich aber, dass bei größeren Stichproben (n > 25) das T+ oder T– approximativ normalverteilt ist Frage: Wie lauten und für die Normalverteilung der Werte T+ und T– unter Annahme der Nullhypothese? Folie 36 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik U-Test Tests für Ordinaldaten Wilcoxon Vorzeichenrangtest Unter der Nullhypothese sollten sich Ränge gleichmäßig auf positive und negative Differenzen aufteilen Wilcoxon Vorzeichenrangtest für abh. Stichpr. Der Erwartungswert für negative und positive Rangsummen muss also der Hälfte aller Ränge entsprechen n* n* 1 1 T R 2 4 Folie 37 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik U-Test Tests für Ordinaldaten Wilcoxon Vorzeichenrangtest Die Herleitung der Standardabweichung T des T+ oder T– ist etwas aufwändiger: es zeigt sich aber, dass Wilcoxon Vorzeichenrangtest für abh. Stichpr. T n* 2n* 1 n* 1 24 „Magic Number“ Damit liegt die Wahrscheinlichkeitsverteilung der Differenz von T+ und T– unter der Nullhypothese fest und der statistische Test kann durchgeführt werden. Folie 38 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Tests für Ordinaldaten U-Test Wilcoxon Vorzeichenrangtest für abh. Stichpr. Wilcoxon Vorzeichenrangtest Der U-Test folgt exakt der üblichen Logik des Hypothesentestens 1. Voraussetzungen prüfen 2. Verteilungsannahme treffen: Normalverteilt mit den berechneten und 3. Hypothesenrichtung festlegen und statistische Hypothesen formulieren 4. Signifikanzniveau festlegen 5. Prüfgröße z bestimmen (diese ist eine Realisation der neuen Zufallsvariablen Z) 6. Wahrscheinlichkeit für die berechnete Prüfgröße bestimmen und mit dem Signifkanzniveau vergleichen Folie 39 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Tests für Ordinaldaten U-Test Wilcoxon Vorzeichenrangtest für abh. Stichpr. Wilcoxon Vorzeichenrangtest Prüfgröße bei abhängigen Stichproben des Umfangs n. z T T 0.5 T T n* n* 1 4 0.5 n* 2n* 1 n* 1 24 Dabei ist T einer der beiden Werte T+ oder T–. z ist standardnormalverteilt Liegen viele Ties vor, empfiehlt sich eine Korrektur der Standardabweichung, die von Statistikprogrammen automatisch vorgenommen wird Folie 40 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Tests für Ordinaldaten U-Test Wilcoxon Vorzeichenrangtest für abh. Stichpr. Wilcoxon Vorzeichenrangtest Beim Vorzeichenrangtest sind wie beim U-Test potentiell alle drei möglichen Hypothesenrichtungen von Interesse. H 0 : T T Verwerfen der Verteilungsannahme H1 : T T bei höheren Werten in X H 0 : T T Verwerfen der Verteilungsannahme H1 : T T bei niedrigeren Werten in X „Einseitige“ oder „gerichtete“ Hypothese H 0 : T T Verwerfen der Verteilungsannahme H1 : T T ; T T ) bei extremeren Werten in X „Zweiseitige“ oder „ungerichtete“ Hypothese Folie 41 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Tests für Ordinaldaten U-Test Wilcoxon Vorzeichenrangtest für abh. Stichpr. Wilcoxon Vorzeichenrangtest Man ermittelt nun die Auftretenswahrscheinlichkeit p(z|H0) unter der Annahme, dass die angenommene Wahrscheinlichkeitsverteilung gilt. Dazu berechnet man pZ z p Z z p Z z für die H 0 : T T und die H 0 : T T für die H 0 : T T Verwerfen der H0 bei höheren/niedrigeren Werten in X (wegen der Betragsbildung) Verwerfen der H0 bei einer zu extremen Differenz und vergleicht p mit dem Signifikanzniveau Folie 42 Das p(…) wird aus der Verteilungsfunktion der Normalverteilung berechnet Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Tests für Ordinaldaten U-Test Wilcoxon Vorzeichenrangtest für abh. Stichpr. Wilcoxon Vorzeichenrangtest Beobachtung im Experiment: T+ und T– Frage: Können die Stichproben aus einer Population stammen? Geht die Abweichung der Ränge der Differenzen auf einen Stichprobenfehler zurück? (1) Bestimmung der Verteilung der Zufallsvariablen Z (2) Festlegung d. Signifikanzniveaus α (3) Berechnung der Prüfgröße z (4) Bestimmung der Wahrscheinlichkeit für dieses z unter Annahme der H0, z. B. p(Z≤z) Folie 43 (5) Vergleich von p mit α und Treffen der Signifikanzaussage Achtung: Vorher immer Prüfung der Voraussetzungen! Aber: Bei dieser Aussage irrt man sich mit einer Wahrscheinlichkeit von α·100% Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Tests für Ordinaldaten U-Test Wilcoxon Vorzeichenrangtest für abh. Stichpr. Wilcoxon Vorzeichenrangtest Voraussetzung 1: Die Messungen müssen abhängig sein. Voraussetzung 2: Die Zufallsvariablen müssen mindestens ordinalskaliert sein Voraussetzung 3: Für die Stichprobengröße soll n > 25 gelten Folie 44 Statistik & Methodenlehre Relevante Excel Funktionen Tests für Nominal- und Ordinaldaten • • • • • • Folie 45 ANZAHL2() SUMMEWENN() ZÄHLENWENN() ABS() VORZEICHEN() RANG.MITTELW() Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Inhalte dieser Sitzung Kennwerte in Theorie und Empirie Das Schätzproblem: von der Stichprobe zur Population Der 1-Stichproben t-Test Folie 2 Statistik & Methodenlehre Kennwerte Stetige Verteilungen Inferenzstatistik Kennwerte in Theorie & Empirie Numerische Beschreibung: relative Häufigkeit Schätzen Die Wahrscheinlichkeit für die Realisation i einer Zufallsvariablen X ist p xi Theorie Das Äquivalent bei n empirisch an einer Stichprobe erhobenen Realisationen einer Zufallsvariablen X ist die relative Häufigkeit, berechnet als h xi f xi n Empirie Folie 3 Statistik & Methodenlehre Kennwerte Stetige Verteilungen Inferenzstatistik Kennwerte in Theorie & Empirie Numerische Beschreibung: Mittelwert Schätzen Der Erwartungswert einer Zufallsvariablen X ist k E ( X ) pi xi i 1 Theorie (diskreter Fall) Das Äquivalent für empirisch an einer Stichprobe erhobene Daten einer Zufallsvariablen X ist der Mittelwert, berechnet als 1 n x xi n i 1 Empirie Folie 4 Statistik & Methodenlehre Kennwerte Stetige Verteilungen Inferenzstatistik Kennwerte in Theorie & Empirie Numerische Beschreibung: Mittelwert Schätzen Ausgeschrieben lautet die Formel für den Mittelwert bei n Beobachtungen x1 … xn 1 1 n x ( x1 x2 xN ) xi n n i 1 Der Mittelwert ist durch „extreme“ Werte beeinflussbar (ausreißerempfindlich) Er ist der Schwerpunkt der Beobachtungen, d.h. n x x 0 i 1 Folie 5 i Statistik & Methodenlehre Kennwerte Stetige Verteilungen Inferenzstatistik Intervalldaten Numerische Beschreibung: Mittelwert Schätzen Der Mittelwert stimmt häufig mit keiner beobachteten Realisation überein Der Mittelwert ist wie der Erwartungswert äquivariant gegenüber gewissen (z.B. linearen) Transformationen Insbesondere 1. Addition einer Konstanten a zu allen n Beobachtungen x1 … xn xa x a 2. Multiplikation aller n Beobachtungen x1 … xn mit einer Konstanten c Folie 6 ax ax Statistik & Methodenlehre Kennwerte Stetige Verteilungen Inferenzstatistik Intervalldaten Numerische Beschreibung: Varianz Schätzen Die Varianz einer Zufallsvariablen X ist definiert als E X E X 2 k 2 X pi xi 2 i 1 Theorie (diskreter Fall) Das Äquivalent für empirisch an einer Stichprobe erhobene Daten einer Zufallsvariablen X heißt ebenfalls Varianz und wird berechnet als n 1 2 2 s x xi x n i 1 Empirie Folie 7 Statistik & Methodenlehre Kennwerte Stetige Verteilungen Inferenzstatistik Intervalldaten Numerische Beschreibung: Varianz Schätzen Die Varianz ist das mittlere Abweichungsquadrat aller n Beobachtungen x1 … xn vom Mittelwert. n 1 2 2 s x xi x n i 1 Erfasst die mittlere Streuung um den Mittelwert Nur falls keine Streuung besteht, ist s² = 0, d.h. alle beobachteten Werte sind gleich. Sonst: s² > 0 Je größer die Streuung um den Mittelwert, desto größer ist die Varianz Ist anfällig gegenüber Ausreißern Folie 8 Statistik & Methodenlehre Kennwerte Stetige Verteilungen Inferenzstatistik Intervalldaten Numerische Beschreibung: Standardabweichung Schätzen Problem: Auch die empirische Varianz ist nicht äquivariant zu erlaubten Skalentransformationen s 2 (a x) a 2 s 2 ( x) (mit a = const.) Wie bei der theoretischen Varianz erhält man durch Wurzelziehen die Standardabweichung (SD, standard deviation) n 1 2 2 s x s x xi x n i 1 Die Standardabweichung ist äquivariant zu den erlaubten Skalentransformationen Folie 9 Statistik & Methodenlehre Kennwerte Stetige Verteilungen Inferenzstatistik Schätzen Von der Stichprobe zur Population Schätzen Problem: Beim inferenzstatistischen Test ist immer der Schluss von den Daten einer Stichprobe auf einen Sachverhalt in der Population gefragt. Beispiel: Beim Binomialtest wird anhand von empirisch in einer Stichprobe erhobenen relativen Häufigkeiten auf die Gleichheit oder Ungleichheit von theoretischen Wahrscheinlichkeiten in der Population geschlossen Dies ist der inferenzstatistische Schluss Der inferenzstatistische Schluss steht und fällt mit der Annahme, dass die Verwendung gemessener Kennwerte (z.B. relative Häufigkeit) als Schätzung für den theoretischen Populationskennwert gerechtfertigt ist Folie 10 Statistik & Methodenlehre Kennwerte Stetige Verteilungen Inferenzstatistik Schätzen Von der Stichprobe zur Population Schätzen Dieses so genannte Schätzproblem lässt sich in einer einzigen Frage zusammenfassen Wann ist eine Schätzung eine gute Schätzung? Das wesentliche statistische Merkmal einer guten Schätzung ist die Erwartungstreue Eine Schätzung ist dann erwartungstreu, wenn bei unendlichen vielen Wiederholungen des Zufallsexperimentes der dabei gemessene Stichprobenkennwert im Mittel gleich dem theoretischen Populationskennwert ist Folie 11 Statistik & Methodenlehre Kennwerte Stetige Verteilungen Inferenzstatistik Schätzen Von der Stichprobe zur Population: p Schätzen Es zeigt sich, dass die relative Häufigkeit eine erwartungstreue Schätzung für die Wahrscheinlichkeit in der Population ist sprich: „dach“ Es gilt also f xi Stichprobenkennwert (bekannt) pˆ xi Schätzung (bekannt) p xi Populationskennwert (unbekannt) Dieser Zusammenhang wurde bereits im Gesetz der Großen Zahl (law of large numbers) formuliert Folie 12 Statistik & Methodenlehre Kennwerte Stetige Verteilungen Inferenzstatistik Schätzen Von der Stichprobe zur Population: Schätzen Es zeigt sich, dass der Mittelwert eine erwartungstreue Schätzung für den Erwartungswert in der Population ist Es gilt also x Stichprobenkennwert (bekannt) ˆ Schätzung (bekannt) Populationskennwert (unbekannt) Dieser Zusammenhang berechtigt Wissenschaftler, aus Stichprobendaten einen Erwartungswert für eine Zufallsvariable zu behaupten (z.B. mittlerer IQ = 100) Folie 13 Statistik & Methodenlehre Kennwerte Stetige Verteilungen Inferenzstatistik Schätzen Von der Stichprobe zur Population: ² Schätzen Es zeigt sich, dass die Varianz der Stichprobe keine erwartungstreue Schätzung für die Varianz in der Population ist Es ist also s2 Stichprobenkennwert (bekannt) ˆ 2 Schätzung (unbekannt) 2 Populationskennwert (unbekannt) Man kann also aus der anhand von Stichprobendaten gemessenen Varianz nicht auf die Varianz der Zufallsvariable in der Population schließen Folie 14 Statistik & Methodenlehre Kennwerte Stetige Verteilungen Inferenzstatistik Schätzen Von der Stichprobe zur Population: ² Schätzen Man kann aber beweisen, dass die Stichprobenvarianz die Populationsvarianz systematisch unterschätzt, dass sie also einen Bias (= systematischer Fehler) hat Für diesen Bias gibt es eine einfache Korrektur n s2 n 1 Stichprobenkennwert (bekannt) ˆ 2 Schätzung (berechenbar) 2 Populationskennwert (unbekannt) Diese korrigierte Stichprobenvarianz ist eine erwartungstreue Schätzung der Populationsvarianz, so dass man aus Daten behaupten kann, dass z.B. des IQ = 10 Folie 15 Statistik & Methodenlehre Kennwerte Schätzen Stetige Verteilungen Schätzen Übersicht Wahrscheinlichkeit: Mittelwert: Varianz: Standardabweichung: Folie 16 Inferenzstatistik Empirisch Theoretisch f x p̂ x f x 1 n x xi n i 1 ˆ x n 1 2 n 2 2 s xi x ˆ s2 n i 1 n 1 s s 2 2 n ˆ s n 1 Statistik & Methodenlehre Einführung Prüfgröße Hypothesen Voraussetzungen Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Mittelwertevergleiche In der empirischen Forschung ist zumeist nicht die Prüfung eines Einzeldatums gefragt, sondern von Mittelwerten bzw. von Unterschieden zwischen solchen in mehreren Gruppen Beispiele: „Verbessert sich die Schulleistung von Kindern durch Förderunterricht?“, „Wirkt VT bei Schizophrenen?“, „Sind Frauen sprachbegabter als Männer?“ Für Ordinaldaten haben wir den U-Test sowie den Wilcoxon Vorzeichenrangtest kennen gelernt Für Intervalldaten stehen bessere (i.e. teststärkere) Tests zur Verfügung Folie 17 Statistik & Methodenlehre Einführung Prüfgröße Hypothesen Voraussetzungen Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Mittelwertevergleiche Inferenzstatistische Tests für Mittelwerte sollen anhand von Stichprobendaten Aussagen über die Unterschiedlichkeit von Erwartungswerten in der Population treffen. Für einen solchen Test müssen mehrere Dinge bekannt sein: • Die Erwartungswerte selbst • Ihre Verteilungsform bzw. die Verteilungsform der berechneten Prüfgröße • Die Parameter dieser Verteilung All diese sind zunächst unbekannt, so dass genau wie bei den bisher behandelten Tests Schätzungen erforderlich sind Folie 18 Statistik & Methodenlehre Einführung Prüfgröße Hypothesen Voraussetzungen Folie 19 Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der 1-Stichproben t-Test – Grundlagen Der 1-Stichproben t-Test beantwortet die Frage, ob ein aus einer Stichprobe geschätzter Erwartungswert mit einem bekannten Erwartungswert übereinstimmt. Keiner der Merkmalsträger darf mehr als einmal in der Stichprobe vertreten sein. Beispiele: „Ist der IQ von Psychologiestudierenden im Mittel 100?“, „Sind Geburtsraten in Deutschland so hoch wie der europäische Durchschnitt?“, „Erreichen Teilnehmer eines Assessment Centers im Mittel einen bestimmten CutOff-Wert?“ Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Einführung Tests für Intervalldaten Prüfgröße Unbekannte Population Der 1-Stichproben t-Test – Grundlagen Stichprobe (n) x Hypothesen Voraussetzungen Ist der Erwartungswert der Stichprobe gleich μ: H0 Bekannte Population oder verschieden: H1 und Folie 20 Statistik & Methodenlehre Einführung Prüfgröße Hypothesen Voraussetzungen Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der 1-Stichproben t-Test – Grundlagen Grundfrage: Wie üblich kann man fragen, ob der beobachtete Mittelwert zu extrem ist, um anzunehmen, dass die Stichprobe noch aus einer Population mit dem Erwartungswert μ stammt. Ansatz: Um diese Frage zu beantworten, müssen wir zwei Dinge wissen: 1. Die Wahrscheinlichkeitsverteilung dieser Mittelwerte 2. Die Parameter dieser Verteilung Folie 21 Statistik & Methodenlehre Einführung Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der 1-Stichproben t-Test – Grundlagen Prüfgröße Problem: Die Wahrscheinlichkeitsverteilung von Mittelwerten ist ein sehr theoretisches Konstrukt Hypothesen Sie ergäbe sich, wenn ein Experiment mit immer neuen Stichprobe aus derselben Population wieder und wieder durchgeführt würde und bei jeder Durchführung der Mittelwert berechnet würde Voraussetzungen Folie 22 Erkenntnis: Ein Herr „Student“ (aka William Sealy Gossett, Statistiker bei Guinnes) konnte herleiten, dass die Wahrscheinlichkeitsverteilung von Mittelwerten mathematisch sehr gut zu beschreiben ist Statistik & Methodenlehre Einführung Prüfgröße Stetige Verteilungen Tests für Intervalldaten Der 1-Stichproben t-Test – Grundlagen Wenn die Zufallsvariable einen Erwartungswert von μ der Differenzen besitzt, so hat der Mittelwert für Stichproben dieser Zufallsvariablen den Erwartungswert Hypothesen Voraussetzungen x Wenn die Zufallsvariable eine Standardabweichung von σ bzw. eine Varianz von σ² besitzt, so streuen die Mittelwerte mit x Folie 23 Inferenzstatistik n bzw. x2 2 n Statistik & Methodenlehre Einführung Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der 1-Stichproben t-Test – Prüfgröße Prüfgröße „Student“ musste nur noch ermitteln, welche Form die Wahrscheinlichkeitsverteilung von Mittelwerten hat Hypothesen Er definierte zunächst eine Prüfgröße t Voraussetzungen x x x für die ja gemäß der bisherigen Erkenntnisse gilt: x Folie 24 und x n Statistik & Methodenlehre Einführung Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der 1-Stichproben t-Test – Prüfgröße Prüfgröße Die erste Vermutung, dass t wie üblich normalverteilt sei, bestätigte sich nicht Hypothesen „Student“ konnte zeigen, dass die Prüfgröße die Form einer so genannten t-Verteilung hat Voraussetzungen Die t-Verteilung hat nur einen Parameter, nämlich die so genannten Freiheitsgrade df (degrees of freedom) Diese Freiheitsgrade ergeben sich direkt aus der Größe der Stichprobe n, deren Mittelwert getestet wird df n 1 Folie 25 Statistik & Methodenlehre Einführung Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Die t-Verteilung von Student Prüfgröße StandardNormalverteilung 0.4 0.3 Hypothesen 0.2 Voraussetzungen t- Verteilung mit df = 10 0.1 -3 -2 -1 1 Kritische Werte sind bei der tVerteilung im Vergleich zur Normalverteilung größer Folie 26 2 3 t.99 2.76 z.99 2.33 Statistik & Methodenlehre Einführung Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Die t-Verteilung von Student Prüfgröße Standardnormal- und t-Verteilung sind sich also offenbar sehr ähnlich, aber nicht identisch Hypothesen Je größer n (und damit auch die Freiheitsgrade), desto mehr gleichen sich die Wahrscheinlichkeitsverteilungen an Voraussetzungen Da die Standardnormalverteilung einfacher zu tabellieren ist – es gibt nur eine – wurde früher oft diese verwendet, um die Größe der Prüfgröße zu berechnen. Da die t-Verteilung heute sehr einfach bestimmt werden kann, ist dieses approximative Vorgehen nicht mehr notwendig Merke: Für t immer die t-Verteilung! Folie 27 Statistik & Methodenlehre Einführung Prüfgröße Hypothesen Voraussetzungen Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der 1-Stichproben t-Test – Ablauf Der t-Test folgt nun exakt der üblichen Vorgehensweise des Hypothesentestens 1. Voraussetzungen prüfen 2. Verteilungsannahme treffen: t-verteilt mit den berechneten df 3. Hypothesenrichtung festlegen und statistische Hypothesen formulieren 4. Signifikanzniveau festlegen 5. Prüfgröße t bestimmen 6. Wahrscheinlichkeit für die berechnete Prüfgröße bestimmen und mit dem Signifkanzniveau vergleichen Folie 28 Statistik & Methodenlehre Einführung Prüfgröße Hypothesen Voraussetzungen Folie 29 Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der 1-Stichproben t-Test – Hypothesen Erkenntnis: Jede Stichprobe stammt aus irgendeiner Population mit einem bestimmten, aber unbekannten Erwartungswert μX Wenn der beobachtete Mittelwert zu extrem ist, dann stammt die Stichprobe offenbar nicht aus der gegebenen Population mit dem Erwartungswert μ Die Bewertung der Prüfgröße läuft also auf den Test hinaus, ob der beobachtete Mittelwert der Stichprobe aus einer Population mit dem bekannten μ oder dem unbekannten μX stammt Statistik & Methodenlehre Einführung Prüfgröße Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der 1-Stichproben t-Test – Hypothesen Beim t-Test sind wie beim z-Test potentiell alle drei möglichen Hypothesenrichtungen von Interesse. Hypothesen Voraussetzungen H 0 : x Verwerfen der Verteilungsannahme H1 : x bei zu hohem x H 0 : x Verwerfen der Verteilungsannahme H1 : x bei zu niedrigem x „Einseitige“ oder „gerichtete“ Hypothese H0 : X Verwerfen der Verteilungsannahme H1 : X , X bei einem zu extremen Wert „Zweiseitige“ oder „ungerichtete“ Hypothese Folie 30 Statistik & Methodenlehre Einführung Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der 1-Stichproben t-Test – Hypothesen Prüfgröße Man ermittelt nun die Auftretenswahrscheinlichkeit p(t|H0) unter der Annahme, dass die angenommene Wahrscheinlichkeitsverteilung gilt. Hypothesen Dazu berechnet man Voraussetzungen p T t für die H 0 : X Verwerfen der H0 bei einem zu positiven Mittelwert p T t für die H 0 : X Verwerfen der H0 bei einem zu negativen Mittelwert p T t für die H 0 : X p T t Verwerfen der H0 bei einem zu extremen Mittelwert und vergleicht p mit dem Signifikanzniveau Folie 31 Das p(…) wird aus der Verteilungsfunktion der t-Verteilung berechnet Statistik & Methodenlehre Tests für Ordinaldaten Intervalldaten Tests für Einführung Tests für Intervalldaten Prüfgröße Beobachtung im Experiment: x Der 1-Stichproben t-Test – Hypothesen Frage: Stammt die Stichprobe aus einer Population mit ? Geht die Größe des Mittelwertes auf einen Stichprobenfehler zurück? Hypothesen Voraussetzungen (1) Festlegung von Signifikanzniveau α Achtung: Vorher und Gerichtetheit immer Prüfung der Voraussetzungen! (2) Berechnung der Prüfgröße t (3) Berechnung der Wahrscheinlichkeit für dieses oder ein extremeres z: z. B. p(T≥ t) (4) Vergleich von p mit α und Treffen der Signifikanzaussage Folie 32 Aber: Bei dieser Aussage irrt man sich mit einer Wahrscheinlichkeit von α·100% Statistik & Methodenlehre Einführung Tests für Ordinaldaten Intervalldaten Tests für Tests für Intervalldaten Der 1-Stichproben t-Test – Voraussetzungen Prüfgröße Die Zufallsvariable muss intervallskaliert sein Hypothesen Bei n < 30 sollten die Daten normalverteilt sein Voraussetzungen Folie 33 Statistik & Methodenlehre Relevante Excel Funktionen Tests für Intervalldaten • T.VERT() Folie 34 Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Inhalte dieser Sitzung Der t-Test für 2 abhängige Stichproben Der t-Test für 2 unabhängige Stichproben Statistik & Methodenlehre Einführung Prüfgröße Hypothesen Voraussetzungen Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Mittelwertevergleiche In der empirischen Forschung ist zumeist nicht die Prüfung eines Einzeldatums gefragt, sondern von Mittelwerten bzw. von Unterschieden zwischen solchen in mehreren Gruppen Beispiele: „Verbessert sich die Schulleistung von Kindern durch Förderunterricht?“, „Wirkt VT bei Schizophrenen?“, „Sind Frauen sprachbegabter als Männer?“ Für Ordinaldaten haben wir den U-Test sowie den Wilcoxon Vorzeichenrangtest kennen gelernt Für Intervalldaten stehen bessere (i.e. teststärkere) Tests zur Verfügung Statistik & Methodenlehre Einführung Prüfgröße Hypothesen Voraussetzungen Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Mittelwertevergleiche Inferenzstatistische Tests für Mittelwerte sollen anhand von Stichprobendaten Aussagen über die Unterschiedlichkeit von Erwartungswerten in der Population treffen. Für einen solchen Test müssen mehrere Dinge bekannt sein: • Die Erwartungswerte selbst • Ihre Verteilungsform bzw. die Verteilungsform der berechneten Prüfgröße • Die Parameter dieser Verteilung All diese sind zunächst unbekannt, so dass genau wie bei den bisher behandelten Tests Schätzungen erforderlich sind Statistik & Methodenlehre Einführung Prüfgröße Hypothesen Voraussetzungen Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der abhängige 2-Stichproben t-Test – Grundlagen Der 2-Stichproben t-Test für abhängige Stichproben beantwortet die Frage, ob zwei Messungen an einer Stichprobe aus einer Population mit demselben Erwartungswert stammen können. Die Stichproben müssen dieselben (bzw. gepaarte) Merkmalsträger enthalten. Beispiele: Verschlechtert sich die Konzentrationsleistung von Personen nach Alkoholgabe? Verringert sich der Grad einer psychischen Erkrankung durch Verhaltenstherapie? Ist die Hörschwelle 24h nach einem Diskobesuch noch verändert? Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Einführung Tests für Intervalldaten Prüfgröße Population zu Messzeitpunkt 1 Der abhängige 2-Stichproben t-Test – Grundlagen Stichprobe (n) x Hypothesen Voraussetzungen X Sind die Erwartungswerte gleich: H0 oder Population zu Messzeitpunkt 2 verschieden: H1 y Y Stichprobe (n) Statistik & Methodenlehre Einführung Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der abhängige 2-Stichproben t-Test – Grundlagen Prüfgröße Ansatz: Wie beim Wilcoxon Vorzeichenrangrest sind die Werte der beiden Stichproben paarweise zuordenbar Hypothesen Für jede Person kann nun die Differenz zwischen beiden Messzeitpunkten berechnet werden Voraussetzungen XY X Y Man hat also eine neue Zufallsvariable XY gebildet Für die konkreten Werte in der Stichprobe können Mittelwert und Varianz berechnet werden. Statistik & Methodenlehre Einführung Prüfgröße Hypothesen Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der abhängige 2-Stichproben t-Test – Grundlagen Der Mittelwert der Differenzen zwischen den Messzeitpunkten wird berechnet als XY Voraussetzungen 1 n xi yi n i 1 Die Varianz der Differenzen ist damit s2 XY 2 1 n XY XY n i 1 Statistik & Methodenlehre Einführung Prüfgröße Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der abhängige 2-Stichproben t-Test – Grundlagen Der Erwartungswert der Differenzen zwischen den Messzeitpunkten kann nun direkt geschätzt werden ˆ XY Hypothesen XY Voraussetzungen Die Populationsvarianz der Differenzen kann mit der Korrekturformel geschätzt werden, ebenso wie die Standardabweichung ˆ 2 XY n s2 XY n 1 und ˆ XY n s XY n 1 Statistik & Methodenlehre Einführung Prüfgröße Hypothesen Voraussetzungen Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der abhängige 2-Stichproben t-Test – Grundlagen x und sX Messzeitpunkt 1 Differenzen XY Messzeitpunkt 2 y und und sY Daten (beobachtet) Daten (berechnet) s XY ˆ XY und ˆ XY Population (geschätzt) Statistik & Methodenlehre Einführung Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der abhängige 2-Stichproben t-Test – Grundlagen Prüfgröße Aus den Stichprobendaten lassen sich also Erwartungswert und Varianz der Differenzen schätzen Hypothesen Problem: Die Schätzungen dieser Populationskennwerte charakterisieren immer noch „Individualdaten“, nämlich Erwartungswert und Varianz für die Differenzen der einzelnen Merkmalsträger in der Population Voraussetzungen Man könnte damit lediglich Tests für einzelne Differenzen durchführen und prüfen, ob diese zur geschätzten Populationen der Differenzen gehören (ähnlich wie beim z-Test) Statistik & Methodenlehre Einführung Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der abhängige 2-Stichproben t-Test – Grundlagen Prüfgröße Problem: Das Ziel beim t-Test ist nicht die Bewertung von Einzeldaten, sondern des Gruppenunterschiedes zwischen den Messzeitpunkten. Hypothesen Also: Der t-Test fragt nicht nach einzelnen Differenzen, sondern nach dem Mittelwert der Differenzen Voraussetzungen XY 1 n xi yi n i 1 Über die Größe dieses Wertes sollen Hypothesen formuliert und geprüft werden Statistik & Methodenlehre Einführung Prüfgröße Hypothesen Voraussetzungen Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der abhängige 2-Stichproben t-Test – Grundlagen Um die Größe des Wertes XY prüfen zu können, sind wie üblich 2 Angaben nötig 1. Die Form der Wahrscheinlichkeitsverteilung, dem dieser Wert bei vielen Wiederholungen des Zufallsexperimentes folgen sollte 2. Die Parameter dieser Wahrscheinlichkeitsverteilung Sind diese Angaben bekannt, kann die gewohnte Testlogik angewandt werden Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der abhängige 2-Stichproben t-Test – Grundlagen x und sX Messzeitpunkt 1 Differenzen ? XY Messzeitpunkt 2 y und und s XY ˆ XY und ˆ XY sY Daten (beobachtet) ˆ Daten (berechnet) Population der Differenzen (geschätzt) XY und ˆ XY Population der Mittelwerte von Differenzen (geschätzt) Statistik & Methodenlehre Einführung Prüfgröße Hypothesen Voraussetzungen Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der abhängige 2-Stichproben t-Test – Grundlagen Frage 1: Wie ist die Verteilung des Mittelwertes der Differenzen zweier Zufallsvariablen X und Y? Die Differenz ist nichts anderes als eine Summe von Summen von Zufallsvariablen und sollte gemäß des ZGS normalverteilt sein. Frage 2: Wie ist der Erwartungswert? Wenn beide Zufallsvariablen eigentlich dieselbe Population abbilden (H0), so sollte gelten 0 XY denn der Mittelwert von Differenzen ist gleich der Differenz von Mittelwerten. Statistik & Methodenlehre Einführung Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der abhängige 2-Stichproben t-Test – Grundlagen Prüfgröße Frage 3: Wie ist die Varianz? Hypothesen Die einzige zur Verfügung stehende Information über die Streuung der Mittelwerte kann aus der Streuung der Daten bzw. ihrer Differenzen gewonnen werden Voraussetzungen Zunächst kann aus der Varianz der Datendifferenzen die Populationsvarianz der Differenzen geschätzt werden ˆ 2 XY n s2 XY n 1 mit s 2 XY 1 n xi yi XY n i 1 Statistik & Methodenlehre Einführung Prüfgröße Stetige Verteilungen Tests für Intervalldaten Der abhängige 2-Stichproben t-Test – Grundlagen Gefragt ist aber nicht die geschätzte Populationsvarianz der Datendifferenzen, sondern die geschätzte Populationsvarianz des Mittelwerts der Differenzen, also Hypothesen Voraussetzungen Inferenzstatistik 2 ˆ anstatt XY ˆ 2 XY Es zeigt sich, dass die Populationsvarianz des Mittelwerts der Differenzen direkt aus der Populationsvarianz der Datendifferenzen berechnen lässt ˆ 2 XY 1 2 ˆ XY n und damit ˆ XY 1 ˆ XY n „Standardfehler“ Statistik & Methodenlehre Einführung Prüfgröße Hypothesen Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der abhängige 2-Stichproben t-Test – Grundlagen Damit liegt die Wahrscheinlichkeitsverteilung des Mittelwerts der Differenzen unter der Nullhypothese fest Sie lautet XY ~ NV XY , ˆ XY Voraussetzungen mit 0 XY und ˆ XY 1 ˆ XY n Nun kann die gewohnte Testlogik angewandt werden Statistik & Methodenlehre Einführung Prüfgröße Hypothesen Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der abhängige 2-Stichproben t-Test Man sollte nun eine standardnormalverteilte Prüfgröße berechnen können gemäß t XY 0 ˆ XY Voraussetzungen Aber: W. S. Gosset (1908) zeigte, dass die Wahrscheinlichkeitsverteilung von t nur für Stichproben mit großen Umfängen n gegen die Normalverteilung geht Die tatsächliche Verteilung von t ist eine t-Verteilung Die t-Verteilung hat genau einen Parameter, die so genannten Freiheitsgrade (df) Dieser ist df = n - 1 Statistik & Methodenlehre Einführung Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der abhängige 2-Stichproben t-Test Prüfgröße StandardNormalverteilung 0.4 0.3 Hypothesen 0.2 Voraussetzungen t- Verteilung mit df = 10 0.1 -3 -2 -1 1 Kritische Werte sind bei der tVerteilung im Vergleich zur Normalverteilung größer 2 3 t.99 2.76 z.99 2.33 Statistik & Methodenlehre Einführung Prüfgröße Hypothesen Voraussetzungen Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der abhängige 2-Stichproben t-Test – Grundlagen Der t-Test folgt exakt der üblichen Vorgehensweise des Hypothesentestens 1. Voraussetzungen prüfen 2. Verteilungsannahme treffen: t-verteilt mit den berechneten df 3. Hypothesenrichtung festlegen und statistische Hypothesen formulieren 4. Signifikanzniveau festlegen 5. Prüfgröße t bestimmen (diese ist eine Realisation der neuen Zufallsvariablen T) 6. Wahrscheinlichkeit für die berechnete Prüfgröße bestimmen und mit dem Signifkanzniveau vergleichen Statistik & Methodenlehre Einführung Prüfgröße Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der abhängige 2-Stichproben t-Test Beim t-Test sind wie beim z-Test potentiell alle drei möglichen Hypothesenrichtungen von Interesse. Hypothesen Voraussetzungen H 0 : XY 0 Verwerfen der Verteilungsannahme H1 : XY 0 bei höheren Werten in XY H 0 : XY 0 Verwerfen der Verteilungsannahme H1 : XY 0 bei niedrigeren Werten in XY „Einseitige“ oder „gerichtete“ Hypothese H 0 : XY 0 Verwerfen der Verteilungsannahme H1 : XY 0 bei extremeren Werten in XY „Zweiseitige“ oder „ungerichtete“ Hypothese Statistik & Methodenlehre Einführung Prüfgröße Hypothesen Voraussetzungen Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der abhängige 2-Stichproben t-Test Weil man einfach zeigen kann, dass gilt XY x y , können die Hypothesen umformuliert werden zu „Der Mittelwert von Differenzen ist gleich der Differenz von Mittelwerten“ Statistik & Methodenlehre Einführung Prüfgröße Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der abhängige 2-Stichproben t-Test Weil man einfach zeigen kann, dass gilt XY x y , können die Hypothesen umformuliert werden zu Hypothesen Voraussetzungen H 0 : X Y Verwerfen der Verteilungsannahme H1 : X Y bei höheren Werten in XY H 0 : X Y Verwerfen der Verteilungsannahme H1 : X Y bei niedrigeren Werten in XY „Einseitige“ oder „gerichtete“ Hypothese H 0 : X Y Verwerfen der Verteilungsannahme H1 : X Y bei extremeren Werten in XY „Zweiseitige“ oder „ungerichtete“ Hypothese Statistik & Methodenlehre Einführung Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der abhängige 2-Stichproben t-Test Prüfgröße Man ermittelt nun die Auftretenswahrscheinlichkeit p(z|H0) unter der Annahme, dass die angenommene Wahrscheinlichkeitsverteilung gilt. Hypothesen Dazu berechnet man Voraussetzungen p T t für die H 0 : X Y Verwerfen der H0 bei einer zu positiven Differenz p T t für die H 0 : X Y Verwerfen der H0 bei einer zu negativen Differenz p T t für die H 0 : X Y p T t Verwerfen der H0 bei einer zu extremen Differenz und vergleicht p mit dem Signifikanzniveau Das p(…) wird aus der Verteilungsfunktion der t-Verteilung berechnet Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Einführung Tests für Intervalldaten Prüfgröße Beobachtung im Experiment: Der abhängige 2-Stichproben t-Test x, y Frage: Stammen die Stichproben aus derselben Population? Geht die Größe des Mittelwerts der Differenz auf einen Stichprobenfehler zurück? Hypothesen Voraussetzungen (1) Festlegung von Signifikanzniveau α Achtung: Vorher und Gerichtetheit immer Prüfung der Voraussetzungen! (2) Berechnung der Prüfgröße t (3) Berechnung der Wahrscheinlichkeit für dieses oder ein extremeres z: z. B. p(X≥ t) (4) Vergleich von p mit α und Treffen der Signifikanzaussage Aber: Bei dieser Aussage irrt man sich mit einer Wahrscheinlichkeit von α·100% Statistik & Methodenlehre Einführung Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der abhängige 2-Stichproben t-Test Prüfgröße Intervallskalenniveau der betrachteten Zufallsvariable Hypothesen Voraussetzungen Normalverteilung des Merkmals in der Population für Stichprobengrößen von n ≤ 30. Abhängigkeit der Stichproben bzw. der Merkmalsträger darin, so dass diese paarweise zugeordnet werden können. Statistik & Methodenlehre Einführung Prüfgröße Hypothesen Voraussetzungen Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der unabhängige 2-Stichproben t-Test – Grundlagen Der 2-Stichproben t-Test für unabhängige Stichproben beantwortet die Frage, ob zwei verschiedene Stichproben aus einer Population mit demselben Erwartungswert stammen können. Die Stichproben müssen unterschiedliche Merkmalsträger enthalten. Beispiele: Ist die Effektivität von Verhaltenstherapie anders als von Psychotherapie? Zeigen Jugendliche bessere Leistungen bei der Erkennung emotionaler Gesichtsausdrücke als Kinder? Haben Arbeitslose ein höheres Aggressionspotential als Arbeitnehmer? Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Einführung Tests für Intervalldaten Prüfgröße Stichprobe 1 Der unabhängige 2-Stichproben t-Test – Grundlagen Stichprobe (nX) x Hypothesen Voraussetzungen X Sind die Erwartungswerte gleich: H0 oder Population zu Messzeitpunkt 2 verschieden: H1 y Y Stichprobe (nY) Statistik & Methodenlehre Einführung Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der unabhängige 2-Stichproben t-Test – Grundlagen Prüfgröße Ansatz: Anders als beim t-Test für abhängige Stichproben sind für die Daten nicht sinnvoll Differenzen zu bilden Hypothesen Man kann lediglich die Differenz der Mittelwerte berechnen Voraussetzungen XY x y Dies erzeugt wieder eine neue Zufallsvariable Auf die neue Zufallsvariable kann die gewohnte Testlogik angewandt werden Statistik & Methodenlehre Einführung Prüfgröße Hypothesen Voraussetzungen Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der unabhängige 2-Stichproben t-Test – Grundlagen Um die Größe des Wertes XY prüfen zu können, sind wie üblich 2 Angaben nötig 1. Die Form der Wahrscheinlichkeitsverteilung, dem dieser Wert bei vielen Wiederholungen des Zufallsexperimentes folgen sollte 2. Die Parameter dieser Wahrscheinlichkeitsverteilung Sind diese Angaben bekannt, kann die gewohnte Testlogik angewandt werden Statistik & Methodenlehre Einführung Stetige Verteilungen Tests für Intervalldaten Der unabhängige 2-Stichproben t-Test – Grundlagen x Prüfgröße Hypothesen Voraussetzungen Inferenzstatistik Stichprobe 1 Differenz der Mittelwerte ? XY Stichprobe 2 y Daten (beobachtet) ˆ Daten (berechnet) XY und ˆ XY Population der Differenz von Mittelwerten (geschätzt) Statistik & Methodenlehre Einführung Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der unabhängige 2-Stichproben t-Test – Grundlagen Prüfgröße Frage 1: Wie ist die Verteilung der Differenz von Mittelwerten zweier Zufallsvariablen X und Y? Hypothesen Die Differenz ist nichts anderes als eine Summe von Summen von Zufallsvariablen und sollte gemäß des ZGS normalverteilt sein. Voraussetzungen Frage 2: Wie ist der Erwartungswert? Wenn beide Zufallsvariablen eigentlich dieselbe Population abbilden (H0), so sollte gelten 0 XY Statistik & Methodenlehre Einführung Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der unabhängige 2-Stichproben t-Test – Grundlagen Prüfgröße Frage 3: Wie ist die Varianz? Hypothesen Die einzige zur Verfügung stehende Information über die Streuung der Mittelwerte kann aus der Streuung der Daten bzw. ihrer Differenzen gewonnen werden Voraussetzungen Lösung: Man wirft die Stichproben zusammen („Pooling“) und schätzt daraus eine gemeinsame Populationsvarianz der Daten: 2 ˆ XY nX s X2 nY sY2 nX nY 2 Statistik & Methodenlehre Einführung Prüfgröße Stetige Verteilungen Tests für Intervalldaten Der unabhängige 2-Stichproben t-Test – Grundlagen Gefragt ist aber nicht die geschätzte Populationsvarianz der Daten, sondern die geschätzte Populationsvarianz des Mittelwerts der Differenzen, also Hypothesen Voraussetzungen Inferenzstatistik 2 ˆ XY anstatt ˆ 2 XY Dies ist wieder der Standardfehler, berechnet über ˆ 2 XY 1 1 und damit 1 1 2 ˆ XY ˆ XY ˆ XY nX nY nX nY „Standardfehler“ Statistik & Methodenlehre Einführung Prüfgröße Hypothesen Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der unabhängige 2-Stichproben t-Test – Grundlagen Damit liegt die Wahrscheinlichkeitsverteilung der Differenz von Mittelwerten unter der Nullhypothese fest Sie lautet XY ~ NV XY , ˆ XY Voraussetzungen mit 0 XY und ˆ XY 1 1 ˆ XY nX nY Nun kann die gewohnte Testlogik angewandt werden Statistik & Methodenlehre Einführung Prüfgröße Hypothesen Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der unabhängige 2-Stichproben t-Test Man sollte nun eine standardnormalverteilte Prüfgröße berechnen können gemäß XY 0 t ˆ XY Voraussetzungen Wieder zeigte W. S. Gosset (1908), dass die Wahrscheinlichkeitsverteilung von t nur für Stichproben mit großen Umfängen n gegen die Normalverteilung geht Die tatsächliche Verteilung von t ist eine t-Verteilung Die t-Verteilung hat genau einen Parameter, die so genannten Freiheitsgrade (df) Dieser ist hier df = nX + nY – 2 Statistik & Methodenlehre Einführung Prüfgröße Hypothesen Voraussetzungen Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der unabhängige 2-Stichproben t-Test – Grundlagen Der t-Test folgt exakt der üblichen Vorgehensweise des Hypothesentestens 1. Voraussetzungen prüfen 2. Verteilungsannahme treffen: t-verteilt mit den berechneten df 3. Hypothesenrichtung festlegen und statistische Hypothesen formulieren 4. Signifikanzniveau festlegen 5. Prüfgröße t bestimmen (diese ist eine Realisation der neuen Zufallsvariablen T) 6. Wahrscheinlichkeit für die berechnete Prüfgröße bestimmen und mit dem Signifkanzniveau vergleichen Statistik & Methodenlehre Einführung Prüfgröße Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der unabhängige 2-Stichproben t-Test Beim t-Test sind wie beim z-Test potentiell alle drei möglichen Hypothesenrichtungen von Interesse. Hypothesen Voraussetzungen H 0 : XY 0 Verwerfen der Verteilungsannahme H1 : XY 0 bei höheren Werten in XY H 0 : XY 0 Verwerfen der Verteilungsannahme H1 : XY 0 bei niedrigeren Werten in XY „Einseitige“ oder „gerichtete“ Hypothese H 0 : XY 0 Verwerfen der Verteilungsannahme H1 : XY 0 bei extremeren Werten in XY „Zweiseitige“ oder „ungerichtete“ Hypothese Statistik & Methodenlehre Einführung Prüfgröße Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der unabhängige 2-Stichproben t-Test Wie beim t-Test für abhängige Stichproben können die Hypothesen umformuliert werden zu Hypothesen Voraussetzungen H 0 : X Y Verwerfen der Verteilungsannahme H1 : X Y bei höheren Werten in XY H 0 : X Y Verwerfen der Verteilungsannahme H1 : X Y bei niedrigeren Werten in XY „Einseitige“ oder „gerichtete“ Hypothese H 0 : X Y Verwerfen der Verteilungsannahme H1 : X Y bei extremeren Werten in XY „Zweiseitige“ oder „ungerichtete“ Hypothese Statistik & Methodenlehre Einführung Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der unabhängige 2-Stichproben t-Test Prüfgröße Man ermittelt nun die Auftretenswahrscheinlichkeit p(z|H0) unter der Annahme, dass die angenommene Wahrscheinlichkeitsverteilung gilt. Hypothesen Dazu berechnet man Voraussetzungen p T t für die H 0 : X Y Verwerfen der H0 bei einer zu positiven Differenz p T t für die H 0 : X Y Verwerfen der H0 bei einer zu negativen Differenz p T t für die H 0 : X Y p T t Verwerfen der H0 bei einer zu extremen Differenz und vergleicht p mit dem Signifikanzniveau Das p(…) wird aus der Verteilungsfunktion der t-Verteilung berechnet Statistik & Methodenlehre Stetige Verteilungen Inferenzstatistik Einführung Tests für Intervalldaten Prüfgröße Beobachtung im Experiment: Der unabhängige 2-Stichproben t-Test x, y Frage: Stammen die Stichproben aus derselben Population? Geht die Größe des Mittelwerts der Differenz auf einen Stichprobenfehler zurück? Hypothesen Voraussetzungen (1) Festlegung von Signifikanzniveau α Achtung: Vorher und Gerichtetheit immer Prüfung der Voraussetzungen! (2) Berechnung der Prüfgröße t (3) Berechnung der Wahrscheinlichkeit für dieses oder ein extremeres z: z. B. p(X≥ t) (4) Vergleich von p mit α und Treffen der Signifikanzaussage Aber: Bei dieser Aussage irrt man sich mit einer Wahrscheinlichkeit von α·100% Statistik & Methodenlehre Einführung Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Der unabhängige 2-Stichproben t-Test Prüfgröße Intervallskalenniveau der betrachteten Zufallsvariable Hypothesen Voraussetzungen Normalverteilung des Merkmals in der Population für Stichprobengrößen von nX + nY ≤ 50. Homogenität der Populationsvarianzen (automatisch erfüllt, wenn H0 gilt; über verschiedene Tests prüfbar, z.B. den Levène Test auf Varianzgleichheit) Unabhängigkeit der Stichproben, so dass ein Merkmalsträger nur in einer Stichprobe vorhanden ist. Statistik & Methodenlehre Einführung Prüfgröße Hypothesen Voraussetzungen Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Unabhängig vs. abhängig Frage: Sollte ein Experimentaldesign eher auf einen tTest für unabhängige Stichproben oder für abhängige Stichproben abzielen? Der t-Test für unabhängige Stichproben scheint zunächst testschärfer, weil seine Prüfgröße einer Verteilung mit doppelt so vielen Freiheitsgraden folgt, die damit schmaler ist. Dieser Unterschied wirkt sich jedoch bei üblichen Stichprobengrößen (n>30) kaum mehr aus Wesentlich relevanter ist die Höhe des Standardfehlers, der beim t-Test für abhängige Stichproben kleiner ist, sobald die Kovarianz größer 0 ist. Statistik & Methodenlehre Einführung Prüfgröße Hypothesen Voraussetzungen Stetige Verteilungen Inferenzstatistik Tests für Intervalldaten Unabhängig vs. abhängig In der Praxis ist der abhängige Fall dem unabhängigen Fall hinsichtlich der Teststärke deshalb zumeist klar überlegen. Aber: Für jedes Untersuchungsdesign mit abhängigen Stichproben gelten dieselben kritische Punkte, u.a. • Carry-Over Effekte zwischen den Messzeitpunkten (z.B. Lerneffekte) • Drop-Outs zu späteren Messzeitpunkten reduzieren die gesamte Stichprobe • Das Untersuchungsdesign sollte nicht auf eine negative Kovarianz zwischen den Messzeitpunkten abzielen Statistik & Methodenlehre Relevante Excel Funktionen Tests für Intervalldaten • • • • MITTELWERT() STABW.S(), STABW.N() VAR.S(), VAR.P() T.VERT() Statistik & Methodenlehre Multiples Testen Korrekturen Stetige Verteilungen Inferenzstatistik Multiples Testen Problemstellung Die Irrtumswahrscheinlichkeit α sagt nicht, dass die getroffene Entscheidung für eine der Hypothesen mit α·100%iger Wahrscheinlichkeit falsch ist (sie ist entweder zutreffend oder nicht) Die Irrtumswahrscheinlichkeit α charakterisiert die Wahrscheinlichkeit, dass man einen beobachteten (Kenn-)Wert (oder einen noch extremeren) erhält unter der Annahme, dass H0 zutrifft Sie lässt sich alltagssprachlich übersetzen in die Aussage „Werden für multiple Stichprobenziehungen aus derselben Population k Signifikanztests durchgeführt, werden von diesen Tests α·k allein durch Zufallsfehler bei der Stichprobenziehung signifikant.“ Statistik & Methodenlehre Multiples Testen Korrekturen Stetige Verteilungen Inferenzstatistik Multiples Testen α-Fehler Kumulierung beim statistischen Testen In der empirischen Praxis hat man häufig nicht nur zwei Stichproben bzw. Gruppen, sondern mehr als zwei Beispiele: Mittleres Einkommen verschiedener Wählergruppen (SPD, CDU, FDP, Grüne); multiple Befragungen von Patienten während des Therapieprozesses Sollen alle Gruppen mithilfe des t-Tests miteinander verglichen werden, sind multiple t-Tests notwendig. Jeder von diesen besitzt eine Irrtumswahrscheinlichkeit von α bei vielen Tests kommt es zur so genannten αFehler Kumulierung („von k Tests sollten mindestens α100% signifikant werden“) Statistik & Methodenlehre Multiples Testen Korrekturen Stetige Verteilungen Inferenzstatistik Multiples Testen Bonferroni-Korrektur und Dunn-Sidak Korrektur Die Bonferroni-Korrektur nimmt an, dass bei k Tests das α-Niveau um 1/k verringert werden muss, um die erhöhte Irrtumswahrscheinlichkeit auszugleichen ' k Die Dunn-Sidak Korrektur geht von unabhängigen Stichproben aus und berechnet das neue α-Niveau über die komplementäre Wahrscheinlichkeit, dass bei k Stichproben nur α·k signifikant werden. ' 1 (1 ) 1 k Die Bonferroni-Korrektur ist (marginal) konservativer als Dunn-Sidak Statistik & Methodenlehre Einführung Effektstärke Effektstärke Signifikanztests Das klassische Hypothesentesten Der Test gilt dann als signifkant, wenn die Wahrscheinlichkeit für den konkreten Wert der Prüfgröße unter der H0 zu niedrig ist. In diesem Fall wird die H0 verworfen und angenommen, dass die H1 gilt. Die Prüfgröße bzw. die ihr zugrunde liegenden Beobachtungen stammen dann nicht aus der Population, die mit der H0 beschrieben wird. Problem: Aus welcher Population stammen sie dann? Oder auch: Gibt es überhaupt die Population für die H0? Statistik & Methodenlehre Einführung Effektstärke Effektstärke Signifikanztests Das klassische Hypothesentesten Die Annahme einer feststehenden Population ist eine Idealisierung und praktisch nicht zu halten. Gründe: Mortalität, Fluktuation, Maturation (i.e. Veränderungen der Merkmalsträger zwischen Zeitpunkten). Damit ist der Erwartungswert (kleinsten) Schwankungen unterworfen, die sich auch in den Stichprobenbeobachtungen niederschlagen werden. Mit genügend hohem Stichprobenumfang werden solch kleinste Schwankungen zu Signifikanzen führen. Mit großen n kann jede H0 verworfen werden. Statistik & Methodenlehre Einführung Effektstärke Effektstärke Signifikanztests Die Effektstärke Damit stellt sich die Frage nach der praktischen Bedeutsamkeit signifikanter Ergebnisse. Beispiel: Mit genügend hohem n wird sich ein IQUnterschied von 0.05 Punkten zwischen farbigen und weißen Personen signifikant testen lassen. Hat aber dieser Unterschied irgend eine praktische Bedeutung? Cohen (1988) schlägt daher das Konzept der Effektstärke als Ergänzung zum Signifikanztest vor. Die Effektstärke soll die Größe eines Unterschiedes oder Zusammenhangs relativ zur Streuung von Daten wiedergeben – und nicht zur Streuung von Mittelwerten oder anderer von n abhängiger Maße. Statistik & Methodenlehre Einführung Effektstärke Effektstärke Signifikanztests Die Effektstärke – Cohen‘s d Cohen‘s d drückt einen Unterschied zwischen Erwartungswerten (bzw. beobachteten Mittelwerten) in Einheiten der Streuung der beobachteten Zufallsvariablen aus. Je größer die Varianz der Zufallsvariablen, desto kleiner wird die Effektstärke, unabhängig von der Stichprobengröße. Cohen gibt verschiedene Daumenregeln für die Interpretation von d an: d .2 kleiner Effekt d .5 mittlerer Effekt d .8 großer Effekt Statistik & Methodenlehre Einführung Effektstärke Effektstärke Signifikanztests Die Effektstärke – Cohen‘s d Cohen‘s d drückt einen Unterschied zwischen Erwartungswerten (bzw. beobachteten Mittelwerten) in Einheiten der Streuung der beobachteten Zufallsvariablen aus. Je größer die Varianz der Zufallsvariablen, desto kleiner wird die Effektstärke, unabhängig von der Stichprobengröße. Wolf (1986) vereinfachte diese Regeln noch weiter: d .25 akademisch relevant ("something was learned") d .50 praktisch/klinisch relevant ("something happened") Statistik & Methodenlehre Einführung Effektstärke Effektstärke Signifikanztests Die Effektstärke – Cohen‘s d Die mathematische Definition der Effektstärke nach Cohen ist sehr allgemein, je nach Anwendungsfall existieren verschiedene konkrete Formeln. Für den 1-Stichproben t-Test: x d ˆ mit ˆ n s n 1 Statistik & Methodenlehre Einführung Effektstärke Effektstärke Signifikanztests Die Effektstärke – Cohen‘s d Die mathematische Definition der Effektstärke nach Cohen ist sehr allgemein, je nach Anwendungsfall existieren verschiedene konkrete Formeln. Für den 2-Stichproben t-Test für abhängige Stichproben: d mit ˆ XY XY ˆ XY n s XY n 1 Statistik & Methodenlehre Einführung Effektstärke Effektstärke Signifikanztests Die Effektstärke – Cohen‘s d Die mathematische Definition der Effektstärke nach Cohen ist sehr allgemein, je nach Anwendungsfall existieren verschiedene konkrete Formeln. Für den 2-Stichproben t-Test für unabhängige Stichproben: xy d ˆ XY mit ˆ XY nX s X2 nY sY2 nX nY 2 Statistik & Methodenlehre Class dismissed.