Mathematische und statistische Methoden II

Werbung
Methodenlehre
& Statistik
Sprechstunde
jederzeit nach
Vereinbarung und
nach der Vorlesung
Mathematische und
statistische Methoden II
Wallstr. 3, 6. Stock,
Raum 06-206
Dr. Malte Persike
[email protected]
lordsofthebortz.de
lordsofthebortz.de/g+
facebook.com/methodenlehre
twitter.com/methodenlehre
youtube.com/methodenlehre
SoSe 2012
Folie 2
Psychologisches Institut
Johannes Gutenberg Universität Mainz
Methodenlehre
& Statistik
Vorlesung
Organisatorisches
Einführung
Unsere Website
http://lordsofthebortz.de
Tutorien
Literatur
Software
Folie 3
Methodenlehre
& Statistik
Vorlesung
Organisatorisches
Einführung
Der Kummerkasten
http://lordsofthebortz.de/box
Tutorien
Literatur
Software
Folie 4
Methodenlehre
& Statistik
Vorlesung
Organisatorisches
Einführung
Soziale Netzwerke
http://lordsofthebortz.de/g+
Tutorien
Literatur
Blog der Abteilung auf Google+, Antworten auf statistische
Fragen und Einträge aus der Kommentarbox
http://twitter.com/methodenlehre
Neuigkeiten aus der Abteilung
Software
http://youtube.com/methodenlehre
Vorlesungen und Statistikhäppchen zum Nachschauen
http://facebook.com/methodenlehre
Tutorengruppe, Reposts von der Google+ Seite
Folie 5
Methodenlehre
& Statistik
Vorlesung
Tutorien
Organisatorisches
Der Gaussian Hangout
Sind Fragen übrig, die weder in der Vorlesung, im
Tutorium oder sonstwo geklärt werden konnten?
Literatur
Software
Dann besucht
uns im Hangout.
Jeden Donnerstag im
Semester von 18-19 Uhr
http://lordsofthebortz.de/g+
Folie 6
Einführung
Methodenlehre
& Statistik
Vorlesung
Organisatorisches
Einführung
Organisatorisches
Aufbau des Moduls Methodenlehre
Semester 1
Semester 2
Statistik I/II
Literatur
Vorlesung
Statistik II/I
Software
Forschungsmethoden
Softwaremethoden
Tutorien
Vorlesung
Vorlesung
Seminar
(120 min.)
Modulabschlussklausur
Folie 7
Methodenlehre
& Statistik
Vorlesung
Organisatorisches
Einführung
Organisatorisches
Probeklausur für Erstsemester – Ausblick
Semester 1
Semester 2
Statistik I/II
Literatur
Vorlesung
Statistik II/I
Software
Forschungsmethoden
Softwaremethoden
Tutorien
Vorlesung
Vorlesung
Seminar
(120 min.)
Probeklausur
Folie 8
Abschlussklausur
(60 min.)
Abschlussklausur
oder
(60 min.)
Methodenlehre
& Statistik
Vorlesung
Tutorien
Organisatorisches
Einführung
Organisatorisches
Probeklausur für Erstsemester – Disclaimer
 Die Teilnahme an der Probeklausur nach dem ersten
Semester ist freiwillig, es findet keine Anmeldung im
Rahmen des BSc Studiums statt.
Literatur
 Es entstehen daraus keine studienwirksamen
Konsequenzen für die Teilnahme an der
Modulabschlussklausur (z.B. Verlust eines Versuchs)
Software
 Die Probeklausur wird nicht benotet
 Es entsteht kein Anrecht auf Berücksichtigung des
erzielten Ergebnisses in der Modulabschlussklausur
(120 min.)
Probeklausur
Folie 9
Abschlussklausur
(60 min.)
Abschlussklausur
oder
(60 min.)
Methodenlehre
& Statistik
Vorlesung
Tutorien
Organisatorisches
Einführung
Organisatorisches
I.



Bestandteile der Veranstaltung
Vorlesung
wöchentliche Hausaufgaben
Tutorien (Übungen & Besprechung der HA)
II.
Leistungskriterium
Bestehen der Modulabschlussprüfung
Literatur
Software
III. Unser Qualitätsversprechen
 Emails werden im Semester innerhalb von 24h
beantwortet (an Werktagen)
 Folien sind ab 20:00 Uhr des Tages vor der
Veranstaltung herunterladbar
 Klausuren werden innerhalb von 3 Wochen
nachgesehen
Folie 10
Methodenlehre
& Statistik
Vorlesung
Organisatorisches
Tutorien
Josephine Clausen
Tutorien
Einführung
Di
9 - 11 Uhr
Do
9 - 11 Uhr
Mo
14 - 16 Uhr
Mo
16 - 18 Uhr
(CIP Pool, Raum 01-236)
Josephine Clausen
(CIP Pool, Raum 01-236)
Literatur
Bernhard Both
(CIP Pool, Raum 01-236)
Software
Bernhard Both
(CIP Pool, Raum 01-236)
 Die Tutorien beginnen ab dem 03.05.2012.
 Bitte um gleichmäßige Verteilung auf die 4 Tutorien
 Wenn möglich: eigenes Notebook mitbringen
Folie 11
Methodenlehre
& Statistik
Vorlesung
Tutorien
Organisatorisches
Einführung
Inhalte der Vorlesung im SoSe
Wahrscheinlichkeitstheorie


Einführung und zentrale Konzepte
Stichprobenverteilungen
Literatur
Deskriptive Statistik
Software


Tabellarische und grafische Möglichkeiten
der Ergebnisdarstellung
Kennwerte
Inferenzstatistik


Folie 12
Tests für Unterschiede (Differenzentests)
Tests für Zusammenhänge (Korrelationstests)
Methodenlehre
& Statistik
Vorlesung
Tutorien
Literatur
Organisatorisches
Literatur
Basiswerke
Bortz, J. & Schuster, C. (2010).
Statistik für Human- und
Sozialwissenschaftler (7. Aufl.).
Berlin: Springer-Verlag
Software
Fahrmeir, L., Künstler, R., Pigeot, I.
& Tutz, G. (2009). Statistik - Der
Weg zur Datenanalyse (6. Aufl.).
Berlin: Springer.
Folie 13
Einführung
Methodenlehre
& Statistik
Vorlesung
Tutorien
Organisatorisches
Literatur
Vorbereitung
Steland, A. (2003). Mathematische
Grundlagen der empirischen Forschung.
Heidelberg: Springer
Literatur
Software
Huber, O. (2009). Das
psychologische Experiment:
Eine Einführung.
Bern: Huber
Folie 14
Einführung
Methodenlehre
& Statistik
Vorlesung
Organisatorisches
Einführung
Literatur
Arbeitsbücher
Tutorien
Literatur
Spiegel, M. R. (2008). Statistics.
Hamburg: Schaum‘s Outlines
Software
Bernstein, S. & Bernstein, R. (1999).
Elements of Statistics I & II
Hamburg: Schaum‘s Outlines
Folie 15
Methodenlehre
& Statistik
Vorlesung
Organisatorisches
Einführung
Software
Datenerfassung
Tutorien
Datentransformation
Deskriptive Auswertung
Literatur
Darstellung & Visualisierung
Kennwertberechnung
Software
Einfache statistische Analysen
Einarbeitung und Mitarbeit erforderlich!
Statistik verstehen durch Arbeit an Daten!
Excel-basierte Klausuren
Folie 16
Methodenlehre
& Statistik
Organisatorisches
Einführung
Vorlesung
Exceleinführung
Tutorien
Termin 1 – Erste Schritte
Mittwoch,
Literatur
25.04. von 14-16 Uhr
(CIP Pool, Raum 01-236)
Termin 2 – Vertiefung
Software
Donnerstag, 26.04. von 9-11 Uhr
(CIP Pool, Raum 01-236)
Notebooks mitbringen!
Folie 17
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Variablen
Statistik
Folie 18
Organisatorisches
Einführung
Psychologie als Wissenschaft
„Wozu brauchen wir das?“
Gegenstand
Die Psychologie ist eine empirische Wissenschaft
über (menschliches) Verhalten und Erleben.
Empirische Wissenschaft
 Auf Erfahrung beruhend, erfahrungswissenschaftlich

Prüfung von Hypothesen über Tatsachenbeobachtungen,
zumeist an Stichproben

Empirische Methoden: a) Prinzip der systematischen
Manipulation und Beobachtung; b) Aussagen werden
über die Regeln des logischen Schließens verknüpft

Verallgemeinerung durch statistischen Induktionsschluss: Was in der Stichprobe gilt, gilt auch in der
Population.
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Variablen
Statistik
Folie 19
Organisatorisches
Einführung
Psychologie als Wissenschaft
Grundbegriffe wissenschaftlicher Datensammlung
 Merkmal: Isolierte Eigenschaft eines größeren Ganzen,
z.B. Intelligenz, Geschlecht, Depressivität
 Ausprägung: Zustand des Merkmals,
z.B. IQ=115, Geschlecht=männlich, Depressivität=hoch
 Merkmalsträger (auch: statistische Einheiten,
Beobachtungseinheiten):
 „Objekte“ bei denen man die Ausprägung von
Merkmalen beobachten kann
 In der Psychologie zumeist Menschen, aber auch
Tiere oder Aggregate wie z.B. Abteilungen in Firmen
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Organisatorisches
Einführung
Psychologie als Wissenschaft
Grundbegriffe wissenschaftlicher Datensammlung
 Beobachtungen: Feststellung der Ausprägung von
Merkmalen bei Merkmalsträgern
 Beobachtungen im engeren Sinn (z.B.
Verhaltensbeobachtung, Bildgebende Verfahren)
 Ergebnisse in einem Leistungstest, Selbstauskunft
Variablen
Statistik
 Daten: Sämtliche Beobachtungen bei der
Informationssammlung
 Statistik (im weiteren Sinn): Methoden zur Sammlung und
Analyse von Daten
Folie 20
Methodenlehre
& Statistik
Organisatorisches
Einführung
Forschungsprozeß
Theorien/Empirie
Fragestellung/Problem
Vermutung über Zusammenhang von Größen
Formulierung inhaltlicher
Hypothesen
Identifikation der
AV und UV
Operationalisierung der
AV und UV:
Festlegen von Größen
auf die Art, in der sie
gemessen werden
können & des
Messinstrumentes
Datenauswertung:
Beschreibung der Daten,
Statistischer Schluss von
der Stichprobe auf die
Population
Formulierung der
statistischen Hypothesen
Rückschluss auf die zu
erfassenden Konstrukte
Wahl der Stichprobe
(Ort, Zeit, Umfang etc.)
Konfrontation der
Ergebnisse mit den
inhaltlichen Hypothesen
Messung der AV und UV
Beantwortung der
Fragestellung
Folie 21
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Organisatorisches
Einführung
Wissenschaftliche Aussagen
Anforderungen
 Einfachheit (Ockham‘s Razor)
Variablen
Statistik
 Eindeutigkeit
 Logische Konsistenz (innere und äußere)
 Falsifizierbarkeit, Prüfbarkeit durch Tatsachenbezug
Folie 22
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Organisatorisches
Einführung
Wissenschaftliche Aussagen
„Interpersonale Hilfeperformanz nach der Konsumption
von interaktiven Telemedien wird durch
contentdeterminierte Affektlagen moduliert.“
 Einfachheit (Ockham‘s Razor)
Variablen
Statistik
 Eindeutigkeit
 Logische Konsistenz (innere und äußere)
 Falsifizierbarkeit, Prüfbarkeit durch Tatsachenbezug
Folie 23
Methodenlehre
& Statistik
Empirie
& Theorie
Organisatorisches
Einführung
Wissenschaftliche Aussagen
„Die Teilnahme an gewalthaltigen Computerspielen
verringert die Bereitschaft zu helfen.“
Wissenschaftl.
Aussagen
 Einfachheit (Ockham‘s Razor)
Variablen
Statistik
 Eindeutigkeit
 Logische Konsistenz (innere und äußere)
 Falsifizierbarkeit, Prüfbarkeit durch Tatsachenbezug
Folie 24
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Organisatorisches
Einführung
Wissenschaftliche Aussagen
„Die Teilnahme an gewalthaltigen Computerspielen
verringert die Bereitschaft, anderen Menschen in einer
Notlage zu helfen.“
 Einfachheit (Ockham‘s Razor)
Variablen
Statistik
 Eindeutigkeit
 Logische Konsistenz (innere und äußere)
 Falsifizierbarkeit, Prüfbarkeit durch Tatsachenbezug
Folie 25
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Organisatorisches
Einführung
Wissenschaftliche Aussagen
„Die Teilnahme an gewalthaltigen Computerspielen
verringert und erhöht die Bereitschaft, anderen
Menschen in einer Notlage zu helfen.“
 Einfachheit (Ockham‘s Razor)
Variablen
Statistik
 Eindeutigkeit
 Logische Konsistenz (innere und äußere)
 Falsifizierbarkeit, Prüfbarkeit durch Tatsachenbezug
Folie 26
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Organisatorisches
Einführung
Wissenschaftliche Aussagen
„Die Teilnahme an gewalthaltigen Computerspielen
verringert oder erhöht die Bereitschaft, anderen
Menschen in einer Notlage zu helfen oder sie bleibt
gleich.“
 Einfachheit (Ockham‘s Razor)
Variablen
Statistik
 Eindeutigkeit
 Logische Konsistenz (innere und äußere)
 Falsifizierbarkeit, Prüfbarkeit durch Tatsachenbezug
Folie 27
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Organisatorisches
Einführung
Psychologische Aussagen
 Psychologische Aussagen orientieren sich an den 4
Anforderungen für wissenschaftliche Aussagen.
 Hypothesen in der Psychologie sind üblicherweise
Aussagen über Gesetzmäßigkeiten, die als „WennDann“-Aussagen formuliert sind
Variablen
Statistik
„Wenn sich der Gewaltgehalt von Computerspielen
erhöht, dann verringert sich die Bereitschaft der Spieler,
anderen Personen in einer Notlage zu helfen.“
Folie 28
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Variablen
Organisatorisches
Einführung
Psychologische Aussagen
 Psychologische Aussagen orientieren sich an den 4
Anforderungen für wissenschaftliche Aussagen.
 Hypothesen in der Psychologie sind üblicherweise
Aussagen über Gesetzmäßigkeiten, die als „WennDann“-Aussagen formuliert sind
 Trifft eine Wenn-Dann-Aussage zu, so gilt immer, dass
„Wenn sich A verändert, verändert sich auch B“.
Statistik
„Die
„Wenn
Teilnahme
sich der an
Gewaltgehalt
gewalthaltigen
von Computerspielen (A)
verringert
erhöht, dann
dieverringert
Bereitschaft,
sichanderen
die Bereitschaft
Menschen
der
inSpieler,
einer
helfen (B).“
Notlage
anderenzu
Personen
helfen.“in einer Notlage zu helfen.“
Folie 29
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Variablen
Statistik
Folie 30
Organisatorisches
Einführung
Psychologische Aussagen
 Psychologische Aussagen orientieren sich an den 4
Anforderungen für wissenschaftliche Aussagen.
 Hypothesen in der Psychologie sind üblicherweise
Aussagen über Gesetzmäßigkeiten, die als „WennDann“-Aussagen formuliert sind
 Trifft eine Wenn-Dann-Aussage zu, so gilt immer, dass
„Wenn sich A verändert, verändert sich auch B“.
 Diese Kovariation zwischen Begriffen kann empirisch
über Beobachtung und Messung geprüft werden
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Variablen
Organisatorisches
Einführung
Psychologische Aussagen
Das Kovariationsprinzip
 Das Kovariationsprinzip ist eines der elementaren
Konzepte in der Statistik
 Es vereinigt die zwei alltagssprachlich verschiedenen
Begriffe des Zusammenhangs und Unterschieds als
zwei Perspektiven desselben Prinzips:
Ein Unterschied ist ein Zusammenhang
Statistik
Ein Zusammenhang ist ein Unterschied
 Für beide Perspektiven existieren statistische
Verfahren zur Feststellung und Überprüfung
Folie 31
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Variablen
Statistik
Organisatorisches
Psychologische Aussagen
Das Kovariationsprinzip
 Beispiel: Mädchen rund um die Welt erleben ihre
Adoleszenz stressreicher als Jungen
(Persike und Seiffge-Krenke, 2011)
 Der Unterschied liegt im verschiedenen
Stresserleben von Jungen und Mädchen.
 Der Zusammenhang liegt in der Kovariation der
beiden Merkmale Geschlecht und Stresserleben.
Merkmal
Geschlecht
Merkmal
Mädchen
Stress
Folie 32
Einführung
W
Stress
M
>
Stress
Jungen
Methodenlehre
& Statistik
Empirie
& Theorie
Organisatorisches
Einführung
In der Praxis
Beispiel für psychologische Forschung
Forschungsvorhaben: Aversive Bilder & sportliche Leistung
Wissenschaftl.
Aussagen
Variablen
Selbstbeobachtung
„Ich jogge schneller, wenn ich mich vorher geärgert
habe.“
Alltagssprachliche Fragestellung
„Erhöht sich die sportliche Leistungsfähigkeit bei
stark negativen Gefühlszuständen?“
Statistik
Hypothese
„Wenn Menschen Stimuli mit hohem aversiven
Anregungsgehalt dargeboten bekommen, dann
erhöht sich ihre physiologische Aktivierung bei
sportlichen Tätigkeiten.“
Folie 33
Methodenlehre
& Statistik
Organisatorisches
Einführung
Forschungsprozeß
Theorien/Empirie
Fragestellung/Problem
Vermutung über Zusammenhang von Größen
Formulierung inhaltlicher
Hypothesen
Identifikation der
AV und UV
Operationalisierung der
AV und UV:
Festlegen von Größen
auf die Art, in der sie
gemessen werden
können & des
Messinstrumentes
Datenauswertung:
Beschreibung der Daten,
Statistischer Schluss von
der Stichprobe auf die
Population
Formulierung der
statistischen Hypothesen
Rückschluss auf die zu
erfassenden Konstrukte
Wahl der Stichprobe
(Ort, Zeit, Umfang etc.)
Konfrontation der
Ergebnisse mit den
inhaltlichen Hypothesen
Messung der AV und UV
Beantwortung der
Fragestellung
Folie 34
Methodenlehre
& Statistik
Empirie
& Theorie
Organisatorisches
Variablen
Vom Merkmal zur Variable

Bei den Merkmalsträgern werden anfangs immer
Merkmale beobachtet, z.B. Alter, IQ, libidinöse Erregung.

Die „Werte“, die ein Merkmal annehmen kann, heißen
Ausprägungen

Ein Merkmal hat mindestens zwei Ausprägungen, die
beliebig beschrieben sein können, z.B. verbal (jung/alt),
Wissenschaftl.
Aussagen
Variablen
numerisch (0/1), bildlich (
Statistik

Folie 35
Einführung
/
)
Der Begriff Beobachtung in der psychologischen
Forschung bezeichnet streng genommen nur die
Feststellung der Ausprägung eines Merkmals
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Organisatorisches
Einführung
Variablen

Die Statistik als mathematische Disziplin muss mit
Zahlen arbeiten, nicht mit den beliebig kodierten
Ausprägungen eines Merkmals.

Man ordnet daher zunächst den Ausprägungen eines
Merkmals feste Zahlen zu. Ein zahlenmäßig kodiertes
Merkmal heißt dann Variable.
Variablen
Statistik
Folie 36
Merkmal
Variable
(Altersgruppe)
(Altersgruppe)
mit Ausprägungen
mit Ausprägungen
(jung, alt)
(0, 1)
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Organisatorisches
Einführung
Variablen

Die Statistik als mathematische Disziplin muss mit
Zahlen arbeiten, nicht mit den beliebig kodierten
Ausprägungen eines Merkmals.

Sie ordnet daher zunächst den Ausprägungen eines
Merkmals feste Zahlen zu. Ein zahlenmäßig kodiertes
Merkmal heißt dann Variable.

Die Überführung der Beobachtung eines Merkmals in
den Zahlenwert einer Variable wird als Messung
bezeichnet.

Der festgestellte Zahlenwert ist der Messwert einer
Variablen.

Es gibt verschiedene Klassifikationssysteme, um Typen
von Variablen zu unterscheiden.
Variablen
Statistik
Folie 37
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Variablen
Statistik
Organisatorisches
Einführung
Variablen
Unterscheidung nach Art der Manipulation ihrer Werte

Eine unabhängige Variable (UV, IV) besitzt Werte,
die ein Versuchsleiter willkürlich hergestellt hat (z.B.
Dosis eines verabreichten Medikamentes, Einteilung
in Gruppen, die bestimmte Treatments bekommen)

Eine abhängige Variable (AV, DV) besitzt Werte, die
man erst über die Messung bei den Merkmalsträgern
gewinnt (z.B. Reaktionszeit, Fehlerquote,
Erregungsniveau, etc.)
Schema:
Unabhängige Variable
UV
Folie 38
Abhängige Variable
AV
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Organisatorisches
Variablen
Unterscheidung nach Art der Manipulation ihrer Werte
Einfache Merkregel

Unabhängige Variablen sind Variablen, deren
Ausprägungen der Versuchsleiter im Experiment
verändert/kontrolliert, die er also vorher kennt.

Abhängige Variablen sind Variablen, die im
Experiment an der Versuchsperson gemessen
werden.

Die Ausprägung der UV soll die Größe der AV
beeinflussen, niemals umgekehrt.

Dies ist wieder das Kovariationsprinzip
Variablen
Statistik
Folie 39
Einführung
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Organisatorisches
Einführung
In der Praxis
Beispiel für psychologische Forschung
Forschungsvorhaben: Aversive Bilder & sportliche Leistung
Variablen
Merkmale
Negativer Anregungsgehalt der Bilder
Physiologische Aktivierung
Statistik
Variablen
Festlegung numerischer Werte bzw. einer Messskala
für die Ausprägungen der Merkmale
Problem
Wie werden die Variablen überhaupt gemessen?
Folie 40
Methodenlehre
& Statistik
Organisatorisches
Einführung
Forschungsprozeß
Theorien/Empirie
Fragestellung/Problem
Vermutung über Zusammenhang von Größen
Formulierung inhaltlicher
Hypothesen
Identifikation der
AV und UV
Operationalisierung der
AV und UV:
Festlegen von Größen
auf die Art, in der sie
gemessen werden
können & des
Messinstrumentes
Datenauswertung:
Beschreibung der Daten,
Statistischer Schluss von
der Stichprobe auf die
Population
Formulierung der
statistischen Hypothesen
Rückschluss auf die zu
erfassenden Konstrukte
Wahl der Stichprobe
(Ort, Zeit, Umfang etc.)
Konfrontation der
Ergebnisse mit den
inhaltlichen Hypothesen
Messung der AV und UV
Beantwortung der
Fragestellung
Folie 41
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Variablen
Statistik
Organisatorisches
Einführung
Operationalisierung
 In Hypothesen kommen theoretische Merkmale, sog.
Konstrukte vor, die nicht direkt messbar sind (z.B.
Intelligenz, Angst, Kreativität, Leistungsfähigkeit)
 Einer Hypothese müssen somit beobachtbare Phänomene
zugeordnet werden. Die Vorschrift, wie ein Konstrukt durch
Beobachtung bzw. Messung festgestellt werden kann, nennt
man Operationalisierung.
 Das beobachtbare Phänomen wird häufig auch als
Indikator die daraus erzeugt Variable als Indikatorvariable
bezeichnet.
 Daten im Forschungsprozess sind also Informationen, die
mithilfe einer Operationalisierung gewonnen wurden
Folie 42
Methodenlehre
& Statistik
Empirie
& Theorie
Organisatorisches
Einführung
In der Praxis
Beispiel für psychologische Forschung
Forschungsvorhaben: Aversive Bilder & sportliche Leistung
Wissenschaftl.
Aussagen
Merkmale
Negativer Anregungsgehalt der Bilder
Physiologische Aktivierung beim Joggen
Variablen
Operationalisierung
Anregungsgehalt: Einschätzung einer Expertengruppe
Statistik
Physiologische Aktivierung: Herzrate und
Adrenalinkonzentration
Variablen
Anregungsgehalt: Einschätzung auf einer 7-PunkteSkala von 1=neutral bis 7 = stark negativ
Folie 43
Physiologische Aktivierung: bpm (Herzrate) und mmol/l
(Adrenalinkonzentration)
Methodenlehre
& Statistik
Organisatorisches
Einführung
Forschungsprozeß
Theorien/Empirie
Fragestellung/Problem
Vermutung über Zusammenhang von Größen
Formulierung inhaltlicher
Hypothesen
Identifikation der
AV und UV
Operationalisierung der
AV und UV:
Festlegen von Gößen auf
die Art, in der sie
gemessen werden
können & des
Messinstrumentes
Datenauswertung:
Beschreibung der Daten,
Statistischer Schluss von
der Stichprobe auf die
Population
Formulierung der
statistischen Hypothesen
Rückschluss auf die zu
erfassenden Konstrukte
Wahl der Stichprobe
(Ort, Zeit, Umfang etc.)
Konfrontation der
Ergebnisse mit den
inhaltlichen Hypothesen
Messung der AV und UV
Beantwortung der
Fragestellung
Folie 44
Methodenlehre
& Statistik
Organisatorisches
Einführung
Empirie
& Theorie
Ziele der Anwendung
statistischer Methoden
Wissenschaftl.
Aussagen
 Design: Planung und Ausführung von Untersuchungen (Art
der Stichprobe, Wahl des Messinstrumentes, Kontrolle der
Messung etc.)
Variablen
Statistik
Folie 45
 Deskription (Beschreibung) und Exploration (Entdecken):
Zusammenfassung, Darstellung und das Auffinden von
systematischen Strukturen in Daten der untersuchten
Stichprobe
 Inferenz (schließende, induktive Statistik): Generalisierung
und Vorhersagen über gemachte Beobachtungen von der
untersuchten Stichprobe auf die Grundgesamtheit
(Population)
Methodenlehre
& Statistik
Empirie
& Theorie
Organisatorisches
Einführung
Daten und ihre Analyse
Daten werden in Matrizen
Festgehalten (Datenmatrix)
Wissenschaftl.
Aussagen
Variablen
Für jeden Merkmalsträger
wird in einer Zeile die
Ausprägung der UV(n) und
der AV(n) codiert
Statistik
Die Kodierung erfolgt über
Zahlen. Diese haben
vielfach unterschiedliche
Bedeutungen.
Folie 46
Matrixorganisation:
Personen x Merkmale
(Zeile)
(Spalten)
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Variablen
Statistik
Organisatorisches
Deskriptive statistische Methoden
Kennwerte
 Kennwerte fassen die Eigenschaften der Verteilung der
gemessenen Variablen zusammen, z.B. Mittelwert
 Berechnung, Darstellung und Vergleiche von Daten und
Kennwerten sind für statistische Entscheidungen
wichtig
Anregung Hoch
Mittelwert
Maximalpuls 181.58
Adrenalin
Niedrig Maximalpuls
Adrenalin
Folie 47
Einführung
Standardab Standardfehler
Median weichung des Mittelwerts Minimum Maximum
181.92
12.01
3.80
159.84
201.81
44
44
3
1
41
51
165.79
164.01
8.83
2.79
152.41
179.21
38
37
2
1
35
43
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Variablen
Statistik
Folie 48
Organisatorisches
Einführung
Deskriptive statistische Methoden
Diagramme
Methodenlehre
& Statistik
Empirie
& Theorie
Organisatorisches
Einführung
Korrelation & Regression
Zusammenhang zwischen zwei Variablen (bivariate Statistik)
50
Wissenschaftl.
Aussagen
48
Anregung hoch
46
Anregung niedrig
y = 0.2242x + 3.1538
R² = 0.78
Variablen
Adrenalin
44
42
40
38
36
Statistik
34
y = 0.2034x + 4.1835
R² = 0.6108
32
30
120
140
160
180
Maximalpuls
Folie 49
200
220
Methodenlehre
& Statistik
Empirie
& Theorie
Wissenschaftl.
Aussagen
Variablen
Statistik
Folie 50
Organisatorisches
Einführung
Inferenzstatistische Methoden
Zusammenhänge von Stichprobe und Grundgesamtheit
Was kann man mit Kennwerten, gewonnen aus
Stichproben, über die Kennwerte der Population aussagen?
Schätzen
Wie und wie genau kann man Kennwerte der Population
aus Stichproben schätzen?
Testen
Kann man etwas über die Gleichheit oder Ungleichheit von
aus Stichproben geschätzen Kennwerten mit einer
bestimmten statistischen Verlässlichkeit sagen?
Methodenlehre
& Statistik
Organisatorisches
Einführung
Forschungsprozeß
Theorien/Empirie
Fragestellung/Problem
Vermutung über Zusammenhang von Größen
Formulierung inhaltlicher
Hypothesen
Identifikation der
AV und UV
Operationalisierung der
AV und UV:
Festlegen von Größen
auf die Art, in der sie
gemessen werden
können & des
Messinstrumentes
Datenauswertung:
Beschreibung der Daten,
Statistischer Schluss von
der Stichprobe auf die
Population
Formulierung der
statistischen Hypothesen
Rückschluss auf die zu
erfassenden Konstrukte
Wahl der Stichprobe
(Ort, Zeit, Umfang etc.)
Konfrontation der
Ergebnisse mit den
inhaltlichen Hypothesen
Messung der AV und UV
Beantwortung der
Fragestellung
Folie 51
Methodenlehre
& Statistik
Organisatorisches
Einführung
Wahrheit in der Psychologie
Probabilistische Zusammenhänge

Problem: Wenn-Dann-Aussagen gelten in der
Psychologie niemals für alle Merkmalsträger und
Situationen
Seymour Epstein (1979)
On predicting most of the people much
of the time: The stability of behavior
Daryl Bem & Andrea Allen (1974)
On predicting some of the people some
of the time: The search for crosssituational consistencies in behavior

Folie 52
Also: Hypothesen werden statistisch immer
beantwortet im Sinne von „Wenn-Dann wahrscheinlich”
Aussagen (Probabilismus)
Methodenlehre
& Statistik
Organisatorisches
Einführung
Wahrheit in der Psychologie
Probabilistische Zusammenhänge

Problem: Wenn-Dann-Aussagen gelten in der
Psychologie niemals für alle Merkmalsträger und
Situationen

Gründe:
– Wirkung von Stör- bzw. unbekannten Variablen
– Nichtberücksichtigung komplexer Interaktionen
– Unbestimmtheit von Anfangsbedingungen in
komplexen Situationen
In der Psychologie gilt eine Gesetzmäßigkeit als
belegt, wenn sich die Kovariation von Variablen
statistisch als existent erweist
Folie 53
Sie gilt als bestätigt oder bewährt, wenn die
statistische Existenz mehrfach aufgewiesen werden
konnte.
Methodenlehre
& Statistik
Organisatorisches
Einführung
In der Praxis
Beispiel für psychologische Forschung
Forschungsvorhaben: Aversive Bilder & sportliche Leistung
Statistischer Schluss
Bei der Behauptung, dass mit steigendem negativen
Anregungsgehalt von Bildern die physiologische
Aktivierung bei sportlicher Betätigung steigt, beträgt
die Irrtumswahrscheinlichkeit 5%.
Inhaltlicher Schluss
Negativ erregt zu sein bringt den Körper beim Sport
stärker in Wallung.
Folie 54
Beantwortung der Fragestellung
Prinzipiell ist die Fragestellung beantwortet, aber:
– Laufe ich deshalb schneller?
– Gilt die Beobachtung bei allen Sportarten?
– …
Methodenlehre
& Statistik
Ende.
Anfang.
[email protected]
[email protected]
Folie 55
Methodenlehre
& Statistik
Inhalte
dieser Sitzung
 Von Merkmalen zu Variablen
 Von Variablen zu Zufallsvariablen – das Experiment
 Das Sichere am Zufall: Ergebnisse und Ereignisse
 Laplaces Antwort auf die Frage „Was ist eigentlich
Wahrscheinlichkeit?“
Folie 2
Methodenlehre
& Statistik
Variablen
Variablen
Zufallsvariablen
Merkmale & Variablen
Grundlagen
Zufallsexperimente

Eigenschaften, deren Werte bei den statistischen
Einheiten beobachtet werden, heißen Merkmale

Die „Werte“, die ein Merkmal annehmen kann, heißen
Ausprägungen
Stichprobenraum

Die Ausprägungen eines Merkmals können beliebiger Art
sein (z.B. Worte, Formen, Farben etc.)

Eine Variable wird definiert, indem den Ausprägungen
des Merkmals Zahlen zugeordnet werden. Diese Zahlen
heißen Realisationen oder Werte.
Zufallsvariablen
„2“
„13“
Merkmal
Punkte auf Fläche
Folie 3
„5“
„36“
Variable
Zahlen
Methodenlehre
& Statistik
Variablen
Variablen
Zufallsvariablen
Merkmale & Variablen
Notation
Zufallsexperimente
Stichprobenraum
Zufallsvariablen
Folie 4
 Variablen werden mit Großbuchstaben
symbolisiert, häufig verwendet man X und Y
 Die Realisationen einer Variablen werden dann
mit den entsprechenden Kleinbuchstaben
gekennzeichnet, also x und y
 Die Menge aller möglichen Realisationen ist der
Wertebereich einer Variablen
Methodenlehre
& Statistik
Variablen
Variablen
Zufallsvariablen
Variablen
Definition
Zufallsexperimente
 Variablen werden immer über eine mathematische
Formulierung definiert, z.B.
Merkmal
Stichprobenraum
Zufallsvariablen
Variable
0, wenn
 x1: 1,
 x : 2,
 2 1, wenn
X 


 x 6 : 6,
5, wenn
 Die extensionale Definition zählt alle
Realisationen der Variablen auf und weist ihnen
Symbole zu (x1, x2, …).
Folie 5
Methodenlehre
& Statistik
Variablen
Variablen
Zufallsvariablen
Variablen
Definition
Zufallsexperimente
 Variablen werden immer über eine mathematische
Formulierung definiert, z.B.
Merkmal
Stichprobenraum
Variable
X  0  
Zufallsvariablen
 Die intensionale Definition gibt eine Vorschrift
an, die die Variable und ihre Realisationen
eindeutig spezifiziert.
Folie 6
Methodenlehre
& Statistik
Variablen
Variablen & Skalen
Nominaldaten
Exkurs: Notation
Indizierung von Realisationen und Merkmalsträgern
Zufallsexperimente
 Frage: Wie werden Realisationen symbolisiert?
Stichprobenraum
 Hat eine Variable X genau k mögliche Realisationen,
so werden diese fortlaufend mit x1, x2, …, xk indiziert
Zufallsvariablen
Folie 7
 Ziel: Eine formale Schreibweise für „Der Wert der
vierten Ausprägung von X“ zu finden
 Die Laufindizes dienen dazu, die einzelnen Realisationen eindeutig zu adressieren (Beginn bei 1).
 x1: 1, wenn <18

Alter X   x2 : 2, wenn <68
 x : 3, wenn  68
 3
 y1: 0, wenn <18

Alter Y   y2 : 18, wenn <68

 y3 : 68, wenn  68
Methodenlehre
& Statistik
Variablen
Variablen & Skalen
Nominaldaten
Exkurs: Notation
Indizierung von Realisationen und Merkmalsträgern
Zufallsexperimente
Stichprobenraum
Zufallsvariablen
Folie 8
 Frage: Wie werden Realisationen symbolisiert?
 Ziel: Eine formale Schreibweise für „Der Wert der
vierten Ausprägung von X“ zu finden
 Hat eine Variable X genau k mögliche Realisationen,
so werden diese fortlaufend mit x1, x2, …, xk indiziert
 Die Laufindizes dienen dazu, die einzelnen Realisationen eindeutig zu adressieren (Beginn bei 1)
 Das Symbol xj mit j = 1…k bezeichnet dann die j-te
Realisation der Zufallsvariablen X.
 Diese Indizierung ist nur für diskrete Variablen
sinnvoll, da stetige Variablen unendlich viele
Realisationen haben
Methodenlehre
& Statistik
Variablen
Variablen & Skalen
Nominaldaten
Exkurs: Notation
Indizierung von Realisationen und Merkmalsträgern
Zufallsexperimente
Stichprobenraum
Zufallsvariablen
 Frage: Wie werden Merkmalsträger symbolisiert?
 Ziel: Eine formale Schreibweise für „Der Wert der
vierten Person in der Stichprobe“ zu finden
 Konvention:
Für die Gesamtzahl von Personen wird nahezu
immer das Zeichen n (oder N) benutzt.
Für die Gesamtzahl von Realisationen werden
andere Kleinbuchstaben verwendet (z.B. k)
 Dann dient wieder ein Laufindex dazu, die
einzelnen Personen zu adressieren

Folie 9
Das Symbol xi mit i = 1…n bezeichnet dann die i-te
Messung der Zufallsvariablen X.
Methodenlehre
& Statistik
Variablen
Variablen & Skalen
Nominaldaten
Exkurs: Notation
Indizierung von Realisationen und Merkmalsträgern
Zufallsexperimente
 Problem: Das Symbol
x3
Stichprobenraum
Zufallsvariablen
Folie 10
kann „die dritte Realisation der Zufallsvariablen X“ sein
oder auch „der Wert der 3. Person in der Stichprobe“

Also: Es muss vorher definiert sein, was der Laufindex
bedeutet, z.B. „Die Variable X habe k Realisationen und
sei an n Personen gemessen worden“.
xi
xj
mit i = 1…n
mit j = 1…k
Methodenlehre
& Statistik
Variablen
Variablen & Skalen
Nominaldaten
Exkurs: Notation
Indizierung von Realisationen und Merkmalsträgern
Skalen
Nominalskala
Notation
 In psychologischen Experimenten gibt es oft viele
Variablen, die als UV oder AV erhoben werden.
 Beispiel: An einer Stichprobe von Personen verschiedenen Geschlechts wird der durchschnittliche
Alkoholkonsum über einen Monat hinweg gemessen.
 Man hat hier offenbar 3 Variablen sowie mehrere
Messungen verschiedener Merkmalsträger
•
•
•
IQ als AV: (X)
Geschlecht als UV (Y)
Alkoholabhängigkeit als UV (Z)
 Frage: Wie indiziert man z.B. „Die IQ-Messung des
4. Mannes in der Gruppe der Alkoholiker?“
Folie 11
Methodenlehre
& Statistik
Variablen
Variablen & Skalen
Nominaldaten
Exkurs: Notation
Indizierung von Realisationen und Merkmalsträgern
Skalen
 Die Variable Geschlecht (Y) wird in k=2
Ausprägungen gemessen:
y1: 0 = männlich
y2: 1 = weiblich
Nominalskala
Notation
 Die Variable Alkoholkonsum (Z) wird diskretisiert in
m=5 Ausprägungen (Jelinek, 1951) gemessen:
Z=
Folie 12
z1:
z2:
z3:
z4:
z5:
0
1
2
3
4
=
=
=
=
=
Kein Alkoholkonsum
Konflikt-/Erleichterungstrinker
Gelegenheitstrinken
Rauschtrinken (Alkoholiker)
Periodisches Trinken (Alkoholiker)
 Es nehmen insgesamt n=220 Personen teil
Methodenlehre
& Statistik
Variablen
Variablen & Skalen
Nominaldaten
Exkurs: Notation
Indizierung von Realisationen und Merkmalsträgern
Skalen
Nominalskala
Notation
 Die AV ist der IQ. Dies ist die Variable, deren
Realisation im Experiment bei den
Merkmalsträgern gemessen wird.
 Die beiden anderen Variablen sind UVen, deren
Realisationen vor dem Experiment bereits
feststehen, bzw. erhoben werden.
 Zur eindeutigen Indizierung des IQ eines
Merkmalsträgers werden nun mehrere
Laufindizes benötigt
Folie 13
Methodenlehre
& Statistik
Variablen
Variablen & Skalen
Nominaldaten
Exkurs: Notation
Indizierung von Realisationen und Merkmalsträgern
Skalen
Nominalskala
Notation
 Eine Person fällt immer in eine der km = 25 = 10
Gruppen von Geschlecht und Alkoholkonsum
 Der Laufindex für Geschlecht sei r = 1…k und für
Alkoholkonsum s = 1…m
 Jede der 10 Gruppen hat also nrs Mitglieder
 Jede Person kann eindeutig identifiziert werden über
xirs
Folie 14
mit i=1…nrs
r=1…k, s=1…m
 So ist z.B. x4,1,3 der IQ des vierten Mannes unter den
Gelegenheitstrinkern
Methodenlehre
& Statistik
Variablen
Variablen
Zufallsvariablen
Variablen
Typisierung von Merkmalen und Variablen
Zufallsexperimente
Stichprobenraum
 Die wichtigste Typisierung unterscheidet
diskrete von stetigen (kontinuierlichen) Daten
 Hierbei sind Typen von Merkmalen und Typen
von Variablen streng zu unterscheiden.
●
 x1: 0, wenn <18

Alter X   x 2 : 1, wenn <68
 x : 2, wenn  68
 3
Zufallsvariablen
●
Folie 15
Alter ist ein stetiges Merkmal. Eine Variable
„Alter“ kann aber diskret definiert werden als
Gleiches gilt z.B. für Intelligenz, Schulleistung,
Sehvermögen, Fahreignung
Methodenlehre
& Statistik
Variablen
Variablen
Zufallsvariablen
Variablen & Messungen
Unterscheidung
Zufallsexperimente
 Die empirische Feststellung der Realisation einer
Variablen wird als Messung bezeichnet
Stichprobenraum
 Dabei ist zu unterscheiden zwischen der
Beobachtung der Ausprägung des Merkmals und
der Messung der Realisation der Variablen
Zufallsvariablen
 Denn: Die Beobachtung kann eine Information in
beliebiger Form erheben (z.B. verbal, bildlich), die
Messung liefert immer eine Zahl.
 Die gemessenen Zahlenwerte einer Variablen
heißen Messwerte
Folie 16
Methodenlehre
& Statistik
Variablen
Variablen
Zufallsvariablen
Das Zufallsexperiment
Von Variablen zu Zufallsvariablen
Zufallsexperimente
 Eine Variable wird zur Zufallsvariablen, wenn ihre
Realisation in einem Zufallsexperiment
festgestellt wird.
Stichprobenraum
 (Zufalls-)Experiment = Ein Satz von Regeln,
unter denen eine bestimmte Handlung ausgeführt
wird (Bedingungskomplex Ξ, „Xi“)
 Trial = Eine Durchführung des Experimentes
Zufallsvariablen
 Ergebnis = Beobachtung am Ende des Trials
(in beliebiger Form, z.B. als Zahl, Bild, Symbol, Farbe etc.)
 Ereignis = Jede beliebige Menge von Ergebnissen
 Achtung: Ergebnisse & Ereignisse sind noch nicht
zwangsläufig Realisationen einer Zufallsvariablen
Folie 17
Methodenlehre
& Statistik
Variablen
Zufallsexperimente
Stichprobenraum
Zufallsvariablen
Folie 18
Variablen
Zufallsvariablen
Das Zufallsexperiment
Von Variablen zu Zufallsvariablen
Beispiel I: Einmaliger Würfelwurf

Zufallsexperiment (Ξ): Ein 6-seitiger Würfel ist einmal
zu werfen. Er kann nicht auf einer Kante liegen bleiben.
Ergebnis ist die Augenzahl der oben liegenden Seite.

Ergebnisse: Jede mögliche Augenzahl (1, 2, 3, 4, 5, 6)

Ereignisse: „1“, „1 oder 6“, „Augenzahl ≤ 3“, „ungerade
Zahl“, „irgendeine Zahl“

Trial: Der einmalige Wurf des Würfels
Methodenlehre
& Statistik
Variablen
Zufallsexperimente
Stichprobenraum
Zufallsvariablen
Folie 19
Variablen
Zufallsvariablen
Das Zufallsexperiment
Von Variablen zu Zufallsvariablen
Beispiel II: Zweimaliger Münzwurf

Zufallsexperiment (Ξ): Eine Münze ist zweimal zu
werfen. Sie kann nicht auf einer Kante liegen bleiben.
Ergebnis ist die oben liegende Seite.

Ergebnisse: Jede mögliche Kombination der zwei
Münzen (K+K, K+Z, Z+K, Z+Z)

Ereignisse: „zweimal dieselbe Seite“, „Kein Kopf“

Trial: Der zweimalige Wurf der Münze

Achtung: Die Durchführung von 2 Trials des
Zufallsexperimentes „Eine Münze wird einmal geworfen“
ist ein anderes Experiment.
Methodenlehre
& Statistik
Variablen
Zufallsexperimente
Stichprobenraum
Zufallsvariablen
Folie 20
Variablen
Zufallsvariablen
Das Zufallsexperiment
Von Variablen zu Zufallsvariablen
Beispiel III: Zulassung zum Psychologiestudium

Zufallsexperiment (Ξ): Aus 782 Bewerbern werden 44
verschiedene Personen zufällig ausgewählt. Ergebnis ist
die Menge der 44 Personen.

Ergebnisse: Jede Menge von 44 Personen

Ereignisse: „die 44 Besten“, „die 44 Besten oder die 44
Schlechtesten“, „jede Auswahl von 44 Personen aus den
besten 391“

Trial: Die einmalige Auswahl von 44 Personen

Achtung: Die Durchführung von 44 Trials des
Zufallsexperimentes „Aus 742 Bewerbern wird 1 Person
ausgewählt“ ist ein anderes Experiment.
Methodenlehre
& Statistik
Variablen
Zufallsexperimente
Stichprobenraum
Zufallsvariablen
Variablen
Zufallsvariablen
Das Zufallsexperiment
Von Variablen zu Zufallsvariablen
 Das Zufallsexperiment ist in weiten Teilen ein sehr
deterministisches Konzept, denn
 der Ablauf eines Trials ist a-priori
vollständig bestimmt
 die möglichen Ergebnisse sind a-priori
vollständig bestimmt
 nur das konkrete Ergebnis (die
Beobachtung) ist a-priori unbestimmt
 Daher kann sich die Statistik dem Verständnis des
Zufallsexperimentes über mathematische Hilfsmittel
nähern, nämlich der Mengenlehre
Folie 21
Methodenlehre
& Statistik
Variablen
Variablen
Zufallsvariablen
Ereignisse & Elementarereignisse
Verbindung zur Mengenlehre
Zufallsexperimente
 Definition: Ergebnisse eines Zufallsexperimentes sind immer Mengen. Diese Mengen können
auch nur aus einem Element bestehen.
Stichprobenraum
 Beispiel I: Einmaliger Würfelwurf
Zufallsvariablen
{1}, {2}, {3}, {4}, {5}, {6}
 Beispiel II: Zweimaliger Münzwurf
{K, K}, {K, Z}, {Z, K}, {Z, Z}
 Beispiel III: IQ-Test
{0}, {1}, {2}, …, {100}, {101}, …
Folie 22
Methodenlehre
& Statistik
Variablen
Variablen
Zufallsvariablen
Ereignisse & Elementarereignisse
Verbindung zur Mengenlehre
Zufallsexperimente
 Es galt: Ereignis = Jede beliebige Menge
(Kombination) möglicher Ergebnisse eines Trials
Stichprobenraum
 Elementarereignisse = die kleinste Menge
disjunkter Ereignisse, in die sich die möglichen
Ergebnisse eines Trials zerlegen lassen
Zufallsvariablen
 Zwei Ereignisse E1 und E2 heißen disjunkt
(paarweise unvereinbar), wenn gilt
E1  E2  
Schnittmenge
Folie 23
Unmögliches Ereignis
Methodenlehre
& Statistik
Variablen
Zufallsexperimente
Variablen
Zufallsvariablen
Ereignisse & Elementarereignisse
Verbindung zur Mengenlehre
Beispiel I:
Beim Wurf eines Würfels lauten die Elementarereignisse
{1}, {2}, {3}, {4}, {5}, {6},
Stichprobenraum
nicht aber {{2}, {4}, {6}} oder {{1},{ 5}}
Zufallsvariablen
Beispiel II:
Beim Wurf zweier Würfel sind die Elementarereignisse
(obwohl diese disjunkt sind)
{1,1} , {1,2} , {1,3},…, {6,5}, {6,6},
nicht aber {{1, 6}, {6, 1}} oder {{1, 1}, {3, 3}, {6, 6}}
(und vor allem nicht das Ereignis {1}, das überhaupt nicht vorkommen kann)
Folie 24
Methodenlehre
& Statistik
Variablen
Variablen
Zufallsvariablen
Ereignisse & Elementarereignisse
Verbindung zur Mengenlehre
Zufallsexperimente
 Die vollständige Menge der Elementarereignisse
eines Zufallsexperimentes heißt
Stichprobenraum Ω.
Stichprobenraum
 Der Stichprobenraum umfasst alle
Elementarereignisse (also alle möglichen
Ergebnisse) eines Zufallsexperimentes
Zufallsvariablen
 Der Stichprobenraum ist eine Menge
 Beispiel: Der Stichprobenraum beim einmaligen
Würfelwurf ist
Ω = {1, 2, 3, 4, 5, 6}
Hinweis: Eigentlich müsste man schreiben: Ω = {{1}, {2}, {3}, {4}, {5}, {6}}
Folie 25
Methodenlehre
& Statistik
Variablen
Zufallsexperimente
Stichprobenraum
Zufallsvariablen
Variablen
Zufallsvariablen
Ereignisse & Elementarereignisse
Partitionierung
 Jedes Ereignis E teilt den gesamten
Stichprobenraum  immer in zwei Untermengen
 Ein Teil der Elementarereignisse gehört zum
Ereignis E, der andere Teil gehört nicht dazu
 Diese Aufteilung nennt man Partitionierung
des Stichprobenraums
„Alle geraden Augenzahlen“
E = {2, 4, 6}
Folie 26
Methodenlehre
& Statistik
Variablen
Zufallsexperimente
Stichprobenraum
Zufallsvariablen
Variablen
Zufallsvariablen
Ereignisse & Elementarereignisse
Partitionierung
 Jedes Ereignis E teilt den gesamten
Stichprobenraum  immer in zwei Untermengen
 Ein Teil der Elementarereignisse gehört zum
Ereignis E, der andere Teil gehört nicht dazu
 Diese Aufteilung nennt man Partitionierung
des Stichprobenraums
„Eins oder Sechs“
E = {1, 6}
Folie 27
Methodenlehre
& Statistik
Variablen
Zufallsexperimente
Stichprobenraum
Zufallsvariablen
Variablen
Zufallsvariablen
Ereignisse & Elementarereignisse
Partitionierung
 Jedes Ereignis E teilt den gesamten
Stichprobenraum  immer in zwei Untermengen
 Ein Teil der Elementarereignisse gehört zum
Ereignis E, der andere Teil gehört nicht dazu
 Diese Aufteilung nennt man Partitionierung
des Stichprobenraums
„Drei“
E = {3}
Folie 28
Methodenlehre
& Statistik
Variablen
Zufallsexperimente
Stichprobenraum
Zufallsvariablen
Variablen
Zufallsvariablen
Ereignisse & Elementarereignisse
Partitionierung
 Jedes Ereignis E teilt den gesamten
Stichprobenraum  immer in zwei Untermengen
 Ein Teil der Elementarereignisse gehört zum
Ereignis E, der andere Teil gehört nicht dazu
 Diese Aufteilung nennt man Partitionierung
des Stichprobenraums
„Irgend eine Zahl“
E = {1, 2, 3, 4, 5, 6}
Folie 29
Methodenlehre
& Statistik
Variablen
Zufallsexperimente
Stichprobenraum
Zufallsvariablen
Variablen
Zufallsvariablen
Ereignisse & Elementarereignisse
Partitionierung
 Jedes Ereignis E teilt den gesamten
Stichprobenraum  immer in zwei Untermengen
 Ein Teil der Elementarereignisse gehört zum
Ereignis E, der andere Teil gehört nicht dazu
 Diese Aufteilung nennt man Partitionierung
des Stichprobenraums
„Keine Zahl“
E = {}
Folie 30
Methodenlehre
& Statistik
Variablen
Variablen
Zufallsvariablen
Ereignisse & Elementarereignisse
Verbindung zur Mengenlehre
Zufallsexperimente
 Die Menge aller Kombinationen von Ereignissen
aus dem Stichprobenraum heißt SigmaAlgebra σ
Stichprobenraum
 Zusätzlich enthält σ noch das unmögliche
Ereignis 
Zufallsvariablen
Folie 31
 σ umfasst also alle möglichen Kombinationen aus
den Elementarereignissen plus 
 Merksatz: σ enthält alle Kombinationen von
Ergebnissen eines Zufallsexperimentes, auf die
man wetten könnte
Methodenlehre
& Statistik
Variablen
Zufallsexperimente
Variablen
Ereignisse & Elementarereignisse
Verbindung zur Mengenlehre
 Beispiel: Einmaliger Münzwurf
Elementarereignisse: K, Z, S
Stichprobenraum:
Stichprobenraum
Zufallsvariablen
Zufallsvariablen
Ω = {K, Z, S}
   , K  ,Z  ,S  ,K , Z  ,K , S  ,Z , S  , K , Z , S 
Ω
 Die Anzahl der Elemente in der Sigma-Algebra
heißt Mächtigkeit
 Achtung: Für die Mächtigkeit spielt die Reihenfolge der Elementarereignisse keine Rolle.
Frage: Was ist hier die Zufallsvariable?
Folie 32
Methodenlehre
& Statistik
Variablen
Variablen
Zufallsvariablen
Zufallsvariablen
Definition
Zufallsexperimente
 Eine Zufallsvariable ist eine 1:1 Abbildung
(„bijektiv“) der Elemente des Stichprobenraums  auf eine Menge von Zahlen.
Stichprobenraum
 Es gelten alle Regeln, die bereits für Variablen
eingeführt wurden.
Zufallsvariablen
 Beispiel:

 KK,,ZZ,,SS
Folie 33
0, wenn
wenn "K"
"K"
xx11:: -1,

XX 
  xx22:: 1, wenn "Z"
 x : 0,
 3 2, wenn "S"
Methodenlehre
& Statistik
Variablen
Variablen
Zufallsvariablen
Zufallsvariablen
Prinzip
Zufallsexperimente
Stichprobenraum
Zufallsvariablen
Beispiel: Experiment = Eimaliger Münzwurf
Definition eines Zufallsexperimentes: 
Mögliche Ergebnisse eines
Trials: Kopf, Zahl, Seite
Durchführung eines Trials
und Feststellung des
Ergebnisses: Zahl
Definition des
Stichprobenraums 
und damit auch von 
Definition einer Zufallsvariablen X()
Messung: X = 1
Frage: Was bedeutet „zufällig“?
Folie 34
Methodenlehre
& Statistik
Laplace
Kolmogoroff
Geschichte
Geschichte der WT
Definition
 Anfänge Mitte des 17. Jh. (Cardano, Bernoulli, Huygens,
Pascal, Fermat). Aufgaben des Glücksspiels. Nur
Arithmetik und Kombinatorik.
Vererbung
 Weiterentwicklungen im 18.-19. Jh. durch Laplace, Gauss,
Poisson: Fehlertheorie, Ballistik, Populationsstatistik.
Beispiele
 Durchbruch zu Beginn des 20. Jh: Entwicklung der WTheorie, Fundament im axiomatischen Aufbau
(Kolmogoroff). Theorie der stochastischen Prozesse
(Wiener, Markov, Khintchin).
 Heute zentraler Bestandteil empirischer Forschung:
Informationstheorie, Physik, Bevölkerungsstatistik,
Epidemiologie, Materialprüfung, Statik, Personalauswahl,
psychologische Testung, Versuchsplanung und
Stichprobentheorie.
Folie 35
Methodenlehre
& Statistik
Geschichte
Definition
Vererbung
Beispiele
Laplace
Kolmogoroff
Die Wahrscheinlichkeitsdefinition von Laplace
Wahrscheinlichkeiten im Stichprobenraum
 Grundannahme: Alle Elementarereignisse  („kleinomega“) im Stichprobenraum Ω sind gleichmöglich
 Wenn der Stichprobenraum die k Elementarereignisse 1
bis k enthält, so ist die Wahrscheinlichkeit für jedes von
diesen einfach
1
p i  
k
mit i  1 k
 p() ist demnach eine auf dem Stichprobenraum definierte
mathematische Funktion (i.e. eine Konstante), die so
genannte Wahrscheinlichkeitsfunktion.
Folie 36
Methodenlehre
& Statistik
Geschichte
Definition
Vererbung
Beispiele
Laplace
Kolmogoroff
Die Wahrscheinlichkeitsdefinition von Laplace
Wahrscheinlichkeiten in der -Algebra
 Jedem Ereignis E, welches der σ-Algebra angehört, kann
nun ebenfalls eine Wahrscheinlichkeit zugewiesen
werden.
m = Mächtigkeit der Menge an
gleichmöglichen Elementarereignissen aus Ω, die Teilereignis
von E sind.
m
p( E ) 
k
„Günstige durch
Mögliche“
k
= Mächtigkeit des Stichprobenraumes (also Anzahl aller
Elementarereignisse aus Ω)
 p(E) ist wieder eine Wahrscheinlichkeitsfunktion,
diesmal definiert auf der -Algebra.
Folie 37
Methodenlehre
& Statistik
Geschichte
Definition
Vererbung
Laplace
Kolmogoroff
Die Wahrscheinlichkeitsdefinition von Laplace
Wahrscheinlichkeiten in der -Algebra
 Laplaces Definition der Wahrscheinlichkeitsfunktion
p(E) beruht auf dem Prinzip der Partitionierung
 Das Ereignis E partitioniert den Stichprobenraum in
Beispiele
● m Elementarereignisse, die Teil von E sind.
● k–m Elementarereignisse, die nicht Teil von E sind
 Die Wahrscheinlichkeit p(E) ist also einfach die Summe der
Wahrscheinlichkeiten seiner m Elementarereignisse
1 1
1 m
p( E )      
k k
k k
Folie 38
m-mal
Methodenlehre
& Statistik
Geschichte
Definition
Vererbung
Beispiele
Laplace
Die Wahrscheinlichkeitsdefinition von Laplace
Vererbung
 Frage: Der Stichprobenraum  ist noch nicht die Zufallsvariable X – wie erhält man deren Wahrscheinlichkeiten?
 Definition: Die Zufallsvariable „erbt“ die Wahrscheinlichkeitsfunktion des Stichprobenraums, auf dem sie beruht.
Stichprobenraum:
Zufallsvariable:
Folie 39
Kolmogoroff
   Bube, Dame, König , As

p    1 ,
4
1 ,
4
1 ,
4
1

4
X   x1: 0, x2 : 1, x3: 2, x3 : 4

p  x  1 ,
4
1 ,
4
1 ,
4
1

4
Methodenlehre
& Statistik
Geschichte
Definition
Vererbung
Laplace
Kolmogoroff
Die Wahrscheinlichkeitsdefinition von Laplace
Vererbung
Vollständige Schreibweise
für Zufallsvariable und deren
Wahrscheinlichkeitsfunktion:
 x1: 0, wenn Bube
 x : 1, wenn Dame

X  2
 x3 : 2, wenn König
 x3 : 4, wenn As
Beispiele
p X

p X

p  x  
p X

p X

Folie 40
 x1  : 1
4
 x2  : 1
4
 x3  : 1
4
 x4  : 1
4
Methodenlehre
& Statistik
Geschichte
Laplace
Kolmogoroff
Die Wahrscheinlichkeitsdefinition von Laplace
Definition
Beispiele
Vererbung
 Summe von 2 Würfelwürfen
Beispiele
 Anzahl von „Zahl“ bei 3 Münzwürfen
 Frage des Landsknechts an Huygens
Folie 41
Methodenlehre
& Statistik
Relevante Excel Funktionen
 Wahrscheinlichkeitsrechnung
• Grundrechenarten +, –, ×, /
• SUMME(), PRODUKT()
Folie 42
Methodenlehre
& Statistik
Inhalte
dieser Sitzung
 Herumgedrückt: Die Wahrscheinlichkeitsdefinition
von Kolmogoroff
 Wie misst man Wahrscheinlichkeiten – das Gesetz
der großen Zahl
 Bedingte Wahrscheinlichkeiten: Wie wahrscheinlich
sind blaue Streifen bei Schwangerschaft – und wie
wahrscheinlich ist Schwangerschaft bei blauen
Streifen?
 Der Satz von Bayes
Folie 2
Methodenlehre
& Statistik
Laplace
Kolmogoroff
Die axiomatische WkDefinition von Kolmogoroff
Probleme der Laplace‘schen Definition
 Die Definition von p() ist zirkulär, da
„Gleichmöglichkeit“ nur ein Synonym für
Gleichwahrscheinlichkeit ist.
 Die Klasse der enthaltenen Zufallsprozesse ist durch
das Konzept der Gleichmöglichkeit von
Elementarereignissen stark eingeschränkt.
 Beispiel: Kopf, Zahl und Seite
Folie 3
Methodenlehre
& Statistik
VennDiagramme
Definition
Laplace
Kolmogoroff
Exkurs: Venn-Diagramme
Illustration von Ereignissen & Wahrscheinlichkeiten
 Jedes Ereignis ist durch einen Kreis repräsentiert
 Die Fläche des Kreises repräsentiert die
Wahrscheinlichkeit des Ereignisses
Folgerungen
 Das umgebende Quadrat ist der Stichprobenraum
Poisson
A
B

Folie 4
A und B haben eine Schnittmenge, sind aber ungleich
A

B
A ist ein Teilereignis von B
Methodenlehre
& Statistik
Laplace
Kolmogoroff
VennDiagramme
Die axiomatische WkDefinition von Kolmogoroff
Definition
Die auf der σ–Algebra definierte Funktion p(E) besitzt
folgende Eigenschaften:
Folgerungen
1. Für jedes Ereignis E der σ–Algebra gilt:
p(E)  0
Poisson
2. Für das sichere Ereignis gilt:
p() = 1
3. Lässt sich das Ereignis E in die disjunkten
Teilereignisse A und B zerlegen, gilt:
(E, A, B  σ; A  B = )
4.
p(E) = p(A +B) = p(A) + p(B)
Additionssatz der Wahrscheinlichkeiten
Folie 5
Methodenlehre
& Statistik
VennDiagramme
Definition
Folgerungen
Poisson
Laplace
Kolmogoroff
Folgerungen aus den Axiomen
Der Erweiterte Additionssatz
 Der Additionssatz kann beliebig weit verschachtelt
werden, wenn die Teilereignisse selbst wieder in
disjunkte Teilereignisse zerlegbar sind.
 Konsequenz: Ist ein Ereignis E in k disjunkte
Teilereignisse e1 … ek zerlegbar, so folgt durch
vollständige Induktion:
p(E) = p(e1) + p(e2) + … + p(en)
Erweiterter Additionssatz
Folie 6
Methodenlehre
& Statistik
VennDiagramme
Definition
Laplace
Kolmogoroff
Folgerungen aus den Axiomen
Die Wahrscheinlichkeit des unmöglichen Ereignisses
p    0
Folgerungen
Wahrscheinlichkeit des unmöglichen
Ereignisses ist 0.

Poisson
Es gilt ja für den Stichprobenraum :

Und mit Axiom 3 (Additionssatz):
p ()  p     p   
Und mit Axiom 2 nun:
1  1  p()
Durch Umformen folgt der Satz.
Folie 7
Methodenlehre
& Statistik
VennDiagramme
Definition
Laplace
Kolmogoroff
Folgerungen aus den Axiomen
Die Wahrscheinlichkeit des Gegenereignisses
p( E )  1  p  E 
E
E
Folgerungen
Wahrscheinlichkeit des Komplements
ist 1 minus die WK des Ereignisses
Poisson
Es gilt ja für den Stichprobenraum :
EE
Und mit Axiom 2 folglich:
1 pE  E
Und mit Axiom 3 (Additionssatz) dann:
1 pE  pE
Woraus der Satz folgt.
Folie 8
Methodenlehre
& Statistik
VennDiagramme
Definition
Folgerungen
Poisson
Laplace
Kolmogoroff
Folgerungen aus den Axiomen
Verbundwahrscheinlichkeiten
 Merke: Wenn zwei Ereignisse aus einer -Algebra
eine Schnittmenge haben, so ist diese
Schnittmenge wieder ein Ereignis in .
A  
 Die Wahrscheinlichkeit
p(A  dieser Schnittmenge ist immer gleich
oder größer 0
A
AB B
 Man bezeichnet p(A  auch als
Verbundwahrscheinlichkeit von A und B
Folie 9
Methodenlehre
& Statistik
VennDiagramme
Definition
Folgerungen
Laplace
Kolmogoroff
Folgerungen aus den Axiomen
Der Allgemeine Additionssatz
 Problem: Wenn zwei Ereignisse nicht disjunkt sind, ist
der Additionssatz nicht
unmittelbar anwendbar:
A
AB B
p(A B) ≠ p(A) + p(B)
wenn p(A  B) > 0
Poisson
 Die Wahrscheinlichkeit der Schnittmenge, also die
Verbundwahrscheinlichkeit, geht dann doppelt ein.
 Die Verbundwahrscheinlichkeit muss also einmal
subtrahiert werden.
p(A B) = p(A) + p(B) – p(A  B)
Allgemeiner Additionssatz
Folie 10
Methodenlehre
& Statistik
VennDiagramme
Definition
Folgerungen
Poisson
Laplace
Kolmogoroff
Wahrscheinlichkeitsfunktionen
Notation für Wahrscheinlichkeiten
 Genau wie bei Laplace kann nun auf den
Elementarereignissen des Stichprobenraums 
und den Ereignissen der -Algebra eine
Wahrscheinlichkeitsfunktion definiert werden.
 Dies geschieht einfach über die Zuweisung reeller
Zahlen, die die Kolmogoroff Axiome erfüllen
 Die Zahlen können dann als Wahrscheinlichkeiten
für die Ereignisse E aufgefasst werden.
 Jede auf  oder  definierte Zufallsvariable
„erbt“ wieder die Wahrscheinlichkeitsfunktion.
Folie 11
Methodenlehre
& Statistik
VennDiagramme
Laplace
Wahrscheinlichkeitsfunktionen
Notation für Wahrscheinlichkeiten

Definition
Folgerungen
Poisson
Folie 12
Kolmogoroff
Die Definition der Wahrscheinlichkeitsfunktion p(x)
entspricht der Definition der Zufallsvariablen
  K , Z , S
p( ="K"): 0.49999

p     p( ="Z"): 0.49999
 p( ="S"): 0.00002

Methodenlehre
& Statistik
VennDiagramme
Laplace
Wahrscheinlichkeitsfunktionen
Notation für Wahrscheinlichkeiten

Definition
Folgerungen
Kolmogoroff
Die Definition der Wahrscheinlichkeitsfunktion p(x)
entspricht der Definition der Zufallsvariablen
  K , Z , S
 x1: 0, wenn "K"

X     x 2 : 1, wenn "Z"
 x : 2, wenn "S"
 3
Poisson
 p(X=x1 ): 0.49999

p  x   p(X=x 2 ): 0.49999
p(X=x ): 0.00002
2

Folie 13
Frage: Woher kennen wir die Wahrscheinlichkeiten p?
Methodenlehre
& Statistik
VennDiagramme
Definition
Laplace
Wahrscheinlichkeitsfunktionen
Häufigkeit und Wahrscheinlichkeit

Wenn ein Zufallsexperiment mehrmals wiederholt wird,
so wird die Anzahl der Trials oft mit n bezeichnet.

Man kann dann die Häufigkeiten zählen, mit denen jede
der möglichen Realisationen xi aufgetreten ist.

Diese werden als h(X=xi) oder h(xi) oder hi geschrieben

h(X=xi) wird auch als absolute Häufigkeit bezeichnet

Die relative Häufigkeit berechnet man nun als
Folgerungen
Poisson
Kolmogoroff
f  X  xi  
Folie 14
h  X  xi 
n
Methodenlehre
& Statistik
VennDiagramme
Laplace
Wahrscheinlichkeitsfunktionen
Häufigkeit und Wahrscheinlichkeit

Problem: Häufigkeiten sind keine Wahrscheinlichkeiten

Die Wahrscheinlichkeitsfunktion einer Zufallsvariablen
bestimmt lediglich, was bei einer realen Durchführung
des Zufallsexperimentes für die beobachteten
Häufigkeiten zu erwarten ist
Definition
Folgerungen
Poisson
Kolmogoroff
p(x1) = 0.2
p(x2) = 0.4
f(x1) ≈ 0.18
f(x2) ≈ 0.33
Folie 15
p(x3) = 0.1
…
Theorie
f(x3) ≈ 0.15
…
Empirie
Frage: Woher kennen wir die Wahrscheinlichkeiten p?
Methodenlehre
& Statistik
VennDiagramme
Laplace
Wahrscheinlichkeiten
Empirische Definition der Wahrscheinlichkeit
(Poisson, 1835) – The Law of Large Numbers
Definition
h( xi )
p  X  xi  : lim
n
n
Folgerungen
h( xi ) : Häufigkeit des Ereignisses
n : Gesamtzahl aller Versuche
Poisson
Folie 16
Kolmogoroff
Beispiel: Relative
Häufigkeit für das
Würfeln einer „6“ in
Abhängigkeit von der
Anzahl der
Würfelversuche:
Bei unabhängigen Wiederholungen eines Zufallsexperiments
strebt die relative Häufigkeit für
das Auftreten eines Ereignisses xi
gegen die Wahrscheinlichkeit
p(X=xi).
Methodenlehre
& Statistik
Definition
Bedingte Wk
Satz von Bayes
Bedingte Wahrscheinlichkeit
Einführendes Beispiel
Theoreme
Wk-Bäume
Unabhängigkeit
Bei den Bundesjugendspielen interessiert sich ein
Sportpsychologe für den Zusammenhang zwischen
unterirdischem Abschneiden in verschiedenen Disziplinen. Er
erhebt dazu
● Verfehlen (A) oder Erreichen (nicht A) des
Zeitkriteriums beim 100m Lauf
● Negative (B) bzw. positive (nicht B) Weite beim
Ballwurf.
Der Sportpsychologe beobachtet an n=100 Kindern
● p(A) = 0.12
● p(B) = 0.05
● p(A  B) = 0.04
Folie 17
Methodenlehre
& Statistik
Definition
Bedingte Wk
Bedingte Wahrscheinlichkeit
p( A  B)
p ( B | A) 
p ( A)
Theoreme
Wk-Bäume
Unabhängigkeit
Satz von Bayes
Bedingte
Wahrscheinlichkeit
Grundwahrscheinlichkeit
Ist die Wahrscheinlichkeit für das Ereignis B, gegeben dass
das Ereignis A bereits eingetreten ist (lies: „B gegeben A“).
Im Venn Diagramm kann p(B | A)
als Anteil der Fläche
A  B an der Fläche A
interpretiert werden (und nicht
mehr am gesamten
Stichprobenraum ).
Folie 18
(Unbedingte)
Verbundwahrscheinlichkeit
A AB B

Methodenlehre
& Statistik
Definition
Bedingte Wk
Satz von Bayes
Bedingte Wahrscheinlichkeit
Im Laplace Ansatz
Theoreme
Es seien
 n die Menge aller Elementarereignisse in .
Wk-Bäume
 a die für das Ereignis A günstigen Elementarereignisse
 b die für das Ereignis B günstigen Elementarereignisse
 c die für das Ereignis A  B günstigen Elementarereign.
Unabhängigkeit
100m Verfehler
negative Weite
a
p ( A) 
n
b
p( B) 
n
a
c
b
n
c
c
p( A  B) 
und p ( B | A) 
n
a
Folie 19
c
und p ( A | B ) 
b
Methodenlehre
& Statistik
Definition
Bedingte Wk
Satz von Bayes
Bedingte Wahrscheinlichkeit
Im Laplace Ansatz
Theoreme
Es seien
 n die Menge aller Elementarereignisse in .
Wk-Bäume
 a die für das Ereignis A günstigen Elementarereignisse
 b die für das Ereignis B günstigen Elementarereignisse
 c die für das Ereignis A  B günstigen Elementarereign.
Unabhängigkeit
Es ist also zunächst
p(A) = a / n
p(B) = b / n
p(AB) = c / n
Aus dem Venn Diagramm sah man auch:
p(B | A) = c / a
Umformen und Kürzen ergibt
Folie 20
p ( B | A) 
c p( A  B)

a
p ( A)
Methodenlehre
& Statistik
Definition
Bedingte Wk
Satz von Bayes
Bedingte Wahrscheinlichkeit
Im Kolmogoroff Ansatz
Theoreme
Wk-Bäume
Unabhängigkeit
In der axiomatischen Definition der Wahrscheinlichkeit kann
die Berechnungsvorschrift für bedingte Wahrscheinlichkeiten
nicht bewiesen werden.
Deshalb muss die bedingte Wahrscheinlichkeit hier definiert
werden:
! p( A  B)
p ( B | A) 
p ( A)
Folie 21
Methodenlehre
& Statistik
Definition
Bedingte Wk
Satz von Bayes
Bedingte Wahrscheinlichkeit
Der Multiplikationssatz
Theoreme
Man sieht sofort dass gilt:
p(A  B) = p(B  A)
Wk-Bäume
Damit erhalten wir durch Umformen
Unabhängigkeit
p ( B | A) 
p( A  B)
p ( A)
 p ( A  B )  p( B | A)  p( A)
p( A | B) 
 p( A  B)  p( A | B)  p( B)
Multiplikationssatz
Folie 22
p( A  B)
p( B)
Methodenlehre
& Statistik
Definition
Theoreme
Wk-Bäume
Bedingte Wk
Satz von Bayes
Satz der totalen
Wahrscheinlichkeit
Wenn die Ereignisse B1, B2, … Bk paarweise disjunkt sind und
das Ereignis A immer mit einem der Bi auftritt, gilt
A = (AB1) + (AB2) + … + (ABk)
Mit dem Additionsthorem erhalten wir
Unabhängigkeit
p ( A)  p ( A  B1 )    p ( A  Bk )

Bk
…
B1 B2
… …
…
…
A
Und mit dem Multiplikationssatz wird daraus
p ( A)  p ( B1 ) p ( A | B1 )  p ( B2 ) p ( A | B2 )    p ( Bk ) p ( A | Bk )
Folie 23
Satz der totalen Wahrscheinlichkeit
Methodenlehre
& Statistik
Bedingte Wk
Satz von Bayes
Definition
Wahrscheinlichkeitsbäume
Theoreme
Additions- und Multiplikationssatz für bedingte
Wahrscheinlichkeiten lassen sich gut an einem
Wahrscheinlichkeitsbaum veranschaulichen.
Wk-Bäume
Ereignis B,
gegeben A
Ereignis A
p(B1|A1)
A1
p(B2|A1)
Unabhängigkeit
p(A1)
p(B1|A2)
S
p(A2)
A2
B1
B2
B1
p(B1|A1)p(A1)
p(B2|A1)p(A1)
p(B1|A2)p(A2)
B2 p(B |A )p(A )
2 2
2
p(A3)
A3
B1
p(B1|A3)p(A3)
p(B2|A3)
B2
Folie 24
Man sieht
auch:
p(A1B1+A2B1 +A3B1)=
p(B2|A2)
p(B1|A3)
Multiplikationssatz
für Wahrsch.keiten
p(B2|A3)p(A3)
p(B1|A1)p(A1)+
p(B1|A2)p(A2)+
p(B1|A3)p(A3)
Satz der totalen
Wahrscheinlichkeit
Methodenlehre
& Statistik
Definition
Bedingte Wk
Satz von Bayes
Stochastische Unabhängigkeit
Wenn gilt:
Theoreme
Wk-Bäume
Unabhängigkeit
p(B) = p(B | A)
werden die Ereignisse A und B stochastisch unabhängig
genannt, weil die Wahrscheinlichkeit des Auftretens des
Ereignisses B nicht vom Auftreten von A abhängt.
Setzen wir die rechte Seite der Gleichung in den
Multiplikationssatz ein, erhalten wir:
p(A  B) = p(B | A) p(A) = p(A)·p(B)
Kurz:
Folie 25
p(A  B) = p(A)·p(B)
Multiplikationssatz für stoch. unabh. Ereignisse
Methodenlehre
& Statistik
Definition
Bedingte Wk
Satz von Bayes
Stochastische Unabhängigkeit
Verallgemeinerung des Multiplikationssatzes
Theoreme
Wk-Bäume
Unabhängigkeit
Wenn die Ereignisse A1, A2, … Ak insgesamt unabhängig
sind, so gilt
p(A1A2… Ak) = p(A1)·p(A2)·… ·p(Ak)
Achtung: Die Disjunktheit von Ereignissen hat mit der
stochastischen Unabhängigkeit nichts zu tun.
A und B sind disjunkt (A  B = {}).
Wenn aber A eingetreten ist, reduziert
sich p(B|A) auf Null.
Folie 26
A
B

Methodenlehre
& Statistik
Definition
Bedingte Wk
Satz von Bayes
Stochastische Unabhängigkeit
Wechselseitigkeit
Theoreme
Wk-Bäume
Für stochastisch unabhängige Ereignisse kann man
aus den Kolmogoroff Axiomen allgemeine Regeln
herleiten:
1. Ist A von B unabhängig, so ist es auch B von A
Unabhängigkeit
2. Sind A und B unabhängig, so sind es auch ihre
Gegenereignisse
3. Sind A und B unabhängig so sind es auch alle
Kombination von A und B mit ihren
Gegenereignissen
Folie 27
Methodenlehre
& Statistik
Beispiel
Bedingte Wk
Satz von Bayes
Satz von Bayes
Beispiel
Definition
Ein Statistikdozent in der Psychologie fragt sich, ob das
Bestehen seiner Fachprüfung überhaupt etwas über die
Eignung eines bereits immatrikulierten Psychologiestudierenden für das Studium aussagt. Er erhebt dazu in zwei
Semestern mehrere Wahrscheinlichkeiten:
● p(Klausurverfehler) = 0.05
● p(Studiumsgeeignete) = 0.95
● p(Klausurverfehler  Studiumsgeeignete) = 0.045
in Semester I oder
● p(Klausurverfehler  Studiumsgeeignete) = 0.005
in Semester II
Folie 28
Methodenlehre
& Statistik
Beispiel
Bedingte Wk
Satz von Bayes
Satz von Bayes
Beispiel
Definition
Studiumsgeeignete

Folie 29
Studiumsgeeignete  Klausurverfehler
Klausurverfehler
Methodenlehre
& Statistik
Beispiel
Bedingte Wk
Satz von Bayes
Satz von Bayes
Beispiel
Definition
Studiumsgeeignete

Folie 30
Studiumsgeeignete  Klausurverfehler
Klausurverfehler
Methodenlehre
& Statistik
Beispiel
Definition
Bedingte Wk
Satz von Bayes
Satz von Bayes
Wir sehen anhand des Multiplikationssatzes, dass
p(B | A) p(A) = p(A | B) p(B)
Damit gilt
p ( B | A) 
p( A | B) p( B)
p ( A)
bzw.
p( A | B) 
p ( B | A) p ( A)
p( B)
Die bedingte Wahrscheinlichkeit eines Ereignisses A
gegeben B ist zu berechnen aus der Wahrscheinlichkeit
für B gegeben A und den Grundwahrscheinlichkeiten von
A und B.
Diese Beziehung ist der Satz von Bayes.
Folie 31
Methodenlehre
& Statistik
Beispiel
Bedingte Wk
Satz von Bayes
Satz von Bayes
Verallgemeinerung
Definition
Hat man mehrere Ereignisse B1, B2, …, Bk gilt beim Satz
von Bayes
p ( A | Bi ) p( Bi )
p ( Bi | A) 
p ( A)
vorausgesetzt, dass die Grundwahrscheinlichkeit für A
bekannt ist. Häufig kennt man aber nur alle p(A|Bi).
Mit dem Satz der totalen Wahrscheinlichkeit erhält man
aus dem Satz von Bayes diese allgemeine Bayes-Formel:
p ( Bi | A) 
Folie 32
p ( A | Bi ) p ( Bi )
p ( A | B1 ) p ( B1 )  p ( A | B2 ) p ( B2 )    p ( A | Bk ) p ( Bk )
Methodenlehre
& Statistik
Relevante Excel Funktionen
 Wahrscheinlichkeitsrechnung
• Zufallszahl(), Zufallsbereich()
Folie 33
Methodenlehre
& Statistik
Inhalte
dieser Sitzung
 Theoretische Wahrscheinlichkeiten und empirische
Häufigkeiten
 Bernoulli Experimente
 Binomial- und Poisson-Verteilung
Folie 2
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Zufallsvariablen
Recap – Notation
Bernoulli
Experimente
Binomialvert.
Poisson Vert.
 Eine Zufallsvariable, die abzählbar viele Werte
annehmen kann (in endlich oder unendlich vielen
Ausprägungen), wird als diskrete
Zufallsvariable bezeichnet
 Das Ereignis, dass die diskrete Zufallsvariable X
eine bestimmte (die i-te) Ausprägung annimmt,
wird bezeichnet als X = xi
 Die Wk für X = xi wird als p(X = xi) oder kürzer
p(xi) oder ganz kurz pi bezeichnet
 p(X = xi) ist eine Punktwahrscheinlichkeit
Folie 3
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Zufallsvariablen
Recap – Wahrscheinlichkeitsverteilung
Bernoulli
Experimente
Binomialvert.
Poisson Vert.
Die Verteilung der p(X = xi) auf alle möglichen
Ausprägungen von X wird als diskrete
Wahrscheinlichkeitsverteilung bezeichnet.
Sie beschreibt theoretische Punktwahrscheinlichkeiten und wird definiert als
 p ( X  xi ) :  falls x i   x1  xk 
p ( x)  
0 sonst

Wert von X
p(X = xi)
Folie 4
x1
x2
p(x1) p(x2)
…
xi
p(xi)
…
xk
p(xk)
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Zufallsvariablen
Recap – Verteilungsfunktion
Bernoulli
Experimente
Binomialvert.
Die Verteilung der p(X ≤ xm) wird als Verteilungsfunktion
der Zufallsvariablen X oder kumulierte Wahrscheinlichkeitsverteilung bezeichnet.
Sie beschreibt theoretische Intervallwahrscheinlichkeiten und wird definiert als
m
Poisson Vert.
P( x)  p ( X  xm )  p1  p2    pm   pi
i 1
Wert von X
p(X ≤ xi)
Folie 5
x1
x2
p(x1)
p(x1) + p(x2)
…
xm
… p(x1) + p(x2) + … + p(xm)
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Zufallsvariablen
Recap – Häufigkeit und Wahrscheinlichkeit
Bernoulli
Experimente
Binomialvert.
Poisson Vert.
Folie 6
Methodenlehre
& Statistik
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Zufallsvariablen
Recap – Häufigkeit und Wahrscheinlichkeit
Absolute Häufigkeit eines Wertes x:
Relative Häufigkeit eines Wertes x:
(n = Anzahl aller Werte)
Empirisch
Theoretisch
h  x

h x
f  x 
n
p  x
(Häufigkeitsverteilung)
Kumulierte absolute Häufigkeit
bis zu einer Schranke u:
Relative kumulierte Häufigkeit
bis zu einer Schranke u:
H  x    h  xi  xi  u





P  x    p  xi 
i
F  x    f  xi  xi  u
i
(Emp. Verteilungsfunktion)
Folie 7
(Wk.-Verteilung)
i
(Verteilungsfunktion)
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Zufallsvariablen
Recap – Häufigkeit und Wahrscheinlichkeit
Bernoulli
Experimente
 Die empirische Häufigkeitsverteilung f(x) und die
Wahrscheinlichkeitsverteilung p(x) einer Zufallsvariablen sind konzeptuell strikt zu trennen
Binomialvert.
 Die empirische und theoretische Verteilungsfunktion sind ebenfalls strikt zu trennen
Poisson Vert.
 Die theoretischen Verteilungen bedürfen keiner
Daten, denn sie sind gegeben
 Die theoretische Verteilung bestimmt, was für die
empirische Verteilung zu erwarten ist
 Aber: In der Notation wird oft einfach f(x) bzw.
F(x) geschrieben, gleichgültig, ob es um
Häufigkeiten oder Wahrscheinlichkeiten geht.
Folie 8
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Folgen unabhängiger Ereignisse
Bernoulli Experimente
Bernoulli
Experimente
Binomialvert.
Poisson Vert.
 Kann ein Zufallsexperiment mehrfach unter
demselben Komplex Ξ durchgeführt werden und
sind die einzelnen Versuche stochastisch
unabhängig, so spricht man von einem Bernoulli
Experiment.
 Das Bernoulli Experiment ist ein Art MetaExperiment, dessen Trials aus der mehrfachen
Durchführung des zugrunde liegenden
Experimentes bestehen.
 Der typische Stichprobenraum eines Bernoulli
Experimentes ergibt sich erst nach der sinnvollen
Definition einer Zufallsvariablen.
Folie 9
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Folgen unabhängiger Ereignisse
Bernoulli Experimente
Bernoulli
Experimente
 Beispiel: Das Experiment Ξ sei der einmalige
Wurf einer fairen Münze, wobei die Münze nicht
auf der Kante liegen bleiben kann.
Binomialvert.
 Der Stichprobenraum ist
   Kopf , Zahl
Poisson Vert.
 Als Zufallsvariable könnte man definieren
 y1: 0, wenn Kopf
Y 
mit
 y2 : 1, wenn Zahl
Folie 10
 p Y  y1  : 0.5
p  y  
 p Y  y2  : 0.5
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Folgen unabhängiger Ereignisse
Bernoulli Experimente
Bernoulli
Experimente
 Beispiel: Das Bernoulli Experiment bestehe nun
in der 20maligen Durchführung des Zufallsexperimentes Ξ
Binomialvert.
 Sein Stichprobenraum umfasst alle möglichen
20elementigen Folgen von Kopf und Zahl, also
Poisson Vert.
 K , K , K , K , K , K , K , K , K , K , K , K , K , K , K , K , K , K , K , K  , 


,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
K
Z
 



 '   ,



K
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,
Z
,






Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z , Z  
Folie 11
Ein Elementarereignis
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Folgen unabhängiger Ereignisse
Bernoulli Experimente
Bernoulli
Experimente
 Auf dem Stichprobenraum eines solchen Bernoulli
Experimentes können viele verschiedene
Zufallsvariablen definiert werden.
Binomialvert.
 Beispiel: Jedem möglichen der insgesamt k
Elemente des Stichprobenraumes wird eine
eindeutige Zahl zugewiesen:
Poisson Vert.
 X  x1 : 1, wenn K , K , , K
 X  x : 2, wenn K , K , , Z

2
X 

 X  xk : 1048576, wenn Z , Z , , Z
Folie 12
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Folgen unabhängiger Ereignisse
Bernoulli Experimente
Bernoulli
Experimente
 Auf dem Stichprobenraum eines solchen Bernoulli
Experimentes können viele verschiedene
Zufallsvariablen definiert werden.
Binomialvert.
 Beispiel: Jedem möglichen der insgesamt k
Elemente des Stichprobenraumes wird eine
eindeutige Zahl zugewiesen:
Poisson Vert.
 X  x1 : 1, wenn y1 , y1 , , y1
 X  x : 2, wenn y , y , , y

2
1
1
2
X 

 X  xk : 1048576, wenn y 2 , y2 , , y2
Folie 13
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Folgen unabhängiger Ereignisse
Bernoulli Experimente
Bernoulli
Experimente
Binomialvert.
Poisson Vert.
Folie 14
 Zur Definition der Wahrscheinlichkeitsverteilung dieser Zufallsvariablen kann der
Multiplikationssatz für stochastisch
unabhängige Ereignisse herangezogen werden
 p  X  x1  : p  y1   p  y1   p  y1 

 p  X  x2  : p  y1   p  y1   p  y2 
p  x  

 p  X  x  : p  y   p  y   p  y 
k
2
2
2

Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Folgen unabhängiger Ereignisse
Bernoulli Experimente
Bernoulli
Experimente
 Aber: Zu Zeiten Bernoullis wurde Wahrscheinlichkeitsrechnung vor allem zum besseren Verständnis
des Glücksspieles betrieben
Binomialvert.
 Deshalb spielte die Ordnung der Ergebnisse aus den
Trials eines Bernoulli Experimentes eher keine Rolle
Poisson Vert.
 Die Zufallsvariable eines Bernoulli Experimentes ist
per definitionem einfach die Summe der Realisationen aus den n durchgeführten Trials, also
n
X  y1  y2    yn   yi
i 1
mit n=20 in unserem Beispiel
Folie 15
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Folgen unabhängiger Ereignisse
Bernoulli Experimente
Bernoulli
Experimente
Binomialvert.
Poisson Vert.
 Im Beispiel mit n=20 ist dies aber gleichbedeutend
mit der Definition
 X  x1 : 0, wenn 0  Zahl
 X  x : 1, wenn 1 Zahl

2
X 

 X  x21 : 1, wenn 20  Zahl
 Wenn in der zugrunde liegenden Zufallsvariable Y
ein „Treffer“ (hier: Zahl) die 1 erhalten hat, liefert X
also einfach die Anzahl der Treffer in den n Trials
 Achtung: Diese Übertragung ist nicht mehr gültig,
sobald die Zufallsvariable Y anders definiert wird
Folie 16
(z.B. mit umgekehrter Zuweisung von 0/1 zu Kopf/Zahl)
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Folgen unabhängiger Ereignisse
Bernoulli Experimente
Bernoulli
Experimente
 Frage: Angenommen, die Wahrscheinlichkeitsfunktion der Zufallsvariablen X aus dem zugrunde
liegenden Experiment ist bekannt – kann dann die
Wahrscheinlichkeitsfunktion von Y ermittelt werden?
Binomialvert.
 Am Beispiel: Gibt es die mathematische Beziehung
Poisson Vert.
 p Y  y1  : 0.5
p  y  
 p Y  y2  : 0.5
Folie 17
?
 p  X  x1 

 p  X  x2 
p  x  

p X  x 
20

Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Wk-Verteilungen
Binomialverteilung
Bernoulli
Experimente
 Der einfachste Fall eines Bernoulli Experimentes
beruht auf einem Experiment mit nur zwei
möglichen disjunkten Ergebnissen
Binomialvert.
 Man definiere für dieses Experiment die folgende
Zufallsvariable und Wahrscheinlichkeitsfunktion:
Poisson Vert.
Y  y1 : 0
Y 
Y  y2 : 1
 p Y  y1  : q
p  y  
 p Y  y2  : p
mit q = 1–p
 Beispiel: Beim Münzwurf wäre z.B. p = q = 0.5
Folie 18
(p ist die so genannte „Treffer- oder Erfolgswahrscheinlichkeit“)
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Wk-Verteilungen
Binomialverteilung
Bernoulli
Experimente
Man hat
Y  y1 : 0
Y 
Y  y2 :1
und kennt
 p Y  y1  : 1  p
p( y)  
 p Y  y2  : p
Binomialvert.
Poisson Vert.
ist gesucht
 p  X  x1  : ?

 p  X  x2  : ?
p ( x)  

pX  x : ?
n 1

Folie 19
Bei n Trials
 X  x1 : 0
 X  x :1

2
X 

 X  xn 1 : n
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Wk-Verteilungen
Binomialverteilung
Bernoulli
Experimente
 Wird ein dichotomes Experiment n mal durchgeführt,
kann die Wahrscheinlichkeitsfunktion der möglichen
Realisationen für das resultierende Bernoulli
Experiment mathematisch hergeleitet werden:
Binomialvert.
Poisson Vert.
 n  x n x
f ( x , n, p )    p q
 x
mit n = Anzahl aller Trials
Dies ist die
Binomialverteilung
x = Anzahl günstiger Ergebnisse in den n Trials
p = Wk für jedes x
q = Wk der übrigen n-x Ergebnisse, also, q = 1–p
Folie 20
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Wk-Verteilungen
Binomialverteilung
Bernoulli
Experimente
und kennt
Man hat
Y  y1 : 0
Y 
Y  y2 :1
 p Y  y1  : 1  p
p( y)  
 p Y  y2  : p
Binomialvert.
Poisson Vert.
ist gesucht
n
f ( x , n, p )    p x q n  x
 x
Bei n Trials
 p  X  x1  : ?

 p  X  x2  : ?
p ( x)  

pX  x : ?
n 1

Folie 21
 X  x1 : 0
 X  x :1

2
X 

 X  xn 1 : n
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Wk-Verteilungen
Exkurs: Fakultät und der Binomialkoeffizient
Bernoulli
Experimente
 Der Binomialkoeffizient ist definiert als
n
n!
 
 x  x ! (n  x)!
Binomialvert.
Poisson Vert.
 Dabei ist
n !  1  2  3   n
per definitionem mit 0! = 1
Folie 22
lies: „n über x“
lies: „n Fakultät“
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Wk-Verteilungen
Binomialverteilung
Bernoulli
Experimente
 Die Binomialverteilung ist eine diskrete
Wahrscheinlichkeitsverteilung, da sie nur endlich
viele verschiedene Werte annehmen kann
Binomialvert.
 Die mathematische Funktion kann nur dann
angewandt werden, wenn die Zufallsvariable des
zugrunde liegenden Experimentes 0/1-kodiert ist
Poisson Vert.
 Die Funktion f(x,n,p) gibt dann die Wahrscheinlichkeit
für jede mögliche Häufigkeit von 1en in den n
Versuchen an  Anzahl der „Treffer“
 Die Binomialverteilung ist die „Mutter aller
Verteilungen“, da aus ihr praktisch alle wichtigen
weiteren Verteilungen abgeleitet werden können
Folie 23
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Wk-Verteilungen
Binomialverteilung
Bernoulli
Experimente
 Die Wahrscheinlichkeitsfunktion f(x,n,p) liefert
die Punktwahrscheinlichkeiten für ein genau xmaliges Auftreten der Realisation 1 einer 0/1
kodierten Zufallsvariablen.
Binomialvert.
 Zusätzlich existiert auch die Verteilungsfunktion
der Intervallwahrscheinlichkeiten für ein
maximal x-maliges Auftreten der Realisation 1
Poisson Vert.
 Diese ist einfach die Summe aller Punktwahrscheinlichkeiten bis zur Realisation xi
k
F  x, n, p    f  xi , n, p 
i 1
Folie 24
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Wk-Verteilungen
Binomialverteilung
Bernoulli
Experimente
 Am Beispiel mit p=0.5 und n=20 ergäbe sich
x
Binomialvert.
Poisson Vert.
Folie 25
f(x)
F(x)
0
0.000
0.000
1
0.000
0.000
2
0.000
0.000
3
0.001
0.001
4
0.005
0.006
5
0.015
0.021
…
…
…
20
0.000
1.000
x
x
Methodenlehre
& Statistik
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Zufallsvariablen
Recap – Häufigkeit und Wahrscheinlichkeit
Absolute Häufigkeit eines Wertes x:
Relative Häufigkeit eines Wertes x:
(n = Anzahl aller Werte)
Empirisch
Theoretisch
h  x

h x
f  x 
n
p  x
(Häufigkeitsverteilung)
Kumulierte absolute Häufigkeit
bis zu einer Schranke u:
Relative kumulierte Häufigkeit
bis zu einer Schranke u:
H  x    h  xi  xi  u





P  x    p  xi 
i
F  x    f  xi  xi  u
i
(Emp. Verteilungsfunktion)
Folie 26
(Wk.-Verteilung)
i
(Verteilungsfunktion)
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Wk-Verteilungen
Poisson Verteilung
Bernoulli
Experimente
Binomialvert.
Poisson Vert.
Für ein Bernoulli Experiment mit 2 disjunkten Ergebnissen gelte
 die Häufigkeit, mit dem ein Ereignis in einem bestimmten
Zeitintervall typischerweise auftritt, sei .
 die Wahrscheinlichkeit des Eintretens von m Ereignissen
in einem Zeitintervall ist nur von der Länge des Intervalls
abhängig, nicht von seiner Lage auf der Zeitachse
 die Ereignisse sind stochastisch unabhängig
Die Wahrscheinlichkeit für das Eintreten von m Ereignissen in
einem Zeitintervall ist dann
e   x
f ( x,  ) 
x!
Folie 27
Poisson Verteilung
(e = Eulersche Zahl; 2.718)
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Wk-Verteilungen
Poisson Verteilung
Bernoulli
Experimente
e  x
f ( x,  ) 
x!
Binomialvert.
Poisson Vert.
  wird auch als Intensitätsparameter der PoissonVerteilung bezeichnet
 Anders als die Binomialverteilung ist die PoissonVerteilung unendlich abzählbar.
Folie 28
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Wk-Verteilungen
Poisson Verteilung als Approximation der Binomialvert.
Bernoulli
Experimente
 Wenn n groß ist und p klein, ist die Bestimmung von
Wahrscheinlichkeiten aus der Binomialverteilung
mathematisch aufwändig
Binomialvert.
 Die Poisson-Verteilung approximiert die Binomialverteilung für seltene Ereignisse sehr gut, wenn n ≥ 100
und np ≤ 10
Poisson Vert.
 Dabei wird angenommen, dass λ = np
e  n p ( n  p ) x  n  x
f ( x, n  p ) 
   p (1  p ) n  x  f ( x, n, p )
x!
 x
Poisson
Folie 29
Binomial
Methodenlehre
& Statistik
Definition
Diskrete Verteilungen
Stetige Verteilungen
Diskrete Wk-Verteilungen
Poisson Verteilung als Approximation der Binomialvert.
Bernoulli
Experimente
 Die Poisson Verteilung geht mathematisch unmittelbar
aus der Binomialverteilung hervor
Binomialvert.
 Die Poisson Verteilung wird häufig als Verteilung für
seltene Ereignisse bezeichnet.
Poisson Vert.
 Hier ist streng zu unterscheiden zwischen einer kleinen
Wahrscheinlichkeit p und einer theoretisch recht großen
Anzahl n·p der unwahrscheinlichen Ereignisse.
 Die Güte der Approximation bezieht sich auf den
relativen Approximationsfehler, d.h. den Quotienten
aus der Binomial-Wk und der Poisson-Wk
Folie 30
Methodenlehre
& Statistik
Relevante Excel Funktionen
 Diskrete Wahrscheinlichkeitsverteilungen
• BINOM.VERT()
• POISSON.VERT()
oder EXP() und POTENZ() bzw. ^ („hoch“)
• FAKULTÄT(), KOMBINATIONEN()
Folie 31
Methodenlehre
& Statistik
Diskrete Verteilungen
Inferenzstatistik
Inhalte
dieser Sitzung
 Tabellarische Darstellung von
Wahrscheinlichkeitsverteilungen
 Eine Zahl für Alles: Kennwerte
 Bilder sagen mehr als Worte: Grafische Darstellung
 Was ist eine große Zahl – Einführung in das
statistische Testen
 Binomial- und Poisson-Test
Folie 2
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Recap
Kennwerte
Grafiken
 Die Binomial- und Poissonverteilung beschreiben
die Auftretenswahrscheinlichkeiten einer 0/1kodierten Zufallsvariablen bei n Trials
 Es wird immer angenommen, dass der
Stichprobenraum eines Trials definiert ist als
 = {Misserfolg, Erfolg}  X() = {0,1}
 Ein Elementarereignis des gesamten BernoulliExperimentes mit n Trials ist so immer eine Folge
von n Nullen bzw. Einsen.
Folie 3
 Die Anzahl von Erfolgen ist einfach die Summe der
Trialrealisationen.
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Numerische Beschreibung: univariate Kreuztabellen
Kennwerte
Grafiken
 Die vollständige numerische Darstellung der
Wahrscheinlichkeitsverteilung oder
Verteilungsfunktion wird über so genannte
Kreuztabellen (oder Kontingenztabellen)
vorgenommen.
Wert von X
x1
x2
…
xi
…
xk
Folie 4
f(X = xi)
h(x1)
h(x2)
…
h(xi)
…
h(xk)
F(X = xi)
f(x1)
f(x2)
…
f(xi)
…
f(xk)
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Numerische Beschreibung: multivariate Kreuztabellen
Kennwerte
Grafiken
 Oft betrachtet man Wahrscheinlichkeiten für das
gemeinsame Auftreten zweier Merkmale
(bivariat)
 Beispiel: Frauen/Männer, die unter-/normal/übergewichtig sind
 In diesem Fall werden 2 Variablen betrachtet:
X: Geschlecht (x1, x2)
Y: Gewichtsstatus (y1, y2, y3)
 Die Wahrscheinlichkeiten sind Verbundwahrscheinlichkeiten, die das Vorkommen jeder
möglichen Kombination aus x und y beschreiben
Folie 5
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Numerische Beschreibung: multivariate Kreuztabellen
Kennwerte
 Tabellarische Darstellung über bivariate
Kreuztabellen
Grafiken
Geschlecht
Männlich (x1) Weiblich (x2)
Unter (y1)
f(x1,y1)
f(x2,y1)
Gewicht Normal (y2)
f(x1,y2)
f(x2,y2)
Über (y3)
f(x1,y3)
f(x2,y3)
Σ
f(x1,●)
f(x2,●)
Folie 6
Randhäufigkeiten
Σ
f(●,y1)
f(●,y2)
f(●,y3)
f(●,●)
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Numerische Beschreibung: multivariate Kreuztabellen
Kennwerte
 Tabellarische Darstellung über bivariate
Kreuztabellen
Grafiken
 Varianten: Kreuztabellen der unbedingten
Verbundwahrscheinlichkeiten oder Kreuztabellen der
bedingten Wahrscheinlichkeiten.
Geschlecht
Männlich (x1) Weiblich (x2)
Unter (y1)
f(x1 | y1)
f(x2 | y1)
Gewicht Normal (y2)
f(x1 | y2)
f(x2 | y2)
Über (y3)
f(x1 | y3)
f(x2 | y3)
Σ
f(x1,●)
f(x2,●)
Folie 7
Σ
f(●,y1)
f(●,y2)
f(●,y3)
f(●,●)
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Numerische Beschreibung: multivariate Kreuztabellen
Kennwerte
 Tabellarische Darstellung über bivariate
Kreuztabellen
Grafiken
 Varianten: Kreuztabellen der unbedingten
Verbundwahrscheinlichkeiten oder Kreuztabellen der
bedingten Wahrscheinlichkeiten.
Geschlecht
Männlich (x1) Weiblich (x2)
Unter (y1)
f(y1 | x1)
f(y1 | x2)
Gewicht Normal (y2)
f(y2 | x1)
f(y2 | x2)
Über (y3)
f(y3 | x1)
f(y3 | x2)
Σ
f(x1,●)
f(x2,●)
Folie 8
Σ
f(●,y1)
f(●,y2)
f(●,y3)
f(●,●)
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Numerische Beschreibung: Kennwerte
Kennwerte
Grafiken
 Als Kennwert bezeichnet man ein statistisches
Maß, das eine Wahrscheinlichkeitsverteilung über
zumeist nur eine Zahl beschreibt
 Kennwerte dienen der Informationsreduktion,
um die Eigenschaften einer Verteilung möglichst
sparsam zu beschreiben
 Kennwerte charakterisieren immer nur bestimmte
Eigenschaften der gegebenen Verteilung, sie
bedeuten also einen Informationsverlust
Folie 9
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Numerische Beschreibung: Erwartungswert
Kennwerte
Grafiken
 Die Lage der Wahrscheinlichkeitsverteilung einer
Zufallsvariablen X wird durch den Erwartungswert von
X, geschrieben als E(X), charakterisiert.
 Oft wird E(X) alternativ als  („mü“) bezeichnet
 Der Erwartungswert kann als Maß verstanden werden,
das den Schwerpunkt einer Verteilung kennzeichnet.
 Der Erwartungswert ist für die theoretische
Wahrscheinlichkeitsverteilung das, was der Mittelwert
für die empirische Häufigkeitsverteilung ist.
Folie 10
 Der Erwartungswert einer Zufallsvariablen erfordert
keine Beobachtungen, sondern bezieht sich auf die
theoretische Wahrscheinlichkeitsverteilung.
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Numerische Beschreibung: Erwartungswert
Kennwerte
Grafiken
 Für eine diskrete Zufallsvariable X mit endlich vielen
Ausprägungen x1,…, xk und Wahrscheinlichkeiten pi = p(X=xi)
ergibt sich der Erwartungswert über
k
E ( X )     pi xi
i 1
  kann als gewichtetes Mittel der möglichen Realisationen
einer Zufallsvariablen aufgefasst werden, wobei die
Wahrscheinlichkeiten die Gewichte darstellen.
 Dabei gilt:
Folie 11
E ( a  X  b)  a  E  X   b
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Numerische Beschreibung: Varianz
Kennwerte
Grafiken
 Die Breite der Wahrscheinlichkeitsverteilung einer
Zufallsvariablen X wird durch die Varianz von X,
geschrieben ²(X), charakterisiert.
 Oft wird ²(X) abgekürzt zu ² („sigma Quadrat“).
 Die Varianz kann als Maß verstanden werden, die die
Ausdehnung der Wahrscheinlichkeitsverteilung um den
Erwartungswert herum beschreibt.
 Die Varianz einer Zufallsvariablen erfordert keine
Beobachtungen, sondern bezieht sich auf die
theoretische Wahrscheinlichkeitsverteilung.
Folie 12
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Numerische Beschreibung: Varianz
Kennwerte
Grafiken
 Für eine diskrete Zufallsvariable X mit endlich vielen
Ausprägungen x1,…, xk und Wahrscheinlichkeiten pi = p(X=xi)
ergibt sich die Varianz über
E  X  E  X   
2
k
2
 X    pi  xi   
2
i 1
 ²(X) kann als gewichtetes Mittel der quadrierten
Abweichungen der möglichen Realisationen einer
Zufallsvariablen zum Erwartungswert aufgefasst werden,
wobei die Wahrscheinlichkeiten die Gewichte darstellen.
Folie 13
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Numerische Beschreibung: Standardabweichung
Kennwerte
Grafiken
 Die Varianz erfüllt nicht die Forderung der Proportionalität
bei der Multiplikation der Zufallsvariablen mit einem festen
Wert a.
 ²(a  X )  a   2  X 
 Es gilt also nicht
sondern statt dessen
 ²(a  X )  a 2   2  X 
 Dieses Problem wird durch Wurzelziehen beseitigt. Man
erhält so die Standardabweichung (X), abgekürzt
einfach  („sigma“).
 X   2X 
Folie 14
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Einfache Rechenregeln für Kennwerte
Kennwerte
Grafiken
Für eine binomialverteilte Zufallsvariable X mit der
Wahrscheinlichkeitsverteilung f(m, n, p) gilt
1.  = n · p
Erwartungswert
2. ² = n · p · q
Varianz
3.  =
Standardabweichung
n·p·q
Nur für X()={0,1}
Folie 15
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Transformation der Zufallsvariablen
Kennwerte
Grafiken
Folie 16
 Frage: Wie berechnet sich der Erwartungswert für
eine binomialverteilte, aber nicht 0/1-kodierte
Zufallsvariable?
 Beispiel: Die Wahrscheinlichkeit, ohne
Mammografie an Brustkrebs zu erkanken, betrage
p=0.1. Eine Brustkrebspatientin verursacht Krankheitskosten von etwa 28.500€. Die regelmäßige
Brustkrebsvorsorge durch Mammografie kostet
9.000€, senkt aber das Brustkrebsrisiko auf
p=0.05. Eine Krankenversicherung beauftragt einen
Gesundheitspsychologen zu berechnen, ob sie
billiger wegkommt, wenn sie ihren weiblichen
Mitglieder kostenlose Mammografien verordnet.
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Transformation der Zufallsvariablen
Kennwerte
Grafiken
 Man hat hier zwei Zufallsvariablen mit eigentlich
folgenden Eigenschaften:
X = {0, 1}
Y = {0, 1}
p(X) = {0.9, 0.1}
p(Y) = {0.95, 0.05}
mit 0 = kein Brustkrebs, 1 = Brustkrebs.
 Man geht nun davon aus, dass die neue
Zufallsvariable „Kosten“ nur eine mathematische
Transformation der Zufallsvariable „Häufigkeit“ ist.
 Die neue Zufallsvariable erbt wieder die Wahrscheinlichkeitsverteilung der alten Zufallsvariablen.
Folie 17
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Transformation der Zufallsvariablen
Kennwerte
Grafiken
 Es gilt also für die neue Zufallsvariable „Kosten“:
X‘ = {0, 28.500}
Y‘ = {9.000, 37.500}
p(X‘) = {0.9, 0.1}
p(Y‘) = {0.95, 0.05}
 Daraus lässt sich nun wie üblich der
Erwartungswert  bestimmen als p‘ix‘i.
 Und die Varianz ist dementsprechend
 Man kann nun mathematische Beziehungen für die
Veränderung von Erwartungswert und Varianz bei
der Transformation von Zufallsvariablen herleiten
Folie 18
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Transformation der Zufallsvariablen
Kennwerte
Grafiken
 Voraussetzung: Die Wahrscheinlichkeitsverteilung einer Zufallsvariablen X mit beliebig
vielen Ausprägungen sei bekannt.
 x1
x
 2
X 

 xk
 p1
p
 2
p( X )  

 pk
k
 X   pi  xi
i 1
k
   pi   xi   X 
2
X
2
i 1
Oder x und ² sind direkt
berechenbar (z.B. bei der
Binomialverteilung mit 0/1)
Folie 19
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Einfache Rechenregeln für Kennwerte
Kennwerte
Grafiken
Für eine poisssonverteilte Zufallsvariable X mit der
Wahrscheinlichkeitsverteilung f(, n) gilt
1.  = 
Erwartungswert
2. ² =  · (1-/n)  
Varianz
3.  = 
Standardabw.
für große
n (siehe 2.)
Nur für X()={0,1}
Folie 20
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Transformation der Zufallsvariablen
Kennwerte
Grafiken
 Variante 1: Die neue Zufallsvariable X‘ ist eine
einfache mathematische Transformation (Multiplikation und Addition) der alten Zufallsvariablen X.
X '  a X b
 Dann gilt
Folie 21
X '  a  X  b
 X2 '  a 2   X2
 Der Erwartungswert verändert sich also genau so
wie die Zufallsvariable, die Varianz wächst mit dem
Quadrat des Multiplikators.
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Transformation der Zufallsvariablen
Kennwerte
Grafiken
 Variante 2: Die neue Zufallsvariable X‘ ist eine
beliebige Transformation der alten Zufallsvariablen X.
 x '1
x '
 2
X '
 
 x 'k
 p1
p
 2
p ( X ')  

 pk
k
 Dann muss neu
gerechnet werden:
 X '   pi  x 'i
i 1
k
 X2 '   pi   x 'i   X ' 
i 1
Folie 22
2
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Grafische Beschreibung: Kreisdiagramm
Kennwerte
Grafiken
 Das Kreis- oder Tortendiagramm stellt die
Wahrscheinlichkeiten von Ausprägungen einer
Zufallsvariablen als Kreissegmente eines Vollkreises
(„Tortenstücke“) dar.
 Der Öffnungswinkel α eines Segmentes ist dabei durch
die Wahrscheinlichkeit der Ausprägung p(xi) definiert
  360  p( xi )
 Die Summe der Öffnungswinkel aller Kreissegmente
sollte wieder 360° ergeben
Folie 23
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Grafische Beschreibung: Kreisdiagramm
Kennwerte
Grafiken
Folie 24
Beispiel: Die Wahrscheinlichkeit, in einem Experiment zur
visuellen Wahrnehmung einen epileptischen Anfall zu
bekommen, betrage p=0.0017. An einem konkreten
Experiment sollen n=200 Personen teilnehmen.
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Grafische Beschreibung: Säulendiagramm
Kennwerte
Grafiken
 Das Säulen- oder Balkendiagramm stellt die
Wahrscheinlichkeiten von Ausprägungen einer
Zufallsvariablen als Balken (waagerecht) oder
Säulen (senkrecht) dar.
 Der Länge der Säulen bzw. Balken ist dabei
durch die Wahrscheinlichkeit p(xi) bestimmt.
 Die Breite der Säulen bzw. Balken variiert i.d.R.
nicht innerhalb eines Diagramms
 Zur Darstellung den Wahrscheinlichkeitsverteilung
bzw. Verteilungsfunktion wird zwischen den
Säulen bzw. Balken zumeist kein Raum gelassen
Folie 25
Methodenlehre
& Statistik
Kreuztabellen
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Grafische Beschreibung: Säulendiagramm
Kennwerte
Grafiken
Beispiel: Das Neuroleptikum Tavor führt bei längerer
Einnahme mit einer Wahrscheinlichkeit von p=0.73 zu
Abhängigkeit. In einer Langzeittherapiestudie soll das
Medikament an n=10 Personen eingesetzt werden.
Verteilungsfunktion F(x, 10, 0.73)
Punktwahrscheinlichkeit p(x)
Intervallwahrscheinlichkeit P(x)
Wahrscheinlichkeitsverteilung f(x, 10, 0.73)
Anzahl Abhängigkeitsfälle x
Folie 26
Anzahl Abhängigkeitsfälle x
Methodenlehre
& Statistik
Diskrete Verteilungen
Inferenzstatistik
Diskrete Wk-Verteilungen
Kreuztabellen
Grafische Beschreibung: Säulendiagramm
Kennwerte
Wahrscheinlichkeitsverteilung f(x, 10, 0.73)
Wahrscheinlichkeitsverteilung f(x, 10, 0.73)
Punktwahrscheinlichkeit p(x)
Punktwahrscheinlichkeit p(x)
Grafiken
Warum gleiche Säulenbreiten?
Anzahl Abhängigkeitsfälle x
Anzahl Abhängigkeitsfälle x
Menschen neigen zur Größenbewertung anhand der Fläche.
Folie 27
Methodenlehre
& Statistik
Einführung
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Beispiel
Testarten
Gustav Fechner, Urvater der Experimentellen Psychologie,
entwickelte zentrale Methoden der modernen Psychophysik
mit genau einem Ziel: den Beweis zu führen, dass Pflanzen
eine Seele haben.
Er perfektionierte eine Methode der Mikrostimulation, auf die
hin er eine biologische Reaktion und bei Pflanzen nachweisen
wollte. Eine solche Reaktion wäre der Beleg, dass Pflanzen
fühlen können. Damit wäre es zum Denken und schließlich
zur Seele nicht mehr weit.
Fechner führte insgesamt n=24576 Messungen von ReizReaktionsmusters bei Pflanzen durch.
Folie 28
Angenommen, Pflanzen zeigen die gewünschte Reaktion
auch ohne Stimulation (d.h. zufällig) mit einer
Wahrscheinlichkeit von p=.25. Fechner möge eine Reaktion in
x=6306 Fällen finden. Haben
Pflanzen
eineauf
Seele?
Reagieren
Pflanzen
die Stimulation?
Methodenlehre
& Statistik
Einführung
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Das Prinzip des statistischen Testens
Testarten
 Das Ziel Fechners war die Beantwortung der Frage, ob
Pflanzen auf die Stimulation oder nur zufällig reagieren
 Die Beantwortung sollte sich nach Möglichkeit auf die Population aller Pflanzen
beziehen, nicht nur auf die Stichprobe
der Pflanzen in Fechners Labor
 Es sind also Methoden erforderlich, welche
die Verallgemeinerung von Beobachtungen
in einer Stichprobe auf die zugrunde
liegende Population erlauben
 Diese Methoden stellt die Inferenzstatistik („schließende Statistik“) zur
Verfügung
Folie 29
Population
?
Daten
(beobachtet)
Methodenlehre
& Statistik
Einführung
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Das Prinzip des statistischen Testens
Testarten
Es existieren eine Vielzahl inferenzstatistischer Tests für
nahezu beliebige Arten von Hypothesen, z.B.
 Gehört ein Messwert (und damit sein Merkmalsträger) zu
einer bestimmten Population?
 Sind Häufigkeiten verschieden?
 Sind die Mittelwerte von Messwerten zwischen Gruppen
unterschiedlich?
 Sind die Varianzen von Messwerten zwischen Gruppen
unterschiedlich?
 Hängt die Ausprägung eines Merkmals mit einer
bestimmten Intervention zusammen?
Folie 30
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Inhalte
dieser Sitzung
 Stetige Verteilungen
 Kennwerte und Darstellungen
 z-Standardisierung und ihre Folgen
 z-Test
Folie 2
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Inferenzstatistik
Stetige Zufallsvariablen
Definition
Kennwerte &
Darstellung
Normalverteilung
z-Werte
Folie 3
 Eine Zufallsvariable, die jeden Wert in einem Intervall
annehmen kann, ist eine stetige Zufallsvariable
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Inferenzstatistik
Stetige Zufallsvariablen
Definition
Kennwerte &
Darstellung
Normalverteilung
z-Werte
 Die Wahrscheinlichkeitsverteilung f(x) einer stetigen
Zufallsvariable X wird zumeist als mathematische
Funktion definiert. Sie wird bei stetigen Zufallsvariablen
auch als Dichtefunktion bezeichnet.
 Die Verteilungsfunktion einer stetigen Zufallsvariablen
ist dann
k
P( x)   p  X  xi 
i 1
Diskret
Folie 4
F ( x) 
xk
 f  x  dx
x 
Stetig
 Die Verteilungsfunktion gibt wieder an, wie wahrscheinlich X einen Wert kleiner oder gleich x annimmt.
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Stetige Zufallsvariablen
Definition
Definition
Kennwerte &
Darstellung
Normalverteilung
 Eine Funktion f(x) ist gemäß der Kolmogoroff Axiome
genau dann eine Dichtefunktion, wenn gilt
f ( x)  0
F ( x)  
und

f ( x) dx  1
 Dabei reicht der Wertebereich von f(x) nicht für jede
stetige Verteilung von - bis + (z.B. Reaktionszeit).
Standardnormalverteilung
Standardnormalverteilung
0.45
0.4
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
F(z,,)
f(z,,)
z-Werte
‐3
Folie 5

‐2
‐1
0
z‐Wert
1
2
3
1
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
‐3
‐2
‐1
0
z‐Wert
1
2
3
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Inferenzstatistik
Stetige Zufallsvariablen
Definition
Kennwerte &
Darstellung
Normalverteilung
z-Werte
 Für eine stetige Zufallsvariable ist die Punktwahrscheinlichkeit f(X = x) nicht definiert (bzw. immer 0).
 Die Dichtefunktion f(x) liefert also nicht unmittelbar die
Wahrscheinlichkeiten für Ereignisse, die
Wahrscheinlichkeiten ergeben sich aus der Fläche unter
der Dichtefunktion
 Es sind nur Wahrscheinlichkeiten für Intervalle von
Realisationen zu bestimmen, also F(xi  X  xj). Diese
werden dann berechnet als
xj
F ( xi  X  x j )   f ( x) dx  F ( x j )  F ( xi )
xi
Folie 6
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Inferenzstatistik
Stetige Zufallsvariablen
Kennwerte
Kennwerte &
Darstellung
 Der Erwartungswert einer stetigen Zufallsvariablen ist
ähnlich definiert wie im diskreten Fall

Normalverteilung
z-Werte
 f  x   x dx
x 
 Auch Varianz und Standardabweichung werden
analog berechnet
 
2
x 

x 
Folie 7
x 
f  x    x    dx
2
  2
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Stetige Zufallsvariablen
Definition
Darstellung
 Die Darstellung der Dichtefunktion und
Verteilungsfunktion einer stetigen Zufallsvariablen findet
zumeist über kontinuierliche Graphen statt.
Normalverteilung
f(z,,)
z-Werte
Standardnormalverteilung
0.45
0.4
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
‐3
‐2
‐1
0
z‐Wert
Folie 8
Standardnormalverteilung
F(z,,)
Kennwerte &
Darstellung
1
2
3
1
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
‐3
‐2
‐1
0
z‐Wert
1
2
3
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Inferenzstatistik
Normalverteilung
Definition
Kennwerte &
Darstellung
Normalverteilung
z-Werte
 Im psychologischen Kontext ist die Normalverteilung die
wohl prominenteste Wahrscheinlichkeitsverteilung.
 Sie ist theoretischer Natur, da sie (anders als z.B. die
Binomialverteilung) nicht direkt aus dem
Bedingungskomplex  abgeleitet werden kann.
 Die Normalverteilung ist durch zwei Parameter,  und
definiert.
1
f ( x,  ,  ) 
e
2
1  x 
 

2  
2
 Ist eine Zufallsvariable X normalverteilt, wird dies häufig
geschrieben als X  N(, )
Folie 9
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Normalverteilung
Kennwerte
 Der Parameter  ist direkt der Erwartungswert der Normalverteilung
 ²ist direkt die Varianz der Normalverteilung
Folie 10
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Inferenzstatistik
Normalverteilung
Warum die Normalverteilung - Zentraler Grenzwertsatz
Kennwerte &
Darstellung
 Der Zentrale Grenzwertsatz (Central Limit Theorem):
Die Summe einer großen Zahl unabhängiger, identisch
verteilter Zufallsvariablen ist approximativ normalverteilt.
Normalverteilung
z-Werte
Folie 11
 Dies veranlasste Sir Francis Galton (1889) zu der
enthusiasmierten Lobpreisung
„Ich kenne kaum etwas, das unsere Imaginationskraft so bewegen kann wie
die wundervolle Form kosmischer Ordnung, die sich im ‚Gesetz der
Verteilung von Fehlern‘ ausdrückt. Hätten die Griechen es gekannt, sie
hätten es personifiziert und als Gottheit angebetet. Es herrscht mit
bescheidener Gelassenheit in der wildesten Konfusion. Je gewaltiger die
Horde, je ärger die augenscheinliche Anarchie, um so souveräner ist seine
Herrschaft. Wann immer eine Menge chaotischer Elemente nach ihrer Größe
angeordnet wird, tritt es hinter dem Schleier des Chaos als unverhoffte und
wunderschöne Form der Regelmäßigkeit hervor.“
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Inferenzstatistik
Normalverteilung
Warum die Normalverteilung
Kennwerte &
Darstellung
1. Sie ergibt sich, wenn viele Zufallsprozesse bei der
Realisierung einer Zufallsvariablen additiv
zusammenwirken.
Normalverteilung
2. Sie ist die Verteilung des Mittelwerts aller Realisierungen
bei sehr häufiger Wiederholung eines Zufallsexperimentes
(„Zentraler Grenzwertsatz“).
z-Werte
3. Sie ist die Verteilung von Zufallsvariablen, wenn diese
eine messfehlerbehaftete Erfassung eines Merkmals
darstellen.
4. Sie ist mathematisch relativ leicht zu behandeln.
Folie 12
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Inferenzstatistik
Normalverteilung
Eigenschaften
Kennwerte &
Darstellung
Normalverteilung
 Ist symmetrisch, eingipflig und glockenförmig
 Verschiedene Normalverteilungen unterscheiden sich
bezüglich Erwartungswert (µ) und/oder
Standardabweichung ()
 Der Wertebereich reicht von – bis +
 Die Kurve berührt oder schneidet nie die x-Achse
z-Werte
 Jedes Intervall mit einer Länge größer Null hat eine
Wahrscheinlichkeit größer Null
 Die Verteilungsfunktion der Normalverteilung wird auch
als (x) (Phi) geschrieben.
Folie 13
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Inferenzstatistik
Exkurs: z-Standardisierung
Grundlagen
Kennwerte &
Darstellung
Normalverteilung
z-Werte
Ziel: Angabe der relativen Lage von Werten in einer
Verteilung.
1. Angabe einer normierten Differenz eines Messwertes
zum Erwartungswert
2. Umwandlung einer Skala in eine andere mit
vorgegebenem  und .
Berechnungsvorschrift: Jede Differenz eines Messwertes
wird durch die Standardabweichung aller Messwerte geteilt.
Die erhaltenen Werte werden als z-Werte bezeichnet.
z
Folie 14
x
x
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Inferenzstatistik
Exkurs: z-Standardisierung
Skalentransformation
Kennwerte &
Darstellung
Normalverteilung
 Mithilfe der z-Transformation können Messdaten mit
beliebigem Mittelwert und Standardabweichung in
Daten transformiert werden, die einen definierten
Mittelwert und Standardabweichung aufweisen.
 Schritt 1: z-Standardisierung jedes Datenpunktes
 Schritt 2: Transformation jedes Datenpunktes in
die neue Skala
z-Werte
xneu   z  sneu   xneu
 Beispiele: Hamburg-Wechsler IQ-Test (MW=100,
s=15), IQ-Skala laut IST (MW=100, s=10), StanineSkala (MW=5, s=2),
Folie 15
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Inferenzstatistik
Exkurs: z-Standardisierung
Standardnormalverteilung
Kennwerte &
Darstellung
 z-transformiert man eine normalverteilte Zufallsvariable
erhält man die Standardnormalverteilung.
 Für die Standardnormalverteilung gilt:  = 0,  = 1
Normalverteilung
z-Werte
 Die Formel der Normalverteilung reduziert sich damit auf
1  1 z2
f ( z) 
e 2
2
 Der Werte der Dichte- und Verteilungsfunktion hängen
also nur von z ab
Folie 16
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Standardnormalverteilung
Wichtige Punkte
Kennwerte &
Darstellung
Normalverteilung
z-Werte
Folie 17
Inferenzstatistik
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Inferenzstatistik
Standardnormalverteilung
Wichtige Punkte – die 68-95-99 Regel
Kennwerte &
Darstellung
Normalverteilung
z-Werte
Folie 18
Statistik &
Methodenlehre
Definition
Stetige Verteilungen
Standardnormalverteilung
Verteilungsfunktion
Kennwerte &
Darstellung
Normalverteilung
z-Werte
Folie 19
Inferenzstatistik
Statistik &
Methodenlehre
Relevante Excel Funktionen
 Normalverteilung, z-Transformation
• NORM.VERT(), NORM.S.VERT()
• NORM.INV(), NORM.S.INV()
• STANDARDISIERUNG()
Folie 20
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Inhalte
dieser Sitzung
 Kann das wahr sein? Die statistische Formalisierung
des Hypothesentestens
 Inferenzstatistik für Anfänger: der einfache z-Test
Folie 2
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
z-Test
Beispiel
Hypothesen &
Bestätigung
z-Test
Konfidenzintervalle
Ein Gesundheitspsychologe beschäftigt sich mit dem BurnoutSyndrom. Er möchte das Maslach Burnout Inventory (Maslach
& Jackson, 1981) verwenden, um Personen zu identifizieren,
die an Burnout leiden.
Der Psychologe hat herausgefunden, dass Normalpersonen
im MBI einen Erwartungswert von 11.4 Punkten erzielen. Die
Varianz beträgt 5.76. Zudem nimmt der Psychologe auf Basis
theoretischer Erwägungen an, dass der MBI Punktwert
normalverteilt ist.
Ein Patient hat einen MBI Punktwert von 16.3. Stammt er aus
der Verteilung der Normalpersonen? Welchen Wert müsste
ein Patient erreichen, damit er unter der gegebenen
Verteilungsannahme statistisch signifikant wird?
Folie 3
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
z-Test
Einführung
Hypothesen &
Bestätigung
 Ziel: Prüfung, ob eine Beobachtung x aus einer
Population stammen kann, deren Wahrscheinlichkeitsverteilung eine Normalverteilung mit gegebenen  und  ist.
z-Test
 Als „Beobachtung“ ist hier die Messung der Realisation
einer gegebenen Zufallsvariablen zu verstehen
Konfidenzintervalle
Folie 4
 Weitere Beispiele: Ist ein Schüler zu intelligent, um der
Population normal intelligenter Kinder ( =100,  =10)
anzugehören? Sind die Leistungen eines Bewerbers im AC
zu schlecht, um ihn der Population normal geeigneter
Bewerber zuzuordnen?
Statistik &
Methodenlehre
Diskrete Verteilungen
Inferenzstatistik
Forschungsprozeß
Theorien/Empirie
Fragestellung/Problem
Vermutung über Zusammenhang von Größen
Formulierung inhaltlicher
Hypothesen
Identifikation der
AV und UV
Operationalisierung der
AV und UV:
Festlegen von Gößen auf
die Art, in der sie
gemessen werden
können & des
Messinstrumentes
Datenauswertung:
Beschreibung der Daten,
Statistischer Schluss von
der Stichprobe auf die
Population
Formulierung der
statistischen Hypothesen
Rückschluss auf die zu
erfassenden Konstrukte
Wahl der Stichprobe
(Ort, Zeit, Umfang etc.)
Konfrontation der
Ergebnisse mit den
inhaltlichen Hypothesen
Messung der AV und UV
Beantwortung der
Fragestellung
Folie 5
Statistik &
Methodenlehre
Beispiel
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Inhaltliche Hypothesen
Hypothesen &
Bestätigung
z-Test
 Die inhaltliche Hypothese im Beispiel könnte lauten:
Wenn eine Person einen MBI-Wert von 16.3 hat,
gehört sie zu den Gesunden.
 Zu jeder wissenschaftlichen Hypothese existiert eine
Komplementärhypothese, in diesem Fall
Konfidenzintervalle
Wenn eine Person einen MBI-Wert von 16.3 hat,
gehört sie nicht mehr zu den Gesunden.
 Das Ziel der inferenzstatistischen Analyse ist eine
Entscheidung für eine der beiden Hypothesen und das
Verwerfen der anderen
Folie 6
Statistik &
Methodenlehre
Beispiel
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Inhaltliche Hypothesen
Hypothesen &
Bestätigung
 Zumeist ist es so, dass eine der beiden komplementären
Hypothesen den vom Wissenschaftler erwünschten
Zustand beschreibt, die andere den unerwünschten.
z-Test
 Da es in der Wissenschaft darum geht, neue Erkenntnisse
über Wirkungen und Zusammenhänge zu gewinnen, lässt
sich die Frage nach erwünscht/unerwünscht neu fassen:
Konfidenzintervalle
Nullhypothese: Das Resultat des Experimentes ist der
bekannte/übliche/unveränderte Zustand
H0
Alternativhypothese:
H1
Das Resultat des Experimentes
ist ein neuer/veränderter Zustand
 Diese inhaltliche Definition muss nun in statistische
Hypothesen überführt werden
Folie 7
Statistik &
Methodenlehre
Beispiel
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Inhaltliche Hypothesen
Hypothesen &
Bestätigung
 Wenn die Nullhypothese eine bekannte, übliche Realisation einer Zufallsvariablen beschreibt, dürfte ebenfalls
bekannt sein, welche Wahrscheinlichkeitsverteilung die
Zufallsvariable im üblichen, bekannten Fall haben sollte.
z-Test
 Tatsächlich ist die Nullhypothese statistischen gesehen
nicht mehr als die Annahme einer bestimmten
Wahrscheinlichkeitsverteilung für die Beobachtung
Konfidenzintervalle
 Diese Annahme hat zwei Komponenten:
1. Die Vermutung, welche Form die
Wahrscheinlichkeitsverteilung im Fall der
Nullhypothese haben sollte (z.B. Normal)
2. Die Annahme, welche Parameter diese
Wahrscheinlichkeitsverteilung hat (z.B. μ und σ)
Folie 8
Statistik &
Methodenlehre
Beispiel
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Statistische Hypothesen
Hypothesen &
Bestätigung
 Die Festlegung der Wahrscheinlichkeitsverteilung der
beobachteten Zufallsvariablen und ihrer Parameter wird
als Verteilungsannahme bezeichnet
z-Test
 Ein statistischer Test zur Entscheidung für die H0/H1 kann
immer nur entweder die Form der Wahrscheinlichkeitsverteilung oder einen der Parameter prüfen
Konfidenzintervalle
 Die anderen werden a-priori als korrekt hingenommen
 Grundsätzlich gibt es nun 2 statistische Hypothesen:
Nullhypothese: Die angenommene Form/Parameter
sind zutreffend („wahr“)
H0
Alternativhypothese:
H1
Folie 9
Die angenommene Form/Parameter sind nicht zutreffend
Statistik &
Methodenlehre
Beispiel
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Statistische Hypothesen
Hypothesen &
Bestätigung
 Um nun zu überprüfen, ob die angenommenen Parameter
zutreffend sein können, steht nun nur die konkrete
Beobachtung im Experiment zur Verfügung
 Es wird einfach berechnet, wie wahrscheinlich die
Beobachtung wäre, wenn die unter der H0 angenommene
Wahrscheinlichkeitsverteilung auf die beobachtete
Zufallsvariablen zuträfe
z-Test
Konfidenzintervalle
 Dann gilt die einfache Entscheidungsregel
Ist die Beobachtung eher wahrscheinlich, lehne
man die H1 ab und bleibe bei der H0
Ist die Beobachtung zu unwahrscheinlich, verwerfe
man die H0 und nehme die H1 an
Folie 10
Statistik &
Methodenlehre
Beispiel
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Statistische Hypothesen
Hypothesen &
Bestätigung
 Schema: Der Weg von nur einer konkreten Beobachtung
zur Entscheidung über Annahme oder Ablehnung der
Verteilungsannahme:
Hypothesen:
H0: μ ist 11.4
H1: μ ist ein anderer Wert
z-Test
Konfidenzintervalle
Folie 11
Beobachtung:
x = 16.3
(gegeben Normalverteilung mit σ=2.4)
Entscheidung:
Ist die Wahrscheinlichkeit zu klein,
kann das μ nicht zutreffen
Berechnung:
Wahrscheinlichkeit
für Beobachtung x
 H0 verwerfen, H1 annehmen
gegeben dass X ~ NV(μ, σ)
Statistik &
Methodenlehre
Beispiel
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Das Prinzip des statistischen Testens
Hypothesen &
Bestätigung
 Problem: Aufgrund der zufälligen Ziehung wird das
beobachtete x immer schwanken (Stichprobenfehler)
 Frage: Wie extrem muss das beobachtete x sein, damit
wir begründet annehmen können, dass diese
Beobachtung nicht passt  „Wie wahrscheinlich ist zu
unwahrscheinlich?“
z-Test
Konfidenzintervalle
 Hier haben sich in der Praxis zwei Cut-Off Werte
eingebürgert, die als α–Niveaus oder
Signifikanzniveaus bezeichnet werden.
 Es gilt:
Folie 12
p  0.05
 statistisch nicht signifikant
p  0.05
p  0.01
 statistisch signifikant
 statistisch hochsignifikant
Statistik &
Methodenlehre
Beispiel
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Das Prinzip des statistischen Testens
Hypothesen &
Bestätigung
 Problem: Aufgrund der zufälligen Ziehung wird das
beobachtete x schwanken (Stichprobenfehler)
z-Test
 Frage: Wie extrem muss das beobachtete x sein, damit
wir begründet annehmen können, dass diese
Beobachtung nicht passt Schreibe:
„Wie wahrscheinlich
ist zu auf
„Es wird getestet
unwahrscheinlich?“
einem Signifikanzniveau von …“
Konfidenzintervalle
α = .05 oder
 Hier haben sich in der Praxis zwei Cut-Off Werte
α = .01
eingebürgert, die als α–Niveaus oder
Signifikanzniveaus bezeichnet werden.
 Es gilt:
Folie 13
p  0.05
 statistisch nicht signifikant
p  0.05
p  0.01
 statistisch signifikant
 statistisch hochsignifikant
Statistik &
Methodenlehre
Beispiel
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Das Prinzip des statistischen Testens
Hypothesen &
Bestätigung
 Die Aussage, ein x sei statistisch signifikant, ist eine
Wahrscheinlichkeitsaussage bei der immer ein
Restirrtum verbleibt, die Irrtumswahrscheinlichkeit.
 Diese Irrtumswahrscheinlichkeit hängt nicht von der
konkret erhaltenen Wahrscheinlichkeit p ab, sondern vom
gewählten Signifikanzniveau α.
z-Test
Konfidenzintervalle
 Bei α=0.05 beträgt die Irrtumswahrscheinlichkeit also
5%, bei α=0.01 ist sie 1%.
 In der Praxis wird das α-Niveau deshalb oft auch als
Irrtumswahrscheinlichkeit oder α-Fehler bezeichnet.
Folie 14
Statistik &
Methodenlehre
Beispiel
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Das Prinzip des statistischen Testens
Hypothesen &
Bestätigung
 Bei der Entscheidung für die H0 oder H1 können je zwei
Arten richtiger/falscher Entscheidungen getroffen werden
In der Population gilt
z-Test
Konfidenzintervalle
H0
H0
H1
Correct
Rejection
Miss
Entscheidung für
H1
Folie 15
False Alarm
(-Fehler,
Fehler 1. Art)
(-Fehler,
Fehler 2. Art)
Hit
Statistik &
Methodenlehre
Beispiel
Diskrete Verteilungen
Inferenzstatistik
Inferenzstatistik – Primer
Statistische Hypothesen und ihre Interpretation
Hypothesen &
Bestätigung
 Die Hypothesenrichtung muss vor dem Experiment
festgelegt werden
z-Test
 Ebenso muss das Signifikanzniveau vor dem
Experiment festgelegt werden
Konfidenzintervalle
 Finden diese Festlegungen erst nach Ansehen der Daten
statt, wird Forschungsergebnis an die Daten angepasst
 Data Snooping
Folie 16
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
Inferenzstatistik
Zusammenfassung
Hypothesen &
Bestätigung
z-Test
 Soll die Größe eine gemessenen Wertes bewertet
werden, sind zunächst die Wahrscheinlichkeitsverteilung und ihre Parameter zu bestimmen, aus der
dieser Wert „normalerweise“ stammen sollte
 Die Annahme der Form oder eines der Parameter ist die
Nullhypothese H0
Konfidenzintervalle
 Die Nullhypothese bezeichnet im Allgemeinen den
Zustand, den der Forscher nicht beobachten möchte
 Beispiele: Pflanzen sollten auf Fechners Stimulation
nicht zufällig antworten; ein auf Hochbegabung zu
testendes Kind sollte nicht aus der Normalpopulation
stammen; nach einer Exposition sollten die Patienten
nicht genau so höhenängstlich sein wie vorher
Folie 17
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
Inferenzstatistik
Zusammenfassung
Hypothesen &
Bestätigung
 Dann wird theoriegeleitet festgelegt, in welche Richtung
der zu messende Wert x von der H0 (also dem angenommen Wert x0 für den Parameter) abweichen sollte.
 Diese Hypothesenrichtung definiert die Formulierung
der Alternativhypothese H1
z-Test
 Die H0 ist somit einfach das Gegenteil der H1
Konfidenzintervalle
Folie 18
 Dabei gibt es prinzipiell nur drei Möglichkeiten:
H 0 : x  x0

H1 : x  x0
H 0 : x  x0
H 0 : x0i  x  x0 j


H1 : x  x0
H1 : x  x0i , x  x0 j
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
Inferenzstatistik
Zusammenfassung
Hypothesen &
Bestätigung
 Dann wird theoriegeleitet festgelegt, in welche Richtung
der zu messende Wert x von der H0 (also dem angenommen Wert x0 für den Parameter) abweichen sollte.
 Diese Hypothesenrichtung definiert die Formulierung
der Alternativhypothese H1
Lies: „Der gemessene Wert x ist größer als
sein angenommener
Wert xder
 Die H0 ist somit
einfach das Gegenteil
0“ H1
z-Test
Konfidenzintervalle
Folie 19
 Dabei gibt es prinzipiell nur drei Möglichkeiten:
H 0 : x  x0

H1 : x  x0
H 0 : x  x0
H 0 : x0i  x  x0 j


H1 : x  x0
H1 : x  x0i , x  x0 j
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
Inferenzstatistik
Zusammenfassung
Hypothesen &
Bestätigung
z-Test
Konfidenzintervalle
Folie 20
 Dann wird theoriegeleitet festgelegt, in welche Richtung
der zu messende Wert x von der H0 (also dem angenommen Wert x0 für den Parameter) abweichen sollte.
 Diese Hypothesenrichtung definiert die Formulierung
der Alternativhypothese H1
Lies: „Der gemessene Wert x ist kleiner als
 Die H0 ist somit einfach das Gegenteil der H1
sein angenommener Wert x0“
 Dabei gibt es prinzipiell nur drei Möglichkeiten:
H 0 : x  x0

H1 : x  x0
H 0 : x  x0
H 0 : x0i  x  x0 j


H1 : x  x0
H1 : x  x0i , x  x0 j
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
Inferenzstatistik
Zusammenfassung
Hypothesen &
Bestätigung
 Dann wird theoriegeleitet festgelegt, in welche Richtung
der zu messende Wert x von der H0 (also dem angenommen Wert x0 für den Parameter) abweichen sollte.
 Diese Hypothesenrichtung definiert die Formulierung
der Alternativhypothese H1
z-Test
Konfidenzintervalle
Folie 21
Lies: einfach
„Der gemessene
Wert der
x liegt
 Die H0 ist somit
das Gegenteil
H1 außerhalb
des Bereiches von x0i bis x0j“
 Dabei gibt es prinzipiell nur drei Möglichkeiten:
H 0 : x  x0

H1 : x  x0
H 0 : x  x0
H 0 : x0i  x  x0 j


H1 : x  x0
H1 : x  x0i , x  x0 j
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
Inferenzstatistik
Zusammenfassung
Hypothesen &
Bestätigung
 Neben den Hypothesen wird das Signifikanzniveau 
definiert, auf dem die berechnete Wahrscheinlichkeit
bewertet werden soll
z-Test
 Schließlich werden diese Wahrscheinlichkeit p(x | H0)
bestimmt und die Signifikanzaussage getroffen
Konfidenzintervalle
 Die Signifikanzaussage ist prinzipiell nichts anderes als
die Entscheidung für die H0 oder H1.
 Die Logik dabei lautet: Wenn die H0 nicht gilt, dann muss
die H1 gelten
 Aber: Bei dieser Entscheidung irrt man sich mit einer
Irrtumswahrscheinlichkeit von 100%.
Folie 22
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
z-Test
Einführung
Hypothesen &
Bestätigung
 Am Beispiel: Im Experiment mit einer angenommenen
Normalverteilung f(x, =11.4, =2.4) beobachte man ein
x=16.4.
 Es muss zunächst geklärt werden, welche der drei
Hypothesenkomponenten Gegenstand der Testung sein
soll: a) Normalverteilung, b) =11.4 oder c) =2.4.
z-Test
Konfidenzintervalle
 Im Beispiel ist die Normalverteilung a-priori gesetzt. Per
Konvention wird die Lage einer Beobachtung über den
Erwartungswert geprüft, nicht über die Streuung.
 Es ist also zu testen, ob =11.4 beibehalten werden kann
(H0) oder die H1 („ein anderes “) gewählt werden muss.
Folie 23
 Zur Prüfung dieses Parameters  dient der z-Test
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
z-Test
Einführung
Hypothesen &
Bestätigung
 Der z-Test folgt exakt der bereits kennen gelernten Logik
des Hypothesentestens, allerdings mit einem weiteren
Zwischenschritt
1. Verteilungsannahme treffen: Normalverteilt mit den
gegebenen  und 
z-Test
Konfidenzintervalle
2. Hypothesenrichtung festlegen und statistische
Hypothesen formulieren
3. Signifikanzniveau festlegen
4. Prüfgröße z bestimmen (diese ist eine Realisation der
neuen Zufallsvariablen Z)
5. Wahrscheinlichkeit für die berechnete Prüfgröße
bestimmen und mit dem Signifkanzniveau vergleichen
Folie 24
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
z-Test
Das Konzept der Prüfgröße
Hypothesen &
Bestätigung
 Beim z-Test wird nicht die Wahrscheinlichkeit für die
beobachtete Realisation x selbst, sondern für eine so
genannte Prüfgröße bestimmt
 Eine Prüfgröße ist ein Zahlenwert, der durch mathematische Umformungen aus dem beobachteten x
berechnet wird (anders als z.B. beim Binomialtest)
z-Test
Konfidenzintervalle
 Prüfgrößen sind also nichts anderes als neue Zufallsvariablen, die durch Transformation der alten entstehen
 Prüfgrößen kommen immer dann zum Einsatz, wenn die
Wahrscheinlichkeitsfunktion der Zufallsvariablen X, aus
der die Beobachtung x stammt, nicht oder nicht
einfach bestimmt werden kann – diejenige der
Prüfgröße aber sehr wohl
Folie 25
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
z-Test
Das Konzept der Prüfgröße
Hypothesen &
Bestätigung
 Beim z-Test lautet die Prüfgröße
z
z-Test
Konfidenzintervalle
x

 Aus der Zufallsvariablen X wird über eine mathematische
Transformation eine neue Zufallsvariable Z erzeugt
 Deren Wahrscheinlichkeitsverteilung ist bekannt, nämlich
die Standardnormalverteilung
 Damit kann auch jede Intervallwahrscheinlichkeit bei der
Hypothesenprüfung, z.B. p(Z≤z), bestimmt werden
Folie 26
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
z-Test
Hypothesen
Hypothesen &
Bestätigung
 Beim z-Test sind weitaus häufiger als z.B. beim
Binomialtest alle drei möglichen Hypothesenrichtungen
von Interesse.
z-Test
Konfidenzintervalle

H 0 :   0  Verwerfen der Verteilungsannahme

H1 :   0  bei einem zu großen Wert
H 0 :   0  Verwerfen der Verteilungsannahme

H1 :   0  bei einem zu kleinen Wert
„Einseitige“ oder „gerichtete“ Hypothese
Der unter der H0 angenommene Wert für 
(hier: 0 = 11.4)
Folie 27
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
z-Test
Hypothesen
Hypothesen &
Bestätigung
 Beim z-Test sind weitaus häufiger als z.B. beim
Binomialtest alle drei möglichen Hypothesenrichtungen
von Interesse.
z-Test
Konfidenzintervalle

H 0 :   0  Verwerfen der Verteilungsannahme

H1 :   0  bei einem zu großen Wert
H 0 :   0  Verwerfen der Verteilungsannahme

H1 :   0  bei einem zu kleinen Wert
„Einseitige“ oder „gerichtete“ Hypothese

Folie 28
H 0 :   0
 Verwerfen der Verteilungsannahme

H1 :   0 ,   0  bei einem zu extremen Wert
„Zweiseitige“ oder „ungerichtete“ Hypothese
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
z-Test
Durchführung
Hypothesen &
Bestätigung
 Man ermittelt nun die Auftretenswahrscheinlichkeit
p(z|H0) unter der Annahme, dass die angenommene
Wahrscheinlichkeitsverteilung gilt.
 Dazu berechnet man
z-Test
Konfidenzintervalle
pZ  z
für die H 0 :   0
pZ  z
für die H 0 :   0
p  Z  z 
 p Z  z
für die H 0 :   0
Verwerfen der H0 bei einer
zu großen Beobachtung
Verwerfen der H0 bei einer
zu kleinen Beobachtung
Verwerfen der H0 bei einer
zu extremen Beobachtung
und vergleicht p mit dem Signifikanzniveau 
Folie 29
 Das p(…) wird aus der Verteilungsfunktion der
Normalverteilung berechnet
Statistik &
Methodenlehre
Beispiel
Stetige Verteilungen
Inferenzstatistik
z-Test
Zusammenfassung
Hypothesen &
Bestätigung
Beobachtung im Experiment: X=x
Frage: Kann x aus einer Normalverteilung mit =0 stammen?
Geht die Höhe des Wertes x auf einen Stichprobenfehler zurück?
(1) Bestimmung der Verteilung der Zufallsvariablen Z
z-Test
(2) Festlegung des Signifikanzniveaus α
Konfidenzintervalle
(3) Berechnung der Prüfgröße z
(4) Bestimmung der Wahrscheinlichkeit für dieses z unter
Annahme der H0, z. B. p(Z≥z)
Folie 30
(5) Vergleich von p mit α und
Treffen der Signifikanzaussage
Aber: Bei dieser
Aussage irrt man
sich mit einer
Wahrscheinlichkeit
von α·100%
Statistik &
Methodenlehre
Beispiel
Hypothesen &
Bestätigung
Stetige Verteilungen
Inferenzstatistik
Konfidenzintervalle
Zwei Perspektiven
 Ist die Verteilungsfunktion einer Zufallsvariablen bekannt,
a) kann die Überschreitungswahrscheinlichkeit
für einen gegebenen Wert ermittelt werden
b) kann ein so genannter kritischer Wert zu einer
gegebenen Überschreitungswahrscheinlichkeit
(i.e. Signifikanzniveau) gefunden werden
z-Test
Konfidenzintervalle
Folie 31
Statistik &
Methodenlehre
Beispiel
Hypothesen &
Bestätigung
z-Test
Stetige Verteilungen
Inferenzstatistik
Konfidenzintervalle
Zwei Perspektiven
 Frage 1: Unterschreitet die Wahrscheinlichkeit für eine
so extreme oder noch extremere Abweichung der
Beobachtung von der Erwartung, gegebenen dass die H0
gilt, ein Signifikanzniveau ?
 Diese Frage wird über inferenzstatistische Tests
beantwortet.
Konfidenzintervalle
 Frage 2: Welches Intervall um den Erwartungswert
überdeckt typische Beobachtungen mit einer
Wahrscheinlichkeit von 1-.
 Diese Frage wird über Konfidenzintervalle
beantwortet
Folie 32
Statistik &
Methodenlehre
Beispiel
Hypothesen &
Bestätigung
Stetige Verteilungen
Inferenzstatistik
Konfidenzintervalle
Die inverse Verteilungsfunktion
 Für die Ermittlung des kritischen Wertes ist es wichtig, die
Inverse der Verteilungsfunktion der Normalverteilung
zu kennen.
z-Test
 Erst dann kann für eine gegebene Wahrscheinlichkeit der
kritische Wert berechnet werden.
Konfidenzintervalle
 Die Inverse der Verteilungsfunktion einer normalverteilten
Zufallsvariablen wird geschrieben als F-1(x) oder -1(x).
 Sowohl die Verteilungsfunktion der Normalverteilung (x)
als auch deren Inverse -1(x) sind mathematisch nicht als
einfacher Formelausdruck zu beschreiben (anders als die
Dichtefunktion).
Folie 33
Statistik &
Methodenlehre
Beispiel
Hypothesen &
Bestätigung
z-Test
Konfidenzintervalle
Stetige Verteilungen
Inferenzstatistik
Konfidenzintervalle
Bestimmung der Grenzen
x
 Die Prüfgröße im z-Test lautet
z
 Diese Gleichung lässt sich umstellen zu
x    z 
 Mit einem kritischen Wert wird daraus
x    z  

 z ist dabei der kritische Wert zu einem Signifkanzniveau , der aus einer Normalverteilung mit den
Parametern  und  ermittelt wurde.
Folie 34
 Das berechnete x ist dann der Wert, den ein Datum
unterschreiten müsste, um signifikant zu werden
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Beispiel
Konfidenzintervalle
Hypothesen &
Bestätigung
 Mithilfe des Vorzeichens lassen sich nun zwei Grenzen
bestimmen
Bestimmung der Grenzen
xUG    z  ˆ X
z-Test
Konfidenzintervalle
Folie 35
xOG    z1  ˆ X
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Beispiel
Konfidenzintervalle
Hypothesen &
Bestätigung
 Beim Konfidenzintervall interessiert der Bereich, der
die typischen Werte überdeckt, nicht der Bereich
außerhalb.
Bestimmung der Grenzen
 Für die symmetrische Normalverteilung spielt dies
aber keine Rolle, da F(-z) = F(z).
z-Test
xUG    z1  ˆ X
Konfidenzintervalle
Folie 36
xOG    z  ˆ X
Statistik &
Methodenlehre
Beispiel
Hypothesen &
Bestätigung
Stetige Verteilungen
Inferenzstatistik
Konfidenzintervalle
Bestimmung der Grenzen
 Einseitige Konfidenzintervalle sind möglich, allerdings
ist die zweiseitige Variante wesentlich verbreiteter
 Man veranschaulicht dies, in dem man den kritischen
Wert mit /2 kennzeichnet.
  z 2  ˆ X  x    z1 2  ˆ X
z-Test
Konfidenzintervalle
Folie 37
Statistik &
Methodenlehre
Beispiel
Hypothesen &
Bestätigung
Stetige Verteilungen
Inferenzstatistik
Konfidenzintervalle
Normalverteilte Prüfgrößen – Zusammenfassung
 Für Konfidenzintervalle für normalverteilte Daten wird
zunächst ein kritischer Wert z bzw. z/2 bestimmt.
 Die Bestimmung verläuft über die
Standardnormalverteilung
z-Test
 Die Grenzen der einseitigen Konfidenzintervalle sind dann
Konfidenzintervalle
   z   ;
 
bzw.
 ;   z1   
 Das zweiseitige Konfidenzintervall ist
   z 2   ;   z1 2   
Folie 38
Statistik &
Methodenlehre
Relevante Excel Funktionen
 Normalverteilung, z-Test, z-Transformation
• NORM.VERT(), NORM.S.VERT()
• NORM.INV(), NORM.S.INV()
• STANDARDISIERUNG()
Folie 39
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Inhalte
dieser Sitzung
 Welche Münze soll man werfen? Vergleich von
Häufigkeiten über den Binomialtest für 2
unabhängige Stichproben.
 Hinterher besser als Vorher? Vergleich von
Häufigkeiten über den McNemar Test für 2
abhängige Stichproben
 Was ist typisch? Der ²-Test für zwei unabhängige
Merkmale.
Folie 2
Statistik &
Methodenlehre
Binomialtest
Inferenzstatistik
Testarten und Skalenniveau
McNemar Test
 Bisher haben wird inferenzstatistische Tests für eine
Beobachtung kennen gelernt
²-Test
 Beispiele: Binomial- und Poissontest für eine Häufigkeit,
z-Test für einen Datenwert
 Oft erhebt man aber in einer oder mehreren Stichproben
mehrere Daten- oder Kennwerte
 Zur Bewertung solcher Werte gibt es verschiedene Tests,
abhängig vom Skalenniveau der Messwerte, z.B.
1. Nominalskala (i.e. Häufigkeiten): Binomialtest,
²-Test, McNemar-Test.
2. Ordinalskala: U-Test, Vorzeichenrangtest
Folie 3
3. Intervallskala: t-Test, F-Test, Zusammenhangstests
Statistik &
Methodenlehre
Binomialtest
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
McNemar Test
Ein Personalpsychologe des Psychologischen Instituts wird
beauftragt, die Gleichstellungsbeauftragte der Universität
Mainz bei einer statistischen Analyse zu unterstützen.
²-Test
Es soll geprüft werden, ob die Einstellungsquoten zwischen
weiblichen und männlichen Bewerbern unterschiedlich sind.
Von 300 männlichen Bewerbern wurden 50 eingestellt, von
170 weiblichen Bewerbern wurden 40 eingestellt.
Gibt es hinsichtlich der Einstellungsquoten Handlungsbedarf
für die Gleichstellungsbeauftragte?
Folie 4
Statistik &
Methodenlehre
Binomialtest
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
McNemar Test
 Ziel: Prüfung, ob die in zwei unabhängigen Gruppen
beobachteten Häufigkeiten einer dichotomen
Zufallsvariablen aus derselben Population (mit identischer
Wahrscheinlichkeitsverteilung) stammen können.
²-Test
 Definition: Stichproben gelten als unabhängig, wenn
unterschiedliche Personen in ihnen vorhanden sind.
 Weitere Beispiele: Ist die Wahrscheinlichkeit für ein
Todesurteil bei farbigen und weißen Angeklagten
unterschiedlich? Sind Heilungsquoten bei massierter
Konfrontation besser als bei gradueller Konfrontation?
Folie 5
Statistik &
Methodenlehre
Binomialtest
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
McNemar Test
 Man habe 2 dichotome
Zufallsvariablen A und X.
²-Test
 Man beobachte nun bei N
Merkmalsträgern die
Ausprägung beider Variablen
und ermittle die absoluten
Verbundhäufigkeiten hij.
a1
a2
x1
h11
h12
h1
x2
h21
h22
h2
h1
h2
N
 Eine der ZV (hier: A) unterscheide 2 Gruppen, die andere
repräsentiere das interessierende Merkmal (hier: X)
 Am Beispiel: A sei das Geschlecht (a1 = männlich, a2 =
weiblich), X die Einladung zum Vorstellungsgespräch
(x1 = abgelehnt, x2 = eingeladen)
Folie 6
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Binomialtest
Tests für Nominaldaten
McNemar Test
 Die Prüfung solcher Fragen erfordert die Berechnung
bedingter Häufigkeiten, nämlich
Binomialtest für 2 unabhängige Stichproben
f1  f ( x | a1 )
²-Test
f 2  f ( x | a2 )
z.B. x = Einladung
a1 = männlich
a2 = weiblich
 Welche der beiden Realisationen von X gewählt wird (z.B.
0 oder 1), spielt dabei keine Rolle
 Inhaltlich soll nun geprüft werden, ob f1 und f2 gleich sein
können oder ob sie unterschiedlich sind.
 Frage: Man hat hier mehrere Zufallsvariablen – wie lautet
die Verteilungsannahme unter der Nullhypothese?
Folie 7
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
 Die Trefferhäufigkeiten f1 und f2 sind nichts anderes als die
Realisationen von transformierten Zufallsvariablen
aus einem Bernoulli-Experiment
Xi
Fi 
ni
Xi = Absolute Trefferhäufigkeit in Gruppe i
mit ni = Anzahl der Trials in Gruppe i
Fi = Relative Trefferhäufigkeit in Gruppe i
 Die Nullhypothese kann also formuliert werden als:
„Die absoluten Trefferhäufigkeiten x1 und x2, die zu den
relativen Trefferhäufigkeiten f1 und f2 geführt haben,
stammen aus derselben Wahrscheinlichkeitsverteilung“
 Die Alternativhypothese ist wie üblich das genaue
Gegenteil
Folie 8
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
 Wären die Wahrscheinlichkeitsverteilungen der Zufallsvariablen Xi (absolute Trefferhäufigkeiten) in beiden
Gruppen bekannt, könnten diese unmittelbar auch für die
Zufallsvariablen Fi (relative Trefferhäufigkeiten)
zugrunde gelegt werden  Vererbung
 Probleme: Die Wahrscheinlichkeitsverteilungen sind nicht
bekannt. Zudem erwartet die Nullhypothese eine
Wahrscheinlichkeitsverteilung, nicht zwei.
 Solche Probleme löst die Statistik oft über die
Transformation der vorhanden Zufallsvariablen in eine
neue Zufallsvariable.
Folie 9
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
 Ansatz: Die zwei Zufallsvariablen F1 und F2 werden zu
einer einzigen neuen Zufallsvariablen verknüpft, indem
man einfach die Differenz aus beiden berechnet
  F1  F2
 Für einen Hypothesentest ist nun die Wahrscheinlichkeitsverteilung von  unter der Nullhypothese zu bestimmen
 Es lässt sich zeigen, dass  normalverteilt ist, wenn
jede der absoluten Häufigkeiten in der Kreuztabelle A × X
mindestens 5 ist (alle nij > 5)
 Frage: Wie lauten  und  für die Normalverteilung des
Wertes  unter Annahme der Nullhypothese?
Folie 10
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Binomialtest
Tests für Nominaldaten
McNemar Test
 Für die Erwartungswerte der beiden Fi gilt gemäß unserer
Transformationsregeln
Binomialtest für 2 unabhängige Stichproben
²-Test
F 
X
i
n
i
 Die Rechenregeln für Erwartungswerte besagen, dass bei
  F1  F2
unmittelbar gilt
   F   F
1
Folie 11
2
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
 Idee: Wenn die beobachteten Treffer X in beiden
Gruppen aus derselben Wahrscheinlichkeitsverteilung
stammen, müssen sie denselben Erwartungswert
haben
X  X
1
2
  F1   F2   F
 Damit ergibt sich für die soeben aufgestellte Beziehung
   F   F   F   F  0
1
2
 Der Erwartungswert der Normalverteilung des  ist also 0
Folie 12
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
 Die Herleitung der Standardabweichung  des  ist
etwas aufwändiger: für zwei Gruppen der Umfänge n1 und
n2 und des Gesamtumfangs N = n1+n2 zeigt sich, dass
 
mit
f12  (1  f12 )  (1 n1  1 n2 )
n1
n2
f12   f1   f 2
N
N
 Damit liegt die Wahrscheinlichkeitsverteilung der Differenz
der beiden Fi unter der Nullhypothese fest und der
statistische Test kann durchgeführt werden.
Folie 13
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
 Der Binomialtest folgt exakt der bereits kennen gelernten
Logik des Hypothesentestens, allerdings mit einem
weiteren Zwischenschritt
1. Voraussetzungen prüfen
2. Verteilungsannahme treffen: Normalverteilt mit den
berechneten  und 
3. Hypothesenrichtung festlegen und statistische
Hypothesen formulieren
4. Signifikanzniveau festlegen
5. Prüfgröße z bestimmen (diese ist eine Realisation der
neuen Zufallsvariablen Z)
6. Wahrscheinlichkeit für die berechnete Prüfgröße
bestimmen und mit dem Signifkanzniveau vergleichen
Folie 14
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Binomialtest
Tests für Nominaldaten
McNemar Test
 Prüfgröße bei zwei unabhängigen Stichproben der
Umfänge n1 und n2 und des Gesamtumfangs N = n1+n2
Binomialtest für 2 unabhängige Stichproben
z
²-Test
mit
d  


f1  f 2
f12  (1  f12 )  (1 n1  1 n2 )
n1
n2
f12   f1   f 2
N
N
 Unter der Nullhypothese ist die Prüfgröße standardnormalverteilt, wenn in der 2×2 Kreuztabelle der
beobachteten absoluten Häufigkeiten alle nij > 5 sind.
Folie 15
 Der Binomialtest wird also zu einem einfachen z-Test
Statistik &
Methodenlehre
Binomialtest
McNemar Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
 Beim Binomialtest sind wie beim z-Test potentiell alle drei
möglichen Hypothesenrichtungen von Interesse.
²-Test

H 0 : f1  f 2  Verwerfen der Verteilungsannahme

H1 : f1  f 2  bei einer zu positiven Differenz
H 0 : f1  f 2  Verwerfen der Verteilungsannahme

H1 : f1  f 2  bei einer zu negativen Differenz
„Einseitige“ oder „gerichtete“ Hypothese

H 0 : f1  f 2
 Verwerfen der Verteilungsannahme

H1 : f1  f 2 ; f1  f 2 )  bei einer zu extremen Differenz
„Zweiseitige“ oder „ungerichtete“ Hypothese
Folie 16
Statistik &
Methodenlehre
Binomialtest
McNemar Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
 Formuliert man die H0/H1 bezogen auf die Prüfgröße mit
ihrem Erwartungswert =0, ist dies gleichbedeutend zu
²-Test

H 0 :   0  Verwerfen der Verteilungsannahme

H1 :   0  bei einer zu positiven Differenz
H 0 :   0  Verwerfen der Verteilungsannahme

H1 :   0  bei einer zu negativen Differenz
„Einseitige“ oder „gerichtete“ Hypothese

H0 :   0
 Verwerfen der Verteilungsannahme

H1 :   0,   0)  bei einer zu extremen Differenz
„Zweiseitige“ oder „ungerichtete“ Hypothese
Folie 17
Statistik &
Methodenlehre
Binomialtest
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
McNemar Test
 Man ermittelt nun die Auftretenswahrscheinlichkeit
p(z|H0) unter der Annahme, dass die angenommene
Wahrscheinlichkeitsverteilung gilt.
²-Test
 Dazu berechnet man
pZ  z
für die H 0 : f1  f 2
Verwerfen der H0 bei einer
zu positiven Differenz
pZ  z
für die H 0 : f1  f 2
Verwerfen der H0 bei einer
zu negativen Differenz
p Z  z
 p Z  z
für die H 0 : f1  f 2
Verwerfen der H0 bei einer
zu extremen Differenz
und vergleicht p mit dem Signifikanzniveau 
Folie 18
 Das p(…) wird aus der Verteilungsfunktion der
Normalverteilung berechnet
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
 Wichtig: In die Prüfung der Hypothese, ob f1 = f2 gehen
ausschließlich empirisch gemessene Werte aus der
Stichprobe ein.
 Eigentlich möchte man aber im Rahmen der
Inferenzstatistik prüfen, ob sich (theoretische)
Populationen unterscheiden.
 Hier behilft man sich mit dem inferenzstatistischen
Schluss: Dieser besagt, dass die gemessenen Werte
erwartungstreue (sprich: gute) Schätzungen für die
wahren Werte sind
Lies: „f dach“
empirisch
Folie 19
fi  fˆi
theoretisch geschätzt
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Binomialtest
Tests für Nominaldaten
McNemar Test
Beobachtung im Experiment: f1 und f2
Binomialtest für 2 unabhängige Stichproben
Frage: Können die Stichproben aus einer Population stammen?
Geht die Unterschiedlichkeit der Häufigkeiten auf einen Stichprobenfehler zurück?
²-Test
(1) Bestimmung der Verteilung der Zufallsvariablen Z
(2) Festlegung d. Signifikanzniveaus α
(3) Berechnung der Prüfgröße z
(4) Bestimmung der Wahrscheinlichkeit für dieses z unter
Annahme der H0, z. B. p(Z≤z)
Folie 20
(5) Vergleich von p mit α und
Treffen der Signifikanzaussage
Achtung: Vorher
immer Prüfung der
Voraussetzungen!
Aber: Bei dieser
Aussage irrt man
sich mit einer
Wahrscheinlichkeit
von α·100%
Statistik &
Methodenlehre
Binomialtest
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Binomialtest für 2 unabhängige Stichproben
McNemar Test
 Voraussetzung 1: Die Messungen müssen unabhängig
sein.
²-Test
 Voraussetzung 2: Die Zufallsvariablen müssen
dichotom sein
 Voraussetzung 3: In der Kreuztabelle der beobachteten absoluten Häufigkeiten müssen alle nij > 5 sein
Folie 21
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
McNemar Test für 2 abhängige Stichproben
Eine Sexualpsychologin untersucht die sexuelle Aktivität von
Paaren. Sie befragt hierzu Paare mit dem Fragebogen zur
sexuellen Zufriedenheit (FSZ, Christmann & Hoyndorf, 1988)
einen Monat nach dem Beginn der Beziehung sowie noch
einmal zwölf Monate nach dem Beginn.
Sie wertet zunächst nur eines der Items aus, in dem gefragt
wird, ob die Paare in der vergangenen Woche intime
Kontakte miteinander hatten.
Sie ermittelt, dass von 70 Paaren nach einem Monat 15 keine
intimen Kontakte angeben, nach zwölf Monaten 27. Nur 7
Paare geben zu beiden Zeitpunkten keine Intimkontakte an.
Folie 22
Die Psychologin möchte ermitteln, ob sich das Sexualverhalten der Personen über die Beziehungszeit verändert hat.
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
McNemar Test für 2 abhängige Stichproben
 Ziel: Prüfung, ob die zu zwei Messzeitpunkten
beobachteten Häufigkeiten eines Wertes x aus derselben
Population mit identischer Wahrscheinlichkeitsverteilung
stammen können.
 Definition: Stichproben gelten als abhängig, wenn
dieselben Personen in beiden Stichproben vorhanden sind.
 Weitere Beispiele: Steigt das Ausmaß aggressiven
Verhaltens nach Erleben entsprechender Verhaltensmodelle? Sinkt die Rückfallwahrscheinlichkeit nach einem
Rauchentwöhnungstraining durch die Teilnahme an einem
speziellen Rückfallprophylaxeprogramm?
Folie 23
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
McNemar Test für 2 abhängige Stichproben
 Man habe für 2 abhängige
Stichproben folgende
Kontingenztabelle der
Zufallsvariable X erhalten:
 Gibt es systematische
Veränderungen zwischen
den Stichproben, so müssen
die Randhäufigkeiten
unterschiedlich sein
Messung 1
Messung 2
Statistik &
Methodenlehre
x1
x2
x1
h11
h12
h1
x2
h21
h22
h2
h1
h2
N
 Unter der Nullhypothese sollte also gelten
h1  h1  h11  h12  h11  h21
h2  h2  h22  h12  h22  h21
Folie 24
Statistik &
Methodenlehre
Binomialtest
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
McNemar Test für 2 abhängige Stichproben
McNemar Test
 Hier haben wir es mit vier Zufallsvariablen zu tun, die H0
ist noch schwieriger zu formulieren als beim Binomialtest.
²-Test
 Ansatz: Die inhaltlichen Hypothesen
H 0 : h1  h1 , h2  h2
H1 : h1  h1 , h2  h2
lassen sich
kombinieren zu
H 0 : h12  h21
H1 : h12  h21
 Damit liegen ähnlich wie beim Binomialtest zwei absolute
Trefferhäufigkeiten h12 und h21 vor, die unter der
Nullhypothese aus derselben Wahrscheinlichkeitsverteilung
kommen sollen
Folie 25
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
McNemar Test für 2 abhängige Stichproben
 Wieder können die zugrunde liegenden zwei Zufallsvariablen H1 und H2 per Differenzenbildung zu einer
einzigen neuen Zufallsvariablen verknüpft werden
  H1  H 2
 Die Wahrscheinlichkeitsverteilung des  ist beim McNemar
Test schwieriger zu ermitteln als beim Binomialtest
 Nach einer weiteren mathematischen Transformation des
 in eine neue Zufallsvariable  („Chi“) ergibt sich für
diese aber eine einfache Wahrscheinlichkeitsverteilung
 Die neue Zufallsvariable  wird deshalb als Prüfgröße
verwendet.
Folie 26
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Folie 27
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Exkurs: Die ²-Verteilung
1
f  x, df  
x df /21e  x /2
2df /2 (df / 2)
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
McNemar Test für 2 abhängige Stichproben
 Der McNemar Test folgt exakt der bereits kennen
gelernten Logik des Hypothesentestens, allerdings mit
einem weiteren Zwischenschritt
1. Voraussetzungen prüfen
2. Verteilungsannahme treffen: ²-verteilt mit den
gegebenen df
3. Hypothesenrichtung festlegen und statistische
Hypothesen formulieren
4. Signifikanzniveau festlegen
5. Prüfgröße ² bestimmen (diese ist eine Realisation der
neuen Zufallsvariablen )
6. Wahrscheinlichkeit für die berechnete Prüfgröße
bestimmen und mit dem Signifkanzniveau vergleichen
Folie 28
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Binomialtest
Tests für Nominaldaten
McNemar Test
 Die Prüfgröße beim McNemar Test wird berechnet als
²-Test
McNemar Test für 2 abhängige Stichproben

2
h


12
 h21  0.5 
2
h12  h21
 Unter der Nullhypothese ist die Prüfgröße ²-verteilt
ist, wenn in der 2×2 Kreuztabelle h12 + h21 > 25 gilt
 Die ²-Verteilung hat einen Parameter, die so genannten
Freiheitsgrade df.
 Für den McNemar Test gilt immer df = 1.
Folie 29
Statistik &
Methodenlehre
Binomialtest
McNemar Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
McNemar Test für 2 abhängige Stichproben
 Beim McNemar Test können prinzipiell alle drei
Hypothesenrichtungen geprüft werden
²-Test

H 0 : h12  h21  Verwerfen der Verteilungsannahme

H1 : h12  h21  bei einer zu positiven Differenz
H 0 : h12  h21  Verwerfen der Verteilungsannahme

H1 : h12  h21  bei einer zu negativen Differenz
„Einseitige“ oder „gerichtete“ Hypothese

H 0 : h12  h21
 Verwerfen der Verteilungsannahme

H1 : h12  h21 , h12  h21  bei einer zu extremen Differenz
„Zweiseitige“ oder „ungerichtete“ Hypothese
Folie 30
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
McNemar Test für 2 abhängige Stichproben
 Aufgrund der speziellen Prüfgröße ist beim McNemar Test
jedoch nur eine Hypothesenrichtung relevant, da der
Zähler immer größer ist als der Nenner
H 0 : p (    2 )  Verwerfen der Verteilungsannahme

H1 : p (    2 )  bei einem noch größeren Wert
„Einseitige“ oder „gerichtete“ Hypothese
 Wichtig: In die Prüfung der Hypothese h12 = h21 gehen
wieder nur empirisch gemessene Werte ein.
 Bei der Übertragung auf die Population behilft man sich
wieder mit dem inferenzstatistischen Schluss:
empirisch
Folie 31
hi  hˆi
theoretisch geschätzt
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Binomialtest
Tests für Nominaldaten
McNemar Test
Beobachtung im Experiment: h12 und h21
McNemar Test für 2 abhängige Stichproben
Frage: Können die Messungen aus einer Population stammen?
Geht die Unterschiedlichkeit der Häufigkeiten auf einen Stichprobenfehler zurück?
²-Test
(1) Bestimmung der Verteilung der Zufallsvariablen 
(2) Festlegung d. Signifikanzniveaus α
(3) Berechnung der Prüfgröße ²
(4) Bestimmung der Wahrscheinlichkeit für dieses z unter Annahme der H0, z. B. p( ≤ ²)
Folie 32
(5) Vergleich von p mit α und
Treffen der Signifikanzaussage
Achtung: Vorher
immer Prüfung der
Voraussetzungen!
Aber: Bei dieser
Aussage irrt man
sich mit einer
Wahrscheinlichkeit
von α·100%
Statistik &
Methodenlehre
Binomialtest
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
McNemar Test für 2 abhängige Stichproben
McNemar Test
 Voraussetzung 1: Die Messungen müssen abhängig
sein.
²-Test
 Voraussetzung 2: Die Zufallsvariablen müssen
dichotom sein
 Voraussetzung 3: In der Kreuztabelle der beobachteten absoluten Häufigkeiten sollte h12 + h21 > 25 sein
Folie 33
Statistik &
Methodenlehre
Binomialtest
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
χ²-Test für k unabhängige Stichproben
McNemar Test
Eine weit verbreitete Vermutung in der klinischen Psychologie
bezieht sich auf den Zusammenhang zwischen der Händigkeit
einer Person und der Entwicklung psychischer Störungen. So
sollen Linkshändige eher als Rechtshändige zu
Persönlichkeitsstörungen (z.B. Schizophrenie) neigen.
²-Test
Eine Forschergruppe möchte diese Annahme überprüfen. Sie
stellen bei 1546 Patienten einer psychiatrischen Einrichtung
die Variablen Händigkeit und Primärdiagnose fest.
Die Forschergruppe möchte herausfinden, ob Händigkeit und
psychische Störung tatsächlich zusammenhängen.
Folie 34
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
χ²-Test für k unabhängige Stichproben
 Ziel: Prüfung, ob die in beliebig vielen unabhängigen
Gruppen beobachteten Häufigkeiten einer polytomen
Zufallsvariablen aus derselben Population (mit
identischer Wahrscheinlichkeitsverteilung) stammen
 Um zu prüfen, ob die Merkmale unabhängig
voneinander sind wird der χ²-Test verwendet.
 Weitere Beispiele: Wählen Frauen Parteien in
anderen Häufigkeiten als Männer? Kommen bei
endogen Depressiven andere Komorbiditäten vor als
bei reaktiv Depressiven?
Folie 35
Statistik &
Methodenlehre
Binomialtest
McNemar Test
Stetige Verteilungen
Tests für Nominaldaten
χ²-Test für k unabhängige Stichproben
 Man habe folgende Kontingenztafel für die
beobachteten Zufallsvariablen A und X:
²-Test
Folie 36
Inferenzstatistik
a1
a2
ak
x1
h11
h12
…
h1k
h1
x2
h21
h22
…
…
h2
…
…
…
…
…
…
xm
hm1
hm2
…
hmk
hm
h1
h2
…
hk
N
Statistik &
Methodenlehre
Binomialtest
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
χ²-Test für k unabhängige Stichproben
McNemar Test
 Wenn zwei Merkmale A und X unabhängig sind,
beeinflusst die Ausprägung in einem Merkmal nicht die
Auftretenswahrscheinlichkeiten im anderen Merkmal
²-Test
 Unabhängigkeit zweier ZV im ²-Test meint also nichts
anderes als stochastische Unabhängigkeit.
 Für solche Zufallsvariablen gilt der Multiplikationssatz:
p( A  X )  p( A)  p( X )
 Ist N die Gesamtzahl der Beobachtungen, lassen sich
daraus auch erwartete absolute Häufigkeiten schätzen
h( A)  h( X )
hˆ( A  X ) 
N
Folie 37
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Binomialtest
Tests für Nominaldaten
McNemar Test
 Die inhaltlichen Hypothesen sind also
χ²-Test für k unabhängige Stichproben
H 0 : h  A  X   hˆ  A  X 
²-Test
für alle Kombinationen von ai und xj
H 0 : h  A  X   hˆ  A  X 
für mind. eine Kombination von ai und xj
 Es ist zu prüfen, ob die einzelnen Verbundhäufigkeiten
vereinbar mit Wahrscheinlichkeitsverteilungen sind, die
bei Unabhängigkeit der Zufallsvariablen erwartet
würden.
Folie 38
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
χ²-Test für k unabhängige Stichproben
 Hier liegen eine Vielzahl von Verteilungen vor, die zur
statistischen Prüfung in einer Zufallsvariable integriert
werden müssen
 Wie beim McNemar Test können die zugrunde liegenden
Zufallsvariablen H und Ĥ per Differenzenbildung zu einer
einzigen neuen Zufallsvariablen verknüpft werden
  H1  Hˆ 2
 Auch hier ergibt eine weitere mathematische
Transformation eine neue ²-verteilte Zufallsvariable
Folie 39
Statistik &
Methodenlehre
Binomialtest
McNemar Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
χ²-Test für k unabhängige Stichproben
 Der ² Test folgt exakt der bereits beim McNemar Test
kennen gelernten Logik des Hypothesentestens
1. Voraussetzungen prüfen
²-Test
2. Verteilungsannahme treffen: ²-verteilt mit den
gegebenen df
3. Hypothesenrichtung festlegen und statistische
Hypothesen formulieren
4. Signifikanzniveau festlegen
5. Prüfgröße ² bestimmen (diese ist eine Realisation der
neuen Zufallsvariablen )
6. Wahrscheinlichkeit für die berechnete Prüfgröße
bestimmen und mit dem Signifkanzniveau vergleichen
Folie 40
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Binomialtest
Tests für Nominaldaten
McNemar Test
 Die Prüfgröße wird aus der km Kontingenztabelle wie
folgt berechnet.
²-Test
χ²-Test für k unabhängige Stichproben
m
k
 2  
i 1 j 1

hij  hˆij
hˆij

2
mit
ˆh  hi  h j
ij
N
 Die einzelnen Terme der Prüfgröße sind also immer
aufgebaut als
 beobachtet  erwartet 
erwartet
Folie 41
2
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Binomialtest
Tests für Nominaldaten
McNemar Test
 Die Prüfgröße wird aus der km Kontingenztabelle wie
folgt berechnet.
²-Test
χ²-Test für k unabhängige Stichproben
m
k
 2  
i 1 j 1

hij  hˆij
hˆij

2
mit
ˆh  hi  h j
ij
N
 Die Prüfgröße ist χ²-verteilt, wenn in der Kontingenztabelle der beobachteten absoluten Häufigkeiten alle
hij ≥ 5 sind.
 Die ²-Verteilung hat df=(k-1)·(m-1) Freiheitsgrade
Folie 42
Statistik &
Methodenlehre
Binomialtest
McNemar Test
²-Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
χ²-Test für k unabhängige Stichproben
 Beim ² Test ist wie bereits beim McNemar Test nur eine
Hypothesenrichtung von Interesse

H 0 : hij  hˆij
für alle Kombinationen i, j
H1 : hij  hˆij , hij  hˆij für mind. eine Kombination i, j

Verwerfen der Verteilungsannahme
„Zweiseitige“ oder
„ungerichtete“ Hypothese
bei einer zu extremen Differenz
 Die Hypothese umfasst also die Vergleich aller unter
Unabhängigkeit geschätzten mit allen beobachteten
Häufigkeiten
Folie 43
Statistik &
Methodenlehre
Binomialtest
McNemar Test
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
χ²-Test für k unabhängige Stichproben
 Durch die spezielle Berechnung der Prüfgröße im ² Test
wird daraus die Prüfung der Hypothese
H 0 : p (    2 )  Verwerfen der Verteilungsannahme

H1 : p (    2 )  bei einem noch größeren Wert
²-Test
„Einseitige“ oder „gerichtete“ Hypothese
 Wichtig: In die Prüfung der Hypothese gehen erneut nur
empirisch an einer Stichprobe gemessene Werte ein.
 Bei der Übertragung auf die Population behilft man sich
wieder mit dem inferenzstatistischen Schluss:
empirisch
Folie 44
h  hˆ
theoretisch geschätzt
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Binomialtest
Tests für Nominaldaten
McNemar Test
Beobachtung im Experiment: diverse hij
χ²-Test für k unabhängige Stichproben
Frage: Sind die Merkmale unabhängig voneinander?
Gehen die Schwankungen der Häufigkeiten auf einen Stichprobenfehler zurück?
²-Test
(1) Bestimmung der Verteilung der Zufallsvariablen 
(2) Festlegung d. Signifikanzniveaus α
(3) Berechnung der Prüfgröße ²
(4) Bestimmung der Wahrscheinlichkeit für dieses z unter Annahme der H0, z. B. p( ≤ ²)
Folie 45
(5) Vergleich von p mit α und
Treffen der Signifikanzaussage
Achtung: Vorher
immer Prüfung der
Voraussetzungen!
Aber: Bei dieser
Aussage irrt man
sich mit einer
Wahrscheinlichkeit
von α·100%
Statistik &
Methodenlehre
Binomialtest
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
χ²-Test für k unabhängige Stichproben
McNemar Test
 Voraussetzung 1: Die Messungen müssen unabhängig
sein.
²-Test
 Voraussetzung 2: Die Zufallsvariablen müssen polytom
sein
 Voraussetzung 3: In der Kreuztabelle der erwarteten
absoluten Häufigkeiten müssen alle nij > 5 sein
Folie 46
Statistik &
Methodenlehre
Binomialtest
Stetige Verteilungen
Inferenzstatistik
Tests für Nominaldaten
Tests für k abhängige Stichproben
McNemar Test
 Sollen multinomiale Merkmale oder mehr als 2
abhängige Stichproben auf Unterschiedlichkeit
geprüft werden, müssen andere Tests verwendet
werden
²-Test
 Diese Tests (u.a. Cochran-Test, Stuart-Maxwell-Test,
Bhapkar-Test) haben z.T. sehr spezifische
Anwendungsbereiche, sind mathematisch aufwändiger
und werden daher hier nicht behandelt.
Folie 47
Statistik &
Methodenlehre
Relevante Excel Funktionen
 Tests für Nominaldaten
• CHIQU.VERT()
• ABS()
Folie 48
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Inhalte
dieser Sitzung
 Welche Gruppe ist besser? Vergleich von 2
unabhängigen Stichproben.
 Hinterher besser als Vorher? Vergleich von 2
abhängigen Stichproben.
Folie 2
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
U-Test nach Mann-Whitney für unabh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Eine Bildungswissenschaftlerin hat den Verdacht, dass
Studierende mit Migrationshintergrund in mündlichen
Prüfungen systematisch schlechter beurteilt werden als
solche mit deutscher Herkunft.
Sie lässt exakt dieselbe Prüfung wortgleich von zwei
Schauspielerinnen nachstellen. Rike hat erkennbar
deutsche Wurzeln, Reyhan hingegen ist offensichtlich
arabischer Herkunft. Beide sprechen fehlerfreies Deutsch,
jedoch mit hörbarem Akzent – hanseatisch auf der einen
und türkisch auf der anderen Seite.
Die Prüfungen werden von 20 Universitätsdozenten per
Video angesehen und anschließend auf einer
Oberstufenskala von 0-15 Punkten beurteilt.
Folie 3
Erzielt Rike bessere Noten als Reyhan?
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
 Ziel: Test, ob sich zwei unabhängige Stichproben in
ihrer Ausprägung auf einem ordinalskalierten
Merkmal unterscheiden.
U-Test nach Mann-Whitney für unabh. Stichpr.
 Definition: Ordinalskala = Eine nach der Größe
geordnete Wertereihe für die Realisationen einer
Zufallsvarialben, wobei der numerische Betrag der
Skalenwerte in keiner Weise interpretierbar ist
 Weitere Beispiele: Ist das Kindeswohl nach einer
Scheidung stärker beeinträchtigt als nach dem Tod
eines Elternteils? Sind junge Frauen anders mit einem
bestimmten Produkt zufrieden als ältere Frauen?
Folie 4
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
 Datenlage: Man hat an zwei unabhängigen
Stichproben der Größen n1 und n2 ein ordinalskaliertes
Merkmal erhoben.
U-Test nach Mann-Whitney für unabh. Stichpr.
 Bewertet worden sei die Prüfungsleistung von Rike
(X, nX=11) und Reyhan (Y, nY=9) auf einer Punkteskala
von 0 – 15.
X:
13, 9, 11, 14, 13, 8, 10, 11, 7, 12, 10
Y:
11, 9, 6, 5, 8, 10, 12, 7, 8
 Frage: Erreichen die Kandidatinnen unterschiedliche
Punktzahlen?
Folie 5
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
 Für Ordinaldaten können prinzipiell keine
theoretischen Wahrscheinlichkeitsverteilungen
formal abgeleitet werden, da die Werte beliebig sind
U-Test nach Mann-Whitney für unabh. Stichpr.
 Aber: Wenn zwei Stichproben aus derselben Population stammen, sollten ihre Wahrscheinlichkeitsverteilungen f(X) gleich sein (wenn auch unbekannt)
 In diesem Fall sollte gelten: vergleicht man paarweise
alle gemessenen Realisationen von X mit denen von
Y, so wird man finden dass xi < yj etwa gleich häufig
vorkommt wie xi > yj, also
h  xi  y j   h  xi  y j 
Folie 6
Dies ist die
inhaltliche
Nullhypothese
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
U-Test nach Mann-Whitney für unabh. Stichpr.
Wilcoxon
Vorzeichenrangtest
 Problem: Die Anzahl der notwendigen paarweisen
Vergleiche wird sehr schnell sehr groß
 Sei nX die Anzahl der Werte in Stichprobe 1 und nY die
Anzahl der Werte in Stichprobe 2, so gilt für die
Anzahl aller paarweisen Vergleiche
C paarweise  nX  nY
Comparisons
 Gesucht ist also ein Verfahren, mit dem h(xi < yj) bzw.
h(xi > yj) schnell ermittelt werden können
Folie 7
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
 Statistische Methoden für Ordinaldaten greifen oft auf das
Verfahren der Rangbildung zurück, da hier die Größe der
betrachteten Werte keine Rolle mehr spielt
U-Test nach Mann-Whitney für unabh. Stichpr.
 Statt also für eine Datenreihe zu prüfen, ob
Fall 1: X  Y
Fall 2 : X  Y
Fall 3 : X  Y
kann äquivalent geprüft werden, ob
Fall 1: rg ( X )  rg (Y )
Fall 2 : rg ( X )  rg (Y )
Fall 2 : rg ( X )  rg (Y )
Folie 8
Niedrigere
Zahl,
niedrigerer
Rang
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
U-Test nach Mann-Whitney für unabh. Stichpr.
Wilcoxon
Vorzeichenrangtest
 Methode: Das Verfahren der Rangbildung beim U-Test
 Es werden Ränge für die Vereinigung der Datentabelle
von X und Y gebildet, bei der die Zugehörigkeit eines
Wertes keine Rolle mehr spielt
X
Folie 9
X
Rang(X)
Rang(Y)
13
11
18.5
14
9
9
8.5
8.5
11
6
14
2
14
5
20
1
13
8
18.5
6
8
10
6
11
10
12
11
16.5
11
7
14
3.5
7
8
3.5
6
12
16.5
10
11
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
U-Test nach Mann-Whitney für unabh. Stichpr.
Wilcoxon
Vorzeichenrangtest
 Achtung: Datei erhält die kleinste Zahl den kleinsten
Rang.
 Bei Ties (Rangbindungen) wird ein mittlerer Rang
vergeben
X
Folie 10
X
Rang(X)
Rang(Y)
13
11
18.5
14
9
9
8.5
8.5
11
6
14
2
14
5
20
1
13
8
18.5
6
8
10
6
11
10
12
11
16.5
11
7
14
3.5
7
8
3.5
6
12
16.5
10
11
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
U-Test nach Mann-Whitney für unabh. Stichpr.
Wilcoxon
Vorzeichenrangtest
 Nach der Rangbildung für die vereinigte Stichprobe
können drei Werte berechnet werden
U  h  rg  X   rg Y    Summe d. Rangunterschreitungen
U '  h  rg  X   rg Y    Summe d. Rangüberschreitungen
Tie  h  rg  X   rg Y    Summe d. Rangbindungen
 U ist also die Menge aller Vergleiche zwischen Werten
aus X mit Werten aus Y, bei denen xi < yj
 U‘ ist die Menge aller Vergleiche, für die xi > yj
 Problem: Damit ist noch nicht viel gewonnen – statt des
paarweisen Vergleichs aller Werte sind nun alle Ränge
paarweise zu vergleichen
Folie 11
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
 Idee: Würde man die Ränge in den Stichproben separat
bilden, gäbe es für Stichprobe 1 genau nX Ränge und für
Stichprobe 2 genau nY
U-Test nach Mann-Whitney für unabh. Stichpr.
 Der U-Test beginnt mit der Bildung von Rangsummen
RX  1  2    n X
und
RY  1  2    nY
 Für die jeweilige Rangsumme gilt gemäß der Lösung des
9jährigen Carl Friedrich Gauß
nX  (nX  1)
RX 
2
Folie 12
und
nY  (nY  1)
RY 
2
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
 Daraus lassen sich Berechnungsformeln für Anzahl der
Rangunter-/-überschreitungen herleiten. Es gilt:
U-Test nach Mann-Whitney für unabh. Stichpr.
U  C  RX  S X
U '  C  RY  SY
Gesamtzahl
aller Vergleiche zwischen
X und Y
C  nX  nY
Folie 13
Rangsumme
für die
separaten
Stichproben
Tatsächliche
Rangsumme
für die
Vereinigung
n  (n  1)
R
2
S   rg  x 
bzw.
 rg  y 
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
 Unter der Nullhypothese sollte von allen Vergleichen
etwa die Hälfte eine Rangunter- und die andere Hälfte
eine Rangüberschreitung sein
U-Test nach Mann-Whitney für unabh. Stichpr.
 Es sollte unter der H0 also gelten
U U '
 Somit ist es gleichgültig, mit welchem der beiden Werte
der statistische Test durchgeführt wird
 Es ist lediglich zu klären, welche Wahrscheinlichkeitsverteilung den Zufallsvariablen U und U‘ zugrunde liegt
Folie 14
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
 Die exakte Wahrscheinlichkeitsverteilung des U oder U‘
ist nur schwer zu bestimmen
U-Test nach Mann-Whitney für unabh. Stichpr.
 Sie ist mit einigen Voraussetzungen belegt und liegt für
kleine n tabelliert in Büchern vor
 Es zeigt sich aber, dass bei größeren Stichproben
(mindestens ein n > 10) das U oder U‘ approximativ
normalverteilt ist
 Frage: Wie lauten  und  für die Normalverteilung der
Werte U oder U‘ unter Annahme der Nullhypothese?
Folie 15
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
 Unter der Nullhypothese sollte von allen Vergleichen C
etwa die Hälfte eine Rangunter- und die andere Hälfte
eine Rangüberschreitung sein
U-Test nach Mann-Whitney für unabh. Stichpr.
 Der Erwartungswert für Rangunter- und
Rangüberschreitungen muss also der Hälfte aller
Vergleiche entsprechen
C nX  nY
U  
2
2
Folie 16
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
U-Test nach Mann-Whitney für unabh. Stichpr.
Wilcoxon
Vorzeichenrangtest
 Die Herleitung der Standardabweichung U des U oder
U‘ ist etwas aufwändiger: für zwei Gruppen der Umfänge
nX und nY zeigt sich, dass
nX  nY   nX  nY  1
U 
12
„Magic Number“
 Damit liegt die Wahrscheinlichkeitsverteilung der
Differenz von U und U‘ unter der Nullhypothese fest und
der statistische Test kann durchgeführt werden.
Folie 17
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
U-Test nach Mann-Whitney für unabh. Stichpr.
Wilcoxon
Vorzeichenrangtest
 Der U-Test folgt exakt der üblichen Logik des
Hypothesentestens
1. Voraussetzungen prüfen
2. Verteilungsannahme treffen: Normalverteilt mit den
berechneten  und 
3. Hypothesenrichtung festlegen und statistische
Hypothesen formulieren
4. Signifikanzniveau festlegen
5. Prüfgröße z bestimmen (diese ist eine Realisation der
neuen Zufallsvariablen Z)
6. Wahrscheinlichkeit für die berechnete Prüfgröße
bestimmen und mit dem Signifkanzniveau vergleichen
Folie 18
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
U-Test nach Mann-Whitney für unabh. Stichpr.
Wilcoxon
Vorzeichenrangtest
 Prüfgröße bei zwei unabhängigen Stichproben der
Umfänge nX und nY.
z
U  U  0.5
U
U

nX  nY
 0.5
2
nX  nY   nX  nY  1
12
 Dabei ist U einer der beiden Werte U oder U‘.
 z ist standardnormalverteilt
 Liegen viele Ties vor, empfiehlt sich eine Korrektur der
Standardabweichung, die von Statistikprogrammen
automatisch vorgenommen wird
Folie 19
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
U-Test nach Mann-Whitney für unabh. Stichpr.
Wilcoxon
Vorzeichenrangtest
 Beim U-Test sind wie beim z-Test potentiell alle drei
möglichen Hypothesenrichtungen von Interesse.

H 0 : U  U ' Verwerfen der Verteilungsannahme

H1 : U  U '  bei höheren Werten in X
H 0 : U  U ' Verwerfen der Verteilungsannahme

H1 : U  U '  bei niedrigeren Werten in X
„Einseitige“ oder „gerichtete“ Hypothese

H0 : U  U '
 Verwerfen der Verteilungsannahme

H1 : U  U ';U  U ')  bei extremeren Werten in X
„Zweiseitige“ oder „ungerichtete“ Hypothese
Folie 20
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
U-Test nach Mann-Whitney für unabh. Stichpr.
Wilcoxon
Vorzeichenrangtest
 Man ermittelt nun die Auftretenswahrscheinlichkeit
p(z|H0) unter der Annahme, dass die angenommene
Wahrscheinlichkeitsverteilung gilt.
 Dazu berechnet man
pZ  z
p  Z  z
 p Z  z
für die H 0 : U  U '
und die H 0 : U  U '
für die H 0 : U  U '
Verwerfen der H0 bei höheren/niedrigeren Werten in X
(wegen der Betragsbildung)
Verwerfen der H0 bei einer
zu extremen Differenz
und vergleicht p mit dem Signifikanzniveau 
 Das p(…) wird aus der Verteilungsfunktion der
Normalverteilung berechnet
Folie 21
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
U-Test nach Mann-Whitney für unabh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Beobachtung im Experiment: U und U‘
Frage: Können die Stichproben aus einer Population stammen?
Geht die Abweichung der Rangunter-/-überschreitungen auf einen Stichprobenfehler zurück?
(1) Bestimmung der Verteilung der Zufallsvariablen Z
(2) Festlegung d. Signifikanzniveaus α
(3) Berechnung der Prüfgröße z
(4) Bestimmung der Wahrscheinlichkeit für dieses z unter
Annahme der H0, z. B. p(Z≤z)
Folie 22
(5) Vergleich von p mit α und
Treffen der Signifikanzaussage
Achtung: Vorher
immer Prüfung der
Voraussetzungen!
Aber: Bei dieser
Aussage irrt man
sich mit einer
Wahrscheinlichkeit
von α·100%
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
U-Test nach Mann-Whitney für unabh. Stichpr.
Wilcoxon
Vorzeichenrangtest
 Voraussetzung 1: Die Messungen müssen unabhängig
sein.
 Voraussetzung 2: Die Zufallsvariablen müssen
mindestens ordinalskaliert sein
 Voraussetzung 3: Für mindestens eine der
Stichprobengrößen soll n > 10 gelten
Folie 23
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
U-Test und Wilcoxon Rangsummentest
Wilcoxon
Vorzeichenrangtest
 Hinweis: Der U-Test nach Mann-Whitney ist
mathematisch äquivalent zum so genannten Wilcoxon
Rangsummentest, der von einer ähnlichen Testidee
ausgeht.
 Der U-Test wird daher manchmal auch als MWW-Test
(Mann-Whitney-Wilcoxon Test) bezeichnet.
 Er ist nicht zu verwechseln mit dem Wilcoxon
Vorzeichenrangtest für abhängige Stichproben.
Folie 24
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Die Lufthansa hat Probleme mit der Freundlichkeit des
Servicepersonals auf einzelnen Linien. Eine
Arbeitspsychologin wird beauftragt, eine Schulung in Sachen
Kundenorientierung durchzuführen.
Es nehmen insgesamt n=13 FlugbegleiterInnen teil, die
sowohl vor als auch nach dem Training hinsichtlich ihrer
Servicequalität von einer Expertengruppen beurteilt werden.
Die dabei verwendete Skala reicht von 0 = Ein Reinfall bis
30 = Ein Träumchen.
Die für die Lufthansa einzig entscheidende Frage lautet: Hat
sich die Servicequalität verbessert?
Folie 25
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
 Ziel: Test, ob sich zwei abhängige Stichproben in ihrer
Ausprägung auf einem ordinalskalierten Merkmal
unterscheiden
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
 Hinweis: Abhängigkeit bedeutet wieder, dass die
Stichproben dieselben Merkmalsträger oder eindeutige
Paare von gleichartigen Merkmalsträgern enthalten.
 Beispiele: Verbessert sich die Leistung in mündlichen
Prüfungen nach einem Rhetorik-Training? Sinkt das
subjektive Laustärke-Empfinden von Bewohnern in der
Einflugschneise des Frankfurter Flughafens nach einem
Volkshochschulkurs Zen-Meditation?
Folie 26
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
 Datenlage: Man hat an zwei abhängigen Stichproben
der Größe n ein ordinalskaliertes Merkmal erhoben.
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
 Es werden die Leistungen von n=13
FlugbegleiterInnen vor und nach einen
Serviceorientierungstraining von einer Expertengruppe
auf einer Ratinskala von 0 – 30 eingeschätzt.
X1: 18, 21, 15, 10, 11, 16, 14, 6, 9, 20, 7, 22, 14
X2: 13, 18, 17, 22, 24, 20, 25, 21, 27, 19, 17, 22, 21
 Frage: Werden die Leistungen zum Zeitpunkt t2
besser beurteilt als zum Zeitpunkt t1?
Folie 27
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
 Wie beim U-Test können für Ordinaldaten keine
theoretischen Wahrscheinlichkeitsverteilungen formal
abgeleitet werden, da die Werte beliebig sind
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
 Testidee: Für jede Beobachtungseinheit können
Differenzen zwischen den beiden Stichproben berechnet
werden ( = X – Y).
 Zwar ist der absolute Betrag dieser Differenzen nicht
interpretierbar, die Differenzen sind aber weiterhin
ordinalskaliert. Größere Differenzen bedeuten also
größere Veränderungen zwischen den Stichproben.
 Das Vorkommen von positiven und negativen Vorzeichen
bei verschiedenen Differenzen sollte ungefähr gleich sein
Folie 28
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Folie 29
 Methode: Zur Durchführung des Wilcoxon
Vorzeichenrangtests werden also zunächst die
Differenzen di zwischen beiden Stichproben gebildet.
Nr.
t1
t2
d
1
18
13
-5
2
21
18
-3
3
15
17
2
4
10
22
12
5
11
24
13
6
16
20
4
7
14
25
11
8
6
21
15
9
9
27
18
10
20
19
-1
11
7
17
10
12
22
22
0
13
14
21
7
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Folie 30
 Dann werden die Absolutwerte |di| dieser Differenzen
gebildet.
Nr.
t1
t2
d
|d|
1
18
13
-5
5
2
21
18
-3
3
3
15
17
2
2
4
10
22
12
12
5
11
24
13
13
6
16
20
4
4
7
14
25
11
11
8
6
21
15
15
9
9
27
18
18
10
20
19
-1
1
11
7
17
10
10
12
22
22
0
0
13
14
21
7
7
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Folie 31
 Nun erhalten diesen Absolutwerte Rangplätze rg(|di|).
Achtung: Dabei gilt kleinste Differenz = kleinster Rang
Nr.
t1
t2
d
|d|
Rang(|d|)
1
18
13
-5
5
6
2
21
18
-3
3
4
3
15
17
2
2
3
4
10
22
12
12
10
5
11
24
13
13
11
6
16
20
4
4
5
7
14
25
11
11
9
8
6
21
15
15
12
9
9
27
18
18
13
10
20
19
-1
1
2
11
7
17
10
10
8
12
22
22
0
0
1
13
14
21
7
7
7
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Folie 32
 Schließlich werden die Ränge korrigiert, indem die
Anzahl der Nulldifferenzen abgezogen wird.
Nr.
t1
t2
d
|d|
Rang(d)
Rang(d)korr
1
18
13
-5
5
6
5
2
21
18
-3
3
4
3
3
15
17
2
2
3
2
4
10
22
12
12
10
9
5
11
24
13
13
11
10
6
16
20
4
4
5
4
7
14
25
11
11
9
8
8
6
21
15
15
12
11
9
9
27
18
18
13
12
10
20
19
-1
1
2
1
11
7
17
10
10
8
7
12
22
22
0
0
1
0
13
14
21
7
7
7
6
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Folie 33
 Schließlich werden die Vorzeichen der Differenzen
festgestellt.
Nr.
t1
t2
d
|d|
Rang(d)
Rang(d)korr
Vorzeichen
1
18
13
-5
5
6
5
-1
2
21
18
-3
3
4
3
-1
3
15
17
2
2
3
2
1
4
10
22
12
12
10
9
1
5
11
24
13
13
11
10
1
6
16
20
4
4
5
4
1
7
14
25
11
11
9
8
1
8
6
21
15
15
12
11
1
9
9
27
18
18
13
12
1
10
20
19
-1
1
2
1
-1
11
7
17
10
10
8
7
1
12
22
22
0
0
1
0
0
13
14
21
7
7
7
6
1
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
 Nulldifferenzen (Anzahl: m) werden a priori von der
Rangplatzvergabe ausgeschlossen. Damit reduziert sich
die Anzahl zu berücksichtigender Differenzen auf
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
n*  n  m
 Nach der Rangbildung sind zwei Werte zu berechnen:
T  Summe der Ränge mit negativem Vorzeichen
T  Summe der Ränge mit positivem Vorzeichen
 Beide Summen zusammen müssen wieder die gesamte
Rangsumme ergeben
Folie 34
n*  (n*  1)
R  T  T 
2
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
 Unter der Nullhypothese sollte von allen Vergleichen
etwa die Hälfte eine Rangunter- und die andere Hälfte
eine Rangüberschreitung sein
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
 Es sollte unter der H0 also gelten
T  T
 Somit ist es gleichgültig, mit welchem der beiden Werte
der statistische Test durchgeführt wird
 Es ist lediglich zu klären, welche Wahrscheinlichkeitsverteilung den Zufallsvariablen T+ und T– zugrunde liegt
Folie 35
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
 Die exakte Wahrscheinlichkeitsverteilung des T+ und T–
ist nur schwer zu bestimmen
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
 Sie ist mit einigen Voraussetzungen belegt und liegt für
kleine n tabelliert in Büchern vor
 Es zeigt sich aber, dass bei größeren Stichproben (n > 25)
das T+ oder T– approximativ normalverteilt ist
 Frage: Wie lauten  und  für die Normalverteilung der
Werte T+ und T– unter Annahme der Nullhypothese?
Folie 36
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
 Unter der Nullhypothese sollten sich Ränge gleichmäßig
auf positive und negative Differenzen aufteilen
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
 Der Erwartungswert für negative und positive
Rangsummen muss also der Hälfte aller Ränge
entsprechen
n*   n*  1
1
T   R 
2
4
Folie 37
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
U-Test
Tests für Ordinaldaten
Wilcoxon
Vorzeichenrangtest
 Die Herleitung der Standardabweichung T des T+ oder
T– ist etwas aufwändiger: es zeigt sich aber, dass
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
T 
n*   2n*  1   n*  1
24
„Magic Number“
 Damit liegt die Wahrscheinlichkeitsverteilung der
Differenz von T+ und T– unter der Nullhypothese fest und
der statistische Test kann durchgeführt werden.
Folie 38
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Wilcoxon
Vorzeichenrangtest
 Der U-Test folgt exakt der üblichen Logik des
Hypothesentestens
1. Voraussetzungen prüfen
2. Verteilungsannahme treffen: Normalverteilt mit den
berechneten  und 
3. Hypothesenrichtung festlegen und statistische
Hypothesen formulieren
4. Signifikanzniveau festlegen
5. Prüfgröße z bestimmen (diese ist eine Realisation der
neuen Zufallsvariablen Z)
6. Wahrscheinlichkeit für die berechnete Prüfgröße
bestimmen und mit dem Signifkanzniveau vergleichen
Folie 39
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Wilcoxon
Vorzeichenrangtest
 Prüfgröße bei abhängigen Stichproben des Umfangs n.
z
T  T  0.5
T
T

n*   n*  1
4
 0.5
n*   2n*  1   n*  1
24
 Dabei ist T einer der beiden Werte T+ oder T–.
 z ist standardnormalverteilt
 Liegen viele Ties vor, empfiehlt sich eine Korrektur der
Standardabweichung, die von Statistikprogrammen
automatisch vorgenommen wird
Folie 40
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Wilcoxon
Vorzeichenrangtest
 Beim Vorzeichenrangtest sind wie beim U-Test potentiell
alle drei möglichen Hypothesenrichtungen von Interesse.

H 0 : T  T  Verwerfen der Verteilungsannahme

H1 : T  T  bei höheren Werten in X
H 0 : T  T  Verwerfen der Verteilungsannahme

H1 : T  T  bei niedrigeren Werten in X
„Einseitige“ oder „gerichtete“ Hypothese

H 0 : T  T
 Verwerfen der Verteilungsannahme

H1 : T  T ; T  T )  bei extremeren Werten in X
„Zweiseitige“ oder „ungerichtete“ Hypothese
Folie 41
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Wilcoxon
Vorzeichenrangtest
 Man ermittelt nun die Auftretenswahrscheinlichkeit
p(z|H0) unter der Annahme, dass die angenommene
Wahrscheinlichkeitsverteilung gilt.
 Dazu berechnet man
pZ  z
p  Z  z
 p Z  z
für die H 0 : T  T
und die H 0 : T  T
für die H 0 : T  T
Verwerfen der H0 bei höheren/niedrigeren Werten in X
(wegen der Betragsbildung)
Verwerfen der H0 bei einer
zu extremen Differenz
und vergleicht p mit dem Signifikanzniveau 
Folie 42
 Das p(…) wird aus der Verteilungsfunktion der
Normalverteilung berechnet
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Wilcoxon
Vorzeichenrangtest
Beobachtung im Experiment: T+ und T–
Frage: Können die Stichproben aus einer Population stammen?
Geht die Abweichung der Ränge der Differenzen auf einen Stichprobenfehler zurück?
(1) Bestimmung der Verteilung der Zufallsvariablen Z
(2) Festlegung d. Signifikanzniveaus α
(3) Berechnung der Prüfgröße z
(4) Bestimmung der Wahrscheinlichkeit für dieses z unter
Annahme der H0, z. B. p(Z≤z)
Folie 43
(5) Vergleich von p mit α und
Treffen der Signifikanzaussage
Achtung: Vorher
immer Prüfung der
Voraussetzungen!
Aber: Bei dieser
Aussage irrt man
sich mit einer
Wahrscheinlichkeit
von α·100%
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Ordinaldaten
U-Test
Wilcoxon Vorzeichenrangtest für abh. Stichpr.
Wilcoxon
Vorzeichenrangtest
 Voraussetzung 1: Die Messungen müssen abhängig
sein.
 Voraussetzung 2: Die Zufallsvariablen müssen
mindestens ordinalskaliert sein
 Voraussetzung 3: Für die Stichprobengröße soll n > 25
gelten
Folie 44
Statistik &
Methodenlehre
Relevante Excel Funktionen
 Tests für Nominal- und Ordinaldaten
•
•
•
•
•
•
Folie 45
ANZAHL2()
SUMMEWENN()
ZÄHLENWENN()
ABS()
VORZEICHEN()
RANG.MITTELW()
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Inhalte
dieser Sitzung
 Kennwerte in Theorie und Empirie
 Das Schätzproblem: von der Stichprobe zur
Population
 Der 1-Stichproben t-Test
Folie 2
Statistik &
Methodenlehre
Kennwerte
Stetige Verteilungen
Inferenzstatistik
Kennwerte in Theorie & Empirie
Numerische Beschreibung: relative Häufigkeit
Schätzen

Die Wahrscheinlichkeit für die Realisation i einer
Zufallsvariablen X ist
p  xi 
Theorie

Das Äquivalent bei n empirisch an einer Stichprobe
erhobenen Realisationen einer Zufallsvariablen X ist die
relative Häufigkeit, berechnet als
h  xi 
f  xi  
n
Empirie
Folie 3
Statistik &
Methodenlehre
Kennwerte
Stetige Verteilungen
Inferenzstatistik
Kennwerte in Theorie & Empirie
Numerische Beschreibung: Mittelwert
Schätzen

Der Erwartungswert einer Zufallsvariablen X ist
k
E ( X )     pi xi
i 1
Theorie (diskreter Fall)

Das Äquivalent für empirisch an einer Stichprobe
erhobene Daten einer Zufallsvariablen X ist der
Mittelwert, berechnet als
1 n
x    xi
n i 1
Empirie
Folie 4
Statistik &
Methodenlehre
Kennwerte
Stetige Verteilungen
Inferenzstatistik
Kennwerte in Theorie & Empirie
Numerische Beschreibung: Mittelwert
Schätzen

Ausgeschrieben lautet die Formel für den Mittelwert bei
n Beobachtungen x1 … xn
1
1 n
x   ( x1  x2   xN )    xi
n
n i 1

Der Mittelwert ist durch „extreme“ Werte beeinflussbar
(ausreißerempfindlich)

Er ist der Schwerpunkt der Beobachtungen, d.h.
n
x  x   0
i 1
Folie 5
i
Statistik &
Methodenlehre
Kennwerte
Stetige Verteilungen
Inferenzstatistik
Intervalldaten
Numerische Beschreibung: Mittelwert
Schätzen

Der Mittelwert stimmt häufig mit keiner beobachteten
Realisation überein

Der Mittelwert ist wie der Erwartungswert äquivariant
gegenüber gewissen (z.B. linearen) Transformationen

Insbesondere
1. Addition einer Konstanten a zu allen n
Beobachtungen x1 … xn
xa  x a
2. Multiplikation aller n Beobachtungen x1 … xn mit
einer Konstanten c
Folie 6
ax  ax
Statistik &
Methodenlehre
Kennwerte
Stetige Verteilungen
Inferenzstatistik
Intervalldaten
Numerische Beschreibung: Varianz
Schätzen

Die Varianz einer Zufallsvariablen X ist definiert als
E  X  E  X   
2
k
2
 X    pi   xi   
2
i 1
Theorie (diskreter Fall)

Das Äquivalent für empirisch an einer Stichprobe
erhobene Daten einer Zufallsvariablen X heißt ebenfalls
Varianz und wird berechnet als
n
1
2
2
s  x      xi  x 
n i 1
Empirie
Folie 7
Statistik &
Methodenlehre
Kennwerte
Stetige Verteilungen
Inferenzstatistik
Intervalldaten
Numerische Beschreibung: Varianz
Schätzen
 Die Varianz ist das mittlere Abweichungsquadrat aller
n Beobachtungen x1 … xn vom Mittelwert.
n
1
2
2
s  x      xi  x 
n i 1
 Erfasst die mittlere Streuung um den Mittelwert
 Nur falls keine Streuung besteht, ist s² = 0, d.h. alle
beobachteten Werte sind gleich. Sonst: s² > 0
 Je größer die Streuung um den Mittelwert, desto
größer ist die Varianz
 Ist anfällig gegenüber Ausreißern
Folie 8
Statistik &
Methodenlehre
Kennwerte
Stetige Verteilungen
Inferenzstatistik
Intervalldaten
Numerische Beschreibung: Standardabweichung
Schätzen
 Problem: Auch die empirische Varianz ist nicht
äquivariant zu erlaubten Skalentransformationen
s 2 (a  x)  a 2  s 2 ( x)
(mit a = const.)
 Wie bei der theoretischen Varianz erhält man durch
Wurzelziehen die Standardabweichung (SD,
standard deviation)
n
1
2
2
s  x  s  x 
   xi  x 
n i 1
 Die Standardabweichung ist äquivariant zu den
erlaubten Skalentransformationen
Folie 9
Statistik &
Methodenlehre
Kennwerte
Stetige Verteilungen
Inferenzstatistik
Schätzen
Von der Stichprobe zur Population
Schätzen
 Problem: Beim inferenzstatistischen Test ist immer der
Schluss von den Daten einer Stichprobe auf einen
Sachverhalt in der Population gefragt.
 Beispiel: Beim Binomialtest wird anhand von empirisch
in einer Stichprobe erhobenen relativen Häufigkeiten auf
die Gleichheit oder Ungleichheit von theoretischen
Wahrscheinlichkeiten in der Population geschlossen
 Dies ist der inferenzstatistische Schluss
 Der inferenzstatistische Schluss steht und fällt mit der
Annahme, dass die Verwendung gemessener Kennwerte
(z.B. relative Häufigkeit) als Schätzung für den
theoretischen Populationskennwert gerechtfertigt ist
Folie 10
Statistik &
Methodenlehre
Kennwerte
Stetige Verteilungen
Inferenzstatistik
Schätzen
Von der Stichprobe zur Population
Schätzen
 Dieses so genannte Schätzproblem lässt sich in einer
einzigen Frage zusammenfassen
Wann ist eine Schätzung eine gute Schätzung?
 Das wesentliche statistische Merkmal einer guten
Schätzung ist die Erwartungstreue
Eine Schätzung ist dann erwartungstreu, wenn
bei unendlichen vielen Wiederholungen des
Zufallsexperimentes der dabei gemessene
Stichprobenkennwert im Mittel gleich dem
theoretischen Populationskennwert ist
Folie 11
Statistik &
Methodenlehre
Kennwerte
Stetige Verteilungen
Inferenzstatistik
Schätzen
Von der Stichprobe zur Population: p
Schätzen
 Es zeigt sich, dass die relative Häufigkeit eine
erwartungstreue Schätzung für die Wahrscheinlichkeit in der Population ist
sprich: „dach“
 Es gilt also
f  xi 
Stichprobenkennwert
(bekannt)

pˆ  xi 
Schätzung
(bekannt)

p  xi 
Populationskennwert
(unbekannt)
 Dieser Zusammenhang wurde bereits im Gesetz der
Großen Zahl (law of large numbers) formuliert
Folie 12
Statistik &
Methodenlehre
Kennwerte
Stetige Verteilungen
Inferenzstatistik
Schätzen
Von der Stichprobe zur Population: 
Schätzen
 Es zeigt sich, dass der Mittelwert eine
erwartungstreue Schätzung für den Erwartungswert
in der Population ist
 Es gilt also
x
Stichprobenkennwert
(bekannt)

ˆ
Schätzung
(bekannt)


Populationskennwert
(unbekannt)
 Dieser Zusammenhang berechtigt Wissenschaftler, aus
Stichprobendaten einen Erwartungswert für eine
Zufallsvariable zu behaupten (z.B. mittlerer IQ = 100)
Folie 13
Statistik &
Methodenlehre
Kennwerte
Stetige Verteilungen
Inferenzstatistik
Schätzen
Von der Stichprobe zur Population: ²
Schätzen
 Es zeigt sich, dass die Varianz der Stichprobe keine
erwartungstreue Schätzung für die Varianz in der
Population ist
 Es ist also
s2
Stichprobenkennwert
(bekannt)

ˆ 2
Schätzung
(unbekannt)

2
Populationskennwert
(unbekannt)
 Man kann also aus der anhand von Stichprobendaten
gemessenen Varianz nicht auf die Varianz der
Zufallsvariable in der Population schließen
Folie 14
Statistik &
Methodenlehre
Kennwerte
Stetige Verteilungen
Inferenzstatistik
Schätzen
Von der Stichprobe zur Population: ²
Schätzen
 Man kann aber beweisen, dass die Stichprobenvarianz
die Populationsvarianz systematisch unterschätzt, dass
sie also einen Bias (= systematischer Fehler) hat
 Für diesen Bias gibt es eine einfache Korrektur
n
 s2
n 1
Stichprobenkennwert
(bekannt)

ˆ 2
Schätzung
(berechenbar)

2
Populationskennwert
(unbekannt)
 Diese korrigierte Stichprobenvarianz ist eine erwartungstreue Schätzung der Populationsvarianz, so dass man
aus Daten behaupten kann, dass z.B.  des IQ = 10
Folie 15
Statistik &
Methodenlehre
Kennwerte
Schätzen
Stetige Verteilungen
Schätzen
Übersicht
Wahrscheinlichkeit:
Mittelwert:
Varianz:
Standardabweichung:
Folie 16
Inferenzstatistik
Empirisch
Theoretisch
f  x
p̂  x   f  x 
1 n
x    xi
n i 1
ˆ  x
n
1
2
n
2
2
s     xi  x  ˆ 
 s2
n i 1
n 1
s  s
2
2
n
ˆ 
s
n 1
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Mittelwertevergleiche
 In der empirischen Forschung ist zumeist nicht die
Prüfung eines Einzeldatums gefragt, sondern von
Mittelwerten bzw. von Unterschieden zwischen
solchen in mehreren Gruppen
 Beispiele: „Verbessert sich die Schulleistung von
Kindern durch Förderunterricht?“, „Wirkt VT bei
Schizophrenen?“, „Sind Frauen sprachbegabter als
Männer?“
 Für Ordinaldaten haben wir den U-Test sowie den
Wilcoxon Vorzeichenrangtest kennen gelernt
 Für Intervalldaten stehen bessere (i.e. teststärkere)
Tests zur Verfügung
Folie 17
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Mittelwertevergleiche
 Inferenzstatistische Tests für Mittelwerte sollen anhand
von Stichprobendaten Aussagen über die Unterschiedlichkeit von Erwartungswerten in der
Population treffen.
 Für einen solchen Test müssen mehrere Dinge bekannt
sein:
• Die Erwartungswerte selbst
• Ihre Verteilungsform bzw. die Verteilungsform
der berechneten Prüfgröße
• Die Parameter dieser Verteilung
 All diese sind zunächst unbekannt, so dass genau wie
bei den bisher behandelten Tests Schätzungen
erforderlich sind
Folie 18
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Folie 19
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der 1-Stichproben t-Test – Grundlagen
 Der 1-Stichproben t-Test beantwortet die Frage, ob ein aus
einer Stichprobe geschätzter Erwartungswert mit
einem bekannten Erwartungswert übereinstimmt.
 Keiner der Merkmalsträger darf mehr als einmal in der
Stichprobe vertreten sein.
 Beispiele: „Ist der IQ von Psychologiestudierenden im
Mittel 100?“, „Sind Geburtsraten in Deutschland so hoch
wie der europäische Durchschnitt?“, „Erreichen Teilnehmer
eines Assessment Centers im Mittel einen bestimmten CutOff-Wert?“
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Einführung
Tests für Intervalldaten
Prüfgröße
Unbekannte Population
Der 1-Stichproben t-Test – Grundlagen
Stichprobe (n)
x
Hypothesen
Voraussetzungen
Ist der Erwartungswert der
Stichprobe
gleich μ: H0
Bekannte Population
oder
verschieden: H1
 und 
Folie 20
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der 1-Stichproben t-Test – Grundlagen
 Grundfrage: Wie üblich kann man fragen, ob der
beobachtete Mittelwert zu extrem ist, um anzunehmen,
dass die Stichprobe noch aus einer Population mit dem
Erwartungswert μ stammt.
 Ansatz: Um diese Frage zu beantworten, müssen wir
zwei Dinge wissen:
1. Die Wahrscheinlichkeitsverteilung
dieser Mittelwerte
2. Die Parameter dieser Verteilung
Folie 21
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der 1-Stichproben t-Test – Grundlagen
Prüfgröße
 Problem: Die Wahrscheinlichkeitsverteilung von
Mittelwerten ist ein sehr theoretisches Konstrukt
Hypothesen
 Sie ergäbe sich, wenn ein Experiment mit immer neuen
Stichprobe aus derselben Population wieder und wieder
durchgeführt würde und bei jeder Durchführung der
Mittelwert berechnet würde
Voraussetzungen
Folie 22
 Erkenntnis: Ein Herr „Student“ (aka William Sealy
Gossett, Statistiker bei Guinnes) konnte herleiten, dass die
Wahrscheinlichkeitsverteilung von Mittelwerten
mathematisch sehr gut zu beschreiben ist
Statistik &
Methodenlehre
Einführung
Prüfgröße
Stetige Verteilungen
Tests für Intervalldaten
Der 1-Stichproben t-Test – Grundlagen
 Wenn die Zufallsvariable einen Erwartungswert von μ
der Differenzen besitzt, so hat der Mittelwert für
Stichproben dieser Zufallsvariablen den Erwartungswert
Hypothesen
Voraussetzungen
x  
 Wenn die Zufallsvariable eine Standardabweichung
von σ bzw. eine Varianz von σ² besitzt, so streuen die
Mittelwerte mit
x 
Folie 23
Inferenzstatistik

n
bzw.
 x2 
2
n
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der 1-Stichproben t-Test – Prüfgröße
Prüfgröße
 „Student“ musste nur noch ermitteln, welche Form die
Wahrscheinlichkeitsverteilung von Mittelwerten hat
Hypothesen
 Er definierte zunächst eine Prüfgröße
t
Voraussetzungen
x  x
x
für die ja gemäß der bisherigen Erkenntnisse gilt:
x  
Folie 24
und
x 

n
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der 1-Stichproben t-Test – Prüfgröße
Prüfgröße
 Die erste Vermutung, dass t wie üblich normalverteilt sei,
bestätigte sich nicht
Hypothesen
 „Student“ konnte zeigen, dass die Prüfgröße die Form
einer so genannten t-Verteilung hat
Voraussetzungen
 Die t-Verteilung hat nur einen Parameter, nämlich die so
genannten Freiheitsgrade df (degrees of freedom)
 Diese Freiheitsgrade ergeben sich direkt aus der Größe
der Stichprobe n, deren Mittelwert getestet wird
df  n  1
Folie 25
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Die t-Verteilung von Student
Prüfgröße
StandardNormalverteilung
0.4
0.3
Hypothesen
0.2
Voraussetzungen
t- Verteilung mit df = 10
0.1
-3
-2
-1
1
Kritische Werte sind bei der tVerteilung im Vergleich zur
Normalverteilung größer
Folie 26
2
3
t.99  2.76
z.99  2.33
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Die t-Verteilung von Student
Prüfgröße
 Standardnormal- und t-Verteilung sind sich also offenbar
sehr ähnlich, aber nicht identisch
Hypothesen
 Je größer n (und damit auch die Freiheitsgrade), desto
mehr gleichen sich die Wahrscheinlichkeitsverteilungen an
Voraussetzungen
 Da die Standardnormalverteilung einfacher zu tabellieren
ist – es gibt nur eine – wurde früher oft diese verwendet,
um die Größe der Prüfgröße zu berechnen.
 Da die t-Verteilung heute sehr einfach bestimmt werden
kann, ist dieses approximative Vorgehen nicht mehr
notwendig
Merke: Für t immer die t-Verteilung!
Folie 27
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der 1-Stichproben t-Test – Ablauf
 Der t-Test folgt nun exakt der üblichen Vorgehensweise
des Hypothesentestens
1. Voraussetzungen prüfen
2. Verteilungsannahme treffen: t-verteilt mit den
berechneten df
3. Hypothesenrichtung festlegen und statistische
Hypothesen formulieren
4. Signifikanzniveau festlegen
5. Prüfgröße t bestimmen
6. Wahrscheinlichkeit für die berechnete Prüfgröße
bestimmen und mit dem Signifkanzniveau vergleichen
Folie 28
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Folie 29
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der 1-Stichproben t-Test – Hypothesen
 Erkenntnis: Jede Stichprobe stammt aus irgendeiner
Population mit einem bestimmten, aber unbekannten
Erwartungswert μX
 Wenn der beobachtete Mittelwert zu extrem ist, dann
stammt die Stichprobe offenbar nicht aus der gegebenen
Population mit dem Erwartungswert μ
 Die Bewertung der Prüfgröße läuft also auf den Test
hinaus, ob der beobachtete Mittelwert der Stichprobe aus
einer Population mit dem bekannten μ oder dem
unbekannten μX stammt
Statistik &
Methodenlehre
Einführung
Prüfgröße
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der 1-Stichproben t-Test – Hypothesen
 Beim t-Test sind wie beim z-Test potentiell alle drei
möglichen Hypothesenrichtungen von Interesse.
Hypothesen

Voraussetzungen
H 0 :  x    Verwerfen der Verteilungsannahme

H1 :  x    bei zu hohem x
H 0 :  x    Verwerfen der Verteilungsannahme

H1 :  x    bei zu niedrigem x
„Einseitige“ oder „gerichtete“ Hypothese

H0 : X  
 Verwerfen der Verteilungsannahme

H1 :  X   ,  X    bei einem zu extremen Wert
„Zweiseitige“ oder „ungerichtete“ Hypothese
Folie 30
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der 1-Stichproben t-Test – Hypothesen
Prüfgröße
 Man ermittelt nun die Auftretenswahrscheinlichkeit
p(t|H0) unter der Annahme, dass die angenommene
Wahrscheinlichkeitsverteilung gilt.
Hypothesen
 Dazu berechnet man
Voraussetzungen
p T  t 
für die H 0 :  X  
Verwerfen der H0 bei einem
zu positiven Mittelwert
p T  t 
für die H 0 :  X  
Verwerfen der H0 bei einem
zu negativen Mittelwert
p  T  t 
für die H 0 :  X  
 p  T  t 
Verwerfen der H0 bei einem
zu extremen Mittelwert
und vergleicht p mit dem Signifikanzniveau 
Folie 31
 Das p(…) wird aus der Verteilungsfunktion der t-Verteilung
berechnet
Statistik &
Methodenlehre
Tests für Ordinaldaten
Intervalldaten
Tests für
Einführung
Tests für Intervalldaten
Prüfgröße
Beobachtung im Experiment: x
Der 1-Stichproben t-Test – Hypothesen
Frage: Stammt die Stichprobe aus einer Population mit ?
Geht die Größe des Mittelwertes auf einen Stichprobenfehler zurück?
Hypothesen
Voraussetzungen
(1) Festlegung von Signifikanzniveau α Achtung: Vorher
und Gerichtetheit
immer Prüfung der
Voraussetzungen!
(2) Berechnung der Prüfgröße t
(3) Berechnung der Wahrscheinlichkeit für dieses oder ein
extremeres z: z. B. p(T≥ t)
(4) Vergleich von p mit α und
Treffen der Signifikanzaussage
Folie 32
Aber: Bei dieser
Aussage irrt man
sich mit einer
Wahrscheinlichkeit
von α·100%
Statistik &
Methodenlehre
Einführung
Tests für Ordinaldaten
Intervalldaten
Tests für
Tests für Intervalldaten
Der 1-Stichproben t-Test – Voraussetzungen
Prüfgröße
 Die Zufallsvariable muss intervallskaliert sein
Hypothesen
 Bei n < 30 sollten die Daten normalverteilt sein
Voraussetzungen
Folie 33
Statistik &
Methodenlehre
Relevante Excel Funktionen
 Tests für Intervalldaten
• T.VERT()
Folie 34
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Inhalte
dieser Sitzung
 Der t-Test für 2 abhängige Stichproben
 Der t-Test für 2 unabhängige Stichproben
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Mittelwertevergleiche
 In der empirischen Forschung ist zumeist nicht die
Prüfung eines Einzeldatums gefragt, sondern von
Mittelwerten bzw. von Unterschieden zwischen
solchen in mehreren Gruppen
 Beispiele: „Verbessert sich die Schulleistung von
Kindern durch Förderunterricht?“, „Wirkt VT bei
Schizophrenen?“, „Sind Frauen sprachbegabter als
Männer?“
 Für Ordinaldaten haben wir den U-Test sowie den
Wilcoxon Vorzeichenrangtest kennen gelernt
 Für Intervalldaten stehen bessere (i.e. teststärkere)
Tests zur Verfügung
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Mittelwertevergleiche
 Inferenzstatistische Tests für Mittelwerte sollen anhand
von Stichprobendaten Aussagen über die Unterschiedlichkeit von Erwartungswerten in der
Population treffen.
 Für einen solchen Test müssen mehrere Dinge bekannt
sein:
• Die Erwartungswerte selbst
• Ihre Verteilungsform bzw. die Verteilungsform
der berechneten Prüfgröße
• Die Parameter dieser Verteilung
 All diese sind zunächst unbekannt, so dass genau wie
bei den bisher behandelten Tests Schätzungen
erforderlich sind
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
 Der 2-Stichproben t-Test für abhängige Stichproben
beantwortet die Frage, ob zwei Messungen an einer
Stichprobe aus einer Population mit demselben
Erwartungswert stammen können.
 Die Stichproben müssen dieselben (bzw. gepaarte)
Merkmalsträger enthalten.
 Beispiele: Verschlechtert sich die Konzentrationsleistung
von Personen nach Alkoholgabe? Verringert sich der Grad
einer psychischen Erkrankung durch Verhaltenstherapie?
Ist die Hörschwelle 24h nach einem Diskobesuch noch
verändert?
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Einführung
Tests für Intervalldaten
Prüfgröße
Population zu Messzeitpunkt 1
Der abhängige 2-Stichproben t-Test – Grundlagen
Stichprobe (n)
x
Hypothesen
Voraussetzungen
X
Sind die Erwartungswerte
gleich: H0
oder
Population zu Messzeitpunkt 2
verschieden: H1
y
Y
Stichprobe (n)
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
Prüfgröße
 Ansatz: Wie beim Wilcoxon Vorzeichenrangrest sind die
Werte der beiden Stichproben paarweise zuordenbar
Hypothesen
 Für jede Person kann nun die Differenz zwischen beiden
Messzeitpunkten berechnet werden
Voraussetzungen
 XY  X  Y
 Man hat also eine neue Zufallsvariable XY gebildet
 Für die konkreten Werte in der Stichprobe können
Mittelwert und Varianz berechnet werden.
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
 Der Mittelwert der Differenzen zwischen den
Messzeitpunkten wird berechnet als
 XY
Voraussetzungen
1 n
    xi  yi 
n i 1
 Die Varianz der Differenzen ist damit
s2 XY
2
1 n
     XY   XY 
n i 1
Statistik &
Methodenlehre
Einführung
Prüfgröße
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
 Der Erwartungswert der Differenzen zwischen den
Messzeitpunkten kann nun direkt geschätzt werden
ˆ    XY
Hypothesen
XY
Voraussetzungen
 Die Populationsvarianz der Differenzen kann mit der
Korrekturformel geschätzt werden, ebenso wie die
Standardabweichung
ˆ
2
 XY
n

 s2 XY
n 1
und
ˆ 
XY
n

 s XY
n 1
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
x
und
sX
Messzeitpunkt 1
Differenzen
 XY
Messzeitpunkt 2
y
und
und
sY
Daten
(beobachtet)
Daten
(berechnet)
s XY
ˆ 
XY
und
ˆ 
XY
Population
(geschätzt)
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
Prüfgröße
 Aus den Stichprobendaten lassen sich also
Erwartungswert und Varianz der Differenzen schätzen
Hypothesen
 Problem: Die Schätzungen dieser Populationskennwerte
charakterisieren immer noch „Individualdaten“, nämlich
Erwartungswert und Varianz für die Differenzen der
einzelnen Merkmalsträger in der Population
Voraussetzungen
 Man könnte damit lediglich Tests für einzelne Differenzen
durchführen und prüfen, ob diese zur geschätzten
Populationen der Differenzen gehören
(ähnlich wie beim z-Test)
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
Prüfgröße
 Problem: Das Ziel beim t-Test ist nicht die Bewertung
von Einzeldaten, sondern des Gruppenunterschiedes
zwischen den Messzeitpunkten.
Hypothesen
 Also: Der t-Test fragt nicht nach einzelnen Differenzen,
sondern nach dem Mittelwert der Differenzen
Voraussetzungen
 XY
1 n
    xi  yi 
n i 1
 Über die Größe dieses Wertes sollen Hypothesen
formuliert und geprüft werden
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
 Um die Größe des Wertes  XY prüfen zu können, sind wie
üblich 2 Angaben nötig
1. Die Form der Wahrscheinlichkeitsverteilung, dem
dieser Wert bei vielen Wiederholungen des
Zufallsexperimentes folgen sollte
2. Die Parameter dieser Wahrscheinlichkeitsverteilung
 Sind diese Angaben bekannt, kann die gewohnte Testlogik
angewandt werden
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
x
und
sX
Messzeitpunkt 1
Differenzen
?
 XY
Messzeitpunkt 2
y
und
und
s XY
ˆ 
XY
und
ˆ 
XY
sY
Daten
(beobachtet)
ˆ 
Daten
(berechnet)
Population
der Differenzen
(geschätzt)
XY
und
ˆ 
XY
Population
der Mittelwerte
von Differenzen
(geschätzt)
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
 Frage 1: Wie ist die Verteilung des Mittelwertes der
Differenzen zweier Zufallsvariablen X und Y?
 Die Differenz ist nichts anderes als eine Summe von
Summen von Zufallsvariablen und sollte gemäß des ZGS
normalverteilt sein.
 Frage 2: Wie ist der Erwartungswert?
 Wenn beide Zufallsvariablen eigentlich dieselbe Population
abbilden (H0), so sollte gelten
  0
XY
denn der Mittelwert von Differenzen ist gleich der
Differenz von Mittelwerten.
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
Prüfgröße
 Frage 3: Wie ist die Varianz?
Hypothesen
 Die einzige zur Verfügung stehende Information über die
Streuung der Mittelwerte kann aus der Streuung der
Daten bzw. ihrer Differenzen gewonnen werden
Voraussetzungen
 Zunächst kann aus der Varianz der Datendifferenzen die
Populationsvarianz der Differenzen geschätzt werden
ˆ 2
XY
n

 s2 XY
n 1
mit
s
2
 XY
1 n
    xi yi   XY
n i 1


Statistik &
Methodenlehre
Einführung
Prüfgröße
Stetige Verteilungen
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
 Gefragt ist aber nicht die geschätzte Populationsvarianz
der Datendifferenzen, sondern die geschätzte Populationsvarianz des Mittelwerts der Differenzen, also
Hypothesen
Voraussetzungen
Inferenzstatistik
2
ˆ

anstatt
XY
ˆ 2
XY
 Es zeigt sich, dass die Populationsvarianz des Mittelwerts
der Differenzen direkt aus der Populationsvarianz der
Datendifferenzen berechnen lässt
ˆ
2
 XY
1 2
  ˆ  XY
n
und damit
ˆ 
XY
1

 ˆ  XY
n
„Standardfehler“
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
 Damit liegt die Wahrscheinlichkeitsverteilung des
Mittelwerts der Differenzen unter der Nullhypothese fest
 Sie lautet

 XY ~ NV   XY , ˆ  XY

Voraussetzungen
mit
  0
XY
und
ˆ 
XY
1

 ˆ  XY
n
 Nun kann die gewohnte Testlogik angewandt werden
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test
 Man sollte nun eine standardnormalverteilte Prüfgröße
berechnen können gemäß
t
 XY  0
ˆ 
XY
Voraussetzungen
 Aber: W. S. Gosset (1908) zeigte, dass die Wahrscheinlichkeitsverteilung von t nur für Stichproben mit
großen Umfängen n gegen die Normalverteilung geht
 Die tatsächliche Verteilung von t ist eine t-Verteilung
 Die t-Verteilung hat genau einen Parameter, die so
genannten Freiheitsgrade (df)
 Dieser ist df = n - 1
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test
Prüfgröße
StandardNormalverteilung
0.4
0.3
Hypothesen
0.2
Voraussetzungen
t- Verteilung mit df = 10
0.1
-3
-2
-1
1
Kritische Werte sind bei der tVerteilung im Vergleich zur
Normalverteilung größer
2
3
t.99  2.76
z.99  2.33
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test – Grundlagen
 Der t-Test folgt exakt der üblichen Vorgehensweise des
Hypothesentestens
1. Voraussetzungen prüfen
2. Verteilungsannahme treffen: t-verteilt mit den
berechneten df
3. Hypothesenrichtung festlegen und statistische
Hypothesen formulieren
4. Signifikanzniveau festlegen
5. Prüfgröße t bestimmen (diese ist eine Realisation der
neuen Zufallsvariablen T)
6. Wahrscheinlichkeit für die berechnete Prüfgröße
bestimmen und mit dem Signifkanzniveau vergleichen
Statistik &
Methodenlehre
Einführung
Prüfgröße
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test
 Beim t-Test sind wie beim z-Test potentiell alle drei
möglichen Hypothesenrichtungen von Interesse.
Hypothesen

Voraussetzungen
H 0 :   XY  0  Verwerfen der Verteilungsannahme

H1 :  XY  0  bei höheren Werten in  XY
H 0 :  XY  0  Verwerfen der Verteilungsannahme

H1 :   XY  0  bei niedrigeren Werten in  XY
„Einseitige“ oder „gerichtete“ Hypothese

H 0 :   XY  0  Verwerfen der Verteilungsannahme

H1 :  XY  0  bei extremeren Werten in  XY
„Zweiseitige“ oder „ungerichtete“ Hypothese
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test
 Weil man einfach zeigen kann, dass gilt  XY  x  y ,
können die Hypothesen umformuliert werden zu
„Der Mittelwert von
Differenzen ist gleich
der Differenz von
Mittelwerten“
Statistik &
Methodenlehre
Einführung
Prüfgröße
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test
 Weil man einfach zeigen kann, dass gilt  XY  x  y ,
können die Hypothesen umformuliert werden zu
Hypothesen

Voraussetzungen
H 0 :  X  Y  Verwerfen der Verteilungsannahme

H1 :  X  Y  bei höheren Werten in  XY
H 0 :  X  Y  Verwerfen der Verteilungsannahme

H1 :  X  Y  bei niedrigeren Werten in  XY
„Einseitige“ oder „gerichtete“ Hypothese

H 0 :  X  Y  Verwerfen der Verteilungsannahme

H1 :  X  Y  bei extremeren Werten in  XY
„Zweiseitige“ oder „ungerichtete“ Hypothese
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test
Prüfgröße
 Man ermittelt nun die Auftretenswahrscheinlichkeit
p(z|H0) unter der Annahme, dass die angenommene
Wahrscheinlichkeitsverteilung gilt.
Hypothesen
 Dazu berechnet man
Voraussetzungen
p T  t 
für die H 0 :  X  Y
Verwerfen der H0 bei einer
zu positiven Differenz
p T  t 
für die H 0 :  X  Y
Verwerfen der H0 bei einer
zu negativen Differenz
p  T  t 
für die H 0 :  X  Y
 p  T  t 
Verwerfen der H0 bei einer
zu extremen Differenz
und vergleicht p mit dem Signifikanzniveau 
 Das p(…) wird aus der Verteilungsfunktion der t-Verteilung
berechnet
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Einführung
Tests für Intervalldaten
Prüfgröße
Beobachtung im Experiment:
Der abhängige 2-Stichproben t-Test
x, y
Frage: Stammen die Stichproben aus derselben Population?
Geht die Größe des Mittelwerts der Differenz auf einen Stichprobenfehler zurück?
Hypothesen
Voraussetzungen
(1) Festlegung von Signifikanzniveau α Achtung: Vorher
und Gerichtetheit
immer Prüfung der
Voraussetzungen!
(2) Berechnung der Prüfgröße t
(3) Berechnung der Wahrscheinlichkeit für dieses oder ein
extremeres z: z. B. p(X≥ t)
(4) Vergleich von p mit α und
Treffen der Signifikanzaussage
Aber: Bei dieser
Aussage irrt man
sich mit einer
Wahrscheinlichkeit
von α·100%
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der abhängige 2-Stichproben t-Test
Prüfgröße
 Intervallskalenniveau der betrachteten Zufallsvariable
Hypothesen
Voraussetzungen
 Normalverteilung des Merkmals in der Population für
Stichprobengrößen von n ≤ 30.
 Abhängigkeit der Stichproben bzw. der
Merkmalsträger darin, so dass diese paarweise
zugeordnet werden können.
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test – Grundlagen
 Der 2-Stichproben t-Test für unabhängige Stichproben
beantwortet die Frage, ob zwei verschiedene Stichproben
aus einer Population mit demselben
Erwartungswert stammen können.
 Die Stichproben müssen unterschiedliche Merkmalsträger
enthalten.
 Beispiele: Ist die Effektivität von Verhaltenstherapie
anders als von Psychotherapie? Zeigen Jugendliche
bessere Leistungen bei der Erkennung emotionaler
Gesichtsausdrücke als Kinder? Haben Arbeitslose ein
höheres Aggressionspotential als Arbeitnehmer?
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Einführung
Tests für Intervalldaten
Prüfgröße
Stichprobe 1
Der unabhängige 2-Stichproben t-Test – Grundlagen
Stichprobe (nX)
x
Hypothesen
Voraussetzungen
X
Sind die Erwartungswerte
gleich: H0
oder
Population zu Messzeitpunkt 2
verschieden: H1
y
Y
Stichprobe (nY)
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test – Grundlagen
Prüfgröße
 Ansatz: Anders als beim t-Test für abhängige Stichproben
sind für die Daten nicht sinnvoll Differenzen zu bilden
Hypothesen
 Man kann lediglich die Differenz der Mittelwerte
berechnen
Voraussetzungen
 XY  x  y
 Dies erzeugt wieder eine neue Zufallsvariable
 Auf die neue Zufallsvariable kann die gewohnte Testlogik
angewandt werden
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test – Grundlagen
 Um die Größe des Wertes  XY prüfen zu können, sind wie
üblich 2 Angaben nötig
1. Die Form der Wahrscheinlichkeitsverteilung, dem
dieser Wert bei vielen Wiederholungen des
Zufallsexperimentes folgen sollte
2. Die Parameter dieser Wahrscheinlichkeitsverteilung
 Sind diese Angaben bekannt, kann die gewohnte Testlogik
angewandt werden
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test – Grundlagen
x
Prüfgröße
Hypothesen
Voraussetzungen
Inferenzstatistik
Stichprobe 1
Differenz der
Mittelwerte
?
 XY
Stichprobe 2
y
Daten
(beobachtet)
ˆ 
Daten
(berechnet)
XY
und
ˆ 
XY
Population
der Differenz
von Mittelwerten
(geschätzt)
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test – Grundlagen
Prüfgröße
 Frage 1: Wie ist die Verteilung der Differenz von
Mittelwerten zweier Zufallsvariablen X und Y?
Hypothesen
 Die Differenz ist nichts anderes als eine Summe von
Summen von Zufallsvariablen und sollte gemäß des ZGS
normalverteilt sein.
Voraussetzungen
 Frage 2: Wie ist der Erwartungswert?
 Wenn beide Zufallsvariablen eigentlich dieselbe Population
abbilden (H0), so sollte gelten
  0
XY
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test – Grundlagen
Prüfgröße
 Frage 3: Wie ist die Varianz?
Hypothesen
 Die einzige zur Verfügung stehende Information über die
Streuung der Mittelwerte kann aus der Streuung der
Daten bzw. ihrer Differenzen gewonnen werden
Voraussetzungen
 Lösung: Man wirft die Stichproben zusammen („Pooling“)
und schätzt daraus eine gemeinsame Populationsvarianz der Daten:
2
ˆ XY
nX  s X2  nY  sY2

nX  nY  2
Statistik &
Methodenlehre
Einführung
Prüfgröße
Stetige Verteilungen
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test – Grundlagen
 Gefragt ist aber nicht die geschätzte Populationsvarianz
der Daten, sondern die geschätzte Populationsvarianz
des Mittelwerts der Differenzen, also
Hypothesen
Voraussetzungen
Inferenzstatistik
2
ˆ
  XY
anstatt
ˆ 2
XY
 Dies ist wieder der Standardfehler, berechnet über
ˆ 2
XY
 1
1  und damit
1
1
2
ˆ
  XY  
 
ˆ  XY 
  ˆ XY
nX nY
 nX nY 
„Standardfehler“
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test – Grundlagen
 Damit liegt die Wahrscheinlichkeitsverteilung der Differenz
von Mittelwerten unter der Nullhypothese fest
 Sie lautet

 XY ~ NV  XY , ˆ  XY

Voraussetzungen
mit
  0
XY
und
ˆ  
XY
1
1

 ˆ XY
nX nY
 Nun kann die gewohnte Testlogik angewandt werden
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test
 Man sollte nun eine standardnormalverteilte Prüfgröße
berechnen können gemäß
 XY  0
t
ˆ 
XY
Voraussetzungen
 Wieder zeigte W. S. Gosset (1908), dass die Wahrscheinlichkeitsverteilung von t nur für Stichproben mit
großen Umfängen n gegen die Normalverteilung geht
 Die tatsächliche Verteilung von t ist eine t-Verteilung
 Die t-Verteilung hat genau einen Parameter, die so
genannten Freiheitsgrade (df)
 Dieser ist hier df = nX + nY – 2
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test – Grundlagen
 Der t-Test folgt exakt der üblichen Vorgehensweise des
Hypothesentestens
1. Voraussetzungen prüfen
2. Verteilungsannahme treffen: t-verteilt mit den
berechneten df
3. Hypothesenrichtung festlegen und statistische
Hypothesen formulieren
4. Signifikanzniveau festlegen
5. Prüfgröße t bestimmen (diese ist eine Realisation der
neuen Zufallsvariablen T)
6. Wahrscheinlichkeit für die berechnete Prüfgröße
bestimmen und mit dem Signifkanzniveau vergleichen
Statistik &
Methodenlehre
Einführung
Prüfgröße
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test
 Beim t-Test sind wie beim z-Test potentiell alle drei
möglichen Hypothesenrichtungen von Interesse.
Hypothesen

Voraussetzungen
H 0 :   XY  0  Verwerfen der Verteilungsannahme

H1 :  XY  0  bei höheren Werten in  XY
H 0 :  XY  0  Verwerfen der Verteilungsannahme

H1 :   XY  0  bei niedrigeren Werten in  XY
„Einseitige“ oder „gerichtete“ Hypothese

H 0 :   XY  0  Verwerfen der Verteilungsannahme

H1 :  XY  0  bei extremeren Werten in  XY
„Zweiseitige“ oder „ungerichtete“ Hypothese
Statistik &
Methodenlehre
Einführung
Prüfgröße
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test
 Wie beim t-Test für abhängige Stichproben können die
Hypothesen umformuliert werden zu
Hypothesen

Voraussetzungen
H 0 :  X  Y  Verwerfen der Verteilungsannahme

H1 :  X  Y  bei höheren Werten in  XY
H 0 :  X  Y  Verwerfen der Verteilungsannahme

H1 :  X  Y  bei niedrigeren Werten in  XY
„Einseitige“ oder „gerichtete“ Hypothese

H 0 :  X  Y  Verwerfen der Verteilungsannahme

H1 :  X  Y  bei extremeren Werten in  XY
„Zweiseitige“ oder „ungerichtete“ Hypothese
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test
Prüfgröße
 Man ermittelt nun die Auftretenswahrscheinlichkeit
p(z|H0) unter der Annahme, dass die angenommene
Wahrscheinlichkeitsverteilung gilt.
Hypothesen
 Dazu berechnet man
Voraussetzungen
p T  t 
für die H 0 :  X  Y
Verwerfen der H0 bei einer
zu positiven Differenz
p T  t 
für die H 0 :  X  Y
Verwerfen der H0 bei einer
zu negativen Differenz
p  T  t 
für die H 0 :  X  Y
 p  T  t 
Verwerfen der H0 bei einer
zu extremen Differenz
und vergleicht p mit dem Signifikanzniveau 
 Das p(…) wird aus der Verteilungsfunktion der t-Verteilung
berechnet
Statistik &
Methodenlehre
Stetige Verteilungen
Inferenzstatistik
Einführung
Tests für Intervalldaten
Prüfgröße
Beobachtung im Experiment:
Der unabhängige 2-Stichproben t-Test
x, y
Frage: Stammen die Stichproben aus derselben Population?
Geht die Größe des Mittelwerts der Differenz auf einen Stichprobenfehler zurück?
Hypothesen
Voraussetzungen
(1) Festlegung von Signifikanzniveau α Achtung: Vorher
und Gerichtetheit
immer Prüfung der
Voraussetzungen!
(2) Berechnung der Prüfgröße t
(3) Berechnung der Wahrscheinlichkeit für dieses oder ein
extremeres z: z. B. p(X≥ t)
(4) Vergleich von p mit α und
Treffen der Signifikanzaussage
Aber: Bei dieser
Aussage irrt man
sich mit einer
Wahrscheinlichkeit
von α·100%
Statistik &
Methodenlehre
Einführung
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Der unabhängige 2-Stichproben t-Test
Prüfgröße
 Intervallskalenniveau der betrachteten Zufallsvariable
Hypothesen
Voraussetzungen
 Normalverteilung des Merkmals in der Population für
Stichprobengrößen von nX + nY ≤ 50.
 Homogenität der Populationsvarianzen
(automatisch erfüllt, wenn H0 gilt; über verschiedene Tests prüfbar, z.B.
den Levène Test auf Varianzgleichheit)
 Unabhängigkeit der Stichproben, so dass ein
Merkmalsträger nur in einer Stichprobe vorhanden ist.
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Unabhängig vs. abhängig
 Frage: Sollte ein Experimentaldesign eher auf einen tTest für unabhängige Stichproben oder für abhängige
Stichproben abzielen?
 Der t-Test für unabhängige Stichproben scheint zunächst
testschärfer, weil seine Prüfgröße einer Verteilung mit
doppelt so vielen Freiheitsgraden folgt, die damit
schmaler ist.
 Dieser Unterschied wirkt sich jedoch bei üblichen
Stichprobengrößen (n>30) kaum mehr aus
 Wesentlich relevanter ist die Höhe des
Standardfehlers, der beim t-Test für abhängige
Stichproben kleiner ist, sobald die Kovarianz größer 0 ist.
Statistik &
Methodenlehre
Einführung
Prüfgröße
Hypothesen
Voraussetzungen
Stetige Verteilungen
Inferenzstatistik
Tests für Intervalldaten
Unabhängig vs. abhängig
 In der Praxis ist der abhängige Fall dem unabhängigen
Fall hinsichtlich der Teststärke deshalb zumeist klar
überlegen.
 Aber: Für jedes Untersuchungsdesign mit abhängigen
Stichproben gelten dieselben kritische Punkte, u.a.
•
Carry-Over Effekte zwischen den
Messzeitpunkten (z.B. Lerneffekte)
•
Drop-Outs zu späteren Messzeitpunkten
reduzieren die gesamte Stichprobe
•
Das Untersuchungsdesign sollte nicht auf eine
negative Kovarianz zwischen den Messzeitpunkten
abzielen
Statistik &
Methodenlehre
Relevante Excel Funktionen
 Tests für Intervalldaten
•
•
•
•
MITTELWERT()
STABW.S(), STABW.N()
VAR.S(), VAR.P()
T.VERT()
Statistik &
Methodenlehre
Multiples
Testen
Korrekturen
Stetige Verteilungen
Inferenzstatistik
Multiples Testen
Problemstellung
 Die Irrtumswahrscheinlichkeit α sagt nicht, dass die
getroffene Entscheidung für eine der Hypothesen mit
α·100%iger Wahrscheinlichkeit falsch ist
(sie ist entweder zutreffend oder nicht)
 Die Irrtumswahrscheinlichkeit α charakterisiert die
Wahrscheinlichkeit, dass man einen beobachteten
(Kenn-)Wert (oder einen noch extremeren) erhält unter
der Annahme, dass H0 zutrifft
 Sie lässt sich alltagssprachlich übersetzen in die Aussage
„Werden für multiple Stichprobenziehungen aus
derselben Population k Signifikanztests durchgeführt,
werden von diesen Tests α·k allein durch Zufallsfehler bei
der Stichprobenziehung signifikant.“
Statistik &
Methodenlehre
Multiples
Testen
Korrekturen
Stetige Verteilungen
Inferenzstatistik
Multiples Testen
α-Fehler Kumulierung beim statistischen Testen
 In der empirischen Praxis hat man häufig nicht nur zwei
Stichproben bzw. Gruppen, sondern mehr als zwei
 Beispiele: Mittleres Einkommen verschiedener
Wählergruppen (SPD, CDU, FDP, Grüne); multiple
Befragungen von Patienten während des
Therapieprozesses
 Sollen alle Gruppen mithilfe des t-Tests miteinander
verglichen werden, sind multiple t-Tests notwendig.
 Jeder von diesen besitzt eine Irrtumswahrscheinlichkeit
von α  bei vielen Tests kommt es zur so genannten αFehler Kumulierung
(„von k Tests sollten mindestens α100% signifikant werden“)
Statistik &
Methodenlehre
Multiples
Testen
Korrekturen
Stetige Verteilungen
Inferenzstatistik
Multiples Testen
Bonferroni-Korrektur und Dunn-Sidak Korrektur
 Die Bonferroni-Korrektur nimmt an, dass bei k Tests
das α-Niveau um 1/k verringert werden muss, um die
erhöhte Irrtumswahrscheinlichkeit auszugleichen
'

k
 Die Dunn-Sidak Korrektur geht von unabhängigen
Stichproben aus und berechnet das neue α-Niveau
über die komplementäre Wahrscheinlichkeit, dass bei k
Stichproben nur α·k signifikant werden.
 '  1  (1   )
1
k
 Die Bonferroni-Korrektur ist (marginal) konservativer als
Dunn-Sidak
Statistik &
Methodenlehre
Einführung
Effektstärke
Effektstärke
Signifikanztests
Das klassische Hypothesentesten
 Der Test gilt dann als signifkant, wenn die
Wahrscheinlichkeit für den konkreten Wert der
Prüfgröße unter der H0 zu niedrig ist.
 In diesem Fall wird die H0 verworfen und
angenommen, dass die H1 gilt.
 Die Prüfgröße bzw. die ihr zugrunde liegenden
Beobachtungen stammen dann nicht aus der
Population, die mit der H0 beschrieben wird.
 Problem: Aus welcher Population stammen sie dann?
Oder auch: Gibt es überhaupt die Population für die
H0?
Statistik &
Methodenlehre
Einführung
Effektstärke
Effektstärke
Signifikanztests
Das klassische Hypothesentesten
 Die Annahme einer feststehenden Population ist eine
Idealisierung und praktisch nicht zu halten.
 Gründe: Mortalität, Fluktuation, Maturation (i.e.
Veränderungen der Merkmalsträger zwischen
Zeitpunkten).
 Damit ist der Erwartungswert (kleinsten)
Schwankungen unterworfen, die sich auch in den
Stichprobenbeobachtungen niederschlagen werden.
 Mit genügend hohem Stichprobenumfang werden
solch kleinste Schwankungen zu Signifikanzen führen.
 Mit großen n kann jede H0 verworfen werden.
Statistik &
Methodenlehre
Einführung
Effektstärke
Effektstärke
Signifikanztests
Die Effektstärke
 Damit stellt sich die Frage nach der praktischen
Bedeutsamkeit signifikanter Ergebnisse.
 Beispiel: Mit genügend hohem n wird sich ein IQUnterschied von 0.05 Punkten zwischen farbigen und
weißen Personen signifikant testen lassen. Hat aber
dieser Unterschied irgend eine praktische Bedeutung?
 Cohen (1988) schlägt daher das Konzept der
Effektstärke als Ergänzung zum Signifikanztest vor.
 Die Effektstärke soll die Größe eines Unterschiedes
oder Zusammenhangs relativ zur Streuung von
Daten wiedergeben – und nicht zur Streuung von
Mittelwerten oder anderer von n abhängiger Maße.
Statistik &
Methodenlehre
Einführung
Effektstärke
Effektstärke
Signifikanztests
Die Effektstärke – Cohen‘s d
 Cohen‘s d drückt einen Unterschied zwischen
Erwartungswerten (bzw. beobachteten Mittelwerten)
in Einheiten der Streuung der beobachteten
Zufallsvariablen aus.
 Je größer die Varianz der Zufallsvariablen, desto
kleiner wird die Effektstärke, unabhängig von der
Stichprobengröße.
 Cohen gibt verschiedene Daumenregeln für die
Interpretation von d an:
d  .2  kleiner Effekt
d  .5  mittlerer Effekt
d  .8  großer Effekt
Statistik &
Methodenlehre
Einführung
Effektstärke
Effektstärke
Signifikanztests
Die Effektstärke – Cohen‘s d
 Cohen‘s d drückt einen Unterschied zwischen
Erwartungswerten (bzw. beobachteten Mittelwerten)
in Einheiten der Streuung der beobachteten
Zufallsvariablen aus.
 Je größer die Varianz der Zufallsvariablen, desto
kleiner wird die Effektstärke, unabhängig von der
Stichprobengröße.
 Wolf (1986) vereinfachte diese Regeln noch weiter:
d  .25  akademisch relevant
("something was learned")
d  .50  praktisch/klinisch relevant
("something happened")
Statistik &
Methodenlehre
Einführung
Effektstärke
Effektstärke
Signifikanztests
Die Effektstärke – Cohen‘s d
 Die mathematische Definition der Effektstärke nach
Cohen ist sehr allgemein, je nach Anwendungsfall
existieren verschiedene konkrete Formeln.
 Für den 1-Stichproben t-Test:
x 
d
ˆ
mit
ˆ 
n
s
n 1
Statistik &
Methodenlehre
Einführung
Effektstärke
Effektstärke
Signifikanztests
Die Effektstärke – Cohen‘s d
 Die mathematische Definition der Effektstärke nach
Cohen ist sehr allgemein, je nach Anwendungsfall
existieren verschiedene konkrete Formeln.
 Für den 2-Stichproben t-Test für abhängige
Stichproben:
d
mit
ˆ  
XY
 XY
ˆ  XY
n
 s XY
n 1
Statistik &
Methodenlehre
Einführung
Effektstärke
Effektstärke
Signifikanztests
Die Effektstärke – Cohen‘s d
 Die mathematische Definition der Effektstärke nach
Cohen ist sehr allgemein, je nach Anwendungsfall
existieren verschiedene konkrete Formeln.
 Für den 2-Stichproben t-Test für unabhängige
Stichproben:
xy
d
ˆ  XY
mit
ˆ 
XY
nX  s X2  nY  sY2

nX  nY  2
Statistik &
Methodenlehre
Class
dismissed.
Herunterladen