Skript Computergestützte Datenanalyse SS 12 (Anne Hagemann, SPSS) Einordnung in den Forschungsprozess     Fragestellung Untersuchungsplanung Untersuchungsdurchführung Vorbereitung der Datenanalyse  Erstellung eines Kodierplans/Variablendefinition  Dateneingabe  Überprüfung der Dateneingabe/Datenscreening  Umgang mit fehlenden Werten/Extremwerten  Datenanalyse  Berichterstellung Grundlegendes zu SPSS  Daten-Editor  öffnet sich beim Start  Datenansicht und Variablenansicht  Datendateien werden als .sav-Dateien gespeichert  SPSS Viewer  Ausgabefenster  enthält die Ergebnisse (Output) als Tabelle und Diagramme  Ausgaben können als .spv-Dateien gespeichert werden  Diagramm-Editor und Pivot-Tabellen-Editor  zum Bearbeiten von Diagrammen und Tabellen im Output/Viewer  Syntax-Editor Tabellen in SPSS  Tabellenformat das Standard in der SPSS-Ausgabe ist entspricht nicht akademischen Anforderungen  Rechtsklick auf Tabelle  Tabelle bearbeiten  in separatem Fenster  Pivot  Zeilen und Spalten vertauschen  Ändern der Tabellenform: Format  Tabellenvorlagen  Academic  Schriftgröße, Ausrichtung, Dezimalstellen anpassen  da Möglichkeiten der Bearbeitung begrenzt einfaches kopieren in Word/Excel, Screenshots bei Powerpoint (Rechtsklick  Exportieren)  benutzerdefinierte Tabellen  Analysieren  Tabellen  Benutzerdefinierte Tabellen  so können Statistiken etwa nach Geschlecht getrennt ausgegeben werden, ohne dass Datei vorher geteilt werden muss Diagramme in SPSS  Zugriff über Diagramme  Diagrammerstellung oder Diagramme  Veraltete Dialogfelder  durch Doppelklick auf Diagramm in der Ausgabe gelangt man in die Diagrammbearbeitung  Kreisdiagramme  Darstellung von kategorialen Merkmalen (z.B. Geschlecht, Haarfarbe…) o Kreisdiagramm auswählen, Variable in „Feld aufteilen nach“ ziehen  Balkendiagramme  Darstellung des Mittelwerts einer Variablen für verschiedene Gruppen o einfaches Balkendiagramm auswählen wenn Mittelwert nach einer Variable getrennt gezeigt werden soll o Variable auf die x-Achse, Mittelwert der berücksichtigt werden soll auf die yAchse oder o gruppiertes Balkendiagramm wenn Mittelwert nach zwei Variablen getrennt gezeigt werden soll o Variable auf die x-Achse, Mittelwertsvariable auf die y-Achse, dritte Variable in „Clustervariable“ (z.B. Geschlecht) oder o gleiche Vorgehensweise bei Darstellung des Mittelwerts nach drei Variablen getrennt o dann unter Gruppen/Punkt-ID „Spaltenfeldvariable“ anklicken und Variable in neu erscheinendes Feld ziehen  Histogramm  Darstellung von Häufigkeitsverteilungen (bei zu vielen Kategorien werden Kategorien zusammengefasst) o einfaches Histogramm wählen und Variable auf die x-Achse ziehen o unter Elementeigenschaften „Normalverteilungskurve anzeigen“ wählen  Boxplot  Darstellung der Verteilung (Quartile) und Ausreißer einer Variablen o einfachen Boxplot auswählen und Variable auch die x-Achse ziehen  Streudiagramme  Darstellung des Zusammenhangs zweier Variablen  Identifizieren von bivariaten Ausreißern o gruppiertes Streudiagramm auswählen und Variablen auf x- und y-Achse ziehen o evtl. Farbe der Punkte differenzieren nach weiterer Variable (z.B. Geschlecht) Daten in SPSS einlesen  …aus Textdatei (Editor)  Vorteil bei Textdateien: Daten können problemlos in alle Programme eingelesen werden  Eingabe der Daten: o Daten im „tab-delimited format“ eingeben (Tabs als Trennung zwischen den Variablen) o jede Zeile = ein Fall/Untersuchungsteilnehmer o erst Zeile =Variablennamen o Vorteil der Tabs als Trennzeichen: kommen in den Variablen nicht vor (anders als Komma, etc.) o bei Speicherung als .txt gehen Daten verloren (z.B. Variablen- und Wertelabels) o Datei  Textdaten lesen  Datei auswählen o vordefiniertes Format: nein, mit Trennzeichen o Datumsvariable muss definiert werden o nach „Fertigstellen“ erscheinen Daten, jedoch ohne Variablen- und Wertelabels und ohne benutzerdefiniert fehlende Werte  …aus Excel  Datei  Öffnen  Daten  Dateityp Excel auswählen, Datei auswählen Öffnen Variablendefinition in SPSS Allgemeine Regeln der Benennung  maximal 64 Zeichen (besser kürzere Namen)  Beginn mit einem Buchstaben (@auch erlaubt)  neben Buchstaben und Ziffern nur folgende Zeichen: _ . @ # $  keine Leerzeichen  letztes Zeichen kein Punkt oder Unterstrich  Variablen dürfen nicht: ALL, AND, BY, EQ, GE, GT, LE, LT, NE, NOT, OR, TO, WITH heißen  Namen dürfen nicht doppelt vergeben werden  Kodierplan: ordnet einzelnen Fragen Variablennamen zu sowie den Merkmalsausprägungen Codenummern Variablen definieren  Typ: Art der Variable z.B. numerisch (Zahlen), Datum (Format festlegen), String (Anzahl der Zeichen festlegen  Spaltenformat: =Breite (Zeichen inkl. Komma und Dezimalstellen)  Variablenlabel: = Beschreibung der Variablen  Wertelabels: Werte entsprechend dem Kodierplan benennen (z.B. 1=weiblich, 2=männlich)  Fehlende Werte: beachten, dass nur Werte eingegeben werden, die in der Variablen sonst nicht möglich sind (z.B. Alter = 999)  systemdefiniert fehlende Werte o Punkt in der Datenansicht wenn kein Wert eingegeben wurde  benutzerdefiniert fehlende Werte o Benutzer gibt Wert ein, der als fehlend behandelt werden soll o Vorteil: Sicherheit, dass der Wert nicht vergessen wurde sondern fehlt  Ausrichtung: Wo sollen Variablen im Datenfenster angezeigt werden?  Messniveau  Skala: metrische Variablen (intervall-/verhältnisskaliert), quantitative Eigenschaften (Daten sind Zahlen, z.B. Körpergröße)  Ordinal: geordnete Kategorien (Ratings)  Nominal (ungeordnete Kategorien, z.B. Haarfarbe, Geschlecht und String-Variablen) Übertragen von Definitionen auf andere Variablen  Variableneigenschaften kopieren (Rechtsklick auf die linke Spalte & kopieren)  in leere Zeile oder Zeile mit neuer Variablen einfügen  ggf. Variablennamen und -label ändern anschließend Dateneingabe nach Kodierplan in der Datenansicht Überprüfung der Dateneingabe fehlende Werte (missings)  häufiges Problem bei ohnehin kleiner Stichprobe/N  fehlende Werte können in drei Gruppen eingeteilt werden  MCAR: missing completely at random o Muster fehlender Werte ist völlig unvorhersehbar  MAR: missing at random o das Muster fehlender Werte lässt sich aus anderen Variablen im Datensatz vorhersagen (außer der AV)  MNAR: missing not at random o Fehlen von Werten ist von der AV abhängig o Generalisierbarkeit der Ergebnisse ist gefährdet  unbedenklicher Umgang mit den fehlenden Werten nur bei MCAR oder MAR  Häufigkeit fehlender Werte anzeigen  gesamte Häufigkeit o Analysieren  Deskriptive Statistiken  Häufigkeiten o Anzahl der fehlenden Werte wird in der Ausgabe angezeigt  fehlende Werte einer Person o neue Variable berechnen die dies angibt o Transformieren  Variable berechnen  Zielvariable „miss“ nennen  „Numerischer Ausdruck“: Nmiss (zu finden in Funktionsgruppe „Fehlende Werte“), in Klammern dahinter Variablen(-bereich) angeben  OK o neue Variable „miss“ absteigend sortieren (<10% fehlend/Person ok) Umgang mit fehlenden Werten  Ausschluss/Löschen  Listenweiser Fallausschluss (Standard bei SPSS)  Fallausschluss Test für Test  Variablen mit fehlenden Werten löschen  Personen mit fehlenden Werten löschen  Problem: viele Daten gehen verloren !!!  Ersetzen  populäre, aber problematische Methoden o durch Median ersetzen (ab Ordinaldatenniveau)  Transformieren  fehlende Werte ersetzen  Methode: Median der Nachbarpunkte  wichtig: Anzahl der Nachbarpunkte: ALLE o durch Mittelwert ersetzen (ab Intervalldatenniveau)  Transformieren  fehlende Werte ersetzen  Methode: Mittel der Nachbarpunkte o  Regressionsersetzung (ab Intervalldatenniveau)  Transformieren  fehlende Werte ersetzen  Methode: Linearer Trend am Punkt  wichtig: Anzahl der Nachbarpunkte: ALLe o Problem: Reduktion der Varianz  evtl. durch Gruppenmittelwert, -median ersetzen  Daten  Fälle auswählen  Missingersetzung für jede Gruppe getrennt bessere Methoden (hier nur genannt) o Expectation Maximization (nur bei MCAR und MAR)  Analysieren  Analyse fehlender Werte im Kästchen „Schätzungen“ EM anklicken & vervollständigte Daten speichern o Multiple Imputation/ Vervollständigung der Daten (für MCAR, MAR und MNAR)  Analysieren  Multiple Imputationen  fehlende Datenwerte imputieren  Imputationen bei 5 lassen  neues Datenset erstellen  in neuer Datei sind die Orginaldaten und 5 Datensets mit ersetzten Variablen o Ergebnisse der späteren Analysen (Regression) werden sowohl für jeden einzelnen imputierten Datensatz als auch kombiniert ausgegeben Extremwerte/Ausreißer/Outlier  sehr unterschiedlich vom Rest der Daten  beeinflussen die Güte des Modells, das wir auf die Daten „passen“  Ergebnisse können nicht generalisiert werden  Mögliche Ursachen:  Inkorrekte Dateneingabe  Fehlende Werte nicht gelabelt  Ausreißer gehören nicht zu der untersuchten Population  Allgemein:  für spätere Analysen mit ungruppierten Daten (Regression, Faktorenanalyse, …) Ausreißer im gesamten Datensatz suchen  für Analysen mit gruppierten Daten (ANOVAs) nach Ausreißern getrennt in jeder Gruppe suchen  Univariate Ausreißer identifizieren  extremer Wert auf einer Variablen  bei kontinuierlichen Variablen: über z-Werte (z.B. z >|3,29|; p> .001,zweiseitiger Test) o Analysieren  Deskr. Statistiken  Deskriptive  “standardisierte Werte als Variable speichern“ anklicken  man erhält im Datenfenster z-Werte der Variablen  im Datenfenster sortieren oder über Häufigkeiten analysieren  Achtung: bei z-Werten Stichprobengröße beachten o bei sehr großen Stichproben werden durchaus einige Werte mit z >|3,29| erwartet    wenn man davon ausgeht, dass Daten Standardnormalverteilung folgen, können durch z-Transformation die Eigenschaften dieser genutzt werden o 95% der Werte liegen zwischen +/- 1,96 o 99% der Werte liegen zwischen +/- 2,58 o 99,9% der Werte liegen zwischen +/- 3,29 o nur wenige Werte liegen außerhalb dieser Werte Werte mit großem z-Wert sollten also nur selten auftreten o Zeichen für Extremwert neben z-Werten auch Boxplots nützlich o Diagramme  Diagrammerstellung  unten links Boxplot auswählen & oben rechts ins Fenster ziehen oder veraltete Dialogfelder o einfacher Boxplot (1 Variable auf x-Achse, evtl. 1 Gruppierungsvariable auf Kategorienachse) o gruppierter Boxplot (1 Variable auf x-Achse, 2 Gruppierungsvariable auf Kategorienachse)  Univariate Ausreißer beheben    richtig eingetippt und fehlende Werte gelabelt? Ausschluss des Falls (nur, wenn nicht Teil der untersuchten Population) Veränderung des Ausreißerwertes: o Ersetzen durch den höchsten/niedrigsten Wert +/- 1 o Ersetzen durch Mittelwert +/- 2 oder 3 Standardabweichungen o Wichtig dabei: Ausreißer muss nach wie vor der größte/kleinste Wert sein! SPSS-Syntax Definition  “predefined written commands that instruct SPSS what you would like it to do”  Befehle, die SPSS versteht Möglichkeiten der Eingabe  Eintippen per Hand  Kopieren aus anderen Dateien  über “Einfügen” aus dem Menü Vorteile der Syntax     leichtes Speichern des Analyseablaufes einfaches Labeln von Datensätzen, die aus Datenbanken abgerufen werden Kommentare können eingefügt werden für kleine Änderungen in der Analyse muss nicht das ganze Menü wieder durchgeklickt werden: Änderungen können direkt in der Syntax gemacht werden  SPSS gibt an, wenn sich doch mal Fehler in die Syntax einschleichen  Öffnen des Syntax-Editors: Datei  Neu  Syntax Syntax-Regeln       jeder Befehl beginnt in einer neuen Zeile jeder Befehl endet mit einem Punkt Unterbefehle werden mit einem Schrägstrich (/) voneinander getrennt Text für Labels wird in Apostrophe gesetzt Dezimaltrennzeichen in der Syntax ist immer ein Punkt Hilfe und Beispiele gibt es (auch) unter: Hilfe  Befehlssyntax-Referenz  Syntax wird ausgeführt über : Ausführen  Auswahl/Alle/… oder mit grünem Pfeil  Kommentare beginnen mit einem Sternchen und enden mit einem Punkt (SPSS ignoriert sie dann)  Fehler/unvollständige Befehle werden direkt in roter Schrift angezeigt oder nach Versuch der Ausführung (im unteren Teil der Syntax und in der Ausgabe)  Text der Syntax findet sich auch in der Ausgabe Datensätze teilen  zum Beispiel: Analysen für Frauen und Männer getrennt durchführen  Daten  Datei aufteilen  Gruppen vergleichen anklicken  Variable „Geschlecht“ ins Fenster ziehen  Syntax:  SORT CASES BY geschl. SPLIT FILE LAYERED BY geschl. Fälle auswählen  zum Beispiel: nur Einbezug von Psychologiestudenten in Analysen  Daten  Fälle auswählen  “Falls Bedingung zutrifft“ auswählen  Falls  Bedingung definieren  nicht ausgewählte Fälle werden gestrichen  Syntax:   USE ALL sorgt dafür, dass alle Fälle berücksichtigt werden COMPUTESPSS berechnet neue Variable (filter_$), die für alle mit studium=1 (Psychos) den Wert 1 annimmt, für andere 0  VARIABLE LABELS benennt diese Variable  VALUE LABELS benennt die Werte mit 1=ausgewählt, 0=nicht ausgewählt  FORMATS gibt das Format der neuen Variablen an  FILTER filtert den Datensatz (alle Fälle mit dem Wert 0 werden aussortiert)  EXECUTE Transformationen und Variablenberechnungen werden erst nach diesem Befehl ausgeführt  auch Möglichkeit Fälle etwa nach Alter auszuwählen (alter < 22) oder nach mehreren Bedingungen (mit AND angehängt)  wichtige Syntax- Befehle für Berechnungen Variablen berechnen  Beispiel: Summenscore für Ängstlichkeit in einem psychologischen Test berechnen  Transformieren  Variable berechnen  Zielvariable definieren  aus Funktionsgruppe „Statistisch“ SUM wählen, in Klammer entsprechenden Items (mit Komma getrennt) einfügen  unter Typ & Label kann ein Label eingegeben werden  Syntax  berechnen wenn fehlende Werte vorliegen  z.B. wenn Summenscore auch bei 6 von 7 Werten berechnet werden kann o fehlender Wert wird durch Mittelwert der anderen Werte ersetzt  Mittelwert der 6 oder 7 vorhandenen Werte nehmen, den dann mit 7 multiplizieren  Differenz berechnen  z.B. Berechnung der Dauer von Erkrankung  Transformieren  Variable berechnen  Zielvariable definieren  Differenz über „-“ zwischen den Variablen  Syntax:  Berechnungen mit Datumangaben  Zeitdauern z.B. zwischen T1 und T2  Transformieren  Assistent für Datum und Uhrzeit  Berechnen mit Datums- und Zeitwerten durchführen  Berechnen der Anzahl der Zeiteinheiten…  Daten eingeben (späteres zuerst!)  neue Variable benennen Variablen umkodieren  zum Beispiel: Überführung von Alter bei Erkrankung in kategoriale Variable  Transformieren  Umkodieren in eine andere Variable  Variablenlabels müssen nachträglich eingefügt werden  Syntax  neue Variable, die anzeigt, ob Wert fehlt o Transformieren  Umkodieren in eine andere Variable  erfassen manche Items positive und andere negative Verhaltensweisen, muss eine Art umgekehrt/rekodiert werden o Transformieren  Umkodieren in eine andere Variable o für jede Variable einzeln, sehr umständlich  schneller mit Syntax Count-Funktion  Auftreten eines/mehrerer bestimmter Fälle kann fallweise gezählt werden  Transformieren  Werte in Fällen zählen  Variablen eingeben die gezählt werden sollen und Werte deren Auftreten gezählt werden soll definieren  Syntax: Deskriptive Statistiken  dazu zählen etwas: arithmetisches Mittel, Median, Modus, Varianz, Standardabweichung, Schiefe, Exzess….  Analysieren  Deskriptive Statistiken  Deskriptive Statistiken/Häufigkeiten/Explorative Datenanalyse  Mittelwert, Minimum und Maximum  Minimum/Maximum nach Geschlecht getrennt  Quantile, Schiefe und Kurtosis  minimaler, maximaler, durchschnittlicher z-Wert  Analysieren  Deskriptive Statistiken  Deskriptive Statistiken, dort „Standardisierte Werte als Variable speichern“ anklicken, für diese z-Werte dann wiederum Deskriptive ausgeben lassen Überprüfung von Verteilungsannahmen  wichtige Verteilung z.B. Gleichverteilung, Normalverteilung  Prüfung durch  deskriptive Statistiken  Plots / Prüfung durch Augenschein  statistische Tests Signifikanztestung  getestet werden statistische Hypothesen (Aussagen über eine Population)  bei einem statistischen Test werden 2 Hypothesen unterschieden  die Nullhypothese, symbolisiert durch H0 (kein Unterschied)  die Alternativhypothese, symbolisiert durch H1 (Unterscheid besteht)  Null- und Alternativhypothese schließen sich wechselseitig aus, d.h. sie können nicht gleichzeitig gelten  zur Prüfung der Hypothese wird der Wert einer Statistik berechnet (empirischer Wert)  fällt dieser Wert in einen Bereich, der bei Gültigkeit der Nullhypothese unwahrscheinlich ist, entscheidet man sich gegen die Nullhypothese (verwirft sie) und nimmt stattdessen die Alternativhypothese an  Wahrscheinlichkeit, ab der man die Nullhypothese ablehnt, heißt Signifikanzniveau (auch α-Niveau)  üblicherweise auf 5% oder 1% festgelegt  „unwahrscheinlich“ ist jedoch nicht „unmöglich“  SPSS gibt für Signifikanztests p-Wert an  p-Wert  Irrtumswahrscheinlichkeit  Wie wahrscheinlich ist das beobachtete Ereignis (der empirische Wert) unter der Bedingung, dass die Nullhypothese zutrifft?  für die Testentscheidung müssen diese mit dem (von uns) gesetzten α-Niveau verglichen werden:  Ist p < α so wird die Nullhypothese verworfen  Ist p > α wird die Nullhypothese beibehalten  Wichtig: Immer im Hinterkopf behalten, welche Hypothesen gerade getestet werden! (und welche die Wunschhypothese ist) Merke: signifikant: unter 5%  H0 wird verworfen nicht signifikant: über 5%  H0 wird beibehalten Signifikanz = Irrtumswahrscheinlichkeit  Irrtumswahrscheinlichkeit H0 zu verwerfen, obwohl sie richtig ist !!! Prüfung auf Gleichverteilung  deskriptiv: Werte sollen in jeder Kategorie (etwas) gleich häufig vorkommen  visuell: Histogramm , Balken sollten (etwa) gleich hoch sein  statistische Tests: Binominaltest, Chi-Quadrat-Test, KS-Test auf Gleichverteilung  kategoriale Variable mit mind. 2 Ausprägungen   Binominal-Test auf Gleichverteilung o Besteht ein signifikanter Unterschied zwischen den Häufigkeiten der beiden Merkmalsausprägungen? o z.B. Geschlecht im Datensatz Musikfestival Analysieren  Nichtparametrische Tests Alte Dialogfelder  Binominal  kategoriale Variable mit mind. 3 Ausprägungen   Chi-Quadrat-Test auf Gleichverteilung o Unterscheiden sich beobachtete und erwartete Häufigkeiten bei nominalskalierten Variablen signifikant voneinander? o Bsp. 3000 x Würfeln (Datensatz: Wuerfel.sav) 2 Schritte, da hier Werte und deren Häufigkeiten als Fälle angegeben sind: o Daten  Fälle gewichten  n als Gewichtungsvariable eingeben o Analysieren  Nichtparam. Tests  Alte Dialogf. Chi-Quadrat  stetige Variablen  K-S-Test auf Gleichverteilung o Analysieren  Nichtparametrische Tests  Alte Dialogfelder  K-S bei einer Stichprobe  „Testverteilung“: Gleichverteilung Exakte Tests  im Menü unter „Exakt“ 3 Möglichkeiten:  nur asymptotisch (Voreinstellung bei SPSS) o Sinnvoll bei großen Stichproben o nimmt eine bestimmte Verteilung für die Statistik an (hier die Chi-QuadratVerteilung)  Exakt o SPSS kann die Irrtumswahrscheinlichkeit auch genau berechnen o ohne Verteilungsannahmen o ABER: je größer die Stichprobe, desto komplexer ist die Berechnung und desto länger braucht SPSS (Zeitlimit)  Monte Carlo o Alternative zu exakte Tests (wenn Stichprobe zu groß) o nimmt eine ähnliche Verteilung wie in der Stichprobe, zieht daraus viele Stichproben (Voreinstellung: 10 000), aus denen dann die Signifikanz einschließlich Konfidenzintervall berechnet wird Prüfung auf Normalverteilung  deskriptiv  M, Md, Mo fallen ungefähr zusammen  Exzess/Kurtosis innerhalb [-1;1]  Schiefe innerhalb [-.5;.5] o Exzess und Schiefe besser über z-Werte beurteilen:  Kriterium für „Signifikanz“ (Normalverteilung nicht gegeben) o In kleinen Stichproben: 1.96 (p<.05) o In mittleren Stichproben: 2.58 (p<.01) o In großen Stichproben: 3.29 (p<.001)  visuell  Histogramm mit überlagerter Normalverteilungskurve  Boxplot  Q-Q-Diagramm  statistische Tests   KSA-Test: Kolmogorov-Smirnov-Anpassungstest auf NV o testet die empirisch ermittelten Werte gegen die bei einer NV zu erwartenden Werte o Annahme: Populationsstreuung und -mittelwert sind bekannt o Normalfall: beides ist nicht bekannt, muss aus den Daten geschätzt werden  in dem Fall Lilliefors-Korrektur anwenden signifikanter p-Wert spricht für die Abweichung von der NV-Annahme (H0: Normalverteilung liegt vor Wunschhypothese)  zu beachten vor allem bei großen Stichproben:  KSA-Test ist stichprobengrößensensitiv o deshalb nicht geeignet für große Stichproben (N > 200) o da er dann bereits bei relativ unbedeutenden Abweichungen von der Normalverteilung signifikant wird!  nie nur auf den KSA-Test verlassen, immer Diagramme und deskriptive Statistiken anschauen  2 Wege zum KSA-Test in SPSS:  Analysieren  Nichtparametrische Tests  Alte Dialogfelder K-S bei einer Stichprobe „Testverteilung“: Normalverteilung o nicht zu empfehlen, da keine Lilliefors-Korrektur  Analysieren  Deskriptive  Explorative Datenanalyse  unter Diagramme „Normalverteilungsdiagramme mit Test“ anklicken o hier wird Lilliefors-Korrektur angewandt  über diesen Pfad auch Q-Q-Plots (Quantil-Quantil-Plot: Quantile der Variablen werden gegen die Quantile der Normalverteilung abgetragen  Punkte sollten auf der Diagonalen liegen)  Beispiel für Stichprobengrößensensitivität Transformationen  Transformationen beheben starke Abweichungen von der Normalverteilung  nicht nur eine, sondern alle Variablen transformieren  da ursprüngliche Skalierung verloren geht  besonders kritisch für Mittelwertsvergleiche (!)  je nach Verteilung der ursprünglichen Variable sind  verschiedene Transformationen möglich  Transformieren  Variable berechnen  Transformieren  Variable berechnen Arten von Hypothesen  Zusammenhangshypothesen  Gibt es Zusammenhänge zwischen zwei oder mehr Variablen?  Lässt sich eine Variable durch eine oder mehrerer andere Variablen vorhersagen?  Unterschiedshypothesen  Gibt es Unterschiede zwischen mindestens zwei Gruppen in Bezug auf eine oder mehrere Variablen? Unterschiedshypothesen  Wahl des Verfahrens ist abhängig vom Skalenniveau Verfahren für Intervalldaten  Unterscheiden sich zwei Gruppenmittelwerte?  unabhängige Stichprobe  Vergleichsgruppen bestehen aus unterschiedlichen Fällen, die unabhängig voneinander aus ihren Grundgesamtheiten gezogen werden  abhängige (gepaarte) Stichprobe  Vergleichsgruppen bestehen aus denselben Untersuchungseinheiten, bei denen bestimmte Variablen mehrfach erhoben wurden ODER die Untersuchungseinheiten der Gruppen wurden nicht unabhängig erhoben (z.B. Mutter und Vater)  Hypothesen  (µ=Erwartungswert)  ungerichtet = Unterschied  gerichtet = z.B. besser/schlechter  t-Test für unabhängige Stichproben  jede Person nimmt nur an einer der zwei Experimentalbedingungen teil (d.h. Messwerte = unabhängig)  Voraussetzungen 1. Unabhängigkeit der Stichproben und somit der Werte 2. mindestens Intervalldatenniveau 3. Normalverteilung der Stichprobenkennwerte (nicht der Daten) 4. Varianzhomogenität  zu 3. : o nicht Daten an sich müssen normalverteilt sein, sondern Stichprobenkennwerte (hier Mittelwerte) o mit Hilfe der Daten und des zentralen Grenzwerttheorems werden Rückschlüsse auf die Erfüllung gezogen  Daten normalverteilt  Stichprobenkennwerteverteilung normal  bei großen Stichproben (>30): Stichprobenkennwerteverteilung normal, wenn Daten nicht normalverteilt o zentrales Grenzwerttheorem:  Theorem das besagt, dass die Stichprobenkennwerteverteilung des Mittelwertes eine Normalverteilung um den Populationsmittelwert bildet  Stichprobenkennwerteverteilung: aus einer Population werden wiederholt gleichgroße Stichproben gezogen, dann wird die Verteilung z.B. des Mittelwerts betrachtet  zu 4: o o Varianz der AV ist für alle getesteten Gruppen gleich groß Levene-Test  prüft, ob die Varianzen der Gruppen sich unterscheiden o H0: Varianzen sind gleich o H1 : Varianzen sind nicht gleich  Test signifikant = Varianzen nicht homogen = Voraussetzung ist nicht erfüllt  berichten: o Die Varianzen der Variable X waren für die verschiedenen Gruppen gleich, F(df1,df2)= Wert der Levene Statistik, n.s. o Die Varianzen der Variable Y waren für die verschiedenen Gruppen unterschiedlich, F(df1,df2)= Wert der Levene Statistik, p<.05.  Wobei:  df1= Anzahl der Gruppen - 1  df2= Anzahl der TN - Anzahl der Gruppen  Durchführung des Tests o Beispiel: 12 Arachnophobiker spielen mit Spinne, 12 sehen Bilder, Messung der Angst o Analysieren  Mittelwerte vergleichen  t-Test bei unabhängigen Stichproben  Testvariable Anxiety, Gruppenvariable Group (diese mit 0 und 1 definieren) o o zunächst Prüfung der Voraussetzung der Varianzhomogenität (Levene-Test)  Bericht: Die Varianzen der Variable Anxiety waren für die beiden Gruppen gleich, F(1,10)= 0,782, n.s. es werden 2 t-Test Varianten angegeben o o o  SPSS testet zweiseitig: wenn einseitige Signifikanz gesucht ist p-Wert durch 2 teilen !! Testbericht bei zweiseitiger/einseitiger Testung o Durchschnittlich zeigten Teilnehmer beim Anblick einer echten Spinne größere Angst (M= 47.00, SE= 3.18) als beim Anblick eines Spinnenbildes (M= 40.00, SE= 2.68). o Dieser Mittelwertsunterschied erwies sich nicht als signifikant t(22)= -1.68, p>.05 /p=.107 (zweiseitig)/p=.054 (einseitig)  t-Test für abhängige Stichproben  alle Personen nehmen an beiden Experimentalbedingungen teil (d.h. Messwerte sind abhängig  Voraussetzungen: o mindestens Intervalldatenniveau o Normalverteilung der Stichprobenkennwerte (nicht der Daten)  hier: der mittleren Differenzen  in kleinen Stichproben: o Diese Differenz für jede Person berechnen (Messung1 Messung2) o Differenz auf Normalverteilung prüfen  Durchführung des Tests o 12 Arachnophobiker spielten mit Tarantel und sahen Bilder derselben, Messung der Angst o Analysieren  Mittelwerte vergleichen  t-Test bei verbundenen Stichproben  Variablenpaar „picture“ und „real“ als gepaarte Variablen o einzelne Werte, Mittelwerte und Standardabweichungen der einzelnen Messungen sind identisch mit denen der unabhängigen Messungen, stammen aber jeweils von den gleichen Personen  Ergebnisbericht bei zweiseitiger/einseitiger Testung: o Die Teilnehmer zeigten beim Anblick einer echten Spinne signifikant größere Angst (M= 47.00, SE= 3.18) als beim Anblick eines Spinnenbildes (M= 40.00, SE= 2.68), t(11)= -2.47, p<.05 /p=.031 (zweiseitig)/p= .016 (einseitig).  bei Verletzung der Voraussetzungen  Normalverteilung: o mehr Versuchspersonen rekrutieren o evtl. Variablen transformieren  Varianzhomogenität: o Test für ungleiche Varianzen interpretieren  Alternativ: auf Tests für ein niedrigeres Datenniveau ausweichen o T-Test für abhängige Stichproben  Wilcoxon-Test o T-Test für unabhängige Stichproben  Mann-Whitney U-Test Verfahren für Ordinaldaten  beide Tests basieren auf dem Vergleich von Rangplätzen  unterscheiden sich die gemittelten rangpostionen von zwei  Mann-Whitney-U-Test für unabhängige Stichproben   jede Person nimmt nur an einer der Experimentalbedingungen teil (d.h. Messwerte sind unabhängig) Unterscheiden sich die gemittelten Rangpositionen von zwei unabhängigen Gruppen?  Durchführung des Tests o Beispiel: Auswirkung von Drogen auf Stimmung/Depression, Ecstasy vs. Alkohol o Ränge bilden o o o o o o o o o o o o o o o o o o zur Veranschaulichung vorher deskriptive Statistiken ausgeben lassen, Modus und Median vergleiche, anschließend Aufteilung der Datei wieder entfernen Analysieren  Nichtparametrische Tests  Alte Dialogfelder  Zwei unabhängige Stichproben  BDI_SO und BDI_MI als Testvariablen, Droge als Gruppenvariable (Gruppen mit 1 und 2 definieren)  bei kleiner Stichprobe exakte Testung möglich        Ergebnisbericht (zweiseitige Fragestellung) o Am Tag nach dem Konsum unterschieden sich die Depressionswerte der Personen, die Ecstasy genommen haben (Md=17.50) nicht signifikant von den Personen, die Alkohol getrunken haben (Md=16.00), U=35.50, z=-1.10, n.s./p>.05. Am Mittwoch waren die Ecstasy-Konsumenten (Md=33.50) jedoch signifikant depressiver als die Alkohol-Konsumenten (Md=7.50) , U=4.00, z=-3.48, p<.05.  andere nonparametrische Tests für unabhängige Stichproben o Kolmogorov-Smirnov-Z: Prüft, ob zwei Stichproben aus der gleichen Population gezogen wurden, vergleichbar mit dem Mann-Whitney-U-Test, hat bei kleineren Stichproben (<25 pro Gruppe) größere Power o Extremreaktionen nach Moses: Vergleicht die Variabilität der Werte in den zwei Gruppen o Wald-Wolfowitz-Sequenzen: Variante des Mann-Whitney-Test. Prüft, ob es in der Rangreihe fortlaufende Sequenzen von Werten aus einer Gruppe gibt  Wilcoxon-Test für abhängige Stichproben    alle Personen nehmen an allen Experimentalbedingungen teil (d.h. Messwerte sind abhängig) betrachtet die Differenzen von Messwertpaaren (ähnlich t-Test) Durchführung des Tests o Differenzen d berechnen o Differenzen sortieren o Nulldifferenzen entfernen. n ist die Anzahl der übrig bleibenden Differenzen o Rangreihe der Absolutbeträge der Differenzen bilden. Die kleinste erhält Rangplatz 1. Bei Rangbindungen das Verfahren der Durchschnitte verwenden o Berechne die Summe der Rangplätze mit negativem Vorzeichen und die Summe der Rangplätze mit positivem Vorzeichen. T ist die kleinere der beiden Rangsummen. o SPSS wandelt T in einen z-Wert um und gibt den p-Wert aus o o um Analyse für beide Gruppen getrennt durchzuführen, Datei zuvor aufteilen (über Daten Datei aufteilen  Gruppen vergleichen). Analysieren  Nichtparametrische Tests  Alte Dialogfelder  Zwei verbundene Stichproben  BDI_SO und BDI_MI als Testpaar einfügen  Ergebnisbericht (zweiseitig) o Für Ecstasy-Konsumenten waren die BDI Werte am Mittwoch (Md=33.50) signifikant höher als am Sonntag (Md=17.50), T=0/z=-2.53, p<.05/p=.008. o Für Alkohol-Konsumenten waren die BDI Werte am waren die BDI Werte am Mittwoch (Md=7.50) signifikant niedriger als am Sonntag (Md=16.00), T=8/z=-1.99, p<.05/p=.045  andere nonparametrische Tests für abhängige Stichproben o Vorzeichentest: Betrachtet nur die Richtung, jedoch nicht die Größe der Differenz  wenig Power o McNemar: Für Nominaldaten (dichotom)  betrachtet Kategorienwechsel o Rand-Homogenität: Erweiterung des McNemar für Ordinaldaten Verfahren für Nominaldaten  Binominaltest und χ2-Einzeltest    auch bei Prüfung auf Gleichverteilung Analysieren  Nichtparametrische Tests  Alte Dialogfelder  Binominal bzw. ChiQuadrat  Testvariablen eingeben kann jeweils die erwartete Verteilung (unter Annahme der H0) angegeben werden (oft ist das die Gleichverteilung) o Binominaltest: „Testanteil“ gibt relative Häufigkeit der ersten Kategorie wider o χ2-Einzeltest : Relative Häufigkeiten können als „Erwartete Werte“ eingegeben werden  4-Felder- χ2-Test  Vergleich zweier zweifach gestufter Merkmale  Voraussetzungen o Unabhängigkeit der Daten  jede Person taucht nur in einer Zelle auf  d.h. 4-Felder χ² kann nicht an Messwiederholungsdaten durchgeführt werden  McNemar Test o erwartete Häufigkeit pro Zelle sollte immer > 5 sein  Durchführung des Tests o Beispiel: Katzen das Tanzen beibringen mit Streicheln oder Futter als Belohnung o Darstellung der Daten in eine Kreuztabelle/Kontingenztabelle o o Analysieren  Deskriptive Statistiken  Kreuztabellen  o o standardisierte Residuen geben Unterschied zwischen beobachteten und erwarteten Häufigkeiten in Form von z-Werten wieder  Vergleich mit kritischen z-Werten (z.B. 1,96) zeigt, welche Residuen signifikant sind  im Beispiel fallen beide Residuen der Futterbedingung auf Ergebnisbericht  Es zeigte sich ein signifikanter Zusammenhang zwischen der Art des Trainings und der Tanzfähigkeit χ²(1)= 25.36, p< .001.  k*l – χ2 –Test    entspricht dem 4-Felder-χ2-Test kategoriale Variablen sind jedoch nicht nur zweistufig, sondern mehrstufig Auch hier kann der exakte Fisher-Test als Alternative genutzt werden, wenn die erwarteten Zellenhäufigkeiten gering sind o muss unter „Exakt“ ausgewählt werden o bei großen Stichproben dauern exakte Tests sehr lang oder können nicht berechnet werden Prüfen von Zusammenhängen Lineare Regression  Definition Regression:  Vorhersage einer Variablen (Kriterium) aufgrund einer oder mehrerer anderer Variablen (Prädiktoren) o Prüfung von Kausalhypothesen o sowohl Prädiktoren als auch Kriterien sind intervallskaliert  Einfache Regression  1 Kriterium wird durch 1 Prädiktor vorhergesagt  Multiple Regression:  1 Kriterium wird durch mehrere Prädiktoren vorhergesagt  typische Fragestellung einer einfachen linearen Regression:  Wie wirkt sich der Prädiktor (z.B. Arbeitszufriedenheit) auf das Kriterium (z.B. Arbeitsleistung) aus? Kriterium (z.B. Arbeitsleistung) aus? o „Stärke“ des Zusammenhangs  Korrelation  ABER: Korrelation ≠ Kausalität o Zusammenhänge können auch durch andere Einflüsse verursacht werden! (z.B.: Storchensichtungen und Anzahl der Schwangerschaften)  linearer Zusammenhang zweier Variablen lässt dich in einem Streudiagramm darstellen  Regression ist der Versuch, eine Gerade durch die Punktewolke zu legen, für die die Summe der quadrierten vertikalen Abstände von den einzelnen Messpunkten minimiert wird o Minimierung der Vorhersagefehler  hinter der Regressionsgeraden steht ein Modell, das den (linearen) Zusammenhang zwischen Prädiktor und Kriterium beschreiben soll  Einfache lineare Regression  bei standardisierter Form: o β1  b1 (liegt im Bereich von -1 bis +1) o b0  verschwindet, da standardisierte Gerade durch den Ursprung führt Lineare Regression: Güte des Modells  Wie gut passt das Modell auf die Daten?  Determinationskoeffizient R2   im Falle der einfachen Regression entspricht R2 der quadrierten Korrelation zwischen Prädiktor und Kriterium QS = Quadratsumme: quadrierte, über alle Fälle aufsummierte Abweichung … o … der beobachteten y-Werte vom Mittelwert y  QSTotal o … der vorhergesagten y- Werte vom Mittelwert y  QSRegression o … der beobachteten y-Werte von den vorhergesagten  QSResiduum  F-Test der linearen Regression  wenn signifikant: Vorhersage durch den Prädiktor ist besser als eine Vorhersage durch den Mittelwert des Kriteriums  Bewertung der Prädiktoren (bei einfacher Regr.: des Prädiktors)  wenn signifikant: Regressionsgewicht des Prädiktors ungleich Null und der Prädiktor trägt bedeutsam zur Vorhersage bei Lineare Regression: Voraussetzungen  Linearität des Zusammenhangs zwischen Prädiktor und Kriterium  Prüfung der Linearität: o Betrachten des Streudiagramms o hoher Anteil der erklärten Variation spricht für linearen Zusammenhang  Homoskedastizität: Varianz der Residuen muss auf jedem Level des Prädiktors gleich sein  Normalverteilung der Residuen  Unabhängigkeit der Residuen  Prüfung der Annahmen bzgl. der Residuen o QQ-Plot der Residuen o Histogramm der Residuen mit überlagerter NV-Kurve o Scatterplot: standardisierte Residuen vs. standardisierte vorhergesagte Werte (Residuen sollen unsystematisch um horizontale Nulllinie schwanken) Lineare Regression in SPSS  Beispiel: Anzahl Plattenverkäufe soll aus Werbebudget vorhergesagt werden  Analysieren  Regression Linear o Record Sales als AV (Kriterium) o Advertising Budget als UV (Prädiktor)  zur Prüfung der Annahmen bzgl. Residuen  Diagramme o Streudiagramm mit ZRESID auf Y-Achse, ZPRED auf X-Achse o Unter „Diagramme der standardisierten Residuen“ Histogramm anklicken o o  Regressionskoeffizient B unstandardisiert  (Konstante) b0  Advertising Budget  b1 Standardisierte Koeffizienten Beta  Advertising Budget β1 Bewertung des Prädiktors: t-Test o Der t-Test für den Prädiktor ist signifikant, sein Regressionsgewicht unterscheidet sich signifikant von Null o SPSS gibt auch einen Test aus, der die Konstante (Achsenabschnitt) darauf testet, ob sie sich von Null unterscheidet für uns irrelevant! o Residuen streuen im linken Teil stärker um die Nulllinie als im rechten  spricht gegen Homoskedastizität  Lineare Regression berichten  in Tabellenform  Regressionsgleichung aufstellen Einfaktorielle Varianzanalyse  Prüfung von Unterschiedshypothesen bei mehr als 2 Gruppen (anstelle des t-Tests für unabhängige Stichproben)  Arten von Varianzanalysen:  Einfaktoriell: 1 Faktor/UV/Gruppierungsvariable  Zwei- bzw. mehrfaktoriell: 2 oder mehr UVs  Prüfen von Haupt- und Interaktionseffekten  Kovarianzanalyse: Berücksichtigung eines weiteren (metrischen) Einflussfaktors  Mit Messwiederholung: Berücksichtigung wiederholter/abhängiger Messungen  Multivariate Varianzanalyse: Berücksichtigung mehrerer AVs  Warum beim Vergleich von mehreren Gruppen nicht mehrere t-Tests rechnen?  Wahrscheinlichkeit für einen Fehler 1. Art würde sich für die gesamte Testung erhöhen!  Bsp.: 3 Gruppen mit 3 t-Test vergleichen o Für jeden Test ist die Wahrscheinlichkeit, einen Fehler 1. Art zu machen 5%, die Wahrscheinlichkeit für keinen α-Fehler beträgt 95% o Wie groß ist die Wahrscheinlichkeit, bei drei (unabhängigen) Tests mindestens einen α-Fehler zu machen?  P (kein α-Fehler) = 0.95 x 0.95 x 0.95 = 0.953 = 0.857  P (mind. 1 α-Fehler) = 1-P(kein α-Fehler) = 1-0.857 = 0.143  Die Wahrscheinlichkeit beträgt 14,3%! o Familywise Error Einfaktorielle ANOVA - Grundprinzip  ANOVA (analysis of variance) vergleicht Varianzen (mit dem Ziel, Mittelwertsunterschiede zwischen den Gruppen zu finden)  Varianz = Quadratsumme / Freiheitsgrade  Gesamtvarianz = Treatment- + Fehlervarianz  Treatmentvarianz (Varianz zwischen den Gruppen): Abweichung der Faktorstufenmittel vom Gesamtmittel  Fehlervarianz (Varianz innerhalb der Gruppen): Abweichung der Einzelwerte vom Faktorstufenmittel  F-Test prüft, ob Treatmentvarianz signifikant größer ist als Fehlervarianz (in dem Fall: Gruppenmittelwerte unterscheiden sich, Treatment wirkt)  Beispiel: o Ein neues Medikament zur Behandlung von Depressionen wurde getestet. Gruppe 1 bekam ein Placebo (Kontrollgruppe). Gruppe 2 bekam die einfache Dosis, Gruppe 3 die doppelte Dosis. Abhängige Variable sind die Werte in einem Depressionsfragebogen (hohe Werte = stark ausgeprägte Depression).  F-Test zeigt an, ob es einen Unterschied zwischen den untersuchten Gruppen gibt  zeigt jedoch nicht an, welche Gruppen sich konkret voneinander unterscheiden  dafür weitere Analysen: o Geplante (a priori) Kontraste  Wenn vorher bereits spezifische Hypothese vorliegen  Anstelle der ANOVA o Post hoc Tests  Alle Gruppen werden miteinander verglichen, jedoch können hier Korrekturen angewandt werden, damit der familywise error .05 niemals übersteigt  A-Priori-Kontraste   Kontraste vergleichen bestimmte Gruppen/Sets von Gruppen und teilen die Treatmentvarianz dadurch in verschiedene Anteile auf Es werden 2 grundlegende Arten von Kontrasten unterschieden o Orthogonale Kontraste  Die Treatmentvarianz wird in unabhängige Teile aufgeteilt o Nicht orthogonale Kontraste    Die Teile an Treatmentvarianz, die durch die Kontraste aufgeklärt werden, überschneiden sich teilweise Orthogonale A-Priori-Kontraste  Konstruktionsregeln: o Anzahl der Kontraste ist Anzahl der Gruppen -1 o Die Varianz wird in unabhängige Teile aufgeteilt, d.h. wurde eine Gruppe herausgegriffen, kann sie in keinen weiteren Kontrasten auftauchen o Jeder Kontrast vergleicht nur 2 Varianzteile o Gruppen mit positiven Gewichten werden mit Gruppen mit negativen Gewichten verglichen o Das Gewicht, der Gruppe(n) eines Varianzanteils = Anzahl der Gruppen im zu vergleichenden Varianzanteil o Gruppen, die nicht im Kontrast vertreten sind, bekommen das Gewicht 0 o Die Summe der Gewichte in einem Kontrast ist 0 o o Tabelle hilfreich für Eingabe in SPSS Bei orthogonalen Kontrasten muss  jede Kontrastsumme = 0 sein und  die Summe der Kontrastprodukte = 0 sein  Nicht-orthogonale A-Priori Kontraste o bei nicht-orthogonalen Kontrasten muss  jede Kontrastsumme = 0 sein  die Summe der Kontrastprodukte ist jedoch ≠0  polynomiale A-Priori Kontraste  Post hoc Tests    Nachdem der F-Test signifikant wurde vergleicht jede Gruppe mit jeder anderen, sollte darum den α-Fehler kontrollieren SPSS bietet viele verschiedene Post hoc Tests an: o Nach Field (2009) sind bei gleichen Stichproben und gleichen Varianzen R-EG-W-Q und Tukey gut (gute Power, enge Kontrolle über Typ-I-Fehler) o Garantierte Kontrolle über den Fehler 1. Art liefert Bonferroni, ist aber sehr konservativ o Bei leicht unterschiedlichen Gruppengrößen: Gabriel o Bei sehr unterschiedlichen Gruppengrößen: Hochberg‘s GT2 o Bei unterschiedlichen Varianzen: Games-Howell Einfaktorielle ANOVA in SPSS  Voraussetzungen  Intervallskalierung der AV o Unabhängigkeit der Messungen  Normalverteilung der AV  innerhalb der Gruppen o Prüfen, wenn einzelne Gruppen mit ca. n < 30 besetzt sind(Diagramme, Schiefe, Exzess, KSA-Test) o bei gleicher Gruppengröße ist ANOVA recht robust  Varianzhomogenität durch Levene-Test prüfen (wird in SPSS mit ausgegeben)  Ausführung  Analysieren  Mittelwerte vergleichen  Einfaktorielle ANOVA o UV (Faktor) = Dosis o AV = Leistung o unter Optionen: Deskriptive, Levene-Test o Levene-Test  p=.913 kleiner als α =.05  Test ist nicht signifikant  H0 wird beibehalten  Varianzen sind homogen o wenn Varianzen nicht homogen  bei gleich Stichproben robust gegenüber fehlender Varianzhomogenität  Alternativ Welch‘s F berichten (besser als Brown-Forsythe F) o o o  Zwischen den Gruppen = Treatment Innerhalb der Gruppen = Fehler Der F-Test ist signifikant (p=.025/p<.05), die Gruppen unterscheiden sich voneinander Welche Gruppen unterscheiden sich?  Post-hoc-Test o o  Jede Gruppe wird mit jeder verglichen Je nach Test wird der p-Wert auf unterschiedliche Art für die multiplen Tests angepasst Hier: Nur der Unterschied zwischen Placebo und hoher Dosis ist signifikant! Ergebnisbericht o Es ergab sich ein signifikanter Effekt des Medikamentes auf die Leistung in einem Test, F(2,12) = 5.12, p= .25. o Der Post-hoc-Vergleich nach Tukey zeigte, dass die Placebo- Gruppe (M=2.20, SE=0.58) sich von der Gruppe mit hoher Dosis (M=5.00, SE=0.71) unterschied (p=.021), nicht jedoch von der Gruppe mit niedriger Dosis (M=3.20, SE=0.58)(p>.05). Die niedrige Dosis und die hohe Dosis unterschieden sich ebenfalls nicht signifikant voneinander (p>.05).  Ausführung von Kontrasten  Durchführung von Kontrasten bietet sich an, wenn man zwar Vermutungen hat die ANOVA aber noch nicht ausgeführt hat  Über den Pfad „Mittelwerte vergleichen“ müssen die Kontraste von Hand entsprechend der Tabelle eingegeben werden: o Koeffizienten (Gewichte) nach Reihenfolge der Gruppen (Kodierung beachten) eingebe o Für einen weiteren Kontrast auf „Weiter“ klicken    Bei zweiseitiger Testung (ungerichtete Hypothese) ist nur der erste Kontrast signifikant Da hinter den Kontrasten im Beispiel gerichtete Hypothesen stehen, kann man auch einseitig testen, dann ist auch der zweite Kontrast signifikant (p-Wert durch 2 teilen p=.033) Ergebnisbericht o Die geplanten Kontraste deckten auf, dass die Einnahme des Medikamentes verglichen mit der Einnahme eines Placebos Leistung signifikant steigert, t(12)= 2.47, p=.015 (einseitig/ 1-tailed). Die Einnahme einer hohen Dosis steigerte Leistung signifikant im Vergleich mit der Einnahmen einer niedrigen Dosis, t(12)= 2.03, p=.033 (einseitig/ 1-tailed).  weitere Möglichkeit Kontraste ausgeben zu lassen  Analysieren  Allgemeines lineares Modell  Univariat o Hypothesen entsprechen dem Helmert-Kontrast (nach Auswahl auf „ändern“) o Ergebnisse werden anders dargestellt, Signifikanzen sind jedoch gleich Zweifaktorielle Varianzanalyse  Datenbeispiel: Beeinflusst Alkohol die Einschätzung physischer Attraktivität und gibt es da einen Unterschied zwischen Männern und Frauen?  Je 24 Frauen und Männer tranken unterschiedliche Mengen Alkohol (kein Bier, 2 Bier, 4 Bier).  Im Anschluss wurde ihre Attraktivität durch 100 andere Personen bewertet (AV: höherer Wert  attraktiver).  2x3 Design [UVs: Geschlecht (2); Alkohol(3)]  AV: Attraktivitätsrating der Person (durch 100 andere Pers.)  systematische Varianz in diesen Daten setzt sich zusammen aus der Varianz, die aufgeklärt wird durch: o Geschlecht (2 Gruppen): Männer und Frauen o Alkohol (3 Gruppen): kein Bier, 2 Bier, 4 Bier o Interaktionseffekt von Geschlecht und Alkohol: Männer ohne Bier, Männer mit 2 Bier, … , Frauen mit 4 Bier Interaktionseffekte  Effekt, der allein dadurch entsteht, dass die Probanden unterschiedlichen Versuchsbedingungs-Kombinationenzugeteilt sind  Größe des Effekts des einen Faktors ist abhängig von der Stufe des anderen Faktors  3 Typen von Interaktionen: Typ lässt sich mithilfe von Interaktionsdiagrammen erkennen  ordinale Interaktion   Graphen verlaufen in beiden Diagrammen gleichsinnig (sie schneiden sich nicht) sind Haupteffekte signifikant, können sie global interpretiert werden o Personen ohne Alkohol werden immer als attraktiver eingestuft o Männer werden immer als attraktiver eingestuft als Frauen  disordinale Interaktion    Graphen verlaufen in beiden Diagramm gegensinnig Haupteffekte können nicht global interpretiert werden Ausprägung des Faktors B immer bei Interpretation des Effekts des Faktors A berücksichtigen  hybride Interaktion   Graphen verlaufen in einem Diagramm gleichsinnig, im anderen nicht lediglich der Haupteffekt mit gleichsinnigen Graphen kann global interpretiert werden o Hier der Haupteffekt von A: A1 ist immer (auf jeder Stufe von B) höher als A2 Zweifaktorielle ANOVA  Voraussetzungen (wie bei einfaktorieller)  Intervallskalierung der AV  Unabhängigkeit der Messungen  Normalverteilung der AV innerhalb der Gruppen  Varianzhomogenität  Durchführung des Tests  für einen ersten Überblick Balkendiagramme o Gruppierte Balkendiagramme (zwei Diagramme möglich)  mit dem Mittelwert der Attraktivität auf der Y-Achse  Alkohol und Geschlecht auf XAchse bzw. als Clustervariable  Analysieren  Allgemeines lineares Modell  Univariat o AV: Attraktivität o Feste Faktoren: Geschlecht & Alkohol Konsum  Fester Faktor: alle Bedingungen, an denen der Forscher interessiert ist, wurden im Experiment realisiert o Bsp. Alkohol: kein Bier, 2 Bier, 4 Bier o Nur für diese Bedingungen können die Ergebnisse generalisiert werden, nicht auf andere Bedingungen (z.B. 3 Bier) Zufallsfaktor: Die Bedingungen, die im Experiment realisiert wurden, stellen eine Zufallsauswahl der möglichen (interessierenden) Treatmentbedingungen dar o Ergebnisse können über die untersuchten auch auf andere Bedingungen generalisiert werden   Schaltfläche „Diagramme“ (liefert Interaktionsdiagramme) o bei zwei Faktoren sind 2 Diagramme möglich:  jeweils 1 Faktor auf „Horizontale Achse“ und „Separate Linien“  „Hinzufügen“ klicken, dann umgekehrt  Post-hoc Tests o nur für Faktoren mit >2 Stufen sinnvoll (hier: Alkohol)  Die angeforderten Tests, Diagramme und Optionen lassen sich in der Syntax wiederfinden POSTHOC (-Tests), PLOT (Diagramme), PRINT(Optionen) DESIGN gibt an, dass beide Haupteffekte und die Interaktion auf Signifikanz getestet werden o Gesättigtes Modell (alle möglichen Effekte werden geprüft) Levene Test: Es werden alle 6 Gruppen (2x3 Bedingungen) verglichen o p=.202 >.05 Test ist n.s. (Voraussetzung erfüllt)    o Post-hoc Test nur interpretieren, wenn entsprechender Haupteffekt signifikant  Der Unterschied zwischen kein Bier und 4 Bier und zwischen 2 Bier und 4 Bier ist signifikant (nicht jedoch kein Bier zu 2 Bier) o Interaktionsdiagramme: hybride Interaktion, linkes Diagramm gleichsinnig, rechtes nicht o Simple Effects  aus Post-hoc-Tests lässt sich ablesen, welche Gruppen sich unterscheiden, jedoch nur Haupteffekte  Simple Effects Analysen können die Interaktion näher untersuchen (nur über die Syntax):   prüft für jede Faktorstufe von „Alkohol“, ob es einen Geschlechtseffekt gibt jedoch ohne α-Fehler-Adjustierung kann nachträglich „von Hand“ vorgenommen werden  nur bei 4 Bier Unterschied zwischen Männern und Frauen  Ergebnisbericht o Es gab einen signifikanten Haupteffekt der Alkoholmenge auf die Attraktivität des gewählten Partners, F(2,42)= 20.07, p< .001. o Der Bonferroni Post-hoc-Test zeigte, dass die Attraktivität des gewählten Partners nach 4 Bier signifikant geringer war als nach keinem Bier oder 2 Bier (beide p<.001). Die Attraktivität des gewählten Partners nach 2 Bier unterschied sich nicht signifikant von der Attraktivität nach keinem Bier (p>.05). o Der Haupteffekt des Geschlechts auf die Attraktivität des gewählten Partners erwies sich als nicht signifikant, F(1,42)=2.03, p=.16. D.h. Frauen und Männer wählten (bei Nichtbeachtung der Alkoholmenge) gleich attraktive Partner aus. o o o Aus den Daten ergab sich ein signifikanter Interaktionseffekt zwischen Alkoholmenge und Geschlecht auf die Partnerwahl, F(2,42)= 11.91, p<.001. Männer und Frauen wurden durch Alkohol unterschiedlich in ihrer Partnerwahl beeinflusst. Simple Effects Analysen zeigten, dass die Attraktivität der gewählten Partner gleich war für Frauen (M= 66.88, SD= 10.33) und Männer (M= 60.63, SD= 4.96), die keinen Alkohol tranken, sowie für Frauen(M= 62.50, SD= 6.55) und Männer (M= 66.88, SD= 5.52), die 2 Bier tranken. Nach 4 Bier war die Attraktivität des gewählten Partners für Frauen (M= 57.50, SD= 7.07) signifikant höher als und für Männer (M= 35.63, SD= 10.84). Exkurs α-Justierung  Bonferroni-Korrektur: o Bei der Bonferroni-Korrektur zur Kontrolle des „familywiseerror“ wird das ursprüngliche α-Niveau einfach durch die Anzahl der Tests geteilt und dann auf diesem neuen α-Niveau getestet:  α‘ = α/Anzahl der Test  z.B. bei 3 Tests und ursprünglichem α-Niveau von 5%, α‘ = .05/3=.0167  Alternative (da in SPSS der p-Wert angegeben ist): o α-Niveau beibehalten, aber den p-Wert mit der Anzahl der Test multiplizieren (so geht SPSS bei den Bonferroni-Post-hoc-Tests vor!) Varianzanalyse mit Messwiederholung  Mehrfache Messungen an denselben Personen  „Erweiterung“ des t-Tests für abhängige Stichproben bei mehr als 2 Messungen/Messzeitpunkten  Unterscheidung von:  Innersubjektfaktoren: Veränderungen innerhalb der Personen  Zwischensubjektfaktoren: Gruppenunterschiede  Vorteil: Stabile Störvariablen (z.B Persönlichkeitsmerkmale) können statistisch kontrolliert werden  Nachteil: Sequenzeffekte  ANOVA ohne Messwiederholung:  Varianz innerhalb der Gruppen = Fehlervarianz  ANOVA mit Messwiederholung:  Varianz innerhalb der Gruppen wird nun interessant o Aufteilung in erklärte Varianz (durch Messwiederholung) und Residualvarianz  Problem: Messungen sind nicht unabhängig  Neue Voraussetzung bei Messwiederholung: Sphärizität o die Varianzen der Differenzen zwischen den verschiedenen Messzeitpunkten/ Treatmentstufen sind gleich o Varianz 1-2 ≈ Varianz 1-3 ≈ Varianz 2-3  erst ab 3 Messungen ein Problem (da bei 2 Messungen nur 1 Differenz)  Mauchley-Test auf Sphärizität  falls signifikant, ist Sphärizität nicht gegeben (dabei auf Stichprobengröße achten)  Bei Verletzung der Sphärizitäts-Voraussetzung:  SPSS liefert weitere F-Tests mit korrigierten Freiheitsgraden  Je stärker die Verletzung o desto kleiner ist der Korrekturfaktor ε o desto stärker weicht der korrigierte F-Test vom unkorrigierten ab  Korrektur der Freiheitsgrade: Greenhouse-Geisser, Huynh-Feldt  alternativ: Interpretation der multivariaten Tests, die SPSS automatisch mit ausgibt  Durchführung des Test:  Beispiel: Kinder bekommen Infos über neuartige Wesen, die in einer Box sitzen (positive, negative oder neutrale). Gemessen wird die Angst der Kinder vor diesen Wesen anhand der Zeit, die die Kinder benötigen, um in die Box zu fassen. Alle Kinder nehmen an allen Bedingungen teil.  Analysieren Allgemeines lineares Modell  Messwiederholung o zunächst müssen die Innersubjektfaktoren (Messwiederholungsfaktor) benannt und die Anzahl der Stufen festgelegt werden, dann folgt das „übliche“ Fenster o o Messwiederholungsstufen werden Zahlen zugeordnet (sinnvolle Anordnung) unter Optionen Deskriptive Statistiken anfordern  Test ist signifikant (p<.001): Voraussetzung wurde verletzt  SPSS bietet 2 Korrekturen an o Werte werden mit den df multipliziert, um so den F-Test zu korrigieren o Greenhouse-Geisser Korrektur: wie stark weichen die Varianzen der Differenzen voneinander ab?  Je näher der Wert an 1, desto homogener sind die Varianzen der Differenzen  Je näher der Wert an der Untergrenze (1/k-1), desto heterogener  Ist die Voraussetzung gebrochen, so sollte man den F-Test bei Greenhouse-Geisser oder Huynh-Feldt ablesen (der F-Wert hat sich nicht verändert, nur die Freiheitsgrade [df])  SPSS gibt bei der ANOVA mit Messwiederholungunaufgefordert die Ergebnisse für polynomiale Kontraste mit aus (Tabelle „Tests der Innersubjektkontraste“)  In der Tabelle „Tests der Zwischensubjekteffekte“ werden die Ergebnisse von Gruppierungsfaktoren (unabhängige Gruppen) ausgegeben, falls solche vorhanden sind o Im Tier-Beispiel könnte man z.B. das Geschlecht der Kinder als weiteren Faktor untersuchen o Das wäre ein gemischtes Design (mixed design) mit einem Zwischensubjektfaktor (Geschlecht) und einem Innersubjektfaktor (Tier Messwiederholung)  Verletzung der Sphärizitätsvoraussetzung bringt auch für Post-hoc-Tests Probleme o einige Post-hoc-Tests sind über „Optionen“  geschätzte Randmittel zugänglich o wird Sphärizität gebrochen, so ist Bonferroni der robusteste Post-hoc-Test. o Sidak ist weniger konservativ als Bonferroni  Interpretation wie „normale“ Post-hoc-Tests o Hier: Unterschied zwischen negativ (1) und neutral (2), sowie negativ (1) und positiv (3) ist signifikant  Ergebnisbericht  Der Mauchly-Test zeigte, dass die Voraussetzung der Sphärizität gebrochen wurde, χ²(2)= 28.18, p<.001. Daher wurden die Freiheitsgrade mit Hilfe der GreenhouseGeisser Schätzung korrigiert, (ε=. 83).  Eine einfaktorielle ANOVA mit Messwiederholung zeigte, dass die Art der Information einen signifikanten Effekt auf die Annäherungszeit hatte, F(1.66,209.69)= 58.68, p<.001.  Bonferroni-korrigierte Post-hoc-Tests deckten signifikante Unterschiede in den Annäherungszeiten zwischen neutraler und negativer Information, sowie positiver und negativer Information (beide p<.001) auf. Dieser Unterschied ergab sich nicht zwischen positiver und neutraler Information (p=.357). Gemischtes Design  Beispiel  Ein klinischer Psychologe möchte die Wirkung eines neuen Antidepressivums namens Cheerup untersuchen. 50 Patienten mit Depression werden randomisiert 5 Gruppen zugewiesen: o Wartelistenkontrollgruppe o Placebo-Gruppe o Seroxat (SSRI; selektive Serotonin-Wiederaufnahmehemmer) o Effexor (SNRI; Serontonin-Noradrenalin-Wiederaufnahmeh.) o Cheerup  Das Ausmaß der Depression wurde vor der Behandlung und nach 2 Monaten Behandlung erfasst (0=superglücklich bis 20=todtraurig).  Durchführung des Tests  Analysieren Allgemeines lineares Modell  Messwiederholung o hier gibt es einen Messwiederholungsfaktor (vorher vs. nachher) sowie einen Gruppierungsfaktor (Treatment) o da es nur zwei Messzeitpunkt gibt dir der Mauchly-Test nicht berechnet o da es nur zwei Messzeitpunkt gibt dir der Mauchly-Test nicht berechnet o o Über die beiden Zeitpunkte hinweg gibt es keinen Unterschied zwischen den Treatments (p=.109)  Die angeforderten Post-hoc-Tests dürfen darum nicht interpretiert werden (diese sind auch alle nicht signifikant) Interpretation der Interaktionsdiagramme  Bei fast allen Treatments ist ein deutlicher Abfall in den Depressionswerten zwischen T1 und T2 zu beobachten  Ausnahme: No Treatment und evtl. Effexor  Zu T1 (vorher) scheinen die Treatments sich nicht zu unterscheiden, aber zu T2   Diese Aussagen sind aber rein deskriptiv Auch hier kann man mit Simple Effects Analysen die Interaktion näher untersuchen