Skript 2013

Werbung
Skript Computergestützte Datenanalyse SS 12
(Anne Hagemann, SPSS)
Einordnung in den Forschungsprozess




Fragestellung
Untersuchungsplanung
Untersuchungsdurchführung
Vorbereitung der Datenanalyse
 Erstellung eines Kodierplans/Variablendefinition
 Dateneingabe
 Überprüfung der Dateneingabe/Datenscreening
 Umgang mit fehlenden Werten/Extremwerten
 Datenanalyse
 Berichterstellung
Grundlegendes zu SPSS
 Daten-Editor
 öffnet sich beim Start
 Datenansicht und Variablenansicht
 Datendateien werden als .sav-Dateien gespeichert
 SPSS Viewer
 Ausgabefenster
 enthält die Ergebnisse (Output) als Tabelle und Diagramme
 Ausgaben können als .spv-Dateien gespeichert werden
 Diagramm-Editor und Pivot-Tabellen-Editor
 zum Bearbeiten von Diagrammen und Tabellen im Output/Viewer
 Syntax-Editor
Tabellen in SPSS
 Tabellenformat das Standard in der SPSS-Ausgabe ist entspricht nicht akademischen
Anforderungen
 Rechtsklick auf Tabelle  Tabelle bearbeiten  in separatem Fenster
 Pivot  Zeilen und Spalten vertauschen
 Ändern der Tabellenform: Format  Tabellenvorlagen  Academic
 Schriftgröße, Ausrichtung, Dezimalstellen anpassen
 da Möglichkeiten der Bearbeitung begrenzt einfaches kopieren in Word/Excel, Screenshots
bei Powerpoint (Rechtsklick  Exportieren)
 benutzerdefinierte Tabellen
 Analysieren  Tabellen  Benutzerdefinierte Tabellen
 so können Statistiken etwa nach Geschlecht getrennt ausgegeben werden, ohne dass
Datei vorher geteilt werden muss
Diagramme in SPSS
 Zugriff über Diagramme  Diagrammerstellung oder Diagramme  Veraltete Dialogfelder
 durch Doppelklick auf Diagramm in der Ausgabe gelangt man in die Diagrammbearbeitung
 Kreisdiagramme
 Darstellung von kategorialen Merkmalen (z.B. Geschlecht, Haarfarbe…)
o Kreisdiagramm auswählen, Variable in „Feld aufteilen nach“ ziehen
 Balkendiagramme
 Darstellung des Mittelwerts einer Variablen für verschiedene Gruppen
o einfaches Balkendiagramm auswählen wenn Mittelwert nach einer Variable
getrennt gezeigt werden soll
o Variable auf die x-Achse, Mittelwert der berücksichtigt werden soll auf die yAchse
oder
o gruppiertes Balkendiagramm wenn Mittelwert nach zwei Variablen getrennt
gezeigt werden soll
o Variable auf die x-Achse, Mittelwertsvariable auf die y-Achse, dritte Variable
in „Clustervariable“ (z.B. Geschlecht)
oder
o gleiche Vorgehensweise bei Darstellung des Mittelwerts nach drei Variablen
getrennt
o dann unter Gruppen/Punkt-ID „Spaltenfeldvariable“ anklicken und Variable
in neu erscheinendes Feld ziehen
 Histogramm
 Darstellung von Häufigkeitsverteilungen (bei zu vielen Kategorien werden Kategorien
zusammengefasst)
o einfaches Histogramm wählen und Variable auf die x-Achse ziehen
o unter Elementeigenschaften „Normalverteilungskurve anzeigen“ wählen
 Boxplot
 Darstellung der Verteilung (Quartile) und Ausreißer einer Variablen
o einfachen Boxplot auswählen und Variable auch die x-Achse ziehen
 Streudiagramme
 Darstellung des Zusammenhangs zweier Variablen
 Identifizieren von bivariaten Ausreißern
o gruppiertes Streudiagramm auswählen und Variablen auf x- und y-Achse
ziehen
o evtl. Farbe der Punkte differenzieren nach weiterer Variable (z.B. Geschlecht)
Daten in SPSS einlesen
 …aus Textdatei (Editor)
 Vorteil bei Textdateien: Daten können problemlos in alle Programme eingelesen
werden
 Eingabe der Daten:
o Daten im „tab-delimited format“ eingeben (Tabs als Trennung zwischen den
Variablen)
o jede Zeile = ein Fall/Untersuchungsteilnehmer
o erst Zeile =Variablennamen
o Vorteil der Tabs als Trennzeichen: kommen in den Variablen nicht vor
(anders als Komma, etc.)
o bei Speicherung als .txt gehen Daten verloren (z.B. Variablen- und
Wertelabels)
o Datei  Textdaten lesen  Datei auswählen
o vordefiniertes Format: nein, mit Trennzeichen
o Datumsvariable muss definiert werden
o nach „Fertigstellen“ erscheinen Daten, jedoch ohne Variablen- und
Wertelabels und ohne benutzerdefiniert fehlende Werte
 …aus Excel
 Datei  Öffnen  Daten  Dateityp Excel auswählen, Datei auswählen Öffnen
Variablendefinition in SPSS
Allgemeine Regeln der Benennung
 maximal 64 Zeichen (besser kürzere Namen)
 Beginn mit einem Buchstaben (@auch erlaubt)
 neben Buchstaben und Ziffern nur folgende Zeichen: _ . @ # $
 keine Leerzeichen
 letztes Zeichen kein Punkt oder Unterstrich
 Variablen dürfen nicht: ALL, AND, BY, EQ, GE, GT, LE, LT, NE, NOT, OR, TO, WITH heißen
 Namen dürfen nicht doppelt vergeben werden
 Kodierplan: ordnet einzelnen Fragen Variablennamen zu sowie den Merkmalsausprägungen
Codenummern
Variablen definieren
 Typ: Art der Variable z.B. numerisch (Zahlen), Datum (Format festlegen), String (Anzahl der
Zeichen festlegen
 Spaltenformat: =Breite (Zeichen inkl. Komma und Dezimalstellen)
 Variablenlabel: = Beschreibung der Variablen
 Wertelabels: Werte entsprechend dem Kodierplan benennen (z.B. 1=weiblich, 2=männlich)
 Fehlende Werte: beachten, dass nur Werte eingegeben werden, die in der Variablen sonst
nicht möglich sind (z.B. Alter = 999)
 systemdefiniert fehlende Werte
o Punkt in der Datenansicht wenn kein Wert eingegeben wurde
 benutzerdefiniert fehlende Werte
o Benutzer gibt Wert ein, der als fehlend behandelt werden soll
o Vorteil: Sicherheit, dass der Wert nicht vergessen wurde sondern fehlt
 Ausrichtung: Wo sollen Variablen im Datenfenster angezeigt werden?
 Messniveau
 Skala: metrische Variablen (intervall-/verhältnisskaliert), quantitative Eigenschaften
(Daten sind Zahlen, z.B. Körpergröße)
 Ordinal: geordnete Kategorien (Ratings)
 Nominal (ungeordnete Kategorien, z.B. Haarfarbe, Geschlecht und String-Variablen)
Übertragen von Definitionen auf andere Variablen
 Variableneigenschaften kopieren (Rechtsklick auf die linke Spalte & kopieren)
 in leere Zeile oder Zeile mit neuer Variablen einfügen
 ggf. Variablennamen und -label ändern
anschließend Dateneingabe nach Kodierplan in der Datenansicht
Überprüfung der Dateneingabe
fehlende Werte (missings)
 häufiges Problem bei ohnehin kleiner Stichprobe/N
 fehlende Werte können in drei Gruppen eingeteilt werden
 MCAR: missing completely at random
o Muster fehlender Werte ist völlig unvorhersehbar
 MAR: missing at random
o das Muster fehlender Werte lässt sich aus anderen Variablen im Datensatz
vorhersagen (außer der AV)
 MNAR: missing not at random
o Fehlen von Werten ist von der AV abhängig
o Generalisierbarkeit der Ergebnisse ist gefährdet

unbedenklicher Umgang mit den fehlenden Werten nur bei MCAR oder MAR
 Häufigkeit fehlender Werte anzeigen
 gesamte Häufigkeit
o Analysieren  Deskriptive Statistiken  Häufigkeiten
o Anzahl der fehlenden Werte wird in der Ausgabe angezeigt
 fehlende Werte einer Person
o neue Variable berechnen die dies angibt
o Transformieren  Variable berechnen  Zielvariable „miss“ nennen 
„Numerischer Ausdruck“: Nmiss (zu finden in Funktionsgruppe „Fehlende
Werte“), in Klammern dahinter Variablen(-bereich) angeben  OK
o neue Variable „miss“ absteigend sortieren (<10% fehlend/Person ok)
Umgang mit fehlenden Werten
 Ausschluss/Löschen
 Listenweiser Fallausschluss (Standard bei SPSS)
 Fallausschluss Test für Test
 Variablen mit fehlenden Werten löschen
 Personen mit fehlenden Werten löschen
 Problem: viele Daten gehen verloren !!!
 Ersetzen
 populäre, aber problematische Methoden
o durch Median ersetzen (ab Ordinaldatenniveau)
 Transformieren  fehlende Werte ersetzen  Methode: Median der
Nachbarpunkte  wichtig: Anzahl der Nachbarpunkte: ALLE
o durch Mittelwert ersetzen (ab Intervalldatenniveau)

Transformieren  fehlende Werte ersetzen  Methode: Mittel der
Nachbarpunkte
o

Regressionsersetzung (ab Intervalldatenniveau)
 Transformieren  fehlende Werte ersetzen  Methode: Linearer
Trend am Punkt  wichtig: Anzahl der Nachbarpunkte: ALLe
o Problem: Reduktion der Varianz
 evtl. durch Gruppenmittelwert, -median ersetzen
 Daten  Fälle auswählen  Missingersetzung für jede Gruppe
getrennt
bessere Methoden (hier nur genannt)
o Expectation Maximization (nur bei MCAR und MAR)
 Analysieren  Analyse fehlender Werte im Kästchen
„Schätzungen“ EM anklicken & vervollständigte Daten speichern
o Multiple Imputation/ Vervollständigung der Daten (für MCAR, MAR und
MNAR)
 Analysieren  Multiple Imputationen  fehlende Datenwerte
imputieren  Imputationen bei 5 lassen  neues Datenset erstellen
 in neuer Datei sind die Orginaldaten und 5 Datensets mit
ersetzten Variablen
o Ergebnisse der späteren Analysen (Regression) werden sowohl für jeden
einzelnen imputierten Datensatz als auch kombiniert ausgegeben
Extremwerte/Ausreißer/Outlier
 sehr unterschiedlich vom Rest der Daten
 beeinflussen die Güte des Modells, das wir auf die Daten „passen“
 Ergebnisse können nicht generalisiert werden
 Mögliche Ursachen:
 Inkorrekte Dateneingabe
 Fehlende Werte nicht gelabelt
 Ausreißer gehören nicht zu der untersuchten Population
 Allgemein:
 für spätere Analysen mit ungruppierten Daten (Regression, Faktorenanalyse, …)
Ausreißer im gesamten Datensatz suchen
 für Analysen mit gruppierten Daten (ANOVAs) nach Ausreißern getrennt in jeder
Gruppe suchen
 Univariate Ausreißer identifizieren
 extremer Wert auf einer Variablen
 bei kontinuierlichen Variablen: über z-Werte (z.B. z >|3,29|; p> .001,zweiseitiger
Test)
o Analysieren  Deskr. Statistiken  Deskriptive  “standardisierte Werte als
Variable speichern“ anklicken  man erhält im Datenfenster z-Werte der
Variablen  im Datenfenster sortieren oder über Häufigkeiten analysieren
 Achtung: bei z-Werten Stichprobengröße beachten
o
bei sehr großen
Stichproben
werden durchaus
einige Werte mit
z >|3,29| erwartet


 wenn man davon ausgeht, dass Daten
Standardnormalverteilung folgen, können durch z-Transformation die Eigenschaften
dieser genutzt werden
o 95% der Werte liegen zwischen +/- 1,96
o 99% der Werte liegen zwischen +/- 2,58
o 99,9% der Werte liegen zwischen +/- 3,29
o nur wenige Werte liegen außerhalb dieser Werte
Werte mit großem z-Wert sollten also nur selten auftreten
o Zeichen für Extremwert
neben z-Werten auch Boxplots nützlich
o Diagramme  Diagrammerstellung  unten links Boxplot auswählen &
oben rechts ins Fenster ziehen oder veraltete Dialogfelder
o einfacher Boxplot (1 Variable auf x-Achse, evtl. 1 Gruppierungsvariable auf
Kategorienachse)
o gruppierter Boxplot (1 Variable auf x-Achse, 2 Gruppierungsvariable auf
Kategorienachse)
 Univariate Ausreißer beheben



richtig eingetippt und fehlende Werte gelabelt?
Ausschluss des Falls (nur, wenn nicht Teil der untersuchten Population)
Veränderung des Ausreißerwertes:
o Ersetzen durch den höchsten/niedrigsten Wert +/- 1
o Ersetzen durch Mittelwert +/- 2 oder 3 Standardabweichungen
o Wichtig dabei: Ausreißer muss nach wie vor der größte/kleinste Wert sein!
SPSS-Syntax
Definition
 “predefined written commands that instruct SPSS what you would like it to do”
 Befehle, die SPSS versteht
Möglichkeiten der Eingabe
 Eintippen per Hand
 Kopieren aus anderen Dateien
 über “Einfügen” aus dem Menü
Vorteile der Syntax




leichtes Speichern des Analyseablaufes
einfaches Labeln von Datensätzen, die aus Datenbanken abgerufen werden
Kommentare können eingefügt werden
für kleine Änderungen in der Analyse muss nicht das ganze Menü wieder durchgeklickt
werden: Änderungen können direkt in der Syntax gemacht werden
 SPSS gibt an, wenn sich doch mal Fehler in die Syntax einschleichen
 Öffnen des Syntax-Editors: Datei  Neu  Syntax
Syntax-Regeln






jeder Befehl beginnt in einer neuen Zeile
jeder Befehl endet mit einem Punkt
Unterbefehle werden mit einem Schrägstrich (/) voneinander getrennt
Text für Labels wird in Apostrophe gesetzt
Dezimaltrennzeichen in der Syntax ist immer ein Punkt
Hilfe und Beispiele gibt es (auch) unter: Hilfe  Befehlssyntax-Referenz
 Syntax wird ausgeführt über : Ausführen  Auswahl/Alle/… oder mit grünem Pfeil
 Kommentare beginnen mit einem Sternchen und enden mit einem Punkt (SPSS ignoriert sie
dann)
 Fehler/unvollständige Befehle werden direkt in roter Schrift angezeigt oder nach Versuch der
Ausführung (im unteren Teil der Syntax und in der Ausgabe)
 Text der Syntax findet sich auch in der Ausgabe
Datensätze teilen
 zum Beispiel: Analysen für Frauen und Männer getrennt durchführen
 Daten  Datei aufteilen  Gruppen vergleichen anklicken  Variable „Geschlecht“ ins
Fenster ziehen
 Syntax:
 SORT CASES BY geschl.
SPLIT FILE LAYERED BY geschl.
Fälle auswählen
 zum Beispiel: nur Einbezug von Psychologiestudenten in Analysen
 Daten  Fälle auswählen  “Falls Bedingung zutrifft“ auswählen  Falls  Bedingung
definieren
 nicht ausgewählte Fälle werden gestrichen
 Syntax:


USE ALL sorgt dafür, dass alle Fälle berücksichtigt werden
COMPUTESPSS berechnet neue Variable (filter_$), die für alle mit studium=1
(Psychos) den Wert 1 annimmt, für andere 0
 VARIABLE LABELS benennt diese Variable
 VALUE LABELS benennt die Werte mit 1=ausgewählt, 0=nicht ausgewählt
 FORMATS gibt das Format der neuen Variablen an
 FILTER filtert den Datensatz (alle Fälle mit dem Wert 0 werden aussortiert)
 EXECUTE Transformationen und Variablenberechnungen werden erst nach diesem
Befehl ausgeführt
 auch Möglichkeit Fälle etwa nach Alter auszuwählen (alter < 22) oder nach mehreren
Bedingungen (mit AND angehängt)
 wichtige Syntax- Befehle für Berechnungen
Variablen berechnen
 Beispiel: Summenscore für Ängstlichkeit in einem psychologischen Test berechnen
 Transformieren  Variable berechnen  Zielvariable definieren  aus
Funktionsgruppe „Statistisch“ SUM wählen, in Klammer entsprechenden Items (mit
Komma getrennt) einfügen
 unter Typ & Label kann ein Label eingegeben werden
 Syntax
 berechnen wenn fehlende Werte vorliegen
 z.B. wenn Summenscore auch bei 6 von 7 Werten berechnet werden kann
o fehlender Wert wird durch Mittelwert der anderen Werte ersetzt
 Mittelwert der 6 oder 7 vorhandenen Werte nehmen, den dann mit 7 multiplizieren
 Differenz berechnen
 z.B. Berechnung der Dauer von Erkrankung
 Transformieren  Variable berechnen  Zielvariable definieren  Differenz über „-“
zwischen den Variablen
 Syntax:
 Berechnungen mit Datumangaben
 Zeitdauern z.B. zwischen T1 und T2
 Transformieren  Assistent für Datum und Uhrzeit  Berechnen mit Datums- und
Zeitwerten durchführen  Berechnen der Anzahl der Zeiteinheiten…  Daten
eingeben (späteres zuerst!)  neue Variable benennen
Variablen umkodieren
 zum Beispiel: Überführung von Alter bei Erkrankung in kategoriale Variable
 Transformieren  Umkodieren in eine andere Variable
 Variablenlabels müssen nachträglich eingefügt werden
 Syntax
 neue Variable, die anzeigt, ob Wert fehlt
o Transformieren  Umkodieren in eine andere Variable
 erfassen manche Items positive und andere negative Verhaltensweisen, muss eine Art
umgekehrt/rekodiert werden
o Transformieren  Umkodieren in eine andere Variable
o für jede Variable einzeln, sehr umständlich
 schneller
mit
Syntax
Count-Funktion
 Auftreten eines/mehrerer bestimmter Fälle kann fallweise gezählt werden
 Transformieren  Werte in Fällen zählen  Variablen eingeben die gezählt werden
sollen und Werte deren Auftreten gezählt werden soll definieren
 Syntax:
Deskriptive Statistiken
 dazu zählen etwas: arithmetisches Mittel, Median, Modus, Varianz, Standardabweichung,
Schiefe, Exzess….
 Analysieren  Deskriptive Statistiken  Deskriptive Statistiken/Häufigkeiten/Explorative
Datenanalyse
 Mittelwert, Minimum
und Maximum
 Minimum/Maximum
nach Geschlecht
getrennt
 Quantile,
Schiefe und
Kurtosis
 minimaler, maximaler, durchschnittlicher z-Wert
 Analysieren  Deskriptive Statistiken  Deskriptive Statistiken, dort „Standardisierte
Werte als Variable speichern“ anklicken, für diese z-Werte dann wiederum
Deskriptive ausgeben lassen
Überprüfung von Verteilungsannahmen
 wichtige Verteilung z.B. Gleichverteilung, Normalverteilung
 Prüfung durch
 deskriptive Statistiken
 Plots / Prüfung durch Augenschein
 statistische Tests
Signifikanztestung
 getestet werden statistische Hypothesen (Aussagen über eine Population)
 bei einem statistischen Test werden 2 Hypothesen unterschieden
 die Nullhypothese, symbolisiert durch H0 (kein Unterschied)
 die Alternativhypothese, symbolisiert durch H1 (Unterscheid besteht)
 Null- und Alternativhypothese schließen sich wechselseitig aus, d.h. sie können nicht
gleichzeitig gelten
 zur Prüfung der Hypothese wird der Wert einer Statistik berechnet (empirischer Wert)
 fällt dieser Wert in einen Bereich, der bei Gültigkeit der Nullhypothese unwahrscheinlich ist,
entscheidet man sich gegen die Nullhypothese (verwirft sie) und nimmt stattdessen die
Alternativhypothese an
 Wahrscheinlichkeit, ab der man die Nullhypothese ablehnt, heißt Signifikanzniveau
(auch α-Niveau)
 üblicherweise auf 5% oder 1% festgelegt
 „unwahrscheinlich“ ist jedoch nicht „unmöglich“
 SPSS gibt für Signifikanztests p-Wert an
 p-Wert  Irrtumswahrscheinlichkeit  Wie wahrscheinlich ist das beobachtete
Ereignis (der empirische Wert) unter der Bedingung, dass die Nullhypothese zutrifft?
 für die Testentscheidung müssen diese mit dem (von uns) gesetzten α-Niveau verglichen
werden:
 Ist p < α so wird die Nullhypothese verworfen
 Ist p > α wird die Nullhypothese beibehalten
 Wichtig: Immer im Hinterkopf behalten, welche Hypothesen gerade getestet werden! (und
welche die Wunschhypothese ist)
Merke:
signifikant: unter 5%  H0 wird verworfen
nicht signifikant: über 5%  H0 wird beibehalten
Signifikanz = Irrtumswahrscheinlichkeit
 Irrtumswahrscheinlichkeit H0 zu verwerfen, obwohl sie richtig ist !!!
Prüfung auf Gleichverteilung
 deskriptiv: Werte sollen in jeder Kategorie (etwas) gleich häufig vorkommen
 visuell: Histogramm , Balken sollten (etwa) gleich hoch sein
 statistische Tests: Binominaltest, Chi-Quadrat-Test, KS-Test auf Gleichverteilung
 kategoriale Variable mit mind. 2 Ausprägungen


Binominal-Test auf Gleichverteilung
o Besteht ein signifikanter Unterschied zwischen den Häufigkeiten der beiden
Merkmalsausprägungen?
o z.B. Geschlecht im Datensatz Musikfestival
Analysieren  Nichtparametrische Tests Alte Dialogfelder  Binominal
 kategoriale Variable mit mind. 3 Ausprägungen


Chi-Quadrat-Test auf Gleichverteilung
o Unterscheiden sich beobachtete und erwartete Häufigkeiten bei
nominalskalierten Variablen signifikant voneinander?
o Bsp. 3000 x Würfeln (Datensatz: Wuerfel.sav)
2 Schritte, da hier Werte und deren Häufigkeiten als Fälle angegeben
sind:
o Daten  Fälle gewichten  n als Gewichtungsvariable eingeben
o Analysieren  Nichtparam. Tests  Alte Dialogf. Chi-Quadrat
 stetige Variablen
 K-S-Test auf Gleichverteilung
o Analysieren  Nichtparametrische Tests  Alte Dialogfelder  K-S bei einer
Stichprobe  „Testverteilung“: Gleichverteilung
Exakte Tests
 im Menü unter „Exakt“ 3 Möglichkeiten:
 nur asymptotisch (Voreinstellung bei SPSS)
o Sinnvoll bei großen Stichproben
o nimmt eine bestimmte Verteilung für die Statistik an (hier die Chi-QuadratVerteilung)
 Exakt
o SPSS kann die Irrtumswahrscheinlichkeit auch genau berechnen
o ohne Verteilungsannahmen
o ABER: je größer die Stichprobe, desto komplexer ist die Berechnung und
desto länger braucht SPSS (Zeitlimit)
 Monte Carlo
o Alternative zu exakte Tests (wenn Stichprobe zu groß)
o nimmt eine ähnliche Verteilung wie in der Stichprobe, zieht daraus viele
Stichproben (Voreinstellung: 10 000), aus denen dann die Signifikanz
einschließlich Konfidenzintervall berechnet wird
Prüfung auf Normalverteilung
 deskriptiv
 M, Md, Mo fallen ungefähr zusammen
 Exzess/Kurtosis innerhalb [-1;1]
 Schiefe innerhalb [-.5;.5]
o Exzess und Schiefe besser über z-Werte beurteilen:
 Kriterium für „Signifikanz“ (Normalverteilung nicht gegeben)
o In kleinen Stichproben: 1.96 (p<.05)
o In mittleren Stichproben: 2.58 (p<.01)
o In großen Stichproben: 3.29 (p<.001)
 visuell
 Histogramm mit überlagerter Normalverteilungskurve
 Boxplot
 Q-Q-Diagramm
 statistische Tests


KSA-Test: Kolmogorov-Smirnov-Anpassungstest auf NV
o testet die empirisch ermittelten Werte gegen die bei einer NV zu
erwartenden Werte
o Annahme: Populationsstreuung und -mittelwert sind bekannt
o Normalfall: beides ist nicht bekannt, muss aus den Daten geschätzt werden
 in dem Fall Lilliefors-Korrektur anwenden
signifikanter p-Wert spricht für die Abweichung von der NV-Annahme (H0:
Normalverteilung liegt vor Wunschhypothese)
 zu beachten vor allem bei großen Stichproben:
 KSA-Test ist stichprobengrößensensitiv
o deshalb nicht geeignet für große Stichproben (N > 200)
o da er dann bereits bei relativ unbedeutenden Abweichungen von der
Normalverteilung signifikant wird!
 nie nur auf den KSA-Test verlassen, immer Diagramme und deskriptive Statistiken
anschauen
 2 Wege zum KSA-Test in SPSS:

Analysieren  Nichtparametrische Tests  Alte Dialogfelder K-S bei einer
Stichprobe „Testverteilung“: Normalverteilung
o nicht zu empfehlen, da keine Lilliefors-Korrektur

Analysieren  Deskriptive  Explorative Datenanalyse  unter Diagramme
„Normalverteilungsdiagramme mit Test“ anklicken
o hier wird Lilliefors-Korrektur angewandt
 über diesen Pfad auch Q-Q-Plots (Quantil-Quantil-Plot: Quantile der Variablen werden gegen
die Quantile der Normalverteilung abgetragen  Punkte sollten auf der Diagonalen liegen)
 Beispiel für Stichprobengrößensensitivität
Transformationen
 Transformationen beheben starke Abweichungen von der Normalverteilung
 nicht nur eine, sondern alle Variablen transformieren
 da ursprüngliche Skalierung verloren geht
 besonders kritisch für Mittelwertsvergleiche (!)
 je nach Verteilung der ursprünglichen Variable sind
 verschiedene Transformationen möglich
 Transformieren  Variable berechnen  Transformieren  Variable berechnen
Arten von Hypothesen
 Zusammenhangshypothesen
 Gibt es Zusammenhänge zwischen zwei oder mehr Variablen?
 Lässt sich eine Variable durch eine oder mehrerer andere Variablen vorhersagen?
 Unterschiedshypothesen
 Gibt es Unterschiede zwischen mindestens zwei Gruppen in Bezug auf eine oder
mehrere Variablen?
Unterschiedshypothesen
 Wahl des Verfahrens ist abhängig vom Skalenniveau
Verfahren für Intervalldaten
 Unterscheiden sich zwei Gruppenmittelwerte?
 unabhängige Stichprobe
 Vergleichsgruppen bestehen aus unterschiedlichen Fällen, die unabhängig
voneinander aus ihren Grundgesamtheiten gezogen werden
 abhängige (gepaarte) Stichprobe
 Vergleichsgruppen bestehen aus denselben Untersuchungseinheiten, bei denen
bestimmte Variablen mehrfach erhoben wurden ODER die Untersuchungseinheiten
der Gruppen wurden nicht unabhängig erhoben (z.B. Mutter und Vater)
 Hypothesen
 (µ=Erwartungswert)
 ungerichtet = Unterschied
 gerichtet = z.B.
besser/schlechter
 t-Test für unabhängige Stichproben

jede Person nimmt nur an einer der zwei Experimentalbedingungen teil
(d.h. Messwerte = unabhängig)

Voraussetzungen
1. Unabhängigkeit der Stichproben und somit der Werte
2. mindestens Intervalldatenniveau
3. Normalverteilung der Stichprobenkennwerte (nicht der Daten)
4. Varianzhomogenität

zu 3. :
o nicht Daten an sich müssen normalverteilt sein, sondern
Stichprobenkennwerte (hier Mittelwerte)
o mit Hilfe der Daten und des zentralen Grenzwerttheorems werden
Rückschlüsse auf die Erfüllung gezogen
 Daten normalverteilt  Stichprobenkennwerteverteilung normal
 bei großen Stichproben (>30): Stichprobenkennwerteverteilung
normal, wenn Daten nicht normalverteilt
o zentrales Grenzwerttheorem:
 Theorem das besagt, dass die Stichprobenkennwerteverteilung des
Mittelwertes eine Normalverteilung um den Populationsmittelwert
bildet
 Stichprobenkennwerteverteilung: aus einer Population werden
wiederholt gleichgroße Stichproben gezogen, dann wird die
Verteilung z.B. des Mittelwerts betrachtet

zu 4:
o
o
Varianz der AV ist für alle getesteten Gruppen gleich groß
Levene-Test
 prüft, ob die Varianzen der Gruppen sich unterscheiden
o H0: Varianzen sind gleich
o H1 : Varianzen sind nicht gleich
 Test signifikant = Varianzen nicht homogen = Voraussetzung ist nicht
erfüllt
 berichten:
o Die Varianzen der Variable X waren für die verschiedenen
Gruppen gleich, F(df1,df2)= Wert der Levene Statistik, n.s.
o Die Varianzen der Variable Y waren für die verschiedenen
Gruppen unterschiedlich, F(df1,df2)= Wert der Levene
Statistik, p<.05.
 Wobei:
 df1= Anzahl der Gruppen - 1
 df2= Anzahl der TN - Anzahl der Gruppen

Durchführung des Tests
o Beispiel: 12 Arachnophobiker spielen mit Spinne, 12 sehen Bilder, Messung
der Angst
o Analysieren  Mittelwerte vergleichen  t-Test
bei unabhängigen Stichproben  Testvariable
Anxiety, Gruppenvariable Group (diese mit 0 und
1 definieren)
o
o
zunächst Prüfung der Voraussetzung der Varianzhomogenität (Levene-Test)
 Bericht: Die Varianzen der
Variable Anxiety waren für
die beiden Gruppen gleich,
F(1,10)= 0,782, n.s.
es werden 2 t-Test Varianten
angegeben
o
o
o

SPSS testet zweiseitig: wenn einseitige Signifikanz gesucht ist p-Wert durch 2
teilen !!
Testbericht bei zweiseitiger/einseitiger Testung
o Durchschnittlich zeigten Teilnehmer beim Anblick einer echten Spinne
größere Angst (M= 47.00, SE= 3.18) als beim Anblick eines Spinnenbildes (M=
40.00, SE= 2.68).
o Dieser Mittelwertsunterschied erwies sich nicht als signifikant t(22)= -1.68,
p>.05 /p=.107 (zweiseitig)/p=.054 (einseitig)
 t-Test für abhängige Stichproben

alle Personen nehmen an beiden Experimentalbedingungen teil (d.h. Messwerte sind
abhängig

Voraussetzungen:
o mindestens Intervalldatenniveau
o Normalverteilung der Stichprobenkennwerte (nicht der Daten)
 hier: der mittleren Differenzen
 in kleinen Stichproben:
o Diese Differenz für jede Person berechnen (Messung1 Messung2)
o Differenz auf Normalverteilung prüfen

Durchführung des Tests
o 12 Arachnophobiker spielten mit Tarantel und sahen Bilder derselben,
Messung der Angst
o Analysieren  Mittelwerte vergleichen 
t-Test bei verbundenen Stichproben 
Variablenpaar „picture“ und „real“ als
gepaarte Variablen
o einzelne Werte, Mittelwerte und Standardabweichungen der einzelnen
Messungen sind identisch mit denen der unabhängigen Messungen,
stammen aber jeweils von den gleichen Personen

Ergebnisbericht bei zweiseitiger/einseitiger Testung:
o Die Teilnehmer zeigten beim Anblick einer echten Spinne signifikant größere
Angst (M= 47.00, SE= 3.18) als beim Anblick eines Spinnenbildes (M= 40.00,
SE= 2.68), t(11)= -2.47, p<.05 /p=.031 (zweiseitig)/p= .016 (einseitig).
 bei Verletzung der Voraussetzungen
 Normalverteilung:
o mehr Versuchspersonen rekrutieren
o evtl. Variablen transformieren
 Varianzhomogenität:
o Test für ungleiche Varianzen interpretieren

Alternativ: auf Tests für ein niedrigeres Datenniveau ausweichen
o T-Test für abhängige Stichproben  Wilcoxon-Test
o T-Test für unabhängige Stichproben  Mann-Whitney U-Test
Verfahren für Ordinaldaten
 beide Tests basieren auf dem Vergleich von Rangplätzen
 unterscheiden sich die gemittelten rangpostionen von zwei
 Mann-Whitney-U-Test für unabhängige Stichproben


jede Person nimmt nur an einer der Experimentalbedingungen teil (d.h. Messwerte
sind unabhängig)
Unterscheiden sich die gemittelten Rangpositionen von zwei unabhängigen
Gruppen?

Durchführung des Tests
o Beispiel: Auswirkung von Drogen auf Stimmung/Depression, Ecstasy vs.
Alkohol
o Ränge bilden
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
zur Veranschaulichung vorher deskriptive Statistiken ausgeben lassen,
Modus und Median vergleiche, anschließend Aufteilung der Datei wieder
entfernen
Analysieren  Nichtparametrische Tests  Alte Dialogfelder  Zwei
unabhängige Stichproben
 BDI_SO und BDI_MI als Testvariablen,
Droge als Gruppenvariable (Gruppen mit
1 und 2 definieren)
 bei kleiner Stichprobe exakte Testung
möglich







Ergebnisbericht (zweiseitige Fragestellung)
o Am Tag nach dem Konsum unterschieden sich die Depressionswerte der
Personen, die Ecstasy genommen haben (Md=17.50) nicht signifikant von
den Personen, die Alkohol getrunken haben (Md=16.00), U=35.50, z=-1.10,
n.s./p>.05. Am Mittwoch waren die Ecstasy-Konsumenten (Md=33.50)
jedoch signifikant depressiver als die Alkohol-Konsumenten (Md=7.50) ,
U=4.00, z=-3.48, p<.05.

andere nonparametrische Tests für unabhängige Stichproben
o Kolmogorov-Smirnov-Z: Prüft, ob zwei Stichproben aus der gleichen
Population gezogen wurden, vergleichbar mit dem Mann-Whitney-U-Test,
hat bei kleineren Stichproben (<25 pro Gruppe) größere Power
o Extremreaktionen nach Moses: Vergleicht die Variabilität der Werte in den
zwei Gruppen
o Wald-Wolfowitz-Sequenzen: Variante des Mann-Whitney-Test. Prüft, ob es
in der Rangreihe fortlaufende Sequenzen von Werten aus einer Gruppe gibt
 Wilcoxon-Test für abhängige Stichproben



alle Personen nehmen an allen Experimentalbedingungen teil (d.h. Messwerte sind
abhängig)
betrachtet die Differenzen von Messwertpaaren (ähnlich t-Test)
Durchführung des Tests
o Differenzen d berechnen
o Differenzen sortieren
o Nulldifferenzen entfernen. n ist die Anzahl der übrig bleibenden Differenzen
o Rangreihe der Absolutbeträge der Differenzen bilden. Die kleinste erhält
Rangplatz 1. Bei Rangbindungen das Verfahren der Durchschnitte verwenden
o Berechne die Summe der Rangplätze mit negativem Vorzeichen und die
Summe der Rangplätze mit positivem Vorzeichen. T ist die kleinere der
beiden Rangsummen.
o SPSS wandelt T in einen z-Wert um und gibt den p-Wert aus
o
o
um Analyse für beide Gruppen getrennt
durchzuführen, Datei zuvor aufteilen (über
Daten Datei aufteilen  Gruppen
vergleichen).
Analysieren  Nichtparametrische Tests  Alte
Dialogfelder  Zwei verbundene Stichproben
 BDI_SO und BDI_MI als Testpaar einfügen

Ergebnisbericht (zweiseitig)
o Für Ecstasy-Konsumenten waren die BDI Werte am Mittwoch (Md=33.50)
signifikant höher als am Sonntag (Md=17.50), T=0/z=-2.53, p<.05/p=.008.
o Für Alkohol-Konsumenten waren die BDI Werte am waren die BDI Werte am
Mittwoch (Md=7.50) signifikant niedriger als am Sonntag (Md=16.00),
T=8/z=-1.99, p<.05/p=.045

andere nonparametrische Tests für abhängige Stichproben
o Vorzeichentest: Betrachtet nur die Richtung, jedoch nicht die Größe der
Differenz  wenig Power
o McNemar: Für Nominaldaten (dichotom)  betrachtet Kategorienwechsel
o Rand-Homogenität: Erweiterung des McNemar für Ordinaldaten
Verfahren für Nominaldaten
 Binominaltest und χ2-Einzeltest



auch bei Prüfung auf Gleichverteilung
Analysieren  Nichtparametrische Tests  Alte Dialogfelder  Binominal bzw. ChiQuadrat  Testvariablen eingeben
kann jeweils die erwartete Verteilung (unter Annahme der H0) angegeben werden
(oft ist das die Gleichverteilung)
o Binominaltest: „Testanteil“ gibt relative Häufigkeit der ersten Kategorie
wider
o χ2-Einzeltest : Relative Häufigkeiten können als „Erwartete Werte“
eingegeben werden
 4-Felder- χ2-Test

Vergleich zweier zweifach gestufter Merkmale

Voraussetzungen
o Unabhängigkeit der Daten
 jede Person taucht nur in einer Zelle auf
 d.h. 4-Felder χ² kann nicht an Messwiederholungsdaten
durchgeführt werden  McNemar Test
o erwartete Häufigkeit pro Zelle sollte immer > 5 sein

Durchführung des Tests
o Beispiel: Katzen das Tanzen beibringen mit Streicheln oder Futter als
Belohnung
o Darstellung der Daten in eine Kreuztabelle/Kontingenztabelle
o
o
Analysieren  Deskriptive Statistiken  Kreuztabellen

o
o
standardisierte Residuen geben Unterschied zwischen beobachteten und
erwarteten Häufigkeiten in Form von z-Werten wieder
 Vergleich mit kritischen z-Werten (z.B. 1,96) zeigt, welche Residuen
signifikant sind
 im Beispiel fallen beide Residuen der Futterbedingung auf
Ergebnisbericht
 Es zeigte sich ein signifikanter Zusammenhang zwischen der Art des
Trainings und der Tanzfähigkeit χ²(1)= 25.36, p< .001.
 k*l – χ2 –Test



entspricht dem 4-Felder-χ2-Test
kategoriale Variablen sind jedoch nicht nur zweistufig, sondern mehrstufig
Auch hier kann der exakte Fisher-Test als Alternative genutzt werden, wenn die
erwarteten Zellenhäufigkeiten gering sind
o muss unter „Exakt“ ausgewählt werden
o bei großen Stichproben dauern exakte Tests sehr lang oder können nicht
berechnet werden
Prüfen von Zusammenhängen
Lineare Regression
 Definition Regression:
 Vorhersage einer Variablen (Kriterium) aufgrund einer oder mehrerer anderer
Variablen (Prädiktoren)
o Prüfung von Kausalhypothesen
o sowohl Prädiktoren als auch Kriterien sind intervallskaliert
 Einfache Regression
 1 Kriterium wird durch 1 Prädiktor vorhergesagt
 Multiple Regression:
 1 Kriterium wird durch mehrere Prädiktoren vorhergesagt
 typische Fragestellung einer einfachen linearen Regression:
 Wie wirkt sich der Prädiktor (z.B. Arbeitszufriedenheit) auf das Kriterium (z.B.
Arbeitsleistung) aus? Kriterium (z.B. Arbeitsleistung) aus?
o „Stärke“ des Zusammenhangs  Korrelation
 ABER: Korrelation ≠ Kausalität
o Zusammenhänge können auch durch andere Einflüsse verursacht werden!
(z.B.: Storchensichtungen und Anzahl der Schwangerschaften)
 linearer Zusammenhang zweier Variablen lässt dich in einem Streudiagramm darstellen
 Regression ist der Versuch, eine Gerade durch die Punktewolke zu legen, für die die
Summe der quadrierten vertikalen Abstände von den einzelnen Messpunkten
minimiert wird
o Minimierung der Vorhersagefehler
 hinter der Regressionsgeraden steht ein Modell, das den (linearen) Zusammenhang zwischen
Prädiktor und Kriterium beschreiben soll
 Einfache lineare Regression

bei standardisierter Form:
o β1  b1 (liegt im Bereich von -1 bis +1)
o b0  verschwindet, da standardisierte Gerade durch den Ursprung führt
Lineare Regression: Güte des Modells
 Wie gut passt das Modell auf die Daten?
 Determinationskoeffizient R2


im Falle der einfachen Regression entspricht R2 der
quadrierten Korrelation zwischen Prädiktor und
Kriterium
QS = Quadratsumme: quadrierte, über alle Fälle aufsummierte Abweichung …
o
… der beobachteten y-Werte vom Mittelwert y  QSTotal
o
… der vorhergesagten y- Werte vom Mittelwert y  QSRegression
o
… der beobachteten y-Werte von den vorhergesagten  QSResiduum
 F-Test der linearen Regression
 wenn signifikant: Vorhersage durch den Prädiktor ist besser als eine Vorhersage
durch den Mittelwert des Kriteriums
 Bewertung der Prädiktoren (bei einfacher Regr.: des Prädiktors)
 wenn signifikant: Regressionsgewicht des Prädiktors ungleich Null und der Prädiktor
trägt bedeutsam zur Vorhersage bei
Lineare Regression: Voraussetzungen
 Linearität des Zusammenhangs zwischen Prädiktor und Kriterium
 Prüfung der Linearität:
o Betrachten des Streudiagramms
o hoher Anteil der erklärten Variation spricht für linearen Zusammenhang
 Homoskedastizität: Varianz der Residuen muss auf jedem Level des Prädiktors gleich sein
 Normalverteilung der Residuen
 Unabhängigkeit der Residuen
 Prüfung der Annahmen bzgl. der Residuen
o QQ-Plot der Residuen
o Histogramm der Residuen mit überlagerter NV-Kurve
o Scatterplot: standardisierte Residuen vs. standardisierte vorhergesagte
Werte (Residuen sollen unsystematisch um horizontale Nulllinie schwanken)
Lineare Regression in SPSS
 Beispiel: Anzahl Plattenverkäufe soll aus Werbebudget vorhergesagt werden
 Analysieren  Regression Linear
o Record Sales als AV (Kriterium)
o Advertising Budget als UV (Prädiktor)
 zur Prüfung der Annahmen bzgl. Residuen 
Diagramme
o Streudiagramm mit ZRESID auf Y-Achse,
ZPRED auf X-Achse
o Unter „Diagramme der standardisierten
Residuen“ Histogramm anklicken
o
o

Regressionskoeffizient B unstandardisiert
 (Konstante) b0
 Advertising Budget  b1
Standardisierte Koeffizienten Beta
 Advertising Budget β1
Bewertung des Prädiktors: t-Test
o Der t-Test für den Prädiktor ist signifikant, sein Regressionsgewicht
unterscheidet sich signifikant von Null
o SPSS gibt auch einen Test aus, der die Konstante (Achsenabschnitt) darauf
testet, ob sie sich von Null unterscheidet für uns irrelevant!
o
Residuen streuen im linken Teil stärker um die Nulllinie als im rechten
 spricht gegen Homoskedastizität
 Lineare Regression berichten

in Tabellenform

Regressionsgleichung aufstellen
Einfaktorielle Varianzanalyse
 Prüfung von Unterschiedshypothesen bei mehr als 2 Gruppen (anstelle des t-Tests für
unabhängige Stichproben)
 Arten von Varianzanalysen:
 Einfaktoriell: 1 Faktor/UV/Gruppierungsvariable
 Zwei- bzw. mehrfaktoriell: 2 oder mehr UVs  Prüfen von Haupt- und
Interaktionseffekten
 Kovarianzanalyse: Berücksichtigung eines weiteren (metrischen) Einflussfaktors
 Mit Messwiederholung: Berücksichtigung wiederholter/abhängiger Messungen
 Multivariate Varianzanalyse: Berücksichtigung mehrerer AVs
 Warum beim Vergleich von mehreren Gruppen nicht mehrere t-Tests rechnen?
 Wahrscheinlichkeit für einen Fehler 1. Art würde sich für die gesamte Testung
erhöhen!
 Bsp.: 3 Gruppen mit 3 t-Test vergleichen
o Für jeden Test ist die Wahrscheinlichkeit, einen Fehler 1. Art zu machen 5%,
die Wahrscheinlichkeit für keinen α-Fehler beträgt 95%
o Wie groß ist die Wahrscheinlichkeit, bei drei (unabhängigen) Tests
mindestens einen α-Fehler zu machen?
 P (kein α-Fehler) = 0.95 x 0.95 x 0.95 = 0.953 = 0.857
 P (mind. 1 α-Fehler) = 1-P(kein α-Fehler) = 1-0.857 = 0.143
 Die Wahrscheinlichkeit beträgt 14,3%!
o Familywise Error
Einfaktorielle ANOVA - Grundprinzip
 ANOVA (analysis of variance) vergleicht Varianzen (mit dem Ziel, Mittelwertsunterschiede
zwischen den Gruppen zu finden)
 Varianz = Quadratsumme / Freiheitsgrade
 Gesamtvarianz = Treatment- + Fehlervarianz
 Treatmentvarianz (Varianz zwischen den Gruppen): Abweichung der Faktorstufenmittel vom
Gesamtmittel
 Fehlervarianz (Varianz innerhalb der Gruppen): Abweichung der Einzelwerte vom
Faktorstufenmittel
 F-Test prüft, ob Treatmentvarianz signifikant größer ist als Fehlervarianz (in dem Fall:
Gruppenmittelwerte unterscheiden sich, Treatment wirkt)
 Beispiel:
o Ein neues Medikament zur Behandlung von Depressionen wurde getestet. Gruppe 1
bekam ein Placebo (Kontrollgruppe). Gruppe 2 bekam die einfache Dosis, Gruppe 3
die doppelte Dosis. Abhängige Variable sind die Werte in einem
Depressionsfragebogen (hohe Werte = stark ausgeprägte Depression).
 F-Test zeigt an, ob es einen Unterschied zwischen den untersuchten Gruppen gibt
 zeigt jedoch nicht an, welche Gruppen sich konkret voneinander unterscheiden
 dafür weitere Analysen:
o Geplante (a priori) Kontraste
 Wenn vorher bereits spezifische Hypothese vorliegen
 Anstelle der ANOVA
o Post hoc Tests
 Alle Gruppen werden miteinander verglichen, jedoch können hier
Korrekturen angewandt werden, damit der familywise error .05
niemals übersteigt
 A-Priori-Kontraste


Kontraste vergleichen bestimmte Gruppen/Sets von Gruppen und teilen die
Treatmentvarianz dadurch in verschiedene Anteile auf
Es werden 2 grundlegende Arten von Kontrasten unterschieden
o Orthogonale Kontraste
 Die Treatmentvarianz wird in unabhängige Teile aufgeteilt
o Nicht orthogonale Kontraste



Die Teile an Treatmentvarianz, die durch die Kontraste aufgeklärt
werden, überschneiden sich teilweise
Orthogonale A-Priori-Kontraste

Konstruktionsregeln:
o Anzahl der Kontraste ist Anzahl der Gruppen -1
o Die Varianz wird in unabhängige Teile aufgeteilt, d.h. wurde eine Gruppe
herausgegriffen, kann sie in keinen weiteren Kontrasten auftauchen
o Jeder Kontrast vergleicht nur 2 Varianzteile
o Gruppen mit positiven Gewichten werden mit Gruppen mit negativen
Gewichten verglichen
o Das Gewicht, der Gruppe(n) eines Varianzanteils = Anzahl der Gruppen im zu
vergleichenden Varianzanteil
o Gruppen, die nicht im Kontrast vertreten sind, bekommen das Gewicht 0
o Die Summe der Gewichte in einem Kontrast ist 0
o
o
Tabelle hilfreich für Eingabe in SPSS
Bei orthogonalen Kontrasten muss
 jede Kontrastsumme = 0 sein und
 die Summe der Kontrastprodukte = 0 sein

Nicht-orthogonale A-Priori Kontraste
o
bei nicht-orthogonalen Kontrasten muss
 jede Kontrastsumme = 0 sein
 die Summe der Kontrastprodukte ist jedoch ≠0

polynomiale A-Priori Kontraste
 Post hoc Tests



Nachdem der F-Test signifikant wurde
vergleicht jede Gruppe mit jeder anderen, sollte darum den α-Fehler kontrollieren
SPSS bietet viele verschiedene Post hoc Tests an:
o Nach Field (2009) sind bei gleichen Stichproben und gleichen Varianzen R-EG-W-Q und Tukey gut (gute Power, enge Kontrolle über Typ-I-Fehler)
o Garantierte Kontrolle über den Fehler 1. Art liefert Bonferroni, ist aber sehr
konservativ
o Bei leicht unterschiedlichen Gruppengrößen: Gabriel
o Bei sehr unterschiedlichen Gruppengrößen: Hochberg‘s GT2
o Bei unterschiedlichen Varianzen: Games-Howell
Einfaktorielle ANOVA in SPSS
 Voraussetzungen
 Intervallskalierung der AV
o Unabhängigkeit der Messungen
 Normalverteilung der AV  innerhalb der Gruppen
o Prüfen, wenn einzelne Gruppen mit ca. n < 30 besetzt sind(Diagramme,
Schiefe, Exzess, KSA-Test)
o bei gleicher Gruppengröße ist ANOVA recht robust
 Varianzhomogenität durch Levene-Test prüfen (wird in SPSS mit ausgegeben)
 Ausführung
 Analysieren  Mittelwerte vergleichen  Einfaktorielle ANOVA
o UV (Faktor) = Dosis
o AV = Leistung
o unter Optionen: Deskriptive,
Levene-Test
o Levene-Test
 p=.913 kleiner als α
=.05
 Test ist nicht
signifikant
 H0 wird beibehalten
 Varianzen sind homogen
o wenn Varianzen nicht homogen
 bei gleich Stichproben robust gegenüber fehlender
Varianzhomogenität
 Alternativ Welch‘s F berichten (besser als Brown-Forsythe F)
o
o
o

Zwischen den Gruppen = Treatment
Innerhalb der Gruppen = Fehler
Der F-Test ist signifikant (p=.025/p<.05), die Gruppen unterscheiden sich
voneinander
Welche Gruppen unterscheiden sich?  Post-hoc-Test
o
o

Jede Gruppe wird mit jeder verglichen
Je nach Test wird der p-Wert auf unterschiedliche Art für die multiplen Tests
angepasst Hier: Nur der Unterschied zwischen Placebo und hoher Dosis ist
signifikant!
Ergebnisbericht
o Es ergab sich ein signifikanter Effekt des Medikamentes auf die Leistung in
einem Test, F(2,12) = 5.12, p= .25.
o Der Post-hoc-Vergleich nach Tukey zeigte, dass die Placebo- Gruppe
(M=2.20, SE=0.58) sich von der Gruppe mit hoher Dosis (M=5.00, SE=0.71)
unterschied (p=.021), nicht jedoch von der Gruppe mit niedriger Dosis
(M=3.20, SE=0.58)(p>.05). Die niedrige Dosis und die hohe Dosis
unterschieden sich ebenfalls nicht signifikant voneinander (p>.05).
 Ausführung von Kontrasten

Durchführung von Kontrasten bietet sich an, wenn man zwar Vermutungen hat die
ANOVA aber noch nicht ausgeführt hat

Über den Pfad „Mittelwerte vergleichen“ müssen die
Kontraste von Hand entsprechend der Tabelle
eingegeben werden:
o Koeffizienten (Gewichte) nach Reihenfolge der
Gruppen (Kodierung beachten) eingebe
o Für einen weiteren Kontrast auf „Weiter“
klicken



Bei zweiseitiger Testung (ungerichtete Hypothese) ist nur der erste Kontrast
signifikant
Da hinter den Kontrasten im Beispiel gerichtete Hypothesen stehen, kann man auch
einseitig testen, dann ist auch der zweite Kontrast signifikant (p-Wert durch 2 teilen
p=.033)
Ergebnisbericht
o Die geplanten Kontraste deckten auf, dass die Einnahme des Medikamentes
verglichen mit der Einnahme eines Placebos Leistung signifikant steigert,
t(12)= 2.47, p=.015 (einseitig/ 1-tailed). Die Einnahme einer hohen Dosis
steigerte Leistung signifikant im Vergleich mit der Einnahmen einer niedrigen
Dosis, t(12)= 2.03, p=.033 (einseitig/ 1-tailed).
 weitere Möglichkeit Kontraste ausgeben zu lassen
 Analysieren  Allgemeines lineares Modell  Univariat
o Hypothesen entsprechen dem Helmert-Kontrast (nach Auswahl auf
„ändern“)
o Ergebnisse werden anders dargestellt, Signifikanzen sind jedoch gleich
Zweifaktorielle Varianzanalyse
 Datenbeispiel: Beeinflusst Alkohol die Einschätzung physischer Attraktivität und gibt es da
einen Unterschied zwischen Männern und Frauen?
 Je 24 Frauen und Männer tranken unterschiedliche Mengen Alkohol (kein Bier, 2
Bier, 4 Bier).
 Im Anschluss wurde ihre Attraktivität durch 100 andere Personen bewertet (AV:
höherer Wert  attraktiver).
 2x3 Design [UVs: Geschlecht (2); Alkohol(3)]
 AV: Attraktivitätsrating der Person (durch 100 andere Pers.)

systematische Varianz in diesen Daten setzt sich zusammen aus der Varianz, die
aufgeklärt wird durch:
o Geschlecht (2 Gruppen): Männer und Frauen
o Alkohol (3 Gruppen): kein Bier, 2 Bier, 4 Bier
o Interaktionseffekt von Geschlecht und Alkohol: Männer ohne Bier, Männer
mit 2 Bier, … , Frauen mit 4 Bier
Interaktionseffekte
 Effekt, der allein dadurch entsteht, dass die Probanden unterschiedlichen
Versuchsbedingungs-Kombinationenzugeteilt sind
 Größe des Effekts des einen Faktors ist abhängig von der Stufe des anderen Faktors
 3 Typen von Interaktionen: Typ lässt sich mithilfe von Interaktionsdiagrammen erkennen
 ordinale Interaktion


Graphen verlaufen in beiden Diagrammen gleichsinnig (sie schneiden sich nicht)
sind Haupteffekte signifikant, können sie global interpretiert werden
o Personen ohne Alkohol werden immer als attraktiver eingestuft
o Männer werden immer als attraktiver eingestuft als Frauen
 disordinale Interaktion



Graphen verlaufen in beiden Diagramm gegensinnig
Haupteffekte können nicht global interpretiert werden
Ausprägung des Faktors B immer bei Interpretation des Effekts des Faktors A
berücksichtigen
 hybride Interaktion


Graphen verlaufen in einem Diagramm gleichsinnig, im anderen nicht
lediglich der Haupteffekt mit gleichsinnigen Graphen kann global interpretiert
werden
o Hier der Haupteffekt von A: A1 ist immer (auf jeder Stufe von B) höher als A2
Zweifaktorielle ANOVA
 Voraussetzungen (wie bei einfaktorieller)
 Intervallskalierung der AV
 Unabhängigkeit der Messungen
 Normalverteilung der AV innerhalb der Gruppen
 Varianzhomogenität
 Durchführung des Tests
 für einen ersten Überblick Balkendiagramme
o Gruppierte Balkendiagramme (zwei
Diagramme möglich)
 mit dem Mittelwert der
Attraktivität auf der Y-Achse
 Alkohol und Geschlecht auf XAchse bzw. als Clustervariable

Analysieren  Allgemeines lineares Modell  Univariat
o AV: Attraktivität
o Feste Faktoren: Geschlecht & Alkohol Konsum

Fester Faktor: alle Bedingungen, an denen der Forscher interessiert ist, wurden im
Experiment realisiert
o Bsp. Alkohol: kein Bier, 2 Bier, 4 Bier
o Nur für diese Bedingungen können die Ergebnisse generalisiert werden, nicht
auf andere Bedingungen (z.B. 3 Bier)
Zufallsfaktor: Die Bedingungen, die im Experiment realisiert wurden, stellen eine
Zufallsauswahl der möglichen (interessierenden) Treatmentbedingungen dar
o Ergebnisse können über die untersuchten auch auf andere Bedingungen
generalisiert werden


Schaltfläche „Diagramme“ (liefert Interaktionsdiagramme)
o bei zwei Faktoren sind 2 Diagramme möglich:
 jeweils 1 Faktor auf „Horizontale Achse“ und „Separate Linien“
 „Hinzufügen“ klicken, dann umgekehrt

Post-hoc Tests
o nur für Faktoren mit >2 Stufen sinnvoll (hier: Alkohol)

Die angeforderten Tests, Diagramme
und Optionen lassen sich in der
Syntax wiederfinden
POSTHOC (-Tests), PLOT
(Diagramme), PRINT(Optionen)
DESIGN gibt an, dass beide
Haupteffekte und die Interaktion auf
Signifikanz getestet werden
o Gesättigtes Modell (alle möglichen
Effekte werden geprüft)
Levene Test: Es werden alle 6 Gruppen (2x3
Bedingungen) verglichen
o p=.202 >.05 Test ist n.s.
(Voraussetzung erfüllt)



o
Post-hoc Test nur interpretieren, wenn entsprechender Haupteffekt signifikant
 Der Unterschied zwischen kein Bier und 4 Bier und zwischen 2 Bier und 4 Bier
ist signifikant (nicht jedoch kein Bier zu 2 Bier)
o
Interaktionsdiagramme: hybride Interaktion, linkes Diagramm gleichsinnig, rechtes
nicht
o
Simple Effects
 aus Post-hoc-Tests lässt sich ablesen, welche Gruppen sich unterscheiden,
jedoch nur Haupteffekte
 Simple Effects Analysen können die Interaktion näher untersuchen (nur über
die Syntax):


prüft für jede Faktorstufe von „Alkohol“, ob es einen Geschlechtseffekt gibt
jedoch ohne α-Fehler-Adjustierung kann nachträglich „von Hand“
vorgenommen werden
 nur bei 4 Bier Unterschied zwischen Männern und Frauen
 Ergebnisbericht
o Es gab einen signifikanten Haupteffekt der Alkoholmenge auf die Attraktivität des
gewählten Partners, F(2,42)= 20.07, p< .001.
o Der Bonferroni Post-hoc-Test zeigte, dass die Attraktivität des gewählten Partners
nach 4 Bier signifikant geringer war als nach keinem Bier oder 2 Bier (beide p<.001).
Die Attraktivität des gewählten Partners nach 2 Bier unterschied sich nicht
signifikant von der Attraktivität nach keinem Bier (p>.05).
o Der Haupteffekt des Geschlechts auf die Attraktivität des gewählten Partners erwies
sich als nicht signifikant, F(1,42)=2.03, p=.16. D.h. Frauen und Männer wählten (bei
Nichtbeachtung der Alkoholmenge) gleich attraktive Partner aus.
o
o
o
Aus den Daten ergab sich ein signifikanter Interaktionseffekt zwischen Alkoholmenge
und Geschlecht auf die Partnerwahl, F(2,42)= 11.91, p<.001. Männer und Frauen
wurden durch Alkohol unterschiedlich in ihrer Partnerwahl beeinflusst.
Simple Effects Analysen zeigten, dass die Attraktivität der gewählten Partner gleich
war für Frauen (M= 66.88, SD= 10.33) und Männer (M= 60.63, SD= 4.96), die keinen
Alkohol tranken, sowie für Frauen(M= 62.50, SD= 6.55) und Männer (M= 66.88,
SD= 5.52), die 2 Bier tranken. Nach 4 Bier war die Attraktivität des gewählten
Partners für Frauen (M= 57.50, SD= 7.07) signifikant höher als und für Männer (M=
35.63, SD= 10.84).
Exkurs α-Justierung
 Bonferroni-Korrektur:
o Bei der Bonferroni-Korrektur zur Kontrolle des „familywiseerror“ wird das
ursprüngliche α-Niveau einfach durch die Anzahl der Tests geteilt und dann auf
diesem neuen α-Niveau getestet:
 α‘ = α/Anzahl der Test
 z.B. bei 3 Tests und ursprünglichem α-Niveau von 5%, α‘ = .05/3=.0167
 Alternative (da in SPSS der p-Wert angegeben ist):
o α-Niveau beibehalten, aber den p-Wert mit der Anzahl der Test multiplizieren (so
geht SPSS bei den Bonferroni-Post-hoc-Tests vor!)
Varianzanalyse mit Messwiederholung
 Mehrfache Messungen an denselben Personen
 „Erweiterung“ des t-Tests für abhängige Stichproben bei mehr als 2
Messungen/Messzeitpunkten
 Unterscheidung von:
 Innersubjektfaktoren: Veränderungen innerhalb der Personen
 Zwischensubjektfaktoren: Gruppenunterschiede
 Vorteil: Stabile Störvariablen (z.B Persönlichkeitsmerkmale) können statistisch kontrolliert
werden
 Nachteil: Sequenzeffekte
 ANOVA ohne Messwiederholung:
 Varianz innerhalb der Gruppen =
Fehlervarianz
 ANOVA mit Messwiederholung:
 Varianz innerhalb der Gruppen
wird nun interessant
o Aufteilung in erklärte
Varianz (durch
Messwiederholung) und
Residualvarianz

Problem: Messungen sind nicht unabhängig
 Neue Voraussetzung bei Messwiederholung: Sphärizität
o die Varianzen der Differenzen zwischen den verschiedenen
Messzeitpunkten/ Treatmentstufen sind gleich
o Varianz 1-2 ≈ Varianz 1-3 ≈ Varianz 2-3
 erst ab 3 Messungen ein Problem (da bei 2 Messungen nur 1 Differenz)
 Mauchley-Test auf Sphärizität
 falls signifikant, ist Sphärizität nicht gegeben (dabei auf Stichprobengröße achten)
 Bei Verletzung der Sphärizitäts-Voraussetzung:
 SPSS liefert weitere F-Tests mit korrigierten Freiheitsgraden
 Je stärker die Verletzung
o desto kleiner ist der Korrekturfaktor ε
o desto stärker weicht der korrigierte F-Test vom unkorrigierten ab
 Korrektur der Freiheitsgrade: Greenhouse-Geisser, Huynh-Feldt
 alternativ: Interpretation der multivariaten Tests, die SPSS automatisch mit ausgibt
 Durchführung des Test:
 Beispiel: Kinder bekommen Infos über neuartige Wesen, die in einer Box sitzen
(positive, negative oder neutrale). Gemessen wird die Angst der Kinder vor diesen
Wesen anhand der Zeit, die die Kinder benötigen, um in die Box zu fassen. Alle
Kinder nehmen an allen Bedingungen teil.
 Analysieren Allgemeines lineares Modell  Messwiederholung
o zunächst müssen die Innersubjektfaktoren (Messwiederholungsfaktor)
benannt und die Anzahl der Stufen festgelegt werden, dann folgt das
„übliche“ Fenster
o
o
Messwiederholungsstufen werden Zahlen zugeordnet (sinnvolle Anordnung)
unter Optionen Deskriptive Statistiken anfordern
 Test ist signifikant (p<.001): Voraussetzung wurde verletzt
 SPSS bietet 2 Korrekturen an
o Werte werden mit den df multipliziert, um so den F-Test zu korrigieren
o Greenhouse-Geisser Korrektur: wie stark weichen die Varianzen der
Differenzen voneinander ab?
 Je näher der Wert an 1, desto homogener sind die Varianzen der
Differenzen
 Je näher der Wert an der Untergrenze (1/k-1), desto heterogener
 Ist die Voraussetzung gebrochen, so sollte man den F-Test bei Greenhouse-Geisser
oder Huynh-Feldt ablesen (der F-Wert hat sich nicht verändert, nur die
Freiheitsgrade [df])
 SPSS gibt bei der ANOVA mit Messwiederholungunaufgefordert die Ergebnisse für
polynomiale Kontraste mit aus (Tabelle „Tests der Innersubjektkontraste“)
 In der Tabelle „Tests der Zwischensubjekteffekte“ werden die Ergebnisse von
Gruppierungsfaktoren (unabhängige Gruppen) ausgegeben, falls solche vorhanden
sind
o Im Tier-Beispiel könnte man z.B. das Geschlecht der Kinder als weiteren
Faktor untersuchen
o Das wäre ein gemischtes Design (mixed design) mit einem
Zwischensubjektfaktor (Geschlecht) und einem Innersubjektfaktor (Tier
Messwiederholung)
 Verletzung der Sphärizitätsvoraussetzung bringt auch für Post-hoc-Tests Probleme
o einige Post-hoc-Tests sind über „Optionen“  geschätzte Randmittel
zugänglich
o wird Sphärizität gebrochen, so ist Bonferroni der robusteste Post-hoc-Test.
o Sidak ist weniger konservativ als Bonferroni
 Interpretation wie „normale“ Post-hoc-Tests
o Hier: Unterschied zwischen negativ (1) und neutral (2), sowie negativ (1) und
positiv (3) ist signifikant
 Ergebnisbericht
 Der Mauchly-Test zeigte, dass die Voraussetzung der Sphärizität gebrochen wurde,
χ²(2)= 28.18, p<.001. Daher wurden die Freiheitsgrade mit Hilfe der GreenhouseGeisser Schätzung korrigiert, (ε=. 83).
 Eine einfaktorielle ANOVA mit Messwiederholung zeigte, dass die Art der Information
einen signifikanten Effekt auf die Annäherungszeit hatte, F(1.66,209.69)= 58.68,
p<.001.
 Bonferroni-korrigierte Post-hoc-Tests deckten signifikante Unterschiede in den
Annäherungszeiten zwischen neutraler und negativer Information, sowie positiver
und negativer Information (beide p<.001) auf. Dieser Unterschied ergab sich nicht
zwischen positiver und neutraler Information (p=.357).
Gemischtes Design
 Beispiel
 Ein klinischer Psychologe möchte die Wirkung eines neuen Antidepressivums namens
Cheerup untersuchen. 50 Patienten mit Depression werden randomisiert 5 Gruppen
zugewiesen:
o Wartelistenkontrollgruppe
o Placebo-Gruppe
o Seroxat (SSRI; selektive Serotonin-Wiederaufnahmehemmer)
o Effexor (SNRI; Serontonin-Noradrenalin-Wiederaufnahmeh.)
o Cheerup
 Das Ausmaß der Depression wurde vor der Behandlung und nach 2 Monaten
Behandlung erfasst (0=superglücklich bis 20=todtraurig).
 Durchführung des Tests
 Analysieren Allgemeines lineares Modell  Messwiederholung
o hier gibt es einen Messwiederholungsfaktor (vorher vs. nachher) sowie einen
Gruppierungsfaktor (Treatment)
o da es nur zwei Messzeitpunkt gibt dir der Mauchly-Test nicht berechnet
o
da es nur zwei Messzeitpunkt gibt dir der Mauchly-Test nicht berechnet
o
o
Über die beiden Zeitpunkte hinweg gibt es keinen Unterschied zwischen den
Treatments (p=.109)
 Die angeforderten Post-hoc-Tests dürfen darum nicht interpretiert werden
(diese sind auch alle nicht signifikant)
Interpretation der Interaktionsdiagramme
 Bei fast allen Treatments ist ein deutlicher Abfall in den Depressionswerten
zwischen T1 und T2 zu beobachten
 Ausnahme: No Treatment und evtl. Effexor
 Zu T1 (vorher) scheinen die Treatments sich nicht zu unterscheiden, aber zu T2


Diese Aussagen sind aber rein deskriptiv
Auch hier kann man mit Simple Effects Analysen die Interaktion näher
untersuchen
Herunterladen