SPSS – 13.0 Advanced

Werbung
SPSS – 13.0 Advanced
Mittelwertvergleiche
Der Vergleich von verschiedenen Stichproben hinsichtlich ihrer Mittelwerte gehört zu
den gängigsten statistischen Analysen. Dabei soll stets die Frage geklärt werden, ob
auftretende Mittelwertunterschiede sich mit zufälligen Schwankungen erklären lassen
oder nicht. In letzterem Fall spricht man von einem überzufälligen oder signifikanten
Unterschied.
SPSS – 13.0 Advanced
hyper.sav
Medizinische Studie, welche die Wirkung von zwei verschiedenen
Medikamenten (mit den Fanatsienamen Alphasan und Betasan) auf die Senkung
des Blutdrucks von Hypertonie-Patienten analysiert. 174 Fälle
Variablen:
Nr = Patientennummer
Med = Medikamentengruppe ( 1 = Alphasan, 2 = Betasan)
G = Geschlecht
A = Alter in Jahren
Gr = Größe in cm
Gew = Gewicht in kg
rrs0 = systolischer Blutdruck, Ausgangswert
rrd0 = diastolischer Blutzucker, Ausgangswert
chol0 = Cholesterin, Ausgangswert
chol1 = dto. Wert nach 1 Monat
bz0 = Blutzucker, Ausgangswert
ak = Alter, in Klassen eingeteilt
SPSS – 13.0 Advanced
Beispiel – Vergleich von zwei unabhängigen Stichproben (Beispieldatei: hyper.sav)
T-Test bei unabhängigen Stichproben
Auswahl der Quellvariable (a)
Auswahl der Gruppierungsvariable (med)
Definition der Gruppen: med =1 und med =2 also 1 und 2
AUSGABE
Die Ausgabe umfasst:
●
●
●
●
Fallzahl, Mittelwert, Standardabweichung und Standardfehler des Mittelwertes in beiden
Gruppen
Levene-Test auf Gleichheit der Varianzen (Varianzhomogentität oder Homsekdazität)
das Ergebnis des t-Tests: Prüfgröße t, Anzahl der Freiheitsgrade (df),
Irrtumswahrscheinlichkeit p unter Bezeichnung sig. (2-seitig) und
die Differenz der beiden Mittelwerte, deren Standardfehler und ein zugehöriges
Konfidenzintervall
SPSS – 13.0 Advanced
Beispiel – Vergleich von zwei unabhängigen Stichproben (Beispieldatei: hyper.sav)
T-Test bei unabhängigen Stichproben (Testvorausetzung – Normalverteilung)
1-KS-Stichprobentest
AUSGABE
One-Sample Kolmogorov-Smirnov Test
N
Normal Parametersa,b
Most Extreme
Differences
Mean
Std. Deviation
Absolute
Positive
Negative
Kolmogorov-Smirnov Z
Asymp. Sig. (2-tailed)
Alter
174
62,11
11,548
,059
,055
-,059
,785
,569
a. Test distribution is Normal.
b. Calculated from data.
Interpretation
Nullhypothese: Die Variable Alter ist normalverteilt
Asymp.Sig. (2-tailed) = 0,569 > 0,05 --> Nullhypothese muss angenommen werden
SPSS – 13.0 Advanced
Beispiel – Vergleich von zwei unabhängigen Stichproben (Beispieldatei: hyper.sav)
T-Test bei unabhängigen Stichproben
AUSGABE
Independent Samples Test
Levene's Test for
Equality of Variances
F
Alter
Equal variances
assumed
Equal variances
not assumed
,543
Sig.
,462
t-test for Equality of Means
t
df
Sig. (2-tailed)
Mean
Difference
Std. Error
Difference
95% Confidence
Interval of the
Difference
Lower
Upper
,151
172
,880
,264
1,756
-3,201
3,730
,151
171,249
,880
,264
1,756
-3,202
3,730
Interperation:
Levene Test – Varianzhomogenität 0,462 > 0,05 --> Varianzhomogenität gilt
t-test – Test der Mittelwertunterschiede 0,880 > 0,05 --> keine sig. Unterschiede
SPSS – 13.0 Advanced
Beispiel – Vergleich von zwei abhängigen Stichproben
T-Test bei gepaarten Stichproben...
Auswahl der Quellvariablen (chol0 und chol1)
AUSGABE
Die Ausgabe umfasst:
–
Mittelwert, Fallzahl, Standardabweichung und Standardfehler des Mittelwertes beider
Variablen
–
den Korrelationskoeffizienten (Produkt-Moment-Korrelation nach Pearson)
zwischen den beiden Variabeln und seine Absicherung gegen Null,
–
Mittelwert, Standardabweichung, Standardfehler des Mittelwertes, Konfidenzintervall
der Wertdifferenz
–
das Ergebnis des t-Tests: Prüfgröße t, Anzahl der Freiheitsgrade (df), Irrtumswahrscheinlichkeit p unter der Bezeichnung „Sig. (2-seitig)“
SPSS – 13.0 Advanced
Beispiel – Vergleich von zwei abhängigen Stichproben
T-Test bei gepaarten Stichproben...
AUSGABE
Paired Samples Test
Paired Differences
Mean
Pair
1
Cholesterin,
Ausgangswert Cholesterin,
nach 1 Monat
-1,925
Std. Deviation
Std. Error
Mean
26,085
1,978
95% Confidence
Interval of the
Difference
Lower
Upper
-5,828
1,978
t
-,974
df
Sig. (2-tailed)
173
,332
Interpretation
Vergleich von zwei abhängigen Stcihproben 0,332 > 0,05 --> kein sig. Unterschied
Weitere Operationen (um zu Vergleich, ob beide Medikamentgruppen gleiche Ergbnisse
liefern, muss man unter Fälle auswählen und eine Medikamentgruppe auswählen)
SPSS – 13.0 Advanced
Beispiel – Vergleich von mehr als zwei unabhängigen Stichproben
Einfaktorielle ANOVA
Quellvariable gr in abhängige Variablen
Quellvariable ak in Faktor
Optionen: Erstellung deskriptive Statistiken und Üperprüfung auf
Varianzhomogentität
Post-Hoc: Duncan Test (wenn sig dann wer)
AUSGABE
Die Ausgabe umfasst:
●
●
●
●
Fallzahl, Mittelwert, Standardabweichung, Standardfehler des Mittelwertes, 95-Prozent
Konfidenzintervall, Minimum, Maximum bei allen Faktorstufen
Levene-Test auf Varianzhomogentität
das typische Schema der Varianzanalyse einschließlich der Irrtumswahrscheinlichkeit p
(Signifikanz) zur Beurteilung der Gesamtsignifikanz und
die Ergebnisse des multiplen Rangtest nach Duncan
SPSS – 13.0 Advanced
Beispiel – Vergleich von mehr als zwei unabhängigen Stichproben
Einfaktorielle ANOVA
AUSGABE
Test of Homogeneity of Variances
Koerpergroesse
Levene
Statistic
,639
df1
3
df2
170
Sig.
,591
Interpretation
Levene-Test auf Varianzhomogenität 0,591 > 0,05 --> Varianzen sind homogen
SPSS – 13.0 Advanced
Beispiel – Vergleich von mehr als zwei unabhängigen Stichproben
Einfaktorielle ANOVA
AUSGABE
ANOVA
Koerpergroesse
Sum of
Squares
Between Groups 1301,200
Within Groups
9990,966
Total
11292,167
df
3
170
173
Mean Square
433,733
58,770
F
7,380
Sig.
,000
Interpretation
Anova Sig. = 0,000 < 0,05 --> sig. Unterschiede hinsichtlich der Körpergröße in den
Altersgruppen
SPSS – 13.0 Advanced
Beispiel – Vergleich von mehr als zwei unabhängigen Stichproben
Einfaktorielle ANOVA (post-hoc test duncan)
AUSGABE
Koerpergroesse
a,b
Duncan
Altersklassen
66-75 Jahre
> 75 Jahre
56-65 Jahre
bis 55 Jahre
Sig.
N
47
24
51
52
Subset for alpha = .05
1
2
162,47
162,67
164,82
169,10
,202
1,000
Means for groups in homogeneous subsets are displayed.
a. Uses Harmonic Mean Sample Size = 39,300.
b. The group sizes are unequal. The harmonic mean
of the group sizes is used. Type I error levels are
not guaranteed.
Interpretation
Wenn ein sig. Unterschied besteht kann man mit einem Post-hoc Test herausfinden, wo
dieser Unterschied besteht. Hier ist es die Klasse bis 55 Jahre.
SPSS – 13.0 Advanced
Beispiel – Vergleich von mehr als zwei abhängigen Stichproben
Analysieren – Allgemeines lineares Modell – Messwiederholung
Quellvariablen chol0, chol1, chol6, chol12
Faktor 1
Anzahl der Stufen 4
Um herauszufinden wer sich unterscheidet muss man den Einstichproben t-test verwenden
Beispiel – Einstichproben-t-test
Analysieren – Mittelwerte vergleichen T-test bei einer Stichprobe
Quellvariable: chol0 Testvariable: 229 (stammt aus einer anderen Studie !)
SPSS – 13.0 Advanced
Beispiel – Vergleich von mehr als zwei abhängigen Stichproben
Analysieren – Allgemeines lineares Modell – Messwiederholung
AUSGABE
Tests of Within-Subjects Effects
Measure: MEASURE_1
Source
factor1
Error(factor1)
Sphericity Assumed
Greenhouse-Geisser
Huynh-Feldt
Lower-bound
Sphericity Assumed
Greenhouse-Geisser
Huynh-Feldt
Lower-bound
Type III Sum
of Squares
3381,822
3381,822
3381,822
3381,822
220504,678
220504,678
220504,678
220504,678
df
3
2,509
2,549
1,000
519
434,088
440,994
173,000
Mean Square
1127,274
1347,779
1326,675
3381,822
424,865
507,972
500,018
1274,594
F
2,653
2,653
2,653
2,653
Sig.
,048
,058
,058
,105
Interpretation
Der Sig. Wert von 0,048 < 0,05 besagt, dass ein sig. Unterschied zwischen den
Cholesterienwerten zu den unterschiedlichen Meßzeitpunkten besteht.
SPSS – 13.0 Advanced
Nichtparametrische Tests
Nichtparametrische Tests werden überall dort angewandt, wo die Annahme der
Normalverteilung nicht aufrechterhalten werden kann. (Ausreißer sind hier kein
Problem)
Die am häufigsten verwendeten Tests sind die zum Vergleich von zwei oder mehr
als zwei unabhängigen bzw. abhängigen Stichproben; hier sind die bekanntesten
Tests der U-Test nach Mann und Whitney, der H-Test nach Kruskal und Wallis,
der Wilcoxon Test und der Friedman-Test.
SPSS – 13.0 Advanced
Vergleich von zwei unabhängigen Stichproben
U-Test nach Mann und Whitney
Analysieren – nichtparametrische Tests – zwei unabhängige Stichproben
Quellvariable bz0 in Testvariablenfeld
Quellvariable g ins Gruppenvariablenfeld (Gruppe definieren 1 und 2)
AUSGABE
Die Ausgabe umfasst
●
die Fallzahlen, die mittleren Rangplätze und Rangsummen in beiden Stichproben
●
die Testgröße U
●
die kleinere der beiden Rangsummen (W)
●
bei weniger als 30 Fällen die exakte Irrtumswahrscheinlichkeit p
●
die Prüfgröße z und die Irrtumswahrscheinlichkeit p, die bei einer Fallzahl ab 30 zu
verwenden sind
SPSS – 13.0 Advanced
Vergleich von zwei unabhängigen Stichproben
U-Test nach Mann und Whitney
Analysieren – nichtparametrische Tests – zwei unabhängige Stichproben
AUSGABE
Test Statisticsa
Blutzucker,
Ausgangs
wert
Mann-Whitney U
3048,000
Wilcoxon W
4818,000
Z
-1,096
Asymp. Sig. (2-tailed)
,273
a. Grouping Variable: Geschlecht
Interpretation
Asymp. Sig. (2-tailed) = 0,273 > 0,05 --> kein sig. Unterschied hinsichtlich des Geschlechtes
auf den Blutzuckerwert zum Ausgangszeitpunkt
SPSS – 13.0 Advanced
Vergleich von zwei abhängigen Stichproben
Wilcoxon Test
Analysieren – Nichtparametrische Tests – zwei verbundene Stichproben
Quellvariablen rrs0 und rrs1
Test: Wilcoxon
Optionen: Quartile
AUSGABE
Die Ausgabe umfasst
●
Median und Quartile von beiden Variablen
●
Anzahl, mittlere Ränge und Rangsummen bei negativen und positiven Differenzen
●
Anzahl der Nulldifferenzen
●
Prüfgröße z und zugehörige Irrtumswahrscheinlichkeit p
SPSS – 13.0 Advanced
Vergleich von zwei abhängigen Stichproben
Wilcoxon Test
Analysieren – Nichtparametrische Tests – zwei verbundene Stichproben
AUSGABE
Test Statisticsb
syst.
Blutdruck,
nach 1
Monat - syst.
Blutdruck,
Ausgangswe
rt
Z
-9,970a
Asymp. Sig. (2-tailed)
,000
a. Based on positive ranks.
b. Wilcoxon Signed Ranks Test
Interpretation
Asymp.Sig. (2-tailed) = 0,000 < 0,05 --> sig. Unterschied des systolischen Blutdruckswertes
zwischen Zeitpunkt 0 und 1
SPSS – 13.0 Advanced
PCALLTAG.SAV
Die Datei enthält die Daten einer Befragung von Studierenden über
Computernutzung im Alltag. Die Variable compstd gibt dabei die wöchentlichen
Computernutzungszeit in Stunden wieder, die Variable fachgr ist die Kodierung
von sechs Fächergruppen.
SPSS – 13.0 Advanced
Vergleich von mehr als zwei unabhängigen Stichproben (Quelldatei: pcalltag.sav)
H-Test nach Kruskal und Wallis
(Analysieren – Berichte – Fälle zusammenfassen)
Analysieren – nichtparametrische Tests – K unabhängige Stichproben
Quellvariable: compstd – Testvariable
Quellvariable: fachgr als Gruppenvariable (1 bis 6)
AUSGABE
Die Ausgabe umfasst
●
●
Fallzahlen und mittleren Rangplätze in den einzelnen Gruppen
die Testgröße Chi-Quadrat, die Anzahl der Freiheitsgrade und die zugehörige
Irrtumswahrscheinlichkeit p
SPSS – 13.0 Advanced
Vergleich von mehr als zwei unabhängigen Stichproben (Quelldatei: pcalltag.sav)
H-Test nach Kruskal und Wallis
Analysieren – Berichte – Fälle zusammenfassen
AUSGABE
Case Summaries
Median
Fächergruppen
Rechtswissenschaften
Wirtschaftswissensch
aften
Sozialwissenschaften
Sprachwissenschaften
Naturwissenschaften
Medizin
Total
ComputerStunden pro
Woche
8,500
Interpretation:
Medianwerte der einzelnen Fachrichtungen
14,000
8,000
8,000
10,000
5,000
8,000
SPSS – 13.0 Advanced
Vergleich von mehr als zwei unabhängigen Stichproben (Quelldatei: pcalltag.sav)
H-Test nach Kruskal und Wallis
Analysieren – nichtparametrische Tests – K unabhängige Stichproben
AUSGABE
Test Statisticsa,b
Chi-Square
df
Asymp. Sig.
ComputerStunden pro
Woche
37,911
5
,000
a. Kruskal Wallis Test
b. Grouping Variable: Fächergruppen
Interpretation
Asymp.Sig. = 0,000 < 0,05 --> sig. Unterschied der Computerbenutzung hinsichtlich der
Fachrichtungen
SPSS – 13.0 Advanced
(variation median test)
Vergleich von mehr als zwei unabhängigen Stichproben (Quelldatei: hyper.sav)
Friedman Test
Analysieren – nichtparametrische tests – k verbundene stichproben
Quellvariablen: rrd0, rrd1, rrd6, rrd12 – Testvariablen
AUSGABE
Die Ausgabe umfasst
●
●
die mittlere Rangplätze der beteiligten Variablen
die Fallzahl, die Prüfgröße Chi-Quadrat, die zugehörige Anzahl der Freiheitsgrade (df) und
die Irrtumswahrscheinlichkeit
SPSS – 13.0 Advanced
Vergleich von mehr als zwei unabhängigen Stichproben (Quelldatei: hyper.sav)
Friedman Test
Analysieren – nichtparametrische tests – k verbundene stichproben
AUSGABE
Test Statisticsa
N
Chi-Square
df
Asymp. Sig.
174
317,754
3
,000
a. Friedman Test
Interpretation
Asymp. Sig. = 0,000 < 0,05 --> sig. Unterschiede
SPSS – 13.0 Advanced
Kolmogorov-Smirnov-Test zur Überprüfung der Verteilungsform
Analysieren – nichtparametrische tests – k-s bei einer stichprobe
Quellvariable: chol0
Optionen: deskriptive statistik, quartilen
AUSGABE
Die Ausgabe umfasst
●
Mittelwert und Standardabweichung
●
die beim Kolmogorov-Smirnov-Test anfallenden Zwischenergebnisse
SPSS – 13.0 Advanced
Korrelationen
Es geht um den Zusammenhang (Korrelation) zwischen zwei Variabeln.
Grafik: Streudiagramm
SPSS – 13.0 Advanced
●
Korrelationskoeffizient
Korrelationskoeffizienten
Wert
Bis 0,2
Bis 0,5
Bis 0,7
Bis 0,9
Über 0,9
Interpretation
Sehr geringe Korrelation
Geringe Korrelation
Mittlere Korrelation
Hohe Korrelation
Sehr hohe Korrelation
SPSS – 13.0 Advanced
●
Korrelationskoeffizient
●
Berechnung des Korrelationskoeffizienten
–
Intervallskalierte und normalverteilte Variablen: Produkt-Moment-Korrelation
nach Pearson
–
Mindestens eine der beiden Variablen ist ordinalskaliert und nicht
normalverteilt: Rangkorrelation nach Spearman oder Kendalls Tau
–
Ein der beiden Variablen ist dichotom: Punktbiseriale Korrelation (SPSS
nicht vorhanden daher Rangkorrelation)
–
Beide Variablen sind dichotom: Vierfelder-Korrelation. SPSS in
Zusammenhang mit Distanz- und Ähnlichkeitsmaßen zu berechnen.
SPSS – 13.0 Advanced
Korrelationskoeffizienten nach Pearson
Analysieren – korrelation – bivariate
Quellvariablen : chol0, chol1, chol6, chol12
AUSGABE
Die Ausgabe umfasst:
●
den Pearson-Korrelationskoeffizient r, die Anzahl der jeweiligen Wertepaare und die sich
bei der Absicherung von r gegen Null ergebenden Irrtumswahrscheinlichkeit p.
Rangkorrelationskoeffizient nach Spearman und Kendall
Bei ordninalskalierten und nichtnormalverteilten intervallskalierten Variablen wird anstelle des
Pearson Koffenzient der Spearman berechnet.
Deaktivieren in der Dialogbox Bivariate Korrelation – die Pearson Korrelation und aktivieren
der Spearman Korrelation
SPSS – 13.0 Advanced
●
●
●
●
Partielle Korrelation
Scheinkorrelation – Bsp. Man untersucht ausreichend große Menge an Frauen
und Ihre Schuhgröße und deren Intelligentquotient --> geringe, aber signifikante
Korrelation
Korrelationskoeffizient ist nicht Ausdruck eines kausalen Zusammenhangs
zwischen den beiden betrachteten Variablen sondern wird vielmehr von einer
anderen Variablen entscheident mitbestimmt.
Die Möglichkeit des Ausschlusses einer Störvariable bietet die Berechnung der
partiellen Korrelation
SPSS – 13.0 Advanced
KIRCHE.SAV
Bevölkerungsbefragung der Sozialwissenschaftler, in der unter anderem nach
der Einstellung zu Gastarbeitern gefragt wurde. Es wurden die Ergebnisse der
Einzelfragen zusammengerechnet und ein Gesamtscore gebildet, der zwischen
0 und 30 liegen konnte. Ein hoher Wert bedeutete eine abweisende Einstellung
zu Gastarbeitern. Unter anderem wurde auch das Alter und deren
Kirchengangshäufigkeit erfragt. (1 nie bis 6 mind. 2X pro Woche)
SPSS – 13.0 Advanced
●
Partielle Korrelation
Analysieren – korrelation – partielle
Variablen : gast, kirche
Kontrollvariable: Alter
Optionen: Mittelwert, Standardabweichung und Korrelation nullter Ordnung
(einfache Korrelationskoeffizienten)
AUSGABE
Die Ausgabe umfasst:
●
Partieller Korrelationskoeffizient, Anzahl der Freiheitsgrade (Fallzahl minus 3) und das
Signifikanzniveau
SPSS – 13.0 Advanced
Regressionsanalyse
Die Regressionsanalyse gibt Aufschluß über die Art des Zusammhangs zwischen dem Wert
einer abhängigen und den Werten anderer (unabhängiger) Variabeln.
Analysieren – Regression
Einfache lineare Regression
y = b*x+a
b = regressionskoeffizient
a = ordinatenabschnitt (y-achse vertikale)
SPSS – 13.0 Advanced
Einfache lineare Regression
Berechnen der Regressionsgleichung
Analysieren – Regression – Linear
Quellvariable: chol1 – abhängige Variable
Quellvariable: chol0 – unabhängige Variable
AUSGABE
Konstante = a = 34,546
Ausgangswert = b = 0,863
===> chol1 = 0,863*chol0 + 34,546 (Geradengleichung)
SPSS – 13.0 Advanced
Grafiken
Streudiagramm
Einfach
Definieren
Quellvariable chol1 – Y-Achse
Quellvariable chol0 – X-Achse
Grafik Doppelklick
Anpassungslinier Gesamt
Anpassungs-Optionen
Lineare Regression
SPSS – 13.0 Advanced
Varianzanalysen
Die Varianzanalyse untersucht den Einfluss von einer oder mehreren
unabhängigen Variablen auf eine abhängige Variable (univariate Analyse) oder
mehrere abhängige Variablen (multivariate Analyse)
–
unabhängig (nominal oder ordinal) = Faktoren
–
unabhängig (intervall- oder verhältnisskaliert) – metrische Werte =
Kovarianten (--> Kovarianzanalyse)
SPSS – 13.0 Advanced
varana.sav
27 Versuchspersonen wurden zu vier Untersuchungszeitpunkten einem Merkfähigkeitstest
unterzogen. Daneben wurde von jeder Versuchsperson auch das Geschlecht und das
Alter festgehalten.
Geschlecht:
1 = männlich
2 = weiblich
Alter:
1 = bis 30
2 = 31 bis 50
3 = über 50
SPSS – 13.0 Advanced
Univariate Varianzanalyse (Quelldatei: varana.sav)
Analysieren – Allgemeines lineares Modell – Univariat...
Quellvariable: m1 = abhängige Variable
Quellvariablen: geschl und alter = feste Faktoren
Modell: voreinstellungen (gesättigtes Modell – neben allen Haupteffekten werden
auch alle Wechselwirkungen zwischen den Faktoren berechnet)
Optionen: Scheffé-Test
Interpretation
keine Varianzhomogentität daher sollte man das Sig Niveau verändern statt 5% 1%
SPSS – 13.0 Advanced
Univariate Varianzanalyse mit Messwiederholung
Analysieren – Allgemeines lineares Modell – Messwiederholung
Faktorname faktor 1 durch zeit ersetzen
Anzahl der Stufen 4
Quellvariablen: m1 bis m4 = Innersubjektvariablen
Quellvariablen: geschl und alter = Zwischensubjektfaktoren
Optionen: geschätzte Randmittel für geschl, alter, zeit und Homogenitätstests
Ausgabe siehe folgende Seite
SPSS – 13.0 Advanced
Prüfgrößen
Verschiedene Prüßgrößen wurden entwickelt, um die Wechselwirkungen der
Faktoren zu erklären
●
Liste der Prüfgrößen: Pillai-Spur, Wilks-Lambada, Hotelling-Spur, Größte
charakteristische Wurzel nach Roy,......
Diesen Prüfgrößen wird über eine geeignete Transformation ein F-Wert
zugewiesen, der dann zu den angegebenen p-Werten (unter „Signifikanz“) führt.
●
●
Die „Pillai-Spur“ gilt als stärkster und robustester Test !
SPSS – 13.0 Advanced
Literatur
SPSS 14 - Einführung in die moderne Datenanalyse unter Windows; A.Bühl,
P.Zöfel; 10.Auflage 2006; Pearson Studium
Herunterladen