SPSS – 13.0 Advanced Mittelwertvergleiche Der Vergleich von verschiedenen Stichproben hinsichtlich ihrer Mittelwerte gehört zu den gängigsten statistischen Analysen. Dabei soll stets die Frage geklärt werden, ob auftretende Mittelwertunterschiede sich mit zufälligen Schwankungen erklären lassen oder nicht. In letzterem Fall spricht man von einem überzufälligen oder signifikanten Unterschied. SPSS – 13.0 Advanced hyper.sav Medizinische Studie, welche die Wirkung von zwei verschiedenen Medikamenten (mit den Fanatsienamen Alphasan und Betasan) auf die Senkung des Blutdrucks von Hypertonie-Patienten analysiert. 174 Fälle Variablen: Nr = Patientennummer Med = Medikamentengruppe ( 1 = Alphasan, 2 = Betasan) G = Geschlecht A = Alter in Jahren Gr = Größe in cm Gew = Gewicht in kg rrs0 = systolischer Blutdruck, Ausgangswert rrd0 = diastolischer Blutzucker, Ausgangswert chol0 = Cholesterin, Ausgangswert chol1 = dto. Wert nach 1 Monat bz0 = Blutzucker, Ausgangswert ak = Alter, in Klassen eingeteilt SPSS – 13.0 Advanced Beispiel – Vergleich von zwei unabhängigen Stichproben (Beispieldatei: hyper.sav) T-Test bei unabhängigen Stichproben Auswahl der Quellvariable (a) Auswahl der Gruppierungsvariable (med) Definition der Gruppen: med =1 und med =2 also 1 und 2 AUSGABE Die Ausgabe umfasst: ● ● ● ● Fallzahl, Mittelwert, Standardabweichung und Standardfehler des Mittelwertes in beiden Gruppen Levene-Test auf Gleichheit der Varianzen (Varianzhomogentität oder Homsekdazität) das Ergebnis des t-Tests: Prüfgröße t, Anzahl der Freiheitsgrade (df), Irrtumswahrscheinlichkeit p unter Bezeichnung sig. (2-seitig) und die Differenz der beiden Mittelwerte, deren Standardfehler und ein zugehöriges Konfidenzintervall SPSS – 13.0 Advanced Beispiel – Vergleich von zwei unabhängigen Stichproben (Beispieldatei: hyper.sav) T-Test bei unabhängigen Stichproben (Testvorausetzung – Normalverteilung) 1-KS-Stichprobentest AUSGABE One-Sample Kolmogorov-Smirnov Test N Normal Parametersa,b Most Extreme Differences Mean Std. Deviation Absolute Positive Negative Kolmogorov-Smirnov Z Asymp. Sig. (2-tailed) Alter 174 62,11 11,548 ,059 ,055 -,059 ,785 ,569 a. Test distribution is Normal. b. Calculated from data. Interpretation Nullhypothese: Die Variable Alter ist normalverteilt Asymp.Sig. (2-tailed) = 0,569 > 0,05 --> Nullhypothese muss angenommen werden SPSS – 13.0 Advanced Beispiel – Vergleich von zwei unabhängigen Stichproben (Beispieldatei: hyper.sav) T-Test bei unabhängigen Stichproben AUSGABE Independent Samples Test Levene's Test for Equality of Variances F Alter Equal variances assumed Equal variances not assumed ,543 Sig. ,462 t-test for Equality of Means t df Sig. (2-tailed) Mean Difference Std. Error Difference 95% Confidence Interval of the Difference Lower Upper ,151 172 ,880 ,264 1,756 -3,201 3,730 ,151 171,249 ,880 ,264 1,756 -3,202 3,730 Interperation: Levene Test – Varianzhomogenität 0,462 > 0,05 --> Varianzhomogenität gilt t-test – Test der Mittelwertunterschiede 0,880 > 0,05 --> keine sig. Unterschiede SPSS – 13.0 Advanced Beispiel – Vergleich von zwei abhängigen Stichproben T-Test bei gepaarten Stichproben... Auswahl der Quellvariablen (chol0 und chol1) AUSGABE Die Ausgabe umfasst: – Mittelwert, Fallzahl, Standardabweichung und Standardfehler des Mittelwertes beider Variablen – den Korrelationskoeffizienten (Produkt-Moment-Korrelation nach Pearson) zwischen den beiden Variabeln und seine Absicherung gegen Null, – Mittelwert, Standardabweichung, Standardfehler des Mittelwertes, Konfidenzintervall der Wertdifferenz – das Ergebnis des t-Tests: Prüfgröße t, Anzahl der Freiheitsgrade (df), Irrtumswahrscheinlichkeit p unter der Bezeichnung „Sig. (2-seitig)“ SPSS – 13.0 Advanced Beispiel – Vergleich von zwei abhängigen Stichproben T-Test bei gepaarten Stichproben... AUSGABE Paired Samples Test Paired Differences Mean Pair 1 Cholesterin, Ausgangswert Cholesterin, nach 1 Monat -1,925 Std. Deviation Std. Error Mean 26,085 1,978 95% Confidence Interval of the Difference Lower Upper -5,828 1,978 t -,974 df Sig. (2-tailed) 173 ,332 Interpretation Vergleich von zwei abhängigen Stcihproben 0,332 > 0,05 --> kein sig. Unterschied Weitere Operationen (um zu Vergleich, ob beide Medikamentgruppen gleiche Ergbnisse liefern, muss man unter Fälle auswählen und eine Medikamentgruppe auswählen) SPSS – 13.0 Advanced Beispiel – Vergleich von mehr als zwei unabhängigen Stichproben Einfaktorielle ANOVA Quellvariable gr in abhängige Variablen Quellvariable ak in Faktor Optionen: Erstellung deskriptive Statistiken und Üperprüfung auf Varianzhomogentität Post-Hoc: Duncan Test (wenn sig dann wer) AUSGABE Die Ausgabe umfasst: ● ● ● ● Fallzahl, Mittelwert, Standardabweichung, Standardfehler des Mittelwertes, 95-Prozent Konfidenzintervall, Minimum, Maximum bei allen Faktorstufen Levene-Test auf Varianzhomogentität das typische Schema der Varianzanalyse einschließlich der Irrtumswahrscheinlichkeit p (Signifikanz) zur Beurteilung der Gesamtsignifikanz und die Ergebnisse des multiplen Rangtest nach Duncan SPSS – 13.0 Advanced Beispiel – Vergleich von mehr als zwei unabhängigen Stichproben Einfaktorielle ANOVA AUSGABE Test of Homogeneity of Variances Koerpergroesse Levene Statistic ,639 df1 3 df2 170 Sig. ,591 Interpretation Levene-Test auf Varianzhomogenität 0,591 > 0,05 --> Varianzen sind homogen SPSS – 13.0 Advanced Beispiel – Vergleich von mehr als zwei unabhängigen Stichproben Einfaktorielle ANOVA AUSGABE ANOVA Koerpergroesse Sum of Squares Between Groups 1301,200 Within Groups 9990,966 Total 11292,167 df 3 170 173 Mean Square 433,733 58,770 F 7,380 Sig. ,000 Interpretation Anova Sig. = 0,000 < 0,05 --> sig. Unterschiede hinsichtlich der Körpergröße in den Altersgruppen SPSS – 13.0 Advanced Beispiel – Vergleich von mehr als zwei unabhängigen Stichproben Einfaktorielle ANOVA (post-hoc test duncan) AUSGABE Koerpergroesse a,b Duncan Altersklassen 66-75 Jahre > 75 Jahre 56-65 Jahre bis 55 Jahre Sig. N 47 24 51 52 Subset for alpha = .05 1 2 162,47 162,67 164,82 169,10 ,202 1,000 Means for groups in homogeneous subsets are displayed. a. Uses Harmonic Mean Sample Size = 39,300. b. The group sizes are unequal. The harmonic mean of the group sizes is used. Type I error levels are not guaranteed. Interpretation Wenn ein sig. Unterschied besteht kann man mit einem Post-hoc Test herausfinden, wo dieser Unterschied besteht. Hier ist es die Klasse bis 55 Jahre. SPSS – 13.0 Advanced Beispiel – Vergleich von mehr als zwei abhängigen Stichproben Analysieren – Allgemeines lineares Modell – Messwiederholung Quellvariablen chol0, chol1, chol6, chol12 Faktor 1 Anzahl der Stufen 4 Um herauszufinden wer sich unterscheidet muss man den Einstichproben t-test verwenden Beispiel – Einstichproben-t-test Analysieren – Mittelwerte vergleichen T-test bei einer Stichprobe Quellvariable: chol0 Testvariable: 229 (stammt aus einer anderen Studie !) SPSS – 13.0 Advanced Beispiel – Vergleich von mehr als zwei abhängigen Stichproben Analysieren – Allgemeines lineares Modell – Messwiederholung AUSGABE Tests of Within-Subjects Effects Measure: MEASURE_1 Source factor1 Error(factor1) Sphericity Assumed Greenhouse-Geisser Huynh-Feldt Lower-bound Sphericity Assumed Greenhouse-Geisser Huynh-Feldt Lower-bound Type III Sum of Squares 3381,822 3381,822 3381,822 3381,822 220504,678 220504,678 220504,678 220504,678 df 3 2,509 2,549 1,000 519 434,088 440,994 173,000 Mean Square 1127,274 1347,779 1326,675 3381,822 424,865 507,972 500,018 1274,594 F 2,653 2,653 2,653 2,653 Sig. ,048 ,058 ,058 ,105 Interpretation Der Sig. Wert von 0,048 < 0,05 besagt, dass ein sig. Unterschied zwischen den Cholesterienwerten zu den unterschiedlichen Meßzeitpunkten besteht. SPSS – 13.0 Advanced Nichtparametrische Tests Nichtparametrische Tests werden überall dort angewandt, wo die Annahme der Normalverteilung nicht aufrechterhalten werden kann. (Ausreißer sind hier kein Problem) Die am häufigsten verwendeten Tests sind die zum Vergleich von zwei oder mehr als zwei unabhängigen bzw. abhängigen Stichproben; hier sind die bekanntesten Tests der U-Test nach Mann und Whitney, der H-Test nach Kruskal und Wallis, der Wilcoxon Test und der Friedman-Test. SPSS – 13.0 Advanced Vergleich von zwei unabhängigen Stichproben U-Test nach Mann und Whitney Analysieren – nichtparametrische Tests – zwei unabhängige Stichproben Quellvariable bz0 in Testvariablenfeld Quellvariable g ins Gruppenvariablenfeld (Gruppe definieren 1 und 2) AUSGABE Die Ausgabe umfasst ● die Fallzahlen, die mittleren Rangplätze und Rangsummen in beiden Stichproben ● die Testgröße U ● die kleinere der beiden Rangsummen (W) ● bei weniger als 30 Fällen die exakte Irrtumswahrscheinlichkeit p ● die Prüfgröße z und die Irrtumswahrscheinlichkeit p, die bei einer Fallzahl ab 30 zu verwenden sind SPSS – 13.0 Advanced Vergleich von zwei unabhängigen Stichproben U-Test nach Mann und Whitney Analysieren – nichtparametrische Tests – zwei unabhängige Stichproben AUSGABE Test Statisticsa Blutzucker, Ausgangs wert Mann-Whitney U 3048,000 Wilcoxon W 4818,000 Z -1,096 Asymp. Sig. (2-tailed) ,273 a. Grouping Variable: Geschlecht Interpretation Asymp. Sig. (2-tailed) = 0,273 > 0,05 --> kein sig. Unterschied hinsichtlich des Geschlechtes auf den Blutzuckerwert zum Ausgangszeitpunkt SPSS – 13.0 Advanced Vergleich von zwei abhängigen Stichproben Wilcoxon Test Analysieren – Nichtparametrische Tests – zwei verbundene Stichproben Quellvariablen rrs0 und rrs1 Test: Wilcoxon Optionen: Quartile AUSGABE Die Ausgabe umfasst ● Median und Quartile von beiden Variablen ● Anzahl, mittlere Ränge und Rangsummen bei negativen und positiven Differenzen ● Anzahl der Nulldifferenzen ● Prüfgröße z und zugehörige Irrtumswahrscheinlichkeit p SPSS – 13.0 Advanced Vergleich von zwei abhängigen Stichproben Wilcoxon Test Analysieren – Nichtparametrische Tests – zwei verbundene Stichproben AUSGABE Test Statisticsb syst. Blutdruck, nach 1 Monat - syst. Blutdruck, Ausgangswe rt Z -9,970a Asymp. Sig. (2-tailed) ,000 a. Based on positive ranks. b. Wilcoxon Signed Ranks Test Interpretation Asymp.Sig. (2-tailed) = 0,000 < 0,05 --> sig. Unterschied des systolischen Blutdruckswertes zwischen Zeitpunkt 0 und 1 SPSS – 13.0 Advanced PCALLTAG.SAV Die Datei enthält die Daten einer Befragung von Studierenden über Computernutzung im Alltag. Die Variable compstd gibt dabei die wöchentlichen Computernutzungszeit in Stunden wieder, die Variable fachgr ist die Kodierung von sechs Fächergruppen. SPSS – 13.0 Advanced Vergleich von mehr als zwei unabhängigen Stichproben (Quelldatei: pcalltag.sav) H-Test nach Kruskal und Wallis (Analysieren – Berichte – Fälle zusammenfassen) Analysieren – nichtparametrische Tests – K unabhängige Stichproben Quellvariable: compstd – Testvariable Quellvariable: fachgr als Gruppenvariable (1 bis 6) AUSGABE Die Ausgabe umfasst ● ● Fallzahlen und mittleren Rangplätze in den einzelnen Gruppen die Testgröße Chi-Quadrat, die Anzahl der Freiheitsgrade und die zugehörige Irrtumswahrscheinlichkeit p SPSS – 13.0 Advanced Vergleich von mehr als zwei unabhängigen Stichproben (Quelldatei: pcalltag.sav) H-Test nach Kruskal und Wallis Analysieren – Berichte – Fälle zusammenfassen AUSGABE Case Summaries Median Fächergruppen Rechtswissenschaften Wirtschaftswissensch aften Sozialwissenschaften Sprachwissenschaften Naturwissenschaften Medizin Total ComputerStunden pro Woche 8,500 Interpretation: Medianwerte der einzelnen Fachrichtungen 14,000 8,000 8,000 10,000 5,000 8,000 SPSS – 13.0 Advanced Vergleich von mehr als zwei unabhängigen Stichproben (Quelldatei: pcalltag.sav) H-Test nach Kruskal und Wallis Analysieren – nichtparametrische Tests – K unabhängige Stichproben AUSGABE Test Statisticsa,b Chi-Square df Asymp. Sig. ComputerStunden pro Woche 37,911 5 ,000 a. Kruskal Wallis Test b. Grouping Variable: Fächergruppen Interpretation Asymp.Sig. = 0,000 < 0,05 --> sig. Unterschied der Computerbenutzung hinsichtlich der Fachrichtungen SPSS – 13.0 Advanced (variation median test) Vergleich von mehr als zwei unabhängigen Stichproben (Quelldatei: hyper.sav) Friedman Test Analysieren – nichtparametrische tests – k verbundene stichproben Quellvariablen: rrd0, rrd1, rrd6, rrd12 – Testvariablen AUSGABE Die Ausgabe umfasst ● ● die mittlere Rangplätze der beteiligten Variablen die Fallzahl, die Prüfgröße Chi-Quadrat, die zugehörige Anzahl der Freiheitsgrade (df) und die Irrtumswahrscheinlichkeit SPSS – 13.0 Advanced Vergleich von mehr als zwei unabhängigen Stichproben (Quelldatei: hyper.sav) Friedman Test Analysieren – nichtparametrische tests – k verbundene stichproben AUSGABE Test Statisticsa N Chi-Square df Asymp. Sig. 174 317,754 3 ,000 a. Friedman Test Interpretation Asymp. Sig. = 0,000 < 0,05 --> sig. Unterschiede SPSS – 13.0 Advanced Kolmogorov-Smirnov-Test zur Überprüfung der Verteilungsform Analysieren – nichtparametrische tests – k-s bei einer stichprobe Quellvariable: chol0 Optionen: deskriptive statistik, quartilen AUSGABE Die Ausgabe umfasst ● Mittelwert und Standardabweichung ● die beim Kolmogorov-Smirnov-Test anfallenden Zwischenergebnisse SPSS – 13.0 Advanced Korrelationen Es geht um den Zusammenhang (Korrelation) zwischen zwei Variabeln. Grafik: Streudiagramm SPSS – 13.0 Advanced ● Korrelationskoeffizient Korrelationskoeffizienten Wert Bis 0,2 Bis 0,5 Bis 0,7 Bis 0,9 Über 0,9 Interpretation Sehr geringe Korrelation Geringe Korrelation Mittlere Korrelation Hohe Korrelation Sehr hohe Korrelation SPSS – 13.0 Advanced ● Korrelationskoeffizient ● Berechnung des Korrelationskoeffizienten – Intervallskalierte und normalverteilte Variablen: Produkt-Moment-Korrelation nach Pearson – Mindestens eine der beiden Variablen ist ordinalskaliert und nicht normalverteilt: Rangkorrelation nach Spearman oder Kendalls Tau – Ein der beiden Variablen ist dichotom: Punktbiseriale Korrelation (SPSS nicht vorhanden daher Rangkorrelation) – Beide Variablen sind dichotom: Vierfelder-Korrelation. SPSS in Zusammenhang mit Distanz- und Ähnlichkeitsmaßen zu berechnen. SPSS – 13.0 Advanced Korrelationskoeffizienten nach Pearson Analysieren – korrelation – bivariate Quellvariablen : chol0, chol1, chol6, chol12 AUSGABE Die Ausgabe umfasst: ● den Pearson-Korrelationskoeffizient r, die Anzahl der jeweiligen Wertepaare und die sich bei der Absicherung von r gegen Null ergebenden Irrtumswahrscheinlichkeit p. Rangkorrelationskoeffizient nach Spearman und Kendall Bei ordninalskalierten und nichtnormalverteilten intervallskalierten Variablen wird anstelle des Pearson Koffenzient der Spearman berechnet. Deaktivieren in der Dialogbox Bivariate Korrelation – die Pearson Korrelation und aktivieren der Spearman Korrelation SPSS – 13.0 Advanced ● ● ● ● Partielle Korrelation Scheinkorrelation – Bsp. Man untersucht ausreichend große Menge an Frauen und Ihre Schuhgröße und deren Intelligentquotient --> geringe, aber signifikante Korrelation Korrelationskoeffizient ist nicht Ausdruck eines kausalen Zusammenhangs zwischen den beiden betrachteten Variablen sondern wird vielmehr von einer anderen Variablen entscheident mitbestimmt. Die Möglichkeit des Ausschlusses einer Störvariable bietet die Berechnung der partiellen Korrelation SPSS – 13.0 Advanced KIRCHE.SAV Bevölkerungsbefragung der Sozialwissenschaftler, in der unter anderem nach der Einstellung zu Gastarbeitern gefragt wurde. Es wurden die Ergebnisse der Einzelfragen zusammengerechnet und ein Gesamtscore gebildet, der zwischen 0 und 30 liegen konnte. Ein hoher Wert bedeutete eine abweisende Einstellung zu Gastarbeitern. Unter anderem wurde auch das Alter und deren Kirchengangshäufigkeit erfragt. (1 nie bis 6 mind. 2X pro Woche) SPSS – 13.0 Advanced ● Partielle Korrelation Analysieren – korrelation – partielle Variablen : gast, kirche Kontrollvariable: Alter Optionen: Mittelwert, Standardabweichung und Korrelation nullter Ordnung (einfache Korrelationskoeffizienten) AUSGABE Die Ausgabe umfasst: ● Partieller Korrelationskoeffizient, Anzahl der Freiheitsgrade (Fallzahl minus 3) und das Signifikanzniveau SPSS – 13.0 Advanced Regressionsanalyse Die Regressionsanalyse gibt Aufschluß über die Art des Zusammhangs zwischen dem Wert einer abhängigen und den Werten anderer (unabhängiger) Variabeln. Analysieren – Regression Einfache lineare Regression y = b*x+a b = regressionskoeffizient a = ordinatenabschnitt (y-achse vertikale) SPSS – 13.0 Advanced Einfache lineare Regression Berechnen der Regressionsgleichung Analysieren – Regression – Linear Quellvariable: chol1 – abhängige Variable Quellvariable: chol0 – unabhängige Variable AUSGABE Konstante = a = 34,546 Ausgangswert = b = 0,863 ===> chol1 = 0,863*chol0 + 34,546 (Geradengleichung) SPSS – 13.0 Advanced Grafiken Streudiagramm Einfach Definieren Quellvariable chol1 – Y-Achse Quellvariable chol0 – X-Achse Grafik Doppelklick Anpassungslinier Gesamt Anpassungs-Optionen Lineare Regression SPSS – 13.0 Advanced Varianzanalysen Die Varianzanalyse untersucht den Einfluss von einer oder mehreren unabhängigen Variablen auf eine abhängige Variable (univariate Analyse) oder mehrere abhängige Variablen (multivariate Analyse) – unabhängig (nominal oder ordinal) = Faktoren – unabhängig (intervall- oder verhältnisskaliert) – metrische Werte = Kovarianten (--> Kovarianzanalyse) SPSS – 13.0 Advanced varana.sav 27 Versuchspersonen wurden zu vier Untersuchungszeitpunkten einem Merkfähigkeitstest unterzogen. Daneben wurde von jeder Versuchsperson auch das Geschlecht und das Alter festgehalten. Geschlecht: 1 = männlich 2 = weiblich Alter: 1 = bis 30 2 = 31 bis 50 3 = über 50 SPSS – 13.0 Advanced Univariate Varianzanalyse (Quelldatei: varana.sav) Analysieren – Allgemeines lineares Modell – Univariat... Quellvariable: m1 = abhängige Variable Quellvariablen: geschl und alter = feste Faktoren Modell: voreinstellungen (gesättigtes Modell – neben allen Haupteffekten werden auch alle Wechselwirkungen zwischen den Faktoren berechnet) Optionen: Scheffé-Test Interpretation keine Varianzhomogentität daher sollte man das Sig Niveau verändern statt 5% 1% SPSS – 13.0 Advanced Univariate Varianzanalyse mit Messwiederholung Analysieren – Allgemeines lineares Modell – Messwiederholung Faktorname faktor 1 durch zeit ersetzen Anzahl der Stufen 4 Quellvariablen: m1 bis m4 = Innersubjektvariablen Quellvariablen: geschl und alter = Zwischensubjektfaktoren Optionen: geschätzte Randmittel für geschl, alter, zeit und Homogenitätstests Ausgabe siehe folgende Seite SPSS – 13.0 Advanced Prüfgrößen Verschiedene Prüßgrößen wurden entwickelt, um die Wechselwirkungen der Faktoren zu erklären ● Liste der Prüfgrößen: Pillai-Spur, Wilks-Lambada, Hotelling-Spur, Größte charakteristische Wurzel nach Roy,...... Diesen Prüfgrößen wird über eine geeignete Transformation ein F-Wert zugewiesen, der dann zu den angegebenen p-Werten (unter „Signifikanz“) führt. ● ● Die „Pillai-Spur“ gilt als stärkster und robustester Test ! SPSS – 13.0 Advanced Literatur SPSS 14 - Einführung in die moderne Datenanalyse unter Windows; A.Bühl, P.Zöfel; 10.Auflage 2006; Pearson Studium