Seminarplan mit Literaturhinweisen: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse 1. Sitzung: Kausalanalyse mit Tabellenanalyse und mit partieller Korrelation Einführendes Beispiel für die Elaboration von Zusammenhängen durch Teilgruppenvergleich; Statistischer Kausalbegriff; Experiment und Tabellenanalyse; Scheinkorrelation; Intervenierende Variable (Skript, Kap. 2.-2.2.1 oder Benninghaus, Kap. 9 oder Kühnel/Krebs, Kap. 15) 2. Sitzung: Modellierung des einführenden Beispiels durch ein log-lineares Modell; Zerlegung von Zusammenhangsmaßen nach Drittfaktor; „pfadanalytische“ Interpretation des einführenden Beispiels (Skript, Kap. 2.2.1 oder Litz, Kap. 6.3) 3. Sitzung: Suppressor Variable; Distorter Variable; Vorzeichenregel und Zerlegungsformel; (Skript, Kap. 2.2.3-2.2.4.3) 4. Sitzung: Interaktion, Spezifikation und typologische Effekte; Interaktionseffekte aus Sicht der Varianzanalyse (Skript, Kap. 2.2.4.4-2.2.4.8) 5. Sitzung: Partielle Korrelation; Multiple Regression (Grundlagen) (Skript, Kap.2.3 oder Litz Kap. 3) 6. Sitzung: Multiple Regression (Zerlegung von R2) (Skript, Kap. 3.-3.1.5 oder Backhaus et al., Kap. 1.1-1.2.2 oder Bortz Kap. 13.2) 7. Sitzung: Multiple Regression (u.a. Logistische Regression) (Skript, Kap. 3.1.6, 3.1.7 oder Litz Kap. 6.2) 8. Sitzung: Varianzanalyse (Skript, Kap. 3.1.8-3.1.11 und Kap. 4 oder Litz Kap. 5) 9. Sitzung: Pfadanalyse (Grundlagen) (Skript, Kap. 3.2-3.2.4 oder Opp/Schmidt, Teil 4 oder Bortz, Kap. 13.3) 10. Sitzung: Pfadanalyse (Beispiele) (Skript, Kap. 3.2.5- 3.2.8 oder Opp/Schmidt, Teil 5) 11. Sitzung: Ausblick: Grundlegende versus fortgeschrittene multivariate Modelle der sozialwissenschaftlichen Datenanalyse Literatur: Skript (Holtmann, 2010³, Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse) Backhaus et al. 200310 Multivariate Analysemethoden Benninghaus, 20029, Deskriptive Statistik Bortz 20056, Statistik für Human- und Sozialwissenschaftler Kühnel/Krebs, 2001, Statistik für die Sozialwissenschaften Litz, H. P., 2000, Multivariate statistische Methoden und ihre Anwendung in den Wirtschafts- und Sozialwissenschaften Opp/Schmidt 1976, Einführung in die Mehrvariablenanalyse Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse (Meth. II) (Gliederung für die ersten Sitzungen) 1. Überblick über die multivariaten Modelle der sozialwissenschaftlichen Datenanalyse .................................................................................................................. 1 2. 2..1 2..2 2..2.1 2..2.2 2.2.2.1 2..2.3 2..2.4 2..2.4.1 Kausalanalyse mit Tabellenanalyse und partieller Korrelation............................ 13 Statistischer Kausalbegriff ........................................................................................... 13 Tabellenanalyse ............................................................................................................ 15 Ein Beispiel für Korrelation ohne Kausalität ............................................................... 16 Zerlegung der Vier-Felder-Tafel an einem einführenden Beispiel.............................. 17 Log-lineare Modellierung des einführenden Beispiels ................................................ 21 Die Grundgleichung (Zerlegungsformel für Maßzahlen) ............................................ 24 Typologie von Kausalstrukturen mit drei Variablen ................................................... 29 Typen mit: [xy : z] = [xy : ¬z] („Scheinkorrelation“, Intervenierende Variable, Suppressor, Distorter) .................................................................................................. 29 2..2.4.2 Zerlegungsformel am Beispiel eines Suppressor- sowie Distorter-Phänomens .......... 32 2..2.4.3 Vorzeichenregel nach Davis für Suppressor- und Distorter Phänomene .................... 39 2..2.4.4 Typen mit: [xy : z] ≠ [xy ¬z] (Spezifikation) .............................................................. 43 2..2.4.5 Conjoint influence ........................................................................................................ 43 2..2.4.6 Verschiedene typologische Effekte und Interaktionseffekte ....................................... 45 2..2.4.6.1 Varianzanalytische Interpretation von Rosenbergs Mobilitäts-Beispiel ..................... 46 2..2.4.7 Interaktion, Spezifikation und typologische Effekte aus Sicht der Varianzanalyse ............................................................................................................. 54 2..2.4.8 Kausale Interpretation von Zusammenhängen ............................................................ 65 2..3 Partielle Korrelation ..................................................................................................... 67 Literaturverzeichnis ..................................................................................................................... 73 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 1 Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse 1. Überblick über den Gegenstand a) Drittvariablenkontrolle/ Elaboration von Zusammenhängen durch Teil gruppenvergleich (nominales Messniveau) oder durch partielle Korrelation (metrisches Messniveau) b) Multiple Regression und Pfadanalyse zur Analyse metrischer Daten Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 2 2. Kausalanalyse mit Tabellenanalyse und partieller Korrelation Ein Beispiel zur Einführung (vgl. Kap. 2.2.2): Wie ist es möglich, dass ein Zusammenhang bei Aufgliederung nach einem Drittfaktor verschwindet? Bsp. (Mayntz et al., nach Zeisel) Stichprobe von Arbeitnehmerinnen Häufigkeit des wenig Fernbleibens vom viel Betrieb (y) Familienstand (x) ledig verheiratet 1000 600 600 1000 1600 1600 1600 1600 3200 Differenz der Kreuzpunkte [xy] = 10002 - 6002 (Anzahl der konkordanten Paare minus Anzahl der diskordanten Paare) [xy] > 0 ([xy] noch keine normierte Maßzahl) Kausalmodell: x → y Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 3 z1 (wenig Hausarbeit) y Fern- webleiben nig viel x Familienstand led. verh. 900 300 1200 300 100 400 1200 400 1600 [xy : z1] = 0 z2 (viel Hausarbeit) y Fern- webleiben nig viel x Familienstand led. verh. 100 300 400 300 900 1200 400 1200 1600 [xy : z2] = 0 (Technisch liegt es also an den Randverteilungen, inhaltlich an den Beziehungen zu dem Drittfaktor, dass der Zusammenhang in den Teilgruppen verschwindet.) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 4 Hausarbeit (z) wenig viel Familienstand (x) ledig verheiratet 1200 400 1600 400 1200 1600 1600 1600 3200 [xz] > 0 Häufigkeit des Fernbleibens vom Betrieb (y) wenig viel Hausarbeit (z) wenig viel 1200 400 400 1200 1600 1600 1600 3200 1600 [zy] > 0 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 5 Differenzierteres Kausalmodell: z x y (Es gibt einen indirekten Kausaleffekt von x auf y, aber keinen direkten.) z ist eine intervenierende Variable. Familienstand (x) strukturiert Belastung mit Hausarbeit (z). Belastung mit Hausarbeit (z) strukturiert Fernbleiben vom Betrieb (y). Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 6 „Baumdarstellung“ der Daten: Hierarchische Aufgliederung nach X, nach Z und nach Y n = 3200 X (Familienstand) ledig 1600 verheiratet 1600 Z (Hausarbeit) Z (Hausarbeit) wenig 1200 viel 400 wenig 400 viel 1200 Y (Fernbl.) Y (Fernbl.) Y (Fernbl.) Y (Fernbl.) wenig 900 viel 300 wenig 100 viel 300 wenig 300 viel 100 wenig 300 Aber: Ein Kausalmodell ist viel hilfreicher für das Verständnis. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 7 viel 900 2.1 Kausalanalyse und statistischer Kausalbegriff Aussagen in den Sozialwissenschaften sind ganz überwiegend stochastisch, d.h. nicht deterministisch. Deterministisch: Immer: Wenn A, dann B. (Gesetz) (All-Ausage) ( ∀ x: Ax ⇒ Bx) (Ein Teil der naturwissenschaftlichen Aussagen). Stochastisch: Wenn A, dann mit hoher Wahrscheinlichkeit B. („A begünstigt B“) (Oder: „strukturiert“) (Empirische Regelmäßigkeit) Deshalb haben Hyman und Lazarsfeld einen abgeschwächten „statistischen Kausalbegriff“ vorgeschlagen: (x „verursacht“ y): ⇔ 1) Es gibt einen statistischen Zusammenhang. 2) x geht y kausal voran, wobei die zeitliche Reihenfolge nicht hinreichend ist. 3) Es handelt sich nicht um eine „Scheinkorrelation“, d.h. eine tatsächliche Korrelation, die aber bei Kontrolle von Drittfaktoren verschwindet (scheinkausale Korrelation). Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 8 Diskussion des Definitionsvorschlags: Zu 1) Es gibt auch die Möglichkeit, dass der Kausalzusammenhang erst nach der Kontrolle von Drittfaktoren sichtbar wird (scheinbare Nicht-Kausalität). Zu 2) Statistischer Zusammenhang: symmetrisch Kausalzusammenhang: asymmetrisch Zeitliche Reihenfolge reicht nicht. Zu 3) Im Experiment unproblematisch: Einfluss der Störfaktoren ist durch Untersuchungsdesign kontrolliert. Aber: In den Sozialwissenschaften häufig nicht anwendbar. (Z. B. sind viele Merkmale nicht manipulierbar: Alter, Geschlecht, ...) Als „Simulation“ eines Experiments: Einfluss von einigen wichtigen Drittfaktoren kontrollieren. Die Absicherung gilt dann aber auch nur für die kontrollierten Drittfaktoren. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 9 Kausalität und Experiment: Experiment: 1) Manipulierbarkeit der unabhängigen Variablen. 2) Kontrolle der Dritt- bzw. Störfaktoren. Zu 2): a) Randomisierung: Zwei Zufallsstichproben b) Matching: Für einige Variablen mit Zufallsverfahren die Zuordnung zu den Experimentalgruppen entscheiden. Bei (a) im Prinzip gegen alle möglichen Stör faktoren abgesichert, bei (b) gegen die beim Matching berücksichtigten Störfaktoren abgesichert. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 10 Beispiel für ein Experiment y = Vorurteilsmessung Messung t1 Experimentalgruppe G1 Kontrollgruppe G 2 yG1 ,t1 yG2 ,t1 Film t2 ja nein Messung t3 y G1 ,t3 y G2 ,t3 yG1 ,t1 = yG2 ,t1 Effekt des Films: y G1 ,t3 - y G2 ,t3 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 11 2.2 Tabellenanalyse Die Tabellenanalyse (elaboration; Einführung von Drittfaktoren) beinhaltet den Versuch, durch nachträgliche Homogenisierung mittels statistischer Manipulation des Datenmaterials unabhängige Variablen mit Kausalwirkung zu finden. Im Gegensatz zum Experiment, das durch die Tabellenanalyse approximiert wird, sind die unabhängigen Variablen in der Tabellenanalyse nicht einfach einzeln zu verändern. Die Merkmale treten in Kombinationen auf. - Absicherung nur gegen die Drittfaktoren, die man selbst getestet hat. (Experiment mit Randomisierung: gegen alle Drittfaktoren abgesichert) - Aber: Viele relevante mögliche unabhängige Variablen in den Sozialwissenschaften sind gar nicht manipulierbar. (Z. B. Alter, Geschlecht, Ethnie, Herkunftsland, ...) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 12 Also: In den Sozialwissenschaften Simulation des Experiments durch Kontrolle einiger Drittfaktoren. In den Sozialwissenschaften: „Quasi-Experiment“ Auf nominalem Messniveau: Tabellenanalyse [Metrisch: Partielle Korrelation] Tabellenanalyse (Elaboration, Kontrolle von Drittfaktoren, Teilgruppenvergleich) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 13 2.2.1 Ein Beispiel für Korrelation ohne Kausalität (nach Hirschi und Selvin) (Stichprobe von Jugendlichen) x: Kirchenbesuch y: Delinquenz Ja Nein Ja 44 % 56 % Nein 56 % 44 % 100 % [xy] ≠ 0 100 % Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 14 z1: Alter ≤ 14 Kirchenbesuch Delinquenz Ja Nein Ja 33 % 33 % Nein 67 % 67 % 100 % 100 % [xy: z1] = 0 z1: Alter > 14 Kirchenbesuch Delinquenz Ja Nein Ja 67 % 67 % Nein 33 % 33 % 100 % 100 % [xy: z2] = 0 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 15 Kirchenbesuch Nicht-Delinquenz Alter („Marionettenspieler“) „Scheinkorrelation“ (Tatsächliche Korrelation, aber nicht kausal zu interpretieren) Scheinkausale Korrelation Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 16 Kausalmodell der „Scheinkorrelation“ X Y Z Der Zusammenhang zwischen x und y ist nicht kausal zu interpretieren. („Scheinkorrelation“) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 17 Beispiel: Anzahl der Störche Anzahl der Kinder Land (Stadt) „Scheinkorrelation“ Beipiel: Anzahl der Pumpen Höhe des Schadens „Scheinkorrelation“ Größe des Feuers Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 18 Auf der Basis von statistischen Zusammenhängen kann man nicht immer zwischen Kausalmodellen entscheiden. „Scheinkorrelation“ x y z [xy] ≠ 0 [xy :z1] = 0 [xy : z2] = 0 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 19 Intervenierende Variable x z y [xy] ≠ 0 [xy : z1] = 0 [xy : z2] = 0 Unterschied zwischen „Scheinkorrelation“ und intervenierender Variable: Kausale Ordnung „Scheinkorrelation“: z ist antezedierend. Intervenierende Variable: z ist intervenierend. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 20 2.2.4 Typologie von Kausalstrukturen mit 3 Variablen Typen mit: [xy : z1] = [xy : z2] 1) „Scheinkorrelation“ Kausalmodell: x y z Korrelationen: [xy : z1] = [xy : z2] = 0 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 21 Beispiel: x Krankenhaus y Sterberate hoch z Gesundheitszustand Beispiel: x mittleres Kind y Delinquenz z Kinderzahl in Herkunftsfamilie (als Schichtindikator) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 22 2) Intervenierende Variable Kausalmodell: x → z → y Korrelationen: [xy : z1] = [xy : z2] = 0 Bsp.: (Durkheim: Le suicide) [Voraussetzung: Homogene Altersgruppe] Korrelation: x Protestanten x Protestanten → y höhere Selbstmordgefährdung z niedrige Integration → y höhere Selbstmordgefährdung Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 23 Beispiel: [Voraussetzung: Homogene Altersgruppe] Korrelation: x verheiratet x verheiratet → y niedrige Selbstmordgefährdung z Kinder → y niedrige Selbstmordgefährdung Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 24 (Älteres) Bsp.: x Frauen x Frauen → y autoritärer z niedrige Bildung → y autoritärer Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 25 Beispiel: (Homans) x Räumliche Nähe x Räumliche Nähe → y Sympathie z Interaktion → y Sympathie Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 26 Log-lineare Modellierung des einführenden Beispiels (2.2.2.1) Das einführende Beispiel für eine intervenierende Variable beinhaltete, dass die Belastung durch Hausarbeit in der Kausalbeziehung zwischen Familienstand und Fernbleiben im Betrieb insofern interveniert, dass ledige Frauen stärker belastet sind durch Hausarbeit und dass stärker durch Hausarbeit belastete Frauen häufiger dem Betrieb fern bleiben müssen. Dieses Beispiel soll nun dadurch modelliert werden, welche der möglichen Interaktionen zwischen diesen drei Merkmalen berücksichtigt werden müssen, um die beobachteten (Kombinations-) Daten zu reproduzieren. Da man eine sparsame Modellierung anstrebt, will man nur die zwingend notwendigen Interaktionen herausarbeiten. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 27 Log-lineare Modelle zur Analyse von Kreuztabellen Kreuztabelle zweier Merkmale A und B: B j A i fij fi+ f+j n (Notation: f wie frequencies) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 28 Das Konzept der statistischen Unabhängigkeit f i+ f + j ⋅ f ij = n ⋅ n n ist eigentlich ein multiplikatives Konzept. Beispiel: Falls die Chance für SPD-Wahl statistisch unabhängig ist vom Geschlecht, so ist z. B. die Anzahl der weiblichen SPDWähler gleich dem Anteil der Frauen multipliziert mit dem Anteil der SPD-Wähler und multipliziert mit dem Stichprobenumfang. D. h. die absolute Häufigkeit einer Kombination ergibt sich aus den Chancen in den beiden Randverteilungen multipliziert mit dem Stichprobenumfang. Durch Logarithmieren lässt sich die statistische Unabhängigkeit additiv ausdrücken: ln f ij f+ j fi+ = ln n + ln + ln n n Dies heißt, dass sich im Falle der statistischen Unabhängigkeit die Zellenhäufigkeiten f ij aus dem Stichprobenumfang und den beiden Randwahrscheinlichkeiten ergeben, die Informationen aus den Interaktionen also nicht benötigt werden. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 29 Der Soziologe und Statistiker Leo A. Goodmann (University of Chicago) hat zur Analyse von Kontingenztafeln die log-lineare Modellierung entwickelt (1970, 1972 etc.). Mit f ij werden die beobachteten Häufigkeiten bezeichnet, mit Fij die unter der Annahme des Modells zu erwartenden Häufigkeiten. Die Idee dieser Modellierung besteht nun darin, dass die logarithmischen Häufigkeiten log F ij sich aus dem additiven Zusammenwirken eines Bezugspunktes θ (theta) und der Effekte der RandverA B teilungen λ i bzw. λ j (lambda) bzw. der Effekte der Interaktion λ AB ij darstellen lassen. Multiplikativ: fij = n Stichprobenumfang • f i+ n • f+ j • n Effekt von A i f ij / n fi+ / n ⋅ f + j / n Effekt von B j Effekt der Interaktion A i B j (Abweichung von der Unabhängigkeit) Additiver Modellansatz für die Grundgesamtheit: ln Fij = θ + λ A i + λ B j + λ AB ij Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 30 Das Modell der statistischen Unabhängigkeit lässt sich bei dieser Modellierung also dadurch charakterisieren, dass λ AB = 0 (für alle i, j). ij Beispiel: Fernbleiben vom Betrieb Die pfadanalytische Interpretation des Beispiels lautete: Familienstand (A) strukturiert Belastung mit Hausarbeit (B). Belastung mit Hausarbeit (B) strukturiert Fernbleiben vom Betrieb (C). Drei Merkmale lassen sich z.B. in der Form einer dreidimensionalen Tabelle (A, B, C) analysieren. Das (vollständige) log-lineare Modell würde lauten: A B C + λ + λ ln Fijk = θ + λ i j k ABC BC AC AB λ +λ + λ + λ ijk jk ik ij + Das vollständige oder saturierte Modell umfasst also alle denkmöglichen Parameter und ist nur eine (evtl. sogar zu umfangreiche) Umformung der Daten. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 31 Die Idee der log-linearen Modellierung besteht nun darin, eine „sparsame“ Modellierung vorzunehmen, d.h. ein so einfaches Modell wie nur möglich, wobei Einfachheit bedeutet, mit Parametern möglichst ge(λ ringer Ordnung auszukommen nung, λ AB ij ist 2. Ordnung, λ ABC ijk B j ist z. B. 1. Ord- ist 3. Ordnung). Es lässt sich nun zeigen, dass in dem Beispiel die Randverteilungen A, B, C, (AB), (BC) hinreichend sind („suffiziente Statistiken“), um die Daten des Beispiels perfekt zu reproduzieren. Belastung mit Hausarbeit (B) B 1 wenig B 2 viel Familienstand (A) Fernbleiben (C) C 1 wenig C 2 viel A 1 ledig 900 300 A 2 verheiratet 300 100 A 1 ledig 100 300 A 2 verheiratet 300 900 Die Parameter des log-linearen Modells werden mit Hilfe der Maximum-Likelihood-Methode geschätzt, dies ist gerade die Leistung des Modells von Goodman. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 32 Schätzungen der log-linearen Parameter für das Beispiel Theta (Mean) 5,704 Effekt A1 A A 2 Lambda 0 0 B B1 B2 0 0 C C1 C2 0 0 A1 B1 .549 AB A B 1 2 -.549 A2 B1 A2 B2 -.549 B1C1 BC B C 1 2 B2C1 B2C2 .549 .549 -.549 -.549 .549 D.h. es gibt keine Haupteffekte, sondern nur die beiden Interaktionseffekt (AB) und (BC). Zusammenhänge ungleich Null liegen nur vor für die Beziehung Familienstand und Belastung sowie die Beziehung Belastung und Fernbleiben. Ein Beispiel für die perfekte Anpassung des Modells als Illustration, dass die gemäß dem Modell zu erwartenden Häufigkeiten F ijk den beobachteten Häufigkeiten f ijk genau entsprechen: ln FA ,B ,C = θ 1 2 1 + = 5,704 + λ A 1 0 + λ + 0 B 2 + λ + 0 C 1 + λ AB 12 λ BC 21 + (-0,549) + (-0,549) = 4,606 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 33 + = e 4, 606 FA1 ,B2 ,C1 = 100 = f A1 ,B2 ,C1 2.2.3 Zerlegungsformel Analog zur Zerlegung der Gesamttabelle in zwei Partialtabellen soll nun eine Zerlegung für Maßzahlen formuliert werden. Einfachste Zerlegung gilt für δ (delta) = nij − nˆij (= n11 − nˆ11 ) (In Vier-Felder-Tafel ist dies – absolut gesehen – eine feste Größe) Vier-Felder-Tafel x y a b a + b = S1 = n y1 c d c + d = S2 = ny2 a+c b+d a+b+c+d =n = S3 = S4 = n x1 = nx2 Nc – Nd ist gleich der Differenz der Kreuzprodukte: ad – bc δ = a− (a + b ) ⋅ (a + c ) ⋅ n = ad − bc n n n Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 34 ┌ Einschränkung: δ ist streng genommen noch keine „fertige“ Maßzahl, denn ist nicht normiert auf: [-1, +1] 5 0 25 └ Beispiel: δ ; = = 2,5 0 5 10 └ δ Zerlegungsformel für beliebige Maßzahl [xy] [ xy ] = α [ xy : z1 ] + β [ xy : z 2 ] + γ [ xz ][ yz ] Die Gewichte α , β , γ in der Zerlegungsformel sind abhängig von den gewählten Maßzahlen. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 35 Zerlegungsformel für delta δ = δ xy Gesamtzusammenhang xy:z1 ++ δ Zusammenhang in Partialtabelle z1 xy:z 2 ++ Zusammenhang in Partialtabelle z2 n nz1 nz 2 δ xz δ yz Beziehungen zu dem Drittfaktor n α = 1, β = 1, γ = n n z z 1 1 Da δ nicht normiert ist, soll nun analog die Zerlegung für die Maßzahl Φ (Phi) formuliert werden. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 36 S1S 2 S3 S 4 δ= Φ n Φ ( x, y ) = nx1:z1 ⋅ nx2:z1 ⋅ n y1:z1 ⋅ n y2:z1 n nz1 nx1 ⋅ nx2 ⋅ n y1 ⋅ n y2 S1S 2 S3 S 4 ] Φ(xy : z1 ) nx1:z2 ⋅ nx2:z2 ⋅ n y1:z2 ⋅ n y2:z2 n + n z2 ad − bc Φ= [Weil: nx1 ⋅ nx2 ⋅ n y1 ⋅ n y2 Φ(xy : z2 ) + Φ ( xz )Φ ( yz ) ┌ γ= Denn: nx1 ⋅ nx2 ⋅ nz1 ⋅ nz2 ⋅ n y1 ⋅ n y2 ⋅ nz1 ⋅ nz2 1 ⋅ =1 nz1 ⋅ nz2 nx1 ⋅ nx2 ⋅ n y1 ⋅ n y2 Hierbei lauten die Varianzen: s x2 = nx1 ⋅ nx2 n2 und s y2 = n y1 ⋅ n y 2 n2 bzw. sz2 = nz1 ⋅ nz 2 n2 Als Spezialfall von r lautet Phi: Φ xy = s xy sx s y = Nc − Nd n² = n x1 ⋅ n x2 n y1 ⋅ n y2 ⋅ n² n² Nc − Nd n x1 ⋅ n x2 ⋅ n y1 ⋅ n y2 Die Zerlegung ließe sich also auch formulieren als: nz1 ⋅ s x:z1 ⋅ s y:z1 nz2 ⋅ s x:z2 ⋅ s y:z2 Φ xy = ⋅ Φ xy:z1 + ⋅ Φ xy:z2 + Φ xz ⋅ Φ yz n ⋅ sx ⋅ s y n ⋅ sx ⋅ s y └ Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 37 Beispiel: y Fernbleiben wenig im Betrieb (y) viel Familienstand (x) ledig verheiratet 1000 600 1600 600 1600 1000 1600 Φ xy = 0,25 Nämlich: Φ xy = 10002 − 6002 16004 = 0,25 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 38 1600 Familienstand (x) Hausarbeit (z) wenig viel ledig 1200 verheiratet 400 1600 400 1600 1200 1600 1600 3200 Φ xz Fernbleiben wenig im Betrieb (y) viel = 0,5 Hausarbeit (z) ledig verheiratet 1200 400 1600 400 1600 1600 3200 Φ yz 1200 1600 = 0,5 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 39 Φ xy = α ⋅ Φ( xy : z1 ) + β ⋅ Φ( xy : z2 ) + Φ( xz ) Φ ( yz ) 0,25 0 0 0,5 0,5 Pfadmodell: (Hier: Kausalkette) 0,25 x y 0,5 0,5 Familienstand z Fernbleiben vom Betrieb Belastung durch Hausarbeit - Es gibt keinen direkten Kausaleffekt, sondern nur einen indirekten. Bei Egalisierung der Belastung durch Hausarbeit gäbe es keinen Kausaleffekt von Familienstand auf Fernbleiben im Betrieb mehr. - Die Größe des Gesamtzusammenhanges ergibt sich als Produkt der Effekte: Φ yx = Φ yz ⋅ Φ zx (Notation: y ist eine Funktion von z, z ist eine Funktion von x, y ist eine Funktion von x.) - Als intervenierende Variablen kommen nur Faktoren z in Frage, die sehr hoch mit x und y Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 40 korrelieren. (Denn ein Produkt von Zahlen Φ < 1 wird ja kleiner.) („Scheinkorrelation“: analog) Weitere Kausaltypen ( 2.2.4.1) 3) Suppressor Variable (Dämpfende Variable) Bei Einführung des Testfaktors z wird die Beziehung zwischen x und y größer, als sie vorher sichtbar war. Beispiel: Korrelation: x hohes Einkommen y hoher Milchkonsum Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 41 hohe Kinderzahl z - + x hohes Einkommen (hohe Schicht) + y hoher Milchkonsum Unter Kontrolle von z in beiden Teilgruppen positiver Zusammenhang. ges Gesamtzusammenhang [xy] = 0 = ⊕ + = dir + indir direkter Kausaleffekt indirekter Kausaleffekt Vorzeichenregel: (-) * (+) = (-) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 42 In dem Beispiel handelt es sich um einen indirekten Kausaleffekt. Bei Scheinkomponente würde gleiche Vorzeichenregel gelten: z x y Bsp.: (Durkheim, Le suicide) [x , Juden (stark integriert) y hohe Selbstmordrate ]=0 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 43 Stadt vs. Land z + + - x Juden y hohe Selbstmordrate (vs. andere Konfession) ges Gesamtzusammen hang (vs. niedrige) ⊕ = + = dir + indir direkter Kausaleffekt indirekter Kausaleffekt Vorzeichenregel: (+) * (-) = (+) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 44 4) Distorter Variable (Verzerrende Variable) Bei Einführung des Testfaktors z wird ein zu dem ursprünglichen Zusammenhang [xy] entgegengesetztes Vorzeichen in [xy : z1] und [xy : z2] sichtbar. Beispiel: (Durkheim) [x , y verhohe heiratet Selbst(intemordrate griert) ] = + Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 45 höheres Alter z + x verheiratet + - y hohe Selbstmordrate Neben dem direkten Kausaleffekt gibt es also eine Scheinkomponente aufgrund von z in dem Zusammenhang zwischen x und y. + ges = Gesamtzusammenhang dir + direkter Kausaleffekt ++ spurious Scheinkomponente Vorzeichenregel: (+) * (+) = (+) [Bei indirektem Kausaleffekt würde gleiche Vorzeichenregel gelten.] Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 46 Zerlegungsformel am Beispiel eines Suppressor-Phänomens (2.2.4.2) Rosenberg (1968) entnimmt einer Untersuchung von Arnold M. Rose folgendes Beispiel: „What do you think of having Jews on the union staff?“ Es stellt sich heraus, dass Jüngere ( < 29 Jahre) mit wenig Gewerkschaftssozialisation (< 4 Jahre) dies zu 56,4 % eher neutral sehen, während die mittlere Altersgruppe (30 - 49 Jahre) mit wenig Gewerkschaftssozialisation dies nur zu 37,1 % und die höhere Altersgruppe ( > 50 Jahre) mit wenig Gewerkschaftssozialisation dies nur zu 38,4 % neutral sehen. Um nur mit Dichotomien zu arbeiten, fasse ich die letzten beiden Gruppen zusammen, da sie sich ja auch ähnlich verhalten. Dauer Gewerkschaftsmitglied (x) Jews on < 4 Jahre > 4 Jahre Neutral 62 129 191 Nicht neutral 64 127 191 126 256 382 union staff (y) [ yx] = 62 ⋅ 127 − 64 ⋅ 129 = −382 δ yx = [ yx] / n = −1 s yx = [xy ] / n 2 = −0,003 Φ yx = [ yx]/ 34304 = −0,011 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 47 Die Sozialisation in der Gewerkschaft (operationalisiert durch die Dauer der Gewerkschaftsmitgliedschaft) haben Jüngere systematisch weniger erfahren als Ältere, andererseits könnten Jüngere „toleranter“ (hier gemessen als Neutralität) sein. Deshalb wird Alter (z) als Testfaktor eingeführt, da eine Scheinkomponente aufgrund des Alters vermutet werden kann. Alter (z = z 1 ) < 29 Jahre Jews on union staff (y) Alter (z = z 2 ) > 30 Jahre in Gewerkschaft (x) in Gewerkschaft (x) < 4 Jahre > 4 Jahre < 4 Jahre > 4 Jahre Neutral 44 32 76 Nicht neutral 34 19 53 78 51 129 Jews on Neutral union staff (y) Nicht neutral 18 97 115 30 108 138 48 205 253 [yx : z 2 ] = −966 [ yx : z1 ] = −252 δ yx:z = [ yx : z 2 ] / n 2 = −3,818 δ yx: z = [ yx : z1 ] / n1 = −1,953 2 1 s yx:z1 = [ yx : z1 ] / n1 = −0,015 s yx:z2 = [ yx : z 2 ] / n2 = −0,015 2 2 Φ yx:z1 = [ yx : z1 ] / 4003 = −0,063 Φ yx:z2 = [ yx : z 2 ] / 12496 = −0,077 (In den Teilgruppen ergibt sich also eine sehr ähnliche Beziehung: [xy : z1 ] ≈ [xy : z 2 ] ) Diese Ergebnisse sind nur möglich wegen der Beziehungen der Ausgangsvariablen x und y zu dem Drittfaktor z. Alter (Jüngere) z + Dauer der GewerkschaftsMitgliedschaft (< 4 Jahre) Bilanz: x ges dir spurious − -- + + y -- Toleranz („Neutral“) − Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 48 in Gewerkschaft (x) Alter (z) < 4 Jahre > 4 Jahre < 29 Jahre 78 51 129 > 30 Jahre 48 205 253 126 256 382 [xz ] = 13542 δ xz = [xz ] / n == 35,450 s xz = [xz ] / n 2 = 0,093 Φ xz = [xz ] / 32446 = 0,417 Alter (z) Jews on < 29 Jahre > 30 Jahre Neutral 76 115 191 Nicht neutral 53 138 191 129 253 382 union staff (y) [yz ] = 4393 δ yz = [ yz ] / n = 11,500 s yz = [ yz ] / n 2 = 0,030 Φ yz = [ yz ] / 34506 = 0,127 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 49 Die Zerlegung für δ yx (Dies ist die klassische Version.) δ yx = δ yx:z + δ yx:z 1 2 n + δ xz δ yz n1 n2 382 − 1 = −1,953 − 3,818 + 129 ⋅ 253 35,450 ⋅ 11,500 Die Zerlegung für [yx] (Dies ist die rechnerisch einfachste Version.) 1 n n [xz ] [ yx] = [ yx : z1 ] + [ yx : z2 ] + n1 n2 n1n2 [ yz ] 382 382 1 − 382 = (−252) + (−966) + 13542 ⋅ 4393 129 253 129 ⋅ 253 Die Zerlegung für die Kovarianz syx (Die Kovarianz hat hierbei die günstigsten Eigenschaften, s.u.) s yx s xz s yz n1 n2 s yx: z1 + s yx: z 2 + = n1 n2 n n n n − 0,003 = 129 253 0,093 ⋅ 0,030 (−0,015) + (−0,015) + 129 253 382 382 382 382 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 50 Die Zerlegung für Phi (Phi ist die wichtigste Maßzahl für die Vierfeldertafel.) n Φ ( x, y ) = nz1 n + nz1 nx1:z1 ⋅ nx2:z1 ⋅ n y1:z1 ⋅ n y2:z1 nx1 ⋅ nx2 ⋅ n y1 ⋅ n y2 nx1:z2 ⋅ nx2:z2 ⋅ n y1:z2 ⋅ n y2:z2 nx1 ⋅ nx2 ⋅ n y1 ⋅ n y2 Φ(xy : z1 ) Φ(xy : z2 ) + Φ ( xz )Φ ( yz ) 78 ⋅ 51 ⋅ 76 ⋅ 53 382 (−0,063) − 0,011 = 129 126 ⋅ 256 ⋅ 191 ⋅ 191 382 48 ⋅ 205 ⋅ 115 ⋅ 138 + (−0,077) 253 126 ⋅ 256 ⋅ 191 ⋅ 191 + 0,127 ⋅ 0,417 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 51 Zerlegungsformel am Beispiel eines Distorter-Phänomens (2.2.4.2) Rosenberg (1968) illustriert das Distorter-Phänomen an folgendem Beispiel, das ich für die Illustration der Zerlegungsformel verwenden möchte. Die Arbeiterschicht scheint eine stärkere Affinität zu den Bürgerrechten zu haben. Wenn man aber Ethnie kontrolliert, wird das Gegenteil sichtbar: Die Mittelschicht befürwortet die Bürgerrechte stärker, der falsche Eindruck kommt nur dadurch zustande, dass „Schwarze“ überproportional Arbeiter und gleichzeitig überproportional für die Bürgerrechte sind. Social class (x) Civil rights score (y) Middle class Working class High 44 54 98 Low 76 66 142 120 120 240 [ yx] = −1200 δ yx = [ yx]/ n = −5 s yx = [ yx] / n 2 = −0,021 Φ yx = [ yx] / 14156 = −0,085 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 52 Ethnie (z = z 1 ) „Schwarze“ Civil rights score (y) Ethnie (z = z 2 ) „Weiße“ Social class (x) Social class (x) Middle Working class class Middle Working class class High 14 50 64 Low 6 50 56 20 100 120 Civil rights score (y) [ yx : z1 ] = 400 δ yx:z = [ yx : z1 ] / n1 = 3,333 2 s yx:z = [ yx : z1 ] / n1 = 0,028 Φ yx:z = [ yx : z1 ] / 2677 = 0,149 High 30 4 34 Low 70 16 86 100 20 120 [ yx : z 2 ] = 200 δ yx:z = [ yx : z 2 ] / n2 = 1,667 2 s yx:z = [ yx : z 2 ] / n 2 = 0,014 Φ yx:z = [ yx : z 2 ] / 2418 = 0,083 1 2 1 2 1 2 In den beiden Teilgruppen ergibt sich bei etwas großzügiger Betrachtung eine ähnliche Beziehung: [xy : z1 ]≈[xy : z 2 ] . Es liegt also wieder an den Beziehungen der Ausgangsvariablen x und y zu dem Drittfaktor z. Ethnie (z) („Schwarze“) -- Social class (x) (Middle class) ++ Civil rights score (y) (High) + Bilanz: ges - dir + spurious -- Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 53 Social class (x) Ethnie (z) Middle class Working class “Schwarze” 20 100 120 „Weiße“ 100 20 120 120 120 240 [xz ] = −9600 δ xz = [xz ]/ n = −40 s xz = [xz ] / n 2 = −0,167 Φ xz = [xz ]/ 14400 = −0,667 Ethnie (z) Civil rights score (y) “Schwarze” “Weiße” High 64 34 98 Low 56 86 142 120 120 240 [yz ] = 3600 δ yz = [ yz ]/ n = 15 s yz = [ yz ] / n 2 = 0,063 Φ yz = [ yz ] / 14156 = 0,254 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 54 Die Zerlegung für δ yx δ yx = δ yx:z + δ yx:z 1 2 n + δ xz δ yz n1 n2 240 − 5 = 3,333 + 1,667 + 120 ⋅ 120 (−40) ⋅ 15 Die Zerlegung für [yx] 1 n n [xz ] [ yx] = [ yx : z1 ] + [ yx : z2 ] + n1 n2 n1n2 − 1200 = 240 240 1 400 + 200 + (−9600) ⋅ 3600 120 120 120 ⋅ 120 Die Zerlegung für die Kovarianz sxy sxz s yz n2 n1 s yx = s yx: z1 + s yx: z 2 + n1 n2 n n n n − 0,021 = [ yz ] 120 120 (−0,167) ⋅ 0,063 0,028 + 0,014 + 120 120 240 240 240 240 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 55 Die Zerlegung für Phi n Φ ( x, y ) = n z1 n + n z1 n x1:z1 ⋅ n x2 :z1 ⋅ n y1:z1 ⋅ n y2 :z1 n x1 ⋅ n x2 ⋅ n y1 ⋅ n y2 n x1:z2 ⋅ n x2 :z2 ⋅ n y1:z2 ⋅ n y2 :z2 n x1 ⋅ n x2 ⋅ n y1 ⋅ n y2 Φ ( xy : z1 ) Φ ( xy : z 2 ) + Φ (xz )Φ ( yz ) 240 20 ⋅ 100 ⋅ 64 ⋅ 56 0,149 − 0,085 = 120 120 ⋅ 120 ⋅ 98 ⋅ 142 240 100 ⋅ 20 ⋅ 34 ⋅ 86 + 0,083 120 120 ⋅ 120 ⋅ 98 ⋅ 142 + 0,254 ⋅ (− 0,667 ) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 56 2.2.4.3 Vorzeichenregel nach Davis für Suppressor- und Distorter-Phänomene Suppressor Bei Einführung von z wird die BezieVariable hung zwischen x und y größer. („Dämpfend“) a) Falls das Einführen von z eine positive Korrelation verstärkt, so muss gelten: sign [xz] = -sign [yz] b) Falls das Einführen von z eine negative Korrelation verstärkt, so muss gelten: sign [xz] = sign [yz] Distorter Bei Einführung von z wird ein zu dem Variable ursprünglichen Zusammenhang [xy] („Verzerrend“) entgegengesetztes Vorzeichen in [xy:z1] und [xy:z2] sichtbar: z.B. Falls [xy] > 0: sign [xz] = sign [yz] b) Falls [xy] < 0: sign [xz] = -sign [yz] Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 57 Mit „Bilanzen“ formuliert: Gesamt- Direkter Kau- Indirekter Kauzusamsaleffekt saleffekt oder menhang Spurious Suppressor Variable +(0) ++(+) - (-) - (0) -- (-) +(+) „Scheinbare NichtKausalität“ 0 + - 0 - + Distorter Variable + - ++ - + -- Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 58 Vorzeichenregel und/oder perfekte Maßzahl? [ xy ] = α [ xy : z1 ] + β [xy : z 2 ] + γ [ xz ][ yz ] Bei Typen mit: [xy : z1] = [xy : z2] [xy] = a [xy : z] + b [xz] [yz] ges ber res Man vergleicht den Gesamtzusammenhang und den bereinigten Zusammenhang: Wenn a = 1, dann: res = ges – ber Ob die Vorzeichenregel perfekt gilt, hängt von den Koeffizienten a und b ab, welche wiederum spezifisch sind für die gewählte Maßzahl bzw. „Quasi-Maßzahl“ [xy]. Falls a = 1, so gilt perfekte Vorzeichenregel. (b ist immer positiv und stört deshalb nicht, denn: (res > 0) ⇔ ([xz] [yz] > 0) ) ┌ z.B. für δ ( δ ist „Quasi-Maßzahl“, denn δ ist nicht normiert.) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 59 δ xy = δ xy:z + δ xy:z 1 ges (res > 0) (<) 2 + direkter Kausaleffekt bzw. bereinigter Zusammenhang γ ⋅ δ xzδ yz res (Residuum) genau dann wenn (Beziehungen von x und y zu dem Testfaktor z sind gleichlautend (gegenlautend) im Vorzeichen) D.h.: Die Vorzeichenregel von Davis ist implizit in meinen Bilanzgleichungen enthalten. └ Relativierung („Dilemma“ gemäß Davis): Die Vorzeichenregel für δ ist perfekt, für Φ eine Daumenregel, weil α und β i.a. bei Φ nicht einfach gleich 1 sind. Andererseits ist Φ eine perfekte Maßzahl, während δ nicht normiert ist: z.B.: 10 0 0 10 δ = 10 ⋅10 =5 10 + 10 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 60 Die Vorzeichenregel auf Basis der Kovarianz Eine Kompromisslösung in diesem „Dilemma“ ergibt sich nach meiner Auffassung für die Kovarianz sxy: sxy ist im allgemeinen Fall nicht normiert, d.h. i.a. gilt nicht: │sxy │ < 1 Aber: Für den einfachen Fall der Vierfeldertafel ist die Kovarianz normiert. ad − bc s xy = n2 ad − bc −1 ≤ ≤ +1 2 n sxy ist also normiert, jedoch nicht so perfekt wie Φ xy , die Maximalwerte + 1 können in vielen Datenkonstellationen gar nicht erreicht werden. Dennoch ist die Kovarianz normiert und lässt sich auf eine Weise zerlegen, die ähnlich einfach ist wie bei δ , wobei δ andererseits nicht normiert ist. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 61 Zerlegungsformel für die Kovarianz s xy = s xy⋅z + s xz s yz / s z2 , wobei: s 2 = n1 n2 z n Hierbei ist die partielle Kovarianz sxy.z gleich einem gewogenen arithmischen Mittel aus den beiden bedingten Kovarianzen für die beiden Teiltabellen: s xy. z n1 n2 = s xy:z1 + s xy:z 2 n n Aus dem Vergleich der Kovarianz mit der partiellen Kovarianz ergibt sich unmittelbar die Vorzeichenregel: sign (sxy – sxy.z) = sign (sxz ∙ syz) In diesem Sinne ist die Kovarianz nach meiner Auffassung ein Kompromiss in dem „Dilemma“ (Davis) zwischen Vorzeichenregel und perfekter Maßzahl. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 62 Gesamtzusammenhang > bereinigter Zusammenhang/direkter Effekt? (<) Erster Mechanismus, der wirkt: Direkter Kausaleffekt 1. Fall: Der zweite Mechanismus ist indirekt kausal. z β zx x rxy = β xy β yz y β yx + direkter Kausaleffekt β yz β zx indirekter Kausaleffekt Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 63 2. Fall: Der zweite Mechanismus beinhaltet eine Scheinkomponente. z β xz β yz x rxy = β yx β yx y β yz β xz + direkter Kausaleffekt Scheinkomponente auf Grund von z Vorzeichenregel für Fall 1 und 2: Gesamtzusammenhang Bereinigter zusammenhang ber Residuum ges = + res (res > 0) ⇔ (<) (Die Effekte von x und y in Relation zu dem Drittfaktor z sind gleichlautend (gegenlautend) im Vorzeichen.) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 64 3. Fall: Der zweite Mechanismus ist ein korrelierter Effekt. Z rxz X rxy = β yz Y β yx β yx + direkter Kausaleffekt rxz β yz korrelierter Effekt Eine Vorzeichenregel ist nicht so sinnvoll, da es sich hier um unterschiedliche Konzepte handelt. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 65 Mit „Bilanzen“ formuliert: „Scheinkorrelation“ (Besser: Scheinbare Kausalität) Gesamtzusammenhang direkter Kausal- spurious oder effekt Scheinkomponente + - 0 0 + - „Scheinkorrelation“ Z X Y (Gegen-Typ: Scheinbare Nicht-Kausalität) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 66 Intervenierende Variable Gesamtzusammenhang direkter Kausal- indirekter Kaueffekt saleffekt + - 0 0 + - Intervenierende Variable x → z → y (Nur indirekter Kausaleffekt, kein direkter) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 67 Liegen ein oder zwei Mechanismen vor? X Y Z x hat indirekten und direkten Effekt auf y. (Zwei Kausalmechanismen) x → z → y x hat nur indirekten Effekt auf y. (Intervenierende Variable) x y z x hat direkten Kausaleffekt auf y; und: es gibt Scheinkomponente in dem Gesamtzusammenhang zwischen x und y, die auf z zurückzuführen ist. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 68 X Y Z x hat keinen direkten Kausaleffekt auf y. („Scheinkorrelation“) (Bessere Bezeichnung: Scheinkausalität) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 69 Bilanz für die Fälle, in denen zwei Mechanismen das gleiche Vorzeichen haben: z x y Bei Scheinkomponente: „Überlagerung“ z x y Bei indirektem Kausaleffekt: „Verstärker“ Gesamtzusammenhang ++ -- direkt kausal + - spurious oder indirekt kausal + - Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 70 Nur direkter Kausalmechanismus Z X Y Gesamtzusammenhang + - direkt kausal + - spurious oder indirekt kausal 0 0 Résumé: Die Lösung des „Kausalitätsproblems“ liegt nach meiner Auffassung nicht in einer perfektionierten Definition der Kausalität, denn einerseits beginnt man mit der Forderung, es solle ein statistischer Zusammenhang vorliegen, andererseits zeigt die Diskussion der Kausaltypen, dass dies im Fall der scheinbaren Nicht-Kausalität gerade nicht gegeben ist. Die Lösung liegt nach meiner Auffassung in der Interaktion von theoretischen Vorstellungen, die in Modellen verdichtet werden, und Erfahrungswissen, das als Empirie aufbereitet wird. Sind die tatsächlichen Beobachtungen verträglich mit Beobachtungen, die aufgrund eines theoretischen Modells zu erwarten wären? Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 71 Diese Frage wird i.a. nicht in einem einzigen Schritt beantwortet, sonder in Zyklen von Modellgenerierung und Modell-Modifikation aufgrund von Konsistenzüberlegungen und Erfahrungswissen. Falls [xy] als Zusammenhang in der Gesamttabelle ermittelt ist, sollte man Kausalmodelle formulieren mit den Mechanismen, die den Zusammenhang produzieren: - direkter Kausaleffekt? - indirekte/r Kausaleffekt/e? - spurious bzw. Scheinkomponente/n des Zusammenhangs? An diese Denkfigur knüpft die Pfadanalyse an. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 72 B) Typen mit [xy : z1] ≠ [xy : z2] (Spezifikation; 2.2.4.4) (Die Pfadanalyse dagegen berücksichtigt jeweils einen Effekt einer Variablen.) 5) Spezifikation Häufigstes Ergebnis: In den beiden Teilgruppen gibt es unterschiedliche Zusammenhänge. Kausalstruktur: x y z z spezifiziert die Beziehung zwischen x und y. Z.B. Spezifikation nach Ort, Zeit, Geschlecht etc. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 73 Beispiel, dass es scheinbar keinen Zusammenhang gibt, tatsächlich aber in den beiden Teilgruppen gegenläufige Zusammenhänge vorliegen. [x, y] = 0 x = Zufriedenheit mit Beruf y = Teilhabe an Aktivitäten in der Wohngemeinde z1 (white collar-Beruf): Unzufriedenheit mit dem Beruf → Aktiv in der Wohngemeinde z2 (blue collar-Beruf): Zufriedenheit mit dem Beruf → Aktiv in der Wohngemeinde Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 74 C) „Conjoint influence“ (Rosenberg) (2.2.4.5) z wird betrachtet als weitere unabhängige Variable. a) Unabhängiger Einfluss: Kausalstruktur x y z a1) Wenn sich die beiden unabhängigen Variablen (x und z) stark überschneiden, stellt sich die Frage, ob sie die abhängige Variable noch beeinflussen, wenn die jeweils andere unabhängige Variable kontrolliert wird. Ist dies der Fall, so handelt es sich um einen unabhängigen Einfluss. Statistische Beziehungen: [xy : z] ≠ 0, [zy : x] ≠ 0 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 75 a2) Relativer Einfluss: Falls zwei voneinander unabhängige Einflussfaktoren (x und z) vorliegen, stellt sich die Frage, welcher Faktor den größeren Einfluss auf die abhängige Variable (y) hat. [xy : z] größer oder kleiner [zy : x]? a3) Ein kumulativer Einfluss tritt auf, falls der Gesamteinfluss der beiden unabhängigen Variablen größer ist als jeder der beiden einzelnen Einflüsse. Bei Überschneidungen ist es möglich, dass der kumulative Einfluss kaum größer ist als die einzelnen Einflüsse. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 76 Streuung in Y (als Rechteck dargestellt) X Z Variabilität und Erklärungsbeitrag von x bzw. y Erklärt z etwas von der Streuung von y über den Erklärungsbeitrag von x hinaus? Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 77 b) Typologische Effekte: Z.B.: Ein Effekt in der abhängigen Variablen y tritt erst auf, wenn beide unabhängigen Variablen gemeinsam wirken. (Dies ist ein multiplikativer Effekt, im Unterschied zu der Betrachtung additiver Effekte in (a1), (a2), (a3).) x y z Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann Seite 78 Beispiel: Nach Mayntz et al. (1971: 193) erzeugt ein Misserfolg (x) nur dann Unzufriedenheit (y), falls das Anspruchsniveau (z) hoch ist. Diese Interaktion von Merkmalen entspricht „multiplikativem Wirken“ von Merkmalen. 1: Merkmal x liegt vor 0: Merkmal x liegt nicht vor 1x: = 1 z analog 1 x . 1z = 1, falls: Merkmal x und Merkmal z liegen vor 0, sonst In dem Beispiel von Mayntz et al. gibt es nur einen Interaktionseffekt, keine „direkten Effekte“. Ein Modell, das gleichzeitig „Haupt-Effekte“ (von x und z) sowie einen „Interaktionseffekt“ (von x ∙ z) berücksichtigt, würde z.B. lauten (vgl. die Regressionsanalyse, Kap. 3): ŷ = α wobei x + β z +γ x ⋅ z , α,β und γ Parameter für die Gewichtung sind. Graphisch könnte man dies wie folgt veranschaulichen: Abb. 2.6: x y Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann z Seite 79 2.2.4.6 Verschiedene typologische Effekte und Interaktionseffekte Rosenberg (1968) unterscheidet vier typologische Effekte: 1. Distinctive type Beispiel: Eine spezielle Kombination – z.B. ein jüngerer Sohn mit überwiegend älteren Schwestern – weist die höchste Selbstachtung auf. 2. Modifying type Beispiel: In den USA haben Italo-Amerikaner, Katholiken, Schwarze und Juden eher eine Parteiaffinität zu den Demokraten, weiße Protestanten dagegen eher eine Parteiaffinität zu den Republikanern. Die Identifikation mit einer Ethnie hat allein keinen Effekt auf die Parteiaffinität, aber sie verstärkt den Effekt der Ethnien auf die Parteiaffinität. 3. The consistent-inconsistent type Beispiel: Statusinkonsistente weisen eher Stresssymptome auf als Statuskonsistente. 4. The relative type Beispiel (gemäß Lenski): Das Erziehungsziel Autonomie (versus Gehorsam) wird am stärksten von Mittelschichtangehörigen vertreten, die selbst aus der Arbeiterschicht aufgestiegen sind, und am wenigsten von Arbeiterschichtangehörigen, die selbst aus der Mittelschicht abgestiegen sind. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 80 Tabelle: Prozentsatz derer, die das Erziehungsziel Autonomie (versus Gehorsam) befürworten Schicht des Sohnes Mittelschicht Arbeiterschicht 74 % 48 % 77 % 55 % Schicht Mittelschicht des Vaters Arbeiterschicht Der Informationsgehalt dieser Typen besteht für Rosenberg gerade in den speziellen Kombinationen der Ausgangsvariablen, sodass Rosenberg die „Haupteffekte“ der eigenen Schicht und der Herkunftsschicht gar nicht berichtet, sondern nur die „Kombinationseffekte“. Bei den Söhnen, die selbst in der Mittelschicht sind, zeigt sich, dass Aufsteiger in die Mittelschicht häufiger für Autonomie sind, als dies bei Mittelschicht-„Stayer“ der Fall ist. Bei den Söhnen, die selbst in der Arbeiterschicht sind, zeigt sich, dass die Abgestiegenen den Wert Autonomie seltener aufweisen als die Arbeiterschicht-„Stayer“. Insgesamt scheint also der Wert Autonomie am wenigsten charakteristisch für Absteiger und am stärksten charakteristisch für Aufsteiger. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 81 2.2.4.6.1 Varianzanalytische Interpretation von Rosenbergs Mobilitäts-Beispiel Zur Erinnerung an die Deskriptivstatistik: Einfache Varianzanalyse Abhängigkeit einer metrischen Variablen (y) von einer nominalen unabhängigen Variablen (x). Einkommen erklären durch Stellung im Beruf. Beispiel: Effekte in der Varianzanalyse: Allgemeiner Durchschnitt als Bezugspunkt: y = 1964 Schätzung mit Vor- Effekt der Stellung information über die im Beruf auf das Stellung im Beruf Einkommen y1 = 3225 y1 − y = 1261 j = 1: Selbstständige j = 2: y2 = 2502 Beamte j = 3: y3 = 1846 Angestellte j = 4: y 4 = 1718 Arbeiter yi = Mittelwert der i-ten Gruppe y 2 − y = 538 y3 − y = -118 y 4 − y = -246 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 82 Varianzanalyse: Haupteffekte und Interaktionseffekte Einfache Varianzanalyse des Einkommens (y) durch die Stellung im Beruf (x) j = 1: Selbstständige j = 2: Beamte j = 3: Angestellte j = 4: Arbeiter Prognose aufgrund des additiven Modells 1964 + 1261 Tatsächlicher Durchschnitt Abweichung von Prognose 3225 0 1964 + 538 2502 0 1964 - 118 1846 0 1964 - 246 1718 0 Wenn man nun als zweite unabhängige Variable Geschlecht betrachtet, so gibt es entsprechende Effekte des Geschlechts. Die Effekte der Stellung im Beruf und des Geschlechts jeweils allein heißen Haupteffekte. Die Prognose des additiven Modells der zweifachen Varianzanalyse mit Stellung im Beruf (A) und Geschlecht (B) lautet: y + ( y Ai − y ) + ( y B j − y ) Interaktionseffekte bzw. nicht-additive Effekte gibt es in dem Ausmaß, wie der tatsächliche Durchschnitt y ij in den Kombinationen A i, B j von dieser Prognose auf Basis des additiven Modells der zweifachen Varianzanalyse abweicht. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 83 Interaktionseffekte in der zweifachen Varianzanalyse in Rosenbergs Beispiel Um Rosenbergs Beispiel genauer analysieren zu können, habe ich die absoluten Fallzahlen der Typen, die bei Rosenberg fehlen, aus dem Original von Lenski rekonstruiert (Gerhard Lenski: The religious factor. New York 1961. 19772). Befragt wurden 469 Personen, von denen 84 den Mobilitätsstatus Middle: non-mobile haben (davon 74 % pro Autonomie), 118 Middle: upwardly mobile (davon 77 % pro Autonomie), 40 Working: downwardly mobile (davon 48 % pro Autonomie) und 227 Working: non-mobile (davon 55 % pro Autonomie). Das angemessene Analysemodell scheint mir zunächst die Varianzanalyse der abhängigen Variablen Autonomie vs. Gehorsam mit Hilfe der zwei Erklärungsfaktoren „Schicht des Sohnes“ und „Schicht des Vaters“ (deshalb: zweifache Varianzanalyse). Die eigene soziale Lage ist bzgl. der Einstellung zur Autonomie deutlich trennschärfer als die Herkunftslage ( y z1 − y z2 = 21,8 vs. y x1 − y x2 = 2,7 ). Wenn man von der eigenen Lage ausgeht, so geht die Differenzierung nach der Herkunftsschicht jeweils in die Richtung, dass Personen mit Arbeiterherkunft den Wert Autonomie etwas stärker aufweisen (77,1 % vs. 73,8 % (Differenz 3,3) bzw. 55,1 % vs. 47,5 % (Differenz 7,6)). Dies ist erstaunlich, da bei Arbeiterherkunft insgesamt der Wert eher weniger anzutreffen ist (nämlich nur 62,6 % vs. 65,3 % bei Mittelschicht-Herkunft, Differenz = -2,7). Da es sich bei der Randverteilung um gewogene arithmetische Mittel handelt, liegt dies daran, dass die etwas geringere Ausprägung pro Autonomie bei Mittelschicht-„Stayer“ mit 73,8 % vs. der Aufsteiger mit 77,1 % dennoch stärker zu Buche schlägt, weil die „soziale Vererbung“ bei der Mittelschicht mit 67,7 % stark ausgeprägt ist (bei der Arbeiterschicht ähnlich mit 65,8 %, aber die Arbeiterschicht-„Stayer“ sind mit 55,1 % deutlich weniger pro Autonomie). Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 84 Anteil der Personen, die persönliche Autonomie hoch bewerten, in Abhängigkeit von der eigenen bzw. der Herkunftsschicht bzw. vom Mobilitätsstatus (Aufstieg, Abstieg etc.) n y /(n y + n y ) = f ( x, z ) 2 1 2 Schicht des Sohnes (z) Mittelschicht Schicht Mitteldes schicht Vaters (x) Arbeiterschicht 62 = 73,8% 84 19 = 47,5% 40 81 = 65,3% 124 Prognose: 63,3+12,4+2,0=77,7 Prognose: 63,3-9,4+2,0=55,9 Abweichung von Prognose: 73,8-77,7=-3,9 Abweichung von Prognose: 47,5-55,9=-8,4 y x1 − y = 65,3 – 63,3 = +2,0 Arbeiterschicht 91 = 77,1% 118 125 = 55,1% 227 216 = 62,6% 345 Prognose: 63,3 + 12,4-0,7 = 75,0 Prognose: 63,3-9,4-0,7 = 53,2 Abweichung von Prognose: 77,1-75,0=+2,1 Abweichung von Prognose: 55,1-53,2=+1,9 y x2 − y = 62,6-63,3=-0,7 153 = 75,7% 202 y z1 − y 144 = 53,9% 267 = 75,7 - 63,3 = +12,4 y z2 − y = 53,9 – 63,3 = -9,4 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 85 297 = 63,3% 469 Insgesamt: 84 62 40 19 81 ⋅ + ⋅ = 124 84 124 40 124 (50,0) (15,3) 67,7 ⋅ 73,8 + 32,3 ⋅ 47,5 = 65,3 ∧ ∧ ∨ 34,2 ⋅ 77,1 + 65,8 ⋅ 55,1 = 62,6 (26,4) (36,2) 118 91 227 125 216 ⋅ + ⋅ = 345 118 345 227 345 Das Beispiel ist also viel komplexer, als es bei Lenski und Rosenberg dargestellt wird. Der angemessene Bezugspunkt scheint mir zunächst das additive Modell der zweifachen Varianzanalyse, das hier zur Prognose verwendet wird: yˆij = y + ( yi + − y ) + ( y+ j − y ) Die vier Interaktionseffekte bestehen dann in den vier Abweichungen der tatsächlichen Durchschnitte ( yij ) in den Kombinationen von den beim ˆ ˆ additiven Modell zu erwartenden Werten ( yij ) : yij − yij Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 86 Gegenüber dem allgemeinen Durchschnitt und den Haupteffekten der Herkunftslage und der eigenen Lage weisen Aufsteiger eine um 2,1 % stärker ausgeprägte Präferenz für Autonomie (selbstständiges Denken) auf. Absteiger dagegen weisen diese Präferenz unterproportional auf (-8,4 %). (Mittelschicht-„Stayer“ bleiben mit –3,9 % unterproportional und Arbeiter-„Stayer“ mit +1,9 % überproportional, was noch zu erklären wäre.) Vieles spricht dafür, dass Autonomie, d.h. der Wert, selbstständig zu denken, eher eine Ursache des Aufstiegs ist als eine Folge. Dies sah auch Lenski so, da eine Überanpassung von Aufsteigern noch plausibel sein könne, nicht aber eine Überanpassung von Absteigern. Deshalb soll diese Kausalrichtung nach einer kurzen Diskussion der „Effekt-Codierung“ weiter verfolgt werden. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 87 Nicht gewogene Daten bzw. „Effekt-Codierung“ führen zu falschen Schlüssen. Wenn man die Lenski-Daten ohne die Fallzahlen analysieren würde, die bei Rosenberg fehlen, wäre man zur Analyse mit „nicht gewogenen“ Daten gezwungen. An diesem Beispiel soll gezeigt werden, dass dies zu – im Sinne Lenskis – eher unsinnigen Ergebnissen führt, dann wären nämlich Aufsteiger und Absteiger ähnlich in ihrer Einstellung, während Lenski das selbstständige Denken (Autonomie) gerade für ein Charakteristikum von Aufsteigern hält. Unter „Effekt-Codierung“ versteht man eine Codierung Ti , bei der die Gewichte b i gerade die Effekte bzgl. des nicht gewogenen Mittelwerts der Mittelwerte sind: yˆ = bo + b1 T1 + ... + bk −1 Tk −1 k bo = ∑ y j / k = : y j =1 bi = yi − y (= „Effekt“ der i-ten Ausprägung) (Die bessere Art, Effekte zu messen, läge in der Wahl des tatsächlichen (= gewogenen) Mittelwerts y als Bezugspunkt: yi − y ) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 88 Nicht gewogene Daten Schicht des Sohnes (z) Mittelschicht Schicht des Vaters (x) Mittelschicht Arbeiterschicht Arbeiterschicht 74 48 61 Prognose: 63,5 + 12 - 2,5 =73 Prognose: 63,5 – 12 – 2,5 = 49 61 – 63,5 = -2,5 Abweichung von Prognose: +1 Abweichung von Prognose: -1 77 55 66 Prognose: 63,5 + 12 + 2,5 =78 Prognose: 63,5 – 12 + 2,5 = 54 66 – 63,5 = +2,5 Abweichung von Prognose: -1 Abweichung von Prognose: +1 75,5 51,5 75,5 - 63,5 = +12 51,5 – 63,5 = -12 63,5 Der Effekt von Aufstieg und Abstieg wäre jeweils „-1 %“ weg vom Wert Autonomie, während Lenski und Rosenberg gerade den Unterschied von Aufstieg und Abstieg herausstellen wollten. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 89 Hypothese: Der Wert Autonomie strukturiert das Mobilitätsverhalten Zu erklären seien die Chancen, zu einem der vier Mobilitätstypen zu gehören. Relative Häufigkeit der Mobilitätstypen als Bezugspunkt. Schicht des Sohnes Mittelschicht Mittelschicht Arbeiterschicht 84 = 17,9% 469 40 = 8,5% 469 Schicht des Vaters 227 = 48,4% 469 118 = 25,2% 469 Arbeiterschicht Effekte, wenn man Autonomie als Wert präferiert. Schicht des Sohnes Mittelschicht Schicht des Vaters Arbeiterschicht Mittelschicht Arbeiterschicht 62 = 20,9% 297 19 = 6,4% 297 20,9 % - 17,9 % = +3,0 % 6,4 % - 8,5 % = -2,1 % 91 125 = 30,6% = 42,1% 297 297 30,6 % - 25,2 % = +5,4 % 42,1 % - 48,4 % = -6,3 % Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 90 Der Wert Autonomie begünstigt also das Auftreten des Typs „Aufstieg“ derart, dass man ihn zu +5,4 % überproportional vorfindet. Entsprechend findet man Abstieg mit –2,1 % unterproportional. (Mit Wert Autonomie verbleibt man zu +3,0 % überproportional in der Mittelschicht. Mit Wert Autonomie verbleibt man mit -6,3 % unterproportional in der Arbeiterschicht.) Die Effekte sind noch deutlicher, wenn man den Zusammenhang aus der Perspektive betrachtet, dass man den Wert Autonomie nicht präferiert. Effekte, wenn man Autonomie als Wert nicht präferiert. Schicht des Sohnes Mittelschicht Arbeiterschicht 21 = 12,2% 172 22 = 12,8% 172 Mittelschicht 12,8 % - 17,9 % = -5,1 % 27 = 15,7% 172 Arbeiterschicht Schicht des Vaters 15,7 % - 25,2 % = -9,5 % 12,2 % - 8,5 % = +3,7 % 102 = 59,3% 172 59,3 % - 48,4 % = +10,9 % Wenn man Autonomie nicht als Wert präferiert, ist man beim Typ Aufstieg mit –9,5 % stark unterproportional vertreten und beim Typ Abstieg mit +3,7 % überproportional. Besonders groß ist der Effekt auf den Typ Arbeiter-„Stayer“. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 91 Berücksichtigung der „Randeffekte“, dass man von der Spitze nicht aufsteigen kann und von unten nicht absteigen kann. In dem vorliegenden Beispiel gibt es nur zwei soziale Lagen in der Hierarchie, sodass sich die „Randeffekte“ hier darin zeigen, dass man bei Mittelschicht-Herkunft nicht aufsteigen und bei Arbeiterschicht-Herkunft nicht absteigen kann. Um dies angemessen zu berücksichtigen, könnte man als Bezugspunkte jeweils die Mittelschicht-Herkunft bzw. die Arbeiterschicht-Herkunft gesondert betrachten. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 92 Personen mit Mittelschicht-Herkunft Schicht des Sohnes Schicht des Vaters: Mittelschicht Mittelschicht Arbeiterschicht 84 = 67,7% 124 40 = 32,3% 124 Personen mit Präferenz für den Wert Autonomie Schicht des Sohnes Mittelschicht Arbeiterschicht 62 = 76,5% 81 19 = 23,5% 81 Schicht des Vaters: Mittelschicht 76,5 % - 67,7 % = +8,8 % 23,5 % - 32,3 % = -8,8 % Der Wert Autonomie fördert das Verbleiben in der Mittelschicht mit +8,8 %, andererseits sind diese Personen bei den Absteigern mit den spiegelbildlichen –8,8 % unterproportional vertreten. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 93 Personen mit Arbeiterschicht-Herkunft Schicht des Sohnes Schicht des Vaters: Arbeiterschicht Mittelschicht Arbeiterschicht 118 = 34,2% 345 227 = 65,8% 345 Personen mit Präferenz für den Wert Autonomie Schicht des Sohnes Mittelschicht Arbeiterschicht 91 = 42,1% 216 Schicht des Vaters: Arbeiterschicht 42,1 % - 34,2 % = 7,9 % 125 = 57,9% 216 57,9 % - 65,8 % = -7,9 % Bei Arbeiterschicht-Herkunft steigt man bei der Präferenz für Autonomie zu +7,9 % überproportional auf und verbleibt spiegelbildlich zu –7,9 % unterproportional in der Arbeiterschicht. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 94 Effekte, wenn man Autonomie als Wert nicht präferiert. Personen mit Mittelschicht-Herkunft Schicht des Sohnes Mittelschicht Schicht des Vaters: Mittelschicht Arbeiterschicht 22 = 51,2% 43 21 = 48,8% 43 51,2%-67,7%=-16,5% 48,8%-32,3%=+16,5% Bei Mittelschicht-Herkunft verbleibt man ohne den Wert Autonomie mit –16,5 % deutlich unterproportional in der Mittelschicht und steigt spiegelbildlich mit +16,5 % deutlich überproportional ab. Personen mit Arbeiterschicht-Herkunft Schicht des Sohnes Mittelschicht Schicht des Vaters: Arbeiterschicht Arbeiterschicht 27 = 20,9% 129 102 = 79,1% 129 20,9%-34,2%=-13,3% 79,1%-65,8%=+13,3% Ohne den Wert Autonomie steigt man bei Arbeiterschicht-Herkunft mit –13,3 % unterproportional häufig auf und verbleibt spiegelbildlich mit +13,3 % überproportional häufig in der Arbeiterschicht. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 95 2.2.4.7 Interaktion, Spezifikation und typologische Effekte aus Sicht der Varianzanalyse Die fruchtbarste Art, Interaktionseffekte in der Tabellenanalyse für 3 Variablen zu behandeln, wenn es eine zu erklärende Variable y gibt (asymmetrische Fragestellung), ist aus meiner Sicht die Orientierung an der zweifachen Varianzanalyse: y = f ( x, z ) In der Varianzanalyse wird versucht, die Variation in y dadurch zu erklären, dass sie auf Muster zurückgeführt wird, die sich aus Mechanismen und Effekten „möglichst niedriger Ordnung“ ergeben ( y xi , y z j wären 1. Ordnung, y xi z j wäre 2. Ordnung). (Auch die log-lineare Modellierung wurde genau aus dieser Analogie heraus entwickelt, allerdings für die symmetrische Fragestellung, aufgrund welcher Mechanismen es zu den Beobachtungen ( xi , z j , yu ) kommt.) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 96 Unter Interaktionen in der zweifachen Varianzanalyse versteht man die Abweichungen von dem Muster, das sich aufgrund des allgemeinen Bezugspunkts y und der Haupteffekte ( y xi − y und y z j − y ) prognostizieren lässt: y xi z j − ( y + ( y xi − y ) + ( y z j − y )) Deshalb ist es sinnvoll, diese Effekte als „nicht additive“ Effekte zu interpretieren. „Multiplikativ“ sollte man dann nur Effekte auf y nennen, die genau und nur bei dem gemeinsamen Vorliegen zweier Bedingungen x i und zj auftreten. Im allgemeinen Fall gibt es also vier Interaktionseffekte bzw. nicht additive Effekte (nämlich für die vier Kombinationen ( xi , z j )). Die typologischen Effekte, die Rosenberg und wir bisher unterschieden haben, sind also alles spezielle Interaktionseffekte. Wenn es einen Interaktionseffekt gibt wie z.B. (xz) y , dann lässt sich dies asymmetrisch so formulieren, dass x die Beziehung (zy) spezifiziert und z die Beziehung (xy). (Wenn y nicht als abhängige Variable betrachtet wird, gilt auch : y spezifiziert die Beziehung (xz).) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 97 Anschaulich: z y x Oder auch: x y z Dies soll im folgenden Beispiel an der Analyse der Lebenszufriedenheit in Abhängigkeit von den Zufriedenheiten mit dem Beruf und mit Primärbeziehungen (Familie, Freundeskreis) gezeigt werden. Die Zahlen sind von Mayntz et al. (1971: 204f.), die dies als Beispiel für die multikausale Abhängigkeit einer Variablen y von den beiden Ursachen x und z angeben, wobei die Ursachen nicht korrelieren: x y z Was Mayntz et al. übersehen haben, ist, dass man in diesem Modell die starke Interaktion mit berücksichtigen sollte, was ich im Folgenden ausführe: x (xz) y z Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 98 Erläuterung der varianzanalytischen Tabelle So wie man bei statistischer Unabhängigkeit in einer Kontingenztabelle aus der Randverteilung die Besetzungszahlen in den einzelnen Kombinationszellen vorhersagen kann, lässt sich in der folgenden varianzanalytischen Tabelle eine Prognose für die Kombinationszellen aufgrund der Haupteffekte bzw. der Randverteilungen vornehmen. Beispiel: Personen mit großer Berufszufriedenheit und kleiner Zufriedenheit mit den Primärbeziehungen: Ausgegangen wird von der durchschnittlichen Lebenszufriedenheit von 57,89 %. Bei großer Berufszufriedenheit liegt man um 18,11 % über der durchschnittlichen Lebenszufriedenheit. Bei kleiner Zufriedenheit mit den Primärbeziehungen liegt man um –7,89 % unter dem Durchschnitt. Die Prognose aufgrund des additiven Modells beträgt also 57,89 – 7,89 + 18,11 = 68,11 %. Tatsächlich wird aber eine durchschnittliche Lebenszufriedenheit von 85,71 % beobachtet. Personen mit dieser Kombination weisen also eine um 85,71 – 68,11 = + 17,60 % höhere Lebenszufriedenheit auf, als bei dem additiven Modell (aufgrund der Haupteffekte) zu erwarten. Die Berufszufriedenheit erweist sich in dieser Kombination als relativ wichtig für die allgemeine Lebenszufriedenheit. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 99 Anteil der Personen mit großer Lebenszufriedenheit in Abhängigkeit von den Zufriedenheiten mit dem Beruf und den Primärbeziehungen n y2 /( n y1 + n y2 ) = f ( x, z ) Zufriedenheit mit Primärbeziehungen (x) klein groß 30 klein Zu= 18,75% 30 + 130 frieden -heit Prognose: 57,89 - 7,89 - 20,11 = 29,89 mit Abweichung von Prognose: 18,75-29,89 = dem -11,14% Beruf (z) Anteil des Typs: 160/950 = 16,84 % groß 140 = 48,28% 140 + 150 170 = 37,78% 170 + 280 Prognose: 57,89+3,65-20,11=41,43 % y z1 − y = Abweichung von Prognose: 48,28-41,43= +6,85 Anteil des Typs: 290/950 = 30,53 % 260 = 72,22% 260 + 100 120 = 85,71% 120 + 20 37,78 – 57,89 = -20,11 % n z1 = 450 ; 450/950 = 47,37 % 380 = 76,00% 380 + 120 yz2 − y = Prognose: 57,89 - 7,89 + 18,11 = 68,11 % Prognose: 57,89 + 3,65 + 18,11 = 79,65 % Abweichung von Prognose: 85,71-68,11 = Abweichung von Prognose: 72,22-79,65= + 17,60% -7,45% 76,00 – 57,89 = +18,11 % Anteil des Typs: 140/950 = 14,74 % Anteil des Typs: 360/950 = 37,89 % n z2 = 500 ; 500/950 = 52,63 % 150 = 50,00% 150 + 150 400 = 61,54% 400 + 250 n = 950 y x1 − y = 50,00 – 57,89 = -7,89 % y x2 − y n x1 = 300 ; 300/950 = 31,58 % n x2 = 650 ; 650/950 = 68,42 % = 61,54 – 57,89 = +3,65 % D.h. Die Interaktionseffekte sind nennenswert verschieden von Null. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 100 550 = 57,89% 550 + 400 Das „saturierte Modell“ (=vollständige Modell mit allen möglichen Effekten) läßt sich auf folgende beiden äquivalenten Arten darstellen: 1) Deskription der 4 Kombinations-Typen 4 Typen: y x =0, z =0 = 18,75% y x =1, z =0 = 48,28% y x =0, z =1 = 85,71% y x =1, z =1 = 72,22% Interpretation: Die Zufriedenheit mit dem Beruf (z) geht einher mit einem stärkeren Zuwachs in der allgemeinen Lebenszufriedenheit als die Zufriedenheit mit den Beziehungen (x). Interpretation: Der Kombinations-Typ weist entgegen der Erwartung nicht die höchsten allgemeine Lebenszufriedenheit auf, denn: y x = 0, z =1 = 85,71% > 72,22% = y x =1, z =1 2) Strukturerklärung durch Haupteffekte und Interaktionseffekte Beispiel für Typ (2,2): 72,22% = y x 2 , z 2 = ( ( ) ( y + y x2 − y + y z 2 − y ( ( ) ( + yx2 , z 2 − y + yx2 − y + yz 2 − y = ) ))) 57,89 + (+ 3,65) + (+ 18,11) + (72,22 − (57,89 + (+ 3,65) + (+ 18,11))) Interaktionseffekt (x 2 ,z 2 ) = -7,45% Interpretation: Der (Haupt-) Effekt des Berufs (z) ist mit + 18,11 größer als der (Haupt-) Effekt der Beziehungen (x). Der Interaktionseffekt für (x 2 ,z 2 ) zeigt, daß die allgemeine Lebenszufriedenheit unter diesen Bedingungen um 7,45% weniger groß ist, als nach dem additiven Modell aufgrund der Haupteffekte zu erwarten. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 101 Anteil der Personen mit kleiner Lebenszufriedenheit in Abhängigkeit von den Zufriedenheiten mit dem Beruf und den Primärbeziehungen n y1 /( n y1 + n y2 ) = f ( x, z ) Zufriedenheit mit Primärbeziehungen (x) klein groß 130 klein Zu= 81,25% 130 + 30 frieden -heit Prognose: 42,11+7,89+20,11=70,11 mit Abweichung von Prognose: 81,25-70,11= dem +11,14 Beruf Anteil des Typs: 160/950 = 16,84 % (z) groß 150 = 51,72% 150 + 140 280 = 62,22% 280 + 170 Prognose: 42,11-3,65+20,11= +58,57 y z1 − y = Abweichung von Prognose: 51,72-58,57=6,85 62,22 – 42,11 = +20,11 Anteil des Typs: 290/950 = 30,53 % n z1 = 450 ; 450/950 = 47,37 % 20 = 14,29% 20 + 120 100 = 27,78% 100 + 260 120 = 24,00% 120 + 380 Prognose: 42,11 + 7,89-18,11 = 31,89 Prognose: 42,11-3,65-18,11 = 20,35 Abweichung von Prognose: 14,29-31,89 = 17,60 Abweichung von Prognose: 27,78-20,35= +7,43 Anteil des Typs: 140/950 = 14,74 % Anteil des Typs: 360/950 = 37,89 % 150 = 50,00% 150 + 150 250 = 38,46% 250 + 400 y x1 − y = 50,00 – 42,11 = +7,89 % nx1 = 300 ; 300/950 = 31,58 % y x2 − y = 38,46 – 42,11 = -3,65 nx2 = 650 ; 650/950 = 68,42 % Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 102 yz2 − y = 24,00 – 42,11 = -18,11 % n z2 = 500 ; 500/950 = 52,63 % 400 = 42,11% 950 Lebenszufriedenheit und Zufriedenheit mit den Primärbeziehungen (yx) Zufriedenheit mit den Primärbeziehungen (x) Lebenszufriedenheit (y) [xy] = 22500 150 250 400 150 400 550 300 650 950 δ xy = [xy ]/ n = 23,684 s xy = [xy ] / n 2 = 0,025 Φ xy = [xy ] / 207123 = 0,109 Lebenszufriedenheit und Berufszufriedenheit (yz) Berufszufriedenheit (z) Lebenszufriedenheit (y) [yz ] = 86000 280 120 400 170 380 550 450 500 950 δ yz = [ yz ]/ n = 90,526 s yz = [ yz ] / n 2 = 0,095 Φ yz = [ yz ] / 222486 = 0,387 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 103 Berufszufriedenheit und Zufriedenheit mit den Primärbeziehungen (zx) Zufriedenheit mit den Primärbeziehungen (x) Berufszufriedenheit (z) 160 290 450 140 360 500 300 650 950 [zx] = 17000 δ zx = [zx ]/ n == 17,895 s zx = [zx ] / n 2 = 0,019 Φ zx = [zx ] / 209464 = 0,081 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 104 Kombinationen (Typen) von Lebenszufriedenheit, Zufriedenheit mit dem Beruf und Zufriedenheit mit den Primärbeziehungen (y, x, z) Berufszufriedenheit klein (z = z 1 ) Berufszufriedenheit groß (z = z 2 ) Zufriedenheit mit den Primärbeziehungen (x) klein Lebens- klein 130 zufrieden(/160 = 81,25 %) heit (y) Anteil des Typs: 130/950=13,68 % groß 30 (/160 = 18,75 %) Anteil des Typs: 30/950=3,16 % 160 Zufriedenheit mit den Primärbeziehungen (x) groß klein 280 150 (/290 = 51,72 %) Anteil des Typs: 150/950=15,79 % Lebens- klein 20 zufrieden(/140 = 14,29 %) heit (y) Anteil des Typs: 20/950=2,11% 100 groß 120 (/140 =85,71 %) 260 170 140 (/290 = 48,28 %) Anteil des Typs: 140/950=14,74 % 290 groß 120 (/360 = 27,78 %) Anteil des Typs: 100/950=10,53% 380 (/360 = 72,22 %) Anteil des Typs: Anteil des Typs: 120/950=12,63% 260/950=27,37% 450(/950 = 47,37 %) 140 360 [yx : n ] = −6800 [ yx : z1 ] = 13700 500 (/950=52,63%) z2 δ yx = [ yx]/ nz == 30,444 δ yx = [ yx] / n z == −13,600 1 2 s yx = [ yx] / n z1 = 0,068 s yx = [ yx] / n z2 = −0,027 2 2 Φ yx = [ yx] / 46996 = 0,292 Φ yx = [ yx] / 47940 = −0,142 n = 950 Deskriptiv sind diese Typen besonders informativ: Die höchste allgemeine Lebenszufriedenheit findet sich mit 85,71 % bei Personen mit großer Berufszufriedenheit und kleiner Zufriedenheit mit den Primärbeziehungen, was auf eine reine Berufsorientierung dieser Personen hindeutet. Die geringste Lebenszufriedenheit findet sich mit 18,75 % bei den Personen mit geringer Zufriedenheit sowohl mit dem Beruf als auch mit den Primärbeziehungen. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 105 Kovarianzzerlegung von yx nach z (z spezifiziert yx) s yx = nz1 n s yx: z1 + nz 2 n s yx: z 2 sxz + nz1 s yz nz 2 n n 0,019 ⋅ 0,095 0,025 = 0,474 ⋅ 0,068 + 0,526 ⋅ (−0,027) + 0,474 ⋅ 0,526 = 0,032 + 0,007 − 0,014 Der geringe Zusammenhang zwischen der Lebenszufriedenheit und der Zufriedenheit mit den Primärbeziehungen (syx = 0,025) setzt sich daraus zusammen, dass in den beiden Teilgruppen Gegenläufiges auftritt: Bei geringer Berufszufriedenheit hängen die Lebenszufriedenheit und die Zufriedenheit mit den Primärbeziehungen schwach positiv zusammen, während bei großer Berufszufriedenheit die Lebenszufriedenheit und die Zufriedenheit mit den Primärbeziehungen schwach negativ zusammenhängen. Das Produkt der Beziehungen mit dem Drittfaktor (z) fällt nicht ins Gewicht. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 106 Kombinationen (Typen) von Lebenszufriedenheit, Zufriedenheit mit den Primärbeziehungen und Zufriedenheit mit dem Beruf (y, z, x) Primärbeziehungen klein (x = x 1 ) Primärbeziehungen groß (x = x 2 ) Zufriedenheit mit dem Beruf (z) klein Lebensklein 130 zufrieden(/160=81,25%) heit (y) Anteil des Typs: 130/950=13,68 % groß 30 (/160=18,75%) groß klein 150 20 (/140=19,29%) Anteil des Typs: 20/950=2,11% 120 Lebens- klein 150 zufrieden(/290=51,72%) heit (y) Anteil des Typs: 150/950=15,79% 150 groß 140 (/290=48,28%) (/140=85,71%) Anteil des Typs: 30/950=3,16 % Anteil des Typs: 120/950=12,63 % 160 140 [ yz : x1 ] = 15000 Zufriedenheit mit dem Beruf (z) 300 = 31,58% 950 groß 250 100 (/360=27,78%) Anteil des Typs: 100/950=10,53% 400 260 (/360=72,22%) Anteil des Typs: 140/950=14,74% Anteil des Typs: 260/950=27,37% 290 360 650 = 68,42% 950 [yz : x ] = 25000 z2 δ yz = [ yz ] / n x = 50 δ yz = [ yz ] / n x = 38,462 1 2 s yz = [ yz ] / nx2 = 0,059 s yz = [ yz ] / nx1 = 0,167 2 2 Φ yz = [ yz ] / 22450 = 0,668 Φ yz = [ yz ] / 202176 = 0,245 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 107 n = 950 Kovarianzzerlegung von yz nach x (x spezifiziert yz) s yz = nx1 n s yz:x1 + n x2 n s yz:x2 s yx + nx1 s zx n x2 n n 0,025 ⋅ 0,019 0,095 = 0,316 ⋅ 0,167 + 0,684 ⋅ 0,059 + 0,316 ⋅ 0,684 = 0,053 + 0,040 + 0,002 Der mittelgroße Zusammenhang zwischen der Lebenszufriedenheit und der Berufszufriedenheit (syz = 0,095) setzt sich daraus zusammen, dass in der schwächer besetzten Gruppe mit kleiner Zufriedenheit mit den Primärbeziehungen (31,58%) ein relativ starker Zusammenhang zwischen Lebenszufriedenheit und Berufszufriedenheit besteht (syz = 0,167) und in der stärker besetzten Gruppe mit großer Zufriedenheit mit den Primärbeziehungen (68,4%) ein ebenfalls positiver, aber kleinerer Zusammenhang zwischen Lebenszufriedenheit und Berufszufriedenheit besteht. Das Produkt der Beziehungen zu dem Drittfaktor (x) fällt nicht ins Gewicht. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 108 Berücksichtigung von Drittfaktoren auf metrischem Messniveau: 2.3 Partielle Korrelation Zusammenhang zweier Variablen unter der Bedingung, dass der Einfluss einer oder mehrerer anderer Variablen herausgerechnet („rauspartialisiert“) wird. x y z Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 109 Einfluss von z auf x O.B.d.A.: Standardisierte Variablen s xz = r Korrelation xz sx sz ┌ 1 n (xi − x )(zi − z ) Kovarianz sxz = n ∑ i =1 1 n 2 2 ( ) s = x − x = s i x Varianz xx n ∑ i =1 Standardisierung von x: x−x sx (Die Standardisierung von x hat den Mittelwert 0 und die Streuung 1) └ Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 110 ┌ Falls x und y standardisiert: s xy = 1 (xi − x )( yi − y ) ∑ n ( x = 0; y = 0) 1 n = ∑ xi yi n i =1 n 〈 x, y〉 = ∑ xi yi Inneres Produkt oder Skalarprodukt i =1 der Datenvektoren (x1, ..., xn) und (y1, ..., yn) (s xy = 0) ⇔ (〈 x, y〉 = 0) ⇔ (Die Achsen x und y stehen senkrecht aufeinander. Oder: Die Achsen sind orthogonal.) └ Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 111 y rxy = 0 ( s xy = 0) (< x, y = 0) • rxy ≠ 0 x y x Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 112 x y z Einfluss von z auf x: Durch Regression geschätzt. xˆ = rxz z (weil die Variablen standardisiert sind) Bereinigung der Variablen x um den möglichen Störfaktor z x − xˆ = x − r xz z ┌ Die bereinigte Variable x- x̂ hat keinen Zusammen hang mehr mit z: 〈 x − rxz z , z 〉 = 〈 x, z 〉 − rxz 〈 z , z 〉 n └ = n rxz – n rxz =0 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 113 x y z Analog: Bereinigung von y um die mögliche Störung z [ ŷ =ryz z Einfluss von z auf y] (Weil y und z standardisiert sind.) y − yˆ = y − ryz z Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 114 Die partielle Korrelation ist die Korrelation zwischen den beiden um den Störfaktor (Drittfaktor) z bereinigten Variablen. := rx − xˆ ( z ), y − yˆ ( z ) rxy. z Zusammenhang von x und y unter Kontrolle von z x y z Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 115 Beispiel: Erklärung der durchschnittlichen Ausbildungsvergütung in einem Betrieb x: In dem Betrieb gibt es einen Betriebsrat. y: Höhere Ausbildungsvergütung. ryx = 0,41 S. = .03 Liegt es an Beschäftigtenzahl z? ryx.z = 0,39 S. = .05 Aber: Für z = Bereich Industrie ryx.z = 0,04 S. = .40 Betriebsrat y Höhere Ausbildungsvergütung x z Bereich Industrie Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 116 Formel für die partielle Korrelation: rxy. z = rxy − rxz ryz 1 − rxz 1 − ryz 2 2 Zerlegungsformel in Analogie zur Tabellenanalyse: rxy = 1 − rxz 2 1 − ryz 2 Gesamt- Koeffizient zusam- i.a. ≠ 1 menhang rxy. z + rxz ryz BereiZusammenhänge nigter mit dem Drittfaktor Zusammenhang [xy] = a [xy : z] + b [xz] [yz] Für z = Dichotomie: [xy] = α [xy : z1] + β [xy : z2] + γ [xz] [yz] Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 117 ┌ „Dilemma“ zwischen perfekter Vorzeichenregel und Aussagen über „perfekte“ Maßzahlen. Tabellenanalyse: δ xy = δ xy:z + δ xy:z + γ δ xz δ yz 1 2 Für δ : perfekte Vorzeichenregel, aber: δ nicht normiert. Für Φ : Vorzeichenregel nur „Daumenregel“, aber: Φ ist normierte Maßzahl. Partielle Korrelation: Für r: Vorzeichenregel nur „Daumenregel“, aber: r ist normierte Maßzahl. Für Kovarianz: 1 sxy = sxy. z + 2 sxz s yz sz Perfekte Vorzeichenregel, aber: sxy ist keine „perfekte“ Maßzahl, da die Maximalwerte +1/-1 bei vielen Datenkonstellationen gar nicht angenommen werden können. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 118 Die Kovarianz ist im Allgemeinen nicht normiert, im Fall der Vierfeldertafel allerdings erfüllt sie die Normierungsbedingung, denn: ad − bc −1 ≤ ≤ +1 2 n In dem Sinne, dass sie diese notwendige Bedingung für eine Maßzahl erfüllt, löst sie das „Dilemma“ von Davis zwischen Vorzeichenregel und Maßzahl. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 119 Pfadanalyse: z rxz β yz x β yx y rxy = β yx + rxz β yz Gesamtzusammenhang gleich - Direkter (bereinigter) Effekt plus: - Indirekter Effekt über z ( β yz β zx ) - Bzw. Scheinkomponente aufgrund von z ( β yz β xz ) - Bzw. korrelierter Effekt ( rxz β yz ) In den ersten beiden Fällen gilt die Vorzeichenregel für den Vergleich des Gesamtzusammenhangs mit den jeweiligen Effekten ( β ). Im dritten Fall ist eine Vorzeichenregel nicht so sinnvoll, da es sich um unterschiedliche Konzepte handelt. └ Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 120 Formales Beispiel: Keine Störung durch Drittfaktor z x y z Falls: rxz = 0, ryz = 0 rxy − rxz ryz = rxy . z = rxy 2 2 r r 1 1 − − xz yz Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 121 Inhaltliches Beispiel: Politisches Interesse (Vater, Mutter, Befragte) V M B rVM = 0,37, rVB = 0,27, rMB = 0,23, S = .001 S = .001 S = .001 rVB.M = 0,21, S = .001 rMB.V = 0,15, S = .006 Das politische Interesse des Befragten korreliert sowohl mit dem politischen Interesse des Vaters als auch der Mutter, deren politisches Interesse ebenfalls korreliert. Kontrolliert man den Einfluss jeweils eines Elternteils, so geht zwar der bereinigte Zusammenhang zwischen dem anderen Elternteil und dem Befragten zurück, die Korrelation bleibt aber signifikant. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 122 (Gliederung für die Sitzungen zur multiplen Regression) 3.1 Multiple Regressionsanalyse ............................................................. 75 3.1.1 Das Grundprinzip der einfachen Regression, geometrische Interpretation und Matrixschreibweise ................................................ 77 3.1.2 Die Regressionskoeffizienten b und beta ............................................ 79 3.1.3 Gleichungsansatz der multiplen Regression und Matrixschreibweise 81 3.1.4 Multipler Korrelationskoeffizient R .................................................... 84 3.1.5 Interpretation der Koeffizienten........................................................... 86 3.1.6 Schrittweise Regression ....................................................................... 88 3.1.7 Zuordnung der gesamten erklärten Varianz zu den Prädiktoren ......... 89 3.1.7.1 Einführung in die Problemstellung ...................................................... 89 3.1.7.2 Charakterisierung der Koeffizienten mit Hilfe von Residuen ............. 90 3.1.7.3 Zwei Zerlegungen von Multiple R2 ..................................................... 94 3.1.7.4 Darstellung der erklärten Varianz durch Kovarianzen und Effekte .... 95 3.1.8 Interaktion in der Regression ............................................................... 96 3.1.8.1 Anknüpfung an die Tabellenanalyse: Regressionsanalyse der Lebenszufriedenheit ............................................................................. 97 3.1.9 Statistische Inferenz ........................................................................... 103 3.1.10 Die Verletzung der Modellannahmen ................................................ 107 3.1.11 Beispiel für die Regressionsanalyse .................................................. 109 3.1.12 Die multivariate Regression............................................................... 118 3.1.13 “Weighted least squares” ................................................................... 118 Literaturverzeichnis ........................................................................................... 121 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 123 3.1 Multiple Regression Eine abhängige metrische Variable y (auch bezeichnet als: Prädikand oder zu erklärende Variable) soll erklärt werden durch mehrere (k ≥ 2) unabhängige Variablen x1, ..., xk (auch bezeichnet als: Prädiktoren, Erklärungsfaktoren oder ähnliches). Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 124 Zu erklärende Variable y: Affinität zu den Jusos (versus „Basisgruppen“) „Bereinigte“ „BereinigPrädiktoren Gesamtzu- Erklärungs- Direkter (Signi- Muliple R2 Erklärungskraft fikanz-) bei schrittter“ ZuEffekt oder sammenkraft bei sammen„bereinighang isolierter Test- weiser Rer 2 y , x − xˆ hang gression Betrachtung ter“ Effekt wert F ry , x 2 2 β y, x r y,x 1− R r i i ∆ R bei 2 schrittweiser Regression i i i y , xi − xˆi = F ⋅ n − k − 1 x 1 : Affinität zu „grüner“ Kommunalprartei - 0,56 31 % - 0,38 - 0,35 12 % 49,3 31 % 31 % x 2 : Affinität zur SPD 0,48 23 % 0,31 0,30 9% 37,4 47 % 16 % x 3 : Pro Frauenerwerbstätigkeit 0,24 6% 0,36 13 % 53,3 57 % 10 % x 4 : Pro Wohngemeinschaft als Lebensform 0,39 15 % - 0,21 - 0,20 4% 15,1 65 % 8% x 5 : Verdienst wichtig bei Berufsentscheidung 0,29 8% 0,27 0,26 7% 28,6 71 % 6% x 6 : Vater gewerkschaftsnah 0,28 8% 0,23 0,22 5% 22,3 77 % 6% - 0,46 21 % - 0,22 - 0,20 4% 17,2 82 % 5% 0,40 16 % 0,20 0,20 4% 14,7 85 % 3% x 7 : Kommunistische Partei positiv x 8 : Eigene Berufsaussichten positiv ↑ 0,37 ↑ Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 125 Muliple R2 = 85,4 % ( ∑ > 100 %) ( ∑ = 58 %) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 126 3.1.4 Multipler Korrelationskoeffizient R Wieviel erklären die Prädiktoren insgesamt? Abhängige Variable: y Unabhängige Variablenen: x1, ..., xk Multiple Regression: Gesucht wird die lineare Prognose: yˆ = β 1 x1 + ... + β k xk , [Beta-Koeffizient: Bezeichnung bei standardisierten Variablen.] n bei der der Schätzfehler ∑ ( y i =1 − yˆ i ) 2 i minimal ist. Streuungszerlegung: 2 2 2 ˆ ˆ ( ) ( ) ( ) − = − + − y y y y y y ∑ i ∑ i i ∑ i SSy SSresidual SSregression (total) (nicht erklärt) (erklärt) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 126 Anteil erklärter Varianz: SS regression SS total Dieser Anteil heißt: Multiple R2 (Ausführlicher: R 2 y ; x1 ,..., xk ) Im Beispiel: Die 8 Prädiktoren erklären R2 = 85,4 % der Streuung in der abhängigen Variablen. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 127 Interpretation der Koeffizienten (3.1.2 und 3.1.5) Wie wichtig sind die verschiedenen Prädiktoren im Hinblick auf die Erklärung der abhängigen Variablen? - Falls man jeden Prädiktor xi isoliert betrachtet: ry , xi 2 y , xi r = Gesamtzusammenhang von y und xi (bei isolierter Betrachtungsweise) = gesamte Erklärungskraft von xi (bei isolierter Betrachtungsweise) [„Einzelne Erklärungskraft“] Veranschaulichung von „Überschneidungen“ in der Erklärung y x1 x2 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 128 xk y xi xj ┌ Warnung: Es gibt auch Suppressor-, Distorter- etc. Phänomene. └ Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 129 Nicht ädäquat als Interpretation der β i yˆ = β1 x1 + ... β i xi ∆ + ... + β k xk xi = 1 „ β i ist der Effekt in y, wenn xi um eine Einheit geändert wird und die übrigen Prädiktoren konstant gehalten werden.“ Aber: I.a. bleiben die übrigen Prädiktoren dabei nicht konstant. xi xj βi βj y Eventuell gibt es indirekten Effekt. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 130 Deshalb statt (Gesamt-) Effekt adäquater: β i = direkter [Kausal-] Effekt von xi auf y. ┌ Nicht kausal: β i ist das Prognosegewicht der Va riablen xi (oder auch nicht-kausaler „Effekt“ von xi) └ Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 131 In einfacher Regression: byx = sy,x s 2 x Es lässt sich zeigen, dass für β i der multiplen Regression gilt: βi = s y , xi − xˆi s 2 xi − xˆi xi − xˆ i ist der „bereinigte Prädiktor“, nämlich um den Einfluss der übrigen Prädiktoren bereinigt. [ x̂i = Regressionsschätzung von xi auf alle xj, j ≠ i] βi der multiplen Regression ist gleich dem Gesamteffekt des bereinigten Prädiktors xi − xˆ i . Abkürzend: bereinigter Effekt (kausal bzw. nicht kausal) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 132 Insgesamt: zwei Interpretationen von β i 1) β i = direkter Effekt von xi auf y 2) β i = Gesamt-Effekt des bereinigten Prädiktors xi − xˆi Abkürzend: bereinigter Effekt [Nicht kausal: 1) im technischen Sinne: Prognosegewicht, 2) bereinigter „Effekt“] 2 2 r β Weder ∑ y , x i noch ∑ i ergeben i.a. Multiple R2, da es Überschneidungen, Suppressor- und Distorter-Phänomene etc. gibt. Nur in dem unrealistischen Fall, dass alle Prädiktoren unabhängig wären, erhielte man ein so einfaches Ergebnis. ┌ Stattdessen ist es fruchtbar, von folgender Cha rakterisierung auszugehen: βi = s y , xi − xˆ i sx2i − xˆ i └ Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 133 Graphische Darstellung des Ansatzes der multiplen Regression ( y = yˆ + ( y − yˆ ) x1 β1 y − yˆ xi βi 1 xk βk ) y βj xj Dabei sind die β i die direkten (Kausal-)Effekte der Erklärungsfaktoren xi. Alternative Darstellung: Statt die nicht-erklärten Anteile durch die Residualvariable y − yˆ zu repräsentieren, kann man auch umgekehrt den erklärten Anteil sichtbar machen: y Multiple R2 (Dabei gilt: Multiple R2 = s y , yˆ ) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 134 Der um den Einfluss der übrigen Prädiktoren „bereinigte“ Zusammenhang ist: ry , xi − xˆi Beta-Koeffizient und „bereinigter“ Zusammenhang haben das gleiche Vorzeichen, denn: β y,x = s y , xi − xˆi ry , xi − xˆi = s y , xi − xˆi i s 2 xi − xˆi s xi − xˆi Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 135 Erklärungskraft des bereinigten Prädiktors (Abkürzend: bereinigte Erklärungskraft) (Unabhängiger Erklärungsbeitrag von xi) (Warnung: Es gibt auch Suppressor-/ DistorterPhänomene) ry2, xi − xˆi = R 2 − R(2i ) 2 r ( y , xi − xˆi ist eine semi-partielle Korrelation; aus xi werden alle xj, j ≠ i, durch die Regressionsschätzung „herausgerechnet“.) R 2 = Erklärung von y durch alle Prädiktoren x1, ..., xk gemeinsam. R(i2 ) = Erklärung von y durch alle Prädiktoren Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 136 ohne xi. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 137 x1 y x3 x2 Schraffiert: Erklärungskraft von x 1 und x 2 (ohne x 3) Schattiert: Erklärungskraft von x 3 über x1 und x 2 hinaus. Dies ist die Differenz der Gesamterklärungskraft (von x1, x 2, x 3) und der Erklärungskraft ohne x 3: R 2 − R 2 ( x3 ) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 138 3.1.7 Zuordnung der gesamten erklärten Varianz zu den Prädiktoren Zerlegung von Multiple R2 Nicht zulässige Interpretation der Produkte ry , xi ⋅ β y , xi : Rein rechnerisch gilt: Multiple k R 2 = ∑ ry , xi β y , xi i =1 β Dies verleitet dazu, y , xi ry , xi als Beitrag des i-ten Prädiktors zur gesamten erklärten Varianz zu interpretieren. Aber: Die Produkte ry , xi β y , x können (Distorter Phänomen) i Also: y negativ sein. nicht als Anteil erklärter Varianz interpretierbar. x1 x2 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 139 Distorter Phänomen (Darstellungsart: Die erklärte (Ko-) Variation von y ( s yˆ , yˆ ) wird dargestellt als Saldo von positiven und negativen Beiträgen) - + z x y Bei isolierter Betrachtungsweise: Erklärungsbeitrag von x insgesamt positiv Bei Berücksichtigung des Drittfaktors z: Bereinigter Erklärungsbeitrag von x insgesamt negativ Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 140 Suppressor Phänomen - + z x y Bei isolierter Betrachtungsweise: Erklärungsbeitrag von x insgesamt positiv Bei Berücksichtigung von z: Bereinigter Erklärungsbeitrag wird insgesamt größer, wenn z herausgerechnet wird. [Bemerkung: Analoges gilt für Effekte statt Erklärungskraft; dann keine flächige Darstellung, sondern „Strecken“, „Abschnitte“.] Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 141 Erklärte (Ko-) Varianz als Saldo von positiven und negativen Beiträgen darstellen - + 1) Positive Beiträge: ∑r yxi β yx i i ( ryxi β yxi > 0 ) 2) Negative Beiträge: ∑r yxi β yx i i ( ryxi β yxi < 0 ) 2 ∑ = Multiple R Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 142 R 2 = ∑ ry , xi β y , xi ry , xi β y , xi = Beitrag von x i zur erklärten (Ko-)Varianz Falls 0 < ry , xi < β y , xi oder Suppressor-Beitrag 0 < ry , xi < β y , xi ( ) ( Falls sign ry , xi ≠ sign β y , xi ) Distorter-Beitrag Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 143 Darstellung der erklärten Varianz (Multiple R2) als Kovarianz: 2 2 2 s / s = s yˆ Multiple R = yˆ y 2 = s yˆ , yˆ = s yˆ , y (Weil: y − yˆ ⊥ xi für alle i = 1, ..., k und deshalb auch: y − yˆ⊥ ŷ ) s yˆ , y = sk ∑ βi xi , y i =1 k = ∑β i =1 i k = ∑r i =1 y,x s xi , y β y, x i Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 144 Meine neue Interpretation besteht darin, Multiple R2 durch „erklärte Kovarianz“, die auch negativ sein kann, auf die einzelnen Prädiktoren zurückzuführen. Multiple R2 = s y , yˆ = ∑ β y , xi s y , xi β y ,x x1 1 β y, x xi s y ,x1 i β y, x s y , xi ŷ k xk s y , xk y Die Kovarianz zwischen y und ŷ(d.h. R2) ist das Resultat der Kovariationen von y und den Prädiktoren x i, welche mit der Gewichtung β y, xi (direkter Effekt, bereinigter Effekt) in die lineare Modellschätzung einfließen. ŷ Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 145 Erklärte Varianz in dem einfachen Fall, dass alle Faktoren xi statistisch unabhängig sind – wie bei den Faktorkonstrukten in einem cartesischen Koordinatensystem, nicht aber bei Erklärungen mit empirischen Variablen. Falls alle Faktoren xi statistisch unabhängig wären, hätte man einfache Zusammenhänge: β y , x = ry , x Effekt gleich Zusammenhang i i β 2 y , x = r 2 y , x Effekt2 = Erklärungskraft i i Multiple R2 = ∑β r y, xi y , xi = ∑ r 2 y , xi = ∑ β 2 y, xi D.h. Gesamterklärungskraft = Summe der einzelnen Erklärungskräfte. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 146 3.1.6 Schrittweise multiple Regression Schritt: Welcher Prädiktor erklärt am meisten? y x1 x2 x3 xi derart aussuchen, dass r 2 y , xi maximal. 2. Schritt: Mit dem feststehenden besten ersten Prädiktor wird der zusätzliche Prädiktor gesucht, der zusammen mit dem ersten das höchste R2 ergibt. 3. Schritt: Mit dem feststehenden besten ersten Prädiktor wird der zusätzliche Prädiktor ausgesucht, der zusammen mit den beiden ersten Prädiktoren das höchste R2 ergibt. Etc. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 147 yˆ y . x1 =β y , x1 x1 β y , x = ry , x 1 1 yˆ y . x1 , x2 = β y , x1 . x2 x1 + β y , x2 . x1 x2 I.A.: β y , x1 . x2 ≠ β y , x1 D.h. bei Einführung von weiteren Variablen ändern sich i.a. die Beta-Koeffizienten. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 148 Der Stellenwert standardisierter und unstandardisierter Koeffizienten für die Erklärung Falls man die relative Wichtigkeit von Erklärungsfaktoren innerhalb einer Untersuchungsmenge beurteilen will, so sind die standardisierten Korrelationskoeffizienten angemessen. Falls man Vergleiche zwischen verschiedenen Untersuchungsmengen durchführen will, so ist zu berücksichtigen, dass sich die Streuungen der Variablen zwischen den Untersuchungsmengen i.A. unterscheiden. In diesem Fall sind die unstandardisierten Koeffizienten vorzuziehen, da die Erklärung von y durch y und die direkten Effekte der xi von der Charakterisierung der Untersuchungsmengen durch die Variabilitäten der Merkmale getrennt wird. Der Zusammenhang zwischen unstandardisierten und standardisierten Koeffizienten lautet: β y , x = by , x ⋅ i i s xi sy Relative Bedeutung von Multiple R² und den Effekten für die Erklärung Multiple R ² kann im Sinne der Kausalanalyse auch „Scheinkomponenten“ der Erklärung enthalten. Insofern ist für die Erklärung die Größenordnung der Effekte noch wichtiger als die „Gesamterklärungskraft“ Multiple R². Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 149 3.1.9 Statistische Inferenz in der multiplen Regression Test, ob die Gesamterklärung (bzw. der Erklärungsbeitrag jedes einzelnen Prädiktors) statistisch signifikant ist. H 0 (Nullhypothese für die Gesamterklärung): Es gibt keinen Erklärungsbeitrag. (R2 = 0) Varianzanalyse als Test für die multiple Regression von y auf x 1, …, x k. Varianz Freiheitsgrade (Mean Squ(df) are) Sum of Square durch Regression erklärt nicht erklärt (Residuum) insgesamt ∑ ( yˆ − y ) 2 ∑ ( yi − yˆ i ) ∑ k i 2 n-k-1 SS Re gression k SS Re siduum (n − k − 1) n-1 (degree of freedom (y − y ) 2 i Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 150 Die Testgröße F = ssRegression / k SS Resid. /(n − k − 1) ist Fk ,n −k −1 - verteilt. f(x) 95 % kritischer Wert 5% x Ablehnungsbereich für die Nullhypothese (f(x) = Dichtefunktion der Verteilung der Testgröße) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 151 Die Tabelle für den F-Test liefert: Bei 95% Sicherheitswahrscheinlichkeit F8, 61 ≈ 2,1 (kritischer Wert) Die vorliegenden Daten ergeben für die Testgröße: F = 44,5 D.h.: Die Nullhypothese (kein Erklärungsbeitrag) wird deutlich verworfen. - Andere Charakterisierung der Testgröße R 2 /k F= (1 − R 2 ) /(n − k − 1) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 152 SPSS-Output: Significance = Wahrscheinlichkeit, unter Annahme der Nullhypothese einen so großen oder größeren FWert zu erhalten wie bzw. als in den vorliegenden Daten. f(x) Significance kritischer Wert (hier: 2,1) x Testwert für die vorliegenden Daten Anwender inspiziert, ob Significance S≤ .05. Im Beispiel: Significance = 0,000 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 153 Test, ob der i-te Prädiktor einen signifikanten Erklärungsbeitrag leistet H0 (Nullhypothese für die Erklärung durch den i-ten Prädiktor): Der i-te Prädiktor leistet keinen Erklärungsbeitrag. Testgröße: F= ry2, xi − xˆi /1 (1 − R ) /(n − k − 1) 2 ist F1,n −k −1-verteilt. Getestet wird also die bereinigte (unabhängige) Erklärungskraft von xi. y x1 x2 (Hier: Bsp. i = 2) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 154 Kritischer Wert nach Tabelle: F1, 61 ≈ 4 f(x) z.B. Significance S =.03 x Kritischer Wert: 4 Testwert für die vorliegenden Daten Für alle 8 Prädiktoren im Beispiel gilt: Die Nullhypothese („xi leistet keinen unabhängigen Erklärungsbeitrag“) kann deutlich verworfen werden. - Inspektion der Significance ist abkürzende Anwendung des Tests. - Wenn ein Computerprogramm nicht den F-Test ausdruckt (für die einzelnen Prädiktoren), sondern den T-Test, so gilt ebenfalls: Die Significance ist zu inspizieren. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 155 Problem der Multikollinearität Falls einige der unabhängigen Variablen in der multiplen Regression sehr hoch miteinander korrelieren, ist die Regression im Extremfall technisch nicht mehr durchführbar. Beispiel: Konfession: katholisch, protestantisch, ohne Dummies: = 1 0 falls katholisch sonst 1prot = 1 0 falls protestantisch sonst 1ohne = 1 0 falls ohne Konfession sonst 1kath Dummie-Variablen sind formal metrisch [Aber: Nicht als abhängige metrische Variable verwenden. (Vgl. z.B. Manfred Küchler: Multivariate Analysemethoden)] Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 155 Wenn man zwei Dummies als Prädiktoren berücksichtigt hat, dann ist der dritte redundant. In diesem fall ist die Korrelationsmatrix mit den 3 Dummies nicht invertierbar. Also: Im allgemeinen Fall nur k-1 der k Ausprägungen als Dummies berücksichtigen. (Im Beispiel: Nur 2 der 3 Dummies verwenden.) Inhaltliches Beispiel: Drei Schichtindikatoren als unabhängige Variablen, die sehr hoch korrelieren. Zwei Auswege: 1) Zusammenfassen zu Index 2) Nur einen der hoch korrelierenden Indikatoren als Prädiktor verwenden. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 156 3.1.8. Interaktion (von Variablen) in der Regression Falls die Kombination von unabhängigen Variablen einen Effekt auf die unabhängige Variable hat, lässt sich dies in der Regression wie folgt prüfen: 1kath., 1weibl. Kombination: 1kath * 1weibl = 1 falls kath. und weibl. 0 sonst Ein entsprechender Effekt ist also ein multiplikativer Interaktionseffekt. ┌ COMPUTE V3 = V1 * V2, wobei: V1 = 1kath. und V2 = 1weibl. Dann Regression auf: V1, V2, V3 └ Beispiel: Übernahme unbezahlter Familienarbeit (* Arbeit aus Liebe*) Bei katholischer Sozialisation sind Frauen überproportional bereit, unbezahlte Familienarbeit zu übernehmen. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 157 3.1.10 Verletzung der Modellannahmen der multiplen linearen Regression 1) Multikollinearität: Falls die unabhängigen Variablen zu stark untereinander korrelieren, so wird die Regressionsschätzung beeinträchtigt. (Ausweg: Reduktion der Variablen oder Indexbildung) 2) Nichtlinearität: Ob Nichtlinearität vorliegt, lässt sich in SPSS mit Streudiagrammen untersuchen. 3) Heteroskedastizität: Falls die Varianz der Fehler nicht homogen ist, verzerrt dies die Schätzungen. (Ausweg: Weighted least squares statt einfache Least squares.) 4) Normalverteilung der Residuen? Ob die Residuen normalverteilt sind, lässt sich in SPSS mit Streudiagrammen untersuchen. 5) Autokorrelation Bei Längsschnittdaten muss man mit Autokorrelation rechnen, was in SPSS mit einem Test beurteilt werden kann. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 158 3.1.10 Logistische Regression In der Varianzanalyse will man die Unterschiede von Gruppenmittelwerten schätzen und/oder testen, wobei man voraussetzt, dass die Gruppen eine gleiche Variation aufweisen, damit die unterschiedliche Variation (σ) nicht als Störfaktor bei dem Vergleich wirkt. Wenn die abhängige Variable (y) eine Dichotomie ist, so gilt für die Gruppe Gi : σ i = pi (1 − pi ) , so dass die Streuung mit den Mittelwertunterschieden variieren würde. (Hierbei ist pi der Anteil der Einheiten mit Ausprägung y 1 in der Gruppe G i .) 2 Aus diesem Grund wird die abhängige Variable vor der Analyse erst durch Logit-Transformation ln p 1 − p „geglättet“. Denn während ein Anteil p im Intervall [0,1] p variiert, variiert 1 − p im Intervall ]0, ∞[ und ln p 1 − p im Intervall ]-∞, +∞[. Die abhängige Variable passt dadurch besser zu einem linearen Modell. Eine Gerade y = a + bx ist nur dann in den Werten von y beschränkt, wenn b = 0, d. h. in dem wenig interessanten Fall, dass es keinen Zusammenhang gibt. Der Modellansatz Regressionsansatz: entspricht ansonsten dem üblichen p ln 1 − p = b0 + b1 x1 + ... + bk xk Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 159 linearen Beispiel für die logistische Regression: Lebenszufriedenheit in Abhängigkeit von der Zufriedenheit mit den Primärbeziehungen (x), der Berufszufriedenheit (z) und ihrer Interaktion (x · z) y = ln p 1− p , wobei p die Wahrscheinlichkeit für Lebenszufriedenheit und 1-p die komplementäre Wahrscheinlichkeit ist, nicht lebenszufrieden zu sein. Variablen in der Gleichung Regressionskoeffizient Signifikanz Exp. (B) B x (1) 1,397 ,000 4,044 z(1) 3,257 ,000 25,984 x (1) by z (1) -2,233 ,000 ,107 Konstante -1,466 ,000 ,231 Cox und Snell R-Quadrat: 0,187 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 160 Interpretation der Quotienten („Odds“) und der logarithmierten Quotienten („Log Odds“ oder auch „Logits“) Ausgangspunkt: Kreuztabelle für zwei dichotome Merkmale (Vierfeldertafel) z.B. zufrieden nicht zufrieden mit mit Beziehungen Beziehungen a b c d a/c nennt man Odds, d.h. Chance, und zwar hier die spaltenbezogene Chance, dass ein Fall in die erste Zeile fällt, und nicht in die zweite Zeile. (Eine Art Wette um das Eintreten der ersten gegenüber der zweiten Möglichkeit.) Z. B. Gesamtzufriedenheit ja vs. nein. Analog ist b/d die Chance bzgl. der zweiten Spalte. a / c ad = b / d bc nennt man Odds-Ratio. Wenn dieses multiplikative Konzept des Odds-Ratio durch Logarithmieren in eine additive Form gebracht wird, so spricht man von Log-Odds oder Logits: ln ad bc Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 161 Zur Interpretation in dem konkreten Beispiel In einem Gedankenexperiment kann man sich quasi-experimentell vorstellen, was für einen Effekt es hat, wenn eine Person zufrieden mit ihren Primärbeziehungen wird. p ln Als direkter Effekt würde sich 1 − p um 1,397 erhöhen und p 1 − p um 4,044. (Die Änderung in x kann neben dem direkten Effekt auch indirekte Effekte anstoßen, wie es in dem Beispiel mit dem Interaktionseffekt x · z ja auch offensichtlich der Fall ist.) p Da 1 − p einfacher zu formulieren ist, wird die Erklärung für p das Chancenverhältnis 1 − p formuliert. Erklärt wird in dem Beispiel also die Chance der Gesamtzufriedenheit mit dem Leben p (statt insgesamt nicht zufrieden zu sein): 1 − p p ist hierbei die Chance der Gesamtzufriedenheit. 1 – p ist die Chance, insgesamt nicht zufrieden zu sein. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 162 Eine Person, die zufrieden ist mit den Primärbeziehungen, hat insgesamt (d.h. in der gesamten Zufriedenheit mit dem Leben) eine ca. 4-mal so große Chance zufrieden zu sein (statt unzufrieden) wie eine Person, die nicht zufrieden ist mit den Primärbeziehungen. Entsprechend: Eine Person, die zufrieden ist mit dem Beruf, hat insgesamt eine ca. 26 mal so große Chance zufrieden zu sein wie eine Person, die nicht zufrieden ist mit dem Beruf. Ferner: Eine Person, die sowohl zufrieden ist mit den Primärbeziehungen als auch mit dem Beruf, weist nach den vorliegenden Daten von Mayntz et al. in der Gesamtzufriedenheit nur ein Zehntel der ZufriedenheitsChance der Personen mit den übrigen Kombinationen auf. In diesem Beispiel liegt dies wohl daran, dass ein Teil der Personen stärker berufsorientiert und ein Teil der Personen stärker beziehungsorientiert ist, so dass sich die Effekte nicht einfach kumulieren. Insgesamt: Mit einer logistischen Regression lassen sich die relativen Effekte verschiedener Variablen innerhalb eines Modells vergleichen. Für verschiedene Gruppen oder Modelle sind die Effekte nicht zu vergleichen (vgl. Mood, Carina: Logistic regression: Why we cannot do what we think we can do, and what we can do about it. In: European Sociological Review 26, 2010: 67 – 82). Also lässt sich die logistische Regression auch nicht einfach pfadanalytisch erweitern wie die lineare Regression. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 163 Zum Vergleich: Untersuchung der Lebenszufriedenheit mit dem üblichen linearen Regressionsansatz (3.1.9) In der Darstellung der Tabellenanalyse wurde in Kapitel 2.2.4.7 gezeigt, dass man bei einem Beispiel von Mayntz et al. (1978) zur Erklärung der Lebenszufriedenheit durch die Zufriedenheit mit den Primärbeziehungen und die Zufriedenheit mit dem Beruf die Interaktion der beiden Erklärungsfaktoren zusätzlich berücksichtigen muss. Der Effekt der Interaktion soll im Folgenden mit Hilfe der multiplen Regression herausgearbeitet werden. Koeffizienten Nicht standardis. Koeffizienten B Standardisierte Koeffizienten Beta T Signifikanz 5,347 ,000 Konstante ,188 Zufriedenheit Primärbez. (x) ,295 ,278 6,759 ,000 Berufszufr. (z) ,670 ,677 13,044 ,000 Interaktion -,430 -,423 -6,923 ,000 SS Regression SS Residuum SS Total = 45,425 = 186,154 = 231,579 R-Quadrat = 45,425 231,579 = 0,196 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 164 Regression von y und x bzw. auf z bzw. auf x, z bzw. xz bzw. auf x, z, xz y auf x y auf z y auf x, z y auf xz y auf x, z, xz Multiple R2 Multiple R2 Multiple R2 Multiple R2 Multiple R2 2,733 = 0,012 231,579 34,601 = 0,149 231,579 35,993 = 0,155 231,579 11,899 = 0,051 231,579 45,425 = 0,196 231,579 Prädiktoren B Konstante 0,500 x 0,115 z Beta B Beta B 0,378 0,325 0,109 0,382 Beta 0,387 34,601 231,579 Beta 0,188 0,078 0,295 0,278 0,376 0,380 0,670 0,677 -0,430 -0,423 35,993 231,579 11,899 231,579 B = Unstandardisierte Koeffizienten; Beta = Standardisierte Koeffizienten Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 165 B 0,083 0,231 2,733 231,579 Beta 0,492 xz SS Regression SS total B 0,227 45,425 231,579 Einfache Regression von y auf x (Primärbeziehungen) y x 150 250 400 150 400 550 300 650 950 550 = 0,579 950 650 = 0,6 x= 950 y= [ yx] = 22.500 Die Differenz der Kreuzprodukte ist die einfachste Quasi-Maßzahl. 300 650 ⋅ = 0,316 ⋅ 0,684 = 0,2160 Varianz von x 950 950 s yx = [ yx]/ n 2 = 0,025 Die Kovarianz ist eine besonders wichtige Normierung s x2 = s xx = der Differenz der Kreuzprodukte. b yx = s yx s x2 0,025 = = 0,115 0,216 Den Regressionskoeffizienten erhält man mit Hilfe von Kovarianz und Varianz des Prädiktors. a = y − bx = 0,579 − 0,115 ⋅ 0,684 = 0,500 = 150 = yx=0 300 231,579 SS y 400 550 s = s yy = = ⋅ = 0,421 ⋅ 0,579 = 0,244 = n 950 950 950 2 y β yx s yx sx = ryx = b yx ⋅ = s y s y ⋅ sx = (Nur bei einfacher Regression gilt: βyx = ryx) Regressionskonstante Varianz von y BetaKoeffizient 0,025 = 0,109 0,494 ⋅ 0,465 Prozentsatzdifferenz d yx = 400 150 − = 0,615 − 0,500 = 0,115 650 300 b yx lässt sich also interpretieren als Unterschied in der Lebenszufriedenheit (y) zwischen den Gruppen (x = 0) und (x = 1). Bzw.: b yx ist der „Effekt“ in y aufgrund von x. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 166 Einfache Regression von y auf z (Beruf) z y 280 170 450 120 380 500 400 550 950 [ yz ] = 86.000 450 500 = 0,474 ⋅ 0,526 = 0,2493; s z = 0,4993 ⋅ s = s zz = 950 950 s yz = [ yz ]/ n 2 = 0,0953 2 z byz = s yz s z2 = 0,095 = 0,382 0,249 170 a = y − bz = 0,579 − 0,382 ⋅ 0,526 = 0,378 = = yz =0 450 Prozentsatzdifferenz d = 380 − 170 = 76,00 − 37,78 = 38,22% yz 500 450 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 167 Regression von y auf x, z Zusammenhang der beiden Prädiktoren x, z: Zufriedenheit mit den Primärbeziehungen (x) 160 290 450 140 360 500 300 650 950 Berufszufriedenheit (z) [zx] = 17.000 s zx = [zx ]/ n 2 = 0,019 s zx2 = 0,00036 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 168 Um den Einfluss von z bereinigter Regressionskoeffizient b x.z: s yx − s xz s yz s z2 2 s s x2 − xz2 sz bx. z = 0,019 ⋅ 0,095 0,249 0,01775 = 0,0827 0,00036 = 0,216 − 0,21455 0,249 0,025 − = Um den Einfluss von x bereinigter Regressionskoeffizient b z.x : s yz − bz . x = s xz s yx 2 x 2 xz 2 x s s 2 sz − s 0,019 ⋅ 0,025 0,216 0,0931 = = 0,3760 0,00036 0,2493 − 0,2476 0,216 0,0953 − = Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 169 βx .z = bx .z ⋅ sx 0,465 = 0,0827 ⋅ = 0,078 0,494 sy s 0,499 β z.x = bz.x ⋅ z = 0,3760 ⋅ = 0,380 sy 0,494 Bezugspunkt: a = y − bx. z x − bz . x z 500 650 = 0,579 − 0,0827 ⋅ − 0,3760 ⋅ 950 = 0,325 950 Erklärte Varianz: s y , yˆ = s yx ⋅ b yx + s yz ⋅ b yz = 0,025 ⋅ 0,0827 + 0,0953 ⋅ 0,3760 = 0,002 + 0,0358 = 0,0378 Multiple R² = Anteil der erklärten = s y ,ŷ / s 2y = 0,0378 / 0,244 = 15,5% Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 170 Varianz Regression von y auf xz Dies ist eine einfache Regression mit einem komplizierteren Prädiktor. Es handelt sich um den Kontrast der Kombination (1,1) vs. dem Rest. 260 = 72,22% 360 Typ (1,1): Typ ((x,z) ≠ 30 + 140 + 120 290 = = 49,15% (1,1)): 160 + 290 + 140 590 B0 = B( x , z )≠(1,1) = 49,15% B1 = B( x , z )=(1,1) = 72,22 − 49,15 = 23,07% Anteil der Personen mit großer Lebenszufriedenheit in Abhängigkeit von den Zufriedenheiten mit dem Beruf (z) und den Primärbeziehungen (x) x z klein = 0 groß = 1 klein = 0 30 160 120 140 groß = 1 140 290 260 360 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 171 Regression von y auf x, z, xz („Saturiertes Modell“) Zur Erinnerung (vgl. den Abschnitt zur Interaktion in der Tabellenanalyse): Anteil der Personen mit hoher Lebenszufriedenheit in Abhängigkeit von der Beziehungszufriedenheit und Berufszufriedenheit Zufriedenheit klein (z = 0) mit Beruf (z) groß (z = 1) Zufriedenheit mit Beziehungen (x) klein (x = 0) groß (x = 1) 18,75 % 48,28 % 85,71 % 72,22 % B0 = Bx =0, z =0 = 18,75% Bx =1, z =0 = 48,28 − 18,75 = 29,53% Bx =0, z =1 = 85,71 − 18,75 = 66,96% Bx =1, z =1 = (72,22 − 18,75) − (29,53 + 66,96) = 53,47 − 96,49 = −43,02% (Der „multiplikative Effekt“ ist kleiner als die „Summe der additiven Effekte“.) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 172 sx 0,465 = 0,295 ⋅ = 0,278 Beta x = B x ⋅ 0,494 sy sz 0,499 Beta z = Bz ⋅ = 0,670 ⋅ = 0,677 sy 0,494 Beta( xz ) = B( xz ) ⋅ s( xz ) sy 0,4851 = −0,430 ⋅ = −0,423 0,4937 360 590 ⋅ = 0,2353 ( xz ) 950 950 s( xz ) = 0,4851 Denn: s 2 = Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 173 Erklärte Varianz: s y , yˆ = s yx ⋅ byx + s yz ⋅ byz + s y , xz ⋅ by , xz s yx = nx ⋅ ( y x =1 − y ) (vgl. n Sitzung 10 (Meth. Ib)); byx = y x =1, z = 0 − y0, 0 nx ⋅ (61,54% − 57,89% ) ⋅ (48,28% − 18,75% ) n ⋅ (+ 29,53% ) = 0,6842 ⋅ (+ 3,65% ) = 0,00238 s yx ⋅ b yx = nz ⋅ ( y z =1 − y ) ; byz = y x = 0, z =1 − y0, 0 n s yz ⋅ byz = 0,5263 ⋅ (76,00% − 57,89% ) ⋅ (85,71% − 18,75% ) s yz = y s y , xz = = 0,5263 ⋅ (+ 18,11% ) ⋅ (+ 66,96% ) = 0,0638 xz=0 xz=1 klein 300 100 groß 290 260 950-360 360 950 = 590 49.000 s y , xz = = 0,0543 950 ⋅ 950 n xz =1 ⋅ ( y xz =1 − y ) ; b y , xz n = y x =1, z =1 − ( y1,1 + ( y1,0 − y 0,0 ) + ( y 0,1 − y 0,0 )) s y , xz ⋅ by , xz = 0,3789 ⋅ (72,22% − 57,89% ) ⋅ (72,22% − 115,24% ) = 0,3789 ⋅ (+ 14,33% ) = −0,02336 ⋅ (− 43,02% ) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 174 Also: s y , yˆ = 0,00238 + 0,0638 − 0,02336 = 0,0478 Multiple R 2 = s y , yˆ / s y2 = 0,0478 / 0,244 = 19,6% Graphische Veranschaulichung der erklärten Varianz nx ( yx − y) n nz ( yz − y) n x y1, 0 − y0, 0 y0,1 − y0, 0 z ŷ y1,1 − (y0,0 +(y1,0 − y0,0 ) + (y0,1 − y0,0 ) ) xz n( xz ) n ( y( xz ) − y ) y Die erklärte Varianz ergibt sich daraus, dass y mit den Prädiktoren x und z sowie xz kovariiert, die bei der 1-0-Codierung die angegebenen Effekte haben. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 175 (Gliederung für das Kapitel zur Varianzanalyse) 4. Varianzanalyse und Kovarianzanalyse........................................... 161 4.1 Einfache Varianzanalyse als Verallgemeinerung des t-Tests ............. 162 4.1.1 Varianzzerlegung ................................................................................ 162 4.1.2 Signifikanztest ..................................................................................... 165 4.1.3 Einfache Varianzanalyse und t-Test ................................................... 168 4.1.4 Anteil erklärter Varianz als Deskription ............................................. 168 4.2 Zweifache Varianzanalyse .................................................................. 169 4.2.1 Gleiche Zellenhäufigkeiten ................................................................. 169 4.2.2 Ungleiche Zellenhäufigkeiten ............................................................. 172 4.3 Dreifache Varianzanalyse ................................................................... 175 4.4 Die einfache Varianzanalyse als Spezialfall der multiplen Regression ........................................................................................... 177 4.5 Die zweifache Varianzanalyse als Spezialfall der multiplen Regression mit Interaktionstermen ..................................................... 179 4.5.1 Beispiel für die zweifache Varianzanalyse mit ungleichen Zellenhäufigkeiten: Untersuchung der Lebenszufriedenheit .............. 181 4.6 Unterschiedliche Codierung in der Varianzanalyse ........................... 190 4.6.1 Codierung durch Dichotomien in der einfachen Varianzanalyse ....... 190 4.6.2 Effekt-Codierung in der einfachen Varianzanalyse ............................ 191 4.6.3 Effekt-Codierung in der zweifachen Varianzanalyse ......................... 192 4.7 Die Design-Matrix .............................................................................. 193 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 176 4.8 Kovarianzanalyse .................................................................................. 196 4.8.1 Kovarianzzerlegung .............................................................................. 197 4.8.1.1 Kovarianzzerlegung nach einer nominalen unabhängigen Variablen .. 197 4.8.1.2 Anwendung der Kovarianzzerlegung: Aggregatdaten und Mehrebenenanalyse............................................................................... 199 4.8.1.3 Die Kovarianz- und Korrelationszerlegung nach einer nominalen unabhängigen Variablen als Spezialfall einer allgemeinen Kovarianzund Korrelationszerlegung nach metrischen Variablen ........................ 202 4.9 Kontrastgruppenanalyse (tree analysis) ................................................ 209 4.10 Anwendungsbeispiel zur Varianzanalyse: Vergleich der Erklärungskraft verschiedener Berufsstruktur- und Klassenmodelle für die Bundesrepublik Deutschland ..................................................................................... 216 4.10.1 Probleme des Modellvergleichs und Kriterien zur Beurteilung der Erklärungskraft...................................................................................... 216 4.10.1.1 Indikatoren für die Hierarchie der materiellen Lage 217 4.10.1.2 Indikatoren für den ideologischen Standort (Bewusstsein) 217 4.10.2 Vergleich der Erklärungskraft der verschiedenen Berufsstrukturund Klassenmodelle .............................................................................. 218 4.10.3 Graphische Darstellung der verschiedenen Berufsstruktur- und Klassenmodelle ..................................................................................... 221 4.10.4 Berufsstrukturmodell auf Basis der bundesdeutschen Sozialstatistik nach Einkommen und Bewusstseins-Index .......................................... 221 Literaturverzeichnis........................................................................................... 228 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 177 Zum Vergleich: Untersuchung der Lebenszufriedenheit mit der Varianzanalyse (4.5.1) Abhängige Variable: Lebenszufriedenheit Primärbeziehung klein groß Gesamt Beruf klein groß Gesamt klein groß Gesamt klein groß Gesamt Mittelwert ,1875 ,8571 ,5000 ,4828 ,7222 ,6154 ,3778 ,7600 ,5789 N 160 140 300 290 360 650 450 500 950 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 178 Ansatz der Varianzanalyse: Test der additiven und Interaktionseffekte Beispiel für eine zweifache Varianzanalyse Klassischer Ansatz (Experimentelle Methode) ANOVA: Lebenszufriedenheit nach Primärbeziehung, Beruf Quadratsumme Lebenszufriedenheit Haupteffekte 2-WegWechselwirkungen Modell Residuen Insgesamt (Kombiniert) Primärbeziehung Beruf Primärbeziehung * Beruf df Experimentelle Methode Mittel der Quadrate F Sig. 35,993 2 17,996 91,454 ,000 1,391 33,260 1 1 1,391 33,260 7,071 169,020 ,008 ,000 9,432 1 9,432 47,934 ,000 45,425 186,154 231,579 3 946 949 15,142 ,197 ,244 76,947 ,000 1) Zunächst wird getestet, ob die Haupteffekte insgesamt (additiven Effekte insgesamt) signifikant sind. SS A,B = 35,993; gemäß dem F-Wert und der Significance leisten die additiven Effekte einen signifikanten Erklärungsbeitrag. 2) Die Interaktionseffekte, d.h. die Effekte der Kombinationen von A und B über die additiven Effekte hinaus, ergeben eine Variation von SS AB = 9,432, die nach dem F-Wert und der Significance signifikant ist. 3)Das gesamte Modell weist eine erklärte Variation von SS A,B,AB = 45,425 auf, welche nach dem F-Test und der Significance signifikant ist. 4) Die gesamte Variation beträgt SS y = 231,579, davon entfällt auf die nicht erklärte Variation ein Betrag von SS Residuen = 186,154. 5) Da die Erklärungsbeiträge von A und B sich überschneiden können bzw. auch Suppressor etc. möglich sind, gilt nicht einfach die Additivität, denn i.a.: SS A, B ≠ SS A + SS B Für dieses Problem gibt es nun unterschiedliche Lösungsvorschläge. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 179 In der klassischen (experimentellen) Methode werden die Faktoren jeweils gegeneinander bereinigt, ihr Erklärungsbeitrag wird definiert als: SS A, adjusted for B = SS A,B – SSB = 35,993 – 34,601 = 1,391 SS B, adjusted for A = SS A,B – SS A = 35,993 – 2,733 = 33,260 In der hierarchischen Methode wird der Erklärungsbeitrag des Faktors A vollständig berücksichtigt und der Faktor B dann um A bereinigt: SS A = 2,733 SS B, adjusted for A = SS A,B - SS A = 35,993 – 2,733 = 33,260 Im Regressions-Ansatz (Unique-Methode) werden die Faktoren und die Interaktionen gegeneinander bereinigt. Dies entspricht der Regression von y auf A, B und (AB). Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 180 Lebenszufriedenheit Haupteffekte 2-WegWechselwirkungen Modell Residuen Insgesamt Lebenszufriedenheit Haupteffekte 2-WegWechselwirkungen Modell Residuen Insgesamt (Kombiniert) Primärbeziehung Beruf Primärbeziehung * Beruf (Kombiniert) Primärbeziehung Beruf Primärbeziehung * Beruf Hierarchische Methode Mittel der Quadrate F 17,996 91,454 Quadratsumme 35,993 df 2 Sig. ,000 2,733 33,260 1 1 2,733 33,260 13,888 169,020 ,000 ,000 9,432 1 9,432 47,934 ,000 45,425 186,154 231,579 3 946 949 15,142 ,197 ,244 76,947 ,000 Eindeutige Methode Mittel der Quadrate F 22,453 114,102 Sig. ,000 Quadratsumme 44,906 df 2 1,310 42,126 1 1 1,310 42,126 6,659 214,079 ,010 ,000 9,432 1 9,432 47,934 ,000 45,425 186,154 231,579 3 946 949 15,142 ,197 ,244 76,947 ,000 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 181 Gesamtvariation SS y = 950 ⋅ 550 400 ⋅ = 231,579 950 950 Nicht erklärte Variation nij SS Re siduen = SS within = ∑∑∑ ( yiju − yij . ) 2 i u =1 j = ∑∑ nij MS(ij ) i j MS (ij) = Streuung von y in der Kombination (ij) In dem Beispiel: SS Re siduen = 160 ⋅ 30 130 140 150 ⋅ + 290 ⋅ ⋅ 160 160 290 290 + 140 ⋅ 120 20 260 100 ⋅ + 360 ⋅ ⋅ 140 140 360 360 = 186,154 Erklärte Variation Die erklärte Variation ist dann die Differenz: SS Modell = SS y − SS Re siduen = 45,425 Die erklärte Komponente ließe sich auch direkt berechnen: SS Modell = ∑∑∑ ( yij . − y ) 2 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 182 Additive Komponente der Variation Die Regression von y auf x,z ergab einen Erklärungsanteil von 35,993 = 15,5% . 231,579 SS A,B = 35,993 Interaktionskomponente der Variation Die Interaktionskomponente der Variation ergibt sich als Differenz der erklärten Variation und der additiven Komponente der Variation. SS AB = SS A, B , AB − SS A, B = 45,425 − 35,993 = 9,432 Gesamterklärungskraft Die Regression von y auf x, z, xz ergab einen Erklärungsanteil von 45,425 = 19,6% . 231,579 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 183 Erklärte Varianz Einfache Varianzanalyse In der einfachen Varianzanalyse von y durch das Merkmal A lässt sich die Varianz anschaulich darstellen durch das Zusammenwir- 1Ai mit dem direkten Effekt ken der Kovarianz von y und y Ai − y von 1Ai auf y. Erklärte Variation: k ni ( y Ai − y ) 2 ∑ i =1 n ˆ Regressionsschätzung: y = k ∑y 1 i =1 i Ai k = y + ∑ ( yi − y ) 1Ai i =1 In der multiplen Regression ist y − yˆ orthogonal zu den Prädiktoren x i, also auch zu ŷ . s y2ˆ = s yˆ , yˆ = s y , yˆ Deshalb gilt: k s y , yˆ = ∑ s y , xi β i i =1 In der Varianzanalyse: s y ,1 Ai = ( ni y Ai − y n ) k ni ( y Ai − y ) ⋅ ( y Ai − y ) Also: Erklärte Varianz = ∑ i =1 n s y ,1Ai Effekt von 1Ai Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 184 Meine „pfadanalytische“ Veranschaulichung der erklärten Varianz: 1A1 1Ai y A1 − y y Ai − y ŷ y Ak − y ni ( y Ai − y ) n 1Ak y Die erklärte Varianz ist gleich der Kovarianz von Kovarianz von diktoren 1 Ai y und ŷ y und ŷ . Die ergibt sich auch daraus, dass y mit den Prä- kovariiert und die Prädiktoren 1 Ai einen Effekt y Ai − y haben. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 185 Zweifache Varianzanalyse Wenn y durch die Merkmale A und B erklärt werden soll, so gibt es zunächst die Erklärungsbeiträge der Haupteffekte von A bzw. B, wobei sich die Erklärungsbeiträge überschneiden können. Erklärte Variation durch A: Erklärte Variation durch B: In der Varianzanalyse werden k ni 2 − y y ( ) ∑ Ai n i =1 l n j 2 ( ) y y − ∑ Bj n j =1 y Ai − y als (Haupt-) Effekte von A und y B j − y als (Haupt-) Effekte von B bezeichnet. Die Modell-prognose aufgrund des „additiven Modells“ würde dann für (i, j) lauten: y + y Ai − y + y B j − y ( ) ( ) (Achtung: Dies ist nicht identisch mit der Regression von y auf die 1 Ai und 1B j , da die direkten Effekte in der multiplen Regression berechnet werden, indem jeweils alle übrigen Prädiktoren in ihrem Einfluß herauspartialisiert werden. Das „additive Modell“ der Varianzanalyse ist insofern zu einfach, als zunächst ein unabhängiges Wirken von A und B angenommen wird und erst im nächsten Schritt die Abweichung als Interaktion betrachtet wird. Die Regression dagegen rechnet die Beziehung zwischen den Prädiktoren sofort heraus.) Aus der Forderung, dass die Abweichungen der Beobachtungen von den aufgrund des Modells zu erwartenden Beobachtungen (d.h. der Fehler) minimal sein soll, ergibt sich, dass der Effekt der Interaktion 1Ai 1B j lautet: Effekt von 1Ai1B j : y Ai B j − ( y + ( y Ai − y ) + ( y B j − y )) D.h. der Effekt der Interaktion 1Ai 1B j ist das Ausmaß, in dem der Durchschnitt der Kombination von dem bei additivem Wirken der Haupteffekte zu erwartenden Wert abweicht. Die erklärte Varianz soll nun wieder mit Hilfe von Kovarianzen und Effekten dargestellt werden. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 186 Die Kovarianz zwischen y und 1A 1B lässt sich berechnen als: i j s y ,1 A 1B = j i nAi B j n (y Ai B j −y ) Wegen dieser Ergebnisse können die Effekte von 1Ai1B j und die Kovarianz von y und 1Ai1B j unterschiedliche Vorzeichen haben. Die erklärte Varianz lautet: k s = s y , yˆ = ∑ 2 yˆ k i =1 l + ∑∑ i =1 j =1 n Ai B j n n Ai n l nB j j =1 n ( y Ai − y ) + ∑ 2 ( yB j − y)2 ( y Ai B j − y )( y Ai B j − ( y + ( y Ai − y ) + ( y B j − y )) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 187 Meine „pfadanalytische“ Veranschaulichung der erklärten Varianz für die zweifache Varianzanalyse: 1Ai n Ai n ( y Ai − y ) nB j n yB j 1B j y Ai − y −y ŷ y Ai B j − ( y + ( y Ai − y ) + ( y B j − y )) ( yB j − y ) 1Ai1B j nAi B j n ( y Ai B j − y ) y Die erklärte Varianz ergibt sich daraus, dass y mit den Prädiktoren und 1B j sowie nen Effekt haben. 1 Ai 1 Ai 1B j kovariiert, die jeweils den angegebe- Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 188 Berechnung der erklärten Varianz für das Beispiel Lebenszufriedenheit (y) in Abhängigkeit von Beziehungszufriedenheit (x) und Berufszufriedenheit (z) Varianz der Lebenszufriedenheit: s = 2 y n y1 n (1 − n y1 n ) = 0,579 ⋅ (1 − 0,579) = 0,244 Durch Faktor x erklärte Variation: 0,316 ⋅ (−0,079) 2 + 0,684 ⋅ (0,037) 2 = 0,003 Dies sind 1,18 % erklärte Varianz. Durch Faktor z erklärte Variation: 0,474 ⋅ (−0,201) 2 + 0,526 ⋅ (0,181) 2 = 0,036 Dies sind 14,93 % erklärte Varianz. Durch Interaktion x 1 z 1 erklärte Variation: 0,168 ⋅ (0,188 − 0,579) ⋅ (−0,111) = 0,007 -0,391 Durch Interaktion x 1 z 2 erklärte Variation: 0,147 ⋅ (0,857 − 0,579) ⋅ (0,176) = 0,007 0,278 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 189 Durch Interaktion z 1 x 2 erklärte Variation: 0,305 ⋅ (0,483 − 0,579) ⋅ (0,069) = −0,002 -0,096 Durch Interaktion x zz 2 erklärte Variation: 0,379 ⋅ (0,722 − 0,579) ⋅ (−0,075) = −0,004 0,143 Durch Interaktionen insgesamt erklärte Variation: 0,009 Dies sind 3,49 % der erklärten Varianz. Insgesamt erklärt: Durch x: Durch z: Durch Interaktionen: 0,003 0,036 0,007 0,007 -0,002 -0,004 ∑ = 0,048 Anteil erklärter Varianz = 0,048/0,244 = 19,60 % Durch x werden 1,18% erklärt und durch z werden 14,93% der Varianz erklärt. Rechnerisch ergäbe die Summe 16,11%, aber dies ist wegen der Überschneidungen überzeichnet. Gemäß der Regression erklären x und z (ohne Interaktionen) nur 15,5% der Varianz. Die Überzeichnung durch SS A +SS B wird in der vorliegenden Berechnung gerade durch das Zusammenwirken von Kovariationen und Effekten ausgeglichen. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 190 Die nicht erklärte Varianz ist die Varianz innerhalb der Kombinationen: 0,164 ⋅ 0,188 ⋅ (1 − 0,188) + 0,305 ⋅ 0,483 ⋅ (1 − 0,483) + 0,147 ⋅ 0,857 ⋅ (1 − 0,857) + 0,379 ⋅ 0,722 ⋅ (1 − 0,722) =0,196 Die erklärte Varianz (0,048) und die nicht erklärte Varianz (0,196) ergeben zusammen die Gesamtvarianz (0,244). Die erklärte Varianz für „Nicht-Zufriedenheit“ würde rechnerisch zu den gleichen Ergebnissen führen. (Es handelt sich ja auch um die spiegelbildliche Fragestellung.) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 191 GeschätztesRandmittel Randmittel Lebenszufriedenheit Geschätztes vonvon Lebenszufr Primärbeziehung klein groß Geschätztes Randmittel 0,80 0,60 0,40 0,20 klein groß Beruf Bei großer Zufriedenheit mit den Primärbeziehungen unterscheiden sich Personen mit großer Berufszufriedenheit von solchen mit geringer Berufszufriedenheit um 72,22 – 48,28 = 23,94 %. Verglichen damit unterscheiden sich bei geringer Zufriedenheit mit den Primärbeziehungen Personen mit großer Berufszufriedenheit mit 85,71 – 18,75 = 66,96 % deutlich überproportional von solchen mit geringer Berufszufriedenheit. Dies ist eine Charakterisierung der Interaktionseffekte, die sich graphisch veranschaulichen lässt. In dem Beispiel bedeutet dies, dass die Berufszufriedenheit besonders wichtig ist für die allgemeine Lebenszufriedenheit. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 192 Stellenwert der Multiple Classification Analysis (MCA) Der Kern der Varianzanalyse besteht in den Tests, ob die additiven Effekte (im Sinne der Regression von y auf die Variablen A und B) und die Interaktionseffekte (Kombinationseffekte über die additiven Effekte hinaus) einen signifikanten Erklärungsbeitrag leisten. Zur Deskription der Effekte ist in SPSS die MCA (Multiple Classification Analysis) verfügbar. In dem Beispiel erklärt die MCA 15,5% der Varianz, d.h. es handelt sich um eine Deskription mit Hilfe der additiven Effekte im Sinne der multiplen Regression: Effekt von A: β A.B (= 0,078) Effekt von B: β B. A (= 0,380) Falls es starke Interaktionseffekte gibt, macht eine Beschränkung auf die additiven Effekte wie in der MCA nicht viel Sinn. Das Design der Regressionsanalyse ist an dieser Stelle flexibler. Der Anwender erhält auch den Beta- Koeffizient der Interaktion, falls er eine Regression von y auf x, z, xz durchführt: β y,x = 0,278 β y,z = 0,677 β y , xz = -0,423 Die allgemeine Lebenszufriedenheit steigt also mit der Beziehungszufriedenheit (x) und noch stärker mit der Berufszufriedenheit (z), während die Interaktion einen negativen Effekt hat. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 193 (Gliederung für die Sitzungen zur Pfadanalyse) 3.2 Pfadanalyse ....................................................................................... 122 3.2.1 Ein klassisches Beispiel von Blau und Duncan ................................. 122 3.2.2 Kausale Ordnung und Rekursivität .................................................... 123 3.2.3 Vollständiges Modell und unvollständiges Modell ........................... 124 3.2.3.1 Kausale Geschlossenheit eines Modells gegenüber weiteren Einflussfaktoren....................................................................................................126 3.2.3.2 Pfaddiagramm und Effekte für das vollständige Modell mit 2, 3 und 4 Variablen ............................................................................................ 127 3.2.3.3 Unvollständiges Modell ..................................................................... 131 3.2.3.4 Standardisierte oder unstandardisierte Koeffizienten? ...................... 131 3.2.4 Die vier Mechanismen zur Erklärung einer Korrelation ................... 132 3.2.5 Anwendungsbeispiel: Parteienwahl in Abhängigkeit von Parteiidentifikation und Einstellungen ....................................................................... 134 3.2.6 Multiple R2 in der Pfadanalyse .......................................................... 136 3.2.6.1 Zentrale Konzepte der statistischen Analyse gemäß der Pfadanalyse137 3.2.7 Effekte und Erklärungskraft in der Pfadanalyse ................................ 137 3.2.7.1 Korrelierte Effekte (Multiple Regression) ......................................... 137 3.2.7.2 Indirekte Effekte (Pfadanalyse) ......................................................... 139 3.2.7.3 Problematisierung der Pfadanalyse.................................................... 139 3.2.7.4 Vergleich von Gesamtzusammenhang und bereinigtem Zusammenhang: Typologie und Zerlegung von R2 ...................................................... 140 3.2.8 Partielle Korrelation oder Pfadkoeffizient? ....................................... 156 Literaturverzeichnis ........................................................................................... 159 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 194 3.2 Pfadanalyse (Voraussetzung: metrische Variablen, die standardisiert werden) Kausalmodelle lassen sich mit Hilfe der multiplen Regression überprüfen. 3.2.1 Beispiel: Status attainment (Nach Daten von Blau und Duncan für die USA) Pfaddiagramm u2 .86 Vater .52 x1 Schulbildung .31 .03 x2 Beruf -.01 .22 .12 .28 Sohn x3 Schulbildung .43 x4 erster Beruf .28 x5 aktueller Beruf .40 .86 u3 .82 u4 .75 u5 x 2 = .52 x 1 + .86 u 2 (Äquivalent: x̂ 2 = .52 x1 ; R2 = 26 %) x 3 = .31 x 1 + .28 x 2 + .86 u 3 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 195 x 4 = .03 x 1 + .22 x 2 + .43 x 3 + .82 u 4 x 5 = -.01 x1 + .12 x 2 + .40 x 3 + .28 x 4 + .75 u 5 (x 1 exogen; x 2, ..., x 5 endogen) Regressionsschätzung: x̂ 2 = .52 x1 ; R2 = 26 % 1 - R2 = 74 % 1-R2 = .74 = .862 Darstellung mit exogener Variablen u2: u2 ↓ .86 x1 → .52 x2 74 % der Variation wird nicht erklärt durch das Modell; diese nicht erklärte Variation wird in der Darstellung der Variablen u2 (= nicht berücksichtigte Faktoren) zugeordnet. Erklärte Varianz: .522 = .26 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 196 Regressionsschätzung: x̂3 = .31 x1 + .28 x2 R2 = 26 % Pfadanalyse: 1 – R2 = 74 % (Anteile) (Prozentsätze) Die Pfadanalyse wird häufig wie folgt dargestellt: Die unerklärte Variation wird wieder sichtbar gemacht, indem sie einem Restfaktor u3 als Effekt zugeordnet wird. 0, 7 4 = 0, 8 62 x1 x2 .31 .28 x3 .86 u3 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 197 Äquivalente Darstellung mit Multiple R2 R2 = 26 % x1 .52 x2 .31 .28 x3 R2 = 26 % Entsprechendes für x4: Regressionsschätzung: x̂ 4 = .03x1 + .22 x 2 + .43x 3 + .82u 4 R² = 33%; 1 - R² = 67 %. x1 x3 x2 .03 .43 .22 x4 .82 u4 Die nicht erklärte Variation von 67% wird dem Restfaktor u2 zugeordnet: .82²=.67 Schließlich für x5: R² = 44%; 1 – R² = 56%. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 198 3.2.2 Kausale Ordnung Eine Ordnungsrelation für eine Menge von Einheiten ist zunächst dadurch charakterisiert, dass für je zwei Elemente a und b eindeutig feststehen muss, ob entweder a kleiner b (im Sinne der Ordnung) oder b kleiner a oder a gleich b. Ferner muss eine Ordnungsrelation die Bedingungen der NichtReflexivität, Asymmetrie und Transitivität erfüllen. Eine („starke“) kausale Ordnung von Variablen wäre analog zu definieren. Aber: Für den speziellen Anwendungszusammenhang von Kausalmodellen ist es günstiger, die Anforderungen an eine kausale Ordnung abzuschwächen, um die Anwendungsmöglichkeiten zu erhöhen. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 199 (Schwache) kausale Ordnung von Variablen x1, ..., xk: In der Reihenfolge der Nummerierung vorhergehende Variablen können einen (Kausal-) Effekt auf in der Reihenfolge folgende Variablen haben, müssen aber nicht. Ferner: Es gibt keine Wechselwirkungen bzw. allgemeiner keinen Effekt gegen diese Reihenfolge. (In der Reihenfolge nachfolgende Variable dürfen also nicht als Ursachen modelliert werden.) Beispiel: X1 . . . Xu Indikatoren Xu+1 . . . Xu+v Einstellungs- Xu+v + 1 . . . Xu+v+w Verhaltens- Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 200 der objekindikatoren tiven Situation indikatoren Rekursives (= rückbezügliches) Modell: Keine Wechselwirkung x1 x2 Kein Pfeil „gegen“ die schwache Kausalordnung x2 x1 x3 Keine „loops“ x1 [Sonst spricht man von: nicht-rekursiven Modellen] Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 201 3.2.3 Vollständiges (rekursives) Modell Falls alle in der Reihenfolge der Variablen xi vorhergehenden Variablen (x1, ..., xi - 1) in dem Modell tatsächlich einen Effekt auf xi haben. (Für alle i = 2, ..., k) Ausführlich: x1 hat Effekt auf x2 x1, x2 haben Effekt auf x3 x1, x2, x3 haben Effekt auf x4 x1, x2, x3, x4 haben Effekt auf x5 Etc. Unvollständiges (rekursives) Modell Falls nicht alle nach dem rekursiven (bzgl. der Reihenfolge der Nummerierung rückbezüglichen) Ansatz theoretisch möglichen Effekte durch das vorliegende Modell behauptet werden. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 202 Test eines (rekursiven) Modells Sobald ein rekursives System unvollständig ist, ist das System überdeterminiert und testbar. Das vollständige Modell ist eindeutig bestimmt, die Daten werden dabei nur umgeformt (= anders dargestellt). Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 203 Test des „unvollständigen Modells“ Falls der direkte Effekt β yx zwischen x und y in der Grundgesamtheit gleich Null ist, wie ist dies zu ermitteln? z x y 1) Vollständiges Modell testen. Als Ergebnis müsste man erhalten, dass β yx nicht signifikant verschieden von Null ist. 2) Unvollständiges Modell schätzen: x →z →y β zx = rzx β yz = ryz Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 204 Als Ergebnis müsste man erhalten, dass ryx. z nicht signifikant verschieden von Null ist. 3.2.4 Die vier Mechanismen zur Erklärung einer Korrelation Wie die Variation von y erklärt werden kann, wurde anlässlich der multiplen Regression dargestellt. Im Folgenden wird nun gezeigt, dass sich die Korrelation zwischen x und y dadurch erklären lässt, dass sie aufgrund von vier gleichzeitig wirkenden Mechanismen zustande kommt. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 205 Mit Hilfe der Pfadanalyse lassen sich die vier Mechanismen angeben, auf Grund derer ein beliebiger statistischer Zusammenhang zustande kommt. (Nach Finney 1972; bei Finney werden zwei Beispiele verwendet für die vier Mechanismen, es reicht aber ein Beispiel.) Beispiel β (SV) V W (SM) β (SB) xv β yv β β X xw β Z (P1.Beruf) yx Y yw zx β yz (Paktueller Beruf) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 206 Wie kommt die Korrelation ryx zustande? Mögliche Komponenten: - Direkter Kausaleffekt - Indirekte Kausaleffekte - Scheinkomponenten - Korrelierte Effekte (bzw. Assoziationseffekte) (In dem Beispiel sind V und W exogene Variablen, d.h. sie werden im Modell nicht erklärt.) (Endogene Variable dagegen werden im Modell zu erklären versucht.) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 207 Pfadtheorem: ryx = ∑ rx , x j β y , x j j y ist die abhängige Variable. Die Summation bezieht sich auf alle Variablen x j, die im Modell eine direkte Ursache der zu erklärenden Variablen sind. Den Zusammenhang des Prädiktors x mit der zu erklärenden Variablen y erhält man, indem man von x per Korrelation jeweils zu einem der übrigen Prädiktoren x j geht und von dort per direktem Effekt β y, x zur abhängigen Variablen y. j Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 208 Meine graphische Veranschaulichung des Pfadtheorems: β y ,x x i i x rx , x i rx , x β y ,x j y j β y ,x j ry , x x Die Größenordnung der Korrelation ry ,x resultiert also daraus, dass einerseits x einen direkten Kausaleffekt auf y haben kann und andererseits x mit den übrigen Prädiktoren jeweils korrelieren kann, welche wiederum selbst einen direkten Kausaleffekt auf die zu erklärende Variable y haben können. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 209 Für das oben genannte Modell gilt nach dem Pfadtheorem: ryx = β yx + rxv β yv + rxw β yw + rxz β yz rxz (= rzx ) = β zx (nach Pfadtheorem) rxv = β xv + β xw rvw (nach Pfadtheorem) rxw = β xw + β xv rvw (nach Pfadtheorem) ryx = β yx + β xw β yw + β xv β yw rvw + β xv β yv + β xw β yv rvw + β yz β zx Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 210 Der Gesamtzusammenhang r yx setzt sich zusammen aus folgenden 4 Komponenten: 1) 2) β yx (direkter Kausaleffekt) β yz β zx (indirekter Kausaleffekt) 3) Scheinkomponente der Korrelation auf Grund des verursachenden Faktors W: β xw β yw Scheinkomponente auf Grund von V: β xv β yv Insgesamt: Scheinkomponente: β xw β yw + β xv β yv 4) Komponente auf Grund der Korrelation von exogenen Variablen (Korrelierte Effekte bzw. Assoziationseffekte) β xv β yw rvw + β xw β yv rvw (Exogen: im Modell nicht erklärt; im Modell nur als unabhängige Variable) (Im Gegensatz dazu: Endogen: im Modell erklärt; im Modell abhängige Variable) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 211 Beispiel: Mehr indirekte Effekte von x auf y x z1 z2 y z3 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 212 Beispiel: Mehr Scheinkomponenten in der Beziehung zwischen x und y v x w y u Scheinkomponenten könnten auch über Kausal ketten entstehen. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 213 Beispiel: Mehr „korrelierte Effekte“ in der Beziehung zwischen x und y v x w y u Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 214 3.2.5 Anwendungsbeispiel: Parteienwahl in Abhängigkeit von Parteiidentifikation und Einstellungen (nach Herbert B. Asher: Causal modeling.) RPI .39 .71 RV .46 RPA RPI RPA RV - Effekte Party identification Partisan attitudes R2 = 62 % respondent`s partisan identification respondent`s partisan attitudes respondent`s vote Kausaleffekt Direkter Effekt .39 Kausaleffekt Indirekter Effekt Gesamter Kausaleffekt .33 (=.71 x .46) .72 .46 - .46 Größerer direkter Effekt: Einstellungen, und nicht Parteiidentifikation. Wegen des zusätzlichen indirekten Effekts über die Einstellungen hat die Parteiidentifikation den größeren Gesamteffekt. 215 Beziehung zwischen RPI und RV direkt .39 indirekt .71 ⋅ .46 = .33 s RV, RPI = .72 (alles kausal) Beziehung zwischen RPA und RV direkt .46 spurious .71 ⋅ .39 = .28 s RV, RPA = .74 (Komponente .28 nicht kausal) 216 Die Parteienwahl lässt sich in diesem Fall zu 62 % durch Parteiidentifikation und Einstellungen erklären. k Erklärte Varianz: Multiple R2 = s y , yˆ = ∑ ryx β yx i i =1 i Meine "pfadanalytische" Darstellung der erklärten Varianz: RPI sRV, RPI = .72 .39 RV .46 RPA sRV, RPA = .74 RV Multiple R2 ist die Kovarianz von y und yˆ . Der Zusammenhang von Effekten und Erklärungskraft besteht darin, dass man die gesamte erklärte Varianz erhält, wenn man von der zu erklärenden Variablen per Kovarianz jeweils zu einer der „Ursachen“ geht, die jeweils die angegebenen „Kausaleffekte“ haben. .72 ⋅ .39 + .74 ⋅ .46 = 0,62 = R 0,28 2 0,34 Der Bestandteil .28 · .46 = .13 ist nicht kausal, sodass die „kausale“ Erklärung nur die Größenordnung R2 – 0,13 = 0,49 hat. In diesem Sinne sind Kausaleffekte noch wichtiger als die Erklärungskraft. 217 3.2.6 Multiple R2 in der Pfadanalyse Die Grundelemente der Zerlegung sollen exemplarisch dargestellt werden, wobei das Beispiel aus Gründen der Übersichtlichkeit um den direkten Effekt von w auf x reduziert wird. β (SV) V W (SM) β (SB) xv β yv β yw β X Z (P1.Beruf) yx Y (Paktueller Beruf) 218 zx β yz Multiple R2 = ryx ⋅ β yx + ryz ⋅ β yz + ryv ⋅ β yv + ryw β yw ryx ⋅ β yx = β yx ⋅ β yx + β yz β zx ⋅ β yx + β xv β yv ⋅ β yx + rvw β yw β xv ⋅ β yx direkt direkt von x von x indirekt von x spurious durch v direkt von x korreliert direkt von v direkt von x in (yx) in (yx) in (yx) in (yx) direkt von x ryz ⋅ β yz = β yz ⋅ β yz + β zx β yx ⋅ β yz + β xv β zx β yv ⋅ β yz + rwv β xv β zx ⋅ β yw ⋅ β yz direkt von z direkt direkt spurious von z von z durch x in (yz) direkt von z spurious durch v in (yz) in (yz) korreliert direkt von w direkt von z in (yz) ryv ⋅ β yv = β yv ⋅ β yv + β yx β xv ⋅ β yv + rvw β yw ⋅ β yv + β xv β zx β yz ⋅ β yv direkt von v direkt indirekt von v von v in (yv) direkt von v korreliert von v in (yv) direkt von v indirekt von v direkt von v in (yv) in (yv) ryw ⋅ β yw = β yw ⋅ β yw + rwv β yv ⋅ β yw + rwv β xv β yx ⋅ β yw + rwv β xv β zx β yz ⋅ β yw direkt direkt korreliert direkt korreliert von w von w von w von w von w in (yw) in (yw) in (yw) direkt von w korreliert von w direkt von w in (yw) Insgesamt setzt sich Multiple R2 also zusammen aus: 4 direkte Beiträge von x, z, v, w 3 Kombinationen von direktem und indirektem Effekt (von x und v) 3 Kombinationen von direktem und spurious (durch v und x) Effekt 4 Kombinationen von direktem und korreliertem (von v und w) Effekt 2 Kombinationen von direktem und korreliert • direktem (von v und w) Effekt 219 Zentrale Konzepte der statistischen Analyse gemäß der Pfadanalyse Direkte Effekte Indirekte Effekte Korrelierte Effekte Ferner: Die „spurious“-Effekte müssen bei der erklärten Varianz relativierend berücksichtig werden. In diesem Sinne sind die Effekte noch wichtiger als die erklärte Varianz. Die relative Wichtigkeit von Erklärungsfaktoren für ein zu erklärendes Phänomen (y) kann einerseits anhand der direkten Beiträge diskutiert werden, andererseits anhand der Gesamtbeiträge. Durch eine Korrelation r yx allein kann man insofern getäuscht werden, als es „Scheinkorrelationen“, Suppressor und Distorter Phänomene etc. gibt, wie sich im Vergleich zum eigentlichen direkten Kausalmechanismus (direkter Effekt) ergibt. D.h. die Bearbeitung des Problems von Korrelation und Kausalität sollte in der schrittweisen Elaborierung „pfadanalytischer“ Modellierungen geschehen. 220 Modellierung der Partizipationsfelder und Problembereiche von Jugendlichen In der aktuellen Brandenburger Jugendstudie (vgl. Dietmar Sturzbecher/ Dieter Holtmann (Hg.): Werte, Familie, Politik, Gewalt – Was bewegt die Jugend? Münster 2007: LIT Verlag) werden die verschiedenen Partizipationsfelder und Problembereiche der Jugendlichen jeweils gesondert dargestellt und diskutiert. Im Folgenden sollen mit Hilfe der Pfadanalyse einige Hauptgesichtspunkte zu den Lösungsmöglichkeiten modelliert werden (Dieter Holtmann, Tilo Görl, Detlef Landua u.a.). Im Folgenden soll dargestellt und diskutiert werden, wie die verschiedenen untersuchten Problembereiche (Abwanderungswunsch, Politikverdrossenheit, Gewaltbereitschaft und intolerante Einstellungen) zusammenhängen und welche Maßnahmen zur Vorbeugung dieser Probleme sich aus den erhobenen Daten als Erfolg versprechend erschließen lassen. Zu diesem Zweck wird im Folgenden – auf der Basis der bisherigen Untersuchungsergebnisse – ein die Problembereiche übergreifendes Pfadmodell entwickelt. 221 Soziale Lagen, Wertorientierungen, Partizipationsfelder und Problembereiche der Jugendlichen Das folgende Modell für das Handeln von Jugendlichen im Beziehungsfeld von Familie, Schule und Freizeitbereich ist in Form eines – bis auf die Rückmeldung der Jugendlichen an die verschiedenen Teilbereiche - rekursiven Pfadmodells formuliert, weil dies die effizienteste Art ist, Teile des Modells zu schätzen bzw. zu testen. Die Einschränkungen aufgrund der Rekursivität (d.h. das Modell hat eine Richtung) haben zur Folge, dass man eine der Richtungen einer möglichen Wechselwirkung als die dominierende begründen muss. (Die Alternative, die Größenordnungen von Wirkungen in beide Richtungen offen zu modellieren, ist unverhältnismäßig aufwändiger bei Schätzung und Test.) Um einen Strukturierungspfad jeweils eindeutig ablesen zu können, ist bei den Problembereichen die Richtung der Ausprägung angegeben: Z.B. enthält das Modell die Hypothesen, dass die Möglichkeiten für konkrete politische Partizipation in die Richtung wirken, dass dann eher wenig Rechtsextremismus, Ausländerfeindlichkeit und Antisemitismus vorzufinden ist. 222 Jugendliche handeln gemäß ihren Interessen und insbesondere ihren Werten, sodass die Individualisierungsschübe und die Pluralisierung von Werten und Einstellungen gerade für das Handeln von Jugendlichen einen hohen Stellenwert haben. Während bis Ende der 1980er Jahre ein Vordringen individualistischer Wertorientierungen beobachtet wurde, zeigte sich nach 1989/90 unter den angespannteren wirtschaftlichen Rahmenbedingungen infolge des Anwachsens der ökonomischen Konkurrenz wieder eine stärkere Orientierung an Werten der sozialen Stabilität und Sicherheit. Konkret ist dabei für die Jugendlichen die schlechtere Lage bei den Ausbildungsstellen von Bedeutung, aber auch die Probleme der Berufseinmündung in einem schwierigeren wirtschaftlichen Umfeld. Stefan Hradil (2002) hat diese neueren Entwicklungen in den Wertorientierungen prägnant als Individualisierung und ihre Gegenbewegungen zusammengefasst. Auch in der vorliegenden Studie zeigt sich eine Verschiebung der Priorität von Hedonismus („das Leben genießen“) hin zur sinnstiftenden Arbeit („Arbeit, die erfüllt“) und gemeinschaftsorientierten Haltungen („für andere da sein“) 223 Qualität der Freizeitangebote (Wenig) Abwanderung Wertorientierungen Beachtung von Jugendinteressen Familie, Persönlichkeit, Geschlecht, Alter, Ethnie, Region Kommunale Aktivitätsmöglichkeiten (Wenig) Politikverdrossenheit (Geringe) Gewaltbereitschaft Peer Group Bewertung der Institutionen (umgesetzt insbesondere durch politische Programme) Beteiligung am politischen Leben Soziale Lage (u.a. Schultypen) Soziale Schulqualität (Wenig) Rechtsextremismus, Ausländerfeindlichkeit, Antisemitismus Abbildung 1: Soziale Lagen, Wertorientierungen, Partizipationsfelder und Problembereiche der Jugendlichen 224 Die hierarchische Schichtung sozialer Lagen ist nach wie vor von großer Bedeutung für die durchschnittlichen Lebenschancen. So zeigen sich in der vorliegenden Studie ungünstige Auswirkungen z.B. der Arbeitslosigkeit eines Elternteils, weshalb der Schaffung günstigerer ökonomischer Rahmenbedingungen hohe politische Priorität zukommt. Allerdings zeigen sich gerade in diesem Bereich auch die Grenzen kommunaler Präventionsstrategien. Als wichtige Partizipationsfelder und Kontexte werden im Rahmen unserer Analysen insbesondere die Familie, die Schule, der Freizeitbereich, der Sport und die Freiwilligenvereinigungen sowie das politische Leben berücksichtigt (vgl. Abbildung 1). Dabei zeigt sich, dass in aller Regel mit einer besseren Qualität der Angebote, mit einer stärkeren Partizipation und Integration in diese Teilbereiche gleichzeitig vorgebeugt wird gegen die Gefährdungen, die in der vorliegenden Studie vorrangig berücksichtigt werden: Mit einer stärkeren Partizipation und Integration verringert sich die Wahrscheinlichkeit der Abwanderung (wobei gleichzeitig die Mobilitätsbereitschaft zur Wahrnehmung von Berufschancen grundsätzlich nicht negativ bewertet werden sollte.) Mit einer guten Schulqualität sinkt die Gewaltbereitschaft. Mit einer besseren Partizipation und Integration von Jugendlichen steigt ihr Selbstbewusstsein und ihre Zufriedenheit, was eine günstige Voraussetzung für die Offenheit gegenüber Neuem und zunächst Fremdem ist. Bei höherer Zufriedenheit mit Schule, Freizeit und politischer Beteiligung gibt es weniger Anlass für Projektionen von Unzufriedenheiten auf vermeintliche „Sündenböcke“. 225 Deshalb ist die gesellschaftliche Investition in die Unterstützung von Familien, in die soziale Schulqualität, in die Infrastruktur für die Freizeitgestaltung, in die Möglichkeiten der Partizipation in Sport- und Freiwilligenvereinigungen sowie in die Beteiligungsmöglichkeiten am gesellschaftlichen und politischen Leben das nahe liegende politische Programm zur Vorbeugung gegen Gefährdungen wie Gewaltbereitschaft, Ausländerfeindlichkeit, Rechtsextremismus sowie Antisemitismus. Die besondere Förderung von Kindern und Jugendlichen ist ein zentrales Performanzkriterium, bei dem sich Gesellschaften im Hinblick auf ihre Zukunftsfähigkeit bewähren müssen, vgl. hierzu auch Esping-Andersen: „A child-centred social investment strategy“ (in: Derselbe et al. „Why we need a new welfare state“ (Oxford 2002)). Aufgrund der Performanz der Gesellschaft, die sichtbar wird in den Leistungen der verschiedenen gesellschaftlichen Teilbereiche (Schulqualität, Infrastruktur der Freizeitbereiche etc.) nach den diversen Qualitätskriterien, bewerten die Jugendlichen aufgrund ihrer Präferenzen diese zahlreichen Aspekte und – dies ist die Rückkoppelungsschleife des ansonsten rekursiven Modells – entwickeln ihre eigenen Vorstellungen, Konzepte und Präferenzen weiter sowie melden ihr Votum an die verschiedenen gesellschaftlichen Teilbereiche und Teilpolitiken zurück. 226 Mit dieser im wesentlichen rekursiven Formulierung soll modelliert werden, dass Jugendliche in Institutionen und Teilbereichen nach ihren Vorstellungen und Werten agieren, einerseits also auch von diesen Kontexten geprägt werden, andererseits aber auch ihren partiellen Beitrag zur Umgestaltung dieser Institutionen und Teilbereiche leisten können. Pfadmodell zu den Zusammenhängen der Problembereiche und zu möglichen Lösungsansätzen In der folgenden Abbildung 2 sind die Ergebnisse zusammengefasst, die sich aus der pfadanalytischen Modellierung der Wirkungsmechanismen zwischen Risikofaktoren und Problemlagen der Jugendlichen ergeben. Gleichzeitig werden die Mechanismen aufgezeigt, mit denen durch staatliche Interventionen Problembereiche vorzeitig und vorsorgend bearbeitet werden könnten. 227 Das Pfadmodell und seine Parameter wurden mittels des Programms AMOS visualisiert und geschätzt (vgl. Arbuckle, Wothke 1999). In der Pfadanalyse werden die Zusammenhänge der verschiedenen Faktoren durch Pfeile dargestellt, wobei z.B. der Pfeil von der politischen Partizipationsbereitschaft zur Ausländerfeindlichkeit so zu interpretieren ist, dass höhere Partizipationsbereitschaft geringere Ausländerfeindlichkeit begünstigt, was also vom Vorzeichen her ein negativer Zusammenhang ist, der in diesem Fall die Größenordnung (Pfadkoeffizient) -.10 hat. Die Größenordnung drückt die relative Wichtigkeit eines Einflussfaktors auf ein zu erklärendes Phänomen aus. Jede Variable, die in dem Modell erklärt werden soll, erkennt man daran, dass die Pfeile von einem oder mehreren Einflussfaktoren auf das Kästchen für diese Variable weisen. Oberhalb des Kästchens steht der Anteil der erklärten Varianz in dem Maßstab von 0 bis 100 Prozent, wobei die erklärte Varianz z.B. der Ausländerfeindlichkeit .24 bzw. 24 Prozent beträgt, was besagt, dass die Variabilität der Ausländerfeindlichkeit von Personen sich zu 24 Prozent auf die Unterschiede der Personen bei den Erklärungsfaktoren zurückführen lässt: In dem Beispiel wirken Politikverdrossenheit und Gewaltbereitschaft stärkend in Richtung Ausländerfeindlichkeit (+0.3), während höhere Bildung (-0.23) und politische Partizipationsbereitschaft (-0.10) vorbeugend gegen Ausländerfeindlichkeit wirken. In unserem Beispiel beträgt die zusammenfassende Anpassungsgüte (Goodness of Fit Index: GFI) 0.87, was ein akzeptables Gesamtergebnis ist. 228 Im biographischen Verlauf der Jugendlichen ist zunächst der Familienhintergrund die prägende Kraft, weshalb dieses Konzept in der Kausalordnung am weitesten vorgelagert ist. Wenn Kinder und Jugendliche in der Familie vernachlässigt werden, gehen sie bereits mit Hypotheken in die nächsten Aktivitätsfelder. Es zeigt sich, dass die Jugendlichen bei einem solchen Hintergrund überproportional mit Unlust an die Schule herangehen. Letzteres ist eines der wichtigsten Verbindungsglieder, die über eine Spirale von Frustration (z.B. Schulunlust) und Aggression zu einer erhöhten Gewaltbereitschaft führen können. Deshalb sind die kontinuierliche Evaluation und Verbesserung der Schulqualität nahe liegende Vorbeugungsmaßnahmen, um solche Negativspiralen zu vermindern. In Familien, die eher durch Strenge zu Gehorsam erziehen, statt die Fähigkeiten der Kinder und Jugendlichen zu erkennen und unterstützend zu fördern, entstehen eher rigide Persönlichkeitsstrukturen, wie Adorno et al. in ihrer klassischen Studie „Die autoritäre Persönlichkeit“ (1950) herausgearbeitet haben. Auch unsere Ergebnisse weisen darauf hin , dass bei Jugendlichen, die familiale Vernachlässigungen erfahren, eher externale Kontrollüberzeugungen entstehen, d.h. Vorstellungen derart, dass Mächtigere die Rahmenbedingungen diktieren, sodass man selbst ein geringes Selbstwirksamkeitsempfinden und keine starken Anreize hat, sein Leben in gesellschaftlich erwünschter Weise auszugestalten. Jugendliche mit einer solchen Persönlichkeitsdisposition gehen auch an schulische Aufgaben und Anforderungen eher mit Unlust heran, was die Spirale in Richtung Gewaltbereitschaft eröffnen bzw. verstärken kann. Wie in der Studie „Die autoritäre Persönlichkeit“ 229 zeigt sich auch in der vorliegenden Analyse, dass „autoritäre“ Persönlichkeitsstrukturen die Anfälligkeit für Rechtsextremismus und Ausländerfeindlichkeit erhöhen. Um solche Negativspiralen nicht entstehen zu lassen, müssten also Familien, die Unterstützung der Gesellschaft benötigen, früh genug betreut werden. Je früher die Gesellschaft solchen Familien hilft, desto Erfolg versprechender sind solche gesellschaftlichen Unterstützungsleistungen. Entsprechend sollten lokale Bündnisse für Familien und das Modell der Familienpaten gestärkt werden. Wenn man bei dem Bereich Familie solche mit günstigen Randbedingungen betrachtet, d.h. bildungs- und einkommensstärkere Familien, die die Bildung ihrer Kinder stärker fördern und auf diese Weise eine Positivspirale auszulösen vermögen, so zeigt sich: Durch stärkere Förderung der Bildung erhöht sich das allgemeine Interesse an gesellschaftlichen und politischen Problemen. Die Jugendlichen gehen dann aufgeschlossener an Lernsituationen heran, sie sind eher befähigt, in den verschiedenen Aktivitätsfeldern zu partizipieren: in der Wohngemeinde, im Freizeitbereich, in der Jugendselbstverwaltung und bei der Mitgestaltung der jugendspezifischen Rahmenbedingungen. Durch das Training von Diskursen wird das Einüben von Argumentationen gefördert, weshalb die Anfälligkeit für stereotypes Denken und Vorurteile sinkt und damit auch die Anfälligkeit für Ausländerfeindlichkeit, Rechtsextremismus und Antisemitismus. 230 Die Ergebnisse unseres Pfadmodells zeigen weiterhin, dass kommunale Aktivitätsmöglichkeiten und jugendspezifische, konkrete Formen der politischen Partizipation – d.h. Partizipation unterhalb der Mitgliedschaft in Verbänden, Parteien, Vereinen etc. –relevant sind als vorbeugende Schutzfaktoren gegen eine Vielzahl von Gefährdungen der Jugendlichen. Es findet sich weniger Politikverdrossenheit, wenn es Aktivitätsmöglichkeiten in der Wohngemeinde gibt und wenn die Jugendlichen Möglichkeiten der konkreten politischen Partizipation sehen. Die Gewaltbereitschaft ist geringer, wenn – neben einer geringeren Schulunlust – die Jugendlichen Möglichkeiten der konkreten politischen Partizipation sehen, wodurch wiederum die Politikverdrossenheit sinkt, die selbst ein direkter Einflussfaktor der Gewaltbereitschaft ist. 231 Freizeit (Wenig Langeweile) -,30 ,13 ,35 Gute reg. ,42 Netzwerke Ortsverbundenheit ,23 Wohnort pos. verändert ,10 ,19 -,22 Abwanderungswunsch -,10 Beachtung von Jugendinteressen ,59 230 Komm. Aktivitätsmöglichkeiten ,12 ,01 -,15 Interesse an Politik -,16 -,14 Politikverdrossenheit -,10 ,37 ,17 ,08 ,15 -,06 -,10 ,07 ,08 ,19 ,36 ,46 ,30 -,23 ,24 Ausländerfeindlichkeit ,11 ,12 Familiale Vernachlässigung ,05 -,14 -,16 ,18 Gewaltbereitschaft -,04 Pol.Partizipationsbereitschaft Höhere Bildung ,06 ,15 -,14 ,36 -,07 Schulunlust ,19 ,23 ,08 Externale Kontrollüberzeugung ,32 -,12 ,31 Rechtsextremismus ,12 ,13 ,24 Antisemitismus Abbildung 2: Pfadmodell: Partizipationsfelder und Problembereiche der Jugendlichen (GFI=0,87) Auch Ausländerfeindlichkeit, Rechtsextremismus und Antisemitismus werden durch Politikverdrossenheit und insbesondere durch Gewaltbereitschaft eher gefördert, während sie geringer ausfallen, wenn die Jugendlichen Möglichkeiten zur konkreten politischen Partizipation sehen. Die Tatsache, dass sich viele Jugendliche aufgrund ökonomischer Zwänge dazu entschließen, einen Ausbildungs- oder Arbeitsplatz fern des Heimatorts zu suchen, ist keineswegs nur negativ zu beurteilen. Zu einem sozialräumlichen und politischen Problem wird Migration dann, wenn sie – in Verbindung mit demographischen Veränderungen – zur Entleerung ganzer Regionen führt. Eine Chance für strukturschwache Regionen, dauerhafte Abwanderungsverluste zu vermeiden, besteht darin, die Verwurzelung Jugendlicher mit dem Heimatort bereits in jungen Jahren zu fördern. Dies kann unseren Ergebnissen zufolge z.B. über die aktive Einbindung Jugendlicher bei der Gestaltung von Freizeitangeboten gelingen. Die so geförderte Heimatverbundenheit kann in der Folge dazu beitragen, dass Jugendliche eher bereit sind, nach abgeschlossener Ausbildung in den Heimatort zurückzukehren – sofern sich dort eine berufliche Perspektive bietet. 233 Bearbeitung jugendspezifischer Problemlagen durch verstärkte Bildungsangebote und Mitwirkungsmöglichkeiten In der vorliegenden Studie wurden als Problemlagen einerseits der Abwanderungswunsch und andererseits Schulunlust, Politikverdrossenheit, Gewaltbereitschaft, Ausländerfeindlichkeit, Rechtsextremismus und Antisemitismus berücksichtigt, wobei die letzteren Problemlagen in einem gewissen Ausmaß zusammenhängen. Gemäß den in den einzelnen Kapiteln dargestellten Analysen der verschiedenen Teilbereiche lassen sich als Lösungsansätze erschließen, dass unterstützungsbedürftige Familien frühzeitig erkannt und dann entsprechend in Ausstattung und Erziehung gefördert werden müssen, um weiteren Problemspiralen präventiv begegnen zu können. Denn familiäre Vernachlässigungen begünstigen eher autoritäre Persönlichkeitsstrukturen, Schulunlust und eine Anfälligkeit für Gewaltbereitschaft sowie für Ausländerfeindlichkeit, Rechtsextremismus und Antisemitismus. Entsprechend sind niederschwellige Angebote des Familiencoachings zu fördern. Auf der anderen Seite können durch frühzeitige Förderung in Kitas, Schulen, in der Jugendarbeit und Freizeit die Weichen gestellt werden, dass Kinder und Jugendliche aufgeschlossen an die Schule und die Bildungs- und Ausbildungsinstitutionen herangehen sowie offen werden für das Abwägen von Argumenten im Diskurs, was als Vorbeugung gegen stereotypes Denken und Projektionen von Problemlagen auf „Sündenböcke“ wirkt. 234 In Schule, Ausbildung und Freizeit müssen die Jugendinteressen stärker berücksichtig werden und es müssen Aktivitätsmöglichkeiten für die Jugendlichen ausgebaut werden, damit die Partizipationsbereitschaft der Jugendlichen stärker zum Zuge kommen kann. Die Partizipationsbereitschaft der Jugendlichen lässt sich dadurch fördern, dass sie bei den jugendspezifischen Bereichen und Themen stärker an Planung und Durchführung beteiligt werden. Die personenspezifische Förderung der Jugendlichen durch Bildung und Ausbildung, die Aktivitätsmöglichkeiten der Jugendlichen in Schule und Freizeit sowie die Möglichkeiten, die Jugendinteressen stärker einzubringen, sind also mögliche Lösungsansätze, um die Heranwachsenden stärker an der Gestaltung der jugendspezifischen Bereiche zu beteiligen und dadurch noch besser zu befähigen, jugendtypische Problemlagen erfolgreich zu bewältigen. 235 Ausblick: Grundlegende versus fortgeschrittene multivariate Modelle der sozialwissenschaftlichen Datenanalyse 1. Überblick über die multivariaten Modelle der sozialwissenschaftlichen Datenanalyse ...............................................1 1.1 Charakterisierung verschiedener Datenanlyseverfahren..........1 1.2 Abhängigkeiten vs. Zusammenhänge (Asymmetrische und symmetrische Fragestellungen) ...............................................3 1.3 Erforderliches Messniveau der Variablen ................................4 1.4 Charakterisierung einiger Verfahren durch Diagramme..........5 1.5 Gegenüberstellung der Logik der Verfahren der multiplen Regression, der Faktorenanalyse und der Varianzanalyse ......8 1.6 Bewertung .................................................................................9 1.7 Pragmatische Abgrenzung von grundlegenden und fortgeschrittenen multivariaten Modellen .......................................11 Literaturverzeichnis .............................................................................12 Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 236 1. Überblick über die multivariaten Modelle der sozialwissenschaftlichen Datenanalyse Im Folgenden werden die wichtigsten multivariaten Modelle der sozialwissenschaftlichen Datenanalyse, d.h. die Modelle, die Zusammenhänge und Abhängigkeiten von mehr als zwei Merkmalen berücksichtigen, kurz charakterisiert und systematisiert. 1.1 Charakterisierung verschiedener Datenanalyseverfahren Den Übergang von der Analyse des Zusammenhangs je zweier Variablen/Faktoren zur multivariaten (= Mehrvariablen-) Analyse bildet die Tabellenanalyse, bei der im einfachsten Fall der Einfluss eines Drittfaktors auf den Zusammenhang zweier Variablen bei nominalem oder ordinalem Messniveau untersucht wird. Auf metrischem Messniveau entspricht dem die Berechnung der partiellen Korrelation. Sowohl in der Tabellenanalyse als auch in der partiellen Korrelation braucht man sich nicht auf die Kontrolle eines Drittfaktors zu beschränken, sondern kann mehrere „Dritt“-Faktoren gleichzeitig kontrollieren. Als Alternative zur Tabellenanalyse kann man die Regressionsanalyse verwenden – bei nominalem oder ordinalem Messniveau wird die Regression mit Dummyvariablen als Repräsentanten von Merkmalsausprägungen ausgeführt. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 237 In der multiplen Regressionsanalyse wird eine metrische abhängige Variable (Prädikand) durch zwei oder mehr metrische unabhängige Variablen (Prädiktoren) statistisch erklärt. Die Pfadanalyse besteht in der mehrfachen Anwendung der Regression, indem mit jeder Variablen eine Regression auf alle Variablen durchgeführt wird, die dieser Variablen kausal vorangehen. Es muss also eine kausale Ordnung der Variablen für das Verfahren vorgegeben werden. Nicht-rekursive Modelle lassen in Erweiterung der Pfadanalyse auch Wechselwirkungen zwischen Variablen zu. In der Varianzanalyse wird die Streuung der abhängigen metrischen Variablen in Bestandteile zerlegt, die der Variation der nominalen unabhängigen Variablen und ihrer Interaktionen zugerechnet werden können bzw. als unerklärter Rest interpretierbar sind. Die einfache Varianzanalyse, bei der eine unabhängige Variable als Prädiktor auftritt, ist ein Spezialfall der multiplen Regression mit Dummyvariablen als Prädiktoren, die mehrfache Varianzanalyse ist ein Spezialfall der multiplen Regression mit Interaktionstermen. Die „tree analysis“ entsteht durch mehrfache Anwendung der Varianzanalyse jeweils auf Dichotomien (= Variablen mit zwei Ausprägungen). Sie liefert eine Baumdarstellung, bei der die Varianz der abhängigen Variablen dadurch erklärt wird, dass sie nach der jeweils besten PrädiktorDichotomie zerlegt wird. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 238 Die Faktorenanalyse ist eine Art multiple Regression einer Vielzahl manifester (direkt beobachtbarer) Variablen auf wenige latente Dimensionen (= Faktoren). Auf diese Weise wird eine Vereinfachung der Struktur erzielt. Die Korrelationszusammenhänge zwischen mehreren Variablen werden ohne größeren Informationsverlust durch wenige Faktoren reproduziert. Da die gefundenen Faktoren i.d.R. hypothetische sind, kann an sie die Forderung der statistischen Unabhängigkeit (Orthogonalität) gestellt werden. Eine bessere inhaltliche Interpretation der Faktoren erfordert jedoch oftmals oblique (nicht orthogonale) Faktoren. Die Faktorenanalyse dient u.a. der graphischen Darstellung von Zusammenhangsstrukturen. Ein wichtiger Aspekt ist dabei auch die Bestimmung der erforderlichen Anzahl von Dimensionen. Die kanonische Korrelation ist eine Verallgemeinerung der multiplen Regression (oder der Faktorenanalyse) auf zwei Mengen von Variablen: Aus jeder der beiden Variablenmengen werden diejenigen Linearkombinationen bestimmt, welche die maximale Korrelation liefern. Auf diese Weise soll der Zusammenhang von zwei Mengen von Variablen untersucht werden. Die Diskriminanzanalyse ist ein Klassifikationsverfahren, bei dem die Zuordnung von Fällen oder Variablen zu Gruppen mit Hilfe von Klassifikationsgleichungen für jede der Gruppen durchgeführt wird. Diese Gleichungen erhält Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 239 man mit Hilfe der Varianzanalyse. Die Fälle werden denjenigen Gruppen zugeordnet, für die sie die höchste Wahrscheinlichkeit haben. Die Variablen, mit denen die Gruppenzugehörigkeit vorhergesagt wird, haben metrisches Messniveau. Die Gruppenzugehörigkeit selbst ist die abhängige Variable und hat nominales Messniveau. Man kann die Diskriminanzanalyse auch als kanonische Korrelation der Ausgangsvariablen und der Variablen der Gruppeneinteilung behandeln. Ein Anwendungsgebiet ist z.B. die Analyse unterschiedlicher Wählergruppen nach soziodemographischen Merkmalen. Die multidimensionale Skalierung (MDS) liefert einen „smallest space“ zur Darstellung der Analyseeinheiten – ähnlich wie die Faktorenanalyse. In der multidimensionalen Skalierung liegt das Schwergewicht häufig auf der Konfiguration von Punkten für die Analyseeinheiten und der graphischen Darstellung der Konfiguration, in der Faktorenanalyse auf der Interpretation der Faktoren und ihrer Erklärungskraft. Im Gegensatz zur Faktorenanalyse braucht die Ausgangsinformation über Ähnlichkeitsmaße nur auf ordinalem Messniveau vorzuliegen und liefert dennoch metrische Ergebnisse. Die MDS dient u.a. zur Rekonstruktion von Wahrnehmungsräumen z.B. für Parteipräferenzen. Die Clusteranalyse ordnet die Analyseeinheiten ebenfalls aufgrund von Ähnlichkeitsmaßen in Gruppen. Sie kann unmittelbar ansetzen bei den Ähnlichkeitsmaßen oder von einer Konfiguration von Punkten für die Analyseeinheiten Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 240 ausgehen, wie sie eine vorhergehende Faktorenanalyse oder multidimensionale Skalierung liefert. Im Unterschied zur Faktorenanalyse wird nicht eine Bündelung von Variablen, sondern von Analyseeinheiten angestrebt. Der χ -Test zur Untersuchung des Zusammenhangs zweier nominaler Variablen mittels einer Kontingenztafel kann auf k (> 2) Variablen erweitert werden. Ferner kann die Varianzanalyse auch bei einer nominalen abhängigen Variablen (mit l Ausprägungen) angewendet werden, wenn man l - 1 Ausprägungen durch Dichotomien (= formal metrische Variablen) darstellt. Der erste Ansatz ermöglicht die Analyse von Zusammenhängen, der letztere von Abhängigkeiten. Da häufig mit logarithmierten Variablen gearbeitet wird, spricht man auch von log-linearen Modellen. 2 Mit Hilfe der Korrespondenzanalyse lassen sich die Zusammenhänge zwischen nicht-metrischen Merkmalen in einer graphischen Darstellung dadurch visualisieren, dass Unähnlichkeiten zwischen Verteilungen bzw. Profilen als Distanzen repräsentiert werden. Die Konfigurationsfrequenzanalyse verwendet die Kontingenztafel, um (über- oder unterproportional besetzte) Typen zu ermitteln. Man kann sie auch als spezielles Cluster-Verfahren ansehen. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 241 Die „latent structure analysis“ sucht aufgrund dichotomer Information eine Entmischung in latente, zugrunde liegende Gruppen. Man kann die „latent structure analysis“ als eine Art Faktorenanalyse für Dichotomien ansehen, wovon wiederum die Guttman-Skalierung ein Spezialfall für ordinale Gruppeneinteilung ist. Als Entmischungsmodell ist sie ein spezieller Fall solcher Modelle, die auch in der Clusteranalyse eine Rolle spielen. Das Allgemeine Lineare Modell verbindet das lineare Kausalmodell mit einer Messfehlertheorie, die wie die Faktorenanalyse ansetzt: Die beobachteten Indikatoren werden als lineare Funktionen der zugrunde liegenden „wahren“ Dimensionen betrachtet. Es wird nicht die deterministische Faktorenanalyse verwendet, sondern die statistische Maximum-Likelihood-Faktorenanalyse. (Bei der Theorieüberprüfung handelt es sich um eine konfirmatorische Faktorenanalyse, ansonsten um eine explorative.) Die Abhängigkeiten unter den latenten Variablen stehen im Zentrum des Interesses, wobei die Faktorenanalyse das Messmodell für die latenten Konstrukte beiträgt. 1.2 Abhängigkeiten vs. Zusammenhänge (Asymmetrische und symmetrische Fragestellungen) Die Datenanalyseverfahren lassen sich zum größten Teil danach unterscheiden, ob sie Abhängigkeiten oder Zusammenhänge untersuchen. Dies ist in Abbildung 1 zusammenVeranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 242 gefasst. Das Schema umfasst auch die Beziehungen zwischen den Verfahren, die schon in den kurzen Charakterisierungen der Verfahren angesprochen worden sind. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 243 Abbildung 1-1: Zusammenhänge zwischen den multivariaten Analyseverfahren Multivariate Analyse Analyse von Abhängigkeiten (Asymmetrische Fragestellung) Multiple Regression (alles metrisch) Pfadanalyse, nicht-rekursive Modelle (zusätzliche Kausalannahmen) Analyse von Zusammenhängen (Symmetrische Fragestellung) Varianzanalyse (Prädiktoren nominal) tree analysis (Prädiktoren Dichotomien) Kontingenztafelanalyse (nominale Variablen) Loglineare Modelle Korrespondenzanalyse Faktorenanalyse (latente Variablen) Clusteranalyse Multidimensionale Skalierung (ordinale Ähnlichkeitsinformation) Kanonische Korrelation von zwei Mengen von Variablen Konfigurationsfrequenzanalyse Latent structure analysis (nominale Variablen) Diskriminanzanalyse Guttman-Skalierung (ordinale Gruppeneinteilung) Allgemeines lineares Modell Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 244 Diese Zuordnung ordnet drei Verfahren als Kombination beider Konzepte ein: Log-lineare Ansätze gibt es sowohl zur Analyse von Abhängigkeiten (wie die Varianzanalyse) als auch von Zusammenhängen (wie die Kontingenztafelanalyse). Die Diskriminanzanalyse ist eher ein Verfahren zur Untersuchung von Abhängigkeiten, wobei die (gesuchte) Gruppeneinteilung die abhängige Variable ist (bzw. Funktionen, die die Gruppen repräsentieren wie z.B. die Wähler einer bestimmten Partei). Die unabhängigen Variablen (z.B. sozialstrukturelle Merkmale von SPD-Wählern, CDUWählern etc.) dienen der Charakterisierung bzw. Vorhersage der verschiedenen Teilgruppen (z.B. Wählergruppen). Man kann eine Diskriminanzanalyse auch als kanonische Korrelation zwischen den Ausgangsvariablen und den Variablen für die Gruppeneinteilung (Dichotomien) durchführen. In diesem Sinne spielt auch der Aspekt der Analyse von Zusammenhängen eine Rolle. Das allgemeine lineare Modell ist eher ein Modell zur Analyse von Abhängigkeiten. Der Aspekt der Gleichbehandlung von Variablen (d.h. nicht nach abhängig oder unabhängig zu unterscheiden) kommt nur durch die Faktorenanalyse herein, bei der jeweils mehrere Indikatoren eine Dimension repräsentieren. Die Beziehungen zwischen den Indikatoren werden in gleicher Weise benutzt, um diese latenten Variablen zu ermitteln. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 245 Allgemein stehen aber Abhängigkeiten und Zusammenhänge in einer engen Beziehung: So lässt sich aus der einfachen Regression (als Konzept der Abhängigkeit) der Korrelationskoeffizient (als Zusammenhangsmaß) ableiten. Die Analyse von Abhängigkeiten scheint mir deshalb tendenziell als Konzept ursprünglicher zu sein, ebenso wie empirische Phänomene der ersten Art mir tendenziell häufiger zu sein scheinen. Dass man die Faktorenanalyse unter die Verfahren zur Analyse von Zusammenhängen subsumiert, liegt daran, dass man bei den Indikatoren nicht zwischen abhängig und unabhängig unterscheiden kann. Letzteres aber ist darin begründet, dass die Indikatoren als kausal abhängig von den wahren Dimensionen (= Faktoren) angesehen werden. In diesem Sinne ist die Faktorenanalyse ein Verfahren zur Untersuchung von Abhängigkeiten. Bei diesem weiteren Begriff von Abhängigkeit würde im Wesentlichen nur das symmetrische Konzept der statistischen Unabhängigkeit als Verfahren zur Analyse von Zusammenhängen im strengen Sinne übrig bleiben. Eine scharfe Trennung in Verfahren zur Analyse von Abhängigkeiten und von Zusammenhängen ist also nicht immer möglich. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 246 1.3 Erforderliches Messniveau der Variablen 1) Alle Variablen sind metrisch. a) Multiple Regression; Pfadanalyse; nicht rekursive Modelle; Rozebooms Zusammenhangsmaß für n Variablen. b) Zusätzliche Verwendung von latenten Variablen: Faktorenanalyse; kanonische Korrelation; allgemeines lineares Modell. 2) Gemischt: Die Variablen müssen bei den folgenden Ansätzen nicht alle metrisch sein. a) Abhängige Variable metrisch: Varianzanalyse (unabhängige Variablen nominal); tree analysis (unabhängige Variablen Dichotomien). b) Diskriminanzanalyse: Die eigentliche abhängige Variable, die Gruppeneinteilung, ist nominal; bei der Klassifikation wird aber jede Gruppe durch eine metrische abhängige Variable vertreten; die Ausgangsvariablen sind metrisch. c) Clusteranalyse: Die Gruppeneinteilung (= nominal) wird bestimmt aufgrund von Ausgangsvariablen, die ein gleiches, aber beliebiges Messniveau haben. d) Multidimensionale Skalierung: Aus ordinaler Information über Ähnlichkeitsmaße wird metrische Information gewonnen. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 247 e) Guttman-Skalierung: Die latente ordinale Gruppeneinteilung wird aufgrund von dichotomer Information ermittelt. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 248 3) Alle Variablen sind nominal. a) Kontingenztafelanalyse; log-lineare Modelle; Konfigurationsfrequenzanalyse. b) Zusätzliche Verwendung von latenten Variablen: Latent structure analysis (Die latente Gruppeneinteilung (nominal) wird aufgrund von dichotomer Information ermittelt.) Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 249 1.4 Charakterisierung einiger Verfahren durch Diagramme Multiple Regression Abbildung 1-2: Multiple Regression x1 ey x2 . . y xm (x 1,..., Xm = unabhängige Variablen; y = abhängige Variable; e y = error term (Fehlerterm), dem die nicht erklärte Varianz zugeschrieben wird.) Die Pfeile stehen für Einflussrichtungen. Die Varianzanalyse hat als Spezialfall der multiplen Regression den gleichen formalen Aufbau. Die logistische Regression hat die gleiche Struktur, aber die abhängige Variable ist dichotom und wird deshalb zuerst logarithmisch transformiert. Die Diskriminanzanalyse hat formal den gleichen Aufbau, wobei die abhängige Variable aber eine Gruppeneinteilung (nominales Merkmal) ist, die durch metrische Prädiktoren vorhergesagt wird. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 250 Pfadanalyse Abbildung 1-3: Pfadanalyse e2 x2 e3 x1 x3 Es handelt sich hier um eine Regression von x 2 auf x 1 und eine anschließende Regression von x3 auf x1 und x 2 . Nicht-rekursive Modelle Abbildung 1-4: Nicht-rekursive Modelle e2 x2 x1 x3 e3 Zwischen x 2 und x 3 gibt es eine Wechselwirkung. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 251 Faktorenanalyse Abbildung 1-5: Faktorenanalyse x1 F1 x2 F2 x3 Theoretische Ebene (Faktoren) Beobachtungsebene (Indikatoren) Die latenten Faktoren F i schlagen sich in den manifesten Indikatoren x j nieder. Kanonische Korrelation Abbildung 1-6: x1 y1 u1 v1 x2 y2 u2 y3 Kanonische Korrelation v2 x3 x4 (u 1, v 1) und (u 2, v 2) sind die ersten beiden Paare von kanonischen Faktoren. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 252 Allgemeines lineares Modell (z.B. LISREL oder AMOS) Abbildung 1-7: Allgemeines lineares Modell (z.B. LISREL) Regressions- und Pfadanalyse oder auch nicht-rekursive Modelle zwischen den theoretischen Konstrukten η1 ξ1 η2 ξ2 ξ3 Theoretische Ebene Konfirmatorische Faktorenanalyse als Messfehlertheorie für die unabhängigen theoretischen Konstrukte Beobachtungsebene (Indikatoren) x1 x2 x3 x4 x5 x6 x7 Konfirmatorische Faktorenanalyse als Messfehlertheorie für die abhängigen theoretischen Konstrukte x8 x9 x10 x11 x12 Aus beobachteten Variablen lässt sich nicht die Existenz nicht beobachteter, latenter Variablen ableiten. Es geht vielmehr um die Verträglichkeit von Modellen mit empirischen Daten. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 253 1.5 Gegenüberstellung der Logik der Verfahren der multiplen Regression, der Faktorenanalyse und der Varianzanalyse Variablen Modellansatz Multiple Regression y = β x + ... + β x Metrische Variablen; y, x i bekannt; eine abhängige β = BetaVariable y, Koeffizienten werden unabhängige bestimmt. Variablen x 1, Die x i können mitei..., xm. nander korrelieren. 1 1 m m i Interpretation Multiple R2 = Anteil der durch die Regression erklärten Varianz von y; r = Anteil der durch Prädiktor x i insgesamt erklärten Varianz von y; Anteil der von x i unabhängig von den anderen Prädiktoren erklärten Varianz ( = r , s.u.) 2 y , xi 2 y , x i − xˆ i Faktorenanalyse Metrische Z i = a i1 F 1 + ... a im F m Variablen; + diUi gleichgestellte Die Zi , i = 1, ..., n, Variablen Z1 , sind bekannt; die Faktoren F j, U i ..., Z n (= Indikatoren) werden dadurch charakterisiert, dass die Ladungen aij bestimmt werden. Die Faktoren F j, U i sind untereinander unkorreliert. = Anteil der Varianz von z i, der durch Faktor F j erklärt wird; d = Anteil der Restvarianz; ∑ a = Anteil der aij2 2 i n i =1 2 ij Varianzen von Z1 , ..., Z n, der durch den Faktor F j erklärt wird. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 254 Varianzanalyse Eine metrische Streuungszerlegung abhängige m = 1 (einfache Variable y, m Varianzanalyse): nominale ss y = ss A + ss error unabhängige ( y −µ =α +ε ) Variablen A, B, m = 2 (zweifache ... Varianzanalyse): m = 1: Einfa- ss y = ss A + ss B + che Variss AB + ss error , falls anzanalyse A und B statistisch m = 2: Zweifa- unabhängig sind. che Varianzanalyse, etc. ij i R2 = ss A = ss y Anteil der Varianz von y, die durch A erklärt wird. ij ss y − ss error ss y = Anteil der Varianz von y, die durch A und B insgesamt erklärt wird. ss AB ss y = Anteil der Varianz von y, die durch Interaktion von A und B erklärt wird. ss B ss y = Anteil der Varianz von y, die durch B erklärt wird (für A entsprechend). Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 255 1.6 Bewertung Die multiple lineare Regression dürfte das wichtigste Datenanalyseverfahren sein. Das bei der Regressionsanalyse benutzte Konzept der kleinsten Quadrate, um den Fehler einer linearen Schätzung zu messen, ist auch Ausgangspunkt verschiedener anderer Verfahren. Ein zweites grundlegendes Konzept ist die Faktorenanalyse, die eine Regression auf latente, zugrunde liegende Faktoren ist. Multiple Regression Korrelierte Regressoren Beobachtete Regressoren Faktorenanalyse Unkorrelierte Faktoren Latente Faktoren Während die multiple Regression eine möglichst gute Erklärung der Struktur des Zusammenhangs einer beobachteten abhängigen Variablen mit beobachteten unabhängigen Variablen anstrebt, werden in der Faktorenanalyse nicht beobachtete Dimensionen gesucht, die die beobachteten Daten möglichst gut im statistischen Sinne erklären sollen. Da die Faktoren einerseits ein „künstliches Produkt“ sind, insofern sie ja nicht einfach beobachtet werden, kann man andererseits solche Faktoren suchen, die besonders wünschenswerte Eigenschaften haben. Unter dem Gesichtspunkt einer möglichst einfachen Darstellung der Daten strebt man deshalb (i.a.) unkorrelierte Faktoren an. Die beiden Aspekte hängen also zusammen: Weil es sich um Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 256 „Kunstprodukte“ handelt, kann man von ihnen gewünschte Eigenschaften verlangen. Empirisch beobachtete Variablen, über die man in der Regressionsanalyse nicht hinausgeht, korrelieren dagegen in der Regel. Als drittes grundlegendes Konzept ist die Varianzanalyse zu nennen. Konzeptuell ist sie in ihrer einfachsten Form Bestandteil der multiplen Regressionsanalyse und allgemein ein Spezialfall der multiplen Regressionsanalyse für nominale unabhängige Variablen. Es handelt sich aber keineswegs um einen einfachen Spezialfall, da in der Varianzanalyse in der Regel Interaktionen untersucht werden1, was schon eine Regressionsanalyse mit mindestens zwei verschiedenen Prädiktor-Mengen und deren Interaktionstermen beinhaltet. Die meisten anderen Verfahren sind abgeleitet aus diesen drei grundlegenden Konzepten (vgl. Abbildung 1-8). 1 Man sollte nicht dem Verfahren überlassen, ob man Interaktionen untersucht. Dies lässt sich z.B. auch in der Regressionsanalyse berücksichtigen, dort aber ist es viel weniger verbreitet als in der Varianzanalyse, wo dies „automatisch“ geschieht. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 257 Abbildung 1-8: Multiple Regression, Faktorenanalyse und Varianzanalyse als grundlegende Konzepte Faktorenanalyse Multiple Regression Varianzanalyse Kanonische Korrelation Logistische Regression Diskriminanzanalyse Pfadanalyse Nicht-rekursive Modelle Tree analysis Multidimensionale Skalierung Log-lineare Modelle Allgemeines lineares Modell Die multiple Regression, Varianzanalyse und Faktorenanalyse sowie die kanonische Korrelation und Diskriminanzanalyse würde ich als „klassische“ Datenanalyseverfahren bezeichnen. Relevante neuere Entwicklungen sind die loglinearen Modelle zur Analyse von Nominal-Daten, die logistische Regression, die multidimensionale Skalierung zur Analyse von Ordinal-Daten, die neuere Rezeption des (ansonsten älteren) Verfahrens der Pfadanalyse, die Entwicklung nicht-rekursiver Modelle und die Entwicklung des allgemeinen linearen Modells. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 258 Wie bereits in der Übersicht in Abbildung 1-1 dargestellt, ist auch die Analyse von Kontingenztafeln ein elementares Konzept. Die χ -Analyse für die Kontingenz von 2 Merkmalen gehört (nach der hier benutzten Definition: multivariat = Verwendung von mehr als zwei abhängigen/unabhängigen Variablen) noch nicht zur multivariaten Analyse. Die Erweiterung dieses Konzepts auf mehr als zwei Merkmale erlaubt Aussagen darüber, ob es signifikante Interaktionseffekte gibt. Obwohl die Analyse nominaler Daten in starker Entwicklung ist (vgl. das Jahrbuch „Sociological Methodology“ und die Zeitschrift „Sociological Methods and Research“), erscheinen mir die Analyse- und Interpretationsmöglichkeiten als weniger anschaulich als die metrischen Ansätze. Die neueren Entwicklungen der multidimensionalen Skalierung in Nachfolge der Faktorenanalyse findet man vor allem in der Zeitschrift „Psychometrika“. 2 Die Anschlussfähigkeit an die Theoriebildung in den Sozialwissenschaften versprechen vor allem die linearen Kausalmodelle zu leisten. Diese Modellierungen der Sozialwissenschaftler werden insbesondere auch von den Ökonometrikern verfolgt, wo die häufige Voraussetzung, dass es sich um metrische Variablen handelt, am unproblematischsten ist. Die fruchtbarsten Entwicklungen scheinen mir in der Weiterentwicklung pfadanalytischer Modelle mit beobachteten oder auch latenten Variablen zu liegen, da in diesen Modellierungen als Erklärung die Mechanismen von direkten und indirekten Kausalbeiträgen herausgearbeitet werden. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 259 1.7 Pragmatische Abgrenzung von grundlegenden und fortgeschrittenen multivariaten Modellen sowie Aufbau des vorliegenden Bandes Im Band zu den grundlegenden multivariaten Modellen werden Tabellenanalyse, multiple Regression, Pfadanalyse und Varianzanalyse (mit einer abhängigen Variablen und mehreren unabhängigen Variablen) als grundlegende Modelle behandelt. Im folgenden Band werden die „fortgeschrittenen“ multivariaten Modelle dargestellt und diskutiert. Pragmatisch als „fortgeschritten“ werden die Ansätze angesehen, zu deren Lösung man ein mathematisches Eigenwertproblem lösen muss und die deshalb hier gemeinsam behandelt werden: Faktorenanalyse, kanonische Korrelation sowie Diskriminanzanalyse und multivariate Varianzanalyse. Die log-linearen und verwandte Modelle für nichtmetrische Daten sind später entwickelt worden als die metrischen, was ein Hinweis auf ihre geringere Anschaulichkeit ist. Andererseits haben sie den Vorzug, geringere Anforderungen an das vorausgesetzte Messniveau zu stellen. Die Korrespondenzanalyse ist geeignet zur Analyse des Zusammenhangs von nicht-metrischen Daten, wobei an Grundüberlegungen der Faktorenanalyse angeknüpft wird. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 260 Schließlich sind Clusteranalyse, multidimensionale Skalierung und ähnliches i.a. zusätzliche Gesichtspunkte für die Analyse, weshalb sie in diesem Band ebenfalls in einem Kapitel behandelt werden. Die Mehrebenenanalyse und die Analyse zeitbezogener Daten beinhalten weitere vertiefende Analyseansätze. Der Mehrebenenanalyse liegt die Idee zu Grunde, eine abhängige Variable auf individueller Ebene durch Effekte auf verschiedenen Ebenen zu erklären. Die Analyse zeitabhängiger Daten bringt den Gesichtspunkt der Dynamik sozialen Wandels mit ein. Betrachten die vorangegangenen Kapitel eher statische Daten zu einem Zeitpunkt, stehen hier zeitliche Veränderungen im Mittelpunkt. Veranstaltung: Grundlegende multivariate Modelle der sozialwissenschaftlichen Datenanalyse Universität Potsdam - Prof. Dr. Dieter Holtmann 261