Strukturgleichungsanalyse versus Regressionsanalyse

Werbung
e
er
.d
dr
ku
pp
Strukturgleichungsanalyse versus
Regressionsanalyse
ww
w.
Sirko Kupper
1997
Erläuterung der These
er
.d
1
e
Für die statistische Analyse von Forschungshypothesen der Sozial- und
Verhaltenswissenschaften ist die Strukturgleichungsmodellierung umfassender und robuster als die multiple Regressionsanalyse.
Die Strukturgleichungsmodellierung ist für statistische Analyse von Forschungshypothesen
der Sozial- und Verhaltenswissenschaften umfassender, weil
und sie ist robuster, weil
ku
pp
? ? ausgehend von den Forschungshypothesen ein umfangreiches Modell spezifiziert wird, das
anschließend geschätzt und getestet wird. Im Gegensatz zur multiplen Regressionsanalyse, wo
nur direkte Beziehungen von unabhängigen Variablen auf eine abhängige Variable spezifiziert
werden können.
? ? als Derivat dieser Modellspezifikation das Modell nochmals sorgfältig durchdacht werden
kann, hinsichtlich bisheriger theoretischer und empirischer Untersuchungen.
? ? die Beziehungen zwischen latenten Variablen geschätzt und getestet werden können, was in
vielen Fragestellungen der Psychologie von Interesse ist (z. B. Eine schlechte Gesundheit ruft
ein negatives Selbstbild hervor!).
Gegenüberstellung der beiden Analysemethoden an
einem empirischen Beispiel
w.
2
dr
? ? im Falle der Verletzung der N(0,1)-Annahme korrigierte Schätzmethoden (Robuste Maximum
Likelihood Analyse) und korrigierte statistische Testkennwerte (Skaliertes ? 2, Satorra &
Bentler, 1988) eingesetzt werden können. Im Gegensatz zur Multiplen Regressionsanalyse, bei
der im Falle von Abweichungen von der Normalverteilung starke Verzerrungen der Ergebnisse
auftreten und somit die Zuverlässigkeit der Ergebnisse in Frage gestellt ist.
Die Daten stammen aus einer Untersuchung von Chatterjee & Yilmaz (1992), in der einer
Zufallsstichprobe von 24 Patienten Fragebogen vorgelegt wurde. Anhand dieses Datensatzes
ww
haben die Autoren verschiedene Diagnosetechniken demonstriert, um einer leichtfertigen
Anwendung der Regressionsanalyse vorbeugen zu können. Mit Hilfe dieser vorliegenden
Daten soll nun der Einfluß des Alters (AGE) auf die Gesundheit (HEALTH) untersucht
werden. Das Konstrukt Gesundheit wurde über die Indikatorvariablen Schwere der Krankheit
(ILLNESS),
Ängstlichkeit
operationalisiert.
(ANXIETY)
und
Zufriedenheit
(SATISFACTION)
2.1
Vorbereitende Analysen
2.1.1 Scatterplot
e
Mit Hilfe des Scatterplots1 wurde im Datensatz ein „Ausreißer“ oder sog. „einflußreicher
Fall“ identifiziert, der das Ergebnis verzerren kann. Dieser „Ausreißer“ (Patient 10) wurde aus
Ausschluß des Wertes von 0.151 auf 0.631.
er
.d
den weiteren Analysen ausgeschlossen. Das R2 des Scatterplots veränderte sich nach
2.1.2 Prüfung der Normalverteilungsannahme
Zunächst
wurden
die
Daten
als
Normal
Plot
(erwartete
gegen
beobachtete
Wahrscheinlichkeit) dargestellt und inspiziert, wonach nur kleinere Abweichungen zu
erkennen sind. In einem weiteren Schritt wurde ein Test auf Verteilungsparameter
pp
(Kolmogoroff-Smirnov-Test2) durchgeführt. Für die Variable Ängstlichkeit (Anxiety) ist die
Normalverteilungsannahme nur mit Einschränkungen haltbar. P=20 %, d. h. mit einer
Wahrscheinlichkeit von 20 % ist die Ablehnung der Normalverteilungsannahme falsch. Die
2.2
ku
übrigen Variablen liegen normalverteilt vor.
Strukturgleichungsmodellierung nach Bentler (EQS)
2.2.1 Modellspezifikation
ww
w.
dr
In Abbildung 1 ist das hypothetisierte Modell abgebildet.
1
Scatterplot, Streudiagramm: Das Scatterplot ist ein häufig benutzter statistischer Plot. Zwei Variablen werden
gegeneinander verglichen, um die Daten zu untersuchen. Dies ist eine gute Hilfsmöglichkeit, um die Beziehungen
zwischen Variablen anzuzeigen, ihre lineare Beziehung zu bewerten und Ausreißer (Outliners) zu identifizieren. Der
Scatterplot im Rahmen von EQS zeigt den Plot, zeichnet die bivariate lineare Regressionsgerade, gibt obere und untere
Grenzen des 95%-Konfidenzintervalls an und zeigt die Regressionsgleichung.
2
K-S-Verteilungstest: Test auf Normalverteilung, der auf dem absoluten Wert der maximalen Differenz zwischen
der beobachteten empirischen (kumulativen) Verteilungsfunktion und der unter der Annahme einer Normalverteilung
erwartete Verteilungsfunktion. Die Korrektur nach Lillifors wird angewendet, die berücksichtigt, daß Mittelwert und
Varianz der Normalverteilung vorher aus den Daten zu schätzen sind.
e
pp
2.2.2.1 Parameterschätzung
er
.d
2.2.2 Testen des hypothetisierten Modells
Die Parameterschätzung erfolgte mit Hilfe der Maximum-Likelihood-Methode. Die Angabe
der Parameterschätzungen erfolgt im EQS-Programm in standardisierter Form, d. h. die
Varianz der Variable beträgt 1.0. Die Zahlen an den gerichteten Pfeilen in Abbildung 2
ku
entsprechen somit standardisierten Regressionskoeffizienten. Ein Sternchen (*) an den
Koeffizienten indiziert statistische Signifikanz in der unstandardisierten Lösung, d. h. der
Parameter ist für das Modell bedeutsam. Fixierte Parameter werden nicht auf Signifikanz
getestet.
dr
2.2.2.2 Modellbewertung
Obgleich sich zeigt, daß die Variable AGE einen starken Einfluß auf das Konstrukt HEALTH
w.
besitzt und daß die drei Variablen ILLNESS, ANXIETY und SATISFACTION gute
Indikatoren für HEALTH zu sein scheinen, ist das Modell statistisch zu verwerfen. Der ? 2Wert von 11.3 bei 2 Freiheitsgraden (p=0.0035) impliziert bei einem Signifikanzniveau von
5%, daß dieses Modell verworfen werden muß. Der Normal Fit Index (NFI) ist auch nur 0.79
ww
und der Comparative Fit Index (CFI) nur 0.80. Um so schwerer wiegt dieses Ergebnis bei der
geringen Stichprobe von N=23.
2.2.3 Modellmodifikation
2.2.3.1 Spezifikation des modifizierten Modells
Im Rahmen der Modellmodifikation soll nun mit Hilfe des Modells 2 in Abbildung 3 geprüft
werden, ob der Einfluß von AGE auf HEALTH möglicherweise indirekter Art ist, d. h. durch
die Drittvariable SATISFACTION vermittelt wird. Da im Rahmen von Modell 1 deutlich
wurde, daß die manifesten Variablen ILLNESS und ANXIETY durch die latente Variable
positiv beeinflußt werden, erweist es sich als sinnvoller die Konstruktbezeichnung in „BAD
er
.d
e
HEALTH“ umzubenennen.
In diesem Modell ist kein direkter Effekt von AGE auf BAD HEALTH enthalten. Der
Alterseffekt wird vollständig durch SATISFACTION vermittelt. Der indirekte Effekt von
AGE auf BAD HEALTH kann durch die Multiplikation der beiden Pfadkoeffizienten
pp
ermittelt werden. (V1-V4) • (V4-F1) = AGE ? BAD HEALTH, (-0.77) • (-0.67)= 0.52, d. h.
hohes Alter geht mit steigender schlechter Gesundheit einher. Interpretiert man die
Regressionskoeffizienten von links nach rechts, so erhält man folgende Erklärungen für
ältere Menschen sind zufriedener
Menschen mit schlechter Gesundheit sind unzufriedener
Menschen mit einem stärkeren Ausmaß an Krankheit zeigen häufig schlechte Gesundheit
ängstliche Menschen zeigen oft eine schlechte Gesundheit
dr
??
??
??
??
ku
direkte Effekte:
und folgende für indirekte Effekte:
w.
? ? ältere Menschen zeigen oft schlechte Gesundheit (und glauben öfters, daß sie eine schlechte
Gesundheit besitzen)
? ? Menschen mit einem höheren Ausmaß an Krankheit sind unzufriedener
? ? Menschen mit einer hohen Ängstlichkeit sind unzufriedener
ww
2.2.3.2 Modellschätzung und -bewertung
Im Gegensatz zu Modell 1 paßt dieses Modell sehr gut zu den Daten, was sich in einem ? 2Wert von 0.05 bei zwei Freiheitsgraden und einem p=0.98 (?=98%) und einem CFI=1.00 (S-B
? 2=0.06; S-Bp=0.97, Robust CFI=1.00).
2.3
Multiple Regressionsanalyse
2.3.1 Erstes Regressionsmodell
e
Da latente Variablen im Rahmen dieses Ansatzes nicht hypothetisiert werden können, wird
pp
er
.d
theoretisch vorausgesetzt, daß gesunde Menschen zufrieden sind und dann in Abbildung 4 die
Zufriedenheit (SATISFACTION) aus den Variablen AGE, ILLNESS und ANXIETY
vorhergesagt.
ku
Als vorbereitende Analyse wird zunächst mit Hilfe einer Varianzanalyse die Nullhypothese
getestet, ob in der Grundgesamtheit die Werte Koeffizienten gleich Null betragen.
Das Bestimmheitsmaß liegt sehr hoch mit r2=0.67, d. h. 67 % der Gesamtstreuung sind auf die
dr
erklärenden Variablen zurückzuführen und 33% auf in der Regressionsgleichung nicht erfaßte
Einflüsse. Das Modell wird nach dem F-Test für die gesamte Regressionsfunktion nicht
verworfen. Die Prüfung der einzelnen Koeffizienten ergab jedoch nur für die Variable AGE
w.
eine Signifikanz.
ww
2.3.2 Modellmodifikation
Da lediglich die Variable AGE einen akzeptablen Beitrag zur Vorhersage von
SATISFACTION leistet werden zusätzlich zwei Teilmodelle spezifiziert, durch die die
Einflüsse von ILLNESS und ANXIETY auf SATISFACTION getrennt überprüft werden.
e
Insgesamt existieren somit die drei Teilmodelle in Abbildung 5 Mit den Koeffizienten von
ANXIETY=0.604 und ILLNESS=0.587 sind die ? -Gewichte akzeptabel. Für die
er
.d
Parameterschätzungen werden statistische Signifikanzen ausgegeben.
Da sich das Modell nicht als gesamtes in der vorliegenden Struktur bestätigen läßt (d. h.
SATISFACTION = ? 1 ILLNESS + ? 2 ANXIETY + e) kann davon ausgegangen werden, daß
hinter den Variablen eine Größe zu vermuten ist, die den Einfluß auf beide Variablen steuert
(z. B. HEALTH oder vielmehr BAD HEALTH).
pp
Nach einer Integration der drei Einzelmodelle kommen wir in Abbildung 7 auch zu dem
ww
w.
dr
ku
Modell der Strukturgleichungsanalyse.
e
er
.d
Diskussion
pp
3
Es wurde anhand dieses kurzen empirischen Beispiels gezeigt, daß sich der Ansatz der
Strukturgleichungsmodellierung
sehr
viel
umfassender,
einfacher
anzuwenden
und
unmißverständlicher darstellt als der Analyseansatz der multiplen Regression. Mit dem
ku
Ansatz der Strukturgleichungsmodellierung können die Beziehung zwischen manifesten
Variablen und einer dahinterstehenden hypothetisierten Größe statistisch getestet werden.
Auch Modelle mit verschiedenen Nebeneinflüssen und Moderatoreffekten (i. S. indirekter
Effekte) können getestet und bewertet werden. Die Robustheit der Analysen wurde durch die
dr
Berechnung des Satorra-Bentler-? 2-Wertes und des Robust CFI ausgedrückt. Die
Parameterschätzung erfolgte in diesem Fall mit Hilfe der Robusten Maximum-Likelihood-
ww
w.
Methode.
4
Die Modellierung von Strukturgleichungen
4.1
Einleitung
e
Lineare Strukturgleichungsmodelle sind primär algebraischer Natur. Es handelt sich um
komplexe lineare Gleichungssysteme, die als Regressionsgleichungen als Komponenten
er
.d
bestehen (Bollen, 1989; Loehlin, 1992; Bentler, Wu & Houck, 1996), wie z. B. in folgender
Form:
V4=? 1V1+? 2V2+? 3V3+E4
d. h. die Variable 4 wird als Linearkombination der gewichteten Variablen V1, V2 und V3
vorhergesagt. Wenn ein Modell mehrere solcher Gleichungen benötigt, so können sie
pp
ökonomisch in Matrizenschreibweise zusammengefaßt werden. Im Standard-LISREL-Modell
nach Jöreskog & Sörbom (1993) werden diese Gleichungen über acht verschiedene Matrizen
abgebildet (? , ? , ? ? , ? ? , ? , ? , ? ? , ? ? ). Bentler & Weeks haben diesen formal
anspruchsvollen Ansatz durch die Verwendung von drei Matrizen vereinfacht. Im Rahmen
ku
des Bentler-Weeks-Ansatzes setzen sich die Modellparameter aus den Koeffizienten in den
Gleichungen sowie den Varianzen und Kovarianzen der unabhängigen Variablen zusammen.
In dem angeführten Beispiel setzen sich die Modellparameter aus den Koeffizienten ? 1, ? 2
und ? 3 und aus den Varianzen und Kovarianzen der Variablen V1, V2 und V3 zusammen.
dr
Neben dieser algebraischen Repräsentation von Strukturgleichungsmodellen existiert auch die
Möglichkeit einer Visualisierung in Form von Pfaddiagrammen. Die algebraische Form des
Pfaddiagramms in Abbildung 8 entspricht der o.a. Gleichung.
w.
Die „Modellierung von linearen Strukturgleichungen“ (Structural Equation Modeling, SEM)
ww
ist ein umfassendes Verfahren, um Hypothesen über das Verhältnis von manifesten und
Abbildung 8. Pfaddiagramm zur Gleichung:
V4=? 1V1+? 2V2+ ? 3V3+E4
latenten Variablen zu überprüfen. Diese Hypothesen werden typischerweise in Form eines
Pfaddiagramms abgebildet. Bereits Sewell Wright (1921), einer der bekanntesten Begründer
dieses Ansatzes, präferierte Pfaddiagramme zur Visualisierung von kausalen Beziehungen
Modellvariablen.
Der
SEM-Ansatz
basiert
auf
der
konfirmatorischen
e
zwischen
Faktorenanalyse, die 1966 durch Karl Jöreskog (1966) entwickelt wurde. Das Hauptmerkmal
Depression, Einstellungen, Erziehungsstil).
4.2
Grundlegende Konzepte
4.2.1 Latente versus beobachtbare Variablen
er
.d
linearer Strukturgleichungsmodelle ist die Berücksichtigung von latenten Variablen (wie z. B.
pp
Latente Variablen sind theoretische Konstrukte, d. h. abstrakte Konzepte, die nicht beobachtet
werden können und daher aus empirischen Messungen beobachtbarer Variablen geschlossen
werden müssen. Im allgemeinen Verständnis der latenten Variablen als Faktoren, können sie
als „hinter den beobachtbaren Variablen“ stehende Größen begriffen werden. Sie
ku
repräsentieren den Zusammenhang zwischen den beobachtbaren Variablen. Beispiele für
latente Variablen in der Psychologie sind Anorexia nervosa und Depression, in der Soziologie
soziale Klasse und Schicht oder in der Pädagogik Schulklima und Lehrererwartung. Da die
latenten Variablen unbeobachtbar sind, müssen sie indirekt gemessen werden. Dies wird
dr
dadurch erreicht, daß die latente Variable operational über eine oder mehrere beobachtbare
Variablen, die diese latente Variable möglichst hinreichend repräsentieren, definiert wird.
Dies kann über Antworten aus Fragebogen, kodierten Antworten auf Interviewfragen oder
w.
kodierten Bewertungen von Fremdbeurteilungsinventars (z. B. SKI/3). Diese erhobenen
Daten werden beobachtete oder manifeste Variablen genannt und dienen im Rahmen des
SEM-Ansatzes als Indikatoren für die dahinterstehenden Konstrukte (d. h. latente Variablen).
ww
Nach dieser kurzen Erörterung zum Verhältnis von manifesten und latenten Variablen sollen
im folgenden zur ältesten und weithin bekannten statistischen Prozedur zur Untersuchung
dieses Verhältnisses einige grundsätzliche Überlegungen angestellt werden, der Faktorenanalyse.
4.2.2 Faktorenanalytisches Modell
Bei der Benutzung der Faktorenanalyse untersucht der Forscher die Kovariation innerhalb
einer Menge von beobachteten Variablen, um über die „dahinterstehenden“ latenten
Konstrukte Informationen zu erhalten. Es existieren zwei Formen der Faktorenanalyse: die
exploratorische Faktorenanalyse und die konfirmative Faktorenanalyse. Beide Analysetechniken sollen kurz beschrieben werden.
Die exploratorische Faktorenanalyse wird dann verwendet, wenn der Forscher die Absicht
e
besitzt, Strukturen in einem Datensatz zu erkennen. Zunächst besitzt der Forscher noch keine
konkreten Vorstellungen über die Korrelationen der zu untersuchenden Variablen. Als
er
.d
Ursache dieser empirisch beobachteten Korrelationen werden lediglich hypothetische
Faktoren als verursachend angesehen. Der Forscher besitzt jedoch keine genaue Kenntnis von
diesen Faktoren. Das Hauptmerkmal der exploratorischen Faktorenanalyse besteht somit
darin, daß etwas entdeckt werden soll (nämlich die Faktoren) und daraus hervorgehend
Hypothesen generiert werden. Im Gegensatz zur exploratorischen Faktorenanalyse besitzt der
Forscher bei der Anwendung einer konfirmatorischen Faktorenanalyse bereits a priori
pp
konkrete Vorstellungen über mögliche hypothetische Faktoren (z. B. über andere empirische
Untersuchungen oder Theorien). Es werden somit Hypothesen über die Beziehungen
zwischen manifesten, beobachtbaren und latenten, nicht beobachtbaren Variablen aufgestellt.
Diese Hypothesen werden an einem empirischen Datensatz getestet. Der Grundgedanke der
ku
konfirmatorischen Faktorenanalyse besteht darin, daß etwas begründet werden soll (nämlich
die Beziehung zwischen beobachteten und latenten Variablen). Diese „Begründung“ erfolgt
über statistische Hypothesentestung.
dr
Zusammenfassend kann gesagt werden, daß der faktorenanalytische Ansatz auf die Art und
das Ausmaß der Beziehung zwischen manifesten und latenten Variablen (Faktoren)
fokussiert. Die Stärke der Regressionspfade von den Faktoren zu den beobachteten Variablen
w.
ist von vorrangigem Interesse. Im Rahmen des SEM-Ansatzes wird ein derartiges
konfirmatorisches faktorenanalytisches Modell als Meßmodell bezeichnet.
4.2.3 Vollständiges Strukturgleichungsmodell
Unterschied
zum
ww
Im
faktorenanalytischen
Modell
erlaubt
das
vollständige
Strukturgleichungsmodell die Ermittlung der Regressionsstruktur zwischen latenten
Variablen. Der Forscher kann in diesem Fall Hypothesen über die Wirkung von einer latenten
Variable auf eine andere aufstellen. Ein derartiges Modell wird als vollständig bezeichnet,
weil es sowohl das Meßmodell als auch das Strukturmodell berücksichtigt. Das Meßmodell
beschreibt die Beziehung zwischen latenten Variablen und ihren empirischen Messungen. Das
Strukturmodell stellt die Beziehungen zwischen den latenten Variablen dar.
4.2.4 Allgemeine Ziele und der Prozeß der statistischen Modellierung
Die Verwendung statistischer Modelle stellt einen sehr effizienten und bequemen Weg dar,
e
um die einer Menge beobachteter Variablen zugrundeliegende Struktur zu beschreiben. In
Form von Diagrammen oder mathematischen Gleichungen erklären diese Modelle, wie die
er
.d
beobachteten und latenten Variablen miteinander in Beziehung stehen. In der Regel postuliert
der Forscher ein statistisches Modell auf der Basis einer zugrundeliegenden Theorie, früherer
empirischer Forschungsergebnisse in diesem Bereich oder einer Kombination von beidem.
Nach dieser Modellspezifikation wird die Plausibilität des Modells an einem Datensatz
getestet (der alle beobachteten Variablen des Modells enthält). Die Hauptaufgabe dieses
modelltestenden Vorgehens besteht in der Ermittlung des sog. Goodness-of-Fit (Güte der
Anpassung) zwischen dem hypothetisierten Modell und dem Datensatz. Folglich unterstellt
pp
der Forscher dem Datensatz die Struktur des hypothetisierten Modells und testet
anschließend, wie gut sich die Daten an diese Struktur anpassen. Da eine perfekte Anpassung
zwischen den beobachteten Daten und dem hypothetisierten Modell erwartungsgemäß
unwahrscheinlich erscheint, wird die Diskrepanz zwischen diesen beiden Modellen als
zusammengefaßt werden:
ku
Residual ausgedrückt. Der Modellanpassungsprozeß kann demnach folgendermaßen
Daten = Modell + Residual
dr
wobei:
w.
? ? Daten repräsentieren die Messungen der beobachteten Variablen, die aus einer bestimmten
Merkmalsausprägung bei Personen resultiert.
? ? Modell stellt die hypothetisierte Struktur zwischen beobachteten und latenten Variablen dar, in
manchen Modellen auch die Struktur zwischen latenten Variablen.
? ? Residual gibt die Höhe der Differenz zwischen dem hypothetisierten Modell und den
beobachteten Daten an.
ww
Die mit diesem Modellanpassungsprozeß verbundene Theorie wurde in vielen Arbeiten
dargestellt. Zum Beispiel Bollen (1989), Hayduk (1987) oder Loehlin (1992).
Der Algorithmus einer Strukturgleichungsmodellierung stellt sich folgendermaßen dar.
4.3
Algorithmus
4.3.1 Modellspezifikation
e
Chronologisch betrachtet beginnt die Strukturgleichungsmodellierung mit der Spezifiztierung
eines Modells, mit dem die Anpassung der empirischen an die theoretische Verteilung
er
.d
abgeschätzt werden soll. Somit wird aus dem empirischen Stichprobenbefund die Verteilung
und Ausprägung der Merkmale in der Grundgesamtheit theoretisch berechnet.
4.3.1.1 Parameterfestlegung
Die Modellspezifikation führt im Rahmen des SEM-Ansatzes zu der Formulierung einer
Behauptung über eine Menge von Parametern. Diese Parameter werden gewöhnlicherweise
pp
als feste, restringierte oder freie Parameter spezifiziert.
dr
ku
? ? Die festen Parameter werden nicht durch die Daten geschätzt, sondern a priori numerisch
festgelegt. Häufig besitzen die festen Parameter einen Wert von Null. Falls jedoch zwischen
zwei Variablen aufgrund einer exploratorischen Faktorenanalyse, Theorien oder früherer
Untersuchungen eine kausale Beziehung erwartet wird, so wird der Wert für den
entsprechenden Parameter auf den Wert 1 gesetzt. Es empfiehlt sich auf jeden Fall den Wert für
die festen Parameter nicht zu niedrig zu wählen, damit der Schätzungsvorgang nicht bei einem
sehr geringen Wert beginnt und daher eventuell früher abgebrochen werden muß.
? ? Die restringierten Parameter sollen aus den Werten der beobachteten Variablen geschätzt
werden, aber dabei genau dem Wert eines oder mehrerer anderer Parameter entsprechen. Die
Gleichsetzung erfolgt vor dem Hintergrund, daß der Forscher aufgrund einer exploratorischen
Faktorenanalyse, Theorien oder früherer Untersuchungen stark vermutet, daß zwei Parameter
den gleich starken Einfluß („Ladung“) auf eine beobachtete Variable besitzen.
? ? Die freien Parameter werden aus den Werten der beobachteten Variablen geschätzt.
w.
4.3.2 Parameterschätzung
Die freien und restringierten Parameter sollen aus der Menge der erhobenen Daten geschätzt
werden. Dafür sind die iterativen Methoden, wie Maximum-Likelihood-Methode oder
ww
Methode der kleinsten Quadrate (Least Square), zu bevorzugen. Das Prinzip der MaximumLikelihood-Methode soll wie folgt zusammengefaßt werden:
Vom Statistikprogramm oder vom Forscher angegebene Startwerte (d. h.
Näherungswerte) für die unbekannten Modellparameter werden iterativ verändert, bis
die aus den geschätzten Parametern zurückgerechneten Kovarianzen (bei
Standardisierung = Korrelationen) den empirisch ermittelten Kovarianzen möglichst
gut entsprechen.
4.3.3 Bewertung der Modellanpassung
Das auf diese Weise spezifizierte und geschätzte Modell wird anschließend mit Hilfe
statistischer Kennwerte im Hinblick auf die Anpassung an die empirischen Daten
e
eingeschätzt. Am häufigsten wird die Chi-Quadrat-Prüfgröße (? 2) verwendet. Der Nachteil
multivariat
normalverteilt
vorliegen
er
.d
einer Chi-Quadrat-Statistik besteht jedoch in der Restriktion, daß die Beobachtungsdaten
müssen.
Im
Falle
der
Verletzung
dieser
Normalverteilungsannahme werden die Ergebnisse der statistischen Analyse stark verzerrt.
Verschiedene asymptotische Verteilungsmethoden (ADF, Browne, 1982, 1984), die aus
diesem Grund entwickelt wurden, können aufgrund der Forderung nach hohen
Stichprobenzahlen dieses Defizit nicht vollständig ausgleichen.
pp
Satorra & Bentler (1988) entwickelten eine korrigierte Form der Chi-Quadrat-Statistik (sog.
S-B ? 2). Ein besonderer Vorteil stellt das im EQS unter Windows (Bentler & Wu, 1995)
verfügbare korrigierte ? 2 bei der Analyse psychologischer Daten dar, für die eine Annahme
der multivariaten Normalverteilung oft nicht haltbar ist (Bentler et al., 1996; Hu, Bentler &
ku
Kano, 1992). Als Ergebnis dieser Kontroversen um einen geeigneten statistischen Kennwert
wurden neben dem Satorra-Bentler-? 2 zusätzliche Anpassungskennwerte entwickelt, die in
der Regel Werte zwischen 0 und 1 annehmen. Im Rahmen des SEM-Konzeptes nach Bentler
dr
(1995) wird der Comparative Fit Index (CFI) als der Index der Wahl vorgeschlagen.
Die genannten Zusatz-Indizes resultieren aus dem Vergleich der Anpassung des spezifizierten
Modells mit der Anpassung des Unabhängigkeitsmodells (sog. Nullmodell, Bentler & Bonett,
1980) an die empirischen Daten. Das Unabhängigkeitsmodell wird zur Abbildung von
w.
vollständiger Unabhängigkeit zwischen den Variablen herangezogen. Unter dieser Annahme
exisitieren demnach ebenso viele latente Variablen (oder Faktoren) wie beobachtbare
Variablen. Alle Korrelationen zwischen den Variablen betragen Null. Man spricht daher auch
ww
von dem Nullmodell. Anhand des Akaike Information Criterion (AIC, Akaike, 1987) erfolgt
im Rahmen der EQS-Software der maschinelle Vergleich dieser beiden Modellaussagen unter
dem Aspekt der Sparsamkeit einer Modellkonstruktion. Sparsamkeit heißt in diesem
Zusammenhang, ob durch die postulierten latenten Variablen tatsächlich ein ausreichend
großer Teil der Varianz aufgeklärt wird oder ob in die Schätzung der Pfadkoeffizienten zu
viele Parameter einbezogen wurden.
4.3.4 Zusammenfassung des Ablaufs: Ähnlichkeiten und Unterschiede (Vorteile)
gegenüber konventionellen statistischen Analysemethoden
Aus der Darstellung der Basiskonzepte können Ähnlichkeiten und Unterschiede zu den
e
konventionellen statistischen Ansätzen (z. B. multiple Regressions-/Varianzanalyse)
abgeleitet werden. Der SEM-Ansatz ist in folgenden Punkten den konventionellen
er
.d
statistischen Ansätzen ähnlich:
1. Basiert auf statistischen Modellen.
2. Es besteht keine Möglichkeit, die Kausalität statistisch zu testen (d. h. daß durch die
Ermittlung der statistischen Signifikanz einer Beziehung zwischen zwei Variablen – zwar ein
Hinweis aber – kein Maß für die eventuell zugrundeliegende Ursache-Wirkungs-Beziehung
gegeben wird. Die Ursache-Wirkungs-Beziehung wird eher durch die Logik, strenge Theorie
und methodologische Strategien etabliert.).
pp
In folgenden Charakteristika unterscheidet sich der SEM-Ansatz von den konventionellen
statistischen Ansätzen:
5
w.
dr
ku
1. Im Rahmen der Strukturgleichungsmodellierung wird ein statistisches Modell formal
spezifiziert und anschließend geschätzt und getestet (i. Ggs. Zur Multiplen
Regressionsanalyse: nur direkte Effekte werden auf einen Endwert [AV] spezifiziert). Diese
Spezifikation unterliegt geringen Restriktionen hinsichtlich der Typen von zu vermutenden
Beziehungen (direkte vs. Indirekte Effekte). Ein weiterer Vorteil von SEM ist in diesem
Zusammenhang die Möglichkeit, nochmals ausführlich über die Daten und die Hypothesen
nachzudenken.
2. Der größte Vorteil der Strukturgleichungsmodellierung im Vergleich zu den konventionellen
statistischen Ansätzen besteht in der Kapazität, Beziehungen zwischen latenten Variablen (d.
h. theoretischen Konstrukten) zu schätzen und zu testen.
3. Ein dritter Vorteil der Strukturgleichungsmodellierung gegenüber den herkömmlichen
statistischen Ansätzen besteht in der Robustheit gegenüber Verletzungen der
Normalverteilung. Die entwickelten robusten Schätzmethoden (wie die robuste MaximumLikelihood-Methode) sowie statistische Testmethoden (wie das korrigierte S-B ? 2, Satorra &
Bentler, 1988) und Bewertungsindizes (Robust CFI) können trotz einer Verletzung der
Normalverteilungsannahme auch bei kleinen Stichproben verläßlich angewendet werden.
Kurzübersicht zur linearen (multiplen) Regression
ww
Die lineare Regression wird dazu verwendet, die Werte einer abhängigen Variable aus einer
oder
mehreren
unabhängigen
Variablen
vorherzusagen.
Insbesondere
wird
die
Regressionsanalyse dazu eingesetzt, um Zusammenhänge zu erkennen und zu erklären sowie
die Werte der AV zu schätzen (d. h. zu prognostizieren). Im Rahmen der Regressionsanalyse
werden für jede der unabhängigen Variablen, die zu einem Vorhersagewert für jeden Fall
führen wird (d. h. so nah wie möglich am tatsächlichen Wert der AV), über ein Least SquaresKriterium eine Gewichtung (Koeffizient ? x) geschätzt. Ein Beispiel bildet die Frage, ob und
wie die Zufriedenheit von Patienten von dem Lebensalter, der Schwere der Krankheit und der
Ängstlichkeit der Patienten abhängt. In der Regressionsanalyse wird eine eindeutige Richtung
des Zusammenhangs zwischen den Variablen unterstellt, die nicht umkehrbar ist. Sie
überprüft somit eine unterstellte Struktur zwischen zwei oder mehreren Variablen (d. h.
e
direkte Effekte, i. Ggs. zu SEM, wo auch indirekte Effekte untersucht werden können). Die
lineare Regressionsanalyse unterstellt, daß zwischen Regressand (AV, erklärte Variable,
er
.d
Prognosevariable) und Regressor (UV, erklärende Variable, Prädiktorvariable) eine lineare
Beziehung besteht. Linearität bedeutet, daß sich Regressand und Regressor(en) nur in
konstanten Relationen verändern.
Zuerst sollte eine Varianzanalyse durchgeführt werden, um die Nullhypothese zu testen, ob
alle Koeffizienten sind in der Grundgesamtheit gleich Null sind (d. h. testen, ob das
5.1
pp
Populations-R2 signifikant größer Null ist).
Formulierung eines Modells
Auf der Grundlage von Vorüberlegungen des Forschers wird das zu untersuchende lineare
ku
Regressionsmodell entworfen. Dabei spielen ausschließlich fachliche Gesichtspunkte eine
Rolle. Die Regressionsgleichung besitzt folgende Form:
Y = b0+b1x1+b2x2+...bj xj+...bJxJ
dr
b0= konstantes Glied, das den Y-Wert für X=0 angibt
b1= Regressionskoeffizient, der die Neigung der Geraden bestimmt (d. h. um
5.2
w.
wieviel ändert sich y, wenn sich x um eine Einheit ändert)
Schätzung der Regressionsfunktion
Die Aufgabe der multiplen Regressionsanalyse lautet, daß die Parameter b0, b1, b2, ...bj so
ww
bestimmt werden, daß die Summe der Abweichungsquadrate minimiert wird.
k
?
K? 1
ek2 ?
k
?
k? 1
[ y k ? y k ]2 ? min!
?? ?
Als Ergebnis weist die Regressionsanalyse die Koeffizienten der Regressionsgleichung aus. In
einer groben Augenscheinanalyse können bereits erste Anhaltspunkte für die unterschiedliche
Stärke des Zusammenhangs zwischen Regressor und Regressand gegeben werde. Je größer
der absolute Betrag des Regressionskoeffizienten ist, desto stärker ist der vermutete Einfluß
auf die AV. Um eine direkte Vergleichbarkeit der numerischen Werte zu ermöglichen,
werden die Koeffizienten in standardisierte Regressionskoeffizienten umgeformt.
Prüfung der Regressionsfunktion
e
5.3
An die Schätzung der Regressionsfunktion schließt sich die Frage an, ob der unterstellte
er
.d
lineare Zusammenhang in der Stichprobe zu einer befriedigenden Erklärung der
Stichprobenwerte führt und ob die Regressionsfunktion der Stichprobe eine brauchbare
Schätzfunktion für den „wahren“ Zusammenhang in der Grundgesamtheit darstellt. Um diese
Fragen zu beantworten wird zunächst mit Hilfe statistischer Testverfahren die Qualität der
Regressionsgleichung als ganzer geprüft. Als Testkennwert wird das Bestimmtheitsmaß r2
ermittelt. Fällt dieser Test unbefriedigend aus, so ist der gesamte Regressionsansatz
Regressionsfunktion
an
die
pp
unbrauchbar. Das Bestimmtheitsmaß trifft eine Aussage darüber, wie gut sich die
empirische
Punkteverteilung
anpaßt
bzw.
wieviel
Restschwankung übrig geblieben ist. Es kann Werte im Bereich von 0 bis 1 annehmen. Im
Fall von r2= 1 wird die gesamte Streuung erklärt. Z. B. ein r2= 0,35 besagt, daß 35 % der
ku
gesamten Streuung auf die erklärende Variable Alter und 65 % auf in der
Regressionsgleichung nicht erfaßte Einflüsse zurückzuführen sind.
dr
Fehlerpotential: Der Wert des Bestimmtheitsmaßes kann also auch mit der
Aufnahme von irrelevanten Regressoren nur zunehmen bzw. nicht abnehmen. Daher
wurde ein korrigiertes Bestimmheitsmaß entwickelt, daß diese Fehlerquelle
weitestgehend minimiert.
Die Prüfung der Regressionsfunktion als ganzer erfolgt mit dem F-Test, der die H0 prüft, daß
w.
in der Grundgesamtheit die Regressionskoeffizienten ? 1...? J alle Null sind (d. h. kein
Zusammenhang zwischen AV und UV besteht). Mit dem F-Test wird folglich die
Erklärungskraft der Regressionsgleichung insgesamt überprüft (d. h. die Güte der Schätzung
ww
der Y-Werte aus den X-Werten wird überprüft).
5.4
Prüfung der Regressionskoeffizienten
Wenn die Prüfung der Regressionsfunktion insgesamt nicht zum Verwerfen des
Regressionsmodells führt, werden die einzelnen Koeffizienten getestet. Es wird auf der
Grundlage Stichprobenergebnisse überprüft, ob die Regressionskoeffizienten in der
Grundgesamtheit einen bestimmten Wert annehmen, in der Regel ? j= 0 (Nullhypothese).
5.5
Prüfung der Prämissen des linearen Regressionsmodells
Folgende zwei Fälle können eintreten:
er
.d
? ? Overfitting: Das Modell enthält zu viele erklärende Variable.
? ? Underfitting: Das Modell enthält zu wenige erklärende Variable.
e
5.5.1 Nicht korrekte Spezifizierung des Modells
Solange das Ergebnis nicht aufgrund fachlicher Überlegungen widersprüchlich ist (z. B.
falsches Vorzeichen eines signifikanten Koeffizienten) besteht somit auch kein Grund, eine
sachlich begründete Hypothese zu verwerfen.
pp
5.5.2 Nicht-Normalverteilung der Variablen in der Grundgesamtheit
Wenn die Bedingung der Normalverteilung verletzt ist, sind die Prüfgrößen der o.a.
Testverfahren nicht anwendbar. Die Prüfergebnisse von F-Test und t-Test sind ungültig.
ku
5.5.3 Nichtlinearität
Nichtlinearität kann zum einen auftreten, wenn sich die Beziehung zwischen AV und UV am
ehesten durch eine Kurve annähern läßt (z. B. Wachstums-/sättigungsbedingte Effekte).
dr
Weiterhin kann im Mehr-Variablenfall die Situation eintreten, daß sich die Wirkungen von
UV nicht additiv verknüpfen. Als Folge von Nichtlinearität findet eine Verzerrung der
Schätzwerte der AV statt.
w.
5.5.4 Multikolinearität
Das lineare Regressionsmodell basiert auf der Prämisse, daß die Regressoren nicht exakt
linear abhängig sind, d. h. daß sich ein Regressor als lineare Funktion der übrigen
ww
Regressoren darstellen läßt. Bei empirischen Daten besteht immer ein gewisser Grad an
linearer Abhängigkeit (Kolinearität). Die Multikolinearität wird erst dann zum Problem, wenn
eine starke Abhängigkeit zwischen den UV besteht (d. h. die Korrelationskoeffizienten der
der Korrelationsmatrix sind nahe ? 1? ). Je stärker die Multikolinearität ist, desto größer
werden die Standardfehler der Regressionskoeffizienten und somit die Schätzung
unzuverlässiger (d. h. Ineffizienz der Schätzwerte). Bei kompletter Multikolinearität ist die
Regressionsanalyse (mit den betroffenen Variablen) rechnerisch nicht durchführbar.
Bei steigendem Standardfehler sinkt auch die Aussagekraft des Regressionskoeffizienten. Es
kann im Falle der Multikolinearität vorkommen, daß das Bestimmtheitsmaß r2 der
Regressionsfunktion signifikant ist, obgleich alle Koeffizienten in der Funktion nicht
e
signifikant sind. Zur Lösung des Problems der Multikolinearität können eine oder mehrere
er
.d
weniger wichtige Variablen aus der Regressionsgleichung entfernt werden.
5.5.5 Autokorrelation
Die Residuen in der Grundgesamtheit sind nach der Annahme des Regressionsmodells
unkorreliert. Sollte diese Bedingung nicht gegeben sein, so wird von Autokorrelation
gesprochen. Die Autokorrelation führt zu erheblichen Verzerrungen bei der Ermittlung des
Standardfehlers der Regressionskoeffizienten und damit auch bei der Bestimmung der
pp
Konfidenzintervalle für die Regressionskoeffizienten. Die Prüfung auf Autokorrelation kann
mit dem Durbin-Watson-Test erfolgen. Über die Ermittlung eines empirischen Wertes d (der
die Differenz zwischen den Residuen von aufeinanderfolgenden Beobachtungswerten angibt)
kann die H0 getestet werden, daß die Beobachtungswerte nicht autokorreliert sind (z. B. in
ku
Zeitreihen: Die Abweichung von der Regressions-(Trend-)Geraden sind dann nicht mehr
zufällig, sondern in ihrer Richtung von den Abweichungen abhängig, z. B. des
vorangegangenen Beobachtungswertes). Folge ist demnach die Ineffizienz der Schätzwerte.
dr
5.5.6 Heteroskedastizität
Heteroskedastizität liegt dann vor, wenn die Streuung der Residuen in einer Reihe von Werten
der prognostizierten abhängigen Variable nicht konstant ist. Die Prämisse des linearen
w.
Regressionsmodells verlangt, daß die Varianz der Fehlervariablen e für alle k homogen ist (d.
h. die Residualgröße darf in ihrer Streuung nicht von dem Betrag bzw. der Reihenfolge der
Beobachtungen der UV beeinflußt werden). Beispiel: Bei der Messung der Zufriedenheit bei
ww
älteren Probanden treten zunehmend Meßfehler infolge mangelnder Aufmerksamkeit auf, was
wiederum zu einer zunehmenden Residualgröße führen würde.
Heteroskedastizität verfälscht den Standardfehler des Regressionskoeffizienten und verfälscht
somit die Schätzung des Konfidenzintervalls. Die Aufdeckung der Heteroskedastizität
geschieht mit dem Geldfeld-Quandt-Test, bei dem die Varianz der Residuen in zwei
Untersuchungsstichproben gegeneinander verglichen wird.
Herunterladen