Was ist eine multiple Korrelation

Werbung
Statistik II
Was ist eine multiple
Korrelation?
Beispiele für multiple
Korrelation
Karin Pilz







befasst sich mit dem Zusammenhang mehrerer Variablen untereinander
Voraussetzung für multiple Regression
Nullkorrelation (kein geeigneter Prädiktor, keine inkrementelle Validität
1 Prädiktor korreliert
inkrementelle Validität
keine inkrementelle Validität
Suppressor Effekt (Prädiktor korreliert nicht mit Kriterium aber mit anderem
VENN-DIAGRAMM lesen
Prädiktor
eine
Korrelation von 2 Variablen wird meist durch eine 3. Variable beeinflusst
Partialkorrelation rx1y.x2
durch Konstanthalten/Eliminieren der Drittvariablen wird diese aus beiden
Fragestellung
anderen herauspartialisiert

wie hoch ist der Gewichtsverlust Y vom Training X1 ab, wenn alle gleich
viel Kalorien X2 zu sich genommen hätten?
Korrelation der Variablen x1 und y nachdem x2 nur aus y herauspartialisiert
Semipartialkorrelation
wurde
rx1(y.x2)

Wie viel Varianz des Gewichtsverlustes y erklärt das Training x1
Fragestellung
zusätzlich zur Kalorienaufnahme x2?
Wie viel Varianz der abhängigen Variable (Kriterium) können durch die
Multiple Korrelation R y.x1x2
beiden UVs (Prädiktoren) gemeinsam aufgeklärt werden?

der multiple Korrelationskoeffizient erfasst den Zusammenhang zwischen
mehreren Prädiktorvariablen und einem Kriterium
Multiple Regression

Frage nach der Vorhersage einer aV durch mehrere uV
R

R: vereinigter Zusammenhang aller Prädiktoren mit dem Kriterium
R2

R2 : Anteil der durch alle Prädiktoren aufgeklärten Varianz (Maß für die
Güte der Vorhersage bei der multiplen Regression)

R2y.x1x2 = r2yx1 + r2y(x1.x2)

Bestimmung über Kriterium der kleinsten Quadrate

(yi-y^i)2 = e2i
inkrementelle Validität
eine Variable besitzt inkrementelle Validität, wenn ihre Aufnahme als Prädiktor
(zusätzlich) den Anteil an Varianz (R 2) am Kriterium erhöht
R2y.x1x2 > r2yx1
Kriterium der kleinsten
Bei der Bestimmung der Vorhersagegerade wird das Kriterium der
Quadrate
kleinsten Quadrate angewandt, weil man die Summe der quadrierten
Vorhersagefehler minimieren will. Der Vorhersagefehler ist dabei die mittlere
quadrierte Abweichung der tatsächlichen y-Werte vom vohergesagten yWert
y^i = b1xi1 + b2xi2 + b3xi3+....+bkxik + ai (y = bx + a)
Strukturgleichung
yi = b1xi1 + b2xi2 + b3xi3+....+bkxik + ai + ei(y = bx + a)
Regressionskoeffizienten (b) 
b-Gewichte der Prädiktorvariablen sind das relative Gewicht einer
Prädiktorvariablen in der Vorhersage

Regressionsgewichte werden mit t-test auf Signifikanz geprüft
Regressionskonstante (a)

kann man errechnen durch Umstellen der Strukturgleichung

wird auch mit t-test auf Signifikanz geprüft
standardisierte

zyi = 1zi1 + 2zi2....+ k zik
Regressionsgewichte Beta

Vorteil: -Gewichte können wie Korrelationskoeffizienten interpretiert
werden, können nur Werte zwischen –1 und +1 annehmen, Konstante a
entfällt, weil MW z^y = 0
Signifikanztest bei multiple

durch F-Test über Zerlegung der Varianz des Kriteriums in erklärbare und
Regression und Korrelation
nicht erklärbare Varianz

SS total = SS reg + SS res

SStotal = (yi-yquer)2

SSreg =  (y^i - yquer)2 MSreg = SSreg / K (Anzahl der Prädiktoren)

SSres = (yi-y^)2 MSres = SSres / N-K-1 (N = Anzahl der Probanden)

F-Test = MSreg / MSres bzw F = R2/dfZähler / (1-R2)/dfNenner ;

R2 = SSreg / SStotal durch Umformen: SSreg = R2 / 1-R2 x SSres
2
korrigiertes R
R überschätzt Populationszusammenhang (Stichprobe zu Stichprobe oder
Population)

je kleiner Stichprobe und je größer die Anzahl der Prädiktoren, desto
größer die Überschätzung von R2

Empfehlung von N/K mind. 20

Korrekturformel anwenden (Schrumpfungskorrektur)
Seite 1 von 11
Statistik II
Capitalization of Chance
Wie kann man die b-Gewichte
prüfen?
Strategien der multiplen
Regression
Karin Pilz


einzelnen Korrelationen nicht fehlerfrei
bei Berechnung werden Prädiktoren, die zu hoher Korrelation führen,
bevorzugt, dadurch auch Erhöhung derFehler

Folge: systematische Überschätzung von R2
durch Kreuzvalidierung überprüfen der externen Validität

a priori Auswahl: theorie- und evidenzgeleitet werden inhaltlich
bedeutsame Prädiktoren aufgenommen ---- Einschlussverfahren
Vorteil: keine Capitalization of chance
Nachteil: F-Wert mindernd, weil evtl. zu viel Prädiktoren Folge: Power nimmt
ab

a posteriori: Prädiktorauswahl erfolgt über mehrere Regressionsanalysen
mit versch. Prädiktorsätzen:
Selektionsstrategien: Schrittweise Regression: Vorwärts Selektion,
Rückwärts Eliminieren (hierbei wird schrittweise nach jeder Aufnahme eines
Prädiktors über forward und backward untersucht, ob auf einen Prädiktor
verzichtet werden kann. Vorgang abwechselnd. Dadurch können Prädiktoren,
die ursprünglich viel Varianz aufgeklärt haben, jedoch durch Hinzunahme
SPSS-Ausgabe
weiterer überflüssig geworden sind, wieder herausgenommen werden
Interpretation
Nachteil: Capitiization of Chance, überprüfen durch Kreuzvalidierung
(Grundannahmen ALM

Der beobachtete Wert einer Vp in der aV setzt sich zusammen aus:
Strukturgleichung der ALM,
Gesamtmittelwert, Summe von gewichteten Weten der uV und einem
Matrixcodierung)
individuellen Fehler

Frage nach Unterschieden zwischen mehreren Gruppen

nach der ALM kann der Wert der aV für VPi in der Bedingung j geschätzt
werden als: yij = a0 + aj(gruppenspez. Effekt) + eij (Fehler)
Nicht wichtig (es gibt 2

a0 = yquer; aj = yiquer – yquer Effekt: Abweichung vom Gr.MW zum
unterschiedliche
GesamtMW, durch die Größe des Effekts, wie stark sich Teilgr. vom
Herangehensweisen:
Gesamtgr. unterscheiden

Strukturgleichung

daraus folgt: yij = yquer + (yiquer – yquer) + eij; Y = Xa +e

Quadratsummenzerlegun
a: Effekte
x: Indikatorvariable / Faktor
g

yi = a0xi0 + a1xi1 + a2xi2 + ....ap xip + ei (y=aV; p:Anzahl der uVn; xij:
werte von Person i auf der uVj)

Matritzenschreibweise: Y = X*a + e
(Randbedingungen der

Bedingung der kleinsten Quadrate, d.h. eine möglichst gute Schätzung der
Strukturgleichung)
Gruppenwerte durch Effekte:  e2i = minimal

Mittelwert der Fehler (eij) ist 0 (equerij = 0)
Nicht wichtig

Mittelwert der Effekte (aj) ist 0: aj = 0
(Dummy- und Effektcodierung) 
Dummycodierung: Effekt für letzte Gruppe kann nicht mehr angegeben
werden (nur verwenden, bei letzter Gruppe: KG) : yij = a0 + eij

Effektcodierung: alle Effekte spielen mit hinein: y13 = a0 + a3 + e13 (a1
Nicht wichtig
+ a2 +a3 = 0) yij = a0 + aj+ eij (Placebo)
Voraussetzungen der

mind. Intervallskalenniveau und Normalverteilung in der Stichprobe bei
Varianzanalyse
der aV

mind. 20 Elemente pro Gruppe / Zelle

ähnlich stark besetzte Gruppen / Zellen: nmax / nmin < 1,5

Varianzhomogenität der aV zwischen den einzelnen Stichproben
Vorgehen/Ablauf wichtig
(Levene, Bartlett, Hartley)
einfaktorielle Varianzanalyse bei Vergleich von Mittelwerten (2 Gruppen) entspricht Anova dem T-Test: F = t2
bei mehr Vergleichen entsteht alpha-Fehler Kummulierung oder Inflation
alpha-Fehler Inflation
bei mehr als 2 Vergleichen besteht die Gefahr fälschlicherweise einen
signifikanten Effekt (alpha=0,05) zu finden:
bei 3 Vergleichen:
die Wahrscheinlichkeit keinen Fehler zu machen: p(kein Fehler)= 1-alpha =
0,953 = 0,86
die Wahrscheinlichkeit mind. 1 Fehler zu machen: p(Fehler)= 1-p(kein Fehler)
= 1-(1-alpha)3 = 0,14
Bonferroni Korrektur

alpha-Niveau für jeden einzelnen Test herabsetzen

Nachteil: sehr niedriges alpha-Niveau, dadurch hohes beta und niedrige
Teststärke
Seite 2 von 11
Statistik II
Hypothesen der
Varianzanalyse
Karin Pilz
Ho:

alle Mittelwerte sind gleich: i =
j für alle i, j entspricht: σ2(µ) = 0

alle Effekte sind 0: i = 0 für alle
i

(Erwartungswerte)
Nicht wichtig
Erklärt, was hinter F-Test
steckt (Herleitung)
Für Durchführung der Anova
irrelevant

2
ist 0: Varianz von Effekt = 0
H1:

i ungleich j für mind. 1 Paar

mind. 1 Effekt ungleich 0: alphai
ungleich 0 für mind. ein i


2 > 0
ungerichtete Alternativhypothese,
sonst über Kontraste richten

Erwartungswerte schätzen, welche Werte unter der Bedingung Ho zu
erwarten sind

Vorgang: wenn man immer wieder würfelt und sich die Zahlen notiert, dann
kann man daraus einen Erwartungswert berechnen (Mittelwert)

bei Ho gilt: Mittelwerte gleich, Effektvarianz gleich 0
1.bei 2 Populationsverteilungen 1 = 2 = 7,5; identi. Fehlervarianzen: 21 = 2
2 = 2.25
2.aus jeder Pop wird eine Stichprobe N = 5 gezogen und die Varianz zwischen
Bed. gerechnet
3.Vorgang wird sehr oft wiederholt und Mittelwert (Erwartungswert) der beiden
Varianzen berechnet:
Varianz innerhalb: E(2^ innerhalb)=
2 innerhalb = 2 Fehler = 2,25
Varianz zwischen: E(2^ zwischen)= n2Effekt + 2 Fehler = 2,25, weil unter Ho ist
Effektvarianz = 0

unter Ho schätzt die Stichprobenvarianz innerhalb der Gr. die
Fehlervarianz in der Population

die Stichprobenvarianz zwischen den Gr. schätzt ebenfalls die
Fehlervarianz in der Population (weil Effektvarianz = 0)
bei H1 gilt: Mittelwerte ungleich, Effektvarianz > 0


2 Pop.verteilungen: 1=5; 2=10; Varianzen sind gleich = 2,25
nach mehrmaliger Ziehung wurde der Mittelwert (Erwartungswert) berechnet

E(2^ zwischen)= n2Effekt + 2 Fehler



= 2Effekt = (i- )2 / p-1= (5-7,5)2 + (10-7,5)2 / 1 = 12,5 dann oben
einsetzen = 64,75
unter H1 schätzt die Stichprobenvarianz innerhalb die Fehlervarianz in
der Pop
Stichprobenvarianz zwischen schätzt die Summe aus Effekt- und
Fehlervarianz in Pop

2zwischen/2innerhalb schätzt n2Effekt+ 2Fehler / 2 Fehler
wenn 1 herauskommt, gibt es keinen Effekt, also Ho (F=1)
wenn > 1, gibt es einen Effekt (F>1) Femp > Fkrit dann signifikanter Effekt
Fkrit abhängig von dfZähler und dfNenner
Levene Test


1.
2.
Interpretation der H1 in
Varianzanalyse bei mehr als
2 Gruppen
1.
2.



ist eine Varianzanalyse über die Abweichung der individuellen
Messwerte vom Gruppenmittelwert: dij = Iyij-yquerjI
Ho: dquer1 = dquer2=....dquerj
Berechnen in neuer Tabelle, F-Test: MSbetween / MS within
wird Levene-Test signifikant p<0,05, dann Annahme der
Varianzhomogenität verletzt
hier ist nicht klar, wo der Unterschied liegt
Lösung: Vergleich der einzelnen Mittelwerte:
a priori: Kontraste
post hoc: Tukey (sign. bei d> HSD), Scheffé
(t-test)
Seite 3 von 11
Statistik II
Karin Pilz
Vor- und Nachteile Kontraste
/ post-hoc Tests
Zeitpkt
Vorteil
Berechnung der Anzahl der
möglichen Vergleiche bei
mehreren Stichproben
Effektstärke der Anova
Bezeichnung der aufgeklärten
Varianz bei der Anova
Formeln und df der
einfaktoriellen
Varianzananlyse
Kontraste:
a priori; strukt. ,
hypothesengel. Vorgehen
teststark, da keine alpha –
Adjustierung wg. der
Unabhängigkeit d. K
Nachteil begr. Anzahl von
Mittelwertsvergleichen , bei p
Gruppen p-1 mögliche
Kontraste
weniger teststark, da alphaAdjustierung wg. abhängigen posthoc tests,
Bed.:
lässt nur paarweise MW Vergleiche
zu
Gewichte in jd. Zeile
addieren sich zu 0,
paarweise Unabhängigkeit,
PSIdach ^
(p)
m = (2) = p! / 2! (p-2)! bei 4 Gruppen: 1x2x3x4 / 1x2 (4-2)! = 6
bei signifikantem Ergebnis, stellt sich die Frage nach der Effektstärke:

H1: es besteht ein bedeutsamer Zusammenhang zwischen uV und aV (uV
erklärt bedingten Anteil der Varianz der aV)

Anteil aufgeklärter Varianz R2 kann als Maß für die Effektstärke interpretiert
werden (auch Effektvarianz genannt)
Eta2 2 = R2 = SSbetween / SStotal
auch aus F-Wert berechnet: Eta2 = F(p-1) / F(p-1) + (N-p) (p = Anzahl der Gr.
und N= Anzahl der Vp)

die errechnete Varianz Eta2 überschätzt den Effekt in der Population

korrigiertes R2 (Schrumpfungskorrektur) = Omega dach
n
p
SStotal =   (yij – yquer)2
i=1 j = 1
n
SSbetween =  (yquerj – yquer)2
n
j=1
p
SSwithin =   (yij – yquerj)2
i=1 j = 1
Zusammenfassung Anova
Zusammenfassung
Varianzanalyse
Tukey, Scheffé:
post-hoc formuliert; exploratives
Vorgehen zum Generieren neuer
Hypothesen
uneingeschränkte Anzahl von
Mittelwertsvergleichen
N:
n:
Anzahl Probanden
Anzahl Probanden in jeder Zelle
des Versuchsplans
p:
Anzahl der Stufen des Faktors
SS sind additiv
df sind additiv
MS / Varianzen sind nicht additiv!!!!
dftotal = N – 1 bzw. n x p -1
dfbetween = p – 1
dfwithin= N – p
MS = SS / df (für alle SS)
Femp = MSbetween / MS within
Voraussetzungen:

intervallskalierte aV und normalverteilt

homogene Varianzen

n > 20 (schauen, ob vollständig gekreuzt-alle Zellen besetzt und
balanciert

nmax / nmin < 1,5
Gruppenvergleiche nach signifikantem F-Test:

Gruppenunterschied bedeutsam, wenn d > Tukey´s HSD
Anteil aufgklärte Varianz R2: Effektstärkenmaß:
H1: es besteht ein bedeutsamer Zusammenhang zwischen uV und aV bzw. Die
uV erklärt einen bedeutsamen Anteil der Varianz der aV

unkorrigiertes 2 = R2 = SSbetween / SStotal (aufgeklärter
Varianzanteil)

Korrigiert: ^ = Omega dach (Schrumpfungskorrektur)
Erwartungswerte:

s2 zwischen schätzt 2 Effekt + 2 Fehler


s2 zwischen schätzt 2 Fehler
mit Hilfe der Anova werden bei mehr als 2 Stichproben die Mittelwerte auf
Signifikanz überprüft (mit F-Test)
durch Effektcodierung werden Mittelwertsunterschiede der Gruppen
bestimmt
wichtigste Grundlage: die Quadratsummenzerlegung: über SS wird mit
Hilfe der df die jeweilige Varianz berechnet
feste Effekte: wenn alle Stufen des Faktors(uV) realisiert werden
(diskret Variablen wie Geschlecht, Wohnort)


Feste und Zufallseffekte Def. 
Seite 4 von 11
Statistik II
Karin Pilz

Unterschiede feste /
Zufallseff.
Zweifaktorielle
Varianzanalyse
Darstellung der Mittelwerte
Haupteffekt A
Haupteffekt B
Zelleneffekt
Interaktionseffekt
Beispiel Interaktion:
Strukturgleichung 2-faktoriell
Quadratsummenzerlegung
Hypothesen bei 2-faktoriell
Zufallseffekte: uV hat keine festen Abstufungen (kontinuierliche
Variablen wie Extraversion, Alter, Alkoholkonsum)

Beispiel: Alter und Klausurerfolg

bei der einfaktoriellen Anova gibt es keinen Unterschied zur Analyse
mit festen Effekten
feste Effeke:
Zufallseffekte:

einige Stufen werden aus vielen

alle möglichen/interessierenden
möglichen Stufen ausgesucht
Stufen e. Faktors werden realisiert

keine Generalisierung auf nicht

Generalisierbarkeit ist gegeben
realisierte Stufen

Summe der Effekt ist Null

Summe der Effekte muss nicht
0 sein

Ho: alle Effekte sind 0 (j = 0, für

Ho: Varianz der Effekte ist 0
alle j)
(2 = 0)

bei mehreren nominalskalierten uVs und einer intervallskalierten aV --mehrfaktorielle Varianzanalyse (aber nij > 20)

berechnet werden können Haupteffekte und Interaktionseffekte

Interaktionseffekt gibt an, ob die einzelnen Bedingungskombinationen
über den Einfluss der Haupteffekte hinaus spezifische Effekte haben

auch für Interaktionseffekt kann SS berechnet werden, daher hier auch Ftest möglich

Interaktionen: ordinal, disordinal, hybrid
B1 Strukt B2 bildhaft
B3 emotional Randmittelwerte
k=1
k=2
k=3
A1: m. j=1 yq11 = 5
yq12 = 10
yq13 = 12
yq1. = 9
A2: w. j=2 yq21 = 6
yq22 = 11
yq33 = 13
yq2. = 10
yq.1 = 5,5 yq.2 = 10,5
yq.3 = 12,5
yq.. = 9,5(Gesamt
MW)
Zellen- und Randmittelwerte

aj = yqj. – yq.. ; a1 = yq1. – yq.. = -0,5 ; a2 = yq2. – yq.. = +0,5

Summe der Effekt ist Null wie bei einfaktoriell

bj = yq.k – yq.. ; b1 = yq.1 – yq.. = -4 ; b2 = yq.2 – yq.. = 1; b3 = yq.3 – yq.. = 3

Summe der Effekte gleich Null
eine Kombination bestimmter Stufen der Faktoren A und B:

{ab}jk = yqjk – yq.. ; z.B. {ab}11 = 5-9,5 = -4,5 ....

Summe der Effekte ist gleich Null

Zelleneffekt nicht aussagekräftig, da von Haupteffekten beeinflusst

gibt die Wirkung der Kombination bestimmter Faktorstufen über die
Haupteffekte hinaus an

Differenz der Zelleneffekte und der beteiligten Haupteffekte:

(ab)jk = {ab}jk – aj – bk

= (yqjk – yq..) – (yqj. – yq..) – (yq.k – yq..)

= yqjk - yqj. - yq.k + yq..

Summe der Effekte ist gleich Null
2 Medikamente (M1 und M2), getestet an Männern und Frauen

es gibt keinen Unterschied zwischen den Geschlechtern und Medikamenten

aber Wechselwirkung: bei Fr. wirkt M1 gut, M2 kaum; bei Männern
entgegengesetzt
yijk = yq.. + aj +
bk
+ (ab)jk
+ eijk
yq.. + (yqj. – yq..) + (yq.k – yq..) + ( yqjk - yqj. - yq.k + yq..) + eijk
für jede VP kann man den einzelnen wert schätzen, also rückwärts gehen, denn
nur mit Fehler hat man den genauen Wert

F-Test bei Haupteffekten und Interaktionseffekten berechnen:
SStotal = SSFaktorA + SSFaktorB + SSAxB + SSwithin
es gibt 3 Nullhypothesen:

Ho für Faktor A: j = 0 für alle j oder: Randmittelwerte: 1. = u2.=...= p.

Ho für Faktor B: k = 0 für alle k oder .1 = .2=...= .q

Ho für AxB: ()jk = 0 für alle jk (Kombinationen) oder
jk = j.+ .k - ..
ZellenMW = MWj + MWk - GesamtMW
Interaktionsformen

ordinale Interaktion: beide Haupteffekte sind global(über alle Stufen
hinweg) interpretierbar
Diagramm: der gleiche „Trend“ für beide Linien in beiden Diagrammen zu
sehen ist (geordnet)
Seite 5 von 11
Statistik II
Karin Pilz



Formeln 2-faktoriell
hybride Interaktion: nur einer der beiden Haupteffekte ist global
interpretierbar; Diagramm: in einem Diagr. gleicher Trend und im anderen
entgegengesetzter Trend
disordinale Interaktion: Keiner der beiden Haupteffekte ist
interpretierbar ; Diagramm: unterschiedliche Trends für beide Linien in
beiden Diagrammen (ungeordnet)
keine Interaktion: wenn Linien im Diagramm parallel laufen
n p q
SStotal =   (yijk – yq..)2
i=1 j=1 k=1
dftotal = N-1 bzw. n x p x q - 1
p
SSA =  nj (yj.– yq..)2
j=1
dfA = p -1
N : Anzahl Probanden
n: Anzahl Probanden in jeder Zelle
des Versuchsplans
p: Anzahl der Stufen des Faktors A
q: Anzahl der Stufen des Faktors B
p
SSB =  nk(y.k – yq..)2
k=1
dfB = q - 1
p
q
SSAxB =   njk(yqjk - yqj. - yq.k + yq..)2
j=1 k=1
dfAxB = (p - 1) ( q - 1)
n jk p q
SSwithin =   (yijk – yqjk)2
i=1 j=1 k=1
Interpretation am besten mit
Diagramm
MS = SS / df
Femp = MSbetween / MS within
Faktor A
Faktor B
Faktor AxB
A fest,
F= MSFaktorA /
F= MSFaktorB /
F= MSFaktorAxB /
B fest
MSwihtin
MSwithin
MSwithin
A zufällig
F= MSFaktorA /
F= MSFaktorB /
F= MSFaktorAxB /
B zufällig
MSFaktorAxB
MSFaktorAxB
MSwithin
A fest
F= MSFaktorA /
F= MSFaktorB /
F= MSFaktorAxB /
B zufällig
MSFaktorAxB
MSwithin
MSwithin
Anova mit Messwiederholung

Verwendung: um zentrale Tendenz der aV unter mehreren
Verwendung
Experimentalbed. oder Messzeitpunkten zu analysieren

einfaktorielle Varianzanalyse mit Messwiederholung kann als 2-faktorielle
Anova mit gemischten Effekten betrachtet werden:

Faktor A: Messzeitpunkt (fester Effekt)

Faktor B: Versuchsperson ( Zufallseffekt) wir betrachten hier die Person
als eigenen Faktor mit verschiedenen Stufen zu den versch.
Messzeitpunkten

es geht hier nicht um die Unterschiede zwischen den Personen
Beispiele:

Messwiederholung im engeren Sinn: die gleiche aV wird mehrfach
erhoben (Veränderungsmessung)

eine aV wird durch unterschiedliche Verfahren (z.B. untersch. Tests) --Vergleich der Verfahren

Personen aus 2 oder mehr Stichproben werden einander zugeordnet
(Partner, Geschwister)
Vorteile Messwiederholung

ökonomisch: weniger Versuchspersonen, da dieselben Vps mehrfach
getestet

höhere Teststärke, da Fehlervarianz verringert wird (die Varianz
zwischen Vpn ist eliminiert, da man die Vpn nur mit sich selbst vergleicht
Nachteile Messwiederholung Sphärizitätsannahme (Zirkularitätsannahme):

Varianzen und Kovarianzen unter den einzelnen Faktorstufen müssen
homogen sein (vorher / nachher) sonst zu liberale Testung, bei Verletzung
über Korrektur der df berichtigt (Greenhouse-Geiser)
Sequenzeffekte:

Reihenfolge der Testung kann Einfluss haben (Versuchsplanung)
Fehlende Daten zu einem Messzeitpunkt:

führen zu Ausschluss des gesamten Datensatzes zu allen
Messzeitpunkten
Prüfvarianzen der 2faktoriellen Anova
Seite 6 von 11
Statistik II
Quadratsummenzerlegung
Strukturgleichung
Nullhypothese
Formeln Anova
Messwiederholung
Karin Pilz

Drop-out
Testbatterie: Konzentration lässt nach
SStotal = SSbetween +
SSwithin
SStotal = SSbetween +
SStreatment
+
SSerror
(interessiert nicht) (HE Zeitpunktsunterschied) (Fehlervarianz)
(SStotal =
SSbetween subj. + SSwithin subjects)
(SStotal =
SSbetween subj + SSfaktorA/treatment + SSresidual)
( z.B. Persunter Zeitpktuntersch. HE Fehlervarianz)
( HE erkl. Var.
erkl. Var
nicht erklärbar)
yij = yq + aj + pi + eij
aj: fester Effekt des Zeitpunkts
pi: Zufallseffekt der VPi
eij: Fehler
Ho: j = 0 für alle j, keine Effekte des Messzeitpunkts, keine
Mittelwertsunterschiede
p
SStreatment =  n(yq.j – yq..)2 (wie bei Haupteffekt)
j=1
dftreatment = p - 1
n
p
SSerror =  (yqjk - yqj. - yq.k + yq..)2 (Interaktionstherm)
i=1 j=1
dferror = (p –1) (N-1) bzw. (p – 1) (q – 1)
Femp = MStreatment / MSerror
Anova mit
Messwiederholung
Zusammenfassung





Kovarianzanalyse
Residualisierung
Wann, warum, Interpretation
Störvariable
Voraussetzungen
Kovarianzanalyse Berechnung
Effektgröße
Konventionen müssen
gelernt werden
Durchführung von Anova mit Messwiederholung, wenn gleiche aV
mehrmals erhoben wurde
sehr ökonimisch, weil weniger VPs, dadurch höhere Teststärke
Sphärizitätsannahme muss erfüllt sein, sonst Anova zu liberal (zu oft wird
H1 angenommen) --- durch Korrektur der df berichtigen (GreenhouseGeiser)
F-Test vergleicht die Varianz des Treatments mit der Fehlervarianz
innerhalb der Gruppen, d.h. Fehlervarianz der VPn wird nicht berücksichtigt
Vorteil der Messwiederholung auf Verringerung der Fehlervarianz im FBruch


Residualisierung: eine Regression der aV wird auf die Kovariate
berechnet. Anschließend werden für alle Vp die Diff der tatsächl. y-Werte
und der vorhergesagten y-Werte gebildet

ein Verfahren, das eine Varianzanalyse mit einer Regressionsanalyse
kombiniert

wird eingesetzt, um Fehlervarianz zu verringern und damit Power zu
erhöhen

Variablen, die nichts mit der inhaltlichen Hypothese zu tun haben, aber
dennoch aV beeinflussen

Beispiel: Temperatur im Untersuchungsraum beeinflusst
Konzentrationsleistung

Kontrolle der Störvariablen durch:

Konstanthalten (Beleuchtung)

Aufnahme als Faktor in Versuchsplan ( Geschlecht)
unökonomisch, weil man sonst zu viele Vps benötigt

Störvariable als Kovariate verwenden (statistische Kontrolle)

(Linearer Zusammenhang)

Varianzhomogenität, intervallskaliert, Normalverteilung

Homogene Regressionskoeffizienten, b-Gewichte dürfen sich nicht
signifikant unterscheiden

Quadratsummenzerlegung von Kovariate und aV

Produktsummenzerlegung

Entfernen der Varianz der Kovariate: Berechnen der Modifizierten SS

F-Test

Kontrolle der Fehlervarianzreduktion R2 within

signifikanter Unterschied in Stichproben

„praktische“ Bedeutsamkeit eines Effekts abzuschätzen
es gilt:

Je größer der Unterschied zwischen den experimentellen Bedingungen,
desto größer die Effektstärke

Je kleiner die Varianz innerhalb der Bedingungen, desto größer die
Seite 7 von 11
Statistik II
Distanzmaß delta
Effektgröße Varianzquotient
Phi2
Wann wird Phi2 größer?
Effektgröße Varianzquotient
Omega2
Alpha- und Beta Fehler
Wahrscheinlichkeiten von
oben
Alpha – Fehler
Beta – Fehler
Alpha- und Beta – Fehler
Teststärke
Wechselseitige
Abhängigkeit der 4 Größen
(Effekt, N, alpha, beta)
Einflussgrößen auf Teststärke
Beta reduzieren
Karin Pilz
Effektstärke
mögliche Darstellungen:

als Distanzmaß zw. Populationsmittelwerten

Varianzquotient
 kann nur bei p = 2 Gruppen eingesetzt werden

Abstand der Mittelwerte normiert an der Streuung

Stichprobeneffekt schätzt Populationseffekt

d umso größer, je größer der Abstand der Mittelwerte

d umso größer mit kleinerer Streuung
 = 1 – 2 /  in Pop
^ = d = yq1 – yq2 / ^
^ = S1 + S2 / 2
z.B. d = 2.21 bedeutet: 2.21 Streuungseinheiten entfernt----großer Effekt nach
Cohen

Varianzquotient Phi ist Verhältnis von systematischer (erklärter) zu
unsystematischer (nicht erklärter) Varianz

2 = 2Treatment / 2 error

geschätzt: 2^ = f2 = t2-1 / N

Phi schwierig zu interpretieren

mit gr. systematischer Varianz

mit geringerer Fehlervarianz

Anteil der erklärten Varianz zur Gesamtvarianz (r2)

2 = 2 Treatment / 2 total

= 2 Treatment / 2error + 2 Treatment
Omega wird größer

je größer Varianz zwischen den Bedingungen (Effektvarianz)

je kleiner Varianz innerhalbe der Gruppen (Fehlervarianz)

wie die MS keine erwartungstreuen Schätzer auf die Population sind, muss
auch hier korrigiert werden -----Omega dach
in der Stichprobe
in der Population gilt
Ho gilt
H1 gilt
Ho wird angenommen
1–

H1 wird angenommen

1-

Ho gilt und wird angenommen: p(n.s./Ho) = 0.95

Wahrscheinlichkeit, dass H1 angenommen wird, obwohl in Population Ho
gilt: p(s / Ho) = 0,05

H1 wird angenommen, obwohl H1 falsch ist

ein zufällig gefundener Unterschied wird signifikant, obwohl in Pop kein
Unterschied besteht

Größe des alpha-Fehlers wird vorher festgelegt (bei  = 0.05 besteht die
Möglichkeit, das bei 100 gezogenen Stichproben aus der Pop im Schnitt 5
Stichproben rechts von Tkrit liegen --- in 5% der Fälle ist die Annahme die
Stichprobe gehört zu einer anderen Population falsch, weil der Wert wie
oben beschrieben zufällig zustande kam, die Ho wird fälschlicherweise
verworfen)

jeder Wert, der kleiner als tkrit ist , führt zur Beibehaltung der Ho, es wird
angenommen, der Wert stammt aus der Ho Population

der Wert könnte aber aus einer Alternativpopulation stammen (Beta-Fehler)

Ho wird beibehalten, obwohl sie falsch ist

reduziert man Wahrscheinlichkeit für Alpha-Fehler, wächst die
Wahrscheinlichkeit für den Beta-Fehler

P = 1 -  (wie groß ist die Chance einen Effekt zu finden?)

Gegenwahrscheinlichkeit zum Beta-Fehler

Wahrscheinlichkeit einen bestehenden Unterschied nachzuweisen

bei geringer Power, ist die Wahrscheinlichkeit hoch, einen existierenden
Effekt zu übersehen hoch

wenn Power unbekannt, kann H1 folglich nicht endgültig verworfen werden,
umgekehrt bedeutet ein signifikantes Ergebnis, dass H1 mit
Fehlerwahrscheinlichkeit von alpha gilt, hier eindeutigere Interpretation
möglich

je kleiner beta, desto höher Power

je kleiner alpha, desto größer beta, desto kleiner Power

je höher Effektstärke (Distanzmaß), desto kleiner beta, desto größer Power

höheres alpha-Niveau wählen

einseitig testen
Seite 8 von 11
Statistik II
Karin Pilz

Stichprobenumfang und
Teststärke
Teststärkenanalyse
Faktorenanalyse
Anwendung der
Faktorenanalyse
Voraussetzung
Faktorenanalyse
Mathematisches Vorgehen
Fundamentaltheorem
Faktorladungen
Kommunalität (h)
Kommunalitätsproblem
Streuung des Merkmals reduzieren (z.B. durch Entfernen von
Ausreißern,.Störvariablen eliminieren), geringere Überlappung, dadurch
sinkt die Wahrscheinlichkeit für statistischen Fehler

Stichprobe vergrößern (Standardfehler verringert, df hoch, tkrit wird
geringer

Effektstärke vergrößern(MW der Pop. liegen nah beieinander: kl. Effekt,
großer Beta - Fehler

abhängige Stichproben verwenden (Messwiederholung, t-test f. abh.,
reduzieren der Fehlervarianz)

teststarke Verfahren wählen (parametrische Tests verwenden, wenn
Voraussetzung hierfür erfüllt sind)

je größer Stichprobenumfang, desto kleiner beta, desto gr. Teststärke, desto
eher wahrscheinlich ein signifikantes Ergebnis zu finden, bei sehr hoher fast
immer ----mit steigendem N verringert sich Fehlervarianz und jede Ho
kann mit ausreichend großen N verworfen werden -----Lösung:
Effektstärke vorher festlegen

je kleiner Stichprobe, desto geringere Power, desto schwieriger Effekt zu
finden

a priori Teststärkenanalyse: Festlegen von Effekt, alpha, beta ;
Berechnen von N

post-hoc-Teststärkenananlyse: Festlegen: alpha, Effekt, N;
Berechnen von beta

Kompromissanalyse

multivariates Verfahren, d.h. es werden mehrere aVs parallel untersucht

Ziel: Vereinfachung eines komplexen Datensatzes (Reduktion)

viele Variablen werden zu wenigen Faktoren zusammengefasst

„Items“ (manifeste Variablen) laden auf einen Faktor (latente Variablen)

Ziel: Konstruktion / Strukturierung und Überprüfung/ Interpretation und
Auswertung von Fragebögen

Items zu einem psychologischen Konstrukt werden formuliert

explorative Faktorenanalyse: Bildung von Subskalen (Items, die Ähnliches
messen, werden zu Faktor zusammengefasst)

(konfirmatorische Faktorenanalyse:es kann eine auf theoretischer Ebene)
(begründete Skalenstruktur überprüft werden (Strukturgleichungsmodelle,)
(AMOS)

es werden mehrere Variablen p für Faktorenanalyse benötigt, wobei für
jede Person der Wert auf jeder Variable bekannt sein muss (jedes Item
muss beantwortet werden – wie bei Messwiederholung)

Intervallskalenniveau

Normalverteilung der Variablen

Anzahl Vpn: N >= 3 x p (Richtwert)

es werden nur lineare Zusammenhänge abgebildet
1.Matrix der Variablenwerte X Nxp
2.Matrix der standardisierten Werte: Z Nxp ( Spalten: Mittelwert = 0  =1)
3.Korrelationsmatrix: R pxp
Kommunalitätsproblem (Iterative Abschätzung)
4.Reduzierte Korrelationsmatrix: hRpxp
Extraktionsproblem (wie viele Faktoren werden ausgewählt)
5.Faktorladungsmatrix: A pxq
N : Vpn
Rotationsproblem(iterative Absch.)
p : Variabllen
6. Rotierte Faktorladungsmatrix: A`pxq
q : Faktoren
Faktorwerteproblem
Iterative Abschätzung
7.Faktorwertematrix: FNxq
besagt, dass sich jeder der standardisierten Werte als Linearkombination der
Faktorwerte und Faktorladungen beschreiben lässt
Korrelation der Faktorwerte mit Ausgangswerten in Variablen ( Person, die
hohe Werte in Variable hat, hat auch hohe Werte auf x und umgekehrt)

hohe Korrelation von x und Lamda

Korrelation eines Faktors und einer Variablen hängt vom Winkel ab

r = cos() –----  = 0° = r = 1 ; 90° = r = 0

die insgesamt durch alle Faktoren aufgeklärte Varianz dieser Variablen

Variable nimmt immer Werte zwischen 0 und 1 an

wird aus Zeilensumme in der Matrix der Determinationskoeffizienten
berechnet

h2 = 1, wenn p = q

Kommunalitätsproblem:
Seite 9 von 11
Statistik II
Karin Pilz

Eigenwert ()
Extraktionsproblem
Rotationsproblem
unterschiedliche
Rotationsverfahren:
Wie viel Varianz von jeder Variablen wird zu Beginn der FA aufgeklärt, also
bevor die endgültige Lage der Faktoren bekannt ist?
Hauptkomponentenanalyse (PCA): (von Bortz empfohlen)

zu Beginn des Optimierungsprozesses wird eine Kommunalität von 1
angenommen

Vorteil: insgesamt aufgeklärte Varianz wird optimiert

es kann Faktoren geben, die nur auf einer Variable hochlädt
Hauptachsenanalyse: (von Leonhart empfohlen)

zu Beginn des Optimierungsprozesses wird die Kommunalität für jede
Variable geschätzt

es werden Faktoren bevorzugt, auf denen viele Variablen laden
Art der Analyse wirkt sich auf die adjustierte Korrelationsmatrix und alle
folgenden Schritte aus

Eigenwert eines Faktors gibt an, wie viel Varianz der Faktor an allen
Variablen aufklärt

wird aus Spaltensumme der Matrix der Determinationskoeffizienten
berechnet

Wertebereich abhängig von Anzahl der Variablen, daherWerte > 1

Eigenwert 1 bedeutet, dass ein Faktor insgesamt so viel Varianz aufklärt,
wie eine der standardisierten Variablen aufweist

je größer Eigenwert, desto besser ist der Faktor

Selektionsstrategie, besteht darin alle Faktoren  > 1 zu akzeptieren

zur Berechnung der FA werden genau so viele Faktoren wie Variablen
berechnet

Um Ziel der Datenreduktion zu erreichen, später weglassen der
Faktoren, die wenig Varianz aufklären
Unterschiedliche Kriterien:

Kaiser-Gutman-Regel(nur Faktoren mit Eigenwert >1 berücksichtigt –
Varianzanteil einer Variablen, Voraussetzungen: N > 5xp

Kriterium der extrahierten Varianz (es wird festgelegt, wie viel Varianz
aufgeklärt werden soll – keine Begründung welcher Varianzanteil gewählt
wird)
Vorgehen:

Faktoren nach Eigenwerten sortieren

alle werden aufsummiert ----Summe  = p

für jeden Eigenwert wird der Anteil aufgeklärter Varianz als  / p
berechnet

alle Kriterien werden berücksichtigt, bis kumulierte Varianz das
Kriterium übertrifft

Screetest (graphische Methode, um sinnvolle Anzahl der Faktoren zu
bestimmen: Eigenwerte der Faktoren als Graphik dargestellt, bevor Graph
eine Ebene erreicht ---Problem: oft nicht eindeutig)

Theoriegleitetes Vorgehen ( in SPSS direkt die Anzahl der Faktoren
eingeben, dadurch Möglichkeit verschiedene Lösungen auszuprobieren,
inhaltliche Lösung zu finden – Bspl. Intelligenztest: räuml., mathem, sprachl
Intelligenz---dabei wird überprüft, ob Items auf Faktoren laden

erst wird die Position der Faktoren so gewählt, dass sie jeweils soviel
Varianz wie möglich aufklären

wenn die Zahl und Lage der Faktoren bestimmt ist, können die Achsen
um den Koordinatenursprung rotiert werden – es gehen keine
Informationen verloren

Faktorladungen ändern sich durch Rotation

Ziel: Rotation ist Einfachstruktur, d.h. jeder Faktor soll auf einigen
Variablen sehr hoch und auf anderen sehr gering laden

dadurch Faktoren leichter inhaltlich zu interpretieren
orthogonale Rotation:
oblique Rotation:

Faktoren bleiben unabhängig, sie 
„schiefwinklige“ Zusammenhänge
stehen senkrecht aufeinander
zwischen Faktoren erlaubt

Vorteil: durch Unabhängigkeit,

Vorteil: Möglichkeit, Faktoren
maximale Vereinfachung der
höher Ordnung zu bestimmen
Daten
(Beispiel: Intelligenztests 100
Items auf 8 Aufg.typen, laden auf

bekanntestes Verfahren:
3 Faktoren, diese auf
„Varimax“ – Methode
Generalfaktor

Spaltensummen der quadrierten
bekanntestes Verfahren:
Faktorladungsmatrix maximiert 
„oblimin“ – Methode
Seite 10 von 11
Statistik II
Ergebnis der Faktorenanalyse
abhängig von:
FA Zusammenfassung
Interpretation SPPS Ausgabe
FA Zusammenfassung
Karin Pilz

Stichprobe

Auswahl der Items

der gewählten Verfahren der FA

Auswahl der Faktoren

Rotation
die gefundene Faktorenstruktur sollte nur als Hypothese betrachtet werden
Ablauf

Jede Vp ist durch Vektor der Werte auf p z-standardisierten Variablen
gekennzeichnet

Stichprobe bildet eine Punktewolke im p-dimensionalen Raum

Achsendrehung, so dass sie maximale Varianz aufklären

Achsen weglassen, die wenig Varianz aufklären ( > 1)

verbleibenden Achsen definieren einen (eingeschränkten) Parameterraum.
Dieser ändert sich nicht, wenn Achsen nun erneut gedreht werden, um
Einfachstruktur zu erreichen
Entscheidungen für die Berechnung:

Berechnungsverfahren:

Hauptkomponenten - Analyse

Hauptachsen – Analyse

Anzahl der Faktoren:

Kaiser-Gutman-Kriterium

Screetest

hypothesengeleitetes Vorgehen

Art der Rotation:

orthogonal (Varimax)

oblique (Oblimin)
Seite 11 von 11
Herunterladen