der multiplen Regression - Methodenlehre und Statistik

Werbung
Methoden der
Psychologie
Prof. Dr. G. Meinhardt
6. Stock, TB II
R. 06-206 (Persike)
R. 06-321 (Meinhardt)
Forschungsstatistik I
Sprechstunde
p
jederzeit
j
nach Vereinbarung
Dr. Malte Persike
} [email protected]
persike@uni-mainz de
http://psymet03.sowi.uni-mainz.de/
WS 2009/2010
Fachbereich Sozialwissenschaften
Psychologisches Institut
Johannes Gutenberg Universität Mainz
Methoden der
Psychologie
Grundlagen
Multiple Regression I
Multiple Regression II
Multiple Regression
Grundlagen
Gleichung
g
Minimierung
NormalNormal
gleichungen
Oft werden in psychologischen Untersuchungen nicht nur
ein sondern mehrere UVn betrachtet.
Beispiele: Abhängigkeit der Lebenszufriedenheit von
sozialem, ökonomischem und Gesundheitsstatus;
Beeinflussung sportlicher Leistung durch Trainingszustand
und Anwesenheit von Zuschauern.
Solche Fragestellungen werden auch als multifaktoriell
bezeichnet
Problem: Die Berechnung mehrerer Korrelationen
vernachlässigt mögliche Zusammenhänge zwischen den
Prädiktoren
Methoden der
Psychologie
Grundlagen
Multiple Regression I
Multiple Regression II
Multiple Regression
Grundgleichung
Gleichung
g
Minimierung
NormalNormal
gleichungen
Die Vorhersagegleichung der multiplen Regression mit k
Prädiktoren wird geschrieben als
yˆ = b0 + b1 ⋅ x1 + b2 ⋅ x2 + … + bk ⋅ xk
Bei standa
standardisierten
disie ten Daten verwendet
e endet man das Symbol
S mbol
β für die k Regressionsparameter (bzw. „-gewichte“)
yŷ = β1 ⋅ z1 + β 2 ⋅ z2 + … + β k ⋅ zk
Die vorhergesagte Variable (AV) wird als Kriterium
bezeichnet, die vorhersagenden Variablen (UV) als
Prädiktoren.
Methoden der
Psychologie
Grundlagen
Multiple Regression I
Multiple Regression II
Regression
Methode der kleinsten Quadrate (KQ-Kriterium)
Gleichung
g
g des Vorhersagefehlers
g
wird oft das
Zur Minimierung
Kleinste-Quadrate Kriterium verwendet (KQ; oder
Ordinary Least Squares, OLS)
Minimierung
Parameter der multiplen Regressionsgleichung werden so
gewählt, dass das Quadrat der Abweichungen von
gemessenem und geschätztem Wert minimiert wird
NormalNormal
gleichungen
Für eine Versuchsperson i aus allen n gelte:
yi = yˆi + ei ⇔ ei = yi − yˆi
Dann soll für alle n Datenwerte erreicht werden, dass
n
n
∑ ( y − yˆ ) = ∑ e
i =1
2
i
i
i =1
2
i
→ min
Minimierung der
Varianz des
Vorhersagefehlers
Methoden der
Psychologie
Grundlagen
Multiple Regression I
Multiple Regression II
Regression
Methode der kleinsten Quadrate (KQ-Kriterium)
Gleichung
g
g
Gleichung
g der einfachen linearen
Mithilfe der Allgemeinen
Regression lässt sich für die Streuung des
Vorhersagefehlers SSe also schreiben:
Minimierung
n
n
SSe = ∑ ( yi − yˆi ) = ∑ ( yi − b0 − b1 ⋅ xi1 − b2 xi 2 − … − bk xik ) → min
2
i =1
NormalNormal
gleichungen
2
i =1
bzw. in der standardisierten Form
n
(
SSe = ∑ z yi − zˆ yi
i =1
) = ∑( z
2
n
i =1
yi
− β1 ⋅ z xi1 − β 2 z xi 2 − … − β k z xik
)
2
→ min
Die Minimierung der Regressionsparameter erfolgt über
partielle Differenzierung nach jedem einzelnen der bbzw. β-Gewichte
Methoden der
Psychologie
Grundlagen
Multiple Regression I
Multiple Regression II
Regression
Normalgleichungen der multiplen Regression
Gleichung
g
Minimierung
Die partielle Differenzierung der nichtstandardisierten
Gleichung mit k Prädiktoren führt immer auf ein
System von k+1 Normalgleichungen, das wie folgt
aufgebaut ist:
n
n
∑ y = ∑b
i =1
NormalNormal
gleichungen
0
i =1
n
∑ yx
1
i =1
n
∑ yx
2
i =1
n
n
n
n
i =1
i =1
i =1
+ b1 ∑ x1 + b2 ∑ x2 + … + bk ∑ xk
n
n
n
i =1
i =1
= b0 ∑ x1 + b1 ∑ x + b2 ∑ x1 x2 + … + bk ∑ x1 xk
i =1
i =1
n
n
2
1
n
n
= b0 ∑ x2 + b1 ∑ x1 x2 + b2 ∑ x + … + bk ∑ x2 xk
2
2
i =1
i =1
i =1
i =1
n
n
n
n
i =1
i =1
i =1
i =1
…
n
∑ yx
i =1
k
= b0 ∑ xk + b1 ∑ x1 xk + b2 ∑ x2 xk + … + bk ∑ xk2
Methoden der
Psychologie
Grundlagen
Multiple Regression I
Multiple Regression II
Regression
Normalgleichungen der multiplen Regression
Gleichung
g
Minimierung
In der standardisierten Form ergibt sich ein System
von k Normalgleichungen:
n
∑z
i =1
NormalNormal
gleichungen
n
x1
n
∑z
i =1
i =1
n
x2
n
n
i =1
i =1
z y = β1 ∑ z + β 2 ∑ z x1 z x2 + … + β k ∑ z x1 z xk
2
x1
n
n
z y = β1 ∑ z x1 z x2 + β 2 ∑ z + … + β k ∑ z x2 z xk
2
x2
i =1
i =1
i =1
n
n
n
i =1
i =1
i =1
…
n
∑z
i =1
xk
z y = β1 ∑ z x1 z xk + β 2 ∑ z x2 z xk + … + β k ∑ z x2k
Methoden der
Psychologie
Grundlagen
Multiple Regression I
Multiple Regression II
Regression
Multiple Regression - Zusammenfassung
Gleichung
g
Minimierung
NormalNormal
gleichungen
Die partielle Differenzierung einer multiplen
Regressionsgleichung mit k Prädiktoren führt immer auf
ein System von k+1 (bzw. k) Normalgleichungen
Prinzip: Die summierte Ausgangsgleichung wird
nacheinander mit jeder Prädiktorpotenz x0…xk (bzw.
z1…zk) multipliziert
Die Normalgleichungen liefern dann für k+1 (bzw. k)
unbekannte
b k
Regressionsparameter
R
i
genau so viele
i l
Gleichungen.
Dieses Gleichungssystem
Di
Gl i h
t
kann
k
nun durch
d h Substitution
S b tit ti
oder Diagonalisierung für die Parameter gelöst werden
Methoden der
Psychologie
Matrixalgebraische Berechnung
Interpretation
der b und β
Multiple Regression I
Multiple Regression II
Matrixalgebraische Berechnung
der multiplen Regression
Wir haben gesehen, dass die Normalgleichungen der
multiplen Regression für standardisierte Daten lauteten:
n
∑z
i =1
x1
n
∑z
i =1
x2
n
n
n
i =1
i =1
i =1
z y = β1 ∑ z x21 + β 2 ∑ z x1 z x2 + … + β k ∑ z x1 z xk
n
n
n
i =1
i =1
i =1
n
n
n
i =1
i =1
i =1
z y = β1 ∑ z x1 z x2 + β 2 ∑ z x22 + … + β k ∑ z x2 z xk
…
n
∑z
i =1
xk
z y = β1 ∑ z x1 z xk + β 2 ∑ z x2 z xk + … + β k ∑ z x2k
Weiterhin ist die Korrelation zweier Variablen xm und xn:
rxm xn
1
=
N
n
∑z
i =1
z
i , xm i , xn
1
= z xm × z xn
N
Methoden der
Psychologie
Matrixalgebraische Berechnung
Interpretation
der b und β
Multiple Regression I
Multiple Regression II
Matrixalgebraische Berechnung
der multiplen Regression
Damit reduziert sich das Normalgleichungssystem zu:
rx1 y = β1
+ β 2 rx1 x2 + β3rx1 x3 + … + β k rx1 xk
rx2 y = β1rx1 x2 + β 2
+ β3 rx2 x3 + … + β k rx2 xk
rx3 y = β1rx1 x3 + β 2 rx2 x3 + β3
+ … + β k rx3 xk
…
rxk y = β1rx1 xk + β 2 rx2 xk + β3 rx3 xk + … + β k
In Matrixnotation ist dies:
Rxx × β = rxy
mit
1 T
Rxx = ⋅ Z Z
N
Methoden der
Psychologie
Matrixalgebraische Berechnung
Multiple Regression I
Multiple Regression II
Matrixalgebraische Berechnung
der multiplen Regression
In Matrixnotation ist dies:
Rxx × β = rxy
Interpretation
der b und β
wobei:
mit
1 T
Rxx = ⋅ Z Z
N
Rxx = k × k Matrix der Prädiktorinterkorrelationen
Methoden der
Psychologie
Matrixalgebraische Berechnung
Interpretation
der b und β
Multiple Regression I
Multiple Regression II
Exkurs: Die Korrelationsmatrix R
Aufbau und Bedeutung
Die Korrelationsmatrix R stellt die Korrelationen
zwischen k Variablen in Matrixschreibweise dar.
Sie ist quadratisch und enthält k×k Korrelationen
x1
x1 ⎛ 1
⎜
x2 ⎜ r21
⎜
⎜
xk ⎝ rk 1
x2 … xk
r12
1
rk 2
r1k ⎞
⎟
r2 k ⎟
⎟
⎟
1⎠
Die Hauptdiagonale
enthält die
Korrelationen der
Variablen mit sich
selbst
lb t (r
( xx = 1)
Die untere und obere
Dreiecksmatrix sind
symmetrisch
Methoden der
Psychologie
Matrixalgebraische Berechnung
Multiple Regression I
Multiple Regression II
Matrixalgebraische Berechnung
der multiplen Regression
In Matrixnotation ist dies:
Rxx × β = rxy
Interpretation
der b und β
wobei:
mit
1 T
Rxx = ⋅ Z Z
N
Rxx = k × k Matrix der Prädiktorinterkorrelationen
r xy = k ×1 Vektor der Kriteriumskorrelationen
β = k ×1 Vektor der Regressionsgewichte
Z = n × k Vektor der z-standardisierten Daten
Lösung: Inverse Interkorrelationsmatrix vormultiplizieren
Rxx−1 Rxx × β = Rxx−1 rxy
⇔
I × β = Rxx−1 rxy
Methoden der
Psychologie
Matrixalgebraische Berechnung
Interpretation
der b und β
Multiple Regression I
Multiple Regression II
Matrixalgebraische Berechnung
Rückrechnung der unstandardisierten Parameter
Wurden die β-Parameter für die z-standardisierten
Daten matrixalgebraisch bestimmt, kann die Berechnung
der unstandardisierten b-Parameter vorgenommen
werden über
bi = βi
SDy
SDxi
mit i = 1, 2,..., k
Die Konstante b0 wird dann berechnet als
b0 = y − b1 x1 − b2 x2 − ... − bk xk
Methoden der
Psychologie
Matrixalgebraische Berechnung
Interpretation
der b und β
Multiple Regression I
Multiple Regression II
Interpretation der Lösung
b- und β-Gewichte
Die Größe eines b-Gewichtes gibt an, um wieviele
Einheiten sich der Wert des unstandardisierten
Kriteriums verändert, wenn der Betrag des
unstandardisierten Prädiktors um 1 steigt.
Die Größe des β-Gewichtes gibt dasselbe für die
standardisierten Variablen an
Das b-Gewicht beantwortet die Frage: „Ich möchte
einen der Prädiktoren um 1 erhöhen. Welchen sollte ich
wählen, damit das Kriterium maximal steigt?“
Das β-Gewicht beantwortet die Frage: „Mit welchem
Prädiktor erhöhe ich das Kriterium am effizientesten?“
Das b-Gewicht liefert also eine absolute, das β-Gewicht
eine relative Information.
Methoden der
Psychologie
Kennwerte
Multiple Regression I
Multiple Regression II
Kennwerte der multiplen Regression
1. Der multiple Korrelationskoeffizient R
Test der
Gewichte
gegen Null
Definition: Der multiple Korrelationskoeffizient R
repräsentiert die Korrelation zwischen dem Kriterium y
und allen Prädiktoren x1…xk
Dabei berücksichtigt R etwaige Interkorrelationen
zwischen den Prädiktoren (und entfernt sie)
Der multiple Korrelationskoeffizient R ist definiert als
Ry⋅ x1x2 …xk =
k
∑β r
j =1
j=
j xj y
Er ist mathematisch äquivalent zur Korrelation zwischen
den gemessenen yy-Werten
Werten und den vorhergesagten
ydach-Werten, also
Ry⋅ x1x2 …xk = ryyˆ
Methoden der
Psychologie
Kennwerte
Multiple Regression I
Multiple Regression II
Kennwerte der multiplen Regression
2. Der multiple Determinationskoeffizient R²
Test der
Gewichte
gegen Null
Definition: Der multiple Determinationskoeffizient
R² repräsentiert die Varianzaufklärung, die alle
Prädiktoren x1…xk am Kriterium y leisten
Der multiple Determinationskoeffizient R² ist definiert als
R2 =
Erklärte Streuung
Fehlerstreuung
= 1−
Gesamt-Streuung
Gesamt-Streuung
Rechnerisch:
1 n
( y − yˆ ) 2
∑
Var ( yˆ )
Var (e) n i =1
2
R =
= 1−
= n
Var ( y )
Var ( y ) 1
2
y
y
−
(
)
∑
n i =1
Methoden der
Psychologie
Kennwerte
Multiple Regression I
Multiple Regression II
Kennwerte der multiplen Regression
3. Abhängigkeit
Test der
Gewichte
gegen Null
a) Sind die Prädiktoren unabhängig, so sind die ß-Gewichte
gleich den Kriteriumskorrelationen und die aufgeklärte
Varianz ist die Summe der Quadrate der ß-Gewichte
Erklärung: Bei perfekt unabhängigen Prädiktoren ist die
Prädiktorinterkorrelationsmatrix
Rxx gleich
l i h der
d Identitätsmatrix
Id tität
t i I.
I
Damit gilt für den multiplen
Korrelationskoeffizienten R
Und R² ist einfach die Summe
der quadrierten
Kriteriumskorrelationen
β = I × rxy ⇔ β = rxy
k
2
r
∑ xj y
Ry⋅ x1x2 …xk =
j =1
k
Ry2⋅ x1x2 …xk = ∑ rx2j y
j =1
Methoden der
Psychologie
Kennwerte
Multiple Regression I
Multiple Regression II
Kennwerte der multiplen Regression
3. Abhängigkeit
Test der
Gewichte
gegen Null
a) Sind die Prädiktoren unabhängig, so sind die ß-Gewichte
gleich den Kriteriumskorrelationen und die aufgeklärte
Varianz ist die Summe der Quadrate der ß-Gewichte
b) Si
Sind
d die
di Prädiktoren
P ädikt
abhängig
bhä i (interkorreliert),
(i t k
li t) so sind
i d3
Fälle zu unterscheiden:
1 Der Prädiktor klärt zumindest Teile der Varianz am
1.
Kriterium auf, die andere Prädiktoren nicht
aufklären: er ist nützlich.
1 D
1.
Der P
Prädiktor
ädikt enthält
thält IInformation,
f
ti
di
die bereits
b it
andere Prädiktoren enthalten: er ist redundant
2. Der Prädiktor unterdrückt irrelevante Varianz in
anderen Prädiktoren: er ist ein Suppressor
Methoden der
Psychologie
Kennwerte
Multiple Regression I
Multiple Regression II
Kennwerte der multiplen Regression
3a. Nützlichkeit
Test der
Gewichte
gegen Null
Nützlichkeit = Der Beitrag,
g, den eine Variable zur
Varianzaufklärung des Kriteriums leistet, der von
den anderen Variablen nicht geleistet wird
Die Nützlichkeit einer Variablen xj berechnet sich
als
U j = Ry2, x1,2,...,k + j − Ry2, x1,2,...,k − j
Uj ist
i t also
l der
d Betrag,
B t
um den
d R² wächst,
ä h t wenn di
die
Variable xj in die multiple Regressionsgleichung
aufgenommen wird.
Methoden der
Psychologie
Kennwerte
Multiple Regression I
Multiple Regression II
Kennwerte der multiplen Regression
3b. Redundanz
Test der
Gewichte
gegen Null
Redundanz = die vielen Variablen messen Aspekte
gemeinsam so dass man prinzipiell weniger Prädiktoren
gemeinsam,
benötigte → unerwünschter Aspekt
Die Variable xj ist redundant zur Vorhersage von Variable y
wenn gilt
β x ⋅ rx y < r
j
j
2
xj y
Prädiktoren enthalten empirisch nahezu immer
gemeinsame Varianzanteile und sind somit „teilweise
redundant“.
d d t“ E
Echte
ht R
Redundanz
d d
liegt
li t aber
b erstt gemäß
äß obiger
bi
Definition vor.
Multikollinearität: Die Kovarianz eines Prädiktors mit
dem Kriterium ist in den anderen Prädiktoren (fast)
vollständig enthalten → extremer Fall von Redundanz.
Methoden der
Psychologie
Kennwerte
Multiple Regression I
Multiple Regression II
Kennwerte der multiplen Regression
3c. Suppression
rx1 y
Test der
Gewichte
gegen Null
rx2 y=0
rx1 x2
x1
X2
Y
x2 „bindet“ irrelevante Prädiktorinformation
x2 hängt nicht mit y zusammen, trotzdem erhöht sie R²
Methoden der
Psychologie
Kennwerte
Multiple Regression I
Multiple Regression II
Kennwerte der multiplen Regression
3c. Suppression
Test der
Gewichte
gegen Null
Defintion: Eine Variable xj ist ein Suppressor,
pp
,
wenn gilt:
U x j > rx2j y
Die Zunahme der erklärten Varianz durch
Aufnahme der Variable ist also größer als die
einzelne Varianzaufklärung.
Vereinfachung: Bei nur zwei Prädiktoren x1 und
x2 ist
i t x2 ein
i Supressor,
S
wenn gilt:
ilt
rx1z . x2 > rx1z ⋅
1- rx21x2
1- rx22 z
Methoden der
Psychologie
Zusammenfassung
Vereinfachung
bei nur 1 UV
Lineare Regression
Polynomische Regression
Regression
Zusammenfassung
Oft ist in der Psychologie die Vorhersage des Wertes
einer bestimmten Variablen unter Kenntnis der
Ausprägung anderer Variablen gefordert.
Die bekannten Variablen wird dabei als Prädiktoren,
Unabhängige Variablen (UVn) oder Erklärende
Variablen bezeichnet
Die vorherzusagende Variable wird als Kriterium,
Abhängige Variable (AVn) oder Response bezeichnet
Methoden der
Psychologie
Zusammenfassung
Vereinfachung
bei nur 1 UV
Lineare Regression
Polynomische Regression
Regression
Zusammenfassung
Drei Hauptfragestellungen der Regressionsrechnung:
1. Gibt es eine statistische Beziehung zwischen zwei
Variablen, die die Vorhersage der AV aus der UV erlaubt?
2. Kann eine möglichst einfache mathematische Regel
f
formuliert
li t werden,
d
die
di diesen
di
Zusammenhang
Z
h
beschreibt?
b h ibt?
yˆ = b0 + b1 ⋅ x1 + b2 ⋅ x2 + … + bk ⋅ xk
3 Wie gut ist diese Regel im Hinblick auf die Vorhersage?
3.
Methoden der
Psychologie
Zusammenfassung
Vereinfachung
bei nur 1 UV
Lineare Regression
Polynomische Regression
Regression
Zusammenfassung
Gründe für die Annahme einer linearen Gleichung:
Lineare Zusammenhänge
g sind einfach zu verstehen
Lineare Zusammenhänge sind mathematisch und
statistisch einfach zu behandeln
Lineare Gleichungen haben sich vielfach als gute
Approximationen für komplexe Beziehungen erwiesen
Achtung: Auch wenn die Beziehung zwischen zwei ZVn
linear „aussieht“, muss es sich nicht zwangsläufig um
einen
i
linearen
li
Zusammenhang
Z
h
handeln.
h d l
Methoden der
Psychologie
Zusammenfassung
Vereinfachung
bei nur 1 UV
Lineare Regression
Polynomische Regression
Regression
Zusammenfassung
Vorsicht bei der Interpretation der Regressionsgleichung
Bei der Korrelationsrechnung bedeutet ein
Zusammenhang niemals Kausalität, lediglich
Assoziation
Bei der Regressionsrechnung
g
gg
gilt zunächst dasselbe
Die Kausalitätsvermutung wird (wenn überhaupt) schon
bei der Aufstellung
g der Regressionsgleichung
g
g
g getroffen,
g
nicht erst bei der Interpretation der Ergebnisse.
Um tatsächlich Kausalität festzustellen, müssen weitere
Randbedingungen vorliegen (z.B. zeitliche Antezedenz
von Ursache vor Wirkung).
Methoden der
Psychologie
Zusammenfassung
Vereinfachung
bei nur 1 UV
Lineare Regression
Polynomische Regression
Regression
Vereinfachung bei nur einem Prädiktor
Bei nur einem Prädiktor vereinfacht
sich die Berechnung der Regressionsgewichte erheblich.
1. Steigung:
b1 = rxyy ⋅
2. y-Achsenabschnitt:
sy
sx
oder
ŷ = b0 + b1 ⋅ x
b1 =
b0 = y − b1 ⋅ x
cov( x, y )
sx
Methoden der
Psychologie
Kennwerte
Lineare Regression
Polynomische Regression
Statistischer Test der Gewichte
Fragestellung
Test der
Gewichte
gegen Null
Neben der Aussage über die Nützlichkeit eines
Prädiktors ist man oft daran interessiert, ob er
überhaupt mit dem Kriterium zusammenhängt
Grundgedanke:
G
d d k Ein
Ei Prädiktor,
P ädikt d
der iin kkeiner
i
Verbindung
V bi d
zum Kriterium steht, sollte den Wert βj = 0 haben. Ein
Prädiktor, der an der Veränderung des Kriteriums
beteiligt ist,
ist sollte einen Wert βj ≠ 0 haben.
haben
Problem: Allein aufgrund der zufälligen Auswahl der
Merkmalsträger für die Stichprobe wird ein β-Gewicht
niemals perfekt Null sein („Stichprobenfehler“).
Frage: Wie unterschiedlich zu Null muss ein ββ-Gewicht
Gewicht
sein, damit wir begründet annehmen können, dass diese
Abweichung nicht zufällig ist?
Methoden der
Psychologie
Kennwerte
Lineare Regression
Polynomische Regression
Statistischer Test der Gewichte
Grundannahmen
Test der
Gewichte
gegen Null
Die Häufigkeitsverteilung einer Variablen ist oft nicht
vollkommen zufällig, sondern folgt einer systematischen
Form
Beispiele: Körpergrößen, IQ, Augensummen beim Wurf
zweier Würfel
Oftmals lässt sich die Form einer solchen
Häufigkeitsverteilung theoretisch durch eine
mathematische Formel beschreiben.
Beispiel Normalverteilung:
1
f ( x) =
⋅e
σ 2π
1 ⎛ x−μ ⎞
− ⋅⎜
⎟
2⎝ σ ⎠
2
Methoden der
Psychologie
Kennwerte
Lineare Regression
Polynomische Regression
Statistischer Test der Gewichte
Grundannahmen
Test der
Gewichte
gegen Null
Die Häufigkeitsverteilung einer Variablen ist oft nicht
vollkommen zufällig, sondern folgt einer systematischen
Form
Beispiele: Körpergrößen, IQ, Augensummen beim Wurf
zweier Würfel
Oftmals lässt sich die Form einer solchen
Häufigkeitsverteilung theoretisch durch eine
mathematische Formel beschreiben.
Beispiel χ²-Verteilung:
f ( x) =
x
n
−1
2
n
2
⋅e
2 ⋅Γ
−
x
2
()
n
2
Methoden der
Psychologie
Kennwerte
Lineare Regression
Polynomische Regression
Statistischer Test der Gewichte
Grundannahmen
χ²-Verteilung
Test der
Gewichte
gegen Null
Normalverteilung
Methoden der
Psychologie
Kennwerte
Lineare Regression
Polynomische Regression
Statistischer Test der Gewichte
Beispiel
Körpergrößen von deutschen Frauen sind etwa wie folgt
verteilt:
Körpergrößenverteilung deutscher Frauen
35%
Relative
e Häufigkeit
Test der
Gewichte
gegen Null
Normalverteilung
30%
25%
20%
15%
10%
5%
0%
Körpergröße
Ist eine Körpergröße von h=170cm typisch? Wie ist es
mit einer Körpergröße von h=120cm?
Methoden der
Psychologie
Kennwerte
Lineare Regression
Polynomische Regression
Statistischer Test der Gewichte
Prinzip des Tests gegen Null
Test der
Gewichte
gegen Null
Wenn eine im Experiment
p
beobachtete Ausprägung
p g g „zu
„
unwahrscheinlich“ ist, um unter der gegebenen
Häufigkeitsverteilung zu entstehen, kann sie als nicht zu
dieser Verteilung gehörig betrachtet werden.
Dabei wird immer die theoretische Häufigkeitsverteilung (i.e. die mathematische Formel) benutzt,
nicht die empirisch erhaltene (fehlerbehaftete)
Bezogen auf die β-Gewichte fragen wir uns also:
A
Angenommen,
ein
i β ist
i t tatsächlich
t t ä hli h Null,
N ll wie
i
wahrscheinlich ist dann das an den Stichprobendaten
gemessene β?
Problem: Wie gelangt man an die theoretische
Häufigkeitsverteilung der β-Gewichte?
Methoden der
Psychologie
Kennwerte
Lineare Regression
Polynomische Regression
Statistischer Test der Gewichte
Häufigkeitsverteilung transformierter Daten
Test der
Gewichte
gegen Null
Ausgangslage:
g g g Man habe am einer Stichprobe
p
Messwerte erhoben, die eine bestimmte
Häufigkeitsverteilung haben
Transformation: Man bildet aus diesen Daten ein
aggregiertes Maß
Beispiele: Mittelwert, Standardabweichung, χ²-Wert, βGewichte
Oft kkann iin einem
i
solchen
l h Fall
F ll die
di theoretische
th
ti h
Häufigkeitsverteilung des aggregierten Maßes
bestimmt werden, teilweise erst nach einer weiteren
mathematischen Transformation des Maßes
Methoden der
Psychologie
Kennwerte
Lineare Regression
Polynomische Regression
Statistischer Test der Gewichte
Berechnung der Auftretenswahrscheinlichkeit
Test der
Gewichte
gegen Null
Man berechne:
„Prüfgröße“
g
n − k −1
F ( β ) = β ⋅ −1
rjj ⋅ (1 − R 2 )
2
j
Regressionsgewicht
Transformationsterm
(Verteilung(hin
unbekannt)
zur F
F-Verteilung)
Verteilung)
mit df Zähler = 1
und
d df Nenner = n − k − 1
n ist die Stichprobengröße, k die Anzahl der Prädiktoren
r-1jj ist das Diagonalelement j in der inversen
Korrelationsmatrix, R² der multiple
Determinationskoeffizient
Die Prüfgröße folgt einer theoretischen
Häufigkeitsverteilung, die F-Verteilung genannt wird
Die F-Verteilung hat zwei Parameter, nämlich die so
genannten Zähler- und Nenner-Freiheitsgrade
Methoden der
Psychologie
Kennwerte
Lineare Regression
Statistischer Test der Gewichte
Die F-Verteilung
Test der
Gewichte
gegen Null
Polynomische Regression
Zähler‐FG
Nenner‐FG
Methoden der
Psychologie
Kennwerte
Lineare Regression
Polynomische Regression
Statistischer Test der Gewichte
Bewertung der Auftretenswahrscheinlichkeit
Test der
Gewichte
gegen Null
Die Freiheitsgrade
g
sind einfach Zahlen,, die die konkrete
Form der theoretischen Häufigkeitsverteilung
festlegen („Wie schief ist sie? Wo ist sie zentriert?“)
Man berechnet zunächst die Prüfgröße F(β)
Die F-Verteilung gibt nun an, welche Wahrscheinlichkeit
p(F) das Auftreten der Prüfgröße hat
Dies ist gleichzeitig die Wahrscheinlichkeit p(β) für den
gemessenen oder
d einen
i
noch
h extremeren
t
Wert
W t für
fü β,
β unter
t
der Annahme, dass das β in Wahrheit 0 ist.
Die Aussage kann direkt auf das zugehörige b-Gewicht
b Gewicht
übertragen werden.
Methoden der
Psychologie
Kennwerte
Lineare Regression
Polynomische Regression
Statistischer Test der Gewichte
Bewertung der Auftretenswahrscheinlichkeit
Test der
Gewichte
gegen Null
Ist die berechnete Wahrscheinlichkeit zu klein, weicht der
β Parameter vermutlich eher nicht zufällig von 0 ab
β-Parameter
ab,
sondern systematisch.
Er ist dann statistisch signifikant von 0 verschieden.
verschieden
Problem: Wie klein ist „zu unwahrscheinlich“?
Hier haben sich in der Praxis zwei Cut-Off Werte
eingebürgert, die als α–Niveaus oder
Signifikanzniveaus bezeichnet werden.
Es gilt:
α ≥ 0.05
α < 00.05
05
α < 0.01
→ statistisch nicht signifikant
→ statistisch signifikant
→ statistisch hochsignifikant
Methoden der
Psychologie
Kennwerte
Lineare Regression
Polynomische Regression
Statistischer Test der Gewichte
Bewertung der Auftretenswahrscheinlichkeit
Test der
Gewichte
gegen Null
Angenommen,
g
, im Experiment
p
erhalte man ein ββ=0.123.
Für dieses berechnet man nun die Prüfgröße F und deren
Auftretenswahrscheinlichkeit p(β) unter der Annahme,
dass in Wahrheit gilt β=0.
Es sei nun p=0.001.
Nach unseren Konventionen würden wir auf jedem αNiveau sagen, dass sich β signifikant von 0 unterscheidet.
Aber Achtung: Das β=0.123 hat eine
Auftretenswahrscheinlichkeit von p(β)=0.001.
Mit dieser Wahrscheinlichkeit kann es also auch dann
vorkommen, wenn in Wahrheit β=0 gilt.
Methoden der
Psychologie
Kennwerte
Lineare Regression
Polynomische Regression
Statistischer Test der Gewichte
Bewertung der Auftretenswahrscheinlichkeit
Test der
Gewichte
gegen Null
Die Aussage,
g , ein β sei signifikant
g
von Null verschieden,, ist
eine Wahrscheinlichkeitsaussage bei der immer ein
Restirrtum verbleibt, die Irrtumswahrscheinlichkeit.
Diese Irrtumswahrscheinlichkeit hängt nicht von der
konkret erhaltenen Wahrscheinlichkeit p ab, sondern vom
gewählten Signifikanzniveau α.
Bei α=0.05 beträgt die Irrtumswahrscheinlichkeit also
5%, bei α=0.01 ist sie 1%.
Praxis: In der Praxis wird α demzufolge entweder als
α–Niveau, Signifikanzniveau oder auch
Irrtumswahrscheinlichkeit bezeichnet.
bezeichnet
Methoden der
Psychologie
Kennwerte
Lineare Regression
Polynomische Regression
Statistischer Test der Gewichte
Prinzip des Testens
Test der
Gewichte
gegen Null
Beobachtung im Experiment: β=…
Frage: Kann dieses β in Wahrheit Null sein?
Geht die Abweichung von 0 auf einen Stichprobenfehler zurück?
(1) Festlegung eines Signifikanzniveaus α
(2) Berechnung der Prüfgröße: F(β)
d
deren
Häufigkeitsverteilung
Hä fi k i
il
theoretisch
h
i h bekannt
b k
ist
i (F-Verteilung)
(F V
il
)
(3) Berechnung der Wahrscheinlichkeit für
diese Prüfgröße: p(F)
(4) Rückschluss: p(F) = p(β) = p(b)
(5) Vergleich von p mit α und
Treffen der Signifikanzaussage
Aber: Bei dieser Aussage irrt man sich mit
einer Wahrscheinlichkeit von α·100%
Methoden der
Psychologie
Kennwerte
Lineare Regression
Polynomische Regression
Statistischer Test der Gewichte
Voraussetzungen
Test der
Gewichte
gegen Null
Das zu wählende α-Niveau muss vor der Berechnung
g
der Prüfgröße festgelegt werden (nicht: „Oh, p ist
0.034, dann nehmen wir doch α=0.05“).
Der statistische Test der Regressionsgewichte ist nur
dann gültig, wenn die Prüfgröße tatsächlich einer FVerteilung folgt.
Dies kann immer dann angenommen werden wenn die
Häufigkeitsverteilungen der Messwerte der Prädiktoren
multivariat
lti
i t normalverteilt
l
t ilt sind
i d (statistisch
( t ti ti h sehr
h
schwierige Prüfung)
Als Faustregel gilt: Bei n > 20 und k < 10 ist die
Annahme der F-Verteilung hinreichend gut begründet
Methoden der
Psychologie
Grundlagen
Lineare Regression
Polynomische Regression
Nichtlineare Regression
Grundlagen
Linearisierbare
Formen
Polynome
psychologischer
y
g
Fragestellungen
g
g ergeben
g
Bei einer Reihe p
sich nichtlineare Zusammenhänge zwischen UV & AV.
Beispiele: Reaktionszeit, Blutalkohol und
psychomotorische Leistungen
Leistungen, Fehlerraten in
Leistungstests bei verschiedenen
Aufgabenschwierigkeiten
Solche nichtlinearen Zusammenhänge lassen sich in zwei
Klassen einteilen:
1 Zusammenhänge
1.
Zusammenhänge, die sich durch eine einfache
(nichtlineare) Transformationen in lineare
Zusammenhänge überführen lassen
2. Zusammenhänge, für die eine nichtlineare
Regressionsgleichung gelöst werden muss.
Methoden der
Psychologie
Grundlagen
Lineare Regression
Polynomische Regression
Nichtlineare Regression
Linearisierbare und polynomische Formen
Linearisierbare
Formen
Fall 1: Linearisierende Transformation,, z.B.
yˆ = b0 ⋅ x ⎯⎯⎯
→ ln ( yˆ ) = ln ( b0 ) + b1 ⋅ ln ( x )
b1
ln ( • )
Polynome
(hier nicht behandelt)
Fall 2: Nicht (einfach) linearisierbar
ŷ = b0 + b1 ⋅ x + b2 ⋅ x 2
Methoden der
Psychologie
Grundlagen
Lineare Regression
Polynomische Regression
Nichtlineare Regression
Beispiel: Logistische Regression
1
0.8
0.6
Linearisierbare
Formen
Polynome
Gemessene Daten verlaufen
ogivenförmig und variieren
zwischen 0 und 1
04
0.4
0.2
0
0
Umformung der y-Werte durch
Logarithmieren bewirkt eine
Linearisierung der Daten
10
20
30
40
0
20
40
60
6
4
Mithilfe dieser neuen y-Werte
k
kann
eine
i lineare
li
Regression
R
i
bestimmt werden, um die
Parameter b0 und b1 zu
errechnen
h
2
0
-2
-4
-6
-8
-20
Methoden der
Psychologie
Grundlagen
Lineare Regression
Polynomische Regression
Polynomische Regression
Grundlagen und Durchführung
Linearisierbare
Formen
Häufig können Merkmalszusammenhänge durch
Polynome 2. oder 3. Ordnung gut beschrieben
werden, d.h.
ŷ = b0 + b1 ⋅ x + b2 ⋅ x 2
Polynome
ode
oder
ŷ = b0 + b1 ⋅ x + b2 ⋅ x 2 + b3 ⋅ x3
Dies ist formal eine lineare multiple Regression,
allerdings nicht mit mehreren Prädiktoren
Prädiktoren, sondern mit
einem Prädiktor sowie Transformationen seiner selbst.
Methoden der
Psychologie
Grundlagen
Lineare Regression
Polynomische Regression
Polynomische Regression
Grundlagen und Durchführung
Linearisierbare
Formen
Polynome
Eine solche polynomische Regression wird
berechnet, indem die transformierten Prädiktorterme
bestimmt werden
Dann wird eine übliche lineare multiple Regression
durchgeführt
Die Einträge der Korrelationsmatrix sind dabei dann die
Korrelationen des Prädiktors mit sich selbst in den
transformierten Formen
Es können alle von Kennwerte und Gütemaße der
multiplen Regression bestimmt werden.
polyn.
y Regression
g
ist auch über die KQ-Methode
Q
Die p
(inkl. Normalgleichungen) herzuleiten. Dies führt auf
dasselbe Ergebnis wie der hier verfolgte Ansatz.
Methoden der
Psychologie
Dichotome UV
Spezielle Regressionen
Partialkorrelation
Spezielle Regressionsvarianten
Lineare Regression mit einem dichtomen Prädiktor
Dichotome AV
Polytome AV
Kanonische
Korrelation
Bei p
psychologischen
y
g
Fragestellungen
g
g interessiert häufig
g
die Wirkung von dichotomen Prädiktoren.
Beispiele: Akademiker und Lebenszufriedenheit,
Morningness und Neurotizismus, Therapieerfahrung
(ja/nein) und Therapiebereitschaft.
Es soll hier bestimmt werden, wie stark sich die
Ausprägung im dichotomen Prädiktor auf das
intervallskalierte Kriterium auswirkt.
Hier kann die übliche Berechnung eines linearen
Regressionsmodells durchgeführt werden.
Methoden der
Psychologie
Dichotome UV
Spezielle Regressionen
Partialkorrelation
Spezielle Regressionsvarianten
Lineare Regression mit einem dichtomen Prädiktor
Dichotome AV
Die dichotome Variable wird hierzu per
Dummykodierung erfasst
Polytome AV
Eine der beiden Ausprägungen erhält den Wert 0,
0 die
andere den Wert 1.
Kanonische
Korrelation
G
Geschlecht
hl ht
K di
Kodierung
männlich
0
weiblich
1
weiblich
1
männlich
0
…
…
Methoden der
Psychologie
Dichotome UV
Spezielle Regressionen
Partialkorrelation
Spezielle Regressionsvarianten
Lineare Regression mit einem dichtomen Prädiktor
Dichotome AV
Polytome AV
Kanonische
Korrelation
Nach der Dummykodierung kann eine lineare Regression
der intervallskalierten auf die dichotome ZV berechnet
werden
Der y-Achsenabschnitt ist der Mittelwert der
Gruppe die mit 0 kodiert wurde
Gruppe,
wegen y = a x + b ⇒ y = b für x = 0
Die Steigung ist der Unterschied zwischen den beiden
Gruppen
wegen yˆ1 − yˆ 0 = a ⋅ x1 + b − b = a
Methoden der
Psychologie
Dichotome UV
Spezielle Regressionen
Partialkorrelation
Spezielle Regressionsvarianten
Lineare Regression mit einem dichtomen Prädiktor
Dichotome AV
Polytome AV
Kanonische
Korrelation
Methoden der
Psychologie
Dichotome UV
Spezielle Regressionen
Partialkorrelation
Spezielle Regressionsvarianten
Regression mit einem dichtomen Kriterium
Dichotome AV
In vielen Bereichen der Psychologie spielen dichotome
Kriterien eine Rolle
Polytome AV
Kanonische
Korrelation
Beispiele: Bestehen eines Leistungstests abhängig vom
IQ, Entdecken eines sehr leisen Tons abhängig von der
Frequenz des Tons, Ausbildung einer Essstörung
abhängig vom elterlichen Fürsorgeverhalten
/
Durch die Prädiktoren muss dann ein 0/1-kodiertes
Kriterium vorhergesagt werden. Zu diesem Zweck kommt
die logistische Regression zum Einsatz
(hier nicht behandelt)
Methoden der
Psychologie
Dichotome UV
Spezielle Regressionen
Partialkorrelation
Spezielle Regressionsvarianten
Regression mit einem polytomen Kriterium
Dichtotome AV
Liegt eine diskrete AV mit mehr als zwei Stufen vor, so
spricht man von einem polytomen Kriterium
Polytome AV
Kanonische
Korrelation
Beispiele: Erreichter Schulabschluss abhängig vom IQ,
Gewählter Leistungskurs abhängig vom Grad der
Nerdiness, präferierte Automarke abhängig vom
Neurotizismuswert
Durch die Prädiktoren muss dann ein in k Stufen kodiertes
Kriterium vorhergesagt werden. Zu diesem Zweck kommt
die multinomiale logistische Regression zum Einsatz
(hier nicht behandelt)
Methoden der
Psychologie
Dichotome UV
Spezielle Regressionen
Partialkorrelation
Spezielle Regressionsvarianten
Regression mit mehreren Kriterien
Dichtotome AV
Eine Reihe psychologischer Fragestellungen beinhaltet
multiple Prädiktoren und multiple Kriterien
Polytome AV
Beispiele: Veränderung von Reaktionszeit und
Fehlerhäufigkeit abhängig von Alkoholisierungsgrad,
Geschlecht und Fahrpraxis; Beeinflussung von
Schlafdauer,, Schlafqualität
q
und Erholungsgrad
g g
durch
Medikamentengabe, autogenes Training, Einschlafzeit und
Zimmerhelligkeit
Kanonische
Korrelation
Durch k Prädiktoren sollen dann m Kriterienwerte
vorhergesagt werden. Zu diesem Zweck kommt die
kanonische Korrelation (oder multivariate Regression)
zum Einsatz
(hier nicht behandelt)
Methoden der
Psychologie
Partialkorrelation
Semipartialkorrelation
Spezielle Regressionen
Partialkorrelation
Partialkorrelation
Deutungsmöglichkeiten der einfachen Regression
1 Zufall
1.
2 Kausalität: X → Y
2.
Multiple Partialkorrelation
3. Latente Drittvariable(n)
ξ
x1
x2
4 Direkte und indirekte
4.
Kausalität
ξ
x1
x2
Methoden der
Psychologie
Partialkorrelation
Semipartialkorrelation
Spezielle Regressionen
Partialkorrelation
Partialkorrelation
im Fall zweier korrelierter Variablen
Definition: Eine Partialkorrelation ist die Korrelation
zweier Variablen
Variablen, die vom Effekt anderer Variablen
bereinigt wurden.
Einsatzzweck: Prüfung einer Kausalvermutung G
Multiple Partialkorrelation
„Kommt ry1y2 dadurch zustande, dass eine Drittvariable x
ursächlich auf y1 und y2 einwirkt?“
x
rx,y1
y1
G
G
ry1,y2
rx,y2
y2
„Scheinkorrelation“
Methoden der
Psychologie
Partialkorrelation
Semipartialkorrelation
Multiple Partialkorrelation
Spezielle Regressionen
Partialkorrelation
Partialkorrelation
Berechnung und Prüfung
1.
Sage y1 aus x voraus und berechne Residuen ey1
2.
Sage y2 aus x voraus und berechne Residuen ey2
3
3.
Berechne die Korrelation rey1ey2
Schreibe: ry1y2
1 2·x
rey1ey2
y1
„ohne“
y2
ry1y2
x
x
Ist Partialkorrelation nahe Null, so beruht die Korrelation
ry1y2 tatsächlich vor allem auf der Einwirkung von x.
(Prüfung mit Korrelationstest)
Methoden der
Psychologie
Partialkorrelation
Spezielle Regressionen
Partialkorrelation
Partialkorrelation
Vereinfachte Berechnung
Für die Varianz der Vorhersagefehler galt
Semipartialkorrelation
Multiple Partialkorrelation
V (ex , y1 ) = Var
Var
V ( y1 ) ⋅ (1 − rx2, y1 ) Var
V (ex , y2 ) = Var
V ( y2 ) ⋅ (1 − rx2, y2 )
Die Korrelation der Fehler lässt sich schreiben als
rex , y ex , y =
1
1
Cov(ex , y1 ex , y2 )
sex , y sex , y
1
2
Man kann nun zeigen, dass gilt
Cov(ex , y1 , ex , y2 ) = Cov( y1 , y2 ) − bx , y1 ⋅ bx , y2 ⋅ Var ( x)
Und damit errechnet sich die Partialkorrelation als
ry1 , y2 ⋅ x =
ry1 , y2 − rx , y1 rx , y2
1 − rx2, y1 ⋅ 1 − rx2, y2
Methoden der
Psychologie
Partialkorrelation
Semipartialkorrelation
Multiple Partialkorrelation
Spezielle Regressionen
Partialkorrelation
Semipartialkorrelation
im Fall zweier korrelierter Variablen
Definition: Eine Semipartialkorrelation ist die
Korrelation zweier Variablen
Variablen, von denen eine vom Effekt
einer anderen Variablen bereinigt wurden.
Einsatzzweck: Prüfung
g der zusätzlichen Information
eines Prädiktors bei der Erklärung des Kriteriums
Die Semipartialkorrelation ist eng verbunden mit der
Nützlichkeit. Es gilt nämlich Ux1 = r²y(x1 · x2)
rey1 y22
y1
ry1y2
x
y2
Methoden der
Psychologie
Partialkorrelation
Semipartialkorrelation
Spezielle Regressionen
Partialkorrelation
Semipartialkorrelation
Berechnung
1.
Sage y2 aus x voraus und berechne Residuen ey2
2
2.
Berechne die Korrelation ry1 ey2
Schreibe: ry1(y2
1( 2 · x))
(analog für Auspartialisierung von x aus y1)
Multiple Partialkorrelation
3
3.
Oder verwende die vereinfachte Formel
ry1 ( y2 ⋅ x ) =
ry1 , y2 − rx , y1 rx , y2
1 − rx2, y2
„ohne“
Methoden der
Psychologie
Partialkorrelation
Semipartialkorrelation
Multiple Partialkorrelation
Spezielle Regressionen
Partialkorrelation
(Semi-)Partialkorrelation höherer Ordnung
Prinzip
Soll der Zusammenhang zwischen zwei Variablen um
mehrere andere Variablen bereinigt werden
werden, spricht
man von (Semi-)Partialkorrelationen höherer Ordnung
Die Berechnung verläuft analog zu den (Semi-)Partial(Semi )Partial
korrelationen bei nur einer auszupartialisierenden
Variable
x1
x3
x2
y1
ry1y2
y2
Methoden der
Psychologie
Partialkorrelation
Semipartialkorrelation
Spezielle Regressionen
Partialkorrelation
(Semi-)Partialkorrelation höherer Ordnung
Berechnung über multiple Regression
1.
Sage y1 aus den x1…xk voraus und berechne Residuen ey1
2.
Sage y2 aus den x1…xk und berechne Residuen ey2
3
3.
Berechne die Korrelation rey1ey2
→
ry1y2 · x1…xk
→
ry1(y2 · x1…xk)
(Partialkorrelation)
Multiple Partialkorrelation
oder
Berechne die Korrelation ry1 ey2
((Semipartialkorrelation)
p
)
Herunterladen