r - Methodenlehre - Johannes Gutenberg

Werbung
Statistik &
Methodenlehre
e ode e e
Prof. Dr. G. Meinhardt
6. Stock, Wallstr. 3
((Raum 06-206))
Sprechstunde jederzeit
nach Vereinbarung und
nach der Vorlesung.
g
Mathematische und
statistische Methoden II
Dr. Malte Persike
} [email protected]
http://psymet03.sowi.uni-mainz.de/methods/
SS 2010
Fachbereich Sozialwissenschaften
Psychologisches Institut
Johannes Gutenberg Universität Mainz
Statistik &
Methodenlehre
e ode e e
Definition
Zusammenhangsmaße
Korrelationstests
Wahrscheinlichkeitsverteilungen
Uni- und multivariate Zufallsvariablen
Kovarianz
Korrelation
Univariate Zufallsvariable X: Zuweisung nur einer
Zahl zu jedem Ergebnis eines Zufallsexperiments (d.h. zu
jedem zufällig ausgewählten Merkmalsträger)
Multivariate Zufallsvariable X , Y, …: Zuweisung
mehrerer Zahlen zu jedem Ergebnis
Einer der häufigsten Spezialfälle multivariater Zufallsvariablen ist der bivariate Fall mit zwei ZVn X und Y
Beispiele für mehrdimensionale Zufallsvariablen:
▪ Erfassung von mathematischem und verbalem IQ
▪ Messung von Ölverbrauch und Ausfallrate
▪ Erfassung von Einkommen und Parteipräferenz
Statistik &
Methodenlehre
e ode e e
Definition
Zusammenhangsmaße
Korrelationstests
Wahrscheinlichkeitsverteilungen
Uni- und multivariate Wahrscheinlichkeitsverteilungen
Kovarianz
Korrelation
Die Wahrscheinlichkeitsverteilung einer univariaten
Zufallsvariablen wird zumeist mit f(x) bezeichnet.
Sie beschreibt
Si
b h ib die
di Punktwahrscheinlichkeit
k
h h i li hk i für
fü das
d
Auftreten einer Ausprägung X=x.
Die Wahrscheinlichkeitsverteilung
Di
W h h i li hk it
t il
einer
i
multivariaten
lti i t
Zufallsvariablen wird zumeist mit f(x,y,…) bezeichnet.
Sie beschreibt die Punktwahrscheinlichkeit für das
Auftreten einer Wertekombination X=x, Y=y, ….
Statistik &
Methodenlehre
e ode e e
Definition
Zusammenhangsmaße
Korrelationstests
Wahrscheinlichkeitsverteilungen
Der bivariate Fall – Multivariate Verteilungsfunktion
Kovarianz
Die Verteilungsfunktion zweier diskreter
Zufallsvariablen X und Y ist definiert als
m
Korrelation
n
f ( X ≤ xm , Y ≤ yn ) = ∑∑ f ( xi , y j )
i =1 j =1
Die Verteilungsfunktion zweier stetiger
Z f ll
Zufallsvariablen
i bl X und
d Y ist
i t definiert
d fi i t als
l
F ( xu ≤ X ≤ xo , yu ≤ Y ≤ yo ) =
xo yo
∫∫ f
XY
( x, y ) dxdy
xu yu
Wie bei univariaten stetigen Verteilungen ist die Punktwahrscheinlichkeit stets Null, nur die Intervallwahrscheinlichkeit ist ein sinnvoller Wert.
Statistik &
Methodenlehre
e ode e e
Definition
Zusammenhangsmaße
Korrelationstests
Wahrscheinlichkeitsverteilungen
Der bivariate Fall – Beispiel Normalverteilung
Kovarianz
Die univariate Wahrscheinlichkeitsfunktion der
Normalverteilung war
⎛ 1 ⎛ x − μ ⎞2 ⎞
1
x
f ( x) =
⋅ expp ⎜ − ⋅ ⎜
⎟ ⎟⎟
⎜
2
σ
2πσ x
x
⎝
⎠ ⎠
⎝
Korrelation
Die bivariate Wahrscheinlichkeitsfunktion der
Normalverteilung lautet
f X ( x, y ) =
1
2πσ xσ y
⎛
⎞
⎡ x − μ 2 ( y − μ )2
x − μx ) ( y − μ y ) ⎤ ⎟
1
(
(
y
x)
⎜
⎢
⎥
exp −
+
− 2ρ ⋅
⋅
⎜ 2(1 − ρ 2 ) ⎢ σ x2
σ y2
σx
σy ⎥⎟
1− ρ 2
⎣
⎦⎠
⎝
Frage: Welche Rolle spielt der Parameter ρ?
Statistik &
Methodenlehre
e ode e e
Definition
Zusammenhangsmaße
Korrelationstests
Wahrscheinlichkeitsverteilungen
Der bivariate Fall – Beispiel Normalverteilung
Kovarianz
Niedriger Zusammenhang
zwischen X und Y
Hoher Zusammenhang
zwischen X und Y
Korrelation
Die Elongation oder „Länglichkeit“ der multivariaten
Wahrscheinlichkeitsverteilung ist ein Kennzeichen für den
Zusammenhang der Zufallsvariablen
(Parameter ρ im Fall der bivariaten Normalverteilung)
Statistik &
Methodenlehre
e ode e e
Definition
Zusammenhangsmaße
Korrelationstests
Wahrscheinlichkeitsverteilungen
Der bivariate Fall – Numerische Beschreibung
Kovarianz
Korrelation
Die Größe des Zusammenhangs
g zweier Zufallsvariablen
wird als Kovarianz bezeichnet
cov XY = E ⎡⎣( X − E ( X ) ) ⋅ (Y − E (Y ) ) ⎤⎦
Die Kovarianz ist Null, wenn kein Zusammenhang
zwischen den Zufallsvariablen besteht.
Wahrscheinlichkeitsfunktionen für X und Y hängen nicht zusammen
Die Kovarianz ist positiv, wenn ein gleichsinniger
Zusammenhang besteht
Hohe (niedrige) Werte von X treten mit hohen (niedrigen) Werten von Y auf
Die Kovarianz
Di
K
i
ist
i t negativ,
ti wenn ein
i gegensinniger
i i
Zusammenhang besteht
Niedrige (hohe) Werte von X treten mit hohen (niedrigen) Werten von Y auf
Statistik &
Methodenlehre
e ode e e
Definition
Zusammenhangsmaße
Korrelationstests
Häufigkeitsverteilungen
Der bivariate Fall – Numerische Beschreibung
Kovarianz
Korrelation
0 0.1 0.2 0.3 0.4
0
0.2
0.4
Statistik &
Methodenlehre
e ode e e
Definition
Zusammenhangsmaße
Korrelationstests
Häufigkeitsverteilungen
Der bivariate Fall – Numerische Beschreibung
Kovarianz
Korrelation
Für n Beobachtungen
g aus einem Zufallsexperiment
p
x1…xn
und y1…yn ist die Kovarianz definiert als
1 n
sxy = ∑ ( xi − x )( yi − y )
n i =1
Es gelten bei der empirischen Kovarianz dieselben
Prinzipien wie für die Kovarianz zwischen theoretischen
Wahrscheinlichkeitsverteilungen.
g
Die so berechnete Kovarianz ist nur bei mindestens
intervallskalierten Zufallsvariablen ein sinnvolles
Maß.
Statistik &
Methodenlehre
e ode e e
Definition
Zusammenhangsmaße
Korrelationstests
Wahrscheinlichkeitsverteilungen
Der bivariate Fall – Numerische Beschreibung
Kovarianz
Korrelation
Problem: Die Kovarianz erfüllt nicht die Forderung der
Invarianz gegenüber erlaubten Transformationen
Für die Formel der empirischen Kovarianz ist das leicht zu
zeigen
i
und
d gilt
ilt ebenso
b
für
fü di
die th
theoretische
ti h Verteilung
V t il
Zwar gilt: Addition einer Konstanten zu X und Y:
cov X +a ,Y + B = cov X ,Y
sxy ( x + a, y + b) = sxy
Aber: Multiplikation
M ltiplikation von
on X und
nd X mit eine
einer Konstanten
cov a⋅ X ,b⋅Y = a ⋅ b ⋅ cov X ,Y
sxy (a ⋅ X , b ⋅ Y ) = a ⋅ b ⋅ sxy
Die Kovarianz ist also numerisch schwer zu interpretieren
Statistik &
Methodenlehre
e ode e e
Definition
Zusammenhangsmaße
Korrelationstests
Wahrscheinlichkeitsverteilungen
Der bivariate Fall – Numerische Beschreibung
Kovarianz
Korrelation
Die Korrelation zweier Zufallsvariablen ist definiert als
ρ=
E ⎡⎣( X − E ( X ) ) ⋅ (Y − E (Y ) ) ⎦⎤
E ( X − E ( X ) ) ⋅ E (Y − E (Y ) )
2
2
cov XY
=
σ X ⋅σ Y
Für die Richtungsinformation gelten dieselben Regeln
wie bei der Kovarianz
Der Wert der Korrelation schwankt zwischen -1 und 1
Bei der Korrelation ist neben der Richtung (Vorzeichen)
also
l auch
h die
di Stärke
Stä k (Betrag)
(B t ) d
des Z
Zusammenhangs
h
zwischen X und Y interpretier- und vergleichbar.
Statistik &
Methodenlehre
e ode e e
Definition
Zusammenhangsmaße
Korrelationstests
Häufigkeitsverteilungen
Der bivariate Fall – Numerische Beschreibung
Kovarianz
Für empirische Daten gibt es je nach Skalenniveau
verschiedene Berechnungsformel für die Korrelation.
Korrelation
Für n intervallskalierte Beobachtungen aus einem
Zufallsexperiment x1…xn und y1…yn ist der
Korrelationskoeffizient definiert als
rxy =
1 n
( xi − x )( yi − y )
∑
sxy
n i =1
=
n
n
sx ⋅ s y
1
1
2
2
( xi − x ) ⋅
( yi − y )
∑
∑
n i =1
n i =1
Statistik &
Methodenlehre
e ode e e
Definition
Zusammenhangsmaße
Korrelationstests
Häufigkeitsverteilungen
Der bivariate Fall – Numerische Beschreibung
Kovarianz
Der so definierte Korrelationskoeffizient rxy wird auch als
Produkt-Moment-Korrelation oder
Korrelationskoeffizient nach Pearson bezeichnet.
Korrelation
Die Korrelation liegt immer zwischen -1 und 1.
Die Korrelation ist Null
Null, wenn kein Zusammenhang
zwischen den Ausprägungen der Zufallsvariablen besteht
Negative
egat e Werte
e te zeigen
e ge e
einen
e gege
gegensinnigen,
s
ge , pos
positive
t e
Werte einen gleichsinnigen Zusammenhang an
Die Korrelation ist anfällig
gg
gegenüber
g
Ausreißern
Statistik &
Methodenlehre
e ode e e
Definition
Zusammenhangsmaße
Korrelationstests
Häufigkeitsverteilungen
Der bivariate Fall – Numerische Beschreibung
Kovarianz
Korrelation
Kovarianz
Korrelation
sx,y = sy,x
rx,y = rx,y
sa,x = 0
ra,y = nicht def.
sa,b = 0
ra,b = nicht def.
sx,x
x x = s²x
rx,x
xx = 1
sa·x+b,c·x+d = a·c·sx,y
ra·x+b, c·y+d = rx, y
Mit a, b, c, d = konstante Werte
Achtung:
g Ist a oder b negativ,
g ,
verändert sich das Vorzeichen von r,
sind beide negativ, bleibt r gleich.
Statistik &
Methodenlehre
e ode e e
Definition
Zusammenhangsmaße
Korrelationstests
Häufigkeitsverteilungen
Der bivariate Fall – Numerische Beschreibung
Kovarianz
Korrelation
Für die Bewertung
g der absoluten Höhe der ProduktMoment-Korrelation existieren Faustregeln nach Cohen
(1988)
r = ± 0.10
→
kleine Korrelation
r = ± 0.30
→
mittlere Korrelation
r = ± 0.50
→
hohe Korrelation
In der
de nicht-experimentellen
ni ht e pe imentellen Psychologie
P hologie liegen
Korrelationen selten über r=0.75.
Statistik &
Methodenlehre
e ode e e
Definition
Zusammenhangsmaße
Korrelationstests
Häufigkeitsverteilungen
Der bivariate Fall – Numerische Beschreibung
Kovarianz
Korrelation
Statistik &
Methodenlehre
e ode e e
Definition
Zusammenhangsmaße
Korrelationstests
Häufigkeitsverteilungen
Der bivariate Fall – Grafische Beschreibung
Kovarianz
Korrelation
Liegen für
f eine Stichprobe
h b Messungen der
d Ausprägung
zweier Zufallsvariablen X und Y vor, so ist jeder
Merkmalsträger durch ein Wertepaar gekennzeichnet.
Die Merkmalsträger
können nun als Punkte
in einem KoordinatenKoordinaten
system dargestellt
werden, wobei das
Wertepaar die Koordinaten festlegt.
Dies ist ein Scatterplot
Statistik &
Methodenlehre
e ode e e
Definition
Diskrete Verteilungen
Stetige Verteilungen
Häufigkeitsverteilungen
Der multivariate Fall – Grafische Beschreibung
Kovarianz
Korrelation
Die grafische Beschreibung multivariater
Wahrscheinlichkeitsverteilungen ist aufwändig und
vollständig nur in niedrig multivariaten Fällen zu leisten.
Die Darstellungen sind dann oft dreidimensional.
Bei höher multivariaten Verbundverteilungen
g wird
zumeist auf die univariate Darstellung der einzelnen
Wahrscheinlichkeitsverteilungen zurückgegriffen.
Statistik &
Methodenlehre
e ode e e
1 Stichprobe
2 Stichproben
p
(abhängig)
2 Stichproben
(unabhängig)
Zusammenhangsmaße
Korrelationstests
Korrelationstest
Varianten
Für den statistischen Test von Korrelationen anhand
von Stichprobendaten existieren verschiedene
Verfahren, abhängig von der jeweiligen
Forschungsfrage
•
Test einer Korrelation gegen Null
•
Test einer Korrelation gegen einen gegebenen
Populationswert
•
Vergleich von Korrelationskoeffizienten aus zwei
unabhängigen Stichproben
•
Vergleich von Korrelationskoeffizienten aus
abhängigen Stichproben
Konfidenzint.
Statistik &
Methodenlehre
e ode e e
1 Stichprobe
2 Stichproben
p
(abhängig)
2 Stichproben
(unabhängig)
Konfidenzint.
Zusammenhangsmaße
Korrelationstests
Korrelationstest
Schätzung des Populationsparameters ρ
Aus Stichprobendaten erhält man eine empirisch
beobachtete Produkt-Moment-Korrelation r.
Frage: Wie erhält man daraus die Schätzung des
Populationsparameters ρ für die Korrelation?
Es lässt sich zeigen,
g , dass die Produkt-MomentKorrelation eine erwartungstreue Schätzung des
Populationsparameters ist.
Also gilt für die Zufallsvariablen X und Y:
ρˆ XY = rXY
Statistik &
Methodenlehre
e ode e e
1 Stichprobe
2 Stichproben
p
(abhängig)
2 Stichproben
(unabhängig)
Zusammenhangsmaße
Korrelationstests
Korrelationstest
Test einer Korrelation gegen Null
Bei empirisch beobachteten Korrelationen zweier
Zufallsvariablen ist die erste Forschungsfrage oft, ob es
in der Population überhaupt einen Zusammenhang gibt.
Dies entspricht dem Test der aus einer Stichprobe
geschätzten Korrelation gegen den Erwartungswert
ρ = 0.
Die zu testenden Hypothesen sind
Konfidenzint.
a) H 0 : ρˆ = 0; H1 : ρˆ ≠ 0
b) H 0 : ρˆ ≤ 0; H1 : ρˆ > 0
c) H 0 : ρˆ ≥ 0; H1 : ρˆ < 0
Statistik &
Methodenlehre
e ode e e
1 Stichprobe
Zusammenhangsmaße
Korrelationstests
Korrelationstest
Test einer Korrelation gegen Null
2 Stichproben
p
(abhängig)
Die Verteilung von Korrelationskoeffizienten bzw
bzw. ihre
Parameter sind nicht einfach bestimmbar.
2 Stichproben
(unabhängig)
Es lässt sich aber eine geeignete Transformation finden,
so dass der Kennwert approximativ t-verteilt ist um
einen Erwartungswert von ρ = 0.
Konfidenzint.
ρˆt − 0
t=
σ ρˆ
t
mit
ρˆ t =
ρˆ
1 − ρˆ 2
und
1
σ ρˆt =
n−2
Die Prüfgröße ist t-verteilt mit df = n – 2 Freiheitsgraden
Wie beim t-Test kann ein- oder zweiseitig geprüft werden.
Statistik &
Methodenlehre
e ode e e
1 Stichprobe
Zusammenhangsmaße
Korrelationstests
Korrelationstest
Test einer Korrelation gegen Null
2 Stichproben
p
(abhängig)
Die Verteilung von Korrelationskoeffizienten bzw
bzw. ihre
Parameter sind nicht einfach bestimmbar.
2 Stichproben
(unabhängig)
Es lässt sich aber eine geeignete Transformation finden,
so dass der Kennwert approximativ t-verteilt ist um
einen Erwartungswert von ρ = 0.
Konfidenzint.
ρˆt − 0
t=
σ ρˆ
t
mit
ρˆ t =
r
1− r
2
und
1
σ ρˆt =
n−2
Die Prüfgröße ist t-verteilt mit df = n – 2 Freiheitsgraden
Wie beim t-Test kann ein- oder zweiseitig geprüft werden.
Statistik &
Methodenlehre
e ode e e
1 Stichprobe
2 Stichproben
p
(abhängig)
2 Stichproben
(unabhängig)
Konfidenzint.
Zusammenhangsmaße
Korrelationstests
Korrelationstest
Test einer Korrelation gegen einen Populationswert
Bei bestimmten Fragestellung ist der
Populationsparameter für die Korrelation zweier
Zufallsvariablen bereits bekannt.
Beispiel: Korrelation zwischen IST-2000R und
Berufserfolg ist ρ = .47.
Dies entspricht dem Test einer geschätzten Korrelation
gegen den Erwartungswert ρ = c.
Die zu testenden Hypothesen sind
a) H 0 : ρˆ = c; H1 : ρˆ ≠ c
b)) H 0 : ρˆ ≤ c; H1 : ρˆ > c
c) H 0 : ρˆ ≥ c; H1 : ρˆ < c
Statistik &
Methodenlehre
e ode e e
1 Stichprobe
2 Stichproben
p
(abhängig)
2 Stichproben
(unabhängig)
Konfidenzint.
Zusammenhangsmaße
Korrelationstests
Korrelationstest
Test einer Korrelation gegen einen Populationswert
Soll geprüft werden, ob ein beobachtetes r einer
Population mit dem wahren Parameter ρ = c ≠ 0
entstammt, ist die t-Prüfgröße nicht anwendbar.
Die Fisher-Z Transformation überführt eine Korrelation in
einen approximativ normalverteilten
l
il
Kennwert.
Es g
gilt:
1 ⎛ 1 + ρˆ ⎞ 1 ⎛ 1 + r ⎞
Z = ⋅ ln ⎜
= ⋅ ln ⎜
⎟
⎟
2 ⎝ 1 − ρˆ ⎠ 2 ⎝ 1 − r ⎠
ist unter der H0
approximativ
normalverteilt mit
Die Prüfgröße
z=
μZ = Z ( ρ )
Z − μZ
σZ
und
1
σZ =
n−3
ist standardnormalver
teilt mit μ=0 und σ=1.
Statistik &
Methodenlehre
e ode e e
1 Stichprobe
Zusammenhangsmaße
Korrelationstests
Korrelationstest
Vergleich von zwei Korrelationskoeffizienten I
2 Stichproben
p
(unabhängig)
Liegen aus zwei unabhängigen Stichproben
Messungen zweier Zufallsvariablen vor, so kann für jede
Stichprobe eine Korrelation zwischen den ZVn berechnet
werden.
2 Stichproben
(abhängig)
Es kann nun geprüft werden, ob beide Stichproben zu
einer Population mit demselben Erwartungswert der
Korrelation zwischen den Zufallsvariablen gehören.
Konfidenzint.
Die zu testenden Hypothesen sind
a)) H 0 : ρˆ1 = ρˆ 2 ; H1 : ρˆ1 ≠ ρˆ 2
b)) H 0 : ρˆ1 ≤ ρˆ 2 ; H1 : ρˆ1 > ρˆ 2
c) H 0 : ρˆ1 ≥ ρˆ 2 ; H1 : ρˆ1 < ρˆ 2
Statistik &
Methodenlehre
e ode e e
1 Stichprobe
2 Stichproben
p
(unabhängig)
2 Stichproben
(abhängig)
Konfidenzint.
Zusammenhangsmaße
Korrelationstests
Korrelationstest
Vergleich von zwei Korrelationskoeffizienten I
Mithilfe der Fisher Z-Transformation können zwei
Korrelationskoeffizienten r1 und r2 aus zwei
unabhängigen Stichproben der Größen n1 und n2 auf
Unterschiedlichkeit geprüft werden
Die Prüfgröße z ist nach Fisher-Z Transformation der
Korrelationen standardnormalverteilt mit μ=0 und
σ=1
1 und berechnet sich als
z=
Z1 − Z 2
D St
Der
Standardfehler
d df hl σΔz ist
i t
σΔ
Z1Z 2
σΔ
Z1Z 2
1
1
=
+
n1 − 3 n2 − 3
Statistik &
Methodenlehre
e ode e e
1 Stichprobe
2 Stichproben
p
(unabhängig)
2 Stichproben
(abhängig)
Konfidenzint.
Zusammenhangsmaße
Korrelationstests
Korrelationstest
Vergleich von zwei Korrelationskoeffizienten II
Beim Test von Korrelationen aus einer Stichprobe
(also „abhängige Korrelationen“) unterscheidet man zwei
Fälle:
1 2 Korrelationen
1.
Ko elationen von
on Zufallsvariablen
Z falls a iablen X1 und
nd X2
mit einer Drittvariable Y
→ rX1Y
vs. rX2Y
2. 2 Korrelationen von Variablen X1 mit X2 und Y1
mit Y2
→ rX1X2 vs. rY1Y2
Die Hypothesen sind dieselben wie beim Korrelationstest
für zwei unabhängige Stichproben.
Statistik &
Methodenlehre
e ode e e
1 Stichprobe
2 Stichproben
p
(unabhängig)
2 Stichproben
(abhängig)
Konfidenzint.
Zusammenhangsmaße
Korrelationstests
Korrelationstest
Vergleich von zwei Korrelationskoeffizienten IIa
Die Prüfgröße
g
für den Vergleich
g
von zwei abhängigen
gg
Korrelationen aus Stichproben der Größe n ist immer:
z=
Z X1Y − Z X 2Y
σΔ
ZX Y ZX Y
1
2
mit
σΔ
Z x yZ x y
1
2
2 − 2⋅C
=
n−3
Der Term C variiert abhängig davon, ob es sich um den
Vergleich von rX1Y mit rY2Y oder rX1X2 mit rY1Y2 handelt
Die Prüfgröße z ist standardnormalverteilt mit μ=0
und σ=1.
Statistik &
Methodenlehre
e ode e e
1 Stichprobe
Zusammenhangsmaße
Korrelationstest
Vergleich von zwei Korrelationskoeffizienten IIa
Für den Vergleich von zwei abhängigen Korrelationen
rX1Y und rX2Y ist der Term C:
2 Stichproben
p
(unabhängig)
2 Stichproben
(abhängig)
Konfidenzint.
Korrelationstests
C=
(1 − r
1
2
pooled
mit
)
2
1 2
⎛
⎞
2
2
⋅ ⎜ rx1x2 ⋅ (1 − 2 ⋅ rpooled ) − ⋅ rpooled ⋅ 1 − 2 ⋅ rpooled
− rx21x2 ⎟
2
⎝
⎠
(
(
rpooled = rx1 y + rx2 y
)
2
)
Statistik &
Methodenlehre
e ode e e
1 Stichprobe
2 Stichproben
p
(unabhängig)
Zusammenhangsmaße
Korrelationstest
Vergleich von zwei Korrelationskoeffizienten IIa
Für den Vergleich von zwei abhängigen Korrelationen
rX1X2 und rY1Y2 ist der Term C:
C=
2 Stichproben
(abhängig)
Korrelationstests
1
2
2 ⋅ (1 − rpooled
)
2
⋅
[(rx1 y1 − rx1x2 ⋅ rx2 y1 ) ⋅ (rx2 y2 − rx2 y1 .ry1 y2 )
+ (rx1 y2 − rx1 y1 ⋅ ry1 y2 ) ⋅ ( rx2 y1 − rx1x2 ⋅ rx1 y1 )
+ (rx1 y1 − rx1 y2 ⋅ ry1 y2 ) ⋅ ( rx2 y2 − rx1x2 ⋅ rx1 y2 )
+ (rx1 y2 − rx1x2 ⋅ rx2 y2 ) ⋅ (rx2 y1 − rx2 y2 ⋅ ry1 y2 )]
Konfidenzint.
mit
(
rpooled = rx1x2 + ry1 y2
)
2
Statistik &
Methodenlehre
e ode e e
1 Stichprobe
2 Stichproben
p
(unabhängig)
Zusammenhangsmaße
Korrelationstests
Korrelationstest
Konstruktion von Konfidenzintervallen für r
Mithilfe der Fisher Z-Transformation lassen sich
Konfidenzintervalle für einen beobachteten
Kritischer Wert aus
der StandardKorrelationskoeffizienten r konstruieren
normalverteilung
2 Stichproben
(abhängig)
⎡⎣ Z r − z1−α /2 ⋅ σ Zr ; Z r + z1−α /2 ⋅ σ Z r ⎦⎤
Die Konfidenzintervallgrenzen konstruiert man
zunächst in Z-Metrik über
Konfidenzint.
Z r ± z1−α 2 ⋅ σ Z
bzw
bzw.
1
Z r ± z1−α 2 ⋅
N −3
Dann können die Grenzen über
die inverse Fisher Z-Transformation
wieder in r-Metrik übersetzt werden:
e2 Z − 1
r = 2Z
e +1
Statistik &
Methodenlehre
e ode e e
Assoziation
Kausalität
Zusammenhangsmaße
Korrelationstests
Korrelationstest
Interpretation signifikanter Korrelationen
Die Verteilungsannahme der Prüfgröße bei Korrelationen
ist besonders bei kleinen Stichprobengrößen eher heikel.
Eine signifikante Korrelation zwischen zwei
Z f ll
Zufallsvariablen
i bl X und
d Y darf
d f nicht
i ht ohne
h
weiteres
it
als
l
Kausalität zwischen den Variablen interpretiert werden.
Eine signifikante Korrelation zeigt zunächst nur eine
Assoziation an. Diese kann viele Ursachen haben, z.B.
X
Y
X
Y
Z
X
Y
Statistik &
Methodenlehre
e ode e e
Assoziation
Kausalität
Zusammenhangsmaße
Korrelationstests
Korrelationstest
Interpretation signifikanter Korrelationen
Frage: Wann darf in einer psychologischen
Untersuchung auf Kausalität geschlossen werden?
1 Das Treatment und der Effekt müssen kovariieren
1.
→ der Korrelationstest muss eine Signifkanz anzeigen
Probleme:
– Standards (z.B. Signifkanzniveau) sind normativ
– Je höher n,, desto eher werden kleinste Effekte
signifkant
Statistik &
Methodenlehre
e ode e e
Assoziation
Kausalität
Zusammenhangsmaße
Korrelationstests
Korrelationstest
Interpretation signifikanter Korrelationen
Frage: Wann darf in einer psychologischen
Untersuchung auf Kausalität geschlossen werden?
1 Das Treatment und der Effekt müssen kovariieren
1.
→ der Korrelationstest muss eine Signifkanz anzeigen
2. Die Ursache muss der Wirkung zeitlich vorausgehen
(z.B. Pretest – Treatment – Posttest)
3. Andere p
plausible Erklärungen
g für die Kovariation müssen
ausgeschlossen werden können
4. Die Kovariation muss raum-zeitlich indifferent sein
→ Generalisierung auf eine Population zu jeder Zeit
Statistik &
Methodenlehre
e ode e e
Zusammenhangsmaße
Korrelationstests
Relevante Excel Funktionen
Zusammenhangsmaße
• KORREL()
• LN()
• EXP()
Herunterladen