Statistik & Methodenlehre e ode e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 ((Raum 06-206)) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. g Mathematische und statistische Methoden II Dr. Malte Persike } [email protected] http://psymet03.sowi.uni-mainz.de/methods/ SS 2010 Fachbereich Sozialwissenschaften Psychologisches Institut Johannes Gutenberg Universität Mainz Statistik & Methodenlehre e ode e e Definition Zusammenhangsmaße Korrelationstests Wahrscheinlichkeitsverteilungen Uni- und multivariate Zufallsvariablen Kovarianz Korrelation Univariate Zufallsvariable X: Zuweisung nur einer Zahl zu jedem Ergebnis eines Zufallsexperiments (d.h. zu jedem zufällig ausgewählten Merkmalsträger) Multivariate Zufallsvariable X , Y, …: Zuweisung mehrerer Zahlen zu jedem Ergebnis Einer der häufigsten Spezialfälle multivariater Zufallsvariablen ist der bivariate Fall mit zwei ZVn X und Y Beispiele für mehrdimensionale Zufallsvariablen: ▪ Erfassung von mathematischem und verbalem IQ ▪ Messung von Ölverbrauch und Ausfallrate ▪ Erfassung von Einkommen und Parteipräferenz Statistik & Methodenlehre e ode e e Definition Zusammenhangsmaße Korrelationstests Wahrscheinlichkeitsverteilungen Uni- und multivariate Wahrscheinlichkeitsverteilungen Kovarianz Korrelation Die Wahrscheinlichkeitsverteilung einer univariaten Zufallsvariablen wird zumeist mit f(x) bezeichnet. Sie beschreibt Si b h ib die di Punktwahrscheinlichkeit k h h i li hk i für fü das d Auftreten einer Ausprägung X=x. Die Wahrscheinlichkeitsverteilung Di W h h i li hk it t il einer i multivariaten lti i t Zufallsvariablen wird zumeist mit f(x,y,…) bezeichnet. Sie beschreibt die Punktwahrscheinlichkeit für das Auftreten einer Wertekombination X=x, Y=y, …. Statistik & Methodenlehre e ode e e Definition Zusammenhangsmaße Korrelationstests Wahrscheinlichkeitsverteilungen Der bivariate Fall – Multivariate Verteilungsfunktion Kovarianz Die Verteilungsfunktion zweier diskreter Zufallsvariablen X und Y ist definiert als m Korrelation n f ( X ≤ xm , Y ≤ yn ) = ∑∑ f ( xi , y j ) i =1 j =1 Die Verteilungsfunktion zweier stetiger Z f ll Zufallsvariablen i bl X und d Y ist i t definiert d fi i t als l F ( xu ≤ X ≤ xo , yu ≤ Y ≤ yo ) = xo yo ∫∫ f XY ( x, y ) dxdy xu yu Wie bei univariaten stetigen Verteilungen ist die Punktwahrscheinlichkeit stets Null, nur die Intervallwahrscheinlichkeit ist ein sinnvoller Wert. Statistik & Methodenlehre e ode e e Definition Zusammenhangsmaße Korrelationstests Wahrscheinlichkeitsverteilungen Der bivariate Fall – Beispiel Normalverteilung Kovarianz Die univariate Wahrscheinlichkeitsfunktion der Normalverteilung war ⎛ 1 ⎛ x − μ ⎞2 ⎞ 1 x f ( x) = ⋅ expp ⎜ − ⋅ ⎜ ⎟ ⎟⎟ ⎜ 2 σ 2πσ x x ⎝ ⎠ ⎠ ⎝ Korrelation Die bivariate Wahrscheinlichkeitsfunktion der Normalverteilung lautet f X ( x, y ) = 1 2πσ xσ y ⎛ ⎞ ⎡ x − μ 2 ( y − μ )2 x − μx ) ( y − μ y ) ⎤ ⎟ 1 ( ( y x) ⎜ ⎢ ⎥ exp − + − 2ρ ⋅ ⋅ ⎜ 2(1 − ρ 2 ) ⎢ σ x2 σ y2 σx σy ⎥⎟ 1− ρ 2 ⎣ ⎦⎠ ⎝ Frage: Welche Rolle spielt der Parameter ρ? Statistik & Methodenlehre e ode e e Definition Zusammenhangsmaße Korrelationstests Wahrscheinlichkeitsverteilungen Der bivariate Fall – Beispiel Normalverteilung Kovarianz Niedriger Zusammenhang zwischen X und Y Hoher Zusammenhang zwischen X und Y Korrelation Die Elongation oder „Länglichkeit“ der multivariaten Wahrscheinlichkeitsverteilung ist ein Kennzeichen für den Zusammenhang der Zufallsvariablen (Parameter ρ im Fall der bivariaten Normalverteilung) Statistik & Methodenlehre e ode e e Definition Zusammenhangsmaße Korrelationstests Wahrscheinlichkeitsverteilungen Der bivariate Fall – Numerische Beschreibung Kovarianz Korrelation Die Größe des Zusammenhangs g zweier Zufallsvariablen wird als Kovarianz bezeichnet cov XY = E ⎡⎣( X − E ( X ) ) ⋅ (Y − E (Y ) ) ⎤⎦ Die Kovarianz ist Null, wenn kein Zusammenhang zwischen den Zufallsvariablen besteht. Wahrscheinlichkeitsfunktionen für X und Y hängen nicht zusammen Die Kovarianz ist positiv, wenn ein gleichsinniger Zusammenhang besteht Hohe (niedrige) Werte von X treten mit hohen (niedrigen) Werten von Y auf Die Kovarianz Di K i ist i t negativ, ti wenn ein i gegensinniger i i Zusammenhang besteht Niedrige (hohe) Werte von X treten mit hohen (niedrigen) Werten von Y auf Statistik & Methodenlehre e ode e e Definition Zusammenhangsmaße Korrelationstests Häufigkeitsverteilungen Der bivariate Fall – Numerische Beschreibung Kovarianz Korrelation 0 0.1 0.2 0.3 0.4 0 0.2 0.4 Statistik & Methodenlehre e ode e e Definition Zusammenhangsmaße Korrelationstests Häufigkeitsverteilungen Der bivariate Fall – Numerische Beschreibung Kovarianz Korrelation Für n Beobachtungen g aus einem Zufallsexperiment p x1…xn und y1…yn ist die Kovarianz definiert als 1 n sxy = ∑ ( xi − x )( yi − y ) n i =1 Es gelten bei der empirischen Kovarianz dieselben Prinzipien wie für die Kovarianz zwischen theoretischen Wahrscheinlichkeitsverteilungen. g Die so berechnete Kovarianz ist nur bei mindestens intervallskalierten Zufallsvariablen ein sinnvolles Maß. Statistik & Methodenlehre e ode e e Definition Zusammenhangsmaße Korrelationstests Wahrscheinlichkeitsverteilungen Der bivariate Fall – Numerische Beschreibung Kovarianz Korrelation Problem: Die Kovarianz erfüllt nicht die Forderung der Invarianz gegenüber erlaubten Transformationen Für die Formel der empirischen Kovarianz ist das leicht zu zeigen i und d gilt ilt ebenso b für fü di die th theoretische ti h Verteilung V t il Zwar gilt: Addition einer Konstanten zu X und Y: cov X +a ,Y + B = cov X ,Y sxy ( x + a, y + b) = sxy Aber: Multiplikation M ltiplikation von on X und nd X mit eine einer Konstanten cov a⋅ X ,b⋅Y = a ⋅ b ⋅ cov X ,Y sxy (a ⋅ X , b ⋅ Y ) = a ⋅ b ⋅ sxy Die Kovarianz ist also numerisch schwer zu interpretieren Statistik & Methodenlehre e ode e e Definition Zusammenhangsmaße Korrelationstests Wahrscheinlichkeitsverteilungen Der bivariate Fall – Numerische Beschreibung Kovarianz Korrelation Die Korrelation zweier Zufallsvariablen ist definiert als ρ= E ⎡⎣( X − E ( X ) ) ⋅ (Y − E (Y ) ) ⎦⎤ E ( X − E ( X ) ) ⋅ E (Y − E (Y ) ) 2 2 cov XY = σ X ⋅σ Y Für die Richtungsinformation gelten dieselben Regeln wie bei der Kovarianz Der Wert der Korrelation schwankt zwischen -1 und 1 Bei der Korrelation ist neben der Richtung (Vorzeichen) also l auch h die di Stärke Stä k (Betrag) (B t ) d des Z Zusammenhangs h zwischen X und Y interpretier- und vergleichbar. Statistik & Methodenlehre e ode e e Definition Zusammenhangsmaße Korrelationstests Häufigkeitsverteilungen Der bivariate Fall – Numerische Beschreibung Kovarianz Für empirische Daten gibt es je nach Skalenniveau verschiedene Berechnungsformel für die Korrelation. Korrelation Für n intervallskalierte Beobachtungen aus einem Zufallsexperiment x1…xn und y1…yn ist der Korrelationskoeffizient definiert als rxy = 1 n ( xi − x )( yi − y ) ∑ sxy n i =1 = n n sx ⋅ s y 1 1 2 2 ( xi − x ) ⋅ ( yi − y ) ∑ ∑ n i =1 n i =1 Statistik & Methodenlehre e ode e e Definition Zusammenhangsmaße Korrelationstests Häufigkeitsverteilungen Der bivariate Fall – Numerische Beschreibung Kovarianz Der so definierte Korrelationskoeffizient rxy wird auch als Produkt-Moment-Korrelation oder Korrelationskoeffizient nach Pearson bezeichnet. Korrelation Die Korrelation liegt immer zwischen -1 und 1. Die Korrelation ist Null Null, wenn kein Zusammenhang zwischen den Ausprägungen der Zufallsvariablen besteht Negative egat e Werte e te zeigen e ge e einen e gege gegensinnigen, s ge , pos positive t e Werte einen gleichsinnigen Zusammenhang an Die Korrelation ist anfällig gg gegenüber g Ausreißern Statistik & Methodenlehre e ode e e Definition Zusammenhangsmaße Korrelationstests Häufigkeitsverteilungen Der bivariate Fall – Numerische Beschreibung Kovarianz Korrelation Kovarianz Korrelation sx,y = sy,x rx,y = rx,y sa,x = 0 ra,y = nicht def. sa,b = 0 ra,b = nicht def. sx,x x x = s²x rx,x xx = 1 sa·x+b,c·x+d = a·c·sx,y ra·x+b, c·y+d = rx, y Mit a, b, c, d = konstante Werte Achtung: g Ist a oder b negativ, g , verändert sich das Vorzeichen von r, sind beide negativ, bleibt r gleich. Statistik & Methodenlehre e ode e e Definition Zusammenhangsmaße Korrelationstests Häufigkeitsverteilungen Der bivariate Fall – Numerische Beschreibung Kovarianz Korrelation Für die Bewertung g der absoluten Höhe der ProduktMoment-Korrelation existieren Faustregeln nach Cohen (1988) r = ± 0.10 → kleine Korrelation r = ± 0.30 → mittlere Korrelation r = ± 0.50 → hohe Korrelation In der de nicht-experimentellen ni ht e pe imentellen Psychologie P hologie liegen Korrelationen selten über r=0.75. Statistik & Methodenlehre e ode e e Definition Zusammenhangsmaße Korrelationstests Häufigkeitsverteilungen Der bivariate Fall – Numerische Beschreibung Kovarianz Korrelation Statistik & Methodenlehre e ode e e Definition Zusammenhangsmaße Korrelationstests Häufigkeitsverteilungen Der bivariate Fall – Grafische Beschreibung Kovarianz Korrelation Liegen für f eine Stichprobe h b Messungen der d Ausprägung zweier Zufallsvariablen X und Y vor, so ist jeder Merkmalsträger durch ein Wertepaar gekennzeichnet. Die Merkmalsträger können nun als Punkte in einem KoordinatenKoordinaten system dargestellt werden, wobei das Wertepaar die Koordinaten festlegt. Dies ist ein Scatterplot Statistik & Methodenlehre e ode e e Definition Diskrete Verteilungen Stetige Verteilungen Häufigkeitsverteilungen Der multivariate Fall – Grafische Beschreibung Kovarianz Korrelation Die grafische Beschreibung multivariater Wahrscheinlichkeitsverteilungen ist aufwändig und vollständig nur in niedrig multivariaten Fällen zu leisten. Die Darstellungen sind dann oft dreidimensional. Bei höher multivariaten Verbundverteilungen g wird zumeist auf die univariate Darstellung der einzelnen Wahrscheinlichkeitsverteilungen zurückgegriffen. Statistik & Methodenlehre e ode e e 1 Stichprobe 2 Stichproben p (abhängig) 2 Stichproben (unabhängig) Zusammenhangsmaße Korrelationstests Korrelationstest Varianten Für den statistischen Test von Korrelationen anhand von Stichprobendaten existieren verschiedene Verfahren, abhängig von der jeweiligen Forschungsfrage • Test einer Korrelation gegen Null • Test einer Korrelation gegen einen gegebenen Populationswert • Vergleich von Korrelationskoeffizienten aus zwei unabhängigen Stichproben • Vergleich von Korrelationskoeffizienten aus abhängigen Stichproben Konfidenzint. Statistik & Methodenlehre e ode e e 1 Stichprobe 2 Stichproben p (abhängig) 2 Stichproben (unabhängig) Konfidenzint. Zusammenhangsmaße Korrelationstests Korrelationstest Schätzung des Populationsparameters ρ Aus Stichprobendaten erhält man eine empirisch beobachtete Produkt-Moment-Korrelation r. Frage: Wie erhält man daraus die Schätzung des Populationsparameters ρ für die Korrelation? Es lässt sich zeigen, g , dass die Produkt-MomentKorrelation eine erwartungstreue Schätzung des Populationsparameters ist. Also gilt für die Zufallsvariablen X und Y: ρˆ XY = rXY Statistik & Methodenlehre e ode e e 1 Stichprobe 2 Stichproben p (abhängig) 2 Stichproben (unabhängig) Zusammenhangsmaße Korrelationstests Korrelationstest Test einer Korrelation gegen Null Bei empirisch beobachteten Korrelationen zweier Zufallsvariablen ist die erste Forschungsfrage oft, ob es in der Population überhaupt einen Zusammenhang gibt. Dies entspricht dem Test der aus einer Stichprobe geschätzten Korrelation gegen den Erwartungswert ρ = 0. Die zu testenden Hypothesen sind Konfidenzint. a) H 0 : ρˆ = 0; H1 : ρˆ ≠ 0 b) H 0 : ρˆ ≤ 0; H1 : ρˆ > 0 c) H 0 : ρˆ ≥ 0; H1 : ρˆ < 0 Statistik & Methodenlehre e ode e e 1 Stichprobe Zusammenhangsmaße Korrelationstests Korrelationstest Test einer Korrelation gegen Null 2 Stichproben p (abhängig) Die Verteilung von Korrelationskoeffizienten bzw bzw. ihre Parameter sind nicht einfach bestimmbar. 2 Stichproben (unabhängig) Es lässt sich aber eine geeignete Transformation finden, so dass der Kennwert approximativ t-verteilt ist um einen Erwartungswert von ρ = 0. Konfidenzint. ρˆt − 0 t= σ ρˆ t mit ρˆ t = ρˆ 1 − ρˆ 2 und 1 σ ρˆt = n−2 Die Prüfgröße ist t-verteilt mit df = n – 2 Freiheitsgraden Wie beim t-Test kann ein- oder zweiseitig geprüft werden. Statistik & Methodenlehre e ode e e 1 Stichprobe Zusammenhangsmaße Korrelationstests Korrelationstest Test einer Korrelation gegen Null 2 Stichproben p (abhängig) Die Verteilung von Korrelationskoeffizienten bzw bzw. ihre Parameter sind nicht einfach bestimmbar. 2 Stichproben (unabhängig) Es lässt sich aber eine geeignete Transformation finden, so dass der Kennwert approximativ t-verteilt ist um einen Erwartungswert von ρ = 0. Konfidenzint. ρˆt − 0 t= σ ρˆ t mit ρˆ t = r 1− r 2 und 1 σ ρˆt = n−2 Die Prüfgröße ist t-verteilt mit df = n – 2 Freiheitsgraden Wie beim t-Test kann ein- oder zweiseitig geprüft werden. Statistik & Methodenlehre e ode e e 1 Stichprobe 2 Stichproben p (abhängig) 2 Stichproben (unabhängig) Konfidenzint. Zusammenhangsmaße Korrelationstests Korrelationstest Test einer Korrelation gegen einen Populationswert Bei bestimmten Fragestellung ist der Populationsparameter für die Korrelation zweier Zufallsvariablen bereits bekannt. Beispiel: Korrelation zwischen IST-2000R und Berufserfolg ist ρ = .47. Dies entspricht dem Test einer geschätzten Korrelation gegen den Erwartungswert ρ = c. Die zu testenden Hypothesen sind a) H 0 : ρˆ = c; H1 : ρˆ ≠ c b)) H 0 : ρˆ ≤ c; H1 : ρˆ > c c) H 0 : ρˆ ≥ c; H1 : ρˆ < c Statistik & Methodenlehre e ode e e 1 Stichprobe 2 Stichproben p (abhängig) 2 Stichproben (unabhängig) Konfidenzint. Zusammenhangsmaße Korrelationstests Korrelationstest Test einer Korrelation gegen einen Populationswert Soll geprüft werden, ob ein beobachtetes r einer Population mit dem wahren Parameter ρ = c ≠ 0 entstammt, ist die t-Prüfgröße nicht anwendbar. Die Fisher-Z Transformation überführt eine Korrelation in einen approximativ normalverteilten l il Kennwert. Es g gilt: 1 ⎛ 1 + ρˆ ⎞ 1 ⎛ 1 + r ⎞ Z = ⋅ ln ⎜ = ⋅ ln ⎜ ⎟ ⎟ 2 ⎝ 1 − ρˆ ⎠ 2 ⎝ 1 − r ⎠ ist unter der H0 approximativ normalverteilt mit Die Prüfgröße z= μZ = Z ( ρ ) Z − μZ σZ und 1 σZ = n−3 ist standardnormalver teilt mit μ=0 und σ=1. Statistik & Methodenlehre e ode e e 1 Stichprobe Zusammenhangsmaße Korrelationstests Korrelationstest Vergleich von zwei Korrelationskoeffizienten I 2 Stichproben p (unabhängig) Liegen aus zwei unabhängigen Stichproben Messungen zweier Zufallsvariablen vor, so kann für jede Stichprobe eine Korrelation zwischen den ZVn berechnet werden. 2 Stichproben (abhängig) Es kann nun geprüft werden, ob beide Stichproben zu einer Population mit demselben Erwartungswert der Korrelation zwischen den Zufallsvariablen gehören. Konfidenzint. Die zu testenden Hypothesen sind a)) H 0 : ρˆ1 = ρˆ 2 ; H1 : ρˆ1 ≠ ρˆ 2 b)) H 0 : ρˆ1 ≤ ρˆ 2 ; H1 : ρˆ1 > ρˆ 2 c) H 0 : ρˆ1 ≥ ρˆ 2 ; H1 : ρˆ1 < ρˆ 2 Statistik & Methodenlehre e ode e e 1 Stichprobe 2 Stichproben p (unabhängig) 2 Stichproben (abhängig) Konfidenzint. Zusammenhangsmaße Korrelationstests Korrelationstest Vergleich von zwei Korrelationskoeffizienten I Mithilfe der Fisher Z-Transformation können zwei Korrelationskoeffizienten r1 und r2 aus zwei unabhängigen Stichproben der Größen n1 und n2 auf Unterschiedlichkeit geprüft werden Die Prüfgröße z ist nach Fisher-Z Transformation der Korrelationen standardnormalverteilt mit μ=0 und σ=1 1 und berechnet sich als z= Z1 − Z 2 D St Der Standardfehler d df hl σΔz ist i t σΔ Z1Z 2 σΔ Z1Z 2 1 1 = + n1 − 3 n2 − 3 Statistik & Methodenlehre e ode e e 1 Stichprobe 2 Stichproben p (unabhängig) 2 Stichproben (abhängig) Konfidenzint. Zusammenhangsmaße Korrelationstests Korrelationstest Vergleich von zwei Korrelationskoeffizienten II Beim Test von Korrelationen aus einer Stichprobe (also „abhängige Korrelationen“) unterscheidet man zwei Fälle: 1 2 Korrelationen 1. Ko elationen von on Zufallsvariablen Z falls a iablen X1 und nd X2 mit einer Drittvariable Y → rX1Y vs. rX2Y 2. 2 Korrelationen von Variablen X1 mit X2 und Y1 mit Y2 → rX1X2 vs. rY1Y2 Die Hypothesen sind dieselben wie beim Korrelationstest für zwei unabhängige Stichproben. Statistik & Methodenlehre e ode e e 1 Stichprobe 2 Stichproben p (unabhängig) 2 Stichproben (abhängig) Konfidenzint. Zusammenhangsmaße Korrelationstests Korrelationstest Vergleich von zwei Korrelationskoeffizienten IIa Die Prüfgröße g für den Vergleich g von zwei abhängigen gg Korrelationen aus Stichproben der Größe n ist immer: z= Z X1Y − Z X 2Y σΔ ZX Y ZX Y 1 2 mit σΔ Z x yZ x y 1 2 2 − 2⋅C = n−3 Der Term C variiert abhängig davon, ob es sich um den Vergleich von rX1Y mit rY2Y oder rX1X2 mit rY1Y2 handelt Die Prüfgröße z ist standardnormalverteilt mit μ=0 und σ=1. Statistik & Methodenlehre e ode e e 1 Stichprobe Zusammenhangsmaße Korrelationstest Vergleich von zwei Korrelationskoeffizienten IIa Für den Vergleich von zwei abhängigen Korrelationen rX1Y und rX2Y ist der Term C: 2 Stichproben p (unabhängig) 2 Stichproben (abhängig) Konfidenzint. Korrelationstests C= (1 − r 1 2 pooled mit ) 2 1 2 ⎛ ⎞ 2 2 ⋅ ⎜ rx1x2 ⋅ (1 − 2 ⋅ rpooled ) − ⋅ rpooled ⋅ 1 − 2 ⋅ rpooled − rx21x2 ⎟ 2 ⎝ ⎠ ( ( rpooled = rx1 y + rx2 y ) 2 ) Statistik & Methodenlehre e ode e e 1 Stichprobe 2 Stichproben p (unabhängig) Zusammenhangsmaße Korrelationstest Vergleich von zwei Korrelationskoeffizienten IIa Für den Vergleich von zwei abhängigen Korrelationen rX1X2 und rY1Y2 ist der Term C: C= 2 Stichproben (abhängig) Korrelationstests 1 2 2 ⋅ (1 − rpooled ) 2 ⋅ [(rx1 y1 − rx1x2 ⋅ rx2 y1 ) ⋅ (rx2 y2 − rx2 y1 .ry1 y2 ) + (rx1 y2 − rx1 y1 ⋅ ry1 y2 ) ⋅ ( rx2 y1 − rx1x2 ⋅ rx1 y1 ) + (rx1 y1 − rx1 y2 ⋅ ry1 y2 ) ⋅ ( rx2 y2 − rx1x2 ⋅ rx1 y2 ) + (rx1 y2 − rx1x2 ⋅ rx2 y2 ) ⋅ (rx2 y1 − rx2 y2 ⋅ ry1 y2 )] Konfidenzint. mit ( rpooled = rx1x2 + ry1 y2 ) 2 Statistik & Methodenlehre e ode e e 1 Stichprobe 2 Stichproben p (unabhängig) Zusammenhangsmaße Korrelationstests Korrelationstest Konstruktion von Konfidenzintervallen für r Mithilfe der Fisher Z-Transformation lassen sich Konfidenzintervalle für einen beobachteten Kritischer Wert aus der StandardKorrelationskoeffizienten r konstruieren normalverteilung 2 Stichproben (abhängig) ⎡⎣ Z r − z1−α /2 ⋅ σ Zr ; Z r + z1−α /2 ⋅ σ Z r ⎦⎤ Die Konfidenzintervallgrenzen konstruiert man zunächst in Z-Metrik über Konfidenzint. Z r ± z1−α 2 ⋅ σ Z bzw bzw. 1 Z r ± z1−α 2 ⋅ N −3 Dann können die Grenzen über die inverse Fisher Z-Transformation wieder in r-Metrik übersetzt werden: e2 Z − 1 r = 2Z e +1 Statistik & Methodenlehre e ode e e Assoziation Kausalität Zusammenhangsmaße Korrelationstests Korrelationstest Interpretation signifikanter Korrelationen Die Verteilungsannahme der Prüfgröße bei Korrelationen ist besonders bei kleinen Stichprobengrößen eher heikel. Eine signifikante Korrelation zwischen zwei Z f ll Zufallsvariablen i bl X und d Y darf d f nicht i ht ohne h weiteres it als l Kausalität zwischen den Variablen interpretiert werden. Eine signifikante Korrelation zeigt zunächst nur eine Assoziation an. Diese kann viele Ursachen haben, z.B. X Y X Y Z X Y Statistik & Methodenlehre e ode e e Assoziation Kausalität Zusammenhangsmaße Korrelationstests Korrelationstest Interpretation signifikanter Korrelationen Frage: Wann darf in einer psychologischen Untersuchung auf Kausalität geschlossen werden? 1 Das Treatment und der Effekt müssen kovariieren 1. → der Korrelationstest muss eine Signifkanz anzeigen Probleme: – Standards (z.B. Signifkanzniveau) sind normativ – Je höher n,, desto eher werden kleinste Effekte signifkant Statistik & Methodenlehre e ode e e Assoziation Kausalität Zusammenhangsmaße Korrelationstests Korrelationstest Interpretation signifikanter Korrelationen Frage: Wann darf in einer psychologischen Untersuchung auf Kausalität geschlossen werden? 1 Das Treatment und der Effekt müssen kovariieren 1. → der Korrelationstest muss eine Signifkanz anzeigen 2. Die Ursache muss der Wirkung zeitlich vorausgehen (z.B. Pretest – Treatment – Posttest) 3. Andere p plausible Erklärungen g für die Kovariation müssen ausgeschlossen werden können 4. Die Kovariation muss raum-zeitlich indifferent sein → Generalisierung auf eine Population zu jeder Zeit Statistik & Methodenlehre e ode e e Zusammenhangsmaße Korrelationstests Relevante Excel Funktionen Zusammenhangsmaße • KORREL() • LN() • EXP()