Formelsammlung

Werbung
FORMELSAMMLUNG
Rasch, Friese, Hofmann & Naumann (2014). Quantitative Methoden. (4. Auflage). Heidelberg: Springer.
Grundbegriffe der Wahrscheinlichkeitsrechnung
Theoretische Wahrscheinlichkeit
p(A) =
Empirische Wahrscheinlichkeit
p(A) =
(Relative Häufigkeit)
Anzahl günstiger Ereignisse
Anzahl möglicher Ereignisse
f(A) = Häufigkeit des
f (A)
n
Ereignisses A
n = Anzahl aller Ereignisse
Deskriptive Statistik
Skalenniveaus
Zulässige Transformationen:
- Nominalskala
=;≠
- jede, die Gleichheit und
Unterschiedlichkeit erhält
- Rangskala (Ordinal-)
= ; ≠; > ; <
- positive streng monotone
Transformationen
- Intervallskala
= ; ≠; > ; < ; + ; 
- positive lineare
Transformationen der Form
y = a · x + b mit m > 0
- Verhältnisskala
= ; ≠; > ; < ; + ; – ; · ; /
- positive
Ähnlichkeitstransformationen
der Form y = m · x mit m > 0
Prozentwert und Prozentrang
Prozentwert
fk = Häufigkeit in der Kategorie k
fk
100%
n
%k =
%k = Prozentwert in der
Kategorie k
n = Anzahl Beobachtungen
Prozentrang
PR =
fkum(k) = kumulierte Häufigkeit
f kum (k)
 100%
n
%kum(k) = kumulierter
Prozentwert
Maße der zentralen Tendenz
Modalwert (Modus)
Wert, der am häufigsten besetzt
ist
Median
Wert, der eine Verteilung
halbiert
Arithmetisches Mittel
n = Anzahl der Vpn
n
x
x
i 1
i
n
Quelle: http://www.lehrbuch-psychologie.de/qm
18-11-14
xi = Messwert
i = Index der Versuchspersonen
© Rasch, Friese, Hofmann & Naumann
Seite 1 von 15
FORMELSAMMLUNG
Rasch, Friese, Hofmann & Naumann (2014). Quantitative Methoden. (4. Auflage). Heidelberg: Springer.
Gewogenes AM
p
x
n
k 1
k
p = Anzahl der Mittelwerte
p
n
k 1
Mittelwert nach einer linearen
Transformation y = a · x + b
x = Mittelwert der Mittelwerte
 xk
nk = Anzahl der Vpn in Gruppe k
k
y = transformierter Mittelwert
y  ax b
Dispersionsmaße
Varianz (als
Populationsschätzer)
n
 (x
i 1
σ̂ 2x 
σ̂ x = σ̂ 2x
Varianz nach einer linearen
Transformation y = a · x + b
σ̂ 2y  a 2  σ̂ 2x
zx 
xi = Messwert
n 1
Standardabweichung (als
Populationsschätzer)
z-Standardisierung (z-Wert)
n = Anzahl der Vpn
 x) 2
i
i = Index der Versuchspersonen
σ̂ 2x = zu transformierende
Varianz
xi  μ
σ
µ = Populationsmittelwert
σ = Streuung
Inferenzstatistik
Standardfehler des Mittelwertes
n
σ̂ x 
σ̂ 2x

n
 (x
i 1
i
 x)
2
σ̂ 2x = Varianz der Variable x
xi = Wert der Person i auf
Variable x
n  (n  1)
x = Mittelwert der Variable x
n = Stichprobenumfang
Regression und Korrelation
Kovarianz
Empirische Kovarianz
n
cov( x, y ) 
 x
i 1
i
 x    yi  y 
n 1
xi = Wert der Person i auf
Variable x
x = Mittelwert der Variable x
y = Mittelwert der Variable y
n = Stichprobenumfang
Maximale Kovarianz
Produkt-Moment-Korrelation
covmax  σ̂ x  σ̂ y
rxy =
cov( x,y)
σ̂ x  σ̂ y
Quelle: http://www.lehrbuch-psychologie.de/qm
18-11-14
rxy = Korrelation nullter Ordnung
der beiden interessierenden
Merkmale
© Rasch, Friese, Hofmann & Naumann
Seite 2 von 15
FORMELSAMMLUNG
Rasch, Friese, Hofmann & Naumann (2014). Quantitative Methoden. (4. Auflage). Heidelberg: Springer.
Partialkorrelation
rxy z 
rxy  ryz  rxz
rxy|z = Partialkorrelation der
(1  r )  (1  r )
2
yz
2
xz
beiden interessierenden
Merkmale
rxz; ryz = Korrelation von x und y
mit der Drittvariable z
Fishers Z-Transformation
Punktbiseriale Korrelation
Z
1 1  r 
ln

2 1  r 
Z = Z-transformierte Korrelation
r
e 2Z  1
e 2Z  1
r = Korrelationskoeffizient
r pb 
ln = natürlicher Logarithmus
e ≈ 2,7183 (Eulersche Zahl)
y1  y 0
n n
 0 21
σ̂ y
N
y = intervallskalierte Variable
x = dichotome Variable (x = 0; x
=1)
y 0 = Mittelwert von y bei x = 0
y1 = Mittelwert von y bei x = 1
σ̂ y = Streuung der y-Variable
n0 = Anzahl Beobachtungen bei
x=0
n1 = Anzahl Beobachtungen bei
x=1
N = n0 + n1
Rangkorrelation
rs  1 
n
di = Differenz der laufenden Nr.
i 1
2
der Untersuchungseinheit i auf
einem Rangplatz
6   d i2
n  (n  1)
n = Anzahl der Rangplätze
Lineare Regression
Vorhersage von y durch x
ŷ i=b yx x i +a yx
Vorhersage von x durch y
x̂ i=b xy y i +a xy
Regressionsgewicht (Steigung
der Gerade)
b yx=
cov( x,y)
σ̂ 2x
bzw. b xy =
Höhenlage (Schnittpunkt mit y
bei x = 0)
cov( x,y)
σ̂ 2y
ŷi = vorhergesagte Werte
b = Regressionsgewicht
a = additive Konstante
cov(x,y) = Kovarianz von x und y
σ̂ x = Streuung der Variable x
σ̂ y = Streuung der Variable y
a yx  y  b yx  x
bzw. a xy  x  b xy  y
Quelle: http://www.lehrbuch-psychologie.de/qm
18-11-14
© Rasch, Friese, Hofmann & Naumann
Seite 3 von 15
FORMELSAMMLUNG
Rasch, Friese, Hofmann & Naumann (2014). Quantitative Methoden. (4. Auflage). Heidelberg: Springer.
t-Test für Korrelationen
t-Wert
r = Korrelationskoeffizient
r N 2
t df 
n = Anzahl der
1 r2
Versuchspersonen
df = N – 2
Effektstärken
covemp
rxy 
covmax

cov( x,y)
σ̂ x  σ̂ y
Konventionen nach Cohen
(1988):
- kleiner Effekt: r = 0,1
- mittlerer Effekt: r = 0,3
- großer Effekt: r = 0,5
t-Test für unabhängige Stichproben
t-Wert
Empirischer t-Wert unter H0
x1  x 2
σ̂ x1  x2
t df 
x1 = Mittelwert der 1. Gruppe
x 2 = Mittelwert der 2. Gruppe
df = n1 + n2 – 2
σ̂12 = geschätzte
Populationsvarianz der 1.
Gruppe
σ̂ 22 = geschätzte
Populationsvarianz der 2.
Gruppe
Standardfehler der
Mittelwertsdifferenz
Theoretische Effektstärkenmaße
σ̂ 12 σ̂ 22

n1 n 2
σ̂ x1  x2 
d
μ1  μ 2
σx
µ1, µ2 = Mittelwerte der
Populationen, aus denen die
Mittelwerte gezogen werden
2
σ sys
σx = Streuung der Population
innerhalb einer Bedingung
Φ2 
Ω2 
σ 2x
σ
σ
2
sy s
2
Gesamt

σ
σ
2
sy s
2
sy s
 σ 2x
Konventionen nach Cohen
(1988):
- kleiner Effekt: d = 0,2
- mittlerer Effekt: d = 0,5
- großer Effekt: d = 0,8
2 
2
2
2 
2
1  ;
1 2
Konventionen nach Cohen
(1988):
- kleiner Effekt: Ω2 = 0,01
δ  2Φ  2
Quelle: http://www.lehrbuch-psychologie.de/qm
18-11-14
Ω²
1  Ω²
- mittlerer Effekt: Ω2 = 0,06
- großer Effekt: Ω2 = 0,14
© Rasch, Friese, Hofmann & Naumann
Seite 4 von 15
FORMELSAMMLUNG
Rasch, Friese, Hofmann & Naumann (2014). Quantitative Methoden. (4. Auflage). Heidelberg: Springer.
Empirische Effektstärkenmaße
(Schätzungen für die
Population)
d
x1  x 2

σ̂ x
x1  x 2
σ̂  σ̂
2
x1
2
2
Gruppe 2
f2
ω  Ω̂ 
1+f
(auf Stichprobenebene)
f S2 
η 
2
Teststärkebestimmung
(a posteriori)
Stichprobenumfangsplanung
(a priori)
t = empirischer t-Wert
2
N = n1 + n2
ω
1  ω2
2
ω²
1  ω²
d  2 f  2
Empirische Effektstärkenmaße
QS sys
QS x

QS sys
QS Gesamt
t2
df
fS2 = Effekt auf
f S2

1  f S2
η2 = Eta-Quadrat, Effekt auf
Stichprobenebene
Stichprobenebene
λ  2  N

λ = Nonzentralitätsparameter

N
1  2
N
Ω2 = theoretischer Effekt
2
 ;1

2
σ̂ 2x = geschätzte Varianz der
Gruppe 1
σ̂ 2x 2 = geschätzte Varianz der
2
ˆ2
f  
σ̂ x = geschätzte
Populationsstreuung
1
t 1
f 
N
2
2
x1 ,x 2 = Mittelwerte der Gruppen
2
x2

Quelle: http://www.lehrbuch-psychologie.de/qm
18-11-14
 ;1
 2

 1  2





λ = Nonzentralitätsparameter
(ermittelt bei gegebenem α und
β aus den TPF-Tabellen)
N = Anzahl Versuchspersonen
© Rasch, Friese, Hofmann & Naumann
Seite 5 von 15
FORMELSAMMLUNG
Rasch, Friese, Hofmann & Naumann (2014). Quantitative Methoden. (4. Auflage). Heidelberg: Springer.
t-Test für abhängige Stichproben
t-Wert
Empirischer t-Wert unter H0
t df 
N
xd
σ̂ xd
d
xd 
i 1
i
N
N
σ̂ d 
 (d
i 1
i
 xd ) 2
N 1
df = N – 1
N = Anzahl Versuchspersonen
xi1 = Wert der Person i in
Bedingung 1
xi2 = Wert der Person i in
Bedingung 2
di = xi1 – xi2 (Differenzwert)
Standardfehler des Mittelwerts
der Differenzen
Empirische Effektstärkenmaße
σ̂ 12 σ̂ 22

n1 n 2
σ̂ x1  x2 
dZ 
xd
̂d
xd
σ̂ d
f S2(abhängig) 
QS sys
QS x
t2

df
= Mittelwert der Differenzen
= Streuung der Differenzen
fS2 = Effekt auf
Stichprobenebene
η2 = Eta-Quadrat, Effekt auf
Stichprobenebene
f S2
η 

QS sys  QS x 1  f S2
QS sys
2
p
Teststärkebestimmung
(auf Basis der Konventionen für
unabhängige Stichproben)
Teststärkebestimmung
λ
2
2
 2 r = Korrelation zwischen den
2
  unabhängig
N 

N
1 r
1  r 1   2 Messwertreihen
λ  f S2( abhängig)  N
λ = Nonzentralitätsparameter
(für empirische Effekte)
Stichprobenumfangsplanung
(anhand der Konventionen für
unabhängige Stichproben)
Stichprobenumfangsplanung
(bei vorhandener Effektgröße
aus Literatur oder anderen
Studien)
N
N
λ α;1β
Φ
2
unabhängig
λ α;1β
2
f abhängig
Quelle: http://www.lehrbuch-psychologie.de/qm
18-11-14

(1  r )
2
r = Korrelation zwischen den
Messwertreihen
f2abhängig = aus der Literatur oder
eigenen Studien abgeleitete
anzunehmende Effektstärke
© Rasch, Friese, Hofmann & Naumann
Seite 6 von 15
FORMELSAMMLUNG
Rasch, Friese, Hofmann & Naumann (2014). Quantitative Methoden. (4. Auflage). Heidelberg: Springer.
Varianzanalyse ohne Messwiederholung
Einfaktorielle Varianzanalyse
(ohne Messwiederholung)
Quadratsummen
p = Anzahl Faktorstufen
QS zwischen  n   Ai  G 
p
2
n = Anzahl Vpn pro Faktorstufe
i 1
Ai = Mittelwert aus Faktorstufe i
QS innerhalb   x mi  Ai 
p
n
2
G = Gesamtmittelwert
i 1 m 1
Freiheitsgrade
df zwischen  p  1
df innerhalb  p  (n  1)
Stichprobenkennwerte
Empirischer F-Wert
σ̂ 2zwischen 
QS zwischen
df zwischen
2
σ̂ innerhalb

QS innerhalb
df innerhalb
Fdf Zähler ,df Nenner  
dfZähler = dfzwischen
2
σˆ zwischen
2
σˆ innerhalb
dfNenner = dfinnerhalb
Zweifaktorielle Varianzanalyse
(ohne Messwiederholung)
Quadratsummen
p
QS A



p = Anzahl Faktorstufen Faktor
2
A
i 1
q
QS B

  n  q  Ai  G
  n  p  Bj  G
q = Anzahl Faktorstufen Faktor
2
j 1
p

q
QS AxB   n  AB ij  Ai  B j  G
i 1 j 1
p
q
n

QS Res   xmij  AB ij
i 1 j 1 m 1

2

2
B
n = Anzahl Vpn in der Zelle ABij
Ai = Mittelwert der Faktorstufe
Ai
Bi = Mittelwert der Faktorstufe
Bj
AB ij = Zellmittelwert
G = Gesamtmittelwert
Freiheitsgrade
dfA = p – 1
dfB = q – 1
dfA×B = (p – 1) · (q – 1)
dfRes = p · q · (n – 1)
Quelle: http://www.lehrbuch-psychologie.de/qm
18-11-14
© Rasch, Friese, Hofmann & Naumann
Seite 7 von 15
FORMELSAMMLUNG
Rasch, Friese, Hofmann & Naumann (2014). Quantitative Methoden. (4. Auflage). Heidelberg: Springer.
Stichprobenkennwerte
σ̂ 2A 
QS A
df A
σ̂ 2B 
QS B
df B
σ̂ 2AxB 
QS AxB
df AxB
σ̂ 2Res 
QS Res
df Res
Empirische F-Werte
- Haupteffekt A
- Haupteffekt B
- Wechselwirkung A×B
2
 ω2
- Umrechnung ω  f
2
σ̂ 2A
σ̂ 2Res
Fdf B , df Res 
σ̂ 2B
σ̂ 2Res
Fdf AxB , df Res 
Empirische Effektstärkenmaße
- Umrechnung f
Fdf A , df Res 
f2
df Zähler  Femp  1
N
f2
ω 
1 f
f
2

N = p · q · n = Stichprobengröße
ω
1  ω2
λ  Φ2  N
Definition und Umrechnung der
Effektstärkenmaße
Ω 2p 
N
2
2
Teststärkebestimmung (a
posteriori)
Φ2 
dfZähler = Freiheitsgrade des
Zählers des F-Bruchs
dfNenner = Freiheitsgrade des
Nenners des F-Bruchs
2
2
Stichprobenumfangsplanung (a
priori)
σ̂ 2AxB
σ̂ 2Res
λ = Nonzentralitätsparameter
2
σ sys
σ
2
sys
σ
2
sys
σ 2x
σ

2
x

Φ2
1  Φ2
- kleiner Effekt: Ω2 = 0,01
- mittlerer Effekt: Ω2 = 0,06
Ω2
1 Ω 2
- großer Effekt: Ω2 = 0,14
λ ( df Zähler ;1β;α)
Φ
Konventionen nach Cohen
(1988):
λ = Nonzentralitätsparameter
(ermittelt bei gegebenem α, β
und dfZähler aus TPF-Tabellen)
2
Bei gleicher Vpn-Anzahl in
Zellen (unabhängige
Stichproben): N = p · n
Tukey HSD-Test
- Einfaktorielle ANOVA
HSD  q krit(α,r,dfRe s ) 
nHSD = n
Quelle: http://www.lehrbuch-psychologie.de/qm
18-11-14
σ̂ 2Res
n HSD
HSD = kritische Differenz
Paarvergleichs
qkrit = krit. Wert aus der qTabelle
© Rasch, Friese, Hofmann & Naumann
Seite 8 von 15
FORMELSAMMLUNG
Rasch, Friese, Hofmann & Naumann (2014). Quantitative Methoden. (4. Auflage). Heidelberg: Springer.
- Zweifaktorielle ANOVA
α = kumuliertes
Signifikanzniveau für alle
Paarvergleiche
nHSD = q · n
nHSD = p · n
nHSD = n
r = Anzahl der Mittelwerte
nHSD = Anzahl der Vpn, aus
denen die verglichenen
Mittelwerte gebildet werden
n = Anzahl der Vpn pro Zelle
p = Stufenanzahl Faktor A
q = Stufenanzahl Faktor B
Varianzanalyse mit Messwiederholung
Einfaktorielle Varianzanalyse
(mit Messwiederholung)
- Systematische Varianz
p
σ̂ 2A 
QS A

df A
n   ( Ai  G ) 2
i 1
Ai = Mittelwert der Faktorstufe
Ai
Pm = Mittelwert der Person m
G = Gesamtmittelwert
p 1
p = Anzahl Faktorstufen Faktor
A
n = Anzahl Vpn in einer
Faktorstufe
- Residualvarianz
p
σˆ
F-Bruch
Empirische Effektstärkenmaße
(auf Stichprobenebene)
2
A  Vp n

QS A Vp n
df A Vp n
FA(dfA ,dfRes )
η 2p 

N
[ x
im
i 1 m 1
( p  1)  (n  1)
σ̂ 2A
σ̂ 2A
 2  2
σ̂ Res σ̂ AVpn
QS A
QS A  QS AVpn
f S2(abhängig) 
f S2(abhängig)
 ( Ai  Pm  G )]2
dfA = p – 1
dfRes = (n – 1) · (p – 1)
ηp2: partielles Eta-Quadrat,
Effekt auf der Stichprobenebene
QS A

QS AVpn
F  df A
df AVpn
f S2
η 
1  f S2
2
p
Quelle: http://www.lehrbuch-psychologie.de/qm
18-11-14
© Rasch, Friese, Hofmann & Naumann
Seite 9 von 15
FORMELSAMMLUNG
Rasch, Friese, Hofmann & Naumann (2014). Quantitative Methoden. (4. Auflage). Heidelberg: Springer.
Teststärkeanalyse
- a priori auf Basis der
Konventionen für unabhängige
Stichproben
mit
p = Anzahl Stufen des Faktors A
p
 Φ 2unabhängig  N
1 r
λ df ;α 
Ω 2unabhängig

Φ 2unabhängig
r = mittlere Korrelation
zwischen den Messzeitpunkten
Konventionen nach Cohen
(1988):
1  Ω 2unabhängig
- kleiner Effekt: Ω2 = 0,01
- mittlerer Effekt: Ω2 = 0,06
- großer Effekt: Ω2 = 0,14
Stichprobenumfangsplanung auf
Basis der Konventionen für
unabhängige Stichproben
λ df ;α;1β
N
Φ

2
unabhängig
Φ 2unabhängig 
mit
Post-hoc-Tests
p = Anzahl Stufen des Faktors A
(1  r)
p
Ω
r = mittlere Korrelation
zwischen den Messzeitpunkten
2
unabhängig
1  Ω 2unabhängig
HSD = kritische Differenz eines
Paarvergleichs
σ̂ 2Res
HSD  q krit(;p;dfNenner ) 
n
qkrit = krit. Wert aus der qTabelle
α = kumuliertes
Signifikanzniveau für alle
Paarvergleiche
p = Anzahl der Mittelwerte
n = Anzahl der Vpn pro Zelle
Zweifaktorielle Varianzanalyse
(mit Messwiederholung auf
einem Faktor)
- Faktor A ohne
Messwiederholung
- Faktor B mit
Messwiederholung
p
σ̂
2
A(nicht mw)

QS A(nicht mw)
df A(nicht mw)

n  q  (A  G )
p 1
q
σ̂ 2B(mw) 
- Wechselwirkung A×B
QS B(mw)
df B(mw)

q
σ̂
2
A  B(mw)

QS A  B(mw)
df A  B(mw)
- Prüfvarianz des Faktors A

 n  p  (B
j 1
σ̂
 σ̂
2
Vpn in S
Quelle: http://www.lehrbuch-psychologie.de/qm
18-11-14

j
 G )2
q 1
p
 n  [ A B
ij
j 1 i 1
QS Vpn in
df Vpn in
 (Ai  B j  G )]2
( p  1)  (q  1)
p
2
Prüf(A)
2
i
i 1
S
S

n
 q  ( A P
i 1 m 1
im
 Ai ) 2
p  (n  1)
© Rasch, Friese, Hofmann & Naumann
Seite 10 von 15
FORMELSAMMLUNG
Rasch, Friese, Hofmann & Naumann (2014). Quantitative Methoden. (4. Auflage). Heidelberg: Springer.
- Prüfvarianz des Faktors B und
der Wechselwirkung A×B
p
σ̂
2
B Vp n

QS B Vp n
df B Vp n

q
n
 [ x
 ( A Bij  A Pim  Ai )]2
ijm
i 1 j 1 m 1
p  (q  1)  (n  1)
F-Brüche
- Faktor A ohne
Messwiederholung
FA(df A ;df
- Faktor B mit
Messwiederholung
FB(df B ;df BVpn ) 
- Wechselwirkung A×B
Vpn in S

)
σ̂ 2A(nicht mw)
σ̂ 2Prüf(A)
σ̂ 2B(mw)
σ̂
2
Prüf(B)
FAB(df A B ;df B Vpn ) 

σ̂ 2A dfA = p – 1
σ̂ 2Vp n indfSVpn in S = p · (n – 1)
σ̂ 2B
σ̂
σ̂ 2AB(mw)
σ̂ 2Prüf(B)

2
BVpn

dfB = q – 1
dfB×Vpn = p · (q – 1) · (n – 1)
dfA×B(mw) = (p – 1) · (q – 1)
σ̂ 2AB(mw)
σ̂ 2BVpndfB×Vpn = p · (q – 1) · (n – 1)
Empirische Effektstärkenmaße
(auf Stichprobenebene)
- Faktor A ohne
Messwiederholung
η 2p(A) 
QS A
QS A  QS Vpn in S
- Faktor B mit
Messwiederholung
η 2p(B) 
QS B
QS B  QS BVpn
- Wechselwirkung A×B
- Berechnung aus F-Werten
η 2p(AB) 
QS AB
QS AB  QS BVpn
f S2(abhängig) 
η 2p 
F  df Effekt
df Prüf
f S2
1  f S2
Teststärkeanalyse
- Für Faktor A ohne
Messwiederholung
λ A(nicht mw);df ;α 
- Für Faktor B mit
Messwiederholung und die
Wechselwirkung A×B
λ B(mw);df ;α  λ AB(mw);df;α 
Quelle: http://www.lehrbuch-psychologie.de/qm
18-11-14
q
 Φ 2unabhängig  N
1  (q  1)  r
q
 Φ 2unabhängig  N
1 r
© Rasch, Friese, Hofmann & Naumann
Seite 11 von 15
FORMELSAMMLUNG
Rasch, Friese, Hofmann & Naumann (2014). Quantitative Methoden. (4. Auflage). Heidelberg: Springer.
Stichprobenumfangsplanung
- Für Faktor A ohne
Messwiederholung
- Für Faktor B und
Wechselwirkung A×B
N  p  n A(nicht mw) 
λ df ;α;1β
Φ

2
unabhängig
1  (q  1)  r
q
siehe einfaktorielle
Varianzanalyse mit
Messwiederholung
Zweifaktorielle Varianzanalyse
(mit Messwiederholung auf
beiden Faktoren)
F-Brüche
- Haupteffekt Faktor A mit p
Stufen
- Haupteffekt Faktor B mit q
Stufen
- Wechselwirkung A×B
FA(dfA ,dfPrüf(A)) 
FB(dfB ,dfPrüf(B) ) 
σ̂ 2A
σ̂ 2Prüf(A)
σ̂ 2B
σ̂
2
Prüf(B)
FAxB(df A B , df Prüf(A B) ) 


σ̂ 2AB
σ̂ 2Prüf(AB)
σ̂ 2A
dfA = p – 1
σ̂ 2AVpn dfA×Vpn = (p – 1) · (y – 1)
σ̂
σ̂ 2B
dfB = q – 1
2
BVpn
dfB×Vpn = (q – 1) · (n – 1)

σ̂ 2AB dfA×B(mw) = (p – 1) · (q – 1)
σ̂ 2ABVpn
dfA×B×Vpn = (p – 1) · (q – 1) · (n –
1)
Empirische Effektstärkenmaße
(auf Stichprobenebene)
- Faktor A ohne
Messwiederholung
η 2p(A) 
QS A
QS A  QS Prüf(A)
- Faktor B mit
Messwiederholung
η 2p(B) 
QS B
QS B  QS Prüf(B)
- Wechselwirkung A×B
η 2p(AB) 
QS AB
QS AB  QS Prüf(AB)
Quelle: http://www.lehrbuch-psychologie.de/qm
18-11-14
© Rasch, Friese, Hofmann & Naumann
Seite 12 von 15
FORMELSAMMLUNG
Rasch, Friese, Hofmann & Naumann (2014). Quantitative Methoden. (4. Auflage). Heidelberg: Springer.
- Berechnung aus F-Werten
f S2(abhängig) 
F  df Effekt
df Prüf
f S2
η 
1  f S2
2
p
Teststärkeanalyse
- auf Basis der Konventionen für
unabhängige Stichproben
λ df ;α 
pq 2
 Φ unabhängig  n
1 r
mit Φ unabhängig 
Ω 2unabhängig
2
Stichprobenumfangsplanung
- analog zur einfaktoriellen
Varianzanalyse mit
Messwiederholung auf einem
Faktor
N
mit
λ df ;α;1β
Φ
2
unabhängig
Φ 2unabhängig 
- getrennt vorzunehmen für
Faktor A, Faktor B und
Wechselwirkung A×B
Quelle: http://www.lehrbuch-psychologie.de/qm
18-11-14
1  Ω 2unabhängig

(1  r)
p
Ω 2unabhängig
1  Ω 2unabhängig
© Rasch, Friese, Hofmann & Naumann
Seite 13 von 15
FORMELSAMMLUNG
Rasch, Friese, Hofmann & Naumann (2014). Quantitative Methoden. (4. Auflage). Heidelberg: Springer.
Nichtparametrische Verfahren: U-Test
U-Test
Prüfung der Korrektheit der
Rangzuweisung
N  (N+1 )
2
T1+T2=
N = n1 + n2
T1 = Rangplatzsumme Gruppe 1
T2 = Rangplatzsumme Gruppe 2
Rangplatzüberschreitungen von
Gruppe 1 gegenüber Gruppe 2
U  n1  n2 
n1  (n1  1)
 T1
2
Rangplatzunterschreitungen von
Gruppe 1 gegenüber Gruppe 2
U   n1  n2 
n 2  (n2  1)
 T2
2
Kontrolle
U  n1  n2  U 
Bei n1 oder n2 > 20
z
U  μU
σU
σU = Streuung der U-Werte
n1 = Anzahl Vpn in Gruppe 1
n1  n 2
2
μU 
Streuung bei unverbundenen
Rängen
μU = erwarteter mittlerer U-Wert
n2 = Anzahl Vpn in Gruppe 2
N = n1 + n2
n1  n2  (n1  n2  1)
12
σU 
ti = Anzahl der Personen, die
sich Rangplatz i teilen
Korrigierte Streuung bei
verbundenen Rängen
σU corr 
Stichprobenumfangsplanung
Berechnung über t-Test
N (t Test) 
n1  n2

N  ( N  1)
 N 3  N k ti3  tik= Anzahl der verbundenen



i 1 12 Ränge
 12

λ
Φ2
Nichtparametrische Verfahren: Chi-Quadrat-Test
Eindimensionaler χ2-Test
k
χ2  
i 1
( f bi - f ei ) 2
f ei
k = Anzahl Kategorien
fbi = beobachtete Häufigkeit in
Kat. i
fei = erwartete Häufigkeit in Kat. i
df = k – 1
Zweidimensionaler χ2-Test
Allgemein
k
l
χ2  
( f bij  f eij ) 2
k = Anzahl Kategorien i
f eij
l = Anzahl Kategorien j
i 1 j 1
fbij = beobachtete Zellhäufigkeit
feij = erwartete Zellhäufigkeit
df = (k – 1) · (l – 1)
Quelle: http://www.lehrbuch-psychologie.de/qm
18-11-14
© Rasch, Friese, Hofmann & Naumann
Seite 14 von 15
FORMELSAMMLUNG
Rasch, Friese, Hofmann & Naumann (2014). Quantitative Methoden. (4. Auflage). Heidelberg: Springer.
Erwartete Häufigkeit
Vierfelder χ2-Test
(zwei dichotome Merkmale)
Empirische Effektstärkenmaße
- Vierfelder Test auch
Zeilensummei  Spaltensumme j
feij 
χ2 
N
N  (a  d  b  c) 2
(a  c)  (b  d )  (a  b)  (c  d )
wˆ 2 
a
b
c
d
N = Anzahl Beobachtungen
χ2
N
wˆ 2  Φ 2 
Φ = Phi-Koeffizient
χ2
N
(gleichbedeutend mit Korrelation
zweier dichotomer Variablen)
Annahme einer Effektstärke
a priori
- Eindimensional
k = Anzahl der Kategorien
( p bi - pei ) 2
p ei
k
w2  
i 1
pbi = rel. Häufigkeit unter der H1
pei = rel. Häufigkeit unter der H0
- Zweidimensional
k
i
w 2  
i 1 j 1
( p bij - peij )
p eij
2
k = Anzahl der Kategorien i
l = Anzahl der Kategorien j
pbij = rel. Häufigkeit unter der H1
peij = rel. Häufigkeit unter der H0
Konventionen:
- kleiner Effekt: w2 = 0,01
- mittlerer Effekt: w2 = 0,09
- großer Effekt: w2 = 0,25
Teststärkebestimmung
λ  w2  N
Stichprobenumfangsplanung
N
λ = Nonzentralitätsparameter
λ
w2
Quelle: http://www.lehrbuch-psychologie.de/qm
18-11-14
© Rasch, Friese, Hofmann & Naumann
Seite 15 von 15
Herunterladen