statistik_01_06_05

Werbung
STATISIK
LV Nr.: 0028
SS 2005
1. Juni 2005
1
Test für arithmetisches Mittel
• Zweistichprobentest für die Differenz
zweier arithmetischer Mittel
– Unterscheiden sich die Mittelwerte zweier
Grundgesamtheiten?
– Unterscheiden sich die Mittelwerte zweier
verbundener Stichproben?
2
Test für arithmetisches Mittel
• Differenz zweier arithmetischer Mittel die
aus 2 Grundgesamtheiten stammen.
• Voraussetzung:
– Stichproben unabhängig
– Stichproben stammen aus einer N-vt.
Grundgesamtheiten bzw. Approximation durch
N-Vt. ist zulässig
– Endlichkeitskorrektur ist vernachlässigbar
3
Test für arithmetisches Mittel
• Unterscheide, ob die Varianzen der beiden
Grundgesamtheiten homogen sind oder
nicht.
• Varianzen verschieden, σ1²  σ2² :
• Teststatistik:
(X 1  X 2 )
Z
S12 S 22

n1 n 2
• Testverteilung: Z asymptotisch N(0,1)-vt.
4
Test für arithmetisches Mittel
• Varianzhomogenität, σ1² = σ2² = σ²:
• Teststatistik: T  (X1  X 2 )
n1  n 2
S
n 1n 2
wobei
S
(n 1  1)S12  (n 2  1)S 22
n1  n 2  2
• Testverteilung: T ~ tv mit v=n1+n2-2
Freiheitsgarden
5
Test für arithmetisches Mittel
• Verbundene Stichproben (abhängige oder
gepaarte Stpr.)
– Tritt auf, wenn z.B. die Merkmalsausprägungen
der ersten Stpr. und die der zweiten jeweils an
demselben Merkmalsträger erhoben werden.
Bsp: vorher – nachher Untersuchungen.
• Test für die Differenz arithmetischer Mittel
bei verbundenen Stichproben.
6
Test für arithmetisches Mittel
• Differenzen der Wertepaare: Di = X2i – X1i
sind N-vt. mit E(Di) = µ2i - µ1i = δ und
Var(Di) =σD²
Dδ
• Teststatistik: T 
SD
n
1 n
1 n
2
D   Di und SD 
(D

D)

i
n i 1
n  1 i 1
• Testverteilung: T~tv mit v=n-1
7
Test für Varianz
• Einstichprobentest für die Varianz:
– Hat die Varianz einen bestimmten Wert, bzw.
liegt er in einem bestimmten Bereich?
– Entscheidung basiert auf dem Ergebnis einer
einzigen Stichprobe.
• Zweistichprobentest für die Varianz
– Unterscheiden sich die Varianzen zweier
Gruppen?
– Entscheidung basiert auf zwei Stichproben
8
Test für Varianz
Einstichprobentest für die Varianz:
• Annahme: Grundgesamtheit normalverteilt
• H0: σ² = σ0² gegen H1: σ²  σ0²
• Teststatistik:
2
(n

1)s
χ2 
σ2
• Testverteilung: χ²v mit v=n-1
• Entscheidung:
– χ² > χ²co oder χ² < χ²cu, lehnen H0 ab
– p-Wert < α, lehne H0 ab
9
Test für Varianz
Zweistichprobentest für den Quotienen zweier
Varianzen:
• Annahme: Grundgesamtheit normalverteilt
• H0: σ1² = σ2² gegen H1: σ1²  σ2²
• Teststatistik:
S12
F 2
S2
• Testverteilung: Fv1,v2 mit v1=n1-1 und v2=n2-1
• Entscheidung:
– F > Fco oder F < Fcu, lehnen H0 ab
– p-Wert < α, lehne H0 ab
10
Nichtparametrische Tests
• Nichtparametrische Tests (v.a. wenn
Annahme der Normalverteilung nicht erfüllt
ist).
• Rangtests für Lageparameter
– Zeichentest
– Wilcoxon Vorzeichenrangtest für das
Symmetriezentrum einer Verteilung
• Verteilungsfreie Lokationsvergleiche
– Wilcoxon Rangsummentest oder
Mann-Whitney U Test
11
Rangtests für Lagemarameter
Zeichentest (Ordinalskala ausreichend)
– Annahme: unabhängige Beobachtungen x1, ..., xn
stammen aus einer Grundgesamtheit mit stetiger
Verteilungsfunktion F.
• Test für den Median ξ0,5 der Grundgesamtheit
• Einseitige Hypothesen:
– H0: ξ0,5  ξ0 gegen H1: ξ0,5 > ξ0
– H0: ξ0,5  ξ0 gegen H1: ξ0,5 < ξ0
• Zweiseitige Hypothese:
– H0: ξ0,5 = ξ0 gegen H1: ξ0,5  ξ0
12
Rangtests für Lagemarameter
• Vorgehensweise:
• Transformation der Beobachtungswerte:
– xi‘ = xi - ξ0
• Bestimmung von yi
– yi = 1 falls xi‘ > 0, yi = 0 falls xi‘ < 0,
Bindungen: yi = ½ falls xi‘ = 0
13
Rangtests für Lagemarameter
• Teststatistik:
n
T   yi
i 1
Unter H0 ist T ~ B(n, ½)
• Approximation durch N(0,1):
n
Z
1
yi  n

2
i 1
n
n
yi 

2
 i 1
1
1 1
n
n 1  
2
2 2
• Entscheidung: Vergleich von Z mit
kritischen Werten der N(0,1) Verteilung
14
Rangtests für Lagemarameter
• Beispiel für Zeichentest (Hartung, S. 243):
– Alter von Frauen bei der Geburt des ersten
Kindes. H0: ξ0,5  25 gegen H1: ξ0,5 > 25.
Zufällige Auswahl von n = 36 Müttern.
i
1
2
:
35
36
Alter xi
30,6
17,8
:
20
23,5
xi‘
5,6
-7,2
:
-5
-1,5
yi
1
0
:
0
0
15
Rangtests für Lagemarameter
• Beispiel
• Approximation durch N-Vt
n
Z
 yi  36
i 1
1
36
2
1
2
20  18

 0, 667
3
• Entscheidung (bei α=0,05): Z < 1,645
Lehne H0: ξ0,5  25 nicht ab.
16
Rangtests für Lagemarameter
• Wilcoxon Vorzeichenrangtest für das
Symmetriezentrum einer Grundgesamtheit
– Basiert auf Rangzahlen der Beobachtungen
– Annahme: n unabhängige Beobachtungen
(x1, ..., xn) stammen aus einer Grundgesamtheit
mit Verteilungsfunktion F
• Frage: Ist die Verteilung symmetrisch um
einen Wert ξ0, d.h. gilt F(ξ0-y) = 1-F(ξ0+y)?
17
Rangtests für Lagemarameter
Verteilungsfunktion F(x)
1
1-F(ξ0+y)
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
F(ξ0-y)
0
-3
-2
ξ-1
0-y
ξ00
ξ01+y
2
18
3
Rangtests für Lagemarameter
• Wilcoxon Vorzeichenrangtest für das
Symmetriezentrum ξ0 einer
Grundgesamtheit
• Einseitige Hypothesen:
– H0: F symmetrisch um ξ  ξ0
– H0: F symmetrisch um ξ  ξ0
• Zweiseitige Hypothese:
– H0: F symmetrisch um ξ = ξ0
19
Rangtests für Lagemarameter
• Vorgehensweise:
• Transformation der Beobachtungswerte:
– xi‘ = xi - ξ0
• Ohne Berücksichtigung der Vorzeichen der
xi‘ Rangzahlen Ri zuweisen (1 für kleinsten
Wert, ..., n für größten Wert).
• Den Rangzahlen werden die Vorzeichen der
zugehörigen xi‘ Werte zugewiesen =>
Rangstatistik R̃i
20
Rangtests für Lagemarameter
• Teststatistik:
n
~

T   ci R i
i 1
mit ci = 0 falls R̃i < 0 und ci = 1 falls R̃i > 0
• Entscheidung: Vergleich von T+ mit
kritischen Werten wn,α des Vorzeichenrangtest von Wilcoxon (z.B. Hartung S. 245)
21
Rangtests für Lagemarameter
• Approximation durch N(0,1) Verteilung:
• Teststatistik T* (keine Bindungen):
+
+
T -E T
*
T =
+
Var T
mit E T+ = n(n+1) / 4
und Var T+ = n(n+1)(2n+1) / 24
(Beim Auftreten von Bindungen: T* laut Hartung, S. 246)
• Vergleich von T* mit kritischen Werten der
N(0,1) Verteilung
22
Rangtests für Lagemarameter
• Beispiel Wilcoxon Vorzeichenrangtest
Psychologischer Test, Bewertung durch Punkte xi
H0: F symmetrisch um ξ = ξ0 = 61, α = 0,05
• Teststatistik:
n
~
T   ci R i

i 1
ci = 0 falls R̃i < 0 und ci = 1 falls R̃i > 0
23
Rangtests für Lagemarameter
• Beispiel:
i
xi
xi‘ = xi- ξ0
Ri
R̃ i
1
72
11
10,5
10,5
2
55
-6
3
-3
3
67
6
3
3
4
53
-8
7
-7
5
69
8
7
7
6
71
10
9
9
7
55
-6
3
-3
8
68
7
5
5
9
65
4
1
1
10
72
11
10,5
10,5
11
69
8
7
7
• T+ = 1·10,5+0·(-3)+1·3+0·(-7)+1·7+1·9+0·(-3)+1·5+1·1
+1·10,5+1·7 = 53
24
Rangtests für Lagemarameter
• Beispiel:
• Kritische Werte aus Tabelle: wn;α/2 = w11;0,025
= 11 und wn;1-α/2 = w11;0,975 = 54
• Entscheidung:
w11;0,025 = 11 < T+ = 53 < 54 = w11;0,975
Daher: lehne H0 nicht ab, F ist symmetrisch
um ξ0 = 61.
25
Vt.-freie Lokationsvergleiche
• Wilcoxon Rangsummentest oder MannWhitney U Test
• Annahme: zwei unabhängige Messreihen,
zugrundeliegenden Verteilungsfunktionen
sind stetig und vergleichbar (d.h. sie
schneiden einander nicht).
• Frage: Besteht ein Unterschied in den
Verteilungen? Sind z.B. die Werte der einen
Messreihe „im Durchschnitt größer“ als die
der anderen?
26
Vt.-freie Lokationsvergleiche
Verteilungsfunktionen
1
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
-5
-4
-3
-2
-1
0
1
2
3
4
5
27
6
Vt.-freie Lokationsvergleiche
• Einseitige Hypothesen:
– H0: F1(x)  F2(x) gegen H1: F1(x)  F2(x) und
für mind. ein x gilt: F1(x) < F2(x)
– H0: F1(x)  F2(x) gegen H1: F1(x)  F2(x) und
für mind. ein x gilt: F1(x) > F2(x)
• Zweiseitig Hypothese:
– H0: F1(x) = F2(x) gegen H1: F1(x)  F2(x)
28
Vt.-freie Lokationsvergleiche
• Vorgehensweise:
• Gemeinsame Rangzahlen der beiden
Messreihen bilden: r1, ..., rn1, rn1+1, ..., rn1+n2
• Teststatistik:
n1
Wn1,n1 =  ri
i=1
• Kritische Werte des WilcoxonRangsummen-Tests aus Tabelle (siehe z.B.
Hartung 518)
29
Vt.-freie Lokationsvergleiche
• Entscheidung:
– H0: F1(x)  F2(x),
H0 verwerfen falls Wn1,n2 > Wn1;n2;1-α
– H0: F1(x)  F2(x),
H0 verwerfen falls Wn1,n2 < Wn1;n2;α
• Zweiseitig Hypothese:
– H0: F1(x) = F2(x)
H0 verwerfen falls Wn1,n2 < Wn1;n2;α/2 oder
Wn1,n2 > Wn1;n2;1-α/2
30
Vt.-freie Lokationsvergleiche
• Beispiel: Behandlung von Pilzen mit
Vitamin B1. Führt diese Behandlung zu
(signifikant) höherem Gewicht?
Behandlung
Rangz.
Behandlung
Rangz.
Kontrolle
Rangz.
Kontrolle
Rangz.
27
19
26,5
18
18
7
17
6
34
22,5
22
14
14,5
5
18,5
8
20,5
12
24,5
17
13,5
3
9,5
1
29,5
21
34
22,5
12,5
2
14
4
20
10,5
35,5
24
23
15
28
20
19
9
24
16
20
10,5
21
13
31
Vt.-freie Lokationsvergleiche
• Beispiel:
H0: FB(x) ≥ FK(x) bzw. XB ist stochastisch
kleiner als XK, α = 0,05.
• Teststatistik: Summe der Ranzahlen der
ersten Messreihe (Behandlungsgruppe):
Wn1,n2 = 220.
• Kritischer Wert: wn1;n2;0,95 = 191
• Entscheidung: 220 > 191 => H0 ablehnen.
D.h. die Behandlung führt zu einem
signifikant höheren Gewicht.
32
Varianzanalyse
Varianzanalyse od. ANOVA
• Frage: Hat ein Faktor Einfluss auf ein
Merkmal?
• Faktor: Nominal skalierte Größe,
Faktorausprägungen = Ebenen oder Stufen
• Merkmal (durch Faktor beeinflusst):
Metrische Größe
33
Varianzanalyse
Varianzanalyse
• Einfache Varianzanalyse: Ein Faktor
• Zweifache Varianzanalyse: Zwei Faktoren
• …
34
Varianzanalyse
• Test, für arithmetische Mittel von zwei oder
mehr Grundgesamtheiten.
– Test, ob die Differenz der arithmetischen Mittel
von zwei oder mehr als zwei
Grundgesamtheiten signifikant von Null
verschieden ist.
35
Varianzanalyse
• Modellannahmen der Varinazanalyse:
– Unabhängigkeit der Stichproben (i=1,…,r)
– Normalverteilung der Merkmale mit µi und σi²
– Varianzhomogenität (Homoskedastizität), d.h.
σi² = σ²
36
Varianzanalyse
• Nullhypothese: Alle Gruppen haben den
gleichen Mittelwert µ
H0: µ1 = µ2 = … = µ
• Alternativhypothese: Nicht alle Gruppen
haben den gleichen Mittelwert µ
H1: mindestens zwei µi sind ungleich
37
Varianzanalyse
• Frage: Beeinflusst der Faktor (nominalskalierte Größe) das Merkmal (metrischskalierte Größe)?
• Unter H0: µi = µ für alle i (i = 1,…,r
Faktorstufen).
• Abweichung, die dem Faktor zuzuschreiben
sind: αi = µi - µ (i = 1,…,r) heißen wahre
Effekte auf der i-ten Ebene.
38
Varianzanalyse
• Modell der einfachen Varianzanalyse:
• xij = µ + αi + eij
– µ … Gesamtmittelwert
– αi … Effekt auf der i-ten Ebene
– eij … Versuchsfehler = die Abweichung eines
zufällig aus der i-ten Ebene des Faktors
herausgegriffenen Beobachtungswertes xik vom
Mittelwert µi dieser Ebene.
eij = xij – µi = xij – (µ + αi)
39
Varianzanalyse
• Beispiel: Zugfestigkeit von r = 3
Drahtsorten überprüfen, je Sorte 6 Proben,
unabhängig voneinander und N(µi,σ²)-vt.
Frage: Bestehen signifikante Unterschiede
in der Zugfestigkeit?
i
Drahtsorte
j
1
2
3
1
9
7,3
18
2
15,4
15,6
9,6
3
8,2
14,2
11,5
4
3,9
13
19,4
5
7,3
6,8
17,1
6
10,8
9,7
14,4
40
Varianzanalyse
Vorgehensweise:
• Gesamtmittelwert aller Faktorstufen und
Mittelwerte der Faktorstufen bestimmen
• Bestimmung der Abweichungen
• Zerlegung der Abweichungsquadratsumme
• Teststatistik und Testverteilung bestimmen
• Entscheidung, Interpretation
41
Varianzanalyse
• Gesamtmittelwert über alle Faktorstufen r
1 r ni
x  =  x ij
N i=1 j=1
• Mittelwerte der r Faktorstufen
1
x i =
ni
ni
x
ij
j=1
42
Varianzanalyse
• Beispiel: Drahtsorten
i
Drahtsorte
j
1
2
3
1
9
7,3
18
2
15,4
15,6
9,6
3
8,2
14,2
11,5
4
3,9
13
19,4
5
7,3
6,8
17,1
6
10,8
9,7
14,4
xi.
9,1
11,1
15
x..
11,7
43
Varianzanalyse
• Abweichungen: Quadratsumme der
Abweichungen (Sum of Squares)
– Abweichungen der Beobachtungen vom
Gesamtmittelwert.
r
ni
SST= (x ij -x  ) 2
i=1 j=1
– Summe der Quadratischen Abweichungen
– Bezeichnungen: SST (Total), SSG (Gesamt)
44
Varianzanalyse
• Sum of Squares:
– Abweichungen der Beobachtungen der
einzelnen Messreihen vom Mittelwert der
jeweiligen Messreihe.
r
ni
SSW= (x ij -x i ) 2
i=1 j=1
– Summe der Quadratischen Abweichungen des
Restes, Maß für die nicht durch den Faktor
beeinflusste Restvariabilität
– Bezeichnungen: SSW (Within), SSE (Error),
SSR (Residual).
45
Varianzanalyse
• Sum of Squares:
– Abweichungen der Mittelwerte der einzelnen
Messreihen vom Gesamtmittelwert.
r
SSB= n i (x i -x  ) 2
i=1
– Mit Stichprobengröße multiplizierte Summe
der Quadratischen Abweichungen der
Stichprobenmittelwerte vom Gesamtmittelwert,
also der beobachteten Effekte des Faktors.
– Bezeichnungen: SSB (Between), SSE
(Explained), SSM (Model), SST (Treatment),
46
Varianzanalyse
• Quadratsummenzerlegung:
• SST = SSB + SSW
r
ni
r
r
ni
2
2
2
(x
-x
)

n
(x
-x
)

(x
-x
)
 ij   i i   ij i
i=1 j=1
i=1
i=1 j=1
• Interpretation: Gesamtvarianz (SST) setzt
sich aus der Variation zwischen den
Messreihen (SSB) und der Variation
innerhalb der Messreihen (SSW)
zusammen.
47
Varianzanalyse
• Idee für Test:
– Vergleich der Variation zwischen den
Messreihen mit der Variation innerhalb der
Messreihen
– Ist die Variation zwischen den Messreihen
größer als jene innerhalb der Messreihen,
schließe auf Unterschied zwischen den
Messreihen (Faktoreffekt).
48
Varianzanalyse
• Teststatistik – Idee:
– Aus den Beobachtungswerten werden zwei
voneinander unabhängige Schätzwerte für sW²
und sB² für die Varianzen der
Beobachtungswerte innerhalb und zwischen
den Stichproben bestimmt.
– Liegen keine wahren Effekte vor (Gültigkeit
von H0), sind sW² und sB² (bis auf zufällige
Abweichungen) gleich.
– Bei Vorhandensein von wahren Effekten (H1)
ist sB² systematisch größer als sW².
49
Varianzanalyse
• Erwartungstreuer Schätzer für die Varianz
innerhalb der Messreihen (Restvarianz):
r ni
1
2
s 2W =
(x
-x
)
 ij i
N-r i=1 j=1
• Erwartungstreuer Schätzer für die Varianz
zwischen den Messreihen (Faktoreffekt)
r
1
s 2B =  n i (x i -x  ) 2
r-1 i=1
50
Varianzanalyse
• Mittlere Quadratsummen (MSS = Mean
Sum of Squares):
• Quadratsummen dividiert durch
entsprechende Freiheitsgrade
• MSB und MSW sind erwartungstreue
Schätzer der Varianz zwischen- und
innerhalb der Messreihen.
51
Varianzanalyse
• Varianzanalysetafel (r Messreihen):
Streuungsursache
Freiheits- QuadratMittlere
grade (DF) summe (SS) Quadratsumme (MS)
Unterschied zw r-1
Messreihen
SSB
(Between)
MSB = SSB / (r-1)
Zufälliger
Fehler
N-r
SSW
(Within)
MSW = SSW / (N-r)
Gesamt
N-1
SST
(Total)
52
Varianzanalyse
Teststatistik:
• F = MSB / MSW
• F ~ F(r-1),(N-r)
• Entscheidung: Ist F ≤ Fc, lehne H0 nicht ab
(Fc = kritischer Wert der F-Verteilung mit (r1) und (N-r) Freiheitsgraden).
53
Varianzanalyse
• Beispiel: Drahtsorten
• Quadratsummenzerlegung: SST = SSB + SSW
– 324,62 = 108,04 + 216,58
• Mittlere Quadratsummen:
– MSB = 108,04 / (3-1) = 54,02
– MSW = 216,58 / (18-3) = 14,44
• Teststatistik:
– F = MSB / MSW = 3,74
• Kritischer Wert der F2;15 Vt. 3,68
• Entscheidung: 3,74 > 3,68 => H0 ablehnen, d.h. es
besteht ein signifikanter Unterschied zw. den Sorten
54
Varianzanalyse
• Zweifache Varianzanalyse:
– 2 Faktoren (A und B, wobei r Faktorstufen bei
A und p Faktorstufen bei B)
– 1 metrische Variable
• Unterscheidung:
– Modell ohne Wechselwirkungen zw. den
Faktoren
– Modell mit Wechselwirkungen zw. den
Faktoren
55
Varianzanalyse
• Modell ohne Wechselwirkungen zw. den
Faktoren
• xijk = µ + αi + βj + eijk (für i=1,…,r, j=1,…,p,
k=1,…,n)
–µ
– α, β
– eijk
gemeinsamer Mittelwert
Faktoreffekte
zufällige Fehler
56
Varianzanalyse
• Mittelwerte:
1
• Gesamt
x  =
r
p
n
x

rpn
ijk
i=1 j=1 k=1
• Faktor A
1 p n
x i =  x ijk
pn j=1 k=1
• Faktor B
1 r n
x  j =  x ijk
rn i=1 k=1
57
Varianzanalyse
• Schätzer für Gesamtmittel und Effekte
• Gesamtmittel
m=x
• Effekt von Faktor A
a i =x i -m
• Effekt von Faktor B
b j =x  j -m
58
Varianzanalyse
• Quadratsummen
p
r
n
• SST= (xijk -x )2
i=1 j=1 k=1
r
• SSE(A)=pn  a i2
i=1
p
• SSE(B)=rn  b
2
j
j=1
• SSR = SST – SSE(A) – SSE(B)
59
Varianzanalyse
• Quadratsummenzerlegung
– SST = SSE(A) + SSE(B) + SSR
• Mittlere Quadratsummen:
– MSE(A) = SSE(A) / (r-1)
– MSE(B) = SSE(B) / (p-1)
– MSR = SSR / (rpn-r-p+1)
60
Varianzanalyse
• Prüfgrößen und kritische Werte:
• Faktor A:
– F(A) = MSE(A) / MSR
– Fr-1,(nrp-r-p+1);1-α
• Faktor B:
– F(B) = MSE(B) / MSR
– Fp-1,(nrp-r-p+1);1-α
61
Varianzanalyse
• Beispiel: 2 Faktoren (Erreger, Antibiotikum)
Erreger i (A)
Antibiotikum j (B)
1
2
3
Mittelwerte
Schätzer ai
1
38
40
38
2
35
41
39
38,5
0,667
1
42
39
33
2
45
33
34
37,7
-0,167
1
38
38
33
2
41
38
36
37,3
-0,500
Mittelwerte
39,8
38,2
35,5
37,8
Schätzer bj
2,000
0,333
-2,333
k
1
2
3
62
Varianzanalyse
• Modell mit Wechselwirkungen zw. den
Faktoren
• xijk = µ + αi + βj + (αβ)ij + eijk (für i=1,…,r,
j=1,…,p, k=1,…,n)
–
–
–
–
µ
α, β
αβ
eijk
gemeinsamer Mittelwert
Faktoreffekte
Wechselwirkung
zufällige Fehler
63
Varianzanalyse
• Mittelwerte:
1
• Gesamt
x  =
r
p
n
x

rpn
ijk
i=1 j=1 k=1
• Faktor A
1 p n
x i =  x ijk
pn j=1 k=1
• Faktor B
1 r n
x  j =  x ijk
rn i=1 k=1
1 n
• Wechselwirkung x ij =  x ijk
n k=1
64
Varianzanalyse
• Gesamtmittel und Effekte
• Gesamtmittel m=x
• Effekt von Faktor A
a i =x i -m
• Effekt von Faktor B
b j =x  j -m
• Effekt der Wechselwirkung (ab)ij =x ij -a i -b j -m
65
Varianzanalyse
• Quadratsummen
p
r
n
SST= (x ijk -x )2
i=1 j=1 k=1
r
SSE(A)=pn  a i2
i=1
p
SSE(B)=rn  b 2j
j=1
r
p
SSE(AB)=n  (ab)ij2
i=1 j=1
SSR = SST – SSE(A) – SSE(B) – SSE(AB)
66
Varianzanalyse
• Quadratsummenzerlegung
– SST = SSE(A) + SSE(B) + SSE(AB) + SSR
• Mittlere Quadratsummen:
–
–
–
–
MSE(A) = SSE(A) / (r-1)
MSE(B) = SSE(B) / (p-1)
MSE(AB) = SSE(AB) / (p-1)(r-1)
MSR = SSR / (rpn-r-p+1)
67
Varianzanalyse
• Prüfgrößen und kritische Werte:
• Faktor A:
– F(A) = MSE(A) / MSR
– Fr-1, pr(n-1); 1-α
• Faktor B:
– F(B) = MSE(B) / MSR
– Fp-1, pr(n-1); 1-α
• Wechselwirkung:
– F(AB) = MSE(AB) / MSR
– F(p-1)(r-1), pr(n-1); 1-α
68
Varianzanalyse
• Beispiel: 2 Faktoren + Wechselwirkung
Erreger i
Antibiotikum j (Faktor B)
(Faktor A)
1
2
3
1
k
xi1k
1
38
2
35
1
42
2
45
1
38
2
41
xi1.
2
(ab)i1
xi2k
xi2.
3
(ab)i2
40
36,5
-4,000
41
3,833
33
40,5
1,667
0,167
38
xi3.
(ab)i3
39
38,5
2,333
38,5
0,667
33,5
-1,833
37,7
-0,167
34,5
-0,500
37,3
-0,500
33
36
-2,000
38
39,5
ai
38
39
43,5
xi3k
xi..
34
33
38
0,333
36
x.j.
39,8
38,2
35,5
bj
2,000
0,333
-2,333
37,8
69
Varianzanalyse
• Beispiel: Varianzanalysetafel
Streuungsursache
Freiheitsgrade
Quadratsumme
Mittlere
Quadrats.
Teststatistik
Kritischer
Wert
Erreger
2
4,33
2,16667
0,52
4,26
Antibiotikum
2
57,33
28,6667
6,88
4,26
Interaktion
4
93,33
23,3333
5,60
3,63
Fehler
9
37,50
4,16667
17
192,5
Total
• Faktor Erreger: kein Effekt
• Faktor Antibiotikum: Effekt
• Interaktion: Effekt (impliziert, dass auch
Faktor Erreger eine Wirkung hat).
70
Varianzanalyse
Erreger - Antibiotikum
45
44
43
42
41
Mittelwerte
40
39
Erreger 1
38
Erreger 2
37
Erreger 3
36
35
34
33
32
31
30
0
1
2
3
4
Antibiotikum
71
Nichtparametrische ANOVA
• Kruskal-Wallis Test
• Unterscheiden sich die Mittelwerte von p
Messreihen (n1, …, np)?
• Voraussetzungen:
– Stetige Verteilung der Messreihen
– Mindestens Ordinalskala
– Setzt weder Normalverteilung, noch
Varianzhomogenität voraus.
• Hypothese:
– H0: Mittelwerte der p Messreihen sind gleich
– H1: Mittelwerte unterscheiden sich
72
Nichtparametrische ANOVA
• Vorgehensweise:
– N Messwerten X11, …, Xpnp werden
Rangzahlen rij zugewiesen.
– Summe der Ränge der einzelnen Messreihen
berechnen:
ni
ri =  rij
j=1
– Bindungen (mehrere Messwerte sind gleich):
Mittelwert der Ränge
73
Nichtparametrische ANOVA
• Prüfgröße:
p

1  12
1 2
H= 
ri -3(N+1) 

B  N(N+1) i=1 n i

1 g 3
B=1- 3  (t l -t)
N -N i=1
– g … Anzahl der verschiedenen Messwerte
– t … wie oft tritt ein Messwert auf
– Treten keine Bindungen auf, ist B = 1
74
Nichtparametrische ANOVA
• Entscheidung:
– H0 ablehnen, wenn H > hp(n1,…,np);1-α
– h … kritische Werte (Tabelle, z.B. Hartung S.
615)
• Approximation durch χ²p-1,1-α Verteilung:
– H0 ablehnen, wenn H > χ²p-1,1-α (Quantile der χ²
Verteilung)
75
Herunterladen