Document

Werbung
Nagl, Einführung in die Statistik
Seite 196
5.2 Zweifaktorielle Varianzanalyse
Bei der einfaktoriellen Varianzanalyse wurden die Mittelwerte der Gruppen verglichen, wobei die Gruppen
durch die Ausprägungen eines Merkmals entstehen. Im Rahmen der Varianzanalyse wird ein qualitatives
Merkmal als Faktor bezeichnet, die Ausprägungen werden Stufen des Faktors genannt.
Hier sollen nun zwei Faktoren betrachtet. Mit Hilfe der Mittelwerte der Gruppen, die durch die Kombination der
beiden Faktoren entstehen, soll wiederum die Prädiktion mit Mittelwertregeln untersucht werden. Dazu gehört
wiederum der Versuch, die Regeln möglichst einfach zu gestalten.
In diesem Kapitel werden nur unverbundene Gruppen betrachtet. Zuerst sollen die Prinzipien der
zweifaktoriellen Varianzanalyse bei gleichen Zellbesetzungen entwickelt werden.
5.2.1 Zwei Faktoren bei gleichen Zellbesetzungen
Auf Grund zweier Faktoren (x1, x2) wird ein quantitatives Merkmal y prognostiziert mit Hilfe der
Mittelwertsregel. Als Fehlermaß wird wie bei der einfaktoriellen Varianzanalyse die Quadratsumme der
Residuen verwendet. Die einzelnen Konfigurationen, die durch aus der Kombination der Stufen der Faktoren
entstehen, werden auch Zellen genannt. Die UEen in den Zellen bzw. die Messwerte sind die Gruppen. In diesem
Abschnitt soll vorerst unterstellt werden, dass in allen Zellen gleich viele Messwerte (=J) enthalten sind. In
einem späteren Abschnitt soll diese Beschränkung aufgehoben werden.
Die
Beobachtungswerte
werden jeweils für
alle Konstellationen
der Faktoren
erhoben. Der 1.
Faktor hat I1, der 2.
Faktor I2 Stufen
Für jede Gruppe, die durch
die Indexkonfiguration i1i2
charakterisiert werden
kann, seien J Messwerte
gegeben:
y i1i 2 1 ..., y i1i 2 j ,... , y i1i 2J ;
Beispiel: Das Monatseinkommen
von Studenten (in 100 Euro) in
Abhängigkeit von Sex und Wohnart.
Sex werde hier durch den
Buchstaben a und Wohnart durch b
abgekürzt.
I1=2. I2=3.
wobei
i1 der Index des 1. Faktors und
i2 der Index des 2. Faktors ist.
In jeder Zelle wurden 2 Messwerte
beobachtet.
9
8
7
6
5
Bei der Datenaufbereitung werden
die Mittelwerte und
Standardabweichungen für jede
Gruppe berechnet;
ebenfalls Mittelwert
und Standardabweichung für die
Gesamtstichprobe
y i1i 2 :
si21i 2 :
Daheim
WG
y i1i 2 1  ...  y i1i 2 J
J
1
J 1
J
 ( yi1i 2 j  yi1i 2 )2
j1
1
2
3
1
2
3
Daheim
WG
Privat
Daheim
WG
Privat
6, 6
6.5, 7.5
7.5, 8.5
5.5, 6.5
8.0, 10.0
8.5, 9.5
Privat
y
y
11
12
9
8
7
6
5
Daheim
=(6+6)/2=6,
=(6.5+7.5)/2=7
i1
y  (Jy11  ... JyI1I2 ) / n
mit n  I1I2J

1
(
J 1
m
m
m
w
w
w
..., y i1i 2 j ,...
10
1
1
1
2
2
2
=
1
1
1
2
2
2
StudentenEinkommen
in 100 Euro
Mittelwerte und Standardabweichungen
10
Einkommen in 100 Euro
Einkommen in 100 Euro
Messwerte
i1
Faktoren
und Stufen
a i2
b
usw.
J
 yi21i2 j  Jyi21i 2 )
j1
WG
Faktoren
und Stufen
a i2
b
m
m
m
w
w
w
1
2
3
1
2
3

daheim
wg
privat
daheim
wg
privat
Privat
Anza Mittel- Standardhl
wert abweichu
n i i y i i ng s i i
12
12
2
2
2
2
2
2
6
7
8
6
9
9
0
0.707
0.707
0.707
1.414
0.707
12
12
7.5
1.446
5.2.1.1 Prädiktion nach dem Gruppenmodell
Da für die Varianzanalyse später auch ein lineares Modell eingeführt wird, das es ermöglicht, die Effekte der
Konfigurationen der kombinierten x-Variablen additiv in Haupteffekte und Interaktionseffekte zu zerlegen, soll
hier für die Bezeichnung der Kombination der Variablen ein eigenes Symbol verwendet werden; x1 kombiniert
mit x2 soll mit ‚x1x2’ abgekürzt werden.
Nagl, Einführung in die Statistik
Seite 197
5.2.1.1.1 Multiple Prädiktion mit Hilfe der beiden kombinierten Faktoren
Prädiktionsregel:
GruppenMittelwerteregel
R(x1x2): ŷ i1i 2 j : y i1i 2 ist der Die Gruppenprädiktionsregel R (ab) ordnet als Prädiktionswert jeder
Fehlermaß:
Summe der
quadrierten
Residuen
i1i2j. (x1x2)-Residuum:
ri1i 2 j : y i1i 2 j  y i1i 2 für jede
j. UE innerhalb jeder Gruppe
(Zelle)
F(x1x2):=ssqe(x1x2)=
I1
Andere
Berechnungsvarianten:
einzelnen UE den Mittelwert jener Gruppe zu, der sie angehört. Die
Gruppen werden durch die Stufenkombinationen gebildet.
Einkommen in 100 Euro
Direkte Berechnung
Prädiktionswert für jede UE.
ssqe(cells)= 
I2
J
  ri21i 2 j =
I1
I2
8
7
6
Daheim
i1 1 i 2 1 j1
I1
=
WG
i1 a i2
I2
 (J  1)s i21i 2
b
1 m 1 daheim
1 m 2
wg
1 m 3 privat
2 w 1 daheim
2 w 2
wg
2 w 3 privat
=
i1 1i 2 1
Anzahl
J
2
2
2
2
2
2
(J-1)* (1)
s i1i 2 s i21i 2 y i21i 2
36
0
0
49
0.707 0.5
64
0.707 0.5
36
0.707 0.5
91
1.414 2
91
0.707 0.5
F(ab) =
OHNE-Prädiktionsregel ist die
Gesamtmittelwer
tregel .
OHNE-Fehlermaß:
Summe der
quadrierten
Abweichungen
vom
Gesamtmittelwer
t (total ssqe)
Direkte Berechnung
I1

I1
J
 y i21i 2 j - J 
I2
 y i21i 2
i1 1 i 2 1
i1 1 i 2 1 j1
R(-):
ŷ i1i 2 j : y für alle UEen in
allen Gruppen
i1i2j. (-)-Residuum:
ri1i 2 j : y i1i 2 j  y für jede j.
UE innerhalb aller Gruppen
F(-):=ssqe(total)=
I1
I2
J
   ri21i 2 j =
i1 1 i 2 1 j1

Andere
Berechnungsvariante:
Summe der quadr.
Werte minus n mal
quadr. Gesamtmittel
(n=I1*I2*J)
I2
I1
I2
J
   ( y i1i 2 j y) 2 =
i1 1 i 2 1 j1
I1
=
I2
J
   y i21i 2 j  I1 I 2 Jy 2
i1 1 i 2 1 j1
4
347
Die Summe der
quadrierten Residuen
wird hier nach der Formel
für die Summe der mit (J1) gewichteten
quadrierten
Standardabweichungen
(=Varianzen) der
einzelnen Gruppen
berechnet: F(ab) = 4.
In der Spalte (1) wurde die Summe der quadrierten Mittelwerte
berechnet=347.
Die Summe der quadrierten Messwerte= 62+62+6.52+...+9.52= 698.
Nach der letzten Formel gilt:
F(ab) = Summe der quadrierten Werte – J*Summe der quadrierten Mittelwerte=
698 – 2*347 = 4
R (-): Jeder UE wird der Gesamtmittelwert zugesprochen y  7.5
Die Prädiktionswerte sind in der Graphik unten eingetragen (konstant
für alle UEen)
Einkommen in 100 Euro
Summe der quadr.
Werte minus
gewichtete quadr.
Gruppenmittel.
Privat
J
   ( y i1i 2 j y i1i 2 ) 2

Summe der
gewichteten
Gruppenvarianzen
9
5
i1 1 i 2 1 j1
Die quadrierten
Residuen sind
die einzelnen
Quadrate, die als
Flächen für jede
UE sichtbar sind.
10
11
10
9
8
7
6
5
Daheim
WG
Privat
Da oben bereits die Summe der quadrierten Messwerte berechnet wurde
(=698), ist die letzte Berechnungsvariante am einfachsten:
F(-) = Summe der quadrierten Messwerte – n * quadr. Gesamtmittel =
= 698 – 12 * (7.5)2 = 698 – 675 = 23
Bis daher gleicht die Vorgehensweise für die aus x1 und x2 kombinierte Variable x1x2 genau der
Vorgehensweise der einfaktoriellen Varianzanalyse, wenn x1x2 als ein Faktor angesehen wird. Das
entsprechende PRE-Mass wird als Determinationskoeffizient 1. Art bezeichnet, hier in multipler
Verallgemeinerung, Fehlerreduktionsanteil durch Berücksichtigung der beiden x-Merkmale in kombinierter
Form x1x2.
Anteilige multiple  2
x1  x 2 =Multipler Det.-Koef- Fehler F (ab) = ssqe(cells)= 4.
Fehlerreduktion
Fehler F (-):= ssqe(total)= 23.
fizient 1. Art=
durch
Die gesamte Fehlerreduktion beträgt FR(ab) = F (ab)- F (-)=19.
Berücksichtigung
Das multiple PRE-Mass heißt multipler Determinationskoeffizient der
von x1x2.
Nagl, Einführung in die Statistik
=
ssqe(-) - ssqe(cells)
=
ssqe(-)
Andere Berechnung:
Quadratsumme
‚zwischen‘ den
Gruppen durch
Quadratsumme ‚Total’
Seite 198
I1
J
1. Art bzw.
=19/ 23 
I2
 y i21i 2  ny 2
i1 1 i 2 1
 2x1  x 2 =
2
 a
b = (ssqe(-) - ssqe(cells)) / ssqe(-) =
ssqe()
Der Zähler stellt die
Fehlerreduktion durch die
kombinierte Variable x1x2:
FR(x1x2)= ssqe(x1x2)
(23- 4)/ 23
0.8261
Der Det.-Koeffizient 1. Art kann auch anders berechnet werden:
ssqe(between)= J*Summe der quadrierten Mittel – n *quadriertes Gesamtmittel
=2*347 – 12*7.52= 19
Multipler Det.-Koeffizient 1. Art= ssqe(between)/ssqe(total) =
19/ 23 0.8261
D.h. die Berücksichtigung der Mittelwertunterschiede in y, die durch
ab bedingt sind, führt zu einer Prädiktionsfehlerreduktion von
82.61%.
5.2.1.1.2 Prädiktion mit Hilfe der einzelnen Faktoren
Nun soll jeder einzelne Faktor untersucht werden. Vielleicht ist einer der beiden Faktoren zur Prädiktion des yMerkmals mit Hilfe der Mittelwertregel ausreichend. Zur Beantwortung dieser Frage werden wiederum die
Prädiktionsfehler für die einzelnen Faktoren berechnet.
Die Mittelwerte der
einzelnen Faktoren lassen
sich als Randmittelwerte in
einer Tabelle darstellen, die
in den Zellen die Mittelwerte
der Gruppen enthält.
Der Gesamtmittelwert kann
rechts unten dargestellt
werden.
Darstellung der Zellenmittelwerte und der
Randmittelwerte für die beiden Faktoren; mit
Gesamtmittelwert rechts unten.
x2
i2
i1
x1 1
x11
...
I1 x 1I1
...
I2
x21
1
...
x 2I 2
y11
...
y1I2
...
...
...
y I11
...
yI1I 2
yI1 
y1
...
y I 2
y
b
y1 
i2
i1
a
1
2
1
2
daheim wg
m
w
3
privat
6
6
7
9
8
9
7
8
6
8
8.5
7.5
Prädiktion mit Hilfe von Faktor x1
R(x1): ŷ i1i 2 j : y i1
Die a-Gruppenprädiktionsregel R (a) ordnet als Prädiktionswert jeder
einzelnen UE den Mittelwert jener a-Gruppe zu, der sie angehört.
i1i2j. (x1)-Residuum:
ri1i 2 j : y i1i 2 j  y i1 für die j.
UE innerhalb aller Gruppen
F(x1):=ssqe(x1)=
Direkte Berechnung
I1
I2
J
   ri21i 2 j =
Einkommen in 100 Euro
Prädiktionsregel:
x1-GruppenMittelwerteregel
Fehlermaß:
Summe der
quadrierten
Residuen
11
10
i1 1 i 2 1 j1
Andere
Berechnungsvarianten:

I1
I2
9
8
7
6
5
J
   ( y i1i 2 j y i1  ) 2
Daheim
i1 1 i 2 1 j1
(1)
2
Summe der quadr.
Werte minus quadr.
x1-Gruppenmittel.
I1
=
I2
I1
i1
a
yi 
1
i1 1
1
2
m
w
49
64
J
   y i21i 2 j - I 2 J  y i21 
i1 1 i 2 1 j1
113
WG
Privat
In der Spalte (1) wurde die Summe der
quadrierten a-Gruppenmittelwerte
berechnet=113.
Die Summe der quadrierten Messwerte=
62+62+6.52+...+9.52= 698.
Nach der letzten Formel gilt: F(a) = Summe der
quadrierten Werte – J*I2*Summe der quadrierten
Mittelwerte= 698 – 2*3*113 = 20
Prädiktion mit Hilfe von Faktor x2
Prädiktionsregel:
x2-GruppenMittelwerteregel
R(x2): ŷ i1i 2 j : y i 2
Die b-Gruppenprädiktionsregel R (b) ordnet als Prädiktionswert jeder
einzelnen UE den Mittelwert jener b-Gruppe zu, der sie angehört: 6, 8,
8.5
Nagl, Einführung in die Statistik
i1i2j. (x2)-Residuum:
ri1i 2 j : y i1i 2 j  y i 2 für die j.
Einkommen in 100 Euro
Fehlermaß:
Summe der
quadrierten
Residuen
Seite 199
UE innerhalb der Gruppen
F(x2):=ssqe(x2)=
I1
Direkte Berechnung
I2
J
   ri21i 2 j =

I1
I2

Summe der quadr.
Werte minus Summe
der quadrierten x2Gruppenmittel.
I1
=
I2
9
8
7
5
J
 ( y i i j y i ) 2
i1 1 i 2 1 j1
10
6
i1 1 i 2 1 j1
Andere
Berechnungsvarianten:
11
12
Daheim
WG
2
In der Spalte (1) wurde die Summe
der quadrierten b-Mittelwerte
berechnet=172.25.
2
I2
J
   y i21i 2 j - I1 J  y 2i 2
i1 1 i 2 1 j1
i 2 1
i2
b
(1) y i
2
1
2
3
daheim
wg
privat
36
64
72.25
Privat
Nach der letzten Formel gilt: F(b) =
Summe der quadrierten Werte –
J*I1*Summe der quadrierten
Mittelwerte= 698 – 2*2*172.25 = 698
– 689= 9
172.25
5.2.1.1.3 Übersicht über die Gruppenmodelle
Der Vergleich von Sequenzen der vier Gruppenmodelle (keine x-Variable, x1, x2 und die Kombination von x1
mit x2) erlaubt wiederum, das multiple PRE-Mass (Multipler Determinationskoeffizient 1. Art) additiv in eine
Summe von semipartiellen PRE-Maße zu zerlegen (die multiplikative Zerlegung gilt ebenfalls).
Studenten-Einkommens-Beispiel: für alle Faktoren-Modelle wurden die Fehler berechnet. Dargestellt wird jeweils das Fehlermaß der
Modelle (ssqe). Darauf aufbauend sind ebenfalls die Fehlerreduktionen eingetragen.
-
-
ssqe(-)
23
FR(a)
a
b
a
ssqe(a)
ssqe(b)
20
FR(b . a)
14
3
FR(b)
FR(a . b)
b
9
5
16
FR(ab)
ab
ssqe(ab)
19
ab
4
Auch die im Rahmen der Teilgruppenbetrachtung mögliche Darstellung des partiellen PRE-Maßes als
gewichteten Mittelwert der Teilgruppen-PRE-Maße kann ebenfalls angewandt werden.
5.2.1.2 Prädiktion mit Hilfe eines linearen Modells
Das lineare Modell erweitert das Gruppenmodell um die Möglichkeit, die Mittelwerte des kombinierten
Gruppenmodells als additive Effekte beider Faktoren und einem nichtadditiven Resteffekt darzustellen. Der
nichtadditive Resteffekt wird als eigenständiger Effekt betrachtet und als Interaktionseffekt bezeichnet. Bei der
Entwicklung der folgenden Effektgrößen werden implizit symmetrische Restriktionen eingeführt.
In den folgenden Beispiel werden wegen einfacherer Schreibweise griechische Buchstaben zur Bezeichnung der Mittelwerte und der Effekte
verwendet (eigentlich sollte noch ein Dach drauf).
Als Ausgangslage seien Mittelwerte des
Gesucht ist eine additive
Ausgangslage seien Mittelwerte
Einkommensbeispiels gewählt:
Darstellung der
Mittelwerte aus
Summanden, die den
tatsächlichen Mittelwerten in
der Population möglichst
nahe kommt (Nur Effekte der
Stufen der Faktoren sollen
addiert werden, nicht
Kombinationselemente!)
b
b
a
1
2
3
1
 11
 12
 13
 1
2
 21
 22
 23
 2
1
2
3

a
1
2
1
2
3
6
6
7
9
8
9
7
8
6
8
8.5
7.5
Nagl, Einführung in die Statistik
Seite 200
Eine mögliche Wahl für die
Konstante  ist die Wahl des
Gesamtmittelwerts; zur
Konstanten  können von
beiden Rändern her ’s (vom
Zeilenrand) und ’s (vom
Spaltenrand) addiert werden.
So entsteht die rein additive
Darstellung
(Rekonstruktion) der
Mittelwerte.
Als 1 kann ( 1-) , als 2 kann ( 2-)
gewählt werden; als 1 kann (1 -) gewählt
werden usw.
Auf Grund der additiven
Rekonstruktion von den
Rändern her müssen die
Linien, die diese
rekonstruierten Mittelwerte
im Streudiagramm
verbinden, parallele Linien
sein
Da zu jedem  + j einerseits
konstant für jede Ausprägung von a
eine bestimmte Größe (i) addiert
wird, entstehen parallele Linien für
jede a-Ausprägung.
Daher im Beispiel: 1=7 – 7.5= -0.5.
2=8 – 7.5= 0.5. 1 = 6 – 7.5 = -1.5 usw.
b
b
1
2
3
a 1
 + 1+ 1
 + 1+ 2
 + 1+ 3
1
2
 + 2+ 1
 + 2+ 2
 + 2+ 3
2
1
2
3

a
1
2
1
2
3
5.5
6.5
7.5
8.5
8
9
-0.5
0.5
-1.5
0.5
1
7.5
-0.5+ 0.5=0 und -1.5 + 0.5 + 1 =0
Es gelten hier die symmetrischen Restriktionen:
1+ 2=0 und 1+ 2+ 3 =0
10
9
8
7
6
5
Daheim
WG
Privat
Die Effekte, die pro Stufe eines Faktors definiert wird, heißen Haupteffekte. Die ’s und ’s werden auch als
Effektgrößen bezeichnet. Sie sind als Parameter der Population gedacht, die in einer Stichprobe zu schätzen sind.
Interaktionseffekte
Da die Summe der Haupteffekte (plus Konstante) meist die Zellmittelwerte nicht vollständig rekonstruieren
können, werden zusätzlich sogenannte Interaktionseffekte definiert.
Die Interaktionseffekte
sind die Differenz der
Zellmittelwerte zum rein
additiven Modell(Summe
von Haupteffekten und
Konstante)
b
1
a
2
b
3
Summe
1
 11- ( +  12- ( +  13 - ( +
1+ 1)
1+ 2)
1+ 3)
0
2
 21- ( +  12 - ( +  13 - ( +
2+ 1)
2+ 2)
2+ 3)
0
Summe
0
0
1
a
3
8-8
9-9
b
1
0
=
Zeilenrandsummen und Spaltenrandsummen sind
hier gleich null.
2
1 6 -5.5 7-7.5
2 8 -6.5 9-8.5
2
a 1 0.5 -0.5
2 -0.5 0.5
3
0
0
Bezeichnung der Interakb
tionseffekte: Damit nicht
Beachte ABER: i1i 2 stellt nicht ein
Summe
1
2
3
zusätzliche neue Symbole
Produkt aus  und  dar, sondern ist
0
a 1
11
12
13
eingeführt werden müssen
nur ein kombiniertes Symbol!
2
0



21
22
23
werden sie meist durch die
Kombination der
Summe
0
0
0
Haupteffektbuchstaben
bezeichnet
Die ()’s werden auch als Effektgrößen bezeichnet. Wie die Haupteffektgrößen sind auch sie als Parameter der
Population gedacht, die in der Stichprobe zu schätzen sind.
5.2.1.2.1 Modellgleichung des linearen Modells
Das lineare Modell zur Darstellung der Zellmittelwerte kann nun als Summe von Effekten geschrieben werden:
 i1i 2     i1   i 2  i1i 2
Dabei ist zu beachten, dass verschiedene
Restriktionen notwendig sind. Symmetrische
HaupteffektRestriktionen
=0 (Summe der -Effekte ist 0)
=0 (Summe der -Effekte ist 0)
Nagl, Einführung in die Statistik
Seite 201
Restriktionen besagen, dass Summen bestimmter
Effektgrößen 0 sind. Zur Charakterisierung der
Restriktionen kann die Punktnotation verwendet
werden.
i1  0 für alle i1
InteraktionseffektRestriktionen
i 2  0 für alle i 2
5.2.1.2.2 Schätzung der Effektparameter des linearen Modells
In den Stichproben müssen die einzelnen Effekte geschätzt werden, und zwar nach der Methode der kleinsten
Quadrate (KQ). Die hier berichteten Schätzer gelten für gleiche und proportionale Zellbesetzung, bei ungleicher
Zellbesetzung sind die Schätzer zu modifizieren.
Unter Geltung der
beschriebenen
symmetrischen Restriktionen
sind die KQ-Schätzer (engl.
LS-Schätzer) recht einfach
zu ermitteln.
Ohne die Dachnotation: 1=7 – 7.5= -0.5.
2=8 – 7.5= 0.5.
1 = 6 – 7.5 = -1.5 usw.
KQ Schätzer der Effekte bei
symmetrischen Restriktionen:
Konstante:
ˆ  y 
ˆ i  y i   y 
Haupteffekte: 
1
b
1
ˆ i 2  y i 2  y 
a
Daher gilt (summieren obiger Effekte):
ˆ i  ˆ i  y i   y i  y 
ˆ  
1
2
1
1
2
1
2
3
5.5
6.5
7.5
8.5
8
9
-0.5
0.5
-1.5
0.5
1
7.5
2
Interaktionseffekte:
-0.5+ 0.5=0 und -1.5 + 0.5 + 1 =0
i1i 2  y i1i 2  y i1   y i 2  y 
ˆ ˆ i i ) nur ein Dach. Leider habe ich innerhalb von Word kein solches Dach
Bemerkung: Eigentlich sollte auf das kombinierte Symbol ( 
12
über 2 Buchstaben gefunden.
5.2.1.2.3 Prädiktion mit Hilfe des Modells rein additiver Haupteffekte
In der Modellgleichung wird unterstellt, dass alle Interaktionseffekte 0 sind. Daher werden die Zellmittelwerte
ˆ  ˆ  y  y  y
durch die Schätzung ˆ  
ermittelt.
i1
Fehlermaß:
Summe der
quadrierten
Residuen
i1 
i 2

i1i2j. (x1,x2)-Residuum:
ri1i 2 j : y i1i 2 j  y i1  y i 2  y 
für alle UEen
F(x1,x2):=ssqe(x1,x2)=
I2
J
   ri21i 2 j =
10
9
8
7
6
I2
5
J
   (y i1i 2 j  y i1   y i 2  y  )
Summe der quadr.
Werte
minus quadr. x1Gruppenmittel
minus quadr. x2Gruppenmittel
plus quadr.
Gesamtmittel
11
i1 1 i 2 1 j1
I1
Andere
Berechnungsvariante:
Die a-Gruppenprädiktionsregel R (a) ordnet als Prädiktionswert
jeder einzelnen UE den Mittelwert jener a-Gruppe zu, der sie
angehört.
R(x1,x2): ŷ i1i 2 j : y i1  y i 2  y 
I1
Direkte Berechnung
i2
Einkommen in 100 Euro
Prädiktionsregel:
Additive Haupteffekte als
Mittelwerteregel
i1 1 i 2 1 j1
I1
=
I2
J
   y i21i 2 j
WG
Privat
2
2
i1
a
(1) y i1 
1
2
m
w
49
64
i2
b
(2) y i 2
1
2
3
daheim
wg
privat
36
64
72.25
113
i1 1 i 2 1 j1
- I2J
Daheim
2
172.25
Die Summe der quadrierten Werte= 6 +6 +6.5 +...+9.52= 698.
In der Spalte (1) wurde die Summe der quadrierten aMittelwerte berechnet=113, in Spalte 2 die für b = 172.25.
2
I1
I2
i1 1
i 2 1
 y i21  - I1 J  y 2i 2
2
+ I1 I 2 Jy 
2
2
Nach der letzten Formel gilt: F(a,b) = 698 – 2*3*113 –
2*2*172.25 + 2*2*3*7.52 = 698 – 678 – 689 + 675 = 6
Alle übrigen linearen Modelle wurden bereits bei der Bearbeitung des Gruppenmodells geschätzt, die Regeln
entsprechen exakt denen des Gruppenmodells. Daher sind auch die Prädiktionsfehler identisch. Gewonnen
Nagl, Einführung in die Statistik
Seite 202
wurde aber durch die Bearbeitung des Problems mit Hilfe eines linearen Modells die rein additive Regel und
damit ein Fehlerterm, der den kombinierten Fehler aufgliedert.
5.2.1.3 Übersicht über die verschiedenen Modelle
Studenten-Einkommens-Beispiel: für alle Faktoren-Modelle wurden die Fehler berechnet. Dargestellt wird jeweils das Fehlermaß der
Modelle (ssqe). Darauf aufbauend sind ebenfalls die Fehlerreduktionen eingetragen; Hier zusätzlich mit rein additivem Modell
-
-
ssqe(-) 1
23 1
a
b
I1
ssqe(a)
a
I2
ssqe(b)
FR(b . a)
14
3
FR(b)
FR(a)
b
9 3
20 2
FR(a . b)
3
14
a, b
a, b
I1+I2-1
ssqe(a,b)
Rein additives Modell
FR. durch Interaktion
6 4
2
FR(ab. (a,b) )
19
FR(ab)
ab
ab
ssqe(ab) I1I2
4
z
6
Anzahl linear unabhängiger Parameter
Übersicht über die linear unabhängigen Parameter der Modelle
Prädiktionsmodell
-
Prädiktionsf
ehler
F(-)
Linear unabhängige Parameter
im Gruppenmodell
im linearen Modell
 

x1
F (x1)
1 ,  2 , ,  I1
, 1 , ,  I1 1
I1
x2
Additives
Modell: x1, x2
F (x2)
 1 ,  2 , ,  I2
, 1 , ,  I2 1
I2
, 1 , ,  I1 1 , 1 , ,  I2 1
I1+I2-1
x1x2
F(x1x2)
F (x1, x2)
11 , ,  I1I2
Anzahl
1
, 1 , ,  I1 1 , 1 , ,  I2 1 ,
i1i 2 (i1  1, , I1 1; i 2  1, , I 2 1)
I1I2
Zusammenfassung der Fehlerreduktionen, Bezeichnungen und Formeln
Die Fehlerreduktionen können als Differenzen zwischen den Fehlern im Rahmen des obigen Schemas gebildet
werden. Die Formeln für die Fehlerreduktionen sind die jeweiligen Differenzen der Formeln der
Prädiktionsfehler.
Variationsquelle
Sum of
Squares
Formeln
Freiheitsgrade =
df
I1
Faktor, x1
FR(x1)
ssq(x1)
I 2 J  y i21  - I1 I 2 Jy 
Faktor, x2
FR(x2)
ssq(x2)
I1 J  y 2i 2 - I1 I 2 Jy 2
2
I1 - 1
i1 1
I2
I2 - 1
i 2 1
Interaktion,
x1x2
I1
FR(x1x2)
ssq(x1x2)
J
I2
I1
I2
i1 1
i 2 1
 y i21i 2 - I 2 J  y i21  - I1 J  y 2i 2
i1 1 i 2 1
+ I1I 2 Jy 2
(I1-1)(I2-1)
Nagl, Einführung in die Statistik
Seite 203
Error,
within cells
F(x1x2) ssqe(x1x2)
Total
F(-)
I1

I2
I1
 (J  1)s i21i 2 = 
i1 1i 2 1
I2

 y i21i 2 j - J 
I2
J
  y
i1 1 i 2 1 j1
2
i1i 2 j
I2
 y i21i 2
n - I1I2
i1 1 i 2 1
i1 1 i 2 1 j1
I1
ssqe(total)
I1
J
 I1 I 2 Jy 2
n-1
Die Freiheitsgrade der Fehlerreduktionen können als Differenzen der Anzahl der linear unabhängigen Parameter
der entsprechenden Modelle errechnet werden. Die Freiheitsgrade des Prädiktionsfehlers eines Modells selbst
sind jeweils die Differenz zwischen n und der Anzahl der linear unabhängigen Parameter des entsprechenden
Modells.
Das kombinierte Modell (bisher als x1x2 bezeichnet) kann auch als das Modell bezeichnet werden, das sowohl
die Haupteffekte additiv verknüpft als auch die Interaktionseffekte selbst additiv hinzufügt, und daher wie folgt
abgekürzt werden: x1, x2, x1x2; daher z.B. statt F(x1x2) auch F(x1, x2, x1x2) bzw. statt ssqe(x1x2) auch ssqe(x1,
x2, x1x2).
5.2.1.3.1 Genese der Stichproben
Der Begriff des Modells umfasst nicht nur die Modellgleichungen, sondern auch die Konzeption dafür, wie die
beobachtbaren Werte entstehen. Neben der Systematik (repräsentiert durch  i1i 2 ) ist dabei zu beachten, dass
jede Teilstichprobe aus einer Population verschiedener Werte gezogen wird.
Das Ergebnis Y wird als
Summe aus einem
systematischen Teil (  i1i 2 )
und einem Zufallsteil (e)
dargestellt. e wird manchmal
als ‚Störgröße‘ oder ‚Fehler‘
bezeichnet.
Yi1i 2 j   i1i 2  e i1i 2 j ,
Verteilung der Störgröße:
wobei e i1i 2 j von Ziehung zu Ziehung
unabhängig ist und jeweils aus der
gleichen ‚Störgrößen‘-Verteilung mit
der Standardabweichung  (auch mit e
bezeichnet) und µe=0 stammt.
-2e -e
0
e 2e e
Es wird daher unterstellt, dass für alle Stichproben die gleiche Varianz gilt (Homoskedastizitätsannahme). Die
Konzeption für die Entstehung der Beobachtungen betrifft das Gruppenmodell ebenso wie das lineare Modell.
Im linearen Modell wird nur zusätzlich die spezielle additive Zerlegung von  i1i 2 in Haupteffekt-Parameter
möglich.
Pfaddiagrammdarstellung: Das
allgemeine Niveau, die - und -Effekte samt der Störgröße können als
einfache Pfeile dargestellt werden.
Die Interaktionseffekte () werden Daheim
durch Kombinationspfeile
WG
dargestellt (die Kombinationspfeile Privat
sollen das ‚synergetische
Zusammenwirken’ der
Faktorenstufen symbolisieren).
weiblich
0.5
-0.5
0.5
-1.5
0.5
1
Eink.
7.5
e
Die geschätzten Haupteffekte für beide Faktoren
werden durch die Zahlen bei den einfachen Pfeilen
dargestellt.
Die geschätzten Interaktionseffekte sind bei den
Kombinationspfeilen eingetragen.
Wegen der asymmetrischen Restriktionen genügt
für den Faktor Sex die Darstellung einer Stufe
(weiblich); die männlich-Effekte sind nur jeweils
das Negative der weiblich-Effekte.
5.2.1.3.2 Hypothesen und Tests
Haupteffekt-Hypothesen
Für beide Haupteffekte können Nullhypothesen formuliert werden. Die Hypothesen können als Aussagen zu den
Mittelwerten oder den Effektparametern formuliert werden.
Anzahl der
Formen der Hypothese
Hypothesen
Beispiel: Der Einkommensmittelwert eines
Null-Hypothese zum
H0(x1): 1   2     I1
Studenten ist gleich dem
Faktor x1: die
I1-1
Einkommensmittelwert einer Studentin.
bzw.
Mittelwerte der x1Die Einkommenseffekte von Sex sind 0






0
1
I1 1
Gruppen sind gleich
Nagl, Einführung in die Statistik
Null-Hypothese zum
Faktor x2: die
Mittelwerte der x2Gruppen sind gleich
Seite 204
H0(x2):  1   2     I2
bzw.
1     I2 1  0
Beispiel: Die Einkommensmittelwerte
unterscheiden sich nicht nach Wohnform.
I2-1
Die Einkommenseffekte von Wohnform
sind 0
Interaktionseffekt-Hypothese
Auch diese Hypothese kann als Aussage zu den Mittelwerten genau so wie als Aussage zu den Effektparametern
formuliert werden.
Anzahl der
Formen der Hypothese
Hypothesen
Beispiel: Alle Interaktioneffektsparameter
Null-Hypothese zur
H0(x1x2): alle Effektparameter
sind null. Auf Grund der Restriktionen
Interaktion zwischen
sind 0:
sind allerdings nur zwei
den beiden Faktoren x1
Interaktioneffektsparameter zu betrachten;
i1i 2 (i1  1, , I1 1;
(I1-1) (I2-1) es genügt zu fordern:  =  =0. Auf
11
12
und x2. D.h. das rein
Grund der Restriktionen sind dann alle
i 2  1,  , I 2  1) . bzw.
additive Modell der
Effektparameter 0.
Haupteffekte ist richtig
Hier werden in der Hypothese alle
Differenzen zur 1. Stufe betrachtet (dies
könnten auch andere Differenzen sein).
Die
Mittelwertunterschiede H0(x1x2):
zwischen den x111   21    1I2   2I2 und
Gruppen sind gleich in
......
allen x2-Stufen
11   I11    1I2   I1I2
Beispiel: Die Einkommensunterschied
zwischen Studenten und Studentinnen ist
in allen Wohnformen gleich groß
Auch hier werden in der Hypothese alle
Beispiel: Die Einkommensunterschied
zwischen daheim versus in WG zu
wohnen ist gleich groß für Studenten wie
für Studentinnen.
Zudem gilt: Die Einkommensunterschied
zwischen daheim versus privat zu wohnen
ist gleich groß für Studenten wie für
Studentinnen.
Differenzen zur 1. Stufe betrachtet.
Die
Mittelwertunterschiede H0(x1x2):
11  12     I11   I1 2 und
zwischen den x2Gruppen sind gleich in
......
allen x1-Stufen
11  1I2     I11   I1I2
Teststatistiken für die Überprüfung der Hypothesen
Für die verschieden Hypothesen müssen Stichprobenmaßzahlen konstruiert werden, mit deren Hilfe die
Hypothesen beurteilt werden können. Unter Geltung der Nullhypothesen sollten diese Stichprobenmaßzahlen
tendenziell klein werden, unter Geltung der Alternativhypothese eher groß. Diese Eigenschaft erfüllen die
Fehlerreduktions-Quadratsummen, deren Formeln hier wiederholt werden (allerdings etwas umgeformt):
Variationsquelle
Sum of
Squares
Formeln
I1
Faktor, x1
I 2 J  ( y i  y  ) 2
ssq(x1)
i1 1
1
Nullhypo- Konsequenz für die Sum of Squares
these
bei Geltung der Nullhypothese
Laut Nullhypothese würde ssq(x1) in der
H0(x1)
Pop. null werden. Abweichungen von Null
sind aber in der Stichproben zu erwarten
I2
Faktor, x2
I1 J  ( y i y  ) 2
ssq(x2)
i 2 1
I1
Interaktion
ssq(x1x2)
, x1x2
J
2
H0(x2)
Laut Nullhypothese würde ssq(x2) in der
Pop. null werden. In der Stichprobe sind
Abweichungen von Null zu erwarten
H0(x1x2)
Laut Nullhypothese würde ssq(x1x2) in der
Pop. null werden. In der Stichprobe sind
Abweichungen von Null zu erwarten
I2
 ( y i1i 2  (y i1  y i 2  y  )) 2
i1 1 i 2 1
Diese Quadratsummen werden zudem relativiert auf die Variabilität innerhalb der Zellen einerseits, andererseits
werden auch die Freiheitsgrade berücksichtigt. Die resultierende Teststatistiken sind F-Statistiken (z.B. für
Faktor x1):
ssq ( x 1 ) / dfz
F(dfz, dfn ) 
, wobei dfz=(I1-1) und dfn=(n-I1I2) ist.
ssqe ( within ) / dfn
Nagl, Einführung in die Statistik
Seite 205
dfz wird als Zählerfreiheitsgrad, dfn als Nennerfreiheitsgrad bezeichnet. Der Zähler ssq(x 1)/dfz wird auch
msq(x1), der Nenner ssq(within)/dfn wird auch msq(within) genannt. Dabei steht msq für ‚mean sum of
squares‘ (Mittlere Quadratsumme). Dieser Typ von Statistik wurde bereits bei der einfaktoriellen Varianzanalyse
eingeführt. Dabei sei hier noch mal wiederholt:
Testverteilung der Teststatistik F(dfz,dfn) unter Geltung von H 0. Unter der Voraussetzung, dass die y-Werte
in jeder Gruppe normalverteilt sind und die Varianzen in allen Gruppen gleich (Homoskedastizität) sind, hat die
Teststatistik F(dfz,dfn) eine bekannte Verteilung, und zwar die sogenannte F-Verteilung. Die Form der
Verteilung für F(dfz,dfn) hängt von den beiden Freiheitsgraden df1 und df2 ab.
Durchführung der Tests
Als Schema für die Berechnung wird meist eine ANOVA-Tabelle erstellt:
Variationsquelle
Faktor, x1
Faktor, x2
Faktor, x1x2
Error, within
Sum of Squares
ssq(x1)
ssq(x2)
ssq(x1x2)
ssqe(within)
Total
ssqe(total)
df.
Mean sum of squares
df1= I1-1
msq(x1)= ssq(x1)/ df1
df2= I2-1
msq(x2)= ssq(x2)/ df2
df12=( I1-1)(I2-1)
msq(x1x2)= ssq(x1x2)/ df12
dfe= n- I1I2
msqe(within) =ssqe(within) / dfe
n-1
msq(total)
2
=ssqe(total) / (n-1)= s n 1
Beispiel: Einkommen von Studentinnen und Studenten in unterschiedlichen Wohnformen.
ANOVA-Tabelle
Variationsquelle
Sum of Squares
df.
Mean sum of squares
Faktor, Sex (=a)
ssq(a)=3
1
3
Faktor, Wohnform(=b)
ssq(b)=14
2
7
Faktor, Sex Wohnform
ssq(ab)=2
2
1
Error, within
ssqe(within)=4
6
4 / 6 = 2/3=0.666
Total
ssqe(total) = 23
11
F-Ratio
F(df1,dfe) = msq(x1) / msqe(within)
F(df2,dfe) = msq(x2) / msqe(within)
F(df12,dfe) = msq(x1x2) / msqe(within)
F-Ratio
F(1, 6) = 3 / (2/3) = 4.5
F(2, 6) = 7 / (2/3) = 21/2 = 10.5
F(2, 6) = 1 / (2/3) = 3/2 = 1.5
2
23 / 11= s n 1
Kritischer Bereich und Entscheidung. Es ist noch zu untersuchen, ob der F-Wert im kritischen Bereich liegt.
Der kritische Bereich ist jener Wertebereich der F-Verteilung, der einerseits größer als (bzw. gleich) der
sogenannte kritische Wert ist, und für den andererseits gilt: P(F  kritischer F-Wert) = . Wenn der in der
Stichprobe errechnete F-Wert im kritischen Bereich liegt, wird H0 abgelehnt.
Für das vorliegende Beispiel werden zwei verschiedene kritische Bereiche benötigt:
KB  F0.95 (1,6) =5.99 und KB  F0.95 (2,6) =5.14 (siehe F-Verteilung
F-Verteilung
df1=1
df2=6
0.4
0.4
F-Verteilung
df1=2
df2=6
0.3
0.3
0.2
Kritischer
Bereich 
0.2
Kritischer
Bereich

0.1
0.1
0
Entscheidung
im Tabellenanhang F).
0
1
2
3
4
5
6
7
8
9 F
7 Kritis
8
9 F
Kritis
Kritischer
Kritischer
cher Bereich
cher Bereich
5.99
5.14
Berei
Berei
ch
ch
Über
die
Nullhypothese,
dass
keine
Interaktion
zwischen
Sex
und
Wohnart bezüglich
des
Kritis
H0 wird abgelehnt,
Kritis
Studenteneinkommens
vorliegt, wird mit Hilfe des Testwerts F(2,
6) (= 3/2 ) entschieden.
cher
cher
Kritischer
Kritischer
falls der Testwert
2 Zählerund 6 Nennerfreiheitsgraden ist der kritischeKritis
Bereich
jener, der größer
KritisBei
Berei oder
Berei
Bereich
Bereich
im kritischen
ist. Daher liegt der Testwert nicht im kritischen
Bereich; die Nullhypothese
wird
cher gleich 5.14 ch
ch
cher
Bereich liegt. Bereidaher nicht verworfen.
Berei
ist, wird mit Hilfe des
ch Über die Nullhypothese, dass kein Sex-Haupteffekt vorhanden
ch
Testwerts F(1, 6) (= 4.5 ) entschieden. Bei 1 Zählerfreiheitsgrad und 6
Nennerfreiheitsgraden ist der kritische Bereich jener, der größer oder gleich 5.99 ist. Daher
liegt der Testwert nicht im kritischen Bereich; die Nullhypothese wird daher nicht
verworfen.
Über die Nullhypothese, dass kein Wohnform-Haupteffekt vorhanden ist, wird mit Hilfe
des Testwerts F(2, 6) (= 10.5 ) entschieden. Der Testwert liegt im kritischen Bereich; die
Nullhypothese wird somit verworfen.
1
2
3
4
5
6
5.2.2 Zwei Faktoren bei ungleichen Zellbesetzungen
Nagl, Einführung in die Statistik
Seite 206
Die Varianzanalyse wurde ursprünglich für geplante Experimente entwickelt. Dabei war es kein Problem,
gleiche Zellbesetzungen in den Zellen vorzusehen. In dieser Situation sind die Faktoren selbst unabhängig im
Häufigkeitssinn (das trifft auch für Designs zu, bei denen die Häufigkeiten proportional zu den Randhäufigkeiten
sind). In varianzanalytischer Terminologie werden Versuche, bei denen gleiche oder proportionale
Zellbesetzungen gegeben sind, als balanzierte Designs bezeichnet. Bei nichtbalanzierten Designs korrelieren im
allgemeinen die Faktoren, da die Häufigkeiten nicht proportional zu den Randhäufigkeiten sind.
Bei der Erweiterung auf beliebige Zellbesetzungen (nichtbalanzierte Designs) werden die für gleiche
Zellbesetzungen definierten Konzepte (Haupteffekte, Interaktionseffekte und Fehlermaße) übernommen. Ebenso
entspricht die Vorgehensweise für Tests von Hypothesen der balanzierten Situation.
Bei der Erweiterung sind allerdings zwei Aspekte zu beachten, die die Interpretation der Effekte bei ungleichen
Zellen komplizieren:
 Bei den Modellen, die verschiedene Faktoren berücksichtigen, sind die geschätzten Effekte je nach
Modell unterschiedlich groß.
 Die Fehlerreduktion durch einen bestimmten Faktor ohne Konstanthaltung ist nicht gleich groß wie die
Fehlerreduktion dieses Faktors bei Konstanthaltung eines andern Faktors.
Beispiel: Beim Einkommensbeispiel werden
zwei daheim wohnende Studenten
hinzugefügt mit den Einkommenswerten 6.
Dadurch ändern sich die Zellmittelwerte
nicht
Studenteni1 a i2
b
Einkommen
Die beiden Probleme sind
darauf zurückzuführen, dass
bei ungleichen
Zellbesetzungen die
Gruppenmittelwerte für die
Stufen der Faktoren nicht
gleich dem ungewichteten
Mittelwert über die
Zellmittelwerte sind (diese
Gleichheit gilt bei
balanzierten Designs).
1
1
1
2
2
2
m
m
m
w
w
w
1
2
3
1
2
3
Daheim
WG
Privat
Daheim
WG
Privat
Der Gesamtmittelwert (=7.2857) ist nun nicht mehr
dem ungewichteten Mittel der Zellenmittelwerte.
I. a. sind auch die Randmittelwerte (Mittelwerte der
Gruppen) wegen unterschiedlicher Häufigkeiten nicht
mehr gleich dem ungewichteten Mittelwert über die
Zellmittelwerte.
b
i2
6, 6, 6, 6
6.5, 7.5
7.5, 8.5
5.5, 6.5
8.0, 10.0
8.5, 9.5
i1
1
2
6
6
7
9
8
9
Randmi
ttel
6.75
8
6
8
8.5
7.2857
daheim wg
a
1 m
2 w
Randmittel
3
privat
Prädiktionsfehler und Schätzung der Effekte für die verschiedenen Modelle
Wie im balanzierten Fall können auch hier die Effekte geschätzt werden unter Berücksichtigung mehr oder
weniger Faktoren. Die Effekte werden nach den Kleinst-Quadrateprinzip geschätzt: KQ Schätzer der Effekte bei
symmetrischen Restriktionen:
Modell
Konstante
Sexeffekte Wohneffekte Interaktionseffekte Prädiktionsfehler
ˆ 11 , ˆ 12
̂
̂ 1 , ̂ 2
̂ , ̂ , ̂
1
OHNE
7.285714
Sex(=a)
7.375
Wohnform(=b)
Additiv: Sex und
Wohnform
Sex, Wohnform und
Interaktion
7.5
2
3
26.85
0.625, -0.625
21.5
-1.5, 0.5, 1
9
6.3
7.55
0.45, -0.45
-1.4, 0.45, 0.95
7.5
0.5, -0.5
-1.5, 0.5, 1
0.5, -0.5
4
Während hier bei den unterschiedlichen Modellen jeweils unterschiedliche Schätzwerte für die Effekte eines
Faktors durch die KQ-Schätzung resultieren, sind beim balanzierten Fall die Effekte für den untersuchten Faktor
jeweils gleich (ebenfalls die Konstante) in allen Modellen.
Die Fehlerreduktion durch einen Faktor ist unterschiedlich je nach Konstanthaltung der anderen Faktoren.
Studenten-Einkommens-Beispiel: Prädiktionsfehlerberechnung für nicht balanziertes Daten. Hier ist wiederum die Fehlerreduktion durch
einen Faktor unterschiedlich je nach Konstanthaltung (z.B. FR(b) =17.85 ungleich FR(b . a)=15.2).
-
-
ssqe(-)
26.85
FR(a)
a
b
a
ssqe(a)
ssqe(b)
21.5
FR(b . a)
Rein additives Modell
FR. durch Interaktion
17.85
5.35
FR(b)
FR(a . b)
b
9
2.7
15.2
a, b
a, b
ssqe(a,b)
6.3
2.3
FR(ab. (a,b) )
22.85
FR(a, b, ab)
a, b, ab
ssqe(ab)
a, b, ab
4
Nagl, Einführung in die Statistik
Seite 207
Im allgemeinen sollte der Faktor durch jene Fehlerreduktion beurteilt werden, bei der die maximale
Konstanthaltung vorliegt.
5.3 Kovarianzanalyse
Der Prädikand ist hier wie bei der Varianzanalyse quantitativ, mindestens intervallskaliert. Als Kovarianzanalyse
bezeichnet SCHEFFÈ(1959) jede Regressionsanalyse, die sowohl quantitative Merkmale als Prädiktoren als auch
qualitative Prädiktoren enthält. In diesem Kapitel soll nur eine Kovariate und ein Faktor betrachtet werden
Etwas eingeschränkter wird unter Kovarianzanalyse ein Verfahren verstanden, das erlaubt Gruppenunterschiede
(qualitativen Faktor) zu untersuchen, obwohl bekannt ist, dass die Gruppen in etwa einem (oder mehreren)
quantitativen Merkmal (Kovariate genannt) unterschiedlich sind, das seinerseits für den Prädikanden relevant ist.
Dabei soll nun mit Hilfe der ‚Konstanthaltung der Kovariaten’ die Vergleichbarkeit hergestellt werden. Diese
Form der Analyse sei als Kovarianzanalyse im engeren Sinne bezeichnet, die allgemeinere von SCHEFFÈ(1959)
eingeführte Bezeichnung als Kovarianzanalyse im weiteren Sinn.
5.3.1 Kovarianzanalyse im engeren Sinn
Allerdings sei bekannt, dass sich die Gruppen
in einer (für y vermutlich relevanten)
quantitativen x-Variablen unterscheiden.
Dieser Unterschied in der x-Variablen sollte
den Gruppenvergleich nicht beeinträchtigen.
Beispiel: Der Gewichtsunterschied zwischen Männern und Frauen (Sex als
qualitativer Faktor)soll festgestellt werden. Nun sind aber Männer meist auch
größer (Körpergröße als quantitatives x-Merkmal). Soll der Größenunterschied
berücksichtigt werden, könnten eventuell nur die Personen im schmalen
Überlappungsbereich untersucht werden, in dem sowohl Frauen als auch Männer
zu finden sind.
Gewicht in kg
Wie in der Varianzanalyse soll der
Unterschied bezüglich y zwischen Gruppen
festgestellt werden.
95
Überlappun
gsbereich
85
75
Eine Möglichkeit bestünde darin, nur UEen
im Überlappungsbereich des quantitativen xMerkmals für den Gruppenvergleich
heranzuziehen; dann müsste aber die
Stichprobe eventuell stark verkleinert
werden. Zudem ist es sehr schwierig, einen
angemessenen Überlappungsbereich zu
definieren
65
55
45
35
150
160
170
180
190
Größe in cm
Gewicht in kg
Es wird unterstellt, dass die beiden Regressionsgeraden (innerhalb beider
Die Kovarianzanalyse wählt einen anderen
Gruppen) die gleiche Steigung haben.
Weg:
 Es wird unterstellt, dass zwischen x und
95
y ein linearer Zusammenhang besteht;
 und zwar soll die Steigung in beiden
85
Gruppen gleich sein (Parallelität).
75
 Dann kann der Unterschied zwischen
Gruppenun
den Gruppen an jeder beliebigen Stelle
terschied
65
des quantitativen Merkmals als
Höhenunterschied zwischen den
55
Geraden abgelesen werden.
Auf diese Art kann der Unterschied zwischen
45
den Gruppen unter Berücksichtigung des
35
Einflusses des x-Merkmals (d.h. unter
150
160
170
180
190
Größe in cm
Konstanthaltung von x) festgestellt werden.
Nagl, Einführung in die Statistik
Seite 208
Die Steigung der Geraden wird mit 0.77 geschätzt.
Lineare
Die Konstante ist irrelevant. Frauen sind im
Modellgleichung:
Schnitt 3.83 leichter als die Mitte, Männer um 3.83
y = k + i + x + e; schwerer (Gesamtunterschied = 2*3.83 = 7.66). Der
wobei die i die für Unterschied ist aber gerade nicht mehr signifikant
(Prob>|t| = 0.055; das ist größer als =0.05)
I Gruppen so
Schätz Std
gewählt werden
Term
wert Error t Ratio Prob>|t|
können, daß sie sich
-69.36 35.04 -1.98 0.053
k
Für jeden Schätzwert wird der Standardfehler zu 1 summieren
-3.83 1.95 -1.97 0.055
weibl.
der t-Wert und p-Wert berechnet (der p-Wert
3.83 1.95 1.97 0.055
männl.
erlaubt durch Vergleich mit  die Signifikanz
Größe(cm) 0.77 0.20 3.83
0.000
zu beurteilen)
Die Analyse des Gruppenunterschieds setzt die Parallelität der Geraden innerhalb der beiden Gruppen voraus.
Diese Parallelität kann ebenfalls untersucht und die Parallelitätshypothese getestet werden.
Als Modell wird eine additive Verknüpfung
der Gruppeneffekte und der Regressiongerade
mit Steigung  (inklusive der obligaten Konstanten k) verwendet. Mit Hilfe eines
Regressions-Computerprogramms können die
Parameter leicht geschätzt werden.
5.3.2 Kovarianzanalyse im weiteren Sinn
5.3.2.1 Überprüfung der Parallelität von Regressionsgeraden
Gewicht in kg
Für die Gruppen des qualitativen Merkmals Beispiel: Für die beiden Sexgruppen (Männer und Frauen) kann jeweils eine
wird jeweils eine eigene Regressionsgerade Regressionsgerade bestimmt werden
berechnet.
Die Parameter des Abschnitts auf der y-AchMänner
95
se (bei x=0) seien für die i Gruppen
y= -90.28 + 0.90 x
85
1, 2, ... , I.
Die Parameter der Steigung seien für die i
75
Frauen
Gruppen
1, 2, ... , I.
y= -22.58 + 0.46 x
65
Untersucht werden soll, ob die
Steigungsparameter in den verschiedenen
Gruppen gleich sind.
55
45
35
150
Falls die Steigungen verschieden sind, sind
die Niveauunterschiede zwischen den
Gruppen je nach x-Position unterschiedlich
160
170
180
GrößenMittelwert
=176.9
190
Größe in cm
Zur Überprüfung der Parallelität wird eine Regressions- bzw. Kovarianzanalyse
durchgeführt, bei der zusätzlich zum Faktor und der Größenvariablen die
Interaktion zwischen Größenvariablen und dem qualitativen Faktor eingeführt
Mit Hilfe einer sogenannten
Reparametrisierung kann die Fragestellung
durch eine Regressionsanalyse berechnet
werden, in der zusätzlich zum Faktor und
dem quantitativen x noch die Interaktion
zwischen Faktor und x eingeführt wird. Die
qualitativen Variablen werden in der Form
von Dummy-Variablen in die
Regressionsanalyse eingeführt.
Schätz Std
t
Prob>|t|
wert Error Ratio
Term
k
weiblich (bei 176.9)
Bei symmetrischer Restriktion wird dann
eine ‚durchschnittliche’ Steigung berechnet:
-56.37 37.31 -1.51
-5.04 2.29 -2.20
0.137
0.032
männlich (bei 176.9)
5.04
2.29 -2.20
0.032
Größe(cm)
0.68
0.22 3.15
0.003
Interaktion weibl.* (Größe(cm) -176.9) -0.22
0.22 -1.01
0.316
Interaktion männl.*(Größe(cm) -176.9) 0.22
0.22 1.01
0.316
wird.
Die geschätzte durchschnittliche Steigung ist 0.68 (=(0.46+0.90)/2).
Der Unterschied zur durchschnittlichen Steigung ist bei Frauen gleich –0.22. Das
heißt, die Steigung ist bei den Frauen um 0.22 kleiner; bei den Männern muss
wegen der symmetrischen Restriktion (=Summe gleich 0) die Steigung um 0.22
größer sein.
Für die Prüfung der Parallelitätshypothese reicht bei einem Faktor mit nur 2
Stufen der t-Test, da nur eine Abweichung zu prüfen ist. Die Hypothese kann bei
=0.05 nicht verworfen werden, da der p-Wert (Prob>|t| = 0.316) größer als  ist;
bzw. der t-Wert (=-1.01) nicht im kritischen Bereich der Student-t-Verteilung
liegt.
Der Effekt von Sex (weiblich) mit –5.04 wird für die Stelle des Mittelwerts der xWerte berechnet.
Die Konstante k gibt den Abschnitt der durchschnittlichen Steigung auf der yAchse an (bei x=0).
 = (1+2+... + I)/I
Zusätzlich wird für jede Gruppe die
Abweichung von der durchschnittlichen
Steigung berechnet. Für die Abweichungen
kann die Nullhypothese (alle Abweichungen
sind =0, d.h. Parallelität) mit Hilfe eines
Tests (F-Test) geprüft werden.
Einzelabweichungshypothesen können mit
dem t-Test geprüft werden.
Übersicht über die Fehler-Quadratsummen der verschiedenen Modelle. Gewichtsprädiktion: a = Sex, x = Körpergröße (n=53). Dargestellt
wird jeweils das Fehlermaß der Modelle (ssqe). Darauf aufbauend sind ebenfalls die Fehlerreduktionen eingetragen.
-
-
ssqe(-) 1
FR(a)
a
I
6869 1
2805
FR(x)
x
2
a
3483
x
Nagl, Einführung in die Statistik
Seite 209
5.3.2.2 Überprüfung der Gleichheit von Korrelationskoeffizienten
Für große Stichproben (n pro Gruppe mindestens 15) kann auch die Hypothese überprüft werden, dass die
Korrelationskoeffizienten in allen Gruppen gleich sind.
5.3.2.2.1 Korrelationstest für zwei unverbundene Stichproben
Sind die
Korrelationskoeffizienten
in zwei Gruppen gleich?
Wie bereits in Abschnitt
4.3.2 sollen auch hier die
FISHER'schen z-transformierten der
Korrelationskoeffizienten
betrachtet werden
Als Teststatistik für die
Nullhypothese, dass die
Korrelationen in beiden
Gruppen gleich ist
Kritischer Bereich und
Entscheidung.
Die beiden Korrelationskoeffizienten in der
Stichprobe werden mit r1 und r2 abgekürzt
(in der Population entsprechend griechische
Buchstaben). Die entsprechenden
Zufallsvariablen seinen mit R1 und R2
abgekürzt.
Die Korrelationswerte werden mit Hilfe der
Formel
z( r )  12 ln 1  r (-1< r <1)
1 r
in z-Werte transformiert.
Die Teststatistik tw 
z(r1 )  z(r2 )
1
n1  3

ist
Beispiel: Die Korrelation zwischen
Körpergröße und Gewicht in den beiden
Gruppen nach Sex:
1. weiblich r1=0.332 n1=18
2. männlich r2=0.5313 n2=35
FISHER'sche z-Transformierte der
Korrelationskoeffizienten:
Gruppe 1: z(r1)=z(0.332)=
0.5 ln( (1+.332)/ (1-0.332))=
= 0.345
Gruppe 2: z(r2)=z(0.5313) = 0.592
tw 
z(0.332)  z(0.5313)
1
n 2 3
approximativ standardnormalverteilt
Der zweiseitige Kritische Bereich bei der
Standardnormalverteilung für =0.05 ist der
Wertebereich, der kleiner gleich -1.96 bzw.
größer gleich 1.96 ist.
Der linksseitige KB für =0.05 ist der
Wertebereich, der kleiner gleich -1.645.
Der rechtsseitige KB für =0.05 ist der
Wertebereich, der größer gleich 1.645.
1
183

=
1
353
0.247
0.313
=
-0.789.
Die Alternativhypothese sei: Die
Korrelationskoeffizienten in den beiden
Gruppen sind verschieden.
Daher ist die Nullhypothese bei einem groß
negativem wie bei großem positivem
Testwert abzulehnen. Daher ist der KB
zweiseitig zu wählen.
Der Testwert tw= -0.789 liegt nicht im
zweiseitigen KB. Daher wird die
Nullhypothese akzeptiert.
5.3.2.2.2 Korrelationstest für mehrere unverbundene Stichproben
Die Nullhypothese
behauptet die Gleichheit
der Korrelationskoeffizienten in allen Gruppen
Wie bereits in Abschnitt
4.3.2 sollen auch hier die
FISHER'schen z-transformierten der
Korrelationskoeffizienten
betrachtet werden
Nullhypothese für I Gruppen:
Ho: 1 = 2 = ... = I.
Für alle Gruppen werden die
Korrelationskoeffizienten FISHER'sche zTransformiert:
z( r )  12 ln 1  r (-1< r <1)
1 r
Beispiel: Korrelation zwischen geplanter und
tatsächlicher Arbeitszeit ist in den drei
Schichten {Unter-, Mittel- und Oberschicht}
gleich: Ho: (US) = (MS) = (OS) .
Angaben und FISHER'sche z-Transformierte
der Korrelationskoeffizienten:
ni
ri
z(ri)
1.
i
US
50
0.4
0.42
2.
MS
30
0.5
0.55
3.
OS
20
0.55
0.62
Nagl, Einführung in die Statistik
Als Teststatistik für die
Nullhypothese wird eine
Größe konstruiert, in der
den Unterschied zwischen
den z-Transformierten
berechnet wird.
Seite 210
Teststatistik:
I
tw =  (n i  3)( z(ri )  z ) 2 ,
i 1
mit z 


I
(n i  3)z(ri )
i 1
I
(n i  3)
i 1
(1)
ni-3
(2)
z(ri)
(3)
(1)*(2)
1
47
0.42
19.911
-0.074
0.255
2
27
0.55
14.831
0.052
0.073
3
17
0.62
10.512
0.1211
91
45.255
z=
Verteilung der
Teststatistik
Kritischer Bereich und
Entscheidung.
Tw ist unter Geltung der Nullhypothese 2
verteilt mit (I-1) Freiheitsgrade 2(I-1)
Kritischer Bereich auf Grund der Tabelle
bestimmen, Entscheidung wie üblich.
(4)
(5)
z(ri)- z (1)*(4)2
i
0.4973
0.249
0.577
=tw
Die Anzahl der Freiheitsgrade= I-1 =2
Bei 2 Freiheitsgraden ist der KB 5.99. Der
Testwert 0.577 liegt nicht drin.
Nullhypothese daher nicht ablehnen
Übungsaufgaben (5.2)
1.
Betriebe wurden untersucht, damit die Auswirkung von Supervision auf die Zufriedenheit der Beschäftigten
geprüft werden kann. Zudem soll auch der Bereich der Betriebe berücksichtigt werden. Es wurden pro Zelle
je zwei Betriebe erhoben; jeweils stand der Zufriedenheitswert des Betriebes zur Verfügung. Die
Zusammenfassung der Daten:
a.
b.
c.
d.
Supervision
a
Bereich
b
Anzahl
ja
ja
ja
ja
nein
nein
nein
nein
Exekutive
Medizin
Sozial
Wirtschaft
Exekutive
Medizin
Sozial
Wirtschaft
2
2
2
2
2
2
2
2
Zufriedenheits- Standardabwei
Mittelwert
chung
13
14
20
25
18
14
8
5
1.41421
1.41421
1.41421
2.82843
1.41421
1.41421
1.41421
1.41421
Berechnen Sie den multiplen Determinationskoeffizienten 1. Art.
Erstellen Sie ein Streudiagramm mit den Mittelwerteinträgen.
Berechnen Sie auch F(a) und F(b).
Stellen Sie die Mittelwerte in einer Matrix dar (Zeilen für die Stufen von a, Spalten für die Stufen
von b).
e. Schätzen Sie die Effektparameter (alpha’s und beta’s) unter symmetrischer Restriktion.
f. Berechnen Sie die Prädiktionswerte unter Geltung eines rein additiven Modells.
g. Berechnen Sie den Prädiktionsfehler bei der Prädiktion mit dem rein additiven Modell.
h. Zeichnen Sie den ‚Modell-Diamanten’ mit den entsprechenden Einträgen.
i. Berechnen Sie die Anzahl der Lin. unabhängigen Parameter, tragen Sie die Werte im ModellDiamanten ein.
j. Berechnen Sie die diversen Fehlerreduktionen (bitte im Diamanten eintragen!)
k. Berechnen Sie die Freiheitsgrade der Fehlerreduktionen (im Diamanten eintragen)
l. Erstellen Sie die Liste der Hypothesen in Form einer ANOVA-Tabelle, die im Rahmen der VA
getestet werden.
m. Berechnen Sie für die Zeilen die Msq-Werte, die F-Werte.
n. Welche Hypothesen werden verworfen, warum?
Herunterladen