gewicht

Werbung
Nagl, Einführung in die Statistik
Seite 119
4.4 Kreuztabellendarstellung zweidimensionaler Verteilungen
In diesem Abschnitt wird für beide Merkmale (x und y) mindest nominales Skalenniveau vorausgesetzt. Die
Anzahl der Merkmalsausprägungen soll überschaubar klein sein. Vorerst wird die Stichprobenbeschreibung
vorgestellt, die anschließend auf die Populationsbeschreibung ausgedehnt wird
Das x-Merkmal hat I Ausprägungen: x1, x2, ... ,xI,
das y-Merkmal hat J Ausprägungen: y1, y2, ... , yJ.
Die Kreuztabelle ‚kreuzt‘ x und y: Die Zelle ij betrifft UEen, die in x den Wert xi und in y den Wert xj
haben: x=xi  y=yj , bzw. (x=xi, y=yj)
Beispiel: Zweidimensionale Häufigkeitsverteilung der Merkmale
Ausbildung des Vaters und der Mutter.
Volks-S.
höhere S.
Abi u.m.
VaterAusbildung
In den Zellen können verschiedene Arten von Maßzahlen dargestellt werden.
Ausbildung der Mutter
Volkshöhere Abi u.
schule
Schule
mehr
5
0
0
3
2
0
0
3
2
8
x-Merkmal
Häufigkeitskreuztabelle: in den Zellen stehen die
Häufigkeiten: nij (Anzahl der UEen, die im xMerkmal die i. und in y die j. Ausprägung haben).
y-Merkmal
1
2
j
J
y1 y2 ... yj ... yJ
1 x1 n11 n12 ... n1j ... n1J n1
2 x2 n21 n22 ... n2j ... n2J n2
. ... ... ... ... ... ... ...
i xi ni1 ni2 ... nij ... niJ ni
. ... ... ... ... ... ... ...
I xI nI1 nI2 ... nIj ... nIJ nI
n1 n2
nj
nJ n
Die Randhäufigkeiten für x ist jeweils die Summe
der Häufigkeiten über die y-Ausprägungen:
n i :  j1 n ij . Der über Summieren ‚eliminierte
J
I
n  n  :  j i n ij  i n i   j n  j
J
I
I
J
Kreuztabelle der gemeinsamen Anteile pij :
x-Merkmal
D.h. Jede Häufigkeit wird durch n dividiert.
y-Merkmal
1
2
j
J
y1 y2 ... yj ... yJ
1 x1 p11 p12 ... p1j ... p1J
2 x2 p21 p22 ... p2j ... p2J
. ... ... ... ... ... ... ...
i xi pi1 pi2 ... pij ... piJ
. ... ... ... ... ... ... ...
I xI pI1 pI2 ... pIj ... pIJ
p1 p2
pj
pJ
n ij
n
.
jüngere
Geschw.
Gleichheit-Freiheit-Präferenz
G vor F
egal
F vor G
nein
1
5
2
ja
4
0
2
5
5
4
Beispiel: Zusammenhang zwischen Jüngere Geschwister haben und
Familienstand.
Familienstand
Mögliche Aussage:
ledig nicht ledig
‚Jüngere Gejüngere
schwister zu
nein
8
1
9
Geschw.
haben‘ führt
ja
3
4
7
zu früherer
11
5
16
Bindung.
1.0
0.8
0.4
0.2
VS
hS
Abi
0
p1
p2
Angst vor Prüfungen
ja nein
4
0
4
Vater- Volks-S.
Ausbil- höhere S.
2
1
3
dung
Abi u.m.
1
2
3
7
1.0
0.5
0
1.0
0.5
0
1.0
0.5
0
ja
nein
ja
nein
7/10 3/10
1.0
0.2
1
VS
0.6
0.4
10
Das Stabdiagramm oben
zeigt die Verteilungen für
das y-Merkmal für jede
Ausprägung von x.
ja
Entsprechend können auch alle Randhäufigkeiten
durch n dividiert werden; dadurch entstehen die
Randanteile für x (pi) und die Randanteile für y
(pj). Ihre Summe ist jeweils = 1.
3
Angst vor P.
ja nein
VS. 4/10 0/10 4/10
hS.
2/10 1/10 3/10
Abi+ 1/10 2/10 3/10
1.0
Gesamt 0.5
0
0.8
pI
1
8
6
14
Formulieren Sie eine Aussage zu dieser Tabelle
0.6
pi
15
Beispiel: Zusammenhang zwischen Jüngere Geschwister haben und
Gleichheit-Freiheit-Präferenz
Mögliche Aussage:
Höhere Ausbildung des
Vaters senkt die Angst
vor Prüfungen
kann als Summe n dargestellt werden:
2
Aussage: ‚Bei Ehepaaren sind Männer besser ausgebildet als deren
Frauen‘
Index‘ wird durch einen Punkt ersetzt.
Entsprechend bei den Randhäufigkeiten für y: die Beispiel: Vaterausbildung
und Angst vor Prüfungen
Summe der Häufigkeiten über die x-Ausprägungen:
n  j : i 1 n ij . Auch die Stichprobengröße selbst
5
5
5
5
An den Rändern werden
auch die Randverteilungen gezeigt.
ja nein
hS
ja nein
Abi
0
0
0.2
0.4
0.6
ja
Gesamt
0
0.2
0.4
0.8
1.0
nein
0.6
0.8
1.0
Im Staffeldiagramm
unten wird die Verteilung
durch die Stapeldarstellung erreicht.
Nagl, Einführung in die Statistik
Seite 120
Bedingte Anteile erleichtern x-Bedingte Anteile
Vergleiche zwischen
für y:
Gruppen.
p ij
=
p XY
i j  p i j :
p i.
gemeinsame r Anteil
Zeilenrand anteil
Die Anteile werden für jede
Gruppe berechnet, sodaß sie
sich in jeder Gruppe auf 1
(100%) summieren.
Pro Zeile gilt:
p i1  ...  p i J  1
Bei den zwei Merkmalen
gibt es zwei verschiedene
Arten der Bedingungen, die
‘Zeilen’-Bedingung (xBedingt) oder die ‘Spalten’Bedingung (y-Bedingt)
y-Bedingte Anteile
für x:
p ij
p iXYj : p i j :
p.j
p XY
i j  p i j ist der
Anteil für y=yj, gegeben x=xi
ja
0.8
VS
0.6
Angst vor P.
ja nein
VS. 1.00
0
0.40
hS.
0.67 0.33 0.30
Abi+ 0.33 0.67 0.30
0.4
0.2
ja
nein
hS
ja
Abi
nein
0
0
0.2
0.4
0.6
ja
Gesamt
0.70 0.30
1
z.B. 0.67 = (2/10)/ (3/10).
0
0.2
0.4
0.8
1.0
nein
0.6
0.8
1.0
Diese ‚Normierung‘ auf 100% pro Zeile erleichtert Vergleiche
zwischen verschiedenen Ausbildungsstufen
Spaltenbedingte Anteile:
Angst vor P.
ja nein
VS.
4/7
0
0.40
hS.
2/7 1/3 0.30
Abi+ 1/7 2/3 0.30
Pro Spalte gilt:
p1j  ... p I j  1
Sprechweise für x-Bedingte
Anteile: Anteil für eine yAusprägung, gegeben eine
bestimmte x-Ausprägung
(oder eine andere Bedingungsformulierungen)
1.0
Die x-Bedingten Zeilenanteile ergänzen sich auf
1 (100%).
0.70 0.30
1
Eine Spalte wird als Gruppe
betrachtet (hier z.B. diejenigen,
die Angst haben). Für diese Gruppe können ebenfalls die Anteile
berechnet werden. Sie besagen
dann, aus welchen Vaterausbildungsgruppen die ‚Angstvollen‘
‚stammen‘.
z.B. 2/7 = (2/10)/ (7/10).
Der bedingte Anteil 0.67 bei den zeilenbedingten Anteilen in der
zweiten Zeile ist daher der Ja-Anteil für Angst, gegeben der Vater hat
höhere Schulbildung.
Bzw. Von den Vätern mit höherer Schulbildung haben 67% der Söhne
Angst vor Prüfungen.
Demgegenüber die Formulierung für die gemeinsamen Anteile: 20%
der UE haben sowohl einen Vater mit höherer Schulausbildung als
auch Angst vor Prüfungen.
Andere Schreibweise der
p XY
i j  p i j wird auch
bedingten Anteile: Die Bedingung wird hinter den ‘Al- so geschrieben:
p( y=yj | x=xi )
ternativentrenner: |’ gesetzt
Übersicht für die Berechnung der Anteile (gemeinsame, Rand- und bedingte).
x-Bedingte Anteile für y
y1 . yj . yJ
Die Randanteile sind
als Summe NUR der
gemeinsamen Anteile zu berechnen!
p ij  p i p ij
x1
.
xi
.
xI
Gemeinsame Anteile
y1 . yj . yJ
p11 . p1j . p1J p1
. . . . .
pi1 . pij . piJ pi
. . . . .
pI1 . pIj . pIJ pI
p1
pj
pJ 1
Gem. Anteile für Angst und
Ausbildung
ja
nein
VS.
0.4
0
0.4
hS.
0.2
0.1
0.3
Abi+
0.1
0.2
0.3
0.7
0.3
1
Summe in solchem Rundeck ist =1
p ij :
p ij
p i
x1
p11
.
xi
.
p i1
.
xI
.
pI1
.
.
.
.
.
p 1j
.
p ij
.
p Ij
. p1J
. .
. piJ
. .
. pIJ
p1
pi
pI
Ausbildungsbedingte Angstanteile
ja
nein
VS.
1.00
0
0.40
hS.
0.67
0.33
0.30
Abi+
0.33
0.67
0.30
y-Bedingte Anteile für x
y1 . yj . yJ
pi j 
p ij  p  j p i j
p ij
pj
x1
.
xi
.
xI
p11
.
p i1
.
pI1
p1
.
.
.
.
.
p1j
.
pIj
. p1J
. .
. p iJ
. .
. p
IJ
pj
pJ
.
pij
Angstbedingte Ausbildungs-Anteile
ja
nein
VS.
4/7
0
hS.
2/7
1/3
Abi+
1/7
2/3
0.70
0.30
Nagl, Einführung in die Statistik
Seite 121
Graphische Darstellung
Die meisten eindimensionalen Diagramme können auf den vorliegenden Fall erweitert werden: Stab-, Staffel-,
Kreis- und Netzdiagramme. Hier soll das strukturierte Staffeldiagramm (neuerdings auch Mosaic-Plot genannt
(z.B. JMP)) vorgestellt werden, da es erlaubt, alle Arten von Anteilen in einem einzigen Diagramm darzustellen.
Beim Strukturierten Staffeldiagramm (in horizonAusbildungsbedingte
taler Form).
Angstanteile
Ausgehend von der Tabelle mit den zei-lenbedingten
Anteilen werden die Zeilen-Randanteile pi (links
im Diagramm) als Stapel aufgetragen.
Die Pfeile zeigen einige
der notwendigen Einträge:
ja
1.00
0.67
0.33
0.70
VS.
hS.
Abi+
nein
0
0.33
0.67
0.30
0.40
0.30
0.30
1.0
Für jede Zeilen-Bedingung (xi) werden danach die
0.8
bedingten Anteile p i j sukzessiv eingetragen (in der
VS.
hS.
Abi+
Höhe der Randanteilstrennstriche); d.h. eine Staffel
wird nach rechts hin gebildet in der Höhe des RandAnteils.
VS
ja
0.6
0.4
0.2
hS
ja
Abi
ja
nein
nein
0
Anschließend kann (unten im Diagramm) noch der yRandanteil als Staffel gezeichnet werden.
Auf Grund der Konstruktion ist klar, daß die bedingten Anteile für jede Bedingung durch die Breite dargestellt wird.
Da die Höhe jeder Staffel den Randanteil wiedergibt,
stellen die Flächen jeweils die gemeinsamen Anteile
dar, wegen: p ij  p i p ij
0.40
0.30
0.30
0
0.2
0.4
ja
0.6
0.8
1.0
nein
0
0.2
0.4
0.6
0.8
Gesamt
0.70
ja
1.0
0.30
nein
Die oberste Fläche im Diagramm ist gleich 0.40 (=0.40*1.0),
die zweitoberste Ja-Fläche im Diagramm ist gleich 0.20 (=0.30*(2/3)),
usw.
Die Gesamtfläche ist gleich 1. Das entspricht der Summe über die
gemeinsamen Anteile
Populationsbeschreibung und Formulieren von Wahrscheinlichkeiten für Zufallsexperimente.
Für die Beschreibung der Gesamtheit werden die ‚p’s durch ‚‘s ersetzt. Auch in der Population sind die ‚‘s
Anteile, die die Zusammensetzung der ‚Urne‘ beschreiben. Alle übrigen Darstellungsarten können für die Population gleich behandelt werden.
Beim Zufallsexperiment des Ziehens einer Einheit aus der Gesamtheit interessiert die Wahrscheinlichkeit,
dass eine Einheit gezogen wird, das in x den Wert xi und in y den Wert yj hat. Dieses Ereignis wird durch die
beiden Zufallsvariablen X und Y beschrieben, mit deren Hilfe die Wahrscheinlichkeitsaussage formuliert werden
kann: P(X=xi  Y=yj). Diese Wahrscheinlichkeit ist genau gleich dem Anteil in der Urne  ij und wird auch als
die gemeinsame Wahrscheinlichkeit bezeichnet.
Den bedingten Anteilen entsprechende Wahrscheinlichkeitsaussagen sind die bedingten Wahrscheinlichkeiten,
die ebenfalls wiederum numerisch gleich den bedingten Anteilen der Population sind: P(Y=yj | X=xi) =  i j (das
ist die Wahrscheinlichkeit, dass der gezogene y-Wert = yj ist unter der Bedingung, dass sein x-Wert = xi ist. Die
entsprechende Gleichheit gilt auch für die Randwahrscheinlichkeit.
4.4.1 Unabhängigkeit zweier Merkmale
Besondere Bedeutung hat bei theoretischen Überlegungen ein einfacher Spezialfall von Anteilskonstellationen,
der es erlaubt komplexe Sachverhalte in überschaubare Einzelfragestellungen zu zerlegen. Oft dient der einfache
Spezialfall nur als Vergleichsbasis zur real gegebenen Datenlage.
Der Spezialfall wird Unabhängigkeit genannt. Da der Begriff der Unabhängigkeit auch in anderen Bereichen
verwendet wird (z.B. Unabhängigkeit logischer Aussagen, lineare Unabhängigkeit in der Algebra), ist der Begriff zu spezifizieren. Einerseits soll von der Anteils-Unabhängigkeit der Merkmale gesprochen werden, andererseits von der probabilistischen (bzw. stochastischen) Unabhängigkeit zweier Zufallsvariablen. Die Beschreibung des Spezialfalls wird für die Populationsanteile formuliert.
Nagl, Einführung in die Statistik
Der einfache Spezialfall besteht darin, dass die bedingten
y-Anteile bei allen Ausprägungen des x-Merkmals gleich
sind. Anders formuliert: Die
y-Verteilung ist in allen xGruppen gleich.
Seite 122
Bedingte Anteile sind
gleich für alle Gruppen
 i j =  Ij (i=1,...,I-1)
für jedes j (j=1,...,J)
Es genügt die Forderung, dass alle gleich
der letzten Gruppe
sind
Wenn die y-Verteilungen in
allen Gruppen gleich sind,
müssen diese y-Verteilungen
gleich der y-Randverteilung
sein
Für alle Gruppen
(i=1,...,I) gilt:
 ij =  j
Falls alle y-Verteilungen
gleich sind, sind alle gemeinsamen Anteile proportional
zu den Randanteilen (d.h. ist
das Produkt der Randanteile)
Für die gemeinsamen
Anteile gilt bei Unabhängigkeit:
 ij = i   j
Falls alle y-Verteilungen
gleich sind, sind ebenfalls alle
x-Verteilungen gleich bei
allen y-Ausprägungen.
Zudem sind alle gleich den xRandverteilungen
Ausbildungsbedingte
Angstanteile bei Unabhängigkeit
ja
nein
V
0.70 0.30 0.40
S.
h
0.70 0.30 0.30
S.
A
0.70 0.30 0.30
bi
0.70
0.30
1.0
0.8
VS
ja
nein
hS
ja
nein
0.6
0.4
0.2
Abi
ja
nein
0
0
0.2
0.4
ja
0.6
0.8
1.0
nein
0
0.2
0.4
0.6
0.8
Gesamt
1.0
Bemerkung: Diese Bedingung folgt aus der vorherigen Forderung
und umgekehrt.
für jedes j (j=1,...,J)
für alle Zellen i, j
(i=1,...,I bzw. j=1,...,J)
Bedingte Anteile sind
gleich für alle jGruppen
 i j  i (j=1,...,J)
für jedes i (j=1,...,J)
Denn: Nach der Regel für das Berechnen der gemeinsamen Anteile
aus den bedingten gilt:  ij   i  .Wegen  =   j gilt daher
 ij   i   j . ok.
Beispiel: Jeder gemeinsame Anteil ist das Produkt aus den Randanteilen, falls Unabhängigkeit gilt
Beispiel: Alle Zeilen haben
gleiche bedingte Anteile d.h.
die Ausbildungsverteilung ist
gleich für alle Angstausprägungen.
ij
ij
gemeinsame Anteile bei Unabhängigkeit
ja
nein
VS.
hS.
Abi
0.28
0.21*
0.21
0.12
0.09
*
0.09
0.70
0.30
0.40
0.30
0.30
Angstbedingte Ausbildungsanteile
bei Unabhängigkeit
ja
nein
VS.
hS.
0.40
0.30
0.40
0.30
0.40
0.30
Abi
0.30
0.70
0.30
0.30
0.30
Alle drei Formulierungen der Unabhängigkeit (für gemeinsame, x-Bedingte und y-Bedingte Anteile) sind äquivalent. Ist eine einzige erfüllt folgen daraus die beiden andern. Daher genügt es, bei einer Definition der Unabhängigkeit, eine einzige Forderung zu formulieren.
Definition der (Anteils-)Unabhängigkeit zweier Merkmale: Zwei Merkmale x und y sind genau dann unabhängig, wenn jeder gemeinsame Anteil gleich dem Produkt der Randanteile ist:  ij = i   j für alle i,j- Konstellationen..
Definition der stochastischen Unabhängigkeit zweier Zufallsvariablen: Zwei Zufallsvariablen X und Y sind
genau dann unabhängig, wenn für jede gemeinsame Wahrscheinlichkeit gleich dem Produkt der Randwahrscheinlichkeiten ist: P(X=xi  Y=yj)= P(X=xi)P(Y=yj) für alle i,j-Konstellationen.
Beide Definitionen formulieren die Produkteigenschaft in vergleichbarer Art. Von der Interpretation her setzt
aber die Formulierung für Zufallsvariablen ein Zufallsexperiment voraus, während bei Anteilen eine solche Unterstellung nicht notwendig ist.
4.4.2 Test auf Unabhängigkeit zweier Merkmale (2-Test)
Die Hypothese der Unabhängigkeit zweier Merkmale (beide mit nominalem Mindestskalenniveau) kann mit
Hilfe des 2-Test (von PEARSON entwickelt) durchgeführt werden. Bei ordinalem Mindestskalenniveau des yMerkmals steht alternativ auch der KOLMOGOROFF-SMIRNOFF-Test zu Verfügung.
Nullhypothese: Die beiden Merkmale
sind unabhängig (z.B. Die gemeinsamen Populationsanteile sind als Produkt der Populationsrandanteile darstellbar, oder andere Formulierung).
Für die Population gilt:
 ij   i   j (bzw. irgendeine andere Art der Unabhängigkeitsformulierung)
Beispiel (Angst vor Prüfungen und Ausbildung des
Vaters): Die beiden Merkmale sind unabhängig. Es
besteht kein Zusammenhang.
Der Anteil derer, die Angst vor Prüfungen haben,
ist für alle Arten von Väterausbildung gleich groß.
Nagl, Einführung in die Statistik
Seite 123
In einer Stichprobe werden nur die
Häufigkeiten des gemeinsamen Auftretens beobachtet, auf Grund derer die
gemeinsamen und Randanteile berechnet werden können.
gemeinsame und Randanteile
ja
nein
VS.
0.40
0
0.40
hS.
0.20 0.10 0.30
Abi+
0.10 0.20 0.30
0.70 0.30
n=10.
Beobachtete Häufigkeiten
nij und Randanzahl bzw.
gemeinsame Anteile p ij
Tabelle mit den
beobachteten
gemeinsamen und
Randanteilen
und Randanteile pi und pj
erwartete gemeinsame Anteile
unter Unabhängigkeit
ja
nein
VS.
0.28 0.12 0.40
*
hS.
0.21 0.09 0.30
Abi+
0.21 0.09 0.30
0.70 0.30
Die unter Unabhängigkeit
Auf Grund der beobachteten Randanerwarteten Anteile sind:
teile können die unter Unabhängigp i p  j
keit erwarteten gemeinsamen Anteile
(hypothetisch erwartete
berechnet werden (=hypothetische
Anteile)
Anteile)
Nur die Randanteile
werden für die Bilddung des Produkts
verwendet z.B.
0.70*0.40
Konstruktion der Teststatistik: Eine
Maßzahl, die den Unterschied zwischen realen und hypothetischen gemeinsamen Anteilen in einer Zahl
zusammenfasst, ist gesucht.
Ist der Unterschied zwischen den hypothetisch
geforderten Anteilen und den empirisch gefunden
‚zu groß‘? ‚Zu groß‘ würde bedeuten, dass die
Hypothese der Unabhängigkeit nicht passt.
Zwei schon früher betrachtete Maße können verwendet werden
Ein Maß für den Unterschied kann auf Likelihood-Ratio-Chi**2=
den Entropieüberlegungen aufgebaut
LR2 =
werden. Je größer das Maß, desto gröI J
p i p  j
 2n   p ij ln
ßer die Unterschiede. Es wird Likep ij
i 1 j1
lihood-Ratio-Chi**2 (LR2) genannt.
Ein anderes Maß für den Unterschied
PEARSON-Chi**2=
hat K. Pearson entwickelt. Es ist die
P 2 =
Summe quadrierter, standardisierter
Abweichungen der realen und hypotheI J (p  p p ) 2
ij
i  j
tischen gemeinsamen Anteile
n 
p i p  j
i 1 j1
LR2= -2*10( 0.4*ln(0.28/0.4) + 0.0* ln(0.12/0.0)+
0.2*ln(0.21/0.2) + 0.1* ln(0.09/0.1)+
0.1*ln(0.21/0.1) + 0.2* ln(0.09/0.2) )
= -2*10(-0.2289558) = 4.579
Weiter muss dann untersucht werden, ob dies eine
große Abweichung ist (etwa beim Stichprobenziehen, siehe unten)
P2 = 10*( (0.4-0.28) 2/0.28+ (0.0-0.12) 2/0.12+
(0.2-0.21) 2/0.21+ (0.1-0.09) 2/0.09+
(0.1-0.21) 2/0.21+ (0.2-0.09) 2/0.09
= 10*0.36507=3.6507
Die Testverteilung für die Stichprobenmaßzahl LR2 (und P2) ist approximativ (n groß >20) Chi**2-verteilt
mit df=(I-1)(J-1) Freiheitsgraden. Für kleines n können exakte Verteilungen konstruiert werden (FISHERs Exakt
Test für je zwei dichotome Merkmale entwickelt; inzwischen erweitert auf größere Tabellen). Die durchschnittliche Häufigkeit pro Zelle sollte mindestens 5 sein (d.h. nicht zu viele Zellen bei einem gegebenen n). Das sehr
konservative Kriterium (n p i p  j 5) gilt vorrangig für P2, weniger für LR2. Es sollten aber insgesamt weniger
als 20% solcher Zellen vorhanden sein, für die n p i p  j <5. Beim Angstbeispiel sind die Voraussetzungen für die Anwendung
der Verteilungsapproximation durch die 2-Verteilung nicht erfüllt (n zu klein). Auch die durchschnittliche Häufigkeit pro Zelle
(10/6=1.667) ist zu klein.
Kritischer Bereich
Die Nullhypothese behauptet die Unabhängigkeit der beiden Merkmale. Die Nullhypothese wird abgelehnt,
wenn die realen Anteile zu stark von den hypothetischen abweichen (gemessen durch die Teststatistiken LR2
bzw. P2). Bei sehr großer Teststatistik wird daher die Nullhypothese abgelehnt.
Der kritische
Bereich wird
von rechts her
bestimmt.
Trotz aller Bedenken hinsichtlich der Verteilungsvoraussetzungen im Angstbeispiel soll die
Vorgehensweise mit ihm demonstriert werden.
Für ein vorgegebenes  ist daher
immer der BeAnzahl der Freiheitsgrade:
reich:
Fällt der beLR2 bzw. P2  I=3 (Zeilen), J=2 (Spalten).
df=(I-1)(J-1)=2.
rechnete Wert in
 2 0.05 ((I-1)(J-1))
den kritischen
Der kritische Wert bei =0.05
Bereich wird die
ist 5.99.
(siehe TabellenUnabhängiganhang)
LR2=4.579 liegt nicht im
keitshypothese
kritischen Bereich H0 wird daher
verworfen
akzeptiert
0.6
0.5
0.4
0.3

0.2
0.1
0
0
1
2
3
4
5
6
 2 0.05 (2) = 5.99
7
2
8
Kritischer Bereich
Kritischer Bereich
Nagl, Einführung in die Statistik
Einfachere Berechnung von P2
Die Formel für PEARSON-Chi**2
kann etwas vereinfacht werden im
generellen Fall.
Seite 124
PEARSON-Chi**2=
 I J p ij2

P 2 = n   
 1
 i 1 j1 p i p  j



Für zwei dichotome Merkmale
p p  p12 p 21 2
kann PEARSON-Chi**2 durch eine P2 = n 11 22
p1 p 2 p 1 p 2
sehr einfache Formel berechnet
werden
P2 = 10*( 0.42/0.28+ 0.02/0.12+
0.22/0.21+ 0.12/0.09+
0.12/0.21+ 0.22/0.09 - 1)
= 10*0.36507=3.6507
10
0.4 * 0.3  0 * 0.3 2
Angst vor Prüfungen
ja
nein
VS.
0.40
0
0.40
n VS
0.30 0.30 0.60
0.70 0.30
=
0.4 * 0.6 * 0.7 * 0.3
=P2=2.8571429
Likelihood-Ratio-Chi**2=
I
J
I J
 I J

n i n  j
LR2 =  2  n ij ln
= 2  n ij ln n ij   n i ln n i   n  j ln n  j  n  ln n  


n ij n 
i 1 j1
i 1
j1
 i 1 j1

4.5 Zusammenhangsmaße für qualitative Merkmale
Der Zusammenhang zwischen den beiden Merkmalen soll durch eine Maßzahl beschrieben werden können, die
normiert ist, d.h. etwa zwischen 0 und 1 (vielleicht auch zwischen –1 und 1) liegt. Der Nullwert soll anzeigen,
dass kein Zusammenhang vorhanden ist, die obere Grenze soll den stärkst möglichen Zusammenhang signalisieren. Bei qualitativen Merkmalen kann im allgemeinen keine Richtung des Zusammenhangs in sinnvoller Art
definiert werden, da die Ausprägungen bei Nominalskalen kein mehr oder weniger ausdrücken (Ausnahme: Für
zwei dichotome Merkmale, die implizit wiederum als Intervallskalen interpretierbar sind, kann auch eine Richtung des Zusammenhangs angegeben werden).
Der erste (und althergebrachte) Ansatz, Zusammenhangsmaße zu definieren, besteht darin, P2 so zu normieren,
dass die normierten Werte zwischen 0 und 1 liegen. Der zweite Ansatz definiert PRE-Maße.
4.5.1 Normierungen von P2
Phi-Quadrat (=  2 ): Dabei wird P2 Phi**2=  2 := P2 / n =
durch n dividiert.
I J
p ij2
 p p  1 ,    2 ,
i 1 j1 i  j
Der Wertebereich von  2 liegt aber
wobei
gilt:
nicht immer zwischen 0 und 1. Er ist
0   2  min(I 1, J 1)
immer größer oder gleich 0, aber die
Bei Berücksichtigung der Art der
mögliche obere Grenze ist nur dann
Randverteilungen können engere
1, wenn I=2 oder J=2 ist.
Beispiel: Prüfungsangst
 2 =3.8507/10=
( 0.42/0.28+ 0.02/0.12+
0.22/0.21+ 0.12/0.09+
0.12/0.21+ 0.22/0.09 - 1)= 0.36507

0.36507 = 0.604
2
0    min(3  1, 2  1) =1, da die Tabelle 3
Zeile und 2 Spalten hat
Grenzen formuliert werden
CRAMERs v: Damit der Wert garantiert zwischen 0 und 1 liegt, wird
zusätzlich durch min(I-1,J-1) dividiert.
Aus historischen Gründen sind noch
beachtenswert: PEARSONs c und
TSCHUPROFFs t
v
c:=
P 2
n min( I  1, J  1)
2
1 
2
, t:=
2
( I  1)(J  1)
Codierten) Merkmalen
den. Diese Werte liegen dann zwischen -1 und +1.

p11p 22  p12 p 21
p1 (1  p1 )p 1 (1  p 1 )
r (=PEARSON Korrelation für
dichotome Merkmale)

min(I 1,J 1)
v
Da min(I-1, J-1)= 1, ist beim vorliegenden
Beispiel v=
c=
0.36507
1  0.36507
Beispiel: Wer
sich anstrengt,
wird belohnt
Bei zwei dichotomen (Dummy-
 selbst kann direkt berechnet wer-
Es gilt daher auch
= =
=0.517
a(=0)
a (=1)
0.4 * 0.3  0 * 0.3
0.4 * 0.6 * 0.7 * 0.3
=
b (=0)
0.30
0
0.30
b(=1)
0.30
0.40
0.70
0.12
0.24 * 0.21
0.60
0.40
 0.535
Nagl, Einführung in die Statistik
Seite 125
Der Zähler in der Formel für  entspricht der Kovarianz.
Cov(x,y)= ( p11p 22  p12 p 21 )*k
Im Nenner sind die Wurzeln aus den
beiden Varianzen für x und y zu
erkennen.
Daher entspricht  genau dem Korrelationskoeffizienten r
Auf Grund des allgemeinen BerechnungsscheVar(y)= p 1 (1  p 1 ) *k
mas für Mittelwerte, Varianzen und Kovarianz:
wobei k eine Konstante dargem.Anx y
xp
yp
x2p
y2p
xyp
stellt, die die Stichprobenkorteil (p)
0 0
p11
0
0
0
0
0
rektur beinhaltet: k=n/(n-1).
0 1
p12
0
p12
p12
p12
0
Die Konstante k kürzt sich bei
1 0
p21
p21
0
0
0
0
1 1
p22
p22
p22
p22
p22
p22
den Koeffizienten  und d weg.
Var(x) = p1 (1  p1 ) *k
Cov(x,y)=0.12*k, Var(x)=0.24*k, Var(y)=0.21*k
p2
Die Formeln für die Mittelwerte und
Varianzen der Randverteilungen (jeweils eindimensional) von DummyMerkmalen sind von früher her bekannt.
y-Anteilsdifferenz für den Vergleich
der durch x gebildeten Gruppen. Das
ist die Differenz der x-Bedingten yAnteile. Diese Differenz entspricht
der Steigung in der Regressionsanalyse (wenn y der Prädikand und x der
Prädiktor ist)
x-Anteilsdifferenz für den Vergleich
der durch y gebildeten Gruppen. Das
ist die Differenz der y-Bedingten xAnteile. Diese Differenz entspricht
der Steigung in der Regressionsanalyse (wenn x der Prädikand und y der
Prädiktor ist)
d y|x
p p  p12 p 21
 11 22
p1 (1  p1 )
= p 22  p12
p2
p2
p22
p2
erhält man: x  p 2 , y  p  2 , usw.
Cov(x,y)= k ( p 22  p  2 p 2 )  Nach Einsetzen für
p2 und p2 folgt = k ( p11p 22  p12 p 21 )
Beispiel:Fs.
x-Bedingte
y-Verteilungen
b (=0)
0.50
0
0.30
a(=0)
a (=1)
b(=1)
0.50
1.00
0.70
0.60
0.40
d y|x= 0.12/(0.60*0.40)=0.50
y-Anteilsdiff.: p  p =1.00 - 0.50 = 0.50
22
12
Als Steigung: Cov(x,y)/Var(x)=0.50
d x| y 
p11p 22  p12 p 21
p 1 (1  p 1 )
= p 22  p 21
Beispiel:Fs.
y-Bedingte
x-Verteilungen
b (=0)
1.00
0
0.30
a(=0)
a (=1)
d y|x= 0.12/(0.70*0.30)=4/7
y-Anteilsdiff.: p  p
22
21
b(=1)
3/7
4/7
0.70
0.60
0.40
=4/7 – 0 = 4/7
Als Steigung: Cov(x,y)/Var(y) = 4/7
4.5.2 Beschreibung der PRE-Maße
Für qualitative Merkmale wurden von GOODMAN & KRUSKAL (1954, 1958, 1963, 1972) PRE-Maße entwickelt.
Das auf dem Konzept der Unsicherheit beruhende PRU-Maß (Proportional Reduction of Uncertainty) kann ebenfalls als PRE-Maß bezeichnet werden, da die Unsicherheit als Fehler einer generellen Art interpretiert werden
kann.
Die meisten PRE-Maße werden als a-posteriori (auf Grund der Kenntnis der Daten) berechnet; das einzige apriori (vor Ansehen der Daten) konzipierte PRE-Maß ist kappa.
4.5.2.1 A-priori PRE-Maße
4.5.2.1.1 GOODMANs Lambda ()
Die Regeln prädizieren die Modalausprägung; das Fehlermaß ist der Anteil (bzw. Anzahl) der Fehlprädiktionen.
Konstruktionsschritte des PRE-Maßes für  (genauer:
xy)
1R
Prädiktionsregel für
Ry(MIT x)= Modalregel
das y-Merkmal: Jeder
pro x-Gruppe:
UE wird als y-Wert
Prädiktion der Modalausdie Modalausprägung
prägung.
seiner x-Gruppe
Bei dieser Vorgehensweise
zugesprochen. Auf
können Fehlprädiktionen nur für
diese Art kann das xFälle außerhalb der ModalausMerkmal berücksichprägungen entstehen
(=Fehlerzellen)
tigt werden.
gemeinsame und Randanteile
ja
nein
VS.
0
0.40
0.40
hS.
0.20 0.10 0.30
Abi
0.10 0.20 0.30
0.70 0.30
1.0
0.8
0.6
0.4
0.2
0
Modalausprägung
VS.
ja
hS.
ja
Abi
nein
Modal
Regel
VS.  ja
hS.  ja
Abi  nein
VS
hS
Abi
1.0
0.5
0
1.0
F
0.5
0
1.0
F
0.5
0
F
ja
nein
1.0
Gesamt 0.5
0
Da bei der Prädiktion immer die Modalwerte
verwendet werden, können Fehler nur in
Zellen entstehen, die nicht die Modalwerte
sind (sie werden Fehlerzellen genannt)
ja
nein
ja
VS.
hS.
Abi
F
nein
F
F
Nagl, Einführung in die Statistik
1F.
Definieren eines
Fehlermaßes: Anzahl
bzw. Anteil, der bei
Anwendung der Regel Ry(MIT x) auf alle
einzelnen UEen insgesamt entsteht.
Seite 126
Fy(MIT x)=gem. Anteil
der UEen in Fehlerzellen
I
= 1   max (p ij )
j
i 1
OHNE-x Prädiktions- Ry(OHNE x)= Modalregel
regel: Prädiktion der
OHNE Aufgliederung
2R.
y-Randnach x (=y-Rand)
Modalausprägung
Fy(OHNE x)= yAnzahl bzw. Anteil,
Randanteil außerhalb des
außerhalb der yModalwerts =
2F.
RandI
1   max ( p  j )
Modalausprägung
i 1
3.
Definition von  als
PRE-Index, daher
wieder interpretierbar
als prozentuale Fehler-Reduktion durch x
VS.
hS.
Abi
ja
0.40
0.20
0.10
nein
0
0.10
0.20
max
0.40
+0.20
+0.20
=0.80
Maximum pro Zeile
jeweils addieren

3
( p ij )
 max
j
i 1
Fy(MIT x)= 1 – 0.80 =0.20. Der Fehler bei Befolgung der Modalkregel (mit Berücksichtigung von x) ist daher = 0.20. Das ist zugleich der Anteil der UEen in den Fehlerzellen (=0+0.10+0.10).
Bei der y-Randverteilung ist die Modalausprägung: ja
Ry(OHNE x): Daher wird OHNE Berücksichtigung von x jeder UE
die Ausprägung ja zugesprochen
Rand-Modal Regel
immer ja
Als Fehler Fy(OHNE x) definiert man den Fehler analog zum
Fy(MIT x) : Anteil falscher Prädiktionen, die beim Anwenden von
Ry(OHNE x) entstehen.
R y (OHNE x )  1  max (p  j )  1  0.70  0.30
j
j
=
Der Fehler Fy(MIT x) =0.20, der Fehler OHNE x =0.30.
Fy (OHNE x) - Fy (MIT x) Daher:  = PRE =1 – (0.20/0.30)= 1 – (2/3)= 0.333
Fy (OHNE x)
Die Berücksichtigung von x reduziert den Fehler um 33.3 %
Problem: Modalwert bei gleichen Anteilen
Falls der Modalwert nicht eindeutig ist bei (bei gleichen Beispiel: Entscheidet man sich in der zweiten
Anteilen), muss man sich für einen Modalwert entschei- Zeile (x2) für y1, so ist F(MIT)=0.30; der Fehler
den. Egal welcher Modalwert gewählt wird, ändert sich ist gleich groß bei der Entscheidung für y2
das Fehlermaß nicht, daher auch nicht .
x1
x2
y1
0.40
0.30
0.70
y2
0
0.30
0.30
Grenzen der Anwendbarkeit:
Falls  bei einem y-Merkmal berechnet wird, das eine
sehr schiefe Randverteilung hat, wird  gleich 0 sein,
obwohl große Unterschiede in den Anteilen der Zellen
vorhanden sind, die auf Abhängigkeit hinweisen.
x1
x2
y1
0.40
0.30
0.70
y2
0
0.30
0.30
y1
0.40
0.30
y2
0
0.30
0.40
0.60
Beispiel: Trotz der offensichtlichen Abhängigkeit des x- und y-Merkmals sind die Modalwerte
bei der MIT- Regel immer y1 (Genau wie bei der
OHNE-Regel). Daher ist  gleich 0.
Eigenschaft der Asymmetrie:
Beispiel(Fortsetzung): xy wurde bereits oben
Falls auf Grund des y-Merkmal das x-Merkmal prognostiziert wird, könnte ein yx berechnet werden. Die- berechnet=0. yx =(0.40-0.30)/0.40 =0.25 x1
x2
ses stimmt i.a. nicht mit xy überein.
Symmetrisches Lambda: yx
Beispiel(Fortsetzung): Fehler MIT in Richtung xy ist 0.30, in
Beim symmetrischen Lambda werden beide Szenarien
Richtung yy ebenfalls 0.30. Fehlersumme MIT =0.60
(Prädiktion von x durch y, danach Prädiktion von y
Fehler OHNE in Richtung xy ist 0.30, in Richtung yx ist 0.40.
durch x) durchexerziert. Die OHNE- ebenfalls wie die
MIT-Fehler werden addiert. Für diese (addierten) Fehler Fehlersumme OHNE =0.70
wird der PRE-Index gebildet, der dann yx ist
Symmetrisches Lambda: yx=(0.70-0.60) / 0.70  0.14
4.5.2.1.2 GOODMAN-KRUSKALs Tau ()
GOODMAN-KRUSKALs  kann wiederum als PRE-Maß konzipiert werden. Mehrere Prädiktionsszenarien mit
entsprechenden Regeln können konstruiert werden, die zum gleichen Fehlermaß führen. Als ein mögliches Szenario wird hier eine probabilistische Entscheidungsregel vorgestellt. Konstitutiv für GOODMAN-KRUSKALs  aber
ist, dass als Fehlermaß die qualitative Varianz (auch HERFINDAL-Index genannt) verwendet wird.
Nagl, Einführung in die Statistik
Seite 127
Konstruktionsschritte des PRE-Maßes für  (genauer: xy):
Ry(OHNE x)= EntscheiProbabilistische
2R. OHNE-x Regel: Alle
dung auf Grund der yy-Rand Ausprägungen
Rand-Urnenziehung
werden im Verhältnis
des realen VorkomPro einzelner Prädiktion
mens in die ‚Entschei- wird die zufällig gezogene
dungsurne‘ gefüllt.
Ausprägung prädiziert.
Beispiel: Die y-Rand-Verteilung bei
Prüfungsangst ist 7 zu 3.
2F. Fehler OHNE x sei die
qualitative Varianz der
y-Randverteilung
Die UE werde ebenfalls zufällig aus einer Urne gezogen. Dann
kann
die Wahrscheinlichkeit, einen Fehler zumachen, durch die Formel:
1- (0.302+0.702)= 0.42 berechnet werden.
Das entspricht der qualitativen Varianz.
Fy(OHNE x)=
 p 22   p 2J ) =
1  (p 21
J
1   p 2j
j1
1R. Regel MIT x: pro xGruppe wird eine
Entscheidungsurne
(jeweils im Verhältnis
der x-Bedingten Verteilung des yMerkmals) gefüllt.
1F. Fehler MIT x ist der
nach dem xRandanteil gewichtete
Mittelwert der qualitativen Varianz der yVerteilung der verschiedenen Gruppen
3.
Definition von  als
PRE-Index, daher
wieder interpretierbar
als prozentuale FehlerReduktion durch x
J
=
 p  j (1  p  j )
Angst vor Prüfungen
ja
nein
0.70
0.30
Für die Prädiktion werden in einer
Urne (Entscheidungsurne) 7 Ja-Kugeln und 3 Nein-Kugeln
plaziert.
Für die Prädiktion der Angst jeder einzelnen UE wird aus der
Urne eine Kugel gezogen (mit Zurücklegen). Die gezogene Ausprägung wird prädiziert.
j1
Ry(OHNE x)= Entscheidung für y-Ausprägung auf
Grund der Urnenziehung
aus der entsprechenden xUrne.
Pro einzelner Prädiktion
wird die zufällig gezogene
y-Ausprägung prädiziert.
I
Fy(MIT x)=
 p i d i ( y) ,
i 1
Beispiel: Für die drei x-Gruppen wird je eine
Entscheidungsurne gefüllt. Die erste enthält
zu 100% ja, die zweite 2 ja- und eine nein-;
die dritte enthält eine Ja- und 2 Neid-Kugeln.
Für die Prädiktion wird in Abhängigkeit vom bekanntgemachten
x-Wert die entsprechende Urne verwendet. Die gezogene Ausprägung wird prädiziert.
Beispiel: Für die drei x-Gruppen werden die qualitativen Varianzen auf Grund der bedingten Anteile berechnet, Sie ihrerseits
werden mit den x-Randanteilen gewichtet und aufsummiert:
wobei d i ( y)  1   j1 p i2j
J
=  j1 p (1  p )
J
ij
ij
(=qualitative Varianz in der
i. Gruppe)
=
Fy (OHNE x) - Fy (MIT x)
Fy (OHNE x)
Angst vor P.
ja nein
VS. 1.00
0
hS.
0.67 0.33
Abi+ 0.33 0.67
VS.
hS.
Abi
i
1
2
3
ja
nein
1
1.00
0.67
0.33
2
0
0.33
0.67
1  Jj1 pi2j
2
2
1-(1 +0 )
1-(0.672+0.332)
1-(0.332+0.672)
di(y)
=0
=4/9
=4/9
pi
0.40
0.30
0.30
Summe
di(y)pi
0
(1.2)/9
(1.2)/9
(2.4)/9
Fy(MIT x)= (2.4)/9= 0.2667
Der Fehler Fy(MIT x) =0.2667, der Fehler OHNE x =0.42.
Daher:  = PRE =1 – (0.2667/0.42)= 1 – 0.635= 0.365
Die Berücksichtigung von x reduziert den Fehler um 36.5 %
(Das ist in diesem Szenario etwas mehr als im Modalszenario) .
Eigenschaft der Asymmetrie:
Falls auf Grund des y-Merkmal das x-Merkmal progBeispiel: Prädiktion Prüfungsangst(y)  Ausbildung Vater(x).
nostiziert wird, könnte ein yx berechnet werden.
yx=0.192, Fx(OHNE y)=0.66, Fx(MIT y)= =0.533
Dieses stimmt i.a. nicht mit xy überein.
Symmetrisches Tau: yx
Beim symmetrischen Tau werden wiederum beide Szenarien (Prädiktion von x durch y, danach Prädiktion von y
durch x) durchexerziert. Die OHNE- ebenfalls wie die MIT-Fehler werden addiert. Für diese (addierten) Fehler
wird der PRE-Index gebildet, der dann yx ist
4.5.2.1.3 Das PRU-Maß
Auch das PRU-Maß kann als PRE-Index konzipiert werden. Das U steht für Unsicherheit (engl. Uncertainty).
Die Unsicherheit wird durch die mittlere Entropie gemessen. Die Regeln brauchen hier nicht näher untersucht
werden. Sie bestehen darin, dass mit optimaler Fragestrategie (wie in Kap.2 dargestellt wurde) so lange gefragt
wird, bis Sicherheit vorliegt. Die mittlere Entropie konnte als untere Optimalgrenze der Fragedauer (bei binärer
Antwort) interpretiert werden.
Nagl, Einführung in die Statistik
Seite 128
Beispiel: Prüfungsangst –Randverteilung:
0.70
0.30
2F. Als Fehler OHNE x
Fy(OHNE x) := h(y)
Fy(OHNE x)= h ( y) =-1.4427* (0.70*ln(0.70) + 0.30*ln(0.30))=
J
wird die mittlere Ent1
-1.4427* (-0.6108643)= 0.8812909.
:
ropie der y p  j ln(p  j ) Die mittlere Entropie als
ln( 2) j1
untere Optimalfragedauer für die yRandverteilung verRandverteilung beträgt 0.881. Sie kann durch ‚Verschiefung‘ der
wendet
Verteilung kleiner werden.
Beispiel: Für die drei x-Gruppen wird die mittlere Entropie auf
I
1F. Fehler MIT x ist der
Fy(MIT x)=  p i h i ( y) , Grund der bedingten Anteile berechnet; sie ihrerseits werden mit
nach dem xden x-Randanteilen gewichtet und aufsummiert:
i 1
Randanteil gewichtete
ja nein
wobei
 p ln(p )
h i ( y)
p i
pi h i ( y)
Mittelwert der mittleij
ij
i
1
2
J

1
ren Entropie jeder
0
1ln(1)+0
0
0.40
0
h i ( y) 
 p ln(p ij ) 12 1.00
0.67 0.33 2/3*ln(2/3)+ 1/3*ln(1/3) 0.918
0.30
0.2754
ln( 2) j1 ij
bedingten y3 0.33 0.67 1/3*ln(1/3)+ 2/3*ln(2/3)
0.918
0.30
0.2754
Verteilung der ver(=mittlere Entropie in der
Summe
0.5508
Fy(MIT x)= 0.5508
schiedenen Gruppen
i. Gruppe)
3. Definition von PRU
als PRE-Index; daher
PRU =
Der Fehler Fy(MIT x) = 0.5508, der Fehler OHNE x  0.881
interpretierbar als
Fy (OHNE x) - Fy (MIT x) Daher: PRU = 1 – (0.5508 / 0.881) 0.375
Die Berücksichtigung von x reduziert die Unsicherheit
prozentuale FehlerreFy (OHNE x)
um 37.5 %.
duktion bzw. Unsicherheitsreduktion
durch x
Andere Bezeichnungen für PRU: Unsicherheitskoeffizient oder Pseudo-R2
Eigenschaft der Asymmetrie: Falls auf Grund des y-Merkmal das x-Merkmal prognostiziert wird, könnte ein
PRUyx berechnet werden. Dieses stimmt i.a. nicht mit PRU xy überein. Ebenso wie bei den anderen Maßen
kann ein symmetrisches PRU konstruiert werden.
Vergleich von Likelihood-Ratio-2 und PRU
Der Zähler von
I
J
I

 1  J
PRU kann auch so
Fy(OHNE x)-Fy(MIT x)= h( y) -  p i h i ( y) 
p  j ln p  j   p i  p ln p 

ij
ij 
dargestellt werden:
ln( 2)  j1
i 1
i 1
j1

LR2 kann nach
einigen Umformungen auch so dargestellt werden:
I
p i p  j
p ij
i 1 j1
Fy(OHNE x)-Fy(MIT x) =
Der Zähler von
PRU ist proportional zu LR2
J
LR2 =  2n   p ij ln
I
h( y)   p i h i ( y) =
i 1
LR 
2n ln( 2)
2
I
J
 J

 2n  p  j ln p  j   p i  p ij ln p ij 
 j1

i 1
j1


Beispiel: Prüfungsangst (n=10). Oben wurden bereits die Fehler
berechnet: Fy(OHNE x)= h ( y)
 0.881. Fy(MIT x) 0.551.
Der Zähler von PRU ist: Fy(OHNE x)-Fy(MIT x) =
I
= h ( y )   p i  h i ( y ) = 0.881 - 0.551 = 0.33. Andererseits wurde LR2
i 1
ebenfalls berechnet = 4.579.
LR2 / (2*10*ln(2))  0.33
4.5.2.2 Das a-priori-Maß Kappa ()
Die Prädiktionsregeln werden in Form von Aussagen a-priori (vor Sichten der Daten) festgelegt. Der große
Vorteil dieses Maßes besteht darin, dass spezielle, auf Grund theoretischer Überlegungen gewonnene Aussagen
maßgeschneidert überprüft werden können. J. COHEN(1960) hat  ursprünglich für die Messung von Beurteilerübereinstimmung entwickelt , den Ansatz aber zu einem ‚gewichteten‘  weiterentwickelt (J. COHEN(1969)), das
auch bei anderen Fragestellungen einsetzbar ist. HILDENBRANDT, ROSENTHAL u. LAING (1975) haben ein eigenes
Maß für vorgegebene Aussagen entwickelt, das sie Del ( ) nannten. Dieses Maß ist identisch mit dem gewichteten , daher soll das Maß auch hier unter dem Namen  behandelt werden.
Das Maß soll ebenfalls als PRE-Maß entsprechend den Überlegungen von HILDENBRANDT, ROSENTHAL u.
LAING (1975) entwickelt werden. Es unterscheidet sich von den a-posteriori PRE-Maßen insofern, als nur eine
Regel für die Prädiktion (sowohl für die MIT x, wie für die OHNE x) von y betrachtet wird.
Nagl, Einführung in die Statistik
Die Regel R(xy)
legt fest, bei welchen
Ausprägungen von x
welche Ausprägungen von y prädiziert
werden.
Folglich können in
der Kreuztabelle
Zellen definiert
werden, die im Widerspruch zu der in
der Regel enthaltenen Aussage stehen:
die Fehlerzellen
Seite 129
R(xy) legt für Ausprägungen
von x fest, welche speziellen yWerte prädiziert werden sollen(z.b.x1 y2, x1 y3, x3y1 usw.).
Die Zuordnungen als Paare (z.b.
(x1,y2), (x1,y3), (x3,y1)) sind Zellen der
Kreuztabelle.
Wird einem bestimmten x-Wert
(xi) einer oder mehrere y-Werte
zugeordnet, sind die nicht zugeordneten y-Werte eine potentielle
Fehlerquelle, daher Fehlerzellen
zu xi genannt.
Beispiel: Prüfungsangst. Die a-priori formulierte Aussage ‚Die
Söhne von Vätern mit VS-Ausbildung haben Prüfungsangst,
die Söhne von Vätern mit mindestens Abi haben keine Prüfungsangst‘ formuliert für bestimmVS  Angst(ja)
te x-Werte (Ausprägungen von VaterAbi+  Angst(nein)
ausbildung) y-Werte-Zuordnungen.
(VS, Angst(ja)), (Abi+,Angst(nein))
sind sehr übersichtlich in einer Kreuztabelle darstellbar (Zellen mit ).
Angst vor P.
ja nein
VS.
F

hS.
Abi+
F

Der Ausprägung VS (als spezieller xWert) ist ‚ja‘ zugeordnet. In dieser
Zeile (spezielles x) würde ‚nein‘ der Aussage widersprechen,
sie ist daher eine Fehlerzelle.
Das gleiche gilt bei der Ausprägung Abi+ für ‚ja‘, diese Zelle
ist daher auch eine Fehlerzelle.
Bei ‚hS.‘ hingegen gibt es keine Fehlerzelle, da in dieser Zeile
keiner Zuordnung widersprochen werden kann.
Die Fehlerzellen
Fehlergewichte-Tabelle:
können numerisch in
ij y1 y2 . yJ
der Fehlergewichtex1 11 12 . 1J
Tabelle zusammengefaßt werden.
x2 21 22 . 2J
.
... ... . ...
xI I1 I2 . IJ
Insgesamt sind bei der vorliegenden Regel zwei Fehlerzellen
vorhanden.
Die Fehlergewichte-Kreuztabelle
stellt nur eine Darstellung der
Fehler in Form von Zahlen dar:
In jeder Fehlerzelle wird eine 1
eingetragen. In den übrigen Zellen stehen Nullen.
Fehlergewichte
Tabelle:
Angst vor P.
ja nein
VS.
0
1
hS.
0
0
Abi+
1
0
1, wenn ij Fehlerzelle
 ij  
sonst
0,
Die Regel wird für die Prädiktion aber nur dann eine ‚gute‘ Regel sein, wenn sie die wesentlichen Aspekte des
Zusammenhangs zwischen x und y beschreibt. Daher wird zuerst der Fehler berechnet, der den real gegebenen
Zusammenhang zwischen x und y berücksichtigt.
Als Fehler MIT x
wird der Anteil von
Fehlprädiktionen
gewählt, der bei
Anwendung der
Regel im real
gegebenen
Datensatz anfällt.
Der Fehler MIT x entspricht der
Summe aller gemeinsamer Anteile
in den Fehlerzellen bzw.
mit Hilfe der Fehlergewichte formuliert:
I
Fy(MIT x)=
J
  ij p ij
i 1 j1
Fy(MIT x) = als Summe der gemeinsamen Anteile in den
Fehlerzellen = 0.10+0 = 0.10.
Fy(MIT x) mit Hilfe der Fehlergewichte erfordert das Multiplizieren aller pij mit den entsprechenden ij (Produkt unten).
Danach
Fehlergemeinalle
EleGewichte
Produkt
same Anmente der
teile pij
ij
ij *pij
Produktja nein
ja nein
ja nein
Tabelle
0.40
0
0
0
1
0
VS.
summieren
0.20 0.10
0
0
0
0
hS.
=0.10
0
0
1
0.10
Abi+ 0.10 0.20
Bei den a-posteriori PRE-Maßen wurde jeweils eine eigene OHNE x-Regel entwickelt, die den möglichen Zusammenhang zwischen x und y vernachlässigt. Die OHNE x-Regel operationalisiert jeweils die Situation, in der
für die Art der Regel kein Zusammenhang zwischen x und y erkennbar ist. Bei den qualitativen PRE-Maßen
könnte an die Stelle der Erstellung der OHNE-x-Regel für die y-Randanteile die Erstellung einer Regel für die
unter Unabhängigkeit erwarteten Anteile treten.
Die vorliegende a-priori-Regel soll nun ebenfalls für die Nicht-Zusammenhang-Situation, nämlich die der Unabhängigkeit zwischen x und y bewertet werden. Die Regel R(xy) prädiziert bei verschiedenen x-Bedingungen
unterschiedliche y-Werte (d. h. sie differenziert zwischen den x-Bedingungen), obwohl diese Differenzierung bei
Unabhängigkeit nicht angemessen ist, da unter Unabhängigkeit alle x-Bedingten y-Verteilungen gleich sind.
Trotzdem könnte der unter Unabhängigkeit berechnete Fehler eventuell klein sein. Daher wird dieser Fehler
‚OHNE x‘ als Basisvergleichsgröße verwendet; er misst, in welchem Ausmaß überflüssigerweise nach x differenziert wird.
Nagl, Einführung in die Statistik
Als Fehler OHNE x
wird der Anteil von
Fehlprädiktionen
gewählt, der bei
Anwendung der
Regel bei auf den
unter Unabhängigkeit erwarteten
Datensatz anfällt.
Definition von  als
PRE-Index: Um wie
viel besser ist die
Regel in der konkreten
ZusammenhangsSituation im Vergleich
zur Anwendung bei
fiktiver Unabhängigkeit von x und y?
Seite 130
Der Fehler OHNE x entspricht der
Summe aller unter Unabhängigkeit
erwarteten gemeinsamen Anteile
in den Fehlerzellen bzw.
mit Hilfe der Fehlergewichte formuliert:
I
Fy(OHNE x)=
J
 ijp i p  j
i 1 j1
 :=
Fy ( OHNE x) - Fy ( MIT x)
.
Fy ( OHNE x)
 vergleicht die Fehler der beiden Situationen: Regelanwendung unter Berücksichtigung des
Zusammenhangs gegenüber der
Regelanwendung unter Unabhängigkeitsannahme
Fy(OHNE x) = als Summe der gemeinsamen Anteile in den
Fehlerzellen = 0.21+0.12 = 0.33.
Fy(MIT x) mit Hilfe der Fehlergewichte erfordert das Multiplizieren aller pipj mit den entsprechenden ij (Produkt unten).
Danach
unter Unabhängigkeit
Fehleralle Eleerwartete gemeinsame Gewichte
Produkt
mente der
Anteile pipj
ij
ij *pij
Produktja nein
ja nein
ja nein
Tabelle
0.28 0.12
0
0
1
012
VS.
summieren
0.21 0.09
0
0
0
0
hS.
=0.33
0
0
1
0.21
Abi+ 0.21 0.09
Der Fehler bei Anwendung der Regel auf die gegebenen Daten
beträgt Fy(MIT x) = 0.10.
Falls kein Zusammenhang zwischen x und y vorhanden wäre
würde die Regelanwendung einen Fehler OHNE x  0.33
erzeugen.
 = (0.33-0.10) / 0.33=0.697
Die Regel ist daher beim gegebenen Zusammenhang gegenüber
der Unabhängigkeitssituation um 69.7% besser
Interpretation der MIT-x und OHNE-x Prädiktion im Einzelfall.
Die konkrete Durchführung der Prädiktion im Einzelfall zeigt anschaulich die Methode, wie der Zusammenhang
zwischen x und y in der OHNE-x Situation entkoppelt wird.
Bei der MIT x Prädiktion
werde aus einer Urne mit allen
(x,y)-Paaren im Einzelfall
genau ein Paar gezogen. Auf
Grund der Kenntnis des xWerts wird zur y-Prädiktion die
Aussage angewandt
Fy(MIT x) kann hier als
die Wahrscheinlichkeit
interpretiert werden,
dass bei der Anwendung
der Regel auf ein reales
(x,y)-Paar fehlerhaft
prädiziert wird.
Im Vaterausbildung-Angst-Beispiel wird eine Urne eingerichtet
mit 4 Elementen (VS-ja), 2 mal (hS-ja), 1 mal (Abi+,ja), 1 mal
(hS-nein) und 2 mal (Abi+,nein).
Für eine Einzelprädiktion wird nun ein solches Paar gezogen
(danach wieder zurückgelegt).
Die Wahrscheinlichkeiten für jedes mögliche Ergebnis entspricht genau dem Anteil der Elemente in der Urne.
Fy(MIT x) kann als Summe über die Wahrscheinlichkeiten der
möglichen exklusiven Paar-Ereignisse berechnet werden.
Bei der OHNE x Prädiktion
werden zwei Urnen verwendet.
Die ‚x-Urne‘ enthält alle xWerte, die ‚y-Urne‘ die y-Werte. Für den Einzelfall wird nun
ein Zufallspaar gezogen (ein
Element aus jeder Urne). Auf
dieses Zufallspaar wird die
Prädiktionsregel angewandt.
Fy(OHNE x) kann als
die Wahrscheinlichkeit
interpretiert werden,
dass bei der Anwendung
der Regel auf ein zufällig gepaartes (x,y) fehlerhaft prädiziert wird.
x und y sind bei diesen
Paaren unabhängig. x
hat daher keinen prädiktiven Wert für y
Die x-Urne enthält insgesamt 10 x-Elemente: 4 mal VS, 3 mal
hS und 3 mal Abi+.
Die y-Urne enthält insgesamt 10 y-Elemente: 7 mal ja und 3
mal nein.
Für eine Einzelprädiktion wird genau ein Element aus der xUrne und genau eines aus der y-Urne gezogen. Dadurch entsteht ein ‚künstliches‘ Paar. Dadurch wird der reale Zusammenhang zwischen x und y entkoppelt.
Die Wahrscheinlichkeiten für jedes mögliche Paar-Ergebnis
entspricht genau dem Produkt der Rand-Anteil der Elemente in
der Urne. Unter Fy(OHNE x) kann als Summe über die möglichen ‚künstlichen‘ exklusiven Paar-Ereignisse berechnet
werden.
Der x-Wert eines real existierenden (x,y)-Paares ist daher
unbekannt (in diesem Sinn ist
Der x-Wert ist nur scheinbar ein Hilfe für die Prognose von y.
die Bezeichnung ‚OHNE x‘
gemeint).
Auf Grund dieser Interpretation kann der OHNE x –Fehler als die Wahrscheinlichkeit eines Fehlers bei nicht
realem (‚fiktivem’) Zusammenhang bezeichnet werden.
Interpretation des Fehlers OHNE-x als Maß der Präzision einer Aussage.
Eine Aussage ist umso präziser, je Bei der Prädiktion der meisten quantitativen Merkmale ist die Aussage sehr präzis (z.B. Mittelwert- bzw. Regressionsprädiktionsaussagen ) Für einen x-Wert wird exakt ein y-Wert festgemehr Werte (Ausprägungen des
legt. Es sind daher sehr viele (falls y stetig ist, unendlich viele) ausgeschlossen.
Merkmals) sie ausschließt.
Die Wetterregel ‚Kräht der Hahn auf dem Mist, ändert sich das Wetter oder es bleibt, wie es ist‘
ist nicht präzise, da kein Wert (ändern bzw. nicht ändern des Wetters) ausgeschlossen wird.
Nagl, Einführung in die Statistik
Seite 131
Präzision für die Prädiktion von
y bei Bedingung xi: Bei Merkmalen mit wenigen y-Ausprägungen
sollte für eine x-Bedingung nicht
nur die Anzahl der ausgeschlossenen Ausprägungen betrachtet
werden, sondern auch die Chance,
mit der die ausgeschlossenen
Ausprägungen überhaupt (insgesamt, Rand) vorkommen.
Die Präzision einer
bestimmten xBedingung xi für die
Prädiktionsaussage
von y ist gleich der
Summe der Randanteile der Fehlerzellen in
der i. x-Bedingung:
Anwendungsbereich einer Aussage. Manche x-Bedingungen
kommen selten, manche sehr oft
vor. Daher werden nicht alle Teile
der Prägdiktions-Regel gleich oft
angewandt. Als Anwendungsbereich für eine spezielle xBedingung gilt der Anteil, mit
dem die spezielle x-Bedingung
vorkommt
Präzision für die gesamte Prädiktion von y: Die Präzision für
die gesamte Prädiktionsaussage
ergibt sich aus den Einzelpräzisionen: gewichtet jeweils mit dem
entsprechenden Anwendungsbereich.
Die Regel legt für die
x-Bedingungen die yKonsequenzen fest.
Der Anwendungsbereich (engl. scope)
der Regel für die
i. x-Bedingung ist der
Randanteil: p i
J
Präz(xi)=
 ij p  j
RandAnteil:
j1
I
i 1
J
 p i  ijp  j 
j1
I
p2=
0.30
Falls eine x-Bedingung real selten
vorkommt, wird auch der Regelteil,
der sich auf diese Bedingung bezieht,
selten angewandt.
Anwendungsbereichs
Anteile pi
0.40
VS.
0.30
hS.
0.30
Abi+
Daher gibt der Randanteil Auskunft
über den Anwendungsbereich der Regel für die entsprechende
Bedingung.
Fehlergewichte
ij
xi
ja nein
0
1
VS
0
0
hS
0
1
Abi+
 p i Präz ( x i ) 
i 1
p1=
0.70
Berechnung der Präzision für die gesamte Aussage
y-Präzision =
I
Beispiel: Für jede x-Bedingung kann die Präzision berechnet
werden. In der hier definierten Präzision wird nicht nur berücksichtigt, wie viele y-Ausprägungen ausgeschlossen sind, sondern wie groß der Anteil in den insgesamt ausgeschlossenen yAusprägungen ist (gemessen durch die Randanteile):
Fehlergewichte
Produkt
xi
ij
ij *pj
Präz(xi)
ja
nein
ja nein
0
0
1
0.30
0.30 =Präz(VS)
VS
0
0
0
0
0.00 =Präz(hS)
hS
0
0
1
0.70
0.70 =Präz(Abi+)
Abi+
Randanteil:
J
 ijp i p  j
Die so definierte Präzision für die i 1 j1
Gesamtprädiktion von y ist gleich
dem Fehler(OHNE x)
= Fy(OHNE x)
p1=
0.70
Produkt
ij *pj
ja nein
0
0
0.70
0.30
0
0
Präz
0.30
0.00
0.70
Anw.
Ber.
Anw.
Ber.
*Präz
0.40
0.30
0.30
0.12
0.00
0.21
p2=
0.30
0.33
Die verschiedenen Formeln können an Hand der obigen Tabelle
nachvollzogen werden, zugleich die Gleichheit mit Fy(OHNE x)
Diese Interpretation erlaubt,  als anteilige Fehlerreduktion gegenüber der ‚reinen‘ Präzision, die ebenfalls
den realen Zusammenhang zwischen x und y nicht mit einbezieht.
Weitere Anwendungen:
1
1
1
1
0
5
5
0
0.12
0
0.13
0
0.50
0
0.13
0.10
0.12
0.10
1
Für die Übereinstimmungsaussage (als Regel) kann der Fehler MIT x berechnet werden = Summe gemeinsamer Anteile außerhalb der Diagonalen = 0.20.
Gemeinsame Anteile unter Unabhängigkeit
2. Beurteiler
Wie groß wäre der Fehler bei
1
2
3
4
5
‚zufälliger‘ Übereinstimmung
1 0.0168 0.0182
0.070
0.0182 0.0168
(Fehler OHNE x, unter Unab2 0.0180 0.0195
0.075
0.0195 0.0180
hängigkeit) = Summe gemein3 0.0576 0.0624
0.240
0.0624 0.0576
samer Anteile unter Unabh.
4 0.0156 0.0169
0.0169 0.0156
0.065
außerhalb der Diagonalen =
5 0.0120 0.0130
0.050
0.0130 0.0120
0.6948
5
0.12
0.13
0.50
0.13
0.12
=(0.6948-0.20)/ 0.6948 = 0.712.  beantwortet hier die Frage: Um wie viel besser ist die
tatsächliche Übereinstimmung gegenüber ‚zufälliger‘ Übereinstimmung: 71.2 %
1. Beurteiler
Die reale Übereinstimmung könnte teils auch
zufällig sein. Durch 
wird die über zufällige
Gleichheiten hinausgehende Übereinstimmung
gemessen
5
1. Beurteiler
1. Beurteiler
Übereinstimmung zweier Merkmale
Beispiel: Zwei Beurteiler klassifizieren 100 Spielsituation von Kindern danach, ob die Situation
*
Die Untersuchung der
Übereinstimmung zwei- sehr kooperativ(1), kooperativ(2), indifferent(3), kompetitiv(4) oder aggressiv kompetitiv(5) ist.
Bei Übereinstimmung der beiden Beurteiler ist jede verschieden klassifizierte Situation ein Fehler.
er Merkmale setzt voDie Übereinstimmungsaussage kann in die Form einer Tabelle der Fehlergewichte gebracht werraus, dass die Auspräden:
Gemeinsame Anteile
gungen der Merkmale
Fehlergewichte
2. Beurteiler
2. Beurteiler
gleich sind. Oft wird
1
2
3
4
5
1
2
3
4
5
etwa die Übereinstim1
0.10
0.14
0
0.02
0
0.02
1
0
1
1
1
1
2
0.10
0.15
0
0.05
0
0
2
0
1
1
1
1
mung von zwei Beurtei3
0.40
0.48
0.02
0.03
0.03
0
3
0
1
1
1
1
lern untersucht.
4
0.10
0.13
0
0
0.03
0
4
0
1
1
1
1
0.14
0.15
0.48
0.13
0.10
1
Nagl, Einführung in die Statistik
*
Seite 132
Zwei Beispiele sollen zeigen, wie wichtig es ist, den Fehler OHNE x bei der Beurteilung der
Gleicher Übereinstimmungsanteil (bzw. glei- Übereinstimmung zu beachten. Als Beispiele soll die Beurteilerübereinstimmung in zwei Ausprägungen (1, 2) untersucht werden. In beiden Beispielen ist der Fehler MIT x = 0.20.
cher Fehler MIT x) kann
gemeinsame Anteile,
Links: Der ÜbereinRechts: Der Überein- gemeinsame Anteile,
unterschiedlich starke
real
real
stimmungsanteil von
stimmungsanteil von
Übereinstimmung be1
2
1
2
0.80 ist in Anbe0.80 ist in Anbe1 0.80 0.10 0.90 tracht der Randver1 0.40 0.10 0.50
deuten, je nachdem wie
tracht der Randver2 0.10
0
0.10
2 0.10 0.40 0.50
teilung nicht sehr
teilung sehr hoch.
groß die Randanteile
0.90 0.10
1
0.50 0.50
1
hoch.
sind. Mit Hilfe des
Unter Unabhängigunter Unabhängigkeit
Unter Unabhängigunter Unabhängigkeit
Fehlers OHNE x kann
keit ist ein höherer
1
2
1
2
keit ist der Übereindiese Scheinüberein1 0.81 0.09 0.90 Übereinstimmungs1 0.25 0.25 0.50
stimmungsanteil nur
2 0.09 0.01 0.10 anteil zu erwarten
2 0.25 0.25 0.50
stimmung korrigiert
0.50.
0.90 0.10
1
0.50 0.50
1
(F. OHNE x = 0.18)
(F. OHNE x = 0.50)
werden.
=(0.18-0.20)/0.18= -0.1111
=(0.50-0.20)/0.50= 0.60
(sehr klein, sogar negativ)
(recht groß)
Asymmetrie zweier Merkmale
Beispiel: Die Ausbildung des Vaters bzw. der Mutter (bei den ersten 20 UEen der Studentenunter*
Bei vergleichbaren,
suchung) gibt Hinweise auf das Heiratsverhalten der Elterngeneration.
ordinalen Merkmalen
Die Aussage ‚Männer heiraten keine Frauen, die besser ausgebildet sind als sie selbst‘ induziert
kann die Fragestellung
folgende Fehlergewichte.
Gemeinsame Anteile
Fehlergewichte-Tabelle
untersucht werden,
Bildung, Mutter
Bildung, Mutter
inwiefern das y-MerkVS
hS
Abi+
VS
hS
Abi+
mal größer ist als das x- Bildung
Bildung
VS
0.40
0.45
0.05
0
VS
0
1
1
Vater
hS
0.15
0.10
0.25
0
Vater
hS
0
0
1
Merkmal (bzw. umgeAbi+
0
0.15
0.15
0.30
Abi+
0
0
0
kehrt).
0.45
0.30
0.15
1
Der Fehler MIT x für die Aussage = 0.05 (=0.05+0+0)
Der Fehler OHNE x für die Aussage = (0.30*0.45+0.15*0.45+0.15*0.25)= 0.24 (wenn x und y
unabhängig sind).
=1-(0.05/0.24)= 0.792. Die Aussage ‚Männer heiraten keine Frauen, die besser ausgebildet sind
als sie selbst‘ reduziert den Prädiktionsfehler um 79.2% bei realer Kenntnis von x (gegenüber
Zufallskenntnis von x).
Logische Aussagen (speziell Konditional- und Bikonditionalaussage)
*
*
Alle logischen Aussagen können als Prädiktionsregeln verwendet
werden. Die Wahrheitstafeln der Aussagen sind
die Fehlerzellen.
Vor allem die Konditionalaussage (wenn,
dann) wird oft verwendet. Sie hat nur eine
Fehlerzelle.
Die Bikonditionalaussage (‚wenn und nur
wenn, dann‘ oder auch
‚dann und nur dann,
wenn‘) verbindet zwei
Konditionalaussagen
und hat daher zwei
Fehlerzellen.
Beispiel: Die Aussage ‚Wenn jemand artig ist, dann wird er belohnt‘ (inklusive entsprechender
stilistischer Umformulierungen) kann in die beiden Teilaussagen ‚jemand ist artig‘ (=a) und ‚jemand wird belohnt‘(=b) zerlegt werden. Werden die beiden Teilaussagen durch den Konditionalkonnektor () verbunden, ist das die logisch formale Darstellung der obigen Aussage: a  b. Die
Wahrheitstafel in Kreuztabellenform definiert die
Wahrheitstafel
Falsch- und Wahrwerte der zusammengesetzten Aussage: a  b.
b
b

(a bedeutet die Verneinung von a).
W
W
a
a
F
W
Bitte BEACHTEN: Nur eine Konstellation (a  b) ist falsch,
wenn die Aussage a  b gelten soll; d.h. nur wenn jemand artig war und nicht belohnt wurde, gilt
die Aussage a  b als widerlegt (in der umgangssprachlichen Verwendung wird der ‚wenn, dann‘Aussage oft andere Bedeutung beigemessen).
z.B. Die Fehlergewichte entsprechen 1für die F-Zellen der
Wahrheitstafel: Fy(MIT x)=0.10.
Fy(OHNE x) = 0.40*0.50 = 0.20.
=1-(0.10/0.20)= 0.50. D.h. wiederum 50% Verbesserung
gegenüber purer Präzision.
ggg
Gem. Anteile pij
b
b
a
a
0.30
0.10
0.20
0.40
F.-gewichte
ij
b
b
0
1
0
0
Beispiel: Die Aussage ‚Jemand wird dann und nur dann belohnt, wenn jemand artig ist‘ (inklusive
entsprechender stilistischer Umformulierungen) wird aus den beiden Komponenten a und b durch
den Bikonditionalkonnektor () verbunden dargestellt ab.
Wahrheitstafel
Diese Aussage kann durch zwei Konstellationen widerlegt
b
b

werden: (a  b) bzw. (a  b). Diese Aussage entspricht
W
F
a
eher der umgangssprachlichen Verwendung der ‚wenn, dann‘a
F
W
Aussage.
z.B. Die Fehlergewichte entsprechen 1für die F-Zellen der
Wahrheitstafel: Fy(MIT x)=0.10+0.20=0.30.
Fy(OHNE x) = 0.40*0.50 + 0.60*0.50= 0.20+0.30=0.50.
=1-(0.30/0.50)= 0.40. D.h. 40% Verbesserung gegenüber Präzision.
Gem. Anteile pij
b
b
a
a
ggg
0.30
0.10
0.20
0.40
F.-gewichte
ij
b
b
0
1
1
0
Nagl, Einführung in die Statistik
Seite 133
Unterschiedliche Gewichtung der Fehler (gewichtetes )
Bisher wurden die Fehlergewichte  jeweils als 0 bzw. 1 definiert. Vor allem bei ordinalen oder intervallskalierten Merkmalen können Fehler unterschiedlich stark gewichtet werden (J. COHEN(1969). Diese Erweiterung wurde auch von HILDENBRANDT, ROSENTHAL u. LAING (1975) eingeführt.
Fehlergewichte
2. Beurteiler
1
2
3
4
1
0
1
2
3
2
0
1
1
2
3
0
2
1
1
4
0
3
2
1
5
4
3
2
1
5
4
3
2
1
0
1. Beurteiler
Die Fehlergewichte
können wiederum als
Fehlergewichtstabelle
(bzw. FehlergewichteMatrix) dargestellt werden
1. Beurteiler
Lineare Gewichte bei Beurteilerübereinstimmung für mindest ordinale Merkmale
Beispiel wie oben: Zwei Beurteiler klassifizieren 100 Spielsituation von Kindern danach, ob die
*
Der Fehler wird linear
Situation sehr kooperativ(1), kooperativ(2), indifferent(3), kompetitiv(4) oder aggressiv kompetihöher gewichtet bei
tiv(5) ist.
größerer Abweichung.
Bei gleicher Beurteilung beider Experten ist das Fehlergewicht 0, bei Abweichung um eine PositiSeien i bzw. j die Werte, on 1 usw.
dann sei: ij  abs(i  j)
Gemeinsame Anteile * Fehlergewichte
2. Beurteiler
1
2
3
4
1
0.10
0
0.04
0
2
0.10
0
0.05
0
3
0.40
0.04
0.03
0.03
4
0.10
0
0
0.03
5
0
0
0
0
5
0.08
0
0
0
0.10
Fy(MIT x)=0.30. Entsprechend wird mit den gleichen Gewichten der Fehler OHNE x mit Hilfe der
unter Unabhängigkeit erwarteten Anteile berechnet: Fy(OHNE x) =1.1824.
=1- (0.30/1.1824)= 0.746
4
5
9
16
4
9
1
4
0
1
1
0
1. Beurteiler
1. Beurteiler
Quadratische Fehler-Gewichte für mindest intervallskalierte Merkmale
Beispiel: Obwohl im obigen Beispiel die Merkmale nicht Intervallskaliert sind, wird die  mit
*
Der Fehler wird quadratisch höher gewichtet quadratischen Gewichten zu Demonstrationszwecken für die obigen Daten berechnet.
Fehlergewichte
Gemeinsame Anteile * Fehlergewichte
bei größerer Abwei2. Beurteiler
2. Beurteiler
chung. Seien i bzw. j
1
2
3
4
5
1
2
3
4
5
1
0
1
4
9 16
1
0.10
0
0.08
0
0.32
die Werte, dann
2
0
1
1
4
9
2
0.10
0
0.05
0
0
sei:  ij  (i  j) 2
3
0
4
1
1
4
3
0.40
0.08
0.03
0.03
0
4
5
0
0
0
0
0.03
0
0.10
0
0
0.10
Fy(MIT x)=0.62. Entsprechend wird mit den gleichen Gewichten der Fehler OHNE x berechnet:
Fy(OHNE x) =2.46. =1- (0.62/2.46)= 0.748
4.5.3 Stichprobeneigenschaften der PRE-Maße
Die Stichprobeneigenschaften können unter unterschiedlichen Annahmen des Ziehens von Stichproben betrachtet werden. Hier soll der Fall betrachtet werden, eine Stichprobe der Größe n aus einer Population mit (I*J)Konstellation zu ziehen. In diesem Fall haben die (I*J) Häufigkeiten selbst eine Multinomial-Verteilung, (Parameter sind die (I*J) Populationsanteile). Die Eigenschaften für die Schätzung der PRE-Maße können nur für
großes n betrachtet werden.
Die PRE-Maße können konsistent via Maximum-Likelihood-Methode geschätzt werden (siehe GOODMAN &
KRUSKAL (1963, 1972). Die Schätzer sind nicht erwartungstreu, sondern werden nur bei großem n erwartungstreu (asymptotisch erwartungstreu). Für großes n (mindestens 30) sind die PRE-Maße normalverteilt. Der
approximative Erwartungswert strebt gegen das PRE-Maß der Population. Die Formeln für die Berechnung
Varianzen der Stichproben-PRE-Maße werden in der nachfolgenden Tabelle zusammengestellt.
Bemerkung: Da die Maße für die Stichprobe selbst schon mit griechischen Buchstaben abgekürzt wurden, ist die Gefahr für Verwechslungen zwischen Populations- und Stichprobenmaßzahlen in den Formeln vorhanden. Die Varianz des Schätzers für ein PRE-Maß (griechischer Buchstabe jeweils mit Dach) ist zu berechnen. Dabei gilt jeweils folgendes: Für die Varianz-Formeln selbst sollten die PopulationsMaßzahlen (PRE-Maße, gemeinsame und Randanteile) bekannt sein. Bei der Berechnung der Varianz werden aber die Populationswerte
durch die jeweiligen Schätzwerte (PRE-Maße, gemeinsame und Randanteile in der Stichprobe) ersetzt. In den Beispielen wird daher nicht
unterschieden zwischen Populations- und Stichprobenwerten (übrigens ist das n im folgenden Beispiel zu klein; zu Übungszwecken aber
vorteilhaft).
Nagl, Einführung in die Statistik
Seite 134
Varianzformeln für PRE-Maße
Varianz für
lambda der
Stichprobe:
Var( ̂ )
Var( ̂ ) = 1n1 12  imi  m 2 imi I(mmi ) ,

  i
i
wobei:

m ist der Index, für den die Zeilenrandanteile
maximal ist, d. h.  m  max(   j ) ,
j

mi ist jeweils für die i. Zeile jener Index, für
den in der i. Zeile der gem. Anteil maximal ist,
d.h.  im  max( ij )
i
Varianz für das
tau der Stichprobe:
Var( ̂ )
j

1 m  mi
I ( m  mi )  
0 sonst

  Fy (OHNEx) 1 max(  j )
Var( ̂ ) =
 2ij


Zudem gilt:
I
2
3
0.20
0.10
0.70
0.10
0.20
0.30
 im I( m  mi )  0.40 * 1  0.20 * 1  0.20 * 0  0.60
i
i
I
2
J
  Fy (OHNEx) 1  2 j
j1
i
0.09
0.80 0.70 2*0.60 =0.24691358
ij
=1-(0.49+0.09)=0.42.
=0.365 (siehe oben)

J 
 bi  , mit b i   i2s
i 
s 1 i 


1
0
Std( ̂ ) = Var (ˆ )  0.497
2
I J 2  I J
 
   a ij ij    a ijij   ,
 i 1j1
 
i 1j1
a ij  2  j (1  )  
=1
=2
=1
 im  0.40  0.20  0.20  0.80
i
i
9
wobei:

m2
m3
m
 = 1- (0.2/ 0.3)=1/3
 m =0.70
Var( ̂ ) = 2 / 3 1
j
1 1
n 1  2
Beispiel: Vaterausbildung und Angst vor Prüfungen.
n=10. Anstelle der Populationsparameter werden die
Stichprobenschätzungen
I(m=mi)
j
1
2
eingesetzt.
1 0.40
0
  Fy (OHNEx)  0.30 m1 =1 1
J
  a ij ij  1  (1   )(  2)
i 1 j1
i
J
  a ij ij  -0.003175
i 1 j1
Pro Zeile wird ein bi berechnet
b1=0.402/ 0.402+02/ 0.402=1
b2=0.202/ 0.302+0.102/0.302=5/ 9.
b3=0.102/ 0.302+0.202/0.302=5/ 9.
2
0
0.10
0.20
0.30
j
aij
i
j
1
1 0.40
2 0.20
3 0.10
0.70
1
2
3
1
1/9
-1/9
7/9
2
-1.38
-0.27
0.40
Als Beispiel für ein a-Element:
a21= -1.4 (0.635)+(2*0.20/0.30 - 5/9) =-1/9
Var( ̂ ) = 1 1 2 0.1067( 0.003)2  =0.0672
9 0.42
Std( ̂ ) = Var ( ˆ )  0.497
Varianz für Pru
(= ̂ ) der Stichprobe:
Var( ̂ )
I J

I J
Var( ̂ ) = n11 12    a ij2 ij    a ijij   ,
 i 1j1
 i 1j1
 

2
wobei:


Varianz für
kappa der
Stichprobe:
Var( ̂ )
ij
i 
J



a ij  (   1) 1ln  j  ln
  Fy ( OHNEx) ln(2)     j ln  j
j1
I
a ij   ij
 (1  )(c i  d j )
Varianz für das
StichprobenKappa:
Var0( ̂ ) unter
Geltung der
Unabhängigkeit
zwischen
x und y
I J
Zudem gilt:   a ij ij   1
i 1 j1
Unter Unabhängigkeit gilt für die Population: ij=ij
und =0. Einsetzen in die obige Formel und Vereinfachen
liefert:
Var0( ̂ ) =
wobei
Std( ̂ )= Var ( ˆ )  0.2037
Fehlergewichte
ij
pi
xi
ja
nein
VS
hS
Abi+
i
Fy (OHNEx)  iji j
1

1
2
Var( ̂ )= 1
0.5302(0.3751)  0.0415.
9 0.6112
c i   ij j und d j   ij i 
i j


2
0.128
-0.971
-0.278
i 1 j1
j

i
1
2
3
1
-0.402
-0.808
-1.501
J
2
I J

I J
Var( ̂ )= n11 12    a ij2 ij    a ijij   ,
 i 1j1
i

1
j

1

 


j
aij
  a ij ij   - 1
Zudem gilt:
wobei:

Gemeinsame Anteile(siehe
oben). Bereits oben berechnet:
Stichproben-Pru (= ̂ )=0.375.
  0.611.
 I J 2    I c 2   J d 2  
ij i   j
i i
j j

 i 1 j1
i 1
j1
,
1
2
ci , dj und  wie oben
n 1
pj
0
0
1
0.70
1
0
0
0.30
dj
0.30
0.40
0.40
0.30
0.30
Var( ̂ )=
1 1 0.8( 0.6911) 2 =
9 0.332
=0.0787
Std( ̂ ) = Var ( ˆ )  0.286


ci
Gem. Anteile pij
ja
nein
0.30
0
0.70
0.40
0.20
0.10
0
0.10
0.20
Mit  =0.33 (schon oben
berechnet) und  = 0.697
aij
ja
nein
ci
0.30
0
0.70
dj
-0.551
-0.275
2.112
0.30
2.388
-0.367
-1.01
0.40
Die Varianz unter Unabhängigkeit der beiden Merkmale ist meist größer als die Varianz ohne Unabhängigkeitsannahme
1
1
0.330.1110.183
2
0.33
Var0( ̂ ) =
=0.1478
9
Std0( ̂ ) = Var0 ( ˆ )  0.3845
Nagl, Einführung in die Statistik
Seite 135
Problem: Die Varianz kann nicht unabhängig vom Populationswert des PRE-Maßes geschätzt werden (das Populations-PRE-Maß wird zur Berechnung der Varianz benötigt). Als Ersatz für das Populations-PRE-Maß wird
zwar das Stichproben-PRE-Maß verwendet; so kann das Problem für praktische Zwecke bei großem n ausreichend gut umgangen werden. Es sei aber darauf verwiesen, dass bei anderen Schätzungen der Varianzen von
Maßzahlen jeweils die Populations-Maßzahl selbst nicht in die Formel mit eingeht (z. B. Schätzung der Varianz
des Mittelwerts, des Regressionskoeffizienten).
4.5.3.1 Konfidenzintervalle
Da die PRE-Maße asymptotisch (bei großem n) normalverteilt sind, können für alle PRE-Maße Konfidenzintervalle berechnet werden. In den folgenden Beispielen sollen das Berechnen des Konfidenzintervalls und die damit
verbundenen Probleme für zwei PRE-Maße ( und ) gezeigt werden.
(1-)(1-)-KI= ˆ  z 1Std( ˆ ) bzw. etwas
Konfidenzintervall präziser: u = ˆ  z
ˆ ),
1Std ( 
für
o = min( ˆ  z 1Std(ˆ ),1)
kappa der StichFalls die obere Grenze größer als 1 wird, wird sie gleich 1
probe(= ̂ )
(1-)Konfidenzintervall
für
tau der Stichprobe(= ̂ )
Für das Beispiel (siehe oben) wurde kappa bereits
berechnet: ˆ  0.697 , ebenfalls die Standardabweichung Std( ̂ ) = Var ( ˆ )  0.286 Für
=0.05 gilt: z 0.95
 1.96 . Das 95%-Kon-
gesetzt. Falls die obere Grenze angepasst wird, ist 1 im
Konfidenzintervall enthalten.
fidenzintervall ist daher: 0.697  1.96*0.286
= (0.13644, 1]
(1-)-KI= ˆ  z 1Std (ˆ ) bzw. etwas
präziser: u = max( ˆ  z 1Std (ˆ ), 0))
Für das Beispiel (siehe oben) wurde tau bereits
berechnet: ˆ  0.365, ebenfalls die Standardab-
o =
min( ˆ  z 1Std (ˆ ), 1))
Untere und obere Grenze dem minimalen bzw. maximalen
tau-Wert eventuell anpassen! Der angepasste Werte ist
jeweils im Konfidenzintervall enthalten
weichung Std( ̂ ) = Var ( ˆ )  0.497 Für =0.05
gilt: z 0.95
 1.96 . Das 95%-Kon-
fidenzintervall ist daher: 0.365  1.96* 0.497
= [0, 1]
4.5.3.2 Testen von Hypothesen
Im Prinzip könnten Hypothesen bezüglich der PRE-Maße implizit mit Hilfe der Konfidenzintervalle getestet
werden, indem untersucht wird, ob das hypothetisierte Populations-PRE-Maß im Konfidenzintervall liegt. Für
besonders großes n mag diese Vorgehensweise ausreichen. Wegen des oben charakterisierten Problems, dass die
Varianz des Stichproben-PRE-Maßes funktional vom Populations-PRE-Maß abhängt, ist zu empfehlen, bei der
Berechnung der Varianz das hypothetisierte PRE-Maß in der Formel zur Berechnung der Varianz (des Stichproben-PRE-Maßes) einzusetzen. Als Populationsanteile sollen werden weiterhin die geschätzten Stichprobenanteile eingesetzt werden.
Für das Testen von Hypothesen bezüglich kappa schlagen HILDENBRANDT, ROSENTHAL u. LAING (1975) vor, in
bestimmten Fällen (besonders bei Hypothesen, die nicht wirklich a-priori erstellt wurden), den Test unter Voraussetzung der Unabhängigkeit der Merkmale vorzusehen. Daher wurde die Formel für die Varianz unter Unabhängigkeit in der obigen Übersicht über die Varianzen der PRE-Maße eingefügt.
Übungsaufgaben (4.3)
1.
Erstellen Sie die Kreuztabelle (für die Personen 17-32) der beiden Merkmale: Vater- und Mutterausbildung.
Interpretieren Sie das Ergebnis.
a) Berechnen Sie gemeinsame und Randanteile
b) Berechnen Sie x- und y-Bedingte Anteile. Interpretieren Sie die beide Arten von bedingten Anteilen.
Nagl, Einführung in die Statistik
2.
Bei Mobilitätsstudien werden die Väter-Sohnpaare untersucht zur Feststellung der Mobilität zwischen zwei
Generationen. Es seien folgende bedingten Anteile gefunden worden:
a)
b)
c)
d)
e)
f)
g)
h)
3.
Seite 136
US
0.70
0.20
0
US.
MS
OS
Vaterschicht
Sohnschicht
MS
0.20
0.60
0.40
OS
0.10
0.20
0.60
0.6
0.3
0.1
Berechnen Sie die gemeinsamen Anteile
Berechnen Sie die y-Bedingten Anteile.
Interpretieren Sie die x- und y-Bedingten Anteile.
Welchen Bedingungen müssten die x-Bedingten Anteile entsprechen bei völliger Chancengleichheit?
Berechnen Sie Lambda ()
Berechnen Sie Tau ()
Berechnen Sie Phi () und Cramers v
Testen Sie die Hypothese der Unabhängigkeit (n sei=1000)
Die Kreuztabelle (für die Personen 1-55) der beiden
Merkmale: Vater- und Mutterausbildung ist:
a) Erstellen Sie ein strukturiertes Staffeldiagramm
b) Berechnen Sie PRU
c) Prüfen Sie die Hypothese der Unabhängigkeit der
beiden Merkmale
d) Berechnen Sie Phi und Cramers v.
VaterAusbildung
Ausbildung der Mutter
Volkshöhere Abi u.
schule
Schule
mehr
19
6
0
8
6
0
1
8
4
Volks-S.
höhere S.
Abi u.m.
28
20
4
25
14
13
52
4.
Was ist eine prädiktive Beziehung zwischen x und y? Welche Bedingungen müssen zusätzlich erfüllt sein,
damit die prädiktive als kausale Beziehung interpretiert werden darf?
5.
Berechnen Sie Kappa
a) Zu den Daten der Aufgabe 9 ein kappa für die Aussage: ‚Männer heiraten nur Frauen, denen sie ausbildungsmäßig mindestens gleichwertig sind’.
b) Zu den Daten der Aufgabe 8 ein kappa für die Aussage: ‚Es gibt keinen sozialen Abstieg’.
c) Zu den Daten der Aufgabe 8 ein kappa für die Aussage: ‚Wenn der Vater Unterschichtler ist, ist auch
der Sohn Unterschichtler .
6.
Die Aussage : 'Wenn jemand in einer Gruppe einen hohen Status hat, dann akzeptiert er die Normen der
Gruppe' soll auf Grund der folgenden Kreuztabelle untersucht werden:
a)
b)
c)
d)
7.
Akzeptieren der Normen
ja
nein
Welches PRE-maß ist für diese Fragestellung angemessen ?
Welches sind die Fehlerzellen ?
Berechnen Sie das von Ihnen vorgeschlagene PRE-maß
Fehler (Ohne x)? Fehler(Mit x)?
Status
niedrig
hoch
40
30
20
10
Die Aussage : 'Die Mutter hat die gleiche Einstellung gegenüber der Tochter wie der Vater' soll auf Grund
der folgenden Untersuchungsergebnisse untersucht werden:
Einstellung
a)
b)
c)
d)
e)
8.
Welches PRE-maß ist für diese Fragestellung angemessen ?
Berechnen das von Ihnen vorgeschlagene PRE-maß.
Berechnen Sie auch phi**2 und PEARSON-chi**2
Berechnen Sie LR-chi**2.
Berechnen Sie PRU
Mutter
Vater
positiv
negativ
positiv
negativ
40
20
0
40
Die Aussage über Kampfpiloten: 'Wenn jemand als zweites Kind in der Geschwisterreihenfolge geboren
wird, ist er sehr erfolgreich' soll auf Grund folgender Kreuztabelle untersucht werden:
a) Berechnen Sie kappa für die obige Aussage.
b) Berechnen Sie tau.
c) Berechnen Sie lambda.
In Geschwisterreihenfolge
geboren
als
erster
andere Position
Erfolgreich
nein
mittel
sehr
10
30
10
10
30
10
Seite 137
Anteile für die Übereinstimmung der Klassifikation durch zwei Beurteiler.
Berechnen Sie ein kappa für die Übereinstimmungsaussage
b) Berechnen Sie ein kappa für die gewichtete (lineare Fehler) Übereinstimmung
c) Berechnen Sie ein kappa für gewichtete (quadratische Fehler) Übereinstimmung
Gemeinsame Anteile
a)
1. Beurteiler
1. Beurteiler
Häufigkeiten
2. Beurteiler
1
2
3
4
5
in die Statistik
1 10 0 Nagl,
2
0 Einführung
2
14
2
0 10 5
0
0
15
3
2
3 40 3
0
48
4
0
0
3 10 0
13
5
0
0 9.0 Gegeben
0 10
10seien die gemeinsamen
5 12 13 50 13 12 100
1
2
3
4
5
5
1
0.10
0
0.02
0
0
0.12
2
0
0.10
0.03
0
0
0.13
2. Beurteiler
3
4
0.02
0
0.05
0
0.40
0.03
0.10
0.03
0
0
0.50
0.13
5
0.02
0
0
0
0.10
0.12
0.14
0.15
0.48
0.13
0.10
1
Herunterladen