Folien zur Einführung

Werbung
Wahrscheinlichkeit.
♣ Ein Test diagnostiziert
− Kranke zu 99% richtig
− Gesunde zu 90% richtig
− 5% der Bevölkerung ist krank
?
Wie wahrscheinlich ist es, dass jemand krank ist, wenn der Test
dies diagnostiziert?
→ Formulierung mit Wahrscheinlichkeiten
Versuch: Zufälliges Ziehen aus der Population
Mögliche Ereignisse
− K+ :
Proband ist krank
− K− :
Proband ist gesund
− T+ :
Test ist positiv
− T− :
Test ist negativ
( → „krank“ )
Ereignisse treten ein oder treten nicht ein
♦ P:
Wahrscheinlichkeit
P(K + ) = .05
4
1.1
.05 : ‚ wissenschaftlich ‘
5% : ‚ informell ‘
EF16
1
P(K + ) = .05
→
P (K − ) = .95
♦
Gegenereignisse
• Wahrscheinlichkeiten von Gegenereignissen addieren sich zu 1
P (T + |K + ) = .99
P (T − |K − ) = .9
♦
Bedingte Wahrscheinlichkeiten
B
‚ Bedingung ‘ nur ‚ logisch ‘
−
−
nicht ‚ zeitlich ‘
nicht ‚ kausal ‘
→
P (T − |K + ) = .01
→
P (T + |K − ) = .1
4
Gegenereignisse
?
P (K + |T + ) = ?
1.1
EF16
2
→
Bildung neuer Ereignisse
→
Allgemein : A , B : Ereignisse
♦
A ∩ B : Beide Ereignisse ( A und B ) treten ein
B
A∩B = B ∩A
?
K + ∩ T + : Proband ist krank und Test positiv
?
P ( K+ ∩ T + ) = ?
Anteil der Kranken : .05
( P (K + ) )
Davon : Anteil positiver Tests : .99
( P (T + |K + ) )
→
Anteil der Kranken mit positivem Test : (.05) · (.99) = .0495
→
Formal : P (T + ∩ K + ) = P (K + ) · P (T + |K + )
•
Allgemein : P(A ∩ B) = P(A|B) P (B)
P(A ∩ B)
P(B)
→
Folgerung :
4
Formal eigentlich umgekehrt : Zweite Formel ist Definition, erste
dann Folgerung
→
P (T + ∩ K − ) = P (T + |K − ) P (K − ) = (.1)(.95) = .095
1.1
EF16
P(A|B) =
3
→
Bildung neuer Ereignisse
→
Allgemein : A , B : Ereignisse
♦
A ∪ B : Mindestens ein Ereigniss ( A oder B ) tritt ein
B
A∪B = B ∪A
B
Spezieller Gebrauch von ‚ oder ‘ ( ‚ Nicht ausschließend ‘ )
→ Wahrscheinlichkeiten von Vereinigungen
− Nur für Spezialfall A ∩ B = ∅
♦
∅ : Leere Menge ↔ Unmögliches Ereignis
B
A∩B = ∅
heißt
A und B können nicht gemeinsam eintreten
?
Beispiel : K + ∩ K − = ∅
•
Ist A ∩ B = ∅ , so
P (A ∪ B) = P(A) + P(B)
1.1
EF16
4
?
P (T + ) = ?
T + = (T + ∩ K + ) ∪ (T + ∩ K − )
(T + ∩ K + ) ∩ (T + ∩ K − ) = ∅
→
P(T + ) = P (T + ∩ K + ) + P (T + ∩ K − )
→
P(T + ) = .0495 + .095 = .1445
?
→
→
P (K + |T + ) = ?
P (K + ∩ T + )
P (K |T ) =
P (T + )
+
+
P (K + |T + ) =
.0495
= .342561
.1445
4 Hier reicht .34 oder .343
1.1
EF16
5
♦ Ereignisse B1 , . . . , BJ heißen (paarweise) disjunkt, wenn
−
nie zwei Bj gleichzeitig eintreten können
♦ Ereignisse B1 , . . . , BJ heißen erschöpfend, wenn
−
immer mindestens ein Bj eintritt
? Beispiele für Ereignisse , die disjunkt und erschöpfend sind :
−
K + und K − , ebenso T + und T −
Totale Wahrscheinlichkeit
♣ Voraussetzung :
− B1 , . . . , BJ sind disjunkt und erschöpfend, alle P(Bj ) > 0
− A ist weiteres Ereignis
•
P(A) =
J
X
P ( A | Bj ) P (Bj )
j=1
? Beispiel : J = 2 ,
→
1.1
B1 : K + ,
B2 : K − ,
A : T+
P (T + ) = P (T + | K + ) P (K + ) + P (T + | K − ) P (K − )
EF16
6
→ Formel von Bayes
♣ Voraussetzung :
− B1 , . . . , BJ sind disjunkt und erschöpfend, alle P(Bj ) > 0
− A ist weiteres Ereignis, P (A) > 0
• Für alle k = 1, . . . , J gilt
P ( Bk | A ) =
P ( A | Bk ) P ( Bk )
J
X
P ( A | Bj ) P (Bj )
j=1
? Beispiel : B1 : K + ,
+
+
P(K |T ) =
1.1
B2 : K − ,
A : T+ , k = 1
P (T + | K + ) P (K + )
P (T + | K + ) P (K + ) + P (T + | K − ) P (K − )
EF16
7
4 Terminologisches
P ( B1 ), . . ., P ( BJ ) : Basisraten , a-priori-Wahrscheinlichkeiten
P ( A | Bj ) : Übergangswahrscheinlichkeiten
P ( Bk | A ) : a-posteriori-Wahrscheinlichkeiten
B Bayes-Formel : Änderung der ‚ Wahrscheinlichkeiten ‘ durch
‚ Zusatzinformation ‘
→
P ( Bk )
? Im Beispiel :
? Konkret :
1.1
−→
P ( Bk | A )
P ( K+ )
−→
.05
−→
P ( K+ | T + )
.34
EF16
8
→ Illustration
.....................................................................................................................................................................................................................................................................................................................................................................
........................
...
...
...
.
....
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
.....
...
...
...
...
...
...
...
...
....
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
.....
...
...
...
...
...
...
...
...
....
...
...
...
...
...
...
...
...
...
...
...
.....
...
...
...
...
...
...
...
...
....
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
.....
...
...
...
...
...
...
...
...
....
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
.....
...
...
...
...
...
...
...
...
....
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
.....
...
...
...
...
...
...
...
...
....
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
.....
...
...
...
...
...
...
...
...
...
.......................................................................................................................................................................................................................................................................................................................................................
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
....
...
...
.........................................................................................................................................................................................................................................................................................................................................................................
T+
K−
K+
.............................................
...
....
...
....
...
....
...
....
...
....
...
....
...+.....................−.................
.........................................................................................................................................................
...
.... ....
....
... ...
....
... ...
...
... ...
...
... ...
...
... ...
...
... ...
...
... ...
.....
... ...
...
... ...
...
... ...
... ...
....
...
... ...
...
... ...
...
... ...
...
... ...
...
... ...
... ...
.....
...
... ...
...
... ...
....
... ...
...
... ...
...
... ...
...
... ...
... .............................................................................................................................................
..
... ...
...
... ...
..................................................................................................................................................
K
T−
.............................................
...
....
...
....
... T −
..
+ ..
T ..
...
....
...
....
...................................................................................
.........................................................................................................................................................
...
.... ....
....
... ...
... ...
....
...
... ...
...
... ...
...
... ...
...
... ...
...
... ...
... ...
.....
...
... ...
...
... ...
....
... ...
...
... ...
...
... ...
...
... ...
...
... ...
...
... ...
.....
... ...
...
... ...
...
... ...
... ...
....
...
... ...
...
... ...
...
... ...
... .............................................................................................................................................
..
... ...
...
... ...
..................................................................................................................................................
K
→ Flächenanalogie
4 Allgemeiner Maßbegriff umfasst ebenso Flächen- wie W-Maße
1.1
EF16
9
→ Fehlerwahrscheinlichkeit
− Diagnoseregel 1 ( R1 ) :
T − → K−
T + → K+
− ‚ Fehler ‘ : ( T + ∩ K − ) ∪ ( T − ∩ K + )
B Zwei ‚ Typen ‘ von Fehlern
( T + ∩ K− ) ∩ ( T − ∩ K+ ) = ∅
→
P ( ‚ Fehler ‘ ) = P ( T + ∩ K − ) + P ( T − ∩ K + )
=
.095
=
.0955
+
.0005
→ Illustration
....
T+
...................................................................................................................................................................................................................................
...
.... ....
....
... ...
... ...
....
...
... ...
...
... ...
...
... ...
...
... ...
...
... ...
... ...
.....
...
... ...
...
... ...
....
... ...
...
... ...
...
... ...
...
... ...
...
... ...
...
... ...
.....
... ...
...
... ...
...
... ...
... ...
....
...
... ...
...
... ...
...
... ...
...
... ...
...
... ...
... ...
.....
...
... ...
...
... ...
....
... ...
...
... ...
...
... ...
...
... ...
...
... ...
...
... ...
.....
... ...
..
... ...
... ................................................................................................................................................................................................................
... ...
...
...
... ...
..
... ...
.............................................................................................................................................................................................................................
T−
.............................................................
..........................................................
K+
1.1
K−
EF16
10
→ Alternative Regel
− Diagnoseregel 2 ( R2 ) :
→
P ( ‚ Fehler ‘ )
T + → K−
=
P ( K+ )
T − → K−
=
.05
? R2 besser als R1 ?
B Nur bei gleicher ‚ Gewichtung ‘ der Fehlertypen
! Kennwerte immer im Zusammenhang sehen !
→ Weitere Kennwerte :
−
P ( K − |T + ) = .66
−
P ( K − |T − ) = .9994
1.1
( P ( K + |T + ) = .34 )
P ( K + |T − ) = .0006
EF16
11
→ Alternativszenario
♣ Jetzt : P ( K + ) = .7
−
P ( K + |T + ) = .96
P ( K − |T + ) = .04
−
P ( K − |T − ) = .97
P ( K + |T − ) = .03
−
P ( ‚ Fehler ‘ ) = .037
→
Vergleich :
T
+
.........................................................................................................................................................
...
... ...
...
... ...
....
... ...
...
... ...
...
... ...
...
... ...
...
... ...
...
... ...
.....
... ...
...
... ...
...
... ...
... ...
....
...
... ...
...
... ...
...
... ...
...
... ...
...
... ...
.....
... ...
...
... ...
...
... ...
....
... ...
...
... ...
...
... ...
...
... ...
... .............................................................................................................................................
...
... ...
...
... ...
...................................................................................................................................................
K+
T−
T
+
........................................................................................................................................................................................................................................................
..
..
...
...
..
...
...
...
...
....
...
...
...
...
...
...
.
...
.
...
..
...
.
...
..
...
.
...
...
....
.....
...
...
...
...
....
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
.....
..
...
...
...
...
...
...
...
....
...
...
...
..
...
...
...
...
...
...
...
...
...............................................
...
...
...
....
..
...
...
..................................................................................................................................................
K−
K+
T−
K−
→ P(K + |T + ) in Abhängigkeit von P(K + )
1
P(K + |T + )
.5
r
.................................................................................................................................................................
...
......
..................
...
..............
...
...........
.........
.
.
.
.
.
....
.
.....
.
.
.
...
.
.
....
.
.
...
.
.
....
...
.
.
.
..
.
...
.
.
.
...
...
.
.
...
.....
.
..
...
.
..
...
.
..
....
.
..
...
.
..
...
.
.
...
.
.
.
...
...
...
...
.....
...
...
..
...
...
..
....
...
...
...
...
...
...
...
...
...
...
.....
....
r
0
r
0
1.1
r
.5
1
P(K + )
EF16
12
→ Interpretation
W : Wahrscheinlichkeit
♣ Wieder : P ( K + ) = .05
− Bei Herrn N.N. ist der Test positiv
→ Die W., dass Herr N.N. krank ist, ist .34
?
? Einfaches Beispiel : Münzwurf
Aussage A : Die W. für ‚ Zahl ‘ ist .5
Mögliche Äußerungen :
1. Beim Werfen einer idealen Münze gilt : A
2. Beim Werfen dieser Münze gilt : A
3. Gleich wird diese Münze geworfen. A
4. Gerade wurde die Münze geworfen. A
? Korrekt ? Sinnvoll ?
1.1
EF16
13
Äußerungen :
1. Beim Werfen einer idealen Münze gilt : A
2. Beim Werfen dieser Münze gilt : A
3. Gleich wird diese Münze geworfen. A
4. Gerade wurde die Münze geworfen. A
→ Kommentar :
1. Tautologie
2. Frage der Angemessenheit, nicht der Richtigkeit ( ? )
3. ?
4. ?????
♠ Für uns :
→ ‚ Wahrscheinlichkeit ‘ bezieht sich auf ‚ abstrakte ‘ ‚ Ereignisse ‘
→ Daher : 3. unsinnig, 4. erst recht
→ Keine ‚ subjektiven Wahrscheinlichkeiten ‘
4 ‚ Subjektive Wahrscheinlichkeiten ‘ gibt es bei Bayesianern
1.1
EF16
14
→ Zitat :
Aus den axiomatischen Begründungen der Geometrie,
der Algebra, der Topologie und anderer mathematischer
Disziplinen weiß man, dass dort davon abgesehen wird, Begriffe wie Punkt und Gerade, Zahl, Umgebung, usw. inhaltlich zu definieren. Ähnlich hat es sich gezeigt, dass für einen
Aufbau der W-Theorie eine inhaltliche Definition von Begriffen wie „Ereignis“ und „Wahrscheinlichkeit“ nicht erforderlich, ja zur Vermeidung logischer Schwierigkeiten und im
Hinblick auf eine möglichst umfangreiche und leichte Anwendbarkeit der Theorie nicht einmal erstrebenswert ist.
Wie in den genannten Disziplinen kommt es auch in der WTheorie nur auf die formalen Eigenschaften dieser Begriffe
an.
Heinz Bauer
1.1
EF16
15
Datenbeschreibung.
♣
Gegeben sind 20 Werte einer Variablen X
−
X : Fehleranzahl in Reaktionsexperiment
−
5 Durchgänge pro Versuchsperson ( ‚ Vp ‘ )
−
Anzahl der Vpn : n = 20
−
Daten :
4, 2, 1, 2, 3, 1, 2, 3, 2, 2, 2, 3, 1, 2, 0, 4, 2, 2, 1, 2
xi : Wert von Vp i
?
x5 = 3
X ist quantitativ
X ist diskret
B
Leicht verschiedener Sprachgebrauch in der W-Theorie
1.2
( Gegensatz : qualitativ )
( Gegensatz : kontinuierlich )
EF16
16
→
−
Daten ordnen
Daten :
4, 2, 1, 2, 3, 1, 2, 3, 2, 2, 2, 3, 1, 2, 0, 4, 2, 2, 1, 2
wj : mögliche Werte ( j = 1, . . . J )
?
Hier : J = 6 ,
nj : absolute Häufigkeit von wj
♦
hj := nj /n : relative Häufigkeit von wj
→
mögliche Werte : 0 , . . . , 5
Tabelle
j
1
2
3
4
5
6
P
1.2
wj
0
1
2
3
4
5
nj
1
4
10
3
2
0
20
hj
0.05
0.20
0.50
0.15
0.10
0.00
1.00
EF16
17
→
Graphische Darstellung
wj
0
1
2
3
4
5
P
→ Absolute Häufigkeiten
a.H.
nj
1
4
10
3
2
0
20
hj
0.05
0.20
0.50
0.15
0.10
0.00
1.00
( Balkendiagramm )
10
8
6
4
2
0
0
1
2
3
4
5
X
0
1
2
3
4
5
X
→ Relative Häufigkeiten
r.H.
.5
.4
.3
.2
.1
.0
1.2
EF16
18
→
Kennwerte
MX
n
1 X
xi
:=
n i=1
♦
Mittelwert :
4
Kurz auch M , falls X aus Kontext klar
?
♦
41
= 2.05
20
M =
Hier :
2
SX
Varianz :
n
1 X
:=
(xi − M )2
n i=1
♦ Streuung, Standardabweichung :
4
SX :=
p
Kurz auch S 2 , S , falls X aus Kontext klar
S2 =
18.95
= .9475
20
?
Hier :
•
Alternativ :
?
Hier :
•
Varianz ist Null ⇐⇒ Daten sind konstant
1.2
2
SX
S =
√
.9475 = .9734
2
SX
= MX 2 − ( MX )2
2
SX
= 5.15 − 2.052 = .9475
EF16
19
→
Rechentabelle
i xi xi − M (xi − M )2 x2i
1 4
1.95
3.8025 16
2 2
-0.05
0.0025
4
3 1
-1.05
1.1025
1
-0.05
0.0025
4
4 2
5 3
0.95
0.9025
9
-1.05
1.1025
1
6 1
7 2
-0.05
0.0025
4
0.95
0.9025
9
8 3
9 2
-0.05
0.0025
4
10 2
-0.05
0.0025
4
-0.05
0.0025
4
11 2
12 3
0.95
0.9025
9
-1.05
1.1025
1
13 1
14 2
-0.05
0.0025
4
15 0
-2.05
4.2025
0
16 4
1.95
3.8025 16
-0.05
0.0025
4
17 2
18 2
-0.05
0.0025
4
19 1
-1.05
1.1025
1
20 2
-0.05
0.0025
4
41
0.00
18.9500 103
1.2
EF16
20
→
Graphische Darstellung
Mittelwert mit Streuungsbalken
S
S
...
...
..
..
....................................................................................................................................................................................................................
....
....
.
.
r
M
→
Mit Balkendiagramm
.5
r.H.
.4
.3
.2
.1
.0
...
...
...
.
.........................................................................
...
...
...
...
r
1.2
X
EF16
21
→
Beispiele zur Streuung
.5
r.H. .4
.3
.2
.1
.0
r
..
...
........................................
.
.
X
.5
r.H. .4
.3
.2
.1
.0
r
X
r
X
..
...
..................................................................
.
.
.5
r.H. .4
.3
.2
.1
.0
..
...
..............................................................................................
.
.
.5
r.H. .4
.3
.2
.1
.0
r
...
..
....................................................................................
.
.
1.2
X
EF16
22
→ Alternative Berechnung des Mittelwerts
Daten : 4, 2, 1, 2, 3, 1, 2, 3, 2, 2, 2, 3, 1, 2, 0, 4, 2, 2, 1, 2
M =
1
(4+2+1+2+3+1+2+3+2+2+2+3+1+2+0+4+2+2+1+2)
20
Alternativ :
M =
1
(0+1+1+1+1+2+2+2+2+2+2+2+2+2+2+3+3+3+4+4)
20
Zusammenfassen :
1
(1 · 0 + 4 · 1 + 10 · 2 + 3 · 3 + 2 · 4)
20
1
4
10
3
2
=
·0 +
·1 +
·2 +
·3 +
·4
20
20
20
20
20
M =
=
0.00 + 0.20 + 1.00 + 0.45 + 0.40 = 2.05
→ Allgemein :
J
J
J
X
X
nj
1 X
M =
nj wj =
wj =
hj wj
n j=1
n
j=1
j=1
•
M =
J
X
wj hj
j=1
1.2
EF16
23
Ebenso : Varianz , Mittelwert von X 2 . . .
→ Rechentabelle
wj
0
1
2
3
4
5
hj wj hj wj − M (wj − M )hj (wj − M )2 (wj − M )2 hj wj2 wj2 hj
0.05 0.00
-2.05
-0.1025
4.2025
0.210125 0 0.00
0.20 0.20
-1.05
-0.2100
1.1025
0.220500 1 0.20
0.50 1.00
-0.05
-0.0250
0.0025
0.001250 4 2.00
0.15 0.45
0.95
0.1425
0.9025
0.135375 9 1.35
0.10 0.40
1.95
0.1950
3.8025
0.380250 16 1.60
0.00 0.00
2.95
0.0000
8.7025
0.000000 25 0.00
1.00 2.05
0.0000
0.947500
5.15
♦ Sind a1 , . . . , am Zahlen und g1 , . . . , gm nichtnegativ ( ≥ 0 )
P
mit
gi = 1 , so heißt
m
X
ai gi
i=1
auch gewichtetes Mittel der ai mit Gewichten gi
? Der Mittelwert ist gewichtetes Mittel der möglichen Werte
− Gewichte sind die relativen Häufigkeiten
? Formel der totalen Wahrscheinlichkeit :
P(A) =
J
X
P ( A | Bj ) P (Bj )
j=1
− P ( A ) ist gewichtetes Mittel der P ( A | Bj )
− Gewichte sind die a-priori-Wahrscheinlichkeiten P (Bj )
1.2
EF16
24
Erwartungswert.
Typische Sprechweise : „ Die Fehlerzahl unter Alkoholeinfluss ist
größer als die ohne Alkohol “
? Was heißt „ Die Fehlerzahl unter Bedingung B “ ?
Naheliegend : Durchschnittliche Fehlerzahl , Mittelwert
!
Aber : Unterschiedliche Mittelwerte bei Replikationen
? Gegebene Daten und drei Replikationen :
.5
r.H. .4
.3
.2
.1
.0
0
r
..
...
........................................
.
.
5
.5
r.H. .4
.3
.2
.1
.0
X
0
M = 2.05
.5
r.H. .4
.3
.2
.1
.0
0
r
...
..
...................................................
.
.
M = 2.45
1.3
r
..
...
................................................
.
.
5
X
5
X
M = 2.40
5
.5
r.H. .4
.3
.2
.1
.0
X
0
r
...
..
...................................................
.
.
M = 2.20
EF16
25
Mittelwerte aus 100 Durchführungen :
2.05,
1.95,
2.30,
2.30,
2.25,
2.00,
2.20,
2.05,
2.10,
2.80,
2.40,
2.30,
2.10,
1.65,
1.90,
2.40,
2.95,
2.25,
2.25,
1.75,
2.45,
2.35,
2.20,
2.55,
2.00,
2.00,
1.80,
2.20,
2.30,
2.85,
2.20,
2.60,
2.50,
2.15,
1.60,
2.40,
2.50,
2.75,
2.00,
2.05,
2.45,
2.65,
2.50,
2.30,
2.30,
2.05,
2.20,
2.05,
2.40,
2.25,
2.70,
2.35,
2.50,
2.70,
2.75,
2.00,
2.10,
2.00,
2.50,
2.10,
1.75, 1.80, 2.40, 2.10,
2.30, 1.75, 2.30, 1.60,
2.10, 2.30, 2.10, 2.30,
2.45, 1.70, 2.55, 2.55,
2.30, 2.40, 1.90, 2.55,
2.05, 2.80, 1.95, 2.30,
1.80, 2.40, 2.00, 2.30,
2.10, 2.15, 2.15, 2.25,
2.30, 2.85, 2.40, 2.70,
2.40, 2.50, 2.40, 2.15
? Zwischenproblem : Geeignete Zusammenfassung
→ Klassenbildung
Klasse k
( 1.5 , 1.7 ]
( 1.7 , 1.9 ]
( 1.9 , 2.1 ]
( 2.1 , 2.3 ]
( 2.3 , 2.5 ]
( 2.5 , 2.7 ]
( 2.7 , 2.9 ]
( 2.9 , 3.1 ]
nk hk
4 0.04
8 0.08
23 0.23
28 0.28
21 0.21
9 0.09
6 0.06
1 0.01
100 1.00
nk , hk : Absolute und relative Häufigkeit von Klasse k
1.3
EF16
26
4 Anmerkungen
→ Schreibweisen für Intervalle
( a , b ] := {x ∈ R | a < x ≤ b}
...............................u
.............................................................................................................................................................................................................................................................................................
a
b
R
Statt ( a , b ] auch ] a , b ]
[ a , b ] := {x ∈ R | a ≤ x ≤ b}
..u.............................u
.............................................................................................................................................................................................................................................................................................
a
b
R
( a , b ) = ] a , b [ := {x ∈ R | a < x < b}
...............................
.............................................................................................................................................................................................................................................................................................
a
b
R
[ a , b ) = [ a , b [ := {x ∈ R | a ≤ x < b}
..u.............................
.............................................................................................................................................................................................................................................................................................
a
b
R
[ a , ∞ ) := {x ∈ R | a ≤ x}
..u...........................................................
.............................................................................................................................................................................................................................................................................................
a
R
Analog : (−∞ , b ) = (−∞ , b [ etc.
1.3
EF16
27
→ Graphische Darstellung
Klassifizierte Daten
Klasse k
( 1.5 , 1.7 ]
( 1.7 , 1.9 ]
( 1.9 , 2.1 ]
( 2.1 , 2.3 ]
( 2.3 , 2.5 ]
( 2.5 , 2.7 ]
( 2.7 , 2.9 ]
( 2.9 , 3.1 ]
nk hk
4 0.04
8 0.08
23 0.23
28 0.28
21 0.21
9 0.09
6 0.06
1 0.01
100 1.00
→ Histogramm
.5
r.H.
.4
.3
...........
... ....
... ...
. .
............ ....
.
.... .... ............
... ... ... ...
... ... ... ....
... ... ... ...
... ... ... ...
... ... ... ....
... ... ... ...
... ... ... ...
... .. ... .........
........... .... ... .... ....
... ... ... ... ... ..........
... ... ... ... ... ... ....
.......... ... ... ... ... ... ..
... ... ... ... ... ... ... ....
... ... ... ... ... ... ... ...........
. . . . . . . .
.2
.1
.0
0
1
2
3
4
5
M
4 Analog : Histogramm der absoluten Häufigkeiten
1.3
EF16
28
Histogramm
.5
r.H.
.4
.3
...........
.. ..
... ....
.. ..
............ ....
... ... ...........
... ... ... ...
... ... ... ....
... ... ... ...
... ... ... ...
... ... ... ...
... ... ... ....
... ... ... ...
... ... ... ...
. . . ........
............. .... .... .... ....
. . . .
.... .... ... ... ... .............
.
.
.......... .... .... .... .... .... ....
.. .. .. .. .. .. .. ...
... ... ... ... ... ... ... .........
.. .. .. .. .. .. .. .. ..
.2
.1
.0
0
1
2
3
4
5
M
B Geringere ‚ Streuung ‘ als bei Originaldaten
4 Extreme Werte ‚ neutralisieren sich ‘ beim Mitteln
→ Balkendiagramme
-
Histogramme
− Wenige unterschiedliche Daten, auch qualitativ
→ Balkendiagramm
− Viele unterschiedliche quantitative Daten
→ Histogramm
B Nachteil : Informationsverlust durch Klassenbildung
? Mittelwert und Streuung nur noch ungefähr rekonstruierbar
1.3
EF16
29
Unterschiedliche Histogramme für die gleichen Daten
r.H.
.5
.4
.3
.2
.1
.0
.5
r.H.
.4
.3
.2
.1
.0
r.H.
........
... ...
......... ....
.. .. .......
... ... ... ...
... ... ... ...
... ... ... ....
... ... ... ...
....
......... .... .... ...........
. ... ... ... ... ........
.
.
....... .. .. .. .. .. ..
... ... ... ... ... ... ... .......
.........
0 1 2 3 4 5
M
.5
r.H.
.4
.3
.2
.1
.0
....
.... ....
... ..
.. ..
........ .....
.... .... ....
... ... ...
... ... .......
.. .. . .
......... ... ... ....
........ .... .... .... ........
... ... ... ... ... ... ....
.......
......... .... .... .... .... .... .........
.........
0 1 2 3 4 5
M
.3
.1
.0
............
... ....
... ...
... ...
.. ...
............... ....
... ... ....
... ... ...
... ... ...
... ... ....
... ... ...
... ... ...
... ... ....
... ... ...
.. .. .
............ ... ..............
.... .... .... .... ....
... ... ... ... ...
.... .... .... .... ....
. . . . .
0 1 2 3 4 5
M
............
.... ....
... ...
... ....
... ...
... ...
... ....
... ...
... ..
... ..............
... ... ...
... ... ...
... ... ...
... ... ....
... ... ...
... ... ....
.......... .. ..
.... ... .... ....
... ... ... ...........
... ... ... ... ...
... ... ... ... ...
... ... ... ... ...
0 1 2 3 4 5
M
.2
r.H.
.2
.5
.4
.3
.2
.1
.0
r.H.
........
.......
....
.............
...............
...............
. ...
.......................
. .
...................
...........................
...............................................
.......................
.
..........................................
..
...............................................
0 1 2 3 4 5
.1
.0
M
...... ......
...... ......
...... ........
...... .........
....... ..........
...... .........
...... .........
.. ...
........... ............
...... .......... ................
. .
......... .......................................
...... .........................................
... ...........................
...............................................................................
.........................................................................................................
.............................
0 1 2 3 4 5
M
B Unterschiedlicher Eindruck je nach Wahl der Klassen
1.3
EF16
30
? Was heißt „ Die Fehlerzahl unter Bedingung B “ ?
B Mittelwert ist untauglich
→ Einführung einer ‚ theoretischen Ebene ‘
4 Gegenstück : ‚ Empirische Ebene ‘ der Daten
→ Theoretische Sichtweise :
− Die einzelnen Fehlerzahlen treten mit gewissen
Wahrscheinlichkeiten auf
→ Aus der Variable X wird eine Zufallsvariable ( Zva )
B Dieser Begriff ist in der W-Theorie streng definiert
→ Hier nur etwa : Mögliche Werte ‚ + ‘ Wahrscheinlichkeiten
! Schwierigkeit ( nicht nur ) für Anfänger :
− Die Wahrscheinlichkeiten sind meistens unbekannt
− Womöglich prinzipiell
→ Hilfskonstruktion :
1.3
‚ Olymp der Statistik ‘
EF16
31
→ Wahrscheinlichkeit
–
Zufall
? Worin besteht der Zufall ?
? Beispielsweise in
− Auswahl der Vpn
− Umgebungseinflüsse bei der Untersuchung
− Innere Zustände der Vpn
− etc.
→ Was dem Zufall überlassen bleibt , ist unterschiedlich
−
in verschiedenen Experimenten
−
in verschiedenen Bedingungen desselben Experiments
→
−
In unterschiedlichen Experimenten / Bedingungen
sind die Wn der möglichen Fehlerzahlen unterschiedlich
Aus einer Variable ( informell ) werden unterschiedliche Zvan
→ In festem Experiment : Eine Variable X
( informell )
→ Aber : So viele Zvan , wie Bedingungen ( → X1 , X2 , . . .)
?
Beispiel : ( Informelle ) Variable X : Fehlerzahl
Im Experiment : verschiedene Zvan :
−
X1 : Fehlerzahl in Bedingung ‚ Nüchternheit ‘
−
X2 : Fehlerzahl in Bedingung ‚ Alkohol ‘
1.3
EF16
32
→ Verteilung
Die Verteilung einer Zva X gibt an , wie wahrscheinlich die
möglichen Werte x von X sind
? Mögliche Verteilung der Fehlerzahl X bei Nüchternheit :
x
0
1
2
3
4
5
P(X = x)
0.10
0.15
0.35
0.25
0.10
0.05
1.00
‚ X = x ‘ : Ereignis , dass X den Wert x annimmt
4
In der Alkoholbedingung wäre die Verteilung anders
Graphische Darstellung
p
1
.8
.6
.4
.2
.0
r
...
...
...
.
r
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
.
...
...
...
...
...
...
...
...
...
...
...
.
...
..
0
1
2
3
4
5
r
r
r
r
X
Bezeichnung : W-Funktion
1.3
EF16
33
→ Erwartungswert
♦ Def.: Der Erwartungswert E(X) einer Zva X ist
X
E(X) :=
x P(X = x)
x
B Eine Art Mittelwert auf theoretischer Ebene
4 Gewichtetes Mittel der möglichen Werte x
− Gewichte : Wahrscheinlichkeiten
B Vergleiche : Mittelwertberechnung mit relativen Häufigkeiten
? Berechnungsbeispiel
x P(X = x) x · P(X = x)
0
0.10
0.00
1
0.15
0.15
2
0.35
0.70
3
0.25
0.75
4
0.10
0.40
5
0.05
0.25
1.00
2.25
→
E(X) = 2.25
B Hier ist E(X) kein möglicher Wert von X
− insbesondere kein ‚ erwarteter ‘
Bezeichnung für Erwartungswerte : Meist µ , µi , etc.
1.3
EF16
34
Graphische Darstellung
p
1
.8
.6
.4
.2
.0
r
...
...
...
.
r
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
.
...
...
...
...
...
...
...
...
...
...
...
.
...
..
0
1
2
3
4
5
r
r
...
...
...
...
..
..
................................................................................................
.....
.....
..
..
r
r
r
X
µ
4 Es gibt auch eine ‚ Streuung ‘ auf theoretischer Ebene
? Was heißt „ Die Fehlerzahl unter Bedingung B “ etc. ?
→ Präzisierung meist :
−
Erwartungswert der entsprechenden Zva
B Diese Präzisierung ist – im Vergleich zum Mittelwert M – ‚ frei
von Zufälligkeiten ‘
4 Allerdings : Erwartungswerte sind meist prinzipiell unbekannt
1.3
EF16
35
? Wie groß sind Wahrscheinlichkeiten , Erwartungswerte , . . . ?
− Meistens – streng genommen – prinzipiell unbekannt
→ Finde geeignete Schätzungen
? Beispiel : Würfel
♦ X : Ergebnis beim Würfeln
Verteilung und Erwartungswert :
x P(X = x) x · P(X = x)
1
1/6
1/6
1/6
2/6
2
3
1/6
3/6
4
1/6
4/6
5
1/6
5/6
6
1/6
6/6
1
3.5
p
1
.8
.6
.4
r
.2
.0
...
...
...
...
...
.
0
1
r
r
r
r
r
...
...
...
...
...
.
...
...
...
...
...
.
...
...
...
...
...
.
...
...
...
...
...
.
...
...
...
...
...
.
2
3
4
5
6
...
...
...
...
..
..
................................................................................................................................
.....
.....
..
..
r
X
µ
1.3
EF16
36
Ein Experiment mit 60 Würfen
x
1
2
3
4
5
6
abs. H.
10
11
8
18
7
6
60
.3
r.H.
.2
.1
.0
1
6
...
...
...
.
..................................................................................................................
...
...
...
...
r
X
→ ‚ Wahre ‘ Verteilung :
.3
p
.2
r
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
.1
.0
0
1
r
r
r
r
r
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
2
3
4
5
6
...
...
...
...
.
.
................................................................................................................................
....
....
..
..
r
X
µ
1.3
EF16
37
79 Experimente mit je 60 Würfen
r
.........................
.
.
r
..........................
.
.
r
..........................
.
.
r
..........................
.
.
r
.........................
.
.
r
r
r
...........................
.
.
..........................
.
.
r
.............................
.
.
............................
.
.
r
.............................
.
.
r
.........................
.
.
r
...........................
.
.
............................
.
.
r
r
.............................
.............................
r
.........................
.
.
..........................
.
.
r
..........................
.
.
r
...........................
.
.
...........................
.
.
r
............................
.
.
r
.........................
.
.
r
..........................
.
.
r
...........................
.
.
r
............................
r
............................
............................
r
..............................
r
............................
r
.........................
r
.............................
..........................
.
.
............................
............................
.
.
.............................
r
..........................
r
............................
r
.............................
r
r
..........................
.
.
............................
.
.
r
...........................
.
.
..............................
r
.............................
r
..............................
r
............................
..............................
...........................
............................
.
.
r
r
r
r
.............................
r
.............................
.............................
........................
.
.
..............................
..............................
.............................
r
r
............................
r
...........................
.
.
...........................
r
r
r
r
r
............................
.............................
1.3
r
............................
.
.
r
r
.............................
r
r
..............................
r
r
...........................
r
r
...........................
.
.
r
...........................
.
.
r
r
............................
r
................................
...........................
...........................
r
..............................
r
..............................
r
.............................
.............................
r
.........................
.
.
r
r
r
r
r
r
r
r
r
............................
r
............................
r
............................
r
..............................
r
EF16
38
Zusammenfassung zu Gesamtexperiment mit 4740 Würfen
x
1
2
3
4
5
6
abs. H.
821
811
752
823
761
772
4740
r.H.
.2
.1
.0
1
6
X
...
...
...
...
.
.
................................................................................................................................
....
....
..
..
r
→ ‚ Wahre ‘ Verteilung :
.3
p
.2
r
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
.1
.0
0
1
r
r
r
r
r
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
2
3
4
5
6
...
...
...
...
...
.
...............................................................................................................................
...
....
..
..
r
X
µ
1.3
EF16
39
Eindruck :
→ Es eignen sich als Schätzer
− die relativen Häufigkeiten für die Wahrscheinlichkeiten
− der Mittelwert für den Erwartungswert
→ Je größer die Stichprobe, um so besser die Schätzung
→ Für sehr gute Schätzungen braucht man sehr große Stichproben
→ Schätzungen sind fehlerbehaftet
− Fehler sollte mit wachsendem n kleiner werden
1.3
EF16
40
Stichprobengröße und Fehler – Mittelwerte beim Würfeln
.2
r.H.
.........
... ...
... ...
... ...
... ....
... ...
.. ..
........ ....... ... ....
... .... ... .... .... .... ....
... ... ... ... ... .. ... ...
... ... ........ ........ ........ .............
... ... ... ... ... ... ... ... ... ... ....
... ........ ... ... ... ... ... ... ... .....
......
.. . ... .. ... .. ... .. ... ... . ...
.
.... .... ................ .... ... .... ... .... ... .... ... ... .... ... ...........
... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .... ...... ... ..... ....
... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ...
............................ .... . . . . . . . . . . . . . .... . . . .... .
.1
.0
0
1
2
3
4
...
...
..
...
....................................
...
...
r
5
6
M
79 Mittelwerte aus je 15 Durchgängen
.2
r.H.
......
..
....... ... ....
... ... ...... ...
... ... ... ... ...
...... ... ... ... ... ... ......
... .... ... .... ... ... .... ... ....
.. . .. . .. .. . .. .
........... ......... ........ ... ..... ... .... ......
. .
..
.... .... ... .... ... .... .... .... ........ ......... .....
. .. .. .. .. .. .. .. .. .. .. .. ..
.
....... ... ... ... ... ... ... ... ... ... ... ... ...
.... .... .... .... .... .... .... .... .... .... .... .... .... .....
.............
........ .... .... .... .... .... .... .... .... .... .... .... .... ........
.
.................................... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ..
.1
.0
0
1
2
3
...
...
..
...
...........................
...
...
r
4
5
6
M
79 Mittelwerte aus je 30 Durchgängen
.2
..........
... ....
... ...
... ...
... ....
... ...
..
........ .... ......
. .
.... .... ......... ....
... ... .... ... ... ...
... ... ... ... .... .. ....
... ... ... ... ... ... ...
... ... ... ... ... ... ...
.. .. .. .. .. .. ..
......... .... .... .... .......... ....
.
.
.
...... .... .... .... .... .... .... ........
... .. .. .. .. .. .. .. ... .
..... .. .. .. .. .. .. .. . ......
.... .... .... .... .... .... .... .... .... .... .... .....
............
...... ........ .... .... .... .... .... .... .... .... .... .... .... ......
.
.
................................. ....... ... ... ... ... ... ... ... ... ... ... ... ........ ..
r.H.
.1
.0
0
1
2
3
...
...
...
..
........................
...
...
r
4
5
6
M
79 Mittelwerte aus je 60 Durchgängen
1.3
EF16
41
Eindruck :
→ Je größer die Stichprobe ,
− um so näher liegen die Mittelwerte bei µ
B In der Tat :
−
M ist ein konsistenter Schätzer von µ
→ Vertrauensintervall
4 Mittelwert M liefert Vorstellung über die Lage von µ
− jedoch : Kein Hinweis auf ‚ Genauigkeit ‘ der Schätzung
Ziel der Vertrauensintervalle ( Konfidenzintervalle ) :
→ ‚ Einfangen ‘ des Erwartungswerts
1.3
−
in einem Intervall
−
mit vorgegebener Wahrscheinlichkeit
EF16
42
Vertrauensintervall – Vorbereitungen
♣ Gegeben : Stichprobe mit Werten x1 , . . . , xn einer Variable X
− Stichprobenumfang : n , Mittelwert : M , Varianz : S 2
♦ Def.: Die Zahl
n
n
1 X
2
s :=
S =
( xi − M )2
n−1
n − 1 i=1
2
heißt korrigierte Stichprobenvarianz , die Zahl s :=
korrigierte Stichprobenstreuung
√
s2 heißt
√
♦ Def.: Die Zahl s/ n heißt Standardschätzfehler (des
Mittelwerts)
Abk.: SEM ( ‚ Standard Error of Mean ‘ )
Deutung :
− Schätzung der Streuung von Mittelwerten
− von Stichproben des Umfangs n
− auf der Basis nur einer solchen Stichprobe
B Vgl. S. 41
1.3
EF16
43
→ Ergebnisdarstellung mit Standardschätzfehler
♣ Situation : Experiment zu Alkohol und Reaktionsfähigkeit
− Zwei Bedingungen :
− N : Nüchternheitsbedingung
− A : Alkoholbedingung ( 20 g )
? Sinkt die Reaktionsfähigkeit in Bedingung A ?
− Messung mit Variable X : Fehlerzahl bei 5 Durchgängen
Allgemeine Sprechweise :
→ Untersucht wird ‚ Einfluss ‘ einer UV auf eine AV
UV : Unabhängige Variable , experimentell manipuliert
− hier : Alkoholmenge
− hier : realisiert in zwei Stufen : N und A
AV : Abhängige Variable
( abhängig : von der UV )
− hier : Fehlerzahl X
1.3
EF16
44
‚ Statistische ‘ Formulierung der Frage
Aus Variable X werden zwei Zvan :
− X1 in Bedingung N , Erwartungswert : µ1
− X2 in Bedingung A , Erwartungswert : µ2
B Die Verteilungen von X1 und X2 sind unbekannt
− Die Erwartungswerte µ1 und µ2 ebenso
4 Nicht ganz korrekte, aber griffige Sprechweise :
−
µ1 ist der Erwartungswert von X in Bedingung N ( ↔ 1 )
−
µ2 ist der Erwartungswert von X in Bedingung A ( ↔ 2 )
→ ‚ Hypothese ‘ :
µ2 > µ1
Zur Untersuchung dieser Frage :
− Erhebung der Daten von je 20 Vpn in Bedingung N und A
1.3
EF16
45
Untersuchungsergebnis vielleicht :
− Stichprobe in N liefert : M1 = 2.05 , S12 = .9475
r.H.
.5
.4
.3
.2
.1
.0
r
..
..
...........................................................................
.
.
X
− Stichprobe in A liefert : M2 = 2.85 , S22 = 2.0275
r.H.
.5
.4
.3
.2
.1
.0
r
.
.
.............................................................................................................
.
.
X
Ermittlung der SEM :
Stichprobe in N :
s21 =
SEM :
Analog in A :
1.3
20
20 2
S1 =
.9475 = .9974
19
19
s
√1 =
20
√
.9974
√
= .2233
20
SEM : .3267
EF16
46
Mittelwerte mit SEM
− N:
2.05 ( .2233 )
− A:
2.85 ( .3267 )
→ Ergebnisdarstellung ( M ± SEM ) :
X
1
.
.......
.........
....
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
................
..
...
...
.
.................
r
................
..
...
.
................
r
N
A
UV
B ‚ M ± SEM-Bereiche ‘ → Vorstellung von der Lage der µi
→ „ µ2 > µ1 “ ist nicht unplausibel
1.3
EF16
47
4 Unterschiedliche ‚ Fehlerbalken ‘
.5
r.H.
.4
.3
.2
.1
.0
M ±S:
...
...
...
..
...........................................................................
...
...
.
.
M ± SEM :
r
..
..
...
..
.....................
...
...
..
..
r
X
Für SEM : Hier ist n = 20
B Unterschied :
−
M ± S : Hinweis auf Lage der Daten
−
M ± SEM : Hinweis auf Lage des Erwartungswerts
1.3
EF16
48
Vertrauensintervall – weitere Vorbereitungen
→ Stetige ( theoretische ) Verteilungen ( mit Dichte )
Eine neue Klasse von Verteilungen von Zvan ( ↔ ‚ diskret ‘ )
Verteilung einer Zva X ist charakterisiert durch eine Dichte g
......................
.....
.....
.....
...
....
...
.
.
.
...
...
...
...
...
.
..
...
.
.
.
...
...
.
.
.
...
..
.
.
.
...
.
.
...
...................................
.
.
...
.
.
.
.
.
.
.
.
.
.
.
..............................
....
.....
.
.
.
.....
.
....
.
.....
.
.
.
.....
....
.
.
.
.
......
...
.
.
.
......
.
.
....
.......
.
.
.
.
.
........
.....
.
.
.
...........
.
.
.
.....
.............
.
.
.
.
.
.
.
.
.
.......
.......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.......................................................................................................................................................................................................................................................................................................................................
g(x)
X
Zusammenhang mit Wahrscheinlichkeiten :
− Die Wahrscheinlichkeit für Werte in einem Intervall ist die
Fläche über dem Intervall
.....
.
.
.
. ..
.
.
.
..
............ ............... ...
...........................................
.........
...... ..........
.....
....
.....
...
...
....
.
.
...
..
.
...
.
..
...
.
.
...
..
.
.
.
.
...
....
.
...
.
.
..
.
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...........
...
...
.
......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...................
.....
....
.
.
.....
.
.
....
.....
.
.
.
.
.....
...
.
.
.
......
.
.
....
.
......
.
.
.
.
.......
....
.
.
.
........
.
.
....
.
...........
.
.
.
.
.
.
..............
.....
.
.
.
.
.
.
.
.....
.
.
.
.
.
...
..........................................................................................................................................................................................................................................................................................................................................................
a
g(x)
b
X
Formal :
Z
P ( X ∈ [ a, b ] ) = P ( a ≤ X ≤ b ) =
b
g(x) dx
a
1.3
EF16
49
Eigenschaften von Dichten und stetigen Verteilungen
.................
.....
.....
.....
....
.....
...
...
...
.
.
...
...
.
...
.
.
...
.
.
..
.
...
.
.
.
...
...
.
.
.
.
...
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...........
....
...
......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..............
.....
....
.
.
.....
.
.
....
.....
.
.
.
.
.....
...
.
.
.
......
.
.
....
.
......
.
.
.
.
.......
....
.
.
.
........
.
.
.....
............
.
.
.
.
.
.
.
...............
.....
.
.
.
.
.
.
.
..
.
.
.
.
.
.
..........................................................................................................................................................................................................................................................................................................................................................
g(x)
X
→ Die Gesamtfläche unter g muss 1 sein
− Sie ist die W., dass X irgendeinen Wert annimmt
→ Die W. für jeden konkreten Wert a ist 0
..
..
...
..
.
.........
...... ..........
.....
....
.....
...
...
....
.
.
...
...
...
.
..
...
.
.
...
..
.
.
.
.
...
....
.
...
.
.
..
.
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...........
...
...
.
......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...................
.....
....
.
.
.....
.
.
....
.....
.
.
.
.
.....
...
.
.
.
......
.
.
....
.
......
.
.
.
.
.......
....
.
.
.
........
.
.
....
.
...........
.
.
.
.
.
.
..............
.....
.
.
.
.
.
.
.
.....
.
.
.
.
.
...
..........................................................................................................................................................................................................................................................................................................................................................
a
g(x)
X
4 Die Fläche ‚ entartet ‘ zu einer Strecke
B ‚ Wahrscheinlichkeit 0 ‘ heißt nicht ‚ unmöglich ‘
1.3
EF16
50
→ Zwei Klassen von Verteilungen
Diskrete Verteilungen
− Gekennzeichnet durch W-Funktion
p
r
r
...
...
...
.
r
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
.
r
...
...
...
...
...
...
...
...
r
...
...
...
.
r
...
..
X
− Höchstens abzählbar viele mögliche Werte
− Ermittlung von Wahrscheinlichkeiten durch Summation
Stetige Verteilungen ( mit Dichte )
− Gekennzeichnet durch Dichte
.......
...... ...........
.....
.....
.....
...
....
...
.
.
...
...
...
...
.
...
.
...
...
.
.
.
...
..
.
.
.
.
...
...
.
.
.
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...........
...
......
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
......................
.....
.....
.
.
.
.....
.
...
.
.
.....
.
.
.
...
.....
.
.
.
.
.
......
....
.
.
......
.
.
.
.......
....
.
.
.
.
.
........
....
.
.
............
.
.
.
.
.
...............
.....
.
.
.
.
.
.
.
.
.
.
..
.
.....
..........................................................................................................................................................................................................................................................................................................................................................
g(x)
X
− Überabzählbar unendlich viele mögliche Werte
− Ermittlung von Wahrscheinlichkeiten durch Integration
− Alle möglichen Werte haben Wahrscheinlichkeit 0
1.3
EF16
51
→ t -Verteilungen
B Eine wichtige Klasse von stetigen Verteilungen
Charakterisiert durch die sogenannten Freiheitsgrade
df : ‚ degree of freedom ‘ ( Freiheitsgrad )
→ Für jedes n ≥ 1 gibt es eine t -Verteilung mit n df
Bezeichnung : tn
? Beispiele für tn -Dichtefunktionen :
t100
.
.......
..........
..
...
....
...
...
...
.
...
.
..
.
...
...
...
...
.
...
...
...............................................................
.
.
.
.
.
.
.
.
.
.
.
..
.............. ............. .........................
...
...
..
..
..
............
...
...
.......... ......... .... ............... ....................
...
...... .......... .....
........... ......
...
...
..... .............
.............. ...........
.
.
.
.
.
.
.
.
.
.
..... ...........
.
........ ....
...
..... .........
..................................
........... .....
...
..... .........
......
.......
..
.
.......... .....
..... ..........
...
.....
...
......
.......... .....
..... .......... .....
...
.....
.....
........... .........
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..... ...........
.....
...
.
...
.
.......... ......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.....
..... ............
...
.....
.......... .....
.....
..... ..........
....
.....
........ .....
...
..... .........
.....
...
.....
........ ....
..... ......... .....
.....
.....
........ .....
...
.....
..... .............
.....
.....................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.....
.................
...... ...
.....
.....
.
....
......... .....
..... ..............................
.....
...
.......... .....
........ .... ..........
.....
.......... .....
..... ........
......
.....
...
. ..
................... ..........
.
.
.
.
.
.
.
.
.
.
.
...... ......................
.
...........
..
......
......
....
....... .....................
................ ............
.
.
.
.
.
.
....... ...........
.
.......... ............
.
.
........ .....
.
.
.
.
.
........ ........
... ...........
.
.
.
.
.
.
.
.
......................
. .
.........................
.......................
....
.........................
..................................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.............................
.
............................
.
.
.
.
.
.
.
.
.
.
.................................................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
................. ..... ...
..................... .............................................
....
................................................................................................................
.......................... .......................
. .................................
.
.....................................
.
.
..
................................
....................................
....
t10
t3
t1
0.10
1
1.3
X
EF16
52
α-Fraktile
♣ Gegeben : Stetige Zva X mit Dichte g
♦ Def.: Das α-Fraktil der Verteilung von X ist der Wert , der
‚ von der Verteilung rechts α abschneidet ‘
g(x)
.................
.....
.....
.....
....
.....
...
...
...
.
.
...
...
.
...
.
.
...
.
.
..
.
...
.
.
.
...
...
.
.
.
.
...
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...........
...
.....
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.............
.....
....
.
.
.
.....
.
.
....
.....
.
.
.
.
.....
...
.
.
.
......
.
.
....
.
.......
......
.
.
.
.
....... ......................
....
.
.
.
.
.
..............
.....
.
.
.
.
.
.
.
............ ........................
.....
.
.
.
.
.
.....
.
.
.
.
.
.
.
.
.............................................................................................................................................................................................................................................................................................................................................................................................
...
...
....
..
......
.. ........... α
......................................
X
α-Fraktil
4 α-Fraktile sind meistens tabelliert
Das α-Fraktil der tn -Verteilung heißt tn; α
1.3
EF16
53
? Ausschnitt aus einer möglichen Tabelle mit t-Fraktilen
α-Fraktile der tn -Verteilungen ( tn; α )
n\α
.100
.050
.025
.010
57
58
59
60
61
1.2966
1.2963
1.2961
1.2958
1.2956
1.6720
1.6716
1.6711
1.6706
1.6702
2.0025
2.0017
2.0010
2.0003
1.9996
2.3936
2.3924
2.3912
2.3901
2.3890
? Beispiel : t59; .025 = 2.0010
...
......
.........
....
...
...
...
.
.
.
.
.
.
.......... .........................
.
.
.
.
.
.
......
....
.
.
.
......
.
....
.
....
.....
.
.
.
...
.
.....
.....
.....
...
.....
.
.....
.
.
.
.
.
.....
.
....
.
.
.
.
.
.....
.
..
.
.
.
.....
.
.
.
.
.....
....
.
.
.
.
.
.....
.
...
.
.
.
.
.
.....
.
...
.
.
.....
.
.
.
.
...
.....
.
.
.
.
.
.....
.
...
.
.
.
.
.
.....
.
...
.
.
.
.....
.
.
.
..
.
.....
.
.
.
.
.
.
.....
....
.
.
.
.
.
.....
..
.
.
.
.
.
.....
.
.
...
.
.
.....
.
.
.
.
.
.....
.
...
.
.
.
.
.
.....
.
...
.
.
.
.....
.
.
.
.
.....
.
...
.
.
.
.
.
.
.....
.
....
.
......
.
.
.
.
.
...
.
......
.
.
.
.
.
.
.
......
.
....
.
.
.
.
......
.
.
.
...
.
...
.
.......
.
.
.
.
.
.
.
.....
........
....
.
.
.
.
.
.
.
.
.....
.........
.
.
.
.
......
.
.......... ........
.
.
.
.
.
.
.
.
.
.
.....................
.......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...........................
............................
...
...
....
...
...
..
t59
..............025
.....................
0.10
1
X
2.0010
1.3
EF16
54
→ Vertrauensintervall für µ
VI : Vertrauensintervall
→ Das VI soll µ mit einer vorgegebenen W. ‚ überdecken ‘
Diese W. nennt man üblicherweise 1 − α
Das VI heißt dann auch (1 − α) - VI
? Beispiel : Vorgegebene W. : .95 ↔ 95%
− Dann : α = .05
Das VI heißt dann auch 95% - VI ( .95 - VI )
♣ Gegeben : Zva X mit E(X) = µ ( unbekannt )
− Dazu Stichprobe vom Umfang n
− Mittelwert : M ,
korrigierte Stichprobenstreuung : s
♦ Für gegebenes α nennt man das Intervall
√
√ M − tn−1; α/2 · s/ n , M + tn−1; α/2 · s/ n
auch (1 − α) - t - VI für µ
1.3
EF16
55
• Unter gewissen Voraussetzungen ist die Wahrscheinlichkeit
dafür , dass das (1 − α) - t - VI für µ das unbekannte µ
tatsächlich enthält , gleich (1 − α)
4 Dann trägt das VI also seinen Namen ‚ mit vollem Recht ‘
! Praktisch sind die Voraussetzungen eigentlich nie erfüllt
B Trotzdem gilt die W-Aussage sehr oft näherungsweise
? Beispiel :
− 60 Mal Würfeln liefert M = 3.317 , s = 1.568
? Gesucht : 95% - t - VI für µ
→ VI ist
√
√ M − tn−1; α/2 · s/ n , M + tn−1; α/2 · s/ n
t59; .025 = 2.001
√
√
tn−1; α/2 · s/ n = 2.001 · 1.568/ 60 = .405
→ VI : ] 3.317 − .405 , 3.317 + .405 [ = ] 2.912 , 3.722 [
4 Hier ist µ = 3.5
1.3
EF16
56
? Beispiel : 95% - t - VIe aus 79 Experimenten à 60 Mal Würfeln
µ
1
2
...
...
...
...
...
...
..
..............................................................
......................................................................
.................................................................
.................................................................
..................................................................
....................................................................
............................................................
..................................................................
..............................................................
................................................................
..................................................................
........................................................................
............................................................
.
.....................................................................
..............................................................
.................................................................
..................................................................
....................................................................
.
........................................................................
......................................................................
....................................................................
...................................................................
.................................................................
....................................................................
.....................................................................
...............................................................
.................................................................
.
.....................................................................
................................................................
.............................................................
..................................................................
...................................................................
...................................................................
....................................................................
......................................................................
................................................................
................................................................
.................................................................
.
..............................................................
......................................................................
.....................................................................
...................................................................
................................................................
.
....................................................................
..................................................................
.......................................................................
...................................................................
...................................................................
......................................................................
.......................................................................
..........................................................
................................................................
......................................................................
.
..................................................................
...............................................................
...
..............................................................
.
....................................................................
.
.....................................................................
.......................................................................
...........................................................
..............................................................
..........................................................................
................................................................
................................................................
..................................................................
.................................................................
... ...........................................................
.
..............................................................
.....................................................................
.................................................................
...................................................................
...............................................................
..................................................................
....................................................................
......................................................................
..................................................................
.....................................................................
....................................................................
...................................................................
..
3
r
r
r
r
r
r
r
r
r
4
r
r
r
r
!
r
!
r
r
r
r
r
r
r
r
r
r
r
r
r
r
r
r
r
r
r
r
r
r
r
r
r
r
r
r
r
r
!
r
r
r
r
r
r
r
r
r
r
r
r
r
r
X
r
r
r
r
r
r
6
r
r
r
r
r
r
r
r
r
5
r
r
r
r
!
r
r
4 2/79 ↔ 2.53% liegt im ‚ Toleranzbereich ‘ für .05 ↔ 5%
4 Kein Hinweis auf ‚ gravierende Verletzung ‘ des ‚ Niveaus ‘ 95%
1.3
EF16
57
→ VI und SEM
(1 − α) - t - VI :
√
√ M − tn−1; α/2 · s/ n , M + tn−1; α/2 · s/ n
√
s/ n = SEM
(1 − α) - t - VI also auch :
M − tn−1; α/2 · SEM , M + tn−1; α/2 · SEM
→ (1 − α) - t - VI ist ‚ M ± SEM ‘ , vergrößert um Faktor tn−1; α/2
4 ‚ M ± SEM ‘ ist ‚ eine Art Schablone ‘ für die t - VIe
− ‚ Vergrößerungsfaktor ‘ für (1 − α) - t - VI : tn−1; α/2
B Grobe Regel ( n nicht zu klein ) :
−
Vergrößerungsfaktor für 95% - t - VI ist etwa 2
B Breite des VI
−
wird mit Niveau (1 − α) größer
−
wird ‚ im Durchschnitt ‘ mit n kleiner
√
→ Wesentlicher Faktor : 1/ n in SEM
?
1.3
n 4-mal so groß →
Breite etwa 1/2-mal so groß etc.
EF16
58
? Beispiel : X : Fehlerzahl in Reaktionsexperiment
− Daten ( n = 20 ) → M = 2.05 ,
SEM : .2233
→ Ziel : (1 − α) - t - VIe für α = .05 , .01
t19; .025 = 2.0930 ,
t19; .005 = 2.8609
.5
r.H.
.4
.3
.2
.1
.0
M ± SEM :
95% - t - VI :
99% - t - VI :
1.3
0
1
5
.....
...
......................
...
...
...
...
..
..
..
..
..
..
..
..
..
..
..
..
..
..
..
..
..
..
..
..
..
..
..
..
..
..
..
..
..
..
..
..
..
..
X
r
......t....
........t.....
( Faktor : 2.0930 )
( Faktor : 2.8609 )
EF16
59
→ Ergebnisdarstellung mit VI ( unüblich )
? Beispiel : Fehlerzahl in Reaktionsexperiment
− Bedingungen : N ( nüchtern ) A ( Alkohol )
− Je 20 Vpn
− Mittelwerte ( SEM ) :
N : 2.05 ( .2233 ) ,
A : 2.85 ( .3267 )
→ Ergebnisdarstellung ( M ± SEM ) :
X
1
.
.......
........
....
...
..
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
....
.................
..
..
...
..
................
r
.................
....
.
.................
r
N
A
UV
→ Ergebnisdarstellung ( 95% - t - VI ) :
X
1
........
.........
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
.
..t
..
............
............
............
N
1.3
..
..t
..
............
A
UV
EF16
60
→ Interpretation des VI
? X : Fehlerzahl in Reaktionsexperiment ( E(X) = µ )
− 20 Durchgänge liefern M = 2.05 , SEM : .2233
95% - t - VI für µ : ] 1.58 , 2.52 [
Versuch einer Interpretation :
− Die W., dass sich µ in dem Intervall ] 1.58 , 2.52 [ befindet , ist
etwa 95%
‚ etwa ‘ wegen fehlender Voraussetzungen
→ Die ‚ Interpretation ‘ bezieht sich auf ein ‚ konkretes ‘ schon
eingetretenes ‚ Ereignis ‘
!
Die ‚ Interpretation ‘ ist Unsinn
B Vgl. S. 57
→ Mögliche Interpretation :
− Das Intervall ] 1.58 , 2.52 [ wurde nach einem Verfahren
konstruiert, das ( unter gewissen Voraussetzungen ) mit einer
W. von 95% ein Intervall liefert, das µ enthält
4 Hier bezieht sich die W-Aussage auf das Verfahren ( ‚ abstrakt ‘ )
1.3
EF16
61
Zur Interpretation
Richtig ist folgende Aussage :
− Die W., dass das sich µ in dem Intervall
√ √
M − tn−1; α/2 · s/ n , M + tn−1; α/2 · s/ n
befindet , ist etwa 1 − α
B Hier sind M und s gewissermaßen Zvan
− Das Intervall ist noch ‚ zufallsabhängig ‘ ( ‚ abstrakt ‘ )
→ Unsinnig wird die Aussage beim Einsetzen konkreter Werte
B Verwechslung von Zvan mit konkreten Werten
1.3
EF16
62
Ergänzung zu ‚ etwa ‘
? Wie groß ist die W. , dass das 95% - t - VI µ enthält, wirklich ?
? Antwortversuche für das Beispiel ‚ 60-mal Würfeln ‘
→ Zwei Zugangsweisen : Exakt Rechnen und Simulieren
→ Exakt Rechnen
Auflisten aller möglichen Serien von 60 Würfen
Jeweils Bestimmung des zugehörigen VI
Auszählen , wie oft diese VIe den Wert µ = 3.5 enthalten
→ Gesuchte W. ist
Anzahl ‚ günstiger ‘ Serien
Anzahl aller Serien
B Hier sind alle Serien gleich wahrscheinlich
→ Konkret :
Anzahl der Serien ist 660 =
48 873 677 980 689 257 489 322 752 273 774 603 865 660 850 176
Benötigte Zeit ( in Jahren à 365 ) bei 5000 Serien pro Sekunde :
309 954 832 449 830 400 109 860 174 237 535 539
1.3
EF16
63
→ Exakt Rechnen – etwas intelligenter
Statt Serien : bereits mögliche Häufigkeitsverteilungen
Anzahl der möglichen Verteilungen :
65
65 !
= 8 259 888
=
5 ! · 60 !
5
Benötigte Zeit ( bei 5000 Verteilungen/sec ) : etwa 30 Minuten
Mögliche Speicherprobleme
Immerhin : Exakte Rechnung für kleinere Serien machbar
→ Resultat :
1
...........
p
.95
r
r
r
r
r
r
r
r
r
r
r
r
r
r
r
...................................................................................................................................................................................................................................................................................................................................
r
.9
r
r
...........
.85
...........
r
...........................................................................................................................................................................................................................................................................................................................................................................................................................................
...
...
...
...
...
..
..
..
..
..
1
5
10
15
20
n
− p : W., dass das 95% - t - VI µ enthält
− n : Seriengröße
1.3
EF16
64
Ergänzung zu ‚ etwa ‘
? Wie groß ist die W. , dass das 95% - t - VI µ enthält, wirklich ?
→ Zugangsweise : Simulieren
4 Vorteil : Simulieren kann ‚ jeder ‘
♠ Prinzip :
Führe Versuch sehr oft durch
−
bei gegebener Verteilung – und ‚ virtuell ‘
Ermittle die relative Häufigkeit h ‚ günstiger ‘ Ergebnisse
→ Benutze h als Schätzer für die gesuchte W.
? Hier :
Erzeuge sehr viele Serien von 60 Würfen
Bestimme die relative Häufigkeit h , mit der das VI µ enthält
→ Schätze das ‚ wahre ‘ Konfidenzniveau durch h
1.3
EF16
65
‚ Virtuelles ‘ Würfeln
Durch geeignete Computerprogramme
4 Kleines Problem : Computer arbeiten ‚ deterministisch ‘
− Ergebnis : nur ‚ Pseudozufallszahlen ‘
− Vom ‚ wirklichen ‘ Zufall ( hoffentlich ) nicht unterscheidbar
? Kontrolle : Häufigkeitsverteilung von 10 000 simulierten Würfen
r.H.
.20
.15
.10
.05
.00
1
2
3
4
5
6
→ Der ‚ Computerwürfel ‘ scheint zu funktionieren
4 Verbrauchte Zeit : < .02 sec
? Beispiel : Zwei Simulationen von 60 Würfen :
3 2 2 3 2 6 4 5 2 5 2 1 4 1 1 5 6 3 5 1 1 6 2 1 3 3 2 2 1 4
2 3 1 6 1 5 5 2 2 2 4 3 1 5 3 3 1 5 5 6 2 1 4 3 3 5 2 3 1 5
2 2 3 5 6 3 3 3 6 1 4 2 4 1 4 2 1 1 5 5 1 5 4 3 5 3 5 5 5 4
5 4 1 5 3 3 2 2 2 3 5 4 4 4 1 2 4 6 4 3 6 4 4 4 6 1 1 2 4 5
B Der Zufall sieht oft nicht nach Zufall aus
4 Auch nicht in der Realität
1.3
EF16
66
→ Weitere Kontrolle der Simulation
? Wie groß ist die W. , dass das 95% - t - VI µ enthält, wirklich ?
Vergleich von Simulationsergebnissen mit der wahren W.
Größe der Serie : 20
Wahre W. : .9485
Mehrere Simulationen von je 10 000 Serien liefern
.9517 , .9515 , .9505 , .9436 , .9483 , .9499 , .9486
→ Hinweis auf Brauchbarkeit der Simulation
4 Rechenzeit pro Simulation : Etwa 1.8 sec
4 Aufgaben pro Simulation :
− 10 000 Serien von je 20 Würfen erzeugen
− Daraus die ( 10 000 ) VIe bilden
− Feststellen der relativen Häufigkeit , mit der sie 3.5 enthalten
→ Nun endlich : Anfangsfrage :
Größe der Serien : 60
Mehrere Simulationen von je 10 000 Serien liefern
.9494 , .9508 , .9495 , .9504 , .9476 , .9485 , .9514
→ Dem VI scheint man einigermaßen trauen zu können
1.3
EF16
67
Hypothesentesten.
? Beispielfragestellung :
? Senkt Alkohol die Reaktionsleistung ?
→ Durchführung einer geeigneten Untersuchung
Festlegung : Wie wird Reaktionsleistung gemessen ?
? Beispielsweise durch Fehlerzahl X in Reaktionsexperiment
Festlegung : Welche Bedingungen werden verglichen ?
? Beispielsweise Nüchternheit ( N ) und 20 g Alkohol ( A )
→ Also :
− UV : Trunkenheitsgrad T mit zwei Stufen : A und N
− AV : Fehlerzahl X mit möglichen Werten 0, 1 . . . , 5
Festlegung : Wie viele Vpn ?
? Beispielsweise 20 pro Bedingung
Weitere Festlegungen
? Beispielsweise : Was für Vpn ? Wann ? Wo ?
1.4
EF16
68
→ Formulierung der Hypothesen
→ Unterscheide :
Inhaltliche Hypothese ↔ Statistische Hypothesen
Inhaltliche Hypothese :
− Alkohol erhöht die Fehlerzahl
→ Ziel : ‚ Ableitung ‘ von statistischen Hypothesen
Bezeichnungen :
−
µ1 : Erwartungswert von X in Bedingung N
−
µ2 : Erwartungswert von X in Bedingung A
4 Formulierungen etwas unsauber
Entsprechung der inhaltlichen Hypothese : µ2 > µ1 ( H1 )
Formulierung einer Art ‚ Gegenteil ‘
Beispielsweise : µ2 = µ1 ( H0 )
→ Ergebnis : Hypothesenpaar
H0 : Nullhypothese ,
H1 : Alternativhypothese
B Normalerweise ‚ wird ‘ die inhaltliche Hypothese zur H1
1.4
EF16
69
Statistische Hypothesen :
H0 : µ2 = µ1
H1 : µ2 > µ1
→ Ziel : ‚ Entscheidung ‘ zwischen diesen Hypothesen
B Die Entscheidung beruht auf Daten
− Die Daten enthalten ‚ Zufallskomponenten ‘
→ Es ist mit Fehlentscheidungen zu rechnen
„ H0 “ : Entscheidung für H0
„ H1 “ : Entscheidung für H1
Typen von ‚ Fehlern ‘
Entscheidung
Wahr ist
H0
H1
α : W. des Fehlers 1. Art
β : W. des Fehlers 2. Art
1.4
„ H0 “
„ H1 “
korrekt
Fehler 1. Art
Fehler 2. Art
korrekt
EF16
70
→ Gesucht : Entscheidungsregel
→ Forderung :
− Die W. des Fehlers 1. Art soll klein bleiben
→ Genauer :
− Es wird eine obere Grenze dafür vorgegeben
♦ Diese Grenze heißt auch Signifikanzniveau
Bezeichnung meist α
B Doppeldeutigkeit von α
−
‚ W. des Fehlers 1. Art ‘ und ‚ Signifikanzniveau ‘
→ Bedeutung ergibt sich jeweils aus dem Kontext
Sinnvoll wären Zusätze :
−
→
−
‚ Fehler-W. α ‘ , ‚ Signifikanzniveau α ‘
Hier gilt zunächst meistens :
α ist die maximal zulässige W. des Fehlers 1. Art
4 In vielen Fällen ist dies α auch die tatsächliche Fehler-W.
!
1.4
Bezeichnungen sind leider uneinheitlich
EF16
71
→ Gesucht : Entscheidungsregel
4 Entscheidungsregeln benutzen meist sogenannte Teststatistiken
Hier soll ein sogenannter t - Test durchgeführt werden
− Genauer : t - Test ‚ für zwei unabhängige Stichproben ‘
♣ Bezeichnungen ( allgemein ) :
−
n1 , n2 : Größen der beiden Stichproben
−
M1 , M2 : Mittelwerte von X in den Stichproben
−
s21 , s22 : zugehörige korrigierte Stichprobenvarianzen
−
n := n1 + n2 : Gesamtstichprobengröße
Teststatistik für den t - Test :
t := s
M2 − M1
n1 + n2
n1 n2
s
(n1 − 1) s21 + (n2 − 1) s22
n1 + n2 − 2
→ Entscheidungsregel :
− Verwirf H0 , falls t ≥ tn−2; α
4 Verwerfen von H0 bedeutet Entscheidung für H1
1.4
EF16
72
? Beispiel : ( Erhöht Alkohol die Fehlerzahl ? )
Daten aus den beiden Gruppen ( n1 = n2 = 20 ) liefern
−
M1 = 2.05 , s21 = .9974
−
M2 = 2.85 , s22 = 2.1342
X
1
.
.......
........
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
.
.................
...
..
...
..
................
r
................
....
..
................
r
N
A
T
Rechnung :
t = s
= r
M2 − M1
n1 + n2
n1 n2
s
(n1 − 1) s21 + (n2 − 1) s22
n1 + n2 − 2
2.85 − 2.05
= 2.0217
r
20 + 20 19 · 0.9974 + 19 · 2.1342
20 · 20
38
t38; .05 = 1.6860
→ H0 kann verworfen werden ( α = .05 )
1.4
EF16
73
→ Untersuchung der t - Statistik
t = s
M2 − M1
n1 + n2
n1 n2
Zähler : M2 − M1
s
(n1 − 1) s21 + (n2 − 1) s22
n1 + n2 − 2
( Mittelwertdifferenz )
Nenner – Bestandteile :
Zweiter Bestandteil :
(n1 − 1) s21 + (n2 − 1) s22
n1 + n2 − 2
s2 :=
Gewichtetes Mittel aus s21 und s22
Gewichte : ( ni − 1 ) / ( n1 + n2 − 2 )
√
s := s2
Erster Bestandteil :
n1 + n2
1
1
=
+
n1 n2
n1
n2
4 Spiegelt die Stichprobengrößen wider – vgl. SEM
→ Insgesamt : Nenner ist eine Art Streuungsmaß
1.4
EF16
74
→ Untersuchung der t - Statistik
t = s
B
M2 − M1
n1 + n2
n1 n2
s
(n1 − 1) s21 + (n2 − 1) s22
n1 + n2 − 2
t wird groß
− bei großer Mittelwertsdifferenz M2 − M1
− bei kleinen Varianzen s2i
− bei großen Stichprobengrößen ni
→ Große Werte von t sprechen für H1
→
t erscheint als ‚ vernünftige ‘ Statistik
→ Als ‚ sinnvoll ‘ erscheint die Entscheidungsregel :
− Verwirf H0 für hinreichend große Werte von t
? Was heißt ‚ hinreichend groß ‘ ?
? Wo ist die Grenze ?
Die Grenze heißt auch kritischer Wert
Abkürzung : k
1.4
EF16
75
→ Bestimmung des kritischen Werts
• Unter geeigneten Voraussetzungen :
− Falls H0 gilt, so hat t eine tn−2 - Verteilung
.....
..........
...
....
.................................................
.
.
.
.
.
.
.
.
........
.....
.
.
.
.......
.
.
....
.
......
......
...
......
......
......
......
...
......
......
.
.
.
.
.
.
......
.
...
.
.
.
.
......
.
.
.
.
......
.....
.
.
.
.
.
.
......
.
...
.
.
.
.
......
.
.
.
.
....
......
.
.
.
.
.
.
.
......
.
....
.
.
.
.
.......
.
.
.
.
.....
.......
.
.
.
.
.
.
.
.......
.
....
.
.
.
.
.
.
........
.
.
.
....
.
.
........
.
.
.
.
.
.
.
.........
.
......
.
.
.
.
.
.
.
...........
.
.
.
.
......
.
.
.
..............
.
.
.
.
.
.
.
.
.
.
..................
.
..........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
....................................
.
.
.
.
.
.
.
.
.............................
..
tn−2
0.10
t
1
Gesuchte Entscheidungsregel bis jetzt :
− Verwirf H0 , falls t ≥ k ( noch unbekannt )
Unter H0 gilt :
− Der Fehler 1. Art tritt auf genau dann, wenn t ≥ k gilt
→ Die W. eines Fehlers 1. Art ist die W. für t ≥ k
→ Diese W. wird α genau für k = tn−2; α
.
......
.........
..
...
.
..............................................
.
.
.
.
.
.
.
.
.
........
......
.
.
.
.......
.
.
....
.
....
.......
.
.
.
.
.
...
.
......
..
......
......
...
......
......
.
.
.
.
.
.
......
.
....
.
.
.
......
.
.
.
.
...
.
......
.
.
.
.
.
.
......
.
....
.
.
.
.
.
......
.
.
.
....
.
......
.
.
.
.
.
.
......
.
....
.
.
.
.
.
.......
.
.
.
....
.
.
.
.......
.
.
.
.
.
.......
....
.
.
.
.
.
.
.
.
........
.
.
.....
.
.
........
.
.
.
.
.
.
....
.........
.
.....
.
.
.
.
.
.
.
.
.
........... ..........
.
......
.
.
.
.
.
.. .
.
.
.
.
.
.
.
.
.
....................................
..........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..................................
.................................
..
....
...
..
tn−2
0.10
1
..............α...
............. ..t..........
tn−2; α
→ Damit ist tn−2; α in der Tat der geeignete kritische Wert
1.4
EF16
76
Leider sind die ‚ geeigneten Voraussetzungen ‘ hier nicht erfüllt
? Darf man den t - Test trotzdem durchführen ?
B Ja , denn die Erfahrung zeigt :
− Der t - Test ist recht robust
♦ Das heißt :
− Bei nicht allzu gravierenden Verletzungen der Voraussetzungen
ist die tatsächliche W. eines Fehlers 1. Art immer noch etwa
gleich dem Signifikanzniveau α
4 Rechtfertigung beispielsweise mit Simulationen
? Beispiel einer solchen Simulation
Erster Schritt : Festlegung von konkreten Verteilungen
− Genauer : Verteilung von X in den Bedingungen N und A
→ Hier soll H0 gelten
? Eine mögliche Wahl : Gleiche Verteilung in N und A , nämlich
x
0 1
2
3 4 5
P ( X = x ) .1 .15 .35 .25 .1 .05
Wegen gleicher Verteilung : Insbesondere µ1 = µ2
1.4
EF16
77
Beispiel : Wahl der gleichen Verteilung in N und A :
p
.4
.2
.0
r
...
...
...
.
r
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
.
...
...
...
...
...
...
...
...
...
...
...
.
...
..
0
1
2
3
4
5
r
r
r
r
X
? Beispiel : Eine Simulation für diese Situation
N : 2, 3, 3, 1, 1, 1, 0, 2, 4, 0, 4, 2, 2, 0, 3, 4, 5, 2, 0, 3
A : 1, 1, 1, 2, 3, 2, 2, 1, 2, 2, 2, 3, 3, 1, 2, 2, 2, 1, 3, 2
Kennwerte : M1 = 2.1 , S12 = 2.19 , M2 = 1.9 , S22 = .49
t = −0.533
Zweiter Schritt :
− Eigentliche Simulation : 10000 solche virtuellen Stichproben
Ergebnis : 522 der 10000 t - Werte sind ≥ t38; .05 = 1.686
→ Relative Häufigkeit : .0522
Weiter Simulationen liefern .0496 , .0477 , .0514
→ Hier scheint der t - Test in Ordnung
4 Mögliche Rechtfertigung für den untersuchten Fall :
− Viele andere Simulationen mit anderen ‚ H0 - Verteilungen ‘
− Oder eben : Berufung auf die Erfahrung
1.4
EF16
78
→ Diskussion möglicher Testergebnisse
B Zwei Möglichkeiten : t ≥ tn−2; α und t < tn−2; α
Erster Fall : t ≥ tn−2; α
Sprechweisen :
Das Ergebnis ist signifikant ( auf dem Niveau α )
t ist signifikant ( auf dem Niveau α )
→ Entscheidung für H1
B ( Teilweise ) Rechtfertigung :
− Beschränktes Risiko einer Fehlentscheidung , falls H0 gilt
α heißt gelegentlich auch Irrtumswahrscheinlichkeit
Sprechweise dann :
Entscheidung für H1 bei Irrtumswahrscheinlichkeit α
Versuch einer Interpretation eines signifikanten Ergebnisses
− Ich entscheide mich für H1 . Die Wahrscheinlichkeit, dass ich
mich irre, ist höchstens ( etwa ) α.
! Unsinn aus den bekannten Gründen
! Statistische Termini darf man fast nie ‚ wörtlich‘ nehmen !
1.4
EF16
79
→ Diskussion möglicher Testergebnisse
Zweiter Fall : t < tn−2; α
♦ Das Ergebnis ist nicht signifikant
→ Entscheidung für H0
? Rechtfertigung ?
4 Eine Rechtfertigung müsste auf β Bezug nehmen
Über β lässt sich meist keine brauchbare Aussage machen
− Insbesondere könnte β oft womöglich ziemlich groß sein
Entscheidung für H0 lässt sich meist nicht rechtfertigen
− Jedenfalls nicht statistisch
→ Daher : Korrektur des Entscheidungsverfahrens
−
Signifikantes Ergebnis → Entscheidung für H1
−
Kein signifikantes Ergebnis → keine Aussage
Sprechweise bei nichtsignifikantem Ergebnis :
−
H0 kann nicht verworfen werden
! Sehr oft wird falscher Eindruck suggeriert
1.4
EF16
80
→ Untersuchung von β
4 Eigentlich müsste β neu definiert werden :
♦ W. eines nichtsignifikanten Ergebnisses , falls H1 gilt
β kann ( im Prinzip ) bestimmt werden
−
falls die Verteilungen von X1 , X2 unter H1 spezifiziert werden
4 Meist sind viele Verteilungen mit H1 verträglich
H1 heißt dann zusammengesetzt
− Gegensatz : einfach
( oder : unexakt )
( oder : exakt )
? Im betrachteten Fall sind beide Hypothesen zusammengesetzt
B
β ist abhängig von
− dem Signifikanzniveau α
− den tatsächlichen Verteilungen von X
− den Stichprobengrößen
Sprechweise auch : β ist eine Funktion von . . .
4 Abhängigkeit von den ‚ tatsächlichen Verteilungen ‘
→ Hier genauer :
− von den Verteilungen von X in den Bedingungen N und A
1.4
EF16
81
→ Untersuchung von β
→ Hier beispielhaft mit Hilfe von Simulationen
→ Zu spezifizieren sind
−
α
− die Verteilungen von X für N und A
− die Stichprobengrößen
? Vergleichsbeispiel :
−
α = .05
− Verteilung von X1 ( X unter N ) :
x
0 1
2
3 4 5
P ( X1 = x ) .1 .15 .35 .25 .1 .05
− Verteilung von X2 ( X unter A ) :
x
0 1 2 3 4 5
P ( X2 = x ) .05 .1 .25 .3 .2 .1
µ1 = 2.25 , µ2 = 2.8
−
→ H1 gilt
n1 = n2 = 20
? 10000 Simulationen liefern 6101 nichtsignifikante Ergebnisse
→ Relative Häufigkeit : .610
→ Hinweis auf ein großes β
1.4
EF16
82
β ist abhängig von α
Je größer α
− um so kleiner der kritische Wert
− um so größer die Chance auf ein signifikantes Ergebnis
− um so kleiner β
?
Beispiel : α = .1 statt .05
Kritischer Wert : t38; .1 = 1.304 ( statt 1.686 )
? Jetzt 4695 nichtsignifikante Ergebnisse ( statt 6101 )
β ist abhängig von der Verteilung
Größere Unterschiede in den Verteilungen sollten
− eher zu signifikanten Ergebnissen
− also zu kleinerem β führen
? Beispiel : Änderung der Verteilung von X2 zu
x
0
1 2 3
4 5
P ( X2 = x ) .05 .05 .1 .15 .25 .4
µ2 ist jetzt 3.7 ( statt 2.8 )
? Jetzt 652 nichtsignifikante Ergebnisse ( statt 6101 )
1.4
EF16
83
β ist abhängig von der Stichprobengröße
Je größer die Stichproben
− um so genauer die Schätzungen
− um so größer sollte die Chance auf ein signifikantes Ergebnis
− und um so kleiner β werden
? Beispiel 1 : n1 = n2 = 5 ( statt 20 )
Kritischer Wert : t8; .05 = 1.860 ( statt 1.686 )
? Jetzt 8336 nichtsignifikante Ergebnisse ( statt 6101 )
? Beispiel 2 : n1 = n2 = 100 ( statt 20 )
Kritischer Wert : t198; .05 = 1.653 ( statt 1.686 )
? Jetzt 858 nichtsignifikante Ergebnisse ( statt 6101 )
1.4
EF16
84
→ Power
♦
( 1 − β ) heißt auch Power ( Güte ) des Tests
4 Die Power ist die W. für „ H1 “ , falls H1 gilt
− oder : die W. , mit der H1 sich durchsetzt
• Die Power wird größer
− bei größerem Signifikanzniveau α
− bei größerer Verschiedenheit der Verteilungen
− mit wachsenden Stichprobengrößen
4 Hier gilt sogar :
− Power → 1 für n1 , n2 → ∞
B Etwas ungenau :
− Mit wachsendem n wird alles signifikant
→ Natürlich nur , wenn H1 gilt
! Gefahr korrekter , aber irrelevanter Ergebnisse
Signifikanz 6= Relevanz
1.4
EF16
85
→ Idealfall , graphisch
B Idealfall liegt hier nicht vor
→ Graphik dennoch nützlich
− Hoffentlich ‚ näherungsweise ‘ richtig
− Dient der Veranschaulichung
Verteilung von t unter H0 : tn−2
.
.......
..........
...
..
.....................................
........
............
.
.
.
.
.
.
.
....
.......
.....
.
.
.......
.
.
.
...
.
.
......
......
...
......
......
.
.
......
.
.
.
.
.
......
.
....
.
.
.
.
.
.
......
...
.
.
.
.
.
......
.
.
.
.
......
.....
.
.
.
.
.
.
......
...
.
.
.
.
.
......
.
.
.
.
....
......
.
.
.
.
.
.
.
......
...
.
.
.
.
.
.
.......
.
.
.
....
.
.
.......
.
.
.
.
.
.
.
.......
.
.....
.
.
.
.
.
........
.
.
.
.
.....
.
........
.
.
.
.
.
.
.
.
..........
.
......
.
.
.
.
.
.
.
...........
.
.
.
.
.
.......
.
...............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
......................
.
..........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...........................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..........
.
tn−2
t
1
? Verteilung von t unter H1 ?
→ Im Idealfall : tn−2, δ
− Nonzentrale t - Verteilung
δ : Nonzentralitätsparameter ( NZP )
→ Schaubild beispielsweise
........
.........
...
....
................................
..
.............
.........
...
.........
........
.......
...
.......
......
.
.......
.
.
.
...
.
......
....
.
.
.
...
.
......
.
.
......
... ..........
......
........
.
......
....
.
......
.
.
.
......
... ...
.
.
.
.
.
......
.
....
.
.
.
......
.
.
.
.
.......
.
....
.
.
.
.
.
.
.
.......
.
....
.
.
.
.......
.
.
.
.
.
........
....
.
.
.
.
.
.
.
.
........
.
.....
.
.
.
.
.........
.
.
.
.
.
.
.........
.....
.
.
.
.
.
.
.
.
.
.
.
......
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..........................................................................................
.
tn−2, δ
1
1.4
t
EF16
86
t - Dichten mit unterschiedlichen NZPn
.....
..........
...
....
..
.........................................................................................................................
..............................................
.
.
.
.
.
.........
... ..................
.
........ ......... ........
.
.
........
.......
.....
........
.
.......
.........
.
.
.
.
.
.
.
.
.......
.
.
...................
.......
.......
....
.
.
.......
....... ............
.
.
.
.......
.
.......
.
.
.
.
.
......
......
......
....
.... ............
.
.
.
.
.
.
.
......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
......
......
......
. ................
....
....
.....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
......
.
.
.
.
.
.
.
......
......
. ...............
...
...
...
.
.
.
......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
......
......
......
......
....
..
.
....
....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
......
.
.
.
.
.
.
.
.
.
.
.
......
.........
......
...
... ...
....
.
......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
......
......
......
... ...
... .........
....
....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
......
.
.
.
.
.
.
.
.
.
.
.
.
......
......
......
. ........
....
.......
....
....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.......
.......
......
.......
. ........
....
....
.....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.......
.......
.......
....
....
....
......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
........
........
.... ...
....
....
.....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
.........
.........
.
....
.....
.....
.....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
..........
............
..
..
...
...........
..............
...............
...........
...........
...........
....
..............
....................
.............
....................................................................................
...
.................................................
.....................
.
..
...................................
...................................................................................................................................................................................
.
1
t
4 Verformung ( nicht Verschiebung ) im Vergleich zu t - Dichte
B NZP ist ‚ Maß ‘ für Verformung
− Je größer NZP , um so stärker Verformung
4 NZP wird größer
− mit wachsender Erwartungswertdifferenz µ2 − µ1
− mit sinkender ( theoretischer ) Streuung
− mit wachsendem n
Bei Gültigkeit von H1 ( und im Idealfall ) :
− Verteilung von t ist eine der vielen tn−2, δ - Verteilungen
→ Welche genau , ist unbekannt
1.4
EF16
87
Verteilung von t unter H0 und H1
− ( eine H1 - Möglichkeit im Idealfall )
..
.......
........
....
......................................................
.................................................
..........
.........................
.........
..
........
.
........
.
... ...
.
.
.
...
.
.......
....... .............
....
.
.
.
.
.
.
.
.
.
.
.
.......
.
.
.
.......
. ..........
.....
.......
.
.
.
.
.
.
.
.
.
.
.......
.......
...
...........
.
.
.
.
.
.
.
.
.......
.
.
.
.......
.....
....
.
.
.
.
.......
.
.
.
.
.
.
.
.
.
.
.
.......
.......
.....
..... ...
.
.
.
.
.
.
.
.
.
.
.
.
.
.......
.......
.
....
....
.
.
.
.
........
.
.
.
.
.
.
.
.
.
.
.
.
.
........
........
.
....
....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
........
.
.....
.....
.
.
.
.
.
.
.
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
..........
.....
.....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...........
.
.
.
............
......
.
.......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..................
.........
.
..........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...................................
..
...
..
.....................................................................................................................................
H0
H1
t
1
Kritischer Wert k
.......
........
...
..
.
.
.
.
.... .............
...............................
.
............... ... ....................... ........................
..........
..........
.........
........ ....
.
.
.
.
.
.
.
....
........ ..
.....
....... ..............
.
.
.
.
.
.
.
.
.
.
.
.
.
......
.
.
.
.
.......
....
.
.
.....
.
.
.
.
.
.
.
.
.
.
... ...........
.
.
.
.
.......
...
.......
......
.......
...
...............
.......
.......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
.
.
.
.
.......
.......
....
.... ...
.
.
.
.
.
.......
.
.
.
.
.
.
.
.
.
...
.......
.......
.
....
.....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
.......
.
.
....
.....
.
.
.
.
.
.
.
.
........
.
.
.
.
.
.
.
.
.
.
.
.
........ .
.
....
.....
........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
.........
.....
.
.....
.
.
.
.
.
.
..........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..........
. .................
.
......
.......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...............
........
. ....
.
........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
................................
...
..............
..............
..............
....
.....................................................................................................................................
...
...
...
...
...
.
...
...
.
H0
H1
1
.........................
.......... t ....
k
α
β
.
.......
........
...
......
...
......
...
...
..
.......................................
.
.... .....................
.........
.....
...
........ ...
....
.
.......
.
...
..........
..
........ ......
.
.
.
.
.
.
.
.
.
.....
.
.
.
...
..
. .........
.
.
.
.
.... .............
.
.
...
...
.......
.. ......
...
...
.......
...
..........
.
.
.
.
.
.
.
.
.
.
.
.......
...
...
.......
....... ....
...
....
...
.......
......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
...
.
.
.....
...
.
.
.
.
.
........
.
.
.
.
.
.
.
.
.
... ..
.
..
.........
.....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..........
.....
....
..
.
.
.
.
.
.
.
.
.
...........
.
.
.
.
.
.
.
.
.
. .......
.
.....
.......
....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
........
.
.
.........
....
.
.
.
.
..
.
.
.
.
.
.
.
..
.
.
.
..
.
.
.
..
.
...
.
.
.
.
.
...
....
..............
......
...................................................................................
..............
..
...................
....
....
....................
.
.
.
.
.
.
.
.
..
.
..
.
.
.
.
.
.
.
β
..
..
.
.
.
.
.
.
.
.
.
.
...................................................................................................
1
k
t
Power
.
.......
.........
....
......
.......................................
...
....
.............
.... .....................
.........
....
...
........ ....
....
.
..............
..........
.
...
..
.......
.
.
.
.
.
.
.
.
.
.
.
.
.
............
.
...
.
..
...
...
.....
...
.... ............
... ..........
.....
...
.......
...
..
...
.....
.......
...
.........
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...........
...
..
...
...
....... ....
....
........
...
......
...
..... ..............
...
..
...
.......
...
........
.....
...
.......
... ....
...
.........
.....
...
.......
.
.
.
.
.
.
.
.
.
.
.
..........
.
.
.
.
.
.
.
...
...........
.........
.... ........
....
.....
.....
...........
.
.
.
.
.
.
.
..
.
.
.
.
.
..
.
.
..
.
.
.
.
.
........
.
.
......
.........
.
.
.
.
..
.
.
.
.
.
.
.
.
..
.
...
.
.
.
.
.
.
...
.
....
.
.
.
.
.
.
.
.
..........
......
.............................................................................
..............
...................
..
....
...
......... Power
.. ..............
..................................
1
1.4
k
t
EF16
88
→ Power und NZP
? Beispiel : Wachsender NZP wegen wachsender Differenz µ2 − µ1
− Stichprobenumfang ( n = 40 ) etc. soll gleich bleiben
δ = .5
.
......
..........
..
...
.
.................................................
.............
.......
... ............
....
.........
....
....
.
....
.
.
........
...
.
.
...
..
..... ....
.
.
.
.......
.
...
.
.
.
...
.
.......
..
.
....
.
.
.
.
.
.
.
.
.
.
.
...
.
.
.
.......
...
...
..
.
....
.
.
.
.
.
.
.
.
.
.
.
...
.
.
.
...
.......
...
..
.
...
.
.
.
.
.
.
.
.
.
.
.
.
.
...
.
....... ....
...
..
.
....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
........
.
.
...
...
.......
....
.. .........
...
...
...
.......
...
.. ........... .....
...
...
.......
.........
...
.... ....
........
...
. ............
....
........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..........
.
.
.....
....
.... ..........
....
.....
...........
........ ..............................
...... ..............................
...
...
............. ...........
........
....
......
...
...
......
..........................................
.............
..............
...................
...
..
Power
1
...........
.. ..................
.................t..... .
k
δ = 1
...
......
.........
....
......
......
........................................
...
........ ...
.... .....................
.........
....
...
.
........ ....
....
..........
........ .....
.
...
.
.......
.......
...
..
.
.
.
.
.
.
.
.
.
.
.. .......
...
.
...
....
...
...
.....
..................
... ..........
...
.......
.
.....
...
...
.........
....... .........
...
...
.
.
.
.
.
.
.
.
.
.
.........
.
...
...
....... ....
...
.. .....
....
......
...
...
..... ..............
...
..
.......
...
...
........
.....
.......
...
.... ....
...
.........
.....
.......
...
.
.
.
.
.
.
.
.
..........
.
.
.
.
.
.
.
.
..
...........
....
..........
.... .........
....
....
.....
...........
.
.
.
.
..
.
.
.
.
..
.
.
.
..
.
.
..
.
.
.
.
.
.........
......
.
.
...........
.
.
.
..
.
.
.
.
.
.
.
.
.
...
.
.
....
.
.
.
.
.
.
.
....
.
.
..........
.
.
.
.
.
.
.
.
.
.
......
...........................................................................
.
...................
...
...
......... Power
.. ..........
..........
..
...........................
1
k
t
δ = 1.5
.
.......
.........
....
......
.........................................
...
.............
....
....
..............
....
.....
...
... ...............
.........
...
....
.....
........
.
... ...............
.
...
...
....... .........
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
........
...... ....
....
....
...
..... .............
......
...
.......
...
.....
...
...
.......
...
.......
.....
...
.......
...
...
...
.......
.....
...
.......
.
.
.
.
.
.
.
.
.
.
.
.......
.
.
.
.
...
. .........
.
..
........
.
.
.
.
.
.
.
.
.
.......
...
...........
.
...
.
.
.
.
.
.
.
.... ..
..
........
.
.
.
.
.
.
.
.
.
.
.
.
......
.
......
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
......
.
.
.......
.
....
.
.
.
.
.
.
.
..
.
.
..
.
.
.
.
.
..
.
........
..
......
.................
.........
.......................
....
.....
......
...................
..............
....................................................................................................................
...
...
1
............. Power
.. ...........
......
..
............................
t
k
4 Ähnliche Schaubilder bei wachsendem n
1.4
EF16
89
→ p - Werte
→ Alternative Ergebnisbeschreibung
− Signifikanzniveau wird nicht explizit genannt
− Praktisch bei maschinellen Auswertungen
Anstelle der Angabe ob signifikant auf gegebenem Niveau :
p : Anteil , den der Wert der Teststatistik bei H0 abschneidet
4
Die Teststatistik ist hier t
? Typisches Beispiel einer solchen Angabe :
−
t38 = 1.9 ( p = .0325 )
−
t38 bedeutet hier , dass die Zahl der df 38 ist
− Bezeichnung besser : temp ( empirisches t ) statt t38
Schaubild dazu :
..
.......
........
....
......................................................
..........
.........
..
........
........
.
.
.
.
.
...
.
.
.......
.......
.......
...
.......
.
.......
.
.
.
.
.
.
.......
...
.
.
.
.
.
.
.
.
.
.......
....
.
.
.
.
.
.......
.
.
.
.
.
.......
.....
.
.
.
.
.
.
.
.......
.
....
.
.
.
.
.
.......
.
.
.
.
....
........
.
.
.
.
.
..
.
.
.
.
........
.
.....
...
.
.
.
.
.
.........
.
.
.
.
...
.....
.
.
..........
.
.
.
.
.
.
.
.
.
.
............ ......
.
.......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
....
........
....................
... .........................................................
....
.........................................
.
....
...
..
H0
p
1
...............................
t
temp
? Ist dieses Ergebnis signifikant auf dem 5% - Niveau ?
1.4
EF16
90
?
t38 = 1.9 ( p = .0325 )
..
........
.......
....
.....................................................
.........
..........
..
........
.........
.
.
.
.
.
...
.
.......
.......
.......
...
.......
.
.......
.
.
.
.
.
.
.
.......
.
....
.
.
.
.
.
.
.......
.
.
.
....
.
.
.......
.
.
.
.
.
.
.......
.
.....
.
.
.
.
.
.
.
.......
.
....
.
.
.
.......
.
.
.
.
.
........
.
.....
.
.
.
.
..
.
.
.
.
........
.
.....
...
.
.
.
.
.........
.
.
.
.
.
...
.
..........
.....
.
.
.
.
.
.
.
.
.
.
.
............ .....
.
.......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.......
....
...................
... .........................................................
....
..........................................
.
....
...
..
H0
p
1
...............................
t
temp
? Ist dieses Ergebnis signifikant auf dem 5% - Niveau ?
Hilfsfrage : Wo liegt der kritische Wert k ?
k schneidet 5% ab
..
......
.........
..
...................
............... ... .......................
........
.........
..
.......
........
.
.
.
.
.
...
.
.......
.
.......
.......
...
.
.......
.......
.
.
.
...
.
.
.
.
.......
.
...
.
...
.
.
.
.
.......
.
.
.
...
.
....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.......
.
.......
.......
....
...
....
.......
.......
...
...
..
.......
........
...
........
........ ...
...
...
...
........
...........
.
.
...
.
.
.
.
.
.
.
.
.
.
.
.....
.
...
.
..........
....
.... ......................... ....
...........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
.
..................
... .........................................................
....
.... .
..........................................
....
...
..
...
.
.....
...
...
.
.05
p
H0
1
...............................
t
k
temp
k liegt also weiter links
→ Das Ergebnis ist signifikant auf dem 5% - Niveau
B temp ist genau dann signifikant auf α - Niveau , wenn p ≤ α
→ Alternative Definition von p :
− Das Niveau , auf dem temp gerade noch signifikant wird
4 Womöglich heißt auch p gelegentlich Irrtumswahrscheinlichkeit
1.4
EF16
91
? Grenzen der Robustheit
♣ Mögliche Situation :
− Verteilung von X1 ( X unter N ) :
x
0 1 2 3 4 5
P ( X1 = x ) 0 0 .5 .5 0 0
− Verteilung von X2 ( X unter A ) :
x
0 1 2 3 4 5
P ( X2 = x ) .5 0 0 0 0 .5
µ1 = µ2 = 2.5
→
H0 gilt also
4 ( Theoretische ) Varianzen sind deutlich verschieden
− Fehlende ‚ Varianzhomogenität ‘
? Waren solche Situationen eigentlich gemeint ?
Zusätzlich : n1 = 20 , n2 = 5 ( ungleiche Stichproben )
Signifikanzniveau : 5%
10000 Simulationen liefern 1903 signifikante t - Werte
→ Hinweis auf deutliche Verletzung des Signifikanzniveaus
B ‚ Gefährliche ‘ Situation beim t - Test :
− Fehlende Varianzhomogenität und ungleiche Stichproben
1.4
EF16
92
→ Linksseitige Fragestellungen
Statistische Hypothesen jetzt :
H0 : µ2 = µ1
H1 : µ2 < µ1
4 H1 : µ2 > µ1 heißt entsprechend ‚ rechtsseitig ‘
Testen : Gleiches Verfahren
Wieder : Benutzung der t - Statistik
Jetzt : Verwerfen von H0 bei ‚ kleinen ‘ Werten
→
α muss jetzt links ‚ abgeschnitten ‘ werden
? Welches ist jetzt der kritische Wert ?
B Die t - Verteilung ist symmetrisch ( zur y - Achse )
.
.......
........
...
..
.............................................
........
..........
.
.
.
.
.
...
.
.......
.....
.
.
.
.......
.
.
...
.
......
......
...
......
......
.
.
.
.
......
.
.
.
.
......
.....
.
.
.
.
.
.
......
...
.
.
.
.
.
.
......
.
.
.
.....
......
.
.
.
.
.
.
......
.
...
.
.
.
.
.
......
.
.
.
....
.
......
.
.
.
.
.
.
.......
...
.
.
.
.
.
.
.
.
.
.......
....
.
.
.
.
.
.......
.
.
.
.
.......
.
.....
.
.
.
.
.
.
.
.
........
....
.
......
.
.
.
..
.........
.
.
.
.
.
.
.
......
..
.......... ...........
..
........................
...............
.
.
.
.
.
.
.
. ...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
....
...... ................................................
.
...........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
.
.
.
.
.
.
.
..
.
...
...
...
....
...
..
tn−2
.....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... .............
α
−tn−2; α
0.10
1
..............α...
............. ............
t
tn−2; α
→ Links wird α abgeschnitten von − tn−2; α
1.4
EF16
93
→ Linksseitiges Testen
→ Regel für linksseitiges Testen also ( Niveau α ) :
− Verwirf H0 , falls t ≤ − tn−2; α
Weitere Überlegungen : Völlig analog zum rechtsseitigen Fall
4 Zusätzliche Überlegungen zeigen :
− Die Tests sind auch korrekt bei ‚ erweiterten ‘ Nullhypothesen
Rechtsseitig :
H0 : µ2 ≤ µ1
H1 : µ2 > µ1
Linksseitig :
H0 : µ2 ≥ µ1
H1 : µ2 < µ1
B Signifikanzniveau wird auch in ‚ Zusatzfällen ‘ eingehalten
4 Alternativlösung für die linksseitige Fragestellung :
−
1.4
Gruppen vertauschen und rechtsseitig testen
EF16
94
→ Zweiseitige Fragestellungen
Statistische Hypothesen jetzt :
H0 : µ2 = µ1
H1 : µ2 6= µ1
4 ( Richtung unklar – schlechte inhaltliche Theorie ? )
Testen : Wieder Benutzung der t - Statistik
? Geeignete Entscheidungsregel ?
Sinnvoll jetzt :
− Verwerfen von H0 bei ‚ kleinen ‘ oder ‚ großen ‘ Werten
→ Auf beiden Seiten insgesamt α abschneiden
− Naheliegend : auf jeder Seite α/2
.
.......
........
...
..
........................................
...........
........
.
.
.
.
.
.
...
.
.......
......
.
.
.......
.
.
...
.
.
......
......
...
......
......
.
.
.
......
.
.
.
.
.
......
....
.
.
.
.
.
.
......
.
...
.
.
.
.
......
.
.
.
.
......
.....
.
.
.
.
.
.
......
.
...
.
.
.
.
.
......
.
.
.
....
.
......
.
.
.
.
.
.
......
.
...
.
.
.
.
.
.......
.
.
.
.
....
.
.......
.
.
.
.
.
.
.
.......
.
.....
.
.
.
.
.
........
.
.
.
.
.....
...
.
.........
.
.
.
.
.
.
.
..
.
..........
...
.
......
.
.
.
.
.
.
.
.
............ ....
.
.
.
.................
.
.................
.
.
.
.
.
.
.
.
.
...........................
.
.
.......... ..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..................
.
.
.
.
.
.
.
.
.
.
.
.
.
......
.
...
...
...
....
...
..
tn−2
α/2
..........................
α/2
0.10
−tn−2; α/2
1
...........................
t
tn−2; α/2
→ Insgesamt wird symmetrisch α abgeschnitten durch
− tn−2; α/2 ( links ) und
1.4
tn−2; α/2 ( rechts )
EF16
95
→ Zweiseitiges Testen
→ Regel für zweiseitiges Testen also ( Niveau α ) :
− Verwirf H0 , falls t ≤ − tn−2; α/2 oder t ≥ tn−2; α/2
→ Alternativ :
− Verwirf H0 , falls | t | ≥ tn−2; α/2
→ Power zweiseitig :
..
........
.......
....
..
...........
.... .....
.................................................
....
.
. .... .... ......
........
.
...
.......
..........
...
.
.
.
.
.
.
.
...
......
.
... ...
.
.
.
.
......
.
.
...
.
.
......
..
.
.....
.
.
.
.
.
.
.
.
.
.
......
.
...
.
...
.
.
.
.
......
.
.
.
.
.
...
..
.
......
...
.
.
.
.
.
.
.
.
.
.
......
.
...
.
....
.
.
.
.
......
.
.
.
.
.
...
.
..
...
......
.
.
.
.
.
.
.
.
.
.
......
.
.
...
...
.
.
.
.
.
.
.
......
.
.
.
.
...
...
..
.
...
......
.
.
.
.
.
.
.
.
.
.
...
.
.......
...
..
.
....
.
.
.
.
..
.......
.
.
.
.
.
.
.
...
.
........ ....
.....
...
.
.
.
.
.
.
.
.
.
.
.
.
.........
....
....
...
...
....
.. .....
........
....
...
....
.........
..... ... .....................
...
. .........
...........
...............
........
......
... ....................................
...........
...
...........
....
..
...
.
.
.
.
.
.
.
...
.
.
.
.
.
.
......
.
.
.
.
...
.
.
.
.
.
.
.
.
.
.
.....
.
.
.
.
.
.
.
.
.
.
.
..............................
...
...
...
...
...
...
H1
H0
Power
Power
.....................
−tn−2; α/2
1
.............
...........t................
tn−2; α/2
B Beide Anteile berücksichtigen !
− Power ist Summe aus beiden Teilflächen
1.4
EF16
96
→ p - Wert beim zweiseitigen Test
‚ Abschneiden ‘ jetzt zweiseitig ( symmetrisch )
− Passend zum Test
? Beispielangabe : t38 = −1.75 ( p = .088 )
Wieder temp statt t38 :
.....
..........
...
....
.................................................
.
.
.
.
.
.
.
.
........
.....
.
.
.
.......
.
.
....
.
......
.....
...
......
......
......
......
...
......
................
......
.
.
.
.
.
.
......
................. ....
.
...
.
.
.
.
......
..................
.
.
.
..
.
...... ..................................
.....
.
.
.
.
.
.
...
..
..
......
..........................
....
......
..................
......
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
......
.
.. .......................
......
.......
...
......
.......
.....................
.......
...
.................
.......
.......
..................
.......
....
...
.......
.................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
......... .
...
......
...........
......... .................................
....
..........
..
...
... ...........................
............. .............
..........................
..................
...
...................
.....................................
.
...
...
.
.
.....
.....
p
H0
.......................................
...
...................................
1
temp
−temp
t
B temp und −temp schneiden zusammen p ab
→ temp ist hier nicht signifikant auf 5% - Niveau
? Ist eine gegebene p - Angabe einseitig oder zweiseitig ?
Zusatzinformation nötig
− Kontext
− Explizite Angabe ( z.B. ‚ one-tailed ‘ – ‚ two-tailed ‘ )
B Umrechnung :
pzweiseitig = 2 peinseitig
1.4
EF16
97
→ Einseitige und zweiseitige Power
→ Vergleiche Power des einseitigen und zweiseitigen t - Tests !
− Niveau : 5% , df : 38
t38; .05 = 1.686 ,
t38; .025 = 2.024
..
........
.......
....
..
...........
.... .....
.................................................
....
.
. .... .... ......
........
.
...
.......
..........
...
.
.
.
.
.
.
.
...
......
.
... ...
.
.
.
.
......
.
.
...
.
.
......
..
.
....
......................
.
.
.
.
.
..
.
.
.
.
.
.
......
....................
.
...
.
...
...
..
.
.
.
.
......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
....................
...
...
...
..
.
......
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
.
.....................
......
...
...
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.....................
...
.
...
......
.
..
....................
.
......
...
...
...
...
.......................
......
......
...
...
...
...
. .......................
......
......
...
...
....................
....... ....
...
......
....
...
....................
...
.
......
.
.
.
.
.
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
....................
.
..
...
.......
..........................
.. ..............
....
...
....................... ..
........
........
...
....
...
..........
....................
........
...
....
...
..............
..........
...
... .........
........ ...........................
............
.
.
.
.
.
.
..
.
.
.
.
.
.
..
.
.
.
.
.
.
.........
.............................
...............
....
..
.
...
...
.
.
.
.
.
.
.
.
.
...
.
.
.
.
.
.
..
.
.
.
.
.....
.
.
.
.
.
.
.
.
.
.
.
..............................
...
...
...
...
...
...
...
....
..
...
...
...
..
Power zweiseitig
H0
H1
....................
−2.024
1
Power einseitig
.........
.. ...................
............................
t
2.024
1.686
→ Beim einseitigen Test ist die Power größer
B Praktische Konsequenz :
→ Einseitige Fragestellungen einseitig testen !
→ Theorien sollten möglichst zu einseitigen Fragen führen
−
1.4
Vielleicht nochmal genauer nachdenken !
EF16
98
? Beispiel für Mogeln
Jemand hat eine rechtsseitige Hypothese :
− ‚ Alkohol steigert die Fehlerzahl ‘
Test liefert :
t38 = −1.9 ( p = .0325 )
Mittelwerte : MN = 3.24 , MA = 3.06
→ Signifikant , aber leider in der falschen Richtung
‚ Erneutes Nachdenken ‘ führt zum Schluss :
− In der betrachteten Menge sollte Alkohol die Fehlerzahl senken
Linksseitiger Test ( mit denselben Daten )
→ Jetzt ist das Ergebnis signifikant – wie gewünscht
? Problem ?
→ Insgesamt wird ‚ eigentlich ‘ zweiseitig getestet
− Ergebnis wird einseitig ‚ verkauft ‘
→ Das tatsächliche Testniveau ist doppelt so hoch wie angegeben
4 Mögliche Folgerung :
→ Einseitige Tests sind zu verbieten
1.4
EF16
99
→ Untersuchung von mehr als 2 Gruppen
♣ Wieder : Fehlerzahl nach Alkohol
− Zwei Experimentalgruppen ( A, A+ ) , Kontrollgruppe ( N )
− A , A+ : wenig bzw. viel Alkohol
Codierung : N ↔ 1
A↔ 2
A+ ↔ 3
Erwartungswerte : µ1 , µ2 , µ3
Inhaltliche Hypothese
− Alkohol hat eine Wirkung auf die Fehlerzahl
Umsetzung in statistische Hypothesen
H0 : µ1 = µ2 = µ3
H1 : nicht H0
4 Anmerkungen :
Korrekte Verneinung von H0 :
− Mindestens zwei Erwartungswerte unterscheiden sich
− Nicht : Alle Erwartungswerte unterscheiden sich
− Schon gar nicht : µ1 6= µ2 6= µ3
H1 hier inhaltlich eher unbefriedigend
− Entspricht aber dem Standard-Auswertungsverfahren
− Angemessenere Wege sind möglich
1.4
EF16
100
? Beispieldaten :
N
1
1
5
1
A A+
3
3
2
4
4
5
4
4 Stichproben sind unangemessen klein
Zunächst : Deskriptive Aufarbeitung
Gruppe
N
A
A+
Besetzung
4
3
4
Mittelwert
2
3
4
korr. Stichprobenvarianz 4
1 .6666
1.00 0.58 0.41
Standardschätzfehler
Fehler
1
.
........
..........
....
...
..
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
.
r
.................
....
...
...
...
...
...
...
...
...
...
...
...
..
................
................
..
...
...
...
...
...
...
.
.................
r
r
N
1.4
.................
....
...
...
...
.................
A
A+
Bedingung
EF16
101
→ Testen der Hypothesen
→ Suche nach einer geeigneten Teststatistik
Erinnerung : t - Statistik war im wesentlichen grob :
− Mittelwertdifferenz durch ‚ Streuung in den Gruppen ‘
Idee einer Teststatistik hier :
− ‚ Varianz der Mittelwerte ‘ durch ‚ Varianz in den Gruppen ‘
Bezeichnungen :
j : Index für die Bedingungen / Gruppen
J : Anzahl der Gruppen
nj : Gruppengrößen
yij : Wert von Vp i in Gruppe j
( i = 1, . . . , nj )
P
N : Gesamtzahl der Beobachtungen ( N =
j nj )
Mj : Gruppenmittelwerte
s2j : korrigierte Stichprobenvarianzen in den Gruppen
M : Gesamtmittelwert
Hier : J = 3 ,
N = 11 ,
j
nj
Mj
s2j
1
4
2
4
M = 3
2
3
3
1
3
4
4
.6666
4 Hier ist M auch Mittelwert der Mj – Zufall !
1.4
EF16
102
→ Quadratsummen
Einführung von Hilfsgrößen
SSb :=
J
X
nj (Mj − M )2
j=1
SSw :=
nj
J X
X
(yij − Mj )2
j=1 i=1
=
J
X
!
(nj − 1) s2j
j=1
SStot := N · Gesamtvarianz
SS : Sum of Squares , Quadratsumme
b , w , tot : between , within , total
→ Deutung
Ersetze Daten durch Mj bzw. Abweichungen von den Mj
Neue Werte : Originaldaten , Mj , Abweichungen :
N
1
1
5
1
A A+
3
3
2
4
4
5
4
N
2
2
2
2
A A+
3
4
3
4
3
4
4
N A A+
−1 0 −1
−1 −1 0
3
1
1
−1
0
Varianzen dieser Werte : SStot /N , SSb /N , SSw /N
4 Bei Varianzbildung wird Gruppenzugehörigkeit nicht berücksichtigt
B Die SS sind ‚ Vorstufen ‘ der Varianzen
? Im Beispiel : SStot = 24 , SSb = 8 , SSw = 16
1.4
EF16
103
→ Quadratsummenzerlegung
•
SStot = SSb + SSw
4 Bis auf 1/N : Zerlegung der Gesamtvarianz
− in einen ‚ systematischen Anteil ‘
− und einen ‚ Fehleranteil ‘
B Zerlegung kann Rechnungen verkürzen
Idee einer Teststatistik :
− ‚ Varianz der Mittelwerte ‘ durch ‚ Varianz in den Gruppen ‘
Das wäre hier (SSb /N )/(SSw /N ) = SSb /SSw
→ Tatsächlich nimmt man
F :=
SSb /(J − 1)
SSw /(N − J)
4 Unterschied nur Faktor (N − J)/(J − 1)
J − 1 : Zählerfreiheitsgrade
N − J : Nennerfreiheitsgrade
B Gegen H0 sprechen große Werte von F
1.4
EF16
104
→ Ergebnistabelle
Weitere Bezeichnungen :
MS b := SSb /(J − 1)
MS w := SSw /(N − J)
MS : Mean sum of Squares , Mittlere Quadratsumme
Damit : F = MS b /MS w
→ Tabelle
df
MS F
Varianzquelle SS
between
SSb J − 1 MS b F
within
SSw N − J MS w
total
SStot N − 1
? Im Beispiel :
Varianzquelle SS df MS F
between
8 2
4
2
within
16 8
2
total
24 10
♦ Das Verfahren heißt (einfaktorielle) Varianzanalyse
− Auch : Einwegvarianzanalyse
4 Mit Faktor ist die UV gemeint
1.4
EF16
105
→ Testen der Hypothesen
H0 ist für große Werte von F zu verwerfen
?
Was ist ‚ groß ‘ ?
Hierzu : Verteilung von F unter H0 ?
Unter Idealbedingungen hat F eine FJ−1, N −J - Verteilung
− Idealbedingungen hier nicht erfüllt
− Trotzdem gilt Verteilungsaussage ( hoffentlich ) näherungsweise
→ F - Verteilungen
B Eine wichtige Klasse von stetigen Verteilungen
Gekennzeichnet durch Zähler- und Nennerfreiheitsgrade
→ Für jedes n ≥ 1 und jedes m ≥ 1 gibt es eine F - Verteilung
mit n Zähler- und m Nenner-df
Bezeichnung : Fn,m
B Verwendung beispielsweise in Varianzanalysen
1.4
EF16
106
? Beispiele von F - Verteilungen
1
...
.....
........
.. ..
... ...
... ....
... ..................................................................
... ...
... ...
.... ...
....... ...
... ... ...
... .......
... .......
... .....
... .......
...............................................................................
...
... ....
...
... ...
...
... ....................
...
...... ... ........
.....
...
..... ...
.....
...
... .. ...
.....
.. ..... .......
.....
.
...
.....
.....
... .... .....
.....
..... .............................................
...
.....
.....
... ...
...
.....
.....
... ...
.....
.....
...
.....
.
... ...
.....
...
......
......
.....
... ...
......
......
.....
... ...
.
......
.....
....... ............
......
... ..
.
.......
......
... ....
........ .............
.......
.
.........
........
... ...
......... ...............
.........
... ...
........... .........
...........
..
...
.............
......
................. ..................................................
......
......................
. .
...........................................................................................
......
...................................................................................
......
. ..................................................................................
....................... . ......................
.
.......................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
F1, 3
F2, 8
F4, 9
1
F
Das α - Fraktil der Fn, m - Verteilung heißt Fn, m; α
1
.
.......
.........
..
....
..
...
...
...
...
...
...
...
...
...
...
...
...
...
....
....... ............
...
......
....
...
.....
...
...
.....
...
.....
..
...
.
.....
... ....
.....
..................................................
... ...
.....
... ...
.....
.....
... ...
......
... ...
......
......
... ...
......
... ..
.......
..
.......
... ...
...
.......
...
... ...
........
...
.........
.
... ...
.
..........
...
......
............
...
..............
.......
...
.................
....................... .....
......
....................................
.....
........................................................
..
.
...................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
...
...
...
Fn, m
α
....................................................................................
1
1.4
Fn, m; α
F
EF16
107
→ Testen in der Varianzanalyse
→ Entscheidungsregel ( für Niveau α ) :
− Verwirf H0 , falls F ≥ FJ−1, N −J; α
→ Tabellen mit Fn, m; α - Fraktilen
Üblicherweise gibt es getrennte Tabellen für verschiedene α
? Beispiel : Ausschnitt aus einer Tabelle für α = .05
1
2
3
4
5
m\n
1 161.45 199.50 215.71 224.58 230.16
2 18.51 19.00 19.16 19.25 19.30
3 10.13
9.55
9.28
9.12
9.01
4
7.71
6.94
6.59
6.39
6.26
5
6.61
5.79
5.41
5.19
5.05
6
7
8
9
10
5.99
5.59
5.32
5.12
4.96
5.14
4.74
4.46
4.26
4.10
4.76
4.35
4.07
3.86
3.71
? Im Beispiel benötigt : F2, 8; .05 = 4.46
4.53
4.12
3.84
3.63
3.48
4.39
3.97
3.69
3.48
3.33
( für 5% - Niveau )
F = 2.00 ist also nicht signifikant
→
H0 kann nicht verworfen werden
4 Mögliche Angabe hier auch : F2, 8 = 2.00 ( p = .198 )
−
1.4
p hier : Anteil , den F bei H0 - Verteilung rechts abschneidet
EF16
108
Herunterladen