oder lineareTransformation

Werbung
2.6
250
Transformationen von Beobachtungen
b Umrechnung von 0 F in 0 C:
x 7→ y = a + b · x
oder
lineare Transformation.
x 7→ y = b · (x + c)
5
gedrehtes
Histogramm der
transformierten Daten
y
251
Transformation
y = 1 + 0.5 x
6
y3
x
0
0
0
x3
10
5
Histogramm der
ursprünglichen Daten
x
0
0
10
252
2.6
d
LageY = a + b · LageX
StreuungY = |b| · StreuungX .
Form unverändert.
e Standardisierte Stichprobe zi = (xi − x)/ sdX
−→ z = 0 , varZ = 1 .
253
2.6
f Form:
SchiefeX
Langschwänzigkeit = Exzess
X
1 Xn
= SchiefeZ =
zi3
i=1
n
1 Xn
= Exzess =
zi4 − 3
i=1
n
Z
254
g Nicht-lineare, monotone Transformationen x 7→ ghxi
verändern Lage, Streuung und Schiefe.
4
gedrehtes
Histogramm der
transformierten Daten
y
255
Transformation
y = lghxi
1
y3
0
x
-1
0
0
x3
10
5
Histogramm der
ursprünglichen Daten
x
0
0
10
Median und Quantile sind äquivariant”, med 7→ ghmedi
”
2.6
256
h Logarithmus- und Wurzel-Transformation:
Positive Schiefe nimmt ab. −→ Nützlich!
Beispiel Hagel-Energien ( Grossversuch IV” zur
”
Hagelbekämpfung im Napfgebiet, 1980-85)
50
100
0
0
0
40000
0
5
257
2.6
i Hagelenergie = 0, lgh0i = −∞ ! Deshalb x 7→ lghx + ci .
∗2
∗
c =? Nicht einfach c = 1 ! c = q1/4
/q
3/4 .
j Basis des Logarithmus: Mess-Einheit.
2.7
258
Wertebereiche, Datensorten
b Der Bereich der möglichen Werte:
1. alle” reellen Zahlen;
”
2. die positiven Zahlen, mit oder ohne Null: Beträge;
3. Intervall [0, 1] oder [0%, 100%] : Anteile, Prozentzahlen;
4. nicht-negative ganze Zahlen: Anzahlen, Zähldaten;
5. {0, 1/n, 2/n, . . . , (n − 1)/n, 1} für geg. n :
Anteile aus Anzahlen;
6. {0, 1} (0 oder 1) : binäre Daten;
7. {0, 1, 2, . . . , n} als Codes für Herkunft, Typ, Farbe,. . . :
nominale Daten;
8. Intervall [00, 3600) oder [00, 1800) : Winkel, Richtungen,
zirkuläre Daten.
2.7
259
c Zensierte Daten.
Überlebenszeiten von Patienten nach einer Herzoperation,
Erholungszeiten nach einer Erkrankung,
Brenndauern von Glühbirnen,
Verweildauern von Zugvögeln:
Beob. zensuriert”: überlebenszeit ≥ Beobachtungsdauer ci .
”
d Ordnungsstruktur.
Nominale Daten: Codes 1, 2, 3, ...,
Ordnung 1 < 2 < 3 . . . nicht sinnvoll interpretierbar.
Unterschiede 6= Differenzen zwischen Beobachtungen.
260
2.7
e Zustand v. Bäumen: Klassen v. 0 (gesund) bis 4 (abgestorben).
Bonitierung”. Ordnung von Bedeutung.
”
Aber wieder: Unterschiede 6= Differenzen. Ordinalskala.
Temperaturen: Unterschiede = Differenzen. Differenzenskala
Konzentrationen: Unterschiede = Verhältnisse. Quotientenskala
2.8
261
* Transformationen und Unterschiede zwischen
Beobachtungen
a Daten so transformieren, dass Unterschiede = Differenzen !
Oder: Unterschiede = Rang-Differenzen.
Rang-Transformation xi 7→ Ranghxii
hängt von der ganzen Stichprobe ab!
262
Stetige Verteilungen
6.1
Einleitung
•
263
Repetition diskrete Verteilungen:
1. Verteilung gegeben durch die P hX = xi
für alle mögl. Werte x (=0,1,2,... f. Zähldaten)
2. oder: durch (theoretische) kumulative Verteilungsfn.
F hxi = P hX ≤ xi
.
3. Zufallszahlen mit einer bestimmten Verteilung:
z` uniform verteilte Zz. in (0, 1)
x` = F −1hz` i : Zz. mit Verteilung F .
Punkte 2 und 3 genau gleich für stetige Verteilungen.
•
264
Wir brauchen noch etwas mehr
Theorie = Wahrscheinlichkeitsrechnung:
• Transformationen von Zufallsvariablen,
• mehrere Zufallsvariable, gemeinsame Verteilung
• Modell für eine Zufalls-Stichprobe
= mehrere Messungen der gleichen Grösse”
”
Bitte repetieren Sie die Grundbegriffe
Ableitung und Integral (Stammfunktion) Buch 6.1.d-e
6.2
265
Grundbegriffe, Exponential- und uniforme Vert.
d Beispiel Regentropfen. X -Koordinate.

 0
F hxi =

x−α
β−α
1
für x < α
für α ≤ x ≤ β
für x > β .
X ∼ U hα, βi : uniforme Verteilung, Rechtecks-Vert.
Anwendung: Rundungsfehler: Mess-Ergebnis 1.2 ,
eigentlicher Messwert X ∼ U h1.15, 1.25i .
( Wahrer” Wert: weiter weg!)
”
6.2
266
e Exponential-Verteilung:
F hxi =
Anwendungen:
1 − e−λx für
für
0
x≥0,
x<0
• Zeit bis zum Eintreffen eines bestimmten Ereignisses”
”
= Wartezeit”.
”
• Speziell: Zeit bis zu einem Defekt bei einem Gerät
bis zum Tod bei Lebewesen = Lebensdauer, Überlebenszeit
267
6.2
f* Zusammenhang mit Poisson-Verteilung:
P zählt Ereignisse in einem bestimmten Zeitabschnitt.
X = Wartezeit bis zum nächsten Ereignis,
Y = Anzahl Ereignisse in der nächsten Stunde
λ0
P hY = 0i =
exph−λi = P hX > 1i = FX h1i
0!
Poisson-Prozess
268
6.2
g Beispiel Atomzerfall. Exponential-Verteilung.
Für welchen Zeitpunkt wird die Wahrscheinlichkeit,
dass das Isotop bis dahin zerfällt, gleich 1/2 ?
Antwort: Median
1
1
⇒ −λx = log
F hxi = 1 − e−λx =
e
2
2
x = logeh2i/λ = 0.693/λ
⇒
Der Wahrscheinlichkeit 1/2 des Zerfalls eines einzelnen Isotops
entspricht die relative Häufigkeit 1/2
der zerfallenen Isotope bis zum Zeitpunkt 0.693/λ .
Strahlung halbiert, Halbwertszeit.
z
x1
2
x
F hxi
269
i Zufallszahlen, exponential-verteilt x = F −1 hzi = − λ1 logeh1 − zi
1
z1
0
0
270
6.2
j Darstellung von Verteilungen.
Für diskrete Zufallsv. P hX = xi , Stabdiagramm (Histogramm).
Der rel. Häufigkeit für Klasse (c, c + ∆c) entspricht
P hc ≤ X ≤ c + 4ci = F hc + 4ci − F hci
Klasseneinteilung verfeinern! – Flächen proportional zu Anteilen:
P hc < X ≤ c + 4ci/4c = (F hc + 4ci − F hci) /4c
Grenzübergang 4c → 0 :
Höhe = Ableitung von F .
6.2
271
k Definition. Dichte f einer stetigen Zufallsvariablen X
= Ableitung ihrer Verteilungsfunktion F ,
f hxi = F 0 hxi .
Umkehrung:
F hxi =
Z
x
−∞
f htidt
Stammfunktion von f mit F h−∞i = 0 .
Wahrscheinlichkeiten für Intervalle:
P ha < X ≤ bi = F hbi − F hai =
f hxi ≥ 0 für alle x ,
R
∞
f hxidx
−∞
= 1.
Z
b
f htidt .
a
6.2
272
l Exponential-Verteilung
F hxi = 1 − e−λx
f hxi = λe−λx
für x > 0 .
Wahrsch. für ein Intervall: Fläche unter der Dichtekurve.
f hxi
1
α
@
P ha < X ≤ bi
@
@
0
0
qα
a
b
1
3
x
m uniforme Verteilung auf (α, β) . f hxi =?
6.3
273
Kennzahlen für stetige Verteilungen
a Quantile: qα = F −1hαi .
P
b Für klassierte Daten war das arithmetische Mittel x ≈ k zk fk .
zk : Mitte der k ten Klasse” Ck
fk : relative Häufigkeit.
X ”
EhXi ≈
zk P hck−1 ≤ X ≤ ck i
k
X =
k
4c : Klassenbreite.
4c
ck−1 +
2
–
F hc
+ 4ci − F hc
i
k−1
k−1
· 4c,
4c
Grenzübergang:
F hck−1 + 4ci − F hck−1i
→ f hck−1i
4c
X
ck−1f hck−1i4c
EhXi ≈
Z ∞
EhXi =
Z
k
c f hci dc =
−∞
x f hxi dx
274
6.3
d Varianz:
var ≈
X
(zk − x
e)2P hck−1 ≤ X < ck i
Zk
∞
2
x − EhXi f hxi dx
varhXi =
−∞
= E (X − µ)2
σ 2 = varhXi .
σ : Standardabweichung.
275
6.3
e Exponential-Verteilung: f hxi = λe−λx für x ≥ 0 .
Z ∞
EhXi =
x λe−λx dx
0Z
∞
xe−λx dx
= λ
0
Z
∞
∞
−1
= λ·
x
−
1 · − λ1 e−λx dx
λeλx 0
0
Z
∞
∞
1
1
=
e−λx dx = − e−λx
= .
0
λ
λ
0
Z 2
∞
1
varhXi =
λe−λx dx =
λ2
0
1
x−
λ
6.4
276
Transformationen von Zufallsvariablen
a Zufallsvariable X , Verteilung gegeben.
Zufallsvariable Y : Y hωi = g Xhωi .
Verteilung von Y ?
ghxi = a + b · x
ghxi = lghxi
X = 5.1
⇒
lineare T.
Logarithmus-T.
Y = lgh5.1i = 0.71 .
6.4
c
277
F (Y )h0.71i = P hY ≤ 0.71i = P hlghXi ≤ lgh5.1ii
= P hX ≤ 5.1i = F (X)h5.1i.
Allgemein:
F (Y )hyi = P hY ≤ yi = P hghXi ≤ ghxii
= P hX ≤ xi = F (X)hxi.
Schwierigkeit: Zufallsvariablen X, Y
und die Zahlen x, y auseinanderhalten.
d
lg−1hyi = exphyi,
F (Y )hyi = F (X) g −1hyi
lg−1h0.71i = 5.1,
F (Y )h0.71i = F (X)h5.1i .
6.4
e
278
y = ghxi
F (Y )hyi = P hY ≤ yi = P hghXi ≤ ghxii
= P hX ≤ xi = F (X)hxi.
Schwierigkeit: Zufallsvariablen X, Y
und die Zahlen x, y auseinanderhalten.
f Wie wird die Dichte transformiert? – Kettenregel: ...
g Beispiel Quadrat. X ∼ U h0, 2i
Z Fläche eines Quadrates mit Seitenlänge X . Y = X 2
h Skalen-Änderung: Y = bX
f (Y )hyi = 1b f (X)hxi
6.4
279
Median von Y :
k Kennzahlen:
D Quantile,
E
qα(Y ) = g qα(X)
, falls g monoton zunehmend ist.
D
D
E
E
ghXi ≤ g qα(X)
= P Y ≤ g qα(X)
.
α = P hX ≤ qα(X)i = P
l Erwartungswert, Varianz: keine wesentliche Vereinfachung.
m Lineare Transformation:
y = a + bx
EhY i = a + b · EhXi,
varhY i = b2 · varhXi.
6.4
280
n Wie wird die Dichte transformiert? – Kettenregel:
f (Y ) ghxi · g 0hxi = f (X)hxi
. g 0 g −1hyi
f (Y )hyi = f (X) g −1hyi
o Beispiel Quadrat. X ∼ U h0, 2i
Z Fläche eines Quadrates mit Seitenlänge X .
x
1
,
f (X)hxi =
F (X)hxi =
2
2
√
√
z
F (Z)hzi = F (X)h zi =
2
1
f (Z)hx2i · 2x = f (X)hxi =
2
=⇒
1
f (Z)hzi = √ .
4 z
f (Z)hzi = (F (Z))0hzi !
F (X)
1
281
f (X)
0.5
0.5
0
F (Z)
1
1
x
2
x
0
1
2
f (Z)
1
0.5
0.5
z
0
1
z
4
0
1
4
282
6.4
p Skalen-Änderung.
X ∼ Exphλi , ghxi = b · x mit b > 0 .
g −1hyi = y/b , g 0 hxi = b .
F (Y )hyi = F (X)hy/bi = 1 − e−λy/b
f (Y )hb · xi · b
µ=
λ
b
⇒
Y ∼ Exphλ/bi
= f (X)hxi =
f (Y )hyi =
λ e−λx
λ
e−λy/b .
b
f (Y )hyi = µe−µy .
6.4
283
Median von Y :
s Kennzahlen:
D Quantile,
E
qα(Y ) = g qα(X)
, falls g monoton zunehmend ist.
D
D
E
E
ghXi ≤ g qα(X)
= P Y ≤ g qα(X)
.
α = P hX ≤ qα(X)i = P
t Erwartungswert: keine wesentliche Vereinfachung.
EhZi =
4
3
R
4
z f (Z)hzi dz
0
=
R
4
1
z √
0 4 z
dz =
1
4
R √
4
z dz
0
=
Beispiel Quadrat
1
4
2 3/2 4
z
3
0
=
2
R
R
oder EhZi = ghxi f (X)hxi dx = 02 x2 12 dx = 12 x3 0 = 34
(Dagegen ist g EhXi = 12 = 1 .)
3
6.4
u Lineare Transformation:
284
y = a + bx
EhY i = a + b · EhXi,
v Herleitung:
Z
EhY i =
varhY i = b2 · varhXi.
Z
y f (Y )hyidy
y = a + bx,
Z
(a + bx)f (Y )ha + bxi b dx =
Z
EhY i = a
dy = b dx
f (X)hxi
(a + bx)
Z
b
b dx
f (X)hxi dx + b
xf (X)hxi dx = a + b · EhXi
varhY i = E (Y − EhY i)2 = E (a + bX − (a + b EhXi))2
= E b2 (X − EhXi)2 = b2 varhXi .
285
6.4
w Standardisierte Zufallsvariable.
Zufallsvariable X mit Erwartungswert µ und Varianz σ 2 .
Transformation: Z so, dass EhZi = 0 und varhZi = 1 :
ghxi = (x − µ)/σ .
1
EhZi = (EhXi − µ) = 0,
σ
1
varhZi =
varhXi = 1 .
σ2
6.5
286
Die Normalverteilung
a Normalverteilung, Gausssche Glockenkurve” spielt eine
”
zentrale Rolle in der Wahrscheinlichkeitstheorie und Statistik.
• Mathematisch einfache Gesetze
• Passt in vielen Situationen nicht schlecht.
Grund: Wenn sich viele kleine, unabhängige Zufallseffekte
summieren,
ist die Summe näherungsweise normalverteilt nach dem
Zentralen Grenzwertsatz”.
”
−→ Hypothese der Elementarfehler”
”
6.5
b Standard-Normalverteilung s N : Dichte
1
f hzi = φhzi = c · e− 2 z
Normierungskonst.” c so, dass
”
287
2
R
∞
f hzi dz
−∞
= 1.
√
c = 1/ 2π
f hzi
− 0.2
−3
−2
−1
0
1
2
z
3
Kumulative Verteilungsfunkt. Φ . Keine geschlossene” Formel.
”
6.5
c Wegen der Symmetrie ist EhZi = 0 .
varhZi = c
Z
z 2 exp
1
− z2
2
288
dz = 1
e Lage und Streuung soll sich an die Daten anpassen.
Lineare Transformation von Z ∼ s N : X = µ + σZ
EhXi = ..., varhXi = ..., St.abw.hXi = ... , Dichte:
2 +
1
exp
f (X)hxi = √
2π σ
*
1
−
2
x−µ
σ
X normalvert. m. Erwartungswert µ und Var. σ 2 . X ∼ N hµ, σ 2i .
f Kumulative Verteilungsfunktion
1
F hxi = √
2πσ
Z
x
exp
−∞
*
1
−
2
t−µ
σ
2 +
dt
.4960
.4562
.4168
.3783
.3409
.3050
.2709
.2389
.2090
.1814
.1562
.1335
.1131
.0951
.0793
.0655
.0537
.0436
.0351
.0281
.5000
.4602
.4207
.3821
.3446
.3085
.2743
.2420
.2119
.1841
.1587
.1357
.1151
.0968
.0808
.0668
.0548
.0446
.0359
.0287
0.01
z=
↓ + → 0.00
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
0.02
.4920
.4522
.4129
.3745
.3372
.3015
.2676
.2358
.2061
.1788
.1539
.1314
.1112
.0934
.0778
.0643
.0526
.0427
.0344
.0274
0.03
.4880
.4483
.4090
.3707
.3336
.2981
.2643
.2327
.2033
.1762
.1515
.1292
.1093
.0918
.0764
.0630
.0516
.0418
.0336
.0268
289
1 − Φhzi
0.04
.4840
.4443
.4052
.3669
.3300
.2946
.2611
.2296
.2005
.1736
.1492
.1271
.1075
.0901
.0749
.0618
.0505
.0409
.0329
.0262
0.05
.4801
.4404
.4013
.3632
.3264
.2912
.2578
.2266
.1977
.1711
.1469
.1251
.1056
.0885
.0735
.0606
.0495
.0401
.0322
.0256
0.06
.4761
.4364
.3974
.3594
.3228
.2877
.2546
.2236
.1949
.1685
.1446
.1230
.1038
.0869
.0721
.0594
.0485
.0392
.0314
.0250
0.07
.4721
.4325
.3936
.3557
.3192
.2843
.2514
.2206
.1922
.1660
.1423
.1210
.1020
.0853
.0708
.0582
.0475
.0384
.0307
.0244
0.08
.4681
.4286
.3897
.3520
.3156
.2810
.2483
.2177
.1894
.1635
.1401
.1190
.1003
.0838
.0694
.0571
.0465
.0375
.0301
.0239
0.09
.4641
.4247
.3859
.3483
.3121
.2776
.2451
.2148
.1867
.1611
.1379
.1170
.0985
.0823
.0681
.0559
.0455
.0367
.0294
.0233
Tabelle! Standardisieren!
F (X)hxi = F (Z)
x−µ
σ
=Φ
x−µ
σ
290
Beispiel: X ∼ N h10, 22i . Wie gross ist F (X)h14i ?
z = (x − µ)/σ = 2 ,
F (s N )h2i = Φh2i =?
Tabelle: 1 − Φh2i = 0.023 , also F (X)h14i = Φh2i = 0.977 .
Für negative z benützt man die Symmetrie:
Φhzi = P hZ ≤ zi = P hZ ≥ −zi = 1 − P hZ ≤ −zi = 1 − Φh−zi
291
x = 8 , µ = 10 , σ = 2 :
z = (8 − 10)/2 = −1 ,
0.1587 ,
Φhzi = 1 − Φh−zi = 1 − Φh1i =
F (X)h8i = 0.1587 .
g Wahrscheinlichkeiten für Intervalle
Intervall
(µ − σ, µ + σ)
(µ − 2σ, µ + 2σ)
(µ − 3σ, µ + 3σ)
Wahrscheinlichkeit
ca. 2/3;
ca. 95%;
ca. 100% (99.7%).
95%
6
292
F hxi
6
2/3
?
?
f hxi
µ − 2σµ − σ µ µ + σ
µ + 2σ
68% 95.5%
99.73%
99.994%
x
x
-
293
6.5
h Beispiel Waage. Messfehler X normalverteilt mit µ = 0 und
σ = 0.63 mg.
Wie gross ist die Wahrscheinlichkeit, dass eine Messung um
≤ 0.63 mg, 1.26 mg oder 1 mg vom wahren Wert abweicht?
Für 1 mg rechnen wir
P h|X| ≤ 1i = P h−1 ≤ X ≤ 1i = 2P h0 ≤ X ≤ 1i
1−0
1
= 2 Φh1.587i −
= 0.888 .
= 2P 0 ≤ Z <
0.63
2
6.5
294
i Beispiel Küken: Normalvert. passt recht gut auf das Histogramm.
Welches µ, σ ? −→ Schätzung der Parameter.
20
15
10
5
0
80
90
100
110
120
130
295
6.5
j Beträge: X > 0 , schiefe Verteilungen. Also nicht normalverteilt.
Aber:
Y = loghXi ∼ N hµ, σ 2i .
X hat eine Lognormal-Verteilung mit Parametern µ und σ 2 .
Dichte und Kennzahlen der Lognormal-Vert. nicht wichtig.
Arbeiten Sie mit logarithmierten Daten!
296
Beschreibende Statistik mehrdimensionaler Daten
3.1 Grafische Darstellungen einer Stichprobe
von Zahlenpaaren
a Beispiele
Grösse des Vaters und Grösse des Sohnes.
•
Geschwindigkeit und Bremsweg eines Autos,
•
Spraydosen-Treibgasverbrauch und Ozongehalt,
•
Blattfläche und mittl. Fotosynthese-Rate bei einer Pflanze,
•
Sauerstoffzufuhr und Ausbeute bei einem chem. Versuch,
•
Druck und Volumen bei einem physikalischen Experiment,
•
Zusammenhang zwischen den zwei Variablen?
297
3.1
b Notation: [xi, yi] . Bivariate Stichprobe.
Streudiagramm (scatterplot).
Streudiagramm funktioniert oft nicht auf Anhieb:
Ausreisser
•
zuviele Punkte
•
verdeckte Punkte
•
c
0
10
Frequenz
20
30
40
0
20
40
60
80
100
298
299
d Einfachste und anschaulichste Art einer Beziehung ist
ein linearer Zusammenhang.
Oft durch Transformation einer oder beider Var. zu erreichen.
Oder logarithmierte Achsen”, Log-Skala”.
”
”
e
40
Frequenz
20
30
10
0
0.0
0.05
0.10
0.15
Kehrwert der Fallhöhe
0.20
0.3
Wellenlänge
0.2
0.1
0.0
0
20
40
60
Fallhöhe
80
100
3.2
300
Die Pearsonsche Produktmomenten-Korrelation
( gewöhnliche Korrelation”)
”
a Kennzahl für den Zusammenhang: Korrelation.
b
xi0 = (xi − x)/ sdX ,
yi0 = (yi − y)/ sdY
1 Xn
r
=
xi0 yi0
XY
i=1
n−1
sXY
rXY =
sdX sdY
1 Xn
s
=
(xi − x)(yi − y)
XY
i=1
n−1
rXY : Produktmomenten-Korrelation oder Pearson correlation.
sXY : Kovarianz.
◦
301
y0
6
0
0
◦ [xi, yi]
◦
◦
xi0 · yi0
-
x0
◦
◦
◦
3.2
302
d Spezialfälle:
yi = a + bxi :
•
xi = y i :
sXY =
rXY = 1 .
•
1
n−1
yi − y = b · (xi − x) ,
2
sdY2 = b2 sdX
,
Pn
i=1 (xi
rXY = 1 , falls b > 0 ist,
•
2
2
− x)2 = sdX
=
sd
Y,
Xn
1
b
s
=
(xi − x)2 = b s
XY
i=1
n−1
2
rXY = b sdX
/(sdX ·|b| sdX ) = b/|b|
rXY = −1 falls b < 0
Punkte eng um eine Gerade: rXY nahe bei ±1 .
Die Produktmomenten-Korrelation misst Stärke & Richtung
des linearen Zusammenhanges zwischen X und Y .
e Beispiel Wasserfälle rXY = −0.74 , r1/X,Y = +0.96 .
3.2
h
•
303
Symmetrische Stichprobe: rXY = 0 , kein linearer Zus.hang.
y0
6
◦
◦
◦
◦
◦
◦
◦
-
x0
◦
304
3.2
i Streudiagramme mit gleichem Korrelations-Koeffizienten
können sehr verschieden aussehen!
j
rXY nicht robust!
3.3
305
Rangkorrelationen
a Spearmansche Rangkorrelation.
Korrelation zwischen den Rängen der xi und den Rängen der yi ,
(Sp)
rXY
sRanghXi,RanghY i
=
sdRanghXi sdRanghY i
Xn
6
= 1−
Ranghxii − Ranghyii 2 ,
i=1
n(n2 − 1)
falls keine Bindungen (geteilten Ränge) auftreten.
0
20
40
60
Fallhöhe
80
100
10
2
2
(Sp)
c Beispiel der Wasserfälle: rXY
= −0.93.
0
Rang(Frequenz)
4
6
8
40
10
Frequenz
20
30
4
6
Rang(Fallhöhe)
8
10
306
307
3.3
d Wenn die xi monoton wachsend transformiert werden,
ändert sich r (Sp) nicht, bleibt (invariant)”.
XY
”
(Sp)
rXY
= ±1 , falls Reihenfolgen der X - und der Y -Werte
genau gleich oder entgegengesetzt sind.
Rangkorrelation misst Stärke und Richtung des
monotonen Zusammenhangs.
308
Inhomogenität:
•
Indirekter Zusammenhang: X und Y hängen von Z ab.
•
Ursache – Wirkung - Zus’hang. Oft das Gewünschte.
•
Zufall.
•
Zur Interpretation von Korrelationen
3.4
Hämoglobingehalt und Oberfläche der roten Blutkörperchen:
Für Frauen und Männer kein Zusammenhang.
Zulassung zur Hochschule.
309
Schein-K. zwischen Zeitreihen:
•
Technische” K.: Standardisierung mit gleicher, ungenau
”
erfasster Grösse.
•
Störche und Geburten;
Zahl der Fernsehapparate und der Zahl der Verbrechen (?)
Regression: Wichtig! Später.
6.7
310
Gemeinsame und bedingte Verteilung
a Beispiel Regentropfen X, Y Koordinaten.
Uniforme Verteilung auf einer Platte: W. eines Ereignisses
prop. zur Fläche.
y
6
F hx, yi
y
-
x
x
311
6.7
b Gemeinsame Verteilung von 2 Zufallsvariablen X (1), X (2)
gegeben durch kumulative Verteilungsfunktion
F hx1, x2i = P hX (1) ≤ x1, X (2) ≤ x2i
Wahrscheinlichkeiten für Rechtecke:
P ha1 < X (1) ≤ b1, a2 < X (2) ≤ b2i
= F hb1, b2i − F hb1, a2i − F ha1, b2i + F ha1, a2i.
6.7
c Dichte
f hx1, x2i =
lim
h1 →0,h2→0
312
P x1 − h1 < X (1) ≤ x1 , x2 − h2 < X (2) ≤ x2
h1 h2
∂ 2F hx , x i
1
2
=
.
∂x1 ∂x2
Regentropfen-Beispiel:
f hx1, x2i =
α : Fläche der Platte.
d
P
D
1/α, falls [x1, x2] ∈ Platte;
sonst ,
0
[X (1), X (2)] ∈ A
E
=
Z
A
f hx1, x2i dx1 dx2
313
6.7
e Randverteilung:
P ha < X (1) ≤ b i = P ha < X (1) ≤ b , X (2) beliebigi
1
1
1
1
Z b1 Z ∞
=
f (1)hx1 i =
Zx1∞=a1
x2 =−∞
x2 =−∞
f hx1, x2i dx2
dx1
f hx1, x2i dx2
f Bedingte Verteilung, geg. Ereignis A mit P hAi > 0 : wie gehabt.
314
Exponential-Verteilung:
X Zeit bis zum ersten Impuls des Geigerzählers.
1. Sekunde kein Ton.
Wie ist dann der Rest Y = X − 1 der Wartezeit” verteilt?
”
P hX > xi = 1 − F hxi = e−λx;
exph−λ(1 + y)i
P hX > 1 + yi
=
P hY > y | X > 1i =
P hX > 1i
exph−λi
= exph−λyi = P hX > yi.
P hX > yi = P hY > y | X > 1i . aber Ereignisse verschieden!
Vt. von Y = X − 1 , geg. X > 1 (also Y > 0 ), = Vt. von X .
X − 1|X > 1 ∼ Exphλi
Gedächnislosigkeit”
”
6.8
315
Unabhängige Zufallsvariable und Korrelation
a Zwei Zufallsvariable X (1) und X (2) heissen unabhängig, falls
e X (2) ∈ Bi
e = P hX (1) ∈ Ai
e · P hX (2) ∈ Bi
e
P hX (1) ∈ A,
für alle Ae und Be . – Dichten multiplizieren sich auch:
f hx1, x2i =
=
=
∂ 2F hx1 , x2i
∂x1 ∂x2 P x1 − h1 < X (1) ≤ x1 , x2 − h2 < X (2) ≤ x2
lim
h1 →0,h2→0
lim
P
h1 →0,h2→0
x1
−
h1 < X
(1)
h1
= f (1)hx1 i · f (2)hx2i.
h1 h2
P x2 − h2 < X (2) ≤ x2
≤ x1
·
h2
316
317
6.8
b
X1 ∼ N hµ1, σ12i,
X2 ∼ N hµ2, σ22i unabhängig.
Gemeinsame Dichte
*
*
2 +
1
1 x −µ
1 x2 −
1
1
1
√
f hx1, x2i = √
exp −
· exp −
2
σ1
2
σ2
2πσ1
2πσ2
2!+
1
=
exp
2πσ1σ2
*
1
−
2
x1 − µ 1
σ1
2
+
x2 − µ 2
σ2
Spezialfall der zweidimensionalen Normalverteilung.
318
319
6.8
c Mass für die Abhängigkeit: Korrelation r12 = s12 (sd1 sd2) .
Modell-Grössen einsetzen! µ1 = EhX (1)i , µ2 = EhX (2)i .
(1)
covhX (1), X (2)i = Eh(X
− µ1) (X (2) − µ2)i
Z Z
covhX (1), X (2)i =
hX (1), X (2)i = p
(x1 − µ1) (x2 − µ2) f hx1, x2i dx1dx2
covhX (1), X (2)i
varhX (1)i · varhX (2)i
6.8
320
d Wenn zwei Zufallsvariable unabhängig sind, sind sie unkorreliert
Unkorrel. Zufallsvar. sind nicht notwendigerweise unabhängig.
Korrelation erfasst nur lineare Komponente” der Abhängigkeit.
”
e
1
-1
y
6
@
@
@
f hy|X = xii
@
@
0 x1
-
@
@
@
@
@
-
@
@
@
-
1
x2
x
321
f Zweidimensionale Normalverteilung: Dichte f hx1, x2i =
c·exp α1 (x1 − µ1)2 + α2(x2 − µ2)2 + α12(x1 − µ1)(x2 − µ2)
[µ1, µ2] = [EhX (1)i, EhX (2)i] :
Mittelpunkt der Ellipsen konstanter Dichte.
α -s: varhX (1)i, varhX (2)i, covhX (1), X (2)i ,
Länge und Orientierung der Hauptachsen.
α12 = 0 unabhängige, also unkorrelierte Normalverteilungen.
Multivariate Statistik!
5.7
322
Summen von Zufallsvariablen
Wir betrachten der Einfachheit halber diskrete Zufallsvariable.
a Verteilung der Anzahl Erfolge in n Versuchen: Binomial-V.
hergeleitet als V. der Summe von unabh. Xi ∼ Bernoullihπi .
Anzahl Unfälle innerhalb einer Woche in zwei Stadtteilen
oder Anzahl Bakterien-Kolonien auf 2 Schalen oder
Anzahl fehlerhafte Gläser in zwei Produktions-Losen.
Xi ∼ Phλii , unabhängig.
Verteilung von X (1) + X (2) ∼?
Gleiche Frage für beliebige gemeinsame Verteilung von X (1), X (2) .
323
5.7
b Mit Hilfe von Zufallszahlen: siehe Übungen!
Liefert aber keine übersichtlichen Zusammenhänge.
c
P hS = 0i = P hX1 = 0, X2 = 0i = e−λ1 · e−λ2 = e−(λ1 +λ2)
P hS = 1i = P hX1 = 0, X2 = 1i + P hX1 = 1, X2 = 0i
λ1
λ1
= e−λ1 2 e−λ2 + 1 e−λ1 e−λ2
1!
1!
(λ1 + λ2)1
e−(λ1+λ2 )
=
1!
.21
I
@
@
@
x2
4
@
@
324
6
w
w
w
.17·
3 @w@[email protected]
@
@
w
.30·
.27
@
@w
1
0
w
w
0
w
1
w
2
@
I
@
@
@
w
w
w
.27·
.30
@
@w
@
I
@
@
w
w
w
.16·
.17
@
@
w
@w
3@I@@
2
w
w
4
5
-
x1
S=3
5.7
325
d Resultat: Wenn man zwei (oder mehrere) unabhängige,
Poisson-verteilte Zufallsvariable zusammenzählt,
erhält man wieder eine Poisson-verteilte Zufallsvariable.
Die Parameter λj addieren sich.
S = X1 + X2 ∼ Phλ1 + λ2i .
(Anschaulich klar!)
e Binomial-Verteilung
X1 ∼ Bhn1, πi, X2 ∼ Bhn2 , πi,
=⇒
X1, X2 unabhängig
X1 + X2 ∼ Bhn1 + n2, πi.
Anschaulich klar: X1 +X2 = Anz. Erfolge in n1 +n2 Versuchen.
X1 ∼ Bhn1, π1i,
X2 ∼ Bhn2, π2i,
π1 6= π2 : keine B !
326
5.7
f Allgemein:
P hS = si =
=
Xs
Xsk=0
k=0
P hX1 = k, X2 = s − ki
P hX1 = ki · P hX2 = s − ki
5.7
327
i Kennzahlen von S ?
X∞
EhSi =
s P hS = si
s=0
X∞
Xs
(x1 + s − x1) · P hX1 = x1 , X2 = s − x1 i
=
s=0
x1 =0
X∞
X
∞
(x1 + x2 ) · P hX1 = x1, X2 = x2i
=
x2 =0
x1 =0
X∞
X
X
X
∞
∞
∞
x P hX = x , X = x i +
x2 ..
=
1
1
1
2
2
x1 =0
x2 =0
x2 =0
x1 =0
X∞ X∞
x1
P hX1 = x1, X2 = x2i
=
+
x1 =0
X∞
x2 =0
x2
x2 =0
X∞
x1 =0
P hX1 = x1, X2 = x2i
EhSi = EhX1i + EhX2i
+
328
EhSi = EhX1i + EhX2i
j Varianz von S
varhSi = varhX1i + varhX2i + 2 covhX1, X2i
Falls unabhängig:
varhSi = varhX1i + varhX2i
Der Erwartungswert der Summe von zwei (oder mehreren)
Zufallsvariablen ist gleich der Summe ihrer Erwartungswerte.
Die Varianz der Summe von zwei (oder mehreren) unabhängigen
Zufallsvariablen ist gleich der Summe ihrer Varianzen.
329
k Beispiel.
Je 100 Würste aus 2 Fabriken werden auf Haltbarkeit geprüft.
Die W., dass sie länger als 2 Wochen geniessbar bleiben,
sei für jede Wurst der einen Fabrik 0.6, bei der anderen 0.3.
Wie gross sind E und Varianz der Anzahl geniessbarer Würste
unter allen 200 Würsten?
X1 ∼ Bh100, 0.6i, X2 ∼ Bh100, 0.3i ,
S = X 1 + X2
EhSi = EhX1i + EhX2i = 100 · 0.6 + 100 · 0.3 = 90
varhSi = varhX1i + varhX2i = 100 · 0.6 · 0.4 + 100 · 0.3 · 0.7 = 45
Wenn 200 Würste zufällig” aus der ganzen Produktion
”
der beiden Fabriken (mit gleichen Anteilen der beiden Teile)
ausgewählt würden, wäre S ∼ Bhn = 200, π = 0.45i .
varhSi = 200 · 0.45 · 0.55 = 49.5 > 45.
EhSi = 200·0.45 = 90 ,
330
5.7
l Einfache Zufalls-Stichprobe:
X1, ..., Xn gleich verteilt und unabhängig (i.i.d.)
EhXii = µ,
=
Pn
i=1 Xi
,
varhXii = σ 2,
i = 1, 2, . . . , n
X = S/n arithmetisches Mittel
EhSi = nµ
EhXi = µ
varhSi = nσ 2
varhXi = σ 2/n.
varhXi = varhSi/n2
X = S/n , −→ EhXi = EhSi/n,
331
In Worten:
Der Erwartungswert des arithmetischen Mittels von
mehreren gleich verteilten Zufallsvariablen ist gleich
dem Erwartungswert der einzelnen Zufallsvariablen.
Die Varianz des arithmetischen Mittels von n unabhängigen
gleich verteilten Zufallsvariablen ist gleich
der Varianz der einzelnen Zufallsvariablen,
dividiert durch n .
Die Standardabweichung des arithmetischen Mittels ist
die Standardabweichung der einzelnen Zufallsvariablen,
√
dividiert durch n , die Wurzel aus n .
332
5.7
m Unvermeidliche Verwirrung:
EhXi = Erwartungswert eines arithmetischen Mittels,
Kennzahl einer Kennzahl !? Was soll das?
Einfachen Zufalls-Stichprobe = Modell für Stichprobe”aus Kap.2.
”
Verteilung von anderen Stichproben-Kennzahlen bestimmen,
z. B. die Verteilung der (empirischen) Varianz?
Verteilung hat Erwartungswert, Median, (theoretische) Varianz,
...
333
5.7
n Simulation, Zufallszahlen.
Je n Zufallszahlen zeigen, was eine Zufalls-Stichprobe als Resultate ergeben könnte:
n Einzelwerte, Summe, arithmetisches Mittel, Median, emp. Varianz, ...
1000 mal durchführen −→ 1000 Werte für med, ...
simulierte Verteilung des Medians.
5.7
334
o Beispiel Kartenziehen.
0.4
relative Häufigkeit
Wahrscheinlichkeiten
0.2
0.0
−1
0
1
2
4
9
4 10−10
z
p Arithmetisches Mittel der simulierten Z (k) :
1 P
(k) = −0.6975 ≈ EhZi = −0.6774
kz
m
c k hz (k)i = 0.2165 ≈ varhZi = varhZii/4 = 0.2258 .
var
Simulation der Kennzahlen der Verteilung.
e
6.9
335
Funktionen von mehreren Zv.: Summen
X1 ∼ U h0, 1i, X2 ∼ U h0, 1i , unabhängig. S = X1 + X2 .
x2
1
2 − s0
-
f (S)
S < s0
6
S<s
s
?
s
x1
0
0
1
1
2
336

0
falls s ≤ 0




falls 0 < s ≤ 1,
s2/2
F (S)hsi =
 1 − (2 − s)2/2 falls 1 < s ≤ 2,




falls s > 2 .
1
falls 0 ≤ s ≤ 1,
s

f (S)hs) =
2 − s falls 1 < s ≤ 2,


sonst .
0
Dreiecks-Verteilung.
6.9
337
f Summen von unabhängigen stetigen Zufallsvariablen X (1), X (2) :
F (S)hsi =
=
=
=
f (S)hsi =
=
=
P hS ≤ si = P hX (1) + X (2) ≤ si
Z ∞ Z s−x1
f hx1, x2idx2 dx1
−∞
Z−∞
∞ Z s−x1
f (2)hx2 idx2 f (1)hx1idx1
−∞
Z−∞
∞
F (2)hs − xi f (1)hxidx
−∞
R
∞
d
F (2)hs − xif (1)hxidx
Zds −∞
d
F (2)hs − xif (1)hxidx
Z ds
f (2)hs − xif (1)hxidx.
6.9
338
i 2 unabhängige,
Z standard-normalverteilte Zufallsvariable:
√1 exph− 1 x2 i √1 exph− 1 (s − x)2 i dx
f (S)hsi =
2
2
2π
2π
2 Z
1
√1
exp − 2x2 − 2xs + s2
dx
=
2π
2
2 Z
1
2
2
√1
f (S)hsi =
exp −
2 t − 2s − 2 2s + s2
dt
2π
2
2 2 Z
√ 1√
2π 2
=
√1
2π
=
exp
exp
−1
2
−1
2
√s
2
t−s/2
√
1/ 2
2 2 R
dt · exp
1 √
√
2π (1/ 2)
−1
2
exp
√
√s
2
−1
2
t−s/2
√
1/ 2
Integral integriert Dichte von N hs/2, (1/ 2)2i . Deshalb =1.
Es bleibt S ∼ N h0, 2i .
2 6.9
339
j Wenn X1 ∼ N hµ1 , σ12i und X2 ∼ N hµ2, σ22i unabhängig sind,
hat die Summe wieder eine Normalverteilung,
X1 + X2 ∼ N hµ1 + µ2, σ12 + σ22i
Die Erwartungswerte und die Varianzen addieren sich.
m Kennzahlen? Wie für diskrete Verteilungen
EhX1 + X2i = EhX1i + EhX2i
varhX1 + X2i = varhX1i + varhX2i + 2 covhX1, X2i
= varhX1i + varhX2i
falls unabh.
6.9
340
n Beispiel Waage. Messfehler X ∼ N h0, 0.632 i .
Wie kann man ein Gewicht auf 0.5 mg genau” bestimmen?
”
Genauer: Messergebnis soll mit Wahrscheinlichkeit von 95%
um nicht mehr als 0.5 mg vom wahren Wert abweichen.
Mehrmals unabhängig wägen. Resultat = X .
Für n unabhängige Messwerte gilt X ∼ N h0, (0.63 mg)2/ni .
p
Standardisiertes X : Z = X/ (0.63 mg)2/n ∼ N h0, 1i .
Es soll P h−0.5 ≤ X ≤ 0.5i = 0.95 sein.
Es gilt P h−1.96 ≤ Z ≤ 1.96i = 0.95 .
p
Also 1.96 = 0.5/ (0.63 mg)2/n oder
n=
1.96
0.5
0.63
2
= 6.09 .
a
6.9
341
Funktionen von mehreren Zufallsvariablen
T = minhX (1), X (2)i . F (T )hti = P hT ≤ ti =?
b Allgemein: X (1), X (2), . . . , X (m) stetig mit Dichte f .
T = ghX (1), X (2), . . . , X (m)i
P hT ≤ ti =
Z∞
...
Z∞ Z
f hx1, . . . , xmi dxm dxm−1 . . . dx1
x1 =−∞ xm−1 xm ∈At
A = {xm | ghx1, x2, . . . , xmi ≤ t} .
342
6.9
c
X1, X2, X3, X4, X5, Xi ∼ Exphλi . Verteilung des Medians?
d 1 , X2 , X3 , X4 , X5 i
T = medhX
5-faches Integral!
d Simulation der Verteilung des Medians von 5 exp.-vert. Xi .
`
1
2
3
4
5
6
7
8
9
10
1.422
0.357
3.887
0.663
2.385
4.009
3.855
5.576
1.040
1.852
0.044
0.390
0.048
0.130
0.444
0.606
1.062
1.105
0.866
1.159
X2
X1
X3
1.795
1.844
1.385
2.024
0.506
0.879
8.615
2.443
4.448
1.998
X4
0.155
0.034
5.600
0.411
3.840
0.591
3.301
1.848
0.237
4.082
X5
0.414
3.850
0.379
0.806
1.176
1.381
0.409
0.734
2.044
1.799
343
T`
0.414
0.390
1.385
0.663
1.176
0.879
3.301
1.848
1.040
1.852
m = 10
3.0
344
m = 200
40
2.0
30
1.0
20
0.0
10
0
1
2
3
0
4
5
6
50
400
100
600
150
0
0
200
m = 1000
0
0
1
2
3
4
5
6
1
2
3
4
5
6
m = 5000
0
1
2
3
4
5
6
345
Schliessende Statistik
7
7.1
Schätzungen
Drei Grundfragestellungen der Schliessenden
Statistik
a Aufgabe der Schliessenden oder Analytischen Statistik:
Brücke zwischen Modellen und konkreten Daten schlagen.
Beispiel Asbest.
346
7.1
b Beispiel Schlafverlängerung.
Unterschied Xi in der Schlafdauer bei Verwendung von
Schlafmittel A gegenüber Mittel B.
Modell: Xi ∼ N hµ, σ 2i , unabhängig.
Beobachtungen: 1.2, 2.4, 1.3, 1.3, 0.0, 1.0, 1.8, 0.8, 4.6, 1.4.
347
Fragen:
1
Um wieviel wird der Schlaf verlängert? Wie gross ist wohl
µ?
In welchen Grenzen liegen die Werte µ
die aufgrund der Daten noch plausibel erscheinen?
3
Ist es möglich, dass Mittel A nicht wirksamer ist als B?
Ist µ ≤ 0 mit den Beobachtungen vereinbar?
2
c Methoden:
1 Schätzungen,
2 Tests,
3 Vertrauensintervalle.
348
7.1
d Modell der Zufalls-Stichprobe:
Daten werden unter gleichbleibenden Verhältnissen und
unabhängig voneinander gewonnen.
Unabhängig und gleich verteilt
(independent and identically distributed, i.i.d.)
7.2
349
Schätzungen für ... Normalverteilung
a Problem: Man hat Daten und ein Modell für sie
in Form einer parametrischen Verteilungsfamilie,
Xi ∼ N hµ, σ 2i (i.i.d.).
Werte der Parameter festlegen, und zwar so,
dass sie möglichst gut zu den Daten passen.
d Bsp. Schlafverlängerung.
Erwartungswert µ schätzen durch das arithm. Mittel X
c = S2 .
Varianz σ 2 schätzen durch die empir. Varianz var
P10
2
2
X = 1.58, S 2 = 91 i=1
(X
i − X) = 1.51 = 1.23 .
Modell, das die Daten gut beschreibt: N h1.58, 1.232i .
e Beispiel Küken : X = 106.25,
Xi ∼ N h106.25, 10.62 i .
350
S 2 = 111.8 = 10.62 ,
20
15
10
5
0
80
90
100
110
120
130
351
7.2
f Prinzip: Kennzahlen der Stichprobe
mit Kennzahlen der Verteilung identifizieren!
−→ Momenten-Methode.
g µ ist (auch) Median der Normalverteilung.
Also durch den Median der Stichprobe schätzen.
352
d sind Schätzungen
h X und med
für den Parameter µ der Normalverteilung.
Schätzungen sind Funktionen, die
den n Daten eine Zahl und damit
den n Zufallsvariablen X1, . . . , Xn eine Zufallsvariable zuordnen.
Schätzungen sind selbst Zufallsvariable.
Bazeichnung: Grossbuchstaben: X, T
oderHut über Parameter, µb, σb, allgemein θb.
7.3
353
Eigenschaften von Schätzungen
a Eigenschaften v. Schätzungen m. Hilfe des W.modells studieren.
Dazu vergessen wir f. den Moment die konkreten Daten wieder.
Legen Modell für die Beobachtungen fest.
b
Xi ∼ N hµ, σ 2i, i = 1, 2, ..., n (i.i.d.).
d ? Verteilungen studieren!
Schätzung X oder med
Verteilung von X ?
d?
Verteilung von med
z.B. Simulation. Übungen. Ergebnisse?
d von n = 5 Xi ∼ N h5, 1i .
Empirischer Median med
5
simulierte Wahrscheinlichkeit
0.15
0.10
0.05
0.0
3
Dichte
0
0.2
simuliert
asymptotisch 0.5
exakt
7
354
7.3
355
d Welche Schätzung soll man wählen?
Die T soll möglichst nahe bei θ liegen!
Ein Mass für die Grösse der Abweichungen ist der
mittlere quadratische Fehler”
”
MSE = E (T − θ)2 = varhT i + (EhT i − θ)2
b = EhT i − θ misst Unterschied zw. dem Erwartungswert von T
und dem Sollwert” θ .
”
Systematischer Fehler oder Bias b der Schätzung.
Bias b = 0 : erwartungstreu”
”
b2 und varhT i sollen klein sein!
Oder: Erwartungstreu ( b = 0 ) und varhT i möglichst klein!
7.3
356
e Xi ∼ N h5, 1i, i = 1, 2, ..., n .
d = µ = 5.
EhXi = EhXii = µ = 5 .
Ehmedi
d ? Simulation: ≈ 0.294 .
varhXi = n1 varhXii = 51 .
varhmedi
Standardabweichungen ( Standardfehler”) 0.447 resp. 0.542.
”
X gewinnt! ... auch gegenüber allen anderen.
Für normalvert. Beob. ist X die beste Schätzung von µ !
f Exponential-Vert. Schätzung der Halbwertszeit (Median)
τ = logeh2i/λ . Xi ∼ Exphλi .
Empirischer Medians von n = 3 und n = 5 Beobachtungen.
d 6= τ !
Ehmed
b 6= 0 .
b nimmt mit zunehmendem n ab. Die Verteilung wird schmaler.
357
[ n=
Ehmedi,
Median 5 3
H
H
j ?
H
Beobachtungen
Median, n = 3
Median, n = 5
Dichte
0
Bias
2
4
7.3
358
g b = 0 : biasfrei oder erwartungstreu (englisch unbiased).
Viele übliche Schätzungen sind erw.treu,
wenn die Modell-Annahmen stimmen”.
”
j Varianz σ 2 = varhXii schätzen!
P
1
2
S 2 = n−1
i (Xi − X) . Gute Schätzung?
Erwartungstreu? Es sei EhX i = 0 .
i
D Xn
E
X n
E
(Xi − X)2
= E
Xi2 − nX 2
Xn i=1
i=1
=
i=1
EhXi2i − n EhX 2i
1
= n σ 2 − n · σ 2 = (n − 1)σ 2
n
Deshalb der ominöse Faktor 1/(n − 1) in S 2 .
k Verteilung von S 2 hängt von der Verteilung der Xi ab!
359
8. Tests
8.3
Weitere Beispiele und Begriffe
a Beispiel Schlafverlängerung
Nullhypothese: kein Unterschied
Xi ∼ N h0, 1.5i;
Xi unabhängig
b Alternativen: (HA)µ : Xi ∼ N hµ, 1.5i mit µ > 0 (einseitig).
Beobachtungen zusammenfassen! X Test-Statistik” U .
”
360
8.3
c Verwerfungsbereich?
U = X ∼ N h0, 1.5/10i
falls H0 gilt.
√
T = X/ 0.15 ∼ N h0, 1i −→ Extreme Werte: T ≥ 1.64 .
d x = 1.58, t = 1.58/1.5 = 1.05 < 1.64 .
Verwerfung. Effekt statistisch nachgewiesen.
361
8.3
f Modern: Statt t mit c zu vergleichen, können wir
P hT > 1.05i = P hX > 1.58i = 0.15
ausrechnen.
W. von mindestens so extremen Werten wie der beobachtete.
P-Wert p
t > 1.64
⇐⇒
p < 0.05
8.4
362
Vorgehen bei einem statistischen Test (Rezept)
a Problem formulieren, in Worten.
b Nullhypothese H0 . Modell für die Beobachtungen.
Oft: Parametrische Familie, H0 legt Parameter fest.
In der Regel möchte man H0 gerne widerlegen.
c Alternativen HA werden in Betracht ziehen
(einseitig oder zweiseitig)
d Test-Statistik.
Verteilung von U unter Alternativen soll möglichst stark
verschieden sein von der Vt. unter der Nullhypothese (Macht!).
Oft: Parameter testen: H0 : θ = θ0 .
−→ Test-Statistik U = θb.
363
Art des Experimentes, Beobachtungs-Situation [a]
?
Modelle für eine Beobachtung:
H
Nullhypothese [b]
Q
Q
Q
Q
Q
HH
j
H
Alternativen [c]
?
(1)
Test-Statistik [d]
Q
Q
Q
QQ
s )
Verteilung der Test-Statistik unter der Nullhypothese [e]
W.dichte
Niveau [f,j] (2)
bereich [f] (1)
Verwerfungs-
364
8.4
e Verteilung F0hU i von U unter H0
Standardisierte Test-Statistik T .
f Klassische Variante: Verwerfungsbereich bestimmen.
Willkürlich: Niveau α wählen.
Kritischer Wert”, oft aus Tabelle oder Diagramm.
”
g Bis hierher: Test-Vorschrift fertig verpackt”
”
in den Lehr- und Nachschlagebüchern nachzulesen.
365
Art des Experimentes, Beobachtungs-Situation [a]
?
Modelle für eine Beobachtung:
H
Nullhypothese [b]
Q
Q
Q
Q
Q
HH
j
H
Alternativen [c]
?
(1)
Test-Statistik [d]
Q
Q
Q
QQ
s )
Verteilung der Test-Statistik unter der Nullhypothese [e]
Nullhypothese verworfen! [i] (3)
6
1
Ausrechnen des Wertes der Test-Statistik [h] (3)
366
8.4
h Beobachtungen −→ Wert t der (standard.) Test-Statistik T
i Klassisch: Entscheidung:
Falls t ∈ K , wird die Nullhypothese verworfen.
j Modern: P-Wert bestimmen. Entscheidung:
Falls p < 5% , wird die Nullhypothese verworfen.
8.5
367
Tests für eine St. oder zwei gepaarte Stichproben
a Problem eine Stichprobe”: Xi, i = 1, 2, . . . , n , unabhängig.
”
Kann ein bestimmter Lageparameter (Erwartungswert, Median)
gleich einem vorgegebenen Wert µ0 sein?
H0 : µ = µ 0 .
µ0 : physikalische Konstante, chemische Konzentration,
Grenzwert.
8.5
368
b Problem zwei gepaarte oder verbundene Stichproben”:
”
Blutdruck vor und nach Medikamenten-Einnahme,
•
Grösse von Vater und Sohn (Beobachtungseinh = Familie)
•
Schlaflänge bei zwei Schlafmitteln,
•
•
Anzahl beobachteter Verhaltenselemente von Mäusen
bei Licht und bei Dunkelheit. Verbundene Stichproben”
”
Xi = Differenz der Zielgrösse in den beiden Zuständen.
(evtl. nach Transformation).
Frage: Differenz im wesentlichen gleich null”?
”
H0 :
µ = 0.
8.5
369
d z-Test: besprochen.
H0 :
Xi ∼ N hµ0, σ02i, i = 1, . . . , n , unabhängig;
die Varianz σ02 sei bekannt
HA :
Xi ∼ N hµ, σ02i,
(a) µ > µ0 ;
U :
X=
1
n
i = 1, . . . , n , unabhängig, mit
(c) µ 6= µ0
(b) µ < µ0 ;
Pn
i=1 Xi
F0hU i : X ∼ N hµ0, σ02/ni
K:
Testgrösse standarisieren: Z =
X−µ
√0
σ0 / n
∼ N h0, 1i
370
Kritische Werte für Z :
(a) c so, dass 1 − Φhci = 0.05
(b) c so, dass Φhci = 0.05
(c) c1 so, dass 1 − Φhc1i = 0.025
c0 so, dass Φhc0i = 0.025
⇒ c = 1.64 ; K = {Z ≥ 1.64}
⇒ c = −1.64; K = {Z ≤ −1.64}
⇒ c1 = 1.96;
⇒ c0 = −c1; K = {|Z| ≥ 1.96}
Kritische Werte für standardisierte Testgrösse unabhängig von n, µ0, σ0 .
e Beispiel Reifen (nach Lehn+Wegmann, 1992).
Vergleich von 2 Profilen auf Winterreifen bezügl. Bremswirkung
10 Testfahrzeuge. σ0 = 3 aus früheren Versuchen.
371
i Profil A Profil B Differenz Vorzeichen
1
44.5
44.9
0.4
+
55.0
54.8
– 0.2
–
2
52.5
55.6
3.1
+
3
4
50.2
55.2
5.0
+
45.3
55.6
10.3
+
5
46.1
47.7
1.6
+
6
52.1
53.0
0.9
+
7
50.5
49.1
– 1.4
–
8
50.6
52.3
1.7
+
9
49.2
50.7
1.5
+
10
mittlere Differenz
2.29
√
z = 2.29/(3/ 10) = 2.41 ∈ K :
−→ Die Reifensorten unterscheiden sich statistisch signifikant
in der Länge des Bremsweges.
372
8.5
f Meistens: Nullhypothese Xi ∼ N hµ0, σ 2i , unabhängig,
σ unbekannt.
Nicht eine einzige Verteilung, sondern
alle Normalverteilungen mit Erwartungswert µ0 .
σ 2 : Stör-Parameter, nuisance parameter.
σ durch den Schätzwert σ
b = S ersetzen!
X − µ0
T =
√ =q
S/ n
X − µ0
P
1
n(n−1)
(Xi − X)2
8.5
373
g S schwankt zufällig. T nicht normalverteilt.
Verteilung von T hängt nur vom Stichprobenumfang n ab.
m = n − 1 Freiheitsgrade”.
”
Verteilung von T : grössere Varianz und langschwänziger.
f hti
0.4
0
−3
N
15 7
3
1
0
3
t
t-Test von Student.
8.5
√
374
√
i S/ n : Schätzung der Standard-Abweichung σ0/ n
des arithmetischen Mittels X ,
Standardfehler”, standard error se.
”
j Beispiel Reifen: S 2 =
(0.4−2.29)2 +(0.2−2.29)2 +. . . +(1.5−2.29)2 = 3.312 ,
1
9
Standardfehler
√
se = 3.31/ 10 = 1.048 , t = 2.29/1.048 = 2.18 .
m = 10 − 1 . Krit.Wert 2.26 > |t| . H0 nicht verworfen!
Einseitiger Test: Kritischer Wert 1.83. Signifikant!
Interpretation?
8.5
375
k Vorzeichen-Test (oder Zeichen-Test).
Testgrösse = Anzahl Beobachtungen grösser als µ0
= Anzahl positive Vorzeichen von Xi − µ0 .
l
H0 :
Xi ∼ F 0 mit Median µ0 , unabhängig.
HA : Xi ∼ F mit Median µ ;
(a) µ > µ0 , (b) µ < µ0 , (c) µ 6= µ0 .
U :
U = Anzahl {i | Xi > µ0}
F0hU i : P0hXi > µ0i = 1/2 ,
K:
U ∼ Bhn, 1/2i .
Tabelle!
m Beispiel Reifen: 8 positive Vorzeichen von n = 10 .
Tabelle: c0 = 1 , c1 = n − c0 = 9 .
Nullhypothese durch den Vorzeichentest nicht abgelehnt.
376
8.5
o Keine Normalverteilung vorausgesetzt!
Aber: Information verschenkt”.
”
p Rangsummen-Test von Wilcoxon für gepaarte Stichproben
oder Vorzeichen-Rangsummen-Test
(signed rank test, one-sample Wilcoxon test).
Xi ∼ F , unabhängig, F symmetrisch bez.
(b) µ < µ0 ; (c) µ 6= µ0 .
HA :
Xi ∼ F 0 , unabh., F 0 stetig und symmetrisch bez. µ0
H0 :
(a) µ > µ0 ;
U :
377
Nach folgendem Rezept zu bilden:
1. Bilde Xi0 = Xi − µ0 , streiche die negativen Vorzeichen,
bilde die Ränge .
Ri
D
E
Ri = rank |Xi0| |X10 |, |X20 |, . . . , |Xn0 | .
Beispiel Reifen: µ0 = 0 , Xi − µ0 Differenz der Bremswege.
Ränge Ri : 2, 1, 8, 9, 10, 6, 3, 4, 7, 5.
2. Summiere die Ri , für die Xi − µ0 > 0
Beispiel: 2+8+9+10+6+3+7+5=50.
Sei Vi = 1 , falls Xi − µ0 > 0 ist, Vi = 0 sonst.
U+ =
Pn
i=1 Vi Ri .
Beispiel: u+ = 1 · 2 + 0 · 1 + 1 · 8 + 1 · 9 + 1 · 10 + 1 · 6 + 1 ·
3 + 0 · 4 + 1 · 7 + 1 · 5 = 50 .
Pn
Pn
+
−
U − = i=1
(1
−
V
i )Ri . U + U =
i=1 Ri = n(n + 1)/2 .
378
F0hU i : Verteilung von U + oder U − hängt nicht von
der Verteilung F ab (solange sie stetig ist).
K:
(a)
Bis n = 30 aus Tabelle:
c aus der Zeile c , einseitig”;
”
K = {U + ≥ n(n + 1)/2 − c} = {U − ≤ c} ;
(b)
(c)
c aus der Zeile c , einseitig”; K = {U + ≤ c} ;
”
c0 aus der Zeile c0 , zweiseitig”;
”
K = {U + ≤ c0} ∪ {U + ≥ n(n + 1)/2 − c0}
= {minhU + , U −i ≤ c0} .
Für grössere n : Approximation durch die Normalvert.
n
c, einseitig
c0, zweiseitig
n
c, einseitig
c0, zweiseitig
n
c, einseitig
c0, zweiseitig
1
11
13
10
21
58
67
2
12
17
13
22
65
75
3
13
21
17
23
73
83
379
4
5
6
7
8
9
10
0
2
3
5
8
10
0
2
3
5
8
14 15 16 17 18 19 20
25 30 35 41 47 53 60
21 25 29 34 40 46 53
24 25 26 27 28 29 30
81 89 98 107 116 126 137
91 100 110 119 130 140 151
380
Beispiel Reifen: u+ = 50 , u− = 5 .
Tabellenwert c0 = 8 , n(n + 1)/2 − c0 = 47 < u+ ( u− ≤ 8 ).
Nullhypothese verworfen.
U ist asymptotisch normalverteilt.
n(n + 1)
n(n + 1)(2n + 1)
, varhU + i =
EhU + i =
4
24
U + − n(n + 1)/4
U + − EhU + i
p
≈∼ N h0, 1i
=p
Z+ =
varhU + i
n(n + 1)(2n + 1)/24
Verwerfungsbereich (zweiseitig): |Z +| ≥ 1.96 .
8.5
381
q Keine ( Bindungen”), ties) oder Nullen!
”
Nullen (Xi = µ0) weglassen.
(Vert. von T = bedingte Vert., gegeben die Anzahl Nullen).
Bindungen: Ränge aufteilen. Asymptot. Näherung mit korrig.
Varianz.
Herleitung der Verteilung von U + :
Wie verteilen sich die Vorzeichen auf die Ränge, wenn H0 gilt?
|xi0 | 0.2 0.4 0.9 1.4 1.5 1.6 1.7 3.1 5.0 10.3
Rangh|xi0 |i 1
2
3
4
5
6
7
8
9
10
Vorzhxi0 i –
+ +
–
+ + + + +
+
vi
0
1
1
0
1
1
1
1
1
1
3. Zeile zufällig, Bernoulli-vert.
Jede Folge von 10 Vorzeichen hat gleiche Wahrscheinlichkeit
1/210 .
−→ Verteilung von U + .
8.5
382
r Test-Statistiken, deren Verteilung nicht von einem konkreten
parametrischen Modell für die Beobachtungen abhängt,
und die entsprechenden Tests nennt man nicht-parametrisch
(oder verteilungsfrei). Rangtest.
Genaueres, Allgemeineres unter den Stichworten
Randomisierungs-Tests oder Permutations-Tests.
s Wilcoxon-Test nützt absolute Grösse
der positiven gegenüber den negativen Xi − µ0 aus.
Nullhypothese ist schärfer” als beim Vorzeichnetest:
”
Es wird Symmetrie vorausgesetzt.
Für Differenzen der Paare bei verbundenen Stichpr. naheliegend.
t Welchen Test wählen?
8.6
383
Interpretation von Testergebnissen
a Verwerfung der Nullhypothese. Interpretation?
(1)
(2)
Ein Effekt ist nachgewiesen, eine Alternative” ist richtig,
”
Nullhypothese auf andere Weise verletzt:
Xi sind nicht unabhängig,
•
Daten enthalten systematischen Fehler,
•
•
(3)
nicht normalverteilt (beim t-Test),
nicht symmetrisch verteilt (beim Rangsummen-Test),
nicht alle gleich verteilt medhXii versch. beim Vorz.t. ,
es ist zufällig das unwahrscheinl. Ereignis K eingetreten.
384
(3) ist unvermeidbar. W. durch Signifikanzniveau kontrolliert.
Man möchte (2) vermeiden, um (1) schliessen zu können.
Aber wie?
b (A)
Xi ∼ N hµ, σ02i , σ02 bekannt → z-Test.
Xi ∼ F symmetrisch um µ , sonst bel. → Rangsummen-
(C)
Xi ∼ N hµ, σ02i , σ02 unbekannt → t-Test.
(B)
Test.
(D)
Xi ∼ F i mit Median µ , sonst beliebig → Vorzeichen-Test.
Unabhängigkeit der Xi .
8.6
385
c • Annahme, dass die Nullhypothese oder eine Alternative gilt”,
”
ist Voraussetzung für die Anwendung des Tests.
d • Gesamte Nullhypothese führt zu statistischem Widerspruch”.
”
Abweichungen von den anderen Annahmen wegdiskutieren
(soweit möglich überprüfen).
e Tests verwenden, die möglichst wenige Voraussetzungen
brauchen!
Also immer Rangsummen-Test statt t- oder z-Test,
immer Vorzeichen-Test statt Rangsummen-Test.
8.6
386
f Nein! Information ausnützen. Macht = W. für Fehler 2. Art.
Die allzu grosszügige Lockerung der Voraussetzungen
bezahlt man mit einem Verlust an Macht.
g Konkrete Empfehlung für das Testen eines Lageparameters:
sonst Vorzeichen-Test durchführen;
•
Rangsummen-Test von Wilcoxon anwenden, falls
Verteilung symmetrisch ist wegen
– theoretischen überlegungen (z.B. Differenzen),
– empirischen Resultaten in grossen Datensätzen,
– Vorwissen (frühere Studien mit ähnlichen Daten);
•
•
387
t-Test (und z-Test) vermeiden.
Gewinn an Macht für normalverteilte Beob. minim.
Wenn nicht genau normalvert., hat der Rangsummen-Test
meistens grössere Macht als der t-Test
(Ausnahme: Sehr kleine Stichproben).
8.7
388
Der P-Wert
f hti
P-Wert
α = 5%
t∗
c0
t
c Signifikanz: Test-Statistik rechts von c0 ( ∈ K )
⇐⇒ P-Wert kleiner als 5% – und umgekehrt.
P-Wert: verfeinertes Mass der Signifikanz”.
”
P = 6% : knapp nicht signifikant, Nachdenken erlaubt”.
”
P = 74% : kein Hinweis auf Abweichung von der Nullhypothese.
389
8.7
d Literatur, ältere Konvention:
P > 0.05
0.05 ≥ P > 0.01
0.01 ≥ P > 0.001
0.001 ≥ P
z = 2.63∗∗ .
nicht signifikant
schwach signifikant
stark signifikant
sehr stark signifikant
(n.s.)
*
**
***
z = 1.46 (n.s.).
8.7
390
e Hinweise:
P-Wert und Wahrscheinlichkeit!
Die Wahrscheinlichkeit für die Nullhypothese ist 10%.”
”
BITTE NICHT!
Die Irrtums-Wahrscheinlichkeit ist 3%.”(auch nicht.)
”
•
P-Wert aus verschiedenen Tests ?!
•
Achtung: Wegen Faulheit der Programmierer oft
unexakte Tests!
(Asymptotische Näherung auch bei kleinen Stichproben!)
•
Mit P-Wert kann man einfacher entscheiden als mit t .
Computer muss mehr arbeiten.
•
P-Wert = transformierte Test-Statistik mit uniformer Vert.
•
•
391
Bei diskret vert. T ist der P-Wert auch diskret verteilt.
F (X)
F (P W )
0
0
1
1
0
10
0
x
1
t
8.8
392
Vergleich von zwei quantitativen Stichproben
a Einige Fragestellungen:
Führt Düngersorte A zu höherem Ertrag als Dünger B?
•
Unterscheiden sich Schnecken auf Mager- & Fettwiesen?
•
Haben Raucher und Nichtraucher unterschiedl. Blutdruck?
•
Unterscheiden sich Puppengewichte von Fliegen (der gl. Art),
die sich in gleich grossen Tieren
verschiedener Wirtsarten entwickeln?
•
Je eine Stichprobe aus zwei verschiedenen Grundgesamtheiten.
Zielgrössse Y messen.
393
8.8
b Unterscheidung von gepaarten Stichproben:
Stichprobenumfänge n1 und n2 können
für unabh. Stichproben verschieden sein;
bei gepaarten Stichproben immer gleich gross.
8.8
394
Y2,1, Y2,2, . . . , Y2,n2
d Modell: Y1,1, Y1,2, . . . , Y1,n1
Y1,i ∼ F 1 , i = 1, 2, . . . , n1;
Y2,i ∼ F 2 ,
i = 1, 2, . . . , n2;
Y1,1, Y1,2, . . . , Y1,n1 , Y2,1, . . . , Y2,n2
H0 :
alle unabhängig.
F 1 = F 2 . Alle Y haben gleiche Verteilung.
HA : F 1 und F 2 unterscheiden sich
durch eine Verschiebung δ : F2hxi = F1hx − δi
Speziell: Y1,i ∼ N hµ, σ 2i Y2,i ∼ N hµ + δ, σ 2i .
δ interessierender Parameter, µ, σ Stör-Parameter.
e
δb = Y 2,· −Y 1,· = (Y2,1 +. . . +Y2,n2 )/n2 −(Y1,1 +. . . +Y1,n1 )/n1
395
8.8
f Zwei-Stichproben-z-Test.
Beispiel Mastochsen. 2 Futterarten vergleichen.
Zielgrösse: mittlere wöchentliche Gewichtszunahme in 1 Monat.
Erfahrung: Solche Gewichtszunahmen ≈∼ N h..., (σ0 = 1.8kg)2i .
Einseitige Alternative.
8.8
g
Y1,i ∼ N hµ1, σ02i;
HA :
Yk,i ∼ N hµ, σ02i
H0 :
einseitig: δ > 0 .
U :
396
(i.i.d.) ;
Y2,i ∼ N hµ1 + δ, σ02i
U = Y 2,· − Y 1,·
F0hU i : Y k,· ∼ N hµ, σ02/nk i , also
U = Y 2,· − Y 1,· ∼ N 0, σ02 (1/n1 + 1/n2)
Z = p
K:
Y
2,·
−Y
1,·
σ02(1/n1 + 1/n2)
∼ N h0, 1i
einseitig: K = {Z ≥ 1.64} .
397
8.8
h Mastochsen:
extensiv” 2.7
”
intensiv” 6.5
”
2.7
5.4
1.1
8.1
3.0
3.5
1.9
0.5
3.0
3.8
3.8
6.8
3.8
4.9
0.3
9.5
1.9
6.2
1.9
4.1
y − y = 5.39kg − 2.37kg = 3.02kg
2,·
1,·
p
z = 3.02/ 1.82 · 2/11 = 3.93 > 1.64 .
Nullhypothese (wuchtig) verworfen.
(Sinn eines solchen Tests? Schätzproblem!)
8.8
398
i t-Test.
Y1,i ∼ N hµ, σ 2i, Y2,i ∼ N hµ + δ, σ 2i,
HA :
Yk,i ∼ N hµ, σ 2i
H0 :
(i.i.d)
δ 6= 0 (oder δ > 0 oder δ < 0 ),
unabhängig.
Man ersetzt in der standardisierten Statistik für den z-Test
die Varianz σ02 durch eine Schätzung,
1
σ
b2 =
n1 + n 2 − 2
n1
X
i=1
(Y1,i − Y 1,· )2 +
n2
X
(Y2,i − Y 2,· )2
i=1
!
.
t-Verteilung mit n1 + n2 − 2 Freiheitsgraden.
8.8
399
j Test mit weniger Voraussetzungen!
Rangsummen-Test von Wilcoxon, Mann und Whitney, U-Test
F bel. Vert.
Y1,i ∼ F 1, Y2,i ∼ F 2 , F2hxi = F1hx − δi , δ 6= 0 .
HA :
Yk,i ∼ F (i.i.d);
H0 :
U : 1. Bestimme Rang Rk,i bezügl. vereinigten Stichproben”
P n1
P
”
n2
(2)
2. U (1) = i=1
R
=
1,i (oder U
i=1 R2,i )
( U (1) + U (2) = (n1 + n2)(n1 + n2 + 1)/2.)
T (k) = U (k) − nk (nk + 1)/2
( T (1) + T (2) = n1n2 .)
Zweiseitige Fragestellung: T = minhT (1), T (2)i .
F0hU i : Verteilung von T (k) hängt nur von n1, n2 ab.
Grosse n1, n2 : Asymptotische Näherung.
K:
Tabelle.
n1 1 2 3 4 5
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
0
0
0
0
1
1
1
1
1
2
2
2
2
–
–
–
–
0
1
1
2
2
3
3
4
4
5
5
6
6
7
7
8
–
–
–
0
1
2
3
4
4
5
6
7
8
9
10
11
11
12
13
14
–
–
0
1
2
3
5
6
7
8
9
11
12
13
14
15
17
18
19
20
400
n2
6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
–
–
1
2
3
5
6
8
10
11
13
14
16
17
19
21
22
24
25
27
–
–
1
3
5
6
8
10
12
14
16
18
20
22
24
26
28
30
32
34
–
0
2
4
6
8
10
13
15
17
19
22
24
26
29
31
34
36
38
41
–
0
2
4
7
10
12
15
17
20
23
26
28
31
34
37
39
42
45
48
–
0
3
5
8
11
14
17
20
23
26
29
33
36
39
42
45
48
52
55
–
0
3
6
9
13
16
19
23
26
30
33
37
40
44
47
51
55
58
62
–
1
4
7
11
14
18
22
26
29
33
37
41
45
49
53
57
61
65
69
–
1
4
8
12
16
20
24
28
33
37
41
45
50
54
59
63
67
72
76
–
1
5
9
13
17
22
26
31
36
40
45
50
55
59
64
69
74
78
83
–
1
5
10
14
19
24
29
34
39
44
49
54
59
64
70
75
80
85
90
–
1
6
11
15
21
26
31
37
42
47
53
59
64
70
75
81
86
92
98
–
2
6
11
17
22
28
34
39
45
51
57
63
69
75
81
87
93
99
105
–
2
7
12
18
24
30
36
42
48
55
61
67
74
80
86
93
99
106
112
–
2
7
13
19
25
32
38
45
52
58
65
72
78
85
92
99
106
113
119
–
2
8
14
20
27
34
41
48
55
62
69
76
83
90
98
105
112
119
127
401
8.8
k Beispiel Mastochsen.
Daten·10
ext. 3 11 19 19 19 27 27 30 30
38 38
int. 5
35
38 41 49 54 62 65 68 81 95
P
Ränge
ext. 1
3 5 5 5 7.5 7.5 9.5 9.5
13 13
79
int. 2
11
13 15 16 17 18 19 20 21 22 174
u(1) = 79 und u(2) = 174 . (Kontrolle: u(1) +u(2) = 22·23/2 .)
t(1) = 79 − 11 · 12/2 = 13, t(2) = 174 − 11 · 12/2 = 108 ,
t = minht(1), t(2)i = 13 .
K = {T ≤ 30} . Nullhypothese wird verworfen.
402
8.8
m Vergleich der Streuungen
n Grafischer Vergleich mit box-plots.
Unterschiede zwischen den Medianen von 2 Gruppen signifikant?
Kerben. Es soll gelten:
Wenn sich die Kerben von zwei Kisten nicht überschneiden,
dann ist der Unterschied zwischen den Gruppen signifikant.
−→ Notched box plots”, gekerbte Kisten-Diagramme.
”
(Testregel nicht nach dem üblichen Schema!)
0
20
60
Zuwachs
40
80
Behandlung
1
2
403
8.9
404
Macht
a Bisher: H0 vorausgesetzt.
Wahrscheinlichkeiten nur unter dieser Voraussetzung berechnet.
P (0) Verwerfen von H0 = α
Jetzt: Alternative voraussetzen.
Fehler: H0 nicht verwerfen. = Fehler 2. Art
Wahrscheinlichkeit berechnen!
Berechnung von Wahrscheinlichkeiten setzt genau spezifizierte
Hypothese voraus!
P (A)hT 6∈ Ki = 1 − P (A)hT ∈ Ki = β (A).
405
1 − β (A) = W. der richtigen Entscheidung = Macht
”
soll möglichst hoch sein.
(Aufgepasst: In manchen Büchern wird
die Macht mit β bezeichnet.)
b K ist der Verwerfungsbereich, hergeleitet aus der
Verteilung der Test-Statistik unter der Nullhypothese
Der Test (die Entscheidungsregel) bleibt.
406
8.9
c Beispiel Mastochsen: 2 Fütterungsarten vergleichen.
Wahrer” Unterschied δ = 1.0 kg/Woche (Vermutung).
”
Wie gross ist die Wahrscheinlichkeit, dass dieser Effekt, falls er
richtig ist, sich durch den Versuch statistisch nachweisen lässt?
... d.h., dass die Testregel zur Verwerfung von H0 führt?
407
Entscheidungsregel: H0 verwerfen, falls Z > 1.64 .
−→ U = Z ·
p
1.82 · 2/11 = Z · 0.77 , also
Z > 1.64 −→ U > 1.64 · 0.77 = 1.26 .
Vt. von T unter HA mit δ = 1.0 kg ist
U = Y 2· − Y 1· ∼ N
δ, σ02
1
1
+
n1 n2
= N h1.0, 0.772 i
Macht 1 − β (A) = P (A)hU > 1.26i
=1−Φ
1.26−1
0.77
= 1 − Φh0.34i = 0.37
−→ Wahrsch. eines erfolgreichen Ausgangs” des Versuchs
”
(statistischer Beweis” eines Effekts gelungen)
”
= 37%. (!)
408
Verteilung der Test-Statistik U ...
... unter H0 unter HA
f
Macht 1 − β
α = 5%
P
PP
0
P
1
-
-
u
Verwerfungsbereich
δ
409
8.9
d Oft keine Vermutung betreffend Effekt δ .
−→ Macht als Funktion von δ .
n1 = n 2 = n .
H0 verworfen, wenn U > 1.64 · σ0
Unter HA gilt U ∼ N δ, σ02 2/n
D
E
p
1 − β (A) = P (A)
= 1−Φ
= 1−Φ
U > 1.64 · σ0
*
p
1.64 ·
σ0
σ0
p
2/n
2/n − δ
2/n
δ p
1.64 −
n/2
σ0
p
2/n
+
.
410
Die Macht nimmt zu mit standardisiertem Effekt” δ/σ0
”
und Stichprobenumfang n .
1
1−β
0.8
n1 = n 2
=40
n1 = n2 = 11
0.37
0
0
δ/σ0
1
Macht 1 − β (A) als Funktion von δ heisst auch Gütefunktion.
β (A) , als Funktion von δ heisst auch Operations-Charakteristik.
411
8.9
e Wie gross muss n sein, damit bei δ = 1.0 und σ0 = 1.8
1 − β (A)
= 0.80 wird?
1.0 p
1 − Φ 1.64 −
n/2
= 0.8 =⇒
1.8
p
1.64 − 0.56 n/2 = −0.84
2
n=2·
2.48
0.56
= 39.2
Es braucht (etwa) 40 Tiere pro Gruppe.
−→ Versuchsplanung, Berechnung des Stichprobenumfangs.
412
8.9
f* Man muss σ0 ungefähr kennen und δ festlegen.
Vorversuch?
Nichtparametrischer Test?
g* Macht (-funktion) als Qualitätskriterium zur Wahl eines Tests.
Optimieren! −→ Mathematische Statistik.
Optimale Schätzungen −→ Testgrössen für optimale Tests.
8.11
413
Sinn und Unsinn statistischer Tests
a Fachzeitschriften: Man darf nur über Effekte schreiben,
die statistisch auf dem 5%-Niveau signifikant sind.
−→ Test dient als Filter gegen wilde Spekulationen.
Perversion: Untersuche Fragen, für die ein signifikantes Ergebnis
erwartet werden kann – auch uninteressante ...
Statistiker unterstützen diesen Unsinn nicht.
Relevanz wichtiger als Signifikanz!
8.11
414
b Unterschied zwischen (statistischer) Signifikanz” und
”
(praktischer) Relevanz”
”
Zu kleine und zu grosse Stichproben!
Mit grossen Stichproben kann man Bagatelleffekte,
die eigentlich niemanden interessieren, stolz
als statistisch signifikant” nachweisen und publizieren.
”
c* Konsequenz? Statistische Tests sind unsinnig!
−→ Man müsste H0 : θ ≤ Schwellenwert γ prüfen!
Regel für Entscheidung zwischen H0 : θ ≤ γ und H1 : θ > γ .
415
8.11
d Wieso Tests ausführlich behandeln?
Grundlage für Vertrauensintervall.
•
Grundlage für das Verständnis der Beziehung zwischen
Wahrscheinlichkeits-Modellen und empirischen Daten.
•
Filter gegen wilde Spekulationen
•
416
9. Vertrauensintervalle
9.3
Vertrauensintervalle für Lageparameter
Grundfrage?
a Jedem Test für µ einer Stichprobe entspricht
eine Regel zur Konstruktion von Vertrauensintervallen.
z-Test. Xi ∼ N hµ, σ02i , σ02 bekannt.
Vertrauensintervall für µ ?
417
H0 : µ = µ 0 .
−→ Annahmebereich
√
|X − µ0| (σ0/ n) ≤ 1.96 =
√
√ X − µ0 ≥ −1.96 σ0/ n und X − µ0 ≤ 1.96 σ0/ n
√
√
V0 = X − 1.96 σ0/ n respektive V1 = X + 1.96 σ0/ n
√
X ± 1.96 σ0/ n
b Beispiel Reifen
√
v0 = 2.29 − 1.96 · 3/ 10 = 2.29 − 1.86 = 0.43
v1 = 2.29 + 1.86 = 4.15 .
Vertrauensintervall für die Differenz des Bremsweges:
(0.43, 4.15) = 2.29 ± 1.86 .
Enthält 0 nicht. Nullhypothese µ0 = 0 verworfen.
418
9.3
c t-Test
√
(tn−1)
V0 = X − q0.975
· S/ n ,
√
(tn−1 )
V1 = X + q0.975
· S/ n .
S 2 : empirische Varianz,
(t )
q0.975
: 0.975-Quantil der t-Vert. mit n − 1 Freiheitsgraden
(kritische Grenze für den zweiseitigen t-Test).
n−1
d Vertrauensintervall, das dem Wilcoxon-Test entspricht:
Besser, aber kaum in Programmen anzutreffen.
419
9.3
e Vorzeichentest
Annahmebereich
{c < Anzahl{ i | Xi > µ0} < n − c}
= {c/n < Anzahl{ i | Xi ≤ µ0}/n < 1 − c/n}
= {c/n < Fb hµ0i < 1 − c/n} .
Fb : empirische Verteilungsfunktion.
Untere Grenze: c/n = Fbhµ0i =⇒ µ0 = (c/n) -Quantil qbc/n .
(qbγ , qb1−γ ) mit γ = c/n .
Fb
420
6
1 − c/n
6
u Annahmebereich
für µ0
?
c/n
?
0
-?
V0
µ0
= qb0.2
V1
= qb0.8
4
-
x, µ
421
9.3
f Lage-Differenz δ zwischen zwei unabhängigen Stichproben:
Vertrauensintervalle aus den in 8.8 besprochenen Tests.
g Welches Vertrauensintervall wählen?
9.5
422
Vertrauens- und andere Intervalle
a Vertrauensintervall: zufälliges Intervall,
abhängig von den Daten.
Enthält, wenn man von einem Modell ausgeht,
den wahren Parameterwert mit Wahrscheinlichkeit 95%.
b Annahmebereich: festes Intervall,
abhängig vom zu testenden Parameterwert.
Enthält den Wert der Test-Statistik mit W. 95%,
falls die Nullhypothese richtig ist.
423
9.5
c Streubereich: Intervall, in dem die meisten Daten
enthalten sind.
Kiste im Box-Plot enthält 50% der Daten.
X ± 2σ
b : enthält ungefähr 95% der Daten.
e Kerbenbereich in gekerbten Kisten-Diagrammen:
ermöglicht einen approximativen Test für den
Unterschied zwischen zwei unabhängigen Stichproben.
Genäherte Vertrauensintervalle für die Mediane,
für Vertrauenskoeffizienten ≈ 90% .
9.5
424
g Der Annahmebereich und das Vertrauensintervall werden sehr
oft verwechselt.
Annahmebereich = {µ0 ± c · se}
Vertrauensintervall = {X ± c · se}
µ0
@
@
@
@
@
Vertrauensintervall zu x v1
v0
I
@
@
@
@
@
@
@
R
@
@
@
@
@
-
µ
@
@
@
@
@
@ -
@
x (Annahmebereich zu v1)
Annahmebereich
zu µ0
x
425
9.5
h Dualität.
Das Vertrauensintervall umfasst die Parameterwerte θ ,
die mit einem bestimmten Schätzwert θb verträglich sind.
•
Der Annahmebereich umfasst die Schätzwerte θb,
die mit einem bestimmten θ = θ0 verträglich sind.
•
vgl. Diagramm für die Binomialverteilung.
426
π
0.2
0.2
0.4
0.4
0.6
0.6
0.8
0.8
1
1
0
0/20
5/20
10/20
15/20
20/20
0
X/n
Annahmebereich nicht symmetrisch um θ0
Vertrauensintervall nicht symmetrisch um θb.
9.6
427
Schätzungen, Tests und Vertrauensintervalle
a Vertrauensintervalle sind nützlicher als Punktschätzungen.
Vertrauensintervall enthält Punktschätzung.
Punktschätzung allein sagt nichts über ihre Genauigkeit,
und eine Zahl ohne Genauigkeitsangabe sagt nichts aus!
c Vertrauensintervalle sind nützlicher als Tests
e Vertrauensintervall oder P-Wert?
Beide zeigen, wie signifikant” ein Effekt ist.
”
9.6
428
f Achtung: Relevanz vs. Signifikanz!
nicht wichtig
signifikant,
möglicherweise wichtig
signifikant,
wichtig
signifikant und
nicht signifikant, nicht wichtig
nicht signifikant, möglicherweise wichtig
0
δ
Effekt
relevant
keiner
429
b Punktschätzungen sind Hilfsmittel:
Daten beschreiben, Dichte an Histogramm anpassen.
•
als Test-Statistik zur Konstruktion von Tests
und dadurch von Vertrauensintervallen;
•
d Tests
als Nachweis eines Effekts,
ohne Grösse des Effekts zu quantifizieren
•
für Hypothesen, die nicht einen Parameter festlegen.
Anpassungstests, Test auf Unabhängigkeit
•
Herunterladen