Kapitel 7 : Das Testen statistischer Hypothesen §1 Motivation

Werbung
– 116 –
Kapitel 7 : Das Testen statistischer Hypothesen
§1 Motivation
Beispiel 1.1 (Siehe dazu auch Kapitel 6, Beispiel 3.3) :
Man möchte wissen, ob die mittlere Körperlänge µ der Drosophila
melanogaster im Hochschwarzwald wie in Rheinhessen gleich 2,3 mm
ist, oder nicht. D.h. man möchte die
Hypothese (Nullhypothese)
H : µ = 2,3
(d.h. H = {2,3})
K : µ ≠ 2,3
(d.h. K = IR \ {2,3})
gegen die
Alternative (Alternativhypothese)
testen .
Hierzu mißt man z.B. die Körperlängen x1, x2, . . . , x25 von 25 Insekten.
Die zugehörigen Zufallsvariablen X1, X2, . . . , X25 bilden dann eine iid
Stichprobe (X1, X2, . . . , X25) vom Umfang 25.
Wir nehmen an, daß die Xj =d N(µ, ), wobei = 0,09 bekannt ist.
Der Parameter µ ist unbekannt. Da µ ein Mittelwert der Verteilung von Xj
ist, werden wir ihn durch =
∑
schätzen. Wir werden uns für K
anstelle von H entscheiden (d.h. wir werden H verwerfen) wenn sehr
stark von µ0 = 2,3 abweicht, d.h. wenn
| – 2,3| ≥ c,
wobei c ein noch zu bestimmender kritischer Wert ist.
C := { ∈ IR 25 . | | – 2,3| ≥ c } heißt kritischer Bereich des Tests.
Definition 1.2 : Ein statistischer Test für H gegen K ist eine Vorschrift,
die für jedes aus dem Wertebereich von angibt, ob man H verwirft ,
d.h. sich für K entscheidet oder nicht, d.h. der Test ist durch seinen
kritischen Bereich C ⊂ IRn :
Entscheidung für K ⇔ ∈ C
gegeben.
– 117 –
1.3 Die zwei möglichen Fehler beim Testen, das Signifikanzniveau :
Ob ein Test die richtige Entscheidung liefert, hängt von der zufälligen
Realisierung der Stichprobe (den Daten !) ab.
Es gibt zwei Möglichkeiten, Fehler zu begehen :
Fehler erster Art : Man verwirft H, obwohl H zutrifft.
Fehler zweiter Art : Man akzeptiert H, obwohl H falsch ist.
H verwerfen
H akzeptieren
H richtig
Fehler erster Art
H falsch
Fehler zweiter Art
Für Beispiel 1.1 ergibt sich:
P(„Fehler erster Art“) = | – μ | ≥ P(„Fehler zweiter Art“) = – μ < ,
µ ∈ K = IR \ {µ0} (diese Wahrscheinlichkeit hängt von µ ab!)
Bemerkung : Je größer man c wählt, um so kleiner wird die Wahrscheinlichkeit für den Fehler erster Art und um so größer für den
Fehler zweiter Art (für jedes µ ∈ K).
Diese Situation, daß man nicht beide Fehlerwahrscheinlichkeiten gleichzeitig klein machen kann, ist typisch. Üblicherweise gibt man sich für die
Wahrscheinlichkeit des Fehlers erster Art eine Schranke α vor, die
man zu tolerieren (bzw. zu verantworten) bereit ist, und versucht, unter
dieser Einschränkung einen Test zu finden, für den die Wahrscheinlich-
keit des Fehlers zweiter Art „möglichst klein“ ist.
Man betrachtet also den Fehler erster Art als den schlimmeren, dessen
Wahrscheinlichkeit man auf jeden Fall kontrollieren will.
– 118 –
Definition 1.4 : Diese Schranke α nennt man die Signifikanzschranke
(oder das Signifikanzniveau ) des Tests.
Übliche Werte für α : 0,05 ; 0,01 ; 0,005 ; 0,001 .
Definition 1.5 : PH(„Fehler erster Art“) : = max∈ "!"ℎ$"% "%&'"% (%'")
heißt Niveau des Tests .
Man hat deswegen einen Test zur Signifikanzschranke α vor sich, falls
sein Niveau ≤ α .
Bemerkung 1.6 : Wir haben hier H und K nicht symmetrisch behandelt.
Die Wahrscheinlichkeit für den Fehler erster Art ist klein (höchstens α),
die andere Fehlerwahrscheinlichkeit hat man nicht unter Kontrolle. Sie
könnte groß sein. Deshalb formuliert man den Ausgang des Tests
vorsichtig :
Entweder „Ablehnung von H zugunsten von K“ oder „H kann nicht
abgelehnt werden“.
Insbesondere heißt dies, daß man H nicht als bestätigt ansieht, wenn
der Test nicht zur Entscheidung gegen H kommt.
§2 Der Gaußtest
2.1 (Fortsetzung von Beispiel 1.1) :
Zu berechnen ist das Niveau
P(„Fehler erster Art“) = | – μ | ≥ .
Unter H ist – μ =d N(0, ) ⇒ TG() : =
*+
√-. *
= N(0,1)
d
(siehe Kapitel 6, Beispiel 1.3, Bemerkung 2.5 und Kapitel 5, 2.3 und 2.4).
Für das Niveau des Tests ergibt sich :
| – μ | ≥ = /|01 X| ≥
√3∙5
7
6
= |01 X| ≥ b,
– 119 –
wobei b : =
√3∙5
6
.
Setzt man nun | – μ | ≥ = α, so ergibt sich :
α = |01 X| ≥ b = 01 X ≥ b + 01 X ≤ − b =
= (1 – Φ(b)) + Φ(– b),
da φ(x) symmetrisch um die y-Achse ist (siehe Kapitel 6, 3.1)
⇒
α = 2⋅(1 – Φ(b)) ⇔ Φ(b) = 1 −
wobei die Werte von zβ tabelliert sind.
Hieraus ergibt sich unmittelbar :
c =
<
⇔ b = = . > ,
+
* ∙?@ A >
√
+
, d.h.
C = B C|'1 | = 01 ≥D = . > E = F| − G | ≥D
+
* ∙?@ A >
√
Definition 2.2 : Der Test mit dem kritischen Bereich
C = B C|'1 | = 01 ≥D = . > E = F| − G | ≥D
+
* ∙?
@A
√
+
>
+
H.
H
heißt zweiseitiger Gaußtest mit Signifikanzniveau α
für
H : µ = µ0
gegen
K : µ ≠ µ0 :
– 120 –
2.3 Für unser Zahlenbeispiel 1.1 gilt:
n = 25; µ0 = 2,3; σ0 = 0,3.
Es sei α = 0,05; also = . > = z0,975 = 1,960.
| − G | >
* ∙?
@A
√
> 2,418
>
+
=
+
,KL∙,M
N
= 0,118 ⇔
oder < 2,182 .
Wir entscheiden uns also für K : µ ≠ 2,3 mm, falls
> 2,418 RR
2.4
oder < 2,182 RR .
Einseitiger Gaußtest mit Signifikanzniveau α :
Wir testen
a) H : µ ≤ µ0
gegen
K : µ > µ0 (rechtsseitiger Test)
b) H : µ ≥ µ0
gegen
K : µ < µ0 (linksseitiger Test).
(X1, X2, . . . , Xn) sei wieder eine iid. Stichprobe mit Xj =d N(µ, ),
wobei bekannt ist. Signifikanzniveau : α.
Rechtsseitiger Test a)
Wir werden uns gegen H entscheiden ,
wenn − G zu groß ist.
Ähnlich wie beim zweiseitigen Test erhält man für TG() =
C = S '1 = 01 ≥ D= . < T = B | − G ≥D
d.h. man lehnt H ab , wenn
≥ G +
* ∙?@ A >
√
* ∙?@ A >
√
√-. *
E,
.
:
– 121 –
Linksseitiger Test b)
Wir werden uns gegen H entscheiden ,
wenn − G zu klein ist.
Ähnlich wie beim zweiseitigen Test erhält man für TG() =
C = S '1 = 01 ≤ – D= . < T = B − G ≤ –D
d.h. man lehnt H ab , wenn
≤ G –
√-. *
* ∙?@ A >
√
* ∙?@ A >
√
.
:
E,
Beispiel 2.5 : Angenommen wir wollen testen, ob die mittlere Körperlänge der Drosophila melanogaster im Hochschwarzwald allenfalls
kleiner ist als in Rheinhessen, und deshalb anhand der Daten überprüfen, ob der Schwellenwert µ0 = 2,3 wirklich unterschritten wird, d.h.
wir testen :
H : µ ≥ 2,3
gegen
K : µ < 2,3 .
Da n = 25, σ0 = 0,3 und für α = 0,05 z1 – α = z0,95 = 1,645, ergibt sich
√-. *
≤ – z1 – α ⇔
− 2,3 ≤ –
,LWN∙,M
N
Wir entscheiden uns also für K : µ < 2,3 , wenn
= – 0,099
≤ 2,201 RR .
– 122 –
§3 Der Studentsche t – Test
3.1
Beim Gaußtest muß die Varianz bekannt sein, was in der
Praxis nur in seltenen Fällen angenommen werden kann, z.B. wenn die
Stichprobe (X1, X2, . . ., Xn) sehr groß ist.
Deshalb betrachten wir jetzt die Situation, daß X1, X2, . . ., Xn eine iid.
nach N(µ,σ2) verteilte Stichprobe ist, wobei nun σ2 unbekannt ist.
σ2 muß nun durch die unverzerrte Stichprobenvarianz
1
\
− YZ =
[−1
geschätzt werden. Wir müssen nun TG() durch die t –Statistik :
0] =
√-. +
@
^
∑_ - .-
_A@ `a@ `
=
-.
bc
√[ .
Falls µ0 der zugrunde liegende Parameter ist , dann ist Tt() nach tn – 1,
der Studentschen t – Verteilung mit (n – 1) Freiheitsgraden verteilt,
siehe Kapitel 6, Bemerkung 2.5 (ii). tn – 1 ; β sei das β – Quantil von tn – 1,
0 < β < 1. (Diese Werte sind tabelliert !).
Satz 3.2 : Gegeben sei das Signifikanzniveau α > 0.
t = Tt( x ) sei die Realisierung von Tt( X ).
Für den t – Test (σ2 unbekannt !) ergeben sich nun folgende kritische
Bereiche:
(1) Zweiseitiger t – Test :
H : µ = µ0 gegen K : µ ≠ µ0 :
C = BC|'| ≥ ' – ; – > E .
+
– 123 –
(2) Rechtsseitiger t – Test :
a)
H : µ ≤ µ0 gegen K : µ > µ0 :
C = { x | t ≥ tn – 1; 1 – α} .
Linkssseitiger t – Test :
b)
H : µ ≥ µ0 gegen K : µ < µ0 :
C = { x | t ≤ – tn – 1; 1 – α} .
Beispiel 3.3 (Riede) : Aus jahrelangen Beobachtungen mit einer
Population von Mäusen ist bekannt, daß das Gewicht vier Wochen alter
Tiere im Mittel µ0 = 13,0 g beträgt. Es liege eine Stichprobe von fünf
Mäusen vor :
14; 11,5; 12; 14; 21 g.
Der Sichprobenmittelwert beträgt
x = 14,5 g.
Liegt dieser Wert noch innerhalb der biologischen Variabilität? Ist die
Abweichung von µ0 = 13,0 g noch durch den Zufall zu erklären?
Wir nehmen hierzu an, daß das Gewicht gemäß N(µ, σ2) verteilt ist, und
führen auf dem Signifikanzniveau α = 0,05 einen zweiseitigen t – Test :
H : µ = µ0 gegen K : µ ≠ µ0
durch. Es ergeben sich :
|t| =
x − 13
su
5 =
Freiheitsgrade n – 1 = 4 ; su = 3,81 ;
14,5 − 13 5
3,81
= 0,880 < t 4; 0,975 = 2,776 .
H kann also nicht verworfen werden, d.h. wir können die Abweichungen
dem Zufall zuschreiben.
Beispiel 3.4 (Vogt) : Man vermutet, daß bei Personen, die zu Herzinfarkt neigen, der Eisengehalt des Serums mit einem höheren Durchschnittswert verteilt sein könnte. Es ist bekannt, daß dieser Eisengehalt
bei gesunden Männern um µ0 = 115 (Mikrogramm / Deziliter)
normal-
verteilt ist. Bei n = 16 Männern, die schon einen Infarkt überlebt haben
und nach wie vor infarktgefährdet sind, mißt man folgende Werte :
– 124 –
123, 137, 148, 155, 109, 104, 136, 141,
115, 165, 147, 118, 107, 99, 104, 118.
Zur statistischen Untermauerung obiger Vermutung führen wir einen einseitigen t – Test
H : µ ≤ µ0 gegen K : µ >µ0
auf dem Signifikanzniveau α = 0,05 durch.
Es ergeben sich :
su =
Freiheitsgrade n – 1 = 15 ; x = 126,625 ;
1 16
2
∑ (xi − 126,625)
15 i =1
t =
= 20,545;
126,625 − 115
16 = 2,263 > t 15; 0,95 = 1,753.
20,545
Wir lehnen also H zugunsten von K : µ > 115 ab.
§4 Der p – Wert
4.1
X = (X1 , X 2 , K, X n )
Situation und Beschreibung :
sei eine Stichprobe vom Umfang n, wobei die Xk
nach N(µ, σ2) verteilt sind, und x = (x 1 , x 2 , K, x n ) seien zugehörige
Daten. Betrachten wir den Gaußtest und den t-Test . Diese Tests sind
über eine Teststatistik T() definiert, T( ) und ein kritischer Wert c
(bzw. b) legen den kritischen Bereich C (wo H abgelehnt wird) fest.
T() erzeugt mit variierenden kritischen Werten eine ganze Familie
von Tests , die verschiedenen Niveaus entsprechen. In dieser Situation
ist es üblich, nicht nur zu entscheiden, ob die Daten zur Verwerfung
von H auf einem vorgegebenen Signifikanzniveau α führen, sondern
man bestimmt einen sogenannten p – Wert p( ) mit der Eigenschaft ,
daß
H verworfen wird,
falls p() < α und
H nicht verworfen werden kann, falls p() > α.
– 125 –
Salopp läßt sich sagen :
p( ) ist das kleinste Niveau, auf dem der Test H verwirft, wenn beobachtet wurde.
Der p – Wert vermittelt ein Gefühl dafür, wie stark die beobachteten
Daten der Nullhypothese H widersprechen (oder sie unterstützen).
Weiter ermöglicht die Angabe des p – Wertes anstelle einer „ ja oder
nein “ – Entscheidung auch anderen Anwendern, welche die Daten nicht kennen oder die Testprozedur nicht selbst durchführen wollen,
ihre Entscheidung auf einem Signifikanzniveau α ihrer eigenen Wahl
zu treffen:
p(x) ≤ α : H ist zu verwerfen
p(x) > α : H kann nicht verworfen werden.
Je kleiner also p() ist, umso mehr widersprechen die Daten der
Nullhypothese H.
4.2
Bestimmung von p(x) :
Betrachten wir zunächst den linksseitigen Gaußtest
Hier ist TG() =
Für α < α‘ ist
√-. *
µ ≥ µ0 : µ < µ0 .
und Cα = S '1 = 01 ≤ – D= . < T.
– z1 – α < – z1 – α‘
⇒
Cα ⊂ Cα‘ .
Daraus ergibt sich :
α < p(x) ⇒ TG( ) < – z1 – α , H wird verworfen.
α > p(x) ⇒ TG( ) > – z1 – α , H kann nicht verworfen werden.
Aus Stetigkeitsgründen folgt:
α = p(x) ⇔ TG( ) = – =.ef) ⇔ =.ef) = – TG( ) ⇔
⇔ 1 – p(x) = Φ(– TG( )) ⇔ p(x) = 1 – Φ(– TG( )) ( = Φ(TG( ))).
Beispiel 2.5 : p(x) = 1 – Φ/–
N∙g.,M)
,M
7 ( = Φ/
N∙g.,M)
,M
7 ).
– 126 –
Für den rechtsseitigen und den zweiseitigen Gaußtest erhält man die
p – Werte mit ähnlichen Überlegungen.
Satz 4.3 (p – Werte des Gaußtests) :
Teststatistik TG() =
√-. *
:
Rechtsseitiger Test : p(x) = Φ(– TG( )) = 1 – Φ(TG( ))
p(x) = Φ(TG( )) = 1 – Φ(– TG( ))
Linksseitiger Test :
p(x) = 2(1 – Φ(|TG( )|).
Zweiseitiger Test :
Analog ergeben sich die p – Werte für den Studentschen t-Test.
Satz 4.4 (p – Werte des t-Tests) :
Teststatistik Tt() =
√-. bc
, YZ =
.
∑
− :
Rechtsseitiger Test : p(x) = tn-1(– Tt( )) = 1 – tn-1(Tt( ))
Linksseitiger Test :
Zweiseitiger Test :
Beispiel 3.3 : |Tt( )| =
p(x) = tn-1(Tt( )) = 1 – tn-1(– Tt( ))
p(x) = 2(1 – tn-1(|Tt( )|).
5 14,5 − 13
3,81
= 0,880
p(x) = 2(1 – t4(0,880)) ≈ 2(1 – 0,78) = 0,44 , d.h. H kann auf keinem
vernünftigen Signifikanzniveau verworfen werden.
Beispiel 3.4 : Tt( ) =
16 (126,625 − 115)
= 2,263
20,545
p(x) = 1 – t15(2,263)) ≈ 1 – 0,98 = 0,02, d.h. H kann auf dem Signi-
fikanzniveau α = 0,05 verworfen werden.
– 127 –
§5 Zwei – Stichproben t – Test : Unverbundener Test
5.1
Situation und Konstruktion der Teststatistik :
= , , … , ) und i = i , i , … , ij ) seien zwei unabhängige
Stichproben, (⇒ , , … , , i , i , … , ij ) sind unabhängig.) und
Xj = N(µ, σ2), Yk = N(ν, σ2). σ2 unbekannt.
d
d
(a) Zweiseitiger Test :
H : µ = ν gegen K : µ ≠ ν
(b) Einseitiger Test :
H : µ ≤ ν gegen K : µ > ν
Man wird – i studieren.
– i = N(µ – ν, σ2/ + 7) = N(µ – ν, σ2
j
d
kj
∙j
).
Y- und Yl seien die zu und i gehörigen unverzerrten Stichproben-
varianzen. Wir schätzen σ2 durch
j
p
[– 1)Y- + R– 1)Yl
1
Ym ∶=
=
o\ – [ + \ ip – Ri q.
[ + R –2
[ + R –2
[– 1)Y-
⇒
d
=
s–
; R– 1)Yl
0] , i : =
Definition 5.2 :
-–l
bt
d
=
sj–
⇒ [– 1)Y- + R– 1)Yl
d
=
^kj ist unter der Bedingung µ = ν
j
skj–
.
nach t n+m-2 verteilt.
t = 0] / , u7 sei eine Realisierung von 0] , i.
Der unverbundene t – Test zum Signifikanzniveau α hat die folgenden
kritische Bereiche und p – Werte :
(1) Zweiseitiger Test :
H : µ = ν gegen K : µ ≠ ν :
C =B/ , u7 | |t| ≥ ' k j . ; . > E ; w / , u7 = 2 x1– 'kj– /C0] / , u7C7y.
+
– 128 –
(2) Einseitiger Test :
H : µ ≤ ν gegen K : µ > ν :
C = B/ , u7 | t ≥ 'kj.;. < E ; w / , u7 = 1– 'kj– x0] / , u7y.
Beispiel 5.3 (Köhler, Schachtel, Voleske) :
In einer landwirtschaftlichen Versuchsanstalt erhielten 9 von 22 Masttieren (Gruppe A) Grünfutterzumischung, während die übrigen 13 Tiere
(Gruppe B) ausschließlich mit dem proteinhaltigen Mastfutter gefüttert
wurden. Nach einer gewissen Zeit wurde die Gewichtszunahme in kg bei
den Tieren festgestellt :
A:
7,0 11,8 10,1 8,5 10,7 13,2
9,4 7,9 11,1
B: 13,4 14,6 10,4 11,9 12,7 16,1 10,7 8,3 13,2 10,3 11,3 12,9 9,7
Führen beide Fütterungen zu gleichen Mastergebnissen?
X1, . . ., X9 = N(µ, σ2)
Annahme :
d
(Gruppe A) und
Y1, . . ., Y13 = N(ν, σ2) (Gruppe B) , wobei
d
µ und ν die jeweilige erwartete Gewichtszunahme.
Zu testen ist also : H : µ = ν gegen K : µ ≠ ν .
Wir wählen α = 0,05 .
= 9,97
⇒ &m =
|t| =
g –}
~t
uz = 11,96
{∙M,K k∙W,N|
j
^kj =
&- = 3,90
&l = 4,57
= 4,302 ⇒ sg = 2,074
K,K| – ,KL
,|W
∙^
K∙M
=
,KK
,|W
∙^
|
=
= 2,2127 > t20;0,975 = 2,086,
d.h. H ist zu verwerfen, bzw. die Mastergebnisse sind verschieden.
w / , u7 = 2 /1– ' 2,2127)7 ≈ 2(1 – 0,98) = 0,04 .
– 129 –
§6 Zwei – Stichproben t – Test : Verbundener Test
6.1
Situation und Konstruktion der Teststatistik :
Verbundene Stichproben: ( z.B. die beiden Hälften eines Blattes werden
verschieden behandelt, oder dieselbe Gruppe von Individuen oder
Objekten wird vor und nach einer Behandlung untersucht.)
(X1, Y1), (X2, Y2), . . ., (Xn, Yn) seien also unabhängige Paare von
Beobachtungen. (Xj und Yj brauchen nicht unabhängig zu sein!)
µj : = E(Xj) und νj : = E(Yj) , j = 1, 2, . . ., n.
Wir wollen testen, ob
(a)
H : µ1 = ν1 , . . ., µn = νn
oder
K : (µ1 , . . ., µn) ≠ (ν1 , . . ., νn)
bzw. ob
(b)
H : µj ≤ νj , j = 1, 2, . . ., n oder
K : µj ≥ νj , j = 1, 2, . . ., n,
und mindestens ein µi > νi .
Annahme : Alle Differenzen
Xj – Yj , j = 1, 2, . . ., n, sind normalverteilt,
alle mit derselben unbekannten Varianz σ2.
S d2 sei die zugehörige unverzerrte Stichprobenvarianz.
Ist µ1 = ν1 , . . ., µn = νn , so sind alle
Dj = N(0, σ2) .
d
Dies überprüfen wir nun mit dem uns bekannten
Studentschen t – Test (§3) :
Definition 6.2 : Verbundener t – Test zum Signifikanzniveau α :
(1) Zweiseitiger Test : µ1 = ν1 , . . ., µn = νn wird genau dann abgelehnt,
wenn
g –}
~€
√[
≥ '.;. > .
+
w / , u7 = 2 1– '– /
g –}
~€
√[7‚
(2) Einseitiger Test : µj ≤ νj , j = 1, 2, . . ., n, wird genau dann abgelehnt,
wenn
g –}
~€
√[
≥ '.;. < .
w / , u7 = 1– '– /
g –}
~€
√[7.
– 130 –
Beispiel 6.3 : In einer Anlage von 10- bis 15-jährigen Kirschbäumen
wurde in zwei Jahren, die sich hinsichtlich der Witterung während der
Blüte unterschieden, der Ertrag an acht Bäumen ermittelt. Es sollte dabei
geklärt werden, ob die Witterungseinflüsse zu merklichen Ertragsunterschieden führten.
Baum i
1
2
3
4
5
6
7
8
Jahr X
36,0 31,5
34,0
32,5
35,0
31,5
31,0
35,5
Jahr Y
34,0 35,5
33,5
36,0
39,0
35,0
33,0
39,5
2,0
0,5
– 3,5
– 4,0
– 3,5
– 2,0
– 4,0
Differenz D
– 4,0
Da der Ertrag jeweils am selben Baum ermittelt wurde, muß ein verbun-
dener t – Test durchgeführt werden. Wir wählen α = 0,05 .
= 33,375 kg ; uz = 35,6875 kg
sd = 2,3290 kg
g –}
~€
√[ =
,MN
,MK
⇒
ƒ = – uz = – 2,3125 kg
√8 = 2,808 > t7; 0,975 = 2,365 ,
d.h. H ist zu verwerfen. Es bestehen also merkliche Ertragsunterschiede.
w / , u7 = 2 /1– '| 2,808)7 ≈ 2(1 – 0,99) = 0,02 .
§7 t-Test für den Parameter a der Steigung einer Regressionsgeraden
(Siehe Kapitel 4, §2)
7.1 Situation : Yj = a⋅xj + b + εj , 1 ≤ j ≤ n.
Man interessiert sich dafür, ob die deterministische Variable x
„statistisch relevant“ ist, d.h. man hat das Testproblem
H: a = 0 gegen K: a ≠ 0 .
– 131 –
Genauer: Man testet das Modell
Yj = b + ε j
gegen das Modell
(H)
Yj = a⋅xj + b + εj (K) .
Im Falle, daß H nicht verworfen werden kann,
d.h. Yj = b + εj , 1 ≤ j ≤ n, wird b geschätzt als „… = u .
Wir setzen voraus, daß die Yj unabhängig und normalverteilt sind,
d.h. Yj =d N(a⋅xj + b, σ2) , 1 ≤ j ≤ n.
Da †‡ =
Es sei
ˆg} – ˆgˆ}
ˆg +
– ˆg)+
ρ =
= %g}
~‰
~Š
, ist die Größe rxy von Bedeutung.
ˆgl – ˆgˆl
^ˆg + – ˆg)+ ˆl + – ˆl)+ Unter H: a = 0 gilt :
(d.h. rxy = ρ(x,y)).
T(x, Y) : = ^[ – 2
‹
^ – ‹+
= tn – 2 .
d
Für das Signifikanzniveau α ergibt sich daher folgender kritische
Bereich : C = Œx, y) Ž|Tx, y)| = ^[ – 2
Š‰ +
^ – Š‰
≥ ' – ; – > ‘.
+
p – Wert : w / , u7 = 2 1– '– x0 / , u7y‚
Beispiel 7.2 : (Eichung eines Voltmeters) α = 0,05 ; n = 6 ; rxy = 0,995
|T(x, y)| = √4
,KKN
^–,KKN+
= 19,925 > t4 ;
0,975
= 2,776 .
H ist also abzulehnen, d.h. die Regressionsgerade ist
y = 0,2383⋅x + 0,16 .
w / , u7 = 2 /1– 'W 19,925)7 < 2(1 – 0,9995) = 0,001.
– 132 –
Beispiel 7.3 : (Phosphor in Böden und Maispflanzen)
|T(x, y)| = √7
α = 0,05 ; n = 9 ; rxy = 0,805
,{N
= 3,590 > t7 ;
^–,{N+
= 2,365 .
0,975
H ist also abzulehnen, d.h. die Regressionsgerade ist
y = 1,42⋅x + 61,58 .
w / , u7 = 2 /1– '| 3,590)7 ≈ 2(1 – 0,9954) ≈ 0,01.
Beispiel 7.4 : Folgende Daten seien gegeben :
rxy =
i
x
y
x2
y2
x⋅y
1
10
3,5
100
12,25
35
2
20
3,6
400
12,96
72
3
30
4,8
900
23,04
144
Σ
60
11,9
1400 48,25
251
M∙N – L∙,K
^M∙W –ML∙M∙W{,N –W,L
|T(x, y)| = √1
,{KK
^–,{KK+
= 0,899 ;
= 2,053 < t1 ;
0,975
α = 0,05 ; n = 3.
= 12,706 .
H : a = 0 kann deshalb nicht verworfen werden.
Man hat deshalb das Modell Yj = b + εj vor sich.
„… = u =
,K
M
= 3,97,
d.h. y ≡ 3,97 .
w / , u7 = 2 /1– ' 2,053)7 ≈ 2(1 – 0,84) = 0,32.
Herunterladen