Fallstudie 3

Werbung
Nichtlineare Regression für die Erfassung des Ertragsverlustes durch Bromus-Arten
H.P. Piepho
[email protected]
3. Dezember 2001
Der Fall
Versuch von
Herr Ralph Moray (Tel: 459-2938, [email protected])
Institut 360 (Prof. Hurle)
Vorläufiger Titel der Doktorarbeit: Untersuchungen zur Verbreitung und Bedeutung von
Bromus spp.
Fragestellung des Versuchs: Konkurrenzwirkung von Bromus spp. in Winterweizen in
Abhängigkeit der Dichten der Jahre und der Standorte
Kulturart: Winterweizen
Unkrautarten: Bromus species, Poaceae
Bromus sterilis, Taube Trespe
Bromus secalinus, Roggen-Trespe
Bromus japonicus, Japanische Trespe
Bromus tectorum, Dach-Trespe
Dichten gemessen in [Pflanzen/ m²]
Zielwerte (angestrebte Dichten): 0, 20, 40, 80, 160, 320 Pfl./m²
Winterweizenertrag gemessen in dt/ha
Unkrautsaatgut wurde direkt im Anschluss an die Weizensaat in die Parzellen gesät
Je Art wurden vier Wiederholungen in einer Blockanlage (Feldversuch) geprüft. Die Arten
standen in einem gemeinsamen Versuch.
Vorschläge zur Auswertung (Piepho)
Die Ausgangssituation vor der Beratung
Es war geplant, den Zusammenhang zwischen prozentualem Ertragsverlust (P) und
Unkrautdichte (d) nach dem Modell
P
Id
1  Id / A
(Cousens, 1985)
auszuwerten, wobei I und A Parameter mit einer biologischen Interpretation sind:
A = maximale Ertragsreduktion (%) bei unendlich großer Unkrautdichte (d  )
1
I = Ertragsreduktion je Einheit der Unkrautdichte bei d = 0
(In der Originalpublikation wird die Reduktion als YL bezeichnet; hier wird das Symbol P
verwendet, um Verwechslung mit dem Ertrag y zu vermeiden). Ein Beispiel ist in der
folgenden Abb. 1 gegeben.
P (%)
P=A
90
80
70
60
50
40
30
20
10
0
P
Id
1  Id / A
P = Id
0
1
2
3
4
5
6
7
8
9
10
d (Pflanzen/10 m)
Id
mit A = 85% und I = 140 (Amaranthus
1  Id / A
hybridis bei Sojabohne, Cousens, 1985). Dichte in "Pflanzen/10 m".
Abb. 1: Beispiel für das Modell P 
I entspricht der Steigung der Kurve an der Stelle d = 0. Die Tangente ist in der Abb. 1
eingezeichnet. Der Parameter I ist ein Maß für die Konkurrenzkraft des Unkrauts. Die
maximale Ertragsreduktion beträgt in diesem Beispiel A = 85%.
Bei dem hier verwendeten Modell handelt es sich um eine Hyperbel. Dieses Modell
impliziert einen asymptotischen Verlauf der Verlustkurve. Außerdem wird davon
ausgegangen, dass die Steigung der Kurve mit steigender Dichte d abnimmt. Diese Annahme
ist wichtig. Es gibt Fälle, in denen die Daten sich besser durch einen sigmoiden Verlauf
modellieren lassen, bei dem die Ertragsreduktion erst nach Überschreiten einer
Schwellendichte und dann auch nur allmälig, d.h. mit zunehmender Steigung, einsetzt. Im
weiteren Verlauf nimmt dann die Steigung der Reduktion asymptotisch wieder ab. Man muß
in jedem Fall kritisch prüfen, ob die Daten sich besser durch eine Hyperbel oder durch
eine sigmoide Kurve modellieren lassen. Hierauf kommen wir noch zurück.
Basierend auf dem hyperbolischen Modell wurde eine erste Analyse durchgeführt, bei der
zunächst der Mittelwert der Kontrolle (d = 0) berechnet wurde. Mit diesem Mittelwert wurde
dann die prozentuale Ertragsreduktion (P) für die Parzellen mir d > 0 berechnet und das
hyperbolische Modell angepaßt. Hierbei ergaben sich unsinnige Werte für A, woraufhin die
biometrische Beratung in Anspruch genommen wurde.
Modellierung des Ertrages anstelle der Ertragsreduktion
2
Diese Art der Auswertung ist problematisch, weil die sich ergebenden Prozentzahlen (P)
statistisch abhängig werden, denn es wird überall durch dieselbe Zahl geteilt. Daher verletzten
die so berechneten P-Werte die Voraussetzungen der statistischen Unabhängigkeit.
Desweiteren wird der Ertrag bei der Dichte d = 0 (ywf) nur aus den Beobachtungen bei d = 0
geschätzt. Setzt man allerdings eine Regressionsfunktion an, so kann dieser Ertrag besser als
Achsenabschnitt der angepaßten Kurve geschätzt werden, Die Schätzung ist genauer, da alle
Daten, auch die für d > 0 in die Schätzung einfließen.
Besser ist es daher, die Erträge direkt zu modellieren und anschließend die Ertragsreduktion
abzuleiten. Hierzu betrachten wir die Definition der Ertragsreduktion (in %):
 y wf 
P  
 y wf
y
100


wobei
ywf = Ertrag bei d = 0 (wf = weed free)
y = Ertrag bei jeweiliger Dichte d > 0
Einsetzen in die Modellgleichung und Auflösen nach y liefert eine Funktion für den Ertrag in
Abhängigkeit von der Unkrautdichte:


Id
y  y wf 1 

 1001  Id / A 
Diese Funktion ist für das Amaranth-Beispiel aus Abb. 1 in Abb. 2 gezeichnet. Der Ertrag
fällt zunächst stark ab und nähert sich dann einem asymptotischen Wert von ywf(1 - A/100).
y (bushels/acre)
50
40
30
20
10
0
0
1
2
3
4
5
6
7
8
9
10
d (Pflanzen/10 m)


Id
Abb. 2: Ertragsreduktion. Beispiel für das Modell y  y wf 1 
 mit A = 85%,
 1001  Id / A 
I = 140 und ywf = 41 (Amaranth bei Sojabohne, Cousens, 1985). Dichte in "Pflanzen/10 m".
3
Anwendung auf die Bromus-Daten - ein scheinbares Problem
In Abb. 3 ist nun ein Plot der Daten für die Unkrautart Bromus sterilis bei der Kulturart
Weizen (Versuch Moray) wiedergegeben, zusammen mit dem angepaßten hyperbolischen
Modell für den Ertrag y. Das entsprechende Modell für die Ertragsreduktion (P) ist in Abb. 4
wiedergegeben.
y (dt(ha)
13
12
11
10
9
8
7
6
5
4
3
2
1
0
0
100
200
300
2
d (Pfl./m )
Abb. 3: Abhängigkeit des Ertrages (y) von der Unkrautdichte (d) für Bromus sterilis.


Id
Angepaßtes Modell: y  y wf 1 
 mit I = 0,0504, A = 20,695, ywf = 11,23.
 1001  Id / A 
P (%)
60
50
40
30
20
10
0
0
100
200
300
d (Pfl./m2)
Abb. 4: Abhängigkeit der Ertragsreduktion (P) von der Unkrautdichte (d) für Bromus sterilis.
Id
Angepaßtes Modell: P 
mit I = 0,0504, A = 20,695.
1  Id / A
4
Der Verlauf der angepaßten Kurve entspricht nicht den postulierten asymptotischen Verlauf.
Der Wert für A (Ertragsreduktion bei unendlich hoher Unkrautdichte) ist negativ, obwohl es
sich nach dem Modellansatz um eine positive Zahl zwischen 0 und 100 handeln müßte! Die
Ertragsreduktion strebt für wachsendes d nach dem angepaßten Modell sogar gegen
Unendlich, eine Asymptote ist also nicht zu verzeichnen! Allerdings scheint das angepaßte
Modell trotz dieser Tatsachen gut zu passen. Wir kommen darauf gleich zurück.
Falls es eine Asymptote für den Ertrag bei hoher Unkrautdichte gibt, so ist eher von einem
sigmoiden Verlauf auszugehen. Allerdings kann über den Kurvenverlauf bei hoher
Unkrautdichte nichts ausgesagt werden, weil die Unkrautdichten so klein sind, dass die
Asymptote nicht erreicht wird. Um die vorliegenden Daten adäquat zu beschreiben, reicht es
daher, eine Funktion zu suchen, die mit steigender Dichte (d) eine zunehmende steigende
Ertragsreduktion (P) zuläßt. Für diese Funktion können wir dann die Steigung bei d = 0
schätzen und dies als Maß für die Konkurrenzkraft verwenden. Hiermit konzentrieren wir uns
auf das Verhalten des Unkrautes nahe d = 0. Wie der asymptotische Verlauf der Kurve ist, ist
hierbei nebensächlich. Diesen brauchen und können wir nicht modellieren, da die Daten
diesen Bereich nicht abdecken.
Wie sieht eigentlich eine Hyperbel aus?
Der Zufall will es (!!), dass das hyperbolische Modell offenbar so flexibel ist, dass auch ein
Verlauf modelliert werden kann, wie Abb. 3 und 4 ihn zeigen. Um den Grund zu verstehen,
ist in Abb. 5 eine gleichseitige Hyperbel der Form P = 1/d gezeichnet. Die Hyperbel hat zwei
"Arme", von denen wir den "rechten" für einen asymptotischen Verlauf verwenden können,
wie er bei den Amaranthus-Daten zu verzeichnen ist. Durch Verschiebung entlang von
Abszisse (nach "links") und Ordninate (nach "oben") in der Weise, dass die Asymptote bei P
= A liegt und die Kurve durch den Ursprung verläuft, erhält man hieraus nach einer
Skalierung das Modell
P
Id
.
1  Id / A
Für die vorliegenden Bromus-Daten können wir dagegen den linken "Arm" verwenden!
Diesen müssen wir nach "rechts" und nach "unten" verschieben, damit er den gewünschten
Verlauf nimmt. Die Asymptote hat dann einen negativen Wert, was den negativen Schätzwert
für A für die Bromus-Daten erklärt.
5
P
"Bromus"
d
"Soja"
Abb. 5: Bild der gleichseitigen Hyperbel P = 1/d. (Asymptote bei P = 0, Pol an der Stelle d =
0).
P (%)
200
100
0
-100
-200
0
100
200
300
400
500
600
d (Pfl./m2)
Id
mit I = 0,0504, A = 20,695, angepaßt an die
1  Id / A
Bromus-Daten. Dieses Bild ist dasselbe für in Abb. 4, mit einem erweiterten Bereich für d.
Abb. 6: Gleichseitige Hyperbel P 
Zum Vergleich ist die Hyperbel für die Bromus-Daten in Abb. 6 gezeigt.
Unabhängig davon, welchen Arm der Hyperbel wir zur Modellierung verwenden, d.h.
unabhängig vom Vorzeichen von A, gilt: I ist immer die Steigung an der Stelle d = 0! Für
Bromus sterilis finden wir I = 0,056. Für Bromus japonica dagegen finden wir I = 0,005
(siehe unten). Hieraus schließen wir, dass Bromus japonica die geringere Konkurrenzkraft
hat. Der Unterschied ist signifikant (siehe unten).
Anpassen des Modells mit Hilfe der eigentlichen nichtlinearen Regression (mit SAS)
Wir minimieren die Summe der Fehlerquadrate (SQFehler) mit Hilfe der eigentlichen
nichtlinearen Regression. Hierzu kann die SAS Prozedur NLIN verwendet werden. Dieser
Prozedur muss zum einen das nichtlineare Modell mitgeteilt werden, welches angepasst
6
werden soll (MODEL Anweisung). Zum anderen müssen Startwerte für die Parameter
angegeben werden, mit denen das iterative Verfahren zum Auffinden der Kleinst-QuadratLösung durchgeführt werden kann (PARAMETERS Anweisung). Letzteres ist oft, so auch
hier, der kritischste Teil der Analyse. Als Startwert für ywf wählen wir eine Zahl etwas höher
als der höchste beobachtete Ertrag. Die Wahl der Startwerte für I und A ist dagegen schwierig.
Für A setzen wir einen relativ willkürlichen negativen Wert ein, für I einen relativ
willkürlichen positiven Wert.
data sterilis;
input d
Block
cards;
0
1
0
2
0
3
0
4
8
1
3
2
5
3
7
4
31
1
37
2
22
3
32
4
41
1
34
2
30
3
35
4
60
1
72
2
90
3
79
4
132
1
120
2
140
3
97
4
260
1
201
2
173
3
145
4
;
y;
12.16
11.98
11.18
10.84
11.28
11.20
11.98
10.74
11.00
12.64
11.06
9.66
11.24
11.64
12.18
9.46
11.46
11.34
11.44
9.92
10.06
10.86
11.14
9.02
7.48
9.08
9.64
8.50
proc NLIN data=sterilis;
parameters I = 1
A = -10
YWF = 13;
model y = ywf*(1-i*d/100/(1+i*d/a));
run;
Output:
Non-Linear Least Squares Iterative Phase
Dependent Variable Y
Method:
Gauss-Newton
Iter
I
A
YWF
Sum of Squares
0
1.000000
-10.000000
13.000000
402.554863
1
-0.040514
0.735292
10.962443
41.217212
2
-0.208881
2.976829
10.945817
40.150146
3
-0.282435
2.802644
10.856196
39.915364
4
-0.238431
2.771705
10.966379
39.231057
5
-0.219719
2.250743
10.887877
39.201583
6
-0.218980
2.579949
10.946146
39.183490
7
-0.215958
2.354363
10.908365
39.109884
7
8
-0.193509
9
-0.193466
NOTE: Convergence criterion met.
2.110032
2.109038
10.883833
10.883723
Non-Linear Least Squares Summary Statistics
Source
DF Sum of Squares
Regression
Residual
Uncorrected Total
3
25
28
3219.8116599
39.0855401
3258.8972000
(Corrected Total)
27
40.7531857
Parameter
I
A
YWF
Estimate
Asymptotic
Std. Error
-0.19346633
2.10903848
10.88372265
0.1915260344
2.9002217119
0.4282026851
39.085540
39.085540
Dependent Variable Y
Mean Square
1073.2705533
1.5634216
Asymptotic 95 %
Confidence Interval
Lower
Upper
-0.587918427
0.200985763
-3.864032136
8.082109106
10.001829772 11.765615532
Wir erhalten hier einen negativen Wert für die Steigung von P bei d = 0 (I = 0,1935). Dieser
Wert ist nicht realistisch, und es ist zu vermuten, dass die Kleinst-Quadrat-Lösung nicht
gefunden wurde. Der Grund ist, dass die Startwerte für I und A zu weit von der Lösung
entfernt sind. Das Programm findet eine Lösung, die nicht mit der Kleinst-Quadrat-Lösung
übereinstimmt. Man beachte, dass SQFehler = 39,0855401 (wird noch gebraucht).
Man kann wie folgt ein Gitter von Startwerten ausprobieren (siehe PARAMETERAnweisung):
proc NLIN data=sterilis;
parameters I = 0 to 10 by 1
A = -100 to 0 by 10
YWF = 11 to 13 by 1;
model y = ywf*(1-i*d/100/(1+i*d/a));
run;
Output:
Non-Linear Least Squares Summary Statistics
Source
DF Sum of Squares
Regression
Residual
Uncorrected Total
3
25
28
3240.1741358
18.7230642
3258.8972000
(Corrected Total)
27
40.7531857
Parameter
I
A
YWF
Estimate
0.06596346
-34.47349407
11.42091300
Dependent Variable Y
Mean Square
1080.0580453
0.7489226
Asymptotic
Std. Error
Asymptotic 95 %
Confidence Interval
Lower
Upper
0.031248739
0.00160599
0.130320923
35.291713728 -107.15755735 38.210569206
0.246893309
10.91243078 11.929395217
Die Lösung hat sich deutlich verschoben. Vor allem ist die Lösung für I (Verlust je
Unkrautpflanze bei d = 0) jetzt erwartungsgemäß positiv. Ebenfalls erwartungsgemäß ist die
Lösung für A negativ. Man beachte, dass das SQFehler auf 0,75 gesunken ist.
8
Blockeffekte: Die bisherige Analyse hat nicht berücksichtigt, dass der Versuch in einer
Blockanlage durchgeführt wurde. Hierzu müssen, wie bei einer Standard-ANOVA,
Blockeffekte in das Modell genommen werden. Die NLIN Prozedur hat im Gegensatz zu
Prozeduren für lineare Modelle keine CLASS-Anweisung, mit der "Effekte" spezifiziert
werden können. Aus diesem Grund muss eine sog. Dummy-Kodierung angewendet werden.
Das Modell wird wie folgt erweitert:
 Id /100 
y  1
 y wf  x1b1  x 2 b2  x3b3
 1 Id / A 
wobei b1, b2, b3 Blockeffekte sind und x1, x2, x3 Dummy-Variablen. Die Modellerweiterung
für Blöcke hat die Form einer multiplen linearen Regression. b1 ist der Effekt des 1. Blocks,
b2 der Effekt des 2. Blocks, und b3 der Effekt des 4. Blocks. Der Effekt des 4. Blocks ist
definiert durch
b4 =  b1  b2  b3
Wegen dieser Restriktion ist es nicht notwendig, den Effekt b4 explizit ins Modell zu nehmen;
er kann vielmehr mit Hilfe der anderen drei spezifiziert werden. Diese Restriktion entspricht
der üblichen Summen-Restriktion
 bj = 0
im linearen Modell. Die Dummy-Variablen x1 bis x3 sind entsprechend dieser Restriktion wie
folgt definiert:
Block
x1
x2
x3
x1b1  x 2 b2  x 3 b3
1
2
3
4
1
0
0
1
0
1
0
1
0
0
1
1
b1
b2
b3
 b1  b2  b3
Die Dummy-Kodierung kann im Datenschritt erzeugt werden. Die vollständigen SASAnweisungen sind wie folgt:
data sterilis;
input d
Block y;
x1=0; x2=0; x3=0; x4=0;
if block=1 then x1=1;
if block=2 then x2=1;
if block=3 then x3=1;
if block=4 then do;
x1=-1; x2=-1; x3=-1;
end;
cards;
0
1
12.16
0
2
11.98
0
3
11.18
0
4
10.84
8
1
11.28
3
2
11.20
5
3
11.98
9
7
31
37
22
32
41
34
30
35
60
72
90
79
132
120
140
97
260
201
173
145
;
4
1
2
3
4
1
2
3
4
1
2
3
4
1
2
3
4
1
2
3
4
10.74
11.00
12.64
11.06
9.66
11.24
11.64
12.18
9.46
11.46
11.34
11.44
9.92
10.06
10.86
11.14
9.02
7.48
9.08
9.64
8.50
proc NLIN data=sterilis;
parameters I = 0.06
A = -34
YWF = 11.3
b1=0 b2=0 b3=0
;
block=b1*x1 + b2*x2+b3*x3;
model y = ywf*(1-i*d/100/(1+i*d/a)) + block;
run;
Hier wurden die Lösungen der Auswertung ohne Blöcke als Startwerte verwendet. Die
Blockeffekte werden mit Null initialisiert.
Output:
Non-Linear Least Squares Summary Statistics
Dependent Variable Y
Source
DF Sum of Squares
Mean Square
Regression
Residual
Uncorrected Total
6
22
28
3253.3676389
5.5295611
3258.8972000
542.2279398
0.2513437
(Corrected Total)
27
40.7531857
Parameter
I
A
YWF
B1
B2
B3
Estimate
Asymptotic
Std. Error
0.06423794
-30.21827631
11.44182637
0.19250734
0.51748223
0.46624355
0.016737010
15.260964929
0.141289050
0.173130251
0.164518609
0.165443797
Asymptotic 95 %
Confidence Interval
Lower
Upper
0.029527786
0.098948102
-61.867328364
1.430775749
11.148813149 11.734839591
-0.166539968
0.551554640
0.176294237
0.858670224
0.123136851
0.809350257
Die Parameterschätzungen für I und A haben sich leicht verschoben, und das SQFehler ist
nochmals deutlich gesunken, was für relevante Blockeffekte spricht. Wir könnten die
Reduktion der SQFehler formal auf Signifikanz prüfen (siehe unten), unterlassen das hier aber,
10
da die Signifikanz der Blockeffekte nicht relevant ist. Die Blockeffekte müssen in jedem Fall
im Modell sein, da dies der Versuchsanlage entspricht. Außerdem reduzieren die Blockeffekte
im vorliegenden Fall die Fehlervarianz erheblich, so dass die Genauigkeit gegenüber einer
vollständig randomisierten Anlage erhöht ist.
Dieselbe Schätzung für B. japonica liefert:
Non-Linear Least Squares Summary Statistics
Dependent Variable Y
Source
DF Sum of Squares
Mean Square
Regression
Residual
Uncorrected Total
6
22
28
3494.6214527
7.5349473
3502.1564000
582.4369088
0.3424976
(Corrected Total)
27
9.9674714
Parameter
I
A
YWF
B1
B2
B3
Estimate
Asymptotic
Std. Error
0.00409478
-0.68432485
11.26642443
0.07291993
0.14952819
0.11302744
0.0070721148
1.2820971870
0.1346702281
0.2080910080
0.1936055486
0.1940667631
Asymptotic 95 %
Confidence Interval
Lower
Upper
-0.010571767
0.018761336
-3.343210500
1.974560794
10.987137691 11.545711160
-0.358630969
0.504470830
-0.251981947
0.551038322
-0.289439191
0.515494064
Gemeinsame Verrechnung von mehreren Unkrautarten
In dem Versuch wurden mehrere Unkrautarten geprüft. Für jede wurde eine Kontrolle geprüft
(ohne Unkraut). Die Kontrollbehandlung ist damit für jede Unkrautart identisch. Die Zahl der
Kontrollparzellen je Block entspricht der Zahl der geprüften Unkrautarten. Anstelle einer
getrennten Auswertung je Art, bei der nur jeweils eine der Kontrollparzellen je Block
ausgewertet wird, ist es besser, alle Daten gemeinsam auszuwerten. Dies hier wird
exemplarisch für zwei Arten (B. japonica und B. sterilis) getan. Es soll weiterhin das Modell
 Id /100 
y  1
 y wf  x1b1  x 2 b2  x3b3
 1 Id / A 
angepaßt werden. Allerdings analysieren wir jetzt für 2 Arten gemeinsam. Da die Arten sich
in ihrer Wirkung unterscheiden können, müssen die Formparameter I und A von der Art
abhängen. Dies kann wieder mittels Dummy-Kodierung umgesetzt werden:
I = I1z1 + I2z2
A = A1z1 + A2z2
Dummy-Kodierung für Unkrautarten:
Unkrautart
z1
z2
I1z1 + I2z2
A1z1 + A2z2
B. japonica
B. sterilis
1
0
0
1
I1
I2
A1
A2
11
Der unkrautfreie Ertrag ywf ist dagegen für beide Unkrautarten derselbe, weil es sich ja um
dieselbe Kontrollbehandlung handelt. Das Modell für die gemeinsame Verrechnung der
beiden Arten lautet:

I 1 z1  I 2 z 2 d / 100

y  1 
 y wf  x1b1  x 2 b2  x 3 b3
 1  I 1 z1  I 2 z 2 d /  A1 z1  A2 z 2  
Die SAS-Anweisungen für die gemeinsame Verrechnung der beiden Arten sind:
data all;
input art$ d
Block y;
x1=0; x2=0; x3=0; x4=0;
if block=1 then x1=1;
if block=2 then x2=1;
if block=3 then x3=1;
if block=4 then do;
x1=-1; x2=-1; x3=-1;
end;
if art='japonica' then z1=1; else z1=0;
if art='sterilis' then z2=1; else z2=0;
datalines;
japonica 0
1
10.34
japonica 0
2
11.26
japonica 0
3
11.44
japonica 0
4
11.56
japonica 2
1
10.32
japonica 4
2
11.74
japonica 3
3
11.3
japonica 6
4
11
japonica 19
1
12.32
japonica 18
2
10.96
japonica 10
3
11.34
japonica 12
4
10.9
japonica 39
1
12.46
japonica 20
2
11.94
japonica 25
3
10.96
japonica 33
4
11.46
japonica 32
1
11.08
japonica 59
2
10.6
japonica 37
3
11.06
japonica 58
4
10.54
japonica 71
1
11.3
japonica 84
2
11.72
japonica 109
3
11.66
japonica 109
4
10.36
japonica 155
1
10.46
japonica 130
2
11.28
japonica 132
3
11.42
japonica 147
4
9.92
sterilis 0
1
12.16
sterilis 0
2
11.98
sterilis 0
3
11.18
sterilis 0
4
10.84
sterilis 8
1
11.28
sterilis 3
2
11.2
sterilis 5
3
11.98
sterilis 7
4
10.74
sterilis 31
1
11
12
sterilis
sterilis
sterilis
sterilis
sterilis
sterilis
sterilis
sterilis
sterilis
sterilis
sterilis
sterilis
sterilis
sterilis
sterilis
sterilis
sterilis
sterilis
sterilis
;
37
22
32
41
34
30
35
60
72
90
79
132
120
140
97
260
201
173
145
2
3
4
1
2
3
4
1
2
3
4
12.64
11.06
9.66
11.24
11.64
12.18
9.46
11.46
11.34
11.44
9.92
10.06
10.86
11.14
9.02
7.48
9.08
9.64
8.5
1
2
3
4
1
2
3
4
proc NLIN data=all;
parameters I1 = 0.004
A1 = -0.68
I2 = 0.06
A2 = -34
YWF = 11.3
b1=0 b2=0 b3=0
;
I=I1*z1+I2*z2;
A=A1*z1+A2*z2;
block=b1*x1 + b2*x2+b3*x3;
model y = ywf*(1-i*d/100/(1+i*d/a)) + block;
run;
Output:
Non-Linear Least Squares Summary Statistics
Dependent Variable Y
Source
DF Sum of Squares
Mean Square
Regression
Residual
Uncorrected Total
8
48
56
6744.3284585
16.7251415
6761.0536000
843.0410573
0.3484404
(Corrected Total)
55
53.5197714
Parameter
I1
A1
I2
A2
YWF
B1
B2
B3
Estimate
Asymptotic
Std. Error
0.00451038
-0.75878735
0.05644843
-24.81935155
11.32332410
0.13082127
0.33190880
0.28830849
0.006990304
1.286100211
0.015842681
12.718431902
0.104989346
0.146311927
0.137539631
0.138116462
Für F-Test notieren;
siehe unten
Asymptotic 95 %
Confidence Interval
Lower
Upper
-0.009544537
0.018565291
-3.344658792
1.827084095
0.024594664
0.088302199
-50.391410066
0.752706968
11.112229392 11.534418812
-0.163357858
0.425000391
0.055367518
0.608450089
0.010607410
0.566009565
Tab. 1: Unkrautspezifische Schätzungen für den Konkurrenzparameter I.
13
I (Schätzung)
95%-Vertrauensgrenzen:
untere
obere
B. japonica
B. sterilis
0,00451
0,05645
0,00954
0,01856
0,02459
0,08830
Falls die Unkrautarten sich nicht im Konkurrenzverhalten unterscheiden, sind die
Unterschiede der Parameterschätzungen der beiden Arten im Rahmen der Fehlerschwankung
der Daten. In diesem Fall könnten wir auch ein-und-dieselbe Kurve an die Daten der beiden
Unkrautarten anpassen. Dieses Modell wird im folgenden als das reduzierte Modell
bezeichnet, während das Modell mit separaten Parametern für die verschiedenen Arten als das
volle Modell bezeichnet wird.
Um das reduzierte Modell anzupassen, ist das Auffinden geeigneter Startwerte
wiederum wichtig. Man muss hier mit der PARAMETER-Anweisung experimentieren.
title 'reduziertes Modell';
proc NLIN data=all;
parameters I = 0.0 to 0.06 by 0.01
A = -1 to -31 by 10
YWF = 11.3
b1=0 b2=0 b3=0
;
block=b1*x1 + b2*x2+b3*x3;
model y = ywf*(1-i*d/100/(1+i*d/a)) + block;
run;
Output:
Non-Linear Least Squares Summary Statistics
Source
DF Sum of Squares
Regression
Residual
Uncorrected Total
6
50
56
6741.4828881
19.5707119
6761.0536000
(Corrected Total)
55
53.5197714
reduziertes Modell
Parameter
I
A
YWF
B1
B2
B3
Estimate
Asymptotic
Std. Error
0.03914760
-14.10616393
11.36312237
0.12301488
0.33179248
0.28606939
0.0110620089
5.7397482679
0.1144398442
0.1490487152
0.1450717138
0.1453485049
Dependent Variable
Mean Square
1123.5804813
0.3914142
Für F-Test notieren;
siehe unten
10:49 Monday, Decembe
Asymptotic 95 %
Confidence Interval
Lower
Upper
0.016928943
0.061366253
-25.634765016 -2.577562834
11.133263630 11.592981113
-0.176357684
0.422387453
0.040407934
0.623177018
-0.005871104
0.578009880
Ein F-Test zum Vergleich der Unkrautarten
Um die Unkrautunterschiede auf signifikant zu prüfen, betrachten wir die Anpassung der
beiden Modelle aus dem vorangegangenen Abschnitt:
reduziertes Modell: Dieselbe Kurve für jede Art (A und I nicht artabhängig)
14
volles Modell: Für jede Art ein eigener Wert für A und I
Für beide notieren wir die Fehler-Freiheitsgrade (FGFehler) und das Fehler-SQ (SQFehler) und
führen folgenden Test durch (siehe Vorlesung Angewandte Statistik II):
F-Test zum Vergleich eines reduzierten mit einem vollen linearen Modell
H0: reduziertes Modell gilt
HA: volles Modell gilt, aber reduziertes nicht
(1) Berechne SQFehler für das volle und das reduzierte Modell
(2) Bestimme Fehlerfreiheitsgrade (FGFehler) für das volle und das reduzierte Modell
(3) Berechne
FVers
SQ

red
Fehler

voll
red
voll
 SQFehler
FGFehler
 FGFehler
voll
voll
SQFehler
FGFehler

(4) Bestimme FTab = F(1, FG1, FG2)
red
voll
voll
FG1  FGFehler
 FGFehler
; FG2  FGFehler
(5) Falls FVers > FTab, verwerfe H0,
falls FVers  FTab, behalte H0 bei
Hier (siehe Output aus vorangegangenem Abschnitt):
Modell
FGFehler
SQFehler
48
50
16,7251415
19,5707119
voll
reduziert
FVers 
SQ
red
Fehler
 SQ Fehler
voll
 FG
voll
SQ Fehler FG
red
Fehler
voll
Fehler
 FG Fehler
voll
  19,5707119  16,7251415 50  48  4,08
16,7251415 48
Anstelle von FTab berechnen wir den p-Wert mit SAS:
data F_test;
FG_voll=48;
SQ_voll=16.7251415;
FG_red=50;
SQ_red=19.5707119;
Zaehler=(SQ_red-SQ_voll)/(FG_red-FG_voll);
Nenner =SQ_voll/FG_voll;
FG_Zaehl=FG_red-FG_voll;
FG_nenn= FG_voll;
F_Vers=Zaehler/Nenner;
15
p_Vers=1-probF(F_vers,FG_Zaehl, FG_Nenn);
proc print data=F_test; run;
Output:
F_VERS
4.08330
P_VERS
0.023031
Der p-Wert ist signifikant bei  = 5%. Somit bestehen signifikante Unterschiede der
Verlaufskurven und somit der Konkurrenzkraft der beiden Unkrautarten.
Literatur
Cousens, R. (1985): A simple model relating yield loss to weed density. Ann. Appl. Biol. 107,
239-252.
16
Herunterladen