kq

Werbung
4. Das multiple lineare Regressionsmodell
Bisher:
• 1 endogene Variable y wurde zurückgeführt auf 1 exogene
Variable x (einfaches lineares Regressionsmodell)
Jetzt:
• Endogenes y wird regressiert auf mehrere exogene Variablen
x1, . . . , xK (multiples lineares Regressionsmodell)
Es zeigt sich:
• Viele Ergebnisse und Intuitionen der einfachen Regression
übertragen sich auf das multiple Modell
130
Wichtige Hilfsmittel:
• Matrixalgebra
• Erwartungswertvektor
• Kovarianzmatrix
• multivariate Normalverteilung
131
Inhaltlicher Aufbau:
• Modellspezifikation
(A-, B-, C-Annahmen)
• Punktschätzung
(KQ-, ML-Schätzung, Bestimmtheitsmaß)
• Hypothesentests
(t-Test, F -Test)
• Prognose
132
4.1 Spezifikation
Beispiel: (I)
• Schätzung einer Produktionsfunktion für Gerste
• Exogene Variablen (Düngemitteleinsätze):
Phosphat p (in kg/ha)
Stickstoff n (in kg/ha)
• Endogene Variable (Output):
Gerste g (in 100kg/ha)
133
Beispiel: (II)
• Stichprobenumfang:
30 Beobachtungen (Parzellen)
• Ökonomisches Modell:
g = f (p, n)
(grundlegender Wirkungszusammenhang)
Nächster Schritt:
• Funktionale Spezifikation
134
Erhobener Datensatz
i
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
pi
22.00
22.00
22.00
22.00
23.00
23.00
23.0
23.00
24.00
24.00
24.00
24.00
25.00
25.00
25.00
ni
40.00
60.00
90.00
120.00
50.00
80.00
100.00
120.00
40.00
60.00
90.00
120.00
50.00
80.00
100.00
gi
38.36
49.03
59.87
59.35
45.45
53.23
56.55
50.91
44.87
54.06
60.34
58.21
51.52
58.58
57.27
i
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
pi
25.00
26.00
26.00
26.00
26.00
27.00
27.00
27.00
27.00
28.00
28.00
28.00
28.00
29.00
29.00
ni
110.00
50.00
70.00
90.00
110.00
40.00
60.00
80.00
100.00
50.00
70.00
100.00
110.00
60.00
100.00
gi
59.55
55.24
54.13
66.57
61.74
48.99
54.38
58.28
62.81
50.76
51.54
59.39
68.17
59.25
64.39
135
1. Funktionale Form (A-Annahmen)
Spezifikation in 3 Schritten:
• 1. Schritt: (I)
Möglicher Wirkungszusammenhang:
g = α + β1p + β2n
(α, β1, β2 unbekannte Parameter)
Nachteil: keine abnehmenden Grenzerträge
136
• 1. Schritt: (II)
Realistischer:
g = Apβ1 nβ2
mit Parametern A, β1, β2
(Cobb-Douglas-Produktionsfunktion)
Nachteil: Zusammenhang ist nicht linear
Ausweg: Logarithmieren
ln(g) = ln(A) + β1 ln(p) + β2 ln(n)
Definiere
y ≡ ln(g),
x1 ≡ ln(p),
−→ Lineares Modell
x2 ≡ ln(n),
α ≡ ln(A)
y = α + β1x1 + β2x2
137
Logarithmierter Datensatz
i
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
x1i
[ln(pi )]
3.0910
3.0910
3.0910
3.0910
3.1355
3.1355
3.1355
3.1355
3.1781
3.1781
3.1781
3.1781
3.2189
3.2189
3.2189
x2i
[ln(ni)]
3.6889
4.0943
4.4998
4.7875
3.9120
4.3820
4.6052
4.7875
3.6889
4.0943
4.4998
4.7875
3.9120
4.3820
4.6052
yi
[ln(gi )]
3.6470
3.8924
4.0922
4.0835
3.8166
3.9746
4.0351
3.9301
3.8038
3.9901
4.1000
4.0641
3.9420
4.0704
4.0478
i
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
x1i
[ln(pi)]
3.2189
3.2581
3.2581
3.2581
3.2581
3.2958
3.2958
3.2958
3.2958
3.3322
3.3322
3.3322
3.3322
3.3673
3.3673
x2i
[ln(ni)]
4.7005
3.9120
4.2485
4.4998
4.7005
3.6889
4.0943
4.3820
4.6052
3.9120
4.2485
4.6052
4.7005
4.0943
4.6052
yi
[ln(gi)]
4.0868
4.0117
3.9914
4.1983
4.1229
3.8916
3.9960
4.0653
4.1401
3.9271
3.9424
4.0841
4.2220
4.0818
4.1650
138
• 2. und 3. Schritt:
Das ökonometrische Modell lautet für i = 1, . . . , 30:
yi = α + β1x1i + β2x2i + ui
Jetzt:
• Allgemeine Formulierung des multiplen linearen Regressionsmodells mit K exogenen Variablen
yi = α + β1x1i + β2x2i + . . . + βK xKi + ui
für i = 1, . . . , N , bzw. ausgeschrieben
y1 = α + β1x11 + β2x21 + . . . + βK xK1 + u1
y2 = α + β1x12 + β2x22 + . . . + βK xK2 + u2
...
yN = α + β1x1N + β2x2N + . . . + βK xKN + uN
139
Bemerkungen:
• Die (K + 1) Parameter α, β1, . . . , βK heißen Regressionsparameter oder Regressionskoeffizienten
• Die Zufallsvariable ui ist eine Störgröße
Jetzt:
• Formulierung der klassischen A-, B-, C-Annahmen für das
multiple Regressionsmodell
140
1. Funktionale Form (A-Annahmen)
• Annahme A1:
Im multiplen Regressionsmodell (Folie 139) fehlen keine relevanten exogenen Variablen und die benutzten exogenen Variablen x1, x2, . . . , xK sind nicht irrelevant
• Annahme A2:
Der wahre Zusammenhang zwischen x1i, x2i, . . . , xKi und yi
ist linear
• Annahme A3:
Die Parameter α, β1, . . . , βK sind für alle N Beobachtungen
(x1i, x2i, . . . , xKi, yi) konstant
141
Bemerkung:
• Die Annahmen A1 bis A3 postulieren, dass das ökonometrische
Modell funktional nicht fehlspezifiziert ist
2. Störgrößenspezifikation (B-Annahmen) (I):
• Annahme B1:
Die Störgröße ui hat für alle Beobachtungen i = 1, . . . , N
einen Erwartungswert von Null, d.h.
E(ui) = 0
für i = 1, . . . , N
142
2. Störgrößenspezifikation (B-Annahmen) (II):
• Annahme B2: (Homoskedastie)
Die Störgröße ui hat für alle Beobachtungen i = 1, . . . , N eine
konstante Varianz, d.h. für i = 1, . . . , N gilt
V ar(ui) = σ 2
• Annahme B3: (Keine Autokorrelation)
Die Störgröße ui ist nicht autokorreliert, d.h. für alle i =
1, . . . , N und j = 1, . . . , N mit i 6= j gilt
Cov(ui, uj ) = 0
• Annahme B4:
Die Störgrößen ui sind normalverteilt, d.h. ui ∼ N (0, σ 2)
143
Bemerkung:
• B1 bis B4 besagen, dass die N Störgrößen u1, . . . , uN die
gleiche Wahrscheinlichkeitsverteilung besitzen (nämlich ui ∼
N (0, σ 2)) und alle unabhängig voneinander sind
144
3. Variablenspezifikation (C-Annahmen)
• Annahme C1:
Die exogenen Variablen x1i, . . . , xKi sind keine Zufallsvariablen, sondern können wie in einem Experiment kontrolliert
werden
• Annahme C2: (Freiheit von perfekter Multikollinearität)
Es existieren keine Parameterwerte γ0, γ1, . . . , γK (wobei mindestens ein γk 6= 0), so dass zwischen den exogenen Variablen
x1i, . . . , xKi die lineare Beziehung
γ0 + γ1x1i + . . . + γK xKi = 0
für alle i = 1, 2, . . . , N gilt
145
Bemerkung: (Perfekte Multikollinearität)
• Betrachte Zweifachregression
yi = α + β1x1i + β2x2i + ui
• Wenn C2 verletzt ist, gibt es γ0, γ1, γ2 mit
γ0 + γ1x1i + γ2x2i = 0
und damit
x2i = −(γ0/γ2) −γ1/γ2 x1i
|
{z
≡δ0
}|
{z }
≡δ1
−→ Es liegt keine Zweifachregression vor, denn
yi = (α + β2δ0) + (β1 + β2δ1)x1i + ui
146
Jetzt:
• Formulierung des multiplen linearen Regressionsmodells von
Folie 139 in Matrixschreibweise
Setze dazu:



y=

y1
y2
...
yN






,X = 




1 x11 · · · xK1
α
 β
1 x12 · · · xK2 

 1
β
=
,


...
...
.
 ...
···
.. 
1 x1N · · · xKN
βK






,u = 


u1
u2
...
uN
−→ Matrixschreibweise:
y = Xβ + u
147





Ausgeschrieben:



y1
1
 y 
 1



 ..2  =  ..
 . 
 .
yN
x11
x12
...
1 x1N
· · · xK1
· · · xK2
...
···
· · · xKN




α
u1
 u 
 β 




  ..1  +  ..2 
 . 
 . 
βK
uN
Jetzt:
• Formulierung der A-, B-, C-Annahmen in Matrixdarstellung
148
1. Funktionale Form (A-Annahmen)
• Annahme A1:
Im multiplen Regressionsmodell fehlen keine relevanten exogenen Variablen und die benutzten exogenen Variablen (Spalten der X-Matrix) sind nicht irrelevant
• Annahme A2:
Der wahre Zusammenhang zwischen X und y ist linear
• Annahme A3:
Der Parametervektor β ist für alle N Beobachtungen (xi, yi)
konstant
149
2. Störgrößenspezifikation (B-Annahmen) (I)
• Annahme B1:
E(u) = 0N ×1
Zwischenbemerkungen: (I)
• Betrachte die (N × N )-Matrix uu0 mit Erwartungswert


u1 u1 u1 u2 · · · u1 u N


 u2u1 u2u2 · · · u2uN 
0
E(uu ) = E 

...
...


...
···
uN u1 uN u2 · · · u N uN

E(u2
E(u1u2) · · · E(u1uN )
1)

 E(u2u1)
E(u2
· · · E(u2uN )

2)
= 
...
...
...
···

E(uN u1) E(uN u2) · · · E(u2
N)






150
Zwischenbemerkungen: (II)
• Wegen B1 gilt E(ui) = 0 bzw. E(uj ) = 0 und damit
E(uiuj ) =
(
E{[ui − E(ui)][uj − E(uj )]} = Cov(ui, uj )
E{[ui − E(ui)][ui − E(ui)]} = V ar(ui)
, für i 6= j
, für i = j
Hieraus folgt



0
E(uu ) = 

V ar(u1)
Cov(u1, u2)
V ar(u2)
Cov(u2, u1)
...
...
Cov(uN , u1) Cov(uN , u2)
· · · Cov(u1, uN )
· · · Cov(u2, uN )
...
···
V ar(uN )
···





= Cov(u)
151
Definition 4.1: (Varianz-Kovarianz-Matrix)
Die Matrix E(uu0) = Cov(u), die sowohl die Varianzen sämtlicher
Störgrößen als auch alle Kovarianzen zwischen den Störgrößen
enthält, wird als Varianz-Kovarianz-Matrix des multiplen Regressionsmodells bezeichnet.
Zwischenbemerkungen: (III)
• Gilt nun V ar(ui) = σ 2 für alle i = 1, . . . , N (Annahme B2,
vgl. Folie 143) sowie Cov(ui, uj ) = 0 für alle i = 1, . . . , N und
j = 1, . . . , N mit i 6= j (Annahme B3, vgl. Folie 143), so folgt
für die Varianz-Kovarianz-Matrix



Cov(u) = 


σ2 0
0 σ2
...
...
0 0
··· 0
··· 0
· · · ...
· · · σ2






2
=σ 



1
0
...
0
0
1
...
0
···
···
···
···
0
0
...
1



 = σ 2IN

152
2. Störgrößenspezifikation (B-Annahmen) (II)
• Annahmen B2 und B3:
Cov(u) = σ 2IN
• Annahme B4:
Der Störgrößenvektor u ist multivariat normalverteilt mit
u ∼ N (0N ×1, σ 2IN )
153
3. Variablenspezifikation (C-Annahmen) (I)
• Annahme C1:
Keines der Elemente der (N × [K + 1])-Matrix X ist eine
Zufallsvariable
Zwischenbemerkungen: (I)
• Die X-Matrix lässt sich wie folgt zerlegen:
mit
X = [x0 x1 · · · xK ]



x0 ≡ 

1
1
...
1



,




x1 ≡ 

x11
x12
...
x1N



,···,




xK ≡ 

xK1
xK2
...
xKN





154
Zwischenbemerkungen: (II)
• Die Spaltenvektoren x1, . . . , xK repräsentieren jeweils die N
Beobachtungen der K exogenen Variablen
• Gilt rang(X) = K + 1, so sind die Spaltenvektoren x0, x1, . . . ,
xK linear unabhängig
(vgl. Definitionen 2.7, 2.8 auf den Folien 32, 33)
3. Variablenspezifikation (C-Annahmen) (II)
• Annahme C2: (Freiheit von perfekter Multikollinearität)
rang(X) = K + 1
155
4.2 (Punkt)Schätzung
Für die KQ-Schätzung im multiplen linearen Regressionsmodell:
• Ökonometrisches Modell:
y = Xβ + u
yi = α + β1x1i + β2x2i + . . . + βK xKi + ui
• Geschätztes Modell:
b
ŷ = Xβ
ŷi = α̂ + β̂1x1i + β̂2x2i + . . . + β̂K xKi
• Residuen:
b = y−y
b
u
ûi = yi − ŷi
156
Jetzt:
b im multiplen Modell
• Bestimmung des KQ-Schätzers β
Herleitung: (I)
• Residualquadratsumme in Matrixschreibweise:
b 0u
b
Sûû = u
=
N
X
û2
i
i=1
157
Herleitung: (II)
• Wegen
b
b = y − Xβ
u
ûi = yi − α̂ − β̂1x1i − . . . − β̂K xKi
folgt:
Sûû =
=

‘
‘0 
b
b
y − Xβ
y − Xβ
N 
X
i=1
yi − α̂ − β̂1x1i − . . . − β̂K xKi
‘2
158
Herleitung: (IV)
• Minimierungsbedingungen lauten:
∂ Sûû
b
∂β



=

∂ Sûû/∂ α̂
∂ Sûû/∂ β̂1
...
∂ Sûû/∂ β̂K
(Normalengleichungen)



 = 0(K+1)×1

159
Herleitung: (VI)
• Berechung des Gradienten: (siehe Übung)
∂ Sûû
b
∂β
‘0 
‘
∂ 
b
b
=
y − Xβ
y − Xβ
b
∂β
=
0 y − ∂ 2y0 Xβ
b + ∂ β
b 0X0Xβ
b
y
b
b
b
∂β
∂β
∂β
∂
b
= −2X0y + 2X0Xβ
−→ Normalengleichungssystem:
−→ KQ-Schätzer:
b = X0 y
X0Xβ

‘−1
0
b = XX
β
X0 y
160
Ausführliche Schreibweise:



0
XX = 

=

1
1 ···
1
x11 x12 · · · x1N
...
...
...
...
xK1 xK2 ... xKN
N





PN
x1i
Pi=1
N x2
i=1 1i
 PN


i=1 x1i
.

...
 P ..
PN
N x
i=1 xKi x1i
i=1 Ki



0
Xy = 



1 x11 · · · xK1

1 x12 · · · xK2 

...
...
... 
···
1 x1N · · · xKN
PN
x
···
PNi=1 Ki
···
i=1 x1i xKi
...
...
...
1
1
1 ···
y1

x11 x12 · · · x1N 
  y2

...
... 
...
...
  ...
yN
xK1 xK2 ... xKN
PN
2
i=1 xKi









,


PN
y
 PNi=1 i

i=1 x1i yi
=
...

 P
N x y
i=1 Ki i






161
Illustration: (Düngemittelbeispiel) (I)
• Aus den N = 30 Daten von Folie 138 errechnet man:
N = 30,
30
X
x1i = 96.77,
i=1
30
X
yi = 120.42,
i=1
30
X
i=1
x1iyi = 388.57,
30
X
x2i = 129.72
i=1
30
X
x2
1i = 312.39,
i=1
x1ix2i = 418.46
i=1
i=1
30
X
30
X
x2
2i = 564.63,
30
X
x2iyi = 521.66
i=1
162
Illustration: (Düngemittelbeispiel) (II)
• Somit folgt:

30
b = 
β
 96.77

−1 

96.77 129.72
120.42



312.39 418.46   388.57 
129.72 418.46 564.63


0.9543



=  0.5965  = 
0.2626
521.66

α̂

β̂1 
β̂2
163
EViews-Output für die Düngemittelregression
Dependent Variable: Y
Method: Least Squares
Date: 07/12/04 Time: 15:16
Sample: 1 30
Included observations: 30
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
X1
X2
0.954315
0.596520
0.262552
0.469432
0.137878
0.033997
2.032913
4.326445
7.722780
0.0520
0.0002
0.0000
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.742742
0.723686
0.065210
0.114812
40.91675
1.751158
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
4.013865
0.124054
-2.527783
-2.387663
38.97652
0.000000
164
Jetzt:
• Bestimmtheitsmaß R2 bei multipler Regression
Weiterhin gilt:
• Streuungszerlegung
Syy = Sŷŷ + Sûû
(vgl. Satz 3.6, Folie 96)
−→ Definition des multiplen Bestimmtheitsmaßes:
Sŷŷ
Syy − Sûû
Sûû
2
=
=1−
R =
Syy
Syy
Syy
(vgl. Def. 3.7, Folie 97)
165
Jetzt:
• Explizite Berechnung des multiplen Bestimmtheitsmaßes
Satz 4.2: (Formel für das R2)
Für das multiple Bestimmtheitsmaß R2 gilt:
b − N y2
Sŷŷ
y0X(X0X)−1X0y − N y 2
y 0 Xβ
2
R =
=
= 0
.
0
2
2
Syy
y y − Ny
y y − Ny
Bemerkungen:
• Herleitung: Von Auer (2007)
• Vgl. auch Übung
166
Illustration: (Düngemittelbeispiel) (I)
• Aus den N = 30 Daten von Folie 138 errechnet man:
N = 30,
y0y =
y = 4.013865,


120.415937


X0y =  388.565728  ,
521.658742
30
X
i=1

yi2 = 483.779553

0.954315

b =
β
 0.596520 
0.262552
167
Illustration: (Düngemittelbeispiel) (II)
• Daraus folgt


0.954315


b =
y0Xβ
120.415937 388.565728 521.658742  0.596520 
0.262552
= 483.664510
h
i
und somit
483.664510 − 30 · 4.0138652
2
R =
= 0.742164
2
483.779553 − 30 · 4.013865
168
Bemerkungen:
• Rundungsfehler
• Aufnahme zusätzlicher X-Variablen führt (fast) immer zur
Erhöhung des R2
−→ Adjustiertes Bestimmtheitsmaß:
2 = 1 − (1 − R2)
Radj
N −1
N −K −1
Jetzt:
• Eigenschaften des KQ-Schätzers
b = (X0X)−1X0y
β
169
Satz 4.3: (Erwartungstreue des KQ-Schätzers)
Unter den A-, B-, C-Annahmen (ohne B4) ist der KQ-Schätzer
b = (X0X)−1X0y erwartungstreu für β , d.h.
β
 ‘
b = β.
E β
Für die Varianz-Kovarianz-Matrix des KQ-Schätzers gilt:

‘−1
 ‘
0
2
b
.
Cov β = σ X X
170
Bemerkungen: (I)
• Im Detail besagt die Erwartungstreue
E(α̂) = α,
E(β̂1) = β1,
...
E(β̂K ) = βK
• Zur Herleitung der Erwartungstreue sowie der Kovarianzmab vgl. Übung
trix von β
• Spezialfall der Einfachregression (K = 1):


1 x1


X =  ... ...  ,
1 xN
X0 X =
"
#
PN
N
i=1 xi
PN
PN
2
i=1 xi
i=1 xi
171
Bemerkungen: (II)
• Inverse einer (2 × 2)-Matrix:
A=
"
a11 a12
a21 a22
#
,
A−1 =
1
a11a22 − a12a21
−→ Berechnung von
b) =
Cov(β
"
V ar(α̂) Cov(α̂, β̂)
Cov(α̂, β̂) V ar(β̂)
#
"
a22 −a12
−a21 a11
= σ 2(X0X)−1
(vgl. Satz 4.3, Folie 170; Übung)
172
#
Satz 4.4: (Gauß-Markov-Theorem)
Unter den A-, B-, C-Annahmen (ohne B4) ist der KQ-Schätzer
b = (X0X)−1X0y der beste lineare unverzerrte Schätzer für den
β
Parametervektor β .
(BLUE = Best Linear Unbiased Estimator)
Bemerkungen:
• Bedeutung von BLUE im multiplen Fall?
∗
b
• Es sei β ein anderer linearer E-treuer Schätzer für β
b ) ist positiv semidefinit
b ∗) − Cov(β
−→ Cov(β
(vgl. Definition 2.13, Folie 47)
173
Verteilung von y: (I)
• Zunächst
y = Xβ + u,
d.h. y ist eine lineare Funktion von u
• Aufgrund der B-Annahmen gilt
u ∼ N (0N ×1, σ 2IN )
−→ auch y ist multivariat normalverteilt
174
Verteilung von y: (II)
• Erwartungswertvektor von y:
E(y) = E(Xβ + u)
= E(Xβ ) + E(u)
= Xβ
• Kovarianzmatrix von y:
Cov(y) = Cov(Xβ + u)
= Cov(u)
= σ 2IN
• Also gilt:
y ∼ N (Xβ , σ 2IN )
175
b : (I)
Verteilung von β
• Zunächst
b = (X0X)−1X0y,
β
b ist eine lineare Funktion von y
d.h. β
• Verteilung von y
y ∼ N (Xβ , σ 2IN )
(vgl. Folie 175)
b ist multivariat normalverteilt
−→ auch β
176
b : (II)
Verteilung von β
b sind
• Erwartungswertvektor und Kovarianzmatrix von β
 ‘
b = β,
E β
(vgl. Satz 4.3, Folie 170)
• Also gilt:
 ‘
b = σ 2(X0X)−1
Cov β
b ∼ N (β , σ 2(X0X)−1)
β
b gilt
• Für die Einzelkomponenten von β
α̂ ∼ N (α, V ar(α̂))
bzw.
β̂k ∼ N (βk , V ar(β̂k )),
mit V ar(α̂) bzw. V ar(β̂k ) als den entsprechenden Diagonalelementen von σ 2(X0X)−1
177
Problem erneut:
• Störtermvarianz σ 2 ist unbekannt
b ) = σ 2(X0X)−1 kann nicht berechnet werden
−→ Cov(β
(vgl. Einfachregression, Folien 91 ff.)
Satz 4.5: (E-treuer Schätzer für σ 2)
Ein erwartungstreuer Schätzer für die unbekannte Störtermvarianz
σ 2 ist gegeben durch
σ̂ 2 =
N
b
b 0u
X
u
1
2
û =
.
N − K − 1 i=1 i
N −K−1
178
Bemerkungen:
• Man zeige die Erwartungstreue, d.h. E(σ̂ 2) = σ 2, mittels der
Beziehung
b = y−y
b
u
b
= y − Xβ
= y − X(X0X)−1X0y
=
(vgl. Übung)
h
i
0
−1
0
IN − X(X X) X y
• Von besonderer Bedeutung: M ≡ IN − X(X0X)−1X0
(Residuen-Erzeugungsmatrix)
179
EViews-Output für die Düngemittelregression
Dependent Variable: Y
Method: Least Squares
Date: 07/12/04 Time: 15:16
Sample: 1 30
Included observations: 30
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
X1
X2
0.954315
0.596520
0.262552
0.469432
0.137878
0.033997
2.032913
4.326445
7.722780
0.0520
0.0002
0.0000
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.742742
0.723686
0.065210
0.114812
40.91675
1.751158
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
4.013865
0.124054
-2.527783
-2.387663
38.97652
0.000000
180
Illustration: (Düngemittelbeispiel) (I)
b 0u
b = 0.114812
• Sum squared resid = u
b 0u
b
0.114812
u
2
=
= 0.0042523
=⇒ σ̂ =
N −K−1
30 − 2 − 1
• S.E. of regression =
r
b
b 0u
u
N −K−1 =
√
σ̂ 2 = σ̂ = 0.065210
• σ̂ 2 = 0.0042523 und Hauptdiagonalelemente von σ̂ 2(X0X)−1
liefern die geschätzten Varianzen Vd
ar(α̂), Vd
ar(β̂1), Vd
ar(β̂2)
181
Illustration: (Düngemittelbeispiel) (II)
• σ̂ = 0.065210 und die Wurzeln der Hauptdiagonalelemente
von σ̂ 2(X0X)−1 liefern die Standardfehler der KQ-Schätzer
SE(α̂) = 0.469432
SE(β̂1) = 0.137878
SE(β̂2) = 0.033997
182
4.3 Hypothesentests
2 Arten von Hypothesentests:
• t-Tests (Tests basierend auf der t-Verteilung)
• F -Tests (Tests basierend auf der F -Verteilung)
183
Zunächst:
• Testen einer Linearkombination von Parametern
• In der Einfachregression hatten wir
H0 : β = q
gegen
H1 : β 6= q
• Im multiplen Modell betrachten wir
H0 : r0α + r1β1 + . . . + rK βK = q
H1 : r0α + r1β1 + . . . + rK βK 6= q
i
h
0
bzw. mit r = r0 r1 · · · rK
H0 : r0 β = q
H1 : r0β 6= q
184
Illustration: (Düngemittelbeispiel)
• Test auf konstante Skalenerträge:

also
α


β=
 β1  ,
β2

0



r =  1 ,
1
q=1
H0 : r0β = β1 + β2 = 1
H1 : r0β = β1 + β2 6= 1
zum Signifikanzniveau a = 5%
185
Geeignete Teststatistik: (I)
b −q
r0β
• T =
b)
SE(r0β
b ):
• Form des Standardfehlers SE(r0β
b )r = σ 2r0(X0X)−1r
b ) = r0Cov(β
V ar(r0β
mit
b) =
=⇒ SE(r0β
σ̂ 2 =
q
b) =
Vd
ar(r0β
q
σ̂ 2r0(X0X)−1r
N
b
b 0u
X
1
u
û2
=
N −K−1
N − K − 1 i=1 i
186
Geeignete Teststatistik: (II)
• Verteilung von T unter Gültigkeit von H0 : r0β = q:
T
(unter H0)
∼
tN −K−1
(t−Verteilung mit N − K − 1 Freiheitsgraden)
−→ Kritischer Bereich:
(−∞, −tN −K−1;1−a/2] ∪ [tN −K−1;1−a/2, +∞)
d.h. lehne H0 ab, falls
|T | ≥ tN −K−1;1−a/2
187
EViews-Output für die Düngemittelregression
Dependent Variable: Y
Method: Least Squares
Date: 07/12/04 Time: 15:16
Sample: 1 30
Included observations: 30
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
X1
X2
0.954315
0.596520
0.262552
0.469432
0.137878
0.033997
2.032913
4.326445
7.722780
0.0520
0.0002
0.0000
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.742742
0.723686
0.065210
0.114812
40.91675
1.751158
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
4.013865
0.124054
-2.527783
-2.387663
38.97652
0.000000
188
Berechnung der Teststatistik:
h
b =
r0 β


α̂


0 1 1  β̂1  = β̂1 + β̂2
β̂2
i
= 0.596520 + 0.262552 = 0.859072
Standardfehler der Teststatistik:
b ) = SE(β̂ + β̂ )
SE(r0β
1
2
q
=
=
=
d β̂ , β̂ )
Vd
ar(β̂1) + Vd
ar(β̂2) + 2Cov(
1 2
q
(0.137878)2 + (0.033997)2 + 2 · 0.0000287
p
0.01901 + 0.001156 + 0.000057
= 0.142208
189
−→
T =
b −q
r0β
=
0
b
SE(r β )
0.859072 − 1
= −0.990999
0.142208
Testentscheidung:
|T | = 0.990999 < 2.0518 = t27;0.975
−→ H0 kann nicht abgelehnt werden
(konstante Skalenerträge sind mit den Daten vereinbar)
190
Spezialfälle des allgemeinen t-Tests: (I)
• Betrachte die K + 1 Vektoren



r0 = 

1
0
...
0




r1 = 



,

0
1
...
0



,...,




rK = 

0
0
...
1



,

q=0
−→ Testprobleme
H0 : α = 0 gegen H1 : α 6= 0
H0 : β1 = 0 gegen H1 : β1 6= 0
...
H0 : βK = 0 gegen H1 : βK 6= 0
191
Spezialfälle des allgemeinen t-Tests: (II)
• Teststatistiken:
b
r00β
α̂
Tα =
=
b
0
SE(α̂)
SE(r0β )
Tβ1
TβK
0β
b
r1
β̂1
=
=
b
0
SE(β̂1)
SE(r1β )
...
b
r0K β
β̂K
=
=
b)
SE(β̂K )
SE(r0K β
192
EViews-Output für die Düngemittelregression
Dependent Variable: Y
Method: Least Squares
Date: 07/12/04 Time: 15:16
Sample: 1 30
Included observations: 30
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
X1
X2
0.954315
0.596520
0.262552
0.469432
0.137878
0.033997
2.032913
4.326445
7.722780
0.0520
0.0002
0.0000
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.742742
0.723686
0.065210
0.114812
40.91675
1.751158
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
4.013865
0.124054
-2.527783
-2.387663
38.97652
0.000000
193
EViews-Output:
Koeffizientenschätzung
• t-Statistic = Standardfehler
des Koeffizientenschätzers
• Prob. = p-Wert des t-Tests
(Kleinstes Signifikanzniveau zur Ablehnung von H0)
Einseitiger (linksseitiger) t-Test:
H0 : r 0 β ≥ q
gegen
• Teststatistik
T =
H 1 : r0 β < q
b −q
r0 β
b)
SE(r0β
• Lehne H0 zum Niveau a ab, falls T < −tN −K−1;1−a
194
Jetzt:
• Simultanes Testen mehrerer Parameterbeziehungen
(F -Test)
Lineares multiples Regressionsmodell:
y
(N ×1)
=
X
·
β
(N ×[K+1]) ([K+1]×1)
+
u
(N ×1)
Null- und Alternativhypothese:
H 0 : Rβ = q
H 1 : Rβ 6 = q
mit R einer (L × [K + 1])-Matrix und q einem (L × 1)-Vektor
195
Beispiele: (I)
• H0 : β1 = β2 = . . . = βK = 0



−→ R = 

0
0
...
0
1
0
...
0
0 ···
1 ···
... ...
0 ···
0
0
...
1



,




q=

0
0
...
0



 = 0L

• H0 : β1 + . . . + βK = 1 und gleichzeitig β1 = 2β2
−→ R =
"
0 1 1 1 ··· 1
0 1 −2 0 · · · 0
#
,
q=
"
1
0
#
196
Beispiele: (II)
• H0 : β1 = 5 und gleichzeitig β2 = . . . = βK = 0





−→ R = 


0
0
0
...
0
1
0
0
...
0
0
1
0
...
0
0
0
1
...
0
···
···
···
...
···
0
0
0
...
1




,








q=


5
0
0
...
0








197
Grundidee des F -Tests: (I)
• Vergleiche Residualquadratsumme des Regressionsmodells
b0b
Sûû = u u =
N
X
ûi2
i=1
mit Residualquadratsumme des Nullhypothesenmodells
N
X
0
0
2
b =
b )0 u
(û0
Sû0û0 = (u
i)
i=1
b 0 ist der Residualvektor, der sich bei der KQ-Schätzung
(u
unter Berücksichtigung von H0 ergibt)
198
Grundidee des F -Tests: (II)
• Es muss immer gelten
Sû0û0 ≥ Sûû
• Die Nullhypothese ist vermutlich falsch, falls
Sû0û0 >> Sûû
199
Durchführung des Tests: (I)
• Geeignete Teststatistik:
F =
=

‘
Sû0û0 − Sûû /L
Sûû/(N − K − 1)
i
i0 h
i−1 h
0
0
−1
b
b
Rβ − q
Rβ − q R(X X) R
b0b
h
u u/(N − K − 1)
• Verteilung von F unter Gültigkeit von H0 : Rβ = q:
F
(unter H0)
∼
FL,N −K−1
(F −Verteilung mit L und N − K − 1 Freiheitsgraden)
200
Durchführung des Tests: (II)
• Kritischer Bereich zum Signifikanzniveau a:
[FL,N −K−1;1−a, +∞)
d.h. lehne H0 zum Niveau a ab, falls
F ≥ FL,N −K−1;1−a
[(1 − a)-Quantil der FL,N −K−1-Verteilung]
201
EViews-Output für die Düngemittelregression
Dependent Variable: Y
Method: Least Squares
Date: 07/12/04 Time: 15:16
Sample: 1 30
Included observations: 30
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
X1
X2
0.954315
0.596520
0.262552
0.469432
0.137878
0.033997
2.032913
4.326445
7.722780
0.0520
0.0002
0.0000
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.742742
0.723686
0.065210
0.114812
40.91675
1.751158
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
4.013865
0.124054
-2.527783
-2.387663
38.97652
0.000000
202
EViews-Output:
• F-statistic = F -Test für das Testproblem
H0 : β1 = β2 = . . . = βK = 0
• Prob(F-statistic) = p-Wert des F -Tests
(Kleinstes Signifikanzniveau zur Ablehnung von H0)
203
4.4 Prognose
Ziel:
• Bedingte Prognose des endogenen Wertes y0 bei gegebenen
Werten der K exogenen Variablen x10, x20, . . . , xK0
(vgl. Prognose der Einfachregression, Abschnitt 3.4)
204
Dafür: (I)
• Es seien
0 =
x0
h
1 x10 x20 · · · xK0
der Vektor der exogenen Variablen und
i
b = (X0X)−1X0y
β
der KQ-Schätzer des multiplen Regressionsmodells
−→ Bedingte Punktprognose:
b
ŷ0 = x00β
• Prognosefehler:
b − x0 β − u = x0
ŷ0 − y0 = x00β
0
0
0

‘
b
β − β − u0
205
Dafür: (II)
• Varianz des Prognosefehlers:

‘
0
2
0
−1
V ar(ŷ0 − y0) = σ 1 + x0(X X) x0
• Geschätzte Varianz des Prognosefehlers:
‘

−1
2
0
0
d
V ar(ŷ0 − y0) = σ̂ 1 + x0(X X) x0
b
b 0u/(N
mit σ̂ 2 = u
− K − 1)
−→ Standardfehler des Prognosefehlers:
SE(ŷ0 − y0) =
q
Vd
ar(ŷ0 − y0)
206
Jetzt:
• Konstruktion eines (1 − a)-Prognoseintervalls über die Standardisierung des Prognosefehlers
(vgl. Folie 125)
T =
=0
}|
{
(ŷ0 − y0) − E (ŷ0 − y0)
z
SE(ŷ0 − y0)
• Man kann zeigen, dass
T ∼ tN −K−1
(t-Verteilung mit N − K − 1 Freiheitsgraden)
−→ (1 − a)-Prognoseintervall:
[ŷ0−tN −K−1;1−a/2·SE(ŷ0−y0), ŷ0+tN −k−1;1−a/2·SE(ŷ0−y0)]
207
Herunterladen