Autokorrelation in den Störtermen - Uni

Werbung
AUTOKORRELATION IN DEN STÖRTERMEN
102
9.2
Tests auf Autokorrelation in den Störtermen
Ziel: Wir möchten (hier nur) testen, ob Autokorrelation der Störterme vorliegt oder nicht.
9.2.1
Kapitel 9
Autokorrelation in den Störtermen
9.1
Einleitung/Ziel/Bedeutung
Gründe für Störterm-Autokorrelation
• gibt es viele; bei Zeitreihenregressionen ist eher die Frage: Warum sollten wir keine
Autokorrelation (im Engl. meist: serial correlation) in den Störtermen haben?
• Störterm-AK bedeutet eine ‘Verschleppung’ (Nachwirken der Vergangenheit) in den
Informationen, die yt beeinflussen, ohne im Regressionsmodell abgefangen zu sein.
• Aus dieser Perspektive ist Störterm-AK eine ‘dynamische Fehlspezifikation’: Von
mindestens einer erklärenden Variablen wurden zu wenig Lags eingeschlossen.
• In der Tat wird die Störterm-Autokorrelation i.d.R. vermindert, wenn man mehr
Lags von Regressoren einschließt, besonders dann, wenn dieser Regressor das verzögerte y selbst ist (autoregressives Modell). Dies ist aber kein Allheil-Mittel.
Auswirkungen von Störterm-Autokorrelation
• Wo liegen überhaupt die Probleme von OLS, wenn eine Störterm-AK vorliegt? Wir
wissen doch, dass OLS auch bei Zeitreihen bereits unter den ersten drei GM-Annahmen
TS1, TS2, TS3 erwartungstreu (unter strikter Exogenität) bzw. konsistent (unter Stationarität) ist. Die Annahme TS5 nicht-autokorrelierender Störterme wird dazu nicht benötigt.
• Selbst wenn TS1, TS2, TS3 erfüllt sind, treten bei Verletzung von TS5 zumindest
zwei Probleme auf:
1) Effizienz: OLS ist nicht mehr BestLUE; das heißt, die Schätzung ist weniger ‘genau’ (konfident) als möglich. In der Tat bekommt man oft ein von der
einfachen OLS-Schätzung recht stark abweichendes Ergebnis, wenn man eine
vorhandene Autokorrelation der Störterme kontrolliert (und nicht ignoriert).
2) Inferenz: Die t- und F -Statistiken sind bei Autokorrelation der Störterme
ungültig. Schon die üblichen OLS-Standardfehler sind ungültig. (In den Anwendungen ist die unzulässige Inferenz gravierender als die fehlende Effizienz)
Vorgehensweisen zur Behandlung der Problematik
1) Entweder man verwendet einen anderen Schätzer als OLS, der auch bei autokorrelierenden Störtermen effizient bzw. BLUE ist (GLS-Schätzer, z.B. Cochrane/Orcutt,
Prais/Winsten; basieren auf einer unterstellten AK-Struktur)
2) oder man bleibt bei OLS, versucht aber ‘autokorrelations-robuste Standardfehler’
(meist größer als die üblichen OLS-Standardfehler) zu bekommen, z.B. Newey/West.
Wir beschränken uns hier auf den 1. Zugang (→ nä. Kap: heterosked.-robuste Stdfehler)
101
Test auf AR(1) Autokorrelation bei strikt exogenen Regressoren (Einfacher t-Test, Durbin-Watson)
Das Vorgehen folgt einem Prinzip, das wir nun dauernd (z.B. auch bei ARCH) wiederfinden werden; es soll deswegen zunächst abstrakt erläutert werden:
• Wir möchen ein Outcome-Modell
yt = β0 + β1 x1,t + . . . + βK xK,t + ut
(1)
schätzen, müssen aber damit rechnen, dass der Störterm ut GM-Annahmen verletzt.
• Wir unterstellen ein Störterm-Modell, das die Problematik identifizieren kann.
Z.B. werden wir in diesem Abschnitt (Verdacht auf Störterm-Autokorrelation) zunächst das einfachste Modell verwenden, das AK abbilden kann, das AR(1)-Modell:
ut = (α+) ut−1 + εt
(2)
Ist dieses Modell für ut korrekt, haben wir Störterm-AK genau dann, wenn = 0.
• Den Test auf die Annahme-Verletzung führen wir durch, indem wir zunächst das
Outcome-Modell (mit OLS) schätzen und dann die Residuen ût aus dieser Schätzung
statt ut im Störterm-Modell verwenden. Das Störterm-Modell nennen wir deswegen
auch das Residual-Modell. Wir ignorieren im Folgenden weitgehend die mit dieser
Ersetzung verbundene Problematik (Ausnahme: iterative FGLS).
• In der Praxis liegen die Hauptprobleme in der korrekten Spezifikation sowohl
des Outcome- als auch des Residual-Modells, die die grundlegenden GMAnnahmen (funktionale Form, Stationarität, Exogenität) erfüllen müssen.
Anwendung dieses Prinzips mit einem AR(1)-Residualmodell führt auf den einfachen
t-Test auf Störterm-Autokorrelation:
• Regressiere die Residuen auf verzögerte Residuen und verwende einen t-Test. D.h.:
– Schätze yt = β0 + β1 x1,t + . . . + βK xK,t + ut mit OLS und bilde Residuen ût
– Schätze ût = (α +) ût−1 + εt mit OLS; liefert:
T
empir. Residualkovarianz
t=2 ût ût−1
= ˆ =
T
2
empir. Residualvarianz
t=1 ût
– Verwende die t-Statistik für ˆ, um ggf. auf das Vorliegen autokorrelierender
Störterme zu schließen (Nullhypothese ist: Keine Autokorrelation)
Anmerkungen:
• Anders als bei Dickey-Fuller: Bzgl. ˆ gilt (asymptot.) die t-Verteilung, sofern ...
• die Ersetzung ut → ût erlaubt ist. Man kann zeigen, dass dies unter der Annahme
strikter Exogenität der Fall ist. Haupteinschränkung bei diesem Test (und damit
auch der folgenden Durbin-Watson-Statistik) ist also der Auschluss autoregressiver
Outcome-Modelle.
c K.H. SCHILD, ABT. STATISTIK, FB WIWI, UNI MARBURG
103
Der beschriebene t-Test auf AR(1)-AK ist eng verwandt mit der Durbin-Watson-Statistik:
• Die Durbin-Watson-Statistik DW ist definiert als:
T
T
2 (binom. Formel)
t=2 (ût − ût−1 )
t=2 ût ût−1
≈
2
−
2
= 2 − 2 ˆ
DW :=
T
T
2
2
û
t=1 t
t=1 ût
sie wird routinemäßig von jeder (besseren) Ökonometrie-Software ausgegeben.
• Falls die DW-Statistik nahe 2 liegt, signalisiert das: ’keine Autokorrelation’. Weicht
sie stark von 2 ab, ist das ein Zeichen für autokorrelierende Störterme.
Man kann diese Überlegung zu exakten Hypothesentests ausbauen (in zahlreichen
Varianten, z.B. auch einseitige Tests mit Alternative ‘ > 0’)
• Aber: Die krit. Werte der DW-Statistik sind non-Standard (und der Umgang damit
unhandlich) – mit obigem einfachen t-Test ist wesentlich angenehmer zu arbeiten.
• Vorschlag: Durbin-Watson nur als Heuristik verwenden, die einem schnell anzeigt,
ob Autokorrelation ein potentielles Problem darstellt (wenn, sagen wir, DW < 1.7
oder DW > 2.3); in diesem Fall den folgenden Breusch-Godfrey-Test durchführen.)
9.2.2
Test auf AR(1)-AK bei nicht strikt exogenen Regressoren
• Problem: Einfacher t-Test bzw. DW nicht gültig bei autoregr. Outcome-Modell.
Ausweg: Man regressiert das Residuum auf das verzögerte Residuum und alle x.
• Der Einschluss der x-Variablen erlaubt es, dass jedes xt,j korreliert ist mit ut−1 ;
daher wird die Annahme strikter Exogenität nicht benötigt (für die t-Verteilung).
• Also, Verfahren:
– Schätze yt = β0 + β1 x1,t + . . . + βK xK,t + ut mit OLS
– Schätze ût = α0 + α1 x1,t + . . . + αK xK,t + ût−1 + εt mit OLS;
– Verwende die t-Statistik für ˆ, um ggf. auf das Vorliegen autokorrelierender
Störterme zu schließen.
Anmerkung: Jetzt brauchen wir eine Konstante (α0 ) im Residualmodell. Wieso?
9.2.3
Test auf AR(p)-Autokorrelation (Breusch-Godfrey)
• Gleiches Prinzip, aber lasse p Lags von ût in der Residual-Regression zu (wie DF →
ADF) und teste auf gemeinsame Signifikanz aller Lags (anders bei (A)DF).
• Das Verfahren sieht also so aus:
– Schätze yt = β0 + β1 x1,t + . . . + βK xK,t + ut mit OLS
– Schätze ût = α0 + α1 x1,t + . . . + αK xK,t + 1 ût−1 + . . . + p ût−p + εt mit OLS;
– Führe einen F -Test der Nullhypothese 1 = 0, . . . , p = 0 durch (d.h. teste auf
gemeinsame Signifkanz von ût−1 , . . . , ût−p in der Residualregression)
• In EViews ist dieser Breusch-Godfrey-Test nicht als F -Test, sondern in der LMVariante zum Testen von Exklusionsrestriktionen (siehe Abschnitt zu ML-Schätzung)
implementiert. Die Teststatistik ist dabei (T − p) R2 mit dem R2 = Rû2 aus der
Residual-Regression (asymptotisch χ2 -verteilt mit p Freiheitsgraden).
AUTOKORRELATION IN DEN STÖRTERMEN
104
9.3
Korrektur von Autokorrelation in den Störtermen
9.3.1
GLS-Schätzung bei AR(1)-Autokorrelation
• Frage: Was müssten wir tun, damit ein Outcome-Modell, bei dem (lediglich) StörtermAK mit bekannter Autokorrelationstruktur auftritt, BLUE-geschätzt werden kann?
Der GLS-Ansatz beantwortet diese Frage so:
Verwende die bekannte AK-Struktur, um das Modell in ein solches (linear) zu transformieren, das die gleichen β’s hat, wo aber die AK-Problematik eliminiert ist (und
keine andere Problematik erzeugt wird); schätze dann das transformierte Modell
mit seinem BLUE-Schätzer, also mit OLS.
• Wir leiten eine solche Transformation im Fall eines AR(1)-Residualmodells mit
(zunächst) bekanntem her:
ut = ut−1 + εt (t = 2, . . . T ),
εt i.i.d.
(Für später halten wir zunächst fest, dass dies Var(ut ) = σε2 /(1 − 2 ) impliziert)
• Wir versuchen, das Outcome-Modell so zu transformieren, dass die Störterm-AK
eliminiert wird; dazu betrachten wir zwei aufeinanderfolgende Outcome-Gln:
yt = β0 + β1 xt + ut
yt−1 = β0 + β1 xt−1 + ut−1
Multiplikation der zweiten Gl. mit und Subtraktion von der ersten liefert:
yt − yt−1 = (1 − ) β0 + β1 (xt − xt−1 ) + εt
ỹt
x̃t
ũt
• Die Störterme im transformierten Modell, ũt = εt , sind nicht mehr autokorreliert.
Wenn wir das Modell in den transformierten Variablen x̃t , ỹt mit OLS schätzen, erhalten wir eine BLUE-Schätzung der β’s (sind bei der Transfo. unverändert geblieben)
• Die Methode
– Unterwerfe sämtliche Variablen des Outcome-Modells der gleichen Transformation,
– deren Anwend. im Residualmod. die Störterm-Problematik (hier AK) eliminiert,
– und schätze das Outcome-Modell in den transformierten Variablen mit OLS
kennzeichnet eine GLS-Schätzung (GLS = generalized least squares).
Vorteile von GLS: (1): BLUE-Schätzer (Effizienz); (2): übliche Inferenzen zulässig.
• Zwei (kleinere) Probleme mit GLS im vorliegenden Fall:
1. Das transformierte Modell hat eine Beobachtung weniger als das Ausgangsmodell.
Lösung:
Man kann (z.B.) die Ausgangsgl. für y1 hinzufügen, sollte diese dann allerdings
mit 1 − 2 multiplizieren, um ein Heteroskedastie-Problem zu vermeiden.
2. Die GLS-Schätzung der Konstanten schätzt (1 − ) β0 , nicht β0 .
Lösung: Dividiere die GLS-Schätzung der Konstanten durch 1 − .
• Die GLS-Schätzung läuft hier auf eine Quasi-Differenzenbildung hinaus (im Fall
= 1 würde man effektiv die Differenzenbildung durchführen).
c K.H. SCHILD, ABT. STATISTIK, FB WIWI, UNI MARBURG
105
• Die implizite (oder Quasi-) Differenzierung aller Variablen bei GLS-Schätzung eines
Modells mit starker Störterm-AK legt zwei Folgerungen nahe:
1. Ein AK-Problem wird häufig durch Differenzenbildung zumindest abgeschwächt.
2. Wenn man ein AK-Problem (z.B. automatisiert mit einer Software) mit GLS
behandelt, dann schätzt man ein quasi-differenziertes Modell. D.h. es kann sein,
dass dadurch Instationaritäts-Probleme (gewissermaßen: unter der Hand) eliminiert
werden; ein verändertes Schätzergebnis könnte dann mehr auf der impliziten Elimination von Instationaritäten als auf der expliziten Behandlung der AK beruhen.
9.3.2
FGLS-Schätzung mit AR(1)-Störtermen (Prais-Winsten,
Cochrane-Orcutt); iterative FGLS-Schätzung
• Bei GLS müssen (nicht nur das Residualmodell in seiner Struktur, hier AR(1), sondern auch) die Parameter des Residualmodells (hier ) bekannt sein.
• Das führt auf FGLS (Das ‘F’ steht für ‘feasible’ = durchführbar):
Um (Schätzungen für) die Parameter des Residualmodells zu bekommen, wird
106
• FGLS-Schätzungen zur Behebung von Störterm-AK wurden erstmals von Cochrane/Orcutt und Prais/Winsten durchgeführt. (Die beiden Verfahren unterscheiden sich je nachdem, wie mit der ersten Beobachtung verfahren wird).
9.3.3
GLS- und FGLS-Schätzung mit AR(p)-Störtermen
• Auch im allgemeinen Fall, dass die Störterme einem AR(p)-Modell folgen, kann man
eine lineare Transformation der Variablen angegeben, so dass in den transformierten
Variablen keine Autokorrelation der Störterme mehr vorliegt
(am einfachsten: ỹt = yt − 1 yt−1 − . . . − p yt−p und analog für alle xt,j )
• Wie bei AR(1)-Störtermen: Die GLS-Schätzung unternimmt eine OLS-Schätzung in
den transformierten Variablen
• Auch die FGLS-Schätzung (und deren iterative Fortsetzung) ist vollkommen analog
zur AR(1)-Situation. Natürlich umfasst die Residualregression nun p statt einem
verzögerten Residuum.
• Zusammenfassung der Begriffe (im Kontext von Störterm-Autokorrelation):
– GLS: Führe eine OLS-Schätzung in transformierten Variablen durch; die Transformation muss – bei Wahl der korrekten Transformations-Koeffizienten – die
Störterm-Autokorrelation eliminieren (sie mindert oft auch Stationaritätsprobleme: Quasi-Differenzen, siehe dazu auch das folgende Beispiel)
– FGLS: Es wird mit geschätzten Autokorrelationskoeffizienten gearbeitet (die
aus der Residualregression gleicher Ordnung stammen)
– Iteratives FGLS: Die Residualregression und die GLS-Transformation werden
iterativ ineinander verschachtelt, Verfeinerung der einfachen FGLS-Schätzung.
0. zunächst das Outcome-Modell mit OLS geschätzt,
1. um mit den ermittelten Residuen die Parameter des Residualmodells zu schätzen
2. und dann mit diesen Parametern (statt der unbekannten wahren) die GLSSchätzung durchzuführen (Transform. aller Variablen mit den geschätzten Residual-Parametern, OLS-Schätzung des Outcome-Modells in transform. Variablen.)
• Im Fall einer AR(1)-Störterm-AK involviert die FGLS-Schätzung also folg. Schritte:
0. Initiale OLS-Schätzung des Outcome-Modells (→ β̂ = β̂OLS )
1. Ermittle Residuen ût = y− β̂0 + β̂1 x; OLS-Schätzung von ût = ût−1 +εt
AUTOKORRELATION IN DEN STÖRTERMEN
→ ˆ
2. Transform. ỹt = yt − ˆyt−1 , x̃t = ...; OLS-Schätzung von ỹt = β0 +β1 x̃t +εt → β̂
• Ein Problem dabei ist, dass die Schätzung des Residualmodells auf den (‘schlechten’)
β̂’s der OLS-Schätzung aus Schritt 0 beruht. Nach der FGLS-Schätzung (Schritt 2)
erhalten wir aber neue (‘bessere’) β̂’s und damit auch neue (‘bessere’) Residuen.
Damit können wir erneut das Residualmodell schätzen (Schritt 1) und dann mit
den neuen Residualparametern eine FGLS-Schätzung (Schritt 2) durchführen usw.
• Dieses Vorgehen entspricht einer iterierten FGLS-Schätzung: Man führt die initiale OLS-Schätzung in Schritt 0 durch und iteriert (wiederholt zyklisch) die Schritte 1 (Update der Residualparameter) und 2 (Update der Outcome-Parameter).1
• Dieses iterative Verfahren konvergiert normalerweise recht schnell; man bricht ab,
sobald keine nennenswerte Veränderung in ˆ und den β̂’s mehr stattfindet.
• Als Ergebnis des Iterationsverfahrens erhält man
– sowohl ein ˆ, das auf ‘autokorrelations-konsistenten’ β̂’s (Residuen) beruht,
– als auch β̂’s, die auf (einer FGLS-Schätzung mit) ‘autokorr.-konsist.’ ˆ beruhen.
1
Ein solches Vorgehen zur Bestimmung von n Unbekannten aus n Gleichungen entspricht dem GaußSeidel-Prinzip (teile und herrsche – löse sukzessive die i-te Gleichung nur in der i-ten Unbekannten bei
festgehaltenen anderen Unbekannten und iteriere zyklisch durch die Gleichungen).
9.4
Implementierung in E-Views
• Wie fast alle Software-Pakete gibt E-Views mit jeder OLS-Schätzung die DurbinWatson-Statistik aus. Weicht die DW-Statistik stark von 2 ab, hat man zumindest
einen Hinweis auf das Vorliegen eines Autokorrelations-Problems.
• Der t-Test oder allgemeiner der LM-Test nach Breusch-Godfrey zum Test auf Autokorrelation kann nach Schätzung des Modells unter View – Residual Tests –
Serial Correlation LM Test durchgeführt werden.
• In E-Views findet sich weder eine eins-zu-eins Abbildung von Prais-Winsten noch
von Cochrane-Orcutt zur Korrektur von Störterm-Autokorrelation. Es werden (so
das Manual) eng verwandte Verfahren verwendet, die als Implementierung der ite”
rativen FGLS-Schätzung gesehen werden können“. Das hat den Vorteil, dass die
FGLS-Schätzung (selbst iterativ) für den Benutzer sehr einfach durchzuführen ist:
• Einen AR(1)-Störterm kann man (mit einem Cochrane-Orcutt-ähnlichen Verfahren)
kontrollieren, indem man einfach die Variable AR(1) als zusätzlichen Regressor im
Equation specification Fenster hinzufügt. Der Koeffizient von AR(1) im Output
entspricht der Schätzung von ˆ (bei iterativem FGLS).
• Entsprechend kontrolliert man einen AR(p) Störterm, indem man AR(1), . . ., AR(p)
bei der Spezifikation der Modellgleichung hinzufügt.
c K.H. SCHILD, ABT. STATISTIK, FB WIWI, UNI MARBURG
9.5
107
Beispiel
Breusch-Godfrey Serial Correlation LM Test:
Wir verwenden die Daten in VOLAT.WF1, die für die Zeit von Jan. 1947 – Juni 1993
folgende Größen in monatl. Frequenz wiedergeben:
sp500 : Standard & Poor’s 500 Aktienindex
divyld : Dividendenertrag der Aktien im S&P 500 (annualisierte Prozentangabe)
ip:
Industrielle Produktion der USA (Index)
i3 :
Rendite (Verzinsung) der 3-monatigen US-amerikanischen Staatsanleihe (T-Bill)
SP500
DIVYLD
$500
I3
8%
7%
$400
IP
20%
$120
16%
$100
$300
12%
$80
8%
$60
4%
$40
5%
$200
4%
3%
$0
2%
100
200
300
400
500
0%
100
200
300
400
500
C
12*DLOG(IP)
I3/100
200
300
400
500
100
200
300
400
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
F-statistic
Prob(F-statistic)
Std. Error
t-Statistic
Prob.
0.182955
0.042419
-1.396140
0.032814
0.130365
0.542174
5.575443
0.325390
-2.575077
0.0000
0.7450
0.0103
0.012500
0.008935
0.402440
89.72492
-281.8588
3.506319
0.030675
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Hannan-Quinn criter.
Durbin-Watson stat
0.114418
0.404251
1.022832
1.046114
1.031925
1.518827
Prob. F(2,552)
Prob. Chi-Square(2)
0.0000
0.0000
Dependent Variable: 12*DLOG(SP500)+DIVYLD/100
Method: Least Squares
Date: 06/20/10 Time: 18:09
Sample (adjusted): 4 558
Included observations: 555 after adjustments
Convergence achieved after 6 iterations
Test Equation:
Dependent Variable: RESID
Method: Least Squares
Date: 06/20/10 Time: 15:35
Sample: 2 558
Included observations: 557
Presample missing value lagged residuals set to zero.
C
12*DLOG(IP)
I3/100
RESID(-1)
RESID(-2)
Coefficient
Std. Error
t-Statistic
Prob.
0.001295
-0.025890
-0.008130
0.257892
-0.079856
0.031921
0.128032
0.527051
0.042465
0.042836
0.040563
-0.202217
-0.015425
6.073117
-1.864216
0.9677
0.8398
0.9877
0.0000
0.0628
0.063002
0.056213
0.390532
84.18833
-264.1205
9.278926
0.000000
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Hannan-Quinn criter.
Durbin-Watson stat
-3.07E-17
0.401994
0.966321
1.005124
0.981476
1.995281
C
12*DLOG(IP)
I3/100
RESIDLS(-1)
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
F-statistic
Prob(F-statistic)
Coefficient
Std. Error
t-Statistic
Prob.
0.003090
-0.056464
-0.034777
0.241423
0.031985
0.127055
0.527978
0.041410
0.096595
-0.444410
-0.065868
5.830054
0.9231
0.6569
0.9475
0.0000
0.058008
0.052888
0.391076
84.42319
-264.9204
11.33071
0.000000
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Hannan-Quinn criter.
Durbin-Watson stat
C
12*DLOG(IP)
I3/100
AR(1)
AR(2)
Coefficient
Std. Error
t-Statistic
Prob.
0.188216
0.036084
-1.479262
0.261924
-0.079348
0.038865
0.134869
0.643854
0.042428
0.042702
4.842800
0.267546
-2.297511
6.173439
-1.858167
0.0000
0.7891
0.0220
0.0000
0.0637
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
F-statistic
Prob(F-statistic)
0.077259
0.070548
0.389427
83.40925
-261.5904
11.51252
0.000000
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Hannan-Quinn criter.
Durbin-Watson stat
Inverted AR Roots
.13+.25i
.13-.25i
0.114740
0.403936
0.960686
0.999596
0.975885
2.000440
500
Dependent Variable: RESIDLS
Method: Least Squares
Date: 06/20/10 Time: 15:20
Sample (adjusted): 3 558
Included observations: 556 after adjustments
Coefficient
18.55785
35.09234
$20
100
Unit-Root-Tests signalisieren für jede der vier Variablen Instationarität/Persistenzeffekte.
Wir ignorieren dieses Problem in Bezug auf divyld und i3, gehen aber beim SP500 zur
annualisierten log-Rendite (einschließlich Dividendenrate) rsp500 = 12 · dlog(sp500) +
divyld/100 und bei ip zur (annualisierten) log-Wachstumsrate rip = 12 · dlog(ip) über, für
die die Unit-Root-Tests Stationarität anzeigen.
Dependent Variable: 12*DLOG(SP500)+DIVYLD/100
Method: Least Squares
Date: 06/20/10 Time: 14:41
Sample (adjusted): 2 558
Included observations: 557 after adjustments
F-statistic
Obs*R-squared
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
F-statistic
Prob(F-statistic)
6%
$100
AUTOKORRELATION IN DEN STÖRTERMEN
108
-0.000577
0.401847
0.967339
0.998424
0.979481
1.953140
Wir betrachten zunächst die Regression von rsp500 = auf rip und i3 (linke Seite). Demnach hat eine Steigerung der Industrieprodukt. keinen signifikanten Einfluss auf die SP500Rendite, jedoch korreliert ein um 1% höherer Zins i3 mit einer um ca. 1.4% geringeren
SP500-Rendite, und dieser Effekt ist signifikant (5%-Niveau). Allerdings signalisiert die
Durbin-Watson-Statistik mit einem Wert von ca. 1.5 eine Autokorrelation der Störterme.
Wir testen auf AR(1)-Autokorrelation, indem wir die Residuen der OLS-Schätzung in
residls speichern und die Residualregression durchführen (re. Seite). Die Autokorrelation
in den Störtermen ist demnach nicht sehr groß, ˆ = 0.24, aber hochgradig signifikant.
Das bestätigt auch ein Breusch-Godfrey-Test, den wir hier mit p = 2 Lags ausführen (der
Test mit einem Lag würde das gerade gezeigte Ergebnis reproduzieren). Das Ergebnis findet sich auf der nächsten Seite im linken Output. Die F -Statistik ist mit einem Wert von
über 18 hochsignifikant. Das Ergebnis einer (iterierten) FGLS-Schätzung mit 2 Lags, wie
sie EViews durchführt, ist im rechten Output zu sehen. Die geschätzten Regressionskoeffizienten ändern sich nicht wesentlich gegenüber der einfachen OLS-Schätzung, allerdings
haben sich die Standardfehler aller Regressionskoeffizienten vergrößert.
Eine starke Störterm-Autokorrelation erhalten wir, wenn anstatt der Rendite des SP500
die Dividendenrate divyld erklärt werden soll. Die OLS-Schätzung liefert das links stehende Ergebnis. Demnach hätte ein Wachstum der Industrieproduktion einen signifikanten, negativen Einfluss auf die Dividende, die Rendite des risikolosen Bonds i3 dagegen
nicht. Allerdings hat die Durbin-Watson-Statistik einen Wert von fast 0, entsprechend
einer Störterm-Autokorrelation von fast 1, was zeigt, dass dieses Ergebnis sehr falsch sein
könnte. Die iterierte FGLS-Schätzung mit AR(1)-Autokorrelation unter EViews (re. Seite) bestätigt diese Vermutung: Bei Berücksichtigung der Störterm-Autokorrelation drehen
sich die Ergebnisse regelrecht um: Die Industrieproduktion wird insignifikant und i3 gewinnt einen signifikant positiven Einfluss. (Das könnte in der Weise gedeutet werden, dass
Unternehmen hohe Dividenden nicht aufgrund ihres realwirtschaftlichen Erfolgs, sondern
aufgrund starker ‘Konkurrenz’ durch andere Finanzmarktbereiche zahlen.)
Dependent Variable: DIVYLD/100
Method: Least Squares
Date: 06/20/10 Time: 17:03
Sample (adjusted): 3 558
Included observations: 556 after adjustments
Convergence achieved after 6 iterations
Dependent Variable: DIVYLD/100
Method: Least Squares
Date: 06/20/10 Time: 16:48
Sample (adjusted): 2 558
Included observations: 557 after adjustments
C
12*DLOG(IP)
I3/100
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
F-statistic
Prob(F-statistic)
Coefficient
Std. Error
t-Statistic
Prob.
0.041976
-0.009574
-0.002233
0.000895
0.003556
0.014790
46.89247
-2.692256
-0.150970
0.0000
0.0073
0.8801
0.012955
0.009392
0.010978
0.066769
1724.251
3.635609
0.026999
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Hannan-Quinn criter.
Durbin-Watson stat
0.041535
0.011030
-6.180433
-6.157152
-6.171340
0.036731
C
12*DLOG(IP)
I3/100
AR(1)
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
F-statistic
Prob(F-statistic)
Inverted AR Roots
Coefficient
Std. Error
t-Statistic
Prob.
0.035465
-0.000681
0.057411
0.990383
0.007503
0.000477
0.014095
0.006185
4.726643
-1.427085
4.073063
160.1369
0.0000
0.1541
0.0001
0.0000
0.978541
0.978424
0.001622
0.001451
2785.020
8390.516
0.000000
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Hannan-Quinn criter.
Durbin-Watson stat
0.041531
0.011040
-10.00367
-9.972586
-9.991529
1.603541
.99
In dieser Anwendung hat die Korrektur der Autokorrelation durch GLS noch einen anderen wichtigen Aspekt. Wie oben angemerkt, sind in der Regression noch zwei I(1)Zeitreihen involviert, divyld und i3, was ohnehin Zweifel an der OLS-Schätzung aufkommen lässt. Die (F)GLS-Schätzung mit ≈ 1 läuft effektiv darauf hinaus, das alle involvierten Variablen zunächst differenziert werden (da yt − yt−1 ≈ yt − yt−1 = Δyt und analog
für alle xt ), um dann eine OLS-Schätzung in den transformierten (quasi-differenzierten)
Variablen durchzuführen. GLS führt hier also implizit zur Stationarisierung!
Herunterladen