AUTOKORRELATION IN DEN STÖRTERMEN 102 9.2 Tests auf Autokorrelation in den Störtermen Ziel: Wir möchten (hier nur) testen, ob Autokorrelation der Störterme vorliegt oder nicht. 9.2.1 Kapitel 9 Autokorrelation in den Störtermen 9.1 Einleitung/Ziel/Bedeutung Gründe für Störterm-Autokorrelation • gibt es viele; bei Zeitreihenregressionen ist eher die Frage: Warum sollten wir keine Autokorrelation (im Engl. meist: serial correlation) in den Störtermen haben? • Störterm-AK bedeutet eine ‘Verschleppung’ (Nachwirken der Vergangenheit) in den Informationen, die yt beeinflussen, ohne im Regressionsmodell abgefangen zu sein. • Aus dieser Perspektive ist Störterm-AK eine ‘dynamische Fehlspezifikation’: Von mindestens einer erklärenden Variablen wurden zu wenig Lags eingeschlossen. • In der Tat wird die Störterm-Autokorrelation i.d.R. vermindert, wenn man mehr Lags von Regressoren einschließt, besonders dann, wenn dieser Regressor das verzögerte y selbst ist (autoregressives Modell). Dies ist aber kein Allheil-Mittel. Auswirkungen von Störterm-Autokorrelation • Wo liegen überhaupt die Probleme von OLS, wenn eine Störterm-AK vorliegt? Wir wissen doch, dass OLS auch bei Zeitreihen bereits unter den ersten drei GM-Annahmen TS1, TS2, TS3 erwartungstreu (unter strikter Exogenität) bzw. konsistent (unter Stationarität) ist. Die Annahme TS5 nicht-autokorrelierender Störterme wird dazu nicht benötigt. • Selbst wenn TS1, TS2, TS3 erfüllt sind, treten bei Verletzung von TS5 zumindest zwei Probleme auf: 1) Effizienz: OLS ist nicht mehr BestLUE; das heißt, die Schätzung ist weniger ‘genau’ (konfident) als möglich. In der Tat bekommt man oft ein von der einfachen OLS-Schätzung recht stark abweichendes Ergebnis, wenn man eine vorhandene Autokorrelation der Störterme kontrolliert (und nicht ignoriert). 2) Inferenz: Die t- und F -Statistiken sind bei Autokorrelation der Störterme ungültig. Schon die üblichen OLS-Standardfehler sind ungültig. (In den Anwendungen ist die unzulässige Inferenz gravierender als die fehlende Effizienz) Vorgehensweisen zur Behandlung der Problematik 1) Entweder man verwendet einen anderen Schätzer als OLS, der auch bei autokorrelierenden Störtermen effizient bzw. BLUE ist (GLS-Schätzer, z.B. Cochrane/Orcutt, Prais/Winsten; basieren auf einer unterstellten AK-Struktur) 2) oder man bleibt bei OLS, versucht aber ‘autokorrelations-robuste Standardfehler’ (meist größer als die üblichen OLS-Standardfehler) zu bekommen, z.B. Newey/West. Wir beschränken uns hier auf den 1. Zugang (→ nä. Kap: heterosked.-robuste Stdfehler) 101 Test auf AR(1) Autokorrelation bei strikt exogenen Regressoren (Einfacher t-Test, Durbin-Watson) Das Vorgehen folgt einem Prinzip, das wir nun dauernd (z.B. auch bei ARCH) wiederfinden werden; es soll deswegen zunächst abstrakt erläutert werden: • Wir möchen ein Outcome-Modell yt = β0 + β1 x1,t + . . . + βK xK,t + ut (1) schätzen, müssen aber damit rechnen, dass der Störterm ut GM-Annahmen verletzt. • Wir unterstellen ein Störterm-Modell, das die Problematik identifizieren kann. Z.B. werden wir in diesem Abschnitt (Verdacht auf Störterm-Autokorrelation) zunächst das einfachste Modell verwenden, das AK abbilden kann, das AR(1)-Modell: ut = (α+) ut−1 + εt (2) Ist dieses Modell für ut korrekt, haben wir Störterm-AK genau dann, wenn = 0. • Den Test auf die Annahme-Verletzung führen wir durch, indem wir zunächst das Outcome-Modell (mit OLS) schätzen und dann die Residuen ût aus dieser Schätzung statt ut im Störterm-Modell verwenden. Das Störterm-Modell nennen wir deswegen auch das Residual-Modell. Wir ignorieren im Folgenden weitgehend die mit dieser Ersetzung verbundene Problematik (Ausnahme: iterative FGLS). • In der Praxis liegen die Hauptprobleme in der korrekten Spezifikation sowohl des Outcome- als auch des Residual-Modells, die die grundlegenden GMAnnahmen (funktionale Form, Stationarität, Exogenität) erfüllen müssen. Anwendung dieses Prinzips mit einem AR(1)-Residualmodell führt auf den einfachen t-Test auf Störterm-Autokorrelation: • Regressiere die Residuen auf verzögerte Residuen und verwende einen t-Test. D.h.: – Schätze yt = β0 + β1 x1,t + . . . + βK xK,t + ut mit OLS und bilde Residuen ût – Schätze ût = (α +) ût−1 + εt mit OLS; liefert: T empir. Residualkovarianz t=2 ût ût−1 = ˆ = T 2 empir. Residualvarianz t=1 ût – Verwende die t-Statistik für ˆ, um ggf. auf das Vorliegen autokorrelierender Störterme zu schließen (Nullhypothese ist: Keine Autokorrelation) Anmerkungen: • Anders als bei Dickey-Fuller: Bzgl. ˆ gilt (asymptot.) die t-Verteilung, sofern ... • die Ersetzung ut → ût erlaubt ist. Man kann zeigen, dass dies unter der Annahme strikter Exogenität der Fall ist. Haupteinschränkung bei diesem Test (und damit auch der folgenden Durbin-Watson-Statistik) ist also der Auschluss autoregressiver Outcome-Modelle. c K.H. SCHILD, ABT. STATISTIK, FB WIWI, UNI MARBURG 103 Der beschriebene t-Test auf AR(1)-AK ist eng verwandt mit der Durbin-Watson-Statistik: • Die Durbin-Watson-Statistik DW ist definiert als: T T 2 (binom. Formel) t=2 (ût − ût−1 ) t=2 ût ût−1 ≈ 2 − 2 = 2 − 2 ˆ DW := T T 2 2 û t=1 t t=1 ût sie wird routinemäßig von jeder (besseren) Ökonometrie-Software ausgegeben. • Falls die DW-Statistik nahe 2 liegt, signalisiert das: ’keine Autokorrelation’. Weicht sie stark von 2 ab, ist das ein Zeichen für autokorrelierende Störterme. Man kann diese Überlegung zu exakten Hypothesentests ausbauen (in zahlreichen Varianten, z.B. auch einseitige Tests mit Alternative ‘ > 0’) • Aber: Die krit. Werte der DW-Statistik sind non-Standard (und der Umgang damit unhandlich) – mit obigem einfachen t-Test ist wesentlich angenehmer zu arbeiten. • Vorschlag: Durbin-Watson nur als Heuristik verwenden, die einem schnell anzeigt, ob Autokorrelation ein potentielles Problem darstellt (wenn, sagen wir, DW < 1.7 oder DW > 2.3); in diesem Fall den folgenden Breusch-Godfrey-Test durchführen.) 9.2.2 Test auf AR(1)-AK bei nicht strikt exogenen Regressoren • Problem: Einfacher t-Test bzw. DW nicht gültig bei autoregr. Outcome-Modell. Ausweg: Man regressiert das Residuum auf das verzögerte Residuum und alle x. • Der Einschluss der x-Variablen erlaubt es, dass jedes xt,j korreliert ist mit ut−1 ; daher wird die Annahme strikter Exogenität nicht benötigt (für die t-Verteilung). • Also, Verfahren: – Schätze yt = β0 + β1 x1,t + . . . + βK xK,t + ut mit OLS – Schätze ût = α0 + α1 x1,t + . . . + αK xK,t + ût−1 + εt mit OLS; – Verwende die t-Statistik für ˆ, um ggf. auf das Vorliegen autokorrelierender Störterme zu schließen. Anmerkung: Jetzt brauchen wir eine Konstante (α0 ) im Residualmodell. Wieso? 9.2.3 Test auf AR(p)-Autokorrelation (Breusch-Godfrey) • Gleiches Prinzip, aber lasse p Lags von ût in der Residual-Regression zu (wie DF → ADF) und teste auf gemeinsame Signifikanz aller Lags (anders bei (A)DF). • Das Verfahren sieht also so aus: – Schätze yt = β0 + β1 x1,t + . . . + βK xK,t + ut mit OLS – Schätze ût = α0 + α1 x1,t + . . . + αK xK,t + 1 ût−1 + . . . + p ût−p + εt mit OLS; – Führe einen F -Test der Nullhypothese 1 = 0, . . . , p = 0 durch (d.h. teste auf gemeinsame Signifkanz von ût−1 , . . . , ût−p in der Residualregression) • In EViews ist dieser Breusch-Godfrey-Test nicht als F -Test, sondern in der LMVariante zum Testen von Exklusionsrestriktionen (siehe Abschnitt zu ML-Schätzung) implementiert. Die Teststatistik ist dabei (T − p) R2 mit dem R2 = Rû2 aus der Residual-Regression (asymptotisch χ2 -verteilt mit p Freiheitsgraden). AUTOKORRELATION IN DEN STÖRTERMEN 104 9.3 Korrektur von Autokorrelation in den Störtermen 9.3.1 GLS-Schätzung bei AR(1)-Autokorrelation • Frage: Was müssten wir tun, damit ein Outcome-Modell, bei dem (lediglich) StörtermAK mit bekannter Autokorrelationstruktur auftritt, BLUE-geschätzt werden kann? Der GLS-Ansatz beantwortet diese Frage so: Verwende die bekannte AK-Struktur, um das Modell in ein solches (linear) zu transformieren, das die gleichen β’s hat, wo aber die AK-Problematik eliminiert ist (und keine andere Problematik erzeugt wird); schätze dann das transformierte Modell mit seinem BLUE-Schätzer, also mit OLS. • Wir leiten eine solche Transformation im Fall eines AR(1)-Residualmodells mit (zunächst) bekanntem her: ut = ut−1 + εt (t = 2, . . . T ), εt i.i.d. (Für später halten wir zunächst fest, dass dies Var(ut ) = σε2 /(1 − 2 ) impliziert) • Wir versuchen, das Outcome-Modell so zu transformieren, dass die Störterm-AK eliminiert wird; dazu betrachten wir zwei aufeinanderfolgende Outcome-Gln: yt = β0 + β1 xt + ut yt−1 = β0 + β1 xt−1 + ut−1 Multiplikation der zweiten Gl. mit und Subtraktion von der ersten liefert: yt − yt−1 = (1 − ) β0 + β1 (xt − xt−1 ) + εt ỹt x̃t ũt • Die Störterme im transformierten Modell, ũt = εt , sind nicht mehr autokorreliert. Wenn wir das Modell in den transformierten Variablen x̃t , ỹt mit OLS schätzen, erhalten wir eine BLUE-Schätzung der β’s (sind bei der Transfo. unverändert geblieben) • Die Methode – Unterwerfe sämtliche Variablen des Outcome-Modells der gleichen Transformation, – deren Anwend. im Residualmod. die Störterm-Problematik (hier AK) eliminiert, – und schätze das Outcome-Modell in den transformierten Variablen mit OLS kennzeichnet eine GLS-Schätzung (GLS = generalized least squares). Vorteile von GLS: (1): BLUE-Schätzer (Effizienz); (2): übliche Inferenzen zulässig. • Zwei (kleinere) Probleme mit GLS im vorliegenden Fall: 1. Das transformierte Modell hat eine Beobachtung weniger als das Ausgangsmodell. Lösung: Man kann (z.B.) die Ausgangsgl. für y1 hinzufügen, sollte diese dann allerdings mit 1 − 2 multiplizieren, um ein Heteroskedastie-Problem zu vermeiden. 2. Die GLS-Schätzung der Konstanten schätzt (1 − ) β0 , nicht β0 . Lösung: Dividiere die GLS-Schätzung der Konstanten durch 1 − . • Die GLS-Schätzung läuft hier auf eine Quasi-Differenzenbildung hinaus (im Fall = 1 würde man effektiv die Differenzenbildung durchführen). c K.H. SCHILD, ABT. STATISTIK, FB WIWI, UNI MARBURG 105 • Die implizite (oder Quasi-) Differenzierung aller Variablen bei GLS-Schätzung eines Modells mit starker Störterm-AK legt zwei Folgerungen nahe: 1. Ein AK-Problem wird häufig durch Differenzenbildung zumindest abgeschwächt. 2. Wenn man ein AK-Problem (z.B. automatisiert mit einer Software) mit GLS behandelt, dann schätzt man ein quasi-differenziertes Modell. D.h. es kann sein, dass dadurch Instationaritäts-Probleme (gewissermaßen: unter der Hand) eliminiert werden; ein verändertes Schätzergebnis könnte dann mehr auf der impliziten Elimination von Instationaritäten als auf der expliziten Behandlung der AK beruhen. 9.3.2 FGLS-Schätzung mit AR(1)-Störtermen (Prais-Winsten, Cochrane-Orcutt); iterative FGLS-Schätzung • Bei GLS müssen (nicht nur das Residualmodell in seiner Struktur, hier AR(1), sondern auch) die Parameter des Residualmodells (hier ) bekannt sein. • Das führt auf FGLS (Das ‘F’ steht für ‘feasible’ = durchführbar): Um (Schätzungen für) die Parameter des Residualmodells zu bekommen, wird 106 • FGLS-Schätzungen zur Behebung von Störterm-AK wurden erstmals von Cochrane/Orcutt und Prais/Winsten durchgeführt. (Die beiden Verfahren unterscheiden sich je nachdem, wie mit der ersten Beobachtung verfahren wird). 9.3.3 GLS- und FGLS-Schätzung mit AR(p)-Störtermen • Auch im allgemeinen Fall, dass die Störterme einem AR(p)-Modell folgen, kann man eine lineare Transformation der Variablen angegeben, so dass in den transformierten Variablen keine Autokorrelation der Störterme mehr vorliegt (am einfachsten: ỹt = yt − 1 yt−1 − . . . − p yt−p und analog für alle xt,j ) • Wie bei AR(1)-Störtermen: Die GLS-Schätzung unternimmt eine OLS-Schätzung in den transformierten Variablen • Auch die FGLS-Schätzung (und deren iterative Fortsetzung) ist vollkommen analog zur AR(1)-Situation. Natürlich umfasst die Residualregression nun p statt einem verzögerten Residuum. • Zusammenfassung der Begriffe (im Kontext von Störterm-Autokorrelation): – GLS: Führe eine OLS-Schätzung in transformierten Variablen durch; die Transformation muss – bei Wahl der korrekten Transformations-Koeffizienten – die Störterm-Autokorrelation eliminieren (sie mindert oft auch Stationaritätsprobleme: Quasi-Differenzen, siehe dazu auch das folgende Beispiel) – FGLS: Es wird mit geschätzten Autokorrelationskoeffizienten gearbeitet (die aus der Residualregression gleicher Ordnung stammen) – Iteratives FGLS: Die Residualregression und die GLS-Transformation werden iterativ ineinander verschachtelt, Verfeinerung der einfachen FGLS-Schätzung. 0. zunächst das Outcome-Modell mit OLS geschätzt, 1. um mit den ermittelten Residuen die Parameter des Residualmodells zu schätzen 2. und dann mit diesen Parametern (statt der unbekannten wahren) die GLSSchätzung durchzuführen (Transform. aller Variablen mit den geschätzten Residual-Parametern, OLS-Schätzung des Outcome-Modells in transform. Variablen.) • Im Fall einer AR(1)-Störterm-AK involviert die FGLS-Schätzung also folg. Schritte: 0. Initiale OLS-Schätzung des Outcome-Modells (→ β̂ = β̂OLS ) 1. Ermittle Residuen ût = y− β̂0 + β̂1 x; OLS-Schätzung von ût = ût−1 +εt AUTOKORRELATION IN DEN STÖRTERMEN → ˆ 2. Transform. ỹt = yt − ˆyt−1 , x̃t = ...; OLS-Schätzung von ỹt = β0 +β1 x̃t +εt → β̂ • Ein Problem dabei ist, dass die Schätzung des Residualmodells auf den (‘schlechten’) β̂’s der OLS-Schätzung aus Schritt 0 beruht. Nach der FGLS-Schätzung (Schritt 2) erhalten wir aber neue (‘bessere’) β̂’s und damit auch neue (‘bessere’) Residuen. Damit können wir erneut das Residualmodell schätzen (Schritt 1) und dann mit den neuen Residualparametern eine FGLS-Schätzung (Schritt 2) durchführen usw. • Dieses Vorgehen entspricht einer iterierten FGLS-Schätzung: Man führt die initiale OLS-Schätzung in Schritt 0 durch und iteriert (wiederholt zyklisch) die Schritte 1 (Update der Residualparameter) und 2 (Update der Outcome-Parameter).1 • Dieses iterative Verfahren konvergiert normalerweise recht schnell; man bricht ab, sobald keine nennenswerte Veränderung in ˆ und den β̂’s mehr stattfindet. • Als Ergebnis des Iterationsverfahrens erhält man – sowohl ein ˆ, das auf ‘autokorrelations-konsistenten’ β̂’s (Residuen) beruht, – als auch β̂’s, die auf (einer FGLS-Schätzung mit) ‘autokorr.-konsist.’ ˆ beruhen. 1 Ein solches Vorgehen zur Bestimmung von n Unbekannten aus n Gleichungen entspricht dem GaußSeidel-Prinzip (teile und herrsche – löse sukzessive die i-te Gleichung nur in der i-ten Unbekannten bei festgehaltenen anderen Unbekannten und iteriere zyklisch durch die Gleichungen). 9.4 Implementierung in E-Views • Wie fast alle Software-Pakete gibt E-Views mit jeder OLS-Schätzung die DurbinWatson-Statistik aus. Weicht die DW-Statistik stark von 2 ab, hat man zumindest einen Hinweis auf das Vorliegen eines Autokorrelations-Problems. • Der t-Test oder allgemeiner der LM-Test nach Breusch-Godfrey zum Test auf Autokorrelation kann nach Schätzung des Modells unter View – Residual Tests – Serial Correlation LM Test durchgeführt werden. • In E-Views findet sich weder eine eins-zu-eins Abbildung von Prais-Winsten noch von Cochrane-Orcutt zur Korrektur von Störterm-Autokorrelation. Es werden (so das Manual) eng verwandte Verfahren verwendet, die als Implementierung der ite” rativen FGLS-Schätzung gesehen werden können“. Das hat den Vorteil, dass die FGLS-Schätzung (selbst iterativ) für den Benutzer sehr einfach durchzuführen ist: • Einen AR(1)-Störterm kann man (mit einem Cochrane-Orcutt-ähnlichen Verfahren) kontrollieren, indem man einfach die Variable AR(1) als zusätzlichen Regressor im Equation specification Fenster hinzufügt. Der Koeffizient von AR(1) im Output entspricht der Schätzung von ˆ (bei iterativem FGLS). • Entsprechend kontrolliert man einen AR(p) Störterm, indem man AR(1), . . ., AR(p) bei der Spezifikation der Modellgleichung hinzufügt. c K.H. SCHILD, ABT. STATISTIK, FB WIWI, UNI MARBURG 9.5 107 Beispiel Breusch-Godfrey Serial Correlation LM Test: Wir verwenden die Daten in VOLAT.WF1, die für die Zeit von Jan. 1947 – Juni 1993 folgende Größen in monatl. Frequenz wiedergeben: sp500 : Standard & Poor’s 500 Aktienindex divyld : Dividendenertrag der Aktien im S&P 500 (annualisierte Prozentangabe) ip: Industrielle Produktion der USA (Index) i3 : Rendite (Verzinsung) der 3-monatigen US-amerikanischen Staatsanleihe (T-Bill) SP500 DIVYLD $500 I3 8% 7% $400 IP 20% $120 16% $100 $300 12% $80 8% $60 4% $40 5% $200 4% 3% $0 2% 100 200 300 400 500 0% 100 200 300 400 500 C 12*DLOG(IP) I3/100 200 300 400 500 100 200 300 400 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood F-statistic Prob(F-statistic) Std. Error t-Statistic Prob. 0.182955 0.042419 -1.396140 0.032814 0.130365 0.542174 5.575443 0.325390 -2.575077 0.0000 0.7450 0.0103 0.012500 0.008935 0.402440 89.72492 -281.8588 3.506319 0.030675 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Hannan-Quinn criter. Durbin-Watson stat 0.114418 0.404251 1.022832 1.046114 1.031925 1.518827 Prob. F(2,552) Prob. Chi-Square(2) 0.0000 0.0000 Dependent Variable: 12*DLOG(SP500)+DIVYLD/100 Method: Least Squares Date: 06/20/10 Time: 18:09 Sample (adjusted): 4 558 Included observations: 555 after adjustments Convergence achieved after 6 iterations Test Equation: Dependent Variable: RESID Method: Least Squares Date: 06/20/10 Time: 15:35 Sample: 2 558 Included observations: 557 Presample missing value lagged residuals set to zero. C 12*DLOG(IP) I3/100 RESID(-1) RESID(-2) Coefficient Std. Error t-Statistic Prob. 0.001295 -0.025890 -0.008130 0.257892 -0.079856 0.031921 0.128032 0.527051 0.042465 0.042836 0.040563 -0.202217 -0.015425 6.073117 -1.864216 0.9677 0.8398 0.9877 0.0000 0.0628 0.063002 0.056213 0.390532 84.18833 -264.1205 9.278926 0.000000 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Hannan-Quinn criter. Durbin-Watson stat -3.07E-17 0.401994 0.966321 1.005124 0.981476 1.995281 C 12*DLOG(IP) I3/100 RESIDLS(-1) R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood F-statistic Prob(F-statistic) Coefficient Std. Error t-Statistic Prob. 0.003090 -0.056464 -0.034777 0.241423 0.031985 0.127055 0.527978 0.041410 0.096595 -0.444410 -0.065868 5.830054 0.9231 0.6569 0.9475 0.0000 0.058008 0.052888 0.391076 84.42319 -264.9204 11.33071 0.000000 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Hannan-Quinn criter. Durbin-Watson stat C 12*DLOG(IP) I3/100 AR(1) AR(2) Coefficient Std. Error t-Statistic Prob. 0.188216 0.036084 -1.479262 0.261924 -0.079348 0.038865 0.134869 0.643854 0.042428 0.042702 4.842800 0.267546 -2.297511 6.173439 -1.858167 0.0000 0.7891 0.0220 0.0000 0.0637 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood F-statistic Prob(F-statistic) 0.077259 0.070548 0.389427 83.40925 -261.5904 11.51252 0.000000 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Hannan-Quinn criter. Durbin-Watson stat Inverted AR Roots .13+.25i .13-.25i 0.114740 0.403936 0.960686 0.999596 0.975885 2.000440 500 Dependent Variable: RESIDLS Method: Least Squares Date: 06/20/10 Time: 15:20 Sample (adjusted): 3 558 Included observations: 556 after adjustments Coefficient 18.55785 35.09234 $20 100 Unit-Root-Tests signalisieren für jede der vier Variablen Instationarität/Persistenzeffekte. Wir ignorieren dieses Problem in Bezug auf divyld und i3, gehen aber beim SP500 zur annualisierten log-Rendite (einschließlich Dividendenrate) rsp500 = 12 · dlog(sp500) + divyld/100 und bei ip zur (annualisierten) log-Wachstumsrate rip = 12 · dlog(ip) über, für die die Unit-Root-Tests Stationarität anzeigen. Dependent Variable: 12*DLOG(SP500)+DIVYLD/100 Method: Least Squares Date: 06/20/10 Time: 14:41 Sample (adjusted): 2 558 Included observations: 557 after adjustments F-statistic Obs*R-squared R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood F-statistic Prob(F-statistic) 6% $100 AUTOKORRELATION IN DEN STÖRTERMEN 108 -0.000577 0.401847 0.967339 0.998424 0.979481 1.953140 Wir betrachten zunächst die Regression von rsp500 = auf rip und i3 (linke Seite). Demnach hat eine Steigerung der Industrieprodukt. keinen signifikanten Einfluss auf die SP500Rendite, jedoch korreliert ein um 1% höherer Zins i3 mit einer um ca. 1.4% geringeren SP500-Rendite, und dieser Effekt ist signifikant (5%-Niveau). Allerdings signalisiert die Durbin-Watson-Statistik mit einem Wert von ca. 1.5 eine Autokorrelation der Störterme. Wir testen auf AR(1)-Autokorrelation, indem wir die Residuen der OLS-Schätzung in residls speichern und die Residualregression durchführen (re. Seite). Die Autokorrelation in den Störtermen ist demnach nicht sehr groß, ˆ = 0.24, aber hochgradig signifikant. Das bestätigt auch ein Breusch-Godfrey-Test, den wir hier mit p = 2 Lags ausführen (der Test mit einem Lag würde das gerade gezeigte Ergebnis reproduzieren). Das Ergebnis findet sich auf der nächsten Seite im linken Output. Die F -Statistik ist mit einem Wert von über 18 hochsignifikant. Das Ergebnis einer (iterierten) FGLS-Schätzung mit 2 Lags, wie sie EViews durchführt, ist im rechten Output zu sehen. Die geschätzten Regressionskoeffizienten ändern sich nicht wesentlich gegenüber der einfachen OLS-Schätzung, allerdings haben sich die Standardfehler aller Regressionskoeffizienten vergrößert. Eine starke Störterm-Autokorrelation erhalten wir, wenn anstatt der Rendite des SP500 die Dividendenrate divyld erklärt werden soll. Die OLS-Schätzung liefert das links stehende Ergebnis. Demnach hätte ein Wachstum der Industrieproduktion einen signifikanten, negativen Einfluss auf die Dividende, die Rendite des risikolosen Bonds i3 dagegen nicht. Allerdings hat die Durbin-Watson-Statistik einen Wert von fast 0, entsprechend einer Störterm-Autokorrelation von fast 1, was zeigt, dass dieses Ergebnis sehr falsch sein könnte. Die iterierte FGLS-Schätzung mit AR(1)-Autokorrelation unter EViews (re. Seite) bestätigt diese Vermutung: Bei Berücksichtigung der Störterm-Autokorrelation drehen sich die Ergebnisse regelrecht um: Die Industrieproduktion wird insignifikant und i3 gewinnt einen signifikant positiven Einfluss. (Das könnte in der Weise gedeutet werden, dass Unternehmen hohe Dividenden nicht aufgrund ihres realwirtschaftlichen Erfolgs, sondern aufgrund starker ‘Konkurrenz’ durch andere Finanzmarktbereiche zahlen.) Dependent Variable: DIVYLD/100 Method: Least Squares Date: 06/20/10 Time: 17:03 Sample (adjusted): 3 558 Included observations: 556 after adjustments Convergence achieved after 6 iterations Dependent Variable: DIVYLD/100 Method: Least Squares Date: 06/20/10 Time: 16:48 Sample (adjusted): 2 558 Included observations: 557 after adjustments C 12*DLOG(IP) I3/100 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood F-statistic Prob(F-statistic) Coefficient Std. Error t-Statistic Prob. 0.041976 -0.009574 -0.002233 0.000895 0.003556 0.014790 46.89247 -2.692256 -0.150970 0.0000 0.0073 0.8801 0.012955 0.009392 0.010978 0.066769 1724.251 3.635609 0.026999 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Hannan-Quinn criter. Durbin-Watson stat 0.041535 0.011030 -6.180433 -6.157152 -6.171340 0.036731 C 12*DLOG(IP) I3/100 AR(1) R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood F-statistic Prob(F-statistic) Inverted AR Roots Coefficient Std. Error t-Statistic Prob. 0.035465 -0.000681 0.057411 0.990383 0.007503 0.000477 0.014095 0.006185 4.726643 -1.427085 4.073063 160.1369 0.0000 0.1541 0.0001 0.0000 0.978541 0.978424 0.001622 0.001451 2785.020 8390.516 0.000000 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Hannan-Quinn criter. Durbin-Watson stat 0.041531 0.011040 -10.00367 -9.972586 -9.991529 1.603541 .99 In dieser Anwendung hat die Korrektur der Autokorrelation durch GLS noch einen anderen wichtigen Aspekt. Wie oben angemerkt, sind in der Regression noch zwei I(1)Zeitreihen involviert, divyld und i3, was ohnehin Zweifel an der OLS-Schätzung aufkommen lässt. Die (F)GLS-Schätzung mit ≈ 1 läuft effektiv darauf hinaus, das alle involvierten Variablen zunächst differenziert werden (da yt − yt−1 ≈ yt − yt−1 = Δyt und analog für alle xt ), um dann eine OLS-Schätzung in den transformierten (quasi-differenzierten) Variablen durchzuführen. GLS führt hier also implizit zur Stationarisierung!