Julian von Landesberger 14.06.2007 Workshop Monetäre Ökonometrie zur Vorlesung Theorie der Geldpolitik von Prof. G. Illing Gliederung I Grundlagen II Einheitswurzeln und Kointegration III Das OLS-Schätzverfahren Einige wichtige Begriffe Statistische Prozesse (ARMA) Die Einheitswurzel Kointegration: Konzept und Tests Quellenangaben Vorlaüfige Version. Eviews ist eine geschützer Markenname von Quantitative Micro Software, LLC. 14.06.07 Skript zur Vorlesung Theorie der Geldpolitik I. Grundlagen ¾ Das OLS –Schätzverfahren Betrachtet werden soll das einfachste lineare Modell: y t = xt β + u t (1) wobei alle Variablen um den Mittelwert bereinigt sind und β der wahre Parameter ist, welcher T geschätzt werden soll. Mit Hilfe der Beobachtungen der Variablen {y t , xt }t =1 kann eine Schätzung des Parameters β vorgenommen werden und Hypothesen getestet werden bspw. ob β=0. Ein Hut über einer Variable bezeichnet einen geschätzten Wert. Für den Fall, dass die unbeobachteten Störungen ut konstant sind, kann fehlerfrei der Wert von β geschätzt werden. Sofern jedoch die Störungen nicht konstant sind, wird nach der Schätzung von β Unsicherheit über den wahren Wert weiterbestehen. Für einen gegebenen Schätzwert β̂ , lassen sich die beobachteten Residuen berechnen uˆ t = y t − xt β̂ (2) y Beobacht ung β0x Wahrer Zusammenhang ˆ Geschät zt er Zusammenhang yt St örung u t û t Residuum β0xt ˆy =βx ˆ xt βx t x Abb. 1: Wahrer und geschätzter Zusammenhang Zur Bestimmung des Schätzwertes β̂ ist die Minimierung der Residuen û t eine naheliegende Vorgehensweise, da gleichzeitig im Umkehrschluß dadurch die Erklärung von xt für yt maximiert wird. In der Regel wird zur Schätzung eine quadratische Gewichtungsfunktion angeT wendet: also die quadrierten Residuen ∑t =1 u t2 minimiert. Die Zielfunktion für das Optimierungsproblem lautet: T min ∑ ( y t − xt β ) β t =1 Die erste Ableitung nach β wird gleich Null gesetzt 2 2 (3) 14.06.07 Skript zur Vorlesung Theorie der Geldpolitik ( T ) 2∑ − xt y t − xt βˆ = 0 t =1 Vernachlässigung des Normierungsfaktors 2 ergibt T T t =1 t =1 − ∑ xt y t + ∑ xt2 βˆ = 0 (4) und kann nach β̂ aufgelöst werden ⎛ ⎞ βˆ = ⎜ ∑ xt2 ⎟ t =1 ⎝1 4 24 3⎠ T −1 Var ( xt ) ⎛ T ⎞ ⎜ ∑ xt y t ⎟ =1 ⎝1t4 24 3⎠ (5) Cov ( xt , yt ) In Matrixschreibweise1 ergibt sich analog die Formel βˆ = ( X ′X )−1 X ′y (6) für den Kleinste-Quadrate-Schätzer(Ordinary Least Squares). Um die Abweichung zwischen dem wahren Parameter β und dem geschätzten Parameter β̂ zu berechnen muß (1) für yt in (5) eingesetzt werden −1 ⎛ T ⎞ ⎛ T ⎞ βˆ = ⎜ ∑ xt2 ⎟ ⎜ ∑ xt ( xt β + u t )⎟ ⎝ t =1 ⎠ ⎝ t =1 ⎠ (7) −1 ⎛ T ⎞ ⎛ T ⎞ = β + ⎜ ∑ xt2 ⎟ ⎜ ∑ xt u t ⎟ ⎝ t =1 ⎠ ⎝ t =1 ⎠ oder in Matrizenschreibweise βˆ = β + ( X ′X )−1 X ′u Vereinfachende Grundannahmen hinsichtlich der Verteilung der Störungen. Drei vereinfachende Grundannahmen hinsichtlich der statistischen Eigenschaften der Störungen u werden nun getroffen: Eigenschaft der erklärenden Variable : xt ist deterministisch Eigenschaften der Störung: ut ist unabhängig- und identisch verteilt (i.i.d.) mit Erwartungswert 0 und Varianz σ2 Normalverteilung der Störung: ut ist normalverteilt - 1 ) Siehe Anhang für ausführliche Darstellung der Matrixschreibweise 3 14.06.07 Skript zur Vorlesung Theorie der Geldpolitik Eigenschaften von β̂ Die Residueneigenschaften lassen sich in Vektorenschreibweise notieren als E(u) = 0 und Var(uu´) = σ2I, wobei I eine entsprechend dimensionierte Einheitsmatrix ist . Unter den gegebenen Annahmen folgt bei Bildung des Erwartungswertes von (7) () −1 E βˆ = β + ( X ′X ) X ′[E (u )] = β (8) wonach der Schätzer β̂ unverzerrt ist. Die Varianz-Kovarianz-Matrix von β̂ ergibt sich analog als −1 −1 E βˆ − β βˆ − β ´ = ( X ′X ) X ′uu ′X ( X ′X ) [( )( )] [ = [( X ′X ) ] −1 X ′E [(uu ′)]X ( X ′X ) = σ 2 ( X ′X ) −1 ] −1 (9) Daraus folgt das Gauss-Markov Theorem: es beweist die Optimalität der OLS-Schätzung unter bestimmten Annahmen. Genauer, besagt es, dass die Varianz-Kovarianz Matrix eines anderen Schätzers für β, wenn der Schätzer unverzerrt und linear ist, von der Varianz-Kovarianz von β̂ durch eine positive semidefinite Matrix abweicht (also „größer“ ist).2 Verteilung von β̂ Aufgrund der Annahme der Normalverteilung der Residuen folgt, wegen (7), dass der Schätzer β̂ normalverteilt ist mit einen Erwartungswert von β und eine Varianz von σ2(X'X)-1: ( βˆ ~ N β , σ 2 ( X ′X )−1 ) (10) Gleichung (8) zeigt, dass unter den Grundannahmen, der Schätzer β̂ dem Erwartungswert entspricht, die (X'X)-1 kann aus den Daten errechnet werden und die Normalverteilung ist bekannt. Einzig fehlendes Element, um die Verteilung β̂ zu beschreiben, ist ein Schätzer für die Varianz der Störungen σ2 . Schätzer für die Varianz σ2 Die Varianz der Störungen σ2 ist bisher unbekannt. Aus der OLS-Schätzung kann ein Schätzer s2 errechnet werden, welcher ermöglicht die Varianz σ2 zu quantifizieren. Er wird berechnet als s2 = uˆ ′uˆ = RSS / (T − k ) (T − k ) (11) Die geschätzte Varianz der Residuen entspricht der Summe der quadrierten Residuen normiert mit dem Ausdruck (T-k). T entspricht der Länge des Beobachtungszeitraums (Länge des Y-Vektors) k bezeichnet die Anzahl der erklärenden Variablen. Insgesamt entspricht der Ausdruck der Anzahl der Freiheitsgrade. 2 Für den vollständigen Beweis, siehe Hendry, D. (1995): Dynamic Econometrics, Oxford. S. 698. 4 14.06.07 Skript zur Vorlesung Theorie der Geldpolitik Eine Verbindung zwischen den Residuen û und den Störungen u kann hergestellt werden, wenn für den OLS-Schätzer β̂ die Bestimmungsgleichung (6) in (2) eingesetzt wird: −1 uˆ = y − Xβˆ = y − X ( X ′X ) X ′y (12) nach Zusammenfassen des y-Vektors, ergibt sich folgender Zusammenhang [ ] −1 = I T − X ( X ′X ) X ′ y = M X y (13) wobei IT eine (TxT)-grosse Identitätsmatrix bezeichnet. Die MX-Matrix wird auch Projektionsmatrix genannt3. Wird in (13) die Definition von y = Xβ + u eingesetzt, folgt daraus [ ] −1 uˆ = I T − X ( X ′X ) X ′ ( Xβ + u ) = M x u 144 42444 3 (14) MX Gemäß den Grundannahmen sind die Störungen u jeweils unabhängig und normalverteilt, so dass sich die Varianz der Residuen s2 quasi als eine Summe von quadrierten normalverteilten Größen ergibt. Eine Summe aus unabhängigen, quadrierten normalverteilten Variablen ist χ2 ~ verteilt. Allerdings sind von den T unabhängigen Beobachtungen durch die Schätzung kWerte „vorbestimmt“ und aufgebraucht, so dass nur noch (T-k) Freiheitsgrade bestehen. Daraus folgt, dass der Schätzer für die Varianz χ2 ~ verteilt ist, mit (T-k) Freiheitsgraden. Box.: Funktionen von Verteilungen Ausgehend von einer unabhängigen und standardnormalverteilten Größe Z ~ N(0,1) gilt, dass das Quadrat von Z, also Z2 ~χ2(1), also Chi-Quadrat verteilt mit einem Freiheitsgrad ist. Eine Summe T unabhängiger Größen Z, folgt einer Chi-Quadrat Verteilung mit T Freiheitsgraden. Des weiteren, folgt ein Bruch aus einer normalverteilten und einer χ2 ~ verteilten Größe, also N(0,1)/ χ2(T), einer t~Verteilung mit T-Freiheitsgrad. In einem weiteren Schritt folgt das Verhältnis von zwei unabhängigen χ2 ~ verteilten Größen (bspw. Varianzen) mit T1 und T2 Freiheitsgraden einer F(T1, T2)-Verteilung. Der t-Test für β Ein t-Test wird konstruiert um eine Nullhypothese hinsichtlich eines Parameters einer Schätzgleichung zu testen. Es wird untersucht, ob ein Element des geschätzten Parametervektors β̂ i einem bestimmten Wert β i0 zum Beispiel Null entspricht. Die Alternativhypothese lautet dann, dass der Wert von β i0 ungleich Null ist. Unter den bisherigen Annahmen über die Störungen, wird der Test wie folgt berechnet (βˆ t= ) ( − β i0 βˆ i − β i0 = σˆ β i s 2ξ ii i ) (15) wobei ξii, das Element der i-ten Zeile, i-ten Spalte der (X'X)-1 bezeichnet. σˆ β i ≡ s 2ξ ii beschreibt die geschätzte Standardabweichung des i-ten OLS-Parameters. Unter den bereits ge3 ) Die Projektionsmatrix weist einige wichtige Eigenschaften auf die im Anhang ausgeführt werden. 5 14.06.07 Skript zur Vorlesung Theorie der Geldpolitik troffenen Annahmen folgt die Teststatistik (15) einer t-Verteilung mit (T-k) Freiheitsgraden. Gemäß der Nullhypothese ist der OLS-Schätzer βˆ i ~ N (β i0 , σ 2ξ ii ) verteilt, vgl.(10). Nach einer Standardisierung des Schätzers, also die Bildung der Differenz zum Erwartungswert und Teilung durch die Varianz folgt diese Größe einer Standardanormalverteilung N(0,1). Der Nenner des Ausdrucks (15) ist unabhängig vom Zähler und χ2 ~ verteilt mit (T-k) Freiheitsgraden . N (0,1) (16) t (T − k ) = 2 χ (T − k ) Insgesamt folgt der Bruch einer t-Verteilung mit T-k Freiheitsgraden. ¾ Einige wichtige Begriffe Der stochastische Prozeß Ein stochastischer Prozeß ist eine Folge von Zufallsvariablen {Yt } wobei der Zeitparameter t Element einer abzählbaren Indexmenge T ist. Ein Beispiel für einen stochastischen Prozeß ist die Folge von bereits erzielten und zu erzielenden Noten im Studium. Bei jeder Klausur wäre ein anderes Notenergebnis möglich gewesen (durch mehr oder weniger Vorbereitung, längeres Schlafen, etc.), so dass das einzelne Klausurergebnis eine Zufallsvariable ist - das gesamte Zeugnis eines Studenten eine Realisation möglicher Notenfolgen ist. Der White Noise Prozeß Der white noise Prozeß (das weiße Rauschen) ist ein Grundbaustein der Zeitreihenanalyse und bezeichnet einen reinen Zufallsprozeß. Er beinhaltet eine Folge {u t } von identisch verteilten und voneinander unabhängigen Zufallsvariablen mit dem Erwartungswert 0, endlicher Varianz, und die zudem zeitlich unkorreliert sind. Formal ist {u t } white-noise, wenn E (u t ) = E (u t −1 ) = K = 0 E (u t2 ) < ∞ E (u t u t − s ) = E (u t − j u t − j − s ) = K = 0 für alle s Sofern die zweite Bedingung verschärft wird durch die Bedingung einer konstanten Varianz (Homoskedastizität) E u t2 = E u t2−1 = K = σ 2 gilt der Prozeß als starker white noise Prozeß. Stammen die Zufallsvariablen zudem aus einer Normalverteilung, handelt es sich dann um Gauss'sches Weißes Rauschen. ( ) ( ) 3.00 2.00 1.00 0.00 -1.00 -2.00 -3.00 1 10 19 28 37 46 55 64 73 82 Abb. 3: Gauss’sches Weisses Rauschen 6 91 100 14.06.07 Skript zur Vorlesung Theorie der Geldpolitik Stationarität Während in der ökonometrischen Literatur verschieden enge Abgrenzungen des Stationaritätsbegriffs zu finden sind, ist hier schwache oder Kovarianz-Stationarität gemeint. Ein stochastischer Prozeß ist dann stationär, wenn der Mittelwert µ und die Kovarianz unabhängig vom Betrachtungszeitpunkt also für alle t gleich ist. Formal also, E (Yt ) = µ [ ] [ für alle t ] E (Yt − µ ) = E (Yt − s − µ ) = σ y2 2 2 [ ] E [(Yt − µ )(Yt − s − µ )] = E (Yt − j − µ )(Yt − j − s − µ ) = γ s Eine Störung einer stationären Zeitreihe wird zeitlich begrenzten Einfluß besitzen. Im Zeitablauf wird die Wirkung eines Schocks ut auf die Entwicklung des Prozesses Yt sich je nach Höhe von a1 zurückbilden. Der Prozeß kehrt zum Mittelwert zurück. Insgesamt weist eine stationäre Zeitreihe drei charakteristische Eigenschaften auf: 1. Sie schwankt um ihren konstanten, langfristigen Mittelwert (mean-reversion). 2. Sie hat eine endliche, zeitunabhängige Varianz. 3. Der Zusammenhang zwischen einzelnen Beobachtungen, welche zeitlich weiter auseinander liegen, nimmt ab. ¾ Statistische Prozesse (ARMA) ARMA-Modelle gehören zur Klasse der univariaten, linearen, stochastischen Modelle. Sie sind univariat, weil Prognosen ausschließlich aufgrund historischer Daten der Zeitreihe berechnet werden. Sie sind linear, da die historischen Daten in linearer Form in das Modell eingehen und sie sind stochastisch, weil zufällige Einflußgrößen eingehen. Die Abkürzung ARMA steht für AutoRegressive Moving Average. Das ARMA-Modell besteht aus zwei statistischen Prozessen, einem autoregressiven Prozeß der Länge p und einem moving average Prozeß der Länge q. Das ARMA(p,q)-Modell hat also die Form y t = c + a1 y t −1 + K + a p y t − p + ε t + b1ε t −1 + K + bq ε t − q 144424443 1444 424444 3 AR − Pr ozess (17) MA− Pr ozess wobei εt ein white noise-Prozeß ist. Moving Average-Prozeß Ein stochastischer Prozeß Yt heißt moving average-Prozeß erster Ordnung (MA[1]-Prozeß), wenn er die Form Yt = µ + ε t + b1ε t −1 (18) hat, wobei εt die white noise Eigenschaften besitzt. Der Prozeß heißt moving average, da er ähnlich einem gewichteten Mittel der letzten zwei Störungen berechnet wird. Der Erwartungswert des MA(1)-Prozesses ist E(Yt) = µ, während die Varianz von Yt sich als ( ) E (Yt − µ ) = E (ε t + b1ε t −1 ) = 1 + b12 σ 2 2 2 7 (19) 14.06.07 Skript zur Vorlesung Theorie der Geldpolitik berechnen läßt. Abb.3 zeigt einen MA(1)-Prozeß mit Mittelwert µ=0 und standardnormalverteilten Störungen. Zu erkennen ist ein stark erratisches Schwanken der Beobachtungen um den Mittelwert, wobei einzelne Störungen schnell Einfluß auf den Verlauf der Zeitreihe verlieren. 3.00 b1 = 0.5 2.00 1.00 0.00 -1.00 -2.00 -3.00 1 10 19 28 37 46 55 64 73 82 91 100 Abb. 3a: MA(1)-Prozeß mit µ = 0 und b1=0.5 Noch schneller werden Störungen bei einem negativen moving average Parameter abgebaut. 3.00 2.00 1.00 0.00 -1.00 -2.00 b1 = - 0.5 -3.00 1 10 19 28 37 46 55 64 73 82 91 100 Abb. 3b: MA(1)-Prozeß mit µ = 0 und b1= -0.5 Wie an den Abbildungen wegen der häufigen Rückkehr zum Mittelwert leicht zu erkennen ist, ist ein MA(1)-Prozeß stationär. Dies ist unabhängig vom Parameterwert b1. Autoregressive-Prozesse Ein stochastischer Prozeß Yt heißt Autoregressiver Prozeß erster Ordnung (AR[1]-Prozeß), wenn er die Form Yt = c + a1Yt −1 + u t (20) besitzt, wobei ut ein white noise Prozeß ist. Ein AR[p]-Prozeß entspricht einer Differenzengleichung der Ordnung p. Für den Fall, dass ⎜a1⎜<1 handelt es sich um einen stationären Prozeß, während für den Fall ⎜a1⎜≥ 1 der stochastische Prozeß nicht-stationär ist (siehe Kapitel II). Der Erwartungswert eines stationären AR(1)-Prozeß ist demnach E (Yt ) = µ = c (1 − a1 ) 8 (21) 14.06.07 Skript zur Vorlesung Theorie der Geldpolitik Seine Varianz berechnet sich als ( ) E (Yt − µ ) = E u t + a1u t −1 + a12 u t −2 + a13u t −3 + a14 u t −1 + K 2 = (1 + a12 + a14 + a16 + K)σ 2 = σ 2 (1 − a12 ) 2 (22) In Abb.2 werden Beobachtungen von zwei unterschiedlichen stationären AR(1)-Prozessen mit c=0 und standardnormalverteilten Störungen ut und verschiedenen autoregressiven Parametern a1 dargestellt. 8.00 6.00 4.00 a1 = 0.3 2.00 0.00 -2.00 -4.00 a1 = 0.9 -6.00 -8.00 1 10 19 28 37 46 55 64 73 82 91 100 Abb. 2: Autoregressive Prozesse mit Y0= 0 Die Zeitreihe mit a1=0.3 schwankt sehr erratisch um die Null-Linie (Mittelwert), Störungen werden schnell abgebaut und es finden häufige Richtungswechsel im Zeitverlauf statt. Beobachtungen weisen selten ähnliche Werte hintereinander auf, so dass der Zusammenhang zwischen einzelnen Beobachtungen gering ist. Hingegen schneidet der Prozeß mit Parameter a1=0.9 wesentlich seltener die Null-Linie. Störungen beeinflussen den Verlauf der Zeitreihe wesentlich länger und eine Beobachtungen wird eher im selben Wertbereich zu finden sein als die vorangegangenen Realisationen. Je höher der Wert des autoregressiven Parameters ist, umso persistenter ist die Entwicklung. Arbeiten mit E-Views: Der Anfang Nach dem Start des Ökonometrie Programms Eviews erscheint eine graue Arbeitsoberfläche. Um mit Eviews arbeiten zu können, benötigt man zwei Dateien: eine Programm Datei und eine Workfile Datei. Die Programm Datei enthält die zu bearbeitenden Befehle, das Workfile die entsprechenden Zeitreihen, sowie zu einem späteren Zeitpunkt die Ergebnisse der Arbeit. 9 14.06.07 Skript zur Vorlesung Theorie der Geldpolitik Program Workfile Programm Start Über die Befehlskette →File →New→Program... wird eine Programm Datei eröffnet werden. Es erscheint ein leeres Blatt. Als nächster Schritt gilt es das Workfile zu erstellen. Dies kann auf zwei Wegen erfolgen: 1) durch den Befehl im Programm workfile Laufwerk:\Pfad\Dateiname F Start Ende wobei F die Frequenz der Daten festlegt, also m für monatliche Werte, q für Quartale und u für unbestimmt. Start das Startdatum des Beobachtgungszeitraums bezeichnet also bspw. 1970:1 Ende das Ende der Beobachtungszeitraums bspw. 2003:12. Achtung: wird beabsichtigt Prognosen zu errechnen, muß der Zeitraum länger als der Schätzzeitraum sein. 2) Durch den Befehl →File →New→Workfile... Danach erscheint eine Box in der man die Frequenz anklicken kann und das Start- und Enddatum eintragen kann, letztlich auf OK drücken. Daten einlesen Als nächster Schritt gilt es die Daten einzulesen. Dies erfolgt über den Befehl „read“. read(a=2,s=daten) Laufwerk:\Pfad\Dateiname.xls Anzahl Der erste Ausdruck in der Klammer bezeichnet die erste eingelesene Zelle aus dem ExcelBlatt “daten“. Der zweite Ausdruck benennt das Blatt der Excel Datei, welches gelesen wer10 14.06.07 Skript zur Vorlesung Theorie der Geldpolitik den soll. (s steht für sheet.) Wichtig ist zu beachten, dass bei dieser Form des Dateneinlesens, keine Variablenbezeichnung neu vergeben werden. Es werden die in der ersten Zeile des Excelblattes verwendeten Variablenbezeichnungen eingelesen. In der Spalte A des Blattes befindet sich eine Zeitleiste, in der Zelle B1 horizontal folgende Zellen die Namen und in Zelle B2 fortfolgende die Zahlen. Einige Standardbefehle genr erlaubt die Berechnung smpl bestimmt den Schätzzeitraum equation lautet der Schätzbefehl für eine Einzelgleichung var leitet die Schätzung einer Vektorautoregression (VAR) impuls generiert Impulsantwortfunktionen für VAR. decomp generiert eine Varianzzerlegung für VAR. 11 14.06.07 Skript zur Vorlesung Theorie der Geldpolitik ¾ Anhang4 Lineares Modell in Matrizen Schreibweise. In Matrizen-Schreibweise lautet das Modell y = Xβ + u wobei im einzelnen gilt ⎡ y1 ⎤ ⎡ x1′ ⎤ ⎢y ⎥ ⎢ x′ ⎥ y ≡ ⎢ 2⎥ X ≡ ⎢ 2⎥ T xk ⎢M ⎥ ⎢M⎥ T x1 ⎢ ⎥ ⎢ ⎥ ⎣ yT ⎦ ⎣ xT′ ⎦ −1 so dass der OLS-Schätzer βˆ = ( X ′X ) X ′y als ⎧ ⎪ ⎪ ˆ β = ⎨[x1 ⎪ ⎪ ⎩ x2 ⎡ x1 ⎤ ⎫ ⎢ x ⎥⎪ ⎪ L xT ]⎢ 2 ⎥ ⎬ ⎢ M ⎥⎪ ⎢ ⎥⎪ ⎣ xT ⎦ ⎭ −1 ⎡ u1 ⎤ ⎢u ⎥ u ≡ ⎢ 2⎥ T x1 ⎢M⎥ ⎢ ⎥ ⎣uT ⎦ ⎧ ⎪ ⎪ ⎨[x1 ⎪ ⎪ ⎩ x2 ⎡ y1 ⎤ ⎫ ⎢ y ⎥⎪ ⎪ L xT ]⎢ 2 ⎥ ⎬ ⎢ M ⎥⎪ ⎢ ⎥⎪ ⎣ yT ⎦ ⎭ berechnet wird. Eigenschaften der Projektionsmatrix MX Die Projektionsmatrix MX ist eine TxT-Matrix. Sie ist Definiert als M X ≡ I T − X ( X ′X ) X ′ −1 MX ist symmetrisch, M X = M ′X idempotent MXMX = MX und orthogonal zu Spalten von X MXX =0 4 Siehe Hamilton, J. (1994): S. 201 12 14.06.07 Skript zur Vorlesung Theorie der Geldpolitik II. Einheitswurzeln und Kointegration ¾ Die Einheitswurzel Im Wesentlichen kommen zwei alternative Modelle als Charakterisierung von volkwirtschaftlichen Zeitreihen in Frage: Einerseits ein Prozess mit einem deterministischen Trend, welcher ohne den linearen Trend stationär ist. Beispielsweise Yt = c + b1t + u t (23) andererseits ein nicht-stationärer Prozess mit einer Einheitswurzel – zum Beispiel, ein Random-Walk mit Drift Yt = c + Yt −1 + u t (24) wobei ut jeweils ein white noise Prozess ist. Die Bezeichnung „Einheitswurzel“-Prozess bezieht sich auf die Tatsache, dass die größte Wurzel der charakteristischen Gleichung den Wert 1 hat. Ausgehend von einem AR(1)-Prozess läßt sich unter Verwendung eines Lag-Operators zeigen, dass die Wurzel der Random-Walk Gleichung a1=1 entspricht. (1 − a1 L )Yt = c + ut (25) 20.00 15.00 10.00 5.00 Random-Walk mit Drift (c=0,2) 0.00 -5.00 1 10 19 28 37 46 55 64 73 82 91 100 Perioden Abb. 3: Random-Walk mit Drift Bildet man hingegen die erste Veränderung von Yt, also ∆Yt= Yt - Yt-1, so kann leicht festgestellt werden, dass dieser Prozess nun stationär ist, weswegen Yt auch als Differenzenstationär bezeichnet wird. Alternativ wird Yt auch als I(1) bezeichnet - integriert erster Ordnung - weil Yt die einfache Summe aus unendlich vielen Störungen ist und damit einem Integral der Residuen ähnelt. In dem obigen Beispiel wird ein AR(1)-Prozess zugrunde gelegt. Im Fall eines AR(p)-Prozess können mehr als eine Wurzel den Wert 1 besitzen – also multiple Einheitswurzeln bestehen. Sind d Wurzeln gleich l – mithin die Zeitreihe I(d), muß d-mal differenziert werden, damit die Zeitreihe stationär wird. 13 14.06.07 Skript zur Vorlesung Theorie der Geldpolitik 5.00 a1 = 0.9 2.50 0.00 -2.50 -5.00 a1 = 1 -7.50 -10.00 1 10 19 28 37 46 55 Perio d e 64 73 82 91 100 Abb. 4: Stationärer und nicht-stationärer Prozess im Vergleich Eine nicht-stationäre Zeitreihe weist einige typische Eigenschaften auf: 1. Sie kehrt nicht oder selten zu einem langfristigen Durchschnittswert zurück. 2. Die Varainz ist zeitabhängig und bei t gegen unendlich nähert sich die Varianz auch unendlich. 3. Die zeitliche Korrelationen (Autokorrelationen) verringern sich kaum mit zunehmender Periodenzahl zwischen den Zeitpunkten. Stochastische vs. deterministische Trends In der Ökonometrie wird zwischen stochastischen und deterministischen Trends unterschieden. Beide Prozesse generieren stark trend-behaftete Zeitreihen. Zur besseren Darstellung der Konzepte werden die bereits verwendeten Modelle weiter vereinfacht: Yt = Yt −1 + c Yt = Yt −1 + u t (26d) (26s) wobei c eine Konstante ist, während ut white-noise Eigenschaften besitzt. Werden die Prozesse auf den Zeitpunkt Null zurückgerechnet, so entstehen die Zeitreihen entsprechend der Gleichungen Yt = Y0 + c ⋅ t t Yt = Y0 + ∑ u s (27d) (27s) s =0 c·t ist ein deterministischer Trend, während die ∑u t s s den stochastischen Trend bildet. Wäh- rend im deterministischen Fall (27d) die Änderung pro Periode konstant ist und im vorhinein bekannt, fällt der Zuwachs im stochastischen Ansatz (27s) in jeder Periode unterschiedlich aus und hat einen Erwartungswert von Null. Viele makroökonomische Zeitreihen werden als I(1) betrachtet, beispielsweise wird dies häufig für das reale Bruttoinlandsprodukt unterstellt. Wäre dies der Fall, könnte ein monetärer Schock permanente Effekte auf den gesamtwirtschaftlichen Output haben und damit dem Gedanken der Neutralität des Geldes widersprechen. Seit der grundlegenden Arbeit von Nelson/Plosser (1982) sind eine Vielzahl von Studien über die Existenz von Einheitswurzeln in ökonomischen Daten vorgenommen worden – mit widersprüchlichen Ergebnissen. Dies liegt in der Hauptsache an den angewendeten Testverfahren. 14 14.06.07 Skript zur Vorlesung Theorie der Geldpolitik Nicht-Stationaritätstest I: allgemeine Überlegungen Um die Stationarität einer Zeitreihe zu bestimmen, muß untersucht werden, ob ⎢a1⎢<1 oder ≥1 ist. Ausgangspunkt des Tests auf Stationarität ist eine einfache OLS Regression der Gleichung Yt = a1Yt −1 + u t (28) Unter der Annahme ⎢a1⎢<1 folgt der OLS-Schätzer einer Normalverteilung entsprechend ( ) T (aˆ1 − a1 ) ~ N 0,1 − a12 (29) Die Varianz in der Verteilung folgt aus der allgemeinen Formel für den OLS-Schätzer σ 2 ( X ′X / T )−1 . Der „probability limit“ (plim) entspricht der Varianz von Yt also, plim ( X ′X ) T = Var (Yt ) , welcher nach Gleichung (22) σ 2 (1 − a12 ) . Daraus folgt dann das Ergeb- nis für die Varianz σ 2 (σ 2 (1 − a12 )) = (1 − a12 ). Für den Fall, dass a1=1 würde daraus folgen, dass die Abweichung des geschätzten Parameters vom wahren Wert eine Verteilung mit einer Varianz von Null besitzt, bzw. sich auf einen Punkt reduzieren lässt. Des Weiteren lässt sich zeigen, dass im Fall a1=1 der Schätzer â1 hin zum Wert Null verzerrt ist.5 Unter diesen Umständen ist die Konstruktion eines gewöhnlichen t-Tests zur Überprüfung, ob a1=1 ist, unzulässig. Wird dennoch eine t-Statistik berechnet, wird der Test zu häufig die Hypothese a1=1 ablehnen. In einem grundlegenden Artikel haben Dickey und Fuller (1979) korrekte kritische Werte veröffentlicht, um die Hypothese a1=1 zu testen. Die Werte wurden durch ein Monte-Carlo Verfahren berechnet: Mehrere Tausend Einheitswurzelprozesse in unterschiedlichen Stichprobenlängen wurden simuliert und dann die entsprechenden a1-Parameter einer AR(1)Gleichung geschätzt. Beispielsweise lag bei Stichproben mit 100 Beobachtungen der Wert des geschätzten Parameters für Gleichung (28) nur in 1% der Fälle unter dem Wert von –2.60. Daraus ergibt sich der kritische Wert für das 1% Signifikanzniveau. Die errechneten kritischen Werte sind niedriger als die aus der Student- oder Normalverteilung, wie auch leicht aus Abb. 5 zu sehen ist. −1 10 9 7 t-Verteilung(29) 6 DF-Verteilung AR(1) ohne Drift 5 4 Normalverteilung 3 2 W ah rsch ein lich k eit in % 8 1 0 -3 -2.5 -2 -1.5 -1 Test w ert Abb. 5: Vergleich Normal-, t- und DF-Verteilung 5 Evans, G. Savin, N (1981): Testing for Unit Roots: I, in: Econometrica, Vol. 49,S. 753-779; und Evans, G. Savin, N (1984): Testing for Unit Roots: II, in: Econometrica, Vol. 52,S. 1241-1269. 15 14.06.07 Skript zur Vorlesung Theorie der Geldpolitik Je mehr deterministische Terme (Konstante und /oder linearer Trend) in der Schätzgleichung des Dickey/Fuller-Tests (DF-Tests) enthalten sind, um so negativer sind die kritischen Werte. Die Vorgehensweise für den Dickey-Fuller Test auf Einheitswurzel besteht darin, die Teststatistik t= aˆ1 − 1 σˆ aˆ1 (30) zu berechnen und die Nullhypothese der Nicht-Stationarität abzulehnen, wenn die Teststatistik kleiner ist als der kritische Wert aus den Dickey-Fuller Tabellen. Wegen der Art ihrer Erzeugung muß bei dem Ablesen der kritischen Wert genau auf die Übereinstimmung zwischen den Merkmalen der Verteilung (Spezifikation der Gleichung, Stichprobenlänge) und der geschätzten Gleichung geachtet werden. Die Unterscheidung von stationären und nicht-stationären Zeitreihen ist sehr schwierig bzw. fast unmöglich, wenn nicht eine konkrete Alternative spezifiziert wird. Jeder nicht-stationärer Prozess kann durch einen entsprechenden stationären Prozess angenähert werden und umgekehrt. Unter praktischen Gesichtspunkten lautet daher die Kernaussage: weisen die Daten eine starke Trägheit oder Persistenz auf (ob stationär oder nicht), kann dies die Schlussfolgerungen aus Schätzungen belasten. Nicht-Stationaritätstest II: Der (Augumented) Dickey-Fuller Test Dickey/Fuller (1979) betrachteten drei verschiedene Spezifikationen für ihren Test auf Einheitswurzel, wobei γ = (a1 − 1) ∆y t = γy t −1 + u t ∆y t = a 0 + γyt −1 + u t ∆y t = a 0 + a 2 t + γy t −1 + u t (31a) (31b) (31c) Der DF-Test testet die Nullhypothese H0: γ =0 gegen die Alternative H1:γ <0. Während die asymptotischen kritischen Werte auch bei Heteroskedastizität6 und Nicht-Normalität der Residuen ut gelten, müssen für die kritischen Werte bei kleinen Stichproben die Residuen normal und i.i.d. verteilt sein. Autokorrelation in den Residuen darf also nicht vorhanden sein. Dies hängt mit der Tatsache zusammen, dass die kritischen Werte durch Simulationen generiert wurden die auf Gauß‘schen Weisen Rauschen beruhten. Abweichungen von dieser Annahme verzerren die Verteilungswerte. Sind die Residuen nicht frei von Autokorrelation, muß der sog. Augmented Dickey-Fuller Test (ADF-Test) angewendet werden. Angenommen der Störterm folge seinerseits einem AR(1)-Prozess ut =ρut-1 +εt. Demnach entspricht die Testgleichung (31b) beispielsweise: ∆y t = a 0 + γy t −1 + ρ (∆y t −1 − a 0 − γy t − 2 ) + ε t welche sich durch Erweiterung um den Term γρy t −1 − γρy t −1 umformen lässt ∆y t = a 0 (1 − ρ ) + γy t −1 + ρ∆y t −1 + ( ργy t −1 − ργyt − 2 ) − γρy t −1 + ε t ∆y t = a 0 (1 − ρ ) + γ (1 − ρ ) y t −1 + ρ (γ + 1)∆y t −1 + ε t = a~0 + γ~y t −1 + a3 ∆y t −1 + ε t 6 Heteroskedastizität liegt vor, wenn die Schwankungen der Residuen nicht konstant sind. 16 (32) 14.06.07 Skript zur Vorlesung Theorie der Geldpolitik Durch das Hinzufügen von verzögerten ∆Yt − p wird der Effekt des AR-Prozesses in den Residuen neutralisiert. In der Praxis wird die Schätzgleichung erweitert bis die verzögerten Terme in der Schätzgleichung die Residuen white noise Eigenschaften besitzen. In der Regel bietet es sich an, mit 12 (Monate-) oder 4 (Quartale-)Verzögerungen anzufangen, und dann sukzessive die weiter zurückliegenden, insignifikanten Verzögerungen zu eliminieren. Eine Reduktion der insignifikanten Parameter ist erforderlich, um die Trennschärfe (power) des Test möglichst hoch zu halten. Unnötige zusätzliche Parameter reduzieren zudem die verfügbaren Freiheitsgrade. Der ADF-Test weist eine Reihe von Schwachstellen auf: bei stark persistenten Zeitreihen wird zu selten die Nicht-Stationarität abgelehnt, bei negativen MA-Prozessen wird zu häufig die Nicht-Stationarität abgelehnt, Strukturbrüche in der Zeitreihe (z.B. Wiedervereinigung), lassen die Daten nicht-stationär erscheinen Saisonbereinigung der Zeitreihe kann die Wahrscheinlichkeit für die Ablehnung der Nicht-Stationarität verringern. Eine geeignete Vorgehensweise um ADF-Tests durchzuführen lautet mit dem allgemeinsten Ansatz (general) anzufangen und ihn schrittweise zu vereinfachen (specific). Schätzen des allgemeinen Ansatzes ∆yt = a0 + γ yt-1+ a2 t + Σ βi ∆yt-i +ut Nein Ist γ=0? Nein Wenn ja: Test auf Trend Ist a2=0 gegeben γ=0? Nein Ja Schätzen des Ansatzes ∆yt = a0 + γ yt-1 + Σ βi ∆yt-i +ut STOP: yt ist stationär Ist γ=0 unter Normalverteilung? Ja Nein Ist γ=0? Wenn ja: Test auf Konstante Ist γ=0 unter Nein Normalverteilung? Ist a1=0 gegeben γ=0? yt hat eine Einheitswurzel STOP: yt ist stationär Ja yt hat eine Einheitswurzel Ja Schätzen des Ansatzes ∆yt = γ yt-1 + Σ βi ∆yt-i +ut Nein Ist γ=0? STOP: yt ist stationär Ja yt hat eine Einheitswurzel Abb. 6: Strategie für Augmented Dickey-Fuller - Test Ein alternativer Ansatz um Nicht-Stationarität zu überprüfen, stellt der Test von PhillipsPerron dar. Die entgegengesetzte Nullhypothese der Stationarität kann durch den KPSS-Test untersucht werden. ¾ Kointegration: Konzept und Tests. Eine lineare Kombination von zwei I(1) Prozessen wird in der Regel ebenfalls I(1) sein. Gelingt es allerdings eine linear Kombination von Zeitreihen zu finden, bei denen das Ergebnis I(0) ist, bilden die Zeitreihen eine Kointegrationsbeziehung. Kointegration beschreibt eine langfristige „Gleichgewichtsbeziehung“ zwischen den ökonomischen Größen. In diesem Fall 17 14.06.07 Skript zur Vorlesung Theorie der Geldpolitik bewegen sich die Zeitreihen im Zeitablauf im Grossen und Ganzen ähnlich. Beispielsweise könnte das Einkommen yt und der reale Konsum ct beide I(1) sein, die reale Ersparnis (st =yt – ct) jedoch stationär sein.7 Allgemeiner wird Kointegration durch die Beziehung beschrieben β 1 y t = β 2 xt + ε t (33) wobei εt ∼I(0) ist und β = [β 1 , β 2 ] den Kointegrationsvektor bildet. Hierbei gilt, dass das Residuum der Kointegrationsbeziehung εt immer einen Integrationsgrad weniger als die Urspungszeitreihen besitzt .Vier weitere, wichtige Eigenschaften sollen nun näher beleuchtet werden: 1. Kointegration beschreibt eine linear Kombination von nicht stationären Variablen. Ein Kointegrationsvektor [β1,β2] ist nicht eindeutig bestimmt, da eine linear Transformation [λβ1, λβ2] ebenfalls einen Kointegrationsvektor darstellt. In der Regel wird deshalb der Vektor normalisiert, also der Parameter β1 gleich 1 gesetzt. 2. Alle Variablen im Kointegrationsvektor müssen den selben Integrationsgrad aufweisen. 3. In der Regel beschäftigt sich die Kointegrationsanalyse mit ursprünglichen I(1) Zeitreihen, deren Kombination I(0) ist. Allerdings kann ebenfalls Kointegration zwischen mehreren I(2) Variablen bestehen, deren Kombination dann I(1) ist. 4. Werden n Variablen in der Analyse untersucht können bis zu n-1 linear unabhängige Kointegrationsvektoren bestehen. Im bivariaten Fall kann also höchstens ein Vektor auftreten. Mit Kointegrationsrang wird die Anzahl unabhängiger Kointegrationsvektoren bezeichnet. Im Rahmen eines Gleichgewichtsansatzes kann eine Abweichung vom Gleichgewicht εt nur kurzfristiger Natur sein und induziert eine Anpassung hin zum Gleichgewicht, also eine „Fehler-Korrektur“. Insofern muß zwischen der langfristigen (dynamischen) Beziehung, welche den gemeinsamen Pfad der ökonomischen Größen beschreibt und der kurzfristigen Anpassungsdynamik nach Abweichungen unterschieden werden. Kointegration und gemeinsamer Trend Prinzip In ihrem grundlegenden Papier verwenden Stock und Watson (1988) als Ausgangspunkt den Gedanken, dass eine I(1)- Zeitreihe einen stochastischen Trend besitzt. Zwei Zeitreihen die mit einander kointegriert sind, müssen aber einem gemeinsamen Trend folgen. Um dies zu verdeutlichen wird der einfachheithalber ein Ansatz mit zwei Variablen verwendet: yt (reales Einkommen) und ct ( realer Konsum). Beide Variablen seien I(1) und lassen sich in einen stochastischen Trend, also beispielsweise einen Random-Walk, und einen stationären Störterm zerlegen. Also y t = µ yt + ε yt ct = µ ct + ε ct wobei µ den stochastischen Trend der jeweiligen Variablen erfaßt, εt stellt den stationären Störterm der jeweiligen Variablen dar. 7 Neben der Konsumtheorie sind die Geldnachfragetheorie, die Kaufkraftparitätentheorie und die offene Zinsparitätentheorie wichtige mögliche Anwendungsbeispiele für Kointegrationsmodelle. 18 14.06.07 Skript zur Vorlesung Theorie der Geldpolitik in M rd. USD (log) 4.0 Y 3.8 3.6 C 3.4 3.2 3.0 1967 1970 1973 1976 1979 1982 1985 1988 1991 1994 1997 2000 2003 Abb. 7: US BIP und Konsum (real) folgen gemeinsamen Trend Wenn yt und ct kointegiert sind CI(1,1) – also die Ersparnis I(0) stationär – muß es von Null verschiedene Werte für die Parameter β1 und β2 geben, damit die linear Kombination β1yt + β2ct stationär ist. Im Fall des Ersparnis z.B. β1=1 und β2= -1. Genauer gesagt β 1 yt + β 2 ct = β 1 (µ yt + ε yt ) + β (µ ct + ε ct ) = (β 1 µ yt + β 2 µ ct ) + (β 1ε yt + β 2 ε ct ) (34) Um Stationarität zu gewährleisten muß der Ausdruck (β 1 µ yt + β 2 µ ct ) verschwinden, denn wenn einer der stochastischen Trends in (β 1 µ yt + β 2 µ ct ) enthalten bliebe, könnte die linear Kombination nicht stationär sein. Die notwendige und hinreichende Bedingung für Kointegration ist demnach, β 1 µ yt + β 2 µ ct = 0 (35) Da Eingangs die Parameter β1 und β2 als ungleich Null angenommen wurden, folgt dass die stochastischen Trends identisch sein müssen. Zwei I(1) Variablen, welche miteinander kointegriert sind, folgen dem gleichen stochastischen Trend. Kointegration und Fehler-Korrektur Im Zeitverlauf werden also zwei Variablen, die kointegriert sind, sich gemeinsam entwickeln. Zwar können die stationären Störungen die kurzfristige Dynamik bestimmen. Um jedoch ins Gleichgewicht zurückzukehren wird die langfristig die Entwicklung von Abweichungen von der Gleichgewichtsbeziehung bestimmt. Zur Veranschaulichung soll im weiteren unterstellt werden Realeinkommen (yt) und der reale Konsum (ct) seien beide I(1) und es bestünde eine Kointegrationsbeziehung. Auch theoretisch besteht nach der Konsumtheorie zwischen dem Einkommen und dem Konsum ein Zusammenhang. In Abb. 8 wird dieser Zusammenhang durch eine Gerade dargestellt. Wenn beispielsweise das Einkommen größer ist als der Konsum im langfristigen Gleichgewicht üblich (Punkt A), wird der Konsum relativ zum Einkommen steigen müssen um zum Gleichgewicht zurückzukehren. Verschiedene Anpassungsvorgänge sind denkbar, die eine detaillierte Modellierung der kurzfristigen Dynamik erforderlich machen. Ein Modell dass diese Anpassungen abbildet nennt sich Fehler Korrektur– Modell (FKM). Die Veränderung ∆ der Variablen wird von der Abweichung von der Gleichgewichtsbeziehung beeinflußt. 19 14.06.07 Skript zur Vorlesung Theorie der Geldpolitik c (c - βy)<0 B c = βy αc= 0 αy= 0 A (c - βy)>0 y Abb. 8: Abweichung vonm Gleichgewicht und Anpassungsverhalten Der folgende Ansatz beschreibt die dynamische Interaktion ∆y t = α y (ct −1 − β y t −1 ) + u yt ∆ct = −α c (ct −1 − β y t −1 ) + u c t (36a) (36b) wobei uyt und uct jeweils einen white noise Störterme bezeichnen. αy, αc, β >0. In diesem Beispiel stellt β die gleichgewichtige Konsumquote dar. Das Realeinkommen und der Konsum verändern sich auf Grund der Störterme und in Abhängigkeit vom Ungleichgewicht zwischen dem Konsum und dem gleichgewichtigen Konsumwert der vergangenen Periode. Ist der Konsum in der vergangenen Periode ct-1 beispielsweise kleiner als βy t-1 = c*, so wird der Konsumzuwachs in Periode t zunehmen. Der Konsum steigt um das Ungleichgewicht mal αc. Gleichzeitig kommt es zu einer Verringerung des Einkommenswachtums. Die Parameter αc, αy werden als „load factors“ bezeichnet; tatsächlich beschreiben sie die Anpassungsgeschwindigkeit zum Gleichgewicht. Von ihrer relativen Größe hängt der Rückkehrpfad zum Gleichgewicht ab. Ist ein Anpassungsparameter Null wird die gesamte Anpassung über die andere Gleichung erfolgen (siehe Punkt B). Ein „load factor“ muss mindestens von Null signifikant abweichen, damit das Fehler Korrektur-Modell seine Eigenschaften entfalten kann. Per Konstruktion sind die Veränderungen und per Annahme die Störterme I(0). Um die Gleichungen zu balancieren muß der Fehler-Korrektur-Term ebenfalls I(0) sein, also die Variablen miteinander kointegriert sein. Ein allgemeineres Modell kann formuliert werden, in dem die kurzfristige Dynamik komplexer abgebildet werden kann: ∆y t = α y (ct −1 − β y t −1 ) + ∑ α 11 (i )∆y t −i + ∑ α 12 (i )∆ct −i + u yt ∆ct = −α c (ct −1 − β y t −1 ) + ∑ α 21 (i )∆y t −i + ∑ α 22 (i )∆ct −i + u ct (37a) (37b) Der zweistufige Ansatz von Engle-Granger zur Schätzung von Fehler-Korrektur-Modellen Die einfachste Methode ein Fehler-Korrektur-Modell zu schätzen ist der zweistufige Ansatz von Engle und Granger. Er besteht im wesentlichen aus drei Schritten: 20 14.06.07 Skript zur Vorlesung Theorie der Geldpolitik 1. Für die Variablen der vermuteten Kointegrationsbeziehung, beispielsweise ct, yt, wird der Integrationsgrad mit Hilfe des ADF- oder Phillips-Perrons Test festgestellt. Sind die Variablen unterschiedlichen Grades –liegt keine Kointegration vor. Sind die Variablen beide stationär – liegt ebenfalls keine Kointegration vor. Sind die Variablen gleichen Integrationsgrades kann mit Schritt 2 fortgefahren werden 2. Die langfristige Gleichgewichtsbeziehung wird mit OLS geschätzt. ct = β 0 + β 1 y t + z t (38) Wenn die Variablen eine Kointegrationsbeziehung bilden, sind die mit OLS geschätzten Parameter super-konsistente Schätzer. D.h. vereinfacht, der OLS-Schätzer konvergiert schneller auf den wahren Wert hin als bei stationären Modellen. Eine Interpretation der tStatistik wäre demnach verfehlt. Allerdings sind die Punktschätzer für β̂ 0 , β̂ 1 zuverlässig. Um die Kointegration festzustellen, werden die geschätzten Resdiuen ẑ t berechnet. Sind im Beispiel Konsum und Einkommen I(1) und kointegriert, muß das Residuum zthat I(0) sein. Dies wird durch Einheitswurzeltests (bspw. ADF) überprüft: ∆zˆ t = γzˆ t −1 + u t (39) Da ẑ t aus den Residuen einer Regression mit einer Konstanten gebildet worden ist, muß die Testgleichung keine Konstante enthalten. Besitzt der Störterm ut nicht die white noise Eigenschaft, müssen der Gleichung weitere Verzögerungen hinzugefügt werden, um die Autokorrelation zu erfassen. Die entscheidende Frage lautet, ob die Nullhypothese γ = 0 abgelehnt werden kann. Wenn die Hypothese nicht abgelehnt wird, besteht KEINE Kointegration, sondern die Residuen enthalten vermutlich eine Einheits-wurzel.8 Wird hingegen die Nullhypothese γ = 0 abgelehnt, folgt, dass die Residuen stationär und die Variablen kointegriert sind. Erschwert wird der Test durch die Tatsache, dass die normale Dickey-Fuller Verteilung nicht benutzt werden kann. Dies hängt mit dem Konstruktionsverfahren für die Verteilung zusammen. Allerdings hat MacKinnon (1991) allgemeingültige Kritische Werte für verschiedene Spezifikationen des „ADF-Kointegrationstests“ berechnet.9 3. Ist ẑ t stationär, wird die Residuenzeitreihe als Erklärungsvariable in die Regression der kurzfristigen Dynamik aufgenommen und die Gleichungen mit OLS geschätzt: ∆y t = α y (ct −1 − β y t −1 ) + ∑ α 11 (i )∆y t −i + ∑ α 12 (i )∆ct −i + u yt ∆ct = −α c (ct −1 − β y t −1 ) + ∑ α 21 (i )∆y t −i + ∑ α 22 (i )∆ct −i + u ct (37a) (37b) Da alle Regressoren in den Gleichungen stationär sind, können normale t-Tests für die Signifikanzüberprüfung verwendet werden. Ein Überprüfung der Spezifikation sollte in einem letzten Schritt vorgenommen werden. Besitzen die Störterme nicht die notwendigen White-Noise Eigenschaften, müssen den Gleichungen zusätzliche Verzögerungen hinzugefügt werden 8 Genau genommen: Wenn die Hypothese nicht abgelehnt werden kann, kann nicht abgelehnt werden, dass die Variablen nicht kointegriert sind. 9 MacKinnon, J. G. (1991). "Critical values for cointegration tests", in: Engle, R. F., and Granger, C. W. J.(hrsg.), Long-Run Economic Relationships, S. 267--276. Oxford: Oxford University Press. 21 14.06.07 Skript zur Vorlesung Theorie der Geldpolitik In einem ersten Schritt ist die Schätzung beider Gleichungen vorzunehmen, um festzustellen in welcher Richtung der Fehler-Korrektur-Term wirkt. Ein System von Gleichungen die dieselben Regressoren besitzt wird auch als Vektor Autoregression (VAR) bezeichnet. ¾ Modellierungsstratgie und Test-Theorie Die überlegene Vorgehensweise zur Konstruktion eines datenkongruenten Modells geht von einer allgemeinen Ausgangsgleichung aus, die schrittweise vereinfacht wird (general to specific methodology). In die allgemeine Gleichung finden erklärende Variablen Eingang auf Grund von theoretischen Überlegungen oder auf Grund von Erfahrungen aus vorangegangenen Untersuchungen. Ökonomisches M odell Ökonomet risches M odell Dat en nicht erhält lich: neu spezif izieren Dat en beschaf f en M odell schät zen M odell inadäquat : neu spezif izieren M odell adäquat : vereinf achen M odell t est en Prognosen erst ellen Berat ung Abb. 9: Die ökonometrische Vorgehensweise nach Ramanathan Die Konsistenz der Schätzergebnisse der allgemeinen Spezifikation mit der ökonomischen Theorie kann anhand der oben besprochenen t- und F- Tests überprüft werden. Um die Angemessenheit der Verteilungsannahmen dieser Tests zu gewährleisten, müssen die Residueneigenschaften der Schätzgleichungen mit den theoretischen Annahmen hinsichtlich Verteilung der Störterme übereinstimmen, also beispielsweise ob Gauß‘sches Weisses Rauschen vorliegt. Dies wird anhand von sogenannten „Spezifikationstests“ überprüft. Arbeiten mit E-Views: ADF-Test und Kointegtration in Praxis Die Durchführung von Einheitswurzeltests mit Eviews ist relativ einfach. Sie können zum einen natürlich dieSchätzgleichung "zu Fuß" aufstellen und mit OLS schätzen. Zum anderen ist jedoch der ADF-Test vorprogrammiert. Durch Anklicken der Befehle in der Menüleiste →Quick →Series Statistics → Unit Root Tests... erscheint eine Eingabemaske in der das Kürzel der zu testenden Variable eingegeben werden kann. Eine weitere Maske ermöglicht die Auswahl des Einheitswurzeltestes, die Spezifikation und die Anzahl der Verzögerungen 22 14.06.07 Skript zur Vorlesung Theorie der Geldpolitik Um die Feststellung des Integrationsgrades einer Variable zu beschleunigen, ermöglicht Eviews durch Anklicken in der Rubrik "Test for unit root in", die Durchführung des Tests im Ausgangsniveau oder in automatisch berechneten 1. bzw. 2. Differenzen. Dies müssen dann nicht eigenständig generiert werden. Desweiteren ermöglicht Eviews die Auswahl eines Kritieriums zur Lag-Längenbestimmung, sowie die maximale Anzahl von Verzögerung von der aus vereinfacht werden soll. Die Durchführung des Tests für Quartalswert des logarithmierten Ölpreises (LOIL) ergibt folgenden Output: ADF Test Statistic -2.650903 1% Critical Value* -3.4911 5% Critical Value -2.8879 10% Critical Value -2.5807 *MacKinnon critical values for rejection of hypothesis of a unit root. Augmented Dickey-Fuller Test Equation Dependent Variable: D(LOIL) Method: Least Squares Date: 12/19/02 Time: 08:29 Sample(adjusted): 1978:2 2005:2 Included observations: 109 after adjusting endpoints Variable Coefficient Std. Error t-Statistic LOIL(-1) -0.093163 0.035144 -2.650903 D(LOIL(-1)) 0.266561 0.095129 2.802113 D(LOIL(-2)) -0.118899 0.096976 -1.226066 D(LOIL(-3)) 0.266260 0.095685 2.782669 D(LOIL(-4)) -0.050316 0.097424 -0.516459 C 0.281522 0.104550 2.692695 R-squared 0.154031 Mean dependent var Adjusted R-squared 0.112964 S.D. dependent var S.E. of regression 0.134372 Akaike info criterion Sum squared resid 1.859744 Schwarz criterion Log likelihood 67.20023 F-statistic 23 Prob. 0.0093 0.0061 0.2230 0.0064 0.6066 0.0083 0.007927 0.142672 -1.122940 -0.974792 3.750769 14.06.07 Skript zur Vorlesung Theorie der Geldpolitik Durbin-Watson stat 2.017871 Prob(F-statistic) 0.003682 Das Ergebnis in der ersten Zeile (-2.650903) liegt betragsmäßig unter den krtischen 1% bzw. 5% kritischen Wert für. Die Nullhypothese wird nicht abgelehnt. Die weiteren Angaben zeigen dieEigenschaften der Schätzgleichung auf. Zu beachten ist die Tatsache, dass der ADFTestwert auch als t-Testwert in der Zeile LOIL(-1) auftaucht und dort signifikant ausgewiesen wird. 24 14.06.07 Skript zur Vorlesung Theorie der Geldpolitik IV. Quellenangaben Enders, W. (1995): Applied Econoetric Time Series Evans, G. Savin, N (1981): Testing for Unit Roots: I, in: Econometrica, Vol. 49,S. 753-779 Evans, G. Savin, N (1984): Testing for Unit Roots: II, in: Econometrica, Vol. 52,S. 12411269. Greene, W. (1995): Econometric Analysis Gujarati, D. (1995): Basic Econometrics, London Hamilton, J. (1994): Time Series Analysis, Princeton Hendry, D. (1994): Dynamic Econometrics, Oxford. MacKinnon, J. G. (1991). "Critical values for cointegration tests", in: Engle, R. F., and Granger, C. W. J.(hrsg.), Long-Run Economic Relationships, S. 267--276. Oxford: Oxford University Press. Quantitative Micro Sofftware (2000): Eviews 4.0 User's Guide, Irvine Söderlind, P. (2002): Lecture Notes for Econometrics, Strockholm School of Economics, zu finden auf http://www.hhs.se/personal/psoderlind/ Sims, T. (1980): Macroeconomics and Reality, Econometrica, Bd. 48, S. 1-48. 25