Skript

Werbung
Julian von Landesberger
14.06.2007
Workshop Monetäre Ökonometrie
zur Vorlesung Theorie der Geldpolitik von Prof. G. Illing
Gliederung
I
Grundlagen
ƒ
ƒ
ƒ
II
Einheitswurzeln und Kointegration
ƒ
ƒ
III
Das OLS-Schätzverfahren
Einige wichtige Begriffe
Statistische Prozesse (ARMA)
Die Einheitswurzel
Kointegration: Konzept und Tests
Quellenangaben
Vorlaüfige Version.
Eviews ist eine geschützer Markenname von Quantitative Micro Software, LLC.
14.06.07
Skript zur Vorlesung Theorie der Geldpolitik
I.
Grundlagen
¾ Das OLS –Schätzverfahren
Betrachtet werden soll das einfachste lineare Modell:
y t = xt β + u t
(1)
wobei alle Variablen um den Mittelwert bereinigt sind und β der wahre Parameter ist, welcher
T
geschätzt werden soll. Mit Hilfe der Beobachtungen der Variablen {y t , xt }t =1 kann eine Schätzung des Parameters β vorgenommen werden und Hypothesen getestet werden bspw. ob β=0.
Ein Hut über einer Variable bezeichnet einen geschätzten Wert.
Für den Fall, dass die unbeobachteten Störungen ut konstant sind, kann fehlerfrei der Wert
von β geschätzt werden. Sofern jedoch die Störungen nicht konstant sind, wird nach der
Schätzung von β Unsicherheit über den wahren Wert weiterbestehen. Für einen gegebenen
Schätzwert β̂ , lassen sich die beobachteten Residuen berechnen
uˆ t = y t − xt β̂
(2)
y
Beobacht ung
β0x
Wahrer
Zusammenhang
ˆ
Geschät zt er
Zusammenhang
yt
St örung u t
û t Residuum
β0xt
ˆy =βx
ˆ
xt
βx
t
x
Abb. 1: Wahrer und geschätzter Zusammenhang
Zur Bestimmung des Schätzwertes β̂ ist die Minimierung der Residuen û t eine naheliegende
Vorgehensweise, da gleichzeitig im Umkehrschluß dadurch die Erklärung von xt für yt maximiert wird. In der Regel wird zur Schätzung eine quadratische Gewichtungsfunktion angeT
wendet: also die quadrierten Residuen ∑t =1 u t2 minimiert. Die Zielfunktion für das Optimierungsproblem lautet:
T
min ∑ ( y t − xt β )
β
t =1
Die erste Ableitung nach β wird gleich Null gesetzt
2
2
(3)
14.06.07
Skript zur Vorlesung Theorie der Geldpolitik
(
T
)
2∑ − xt y t − xt βˆ = 0
t =1
Vernachlässigung des Normierungsfaktors 2 ergibt
T
T
t =1
t =1
− ∑ xt y t + ∑ xt2 βˆ = 0
(4)
und kann nach β̂ aufgelöst werden
⎛
⎞
βˆ = ⎜ ∑ xt2 ⎟
t =1
⎝1
4
24
3⎠
T
−1
Var ( xt )
⎛ T
⎞
⎜ ∑ xt y t ⎟
=1
⎝1t4
24
3⎠
(5)
Cov ( xt , yt )
In Matrixschreibweise1 ergibt sich analog die Formel
βˆ = ( X ′X )−1 X ′y
(6)
für den Kleinste-Quadrate-Schätzer(Ordinary Least Squares).
Um die Abweichung zwischen dem wahren Parameter β und dem geschätzten Parameter β̂ zu
berechnen muß (1) für yt in (5) eingesetzt werden
−1
⎛ T
⎞ ⎛ T
⎞
βˆ = ⎜ ∑ xt2 ⎟ ⎜ ∑ xt ( xt β + u t )⎟
⎝ t =1 ⎠ ⎝ t =1
⎠
(7)
−1
⎛ T
⎞ ⎛ T
⎞
= β + ⎜ ∑ xt2 ⎟ ⎜ ∑ xt u t ⎟
⎝ t =1 ⎠ ⎝ t =1
⎠
oder in Matrizenschreibweise
ƒ
βˆ = β + ( X ′X )−1 X ′u
Vereinfachende Grundannahmen hinsichtlich der Verteilung der Störungen.
Drei vereinfachende Grundannahmen hinsichtlich der statistischen Eigenschaften der Störungen u werden nun getroffen:
Eigenschaft der erklärenden Variable : xt ist deterministisch
Eigenschaften der Störung: ut ist unabhängig- und identisch verteilt (i.i.d.) mit Erwartungswert 0 und Varianz σ2
Normalverteilung der Störung: ut ist normalverteilt
-
1
) Siehe Anhang für ausführliche Darstellung der Matrixschreibweise
3
14.06.07
Skript zur Vorlesung Theorie der Geldpolitik
ƒ
Eigenschaften von β̂
Die Residueneigenschaften lassen sich in Vektorenschreibweise notieren als E(u) = 0 und
Var(uu´) = σ2I, wobei I eine entsprechend dimensionierte Einheitsmatrix ist . Unter den gegebenen Annahmen folgt bei Bildung des Erwartungswertes von (7)
()
−1
E βˆ = β + ( X ′X ) X ′[E (u )] = β
(8)
wonach der Schätzer β̂ unverzerrt ist. Die Varianz-Kovarianz-Matrix von β̂ ergibt sich
analog als
−1
−1
E βˆ − β βˆ − β ´ = ( X ′X ) X ′uu ′X ( X ′X )
[(
)(
)] [
= [( X ′X )
]
−1
X ′E [(uu ′)]X ( X ′X )
= σ 2 ( X ′X )
−1
]
−1
(9)
Daraus folgt das Gauss-Markov Theorem: es beweist die Optimalität der OLS-Schätzung unter bestimmten Annahmen. Genauer, besagt es, dass die Varianz-Kovarianz Matrix eines anderen Schätzers für β, wenn der Schätzer unverzerrt und linear ist, von der Varianz-Kovarianz
von β̂ durch eine positive semidefinite Matrix abweicht (also „größer“ ist).2
ƒ
Verteilung von β̂
Aufgrund der Annahme der Normalverteilung der Residuen folgt, wegen (7), dass der Schätzer β̂ normalverteilt ist mit einen Erwartungswert von β und eine Varianz von σ2(X'X)-1:
(
βˆ ~ N β , σ 2 ( X ′X )−1
)
(10)
Gleichung (8) zeigt, dass unter den Grundannahmen, der Schätzer β̂ dem Erwartungswert
entspricht, die (X'X)-1 kann aus den Daten errechnet werden und die Normalverteilung ist
bekannt. Einzig fehlendes Element, um die Verteilung β̂ zu beschreiben, ist ein Schätzer für
die Varianz der Störungen σ2 .
ƒ
Schätzer für die Varianz σ2
Die Varianz der Störungen σ2 ist bisher unbekannt. Aus der OLS-Schätzung kann ein Schätzer s2 errechnet werden, welcher ermöglicht die Varianz σ2 zu quantifizieren. Er wird berechnet als
s2 =
uˆ ′uˆ
= RSS / (T − k )
(T − k )
(11)
Die geschätzte Varianz der Residuen entspricht der Summe der quadrierten Residuen normiert mit dem Ausdruck (T-k). T entspricht der Länge des Beobachtungszeitraums (Länge
des Y-Vektors) k bezeichnet die Anzahl der erklärenden Variablen. Insgesamt entspricht der
Ausdruck der Anzahl der Freiheitsgrade.
2
Für den vollständigen Beweis, siehe Hendry, D. (1995): Dynamic Econometrics, Oxford. S. 698.
4
14.06.07
Skript zur Vorlesung Theorie der Geldpolitik
Eine Verbindung zwischen den Residuen û und den Störungen u kann hergestellt werden,
wenn für den OLS-Schätzer β̂ die Bestimmungsgleichung (6) in (2) eingesetzt wird:
−1
uˆ = y − Xβˆ = y − X ( X ′X ) X ′y
(12)
nach Zusammenfassen des y-Vektors, ergibt sich folgender Zusammenhang
[
]
−1
= I T − X ( X ′X ) X ′ y = M X y
(13)
wobei IT eine (TxT)-grosse Identitätsmatrix bezeichnet. Die MX-Matrix wird auch Projektionsmatrix genannt3. Wird in (13) die Definition von y = Xβ + u eingesetzt, folgt daraus
[
]
−1
uˆ = I T − X ( X ′X ) X ′ ( Xβ + u ) = M x u
144
42444
3
(14)
MX
Gemäß den Grundannahmen sind die Störungen u jeweils unabhängig und normalverteilt, so
dass sich die Varianz der Residuen s2 quasi als eine Summe von quadrierten normalverteilten
Größen ergibt. Eine Summe aus unabhängigen, quadrierten normalverteilten Variablen ist χ2
~ verteilt. Allerdings sind von den T unabhängigen Beobachtungen durch die Schätzung kWerte „vorbestimmt“ und aufgebraucht, so dass nur noch (T-k) Freiheitsgrade bestehen. Daraus folgt, dass der Schätzer für die Varianz χ2 ~ verteilt ist, mit (T-k) Freiheitsgraden.
Box.: Funktionen von Verteilungen
Ausgehend von einer unabhängigen und standardnormalverteilten Größe Z ~ N(0,1) gilt, dass
das Quadrat von Z, also Z2 ~χ2(1), also Chi-Quadrat verteilt mit einem Freiheitsgrad ist. Eine
Summe T unabhängiger Größen Z, folgt einer Chi-Quadrat Verteilung mit T Freiheitsgraden.
Des weiteren, folgt ein Bruch aus einer normalverteilten und einer χ2 ~ verteilten Größe, also
N(0,1)/ χ2(T), einer t~Verteilung mit T-Freiheitsgrad. In einem weiteren Schritt folgt das
Verhältnis von zwei unabhängigen χ2 ~ verteilten Größen (bspw. Varianzen) mit T1 und T2
Freiheitsgraden einer F(T1, T2)-Verteilung.
ƒ
Der t-Test für β
Ein t-Test wird konstruiert um eine Nullhypothese hinsichtlich eines Parameters einer Schätzgleichung zu testen. Es wird untersucht, ob ein Element des geschätzten Parametervektors β̂ i
einem bestimmten Wert β i0 zum Beispiel Null entspricht. Die Alternativhypothese lautet
dann, dass der Wert von β i0 ungleich Null ist. Unter den bisherigen Annahmen über die Störungen, wird der Test wie folgt berechnet
(βˆ
t=
) (
− β i0
βˆ i − β i0
=
σˆ β i
s 2ξ ii
i
)
(15)
wobei ξii, das Element der i-ten Zeile, i-ten Spalte der (X'X)-1 bezeichnet. σˆ β i ≡ s 2ξ ii beschreibt die geschätzte Standardabweichung des i-ten OLS-Parameters. Unter den bereits ge3
) Die Projektionsmatrix weist einige wichtige Eigenschaften auf die im Anhang ausgeführt werden.
5
14.06.07
Skript zur Vorlesung Theorie der Geldpolitik
troffenen Annahmen folgt die Teststatistik (15) einer t-Verteilung mit (T-k) Freiheitsgraden.
Gemäß der Nullhypothese ist der OLS-Schätzer βˆ i ~ N (β i0 , σ 2ξ ii ) verteilt, vgl.(10). Nach
einer Standardisierung des Schätzers, also die Bildung der Differenz zum Erwartungswert und
Teilung durch die Varianz folgt diese Größe einer Standardanormalverteilung N(0,1). Der
Nenner des Ausdrucks (15) ist unabhängig vom Zähler und χ2 ~ verteilt mit (T-k) Freiheitsgraden .
N (0,1)
(16)
t (T − k ) = 2
χ (T − k )
Insgesamt folgt der Bruch einer t-Verteilung mit T-k Freiheitsgraden.
¾ Einige wichtige Begriffe
ƒ
Der stochastische Prozeß
Ein stochastischer Prozeß ist eine Folge von Zufallsvariablen {Yt } wobei der Zeitparameter t
Element einer abzählbaren Indexmenge T ist. Ein Beispiel für einen stochastischen Prozeß ist
die Folge von bereits erzielten und zu erzielenden Noten im Studium. Bei jeder Klausur wäre
ein anderes Notenergebnis möglich gewesen (durch mehr oder weniger Vorbereitung, längeres Schlafen, etc.), so dass das einzelne Klausurergebnis eine Zufallsvariable ist - das gesamte
Zeugnis eines Studenten eine Realisation möglicher Notenfolgen ist.
ƒ
Der White Noise Prozeß
Der white noise Prozeß (das weiße Rauschen) ist ein Grundbaustein der Zeitreihenanalyse
und bezeichnet einen reinen Zufallsprozeß. Er beinhaltet eine Folge {u t } von identisch verteilten und voneinander unabhängigen Zufallsvariablen mit dem Erwartungswert 0, endlicher
Varianz, und die zudem zeitlich unkorreliert sind. Formal ist {u t } white-noise, wenn
E (u t ) = E (u t −1 ) = K = 0
E (u t2 ) < ∞
E (u t u t − s ) = E (u t − j u t − j − s ) = K = 0
für alle s
Sofern die zweite Bedingung verschärft wird durch die Bedingung einer konstanten Varianz
(Homoskedastizität) E u t2 = E u t2−1 = K = σ 2 gilt der Prozeß als starker white noise Prozeß.
Stammen die Zufallsvariablen zudem aus einer Normalverteilung, handelt es sich dann um
Gauss'sches Weißes Rauschen.
( )
( )
3.00
2.00
1.00
0.00
-1.00
-2.00
-3.00
1
10
19
28
37
46
55
64
73
82
Abb. 3: Gauss’sches Weisses Rauschen
6
91
100
14.06.07
Skript zur Vorlesung Theorie der Geldpolitik
ƒ
Stationarität
Während in der ökonometrischen Literatur verschieden enge Abgrenzungen des Stationaritätsbegriffs zu finden sind, ist hier schwache oder Kovarianz-Stationarität gemeint. Ein stochastischer Prozeß ist dann stationär, wenn der Mittelwert µ und die Kovarianz unabhängig
vom Betrachtungszeitpunkt also für alle t gleich ist. Formal also,
E (Yt ) = µ
[
] [
für alle t
]
E (Yt − µ ) = E (Yt − s − µ ) = σ y2
2
2
[
]
E [(Yt − µ )(Yt − s − µ )] = E (Yt − j − µ )(Yt − j − s − µ ) = γ s
Eine Störung einer stationären Zeitreihe wird zeitlich begrenzten Einfluß besitzen. Im Zeitablauf wird die Wirkung eines Schocks ut auf die Entwicklung des Prozesses Yt sich je nach
Höhe von a1 zurückbilden. Der Prozeß kehrt zum Mittelwert zurück. Insgesamt weist eine
stationäre Zeitreihe drei charakteristische Eigenschaften auf:
1. Sie schwankt um ihren konstanten, langfristigen Mittelwert (mean-reversion).
2. Sie hat eine endliche, zeitunabhängige Varianz.
3. Der Zusammenhang zwischen einzelnen Beobachtungen, welche zeitlich weiter auseinander liegen, nimmt ab.
¾ Statistische Prozesse (ARMA)
ARMA-Modelle gehören zur Klasse der univariaten, linearen, stochastischen Modelle. Sie
sind univariat, weil Prognosen ausschließlich aufgrund historischer Daten der Zeitreihe berechnet werden. Sie sind linear, da die historischen Daten in linearer Form in das Modell eingehen und sie sind stochastisch, weil zufällige Einflußgrößen eingehen.
Die Abkürzung ARMA steht für AutoRegressive Moving Average. Das ARMA-Modell besteht aus zwei statistischen Prozessen, einem autoregressiven Prozeß der Länge p und einem
moving average Prozeß der Länge q. Das ARMA(p,q)-Modell hat also die Form
y t = c + a1 y t −1 + K + a p y t − p + ε t + b1ε t −1 + K + bq ε t − q
144424443 1444
424444
3
AR − Pr ozess
(17)
MA− Pr ozess
wobei εt ein white noise-Prozeß ist.
ƒ
Moving Average-Prozeß
Ein stochastischer Prozeß Yt heißt moving average-Prozeß erster Ordnung (MA[1]-Prozeß),
wenn er die Form
Yt = µ + ε t + b1ε t −1
(18)
hat, wobei εt die white noise Eigenschaften besitzt. Der Prozeß heißt moving average, da er
ähnlich einem gewichteten Mittel der letzten zwei Störungen berechnet wird. Der Erwartungswert des MA(1)-Prozesses ist E(Yt) = µ, während die Varianz von Yt sich als
(
)
E (Yt − µ ) = E (ε t + b1ε t −1 ) = 1 + b12 σ 2
2
2
7
(19)
14.06.07
Skript zur Vorlesung Theorie der Geldpolitik
berechnen läßt.
Abb.3 zeigt einen MA(1)-Prozeß mit Mittelwert µ=0 und standardnormalverteilten Störungen.
Zu erkennen ist ein stark erratisches Schwanken der Beobachtungen um den Mittelwert, wobei einzelne Störungen schnell Einfluß auf den Verlauf der Zeitreihe verlieren.
3.00
b1 = 0.5
2.00
1.00
0.00
-1.00
-2.00
-3.00
1
10
19
28
37
46
55
64
73
82
91
100
Abb. 3a: MA(1)-Prozeß mit µ = 0 und b1=0.5
Noch schneller werden Störungen bei einem negativen moving average Parameter abgebaut.
3.00
2.00
1.00
0.00
-1.00
-2.00
b1 = - 0.5
-3.00
1
10
19
28
37
46
55
64
73
82
91
100
Abb. 3b: MA(1)-Prozeß mit µ = 0 und b1= -0.5
Wie an den Abbildungen wegen der häufigen Rückkehr zum Mittelwert leicht zu erkennen ist,
ist ein MA(1)-Prozeß stationär. Dies ist unabhängig vom Parameterwert b1.
ƒ
Autoregressive-Prozesse
Ein stochastischer Prozeß Yt heißt Autoregressiver Prozeß erster Ordnung (AR[1]-Prozeß),
wenn er die Form
Yt = c + a1Yt −1 + u t
(20)
besitzt, wobei ut ein white noise Prozeß ist. Ein AR[p]-Prozeß entspricht einer Differenzengleichung der Ordnung p. Für den Fall, dass ⎜a1⎜<1 handelt es sich um einen stationären Prozeß, während für den Fall ⎜a1⎜≥ 1 der stochastische Prozeß nicht-stationär ist (siehe Kapitel
II).
Der Erwartungswert eines stationären AR(1)-Prozeß ist demnach
E (Yt ) = µ = c (1 − a1 )
8
(21)
14.06.07
Skript zur Vorlesung Theorie der Geldpolitik
Seine Varianz berechnet sich als
(
)
E (Yt − µ ) = E u t + a1u t −1 + a12 u t −2 + a13u t −3 + a14 u t −1 + K
2
= (1 + a12 + a14 + a16 + K)σ 2
= σ 2 (1 − a12 )
2
(22)
In Abb.2 werden Beobachtungen von zwei unterschiedlichen stationären AR(1)-Prozessen mit
c=0 und standardnormalverteilten Störungen ut und verschiedenen autoregressiven Parametern a1 dargestellt.
8.00
6.00
4.00
a1 = 0.3
2.00
0.00
-2.00
-4.00
a1 = 0.9
-6.00
-8.00
1
10
19
28
37
46
55
64
73
82
91
100
Abb. 2: Autoregressive Prozesse mit Y0= 0
Die Zeitreihe mit a1=0.3 schwankt sehr erratisch um die Null-Linie (Mittelwert), Störungen
werden schnell abgebaut und es finden häufige Richtungswechsel im Zeitverlauf statt. Beobachtungen weisen selten ähnliche Werte hintereinander auf, so dass der Zusammenhang zwischen einzelnen Beobachtungen gering ist. Hingegen schneidet der Prozeß mit Parameter
a1=0.9 wesentlich seltener die Null-Linie. Störungen beeinflussen den Verlauf der Zeitreihe
wesentlich länger und eine Beobachtungen wird eher im selben Wertbereich zu finden sein als
die vorangegangenen Realisationen. Je höher der Wert des autoregressiven Parameters
ist, umso persistenter ist die Entwicklung.
ƒ
Arbeiten mit E-Views: Der Anfang
Nach dem Start des Ökonometrie Programms Eviews erscheint eine graue Arbeitsoberfläche.
Um mit Eviews arbeiten zu können, benötigt man zwei Dateien: eine Programm Datei und
eine Workfile Datei. Die Programm Datei enthält die zu bearbeitenden Befehle, das Workfile
die entsprechenden Zeitreihen, sowie zu einem späteren Zeitpunkt die Ergebnisse der Arbeit.
9
14.06.07
Skript zur Vorlesung Theorie der Geldpolitik
Program
ƒ
Workfile
Programm Start
Über die Befehlskette
→File →New→Program...
wird eine Programm Datei eröffnet werden. Es erscheint ein leeres Blatt. Als nächster Schritt
gilt es das Workfile zu erstellen. Dies kann auf zwei Wegen erfolgen:
1) durch den Befehl im Programm
workfile Laufwerk:\Pfad\Dateiname F Start Ende
wobei
F die Frequenz der Daten festlegt, also m für monatliche Werte, q für Quartale und u für
unbestimmt.
Start das Startdatum des Beobachtgungszeitraums bezeichnet also bspw. 1970:1
Ende das Ende der Beobachtungszeitraums bspw. 2003:12. Achtung: wird beabsichtigt
Prognosen zu errechnen, muß der Zeitraum länger als der Schätzzeitraum sein.
2) Durch den Befehl
→File →New→Workfile...
Danach erscheint eine Box in der man die Frequenz anklicken kann und das Start- und Enddatum eintragen kann, letztlich auf OK drücken.
ƒ
Daten einlesen
Als nächster Schritt gilt es die Daten einzulesen. Dies erfolgt über den Befehl „read“.
read(a=2,s=daten) Laufwerk:\Pfad\Dateiname.xls Anzahl
Der erste Ausdruck in der Klammer bezeichnet die erste eingelesene Zelle aus dem ExcelBlatt “daten“. Der zweite Ausdruck benennt das Blatt der Excel Datei, welches gelesen wer10
14.06.07
Skript zur Vorlesung Theorie der Geldpolitik
den soll. (s steht für sheet.) Wichtig ist zu beachten, dass bei dieser Form des Dateneinlesens,
keine Variablenbezeichnung neu vergeben werden. Es werden die in der ersten Zeile des Excelblattes verwendeten Variablenbezeichnungen eingelesen. In der Spalte A des Blattes befindet sich eine Zeitleiste, in der Zelle B1 horizontal folgende Zellen die Namen und in Zelle B2
fortfolgende die Zahlen.
Einige Standardbefehle
genr
erlaubt die Berechnung
smpl
bestimmt den Schätzzeitraum
equation
lautet der Schätzbefehl für eine Einzelgleichung
var
leitet die Schätzung einer Vektorautoregression (VAR)
impuls
generiert Impulsantwortfunktionen für VAR.
decomp
generiert eine Varianzzerlegung für VAR.
11
14.06.07
Skript zur Vorlesung Theorie der Geldpolitik
¾ Anhang4
ƒ
Lineares Modell in Matrizen Schreibweise.
In Matrizen-Schreibweise lautet das Modell
y = Xβ + u
wobei im einzelnen gilt
⎡ y1 ⎤
⎡ x1′ ⎤
⎢y ⎥
⎢ x′ ⎥
y ≡ ⎢ 2⎥
X ≡ ⎢ 2⎥
T xk
⎢M ⎥
⎢M⎥
T x1
⎢ ⎥
⎢ ⎥
⎣ yT ⎦
⎣ xT′ ⎦
−1
so dass der OLS-Schätzer βˆ = ( X ′X ) X ′y als
⎧
⎪
⎪
ˆ
β = ⎨[x1
⎪
⎪
⎩
x2
⎡ x1 ⎤ ⎫
⎢ x ⎥⎪
⎪
L xT ]⎢ 2 ⎥ ⎬
⎢ M ⎥⎪
⎢ ⎥⎪
⎣ xT ⎦ ⎭
−1
⎡ u1 ⎤
⎢u ⎥
u ≡ ⎢ 2⎥
T x1
⎢M⎥
⎢ ⎥
⎣uT ⎦
⎧
⎪
⎪
⎨[x1
⎪
⎪
⎩
x2
⎡ y1 ⎤ ⎫
⎢ y ⎥⎪
⎪
L xT ]⎢ 2 ⎥ ⎬
⎢ M ⎥⎪
⎢ ⎥⎪
⎣ yT ⎦ ⎭
berechnet wird.
ƒ
Eigenschaften der Projektionsmatrix MX
Die Projektionsmatrix MX ist eine TxT-Matrix. Sie ist Definiert als
M X ≡ I T − X ( X ′X ) X ′
−1
MX ist symmetrisch,
M X = M ′X
idempotent
MXMX = MX
und orthogonal zu Spalten von X
MXX =0
4
Siehe Hamilton, J. (1994): S. 201
12
14.06.07
Skript zur Vorlesung Theorie der Geldpolitik
II. Einheitswurzeln und Kointegration
¾ Die Einheitswurzel
Im Wesentlichen kommen zwei alternative Modelle als Charakterisierung von volkwirtschaftlichen Zeitreihen in Frage: Einerseits ein Prozess mit einem deterministischen Trend, welcher
ohne den linearen Trend stationär ist. Beispielsweise
Yt = c + b1t + u t
(23)
andererseits ein nicht-stationärer Prozess mit einer Einheitswurzel – zum Beispiel, ein Random-Walk mit Drift
Yt = c + Yt −1 + u t
(24)
wobei ut jeweils ein white noise Prozess ist. Die Bezeichnung „Einheitswurzel“-Prozess bezieht sich auf die Tatsache, dass die größte Wurzel der charakteristischen Gleichung den Wert
1 hat. Ausgehend von einem AR(1)-Prozess läßt sich unter Verwendung eines Lag-Operators
zeigen, dass die Wurzel der Random-Walk Gleichung a1=1 entspricht.
(1 − a1 L )Yt
= c + ut
(25)
20.00
15.00
10.00
5.00
Random-Walk mit Drift
(c=0,2)
0.00
-5.00
1
10
19
28
37
46
55
64
73
82
91
100
Perioden
Abb. 3: Random-Walk mit Drift
Bildet man hingegen die erste Veränderung von Yt, also ∆Yt= Yt - Yt-1, so kann leicht festgestellt werden, dass dieser Prozess nun stationär ist, weswegen Yt auch als Differenzenstationär bezeichnet wird. Alternativ wird Yt auch als I(1) bezeichnet - integriert erster Ordnung - weil Yt die einfache Summe aus unendlich vielen Störungen ist und damit einem Integral der Residuen ähnelt. In dem obigen Beispiel wird ein AR(1)-Prozess zugrunde gelegt. Im
Fall eines AR(p)-Prozess können mehr als eine Wurzel den Wert 1 besitzen – also multiple
Einheitswurzeln bestehen. Sind d Wurzeln gleich l – mithin die Zeitreihe I(d), muß d-mal
differenziert werden, damit die Zeitreihe stationär wird.
13
14.06.07
Skript zur Vorlesung Theorie der Geldpolitik
5.00
a1 = 0.9
2.50
0.00
-2.50
-5.00
a1 = 1
-7.50
-10.00
1
10
19
28
37
46
55
Perio d e
64
73
82
91
100
Abb. 4: Stationärer und nicht-stationärer Prozess im Vergleich
Eine nicht-stationäre Zeitreihe weist einige typische Eigenschaften auf:
1. Sie kehrt nicht oder selten zu einem langfristigen Durchschnittswert zurück.
2. Die Varainz ist zeitabhängig und bei t gegen unendlich nähert sich die Varianz auch unendlich.
3. Die zeitliche Korrelationen (Autokorrelationen) verringern sich kaum mit zunehmender
Periodenzahl zwischen den Zeitpunkten.
ƒ
Stochastische vs. deterministische Trends
In der Ökonometrie wird zwischen stochastischen und deterministischen Trends unterschieden. Beide Prozesse generieren stark trend-behaftete Zeitreihen. Zur besseren Darstellung der Konzepte werden die bereits verwendeten Modelle weiter vereinfacht:
Yt = Yt −1 + c
Yt = Yt −1 + u t
(26d)
(26s)
wobei c eine Konstante ist, während ut white-noise Eigenschaften besitzt. Werden die Prozesse auf den Zeitpunkt Null zurückgerechnet, so entstehen die Zeitreihen entsprechend der Gleichungen
Yt = Y0 + c ⋅ t
t
Yt = Y0 + ∑ u s
(27d)
(27s)
s =0
c·t ist ein deterministischer Trend, während die
∑u
t
s
s
den stochastischen Trend bildet. Wäh-
rend im deterministischen Fall (27d) die Änderung pro Periode konstant ist und im vorhinein
bekannt, fällt der Zuwachs im stochastischen Ansatz (27s) in jeder Periode unterschiedlich
aus und hat einen Erwartungswert von Null.
Viele makroökonomische Zeitreihen werden als I(1) betrachtet, beispielsweise wird dies häufig für das reale Bruttoinlandsprodukt unterstellt. Wäre dies der Fall, könnte ein monetärer
Schock permanente Effekte auf den gesamtwirtschaftlichen Output haben und damit dem Gedanken der Neutralität des Geldes widersprechen. Seit der grundlegenden Arbeit von Nelson/Plosser (1982) sind eine Vielzahl von Studien über die Existenz von Einheitswurzeln in
ökonomischen Daten vorgenommen worden – mit widersprüchlichen Ergebnissen. Dies liegt
in der Hauptsache an den angewendeten Testverfahren.
14
14.06.07
Skript zur Vorlesung Theorie der Geldpolitik
ƒ
Nicht-Stationaritätstest I: allgemeine Überlegungen
Um die Stationarität einer Zeitreihe zu bestimmen, muß untersucht werden, ob ⎢a1⎢<1 oder ≥1
ist. Ausgangspunkt des Tests auf Stationarität ist eine einfache OLS Regression der Gleichung
Yt = a1Yt −1 + u t
(28)
Unter der Annahme ⎢a1⎢<1 folgt der OLS-Schätzer einer Normalverteilung entsprechend
(
)
T (aˆ1 − a1 ) ~ N 0,1 − a12
(29)
Die Varianz in der Verteilung folgt aus der allgemeinen Formel für den OLS-Schätzer
σ 2 ( X ′X / T )−1 . Der „probability limit“ (plim) entspricht der Varianz von Yt also, plim
( X ′X ) T = Var (Yt ) , welcher nach Gleichung (22) σ 2 (1 − a12 ) . Daraus folgt dann das Ergeb-
nis für die Varianz σ 2 (σ 2 (1 − a12 )) = (1 − a12 ).
Für den Fall, dass a1=1 würde daraus folgen, dass die Abweichung des geschätzten Parameters vom wahren Wert eine Verteilung mit einer Varianz von Null besitzt, bzw. sich auf einen
Punkt reduzieren lässt. Des Weiteren lässt sich zeigen, dass im Fall a1=1 der Schätzer â1 hin
zum Wert Null verzerrt ist.5 Unter diesen Umständen ist die Konstruktion eines gewöhnlichen
t-Tests zur Überprüfung, ob a1=1 ist, unzulässig. Wird dennoch eine t-Statistik berechnet,
wird der Test zu häufig die Hypothese a1=1 ablehnen.
In einem grundlegenden Artikel haben Dickey und Fuller (1979) korrekte kritische Werte
veröffentlicht, um die Hypothese a1=1 zu testen. Die Werte wurden durch ein Monte-Carlo
Verfahren berechnet: Mehrere Tausend Einheitswurzelprozesse in unterschiedlichen Stichprobenlängen wurden simuliert und dann die entsprechenden a1-Parameter einer AR(1)Gleichung geschätzt. Beispielsweise lag bei Stichproben mit 100 Beobachtungen der Wert des
geschätzten Parameters für Gleichung (28) nur in 1% der Fälle unter dem Wert von –2.60.
Daraus ergibt sich der kritische Wert für das 1% Signifikanzniveau. Die errechneten kritischen Werte sind niedriger als die aus der Student- oder Normalverteilung, wie auch leicht
aus Abb. 5 zu sehen ist.
−1
10
9
7
t-Verteilung(29)
6
DF-Verteilung AR(1) ohne Drift
5
4
Normalverteilung
3
2
W ah rsch ein lich k eit
in %
8
1
0
-3
-2.5
-2
-1.5
-1
Test w ert
Abb. 5: Vergleich Normal-, t- und DF-Verteilung
5
Evans, G. Savin, N (1981): Testing for Unit Roots: I, in: Econometrica, Vol. 49,S. 753-779; und Evans, G. Savin, N
(1984): Testing for Unit Roots: II, in: Econometrica, Vol. 52,S. 1241-1269.
15
14.06.07
Skript zur Vorlesung Theorie der Geldpolitik
Je mehr deterministische Terme (Konstante und /oder linearer Trend) in der Schätzgleichung
des Dickey/Fuller-Tests (DF-Tests) enthalten sind, um so negativer sind die kritischen Werte.
Die Vorgehensweise für den Dickey-Fuller Test auf Einheitswurzel besteht darin, die Teststatistik
t=
aˆ1 − 1
σˆ aˆ1
(30)
zu berechnen und die Nullhypothese der Nicht-Stationarität abzulehnen, wenn die Teststatistik kleiner ist als der kritische Wert aus den Dickey-Fuller Tabellen. Wegen der Art ihrer
Erzeugung muß bei dem Ablesen der kritischen Wert genau auf die Übereinstimmung zwischen den Merkmalen der Verteilung (Spezifikation der Gleichung, Stichprobenlänge) und
der geschätzten Gleichung geachtet werden.
Die Unterscheidung von stationären und nicht-stationären Zeitreihen ist sehr schwierig bzw.
fast unmöglich, wenn nicht eine konkrete Alternative spezifiziert wird. Jeder nicht-stationärer
Prozess kann durch einen entsprechenden stationären Prozess angenähert werden und umgekehrt. Unter praktischen Gesichtspunkten lautet daher die Kernaussage: weisen die Daten eine
starke Trägheit oder Persistenz auf (ob stationär oder nicht), kann dies die Schlussfolgerungen
aus Schätzungen belasten.
ƒ
Nicht-Stationaritätstest II: Der (Augumented) Dickey-Fuller Test
Dickey/Fuller (1979) betrachteten drei verschiedene Spezifikationen für ihren Test auf Einheitswurzel, wobei γ = (a1 − 1)
∆y t = γy t −1 + u t
∆y t = a 0 + γyt −1 + u t
∆y t = a 0 + a 2 t + γy t −1 + u t
(31a)
(31b)
(31c)
Der DF-Test testet die Nullhypothese H0: γ =0 gegen die Alternative H1:γ <0. Während die
asymptotischen kritischen Werte auch bei Heteroskedastizität6 und Nicht-Normalität der Residuen ut gelten, müssen für die kritischen Werte bei kleinen Stichproben die Residuen normal
und i.i.d. verteilt sein. Autokorrelation in den Residuen darf also nicht vorhanden sein. Dies
hängt mit der Tatsache zusammen, dass die kritischen Werte durch Simulationen generiert
wurden die auf Gauß‘schen Weisen Rauschen beruhten. Abweichungen von dieser Annahme
verzerren die Verteilungswerte.
Sind die Residuen nicht frei von Autokorrelation, muß der sog. Augmented Dickey-Fuller
Test (ADF-Test) angewendet werden. Angenommen der Störterm folge seinerseits einem
AR(1)-Prozess ut =ρut-1 +εt. Demnach entspricht die Testgleichung (31b) beispielsweise:
∆y t = a 0 + γy t −1 + ρ (∆y t −1 − a 0 − γy t − 2 ) + ε t
welche sich durch Erweiterung um den Term γρy t −1 − γρy t −1 umformen lässt
∆y t = a 0 (1 − ρ ) + γy t −1 + ρ∆y t −1 + ( ργy t −1 − ργyt − 2 ) − γρy t −1 + ε t
∆y t = a 0 (1 − ρ ) + γ (1 − ρ ) y t −1 + ρ (γ + 1)∆y t −1 + ε t = a~0 + γ~y t −1 + a3 ∆y t −1 + ε t
6
Heteroskedastizität liegt vor, wenn die Schwankungen der Residuen nicht konstant sind.
16
(32)
14.06.07
Skript zur Vorlesung Theorie der Geldpolitik
Durch das Hinzufügen von verzögerten ∆Yt − p wird der Effekt des AR-Prozesses in den Residuen neutralisiert. In der Praxis wird die Schätzgleichung erweitert bis die verzögerten Terme
in der Schätzgleichung die Residuen white noise Eigenschaften besitzen. In der Regel bietet
es sich an, mit 12 (Monate-) oder 4 (Quartale-)Verzögerungen anzufangen, und dann sukzessive die weiter zurückliegenden, insignifikanten Verzögerungen zu eliminieren. Eine Reduktion der insignifikanten Parameter ist erforderlich, um die Trennschärfe (power) des Test
möglichst hoch zu halten. Unnötige zusätzliche Parameter reduzieren zudem die verfügbaren
Freiheitsgrade.
Der ADF-Test weist eine Reihe von Schwachstellen auf:
bei stark persistenten Zeitreihen wird zu selten die Nicht-Stationarität abgelehnt,
bei negativen MA-Prozessen wird zu häufig die Nicht-Stationarität abgelehnt,
Strukturbrüche in der Zeitreihe (z.B. Wiedervereinigung), lassen die Daten nicht-stationär
erscheinen
Saisonbereinigung der Zeitreihe kann die Wahrscheinlichkeit für die Ablehnung der
Nicht-Stationarität verringern.
Eine geeignete Vorgehensweise um ADF-Tests durchzuführen lautet mit dem allgemeinsten
Ansatz (general) anzufangen und ihn schrittweise zu vereinfachen (specific).
Schätzen des allgemeinen Ansatzes
∆yt = a0 + γ yt-1+ a2 t + Σ βi ∆yt-i +ut
Nein
Ist γ=0?
Nein
Wenn ja: Test auf Trend
Ist a2=0
gegeben γ=0?
Nein
Ja
Schätzen des Ansatzes
∆yt = a0 + γ yt-1 + Σ βi ∆yt-i +ut
STOP: yt
ist stationär
Ist γ=0 unter
Normalverteilung?
Ja
Nein
Ist γ=0?
Wenn ja: Test auf Konstante
Ist γ=0 unter
Nein
Normalverteilung?
Ist a1=0
gegeben γ=0?
yt hat eine
Einheitswurzel
STOP: yt
ist stationär
Ja
yt hat eine
Einheitswurzel
Ja
Schätzen des Ansatzes
∆yt = γ yt-1 + Σ βi ∆yt-i +ut
Nein
Ist γ=0?
STOP: yt
ist stationär
Ja
yt hat eine
Einheitswurzel
Abb. 6: Strategie für Augmented Dickey-Fuller - Test
Ein alternativer Ansatz um Nicht-Stationarität zu überprüfen, stellt der Test von PhillipsPerron dar. Die entgegengesetzte Nullhypothese der Stationarität kann durch den KPSS-Test
untersucht werden.
¾ Kointegration: Konzept und Tests.
Eine lineare Kombination von zwei I(1) Prozessen wird in der Regel ebenfalls I(1) sein. Gelingt es allerdings eine linear Kombination von Zeitreihen zu finden, bei denen das Ergebnis
I(0) ist, bilden die Zeitreihen eine Kointegrationsbeziehung. Kointegration beschreibt eine
langfristige „Gleichgewichtsbeziehung“ zwischen den ökonomischen Größen. In diesem Fall
17
14.06.07
Skript zur Vorlesung Theorie der Geldpolitik
bewegen sich die Zeitreihen im Zeitablauf im Grossen und Ganzen ähnlich. Beispielsweise
könnte das Einkommen yt und der reale Konsum ct beide I(1) sein, die reale Ersparnis
(st =yt – ct) jedoch stationär sein.7 Allgemeiner wird Kointegration durch die Beziehung beschrieben
β 1 y t = β 2 xt + ε t
(33)
wobei εt ∼I(0) ist und β = [β 1 , β 2 ] den Kointegrationsvektor bildet. Hierbei gilt, dass das Residuum der Kointegrationsbeziehung εt immer einen Integrationsgrad weniger als die
Urspungszeitreihen besitzt .Vier weitere, wichtige Eigenschaften sollen nun näher beleuchtet
werden:
1. Kointegration beschreibt eine linear Kombination von nicht stationären Variablen. Ein
Kointegrationsvektor [β1,β2] ist nicht eindeutig bestimmt, da eine linear Transformation
[λβ1, λβ2] ebenfalls einen Kointegrationsvektor darstellt. In der Regel wird deshalb der
Vektor normalisiert, also der Parameter β1 gleich 1 gesetzt.
2. Alle Variablen im Kointegrationsvektor müssen den selben Integrationsgrad aufweisen.
3. In der Regel beschäftigt sich die Kointegrationsanalyse mit ursprünglichen I(1) Zeitreihen, deren Kombination I(0) ist. Allerdings kann ebenfalls Kointegration zwischen mehreren I(2) Variablen bestehen, deren Kombination dann I(1) ist.
4. Werden n Variablen in der Analyse untersucht können bis zu n-1 linear unabhängige
Kointegrationsvektoren bestehen. Im bivariaten Fall kann also höchstens ein Vektor auftreten. Mit Kointegrationsrang wird die Anzahl unabhängiger Kointegrationsvektoren bezeichnet.
Im Rahmen eines Gleichgewichtsansatzes kann eine Abweichung vom Gleichgewicht εt nur
kurzfristiger Natur sein und induziert eine Anpassung hin zum Gleichgewicht, also eine „Fehler-Korrektur“. Insofern muß zwischen der langfristigen (dynamischen) Beziehung, welche
den gemeinsamen Pfad der ökonomischen Größen beschreibt und der kurzfristigen Anpassungsdynamik nach Abweichungen unterschieden werden.
ƒ
Kointegration und gemeinsamer Trend Prinzip
In ihrem grundlegenden Papier verwenden Stock und Watson (1988) als Ausgangspunkt den
Gedanken, dass eine I(1)- Zeitreihe einen stochastischen Trend besitzt. Zwei Zeitreihen die
mit einander kointegriert sind, müssen aber einem gemeinsamen Trend folgen. Um dies zu
verdeutlichen wird der einfachheithalber ein Ansatz mit zwei Variablen verwendet: yt (reales
Einkommen) und ct ( realer Konsum). Beide Variablen seien I(1) und lassen sich in einen stochastischen Trend, also beispielsweise einen Random-Walk, und einen stationären Störterm
zerlegen. Also
y t = µ yt + ε yt
ct = µ ct + ε ct
wobei µ den stochastischen Trend der jeweiligen Variablen erfaßt,
εt stellt den stationären Störterm der jeweiligen Variablen dar.
7
Neben der Konsumtheorie sind die Geldnachfragetheorie, die Kaufkraftparitätentheorie und die offene Zinsparitätentheorie wichtige mögliche Anwendungsbeispiele für Kointegrationsmodelle.
18
14.06.07
Skript zur Vorlesung Theorie der Geldpolitik
in M rd. USD (log)
4.0
Y
3.8
3.6
C
3.4
3.2
3.0
1967
1970
1973
1976
1979
1982
1985
1988
1991
1994
1997
2000
2003
Abb. 7: US BIP und Konsum (real) folgen gemeinsamen Trend
Wenn yt und ct kointegiert sind CI(1,1) – also die Ersparnis I(0) stationär – muß es von Null
verschiedene Werte für die Parameter β1 und β2 geben, damit die linear Kombination β1yt +
β2ct stationär ist. Im Fall des Ersparnis z.B. β1=1 und β2= -1. Genauer gesagt
β 1 yt + β 2 ct = β 1 (µ yt + ε yt ) + β (µ ct + ε ct )
= (β 1 µ yt + β 2 µ ct ) + (β 1ε yt + β 2 ε ct )
(34)
Um Stationarität zu gewährleisten muß der Ausdruck (β 1 µ yt + β 2 µ ct ) verschwinden, denn
wenn einer der stochastischen Trends in (β 1 µ yt + β 2 µ ct ) enthalten bliebe, könnte die linear
Kombination nicht stationär sein. Die notwendige und hinreichende Bedingung für Kointegration ist demnach,
β 1 µ yt + β 2 µ ct = 0
(35)
Da Eingangs die Parameter β1 und β2 als ungleich Null angenommen wurden, folgt dass die
stochastischen Trends identisch sein müssen. Zwei I(1) Variablen, welche miteinander
kointegriert sind, folgen dem gleichen stochastischen Trend.
ƒ
Kointegration und Fehler-Korrektur
Im Zeitverlauf werden also zwei Variablen, die kointegriert sind, sich gemeinsam entwickeln.
Zwar können die stationären Störungen die kurzfristige Dynamik bestimmen. Um jedoch ins
Gleichgewicht zurückzukehren wird die langfristig die Entwicklung von Abweichungen von
der Gleichgewichtsbeziehung bestimmt. Zur Veranschaulichung soll im weiteren unterstellt
werden Realeinkommen (yt) und der reale Konsum (ct) seien beide I(1) und es bestünde eine
Kointegrationsbeziehung. Auch theoretisch besteht nach der Konsumtheorie zwischen dem
Einkommen und dem Konsum ein Zusammenhang. In Abb. 8 wird dieser Zusammenhang
durch eine Gerade dargestellt. Wenn beispielsweise das Einkommen größer ist als der Konsum im langfristigen Gleichgewicht üblich (Punkt A), wird der Konsum relativ zum Einkommen steigen müssen um zum Gleichgewicht zurückzukehren. Verschiedene Anpassungsvorgänge sind denkbar, die eine detaillierte Modellierung der kurzfristigen Dynamik erforderlich machen. Ein Modell dass diese Anpassungen abbildet nennt sich Fehler Korrektur–
Modell (FKM). Die Veränderung ∆ der Variablen wird von der Abweichung von der Gleichgewichtsbeziehung beeinflußt.
19
14.06.07
Skript zur Vorlesung Theorie der Geldpolitik
c
(c - βy)<0
B
c = βy
αc= 0
αy= 0
A
(c - βy)>0
y
Abb. 8: Abweichung vonm Gleichgewicht und Anpassungsverhalten
Der folgende Ansatz beschreibt die dynamische Interaktion
∆y t = α y (ct −1 − β y t −1 ) + u yt
∆ct = −α c (ct −1 − β y t −1 ) + u c t
(36a)
(36b)
wobei uyt und uct jeweils einen white noise Störterme bezeichnen. αy, αc, β >0. In diesem Beispiel stellt β die gleichgewichtige Konsumquote dar. Das Realeinkommen und der Konsum
verändern sich auf Grund der Störterme und in Abhängigkeit vom Ungleichgewicht zwischen
dem Konsum und dem gleichgewichtigen Konsumwert der vergangenen Periode. Ist der Konsum in der vergangenen Periode ct-1 beispielsweise kleiner als βy t-1 = c*, so wird der Konsumzuwachs in Periode t zunehmen. Der Konsum steigt um das Ungleichgewicht mal αc.
Gleichzeitig kommt es zu einer Verringerung des Einkommenswachtums.
Die Parameter αc, αy werden als „load factors“ bezeichnet; tatsächlich beschreiben sie die
Anpassungsgeschwindigkeit zum Gleichgewicht. Von ihrer relativen Größe hängt der Rückkehrpfad zum Gleichgewicht ab. Ist ein Anpassungsparameter Null wird die gesamte Anpassung über die andere Gleichung erfolgen (siehe Punkt B). Ein „load factor“ muss mindestens
von Null signifikant abweichen, damit das Fehler Korrektur-Modell seine Eigenschaften entfalten kann.
Per Konstruktion sind die Veränderungen und per Annahme die Störterme I(0). Um die Gleichungen zu balancieren muß der Fehler-Korrektur-Term ebenfalls I(0) sein, also die Variablen miteinander kointegriert sein. Ein allgemeineres Modell kann formuliert werden, in dem
die kurzfristige Dynamik komplexer abgebildet werden kann:
∆y t = α y (ct −1 − β y t −1 ) + ∑ α 11 (i )∆y t −i + ∑ α 12 (i )∆ct −i + u yt
∆ct = −α c (ct −1 − β y t −1 ) + ∑ α 21 (i )∆y t −i + ∑ α 22 (i )∆ct −i + u ct
ƒ
(37a)
(37b)
Der zweistufige Ansatz von Engle-Granger zur Schätzung von Fehler-Korrektur-Modellen
Die einfachste Methode ein Fehler-Korrektur-Modell zu schätzen ist der zweistufige Ansatz
von Engle und Granger. Er besteht im wesentlichen aus drei Schritten:
20
14.06.07
Skript zur Vorlesung Theorie der Geldpolitik
1. Für die Variablen der vermuteten Kointegrationsbeziehung, beispielsweise ct, yt, wird der
Integrationsgrad mit Hilfe des ADF- oder Phillips-Perrons Test festgestellt.
Sind die Variablen unterschiedlichen Grades –liegt keine Kointegration vor.
Sind die Variablen beide stationär – liegt ebenfalls keine Kointegration vor.
Sind die Variablen gleichen Integrationsgrades kann mit Schritt 2 fortgefahren werden
2. Die langfristige Gleichgewichtsbeziehung wird mit OLS geschätzt.
ct = β 0 + β 1 y t + z t
(38)
Wenn die Variablen eine Kointegrationsbeziehung bilden, sind die mit OLS geschätzten
Parameter super-konsistente Schätzer. D.h. vereinfacht, der OLS-Schätzer konvergiert
schneller auf den wahren Wert hin als bei stationären Modellen. Eine Interpretation der tStatistik wäre demnach verfehlt. Allerdings sind die Punktschätzer für β̂ 0 , β̂ 1 zuverlässig.
Um die Kointegration festzustellen, werden die geschätzten Resdiuen ẑ t berechnet. Sind
im Beispiel Konsum und Einkommen I(1) und kointegriert, muß das Residuum zthat I(0)
sein. Dies wird durch Einheitswurzeltests (bspw. ADF) überprüft:
∆zˆ t = γzˆ t −1 + u t
(39)
Da ẑ t aus den Residuen einer Regression mit einer Konstanten gebildet worden ist, muß
die Testgleichung keine Konstante enthalten. Besitzt der Störterm ut nicht die white noise
Eigenschaft, müssen der Gleichung weitere Verzögerungen hinzugefügt werden, um die
Autokorrelation zu erfassen.
Die entscheidende Frage lautet, ob die Nullhypothese γ = 0 abgelehnt werden kann. Wenn
die Hypothese nicht abgelehnt wird, besteht KEINE Kointegration, sondern die Residuen
enthalten vermutlich eine Einheits-wurzel.8 Wird hingegen die Nullhypothese γ = 0 abgelehnt, folgt, dass die Residuen stationär und die Variablen kointegriert sind.
Erschwert wird der Test durch die Tatsache, dass die normale Dickey-Fuller Verteilung
nicht benutzt werden kann. Dies hängt mit dem Konstruktionsverfahren für die Verteilung
zusammen. Allerdings hat MacKinnon (1991) allgemeingültige Kritische Werte für verschiedene Spezifikationen des „ADF-Kointegrationstests“ berechnet.9
3. Ist ẑ t stationär, wird die Residuenzeitreihe als Erklärungsvariable in die Regression der
kurzfristigen Dynamik aufgenommen und die Gleichungen mit OLS geschätzt:
∆y t = α y (ct −1 − β y t −1 ) + ∑ α 11 (i )∆y t −i + ∑ α 12 (i )∆ct −i + u yt
∆ct = −α c (ct −1 − β y t −1 ) + ∑ α 21 (i )∆y t −i + ∑ α 22 (i )∆ct −i + u ct
(37a)
(37b)
Da alle Regressoren in den Gleichungen stationär sind, können normale t-Tests für die
Signifikanzüberprüfung verwendet werden. Ein Überprüfung der Spezifikation sollte in
einem letzten Schritt vorgenommen werden. Besitzen die Störterme nicht die notwendigen White-Noise Eigenschaften, müssen den Gleichungen zusätzliche Verzögerungen
hinzugefügt werden
8
Genau genommen: Wenn die Hypothese nicht abgelehnt werden kann, kann nicht abgelehnt werden, dass die Variablen nicht kointegriert sind.
9
MacKinnon, J. G. (1991). "Critical values for cointegration tests", in: Engle, R. F., and Granger, C. W. J.(hrsg.),
Long-Run Economic Relationships, S. 267--276. Oxford: Oxford University Press.
21
14.06.07
Skript zur Vorlesung Theorie der Geldpolitik
In einem ersten Schritt ist die Schätzung beider Gleichungen vorzunehmen, um festzustellen in welcher Richtung der Fehler-Korrektur-Term wirkt. Ein System von Gleichungen
die dieselben Regressoren besitzt wird auch als Vektor Autoregression (VAR) bezeichnet.
¾ Modellierungsstratgie und Test-Theorie
Die überlegene Vorgehensweise zur Konstruktion eines datenkongruenten Modells geht von
einer allgemeinen Ausgangsgleichung aus, die schrittweise vereinfacht wird (general to specific methodology). In die allgemeine Gleichung finden erklärende Variablen Eingang auf
Grund von theoretischen Überlegungen oder auf Grund von Erfahrungen aus vorangegangenen Untersuchungen.
Ökonomisches M odell
Ökonomet risches M odell
Dat en nicht erhält lich:
neu spezif izieren
Dat en beschaf f en
M odell schät zen
M odell inadäquat :
neu spezif izieren
M odell adäquat :
vereinf achen
M odell t est en
Prognosen erst ellen
Berat ung
Abb. 9: Die ökonometrische Vorgehensweise nach Ramanathan
Die Konsistenz der Schätzergebnisse der allgemeinen Spezifikation mit der ökonomischen
Theorie kann anhand der oben besprochenen t- und F- Tests überprüft werden. Um die Angemessenheit der Verteilungsannahmen dieser Tests zu gewährleisten, müssen die Residueneigenschaften der Schätzgleichungen mit den theoretischen Annahmen hinsichtlich Verteilung
der Störterme übereinstimmen, also beispielsweise ob Gauß‘sches Weisses Rauschen vorliegt.
Dies wird anhand von sogenannten „Spezifikationstests“ überprüft.
ƒ
Arbeiten mit E-Views: ADF-Test und Kointegtration in Praxis
Die Durchführung von Einheitswurzeltests mit Eviews ist relativ einfach. Sie können zum
einen natürlich dieSchätzgleichung "zu Fuß" aufstellen und mit OLS schätzen. Zum anderen
ist jedoch der ADF-Test vorprogrammiert. Durch Anklicken der Befehle in der Menüleiste
→Quick →Series Statistics → Unit Root Tests...
erscheint eine Eingabemaske in der das Kürzel der zu testenden Variable eingegeben werden
kann. Eine weitere Maske ermöglicht die Auswahl des Einheitswurzeltestes, die Spezifikation
und die Anzahl der Verzögerungen
22
14.06.07
Skript zur Vorlesung Theorie der Geldpolitik
Um die Feststellung des Integrationsgrades einer Variable zu beschleunigen, ermöglicht Eviews durch Anklicken in der Rubrik "Test for unit root in", die Durchführung des Tests im
Ausgangsniveau oder in automatisch berechneten 1. bzw. 2. Differenzen. Dies müssen dann
nicht eigenständig generiert werden. Desweiteren ermöglicht Eviews die Auswahl eines Kritieriums zur Lag-Längenbestimmung, sowie die maximale Anzahl von Verzögerung von der
aus vereinfacht werden soll. Die Durchführung des Tests für Quartalswert des logarithmierten
Ölpreises (LOIL) ergibt folgenden Output:
ADF Test Statistic
-2.650903
1% Critical Value*
-3.4911
5% Critical Value
-2.8879
10% Critical Value
-2.5807
*MacKinnon critical values for rejection of hypothesis of a unit root.
Augmented Dickey-Fuller Test Equation
Dependent Variable: D(LOIL)
Method: Least Squares
Date: 12/19/02 Time: 08:29
Sample(adjusted): 1978:2 2005:2
Included observations: 109 after adjusting endpoints
Variable
Coefficient Std. Error t-Statistic
LOIL(-1)
-0.093163 0.035144 -2.650903
D(LOIL(-1))
0.266561 0.095129
2.802113
D(LOIL(-2))
-0.118899 0.096976 -1.226066
D(LOIL(-3))
0.266260 0.095685
2.782669
D(LOIL(-4))
-0.050316 0.097424 -0.516459
C
0.281522 0.104550
2.692695
R-squared
0.154031 Mean dependent var
Adjusted R-squared
0.112964 S.D. dependent var
S.E. of regression
0.134372 Akaike info criterion
Sum squared resid
1.859744 Schwarz criterion
Log likelihood
67.20023 F-statistic
23
Prob.
0.0093
0.0061
0.2230
0.0064
0.6066
0.0083
0.007927
0.142672
-1.122940
-0.974792
3.750769
14.06.07
Skript zur Vorlesung Theorie der Geldpolitik
Durbin-Watson stat
2.017871 Prob(F-statistic)
0.003682
Das Ergebnis in der ersten Zeile (-2.650903) liegt betragsmäßig unter den krtischen 1% bzw.
5% kritischen Wert für. Die Nullhypothese wird nicht abgelehnt. Die weiteren Angaben zeigen dieEigenschaften der Schätzgleichung auf. Zu beachten ist die Tatsache, dass der ADFTestwert auch als t-Testwert in der Zeile LOIL(-1) auftaucht und dort signifikant ausgewiesen
wird.
24
14.06.07
Skript zur Vorlesung Theorie der Geldpolitik
IV. Quellenangaben
Enders, W. (1995): Applied Econoetric Time Series
Evans, G. Savin, N (1981): Testing for Unit Roots: I, in: Econometrica, Vol. 49,S. 753-779
Evans, G. Savin, N (1984): Testing for Unit Roots: II, in: Econometrica, Vol. 52,S. 12411269.
Greene, W. (1995): Econometric Analysis
Gujarati, D. (1995): Basic Econometrics, London
Hamilton, J. (1994): Time Series Analysis, Princeton
Hendry, D. (1994): Dynamic Econometrics, Oxford.
MacKinnon, J. G. (1991). "Critical values for cointegration tests", in: Engle, R. F., and
Granger, C. W. J.(hrsg.), Long-Run Economic Relationships, S. 267--276. Oxford: Oxford
University Press.
Quantitative Micro Sofftware (2000): Eviews 4.0 User's Guide, Irvine
Söderlind, P. (2002): Lecture Notes for Econometrics, Strockholm School of Economics, zu
finden auf http://www.hhs.se/personal/psoderlind/
Sims, T. (1980): Macroeconomics and Reality, Econometrica, Bd. 48, S. 1-48.
25
Herunterladen