AR-, MA- und ARMA-Prozeß weißes Rauschen random walk

Werbung
Stochastische Prozesse und Box-Jenkins Technik
Stichwörter:
AR-, MA- und ARMA-Prozeß
weißes Rauschen
random walk
Autokorrelations-Funktion
Stationarität
Invertierbarkeit
Korrelogramm
Box-Jenkins Technik
o1-15.tex/0
Stochastischer Prozeß
ist eine Folge {Yt, t = 1, . . . , n} von Zufallsvariablen Yt, die
in t = 1, . . . , n beobachtet werden.
Zeitreihe: eine Realisation von {Yt, t = 1, . . . , n}
Gemeinsame Verteilung der Yt
p(y1, . . . , yn)
Strenge Stationarität:
p(yt, . . . , yt+k ) = p(yt+s, . . . , yt+s+k )
für beliebige ganze Zahlen t, s und k > 0
schwache Stationarität:
µt = E{Yt} = E{Yt+s} = µt+s
γkt = Cov{Yt, Yt+k } = Cov{Yt+s, Yt+k+s} = γk,t+s
für beliebige ganze Zahlen t, s und k > 0
o1-15.tex/1
Autokorrelations-Funktion
γkt = Cov{Yt, Yt+k }
bei Stationarität:
γkt = γk
für beliebige ganze Zahlen t und k > 0
Symmetrie:
γ−k = Cov{Yt, Yt−k }
= Cov{Yt−k , Yt} = Cov{Yt, Yt+k } = γk
Autokorrelations-Funktion (ACF)
γk
ρk = , k = 0, ±1, . . . ,
γ0
mit γ0 = Cov{Yt, Yt} = Var{Yt}
empirische Autokorrelations-Funktion (Korrelogramm):
Pn−k
rk =
o1-15.tex/2
t=1
(yt − ȳ)(yt−k − ȳ)
Pn
2
t=1 (yt − ȳ)
AR(1)-Prozeß
Yt = ϕYt−1 + εt,
X i
=
ϕ εt−i
εt ∼ IID(0, σ 2)
i
Wenn
|ϕ| < 1
ergeben sich
σ2
Var{Yt} =
1 − ϕ2
ϕk
2
Cov{Yt, Y t − k} =
σ
1 − ϕ2
Man nennt |ϕ| < 1 die Stationaritäts-Bedingung
Autokorrelations-Funktion:
ρk = ϕk
für k = 0, ±1, . . .
o1-15.tex/3
Einige Korrelogramme
o1-15.tex/4
retail sales
o1-15.tex/5
retail sales, ACF
o1-15.tex/6
retail sales, ACF Forts.
o1-15.tex/7
MA(1)-Prozeß
Yt = εt − θεt−1,
εt ∼ IID(0, σ 2)
stets stationär
Momente:
• Var{Yt} = σ 2(1 + θ2)
• Cov{Yt, Yt−1} = −θσ 2 = Cov{Yt, Yt+1}
• für |k| > 1: Cov{Yt, Yt−k } = 0
• Autokorrelations-Funktion:



θ
− 1+θ
2 k = 1
ρk = 

0
k>1
Invertierbarkeit, d.h., daß εt als Funktion von Yt−i, i ≥ 0,
darstellbar ist, setzt voraus, daß |θ| < 1:
Yt = +εt − θYt−1 − θ2Yt−2 − . . .
Voraussetzung: θs → 0 für s → ∞ oder |θ| < 1.
o1-15.tex/8
MA(q)-Prozeß
Yt = εt − θ1εt−1 − . . . − θq εt−q
= (1 − θ1L − . . . − θq Lq )εt = Θ(L)εt
mit εt ∼ IID(0, σ 2)
stets stationär
Autokorrelations-Funktion:
ρk =
 P
q−k


θi θi+k

i=0

Pq
2
i=0 θi




0
k = 1, . . . , q
k>q
Invertierbarkeit setzt voraus, daß für alle Wurzeln zi aus
Θ(z) = 0 gilt:
|zi| > 1
In EViews: Inverted Roots kleiner als Eins!
o1-15.tex/9
Weißes Rauschen
Weißes Rauschen (white noise)
Yt = ε t ,
εt ∼ IID(0, σ 2)
können wir als MA(0)-Prozeß ansehen
Momente:
µ = 0
σ2 k = 0
γk = 
 0 k =
6 0


ρk =



1 k=0

 0 k =
6 0
Weißes Rauschen ist ein stationärer Prozeß
o1-15.tex/10
AR(1)-Prozeß
Yt = ϕYt−1 + εt,
εt ∼ IID(0, σ 2)
oder
Yt − ϕYt−1 = (1 − ϕL)Yt = Φ(L)Yt = εt
Aus Yt =
P
iϕ
i
εt−i ergibt sich
|ϕ| < 1
als Stationaritäts-Bedingung
Yt ist stationär, wenn die Wurzel z1 aus Φ(z) = 0 erfüllt:
|zi| = |ϕ−1| > 1
Autokorrelations-Funktion:
ρk = ϕk
für k = 0, ±1, . . .
o1-15.tex/11
Der random walk
random walk Prozeß
Yt = Yt−1 + εt,
εt ∼ IID(0, σ 2)
Ist ein Spezialfall des AR(1)-Prozesses mit ϕ = 1
Momente:
µt = µt−1
Var{Yt} = Var{Yt−1} + σ 2 6= Var{Yt−1}
Yt ist nicht stationär (∆Yt ist stationär!)
Xt heißt integriert von der Ordnung 1 [Xt ∼ I(1)],
wenn Xt nicht stationär, aber ∆Xt stationär ist.
Yt heißt integriert von der Ordnung d, wenn Yt ∼ I(d), d.h.,
wenn ∆dYt stationär
zeigen Monatsdaten (Quartalsdaten) eine Saisonalität, so ist
oft eine Differenzenbildung mit ∆12 = 1 − L12 [∆4 = 1 − L4]
notwendig, um einen stationären Prozeß zu erhalten
o1-15.tex/12
AR(p)-Prozeß
Yt = ϕ1Yt−1 + . . . + ϕpYt−p + εt,
εt ∼ IID(0, σ 2)
Für γk = Cov{Yt, Yt−k } (und ρk ) ergibt sich eine Differenzengleichung für k = 1, 2, . . .
γk = ϕ1γk−1 + . . . + ϕpγk−p
(Yule-Walker Gleichungen)
Beispiel: p = 2
Yt = ϕ1Yt−1 + ϕ2Yt−2 + εt
Die Yule-Walker Gleichungen für die ρk , k = 1, 2, lauten
ρ1 = ϕ1 + ϕ2ρ1
ρ2 = ϕ1ρ1 + ϕ2
daraus folgt
ρ1 =
ϕ1
1 − ϕ2
ϕ21
ρ2 = ϕ2 +
1 − ϕ2
Allgemeine Lösung der Differenzengleichung
ρk = A1z1k + A2z2k
o1-15.tex/13
ARIMA-Prozesse
Der Prozeß {Yt, t = 1, . . . , n} mit
wt − ϕ1wt−1 − . . . − ϕpwt−p = δ + εt − θ1εt − . . . − θq εt−q
wobei wt = ∆dYt und εt ∼ IID(0, σ 2)
oder
Φ(L)wt = δ + Θ(L)εt,
εt ∼ IID(0, σ 2)
heißt ARIMA(p, d, q)-Prozeß. Gilt d = 0, so spricht man
von einem ARIMA(p, 0, q)- oder ARMA(p, q)-Prozeß.
Stationarität: Wurzeln zi aus Φ(z) = 0 erfüllen |zi| > 1
Invertibilität: Wurzeln zi aus Θ(z) = 0 erfüllen |zi| > 1
o1-15.tex/14
Stationarität und Invertibilität
o1-15.tex/15
Empirische Autokorrelations-Funktion
Beurteilung der Stationarität: Vergleich der empirischen Autokorrelations-Funktion mit theoretischer ACF
empirische Autokorrelations-Funktion:
P
ρ̂k = rk =
(Yt − Ȳ )(Yt+k − Ȳ )
,
P
(Yt − Ȳ )2
k = 0, ±1, . . .
rk wird auch Korrelogramm genannt
Es gilt (Bartlett, 1946)


q
1
X
Var{rk } =˙
1 + 2 ρ2i 
n
i=1
für k > q, wenn ρj = 0 für alle j > q.
o1-15.tex/16
Box-Jenkins Technik
Verfahren zum Spezifizieren, Schätzen und Prüfen von Modellen für ARIMA-Modellen
1. Identifikation, d.i. das Festlegen von p, d, und q durch
Inspektion der Autokorrelations-Funktion und partiellen
Autokorrelations-Funktion
2. Schätzen der Parameter; nichtlineares Problem außer,
wenn q = 0
3. Diagnostische Prüfung des Modells durch Analyse der
Residua
et = Θ̂−1(L)[Φ̂(L)wt − δ̂]
mit wt = ∆dYt
Box-Pierce Test:
Q=n
K
X
ri2 ∼
˙ χ2(K − q − p)
mit
P
rk =
o1-15.tex/17
etet−k
e2t
P
Box-Jenkins Technik in EViews
ARMA(p, q)-Modell
Yt = β0 + ut
mit
ut = ϕ1ut−i . . . ϕput−p + εt − θ1εt − . . . − θq εt−q
1. Identifikation, d.i. das Festlegen von p und q mit Hilfe
von “View/Correlogramm...”
2. Schätzen in “Specify/Estimate” etc. mit
depvar c ar(1) ...ar(p) ma(1) ...ma(q)
3. Diagnostische Prfung mit Hilfe von “View/Correlogramm...”,
angewendet auf Residuen
ARIMA(p, d, q)-Modell: Identifikation von d (wie oben), Berechnung der Variablen d(depvar,d) und Schritte 2 und 3
wie oben
o1-15.tex/18
Herunterladen