Stochastische Prozesse WS 2008/09

Werbung
Stochastische Prozesse
WS 2008/09
Vorlesung von Priv.-Doz. Dr. J. Dippon
26. Februar 2009
Inhaltsverzeichnis
1 Erneuerungstheorie
1.1 Elementare Eigenschaften von Erneuerungsprozessen .
1.2 Der Hauptsatz der Erneuerungstheorie . . . . . . . . .
1.3 Verzögerte Erneuerungsprozesse . . . . . . . . . . . . .
1.4 Anwendungen des Hauptsatzes der Erneuerungstheorie
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2
2
5
8
10
2 Markov-Ketten mit abzählbarem Indexbereich
13
2.1 Grundbegriffe aus der Theorie der Markov-Ketten . . . . . . . . . . . . . . 13
2.2 Asymptotisches Verhalten homogener Markov-Ketten . . . . . . . . . . . . 16
2.3 Anzahl der Kunden bei M/G/1 unmittelbar nach der Bedienung des n-ten
Kunden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3 Grundbegriffe aus der Theorie der Markov-Prozesse
3.1 Definition und Konstruktion von Markovschen Prozessen
3.2 Zur Stetigkeit von Pfaden bei Markov-Prozessen . . . . .
3.3 Wiener- und Poisson-Prozess . . . . . . . . . . . . . . . .
3.4 Diffusionsprozesse . . . . . . . . . . . . . . . . . . . . . .
3.5 Markovsche Sprungprozesse . . . . . . . . . . . . . . . .
4 Aspekte der Theorie stationärer Prozesse
4.1 Stationäre Prozesse, Gauß-Prozesse, stationäre
4.2 Ergodensätze . . . . . . . . . . . . . . . . . .
4.3 Zeitreihen . . . . . . . . . . . . . . . . . . . .
4.3.1 Schätzung des Trends . . . . . . . . . .
4.3.2 Schätzung der saisonalen Komponente
4.3.3 Stationäre Zeitreihen . . . . . . . . . .
4.3.4 Vorhersage . . . . . . . . . . . . . . . .
Literatur
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Gauß-Prozesse
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
21
21
23
24
25
27
.
.
.
.
.
.
.
28
28
30
32
32
32
33
33
35
1
Kapitel 1
Erneuerungstheorie
Ausgangspunkt der Erneuerungstheorie ist die folgende Fragestellung: Ein Bauelement
mit endlicher zufälliger Lebensdauer wird bei Ausfall durch ein gleichartiges Bauelement
ersetzt. Welches wahrscheinlichkeitstheoretische Verhalten hat die Zufallsvariable, welche
die Anzahl der Erneuerungen in einem vorgegebenen Zeitintervall angibt?
1.1
Elementare Eigenschaften von Erneuerungsprozessen
Definition 1.1. Sei (Xn )n∈N eine unabhängige Folge identisch verteilter nichtnegativreeller Zufallsvariablen auf einem W-Raum (Ω, A, P ). Die zugehörige Partialsummenfolge
(Sn )n∈N mit Sn := X1 + . . . + Xn heißt (gewöhnlicher) Erneuerungsprozess in R+ . Die
Familie {Na : a ∈ R+ } der erweitert-reellen Zufallsvariablen
Na := N (a, ·) := sup{k ∈ N|Sk ≤ a}
mit sup ∅ := 0 (stochastischer Prozess mit Indexbereich R+ und Zustandsraum R+ ) heißt
der zum Erneuerungsprozess (Sn ) gehörige Zählprozess. Die Funktion V : R+ → R+ mit
V (a) := ENa + 1, a ∈ R+ , heißt Erneuerungsfunktion.
Bemerkung 1.1. zu Definition 1.1. Die Zufallsvariable Xn gibt die Lebensdauer des
n-ten Bauelements an, die Zufallsvariable Sn den n-ten Erneuerungszeitpunkt, die Zufallsvariable Na die Anzahl der im Zeitintervall [0, a] auftretenden Erneuerungen, die Zufallsvariable Na + 1 die Anzahl der Schritte in der Irrfahrt (Sn ) [Irrfahrt (random walk)
. . . Partialsummenfolge zu einer unabhängigen Folge identisch verteilter (reeller) Zufallsvariablen] bis zum Überschreiten des Zieles a ∈ R+ oder bis zum Erreichen des Zieles
(a, ∞) mit a ∈ R+ . V (a) gibt die mittlere Anzahl der Schritte bis zum Erreichen des
Zieles (a, ∞) an. Häufig wird auch die Funktion U := V − 1 als Erneuerungsfunktion
bezeichnet.
2
Allgemeine Voraussetzung: P [X1 = 0] < 1, d.h. hier EX1 > 0 .
Lemma 1.1. (Xn ), (Sn ), Na (a ∈ R+ ) wie oben; S0 := 0 . Dann gilt:
{ω ∈ Ω | N (a, ω) = k} = {ω ∈ Ω | Sk (ω) ≤ a < Sk+1 (ω)} ∈ A für k ∈ N0 := {0, 1, . . .}
{ω ∈ Ω | N (a, ω) = ∞} = {ω ∈ Ω | ∀ Sk (ω) ≤ a} ∈ A .
k
[Na < j] = [Sj > a], [Na ≤ j] = [Sj+1 > a] ,
[Na ≥ j] = [Sj ≤ a], [Na > j] = [Sj+1 ≤ a] für j ∈ N0 .
P-f.s. ∀ Na < ∞, Na → ∞ (a → ∞) .
a∈R+
Satz 1.1. (Xn ), (Sn ), Na , V (a) := ENa +1 (a ∈ R+ ) wie oben, S0 := 0 . Sei F die Restriktion der Verteilungsfunktion von X1 auf R+ , F n∗ die Restriktion der Verteilungsfunktion
von Sn := X1 + . . . + Xn auf R+ (n ∈ N0 ) .
Dann gilt
∞
X
V =
F n∗ .
n=0
Lemma 1.2. Ist X1 eine nichtnegative-reelle Zufallsvariable mit P [X1 = 0] < 1, d.h.
P [X1 > 0] > 0, dann existiert ein δ > 0 mit P [X1 ≥ δ] > 0 .
Lemma 1.3. Für die Erneuerungsfunktion V in Satz 1.1 gilt
∀
V (a) < ∞ .
a∈R+
V ist monoton nichtfallend und rechtsseitig stetig, also die Restriktion einer maßdefinierenden Funktion auf R+ .
Definition 1.2. H : R+ → R+ sei die Restriktion einer auf (−∞, 0) verschwindenden
maßdefinierenden Funktion auf R+ . W : (R+ , B+ ) → (R, B) sei auf endlichen Intervallen
beschränkt. H ∗ W : R+ → R wird definiert durch
Z
(H ∗ W )(a) :=
W (a − x)H(dx), a ∈ R+ .
[0,a]
H1,2 : R+ → R+ seien Restriktionen wie zuvor.
H1 ∗ H2 = H2 ∗ H1
H1 ∗ (H2 ∗ W ) = (H1 ∗ H2 ) ∗ W .
Satz 1.2. (Xn ), (Sn ), Na , V (a) := ENa + 1 (a ∈ R+ ) wie oben.
Sei F die Restriktion der Verteilungsfunktion von X1 auf R+ .
V genügt der Integralgleichung
Z
(1.1)
V = 1 + F ∗ V, d.h. V (a) = 1 +
V (a − x)F (dx),
[0,a]
3
a ∈ R+ ,
d.h.
Z
V ∗ (1 − F ) = 1, d.h.
(1.2)
[1 − F (a − x)]V (dx) = 1,
a ∈ R+ .
[0,a]
Korollar 1.1. Voraussetzungen von Satz 1.2. Ferner besitze F eine Zähldichte (pk )k∈N0
(p0 < 1 nach allgemeiner Voraussetzung). Dann ist V auf den Intervallen [j, j +1), j ∈ N0 ,
konstant. Es gilt die Rekursionsformel
V (m) = (1 − p0 )−1 [1 +
m
X
V (m − k)pk ] (m ∈ N), wobei V (0) = (1 − p0 )−1 .
k=1
Satz 1.3 (Doob 1948). (Xn ), (Sn ), {Na : a ∈ R+ } wie oben.
P-f.s. konvergiert
1
Na
→
(a → ∞) ,
a
EX1
wobei
1
:= 0 für EX1 = ∞ .
EX1
Lemma 1.4. Sei (Xn ) eine unabhängige Folge identisch verteilter nichtnegativ-reeller
Zufallsvariablen mit EX1 = ∞ . Für die Partialsummenfolge (Sn ) gilt dann
Sn
−→ ∞ (n → ∞) f.s.
n
Lemma 1.5.
a) Sei X eine erweitert-reelle Zufallsvariable auf (Ω, A, P ), deren Verteilung auf R+
konzentriert sei, mit P [0 < X < ∞] > 0. Dann gilt die Äquivalenz
∀
P [X > t + s|X > s] = P [X > t] (Gedächtnislosigkeit)
s,t∈(0,∞)
⇐⇒ PX ist eine Exponentialverteilung.
b) Für eine exp(λ)-verteilte Zufallsvariable X (λ > 0) gilt
EX =
1
,
λ
V (X) =
1
.
λ2
Lemma 1.6 (betrifft Gamma-Verteilung).
a) Für eine Γλ,ν -verteilte Zufallsvariable X (λ > 0, ν > 0), d.h. eine (erweitert-)reelle
Zufallsvariable X mit Dichte f : R → R+ mit

ν
 λ xν−1 e−λx , x > 0
Γ(ν)
f (x) =

0
, x≤0
gilt
EX =
ν
,
λ
4
V (X) =
ν
.
λ2
b) Für λ → 0, r1,2 > 0 gilt
Γλ,r1 ∗ Γλ,r2 = Γλ,r1 +r2 .
Insbesondere ist Γλ,n die n-fache Faltung von exp(λ) (n ∈ N) .
Lemma 1.7 (betrifft Poisson-Verteilung).
a) Für eine π(λ)-verteilte Zufallsvariable X (λ > 0) gilt EX = V (X) = λ .
b) Für λ1,2 > 0 gilt
π(λq1 ) ∗ π(λ2 ) = π(λ1 + λ2 ) .
Satz 1.4. Unabhängige Folge (Xn ) identisch verteilter nichtnegativ-reeller Zufallsvariablen mit PX1 = exp(λ) (λ > 0) . Dazu {Na : a ∈ R+ } wie oben.
Dann ist Na π(λa)-verteilt (a > 0), N0 = 0 f.s.
Bemerkung 1.2. Der stochastische Prozess {Na : a ∈ R+ } aus Satz 1.4 ist ein sogenannter Poisson-Prozess mit Parameter λ. Aus Satz 1.3 und Lemma 1.5b folgt
Na
→ λ (a → ∞) f.s.
a
Satz 1.5 (Elementares Erneuerungstheorem; Feller 1941).
(Xn ), (Sn ), Na , V (a) := ENa + 1 (a ∈ R+ ) wie oben. Es gilt
V (a)
1
→
a
EX1
wobei
1.2
(a → ∞) ,
1
:= 0 für EX1 = ∞ .
EX1
Der Hauptsatz der Erneuerungstheorie
Definition 2.1. Eine nichtnegativ-reelle Zufallsvariable X heißt gitterförmig verteilt,
wenn ein λ > 0 derart existiert, daß die Verteilung PX auf {0, λ, 2λ, 3λ, . . .} konzentriert
ist (d.h. PX ({0, λ, 2λ, . . .}) = 1). Das maximale λ heißt Spanne der gitterförmigen Verteilung.
Satz 2.1 (Erneuerungstheorem von Blackwell, 1948).
1
(Xn ), (Sn ), Na , V (a) := ENa + 1 (a ∈ R+ ) wie oben;
:= 0, falls EX1 = ∞ .
EX1
a) Sei PX1 gitterförmig mit Spanne λ(> 0) . Sei h ein beliebiges positiv-ganzzahliges
Vielfaches von λ . Dann gilt
V (a) − V (a − h) →
h
EX1
(a → ∞) .
b) Sei PX1 nicht gitterförmig. Für beliebiges festes h > 0 gilt dann
V (a) − V (a − h) →
5
h
EX1
(a → ∞) .
Lemma 2.1. Gegegen sei z : R+ → R+ . Sei h > 0 , zunächst fest.
m j := inf{z(t) : (j − 1)h ≤ t < jh}, mj := sup{z(t) : (j − 1)h ≤ t < jh},
∞
∞
P
P
mj .
σ(h) := h
m j , σ(h) := h
j=1
j ∈ N.
j=1
Es gilt:
0 ≤ σ(h) ≤ σ(h) ≤ ∞ ;
entweder ∀ σ(h) < ∞ oder ∀ σ(h) = ∞ ,
h>0
h>0
wobei im ersteren Falle σ(h) und σ(h) für h → 0 konvergieren.
Definition 2.2. Eine B+ − B+ -messbare Funktion z : R+ → R+ heißt direkt Rintegrierbar, wenn
∃ σ(h) < ∞ (⇐⇒ ∀ σ(h) < ∞)
h>0
h>0
und
lim σ(h) = lim σ(h) .
h→0
h→0
Bemerkung 2.1. Sei z : (R+ , B+ ) → (R+ , B+ ) .
a)

 ∃ σ(h) < ∞
h>0
z direkt R-integrierbar ⇐⇒
 z über jedes beschränkte Intervall R-integrierbar
b) Falls z ↓ und das uneigentliche R-Integral
R∞
z(t) dt endlich ist, dann ist z direkt R-
0
integrierbar.
Lemma 2.2. X1 ≥ 0 . Erneuerungsfunktion V. V (t) := 0 (t < 0) . Beliebiges h > 0 .
a) V ∗ 1[0,h) = V − V (· − h) ,
allgemeiner
∀ V ∗ 1[x,x+h) = V (· − x) − V (· − x − h) .
x∈R+
b) Es existiert ein C = C(h) < ∞ mit
∀ V (a) − V (a − h) ≤ C ,
a∈R
also auch — wegen a) —
∀
∀ (V ∗ 1[x,x+h) )(a) ≤ C .
x∈R+ a∈R+
6
Satz 2.2 (Hauptsatz der Erneuerungstheorie, W. L. Smith 1954, Feller 1966).
(Xn ), (Sn ), Na (a ∈ R+ ) wie oben mit X1 ≥ 0.
Erneuerungsfunktion V : R+ → R+ mit V (a) := ENa + 1 (a ∈ R+ ) .
1
:= 0, falls EX1 = ∞ .
EX1
Sei z : R+ → R+ direkt R-integrierbar.
a) PX1 sei gitterförmig mit Spanne λ > 0 . Dann gilt
∞
λ X
z(δ + jλ) .
∀ (V ∗ z)(δ + nλ) →
EX1 j=0
δ∈[0,λ)
b) PX1 sei nicht gitterförmig. Dann gilt
Z
1
(V ∗ z)(a) →
EX1
z(x)dx (a → ∞) .
R+
Bemerkung 2.2. a) Satz 2.2 läßt sich auf z : R+ → R übertragen durch Zerlegung von
z in einen positiven und einen negativen Teil.
b) Satz 2.2 ⇐⇒ Satz 2.1 =⇒ Satz 1.5.
Ergänzungen zum Hauptsatz der Erneuerungstheorie
Satz 2.3. (Xn ), (Sn ), Na (a ∈ R+ ), V wie oben. Ferner gelte EX1 < ∞ .
a) PX1 sei gitterförmig mit Spanne λ > 0 . Dann gilt
∀
0 ≤ V (δ + nλ) −
δ∈[0,λ)
δ + nλ
δ
E[X1 (X1 + λ)]
−
→
2
EX1
2(EX1 )
EX1
b) PX1 sei nicht gitterförmig. Dann gilt
0 ≤ V (a) −
a
EX12
→
EX1
2(EX1 )2
(a → ∞) .
Dabei ist in a) und b) die rechte Seite ∞ falls EX12 = ∞ .
Lemma 2.3. Zufallsvariable X ≥ 0 mit Verteilungsfunktion F .
a)
∀ EX n < ∞ =⇒ xn (1 − F (x)) → 0 (x → ∞) .
n∈N
b)
∀
n∈N
R∞
0
xn−1 (1 − F (x))dx = n1 EX n
insbesondere
(≤ ∞) ,
R∞
(1 − F (x))dx = EX .
0
Satz 2.4. (Xn ), (Sn ), Na (a ∈ R+ ) , V wie oben.
7
(n → ∞) .
a) X1 habe eine Dichte f . Dann existiert v : (R, B+ ) → (R+ , B+ )
Ra
mit V (a) = 1 + v(x)dx, a ∈ R+ ,
0
v . . . sogenannte Erneuerungsdichte.
Man kann v := V ∗ f (f restringiert auf R+ ) wählen.
b) X1 habe eine auf R+ direkt R-integrierbare Dichte. Dann existiert eine Erneuerungs1
(a → ∞) .
dichte v mit v(a) →
EX1
1.3
Verzögerte Erneuerungsprozesse
Definition 3.1. Unabhängige Folge (X0 , X1 , X2 , . . .) nichtnegativ-reeller Zufallsvariablen
auf einem W-Raum (Ω, A, P ), wobei die Zufallsvariablen X1 , X2 , . . . identisch verteilt seien. Die Partialsummenfolge (Sn ) mit S0 := X0 , S1 := X0 +X1 , . . . heißt ein (verzögerter)
Erneuerungsprozess.
Allgemeine Voraussetzung: P [X1 = 0] < 1 .
Definition 3.2. (Sn ) gemäß Definition 3.1. Mit der Bezeichnung (hier sup ∅ := −1)
Na := sup{k ∈ N0 : Sk ≤ a}+1, a ∈ R+ , heißt W : R+ → R mit W (a) := ENa , a ∈ R+ ,
Erneuerungsfunktion.
Bezeichnungen: F0 Verteilungsfunktion von X0 , F Verteilungsfunktion von X1 bzw. jeweils
∞
P
Restriktion auf R+ . V =
F n∗ gemäß § 1.
n=0
Im folgenden werden die Begriffe aus Definition 3.1, 3.2 zugrundegelegt.
Bemerkung 3.1. Im Falle P [X0 = 0] = 1 gilt W = V .
Satz 3.1. W = F0 ∗ V .
Satz 3.2. W = F0 + F ∗ W .
Satz 3.3. P-f.s.
Satz 3.4.
Na
1
→
(a → ∞) .
a
EX1
1
W (a)
→
(a → ∞) .
a
EX1
Satz 3.5.
a) PX1 sei gitterförmig mit Spanne λ. h sei ein positiv-ganzzahliges Vielfaches von λ .
Dann gilt
h
(a → ∞) .
W (a) − W (a − h) →
EX1
8
b) PX1 sei nicht gitterförmig, h > 0 . Dann gilt
W (a) − W (a − h) →
h
(a → ∞) .
EX1
Satz 3.6. . . . Satz 2.2 mit W statt V .
Satz 3.7. Sei EX0 < ∞, EX1 < ∞ .
a) PX0 , PX1 seien gitterförmig mit Spanne λ .
W (δ + nλ) −
∀
δ∈[0,λ)
δ + nλ
E[X1 (X1 + λ)]
δ
EX0
−
→
−
( n → ∞) .
2
EX1
2(EX1 )
EX1 EX1 |{z}
∈N
b) PX1 sei nicht gitterförmig.
EX12
EX0
a
−
W (a) −
→
(a → ∞) .
2
EX1
2(EX1 )
EX1
Satz 3.8. X1 habe eine Dichte f (auf R+ restringiert). Mit w = W ∗ f gilt
Za
w(x)dx, a ∈ R+ .
W (a) = F0 (a) +
0
Ist f direkt R-integrierbar, dann gilt
w(a) →
1
(a → ∞) .
EX1
Satz 3.9. Sei (Sn )n∈N ein verzögerter Erneuerungsprozess mit EX1 < ∞ . Dann gilt die
folgende Äquivalenz:
∀
a∈R+
a
W (a) =
EX1
⇐⇒
∀
a∈R+
1
F0 (a) =
EX1
Za
(1 − F (x))dx .
0
Bemerkung 3.2. F0 in Satz 3.9 ist eine Verteilungsfunktion (restringiert auf R+ ).
Definition 3.3. Ein verzögerter Erneuerungsprozess (Sn )n∈N0 mit EX1 < ∞ und W (a) =
a
, a ∈ R+ , heißt stationärer Erneuerungsprozess.
EX1
Satz 3.10. Unabhängig identisch verteilte nichtnegativ-reelle Zufallsvariablen X0 , X1 ,
X2 , . . . . Sei Sn := X0 +. . .+Xn (n ∈ N0 ), so daß also ein verzögerter Erneuerungsprozess
(Sn )n∈N0 mit F0 = F vorliegt. Dann gilt die folgende Äquivalenz: (Sn )n∈N0 stationärer
Erneuerungsprozess ⇐⇒ Xn exponentialverteilt (d.h. der zugehörige Zählprozess gemäß
Definition 1.1 ist — nach Bemerkung 1.2 — ein Poisson-Prozess).
9
1.4
Anwendungen des Hauptsatzes der Erneuerungstheorie
Im folgenden (Xn ), (Sn ), {Na ; a ∈ R+ }, V wie in § 2.
1
:= 0, falls EX1 = ∞ .
EX1
Zufallsvariable Ya := SNa +1 − a, a ∈ R+ . . . Restwartezeit, Restlebensdauer des im Zeitpunkt a in Betrieb befindlichen Bauelements. Zufallsvariable La := XNa +1 = SNa +1 − SNa ,
a ∈ R+ . . . (Gesamt-)Lebensdauer des im Zeitpunkt a in Betrieb befindlichen Bauelements.
Satz 4.1.
R
a) ∀
P [Ya ≤ ξ] =
[F (a − x + ξ) − F (a − x)] V (dx) .
∀
F sei die Restriktion der Verteilungsfunktion von X1 auf R+ ·
a∈R+
ξ∈R+
[0,a]
b) Ist PX1 nicht gitterförmig, dann gilt
∀
ξ∈R+
1
P [Ya ≤ ξ] →
EX1
Zξ
[1 − F (t)] dt (a → ∞) ,
0
im Falle EX1 < ∞ also Verteilungskonvergenz.
Bemerkung 4.1. zu Satz 4.1b. Sei EX1 < ∞. Die Abbildung


 0 für ξ < 0
ξ→
1 Rξ


[1 − F (s)] ds für ξ ≥ 0
EX1 0
ist die Verteilungsfunktion von X0 = S0 bei dem zu (Sn )n∈N gehörigen stationären verzögerten
Erneuerungsprozess (Sn )n∈N0 (siehe Satz 3.9). Von einem großen a an verhält sich also der
betrachtete Erneuerungsprozess näherungsweise wie der zugehörige stationäre verzögerte
Erneuerungsprozess (asymptotische Stationarität).
Bemerkung 4.2. Ist {Nt ; t ∈ R+ } ein Poisson-Prozess mit Parameter λ, so ist für jedes
a ∈ R+ auch {Nt+a − Na ; t ∈ R+ } ein Poisson-Prozess mit Parameter λ.
Satz 4.2.
a) Mit der Bezeichnung y+ :=
∀
a∈R+
∀
ξ∈R+

 y für y ≥ 0
gilt
 0 für y ≤ 0
R
P [La ≤ ξ] =
[F (ξ) − F (a − x)]+ V (dx) .
[0,a]
10
b) Ist PX1 nicht gitterförmig, dann gilt
∀
ξ∈R+
1
P [La ≤ ξ] →
EX1
Zξ
[F (ξ) − F (t)] dt
0
=
1
EX1
Z
xF (dx) (a → ∞) ,
[0,ξ]
im Falle EX1 < ∞ also Verteilungskonvergenz.
Bemerkung 4.3. Das Inspektionsparadoxon oder Wartezeitenparadoxon besagt,
daß die Lebensdauer des im Zeitpunkt a in Betrieb befindlichen [inspizierten] Bauelements im allgemeinen ein anderes wahrscheinlichkeitstheoretisches Verhalten besitzt als
die Lebensdauern Nr. 1,2,. . . .
Definition 4.1. Seien Xn , n ∈ N, reelle Zufallsvariablen auf (Ω, A, P ). T : Ω → N heißt
Stoppzeit zu (Xn )n∈N , wenn
∀
k∈N
d.h. ∀
k∈N
∃
B∈Bk
[T = k] ∈ F(X1 , . . . , Xk ) := {(X1 , . . . , Xk )−1 (B); B ∈ Bk },
|
{z
}
von X1 , . . . , Xk in Ω erzeugte σ-Algebra
[T = k] = [(X1 , . . . , Xk ) ∈ B]
Als Hilfsmittel zum Beweis von Satz 4.4a dient
Satz 4.3. Folge (Xn )n∈N von unabhängigen identisch verteilten integrierbaren reellen
Zufallsvariablen auf (Ω, A, P ); dazu eine integrierbare Stoppzeit T : (Ω, A) → (N, P(N)).
Dann gilt die sogenannte Waldsche Gleichung
E
T
X
Xi = EX1 · ET .
i=1
Im Falle X1 ≥ 0 gilt die Gleichung auch ohne Integrierbarkeitsvoraussetzung für Xn , T .
Satz 4.4.
a)
∀
a∈R+
EYa = EX1 · V (a) − a
(rechte Seite = ∞, falls EX1 = ∞)
b) Ist PX1 nicht gitterförmig und EX1 < ∞, dann gilt
EYa
→
EX12
2EX1
(a → ∞)
(rechte Seite = ∞, falls EX12 = ∞).
Satz 4.5. Unabhängige nichtnegativ-reelle Zufallsvariablen X1 , Y1 , X2 , Y2 , . . . mit identischer Verteiltheit der Xn und identischer Verteiltheit der Yn [oder unabhängige identisch verteilte Paare (Xn , Yn ) nichtnegativ-reeller Zufallsvariablen Xn , Yn (n ∈ N)], wobei
11
EX1 < ∞ und X1 + Y1 nicht gitterförmig verteilt sei. Für t ∈ R+ sei

1, falls



∃ X1 + Y1 + . . . + Xn−1 + Yn−1 ≤ t < X1 + Y1 + . . . + Xn−1 + Yn−1 + Xn
Zt :=
n∈N



0 sonst .
Dann gilt
P [Zt = 1]
→
EX1
EX1 + EY1
(t → ∞) (rechte Seite = 0, falls EY1 = ∞).
12
Kapitel 2
Markov-Ketten mit abzählbarem
Indexbereich
2.1
Grundbegriffe aus der Theorie der Markov-Ketten
Definition 1.1. W-Raum (Ω, A, P ). Eine Folge (Xn )n∈N0 von Zufallsvariablen Xn :
(Ω, A) → (N0 , P(N0 )) heißt Markov-Kette (mit abzählbarem Indexbereich), wenn gilt
(1)
P [Xn+1 = kn+1 |X0 = k0 , . . . , Xn = kn ]
∀
∀
n∈N0 (k0 ,...,kn+1 )∈Nn+1
0
= P [Xn+1 = kn+1 |Xn = kn ] ,
falls die linke und damit auch die rechte Seite definiert sind.
Bemerkung 1.1. zu Definition 1.1. Die Werte aus dem Bildraum heißen Zustände; der
Bildraum heißt Zustandsraum. Definition 1.1. läßt sich in natürlicher Weise auf einen
höchstens abzählbaren, insbesondere endlichen, Zustandsraum übertragen. Bei endlichem
Zustandsraum liegt eine sogenannte endliche Markovkette vor.
Bemerkung 1.2. Bei einer Markov-Kette ist das wahrscheinlichkeitstheoretische Verhalten in der Zukunft (Indizes > n) nur abhängig von der Gegenwart (Index = n) und nicht
noch zusätzlich von der Vergangenheit (Indizes < n).
Lemma 1.1. Bei einer Markov-Kette (Xn ) gilt für beliebige Indizes m1 < m2 < . . . <
mr < m < m + n und beliebige Zustände i1 , . . . , ir , j, k die Beziehung
(2) P [Xm+n = k|Xm1 = i1 , . . . , Xmr = ir , Xm = j] = P [Xm+n = k|Xm = j] ,
falls die linke Seite definiert ist.
Definition 1.2. Eine Markov-Kette (Xn ) heißt (zeitlich) homogen [oder hat sogenannte
stationäre Übergangswahrscheinlichkeiten], wenn die Wahrscheinlichkeit in (2) von der
Länge n des Zeitintervalls [m, m + n], aber nicht vom Zeitpunkt m, abhängt.
13
Definition 1.3. Sei (Xn ) eine homogene Markov-Kette.
pjk := P [Xm+1 = k|Xm = j] = P [X1 = k|X0 = j], j, k ∈ N0 , m ∈ N0 ,
∞
P
wobei, falls pjk zunächst nicht definiert, 0 ≤ pjk ≤ 1 und
pjk = 1 gelten soll.
k=0
Die Matrix P := (pjk )j,k∈N0 heißt Matrix der Übergangswahrscheinlichkeiten, Übergangsmatrix, stochastische Matrix. Auch Matrizen (pjk )j,k∈M bei festem M ⊂ N0 mit
P
0 ≤ pjk ≤ 1 ,
pjk = 1 heißen stochastische Matrizen.
k∈M
Satz 1.1. Homogene Markov-Kette (Xn ) mit Übergangsmatrix P .
(n)
pjk := P [Xm+n = k|Xm = j] = P [Xn = k|X0 = j], j, k ∈ N0 , m ∈ N0 , n ∈ N ,
falls definiert.
Es gilt (bei geeigneter Erweiterung des Definierten, falls erforderlich):
(n)
(pjk )j,k∈N0 = P n (n-faches Matrizenprodukt),
∞
X
(m) (n)
(m+n)
pjl plk , j, k ∈ N0 , m, n ∈ N .
=
pjk
(2.1)
l=0
Bemerkung 1.3 zu Satz 1.1. (3) ist ein Spezialfall (für homogene Markov-Ketten) der
Chapman-Kolmogorov-Gleichung. — Das wahrscheinlichkeitstheoretische Verhalten von
(Xn ) ist durch die Anfangswahrscheinlichkeiten aj := P [X0 = j] , j ∈ N0 , und die
Übergangsmatrix P = (pjk )j,k∈N0 eindeutig festgelegt.
Insbesondere gilt
∞
X
(n)
aj pjk , k ∈ N0 , n ∈ N .
P [Xn = k] =
j=0
Allgemeine Voraussetzung: Für jeden Zustand j ∈ N0 der homogenen Markov-Kette
(Xn ) mit Übergangsmatrix P existiert i ∈ N0 mit pij > 0 .
Weitere Bezeichnungen
Sei (Xn )n∈N0 eine homogene Markov-Kette mit Übergangsmatrix P . i, j ∈ N0 , fest.
(n)
fjj sei Wahrscheinlichkeit, daß erste Rückkehr in den Zustand j nach n Schritten stattfindet, n ∈ N .
(1)
(n)
Also fjj = pjj , fjj = P [Xr 6= j (r = 1, . . . , n − 1), Xn = j|X0 = j] .
(n)
fjk sei Wahrscheinlichkeit, daß bei Start in j Ankunft in k erstmals nach n Schritten
stattfindet, n ∈ N .
(1)
(n)
Also fjk = pjk , fjk = P [Xr 6= k (r = 1, . . . , n − 1), Xn = k|X0 = j] .
∞
P
(n)
fjj ist Wahrscheinlichkeit, daß Rückkehr nach j jemals wieder stattfindet.
fjj :=
fjk :=
n=1
∞
P
n=1
(n)
fjk ist Wahrscheinlichkeit, daß bei Start in j Zustand k jemals erreicht wird.
(1)
(2)
(1)
(2)
Im Falle fjj = 1 bzw. fjk = 1 ist (0, fjj , fjj , . . .) bzw. (0, fjk , fjk , . . .) eine Zähldichte.
j → k . . . k ist mit positiver Wahrscheinlichkeit von j aus in endlich vielen Schritten erreichbar, d.h. fjk > 0 .
14
j ←→ k . . . j → k ∧ k → j .
(n)
Definition 1.4. (Xn )n∈N0 homogene Markov-Kette; pjk , fjk wie oben.
Der Zustand j ∈ N0 heißt
a) rekurrent (persistent), wenn fast sicher Rückkehr in j nach endlich vielen Schrit∞
P
(n)
ten, d.h. wenn fjj :=
fjj = 1 ;
n=1
b) transient, wenn fjj < 1 ;
a1 ) positiv-rekurrent, wenn rekurrent und sogenannte mittlere Rekurrenzzeit µj :=
∞
P
(n)
nfjj < ∞ ;
n=1
a2 ) null-rekurrent, wenn rekurrent und µj = ∞ ;
(n)
c) periodisch, wenn t ∈ {2, 3, . . .} existiert mit pjj = 0 für n ∈
/ {t, 2t, . . .} ;
d) aperiodisch, wenn nicht periodisch;
e) ergodisch, wenn aperiodisch und positiv-rekurrent.
Satz 1.2. (Xn )n∈N0 homogene Markov-Kette; pij wie oben; j ∈ N0 , fest.
∞
P
(n)
a) j rekurrent ⇐⇒
pjj = ∞
n=1
~
w
w
w
w
w
w def.
w


∞
∞
P
P
(n)
(n)
i →j
pij = ∞ falls |{z}
fjj = 1
n=1
n=1
∈N0
b) j transient ⇐⇒
~
w
w
w def.

∞
P (n)
fjj < 1
n=1
∞
P
(n)
pjj < ∞
n=1
w
w
w
w

∞
P (n)
pij < ∞
∀
i∈N0 n=1
Lemma 1.2. (Xn ) homogene Markov-Kette. j, k ∈ N0 . Sei j rekurrent, j → k .
Dann fkj = 1 .
Satz 1.3. (Xn ) homogene Markov-Kette. Es gelte j ←→ k . Dann sind j, k beide von
demselben Typ, d.h. j, k beide transient oder beide positiv-rekurrent oder beide nullrekurrent, ferner j, k beide aperiodisch oder beide periodisch mit derselben Periode.
15
Definition 1.5. Eine homogene Markov-Kette heißt transient, wenn jeder Zustand transient ist, usw.
Definition 1.6. Eine homogene Markov-Kette heißt irreduzibel, wenn
∀ j ←→ k .
j,k
Lemma 1.3.
a) Für eine irreduzible Markov-Kette sind alle Zustände von demselben Typ. Eine irreduzible Markov-Kette ist also transient oder positiv-rekurrent oder null-rekurrent.
b) Für eine rekurrente irreduzible Markov-Kette gilt
∀ fjk = 1 .
j,k
2.2
Asymptotisches Verhalten homogener MarkovKetten
Bezeichnungen aus Abschnitt 2.1.
(n)
Satz 2.1. (Xn )n∈N0 homogene Markov-Kette; pij , fij , fij :=
∞
P
(n)
fij wie oben.
n=1
j ∈ N0 , fest, sei ein rekurrenter Zustand von (Xn ), also fjj = 1, mit mittlerer Rekur∞
P
1
(n)
renzzeit µj :=
nfjj .
:= 0 , falls µj = ∞ .
µj
n=1
a) Sei j aperiodisch. Dann gilt (Ergodensatz für Markov-Ketten)
(n)
pjj →
1
(n → ∞) .
µj
allgemein
(n)
∀ pij →
i
fij
(n → ∞) .
µj
b) Sei j periodisch mit Periode t. Dann gilt
(nt)
pjj →
t
(n → ∞) .
µj
(r)
Falls i ←→ j und rij der kleinste Wert von r mit pij > 0 ist, dann gilt
(r +nt)
pij ij
→t
16
fij
(n → ∞) .
µj
Beweis von Satz 2.1 mit den Lemmata 2.1, 2.2.
Lemma 2.1. (Erdös, Feller, Pollard 1949).
∞
P
Zähldichte (pn )n∈N0 , d.h. ∀ 0 ≤ pn ≤ 1,
pn = 1, p0 6= 1.
n∈N0
n=0
Die zugehörige (gitterförmige) Verteilung habe die Spanne λ(∈ N).
∞
P
ψ : [0, 1] → [0, 1] mit ψ(s) :=
pn sn . . . erzeugende Funktion zu (pn ) .
1
1−ψ(s)
∞
P
:=
n=0
vn sn , 0 ≤ s < 1 . µ :=
n=0
Dann gilt vλ·n →
λ
µ
(n → ∞) ,
∞
P
npn .
n=0
wobei µ1 :=
0 , falls µ = ∞ .
Bemerkung 2.1. Lemma 2.1 ⇐⇒ Satz 2.1a .
Lemma 2.2. Voraussetzungen und Bezeichnungen wie in Lemma 2.1.
∞
P
gn < ∞ .
Zahlenfolge (gn )n∈N0 mit gn ≥ 0 (n ∈ N0 ) ,
G(s) :=
∞
P
n=0
gn sn , s ∈ [0, 1] .
n=0
G(s)
1−ψ(s)
Dann gilt
=: R(s) =:
∞
P
rn sn , s ∈ [0, 1] .
n=0
∞
λX
gλ·k (n → ∞) .
rλ·n →
µ k=0
(
1, n = 0
Bemerkung 2.2. Lemma 2.2 mit gn =
ergibt Lemma 2.1.
0, n ∈ N
Lemma 2.2. ⇐⇒ Satz 2.2a.
Bemerkung 2.3. Homogene Markov-Kette (Xn ); k ∈ N0 sei aperiodisch.
Dann gilt


0 (n → ∞) ,
falls k transient oder null-rekurrent,



(n)
fjk
∀ pjk →
(n → ∞) , falls k positiv-rekurrent,

j∈N0
µk



wobei fjk = 1 , falls k → j .
Satz 2.2. Sei (Xn )n∈N0 eine aperiodische irreduzible Markov-Kette mit Übergangsmatrix
(n)
P = (pjk )j,k∈N0 . pk := P [Xn = k] , k ∈ N0 , n ∈ N0 .
a) Sei (Xn ) positiv-rekurrent und somit ergodisch. Dann gilt:
α)
∀
1
>0
n→∞
n→∞
µk
=: Πk unabhängig von j ∈ N0
(n)
k∈N0
(n)
existiert lim pk = lim pjk =
(0)
unabhängig von der Ausgangszähldichte (pk )k∈N0
(µk mittlere Rekurrenzzeit des Zustands k)
β)
∞
P
Πk = 1 . (Πk )k∈N0 ist also eine Zähldichte und definiert die Grenzverteilung
k=0
von (Xn ) im Sinne der Verteilungskonvergenz.
17
γ) (Πk )k∈N0 = (Π0 , Π1 , . . .) genügt den “Gleichgewichtsbedingungen”
∞
P
(∗)
xj pjk = xk (k = 0, 1, . . .) , d.h. xP = x mit x = (x0 , x1 , . . .) .
j=0
(Πk )k∈N0 ist die einzige Lösung von (∗) mit ∀
k∈N0
xk ≥ 0 ,
∞
P
xk = 1 .
k=0
Zu P gibt es also genau eine stationäre Verteilung, d.h. von i ∈ N0 (Indexbereich) unabhängige Verteilung PXi ; sie hat die Zähldichte (Πk ) .
b) (∗) besitze eine Lösung x mit ∀
k∈N0
xk ≥ 0 ,
∞
P
xk = 1 .
k=0
Dann ist (Xn ) positiv-rekurrent und somit ergodisch, und es gelten die Behauptungen in a).
Satz 2.2b ist ein Hilfsmittel zum Nachweis der Ergodizität einer homogenen Markov-Kette
und liefert die mittlere Rekurrenzzeit für k ∈ N0 .
Anwendung in der Warteschlangentheorie
Kunden treffen an 1 Schalter gemäß einem Erneuerungsprozess ein; die Bedienungszeiten
(genauer: Bedienungszeitdauern) seien unabhängig — auch vom Erneuerungsprozess —
und identisch verteilt . . . G/G/1 bzw. M/G/1 bzw. G/M/1 bzw. M/M/1, wobei allgemeinoder exponentialverteilte G oder M an erster Stelle “Lebensdauern” (hier Zeitspannen
zwischen den Ankunftszeiten) des Erneuerungsprozesses und allgemein- bzw. exponentialverteilte (G bzw. M an zweiter Stelle) Bedienungszeiten und 1 (an dritter Stelle) Schalter
vorliegen.
2.3
Anzahl der Kunden bei M/G/1 unmittelbar nach
der Bedienung des n-ten Kunden
Numerierung der Kunden: 0, 1, 2, . . .
Zu M exp(λ) mit λ > 0 (zeitliches Eintreffen der Kunden gemäß Poisson-Prozess mit
Parameter λ), zu G Verteilungsfunktion B : R → R mit B(t) = 0 (t ≤ 0), B(0) < 1 .
Der Schalter sei im Zeitpunkt 0 frei.
Die Zufallsvariable Xn gebe die Anzahl der Kunden in der Warteschlange für den Zeitpunkt an, in dem die Bedienung des n-ten Kunden zu Ende geführt ist; die Zufallsvariable
Yn gebe die Anzahl der Kunden an, die während der Bedienungszeit des n-ten Kunden
ankommen; die Zufallsvariable Zn (mit Verteilungsfunktion B) gebe die Bedienungszeit
des n-ten Kunden an (n ∈ N0 ) .
(
Xn − 1 + Yn+1 , falls Xn ≥ 1
Xn+1 =
Yn+1
, falls Xn = 0 .
Lemma 3.1.
18
a) Die Zufallsvariablen Yn sind unabhängig identisch verteilt.
b) (Xn ) ist eine homogene Markov-Kette.
R
c) br := P [Yn = r] = P [Yn = r | Zn = t] B(dt) > 0 (r ∈ N0 ) .
| {z } R+ |
{z
}
r
(λt)
P [X0 = r]
e−λt ·
r!
Satz 3.1.
a) Sei P = (Pjk )j,k∈N0 die Übergangsmatrix der homogenen Markov-Kette (Xn ) .





P=




b0 b1 b2 b3 . . .
b0 b1 b2 b3 . . .
0
b0 b1 b2 . . .
0
0
b0 b1 . . .
0
0
0
b0 . . .
.......................










(Xn ) ist aperiodisch und irreduzibel.
b) Sei die sogenannte Verkehrsintensität (Quotient aus mittlerer Bedienungszeit und
EZ0
< 1.
mittlerer Zeit zwischen den Ankünften) ρ :=
1/λ
Dann ist (Xn ) positiv-rekurrent und somit ergodisch.
Es sei qk := lim P [Xn = k] (k ∈ N0 ) , q : [0, 1] → R und b : [0, 1] → R die
n→∞
erzeugende Funktion von (qk ) bzw. (bk ) .
Dann gilt
q(s) = b(s)
1−s
(1 − ρ) , s ∈ [0, 1) .
b(s) − s
Korollar 3.1 zu Lemma 3.1 und Satz 3.1 (betrifft M/M/1).
Im Falle, daß Z0 exp(µ)-verteilt ist (µ > 0) , gilt
r λ
λ
br =
1−
, r ∈ N0 ,
λ+µ
λ+µ
1−ρ
q(s) =
, s ∈ [0, 1] ,
1 − ρs
lim P [Xn = k] = ρk (1 − ρ) , k ∈ N0 .
n→∞
19
Definition A. W-Raum (Ω, A, P ), Indexbereich I . Eine Familie {Xt ; t ∈ I} von Zufallsvariablen Xt : (Ω, A, P ) → (Ω0 , A0 ) [oder auch (Ω, A, P, {Xt ; t ∈ I})] heißt stochastischer Prozess (zufällige Funktion). Ω0 , genauer (Ω0 , A0 ), heißt Zustandsraum.
Bezeichnung Xt (ω) =: X(ω, t) .
X(ω, ·) . . . Funktion I → Ω0 . . . Pfad des Prozesses.
Definition B. Messräume (Ω0 , A0 ), (Ω00 , A00 )
Abbildung q : Ω0 × A00 → [0, 1] heißt Übergangswahrscheinlichkeitsmaß [Markovscher Kern] von Ω0 nach Ω00 , wenn
a)
b)
∀ q(x, ·) W-Maß auf A00 ,
x∈Ω0
∀
C∈A00
q(·, C) A0 − [0, 1] ∩ B-messbar.
Wichtiger Fall: (Ω0 , A0 ) = (Ω00 , A00 ) = (R, B)
Definition C. W-Raum (Ω, A, P ); Meßräume (Ω0 , A0 ), (Ω00 , A00 ) .
Zufallsvariable X: (Ω, A, P ) → (Ω0 , A0 ) ; Zufallsvariable Y : (Ω, A, P ) → (Ω00 , A00 ) .
Eine Abbildung q : Ω0 × A00 → [0, 1] heißt bedingte Verteilung von Y bzgl. X, wenn
q Übergangswahrscheinlichkeitsmaß von Ω0 nach Ω00 ist und wenn
Z
0
00
00
∀
∀ P [X ∈ A , Y ∈ A ] = q(x, A )PX (dx) .
A0 ∈A0 A00 ∈A00
A0
Hierfür Schreibweise PY |X .
Ex. gesichert für (Ω00 , A00 ) = (Rk , Bk ) .
Schreibweisen:
PY |X (x, A00 ) =: P (Y ∈ A00 |X = x) =: PY |X=x (A00 ) ,
PY |X (·, A00 ) =: P (Y ∈ A00 |X) ,
PY |X (x, ·) =: PY |X=x .
Falls P [X = x] > 0 , dann PY |X (x, A00 ) =
P [Y ∈ A00 , X = x]
.
P [X = x]
20
Kapitel 3
Grundbegriffe aus der Theorie der
Markov-Prozesse
3.1
Definition und Konstruktion von Markovschen
Prozessen
Definition 1.1. Ein stochastischer Prozess (Ω, A, P, {Xt ; t ∈ R+ }) mit Zustandsraum R
heißt ein Markovscher Prozess, wenn die folgende sogenannte elementare MarkovEigenschaft erfüllt ist:
(1) ∀
B∈B
∀
n∈{2,3,...}
∀
0≤t1 <...<tn
P [Xtn ∈ B|Xtn−1 , . . . , Xt1 ] = P [Xtn ∈ B|Xtn−1 ]
P(Xtn−1 ,...,Xt1 ) -fast überall
Bemerkung 1.1 zu Definition 1.1.
a) P [Xtn ∈ B|Xtn−1 , . . . , Xt1 ] := PXtn |(Xtn−1 ,...,Xt1 ) (·, B) . . . Funktion auf Rn−1
b) (1) ⇐⇒ P [Xtn ∈ B|Xtn−1 ∈ Bn−1 , . . . , Xt1 ∈ B1 ] = P [Xtn ∈ B|Xtn−1 ∈ Bn−1 ]
für alle n ∈ {2, 3, . . .}, 0 ≤ t1 < . . . < tn , B, Bn−1 , . . . B1 ∈ B, falls
definiert.
Definition 1.2. Eine Familie {q
t ; t ∈ R+ } von Markovschen Kernen

qt (x, ·) W-Maß auf B
∀

 (2)
x∈R

qt : R × B → [0, 1] 
 d.h. 

 (3)
qt (·, B) B-[0, 1] ∩ B-messbar
∀
B∈B
mit (der Verträglichkeitsbedingung, Halbgruppeneigenschaft)
Z
(4)
qt+s (x, B) = (qt qs )(x, B) :=
qs (y, B)qt (x, dy)
∀
∀
∀
s,t≥0
x∈R
B∈B
R
[Gleichung von Chapman-Kolmogorov]
21




heißt Markovsche Halbgruppe von Kernen oder Übergangsfunktion.
Bemerkung 1.2.
a) Definition 1.2 ist sinnvoll. Mit qs , qt ist auch qt qs ein Markovscher Kern.
b) qt (x, B) mit t ∈ R+ , x ∈ R, B ∈ B, in Definition 1.2 ist eine stationäre (oder
zeitlich homogene) Übergangswahrscheinlichkeit von der Stelle x in die Menge B in
einem beliebigen Zeitintervall der Länge t.
Beispiele zu Definition
1.2. Sei x ∈ R, B ∈ B .

 1, falls x ∈ B
a) q0 (x, B) :=
 0 sonst,
1
qt (x, B) := √
2πt
Z
e−
(y−x)2
2t
dy, t > 0 .
B
{qt : t ∈ R+ } . . . sogenannte Halbgruppe der Brownschen Bewegung.
b) Festes λ ∈ (0, ∞) . B − x := {y − x: y ∈ B} .
X
qt (x, B) := qt (0, B−x) :=
e−λt
k∈N0 ∩(B−x)
(λt)k
, t ∈ R+ .
k!
{qt : t ∈ R+ } . . . sogenannte Poissonsche Halbgruppe.
Satz 1.1 (Konstruktion eines Markovschen Prozesses aus Ausgangsverteilung und Übergangsfunktion). Gegeben seien ein W-Maß µ auf B und eine Übergangsfunktion {qt : t ∈
R+ } mit


 1, falls x ∈ B
q0 (x, B) =
(x ∈ R, B ∈ B) .


0 sonst
Sei {Ft1 ,...,tn : Rn → R; 0 ≤ t1 < . . . < tn , n ∈ N} eine Familie von Verteilungsfunktionen mit
(5)
Ft1 ,...,tn (x1 , . . . , xn )
Z Z
:= [
[. . . [
R
(−∞,x1 ]
Z
Z
[
qtn −tn−1 (yn−1 , dyn )]qtn−1 −tn−2 (yn−2 , dyn−1 )] . . .]
(−∞,xn−1 ] (−∞,xn ]
qt1 −
Dann gilt:
22
t
0
|{z}
:= 0
(y0 , dy1 )]µ(dy0 ) .
a) Die obige Familie von Verteilungsfunktionen erfüllt die Verträglichkeitsbedingung
im Verträglichkeitssatz von Kolmogorov, d.h.
Ft1 ,...,tn ,tn+1 (x1 , . . . xn , ∞) = Ft1 ,...,tn (x1 , . . . , xn )
für alle verschiedenen t1 , . . . , tn , tn+1 ∈ R+ , alle (x1 , . . . , xn ) ∈ Rn , alle n ∈ N ,
wobei Ft1 ,t2 (x1 , x2 ) = Ft2 ,t1 (x2 , x1 ) usw.
b) Sei (Ω, A, P, {Xt : t ∈ R+ }) ein — nach dem Verträglichkeitssatz von Kolmogorov
existierender — stochastischer Prozess mit
(∗)
Ft1 ,...,tn (x1 , . . . , xn ) = P [Xt1 ≤ x1 , . . . , Xtn ≤ xn ] ,
t1 , . . . , tn ∈ R+ verschieden, (x1 , . . . , xn ) ∈ Rn , n ∈ N .
Dieser ist ein Markov-Prozess mit Anfangsverteilung PX0 = µ und stationärer
Übergangswahrscheinlichkeit qt (x, A) (t ∈ R+ , x ∈ R , A ∈ B) , d.h.
∀
∀ qt (x, A) = PXt+s |Xs =x (A) ,
t∈R+ s≥0
d.h.
∀
∀
∀
t∈R+ s≥0 A0 ,A00 ∈B
3.2
0
00
Z
P [Xs ∈ A , Xt+s ∈ A ] =
A0
qt (x, A00 )PXs (dx) .
Zur Stetigkeit von Pfaden bei Markov-Prozessen
Definition 2.1. Ein stochastischer Prozess (Ω, A, P, {Xt : t ∈ R+ }) heißt stetig-modifizierbar, wenn ein stochastischer Prozess (Ω, A, P, {Yt : t ∈ R+ }) existiert mit
(1)
∀
t∈R+
P -f.s. Xt = Yt ,
∀ Y (ω, ·) ∈ C[0, ∞) .
(2)
ω∈Ω
Satz 2.1 (Kinney, Dynkin). Der in Satz 1.1 konstruierte Markov-Prozess — mit Übergangsfunktion {qt ; t ∈ R+ } — ist stetig-modifizierbar, falls für jedes ε > 0
(3)
c
∀ qt (x, [x − ε, x + ε] ) = o(t), t → +0, gleichmäßig in x ∈ R .
ε>0
Lemma 2.1. Voraussetzung von Satz 2.1 sei erfüllt. S := {i/2n : i ∈ N0 , n ∈ N} . Dann
existiert Ω0 ∈ A mit P (Ω0 ] = 1 derart, daß
∀
ω∈Ω0
X(ω, ·)|S fortsetzbar zu einer Funktion ∈ C[0, ∞) .
Satz 2.2 (Kinney). Der in Satz 1.1 konstruierte Markov-Prozess — mit Übergangsfunktion
{qt : t ∈ R+ } — ist modifizierbar zu einem Prozess mit Pfaden, die rechtsseitig stetig sind
und linksseitige Limites besitzen, falls für jedes ε > 0
(4)
c
∀ qt (x, [x − ε, x + ε] ) = o(1), t → +0, gleichmäßig in x ∈ R .
ε>0
23
3.3
Wiener- und Poisson-Prozess
Definition 3.1. Ein stochastischer Prozess X = {Xt : t ∈ R+ } mit reellen Zufallsvariablen Xt heißt Wiener-Prozess (standardisierte Brownsche Bewegung), wenn
gilt:
∀
X0 (ω) = 0 ,
∀
t 7→ Xt (ω) , t ∈ R+ , ist eine stetige Funktion,
ω∈Ω
ω∈Ω
X hat unabhängige Zuwächse (d.h. für 0 ≤ t1 < t2 < . . . < ti , i ∈ N , sind die Zuwächse
Xt2 − Xt1 , . . . , Xti − Xti−1 unabhängig), wobei ∀
Xt − Xs N (0, t − s)-verteilt.
0≤s<t
Definition 3.2. Ein stochastischer Prozess X = {Xt : t ∈ R+ } mit reellen Zufallsvariablen Xt heißt — inhomogener — Poisson-Prozess mit Parameterfunktion m :
R+ → R+ , wenn gilt: m monoton nichtfallend, stetig, m(0) = 0, ∀
X0 (ω) = 0 ,
ω∈Ω
∀
ω∈Ω
t 7→ Xt (ω), t ∈ R+ , ist eine rechtsseitig stetige, monoton nichtfallende Funktion
mit Sprüngen der Höhe 1, X hat unabhängige Zuwächse, wobei
Xt − Xs
∀
0≤s<t
π(m(t) − m(s))-verteilt.
Im Spezialfall m(t) = λt mit festem λ > 0 heißt X (homogener) Poisson-Prozess mit
Parameter λ.
Satz 3.1. Der zu der Anfangsverteilung µ auf B mit µ({0}) = 1 und der Halbgruppe der
Brownschen Bewegung konstruierbare Markov-Prozess ist stetig-modifizierbar. Die stetige
Modifikation ist ein Wiener-Prozess.
Bemerkung 3.1 (N. Wiener). Fast sicher sind die Pfade eines Wiener-Prozesses nirgends
differenzierbar, also auch für kein (Zeit-)Intervall (positive Länge) rektifizierbar.
Bemerkung 3.2. Der Wiener-Prozess mit Halbgruppe {qt ; t ∈ R+ } (der Brownschen
Bewegung) besitzt die sog. starke Markov-Eigenschaft: Für jede Stoppzeit (Optionszeit,
Markovzeit) T : Ω → R+ ∪ {∞}, definiert durch
∀ [T ≤ t] ∈ F(Ws : 0 ≤ s ≤ t),
t∈R+
jedes s ∈ R+ und jedes B ∈ B gilt
P [WT +s ∈ B|FT + ] (def. auf Ω)
= qs (WT , B)
fast sicher auf [T < ∞], wobei
FT := {A ∈ F(Ws ; s ≥ 0) : A ∩ [T ≤ t] ∈ F(Ws ; 0 ≤ s ≤ t) ∀ t ≥ 0}.
24
Satz 3.2. Der zu der Anfangsverteilung µ auf B mit µ({0}) = 1 und der Poissonschen
Halbgruppe mit Parameter λ ∈ (0, ∞) konstruierbare Markov-Prozess ist modifizierbar
zu einem Prozess mit Pfaden, die rechtsseitig stetig sind und linksseitige Limites besitzen.
Dieser Prozess ist ein (homogener) Poisson-Prozess mit Parameter λ .
Bemerkung 3.3 (vgl. Bemerkung 1.2). Ein (homogener) Poisson-Prozess gemäß Definition 3.2 mit Parameter λ ∈ (0, ∞) ist Zählprozess zu einem Erneuerungsprozess mit
unabhängigen exp(λ)-verteilten “Lebensdauern” und umgekehrt; fast sicher nimmt er also nur Werte ∈ N0 an und hat nur Sprünge der Höhe 1, und zwar abzählbar unendlich
viele.
3.4
Diffusionsprozesse
Definition 4.1. Ein Markov-Prozess mit Anfangsverteilung µ und Übergangsfunktion
{qt ; t ∈ R+ } (konstruiert gemäß Satz 1.1) heißt Diffusionsprozess, wenn die folgenden
Bedingungen (von Kolmogorov und Feller) erfüllt sind:
(1)
∀
∀
ε>0 x∈R
(2)
∀
1
t
∀
ε>0 x∈R
(3)
∀
∀
ε>0 x∈R
1
t
1
qt (x, [x − ε, x + ε]c ) → 0 (t → +0)
t
Z
(y − x)qt (x, dy) → a(x) (t → +0)
|{z}
[x−ε,x+ε]
∈R
Z
(y − x)2 qt (x, dy) → b(x) (t → +0) .
|{z}
[x−ε,x+ε]
∈ R+
a(x) . . . sogenannter Driftkoeffizient (momentaner mittlerer Trend des im Zustand x
befindlichen Prozesses)
b(x) . . . sogenannter Diffusionskoeffizient (momentane mittlere quadratische Abweichung).
Bemerkung 4.1.
a) Es genügt wegen (1), in (2) und (3) statt ∀ ε > 0 nur ∃ ε > 0 zu fordern.
b) Der Wiener-Prozess mit σ 2 := V (W1 ) = 1 (standardisierte Brownsche Bewegung) ist
ein pfadstetiger Diffusionsprozess mit a(x) ≡ 0, b(x) ≡ 1; zugehörige Rückwärtsgleichung
(s.u.) ... Wärmeleitungsgleichung.
c) Der sog. Ornstein-Uhlenbeck-Prozess ist ein pfadstetiger Diffusionsprozess mit
a(x) = −αx (α > 0), b(x) = const > 0.
25
Satz 4.1. (Kolmogorov). Sei {qt : t ∈ R+ } eine Übergangsfunktion mit (1), (2), (3). Sei
w : R → R beschränkt und stetig.
Z
(4)
φ(t, x) :=
w(y)qt (x, dy), t > 0, x ∈ R .
R
φx und φxx sollen existieren und auf (0, ∞)×R stetig sein. Dann existiert φt , und φ genügt
auf (0, ∞) × R der partiellen Differentialgleichung
(5)
b
φt = |{z}
a φx +
φxx
2
|{z}
(Rückwärtsgleichung)
Funktionen von x
mit der Anfangsbedingung
lim φ(t, x) = w(x), x ∈ R .
t→+0
Bemerkung 4.2. Sei C̃(R) der Banach-Raum der gleichmäßig stetigen beschränkten
Funktionen w : R → R mit sup-Norm || · ||. Sei {qt : t ∈ R+ } eine Übergangsfunktion mit
qt (x, ·) → qt (x0 , ·) schwach für x → x0 ∈ R (t ∈ R+ ) und
∀
ε>0
qt (x, [x − ε, x + ε]c ) → 0 (t → +0)
gleichmäßig in x ∈ R (vgl. Satz 2.2.). Die Familie {Φt ; t ∈ R+ } der beschränkten linearen
Operatoren Φt : C̃(R) → C̃(R) (!) mit
Z
(Φt w)(x) :=
w(y)qt (x, dy), t > 0, x ∈ R, w ∈ C̃(R),
R
Φ0 := Identität auf C̃(R)
ist eine einparametrige Kontraktions-Halbgruppe, d.h. erfüllt
||Φt w|| ≤ ||w|| ∀w ∈ C̃(R) (||Φt || ≤ 1), t ∈ R+ ,
Φt+s = Φt Φs , s, t ∈ R+ ,
||Φt w − w|| → 0 (t → +0), w ∈ C̃(R).
26
3.5
Markovsche Sprungprozesse
Definition 5.1. Ein Markov-Prozess {Xt : t ∈ R+ } auf (Ω, A, P ) mit Anfangsverteilung µ und Übergangsfunktion {qt : t ∈ R+ } (konstruiert gemäß Satz 1.1) heißt reiner
Sprungprozess, wenn gilt:
Für (P -fast) alle ω ∈ Ω ist X(ω, ·) stückweise konstant und rechtsseitig stetig mit isolierten Sprungstellen als einzigen Unstetigkeitsstellen.
Satz 5.1. Reiner Sprungprozess wie in Definition 5.1.
(Wegen der stationären Übergangswahrscheinlichkeiten qt (x, B) können im folgenden die
Indizes beim stochastischen Prozess einheitlich um eine positive Konstante erhöht werden.)
T (ω) := inf{τ ∈ R+ |Xτ (ω) 6= X0 (ω)}, ω ∈ Ω, . . . Wartezeit bis zum 1. Sprung
a) Es existiert λ : (R, B) → (R+ , B+ ) mit
∀ PT |X0 =x = exp (λ(x)),
x∈R
d.h. ∀ P [T ≤ t|X0 = x] =
x∈R

 1 − e−λ(x)t (t ≥ 0)
 0
(t < 0)
Falls λ(x) = 0, ist PT |X0 =x konzentriert auf {∞}.
b) ∀
∀
∀
x∈R t∈R+ y∈R
P [T ≤ t, XT := X(·, T (·)) ≤ y|X0 = x]
= P [T ≤ t|X0 = x] · P [XT ≤ y|X0 = x]
(Unabhängigkeit von T und XT unter der Bedingung X0 = x).
c) T ∗ := Wartezeit bis zum 2. Sprung
∀
x∈R
P [T ∗ ≤ t|X0 = x] = o(t) (t → +0)
d) λ wie oben; x ∈ R ; B ∈ B mit x ∈
/ B ; K(x, B) := P [XT ∈ B|X0 = x] .
Dann
qt (x, {x}) = 1 − λ(x)t + o(t)
qt (x, B) = λ(x)t · K(x, B) + o(t)
Beispiel: Zusammengesetzter Poisson-Prozess.
27
(t → +0).
Kapitel 4
Aspekte der Theorie stationärer
Prozesse
4.1
Stationäre Prozesse, Gauß-Prozesse, stationäre
Gauß-Prozesse
Definition 1.1. Ein stochastischer Prozess {Xt : t ∈ R} heißt (stark, strikt) stationär,
wenn
P(Xt1 +s ,...,Xtn +s ) unabhängig von s ∈ R .
∀
∀
n∈N (t1 ,...,tn )∈R
Entsprechend für Indexbereiche R+ , Z, N0 .
Definition 1.2. Ein stochastischer Prozess {Xt : t ∈ R} mit Zustandsraum C und
E|Xt |2 < ∞, EXt = const, t ∈ R , heißt stationär im weiteren Sinne (stationär von
2. Ordnung), wenn die Kovarianz
E(Xt − EXt )(X t , −EX t , ), t, t0 ∈ R ,
nur von t − t0 abhängt. Entsprechend für Indexbereiche R+ , Z, N0 .
Beispiel zu Definition 1.2. Bei einer Folge quadratisch integrierbarer paarweise unkorrelierter reeller Zufallsvariablen Zn , n ∈ Z, mit EZn = const∗ , V (Zn ) = const. > 0 ist
(Xn )n∈Z mit
1
(Zn + . . . + Zn−r ) , bei festem r ∈ N ,
Xn =
r+1
ein sogenannter MA-Prozess (moving average . . . gleitender Durchschnitt).
Satz 1.1. Sei {Xt : t ∈ R} ein im weiteren Sinne stationärer Prozess mit EXt = 0, t ∈ R .
Ist die Kovarianzfunktion (Autokovarianzfunktion) ρ : R → C mit ρ(t) = EXt+s X s
stetig, dann existiert — eindeutig — ein Maß R auf B (das sogenannte Spektralmaß des
Prozesses) mit
Z
eiλt R(dλ), t ∈ R .
ρ(t) =
R
28
Hierbei ρ(0) = R(R) . — Falls die Zufallsvariablen Xt reell sind, dann ist R symmetrisch
bezüglich 0, und es gilt
R
ρ(t) = R cos λt R(dλ), t ∈ R .
Korollar 1.1. Zu dem im weiteren Sinne stationären Prozess {Xt : t ∈ R} mit EXt =
0, t ∈ R, dem sogenannten Input-Prozess, werde durch eine lineare Transformation (FilP
ter) der Output-Prozeß {Yt : t ∈ R} mit Yt = nk=1 ck Xt−τk , t ∈ R , gebildet, wobei
ck ∈ C, τk ∈ R (k = 1, . . . , n) fest. Dann ist {Yt : t ∈ R} stationär im weiteren Sinne.
Für die Kovarianzfunktionen ρ, ρ̂ und die Spektralmaße R, R̂ von {Xt } bzw. {Yt } gilt
Z X
X
|
cj e−iτj λ |2 R(dλ) , B ∈ B .
ρ̂(t) =
cj ck ρ(t − τj + τk ), t ∈ R ; R̂(B) =
B
Definition 1.3. Ein reeller stochastischer Prozess (Ω, A, P, {Xt : t ∈ R}) heißt GaußProzess, wenn alle seine endlich-dimensionalen Verteilungen P(X , . . . , X ) , t1 < . . . <
t1
tn
tn , Gaußsch sind, d.h. wenn für jede lineare Abbildung l : Rn → R die reelle Zufallsvariable
l ◦ (Xt1 , . . . , Xtn ) normalverteilt ist (mit unter Umständen zu 0 ausgearteter Varianz). —
Entsprechend für andere Indexbereiche I(⊂ R), insbesondere R+ und [0, 1].
Satz 1.2. Die endlich-dimensionalen Verteilungen eines Gauß-Prozesses {Xt ; t ∈ I} sind
eindeutig festgelegt durch die Erwartungsfunktion m : I → R und die Kovarianzfunktion Γ : I × I → R — definiert durch
m(t) := EXt ,
Γ(s, t) := Cov (Xs , Xt ) := E(Xs − EXs )(Xt − EXt ) .
Mögliche Kovarianzfunktionen sind genau die symmetrischen positiv-semidefiniten reellwertigen Funktionen auf I × I .
Bemerkung 1.1. Im Falle eines Gaußschen Prozesses mit Zustandsraum C fallen Stationarität und Stationarität im weiteren Sinne zusammen.
Lemma 1.1. Für einen Gaußschen (d.h. Gaußsch verteilten) n-dimensionalen Zufallsvektor (X1 , . . . , Xn ) liegt genau dann Unabhängigkeit von {X1 , . . . , Xn } vor, wenn die
X1 , . . . , Xn paarweise unkorreliert sind, d.h. wenn die Kovarianzmatrix
(Cov (Xi , Xk ))i, k∈{1,...,n}
eine Diagonalmatrix ist.
Beispiele für Gauß-Prozesse.
a) Gaußprozess des weißen Rauschens . . . unabhängige Familie {Xt : t ∈ R}
N (0, 1)-verteilter reeller Zufallsvariablen. m(t) = 0; Γ(s, t) = 1 für s = t, Γ(s, t) = 0
sonst (s, t ∈ R) .
29
b) Wiener-Prozess (standardisierte Brownsche Bewegung) {Wt : t ∈ R+ }
[gemäß Definition 3.3.1]. m(t) = 0 ; Γ(s, t) = min{s, t} (s, t ∈ R+ ) .
c) Brownsche Brücke {Xt : t ∈ [0, 1]} mit Xt := Wt − tW1 (mit standardisierter
Brownscher Bewegung {Wt : t ∈ [0, 1]}). m(t) = 0 ; Γ(s, t) = min{s, t} − st (s, t ∈
[0, 1]) .
Satz 1.3. Sei {Xt : t ∈ R+ } ein reeller Gauß-Prozess mit EXt = 0, t ∈ R+ . Hat die
Kovarianzfunktion Γ : R+ × R+ → R die Gestalt
Γ(s, t) = βe−α|s−t|
(s, t ≥ 0)
mit Konstanten α ≥ 0, β ≥ 0, dann ist {Xt : t ∈ R+ } stationär, stetig-modifizierbar und
ein Markov-Prozess — und umgekehrt. Im Falle α > 0, β = 1 ist das Spektralmaß die
Cauchy-Verteilung mit Dichte
s 7→
α 2
(α + s2 )−1 ,
π
s ∈ R.
Im Falle α = 0, β = 1 ist das Spektralmaß das auf 0 konzentrierte W-Maß. Im Falle α > 0,
β > 0 liegt bei Pfadstetigkeit ein — hier stationärer — sog. Ornstein-Uhlenbeck-Prozess
(Diffusionsprozess mit Driftkoeffizient a(x) = −αx, Diffusionskoeffizient b(x) = 2αβ ) vor.
Im Falle α = 0 gilt bei Pfadstetigkeit Xt = X0 , t ≥ 0, mit N (0, β)-verteiltem X0 .
4.2
Ergodensätze
Stationarität bedeutet im Folgenden strikte Stationarität gemäß Definition 1.1. Zugrundegelegt wird ein W-Raum (Ω, A, P ).
Definition 2.1. Die Transformation T : (Ω, A) → (Ω, A) heißt maßerhaltend, wenn
P = P ◦ T −1 , d.h.
−1
∀ P (A) = P (T (A)).
A∈A
Lemma 2.1. Zu jeder stationären Folge (Xn )n∈N0 reeller ZVn existieren eine reelle ZV X
auf (Ω, A, P ) und eine maßerhaltende Transformation T : Ω → Ω derart, dass
Xn = X ◦ T n , n ∈ N0
(T 0 = Identität, T 1 = T, T 2 = T ◦ T usw.) — und umgekehrt.
Definition 2.2. Sei T : Ω → Ω eine maßerhaltende Transformation.
AT := {A ∈ A : T −1 (A) = A}
(T −1 Urbildfunktion) ist die sog. σ-Algebra der T -invarianten Mengen.
30
Lemma 2.2. Eine messbare Abbildung X : (Ω, A) → (R, B) ist genau dann AT -Bmessbar, wenn X ◦ T = X.
Satz 2.1 (Individueller Ergodensatz, Birkhoff 1931). Sei (Xn )n∈N0 eine stationäre
Folge integrierbarer reeller ZVn. Dann gilt
n−1
1X
Xi → E(X0 |AT ) P -fast sicher (f.s.),
n i=0
mit T gemäß Lemma 2.1.
Bemerkung 2.1. Sei {Xt : t ∈ R+ } ein stationärer Prozess mit Zustandsraum R. Dann
existiert eine integrierbare reelle ZV X̃ derart, dass
Z
1 s
Xt dt → X̃ (s → ∞) f.s.,
s 0
wobei E X̃ = EX0 .
Beweis von Satz 2.1. mit
Lemma 2.3 (maximal ergodic theorem). Sei X eine integrierbare reelle ZV und
P
i
T : Ω → Ω eine maßerhaltende Transformation. Mit Sk := k−1
i=0 X ◦ T und
Mn := max{0, S1 , . . . , Sn }
gilt (1 Indikatorfunktion)
E(X 1[Mn >0] ) ≥ 0, n ∈ N.
Definition 2.3. Eine stationäre Folge (Xn )n∈N0 reeller ZVn mit maßerhaltender Transformation T : Ω → Ω (gemäß Definition 2.1.) heißt ergodisch, wenn für A ∈ A
T −1 (A) = A =⇒ P (A) = 0 oder 1.
Korollar 2.1. Sei (Xn )n∈N0 eine stationäre ergodische Folge integrierbarer reeller ZVn.
Dann gilt
n−1
1X
Xi → EX0 f.s.
n i=0
Bemerkung 2.2. Eine unahängige Folge identisch verteilter (reeller) ZVn ist eine stationäre ergodische Folge.
Korollar 2.2 (Kolmogorovsches starkes Gesetz der großen Zahlen). Für eine
unabhängige Folge (Xn )n∈N0 identisch verteilter integrierbarer reeller ZVn gilt
n−1
1X
Xi → EX0
n i=0
31
f.s.
Satz 2.2 (Lp -Ergodensatz, von Neumann, 1931). Sei (Xn )n∈N0 eine stationäre Folge
Lp -integrierbarer reeller ZVn (p ≥ 1). Dann gilt
n−1
1X
Xi → E(X0 |AT ) in Lp (P )
n i=0
mit T gemäß Lemma 2.1.
Ist (Xn )n∈N0 sogar ergodisch, so gilt
n−1
1X
Xi → E(X0 ) in Lp (P ).
n i=0
4.3
Zeitreihen
Definition 3.1 Eine Zeitreihe ist ein stochastischer Prozess X = {Xt : t ∈ T } mit
Indexbereich T = N oder = Z mit reell- oder komplexwertigen Zufallsvariablen Xt .
Bemerkung: Aus technischen Gründen wird häufig T = Z gewählt.
Typische Modellierung/Zerlegung einer Zeitreihe X in eine deterministische Trendkomponente m, eine deterministische saisonale Komponente s und einen stochastischen Anteil
Z, von dem angenommen wird, dass er stationär ist:
Xt = mt + st + Zt
4.3.1
Schätzung des Trends
Lineares Trendmodell:
m(t) =
k
X
ai mi (t),
t∈Z
i=0
für gegebene reellwertige Funktionen m0 , . . . , mk : Z → R und Koeffizienten a0 , . . . , ak ∈
R, die für gegebene Daten X1 , . . . , Xn durch die Methode der kleinsten Quadrate bestimmt
werden können:
!2
k
n
X
X
Xt −
ai Mi (t)
min
a0 ,...,ak
t=1
i=0
Die mit diesen optimalen Koeffizienten gebildete Trendfunktion werde mit m̂ bezeichnet.
Beispiel: mi (t) = ti , i = 0, . . . , k.
4.3.2
Schätzung der saisonalen Komponente
Ist die Periodenlänge d ∈ N bekannt und gilt für den Stichprobenumfang n = md für ein
geeignetes m ∈ N, so wird für r = 1, . . . , d
m
1 X
s̃r =
Xr+(j−1)d
m j=1
32
periodisch auf r = d + 1, . . . , n fortgesetzt. Durch
d
ŝr := s̃r −
1X
s̃j ,
d j=1
r = 1, . . . , d
kann erreicht werden, dass für die saisonalen Anteile ŝ1 , . . . , ŝd stets
schließend wird ŝr auf r = d + 1, . . . , n periodisch fortgesetzt.
4.3.3
Pd
r=1
ŝr = 0. An-
Stationäre Zeitreihen
Definition 3.1 Eine Zeitreihe {et : t ∈ Z} heißt weißes Rauschen, falls Eet = 0, var(et ) =
σ 2 ∈ (0, ∞) und die et unkorreliert sind.
Das weiße Rauschen {et : t ∈ Z} bildet einen stationären Prozess mit γ(0) = σ 2 , γ(h) = 0
für h ∈ Z \ {0}.
Definition 3.2 Eine stationäre Zeitreihe {Xt : t ∈ Z} heißt ARMA(p, q)-Zeitreihe mit
den Ordnungen p, q ∈ N0 und Koeffizienten a1 , . . . , ap und b1 , . . . , bq mit a0 6= 0 und
bq 6= 0, falls für ein weißes Rauschen {et : t ∈ Z} gilt:
∀
t∈Z
4.3.4
Xt +
p
X
aν Xt−ν =
ν=1
q
X
bµ et−µ + et
µ=1
Vorhersage
Vorhersagen sind schwierig, insbesondere wenn sie die Zukunft betreffen. Karl Valentin
Soll Xt+k auf der Basis von Xt , . . . , X1 vorhergesagt werden, so liefert die bedingte Verteilung PXt+k |Xt ,...,X1 die vollständige Beschreibung dieser Frage. Soll spezieller ein konbt+k :=
kreter Wert vorhergesagt werden, so kann dies z.B. durch bedingte Erwartung X
R
E(Xt+k |Xt , . . . , X1 ) = R x PXt+k |Xt ,...,X1 (dx) geschehen. Da die gemeinsame Verteilung
der Zufallsvariablen X1 , . . . , Xt , Xt+k meist nicht bekannt oder nur schwer zu schätzen
ist, verwendet man in der Praxis häufig Schätzer für Xt+k , die sich als Linearkombination
von Xt , . . . , X1 darstellen lassen.
Satz 3.1 Sei X = {Xt : t ∈ Z} ein reeller zentrierter stationärer Prozess mit Autokobt+k von Xt+k (k ∈ N), basierend auf
varianzfunktion γ. Der beste lineare Prädiktor X
Xt , . . . , X1 , ist gegeben durch
bt+k :=
X
t
X
ai Xt+1−i ,
i=1
wobei die Koeffizienten a1 , . . . , at die Gleichungen
∀
j∈{t,...,t}
t
X
ai γ(|i − j|) = γ(j + k − 1)
i=1
33
erfüllen.
Ist γ bekannt, so ergibt sich a = (a1 . . . , at ) als Lösung des linearen Gleichungssystems
Aa = b, wobei A = (Aij ) mit Aij = γ(|i − j|) und b = (bj ) mit bj = γ(j + k − 1). Eine
solche Lösung a existiert immer, ist aber u.a. nicht eindeutig bestimmt. Im Gegensatz
bt+k immer eindeutig.
dazu ist aber die Vorhersage X
Ist γ unbekannt, so kann stattdessen mit dem Schätzer γ
b gearbeitet werden.
Die Levinson-Rekursion stellt eine effizientes Verfahren zur Berechnung des linearen Prädiktors zur Verfügung.
Lässt sich eine vorliegende Zeitreihe in einen Trendanteil, einen saisonalen Anteil und einen
stationären Anteil zerlegen, so kann eine Vorhersage dieser Zeitreihe durch Extrapolation
des Trendanteils, saisonalem Einfluss und vorhergesagtem Wert des stationären Anteils
angegeben werden.
34
Literaturverzeichnis
[1] H. Bauer, Wahrscheinlichkeitstheorie (4. Aufl.), de Gruyter 1991 [Kap. VIII, IX
[2] R.N. Bhattacharya, E.C. Waymire, Stochastic Processes with Applications,
Wiley 1990
[3] Z. Brzezniak, T. Zastawniak, Basic Stochastic Processes, Springer 1999
[4] R. Durrett, Essentials of Stochastic Processes, Springer 1999
[5] W. Feller, An Introduction to Probability Theory and its Applications, Vol. I (3rd
ed.), Vol. II (2nd ed.), Wiley 1968, 1971
[6] G. Grimmett, D. Stirzaker, Probability and Random Processes (3rd ed.), Oxford University Press 2001
[7] O. Kallenberg, Foundations of Modern Probability. Springer, New York (2001),
2nd ed.
[8] S. Karlin, A First Course in Stochastic Processes (2nd ed.), Academic Press 1975
[9] S. Karlin, H.M. Taylor, A Second Course in Stochastic Processes, Academic
Press 1975
[10] A. Klenke, Wahrscheinlichkeitstheorie, Springer 2006
[11] J.-P. Kreiß, G. Neuhaus, Einführung in die Zeitreihenanalyse, Springer 2006.
[12] Sh.M. Ross, Stochastic Processes, Wiley 1983
35
Herunterladen