Stochastische Prozesse WS 2008/09 Vorlesung von Priv.-Doz. Dr. J. Dippon 26. Februar 2009 Inhaltsverzeichnis 1 Erneuerungstheorie 1.1 Elementare Eigenschaften von Erneuerungsprozessen . 1.2 Der Hauptsatz der Erneuerungstheorie . . . . . . . . . 1.3 Verzögerte Erneuerungsprozesse . . . . . . . . . . . . . 1.4 Anwendungen des Hauptsatzes der Erneuerungstheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2 5 8 10 2 Markov-Ketten mit abzählbarem Indexbereich 13 2.1 Grundbegriffe aus der Theorie der Markov-Ketten . . . . . . . . . . . . . . 13 2.2 Asymptotisches Verhalten homogener Markov-Ketten . . . . . . . . . . . . 16 2.3 Anzahl der Kunden bei M/G/1 unmittelbar nach der Bedienung des n-ten Kunden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 3 Grundbegriffe aus der Theorie der Markov-Prozesse 3.1 Definition und Konstruktion von Markovschen Prozessen 3.2 Zur Stetigkeit von Pfaden bei Markov-Prozessen . . . . . 3.3 Wiener- und Poisson-Prozess . . . . . . . . . . . . . . . . 3.4 Diffusionsprozesse . . . . . . . . . . . . . . . . . . . . . . 3.5 Markovsche Sprungprozesse . . . . . . . . . . . . . . . . 4 Aspekte der Theorie stationärer Prozesse 4.1 Stationäre Prozesse, Gauß-Prozesse, stationäre 4.2 Ergodensätze . . . . . . . . . . . . . . . . . . 4.3 Zeitreihen . . . . . . . . . . . . . . . . . . . . 4.3.1 Schätzung des Trends . . . . . . . . . . 4.3.2 Schätzung der saisonalen Komponente 4.3.3 Stationäre Zeitreihen . . . . . . . . . . 4.3.4 Vorhersage . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . Gauß-Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 21 23 24 25 27 . . . . . . . 28 28 30 32 32 32 33 33 35 1 Kapitel 1 Erneuerungstheorie Ausgangspunkt der Erneuerungstheorie ist die folgende Fragestellung: Ein Bauelement mit endlicher zufälliger Lebensdauer wird bei Ausfall durch ein gleichartiges Bauelement ersetzt. Welches wahrscheinlichkeitstheoretische Verhalten hat die Zufallsvariable, welche die Anzahl der Erneuerungen in einem vorgegebenen Zeitintervall angibt? 1.1 Elementare Eigenschaften von Erneuerungsprozessen Definition 1.1. Sei (Xn )n∈N eine unabhängige Folge identisch verteilter nichtnegativreeller Zufallsvariablen auf einem W-Raum (Ω, A, P ). Die zugehörige Partialsummenfolge (Sn )n∈N mit Sn := X1 + . . . + Xn heißt (gewöhnlicher) Erneuerungsprozess in R+ . Die Familie {Na : a ∈ R+ } der erweitert-reellen Zufallsvariablen Na := N (a, ·) := sup{k ∈ N|Sk ≤ a} mit sup ∅ := 0 (stochastischer Prozess mit Indexbereich R+ und Zustandsraum R+ ) heißt der zum Erneuerungsprozess (Sn ) gehörige Zählprozess. Die Funktion V : R+ → R+ mit V (a) := ENa + 1, a ∈ R+ , heißt Erneuerungsfunktion. Bemerkung 1.1. zu Definition 1.1. Die Zufallsvariable Xn gibt die Lebensdauer des n-ten Bauelements an, die Zufallsvariable Sn den n-ten Erneuerungszeitpunkt, die Zufallsvariable Na die Anzahl der im Zeitintervall [0, a] auftretenden Erneuerungen, die Zufallsvariable Na + 1 die Anzahl der Schritte in der Irrfahrt (Sn ) [Irrfahrt (random walk) . . . Partialsummenfolge zu einer unabhängigen Folge identisch verteilter (reeller) Zufallsvariablen] bis zum Überschreiten des Zieles a ∈ R+ oder bis zum Erreichen des Zieles (a, ∞) mit a ∈ R+ . V (a) gibt die mittlere Anzahl der Schritte bis zum Erreichen des Zieles (a, ∞) an. Häufig wird auch die Funktion U := V − 1 als Erneuerungsfunktion bezeichnet. 2 Allgemeine Voraussetzung: P [X1 = 0] < 1, d.h. hier EX1 > 0 . Lemma 1.1. (Xn ), (Sn ), Na (a ∈ R+ ) wie oben; S0 := 0 . Dann gilt: {ω ∈ Ω | N (a, ω) = k} = {ω ∈ Ω | Sk (ω) ≤ a < Sk+1 (ω)} ∈ A für k ∈ N0 := {0, 1, . . .} {ω ∈ Ω | N (a, ω) = ∞} = {ω ∈ Ω | ∀ Sk (ω) ≤ a} ∈ A . k [Na < j] = [Sj > a], [Na ≤ j] = [Sj+1 > a] , [Na ≥ j] = [Sj ≤ a], [Na > j] = [Sj+1 ≤ a] für j ∈ N0 . P-f.s. ∀ Na < ∞, Na → ∞ (a → ∞) . a∈R+ Satz 1.1. (Xn ), (Sn ), Na , V (a) := ENa +1 (a ∈ R+ ) wie oben, S0 := 0 . Sei F die Restriktion der Verteilungsfunktion von X1 auf R+ , F n∗ die Restriktion der Verteilungsfunktion von Sn := X1 + . . . + Xn auf R+ (n ∈ N0 ) . Dann gilt ∞ X V = F n∗ . n=0 Lemma 1.2. Ist X1 eine nichtnegative-reelle Zufallsvariable mit P [X1 = 0] < 1, d.h. P [X1 > 0] > 0, dann existiert ein δ > 0 mit P [X1 ≥ δ] > 0 . Lemma 1.3. Für die Erneuerungsfunktion V in Satz 1.1 gilt ∀ V (a) < ∞ . a∈R+ V ist monoton nichtfallend und rechtsseitig stetig, also die Restriktion einer maßdefinierenden Funktion auf R+ . Definition 1.2. H : R+ → R+ sei die Restriktion einer auf (−∞, 0) verschwindenden maßdefinierenden Funktion auf R+ . W : (R+ , B+ ) → (R, B) sei auf endlichen Intervallen beschränkt. H ∗ W : R+ → R wird definiert durch Z (H ∗ W )(a) := W (a − x)H(dx), a ∈ R+ . [0,a] H1,2 : R+ → R+ seien Restriktionen wie zuvor. H1 ∗ H2 = H2 ∗ H1 H1 ∗ (H2 ∗ W ) = (H1 ∗ H2 ) ∗ W . Satz 1.2. (Xn ), (Sn ), Na , V (a) := ENa + 1 (a ∈ R+ ) wie oben. Sei F die Restriktion der Verteilungsfunktion von X1 auf R+ . V genügt der Integralgleichung Z (1.1) V = 1 + F ∗ V, d.h. V (a) = 1 + V (a − x)F (dx), [0,a] 3 a ∈ R+ , d.h. Z V ∗ (1 − F ) = 1, d.h. (1.2) [1 − F (a − x)]V (dx) = 1, a ∈ R+ . [0,a] Korollar 1.1. Voraussetzungen von Satz 1.2. Ferner besitze F eine Zähldichte (pk )k∈N0 (p0 < 1 nach allgemeiner Voraussetzung). Dann ist V auf den Intervallen [j, j +1), j ∈ N0 , konstant. Es gilt die Rekursionsformel V (m) = (1 − p0 )−1 [1 + m X V (m − k)pk ] (m ∈ N), wobei V (0) = (1 − p0 )−1 . k=1 Satz 1.3 (Doob 1948). (Xn ), (Sn ), {Na : a ∈ R+ } wie oben. P-f.s. konvergiert 1 Na → (a → ∞) , a EX1 wobei 1 := 0 für EX1 = ∞ . EX1 Lemma 1.4. Sei (Xn ) eine unabhängige Folge identisch verteilter nichtnegativ-reeller Zufallsvariablen mit EX1 = ∞ . Für die Partialsummenfolge (Sn ) gilt dann Sn −→ ∞ (n → ∞) f.s. n Lemma 1.5. a) Sei X eine erweitert-reelle Zufallsvariable auf (Ω, A, P ), deren Verteilung auf R+ konzentriert sei, mit P [0 < X < ∞] > 0. Dann gilt die Äquivalenz ∀ P [X > t + s|X > s] = P [X > t] (Gedächtnislosigkeit) s,t∈(0,∞) ⇐⇒ PX ist eine Exponentialverteilung. b) Für eine exp(λ)-verteilte Zufallsvariable X (λ > 0) gilt EX = 1 , λ V (X) = 1 . λ2 Lemma 1.6 (betrifft Gamma-Verteilung). a) Für eine Γλ,ν -verteilte Zufallsvariable X (λ > 0, ν > 0), d.h. eine (erweitert-)reelle Zufallsvariable X mit Dichte f : R → R+ mit ν λ xν−1 e−λx , x > 0 Γ(ν) f (x) = 0 , x≤0 gilt EX = ν , λ 4 V (X) = ν . λ2 b) Für λ → 0, r1,2 > 0 gilt Γλ,r1 ∗ Γλ,r2 = Γλ,r1 +r2 . Insbesondere ist Γλ,n die n-fache Faltung von exp(λ) (n ∈ N) . Lemma 1.7 (betrifft Poisson-Verteilung). a) Für eine π(λ)-verteilte Zufallsvariable X (λ > 0) gilt EX = V (X) = λ . b) Für λ1,2 > 0 gilt π(λq1 ) ∗ π(λ2 ) = π(λ1 + λ2 ) . Satz 1.4. Unabhängige Folge (Xn ) identisch verteilter nichtnegativ-reeller Zufallsvariablen mit PX1 = exp(λ) (λ > 0) . Dazu {Na : a ∈ R+ } wie oben. Dann ist Na π(λa)-verteilt (a > 0), N0 = 0 f.s. Bemerkung 1.2. Der stochastische Prozess {Na : a ∈ R+ } aus Satz 1.4 ist ein sogenannter Poisson-Prozess mit Parameter λ. Aus Satz 1.3 und Lemma 1.5b folgt Na → λ (a → ∞) f.s. a Satz 1.5 (Elementares Erneuerungstheorem; Feller 1941). (Xn ), (Sn ), Na , V (a) := ENa + 1 (a ∈ R+ ) wie oben. Es gilt V (a) 1 → a EX1 wobei 1.2 (a → ∞) , 1 := 0 für EX1 = ∞ . EX1 Der Hauptsatz der Erneuerungstheorie Definition 2.1. Eine nichtnegativ-reelle Zufallsvariable X heißt gitterförmig verteilt, wenn ein λ > 0 derart existiert, daß die Verteilung PX auf {0, λ, 2λ, 3λ, . . .} konzentriert ist (d.h. PX ({0, λ, 2λ, . . .}) = 1). Das maximale λ heißt Spanne der gitterförmigen Verteilung. Satz 2.1 (Erneuerungstheorem von Blackwell, 1948). 1 (Xn ), (Sn ), Na , V (a) := ENa + 1 (a ∈ R+ ) wie oben; := 0, falls EX1 = ∞ . EX1 a) Sei PX1 gitterförmig mit Spanne λ(> 0) . Sei h ein beliebiges positiv-ganzzahliges Vielfaches von λ . Dann gilt V (a) − V (a − h) → h EX1 (a → ∞) . b) Sei PX1 nicht gitterförmig. Für beliebiges festes h > 0 gilt dann V (a) − V (a − h) → 5 h EX1 (a → ∞) . Lemma 2.1. Gegegen sei z : R+ → R+ . Sei h > 0 , zunächst fest. m j := inf{z(t) : (j − 1)h ≤ t < jh}, mj := sup{z(t) : (j − 1)h ≤ t < jh}, ∞ ∞ P P mj . σ(h) := h m j , σ(h) := h j=1 j ∈ N. j=1 Es gilt: 0 ≤ σ(h) ≤ σ(h) ≤ ∞ ; entweder ∀ σ(h) < ∞ oder ∀ σ(h) = ∞ , h>0 h>0 wobei im ersteren Falle σ(h) und σ(h) für h → 0 konvergieren. Definition 2.2. Eine B+ − B+ -messbare Funktion z : R+ → R+ heißt direkt Rintegrierbar, wenn ∃ σ(h) < ∞ (⇐⇒ ∀ σ(h) < ∞) h>0 h>0 und lim σ(h) = lim σ(h) . h→0 h→0 Bemerkung 2.1. Sei z : (R+ , B+ ) → (R+ , B+ ) . a) ∃ σ(h) < ∞ h>0 z direkt R-integrierbar ⇐⇒ z über jedes beschränkte Intervall R-integrierbar b) Falls z ↓ und das uneigentliche R-Integral R∞ z(t) dt endlich ist, dann ist z direkt R- 0 integrierbar. Lemma 2.2. X1 ≥ 0 . Erneuerungsfunktion V. V (t) := 0 (t < 0) . Beliebiges h > 0 . a) V ∗ 1[0,h) = V − V (· − h) , allgemeiner ∀ V ∗ 1[x,x+h) = V (· − x) − V (· − x − h) . x∈R+ b) Es existiert ein C = C(h) < ∞ mit ∀ V (a) − V (a − h) ≤ C , a∈R also auch — wegen a) — ∀ ∀ (V ∗ 1[x,x+h) )(a) ≤ C . x∈R+ a∈R+ 6 Satz 2.2 (Hauptsatz der Erneuerungstheorie, W. L. Smith 1954, Feller 1966). (Xn ), (Sn ), Na (a ∈ R+ ) wie oben mit X1 ≥ 0. Erneuerungsfunktion V : R+ → R+ mit V (a) := ENa + 1 (a ∈ R+ ) . 1 := 0, falls EX1 = ∞ . EX1 Sei z : R+ → R+ direkt R-integrierbar. a) PX1 sei gitterförmig mit Spanne λ > 0 . Dann gilt ∞ λ X z(δ + jλ) . ∀ (V ∗ z)(δ + nλ) → EX1 j=0 δ∈[0,λ) b) PX1 sei nicht gitterförmig. Dann gilt Z 1 (V ∗ z)(a) → EX1 z(x)dx (a → ∞) . R+ Bemerkung 2.2. a) Satz 2.2 läßt sich auf z : R+ → R übertragen durch Zerlegung von z in einen positiven und einen negativen Teil. b) Satz 2.2 ⇐⇒ Satz 2.1 =⇒ Satz 1.5. Ergänzungen zum Hauptsatz der Erneuerungstheorie Satz 2.3. (Xn ), (Sn ), Na (a ∈ R+ ), V wie oben. Ferner gelte EX1 < ∞ . a) PX1 sei gitterförmig mit Spanne λ > 0 . Dann gilt ∀ 0 ≤ V (δ + nλ) − δ∈[0,λ) δ + nλ δ E[X1 (X1 + λ)] − → 2 EX1 2(EX1 ) EX1 b) PX1 sei nicht gitterförmig. Dann gilt 0 ≤ V (a) − a EX12 → EX1 2(EX1 )2 (a → ∞) . Dabei ist in a) und b) die rechte Seite ∞ falls EX12 = ∞ . Lemma 2.3. Zufallsvariable X ≥ 0 mit Verteilungsfunktion F . a) ∀ EX n < ∞ =⇒ xn (1 − F (x)) → 0 (x → ∞) . n∈N b) ∀ n∈N R∞ 0 xn−1 (1 − F (x))dx = n1 EX n insbesondere (≤ ∞) , R∞ (1 − F (x))dx = EX . 0 Satz 2.4. (Xn ), (Sn ), Na (a ∈ R+ ) , V wie oben. 7 (n → ∞) . a) X1 habe eine Dichte f . Dann existiert v : (R, B+ ) → (R+ , B+ ) Ra mit V (a) = 1 + v(x)dx, a ∈ R+ , 0 v . . . sogenannte Erneuerungsdichte. Man kann v := V ∗ f (f restringiert auf R+ ) wählen. b) X1 habe eine auf R+ direkt R-integrierbare Dichte. Dann existiert eine Erneuerungs1 (a → ∞) . dichte v mit v(a) → EX1 1.3 Verzögerte Erneuerungsprozesse Definition 3.1. Unabhängige Folge (X0 , X1 , X2 , . . .) nichtnegativ-reeller Zufallsvariablen auf einem W-Raum (Ω, A, P ), wobei die Zufallsvariablen X1 , X2 , . . . identisch verteilt seien. Die Partialsummenfolge (Sn ) mit S0 := X0 , S1 := X0 +X1 , . . . heißt ein (verzögerter) Erneuerungsprozess. Allgemeine Voraussetzung: P [X1 = 0] < 1 . Definition 3.2. (Sn ) gemäß Definition 3.1. Mit der Bezeichnung (hier sup ∅ := −1) Na := sup{k ∈ N0 : Sk ≤ a}+1, a ∈ R+ , heißt W : R+ → R mit W (a) := ENa , a ∈ R+ , Erneuerungsfunktion. Bezeichnungen: F0 Verteilungsfunktion von X0 , F Verteilungsfunktion von X1 bzw. jeweils ∞ P Restriktion auf R+ . V = F n∗ gemäß § 1. n=0 Im folgenden werden die Begriffe aus Definition 3.1, 3.2 zugrundegelegt. Bemerkung 3.1. Im Falle P [X0 = 0] = 1 gilt W = V . Satz 3.1. W = F0 ∗ V . Satz 3.2. W = F0 + F ∗ W . Satz 3.3. P-f.s. Satz 3.4. Na 1 → (a → ∞) . a EX1 1 W (a) → (a → ∞) . a EX1 Satz 3.5. a) PX1 sei gitterförmig mit Spanne λ. h sei ein positiv-ganzzahliges Vielfaches von λ . Dann gilt h (a → ∞) . W (a) − W (a − h) → EX1 8 b) PX1 sei nicht gitterförmig, h > 0 . Dann gilt W (a) − W (a − h) → h (a → ∞) . EX1 Satz 3.6. . . . Satz 2.2 mit W statt V . Satz 3.7. Sei EX0 < ∞, EX1 < ∞ . a) PX0 , PX1 seien gitterförmig mit Spanne λ . W (δ + nλ) − ∀ δ∈[0,λ) δ + nλ E[X1 (X1 + λ)] δ EX0 − → − ( n → ∞) . 2 EX1 2(EX1 ) EX1 EX1 |{z} ∈N b) PX1 sei nicht gitterförmig. EX12 EX0 a − W (a) − → (a → ∞) . 2 EX1 2(EX1 ) EX1 Satz 3.8. X1 habe eine Dichte f (auf R+ restringiert). Mit w = W ∗ f gilt Za w(x)dx, a ∈ R+ . W (a) = F0 (a) + 0 Ist f direkt R-integrierbar, dann gilt w(a) → 1 (a → ∞) . EX1 Satz 3.9. Sei (Sn )n∈N ein verzögerter Erneuerungsprozess mit EX1 < ∞ . Dann gilt die folgende Äquivalenz: ∀ a∈R+ a W (a) = EX1 ⇐⇒ ∀ a∈R+ 1 F0 (a) = EX1 Za (1 − F (x))dx . 0 Bemerkung 3.2. F0 in Satz 3.9 ist eine Verteilungsfunktion (restringiert auf R+ ). Definition 3.3. Ein verzögerter Erneuerungsprozess (Sn )n∈N0 mit EX1 < ∞ und W (a) = a , a ∈ R+ , heißt stationärer Erneuerungsprozess. EX1 Satz 3.10. Unabhängig identisch verteilte nichtnegativ-reelle Zufallsvariablen X0 , X1 , X2 , . . . . Sei Sn := X0 +. . .+Xn (n ∈ N0 ), so daß also ein verzögerter Erneuerungsprozess (Sn )n∈N0 mit F0 = F vorliegt. Dann gilt die folgende Äquivalenz: (Sn )n∈N0 stationärer Erneuerungsprozess ⇐⇒ Xn exponentialverteilt (d.h. der zugehörige Zählprozess gemäß Definition 1.1 ist — nach Bemerkung 1.2 — ein Poisson-Prozess). 9 1.4 Anwendungen des Hauptsatzes der Erneuerungstheorie Im folgenden (Xn ), (Sn ), {Na ; a ∈ R+ }, V wie in § 2. 1 := 0, falls EX1 = ∞ . EX1 Zufallsvariable Ya := SNa +1 − a, a ∈ R+ . . . Restwartezeit, Restlebensdauer des im Zeitpunkt a in Betrieb befindlichen Bauelements. Zufallsvariable La := XNa +1 = SNa +1 − SNa , a ∈ R+ . . . (Gesamt-)Lebensdauer des im Zeitpunkt a in Betrieb befindlichen Bauelements. Satz 4.1. R a) ∀ P [Ya ≤ ξ] = [F (a − x + ξ) − F (a − x)] V (dx) . ∀ F sei die Restriktion der Verteilungsfunktion von X1 auf R+ · a∈R+ ξ∈R+ [0,a] b) Ist PX1 nicht gitterförmig, dann gilt ∀ ξ∈R+ 1 P [Ya ≤ ξ] → EX1 Zξ [1 − F (t)] dt (a → ∞) , 0 im Falle EX1 < ∞ also Verteilungskonvergenz. Bemerkung 4.1. zu Satz 4.1b. Sei EX1 < ∞. Die Abbildung 0 für ξ < 0 ξ→ 1 Rξ [1 − F (s)] ds für ξ ≥ 0 EX1 0 ist die Verteilungsfunktion von X0 = S0 bei dem zu (Sn )n∈N gehörigen stationären verzögerten Erneuerungsprozess (Sn )n∈N0 (siehe Satz 3.9). Von einem großen a an verhält sich also der betrachtete Erneuerungsprozess näherungsweise wie der zugehörige stationäre verzögerte Erneuerungsprozess (asymptotische Stationarität). Bemerkung 4.2. Ist {Nt ; t ∈ R+ } ein Poisson-Prozess mit Parameter λ, so ist für jedes a ∈ R+ auch {Nt+a − Na ; t ∈ R+ } ein Poisson-Prozess mit Parameter λ. Satz 4.2. a) Mit der Bezeichnung y+ := ∀ a∈R+ ∀ ξ∈R+ y für y ≥ 0 gilt 0 für y ≤ 0 R P [La ≤ ξ] = [F (ξ) − F (a − x)]+ V (dx) . [0,a] 10 b) Ist PX1 nicht gitterförmig, dann gilt ∀ ξ∈R+ 1 P [La ≤ ξ] → EX1 Zξ [F (ξ) − F (t)] dt 0 = 1 EX1 Z xF (dx) (a → ∞) , [0,ξ] im Falle EX1 < ∞ also Verteilungskonvergenz. Bemerkung 4.3. Das Inspektionsparadoxon oder Wartezeitenparadoxon besagt, daß die Lebensdauer des im Zeitpunkt a in Betrieb befindlichen [inspizierten] Bauelements im allgemeinen ein anderes wahrscheinlichkeitstheoretisches Verhalten besitzt als die Lebensdauern Nr. 1,2,. . . . Definition 4.1. Seien Xn , n ∈ N, reelle Zufallsvariablen auf (Ω, A, P ). T : Ω → N heißt Stoppzeit zu (Xn )n∈N , wenn ∀ k∈N d.h. ∀ k∈N ∃ B∈Bk [T = k] ∈ F(X1 , . . . , Xk ) := {(X1 , . . . , Xk )−1 (B); B ∈ Bk }, | {z } von X1 , . . . , Xk in Ω erzeugte σ-Algebra [T = k] = [(X1 , . . . , Xk ) ∈ B] Als Hilfsmittel zum Beweis von Satz 4.4a dient Satz 4.3. Folge (Xn )n∈N von unabhängigen identisch verteilten integrierbaren reellen Zufallsvariablen auf (Ω, A, P ); dazu eine integrierbare Stoppzeit T : (Ω, A) → (N, P(N)). Dann gilt die sogenannte Waldsche Gleichung E T X Xi = EX1 · ET . i=1 Im Falle X1 ≥ 0 gilt die Gleichung auch ohne Integrierbarkeitsvoraussetzung für Xn , T . Satz 4.4. a) ∀ a∈R+ EYa = EX1 · V (a) − a (rechte Seite = ∞, falls EX1 = ∞) b) Ist PX1 nicht gitterförmig und EX1 < ∞, dann gilt EYa → EX12 2EX1 (a → ∞) (rechte Seite = ∞, falls EX12 = ∞). Satz 4.5. Unabhängige nichtnegativ-reelle Zufallsvariablen X1 , Y1 , X2 , Y2 , . . . mit identischer Verteiltheit der Xn und identischer Verteiltheit der Yn [oder unabhängige identisch verteilte Paare (Xn , Yn ) nichtnegativ-reeller Zufallsvariablen Xn , Yn (n ∈ N)], wobei 11 EX1 < ∞ und X1 + Y1 nicht gitterförmig verteilt sei. Für t ∈ R+ sei 1, falls ∃ X1 + Y1 + . . . + Xn−1 + Yn−1 ≤ t < X1 + Y1 + . . . + Xn−1 + Yn−1 + Xn Zt := n∈N 0 sonst . Dann gilt P [Zt = 1] → EX1 EX1 + EY1 (t → ∞) (rechte Seite = 0, falls EY1 = ∞). 12 Kapitel 2 Markov-Ketten mit abzählbarem Indexbereich 2.1 Grundbegriffe aus der Theorie der Markov-Ketten Definition 1.1. W-Raum (Ω, A, P ). Eine Folge (Xn )n∈N0 von Zufallsvariablen Xn : (Ω, A) → (N0 , P(N0 )) heißt Markov-Kette (mit abzählbarem Indexbereich), wenn gilt (1) P [Xn+1 = kn+1 |X0 = k0 , . . . , Xn = kn ] ∀ ∀ n∈N0 (k0 ,...,kn+1 )∈Nn+1 0 = P [Xn+1 = kn+1 |Xn = kn ] , falls die linke und damit auch die rechte Seite definiert sind. Bemerkung 1.1. zu Definition 1.1. Die Werte aus dem Bildraum heißen Zustände; der Bildraum heißt Zustandsraum. Definition 1.1. läßt sich in natürlicher Weise auf einen höchstens abzählbaren, insbesondere endlichen, Zustandsraum übertragen. Bei endlichem Zustandsraum liegt eine sogenannte endliche Markovkette vor. Bemerkung 1.2. Bei einer Markov-Kette ist das wahrscheinlichkeitstheoretische Verhalten in der Zukunft (Indizes > n) nur abhängig von der Gegenwart (Index = n) und nicht noch zusätzlich von der Vergangenheit (Indizes < n). Lemma 1.1. Bei einer Markov-Kette (Xn ) gilt für beliebige Indizes m1 < m2 < . . . < mr < m < m + n und beliebige Zustände i1 , . . . , ir , j, k die Beziehung (2) P [Xm+n = k|Xm1 = i1 , . . . , Xmr = ir , Xm = j] = P [Xm+n = k|Xm = j] , falls die linke Seite definiert ist. Definition 1.2. Eine Markov-Kette (Xn ) heißt (zeitlich) homogen [oder hat sogenannte stationäre Übergangswahrscheinlichkeiten], wenn die Wahrscheinlichkeit in (2) von der Länge n des Zeitintervalls [m, m + n], aber nicht vom Zeitpunkt m, abhängt. 13 Definition 1.3. Sei (Xn ) eine homogene Markov-Kette. pjk := P [Xm+1 = k|Xm = j] = P [X1 = k|X0 = j], j, k ∈ N0 , m ∈ N0 , ∞ P wobei, falls pjk zunächst nicht definiert, 0 ≤ pjk ≤ 1 und pjk = 1 gelten soll. k=0 Die Matrix P := (pjk )j,k∈N0 heißt Matrix der Übergangswahrscheinlichkeiten, Übergangsmatrix, stochastische Matrix. Auch Matrizen (pjk )j,k∈M bei festem M ⊂ N0 mit P 0 ≤ pjk ≤ 1 , pjk = 1 heißen stochastische Matrizen. k∈M Satz 1.1. Homogene Markov-Kette (Xn ) mit Übergangsmatrix P . (n) pjk := P [Xm+n = k|Xm = j] = P [Xn = k|X0 = j], j, k ∈ N0 , m ∈ N0 , n ∈ N , falls definiert. Es gilt (bei geeigneter Erweiterung des Definierten, falls erforderlich): (n) (pjk )j,k∈N0 = P n (n-faches Matrizenprodukt), ∞ X (m) (n) (m+n) pjl plk , j, k ∈ N0 , m, n ∈ N . = pjk (2.1) l=0 Bemerkung 1.3 zu Satz 1.1. (3) ist ein Spezialfall (für homogene Markov-Ketten) der Chapman-Kolmogorov-Gleichung. — Das wahrscheinlichkeitstheoretische Verhalten von (Xn ) ist durch die Anfangswahrscheinlichkeiten aj := P [X0 = j] , j ∈ N0 , und die Übergangsmatrix P = (pjk )j,k∈N0 eindeutig festgelegt. Insbesondere gilt ∞ X (n) aj pjk , k ∈ N0 , n ∈ N . P [Xn = k] = j=0 Allgemeine Voraussetzung: Für jeden Zustand j ∈ N0 der homogenen Markov-Kette (Xn ) mit Übergangsmatrix P existiert i ∈ N0 mit pij > 0 . Weitere Bezeichnungen Sei (Xn )n∈N0 eine homogene Markov-Kette mit Übergangsmatrix P . i, j ∈ N0 , fest. (n) fjj sei Wahrscheinlichkeit, daß erste Rückkehr in den Zustand j nach n Schritten stattfindet, n ∈ N . (1) (n) Also fjj = pjj , fjj = P [Xr 6= j (r = 1, . . . , n − 1), Xn = j|X0 = j] . (n) fjk sei Wahrscheinlichkeit, daß bei Start in j Ankunft in k erstmals nach n Schritten stattfindet, n ∈ N . (1) (n) Also fjk = pjk , fjk = P [Xr 6= k (r = 1, . . . , n − 1), Xn = k|X0 = j] . ∞ P (n) fjj ist Wahrscheinlichkeit, daß Rückkehr nach j jemals wieder stattfindet. fjj := fjk := n=1 ∞ P n=1 (n) fjk ist Wahrscheinlichkeit, daß bei Start in j Zustand k jemals erreicht wird. (1) (2) (1) (2) Im Falle fjj = 1 bzw. fjk = 1 ist (0, fjj , fjj , . . .) bzw. (0, fjk , fjk , . . .) eine Zähldichte. j → k . . . k ist mit positiver Wahrscheinlichkeit von j aus in endlich vielen Schritten erreichbar, d.h. fjk > 0 . 14 j ←→ k . . . j → k ∧ k → j . (n) Definition 1.4. (Xn )n∈N0 homogene Markov-Kette; pjk , fjk wie oben. Der Zustand j ∈ N0 heißt a) rekurrent (persistent), wenn fast sicher Rückkehr in j nach endlich vielen Schrit∞ P (n) ten, d.h. wenn fjj := fjj = 1 ; n=1 b) transient, wenn fjj < 1 ; a1 ) positiv-rekurrent, wenn rekurrent und sogenannte mittlere Rekurrenzzeit µj := ∞ P (n) nfjj < ∞ ; n=1 a2 ) null-rekurrent, wenn rekurrent und µj = ∞ ; (n) c) periodisch, wenn t ∈ {2, 3, . . .} existiert mit pjj = 0 für n ∈ / {t, 2t, . . .} ; d) aperiodisch, wenn nicht periodisch; e) ergodisch, wenn aperiodisch und positiv-rekurrent. Satz 1.2. (Xn )n∈N0 homogene Markov-Kette; pij wie oben; j ∈ N0 , fest. ∞ P (n) a) j rekurrent ⇐⇒ pjj = ∞ n=1 ~ w w w w w w def. w ∞ ∞ P P (n) (n) i →j pij = ∞ falls |{z} fjj = 1 n=1 n=1 ∈N0 b) j transient ⇐⇒ ~ w w w def. ∞ P (n) fjj < 1 n=1 ∞ P (n) pjj < ∞ n=1 w w w w ∞ P (n) pij < ∞ ∀ i∈N0 n=1 Lemma 1.2. (Xn ) homogene Markov-Kette. j, k ∈ N0 . Sei j rekurrent, j → k . Dann fkj = 1 . Satz 1.3. (Xn ) homogene Markov-Kette. Es gelte j ←→ k . Dann sind j, k beide von demselben Typ, d.h. j, k beide transient oder beide positiv-rekurrent oder beide nullrekurrent, ferner j, k beide aperiodisch oder beide periodisch mit derselben Periode. 15 Definition 1.5. Eine homogene Markov-Kette heißt transient, wenn jeder Zustand transient ist, usw. Definition 1.6. Eine homogene Markov-Kette heißt irreduzibel, wenn ∀ j ←→ k . j,k Lemma 1.3. a) Für eine irreduzible Markov-Kette sind alle Zustände von demselben Typ. Eine irreduzible Markov-Kette ist also transient oder positiv-rekurrent oder null-rekurrent. b) Für eine rekurrente irreduzible Markov-Kette gilt ∀ fjk = 1 . j,k 2.2 Asymptotisches Verhalten homogener MarkovKetten Bezeichnungen aus Abschnitt 2.1. (n) Satz 2.1. (Xn )n∈N0 homogene Markov-Kette; pij , fij , fij := ∞ P (n) fij wie oben. n=1 j ∈ N0 , fest, sei ein rekurrenter Zustand von (Xn ), also fjj = 1, mit mittlerer Rekur∞ P 1 (n) renzzeit µj := nfjj . := 0 , falls µj = ∞ . µj n=1 a) Sei j aperiodisch. Dann gilt (Ergodensatz für Markov-Ketten) (n) pjj → 1 (n → ∞) . µj allgemein (n) ∀ pij → i fij (n → ∞) . µj b) Sei j periodisch mit Periode t. Dann gilt (nt) pjj → t (n → ∞) . µj (r) Falls i ←→ j und rij der kleinste Wert von r mit pij > 0 ist, dann gilt (r +nt) pij ij →t 16 fij (n → ∞) . µj Beweis von Satz 2.1 mit den Lemmata 2.1, 2.2. Lemma 2.1. (Erdös, Feller, Pollard 1949). ∞ P Zähldichte (pn )n∈N0 , d.h. ∀ 0 ≤ pn ≤ 1, pn = 1, p0 6= 1. n∈N0 n=0 Die zugehörige (gitterförmige) Verteilung habe die Spanne λ(∈ N). ∞ P ψ : [0, 1] → [0, 1] mit ψ(s) := pn sn . . . erzeugende Funktion zu (pn ) . 1 1−ψ(s) ∞ P := n=0 vn sn , 0 ≤ s < 1 . µ := n=0 Dann gilt vλ·n → λ µ (n → ∞) , ∞ P npn . n=0 wobei µ1 := 0 , falls µ = ∞ . Bemerkung 2.1. Lemma 2.1 ⇐⇒ Satz 2.1a . Lemma 2.2. Voraussetzungen und Bezeichnungen wie in Lemma 2.1. ∞ P gn < ∞ . Zahlenfolge (gn )n∈N0 mit gn ≥ 0 (n ∈ N0 ) , G(s) := ∞ P n=0 gn sn , s ∈ [0, 1] . n=0 G(s) 1−ψ(s) Dann gilt =: R(s) =: ∞ P rn sn , s ∈ [0, 1] . n=0 ∞ λX gλ·k (n → ∞) . rλ·n → µ k=0 ( 1, n = 0 Bemerkung 2.2. Lemma 2.2 mit gn = ergibt Lemma 2.1. 0, n ∈ N Lemma 2.2. ⇐⇒ Satz 2.2a. Bemerkung 2.3. Homogene Markov-Kette (Xn ); k ∈ N0 sei aperiodisch. Dann gilt 0 (n → ∞) , falls k transient oder null-rekurrent, (n) fjk ∀ pjk → (n → ∞) , falls k positiv-rekurrent, j∈N0 µk wobei fjk = 1 , falls k → j . Satz 2.2. Sei (Xn )n∈N0 eine aperiodische irreduzible Markov-Kette mit Übergangsmatrix (n) P = (pjk )j,k∈N0 . pk := P [Xn = k] , k ∈ N0 , n ∈ N0 . a) Sei (Xn ) positiv-rekurrent und somit ergodisch. Dann gilt: α) ∀ 1 >0 n→∞ n→∞ µk =: Πk unabhängig von j ∈ N0 (n) k∈N0 (n) existiert lim pk = lim pjk = (0) unabhängig von der Ausgangszähldichte (pk )k∈N0 (µk mittlere Rekurrenzzeit des Zustands k) β) ∞ P Πk = 1 . (Πk )k∈N0 ist also eine Zähldichte und definiert die Grenzverteilung k=0 von (Xn ) im Sinne der Verteilungskonvergenz. 17 γ) (Πk )k∈N0 = (Π0 , Π1 , . . .) genügt den “Gleichgewichtsbedingungen” ∞ P (∗) xj pjk = xk (k = 0, 1, . . .) , d.h. xP = x mit x = (x0 , x1 , . . .) . j=0 (Πk )k∈N0 ist die einzige Lösung von (∗) mit ∀ k∈N0 xk ≥ 0 , ∞ P xk = 1 . k=0 Zu P gibt es also genau eine stationäre Verteilung, d.h. von i ∈ N0 (Indexbereich) unabhängige Verteilung PXi ; sie hat die Zähldichte (Πk ) . b) (∗) besitze eine Lösung x mit ∀ k∈N0 xk ≥ 0 , ∞ P xk = 1 . k=0 Dann ist (Xn ) positiv-rekurrent und somit ergodisch, und es gelten die Behauptungen in a). Satz 2.2b ist ein Hilfsmittel zum Nachweis der Ergodizität einer homogenen Markov-Kette und liefert die mittlere Rekurrenzzeit für k ∈ N0 . Anwendung in der Warteschlangentheorie Kunden treffen an 1 Schalter gemäß einem Erneuerungsprozess ein; die Bedienungszeiten (genauer: Bedienungszeitdauern) seien unabhängig — auch vom Erneuerungsprozess — und identisch verteilt . . . G/G/1 bzw. M/G/1 bzw. G/M/1 bzw. M/M/1, wobei allgemeinoder exponentialverteilte G oder M an erster Stelle “Lebensdauern” (hier Zeitspannen zwischen den Ankunftszeiten) des Erneuerungsprozesses und allgemein- bzw. exponentialverteilte (G bzw. M an zweiter Stelle) Bedienungszeiten und 1 (an dritter Stelle) Schalter vorliegen. 2.3 Anzahl der Kunden bei M/G/1 unmittelbar nach der Bedienung des n-ten Kunden Numerierung der Kunden: 0, 1, 2, . . . Zu M exp(λ) mit λ > 0 (zeitliches Eintreffen der Kunden gemäß Poisson-Prozess mit Parameter λ), zu G Verteilungsfunktion B : R → R mit B(t) = 0 (t ≤ 0), B(0) < 1 . Der Schalter sei im Zeitpunkt 0 frei. Die Zufallsvariable Xn gebe die Anzahl der Kunden in der Warteschlange für den Zeitpunkt an, in dem die Bedienung des n-ten Kunden zu Ende geführt ist; die Zufallsvariable Yn gebe die Anzahl der Kunden an, die während der Bedienungszeit des n-ten Kunden ankommen; die Zufallsvariable Zn (mit Verteilungsfunktion B) gebe die Bedienungszeit des n-ten Kunden an (n ∈ N0 ) . ( Xn − 1 + Yn+1 , falls Xn ≥ 1 Xn+1 = Yn+1 , falls Xn = 0 . Lemma 3.1. 18 a) Die Zufallsvariablen Yn sind unabhängig identisch verteilt. b) (Xn ) ist eine homogene Markov-Kette. R c) br := P [Yn = r] = P [Yn = r | Zn = t] B(dt) > 0 (r ∈ N0 ) . | {z } R+ | {z } r (λt) P [X0 = r] e−λt · r! Satz 3.1. a) Sei P = (Pjk )j,k∈N0 die Übergangsmatrix der homogenen Markov-Kette (Xn ) . P= b0 b1 b2 b3 . . . b0 b1 b2 b3 . . . 0 b0 b1 b2 . . . 0 0 b0 b1 . . . 0 0 0 b0 . . . ....................... (Xn ) ist aperiodisch und irreduzibel. b) Sei die sogenannte Verkehrsintensität (Quotient aus mittlerer Bedienungszeit und EZ0 < 1. mittlerer Zeit zwischen den Ankünften) ρ := 1/λ Dann ist (Xn ) positiv-rekurrent und somit ergodisch. Es sei qk := lim P [Xn = k] (k ∈ N0 ) , q : [0, 1] → R und b : [0, 1] → R die n→∞ erzeugende Funktion von (qk ) bzw. (bk ) . Dann gilt q(s) = b(s) 1−s (1 − ρ) , s ∈ [0, 1) . b(s) − s Korollar 3.1 zu Lemma 3.1 und Satz 3.1 (betrifft M/M/1). Im Falle, daß Z0 exp(µ)-verteilt ist (µ > 0) , gilt r λ λ br = 1− , r ∈ N0 , λ+µ λ+µ 1−ρ q(s) = , s ∈ [0, 1] , 1 − ρs lim P [Xn = k] = ρk (1 − ρ) , k ∈ N0 . n→∞ 19 Definition A. W-Raum (Ω, A, P ), Indexbereich I . Eine Familie {Xt ; t ∈ I} von Zufallsvariablen Xt : (Ω, A, P ) → (Ω0 , A0 ) [oder auch (Ω, A, P, {Xt ; t ∈ I})] heißt stochastischer Prozess (zufällige Funktion). Ω0 , genauer (Ω0 , A0 ), heißt Zustandsraum. Bezeichnung Xt (ω) =: X(ω, t) . X(ω, ·) . . . Funktion I → Ω0 . . . Pfad des Prozesses. Definition B. Messräume (Ω0 , A0 ), (Ω00 , A00 ) Abbildung q : Ω0 × A00 → [0, 1] heißt Übergangswahrscheinlichkeitsmaß [Markovscher Kern] von Ω0 nach Ω00 , wenn a) b) ∀ q(x, ·) W-Maß auf A00 , x∈Ω0 ∀ C∈A00 q(·, C) A0 − [0, 1] ∩ B-messbar. Wichtiger Fall: (Ω0 , A0 ) = (Ω00 , A00 ) = (R, B) Definition C. W-Raum (Ω, A, P ); Meßräume (Ω0 , A0 ), (Ω00 , A00 ) . Zufallsvariable X: (Ω, A, P ) → (Ω0 , A0 ) ; Zufallsvariable Y : (Ω, A, P ) → (Ω00 , A00 ) . Eine Abbildung q : Ω0 × A00 → [0, 1] heißt bedingte Verteilung von Y bzgl. X, wenn q Übergangswahrscheinlichkeitsmaß von Ω0 nach Ω00 ist und wenn Z 0 00 00 ∀ ∀ P [X ∈ A , Y ∈ A ] = q(x, A )PX (dx) . A0 ∈A0 A00 ∈A00 A0 Hierfür Schreibweise PY |X . Ex. gesichert für (Ω00 , A00 ) = (Rk , Bk ) . Schreibweisen: PY |X (x, A00 ) =: P (Y ∈ A00 |X = x) =: PY |X=x (A00 ) , PY |X (·, A00 ) =: P (Y ∈ A00 |X) , PY |X (x, ·) =: PY |X=x . Falls P [X = x] > 0 , dann PY |X (x, A00 ) = P [Y ∈ A00 , X = x] . P [X = x] 20 Kapitel 3 Grundbegriffe aus der Theorie der Markov-Prozesse 3.1 Definition und Konstruktion von Markovschen Prozessen Definition 1.1. Ein stochastischer Prozess (Ω, A, P, {Xt ; t ∈ R+ }) mit Zustandsraum R heißt ein Markovscher Prozess, wenn die folgende sogenannte elementare MarkovEigenschaft erfüllt ist: (1) ∀ B∈B ∀ n∈{2,3,...} ∀ 0≤t1 <...<tn P [Xtn ∈ B|Xtn−1 , . . . , Xt1 ] = P [Xtn ∈ B|Xtn−1 ] P(Xtn−1 ,...,Xt1 ) -fast überall Bemerkung 1.1 zu Definition 1.1. a) P [Xtn ∈ B|Xtn−1 , . . . , Xt1 ] := PXtn |(Xtn−1 ,...,Xt1 ) (·, B) . . . Funktion auf Rn−1 b) (1) ⇐⇒ P [Xtn ∈ B|Xtn−1 ∈ Bn−1 , . . . , Xt1 ∈ B1 ] = P [Xtn ∈ B|Xtn−1 ∈ Bn−1 ] für alle n ∈ {2, 3, . . .}, 0 ≤ t1 < . . . < tn , B, Bn−1 , . . . B1 ∈ B, falls definiert. Definition 1.2. Eine Familie {q t ; t ∈ R+ } von Markovschen Kernen qt (x, ·) W-Maß auf B ∀ (2) x∈R qt : R × B → [0, 1] d.h. (3) qt (·, B) B-[0, 1] ∩ B-messbar ∀ B∈B mit (der Verträglichkeitsbedingung, Halbgruppeneigenschaft) Z (4) qt+s (x, B) = (qt qs )(x, B) := qs (y, B)qt (x, dy) ∀ ∀ ∀ s,t≥0 x∈R B∈B R [Gleichung von Chapman-Kolmogorov] 21 heißt Markovsche Halbgruppe von Kernen oder Übergangsfunktion. Bemerkung 1.2. a) Definition 1.2 ist sinnvoll. Mit qs , qt ist auch qt qs ein Markovscher Kern. b) qt (x, B) mit t ∈ R+ , x ∈ R, B ∈ B, in Definition 1.2 ist eine stationäre (oder zeitlich homogene) Übergangswahrscheinlichkeit von der Stelle x in die Menge B in einem beliebigen Zeitintervall der Länge t. Beispiele zu Definition 1.2. Sei x ∈ R, B ∈ B . 1, falls x ∈ B a) q0 (x, B) := 0 sonst, 1 qt (x, B) := √ 2πt Z e− (y−x)2 2t dy, t > 0 . B {qt : t ∈ R+ } . . . sogenannte Halbgruppe der Brownschen Bewegung. b) Festes λ ∈ (0, ∞) . B − x := {y − x: y ∈ B} . X qt (x, B) := qt (0, B−x) := e−λt k∈N0 ∩(B−x) (λt)k , t ∈ R+ . k! {qt : t ∈ R+ } . . . sogenannte Poissonsche Halbgruppe. Satz 1.1 (Konstruktion eines Markovschen Prozesses aus Ausgangsverteilung und Übergangsfunktion). Gegeben seien ein W-Maß µ auf B und eine Übergangsfunktion {qt : t ∈ R+ } mit 1, falls x ∈ B q0 (x, B) = (x ∈ R, B ∈ B) . 0 sonst Sei {Ft1 ,...,tn : Rn → R; 0 ≤ t1 < . . . < tn , n ∈ N} eine Familie von Verteilungsfunktionen mit (5) Ft1 ,...,tn (x1 , . . . , xn ) Z Z := [ [. . . [ R (−∞,x1 ] Z Z [ qtn −tn−1 (yn−1 , dyn )]qtn−1 −tn−2 (yn−2 , dyn−1 )] . . .] (−∞,xn−1 ] (−∞,xn ] qt1 − Dann gilt: 22 t 0 |{z} := 0 (y0 , dy1 )]µ(dy0 ) . a) Die obige Familie von Verteilungsfunktionen erfüllt die Verträglichkeitsbedingung im Verträglichkeitssatz von Kolmogorov, d.h. Ft1 ,...,tn ,tn+1 (x1 , . . . xn , ∞) = Ft1 ,...,tn (x1 , . . . , xn ) für alle verschiedenen t1 , . . . , tn , tn+1 ∈ R+ , alle (x1 , . . . , xn ) ∈ Rn , alle n ∈ N , wobei Ft1 ,t2 (x1 , x2 ) = Ft2 ,t1 (x2 , x1 ) usw. b) Sei (Ω, A, P, {Xt : t ∈ R+ }) ein — nach dem Verträglichkeitssatz von Kolmogorov existierender — stochastischer Prozess mit (∗) Ft1 ,...,tn (x1 , . . . , xn ) = P [Xt1 ≤ x1 , . . . , Xtn ≤ xn ] , t1 , . . . , tn ∈ R+ verschieden, (x1 , . . . , xn ) ∈ Rn , n ∈ N . Dieser ist ein Markov-Prozess mit Anfangsverteilung PX0 = µ und stationärer Übergangswahrscheinlichkeit qt (x, A) (t ∈ R+ , x ∈ R , A ∈ B) , d.h. ∀ ∀ qt (x, A) = PXt+s |Xs =x (A) , t∈R+ s≥0 d.h. ∀ ∀ ∀ t∈R+ s≥0 A0 ,A00 ∈B 3.2 0 00 Z P [Xs ∈ A , Xt+s ∈ A ] = A0 qt (x, A00 )PXs (dx) . Zur Stetigkeit von Pfaden bei Markov-Prozessen Definition 2.1. Ein stochastischer Prozess (Ω, A, P, {Xt : t ∈ R+ }) heißt stetig-modifizierbar, wenn ein stochastischer Prozess (Ω, A, P, {Yt : t ∈ R+ }) existiert mit (1) ∀ t∈R+ P -f.s. Xt = Yt , ∀ Y (ω, ·) ∈ C[0, ∞) . (2) ω∈Ω Satz 2.1 (Kinney, Dynkin). Der in Satz 1.1 konstruierte Markov-Prozess — mit Übergangsfunktion {qt ; t ∈ R+ } — ist stetig-modifizierbar, falls für jedes ε > 0 (3) c ∀ qt (x, [x − ε, x + ε] ) = o(t), t → +0, gleichmäßig in x ∈ R . ε>0 Lemma 2.1. Voraussetzung von Satz 2.1 sei erfüllt. S := {i/2n : i ∈ N0 , n ∈ N} . Dann existiert Ω0 ∈ A mit P (Ω0 ] = 1 derart, daß ∀ ω∈Ω0 X(ω, ·)|S fortsetzbar zu einer Funktion ∈ C[0, ∞) . Satz 2.2 (Kinney). Der in Satz 1.1 konstruierte Markov-Prozess — mit Übergangsfunktion {qt : t ∈ R+ } — ist modifizierbar zu einem Prozess mit Pfaden, die rechtsseitig stetig sind und linksseitige Limites besitzen, falls für jedes ε > 0 (4) c ∀ qt (x, [x − ε, x + ε] ) = o(1), t → +0, gleichmäßig in x ∈ R . ε>0 23 3.3 Wiener- und Poisson-Prozess Definition 3.1. Ein stochastischer Prozess X = {Xt : t ∈ R+ } mit reellen Zufallsvariablen Xt heißt Wiener-Prozess (standardisierte Brownsche Bewegung), wenn gilt: ∀ X0 (ω) = 0 , ∀ t 7→ Xt (ω) , t ∈ R+ , ist eine stetige Funktion, ω∈Ω ω∈Ω X hat unabhängige Zuwächse (d.h. für 0 ≤ t1 < t2 < . . . < ti , i ∈ N , sind die Zuwächse Xt2 − Xt1 , . . . , Xti − Xti−1 unabhängig), wobei ∀ Xt − Xs N (0, t − s)-verteilt. 0≤s<t Definition 3.2. Ein stochastischer Prozess X = {Xt : t ∈ R+ } mit reellen Zufallsvariablen Xt heißt — inhomogener — Poisson-Prozess mit Parameterfunktion m : R+ → R+ , wenn gilt: m monoton nichtfallend, stetig, m(0) = 0, ∀ X0 (ω) = 0 , ω∈Ω ∀ ω∈Ω t 7→ Xt (ω), t ∈ R+ , ist eine rechtsseitig stetige, monoton nichtfallende Funktion mit Sprüngen der Höhe 1, X hat unabhängige Zuwächse, wobei Xt − Xs ∀ 0≤s<t π(m(t) − m(s))-verteilt. Im Spezialfall m(t) = λt mit festem λ > 0 heißt X (homogener) Poisson-Prozess mit Parameter λ. Satz 3.1. Der zu der Anfangsverteilung µ auf B mit µ({0}) = 1 und der Halbgruppe der Brownschen Bewegung konstruierbare Markov-Prozess ist stetig-modifizierbar. Die stetige Modifikation ist ein Wiener-Prozess. Bemerkung 3.1 (N. Wiener). Fast sicher sind die Pfade eines Wiener-Prozesses nirgends differenzierbar, also auch für kein (Zeit-)Intervall (positive Länge) rektifizierbar. Bemerkung 3.2. Der Wiener-Prozess mit Halbgruppe {qt ; t ∈ R+ } (der Brownschen Bewegung) besitzt die sog. starke Markov-Eigenschaft: Für jede Stoppzeit (Optionszeit, Markovzeit) T : Ω → R+ ∪ {∞}, definiert durch ∀ [T ≤ t] ∈ F(Ws : 0 ≤ s ≤ t), t∈R+ jedes s ∈ R+ und jedes B ∈ B gilt P [WT +s ∈ B|FT + ] (def. auf Ω) = qs (WT , B) fast sicher auf [T < ∞], wobei FT := {A ∈ F(Ws ; s ≥ 0) : A ∩ [T ≤ t] ∈ F(Ws ; 0 ≤ s ≤ t) ∀ t ≥ 0}. 24 Satz 3.2. Der zu der Anfangsverteilung µ auf B mit µ({0}) = 1 und der Poissonschen Halbgruppe mit Parameter λ ∈ (0, ∞) konstruierbare Markov-Prozess ist modifizierbar zu einem Prozess mit Pfaden, die rechtsseitig stetig sind und linksseitige Limites besitzen. Dieser Prozess ist ein (homogener) Poisson-Prozess mit Parameter λ . Bemerkung 3.3 (vgl. Bemerkung 1.2). Ein (homogener) Poisson-Prozess gemäß Definition 3.2 mit Parameter λ ∈ (0, ∞) ist Zählprozess zu einem Erneuerungsprozess mit unabhängigen exp(λ)-verteilten “Lebensdauern” und umgekehrt; fast sicher nimmt er also nur Werte ∈ N0 an und hat nur Sprünge der Höhe 1, und zwar abzählbar unendlich viele. 3.4 Diffusionsprozesse Definition 4.1. Ein Markov-Prozess mit Anfangsverteilung µ und Übergangsfunktion {qt ; t ∈ R+ } (konstruiert gemäß Satz 1.1) heißt Diffusionsprozess, wenn die folgenden Bedingungen (von Kolmogorov und Feller) erfüllt sind: (1) ∀ ∀ ε>0 x∈R (2) ∀ 1 t ∀ ε>0 x∈R (3) ∀ ∀ ε>0 x∈R 1 t 1 qt (x, [x − ε, x + ε]c ) → 0 (t → +0) t Z (y − x)qt (x, dy) → a(x) (t → +0) |{z} [x−ε,x+ε] ∈R Z (y − x)2 qt (x, dy) → b(x) (t → +0) . |{z} [x−ε,x+ε] ∈ R+ a(x) . . . sogenannter Driftkoeffizient (momentaner mittlerer Trend des im Zustand x befindlichen Prozesses) b(x) . . . sogenannter Diffusionskoeffizient (momentane mittlere quadratische Abweichung). Bemerkung 4.1. a) Es genügt wegen (1), in (2) und (3) statt ∀ ε > 0 nur ∃ ε > 0 zu fordern. b) Der Wiener-Prozess mit σ 2 := V (W1 ) = 1 (standardisierte Brownsche Bewegung) ist ein pfadstetiger Diffusionsprozess mit a(x) ≡ 0, b(x) ≡ 1; zugehörige Rückwärtsgleichung (s.u.) ... Wärmeleitungsgleichung. c) Der sog. Ornstein-Uhlenbeck-Prozess ist ein pfadstetiger Diffusionsprozess mit a(x) = −αx (α > 0), b(x) = const > 0. 25 Satz 4.1. (Kolmogorov). Sei {qt : t ∈ R+ } eine Übergangsfunktion mit (1), (2), (3). Sei w : R → R beschränkt und stetig. Z (4) φ(t, x) := w(y)qt (x, dy), t > 0, x ∈ R . R φx und φxx sollen existieren und auf (0, ∞)×R stetig sein. Dann existiert φt , und φ genügt auf (0, ∞) × R der partiellen Differentialgleichung (5) b φt = |{z} a φx + φxx 2 |{z} (Rückwärtsgleichung) Funktionen von x mit der Anfangsbedingung lim φ(t, x) = w(x), x ∈ R . t→+0 Bemerkung 4.2. Sei C̃(R) der Banach-Raum der gleichmäßig stetigen beschränkten Funktionen w : R → R mit sup-Norm || · ||. Sei {qt : t ∈ R+ } eine Übergangsfunktion mit qt (x, ·) → qt (x0 , ·) schwach für x → x0 ∈ R (t ∈ R+ ) und ∀ ε>0 qt (x, [x − ε, x + ε]c ) → 0 (t → +0) gleichmäßig in x ∈ R (vgl. Satz 2.2.). Die Familie {Φt ; t ∈ R+ } der beschränkten linearen Operatoren Φt : C̃(R) → C̃(R) (!) mit Z (Φt w)(x) := w(y)qt (x, dy), t > 0, x ∈ R, w ∈ C̃(R), R Φ0 := Identität auf C̃(R) ist eine einparametrige Kontraktions-Halbgruppe, d.h. erfüllt ||Φt w|| ≤ ||w|| ∀w ∈ C̃(R) (||Φt || ≤ 1), t ∈ R+ , Φt+s = Φt Φs , s, t ∈ R+ , ||Φt w − w|| → 0 (t → +0), w ∈ C̃(R). 26 3.5 Markovsche Sprungprozesse Definition 5.1. Ein Markov-Prozess {Xt : t ∈ R+ } auf (Ω, A, P ) mit Anfangsverteilung µ und Übergangsfunktion {qt : t ∈ R+ } (konstruiert gemäß Satz 1.1) heißt reiner Sprungprozess, wenn gilt: Für (P -fast) alle ω ∈ Ω ist X(ω, ·) stückweise konstant und rechtsseitig stetig mit isolierten Sprungstellen als einzigen Unstetigkeitsstellen. Satz 5.1. Reiner Sprungprozess wie in Definition 5.1. (Wegen der stationären Übergangswahrscheinlichkeiten qt (x, B) können im folgenden die Indizes beim stochastischen Prozess einheitlich um eine positive Konstante erhöht werden.) T (ω) := inf{τ ∈ R+ |Xτ (ω) 6= X0 (ω)}, ω ∈ Ω, . . . Wartezeit bis zum 1. Sprung a) Es existiert λ : (R, B) → (R+ , B+ ) mit ∀ PT |X0 =x = exp (λ(x)), x∈R d.h. ∀ P [T ≤ t|X0 = x] = x∈R 1 − e−λ(x)t (t ≥ 0) 0 (t < 0) Falls λ(x) = 0, ist PT |X0 =x konzentriert auf {∞}. b) ∀ ∀ ∀ x∈R t∈R+ y∈R P [T ≤ t, XT := X(·, T (·)) ≤ y|X0 = x] = P [T ≤ t|X0 = x] · P [XT ≤ y|X0 = x] (Unabhängigkeit von T und XT unter der Bedingung X0 = x). c) T ∗ := Wartezeit bis zum 2. Sprung ∀ x∈R P [T ∗ ≤ t|X0 = x] = o(t) (t → +0) d) λ wie oben; x ∈ R ; B ∈ B mit x ∈ / B ; K(x, B) := P [XT ∈ B|X0 = x] . Dann qt (x, {x}) = 1 − λ(x)t + o(t) qt (x, B) = λ(x)t · K(x, B) + o(t) Beispiel: Zusammengesetzter Poisson-Prozess. 27 (t → +0). Kapitel 4 Aspekte der Theorie stationärer Prozesse 4.1 Stationäre Prozesse, Gauß-Prozesse, stationäre Gauß-Prozesse Definition 1.1. Ein stochastischer Prozess {Xt : t ∈ R} heißt (stark, strikt) stationär, wenn P(Xt1 +s ,...,Xtn +s ) unabhängig von s ∈ R . ∀ ∀ n∈N (t1 ,...,tn )∈R Entsprechend für Indexbereiche R+ , Z, N0 . Definition 1.2. Ein stochastischer Prozess {Xt : t ∈ R} mit Zustandsraum C und E|Xt |2 < ∞, EXt = const, t ∈ R , heißt stationär im weiteren Sinne (stationär von 2. Ordnung), wenn die Kovarianz E(Xt − EXt )(X t , −EX t , ), t, t0 ∈ R , nur von t − t0 abhängt. Entsprechend für Indexbereiche R+ , Z, N0 . Beispiel zu Definition 1.2. Bei einer Folge quadratisch integrierbarer paarweise unkorrelierter reeller Zufallsvariablen Zn , n ∈ Z, mit EZn = const∗ , V (Zn ) = const. > 0 ist (Xn )n∈Z mit 1 (Zn + . . . + Zn−r ) , bei festem r ∈ N , Xn = r+1 ein sogenannter MA-Prozess (moving average . . . gleitender Durchschnitt). Satz 1.1. Sei {Xt : t ∈ R} ein im weiteren Sinne stationärer Prozess mit EXt = 0, t ∈ R . Ist die Kovarianzfunktion (Autokovarianzfunktion) ρ : R → C mit ρ(t) = EXt+s X s stetig, dann existiert — eindeutig — ein Maß R auf B (das sogenannte Spektralmaß des Prozesses) mit Z eiλt R(dλ), t ∈ R . ρ(t) = R 28 Hierbei ρ(0) = R(R) . — Falls die Zufallsvariablen Xt reell sind, dann ist R symmetrisch bezüglich 0, und es gilt R ρ(t) = R cos λt R(dλ), t ∈ R . Korollar 1.1. Zu dem im weiteren Sinne stationären Prozess {Xt : t ∈ R} mit EXt = 0, t ∈ R, dem sogenannten Input-Prozess, werde durch eine lineare Transformation (FilP ter) der Output-Prozeß {Yt : t ∈ R} mit Yt = nk=1 ck Xt−τk , t ∈ R , gebildet, wobei ck ∈ C, τk ∈ R (k = 1, . . . , n) fest. Dann ist {Yt : t ∈ R} stationär im weiteren Sinne. Für die Kovarianzfunktionen ρ, ρ̂ und die Spektralmaße R, R̂ von {Xt } bzw. {Yt } gilt Z X X | cj e−iτj λ |2 R(dλ) , B ∈ B . ρ̂(t) = cj ck ρ(t − τj + τk ), t ∈ R ; R̂(B) = B Definition 1.3. Ein reeller stochastischer Prozess (Ω, A, P, {Xt : t ∈ R}) heißt GaußProzess, wenn alle seine endlich-dimensionalen Verteilungen P(X , . . . , X ) , t1 < . . . < t1 tn tn , Gaußsch sind, d.h. wenn für jede lineare Abbildung l : Rn → R die reelle Zufallsvariable l ◦ (Xt1 , . . . , Xtn ) normalverteilt ist (mit unter Umständen zu 0 ausgearteter Varianz). — Entsprechend für andere Indexbereiche I(⊂ R), insbesondere R+ und [0, 1]. Satz 1.2. Die endlich-dimensionalen Verteilungen eines Gauß-Prozesses {Xt ; t ∈ I} sind eindeutig festgelegt durch die Erwartungsfunktion m : I → R und die Kovarianzfunktion Γ : I × I → R — definiert durch m(t) := EXt , Γ(s, t) := Cov (Xs , Xt ) := E(Xs − EXs )(Xt − EXt ) . Mögliche Kovarianzfunktionen sind genau die symmetrischen positiv-semidefiniten reellwertigen Funktionen auf I × I . Bemerkung 1.1. Im Falle eines Gaußschen Prozesses mit Zustandsraum C fallen Stationarität und Stationarität im weiteren Sinne zusammen. Lemma 1.1. Für einen Gaußschen (d.h. Gaußsch verteilten) n-dimensionalen Zufallsvektor (X1 , . . . , Xn ) liegt genau dann Unabhängigkeit von {X1 , . . . , Xn } vor, wenn die X1 , . . . , Xn paarweise unkorreliert sind, d.h. wenn die Kovarianzmatrix (Cov (Xi , Xk ))i, k∈{1,...,n} eine Diagonalmatrix ist. Beispiele für Gauß-Prozesse. a) Gaußprozess des weißen Rauschens . . . unabhängige Familie {Xt : t ∈ R} N (0, 1)-verteilter reeller Zufallsvariablen. m(t) = 0; Γ(s, t) = 1 für s = t, Γ(s, t) = 0 sonst (s, t ∈ R) . 29 b) Wiener-Prozess (standardisierte Brownsche Bewegung) {Wt : t ∈ R+ } [gemäß Definition 3.3.1]. m(t) = 0 ; Γ(s, t) = min{s, t} (s, t ∈ R+ ) . c) Brownsche Brücke {Xt : t ∈ [0, 1]} mit Xt := Wt − tW1 (mit standardisierter Brownscher Bewegung {Wt : t ∈ [0, 1]}). m(t) = 0 ; Γ(s, t) = min{s, t} − st (s, t ∈ [0, 1]) . Satz 1.3. Sei {Xt : t ∈ R+ } ein reeller Gauß-Prozess mit EXt = 0, t ∈ R+ . Hat die Kovarianzfunktion Γ : R+ × R+ → R die Gestalt Γ(s, t) = βe−α|s−t| (s, t ≥ 0) mit Konstanten α ≥ 0, β ≥ 0, dann ist {Xt : t ∈ R+ } stationär, stetig-modifizierbar und ein Markov-Prozess — und umgekehrt. Im Falle α > 0, β = 1 ist das Spektralmaß die Cauchy-Verteilung mit Dichte s 7→ α 2 (α + s2 )−1 , π s ∈ R. Im Falle α = 0, β = 1 ist das Spektralmaß das auf 0 konzentrierte W-Maß. Im Falle α > 0, β > 0 liegt bei Pfadstetigkeit ein — hier stationärer — sog. Ornstein-Uhlenbeck-Prozess (Diffusionsprozess mit Driftkoeffizient a(x) = −αx, Diffusionskoeffizient b(x) = 2αβ ) vor. Im Falle α = 0 gilt bei Pfadstetigkeit Xt = X0 , t ≥ 0, mit N (0, β)-verteiltem X0 . 4.2 Ergodensätze Stationarität bedeutet im Folgenden strikte Stationarität gemäß Definition 1.1. Zugrundegelegt wird ein W-Raum (Ω, A, P ). Definition 2.1. Die Transformation T : (Ω, A) → (Ω, A) heißt maßerhaltend, wenn P = P ◦ T −1 , d.h. −1 ∀ P (A) = P (T (A)). A∈A Lemma 2.1. Zu jeder stationären Folge (Xn )n∈N0 reeller ZVn existieren eine reelle ZV X auf (Ω, A, P ) und eine maßerhaltende Transformation T : Ω → Ω derart, dass Xn = X ◦ T n , n ∈ N0 (T 0 = Identität, T 1 = T, T 2 = T ◦ T usw.) — und umgekehrt. Definition 2.2. Sei T : Ω → Ω eine maßerhaltende Transformation. AT := {A ∈ A : T −1 (A) = A} (T −1 Urbildfunktion) ist die sog. σ-Algebra der T -invarianten Mengen. 30 Lemma 2.2. Eine messbare Abbildung X : (Ω, A) → (R, B) ist genau dann AT -Bmessbar, wenn X ◦ T = X. Satz 2.1 (Individueller Ergodensatz, Birkhoff 1931). Sei (Xn )n∈N0 eine stationäre Folge integrierbarer reeller ZVn. Dann gilt n−1 1X Xi → E(X0 |AT ) P -fast sicher (f.s.), n i=0 mit T gemäß Lemma 2.1. Bemerkung 2.1. Sei {Xt : t ∈ R+ } ein stationärer Prozess mit Zustandsraum R. Dann existiert eine integrierbare reelle ZV X̃ derart, dass Z 1 s Xt dt → X̃ (s → ∞) f.s., s 0 wobei E X̃ = EX0 . Beweis von Satz 2.1. mit Lemma 2.3 (maximal ergodic theorem). Sei X eine integrierbare reelle ZV und P i T : Ω → Ω eine maßerhaltende Transformation. Mit Sk := k−1 i=0 X ◦ T und Mn := max{0, S1 , . . . , Sn } gilt (1 Indikatorfunktion) E(X 1[Mn >0] ) ≥ 0, n ∈ N. Definition 2.3. Eine stationäre Folge (Xn )n∈N0 reeller ZVn mit maßerhaltender Transformation T : Ω → Ω (gemäß Definition 2.1.) heißt ergodisch, wenn für A ∈ A T −1 (A) = A =⇒ P (A) = 0 oder 1. Korollar 2.1. Sei (Xn )n∈N0 eine stationäre ergodische Folge integrierbarer reeller ZVn. Dann gilt n−1 1X Xi → EX0 f.s. n i=0 Bemerkung 2.2. Eine unahängige Folge identisch verteilter (reeller) ZVn ist eine stationäre ergodische Folge. Korollar 2.2 (Kolmogorovsches starkes Gesetz der großen Zahlen). Für eine unabhängige Folge (Xn )n∈N0 identisch verteilter integrierbarer reeller ZVn gilt n−1 1X Xi → EX0 n i=0 31 f.s. Satz 2.2 (Lp -Ergodensatz, von Neumann, 1931). Sei (Xn )n∈N0 eine stationäre Folge Lp -integrierbarer reeller ZVn (p ≥ 1). Dann gilt n−1 1X Xi → E(X0 |AT ) in Lp (P ) n i=0 mit T gemäß Lemma 2.1. Ist (Xn )n∈N0 sogar ergodisch, so gilt n−1 1X Xi → E(X0 ) in Lp (P ). n i=0 4.3 Zeitreihen Definition 3.1 Eine Zeitreihe ist ein stochastischer Prozess X = {Xt : t ∈ T } mit Indexbereich T = N oder = Z mit reell- oder komplexwertigen Zufallsvariablen Xt . Bemerkung: Aus technischen Gründen wird häufig T = Z gewählt. Typische Modellierung/Zerlegung einer Zeitreihe X in eine deterministische Trendkomponente m, eine deterministische saisonale Komponente s und einen stochastischen Anteil Z, von dem angenommen wird, dass er stationär ist: Xt = mt + st + Zt 4.3.1 Schätzung des Trends Lineares Trendmodell: m(t) = k X ai mi (t), t∈Z i=0 für gegebene reellwertige Funktionen m0 , . . . , mk : Z → R und Koeffizienten a0 , . . . , ak ∈ R, die für gegebene Daten X1 , . . . , Xn durch die Methode der kleinsten Quadrate bestimmt werden können: !2 k n X X Xt − ai Mi (t) min a0 ,...,ak t=1 i=0 Die mit diesen optimalen Koeffizienten gebildete Trendfunktion werde mit m̂ bezeichnet. Beispiel: mi (t) = ti , i = 0, . . . , k. 4.3.2 Schätzung der saisonalen Komponente Ist die Periodenlänge d ∈ N bekannt und gilt für den Stichprobenumfang n = md für ein geeignetes m ∈ N, so wird für r = 1, . . . , d m 1 X s̃r = Xr+(j−1)d m j=1 32 periodisch auf r = d + 1, . . . , n fortgesetzt. Durch d ŝr := s̃r − 1X s̃j , d j=1 r = 1, . . . , d kann erreicht werden, dass für die saisonalen Anteile ŝ1 , . . . , ŝd stets schließend wird ŝr auf r = d + 1, . . . , n periodisch fortgesetzt. 4.3.3 Pd r=1 ŝr = 0. An- Stationäre Zeitreihen Definition 3.1 Eine Zeitreihe {et : t ∈ Z} heißt weißes Rauschen, falls Eet = 0, var(et ) = σ 2 ∈ (0, ∞) und die et unkorreliert sind. Das weiße Rauschen {et : t ∈ Z} bildet einen stationären Prozess mit γ(0) = σ 2 , γ(h) = 0 für h ∈ Z \ {0}. Definition 3.2 Eine stationäre Zeitreihe {Xt : t ∈ Z} heißt ARMA(p, q)-Zeitreihe mit den Ordnungen p, q ∈ N0 und Koeffizienten a1 , . . . , ap und b1 , . . . , bq mit a0 6= 0 und bq 6= 0, falls für ein weißes Rauschen {et : t ∈ Z} gilt: ∀ t∈Z 4.3.4 Xt + p X aν Xt−ν = ν=1 q X bµ et−µ + et µ=1 Vorhersage Vorhersagen sind schwierig, insbesondere wenn sie die Zukunft betreffen. Karl Valentin Soll Xt+k auf der Basis von Xt , . . . , X1 vorhergesagt werden, so liefert die bedingte Verteilung PXt+k |Xt ,...,X1 die vollständige Beschreibung dieser Frage. Soll spezieller ein konbt+k := kreter Wert vorhergesagt werden, so kann dies z.B. durch bedingte Erwartung X R E(Xt+k |Xt , . . . , X1 ) = R x PXt+k |Xt ,...,X1 (dx) geschehen. Da die gemeinsame Verteilung der Zufallsvariablen X1 , . . . , Xt , Xt+k meist nicht bekannt oder nur schwer zu schätzen ist, verwendet man in der Praxis häufig Schätzer für Xt+k , die sich als Linearkombination von Xt , . . . , X1 darstellen lassen. Satz 3.1 Sei X = {Xt : t ∈ Z} ein reeller zentrierter stationärer Prozess mit Autokobt+k von Xt+k (k ∈ N), basierend auf varianzfunktion γ. Der beste lineare Prädiktor X Xt , . . . , X1 , ist gegeben durch bt+k := X t X ai Xt+1−i , i=1 wobei die Koeffizienten a1 , . . . , at die Gleichungen ∀ j∈{t,...,t} t X ai γ(|i − j|) = γ(j + k − 1) i=1 33 erfüllen. Ist γ bekannt, so ergibt sich a = (a1 . . . , at ) als Lösung des linearen Gleichungssystems Aa = b, wobei A = (Aij ) mit Aij = γ(|i − j|) und b = (bj ) mit bj = γ(j + k − 1). Eine solche Lösung a existiert immer, ist aber u.a. nicht eindeutig bestimmt. Im Gegensatz bt+k immer eindeutig. dazu ist aber die Vorhersage X Ist γ unbekannt, so kann stattdessen mit dem Schätzer γ b gearbeitet werden. Die Levinson-Rekursion stellt eine effizientes Verfahren zur Berechnung des linearen Prädiktors zur Verfügung. Lässt sich eine vorliegende Zeitreihe in einen Trendanteil, einen saisonalen Anteil und einen stationären Anteil zerlegen, so kann eine Vorhersage dieser Zeitreihe durch Extrapolation des Trendanteils, saisonalem Einfluss und vorhergesagtem Wert des stationären Anteils angegeben werden. 34 Literaturverzeichnis [1] H. Bauer, Wahrscheinlichkeitstheorie (4. Aufl.), de Gruyter 1991 [Kap. VIII, IX [2] R.N. Bhattacharya, E.C. Waymire, Stochastic Processes with Applications, Wiley 1990 [3] Z. Brzezniak, T. Zastawniak, Basic Stochastic Processes, Springer 1999 [4] R. Durrett, Essentials of Stochastic Processes, Springer 1999 [5] W. Feller, An Introduction to Probability Theory and its Applications, Vol. I (3rd ed.), Vol. II (2nd ed.), Wiley 1968, 1971 [6] G. Grimmett, D. Stirzaker, Probability and Random Processes (3rd ed.), Oxford University Press 2001 [7] O. Kallenberg, Foundations of Modern Probability. Springer, New York (2001), 2nd ed. [8] S. Karlin, A First Course in Stochastic Processes (2nd ed.), Academic Press 1975 [9] S. Karlin, H.M. Taylor, A Second Course in Stochastic Processes, Academic Press 1975 [10] A. Klenke, Wahrscheinlichkeitstheorie, Springer 2006 [11] J.-P. Kreiß, G. Neuhaus, Einführung in die Zeitreihenanalyse, Springer 2006. [12] Sh.M. Ross, Stochastic Processes, Wiley 1983 35