Martingaltheorie Vorlesungsmitschrift Professor Uwe Rösler 31. Januar 2017 Table of Contents 1 Zeitdiskrete Martingale 1.0.1 Meine Martingalfavoriten . . . . . . . . . . . . . . . . . 2 Martingaltransformierte 2.0.2 Filtrationwechsel . . . . . . . . . . . . . . . . 2.0.3 Raumtransformationen . . . . . . . . . . . . . 2.0.4 Raum der Martingale . . . . . . . . . . . . . 2.0.5 Doob Zerlegung . . . . . . . . . . . . . . . . . 2.1 Martingaldifferenzfolgen . . . . . . . . . . . . . . . . 2.1.1 Transformierte durch vorhersehbare Prozesse 2.2 Stoppzeiten . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Optional Sampling Theorem revisited . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 4 . . . . . . . . 13 13 13 15 15 16 17 20 22 3 Fast sichere Konvergenz 3.1 Doob Upcrossing Lemma . . . . . . . . . . . . . . . . . . . 3.1.1 Fast sichere Konvergenz . . . . . . . . . . . . . . . . 3.2 Klassische Resultate zur fast sicheren Martingalkonvergenz. 3.2.1 Kolmogoroff drei Reihen Satz* . . . . . . . . . . . . . . . . . . . . 27 27 30 30 32 4 L1 −Martingale 4.1 L1 −konvergente Martingale . 4.1.1 Zeitabschluss . . . . . 4.1.2 Regulaere Stoppzeiten 4.1.3 Diverses . . . . . . . . . . . . . . . . 37 38 39 41 44 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Rückwärtsmartingale 45 6 Quadratintegrierbare Martingale 47 1 2 (31. Januar 2017) Table of Contents 7 Exponentielle Martingale 7.1 Irrfahrt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Exponentielle Martingale . . . . . . . . . . . . . . . . . . . . . 49 49 49 8 Konvergenz und Topologie 8.1 Konvergenz von W-maßen . . . . . . 8.1.1 Gleichgradige Integrierbarkeit 8.1.2 Weitere Metriken . . . . . . . 8.2 Konvergenz von Zufallsgrößen . . . . 53 53 56 60 61 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Zeitdiskrete Martingale Sei (Ω, A, P ) stets der zugrundeliegende Wahrscheinlichkeitsraum. Ein stochastischer Prozess ist eine Familie Xt : Ω → E, t ∈ T von Zgn mit Werten in einem meßbarem Raum (E, σ(E)). E heißt der Zustandsraum und die Indexmenge T heißt Parameterraum oder auch Zeitparameterraum. Hintergrund ist, dass T als Teilmenge der reellen Zahlen totalgeordnet ist und dann die Interpretation Zeit erhält. Wir benutzen die Notation X = (Xt )t∈T bzw. (Xt )t bzw. (Xt ) für die Familie. Sei E eine Eigenschaft von Zgn. Wir sagen ein Prozess X hat die Eigenschaft E wenn alle Xn die Eigenschaft haben. Ein Beispiel ist Positivität oder Integrierbarkeit. Ein stochastischer Prozess (Xt )t∈T heißt zu einer Familie At , t ∈ T, von σ-Algebren adaptiert, falls für alle t ∈ T die Zg Xt : Ω 7→ E meßbar ist bezüglich At − σ(E). Eine Filtration zu einer geordneten Menge (T, ≤) ist eine isotone Familie F = (Ft )t∈T von σ-Algebren aus A. In Formeln, s ≤ t ∈ T ⇒ Fs ⊂ Ft . Ein filtrierter W-Raum ist ein Tupel (Ω, A, F, P ) wie oben. Die kanonische Filtration oder natürliche Filtration eines Prozesses X ist die Filtration Ft := σ(Xs , s ≤ t), t ∈ T gegeben wird durch die kleinste σ-Algebra erzeugt von allen Xs , s ≤ t. Dies ist die kleinste Filtration bzgl. der der Prozeß adaptiert ist. Ein Martingal, Submartingal, Supermartingal ist ein Tupel (X, F) = (Xt , Ft )t∈T . Hierbei ist T eine Teilmenge der reellen Zahlen mit der natürlichen Ordnung und X ein reellwertiger, integrierbarer stochastischer Prozess adaptiert zur Filtration F. Es gilt die Martingaleigenschaft (Super-, Sub-) Xs = E(Xt | Fs ) Xs ≤ E(Xt | Fs ) Xs ≥ E(Xt | Fs ) 3 Martingal (1.1) Submartingal (1.2) Supermartingal (1.3) 4 (31. Januar 2017) Zeitdiskrete Martingale f.s. für alle s ≤ t ∈ T. Die Angabe der Filtration wird häufig weggelassen, insbesondere wenn immer dieselbe Filtration benutzt wird. X ist Supermartingal genau dann, wenn −X ein Submartingal ist. Ein Prozess ist ein Martingal genau dann, wenn er gleichzeitig ein Sub- und ein Supermartingal ist. Man unterscheidet zwischen diskreter Zeit, T ⊂ ZZ und stetiger Zeit anderenfalls. Die wesentliche mathematische Argumentationslinie ist ersichtlich für T ⊂ IN. Daher, ein Standardmartingal (Sub-,Super-) ist ein Martingal (Sub-,Super-) mit Zeitparameter T = IN0 , X0 = E(X1 ) und A0 die triviale σ-Algebra {∅, Ω}. Ist T endlich oder in den natürlichen Zahlen enthalten und X ein Martingal dazu, so können wir X einbetten in ein Standardmartingal Y. Dies geschieht durch Yn = Xm mit m das Maximum der t ∈ T mit t ≤ n oder t das kleinste Elment in T. Ebenso verfahre mit der Filtration. Resultate für das Standardmartingal übertragen sich dann auf das Originalmartingal. Ist T nicht von obiger Struktur, so geschieht die Zurückführung auf Standardmartingalargumente in der Regel via Stoppzeiten. Dies ist eher technischer Natur und wir überschlagen es hier. Die Martingaleigenschaft (1.1) bzw. die Submartingal- bzw. Supermartingaleigenschaft ist im Standardfalle äquivalent zu Xn = E(Xn+1 | Fn ) (1.4) bzw. ≤, ≥ für alle n ≥ 1. Verwende zum Beweis die Projektionseigenschaft E(Xn+2 | Fn ) = E(E(Xn+2 | Fn+1 ) | Fn ) = E(Xn+1 | Fn ) = Xn . 1.0.1 Meine Martingalfavoriten Wir verwenden stets IN0 als Zeitparameter. Beispiele 1 (Irrfahrt) Seien Xn , n ∈ IN, unabhängig, identisch verteilte, Pn integrierbare Zufallsgrößen, Sn = i=1 Xi die n-te Partialsumme. Dann ist (Mn )n Mn := Sn − nEX1 ein Standardmartingal bezüglich der natürlichen Filtration Fn = σ(S1 , . . . , Sn ) = σ(X1 , . . . , Xn ). E(Mn+1 | Fn ) = Mn + E(Xn+1 − EX1 | Fn ) = Mn . (31. Januar 2017) 5 Beispiele 2 (Exponentielle Martingale) Seien Xn , n ∈ IN, unabhängig, identisch verteilte Zufallsgrößen mit Sn die n-te Partialsumme. Definiere Mn (λ) := exp(λSn )/Φn (λ) mit Φ(λ) := EeλX1 , λ ∈ IR. Die Folge (Mn (λ))n ist ein Standardmartingal bzgl. der natürlichen Filtration wie eben. Beispiele 3 (Reguläre Martingale) Sei F eine Filtration und X eine integrierbare Zufallsvariable. Dann ist Mn := E(X | Fn ) ein Martingal in n. E(Mn+1 | Fn ) = E(E(X | Fn+1 ) | Fn ) = E(X | Fn ) = Mn . Später werden wir sehen, daß genau die L1 -konvergenten Martingale so darstellbar sind. Beispiele 4 ( Das Martingal) In einem Kasino spielt ein Spieler die Verdoppelungsstrategie, in Spielerkreisen auch als Martingalstrategie bekannt. Der Spieler startet mit einem Einsatz von einem Chip auf einfache Chance (rotschwarz oder gerade-ungerade) im ersten Spiel. Verliert er, so verdoppelt er seinen vorherigen Einsatz im nächsten Spiel. Gewinnt er irgendwann einmal, so hört er auf. Zu diesem Zeitpunkt n hat er −1 − 2 − 4 − 8 − . . . − 2n−1 Einheiten verloren und gewinnt im n-ten Spiel 2n Einheiten. Insgesamt hat er eine Einheit gewonnen. Da er fast sicher irgendwann einmal gewinnt, erscheint dies als eine sichere Strategie. Mathematisches Modell: Seien Yn , n ∈ IN uiv Zg mit Werten in {1, −1} Pn und p = P (Y = 1) im offenen Einheitsintervall (0, 1). Sei Sn = i=1 2i−1 Yi . Yi = 1 wird interpretiert als Gewinn im i-ten Spiel, Sn als Kapital nach dem n-ten Spiel bei Anfangskapital 0, sofern der Spieler das n-te Spiel gespielt hat. Sn ist ein Martingal im Fall p = 1/2, ein Supermartingal im Fall p < 1/2 und anderenfalls ein Submartingal. Sei τ der erste Wert m mit Ym = 1. Auf der Menge n < τ ist Sn der Gewinn (negative Werte bedeuten Verlust) bis einschliesslich des n-ten Spieles. Da τ fast sicher endlich ist, gilt Sτ = 1. Zu dem Zeitpunkt kann er das Kasino mit einer Einheit Gewinn verlassen. Beispiele 5 (Likelihoodquotient für Münzwurf ) Seien X1 , X2 , . . . uiv Zgn mit diskreter Verteilung P = (p(x))x∈E . Sei Q = (q(x))x∈E ein anderes W-maß. Dann ist n Y q(Xi ) Mn := , p(X i) i=1 p(x) > 0 für alle x vorausgesetzt, ein Martingal bezüglich dem W-mas̈ P und der natürlichen Filtration q(Xn+1 ) E(Mn+1 | Fn ) = Mn E( | Fn ) = M n . p(Xn+1 ) 6 (31. Januar 2017) Zeitdiskrete Martingale Dieses Beispiel hat Anwendung in der Statistik. Wir wollen entscheiden, ob die Zgn X1 , X2 , . . . , Xn eine Verteilung P oder Q haben, P, Q bekannt. Dazu betrachten wir die Teststatistik Mn : IRn 7→ IR wie oben. ln Mn ist eine Summe von uiv Zgn. Nach dem starken Gesetz der Großen Zahl, anwendbar falls P q(Xi ) q(x) q(Xi ) E| ln p(X | < ∞ gilt, konvergiert n1 ln Mn gegen EP (ln p(X ) = x ln p(x) p(x) i) i) P q(x) q(Xi ) unter P bzw. gegen EQ (ln p(Xi ) ) = x ln p(x) q(x) unter Q. Sind diese Grenzwerte verschieden, so können wir P und Q unterscheiden. Die Grenzwerte sind verschieden für P 6= Q, da nach Jensen gilt EP ln EQ ln q(Xi ) q(Xi ) < ln EP =0 p(Xi ) p(Xi ) p(Xi ) p(Xi ) q(Xi ) = EQ (− ln ) > − ln EQ = 0. p(Xi ) q(Xi ) q(Xi ) In der sequentiellen Statistik trifft man bereits eine Entscheidung, wenn ln Mn gewisse Schranken überschreitet. Damit erreicht man gute Entscheidungen bei möglichst wenig Beobachtungen. Beispiele 6 (Radon-Nikodym Ableitung) Seien Q, P zwei W-Maße. Eine (meßbare) Partition φ von Ω ist eine disjunkte Zerlegung von Ω in (meßbare) S Mengen. (φ ⊂ Pot(Ω), ◦ A∈φ A = Ω.) Eine Partition φ1 ist feiner als φ2 , geschrieben φ1 φ2 , falls jedes A ∈ φ1 in einem B ∈ φ2 enthalten ist. Sei φ1 φ2 φ3 ... eine Folge von verfeinerten, meßbaren Partitionen. Definiere X Q(A) Mn := 1A P (A) A∈φn n ∈ IN. Der Einfachheit nehmen wir stets P (B) > 0 an. Dann ist M = (Mn )n ein Martingal bezüglich P und der Filtration Fn erzeugt von der Partition φn . EP (Mn+1 | Fn ) = X A∈φn+1 = Q(A) EP (1A | Fn ) P (A) X X Q(A) EP (1A | Fn ) P (A) X X Q(A) 11B P (A | B) P (A) X X Q(A) 11B P (B) B∈φn B⊃A∈φn+1 = B∈φn B⊃A∈φn+1 = B∈φn B⊃A∈φn+1 = X Q(B) 11B = Mn P (B) B∈φn (31. Januar 2017) 7 Beispiele 7 (Polya Urnen Modell) Gegeben sei eine Urne mit S schwarzen und W weißen Bällen. Es wird zufällig mit Gleichverteilung ein Ball gezogen. Dann werden insgesamt c ∈ {−1, 0, 1, . . .} Bälle dieser gezogenen Farbe zurückgelegt. Kein Ball wird zurückgelegt entspricht c = −1, der gezogene Ball wird zurückgelegt entspricht c = 0 usw.. Sei Sn , Wn , n ∈ IN, die Anzahl der schwarzen bzw. weißen Kugeln nach der n-ten Ziehung einschließlich eventuellem Zurücklegen. Dann ist Mn = Sn Wn + S n ein Martingal bezüglich der natürlichen Filtration. (Für c = −1 müssen wir nach W + S Ziehungen stoppen, da kein Ball mehr in der Urne ist.) Mn ist die bedingte Wahrscheinlichkeit, daß bei der nächsten (= n + 1-ten) Ziehung eine schwarze Kugel gezogen wird, bedingt auf der Kenntnis der bisher gezogenen Kugeln. Mathematisches Modell: Sei Xn die Farbe, kodiert als 1 für ’schwarz’ und 0 für ’weiß’, der gezogenen Kugel in der n-ten Ziehung. Die Filtration ist Pn Fn = σ(X1 , . . . , Xn ). Die Zg Mn schreibt sich als, Zn := i=1 Xi , Mn = P (Xn+1 = 1 | An ) = S + cZn . W + S + nc Mn ist ein Martingal, da E(Mn+1 | Fn ) = = S + cZn + cE(Xn+1 | Fn ) W + S + (n + 1)c n S + cZn + c WS+cZ +S+nc W + S + (n + 1)c = . . . = Mn . Das Polya Urnen Modell läßt sich auch für c ∈ [−1, ∞) spielen. Es werden stets ⌊c⌋ Bälle der gezogenen Farbe zurückgelegt und, abhängig von einem unabhängigen Bernoullizufallsexperiment zum Parameter c − ⌊c⌋, eine weitere der Farbe. Beispiele 8 (Verzweigungsprozesse) Historischer Ausgangspunkt für die Verzweigungsprozesse war die Genealogie, insbesondere die Überlebenswahrscheinlichkeit eines Familiennamens. Als Nachkommen (Kinder) zählen wir hier nur die männlichen Nachkommen, die den Familiennamen tragen und weitergeben können. Die Anzahl dieser Nachkommen sei unabhängig mit stets gleicher Verteilung. Uns interessiert die Größe der n-ten Generation. 8 (31. Januar 2017) Zeitdiskrete Martingale Mathematisches Modell: Seien Xi,j , i, j ∈ IN0 , uiv Zgn mit Werten in IN0 , 0 < E(X• ) =: m < ∞. Der Bienayme-Galton-Watson (BGW) Prozess Z wird rekursiv definiert durch Z0 = 1, Zn+1 = Zn X Xn,j . j=1 Zn Dann ist ( m n )n ein Martingal bezüglich der Filtration Fn = σ(Xi,j , i < n, j ∈ IN, ) (oder auch der natürlichen Filtration). Die Größe Xn,j gibt die Anzahl der Nachkommen des j-ten Individuums der n-ten Generation an. Zn entspricht der Anzahl der Namensvertreter in der n-ten Generation. Ein ’typischer’ Stammbaum sieht etwa folgendermaßen aus: ✏ ✏✏ ✑ ✑ ✑ ✰ s✑ 11 ✁❆ ✁ ❆ ✁ ❆ ☛✁ ❯s s✁ s❄ ❆❆ ✑ ✮ s✏ 1✏ ✑◗ ◗ ✑ ◗ s❄ 12 ✏ ✏✏ ✏ ✏✏ s ✏ ✏PPP s❄ 2 ◗ ◗ ◗ s ◗s13 ✁❆ ✁ ❆ ✁ ❆ s✁☛✁ s❄ ❆❆❯s s❄ PP PP PP PP Pq Ps 3 ❅ s✠ 31 ✁❆ ✁ ❆ ✁ ❆ ❆❆❯s312 s✁☛✁ Beispiele 9 (Gewichteter Verzweigungsprozess) Jedes Individuum eines Verzweigungsprozesses trägt zusätzlich ein zufälliges Gewicht. Dies ist das Gewicht der Mutter multipliziert mit einer Zufallsgröße. Mathematisches Modell: Wir betrachten einen gerichteten Graphen (V, E). Die Knotenmenge ist V := ∞ [ n=0 IN n , IN 0 := {∅}. Wir benutzen für v = (v1 , ..., vn ) ∈ V die Notation vi = (v1 , ..., vn , i) und |v| = n, |∅| = 0, v|m = (v1 , . . . , vm ). (Die Kanten e ∈ E sind die Tupel e = (v, vi).) Seien T (v) : Ω → IRIN , v ∈ V , uiv Zgn. Beachte für festes v können die Koordinaten T1 (v), T2 (v), . . . voneinander abhängig sein. Definiere rekursiv L(v) : Ω 7→ IR durch L(∅) = 1 und L(v, i) = L(v)Ti (v). ❅ ❅ ❅ ❘ ❅s32 ✁❆ ✁ ❆ ❆ ✁ ❆❆❯s s✁☛✁ (31. Januar 2017) 9 Hieraus ergibt sich die Produktdarstellung L(v) = n Y Tvi (v|i−1 ) = Tv1 (∅)Tv2 (v1 )...Tvn (v1 , . . . , vn−1 ). i=1 Sei Zn = P {v||v|=n} L(v). Dann ist für m 6= 0 Wn := Zn , mn P 0 6= m := E i Ti (.) wohldefiniert, ein Martingal. V gibt eine natürliche Indizierung des Baumes mit unendlich vielen Ästen. Die Größen L(v) geben das Gewicht des Individuums v an. Der BGW-Verzweigungsprozess ist ein Spezialfall mit L(v) = 1 oder L(v) = 0. In der Zeichnung haben wir Individuen mit Gewicht Null weggelassen. Beispiele 10 (Zufällige Cantormengen) Als spezielles Beispiel für einen gewichteten Verzweigungsprozeß betrachten wir die Hausdorffdimension von zufälligen Cantormengen. Eine (die) Cantormenge wird folgendermaßen konstruiert: Aus dem Einheitsintervall entferne das mittlere Drittel. Aus den verbliebenen Intervallen entferne ebenfalls das mittlere Drittel usw. t0 r r ♣ ♣ ♣ ♣ ♣♣♣♣ ♣♣♣♣ ta r r ♣ ♣ ♣ ♣ ♣♣♣♣ ♣♣♣♣ Cantorset Cantorset Can tb r r ♣ ♣ ♣ ♣ ♣♣♣♣ ♣♣♣♣ t1 r r ♣ ♣ ♣ ♣ ♣♣♣♣ ♣♣♣♣ Cantorset Cantorset Can Es bleibt eine Menge C übrig, genannt die Cantormenge. Wir wollen diese Konstruktion nun zufällig machen. Anstelle von 1/3, 2/3 wählen wir zufällig, aber zu gegebener Verteilung, zwei (oder auch mehrere) Punkte aus und entfernen das mittlere (einige) Intervall. Für jedes verbleibende Intervall wiederholen wir diese Prozedur auf kleinerer Skala unabhängig, aber mit derselben Verteilung. Die übrigbleibende Menge C = C(ω) ist eine zufällige Cantormenge. Wir denken uns die Prozedur als Baum dargestellt wie oben mit der natürlichen Indizierung durch V. Sei L(v) die Länge des Intervalls v. Die Faktoren T1 (v), T2 (v), .. geben die jeweilige relative Länge der verbleibenden Intervalle bei Aufspaltung des Intervalls v. Für die deterministische Cantormenge gilt T1 (.) ≡ 1/3 = T2 (.), T3 = 0 = T4 = ... 10 (31. Januar 2017) Zeitdiskrete Martingale t0 t1 − T2 (∅) tT1 (∅) t1 Als nächstes klären wir den Zusammenhang zur Hausdorffdimension und Hausdorffmaß. Sei A eine beliebige Menge in IR (metrischer Raum). Eine offene δ- Überdeckung von A ist eine Familie Un , n ∈ IN , von offenen Mengen mit DurchS messer diam(Un ) < δ, die A überdeckt (A ⊂ n Un ). Für α > 0, δ > 0, P sei Hδα (A) = inf{ n diamα (Un )}, das Infimum über alle δ-Überdeckungen genommen. Das α-Hausdorffmaß von A ist: Hα (A) = limδ→0 Hδα (A). Das αHausdorffmaß Hα kann den Wert unendlich annehmen. Die Hausdorffdimension ist das kleinste α mit endlicher α-Hausdorffdimension, H(A) = inf{α|Hα (A) < ∞}. Für unsere zufälligen Cantormengen bietet sich als Überdeckung die n-te Generation an (modifiziert zur offenen δ-Überdeckung!). Der Wert Sn(α) := X Lα (v) |v|=n ist eine erste Annäherung (im Grenzwert exakt) an das α-Hausdorfmaß. Eine besondere Rolle spielt der Wert α mit E(T1α +T2α ) = 2. Für α <(=,>) α (α) ist Sn ein Submartingal (Martingal, Supermartingal). Der Wert α ist (f.s.) die Hausdorffdimension einer zufälligen Cantormengen C, falls C nicht die Null(α) menge ist. Der Grenzwert limn→∞ Sn ist das α-Hausdorff-Maß der zufälligen Cantormenge. Dieses Ergebnis läßt sich auch auf die Cantormenge selbst anwenden. Die Zven T. sind deterministisch (1/3, 2/3). Die Hausdorff-Dimension α = ln 2/ ln 3 α α erhält man durch Lösen der Gleichung 13 + 13 = 1 nach α. Beispiele 11 (Aktien) Der Aktienkurs Xn wird gerne als Martingal modelliert. Ein Händler kauft am n-ten Tag Cn Aktien. Am folgenden Tag hat er den Wert Cn (Xn+1 − Xn ) dazugewonnen. Der Prozess Mn := n−1 X i=1 Ci (Xi+1 − Xi ) ist ein Martingal, vorausgesetzt jede Handelsentscheidung Cn ist Fn -meßbar. (Dies ist die mathematische Formulierung für keine Insiderinformation.) (31. Januar 2017) 11 Beispiele 12 (Spielhäuser) Ein Spieler geht in ein Kasino mit mehrfachem Spielangebot wie z.B. Roulette und Black Jack. Zur Einfachheit sei die Zeit getaktet. Zu Beginn jeden Zeittaktes kann der Spieler frei ein Spiel auswählen und es einmal zu erlaubtem Einsatz spielen. Dieser Vorgang einschießlich Auszahlung wird in einem Zeittakt abgeschlossen. Sei Kn das Spielerkapital zum n-ten Zeitpunkt. Der Spieler möchte seinen Gewinn KN nach genau N Zeittakten maximieren, z.B im Sinne vom Erwartungswert, oder der Wahrscheinlichkeit mindestens einen bestimmten Betrag zu haben. Welche Strategie, d.h. Auswahl der Teilspiele, ist die beste? Dieses Problem, behandelt in Dubins-Savage, How to gamble if you must, führt auf die Konstruktion spezieller Martingale. In der Sektion über optimales Stoppen behandeln wir den Spezialfall mit nur zwei Optionen, weiterspielen oder stoppen. 12 (31. Januar 2017) Zeitdiskrete Martingale 2 Martingaltransformierte Unser Grundraum ist ein filtrierter W-raum (Ω, A, F, P ) mit einer Filtration F = (Fn )n∈IN0 . Alle betrachteten Prozesse X = (Xn )n∈IN0 sind adaptiert und integrierbar. Mit M= , M≤ , M≥ bezeichnen wir die Menge der Martingale (Sub-, Super-) mit Zeitparameter IN0 zur Filtration F. Da die Filtration meistens als fest angenommen wird und sich nicht verändert, wird sie in Formulierungen häufig weggelassen. Zum Beispiel, ist X ein Submartingal, so ist −X) ein Supermartingal (zu derselben Filtration). Wir betrachten und formulieren Resultate meistens für Submartingale, entsprechendes gilt dann für Supermartingale. 2.0.2 Filtrationwechsel Für einen Wechsel in eine Subfiltration gilt: Proposition 13 Sei (X, F) ein Martingal (Sub-, Super-). Sei X adaptiert zu einer Unterfiltration B = (Bn )n mit Bn ⊂ Fn . Dann ist (X, B) ein Martingal (Super-, Sub-). Beweis: Für B ∈ Bn gilt Z Z Z Z E(Xn+1 | Bn ) = Xn+1 = E(Xn+1 | Fn ) =≥,≤ Xn B B B und damit E(Xn+1 | Bn ) =≥,≤ Xn . 2.0.3 B q.e.d. Raumtransformationen Eine lineare Raumtransformation auf den reellen Zahlen beläßt ein Martingal als ein Martingal und ein Submartingal, wird je nach Vorzeichen der Steigung, zum Sub- oder Supermartingal. Bei konvexen Funktionen hilft der Satz von Jensen. 13 14 (31. Januar 2017) Martingaltransformierte Eine Funktion ϕ : I 7→ IR ∪ {∞} mit I ein Intervall heis̈t konvex , falls für alle x 6= y ∈ I, t ∈ (0, 1) und tx + (1 − t)y ∈ I gilt ϕ(tx + (1 − t)y) ≤ tϕ(x) + (1 − t)ϕ(y). Sie heis̈t strikt konvex, falls in obiger Ungleichung stets < gilt. Eine Funktion ϕ : IR → IR ∪ {−∞} heis̈t (strikt) konkav genau dann, wenn −ϕ (strikt) konvex ist. i) Im Inneren von I ist eine konvexe Funktion ϕ ist stetig und es existieren die linksseitige Ableitung ϕ− und die rechtsseitige Ableitung ϕ+ . Beide sind aufsteigend und ϕ− ≤ ϕ+ und verschieden an höchstens abz ählbar vielen Punkten. Satz 14 (Jensen Ungleichung) Sei X eine integrierbare Zg, B ⊂ A eine Unter-σ-Algebra und ϕ eine konvexe Funktion mit ϕ(X) wohldefiniert und integrierbar. Dann gilt ϕ(E(X | B)) ≤ E(ϕ(X) | B) Gleichheit gilt genau dann, wenn ϕ linear ist auf einer Menge D mit P (X ∈ D) = 1. Als Merkregel: Falscher Effee Eϕ ≥ ϕE (wie für die Jensensche Ungleichung). Lemma 15 Sei M ein Martingal und ϕ eine konvexe (konkave) Funktion mit ϕ(Mn ) integrierbar für jedes n. Dann ist ϕ(M ) = (ϕ(Mn ))n ein Submartingal bzgl. derselben Filtration. Sei X ein Submartingal. Sei ϕ eine aufsteigende konvexe Funktion und ϕ(Xn ) integrierbar für jedes n. Dann ist ϕ(X) ein Submartingal. Sei X ein Supermartingal. Sei ϕ eine absteigende konvexe Funktion und ϕ(Xn ) integrierbar für jedes n. Dann ist ϕ(X) ein Submartingal. Beweis: Für ein Martingal M und ϕ konvex gilt E(ϕ(Mn+1 ) | An ) ≥ ϕ(E(Mn+1 | An )) = ϕ(Mn ) Für ein Submartingal X und ϕ konvex aufsteigend gilt E(ϕ(Xn+1 ) | An ) ≥ ϕ(E(Xn+1 | An )) ≥ ϕ(Xn ) Für ein Supermartingal X und ϕ konvex absteigend gilt ebenfalls die obige Zeile. q.e.d. Das obige Lemma sieht nach einem Symmetriebruch bzgl. Sub- und Supermartingalen aus. Dies ist nicht der Fall. Gewisse Symmetrie erhalten wir, wenn wir eine konvexe Funktion ϕ durch die konkave Funktion −ϕ ersetzen. X ∈ M≤ , ϕ konkav ↓⇒ ϕ(X) ∈ M≥ (31. Januar 2017) 15 X ∈ M≥ , ϕ konkav ↑⇒ ϕ(X) ∈ M≥ Notation: Der Positivteil einer Funktion f is f + = f ∨ 0 und der Negativteil f = (−f ) ∨ 0. Beachte f − ist positiv und f = f + − f , |f | = f + + f − . Beispiele: i) Für ein Martingal M sind M + := (Mn+ )n und M − = (Mn− )n Submartingale zur gleichen Filtration. Für jedes p ≥ 1 ist |M |p = (|Mn |p )n und für jedes λ ≥ 0 ist eλM ein Submartingal. ii) Ist X ein Submartingal, so auch X + und eλX für positive λ. Jedoch X − ist im allgemeinen weder ein Sub- noch ein Supermartingal. iii) Ist X ein Supermartingal, so sind X − und eλX für λ ≤ 0 Submartingale. + X ist im allgemeinen weder ein Sub- noch ein Supermartingal. Auch wenn der Positivteil bzw. Negativteil keine schöne Martingaleigenschaft besitzt, läst sich das erste absolute Momente gut abschätzen. − Proposition 16 Für ein Submartingal X gilt 2EXn− + x0 ≤ E|Xn | ≤ 2EXn+ − x0 und für ein Supermartingal 2EXn+ − x0 ≤ E|Xn | ≤ 2EXn− + x0 . Beweis: Die erste Abschätzung erhalten wir aus x0 ≤ EXn = EXn+ − EXn− und E|Xn | = EXn+ + EXn− durch einsetzen. Die zweite folgt analog. q.e.d. 2.0.4 Raum der Martingale Durch Addition, Supremumsbildung, Infimumsbildung und Anwendung konvexer Funktionen lassen sich weitere (Super–, Sub–) Martingale erzeugen. Lemma 17 i) Der Raum M= der Martingale ist ein reeller Vektorraum. ii) Der Raum M≤ (M≥ ) der Submartingale (Super-) ist abgeschlossen bezüglich Addition, Multiplikation mit positiver Konstanten und dem endlichen Supremum (Infimum). Beweis: Leicht nachzurechnen. 2.0.5 q.e.d. Doob Zerlegung Ein vorhersehbarer Prozeß zu einer Filtration F = (Fn )n∈IN0 ist ein adaptierter Prozeß X = (Xn+1 )n∈IN0 . Dies ist zu verstehen mit Xn+1 ist Fn meßbar für alle n ∈ IN0 . Aus schreibtechnischen Gründen wird manchmal X0 := X1 mit hinzugenommen. 16 (31. Januar 2017) Martingaltransformierte Lemma 18 (Doob Zerlegung) Sei X ein Submartingal (Super-). Dann existiert genau ein Martingal M und genau ein vorhersehbarer, monoton aufsteigender (absteigender) Prozeß A mit A0 ≡ 0 und Xn = Mn + An . Der Prozess A wird rekursiv gegeben durch An+1 = An + E(Xn+1 | An ) − Xn . Beweis: • An wie oben definiert tut’s. An ist wohldefiniert, monoton steigend (fallend) und vorhersehbar. Eine Rechnung zeigt die Martingaleigenschaft von Mn := Xn − An , E(Mn+1 | Fn ) = E(Xn+1 −An+1 | Fn ) = E(Xn+1 | Fn )−An+1 −Xn +Xn = −An +Xn = Mn . • Eindeutigkeit. Sei Xn = M n +An eine zweite Zerlegung mit den obigen Eigenschaften. Wir zeigen durch Induktion nach n M n = Mn und An = An . Der Induktionsanfang ist leicht. Wir zeigen den Schritt n → n + 1. • An+1 = An+1 . An+1 = = = E(An+1 | Fn ) = E(Xn+1 − M n+1 | Fn ) E(Xn+1 | Fn ) − M n = E(Xn+1 | Fn ) − Mn E(Xn+1 − Mn+1 | Fn ) = E(An+1 | Fn ) = An+1 Hieraus folgt sofort Mn+1 = M n+1 . 2.1 q.e.d. Martingaldifferenzfolgen Eine Martingaldifferenzfolge (Sup-, Super-) zu einer Filtration F ist eine Folge D = (Dn )n∈IN von adaptierten und integrierbaren Zgn mit 0 =≤,≥ E(Dn | Fn−1 ), n ∈ IN. Wir verwenden die Kurznotation D = (Dn )n . Jede Martingaldifferenzfolge (Sup-Super-) D zur Filtration F liefert via Xn = n X Di + X0 (2.1) i=0 ein Martingal, (Sub-, Super-) bzgl. derselben Filtration. Umgekehrt, sei X ein Martingal (Sup-,Super-), so ist die Differenzfolge Dn := Xn − Xn−1 , n ∈ IN eine Martingaldifferenzfolge zur selben Filtration und es gilt (2.1). Wir sprechen von der Martingaldifferenzfolge D (Sub-, Super-) des Martingals (Sub-, Super-) X. 2.1. Martingaldifferenzfolgen (31. Januar 2017) 17 Satz 19 Sei die Filtration F und eine reelle Zahl x vorgegeben. Es gibt eine bijektive Abbildung zwischen Martingaldifferenzfolgen (Sub-, Super-) D und Martingalen (Sub-, Super-) mit Anfangswert x jeweils zur Filtration F. Diese kann gegeben werden durch Xn = n X Di + x. i=1 Beweis: Leicht. 2.1.1 q.e.d. Transformierte durch vorhersehbare Prozesse Die Martingaltransformierte eines Martingals (Sub-, Super-) X zu einem vorhersehbaren Prozeß C = (Cn )n∈IN ist der Prozess X C XnC := n X C i Di + X0 i=1 n ∈ IN0 . Hierbei ist Dn := Xn − Xn−1 die zugehörige Martingaldifferenzfolge. Einige Autoren benutzen die Notation C · X bzw. C ∗ X für X C . Für reellwertige Funktionen f, g (oder Vektoren) benutzen wir (f g)(x) := f (x)g(x). Satz 20 Sei M ein Martingal und C vorhersehbar. Ist CD integrierbar, so ist die Martingaltransformierte M C ein Martingal. Sei X ein Submartingal (Super-) und sei C vorhersehbar und positiv. Falls CD integrierbar ist, so ist die Martingaltransformierte X C ein Submartingal (Super-). Beweis: Die Martingaltransformierte M C ist adaptiert zur Filtration und integrierbar, da die einzelnen Terme Ci Di Fi meßbar und integrierbar sind. Die Martingaleigenschaft wird nachgerechnet C E(Mn+1 | Fn ) = E( n+1 X i=1 Ci Di + M0 | Fn ) = MnC + Cn+1 E(Dn+1 | Fn ) = MnC . Eine analoge Argumentation hält für Sub- und Supermartingale. q.e.d. Korollar 21 Sei M ein Martingal und C ein vorhersehbarer Prozess mit CD integrierbar. Dann ist der Erwartungswert der Martingaltransformierten eine Konstante. Sei X ein Submartingal (Super-) und C ein positiver vorhersehbar Prozess mit CD integrierbar. Dann ist der Erwartungswert EXnC monoton steigend (fallend) in n. 18 (31. Januar 2017) Martingaltransformierte Beweis: Wir zeigen nur den Martingalfall. Die anderen beiden Aussagen folgen analog. EMnC = X i≤n E(E(Ci Di | Fi−1 )) + M0 = X i≤n E(Ci E(Di | Fi−1 )) + M0 = M0 . q.e.d. Die punktweise Ordnung auf dem Raum der Prozesse ist die Ordnung (Xt )t∈T (Yt )t∈T ⇔ Xt (ω) ≤ Yt (ω) für alle t ∈ T, ω ∈ Ω. Lemma 22 Sei X ein Submartingal (Super-) und A B zwei vorhersehbare positive Prozesse. Sei D die Differenzfolge und AD, BD integrierbar. Dann gilt für alle n ∈ IN0 EXnA ≤ (≥)EXnB . Beweis: Der Induktionanfang X0A = X0 = X0B ist einfach. Für den Induktionsschritt n → n + 1 argumentiere B A E(Xn+1 −Xn+1 | Fn ) = XnB −XnA +(Bn+1 −An+1 )E(Dn+1 | Fn ) ≥ (≤)XnB −XnA Nehme auf beiden Seiten den Erwartungswert und verwende die Induktionshypothese. q.e.d. Kasinospieler: Ein Spieler spielt eine endliche Folge von (unabhängigen) Spielen mit zufälligem Ausgang D1 , D2 , , . . . , DN in einem Spielkasino. Dabei gebe Di die positive oder negative Auszahlung im i−ten Spiel bei Einsatz einer Einheit ab. Der Spieler darf (=mus̈) den Einsatz Cn für das n−te Spiel vor dem n-ten Spiel bestimmen. Üblicherweise einen positiven Einsatz und nicht mehr als er besitzt. (Es sei denn, man handelt an der Börse.) Hierbei kennt der Spieler die σ-Algebra der gesamten Vergangenheit bis vor dem n-ten Spiel. In der Regel ist dies die kanonische σ-Algebra σ(D1 , . . . , Dn−1 ) = An−1 erzeugt von allen Spielergebnisse bis zu diesem Zeitpunkt. Der von ihm gewählte Einsatz Cn ist daher An−1 mes̈bar, die Folge (Cn ) ist vorhersehbar. Die Folge (Cn ) heis̈t auch Strategie des Spielers. Sei Kn sein Kapital nach dem n-ten Spiel, K0 ∈ IR+ sein Anfangskapital. Nach dem n−ten Spiel beträgt sein Kapital KnC unter der Strategie C KnC = n X i=1 C i D i + K0 . 2.1. Martingaldifferenzfolgen (31. Januar 2017) 19 Der Spieler möchte möglichst viel gewinnen. Ein Kriterium wäre, den ErwarC tungswert EKN zu einem festgesetzten Zeitpunkt N zu maximieren. Mathematisch gesehen führt dies auf C sup EKN C über alle erlaubten Strategien C. Faire Spiele: Alle Spiele Di seien fair, d.h. E(Di | Ai−1 ) = 0. Dann ist (KnC ) eine Martingaltransformierte zur Martingaldifferenz D und dem vorhersehbaren Prozess C. Der Erwartungswert EKnC ist konstant K0 für jedes n und jede Strategie C liefert (20) EKnC = K0 . Anders formuliert, alle Aktionen des Spielers haben keinen Einfluß auf sein durchschnittlich erspieltes Kapital! Bei fairen Spielen spielt der Spieler Dummy. Nachteilige Spiele: Alle Spiele seien subfair (nachteilig) im Sinne E(Dn | An−1 ) ≤ 0 aus Sicht des Spielers gesehen. Das Kapital KnC unter der gewählten Strategie C ist jetzt ein Submartingal und das erwartete Kapital E(KnC ) nach der n-ten Runde fällt in n. Mit der Erhöhung der Einsätze sinkt der Erwartungswert. C sollte der Spieler mit Im Sinne der Erwartungswertmaximierung von EKN möglichst geringen Einsätzen spielen. Der Einsatz stets Null entspricht garnicht zu spielen. Selbst das Spielen einer einzigen Runde mit strikt positivem Einsatz kann schon nachteilig für ihn sein. Da dies ein Nullsummenspiel ist, was der eine verliert gewinnt der andere, profitiert das Spielkasino und wird infolgedessen versuchen den Spieler zum Spielen zu animieren. Vorteilhafte Spiel: Alle Spiele seien superfair (vorteilhaft) im Sinne E(Dn | An−1 ) ≥ 0 aus Sicht des Spielers gesehen. Das Kapital KnC unter der gewählten Strategie C ist jetzt ein Supermartingal und das erwartete Kapital E(KnC ) nach der nten Runde steigt in n. Es steigt auch mit Erhöhung der Einsätze. Im Sinne der 20 (31. Januar 2017) Martingaltransformierte C Erwartungswertmaximierung von EKN sollte der Spieler möglichst viel mit gros̈en Einsätzen spielen, nämlich stets und alles einsetzen. (Dies führt auf das Petersburger Spiel, auf unendliche Sicht gesehen geht man pleite.) Für das Spielkasino sind solche Spiele nachteilig, aber trotzdem gibt es solche tatsächlich im Spielkasino [?]. Mehr hierzu in dem Kapitel über Kasinospiele. Verschiedene Spiele: Und was macht der Spieler, wenn es Spiele Di gibt, die nachteilig sind und solche die vorteilhaft sind? Er sucht sich die für ihn vorteilhaften aus. Bei diesen setzt er möglichst viel (=alles), bei den anderen möglichst wenig (=nichts). Es reicht ihm, nur bei strikt vorteilhaften Spielen (EDi > 0) alles zu setzen. 2.2 Stoppzeiten Wir betrachten Stoppzeiten und Zeittransformationen durch eine Folge von Stoppzeiten. Stoppzeit ist ein wesentlicher Begriff für stochastische Prozesse und Wahrscheinlichkeitstheorie. Eine Abbildung τ : Ω 7→ IN0 heißt Stoppzeit bzgl. der Filtration F, falls für alle n ∈ IN0 gilt: {τ ≤ n} ∈ Fn . (2.2) Wir benutzen in natürlicher Weise erweiterte bzw. beschränkte Stoppzeiten, falls der Bildbereich erweitert (= N0 ) oder beschränkt ist. Ergibt sich die Filtration aus dem Kontext oder ist die kanonische Filtration eines bekannten Prozesses gemeint, so entfällt die Angabe der Filtration. Standardmäı̈g verwenden wir F0 als triviale σ-Algebra und lassen {τ = 0} zu. (Dies impliziert dann τ ≡ 0 oder τ > 0 f.s..) Stoppzeiten bezeichnen wir stets mit griechischen Buchstaben wie τ oder σ. Die konstante Abbildung ist eine Stoppzeit. Proposition 23 Sei F eine Filtration und τ eine Stoppzeit dazu. Äquivalent sind i) τ ist eine erweiterte Stoppzeit. ii) ∀n ∈ IN0 : {τ = n} ∈ Fn . iii) ∀n ∈ IN0 : {τ > n} ∈ Fn . Beweis: Einfach. i) ⇔ ii) Für die Hinrichtung benutze {τ = n} = {τ ≤ n}\{τ ≤ n − 1} ∈ Fn , da {τ ≤ n} ∈ Fn und {τ ≤ n − 1} ∈ Fn−1 ⊂ Fn gilt. Die Sn Rückrichtung ergibt sich aus {τ ≤ n} = i=0 {τ = i}. ii) ⇔ iii) Dies ergibt sich aus {τ > n} = Ω\{τ ≤ n} ∈ Fn q.e.d. 2.2. Stoppzeiten (31. Januar 2017) 21 Sei T = T (Ω, A, P, F)) die Menge der Stoppzeiten zu der vorgegebenen Filtration F, T zu den erweiterten Stoppzeiten. Proposition 24 Der Raum der Stoppzeiten T ist abgeschlossen bezüglich abzählbarem Infimum, endlichem Supremum und endlicher Summe. Der Raum der erweiterten Stoppzeiten T ist abgeschlossen bezüglich abzählbarem Infimum, abzählbarem Supremum und abzählbarer Summe. Beweis: Sei τi , i ∈ IN eine abzählbare Folge von Stoppzeiten. Das abzählbare Infimum bzw. Supremum erfüllt die Stoppzeiteigenschaft, da gilt [ \ {inf τi ≤ n} = {τi ≤ n} ∈ Fn , {sup τi ≤ n} = {τi ≤ n} ∈ Fn . i i i i Es verbleibt nachzuprüfen, unter welchen Bedingungen das Infimum oder Supremum wieder eine Stoppzeit oder erweiterte Stoppzeit im jeweiligen Raum ist. Die Summe von zwei Stoppzeiten τ1 , τ2 ist eine Stoppzeit wegen {τ1 + τ2 ≤ n} = n X i=0 ({τ1 = i} ∩ {τ2 ≤ n − i}) ∈ Fn für alle n. Für die abzählbare Summe argumentiere X X { τi ≤ n} = lim { τi ≤ n} ∈ Fn . i N →∞ i≤N q.e.d. Warnung: Die Differenz von Stoppzeiten ist im allgemeinen keine Stoppzeit. (Übung mit τ − 1.) Das Standardbeispiel einer erweiterten Stoppzeit für einen stochastischen Prozess X mit Werten in (E, E) sind erste Eintrittszeiten (bzw. Austrittszeiten) aus einer (meßbaren) Menge B ∈ E aus dem Zustandsraum τB (ω) := inf{n : Xn (ω) ∈ B} = inf{n : Xn (ω) 6∈ B}. Wir benutzen die Konvention inf ∅ := ∞. Heuristik: Eine Stoppzeit ist eine genaue Handlungsanweisung für jede auftauchende Situation, die so genau definiert ist, dass ein Rechner diese ausführen könnte. Diese Handlungsanweisung wird gegeben bevor die Situation eintritt. Aktien: Wann sollte ein Spieler eine Aktie verkaufen? Dies ist ein Stoppproblem. Abhängig von der Information bis zum Zeitpunkt n, grob gesagt der Historie der Aktienkurse Xm , m ≤ n bis zu diesem Zeitpunkt, entscheidet sich der Spieler für halten oder abstoßen. Der Verkaufszeitpunkt ist eine Stoppzeit, z.B. wenn der Wert Xn eine vorgegeben Schranke überschreitet. 22 (31. Januar 2017) Martingaltransformierte 2.2.1 Optional Sampling Theorem revisited Sei (X, F) ein adaptierter Prozess und τ eine Stoppzeit bzgl. der gegebenen Filtration. Der Prozeß X τ := (Xn∧τ )n (2.3) mit a ∧ b = min{a, b}, (Xτ ∧n )(ω) := (Xn∧τ (ω) )(ω) heißt gestoppter Prozeß. Der Prozess X τ läßt sich auch als transformierter Prozess XnC sehen bzgl. dem vorhersehbaren Prozess C = (Cn )n definiert durch Cn := 11n≤τ . Der Ctransformierte Prozeß X C erfüllt XnC = n X i=1 Ci Di + x 0 = n∧τ X Di + x0 = Xτ ∧n i=1 mit Di = Xi − Xi−1 die Differenzen und xo = X0 . Korollar 25 (Optional Sampling Theorem 2) Sei (X, F) ein Martingal (Sub-, Super-) und τ eine erweiterte Stoppzeit. Dann ist ((Xτ ∧n )n , F) ein Martingal (Sub, Super-). Die Funktion n 7→ E(Xτ ∧n ) ist eine konstante (aufsteigende, absteigende) Funktion. Für Stoppzeiten τ ≤ σ und Submartingale (Super-) gilt EXτ ∧n ≤≥ EXσ∧n Beweis: Die erste Aussage folgt aus Theorem 21 mit der Darstellung Xτ ∧n = q.e.d. XnC . Die zweite aus der ersten und die dritte aus Lemma 22. Kartenraten: Gegeben sei ein verdeckter Stapel gut gemischter Karten mit je 26 roten und 26 schwarzen Karten, ein normales Bridgeblatt (Rommeeoder Canasta-). Der Spieler gewinnt genau dann, wenn er eine rote Karte richtig vorhersagt nach folgender Prozedur: • Falls er die oberste zugedeckte Karte als Rot “vorhersagen möchte, be” kommt er sie. Ist es eine rote, hat der Spieler gewonnen, sonst verloren. • Falls nicht wird die oberste Karte gezogen, gezeigt und beiseite gelegt. Neustart mit dem Reststapel. • Falls der Spieler keine Karte bis zur letzten wählt, bekommt er die letzte zugewiesen. 2.2. Stoppzeiten (31. Januar 2017) 23 Gefragt wird nach einer Strategie (=Stoppzeit), die seine Gewinnwahrscheinlichkeit optimiert bzw. echt größer als 1/2 macht. Heuristik: Wenn der Spieler die erste Karte vorhersagen möchte, hat er eine Gewinnwahrscheinlichkeit von genau 21 . Dasselbe gilt für die letzte Karte aus Symmetrie. Die letzte Karte bekommt er auch, falls er vorher keine Vorhersage machen wollte. Falls der Spieler also keine bessere Wahl vorher findet, so kann er stets auf diese letzte Karte zurückgreifen. Was immer auch während der Ziehphase geschieht, die letzte Karte wird während der Auswahlprozedur nicht verändert und behält damit ihre Wahrscheinlichkeit von 1/2, rot zu sein. Der Spieler kann folglich stets eine Gewinnwahrscheinlichkeit von 1/2 garantieren. In einigen Fällen hat der Spieler aber eine bessere Auswahlmöglichkeit. Falls nach gewisser Zeit, z.B. die erste Karte war schwarz, mehr schwarze Karten als rote gezogen wurden, verbleiben in dem zugedeckten Stapel relativ mehr rote Karten als schwarze. Wenn der Spieler jetzt die oberste Karte wählt, ist die Wahrscheinlichkeit einer roten Karte strikt größer als 1/2, genauer der Quotienten der Anzahl der roten Karten mit der Gesamtanzahl der noch verbliebenen zugedeckten Karten. Falls sich keine dieser vorteilhaften Situationen ergibt, kann der Spieler stets auf die letzte zur zückgreifen. Da günstige Situationen wie oben beschrieben mit strikt positiver Wahrscheinlichkeit vorkommen, ist die Gesamtwahrscheinlichkeit für eine richtige Vorhersage des Spielers strikt größer als 1/2. (Diese Strategie ließe sich noch optimieren, aber wir sind zufrieden mit strikt größer als 1/2.) Die Ergebnisse scheinen sich zu widersprechen. Oder gibt es hier ein Lücke in der Argumentation? Wenn ja, welche? Mathematische Lösung: Seien X1 , . . . , X52 Zgn mit Werten in {0, 1}. Die Verteilung entspricht dem zufälligen Ziehen aus einer Urne mit 26 schwarzen (=0) und 26 roten (=1) Karten ohne zurücklegen (Polya’s Urnenmodell mit c = −1). Xi = 1 entspricht dem Ziehen einer roten Kugel in der i-ten Ziehung. Sei Yn := E(Xn+1 | Fn ), Fn die kanonische σ-Algebra erzeugt von X1 , . . . , Xn . Die Zg Yn gibt die Wahrscheinlichkeit an, daß die nächste oberste verdeckte Karte rot ist, gegeben die Kenntnis X1 , . . . , Xn der ersten n Karten. Der Spieler wählt eine Stoppzeit τ (=Auswahlregel) und erhält die nächste Karte mit Gewinnwert Xτ +1 . Sein erwarteter Gewinn ist EYτ . Der Spieler versucht seinen erwarteten Gewinn zu maximieren durch Wahl einer optimalen Stoppzeit, falls diese existiert. Er erhält supτ E(Yτ ). Die Schlüsselbeobachtung ist, daß (Yn )51 n=0 ein Martingal ist. E(Yn+1 | Fn ) = E(E(Xn+2 | Fn+1 ) | Fn ) = E(Xn+2 | Fn ) = Yn . 24 (31. Januar 2017) Martingaltransformierte Nach dem Optional Sampling Theorem sind alle Stoppzeiten gleich gut, E(Yτ ) = Y0 = 1/2. Die erwartete Gewinnwahrscheinlichkeit ist stets 1/2, unabhängig von den Aktionen des Spielers, lieber Dummy. Wo liegt der Pferdefuß in der heuristischen Argumentation? Er liegt im Gebrauch von W-keiten und bedingten W-keiten. Es gilt stets Yn = E(Xi | Fn ) für i = n + 1, . . . , 52, da die verbleibenden Karten austauschbar sind. Die nächste Karte gewinnt stets mit derselben W-keit wie die letzte, gegeben die Vorinformation. Also kann ich gleich bei der letzten bleiben. Und wenn ich Vorabinformationen über die ersten n Karten besitze, muß ich auch die bedingte W-keit betrachten, das die letzte Karte gewinnt. Und diese ist nicht immer 1/2. Wenn ich bis zur letzten nicht vorhergesagt habe und die letzte nehmen muss, so ist die W-keit für eine rote 0 oder 1. Die letzte Karte ist zwar unverändert durch die vorhergehende Prozedur, aber die bedingte W-keit, das die letzte Karte rot ist, hat sich durch die Vorabinformation geändert, von 12 am Anfang zu 0 oder 1. σ-Algebra der τ -Vergangenheit* Sei (Fn ) eine Filtration und τ eine erweiterte Stoppzeit. Das Mengensystem Fτ := {A ∈ A | ∀n ∈ T : A ∩ {τ ≤ n} ∈ Fn } heißt die σ-Algebra der τ -Vergangenheit. Wie der Name suggeriert, ist dies eine σ−Algebra. Proposition 26 Seien τ, σ erweiterte Stoppzeiten. (i) Fτ ist eine σ-Algebra. (ii) Für τ ≡ n gilt Fτ = Fn . (iii) Für τ ≤ σ gilt Fτ ⊂ Fσ . (iv) A ∈ Fτ ⇔ ∀n : A ∩ {τ = n} ∈ Fn S (v) Für jedes A ∈ Fτ gilt A = ◦ n (A ∩ {τ = n}) P (vi) Für eine Stoppzeit τ gilt E(· | Fτ ) = i∈IN0 11τ =i E(· | Fi ). (vii) Sei (X, F) ein Martingal (Sub-, Super-), σ eine beschränkte Stoppzeit. Es gilt E(Xσ | Fτ ) =(≥,≤) Xσ∧τ . 2.2. Stoppzeiten (31. Januar 2017) 25 Beweis: i) Fτ ist nicht leer und mit A ∈ Fτ gilt auch Ac ∈ Fτ wegen Ac ∩ {τ ≤ n} = {τ ≤ n}\(A ∩ {τ ≤ n}) ∈ Fn . Für Ai ∈ Fτ , i ∈ IN, gilt [ [ ( Ai ) ∩ {τ ≤ n} = (Ai ∩ {τ ≤ n}) ∈ Fn . i i ii) Die Menge {τ ≤ i} ist leer oder ganz Ω. iii) Für alle ω bis auf eine Nullmenge gilt τ (ω) ≤ σ(ω) und damit {σ ≤ n} ⊂ {τ ≤ n}. Für A ∈ Fτ gilt A ∩ {σ ≤ n} = A ∩ {τ ≤ n} ∩{σ ≤ n} ∈ Fn . {z } | ∈Fn iv)v) Leicht. vi) Für jedes A ∈ Fτ und integrierbare Zg Y gilt Z Z XZ XZ Y = 11τ =i E(Y | Fi ). 11A∩(τ =i) Y = E(Y | Fτ ) = A A i A i Beide Seiten sind Fτ meßbar. Damit sind die bedingten Erwartungen gleich. P P vii) E(Xσ | Fτ ) = i 11τ =i E(Xσ | Fi ) =(≥,≤) i 11τ =i Xσ∧i = Xσ∧τ . Beide Seiten sind Fτ meßbar und damit gleich. q.e.d. Satz 27 Sei (X, F) ein Martingal (Sub-, Super-) und τ eine Stoppzeit. Dann ist, sofern integrierbar, Xτ +n , n ∈ IN0 ein Martingal (Sub-, Super-) bezüglich (Fτ +n )n . Beweis: Wir geben die Argumentation nur für ein Martingal. X X E(Xτ +n+1 | Fτ +n ) = 11τ +n=j E(Xj+1 | Fj ) = 11τ +n=j Xj = Xτ +n . j j q.e.d. Korollar 28 Sei τ0 ≡ 0 und τm : Ω → {1, . . . , N }, m ∈ IN, eine aufsteigende Folge von beschränkten Stoppzeiten bzgl. einer Filtration F und (X, F) ein Martingal (Sub-, Super-). Dann ist (Xτm )m∈IN0 ein Martingal (Sub-, Super-) bezüglich der Filtration (Fτm )m . Beweis: Wir geben die Argumentation nur für ein Martingal. Der Prozess (Xτ1 +n , Fτ1 +n )n∈IN0 ist ein Martingal. τ2 ist eine Stoppzeit bezüglich der Filtration (Fτ1 +n )n . Folglich ist durch erneute Anwendung von Satz (27) Xτ1 , Xτ2 , Xτ2 +1 , . . . ein Martingal bezüglich Fτ1 , Fτ2 , Fτ2 +1 , . . . . Mit Induktion (Übung) erhalten wir die Aussage. q.e.d. 26 (31. Januar 2017) Martingaltransformierte Warnung: Aus x0 = E(Xτ ∧n ) für alle n folgt im allgemeinen nicht x0 = E(Xτ ), selbst für Martingale nicht. Das Martingal (verdoppeln des Einsatzes bis zum ersten Gewinn) ist ein Gegenbeispiel, Mτ ≡ 1 fast sicher, aber E(Mτ ∧n ) = 0 mit τ die Stoppzeit zum ersten Mal die 1 zu erreichen. 3 Fast sichere Konvergenz Besonders wichtige Martingalkonvergenzarten sind fast sichere Konvergenz (Doobsche Konversatz), die L1 -Konvergenz (Regulärität) und die L2 -Konvergenz (Hilbertraum). Wir betrachten alle in getrennten Kapiteln. Satz 29 (Doob Konvergenzsatz) Sei X ein Submartingal und sei supn∈IN E(Xn+ ) < ∞. Dann konvergiert Xn fast sicher gegen eine reellwertige Zufallsvariable. Dreh- und Angelpunkt für die fast sichere Konvergenz ist das Doob Upcrossing Lemma. 3.1 Doob Upcrossing Lemma Wir zeigen hier die fundamentale Upcrossing-Ungleichung, auf der mehrere wichtige Konvergenzsätze aufbauen. Die wesentliche Idee ist der Begriff der aufsteigenden Überquerungen. Definition 30 Sei x = (xn )n∈IN eine abzählbare Folge erweiteter reeller Zahlen und I = (a, b), a < b ein offenes Intervall. Die Anzahl U = U (I, x) der aufsteigenden Überquerungen von I durch die Folge x ist das Supremum aller natürlichen Zahlen l ∈ IN0 , sodaß es Indizes n1 < n2 < n3 < n4 < . . . < n2l−1 < n2l gibt mit xn2i−1 ≤ a und xn2i ≥ b für 1 ≤ i ≤ l. Das folgende Bild zeigt die geometrische Bedeutung. In dem Bild sind die Punkte (n, xn ) in der Ebene aufgetragen und durch Geraden verbunden. Die aufsteigenden Überquerungen sind fetter eingezeichnet. 27 28 (31. Januar 2017) Fast sichere Konvergenz ✻ b r ❇ a ❇ ❇ 1 ❇ ❇r ❅ ✄ ❅✄r 2 ✄ ✄ ✄ ✄ r ✄❅ ✄ ✄ ❅✄r ✄ n1 ✄ ✄ ✄ r n2 r ❊ ❊ r ❊ ❊ r r ✄❅ ✆ ✆ ❊ ✄ ❅r ✆ ❊ ❆ ✄ ✆ r ❊ ✄ ❆ ✆ ✂❈ ❊ ✄ ❆❆r ✆ ✂ ❈ ❊ ✄ ❆ ✆ ✂ ❈ ❊❊✄r ❆ ✂ ❈ ✆ ❆❆✂r ❈ ✆ ❈✆ ❈✆r n3 n4 n5 n6 ✲ Die Anzahl ist U ((4, 8), (6, 3, 2, 6, 5, 9, 10, 4, 8, 7, 5, 3, 6, 2, 8, 9)) = 3. Eine äquivalente Beschreibung ist via der speziellen Folge, τ1 := inf{n | xn ≤ a} τ2 := inf{n > τ1 | xn ≥ b} τ3 := inf{n > τ2 | xn ≤ a} usw. Allgemein: τ2i := inf{n > τ2i−1 | xn ≥ b}, τ2i+1 := inf{n > τ2i | xn ≤ a}. Dann gilt U (I, x) = sup{l | n2l < ∞}. Die Bedeutung aufsteigender Überquerungen liegt in folgendes Konvergenzkriterium für Folgen. • Eine Folge x von erweiterten reellen Zahlen konvergiert in den erweiterten reellen Zahlen dann und nur dann, falls für jedes offene, nicht leere Intervall I = (a, b), a < b ∈ IR die Anzahl der (aufsteigenden) Überquerungen U (I, x) endlich ist. Die folgenden Eigenschaften für eine endliche Folge x sind einfach beweisbar. Sei I = (a, b). Wir verwenden für c ∈ IR x−c = (xn −c)n , x∨c = (xn ∨c)n und weiteres sinngemäs̈. (τi )i ist obige Folge (von Stoppzeiten). Aus schreibtechnischen Gründes sei x∞ = −∞. • ∀c ∈ IR U (I, x) = U (I − c, x − c) • U (I, x) = U (I, x ∨ a) = U (I, x ∧ b) • U (I, x) = U (I, (xτi )i∈IN ) • U (I, (xτi )i ) = 1τ2 <∞ + U (I, (Xτi )i≥3 ). • Für n2i < ∞ gilt ≤ xn2i −xn2i−1 b−a . 3.1. Doob Upcrossing Lemma (31. Januar 2017) 29 Damit erhalten wir U (I, x) ≤ X i|n2i <∞ xn2i − xn2i−1 . b−a Lemma 31 (Upcrossing Lemma von Doob) Die erwartete Anzahl der aufsteigenden Überquerungen eines Intervall I = (a, b), a < b, durch ein Submartingal X ist E(Xn − a)+ E(U (I, X)) ≤ sup . (3.1) b−a n Beachte, die Abbildung n 7→ E(Xn − a)+ ist isoton und der Grenzwert für n → ∞ gleich dem Supremum über n. Dasselbe gilt für Stoppzeiten. Beweis: Alles ist wohldefiniert. U ist eine pfadweise definierte Zg. Der Prozess Y = X ∨ a ist ein Submartingal mit ebensovielen aufsteigenden Überquerungen U (I − a, Y ) von (0, b − a) wie das Submartingal X bzgl. I = (a, b). Aus schreibtechnischen Gründen sei Y∞ = 0. Seien die τi rekursiv definiert wie oben für den Y bzw. X Prozess. Die τi sind erweiterte Stoppzeiten. Setze Y∞ = a. Dann ist (Yτi )i ein Submartingal mit derselben Überkreuzungsanzahl. U (I, X) = = ≤ (b − a)EU (I, X) ≤ U (I − a, Y ) = X i 1τ2i <∞ ≤ X Yτ2i − Yτ2i−1 b−a i X 1 lim inf 11τ2i ≤N (Yτ2i − Yτ2i−1 ) b − a N →∞ i X 1 lim inf (Yτ2i ∧N − Yτ2i−1 ∧N ) b − a N →∞ i X E lim (Yτ2i ∧N − Yτ2i−1 ∧N ) N i X (EYτ2i ∧N − EYτ2i−1 ∧N ) X (EYτ2i ∧N − EYτ2i−2 ∧N 11i>1 ) ≤ lim ≤ lim ≤ lim(EYN − 0) = lim E(XN − a)+ = sup E(XN − a)+ N N N i i N N q.e.d. Das Doobsche Upcroosinglemma gilt auch für Martingale (Xn )n≤N mit endlichem Zeithorizont N ∈ IN. Erweitere den Zeitparameter durch Xn = XN für n > N. 30 3.1.1 (31. Januar 2017) Fast sichere Konvergenz Fast sichere Konvergenz Satz 32 (Doob Konvergenzsatz) Sei X ein Submartingal und sei supn∈IN E(Xn+ ) < ∞. Dann konvergiert Xn fast sicher gegen eine reellwertige Zufallsvariable. Beweis: Sei A := {lim inf n Xn < lim supn Xn } und Aa,b := {lim inf Xn < a < b < lim sup Xn }. • P (Aa,b ) = 0 für alle a < b. Jeder Pfad n 7→ Xn (ω) für festes ω ∈ Aa,b überquert aufsteigend unendlich oft das Intervall (a, b). In Formeln Aa,b ⊂ {U ((a, b), X) = ∞}. Das Doob Upcrossing Lemma liefert E(Xn − a)+ < ∞. n→∞ b−a E(U ((a, b), X)) ≤ lim Dies beides impliziert P (Aa,b ) ≤ P (U ((a, b), X) = ∞) = 0. • A ist eine Nullmenge. Beachte A ist enthalten in der Vereinigung aller Aa,b mit rationalen Zahlen a < b. Damit ist A eine Nullmenge. • Xn konvergiert fast sicher gegen eine erweiterte Zg Y : Ω 7→ IR Dies gilt auf dem Komplement von A pfadweise. • Y ist fast sicher endlich. Aus Tschebycheff und Proposition (16) erhalten wir für c > 0, P (|Y | > c) ≤ lim inf P (|Xn | > c) ≤ lim inf n n E|Xn | 1 1 ≤ lim inf (2EXn+ −x0 ) = (2 sup EXn+ −x0 ) →c→∞ 0. c c n c n q.e.d. Korollar 33 Jedes positive Supermartingal insbesondere Martingal ist fast sicher konvergent. Beweis: Doobscher Konvergenzsatz. 3.2 Klassische Resultate zur fast sicheren Martingalkonvergenz. Um einen kleinen Eindruck von der Stärke des Doobschen Konvergenzsatzes zu gewinnen, wollen wir klassische starke Konvergenzätze für Summen unabhängiPn ger Zgn ableiten. Die Partialsummen Sn = i=1 Xi unabhängiger zentrierter 3.2. Klassische Resultate zur fast sicheren Martingalkonvergenz. (31. Januar 2017) 31 (integrierbarer) Zgn bilden ein Martingal, E(Sn+1 | An ) = Sn + E(Xn+1 | An ) . {z } | =E(Xn+1 )=0 Satz 34 (Levy) Seien Xn , n ∈ IN, unabhängige, zentrierte Zufallsgrößen mit P Pn n∈IN Var(Xn ) < ∞. Dann konvergiert die n-te Partialsumme Sn =P i=1 Xi ∞ fast sicher gegen einen endlichen und wohldefinierten Wert genannt i=1 Xi . Beweis: Wir rechnen das Doobsche Kriterium aus Satz 29 nach. ∞ n X X Jensen VarXi < ∞. VarXi ≤ E 2 (Sn+ ) ≤ E(Sn2 ) = i=1 i=1 Diese Abschätzung ist unabhängig von n. q.e.d. Beispiel: Seien X1 , X2 , . . . Zufallsvariablen mit Werten +1 und −1 jeweils mit Wahrscheinlichkeit 1/2. Sei cn , n ∈ IN eine Folge reeller Zahlen mit P 2 P punktweise n cn < ∞. Dann ist n cn Xn (in dieser Reihenfolge) fast sicher P wohldefiniert. Beachte die Summe muß nicht absolut konvergieren, n |cn Xn | = P 1 n |cn | kann unendlich sein. Das Standardbeispiel ist cn = n . Als nächstes ein wohlbekannter Hilfssatz für Folgen, das Kronecker-Lemma. Lemma 35 (Kronecker) Seien an , bn , n ∈ IN zwei Folgen reeller Zahlen. Die Folge bn sei strikt positiv und strikt steigend gegen ∞. Dann gilt: n X ai i=1 . bi konvergent =⇒ lim n→∞ 1 bn+1 n X ai = 0 i=1 Pn Beweis: Setze sn := s := limn sn als Grenzwert der sn . Sei i=1 ai /bi und Pn (cn )n eine strikt positive Folge und i=1 ci →n ∞. Dann konvergiert die Folge c1 s1 +...+cn sn ebenfalls gegen s. c1 +...+cn Wähle dazu zu vorgegebenem ǫ ein n0 mit |sn − s| < ǫ für alle n ≥ n0 . Dann gilt Pn Pn Pn0 ci (si − s) ci si ci (si − s) i=1 i=1 0 +1 Pn Pn =s+ + i=nP n j=1 cj j=1 cj j=1 cj Mit n → ∞ and anschließend ǫ → 0 erhalten wir die Behauptung. Für die spezielle Folge cn := bn+1 − bn , n ≥ 1 sind die Voraussetzungen Pn Pn c i si i=1 →n s. cn > 0 und i=1 ci = bn+1 − b1 → ∞ erfüllt. Wir erhalten bn+1 Aus der Identität n n X X bi (si−1 − si ) − b1 s1 ci si = . . . = bn+1 sn + i=1 i=2 32 (31. Januar 2017) Fast sichere Konvergenz erhalten wir die nach Division durch bn+1 1 bn+1 n X i=1 ci si = sn − 1 bn+1 n X i=1 ai − a1 bn+1 Mit dem Grenzübergang n → ∞ folgt die Behauptung. . q.e.d. Satz 36 (Satz von Kolmogoroff ) Sei (bn )n eine strikt positive, gegen unendlich aufsteigende Folge. Sei X1 , X2 , . . . eine Folge unabhängiger, zentrierter P∞ n) < ∞. Dann konvergiert Sbnn fast sicher gegen 0. Zgn mit n=1 Varb(X 2 n Pn i Beweis: Die Zg Mn := i=1 X bi ist eine Partialsumme unabhängiger Zgn. Der Satz von Levy liefert die fast sichere Konvergenz von Mn gegen eine endliche P ∞ Xi Zufallsvariable M∞ := i=1 bi . Aus Kroneckers Lemma erhalten wir fast sicher Sbnn → 0. q.e.d Die Standardsituation ist die einer Folge von zentrierten uiv Zgn mit endlicher Varianz und bn = nβ . Der Satz von Kolmogoroff liefert Sn f.s. →n→∞ 0 nβ für jedes β > 1/2. Dies ist eine Verschärfung des Starken Gesetzes der Gros̈en f.s. Zahl, welches Snn →n 0 besagt. P Für β = 1/2 gilt VarXn /n2β = ∞ und der Satz von Kolmogoroff ist nicht anwendbar. Der Zentrale Grenzwertsatz liefert noch Verteilungskonvergenz: S d √n →n N (0, Var(X1 )). n 3.2.1 Kolmogoroff drei Reihen Satz* Dies ist eine Umkehrung des Satzes von Lévy 34. Satz 37 Seien Xn , n ∈ IN, unabhängige, zentrierte und gleichmäs̈ig beschränkte Zufallsvariablen. Pn Die Partialsumme Sn = i=1 Xi konvergiert fast sicher gegen eine Zg dann P und nur dann, wenn die Summe n VarXn der Varianzen der Zuwächse Xn endlich ist. Im allgemeinen konvergiert Sn punktweise entweder mit Wahrscheinlichkeit 0 oder mit Wahrsch. 1. Beweis: Die Rückrichtung ist der Satz von Levy 34. Nun zur Hinrichtung. Seien die Xn gleichmäßig beschränkt durch c. Definiere die Stoppzeiten τ = τC = inf{n | |Sn | > C} für eine reelle Zahl C. 3.2. Klassische Resultate zur fast sicheren Martingalkonvergenz. (31. Januar 2017) 33 • |Sτ ∧n | ≤ c + C Der Fall τ > n ist einfach und im Falle τ ≤ n argumentiere |Sτ ∧n | = |Sτ −1 + Xτ | ≤ |Sτ −1 | + |Xτ | ≤ c + C. • Es existiert ein C mit P (τC = ∞) > 0. Da Sn fast sicher konvergiert, folgt supn |Sn | ist beschränkt f.s. und P (τC = ∞) րC 1. Pn • Mn := Sn2 − An mit An := i=1 Var(Xi ), ist ein Martingal. 2 E(Mn+1 − Mn | An ) = E(Xn+1 − 2Xn+1 Mn − VarXn+1 | An ) = 0. • E(Aτ ∧n ) = E(Sτ2∧n ) ≤ (c + C)2 < ∞. Mτ ∧n ein Martingal und das Optinal Sampling Theorem liefert 0 = E(Mτ ∧n ) = E(Sτ2∧n ) − E(Aτ ∧n ). P • A∞ := n∈IN VarXn < ∞ Für C mit P (τC = ∞) > 0 argumentiere An E11τ =∞ ≤ E(Aτ ∧n ) ≤ (c + C)2 < ∞ und damit An ist gleichmäs̈ig beschränkt. Zur letzten Aussage konvergiere Sn auf einer Menge von strikt positivem Maß. Auf dieser Menge gelten die obigen Behauptungen und analog zum obigen können wir A∞ < ∞ schließen. Dies impliziert seinerseits fast sichere Konvergenz der Partialsummen via dem Satz von Levy. q.e.d. Beispiel: Seien X1 , X2 , . . . unabhängige Zufallsgrößen mit Werten +1 und −1 jeweils mit Wahrscheinlichkeit 1/2 und sei cn , n ∈ IN, eine Folge reeller P∞ Zahlen. n=1 cn Xn ist fast sicher punktweise wohldefiniert dann und nur dann, P∞ 2 P wenn n=1 cn < ∞ gilt. Die Reihe n cn Xn konvergiert absolut genau dann, P∞ P wenn n=1 |cn | < ∞ gilt. Im Falle cn = 1/n konvergiert die Folge i≤n ci Xi fast sicher, aber nicht absolut. Satz 38 (Dreireihensatz von Kolmogoroff ) Sei Xn , n ∈ IN, eine Folge Pn unabhängiger Zgn. Dann konvergiert Sn = i=1 Xi fast sicher dann und nur dann, wenn es eine Konstante c > 0 gibt bzgl. der alle folgenden drei Reihen gegen einen endlichen Grenzwert konvergieren X P (|Xn | > c) (3.2) n X n E(Xn 11|Xn |≤c ) (3.3) 34 (31. Januar 2017) Fast sichere Konvergenz X Var(Xn 11|Xn |≤c ) (3.4) n Konvergieren die Reihen für eine Konstante c > 0, so für alle Konstanten. Konvergiert Sn auf einer Menge von strikt positivem Maß, so fast sicher überall. Beweis: Wir zeigen die Hinrichtung. Sei c > 0 beliebig. Betrachte die abge(c) (c) schnittenen Zufallsgrößen Xn := 11|Xn |≤c Xn . Wir verwenden auch Sn = P (c) i≤n Xi . • Konvergenz der ersten Reihe. Da Sn fast sicher konvergiert treten die Ereignisse |Xn | > c nur endlich oft ein mit Wahrscheinlichkeit 1. Der Satz von Borel-Cantelli impliziert Konvergenz der ersten Reihe. (c) • Sn konvergiert f.s. genau dann wenn Sn f.s. konvergiert. P (c) Die Differenz Sn −Sn = i≤n Xi 11|Xi |>c < ∞ ist stets endlich, da |Xn | > c nur endlich oft eintritt. • Die dritte Reihe konvergiert. Wir benutzen jetzt einen Symmetrisierungtrick von Levy. Wähle weitere unabhängige Zgn Xn , n ∈ IN mit X n habe dieselbe Verteilung wie Xn und (c) (c) (c) verwende S n analog. Dann konvergiert Sn − S n wegen dem vorherigen fast sicher. Dies ist auch die Partialsumme von unabhängigen zentrierten Zgn (c) (c) Xn − X n . Nach der Umkehrung des Satzes von Levy, 37 schließen wir auf P (c) (c) (c) (c) (c) n Var(Xn − X n ) < ∞. Mit Var(Xn − X n ) = 2Var(Xn ) folgt die Konvergenz der dritten Reihe. • Die zweite Reihe konvergiert. Die Konvergenz der dritten Reihen impliziert laut dem Satz von Lévy 34 die Pn (c) (c) (c) Pn (c) Konvergenz von i=1 (Xi −EXi ) = Sn − i=1 EXi . Mit der Konvergenz (c) von Sn ergibt sich die Teilbehauptung. ⇐ Die Konvergenz der dritten Reihe liefert nach dem Satz von Lévy 34 Pn (c) (c) die Konvergenz von − EXi ). Dies zusammen mit der Konveri=1 (Xi (c) genz der zweiten Reihe impliziert die Konvergenz von Sn . Dies zusammen mit der Konvergenz der ersten Reihe impliziert nach Borel-Cantelli die fast sichere Konvergenz von Sn . Konvergiert Sn nur auf einer Menge von strikt positivem Maß, so zeige die Konvergenz der Reihen nur auf dieser Menge. Da die Reihen deterministisch sind, gilt die Konvergenz überall. Damit auch die fast sichere Konvergenz von Sn . Konvergieren die Reihen für ein c > 0, so konvergiert Sn fast sicher und dann konvergieren die Reihen für jedes c > 0. q.e.d. Zur Anwendung noch einmal fast sichere Konvergenz von Partialsummen von uiv Zgn. 3.2. Klassische Resultate zur fast sicheren Martingalkonvergenz. (31. Januar 2017) 35 Satz 39 Seien Xn , n ∈ IN uiv zentrierte Zgn mit endlichem α-Moment E|X1 |α < P i ∞ für ein 1 < α < 2. Dann gilt i≤n iX 1/α konvergiert fast sicher gegen eine Zgn und Sn f.s. →n 0. n1/α Bew: Wegen dem Lemma von Kronecker reicht es nur die fast sichere Konvergenz des ersten Ausdrucks zu beweisen. Wir verwenden den Drei-Reihen-Satz von Kolmogoroff mit c = 1. Sei bn = n1/α und C generische Konstanten. X P( n X n |Xn | ≥ 1) bn Xn |E 11|Xn |≤bn | bn = X P (|X1 |α ≥ n) ≤ E|Xn |α < ∞ = X |E = X n n = X1 11|X1 |≤bn | bn X |X1 | X1 11|X1 |>bn | ≤ 11|X1 |>bn | E bn bn n n X E|X1 | n−1/α 11|X1 |α >n |E n X n Var Xn 11|Xn |≤bn bn Z |X1 |α x−1/α dx) ≤ E|X1 |(C + ≤ E|X1 |(C + C|X1 |α(−1/α+1) ) ≤ ≤ = ≤ ≤ 1 C + CE|X1 |α < ∞ X X2 E 2n 11|Xn |≤bn bn n X X12 2 ≤ EX 1 1 n−2/α 11|X1 |α ≤n |X |≤b 1 1 n b2n n n Z ∞ x−2/α dx) EX12 ( X E |X1 |α −1 2 CEX1 (|X1 |α (−2/α + 1)) = CE|X1 |α < ∞ q.e.d. 36 (31. Januar 2017) Fast sichere Konvergenz 4 L1−Martingale Der zweite großere Konvergenzsatz für Martingale betrifft die L1 -Konvergenz. Diese kann nur vorliegen, wenn der Erwartungswert des Absolutbetrages beschränkt ist. Dann liegt nach Doob 29 auch fast sichere Konvergenz vor. Damit reduziert sich die Fragestellung auf: Wann ist eine fast sicher konvergente Folge auch L1 -konvergent? Dies führt auf gleichgradige Intergrierbarkeit. Hier ein Beispiel für ein Martingal, welches fast sicher konvergiert aber nicht in L1 . Multiplikative Irrfahrt: Sei Xn , n ∈ IN eine Folge unabhängiger Zgn mit Bernoulli Verteilung zum Parameter 1/2. Betrachte das positive Martingal Kn := n Y (2Xi ) i=1 Dieses konvergiert f.s. gegen Null (Übung). Kn konvergiert nicht in L1 , da 0 der einzig mögliche Grenzwert ist (der L1 -Grenzwert ist gleich dem stochastischen Grenzwert) und kKn − 0k1 ≡ 1 6= 0 gilt. Die Interpretation ist Kn als Kapital eines Spielers der Martingalstrategie. Eine verfeinerte Version ist das Petersburger Spiel. Petersburger Spiel: Sei Xn , n ∈ IN, eine Folge uiv Zgn mit strikt positiven Werten. Wir wollen E(X1 ) > 1 und E(ln X1 ) < 0 annehmen. Definiere K0 = 1 und n Y Xi . Kn = i=1 (Kn )n ist ein Submartingal. Der Erwartungswert E(Kn ) = (E(X1 ))n konvergiert exponentiell schnell gegen unendlich. Andererseits wissen wir nach dem starken Gesetz der Großen Zahl ln nKn konvergiert f.s. gegen E(ln X1 ) < 0, n ln Kn 1X f.s. = ln Xi →n E(ln X1 ) < 0. n n i=1 37 (31. Januar 2017) L1 −Martingale 38 Dies bedeutet Kn konvergiert f.s. gegen Null, aber Kn konvergiert nicht in L1 . Spielinterpretation: Dieser Effekt hat eine schöne Interpretation. Ein Spieler spiele obiges, für ihn langfristig günstiges Spiel. Kn ist sein Kapital nach dem n−ten Teilspiel. Vor dem (n + 1)−Spiel darf er sich entscheiden, das Kapital Kn als endgültigen Gewinn zu akzeptieren oder alles riskierend weiterzuspielen um dann Kn+1 = Kn Xn+1 nach dem (n + 1)−ten Spielzug zu besitzen. (Mehr zur kühnen Spielweise siehe die Sektion über Kasinospiele.) Um seinen erwarteten Gewinn zu maximieren, sollte der Spieler stets weiterspielen. Der bedingte erwartete Zugewinn Kn (E(Xn+1 ) − 1) > 0 ist stets strikt positiv. Andererseits wird der Spieler mit dieser Entscheidungsregel fast sicher bankrott gehen (und dies relativ schnell). Dies läßt sich dadurch erklären, daß der Spieler für große n mit sehr kleiner Wahrscheinlichkeit ein sehr großes Kapital ansammeln wird, mit großer Wahrscheinlichkeit jedoch das kleine Kapital 0. Die Erwartung allein macht nicht glücklich! 4.1 L1 −konvergente Martingale Im folgenden wird der Begriff gleichgradige Integrierbarkeit, siehe Anhang, vorausgesetzt. Proposition 40 Sei X integrierbar. Dann ist die Familie E(X | B), mit B eine Unter-σ-Algebra, gleichgradig integrierbar. Bew: Sei Y = E(X | B) E|X| E|Y | ≤ →c→∞ 0 c c Z |Y | ≤ |X| →c 0 P (|Y | > c) ≤ Z |Y |>c |Y |>c Die Abschätzungen sind gleichmäßig. Zur Wiederholung, es gilt für Zgn Yn , n ∈ IN L1 Y n →n Y ⇔ ⇔ s Yn →n Y und kYn k →n kY k < ∞ s Yn →n Y und gleichgradige Integrierbarkeit Hierbei steht s für stochastische Konvergenz, d.h. dem Maße nach. Satz 41 Äquivalent für ein Submartingal oder Supermartingale X sind: q.e.d. 4.1. L1 −konvergente Martingale (31. Januar 2017) 39 (i) Xn konvergiert in L1 . (ii) (Xn )n∈IN0 ist gleichgradig integrierbar. (iii) supn kXn k1 ist endlich und kXn k1 →n kX∞ k1 mit X∞ der fast sichere Grenzwert von X. (iv) Es existiert eine symmetrische positive Funktion ϕ mit und supn Eϕ(Xn ) < ∞. ϕ(x) x →x→∞ ∞ Beweis: i) ⇒ ii) Siehe die obigen allgemeinen Äquivalenzen. ii) ⇒ iii) Aus der gleichgradigen Integrierbarkeit folgt supn kXn k1 < ∞. Nach Doob konvergiert die Folge (Xn )n fast sicher und damit auch stochastisch. Für den Rest siehe oben. iii) ⇒ i) Verwende Doob und siehe oben. iii) ⇔ iv) Dies gilt allgemein, d.h. ohne die Martingalstruktur. q.e.d. Von der obigen Funktion ϕ können noch mehr schöne Eigenschaften gefordert werden, wie z.B. konvex und unendlich oft differenzierbar. Bsp: Lp -Martingale sind regulär für p > 1 (Satz 41iv). 4.1.1 Zeitabschluss Zeitabschluß: Von Zeitabschluß sprechen wir, wenn wir den Prozess (X, F) = (Xn , Fn )n∈IN0 erweitern können zu einer Folge (Xn , Fn )n∈IN0 unter Beibehaltung der Struktur. Es gibt mehrere solche Erweiterungen. Eine besondere Rolle spielt die ’kleinste’ Erweiterung. Hierbei wird F∞ als kleinste σ-Algebra erzeugt durch alle Fn , n ∈ IN gewählt und X∞ als meßbar bzgl. F∞ , d.h. bestimmt bereits durch die Folge (X, F). Jedes L1 -konvergente Martingal (Sub-,Super-) (X, F) läßt sich erweitern zu einem Martingal (Sub-, Super- ) (Xn , Fn )n∈IN0 durch den L1 -Grenzwert X∞ . Dies ist gleichzeitig die kleinste Erweiterung. Lemma 42 Für eine integrierbare Zg Y ist X mit Xn := E(Y | Fn ) ein reguläres Martingal. Dieses konvergiert fast sicher und in L1 gegen denselben Grenzwert X∞ = E(Y | F∞ ). Beweis: • kXn k1 ≤ kY k1 für n ∈ IN. kXn k1 = E(|E(Y | Fn )|) ≤ E(E(|Y | | Fn )) = E(|Y |) = kY k1 < ∞. • Xn ist gleichgradig integrierbar. (31. Januar 2017) L1 −Martingale 40 Siehe Proposition (40) • (X, F) ist ein Martingal. Xn ist adaptiert, integrierbar und die Martingaleigenschaft wird mit der Tower-Property nachgerechnet, E(Xn+1 | Fn ) = E(E(Y | Fn+1 ) | Fn ) = E(Y | Fn ) = Xn . • Xn konvergiert fast sicher gegen eine Zg genannt X∞ . Dies folgt aus supn kXn k1 ≤ kY k1 < ∞ und dem Doob Konvergenzsatz 29. • Xn konvergiert gegen X∞ in L1 . Aus gleichgradiger Integrierbarkeit und der fast sicheren Konvergenz von Xn gegen X∞ folgt die L1 -Konvergenz. • Xn = E(X∞ | Fn ) fast sicher. Aus fast sicherer Konvergenz Xn → X∞ und gleichgradiger Integrierbarkeit erhalten wir fast sicher E(X∞ | Fn ) = E(lim Xi | Fn ) = lim E(Xi | Fn ) = Xn . i i • X∞ = E(Y | F∞ ) f.s. R Sei Z = E(Y | F∞ . Aus E(X∞ | Fn ) = E(Z | Fn ) f.s. erhalten wir A X∞ = R Z für alle A ∈ Fn , n ∈ IN. Damit auch für die von Fn , n ∈ IN erzeugte A σ-Algebra F∞ . Da beide Zgn X∞ und Z F∞ meßbar sind, folgt Gleichheit f.s.. q.e.d. Satz 43 (Levy) Es gibt eine bijektive Abbildung zwischen integrierbaren F∞ meßbaren Zgn Y und L1 −konvergenten Martingalen (X, F). Diese kann gegeben werden durch Xn = E(Y | Fn ). Xn konvergiert fast sicher und in L1 gegen Y . Beweis: Betrachte die Abbildung Y 7→ X = (E(Y | Fn ))n . Diese Abbildung ist wohldefiniert nach dem Lemma 42. Ferner konvergiert E(Y | Fn ) in n fast sicher gegen Y. Hieraus ergibt sich sofort die Injektivität und auch die Surjektivität der Abbildung. q.e.d. 1 Wir benutzen L -konvergente Martingale mit dem Zeitbereich IN0 . Korollar 44 Jedes L1 −konvergente Martingal ist darstellbar als die Differenz zweier positiver L1 −konvergenter Martingale. + − Bew: Sei X ein reguläres Martingal. Zerlege X∞ = X∞ − X∞ in den Positivteil − + | Fn ). Dann gilt und Negativteil und setze Yn = E(X∞ | Fn ), Zn = E(X∞ Xn = Y n − Z n . q.e.d. 4.1. L1 −konvergente Martingale (31. Januar 2017) 41 Bemerkung: Der Raum der L1 −konvergenten Martingale M1 versehen mit der Norm kXk1 = supn kXn k1 ist ein normierter Vektorraum, siehe die Bijektion zu L1 (F∞ ). Allgemeiner, wegen der Bijektivität können wir den Raum Lp (F∞ ), p ≥ 1 identifizieren mit einer Menge von Martingalen versehen mit der Norm kXkp = supn kXn kn . Satz 45 (Kolmogoroff 0-1 Gesetz) Seien Xn , n ∈ IN uiv Zgn. Dann ist die terminale σ-Algebra F ∞ = ∩n F n , F n := σ(Xn , Xn+1 , . . .) trivial. Bew: Sei Fn = σ(X1 , X2 , . . . , Xn ) die kanonische Filtration und F ∈ F ∞ ⊂ F∞ . Beachte Fn und F ∞ sind unabhängig. 11F = E(11F | F∞ ) = lim E(11F | Fn ) = E(1F ) = P (F ) n P (F ) ist eine Konstante und kann nur 0 oder 1 sein. 4.1.2 q.e.d. Regulaere Stoppzeiten Eine der wesentlichen Anwendungen liegt im Optional Sampling Theorem EXτ = EX1 für Martingale X und reguläre Stoppzeiten. Eine Stoppzeit τ zur der Filtration F heißt regulär bzgl. dem Martingal (X, F) falls das Martingal (Xτ ∧n , Fτ ∧n )n L1 −konvergent ist. Bem: L1 −konvergente Martingale werden auch regulär genannt. Lemma 46 Sei X ein reguläres Martingal bzgl. der Filtration F, X∞ der L1 Grenzwert. Dann ist jede erweiterte Stoppzeit τ regulär. Xτ hat die Darstellung Xτ = E(X∞ | Fτ ) für n ∈ IN . Für jede Folge τm , m ∈ IN, von aufsteigenden Stoppzeiten ist (Xτm , Fτm )m ein reguläres Martingal. Beweis: Für eine erweiterte Stoppzeit τ gilt Xτ ∧n = = = n X m=0 n X m=0 n X m=0 = Xm 11τ =m + Xn 11τ >n 11τ =m E(X∞ | Fm ) + 11τ >n E(X∞ | Fn ) E(11τ =m X∞ | Fτ ∧m ) + E(11τ >n X∞ | Fτ ∧n ) E(X∞ | Aτ ∧n ). (31. Januar 2017) L1 −Martingale 42 (Bedingt auf die Menge {τ = m} sind die σ−Algebren Fm und Fτ gleich.) Hieraus folgt die Regularität von τ, Satz 41. Mit n → ∞ ergibt sich Xτ = E(X∞ | Fτ ). Der zweite Teil der Aussage folgt nach dem Satz 43 für die Filtration (Fτm )m . q.e.d. Korollar 47 Sei X ein Martingal und τ eine reguläre Stoppzeit. Dann ist jede kleinere Stoppzeit σ ≤ τ regulär und Xσ∧n = E(Xτ | Fσ∧n ). Wann ist eine Stoppzeit regulär? Das folgende Lemma beantwortet diese Frage. Lemma 48 Sei X ein Martingal und τ eine Stoppzeit. Äquivalent sind (i) τ ist regulär. (ii) kXτ ∧n k1 →n kXτ k1 . (iii) (Xτ ∧n )n ist gleichgradig integrierbar. Beweis: Dieses Lemma ist eine Jagd durch die vorhergenhenden Sätze. Wir überlassen es dem Leser als Übungsaufgabe und zur Kontrolle. Korollar 49 (Optional Sampling Theorem) Sei τ eine reguläre Stoppzeit bzgl. dem Martingal (X, F). Dann gilt EXτ = EX1 . Der nächste Abschnitt 7.1 bringt ein Beispiel. Waldsche Identität Lemma 50 (Waldsche Identität) Seien Xn , n ∈ IN , uiv Zgn, Sn die n−te Pn Partialsumme i=1 Xi und τ eine integrierbare Stoppzeit. i) Ist X1 integrierbar, so ist τ regulär für das Martingal (Sn − E(Sn ))n . Es gilt E(Sτ ) = E(τ )E(X1 ) (4.1) ii) Ist X1 quadratintegrierbar, so ist τ regulär für das Martingal ((Sn −E(Sn ))2 − Var(Sn ))n . Ferner gilt E((Sτ − τ E(X1 ))2 ) = E(τ )Var(X1 ). (4.2) 4.1. L1 −konvergente Martingale (31. Januar 2017) Beweis: OEdA sei EX1 = 0. 43 L1 Wir beginnen mit der L1 −Konvergenz Sτ ∧n →n→∞ Sτ X X kSτ ∧n − Sτ k1 = E| Xm 11τ ≥m | ≤ E |Xm |11τ ≥m m>n = X m>n = m>n E(11τ ≥m E(|Xm | | Fm−1 )) = X m>n E(|X1 |)E(11τ ≥m ) E(|X1 |)E(τ 11τ ≥n ) →n→∞ 0. Obige bewiesene Eigenschaft zeigt die Regulärität von τ und damit ESτ = 0. Nun zur zweiten Aussage. Der Einfachheit halber seien die X-Zgn zentriert. Sei Mn := Sn2 − nσ 2 mit σ 2 die Varianz von X1 . • M ist ein Martingal. Mn ist integrierbar und die Martingaleigenschaft wird nachgerechnet. 2 2 E(Sn2 | An−1 ) = E(Sn−1 + Xn2 + 2Sn−1 Xn | An−1 ) = Sn−1 + E(Xn2 ) • τ ist regulär. Das Optional Sampling Theorem (OST) liefert EMτ ∧n = M0 = 0 und damit ESτ2∧n = σ 2 E(τ ∧ n). Dies impliziert die Teilaussage wegen sup E|Mτ ∧n | ≤ 2σ 2 E(τ ∧ n) ≤ 2σ 2 Eτ < ∞ n ESτ2 2 = σ Eτ • Dies erhalten wir aus dem OST für reguläre Stoppzeiten, EMτ = 0. q.e.d. Bemerkung: Die Waldsche Identität läßt vermuten, daß es ein ähnlich gebautes Martingal gibt mit Sn3 , Sn4 , . . . . Wie sehen diese aus? Das nächste ist Sn3 −nσ 2 Sn −nEX 3 für zentrierte Zgn. Und dann? (Die Lösung ist im Abschnitt exponentielle Martingale.) Folgerung 51 Seien Xn , n ∈ IN, uiv Zgn mit Werten −1 oder +1 mit Wahrscheinlichkeit 1/2. Sei Sn die Partialsumme und τc := inf{n | Sn ≥ c}. Dann gilt E(τ1 ) = ∞. Beweis: Wäre Eτ1 < ∞ so ergibt die Waldsche Identität 1 = ESτ1 = E(τ1 )E(X1 ) = 0 einen Widerspruch. q.e.d. Bemerkung: Seien Xn , n ∈ IN, uiv integrierbare Zgn, c > 0. Im Fall EX1 > 0 gilt P (τc < ∞) = 1 und Eτc < ∞. Im Fall EX1 = 0 gilt P (τc < ∞) = 1 und Eτc = ∞. Im Fall EX1 < 0 gilt P (τc < ∞) < 1 und Eτc = ∞. Mit Hilfe der Abschneidetechnik lassen sich einige Resultate für nicht integrierbare X−Zgn zeigen, sofern deren Positiv- oder Negativteil integrierbar ist. (31. Januar 2017) L1 −Martingale 44 Spielstrategie: Einfache Chance Ein Spieler am Roulettetisch setzt stets eine Einheit auf einfache Chance, sagen wir stets auf Rot (Gewinnchance p < 1/2). Er spielt solange, bis er insgesamt eine Einheit gewonnen hat. Er darf beliebig viel Kredit aufnehmen. Die Wald Identität besagt, daß dieser Spieler eventuell sehr lange spielen muß, der Erwartungswert seiner Spielzeit ist ∞. Mit strikt positiver Wahrscheinlichkeit muß der Spieler sogar lebenslang spielen. Selbst wenn wir die für den Spieler nachteilige grüne Zahl nicht berücksichtigen (p = 1/2), bleibt der Erwartungswert der Spieldauer unendlich. Wird dem Spieler nur begrenzter Kredit gegeben, so spielt er nur endlich oft, bis er pleite ist oder eine Einheit gewonnen hat. Verdoppelungsstrategie oder Martingalstrategie: Der Spieler spielt am Roulette die Martingalstrategie. Er setzt jeweils auf einfache Chance, sagen wir stets auf Rot, die mit W-keit p ∈ (0, 1) kommt. • Gewinnt er, so verläßt er mit seinem Gewinn den Spieltisch. • Hat er in der letzten Spielrunde verloren, so verdoppelt er in der neuen Spielrunde seinen Einsatz. Er darf beliebig viel Kredit aufnehmen. Mit dieser Strategie kann der Spieler sicher sein, genau eine Einheit zu gewinnen (und dann noch eine und noch eine......). Irgendwann kommt Rot und dieses Ereignis tritt sogar nach endlicher Erwartungszeit ein. Wenn der Spieler zum ersten Mal in der n−ten Spielrunde gewinnt, so hat er bis dahin 20 + 21 + . . . + 2n−2 = 2n−1 − 1 Einheiten verloren und gewinnt nun 2n−1 hinzu. Dies macht einen Gewinn einer Einheit. Wo liegt der Pferdefuß in der Realität? Mathematisch ist die Argumentation sauber, die Martingalstrategie ist tatsächlich erfolgreich. Sie müssen nur genügend viel Geld parat haben, um diese Strategie spielen zu können. 4.1.3 Diverses 5 Rückwärtsmartingale Ein Rückwärtsmartingal ist ein adaptierter Prozess (Xn , An )n∈IN0 mit (Mt , Ft )t∈−IN0 ein Martingal, wobei M−n = Xn , F−n = An für n ∈ IN0 . Ausführlicher geschrieben, An , n ∈ IN ist eine fallende Folge von σ-Algebren und es gilt die Martingaleigenschaft E(Xn | An+1 ) = Xn+1 Analog definiere Rückwärtsub- und Rückwärtssupermartingale durch ≤ bzw. ≥ in obiger Gleichheit. Die Doobsche Argumentation mit aufsteigenden bzw. absteigenden Überkreuzungen und die Grenzwertbetrachtung durch Monotonie hält allgemein auch für Rückwärtsmartingale. Die Bedingung supn EXn+ < ∞ ist für Submartingale trivialerweise erfüllt, da das Supremum angenommen wird durch E(X0+ ) und dieses ist endlich. Weiterhin sind die Rückwärtsmartingale stets regulär. Hier ist das Standardbeispiel für Irrfahrten. Proposition 52 Seien Xn , n ∈ IN, uiv integrierbare Zgn, Sn die n-te Par1) tialsumme. Dann ist Sn −nE(X , n ∈ IN, ein Rückwärtsmartingal bzgl. der n Filtration (An )n∈IN , An := σ(Sn , Sn+1 , . . .) = σ(Sn , Xn+1 , Xn+1 , . . . und konvergiert fast sicher und in L1 . Beweis: OEdA sei EX1 = 0. • E(Xi | An ) = E(Xi | Sn ) für 1 ≤ i ≤ n. Beachte An = σ(Sn , Xj , j > n) und die Unabhängigkeit von Xi und σ(Xj , j > n). • E(Xi | Sn ) = E(X1 | Sn ) für i ≤ n. Die Verteilung von (Xi )ni=1 ist dieselbe wie von (Xπ(1) )ni=1 für eine Permutation π der ersten n Zahlen. Der Wert Sn ändert sich unter π nicht. Insbesondere ist (Xi , Sn ) genauso verteilt wie (X1 , Sn ). • ( Snn , An ) ist ein Rückwärtsmartingal. 45 46 (31. Januar 2017) Rückwärtsmartingale Die Integrierbarkeit ist offensichtlich. E( n−1 n 1 X 1X Sn Sn−1 | An ) = . E(Xi | An ) = E(X1 | An ) = E( Xi | A n ) = n−1 n − 1 i=1 n i=1 n Der Rest folgt aus Doob und Levy. q.e.d. Um die Stärke dieses Satzes zu demonstrieren, beweisen wir das starke Gesetz der Großen Zahl. Satz 53 (Starke Gesetz der Großen Zahl) Seien Xn , n ∈ IN, uiv Zgn und Sn die n-te Partialsumme. Ist X1 integrierbar, so konvergiert Snn fast sicher gegen EX1 . Ist X1 nicht integrierbar, so gilt lim supn |Snn | = ∞. Beweis: Sei X1 integrierbar und oEdA EX1 = 0. Dann konvergiert das Rückwärtsmartingal Snn , n ∈ IN fast sicher und in L1 gegen eine Zg Z. Z ist meßbar bzgl. der terminalen σ-Algebra A∞ = ∩n An . Nach dem Kolmogoroff 0−1-Gesetz (45) ist A∞ trivial. Z ist eine Konstante. Wegen der L1 -Konvergenz ist E(X1 ) = 0 = E(Z) = Z. Sei jetzt X1 nicht integrierbar. Betrachte die Mengen An := {|Xn | > cn} für eine positive Konstante c. Nach Borel-Cantelli treten fast sicher unendlich viele der Ereignisse An ein, da die Mengen unabhängig sind und X P (An ) = XX = X n n i≥n i P (i ≤ iP (i ≤ XX |Xn | |Xn | < i + 1) = < i + 1) P (i ≤ c c i n≤i |X1 | |X1 | < i + 1) ≥ E − 1 = ∞. c c (ω) | > 2c . • Für ω ∈ An gilt | Snn(ω) | ∨ | Sn−1 n Sn−1 (ω) Sei oEdA | n | ≤ 2c . Es gilt Sn (ω) Xn (ω) Sn−1 (ω) Xn (ω) Sn−1 (ω) = > c − n n + ≥ n − n n Damit folgt lim supn |Sn | n ≥ c 2 für jedes vorgegebene c > 0. c c = . 2 2 q.e.d. 6 Quadratintegrierbare Martingale Sei M ein quadratintegrierbares (EMn2 < ∞) Martingal. Wir benutzen der Einfachheit halber Standardmartingale. Mn hat die Darstellung Mn = M0 + n X Di i=1 mit den Martingaldifferenzen Di = Mi − Mi−1 . Eine einfache Rechnung ergibt Proposition 54 Sei M ein quadratintegrierbares Martingal. Die Doob-Meier Pn Zerlegung des Submartingals (Mn2 ) lautet Mn2 = Xn +An mit An = i=1 E(Di2 | Pn Fi−1 ) und Xn = Mn2 −An . Die Varianz berechnet sich zu Var(Mn ) = i=1 Var(Di ). 2 | Fn−1 ) = E(Dn2 | Fn−1 ) und die Varianz Bew: Berechne E(Mn2 − Mn−1 entsprechend. q.e.d. Satz 55 Sei M ein quadratintegrierbares Martingal. Dann konvergiert M in L2 genau dann, wenn limn VarMn endlich ist. Im L2 -Konvergenzfall konvergiert Mn auch fast sicher gegen den L2 -Grenzwert M∞ und es gilt X VarM∞ = VarDi . i∈IN Bew: OEdA sei M0 = 0. ′ ⇒′ Das Martingal M konvergiere in L2 gegen einen Grenzwert genannt M∞ . Dann gilt kMn k2 →n kM∞ k2 < ∞ und damit EMn2 = n X i=1 ′ VarDi →n→∞ X i∈IN 2 VarDi = EM∞ < ∞. ′ ⇐ Die Folge (Mn )n ist eine Cauchyfolge, da für m < n gilt kMn − Mm k22 = E( n X i=m+1 Di )2 = n X i=m+1 47 Var(Di ) ≤ X i>m Var(Di ) →m 0. 48 (31. Januar 2017) Quadratintegrierbare Martingale Die fast sichere Konvergenz folgt aus Doob, supn E|Mn | ≤ supn kMn k2 < ∞. Der f.s. Grenzwert und der L2 Grenzwert sind gleich. q.e.d. 7 Exponentielle Martingale 7.1 Irrfahrt Pn Seien X1 , X2 , . . . uiv zentrierte Zgn nicht identisch 0. Sei Sn = i=1 Xi die nte Partialsumme. Wir nehmen die natürliche Filtration Fn := σ(S1 , . . . , Sn ) = σ(X1 , . . . , Xn ). • Falls |X1 | integrierbar ist, so ist Sn ein Martingal. • Falls X12 integrierbar ist, so ist Sn2 − nE(X12 ) ebenfalls ein Martingal. • Falls |X1 |3 integrierbar ist, so ist Sn3 − 3Sn nE(X12 ) − nE(X1 )3 ein Martingal. Und so weiter... (Bildungsgesetz? siehe hierzu 7.2) Alle diese Martingale sind nicht regulär. Zeige hierfür: E| Martingaln | −→n ∞. 7.2 Exponentielle Martingale Pn Seien X1 , X2 , . . . uiv Zgn und Sn = i=1 Xi die n-te Partialsumme. Der Einfachheit habe Xi Erwartungswert 0 und sei nicht fast sicher eine Konstante. Wir wollen das Martingal Mn (t) := exp(tSn − n ln Φ(t)) = Φn (t) exp( mit n ∈ IN, t ∈ IR Φ(t) := E(exp(tX)) n X (tXi )) (7.1) i=1 (7.2) betrachten. Die erweiterte Funktion Φ : IR → IR+ ∪ {∞} wie oben definiert ist die Laplacetransformierte. Proposition 56 Der Logarithmus ln Φ der Laplacetransformierten ist eine konvexe, unterhalb stetige erweiterte Funktion. Sie ist strikt konvex, falls X keine Konstante ist. Es gilt stets Φ(0) = 1. 49 50 (31. Januar 2017) Exponentielle Martingale Beweis: Für u 6= v ∈ IR, λ ∈ (0, 1), verwende die Höldersche-Ungleichung p = 1/λ, q = 1/(1 − λ): ln Φ(λu + (1 − λ)v) = Hölder ≤ ln k exp(λuX) exp((1 − λ)vX)k1 ln k exp(λuX)kp k exp((1 − λ)vX)kq = ln((E exp(uX))λ (E exp(vX))1−λ ) = λ ln Φ(u) + (1 − λ) ln Φ(v). Die Hölderungleichung ist strikt, da Φ strikt ist. (Der Fall X1 identisch eine Konstante ist ausgeschlossen.) Der Rest ist einfach. q.e.d. Die Konvexität liefert Φ−1 (IR) = {t | Φ(t) < ∞)} ist ein Intervall. Die Funktion Φ ist stetig im Inneren des Endlichkeitsintervalls und stetig an den Rändern. Bem: Eine erweiterte Funktion f : IR → IR heißt konvex, falls die Menge {(x, y) ∈ IR2 | y > f (x)} konvex ist. Für f : IR → IR ∪ {∞} entspricht diese Definition der üblichen Konvexitätsdefinition f (tx + (1 − t)y) ≤ tf (x) + (1 − t)f (y) für alle x, y ∈ IR und t ∈ (0, 1). Lemma 57 Sei Φ(t) endlich für ein t ∈ IR. Dann ist (Mn (t))n ein positives Martingal bezüglich der natürlichen Filtration mit Anfangswert 1. Für t 6= 0 konvergiert dieses Martingal fast sicher gegen 0. Beweis: Die Zgn Mn (t) sind wohldefiniert, strikt positiv und adaptiert zur Filtration Fn = σ(X1 , . . . , Xn ) = σ(M1 , . . . , Mn ). Die Zgn sind integrierbar mit Erwartungswert 1 (Nachrechnen). Nun die Martingaleigenschaft E(Mn | Fn−1 ) = = E(exp(t(Sn−1 + Xn ) − n ln Φ(t)) | Fn−1 ) Mn−1 E(exp(tXn )) exp(− ln Φ(t)) = Mn−1 . • Mn (t)n → 0 fast sicher für t 6= 0. ln Mn (t) ist die n-te Partialsumme der uiv Zgn Yi = tXi − ln Φ(t). Die Yi sind integrierbar und nach Jensen, X1 ist keine Konstante, EY1 = EtXi − ln EetX < 0. Nach dem starken Gesetz der Großen Zahl konvergiert ln Mnn (t) fast sicher gegen E(Y1 ) < 0. Dies impliziert die Teilausage. q.e.d. Aus Mn (t) lassen sich durch Summierung über t viele neue Martingale konstruieren. Wir geben einige Beispiele. Proposition 58 Sei µ ein Maß auf IR. Dann ist Z exp(tSn − n ln Φ(t))µ(dt) (7.3) 7.2. Exponentielle Martingale (31. Januar 2017) 51 ein Martingal, vorausgesetzt die Zgn sind integrierbar. Beweis: Verwende Fubini. Mit obiger Konstruktion können wir auch eine Folge von Zgn konstruieren, die die Martingaleigenschaft erfüllt, aber nicht integrierbar sind. Als Beispiel nehmen wir normal N (0, 1) verteilte, unabhängige Zgn Xn , n ∈ IN und µ sei 2 das Lebesguemaß. Eine Rechnung ergibt ln Φ(t) = t2 und r 2 Z Z 2π n 2 Sn2 n Sn 2 Sn Mn = exp(tSn − t )dt = exp( ) exp(− (t− ) )dt = exp 2 2n 2 n n 2n ist wohldefiniert und endlich. Mn ist nicht integrierbar für n = 1, aber integrierbar für n > 1. Daher ist Mn kein Martingal nach der gegebenen Definition. Die Martingaleigenschaft E(Mn+1 | Fn ) = Mn ist erfüllt für alle n ≥ 1. Bedingt auf den Anfangswert M1 ist (Mn )n ein Martingal. Das bedingte Martingal konvergiert fast sicher gegen 0. Damit konvergiert auch Mn fast sicher gegen 0. (Übung: Welches Problem mit Nullmengen tut sich auf und wie läßt es sich umgehen?) Korollar 59 Sei Φ : IR → IR endlich in einer offenen Umgebung U der 0. Sei exp(tx − nΦ(t)) = ∞ k X t k=0 k! M (k, n, x) die Reihenentwicklung der analytischen Funktion in t ∈ U für x ∈ IR, n ∈ IN, fest. Dann ist für jedes k ∈ IN die Folge M (k, n, Sn ), n ∈ IN, ein Martingal. Insbesondere M (0, n, Sn ) ≡ 1 M (1, n, Sn ) = Sn M (2, n, Sn ) = (Sn )2 − nE(X12 ) usw. Beweis: Wir haben bereits bewiesen E(exp(tSn − n ln Φ(t)) | Am ) = exp(tSn−1 − (n − 1) ln Φ(t)). Eine Reihenentwicklung in t liefert ∞ k X t k=0 k! E(M (k, n, Sn ) | An−1 ) = ∞ k X t k=0 Ein Koeffizientenvergleich liefert die Aussage. k! M (k, n − 1, Sn−1 ) q.e.d. tSn −nΦ(t) Reguläre Stoppzeiten Die exponentiellen Martingale Mn (t) = e t 6= 0 sind nicht regulär. Jedoch haben sie interessante reguläre Stoppzeiten. 52 (31. Januar 2017) Exponentielle Martingale Satz 60 Seien die X-Zgn gleichmäßig beschränkt. Dann ist für jedes a < 0 < b die Stoppzeit des ersten Verlassens des Intervalls (a, b), τ = inf{n ∈ IN | Sn < a oder Sn > b} eine reguläre Stoppzeit für das Martingal Mn (t) = exp(tSn − n ln Φ(t)), n ∈ IN . Insbesondere: EMτ = 1. Beweis: Sei t 6= 0. Mτ ∧n ist ein beschränktes Martingal. Mτ ∧n konvergiert fast sicher und in L1 gegen einen Grenzwert. Diesen nennen wir Mτ . Es folgt EMτ = EM1 = 1. q.e.d. τ nimmt in der Regel den Wert ∞ an mit strikt positiver W-keit. Dies folgt aus Mn (t) konvergiert f.s. gegen 0 für t 6= 0. Umgekehrt, ist EMτ (t) = M0 (t) = 1 so ist die Stoppzeit regulär. 8 Konvergenz und Topologie Wir betrachten verschiedene Konvergenzarten auf dem Raum der Maße und auf dem Raum der Zufallsgrößen. Beachte, daß fast jede Konvergenzart eine Konvergenz im topologischen Sinne ist und umgekehrt, (Pedersen [?]). (Ein topologischer Raum ist ein Tupel (E, τ ), wobei E eine Menge ist und τ eine Teilmenge der Potenzmenge ist, die E enthält und abgeschlossen ist bezüglich endlichem Durchschnitt und beliebiger Vereinigung. Eine Folge en ∈ E, n ∈ IN, konvergiert gegen e ∈ E, falls für alle U ∈ τ mit e ∈ U es ein n0 gibt, sodaß für alle n ≥ n0 gilt en ∈ U.) Die fast sichere Konvergenz ist eine Aussnahme, dies ist keine topologische Konvergenzart. 8.1 Konvergenz von W-maßen R Für ein Maß µ und eine Funktion f benutzen wir µ(f ) := f dµ, falls dies wohldefiniert ist. Eine Folge µn von Maßen konvergiert bzgl. einer Klasse F von Funktionen, falls für alle f ∈ F gilt µn (f ) →n µ(f ). F Notation: µn →n µ. Die zugehörige Topologie wird erzeugt von den Mengen Z Z Uǫ,f (µ) := {ν | f dν − f dµ < ǫ}, ǫ > 0, f ∈ F. Für F bestehend aus den Treppen 11A , A ∈ A, erhalten wir die punktweise Konvergenz von Maßen. Ab jetzt sei (Ω, τ ) ein topologischer Raum. Wir sprechen von schwacher Konvergenz für die Konvergenz bezüglich aller stetigen beschränkten Funktionen. 53 54 (31. Januar 2017) Konvergenz und Topologie w C d Notation: µn →n µ oder µn →n µ oder µn →bn µ. Hierbei steht w für weak , d für distribution und Cb für die Funktionenklasse. (Die W-theoretische schwache Konvergenz ist die funktionalytische schwach* Konvergenz.) Wir sprechen von vager Konvergenz für die Konvergenz bzgl. allen stetigen Funktionen mit kompaktem Träger. (Der Träger supp(f ) einer Funktion ist die kleinste abgeschlossene Menge f 6= 0 enthaltend.) v Notation: µn →n µ. Eine Familie M von Maßen heißt straff, falls es für alle ǫ > 0 eine kompakte Menge K gibt mit µ(K c ) ≤ ǫ für alle µ ∈ M. Lemma 61 Eine Folge von W-maßen konvergiert schwach genau dann, wenn sie vage konvergiert und die Familie straff ist. d v µn →n µ ⇔ µn →n µ und {µn , n ∈ IN } straff. Beweis: ⇒‘ Sei K ein kompaktes Intervall und Kǫ := {x ∈ IR | ∃y ∈ K : ’ |x − y| ≤ ǫ}. Es gibt eine stetige Funktion f, die auf dem Kompaktum K stets 1 ist, außerhalb von Kǫ stets 0 und ansonsten von unten durch 0, von oben durch 1 beschränkt ist (Lemma von Urysohn, [?]). Es gilt µn (Kǫc ) ≤ µn (1 − f ) →n µ(1 − f ) ≤ µ(K c ). Wählen wir K mit µ(K) ≥ 1 − ǫ so gilt µn (Kǫc ) < ǫ bis auf endlich viele n. Wir vergrößern K entsprechend, um die restlichen n’s mit einzuschließen. ⇐‘ Sei g stetig, beschränkt, und f, K wie oben. Argumentiere g = f g + ’ (1 − f )g, |µn (g) − µ(g)| = |µn (f g) − µn (f g)| + |µn ((1 − f )g) − µ((1 − f )g)|. Der erste Term wird klein für n hinreichend groß. Der zweite Term wird abgeschätzt durch ≤ kgk∞ (µn (K c ) + µ(K c )) und klein für K hinreichend groß. q.e.d. Beispiel: µn = δn auf den reellen Zahlen konvergiert vage (gegen Null), aber nicht schwach. Für eine Verteilungsfunktion F sei F −1 die linksstetige Inverse F −1 (u) := inf{x | F (x) ≥ u}. Lemma 62 Seien µ, µn , n ∈ IN, W-maße auf den reellen Zahlen. Äquivalent sind die Aussagen i) Die Folge µn konvergiert schwach gegen µ. ii) Die Folge konvergiert bezüglich einer der Klassen Cc , Cb∞ , Cc∞ . 8.1. Konvergenz von W-maßen (31. Januar 2017) 55 iii) Die zugehörigen Verteilungsfunktionen Fn konvergieren gegen F für alle Stetigkeitspunkte von F. iv) Die Inversen Fn−1 konvergieren gegen F −1 für alle Stetigkeitspunkte von F −1 . Beweis: i) ⇔ ii). Konvergenz bzgl. Cb ist hier gleichbedeutend, Lemma 61, mit Konvergenz bzgl. Cc . Jede Funktion aus Cc läßt sich in Supremumsnorm beliebig gut durch eine Cc∞ Funktion approximieren. Dies reicht. i)⇒ iii) Sei fa diejenige stetige Funktion,die 1 auf (−∞, a], 0 auf [a + ǫ, ∞) und sonst linear ist. Es gilt F (a − ǫ) ≤ µ(fa−ǫ ) ←n µn (fa−ǫ ) ≤ Fn (a) ≤ µn (fa ) →n µ(fa ) ≤ F (a + ǫ). Anders geschrieben, F (a − ǫ) ≤ lim inf Fn (a) ≤ lim sup Fn (a) ≤ F (a + ǫ). n n Dies gilt für alle ǫ > 0. iii) ⇐ i) Die Menge S der Stetigkeitspunkte von F ist dicht. (Eine monoton steigende Funktion hat höchstens abzählbar viele Unstetigkeitspunkte und ides sind Sprungstellen.) Betrachte die Menge aller meßbarer beschränkter Funktionen f mit µn (f ) →n µ(f ). Diese Menge ist abgeschlossen bzgl. Addition und gleichmäßiger Konvergenz. Sie enthält alle Treppen 11(−∞,s] mit s ∈ S ein Stetigkeitspunkt. Die Menge enthält alle stetigen Funktion mit kompaktem Träger, da diese sich gleichmäßig durch Treppenfunktionen obiger Treppen approximieren lassen. Folglich konvergiert µn vage. Zusammen mit Straffheit der Folge, siehe gleich, folgt schwache Konvergenz. • µn , n ∈ IN, ist straff. Wähle Stetigkeitspunkte s1 , s2 mit F (s1 ) < ǫ, F (s2 ) > 1 − ǫ. Für K = [s1 , s2 ] gilt µn (K c ) ≤ Fn (s1 ) + 1 − Fn (s2 ) →n F (s1 ) + 1 − F (s2 ) < 2ǫ. Daher gilt µn (K c ) < 2ǫ bis auf endlich viele n. Wir vergrößern jetzt K entsprechend, um diese n mit einzuschließen. iii) ⇔ iv) Dies ist einfach für F stetig und strikt steigend. Der allgemeine Fall ist eine unschöne Übung. q.e.d. Eine Familie F von Funktionen heißt separabel oder trennend bzgl. einer Familie M von Maßen, falls je zwei Maße aus der Familie sich für mindestens eine Funktion f aus der Funktionenfamilie unterscheiden. (∀µ 6= ν ∈ M∃f ∈ F : µ(f ) 6= ν(f ).) Cc ist W-maß trennend, Lemma 62 und Eindeutigkeit der Verteilungsfunktion. 56 (31. Januar 2017) Konvergenz und Topologie 8.1.1 Gleichgradige Integrierbarkeit Gleichgradige Integrierbarkeit ist eine Eigenschaft von Maßen bzw. Verteilungen. Wir werden die w-theoretische Sprache mit Zgn verwenden, da hier die meisten Anwendungen sind. Die Verbingung ist: Sei µ ein W-maß auf den reellen Zahlen mit der Borel σ-Algebra. Dann hat F −1 (U ) die Verteilung µ, wobei F die zugehörige Verteingsfunktion ist und U gleichmäßig verteilt auf dem Einheitsintervall. Eine Familie F von Zgn heißt gleichmäßig integrierbar oder gleichgradig integrierbar, falls gilt Z g(c) := sup |X| −→c→∞ 0. X∈F |X|>c Für eine Funktion f heißt die Familie F gleichmäßig f -integrierbar oder gleichgradig f -integrierbar, falls f (X) gleichgradig integrierbar ist. Sie heißt p-gleichmäßig integrierbar für 1 ≤ p < ∞, oder gleichmäßig p-integrierbar , falls sie gleichgradig f -integrierbar ist für die Funktion f (x) = |x|p . Bem: Eine Familie gleichgradig integrierbarer Zgn erfüllt stets sup E|X| ≤ c + g(c) < ∞ X Für eine Zg X definiere H = HX : [0, 1] 7→ IR Z HX (t) := sup{ |X|dP | P (A) ≤ t}. A Für eine Familie F von Zgn benutzen wir HF (t) := sup HX (t). X∈F Falls der W-raum reichhaltig genug ist und eine gleichförmig verteilte Zg besitzt, (was wir stets annehmen,) so gilt HX (t) = Z 1 F −1 (u)du, 1−t mit F die Verteilungsfunktion zu |X|. (Übung) Bem: Genaugenommen ist H für Verteilungen definiert. Satz 63 Für eine Familie F von Zgn sind die folgenden beiden Aussagen äquivalent: (i) F ist gleichgradig integrierbar. 8.1. Konvergenz von W-maßen (31. Januar 2017) 57 (ii) Für alle ǫ > 0 gibt es eine integrierbare Zg Y mit supX∈F ǫ. R |X|>Y |X|dP < (iii) HF : [0, 1] → IR ist stetig in 0. (iv) Es gibt eine aufsteigende Funktion ϕ : IR+ → IR+ mit limx→∞ und F ist gleichgradig ϕ| · |-integrierbar. Beweis: OEdA sind alle Zgn positive. i)⇒ ii) Wähle Y als eine Konstante. ii) ⇒ iii) In der Zerlegung Z Z Z X= X+ A A∩{X>Y } A∩{X≤Y } X≤ Z X>Y |X| + Z ϕ(x) x =∞ Y A ist der erste Term klein durch Wahl des Y glm. in X. Der zweite Term ist klein in P (A) klein glm. in X. iii) ⇒ i) Zu vorgegebenem ǫ > 0 wähle ein p > 0 mit HF (p) < ǫ. Wähle 1 eine Partition (Ai )N i=1 von Ω in N ≤ p + 1 Mengen vom Maß ≤ p. Dann gilt gleichmäßig in X ∈ F Z Z XZ X≤ X≤ X ≤ HF (p)N < ∞. ∪ i Ai Ai i Die Markoffungleichung liefert sup P (X > c) ≤ sup X∈F Es folgt Z sup X∈F X>c X R X ǫN ≤ →c→∞ 0 c c X ≤ sup HX (P (X > c) ≤ sup HF (P (X > c)) ≤ HF (sup(P (X > c)) →c→∞ 0 iv) ⇒ i) X Z X X= X>c Z X>c X x X ϕ(X) ≤ sup Eϕ(X). ϕ(X) ϕ(x) x≥c Der erste Faktor konvergiert mit c → ∞ gegen 0 glm. in X ∈ F und der zweite ist endlich gleichmäßig für X ∈ F. i) ⇒ iv) Wähle aufsteigende Folge 0 = e0 < en →n ∞ mit g(en ) ≤ 2−n . P Definiere die Funktion ϕ durch ϕ(x) = n∈IN0 (|x| − en )+ . ϕ ist symmetrisch und auf IR+ strikt monoton steigend gegen unendlich. Es gilt X X (x − en )+ ϕ(x) (x − en )+ = lim ≥ = n0 →n0 ∞ lim inf x→∞ x x x x x n lim n≤n0 58 (31. Januar 2017) Konvergenz und Topologie Zu vorgegebenem n0 sei c gross mit ϕ(en0 ) < c Z XZ ϕ(X) = (|X| − en )+ ϕX>c ϕ(X)>c ≤ ≤ ≤ n X Z n≥n0 X Z n≥n0 X X>en0 (X − en )+ + Xn + X≥en −n 2 n<n0 X ϕ(X)>c g(ϕ−1 (c)) n<n0 X + n<n0 n≥n0 X X Z g(ϕ−1 (c)) →c→∞ 0 gleichmäßig für X ∈ F. q.e.d. Bemerkung: Die hier konstruierte Funktion ϕ ist eine Orlicz Funktion (ϕ ist positiv, konvex und ϕ(0) = 0). Zusätzlich ließe sich ϕ glatt wählen, eventuell unendlich oft differenzierbar und ϕ(x) > 0 für x > 0. Der wesentliche Einsatz gleichgradiger Integrierbarkeit besteht in folgendem Lemma, welches im Beweis wesentlich Zgn benutzt. Lemma 64 Die Folge (Xn )n konvergiere in Verteilung gegen X. Dann ist R gleichgradige Integrierbarkeit der Familie Xn , n ∈ IN äquivalent zu |Xn | →n R |X| < ∞. Bew: Sei fc die Funktion fc (x) = 11|x|≤c−1 + (|x| − c + 1)+ = (|x| − c)+ ∧ 1 R R • |X| ≤ lim inf n |Xn | < ∞ Z |X| = lim c→∞ Z |X|fc (X) = lim lim c n Z |Xn |fc (Xn ) ≤ lim lim inf c n Z |Xn | < ∞ R R • lim supn |Xn | ≤ |X| Z Z Z Z Z |X| ≥ |X|fc (X) = lim |Xn |fc (Xn ) = lim( |Xn | − |Xn |(1 − fc (X)) n n Z Z Z ≥ lim sup |Xn | − lim sup |Xn |fc (X) ≥ lim sup |Xn | − g(c) n n n R Mit c → ∞ erhalten wir lim sup |Xn | ≤ die Hinrichtung. Nun zur Rückrichtung mit f = fc−1 . Z |Xn |>c |Xn | ≤ Z |Xn |(1 − f (Xn )) = Z R |X∞ | ≤ lim inf |Xn | − Z R |Xn | und damit |Xn |f (Xn ) 8.1. Konvergenz von W-maßen (31. Januar 2017) Z |Xn | − Z ≤ | = I + II + II |X∞ || + Z 59 |X|(1 − f (X) + | Z |X|f (X) − Z |Xn |f (|Xn )| Zu vorgegebem ǫ wähle ein c hinreichend gross mit II < ǫ. Dann wähle ein n0 so dass für alle n ≥ n0 sowohl I als auch III kleiner ǫ sind. Dies ergibt R supn≥n0 |Xn | > c|Xn | < 3ǫ. Durch Wahl eines noch größeren c können wir g(c) < 3ǫ erreichen. ǫ war beliebig. q.e.d. Korollar 65 Sei Xn , n ∈ IN eine gegen X in Verteilung konvergierende Folge von Zgn. Ist die Familie (Xn )n gleichgradig integrierbar, so vertauschen für jede stetige Funktion f mit lim sup |x|→∞ |f (x)| <∞ |x| (8.1) das Integral und der Limes, lim n Z f (Xn ) = Z f (X). Bew: Die Familie f (Xn ), n ∈ IN ist gleichgradig integrierbar und konvergiert in Verteilung. q.e.d. Jetzt kommen wir zu w-theoretischen Aussagen. Die Verbindung ist: Kon−1 (U ) fast sicher gegen vergiert Xn gegen X in Verteilung, so konvergiert FX x −1 FX (U ). Korollar 66 Die L1 -Konvergenz einer Folge (Xn )n von Zgn ist äquivalent zur stochastischen Konvergenz und gleichgradiger Integrierbarkeit. Beide Grenzwerte stimmen fast sicher überein. Bew: Hinrichtung: Die L1 -Konvergenz impliziert stochastische Konvergenz und diese Konvergenz in Verteilung. Das obige Lemma liefert wegen kXn k → kXk1 die gleichgradige Integrierbarkeit. Für die Rückrichtung argumentiere Z Z Z Z |Xn − X| ≤ ... + ... + ... |X−Xn |<ǫ ǫ≤|X−Xn |<c c≤|X−Xn | Z Z ≤ ǫ + cP (|X − Xn | ≥ ǫ) + 2 |Xn | + 2 |X| |Xn |<c/2 |X|>c/2 alle drei Terme werden beliebig klein für kleine ǫ, große c und n hinreichend groß. q.e.d. 60 (31. Januar 2017) Konvergenz und Topologie Korollar 67 Seien Xn , n ∈ IN , p-integrierbare Zgn, 1 ≤ p < ∞. Dann sind äquivalent • Xn konvergiert in Lp . • Xn → X stochastisch und kXn kp → kXkp < ∞. • Xn konvergiert stochastisch und die Familie Xn , n ∈ IN ist gleichgradig p-integrierbar. Im Konvergenzfalle sind der stochastische und der Lp -Limes gleich. Der Beweis ist einfach aus Obigem. .......................................................................... 8.1.2 Weitere Metriken Metriken für Verteilungsfunktionen: Weitere Metriken lassen sich aus den Verteilungsfunktionen konstruieren. Hintergrund ist die eineindeutige Zuordnung von Maßen und Verteilungsfunktionen. Beispiele auf dem Raum der Verteilungsfunktionen sind d(F, G) := kF − Gk∞ d(F, G) = inf {ǫ | ∀x ∈ IR : |F (x) − G(x + ǫ)| < ǫ und |F (x) − G(x − ǫ)| < ǫ} Z d(F, G) = |F (x) − G(x)|dx. Diese Metriken auf den Verteilungsfunktionen sind auch Metriken auf W-maßen, durch Identifizierung von Verteilungsfunktion und W-maß. (d(µ, ν) = d(Fµ , Fν ).) Wasserstein Metrik: Sei d eine Metrik auf dem Werteraum E und µ, ν W-maße auf (E, B(E)). Definiere D(µ, ν) := inf Ed(X, Y ). Hierbei wird das Infimum über alle X mit Verteilung µ und alle Y mit Verteilung ν auf einem beliebigen W-raum genommen. Dies ist eine Metrik auf dem Raum der W-maße. Mallows Metrik: Ein Abstandsbegriff für Maße impliziert in natürlicher Weise einen Abstandsbegriff für Zgn via der Verteilung. Umgekehrt, haben wir einen Abstandsbegriff d für Zufallsgrößen gegeben, so definieren wir einen (potentiellen) Abstandsbegriff d auf Maßen durch d(µ, ν) := inf d(X, Y ). 8.2. Konvergenz von Zufallsgrößen (31. Januar 2017) 61 Hierbei wird das Infimum über alle X mit Verteilung µ und alle Y mit Verteilung ν auf einem beliebigen W-raum genommen. Ein Beispiel ist die Mallows Metrik lp : Mp × Mp 7→ IR, 1 ≤ p ≤ ∞, lp (µ, ν) = inf kX − Y kp R auf dem Raum Mp := {µ | |x|p µ(dx) < ∞} der p-fach integrierbaren Maße auf IR. Ohne Beweis sei angeführt, das Infimum wird angenommen mit lp (µ, ν) = kFµ−1 (U ) − Fν−1 (U )kp , U eine gleichförmig verteilte Zg (siehe [?]). Satz 68 Der Raum (Mp , lp ), 1 ≤ p ≤ ∞, ist ein vollständiger, metrischer Raum. Er ist separabel für 1 ≤ p < ∞. Beweis: • Separabilität. Sei D eine dichte abzählbare Teilmenge in Lp . Dann ist die Menge aller Verteilungen dazu dicht in Mp . • Vollständigkeit. Für die Vollständigkeit sei µn eine Cauchyfolge in lp -Mallow Metrik. Dann ist Fµ−1 (U ), U gleichförmig verteilt, eine Lp -Cauchyfolge. Diese konvergiert punktn weise gegen ein F −1 (U ). Das zugehörige W-maß µ tut’s. q.e.d. Eine Folge Xn ist lp konvergent, falls die Verteilungen in Mallows lp Metrik konvergieren. lp Notation: Xn →n X. Proposition 69 lp Konvergenz ist äquivalent zur schwachen Konvergenz plus Konvergenz des p-ten absoluten Momentes. (=p-gleichmäßige Integrierbarkeit.) Beweis: Wir benutzen die Version Fn−1 (U ) = Xn und d(Fn , Fm ) = kFµ−1 (U ) − Fν−1 (U )kp . Dann verwende den Satz 71. Bemerkung: Beachte auch die gleichmäßige Integrierbarkeit, Korollar 66. 8.2 Konvergenz von Zufallsgrößen Konvergenzen der Verteilungen: Viele Eigenschaften übertragen sich von den Verteilungen nach folgendem allgemeinen Prinzip: Eine Folge, bzw. Familie von Zgn Xn hat die Eigenschaft ∗, falls die zugehörigen Verteilungen die Eigenschaft ∗ besitzt. In diesem Sinne sprechen wir von schwacher und vager 62 (31. Januar 2017) Konvergenz und Topologie Konvergenz oder von einer straffen Familie von Zgn. Wir verwenden dieselben Symbole, z.B. d d Notation: Xn → X ⇔ P Xn → P X . Konvergenzen der Zgn: Nun zu Konvergenzarten der Zgn selbst. Eine Folge Xn , n ∈ IN, von Zgn konvergiert stochastisch oder in Wahrscheinlichkeit gegen eine Zg X, falls lim P (|Xn − X| > ǫ) = 0 n s P für alle ǫ > 0 gilt. Wir schreiben Xn →n X oder Xn →n X. s steht für stochastic und P für probability. Diese Konvergenz entspricht Konvergenz bzgl. der Topologie auf den Zgn erzeugt durch die Metrik d1 (X, Y ) := inf{ǫ ∈ IR | P (|X − Y | > ǫ) < ǫ} oder der Metrik d2 (X, Y ) := E |X − Y | . 1 + |X − Y | Eine Folge Xn von Zgn konvergiert fast sicher, falls P (lim Xn = X) = 1 n gilt. f.s. Notation: Xn →n X. Eine Folge Xn ist Lp konvergent bzw. konvergiert im p-ten Mittel, 1 ≤ p ≤ Lp ∞, gegen X, falls kXn − Xkp →n 0. Wir schreiben Xn →n X und sprechen auch von Konvergenz im p-ten Mittel. Hier eine Übersicht. p-te Moment steht für Konvergenz des p-ten absoluten Moments. 8.2. Konvergenz von Zufallsgrößen (31. Januar 2017) 63 L∞ ❅ ❅ ❅ ❅ ❘ ❅ Lp , 1 ≤ p < ∞ ✻ + p-te Moment ✠ + 1-te Moment fast sicher ✲ ❄ L1 ✛ ■ ❅ ❅ ❅ ❅ Version ❅ ❅ ❅ ✒ Version ❅ ❅ ❅ + 1-te Moment ❅ ❘ ❅ ✠ stochastisch ✻ ✻W-theorie Version ❄Maßtheorie ❄ schwach ✻ straff ❄ vage Satz 70 Der Beweis erfogt in einer Reihe von Aussagen. • Stochastische Konvergenz impliziert schwache Konvergenz. v Wir zeigen zuerst Xn → X. Sei f ∈ Cc . |Ef (Xn ) − Ef (X)| ≤ ≤ E(|f (Xn ) − f (X)|(11|Xn −X|≥ǫ + 11|Xn −X|<ǫ )) 2kf k∞ P (|Xn − X| ≥ ǫ) + sup |f (x) − f (y)|. |x−y|<ǫ Der erste Term ist klein für n groß, der zweite ist klein in ǫ, da eine stetige Funktion auf einem Kompaktum gleichmäßig stetig ist. 64 (31. Januar 2017) Konvergenz und Topologie Als nächstes zeigen wir Straffheit. P (|Xn | > c) ≤ ≤ P (|Xn | > c, |Xn − X| < ǫ) + P (|Xn | > c, |Xn − X| ≥ ǫ) P (|X| > c − ǫ) + P (|Xn − X| ≥ ǫ). Beide Terme sind klein für ǫ, c, n geeignet. • Fast sichere Konvergenz impliziert stochastische Konvergenz. P (|Xn − X| > ǫ) ≤ P ({∃N ≥ n : |XN − X| > ǫ}) →n 0. • L1 -Konvergenz impliziert stochastische Konvergenz. Dies folgt aus der Markoff Ungleichung P (|Xn − X| > ǫ) ≤ E|Xn − X| →n 0. ǫ • Lq -Konvergenz impliziert Lp -Konvergenz für 1 ≤ p ≤ q ≤ ∞. Die Jensen Ungleichung ergibt kY kp ≤ kY kq . • L∞ -Konvergenz impliziert fast sichere Konvergenz. Einfach. Gegenbeispiele: Alle Beispiele sind auf dem W-raum ([0, 1], B, λ). • Schwache Konvergenz impliziert nicht stochastische Konvergenz. Seien Xn , n ∈ IN, uiv Zgn und keine Konstante. Diese Folge konvergiert schwach. Würde sie auch stochastisch konvergieren, so würde gelten, P (|Xn − Xm | > ǫ) ≤ P (|Xn − X| > ǫ/2) + P (|Xm − X| > ǫ/2) →n,m 0. Andererseits P (|Xn − Xm | > ǫ) = P (|X1 − X2 | > ǫ) > 0 ist eine strikt positive Konstante für n 6= m und ǫ hinreichend klein. Widerspruch. • Stochastische Konvergenz impliziert nicht fast sichere Konvergenz. X1 = 11[0,1] , X2 = 11[0,1/2] , X3 = 11[1/2,1] , X4 = 11[0,1/4] , X5 = 11[1/4,1/2] , ..., X8 = 1[0,1/8] , ... usw. Formaler Xn := 11[i/2m ,(i+1)/2m ] mit n = 2m + i, 0 ≤ i < 2m . (Zeichnung machen!). Diese tut’s. • Lp -Konvergenz, 1 ≤ p < ∞ impliziert nicht fast sichere Konvergenz. Siehe oben. • Fast sichere Konvergenz impliziert nicht Lp -Konvergenz. Die Folge Xn := an 11[0,1/n] konvergiert fast sicher gegen 0, aber nicht in Lp für geeignet gewählte an . • Lp -Konvergenz impliziert nicht Lq -Konvergenz, 1 ≤ p < q ≤ ∞. Pn 1 Wähle eine Folge Xn = i=1 11( i+1 , 1i ] ai mit ai geeignet. Übung. Nun zu den verbleibenden positive Aussagen mit Zusatzbedingungen. Version: Eine Version einer Zg ist eine Zg mit derselben Verteilung. Beliebt ist folgende Konstruktion. Sei U eine Zg mit gleichmäßiger Verteilung auf [0, 1]. Dann ist F −1 (U ) eine Version von X. Übung. 8.2. Konvergenz von Zufallsgrößen (31. Januar 2017) 65 • Sei Xn schwach konvergent gegen X. Dann existiert eine Version Yn der Xn mit Yn ist fast sicher konvergent gegen eine Version von X. Seien Fn , F die zugehörigen Verteilungsfunktionen und U eine gleichmäßig verteilte Zg. Dann tut’s die Folge Yn = Fn−1 (U ). Die Aussage beruht auf Lemma 62. (F bzw F −1 hat höchstens abzählbar viele Unstetigkeitspunkte.) q.e.d. Bemerkung: Schwache und stochastische Konvergenz stimmen überein für Zgn Xn , die gegen eine Konstante konvergieren. Auf diskreten W-räumen stimmen stochastische Konvergenz und fast sichere überein. Teilfolgenprinzip: Jede stochastisch konvergente Folge hat eine fast sicher konvergente Teilfolge. Der Grenzwert ist derselbe. (Übung) Den folgenden Satz vergleiche mit dem Korollar 66. Satz 71 Seien Xn , n ∈ IN , p-integrierbare Zgn, 1 ≤ p < ∞. Xn konvergiert in Lp gegen X genau dann, wenn Xn stochastisch gegen X konvergiert und kXn kp → kXkp < ∞ gilt. Lp s Xn → X ⇔ Xn → X und kXn kp →n kXkp < ∞. Beweis: ⇒‘ Lp Konvergenz impliziert stochastische Konvergenz. Die umge’ kehrte Dreiecksungleichung liefert |kXn kp − kXkp | ≤ kXn − Xkp →n 0. 0. ⇐‘ Sei A die Menge |Xn − X| > ǫ konvergiert mit n dem Maße nach gegen ’ kXn − Xk ≤ k(Xn − X)11A k + kXn − X11Ac k ≤ kXn k − kXn 11Ac k + kX11A k + ǫ ≤ ≤ ≤ kXn 11A k + kX11A k + ǫ kXn k − kX11Ac k + kX11A k + 2ǫ kXn k − kXk + 2kX11A k + 2ǫ →n 2ǫ →ǫ→0 0