Martingaltheorie Vorlesungsmitschrift Professor Uwe Rösler 13. Januar 2017 Table of Contents 1 Zeitdiskrete Martingale 1.0.1 Meine Martingalfavoriten . . . . . . . . . . . . . . . . . 2 Martingaltransformierte 2.0.2 Filtrationwechsel . . . . . . . . . . . . . . . . 2.0.3 Raumtransformationen . . . . . . . . . . . . . 2.0.4 Raum der Martingale . . . . . . . . . . . . . 2.0.5 Doob Zerlegung . . . . . . . . . . . . . . . . . 2.1 Martingaldifferenzfolgen . . . . . . . . . . . . . . . . 2.1.1 Transformierte durch vorhersehbare Prozesse 2.2 Stoppzeiten . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Optional Sampling Theorem revisited . . . . 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 4 13 13 13 15 15 16 17 20 22 2 (13. Januar 2017) Table of Contents 1 Zeitdiskrete Martingale Sei (Ω, A, P ) stets der zugrundeliegende Wahrscheinlichkeitsraum. Ein stochastischer Prozess ist eine Familie Xt : Ω → E, t ∈ T von Zgn mit Werten in einem meßbarem Raum (E, σ(E)). E heißt der Zustandsraum und die Indexmenge T heißt Parameterraum oder auch Zeitparameterraum. Hintergrund ist, dass T als Teilmenge der reellen Zahlen totalgeordnet ist und dann die Interpretation Zeit erhält. Wir benutzen die Notation X = (Xt )t∈T bzw. (Xt )t bzw. (Xt ) für die Familie. Sei E eine Eigenschaft von Zgn. Wir sagen ein Prozess X hat die Eigenschaft E wenn alle Xn die Eigenschaft haben. Ein Beispiel ist Positivität oder Integrierbarkeit. Ein stochastischer Prozess (Xt )t∈T heißt zu einer Familie At , t ∈ T, von σ-Algebren adaptiert, falls für alle t ∈ T die Zg Xt : Ω 7→ E meßbar ist bezüglich At − σ(E). Eine Filtration zu einer geordneten Menge (T, ≤) ist eine isotone Familie F = (Ft )t∈T von σ-Algebren aus A. In Formeln, s ≤ t ∈ T ⇒ Fs ⊂ Ft . Ein filtrierter W-Raum ist ein Tupel (Ω, A, F, P ) wie oben. Die kanonische Filtration oder natürliche Filtration eines Prozesses X ist die Filtration Ft := σ(Xs , s ≤ t), t ∈ T gegeben wird durch die kleinste σ-Algebra erzeugt von allen Xs , s ≤ t. Dies ist die kleinste Filtration bzgl. der der Prozeß adaptiert ist. Ein Martingal, Submartingal, Supermartingal ist ein Tupel (X, F) = (Xt , Ft )t∈T . Hierbei ist T eine Teilmenge der reellen Zahlen mit der natürlichen Ordnung und X ein reellwertiger, integrierbarer stochastischer Prozess adaptiert zur Filtration F. Es gilt die Martingaleigenschaft (Super-, Sub-) Xs = E(Xt | Fs ) Xs ≤ E(Xt | Fs ) Xs ≥ E(Xt | Fs ) 3 Martingal (1.1) Submartingal (1.2) Supermartingal (1.3) 4 (13. Januar 2017) Zeitdiskrete Martingale f.s. für alle s ≤ t ∈ T. Die Angabe der Filtration wird häufig weggelassen, insbesondere wenn immer dieselbe Filtration benutzt wird. X ist Supermartingal genau dann, wenn −X ein Submartingal ist. Ein Prozess ist ein Martingal genau dann, wenn er gleichzeitig ein Sub- und ein Supermartingal ist. Man unterscheidet zwischen diskreter Zeit, T ⊂ ZZ und stetiger Zeit anderenfalls. Die wesentliche mathematische Argumentationslinie ist ersichtlich für T ⊂ IN. Daher, ein Standardmartingal (Sub-,Super-) ist ein Martingal (Sub-,Super-) mit Zeitparameter T = IN0 , X0 = E(X1 ) und A0 die triviale σ-Algebra {∅, Ω}. Ist T endlich oder in den natürlichen Zahlen enthalten und X ein Martingal dazu, so können wir X einbetten in ein Standardmartingal Y. Dies geschieht durch Yn = Xm mit m das Maximum der t ∈ T mit t ≤ n oder t das kleinste Elment in T. Ebenso verfahre mit der Filtration. Resultate für das Standardmartingal übertragen sich dann auf das Originalmartingal. Ist T nicht von obiger Struktur, so geschieht die Zurückführung auf Standardmartingalargumente in der Regel via Stoppzeiten. Dies ist eher technischer Natur und wir überschlagen es hier. Die Martingaleigenschaft (1.1) bzw. die Submartingal- bzw. Supermartingaleigenschaft ist im Standardfalle äquivalent zu Xn = E(Xn+1 | Fn ) (1.4) bzw. ≤, ≥ für alle n ≥ 1. Verwende zum Beweis die Projektionseigenschaft E(Xn+2 | Fn ) = E(E(Xn+2 | Fn+1 ) | Fn ) = E(Xn+1 | Fn ) = Xn . 1.0.1 Meine Martingalfavoriten Wir verwenden stets IN0 als Zeitparameter. Beispiele 1 (Irrfahrt) Seien Xn , n ∈ IN, unabhängig, identisch verteilte, Pn integrierbare Zufallsgrößen, Sn = i=1 Xi die n-te Partialsumme. Dann ist (Mn )n Mn := Sn − nEX1 ein Standardmartingal bezüglich der natürlichen Filtration Fn = σ(S1 , . . . , Sn ) = σ(X1 , . . . , Xn ). E(Mn+1 | Fn ) = Mn + E(Xn+1 − EX1 | Fn ) = Mn . (13. Januar 2017) 5 Beispiele 2 (Exponentielle Martingale) Seien Xn , n ∈ IN, unabhängig, identisch verteilte Zufallsgrößen mit Sn die n-te Partialsumme. Definiere Mn (λ) := exp(λSn )/Φn (λ) mit Φ(λ) := EeλX1 , λ ∈ IR. Die Folge (Mn (λ))n ist ein Standardmartingal bzgl. der natürlichen Filtration wie eben. Beispiele 3 (Reguläre Martingale) Sei F eine Filtration und X eine integrierbare Zufallsvariable. Dann ist Mn := E(X | Fn ) ein Martingal in n. E(Mn+1 | Fn ) = E(E(X | Fn+1 ) | Fn ) = E(X | Fn ) = Mn . Später werden wir sehen, daß genau die L1 -konvergenten Martingale so darstellbar sind. Beispiele 4 ( Das Martingal) In einem Kasino spielt ein Spieler die Verdoppelungsstrategie, in Spielerkreisen auch als Martingalstrategie bekannt. Der Spieler startet mit einem Einsatz von einem Chip auf einfache Chance (rotschwarz oder gerade-ungerade) im ersten Spiel. Verliert er, so verdoppelt er seinen vorherigen Einsatz im nächsten Spiel. Gewinnt er irgendwann einmal, so hört er auf. Zu diesem Zeitpunkt n hat er −1 − 2 − 4 − 8 − . . . − 2n−1 Einheiten verloren und gewinnt im n-ten Spiel 2n Einheiten. Insgesamt hat er eine Einheit gewonnen. Da er fast sicher irgendwann einmal gewinnt, erscheint dies als eine sichere Strategie. Mathematisches Modell: Seien Yn , n ∈ IN uiv Zg mit Werten in {1, −1} Pn und p = P (Y = 1) im offenen Einheitsintervall (0, 1). Sei Sn = i=1 2i−1 Yi . Yi = 1 wird interpretiert als Gewinn im i-ten Spiel, Sn als Kapital nach dem n-ten Spiel bei Anfangskapital 0, sofern der Spieler das n-te Spiel gespielt hat. Sn ist ein Martingal im Fall p = 1/2, ein Supermartingal im Fall p < 1/2 und anderenfalls ein Submartingal. Sei τ der erste Wert m mit Ym = 1. Auf der Menge n < τ ist Sn der Gewinn (negative Werte bedeuten Verlust) bis einschliesslich des n-ten Spieles. Da τ fast sicher endlich ist, gilt Sτ = 1. Zu dem Zeitpunkt kann er das Kasino mit einer Einheit Gewinn verlassen. Beispiele 5 (Likelihoodquotient für Münzwurf ) Seien X1 , X2 , . . . uiv Zgn mit diskreter Verteilung P = (p(x))x∈E . Sei Q = (q(x))x∈E ein anderes W-maß. Dann ist n Y q(Xi ) Mn := , p(X i) i=1 p(x) > 0 für alle x vorausgesetzt, ein Martingal bezüglich dem W-mas̈ P und der natürlichen Filtration q(Xn+1 ) E(Mn+1 | Fn ) = Mn E( | Fn ) = M n . p(Xn+1 ) 6 (13. Januar 2017) Zeitdiskrete Martingale Dieses Beispiel hat Anwendung in der Statistik. Wir wollen entscheiden, ob die Zgn X1 , X2 , . . . , Xn eine Verteilung P oder Q haben, P, Q bekannt. Dazu betrachten wir die Teststatistik Mn : IRn 7→ IR wie oben. ln Mn ist eine Summe von uiv Zgn. Nach dem starken Gesetz der Großen Zahl, anwendbar falls P q(Xi ) q(x) q(Xi ) E| ln p(X | < ∞ gilt, konvergiert n1 ln Mn gegen EP (ln p(X ) = x ln p(x) p(x) i) i) P q(x) q(Xi ) unter P bzw. gegen EQ (ln p(Xi ) ) = x ln p(x) q(x) unter Q. Sind diese Grenzwerte verschieden, so können wir P und Q unterscheiden. Die Grenzwerte sind verschieden für P 6= Q, da nach Jensen gilt EP ln EQ ln q(Xi ) q(Xi ) < ln EP =0 p(Xi ) p(Xi ) p(Xi ) p(Xi ) q(Xi ) = EQ (− ln ) > − ln EQ = 0. p(Xi ) q(Xi ) q(Xi ) In der sequentiellen Statistik trifft man bereits eine Entscheidung, wenn ln Mn gewisse Schranken überschreitet. Damit erreicht man gute Entscheidungen bei möglichst wenig Beobachtungen. Beispiele 6 (Radon-Nikodym Ableitung) Seien Q, P zwei W-Maße. Eine (meßbare) Partition φ von Ω ist eine disjunkte Zerlegung von Ω in (meßbare) S Mengen. (φ ⊂ Pot(Ω), ◦ A∈φ A = Ω.) Eine Partition φ1 ist feiner als φ2 , geschrieben φ1 φ2 , falls jedes A ∈ φ1 in einem B ∈ φ2 enthalten ist. Sei φ1 φ2 φ3 ... eine Folge von verfeinerten, meßbaren Partitionen. Definiere X Q(A) Mn := 1A P (A) A∈φn n ∈ IN. Der Einfachheit nehmen wir stets P (B) > 0 an. Dann ist M = (Mn )n ein Martingal bezüglich P und der Filtration Fn erzeugt von der Partition φn . EP (Mn+1 | Fn ) = X A∈φn+1 = Q(A) EP (1A | Fn ) P (A) X X Q(A) EP (1A | Fn ) P (A) X X Q(A) 11B P (A | B) P (A) X X Q(A) 11B P (B) B∈φn B⊃A∈φn+1 = B∈φn B⊃A∈φn+1 = B∈φn B⊃A∈φn+1 = X Q(B) 11B = Mn P (B) B∈φn (13. Januar 2017) 7 Beispiele 7 (Polya Urnen Modell) Gegeben sei eine Urne mit S schwarzen und W weißen Bällen. Es wird zufällig mit Gleichverteilung ein Ball gezogen. Dann werden insgesamt c ∈ {−1, 0, 1, . . .} Bälle dieser gezogenen Farbe zurückgelegt. Kein Ball wird zurückgelegt entspricht c = −1, der gezogene Ball wird zurückgelegt entspricht c = 0 usw.. Sei Sn , Wn , n ∈ IN, die Anzahl der schwarzen bzw. weißen Kugeln nach der n-ten Ziehung einschließlich eventuellem Zurücklegen. Dann ist Mn = Sn Wn + S n ein Martingal bezüglich der natürlichen Filtration. (Für c = −1 müssen wir nach W + S Ziehungen stoppen, da kein Ball mehr in der Urne ist.) Mn ist die bedingte Wahrscheinlichkeit, daß bei der nächsten (= n + 1-ten) Ziehung eine schwarze Kugel gezogen wird, bedingt auf der Kenntnis der bisher gezogenen Kugeln. Mathematisches Modell: Sei Xn die Farbe, kodiert als 1 für ’schwarz’ und 0 für ’weiß’, der gezogenen Kugel in der n-ten Ziehung. Die Filtration ist Pn Fn = σ(X1 , . . . , Xn ). Die Zg Mn schreibt sich als, Zn := i=1 Xi , Mn = P (Xn+1 = 1 | An ) = S + cZn . W + S + nc Mn ist ein Martingal, da E(Mn+1 | Fn ) = = S + cZn + cE(Xn+1 | Fn ) W + S + (n + 1)c n S + cZn + c WS+cZ +S+nc W + S + (n + 1)c = . . . = Mn . Das Polya Urnen Modell läßt sich auch für c ∈ [−1, ∞) spielen. Es werden stets ⌊c⌋ Bälle der gezogenen Farbe zurückgelegt und, abhängig von einem unabhängigen Bernoullizufallsexperiment zum Parameter c − ⌊c⌋, eine weitere der Farbe. Beispiele 8 (Verzweigungsprozesse) Historischer Ausgangspunkt für die Verzweigungsprozesse war die Genealogie, insbesondere die Überlebenswahrscheinlichkeit eines Familiennamens. Als Nachkommen (Kinder) zählen wir hier nur die männlichen Nachkommen, die den Familiennamen tragen und weitergeben können. Die Anzahl dieser Nachkommen sei unabhängig mit stets gleicher Verteilung. Uns interessiert die Größe der n-ten Generation. 8 (13. Januar 2017) Zeitdiskrete Martingale Mathematisches Modell: Seien Xi,j , i, j ∈ IN0 , uiv Zgn mit Werten in IN0 , 0 < E(X• ) =: m < ∞. Der Bienayme-Galton-Watson (BGW) Prozess Z wird rekursiv definiert durch Z0 = 1, Zn+1 = Zn X Xn,j . j=1 Zn Dann ist ( m n )n ein Martingal bezüglich der Filtration Fn = σ(Xi,j , i < n, j ∈ IN, ) (oder auch der natürlichen Filtration). Die Größe Xn,j gibt die Anzahl der Nachkommen des j-ten Individuums der n-ten Generation an. Zn entspricht der Anzahl der Namensvertreter in der n-ten Generation. Ein ’typischer’ Stammbaum sieht etwa folgendermaßen aus: ✏ ✏✏ ✑ ✑ ✑ ✰ s✑ 11 ✁❆ ✁ ❆ ✁ ❆ ☛✁ ❯s s✁ s❄ ❆❆ ✑ ✮ s✏ 1✏ ✑◗ ◗ ✑ ◗ s❄ 12 ✏ ✏✏ ✏ ✏✏ s ✏ ✏PPP s❄ 2 ◗ ◗ ◗ s ◗s13 ✁❆ ✁ ❆ ✁ ❆ s✁☛✁ s❄ ❆❆❯s s❄ PP PP PP PP Pq Ps 3 ❅ s✠ 31 ✁❆ ✁ ❆ ✁ ❆ ❆❆❯s312 s✁☛✁ Beispiele 9 (Gewichteter Verzweigungsprozess) Jedes Individuum eines Verzweigungsprozesses trägt zusätzlich ein zufälliges Gewicht. Dies ist das Gewicht der Mutter multipliziert mit einer Zufallsgröße. Mathematisches Modell: Wir betrachten einen gerichteten Graphen (V, E). Die Knotenmenge ist V := ∞ [ IN n , IN 0 := {∅}. n=0 Wir benutzen für v = (v1 , ..., vn ) ∈ V die Notation vi = (v1 , ..., vn , i) und |v| = n, |∅| = 0, v|m = (v1 , . . . , vm ). (Die Kanten e ∈ E sind die Tupel e = (v, vi).) Seien T (v) : Ω → IRIN , v ∈ V , uiv Zgn. Beachte für festes v können die Koordinaten T1 (v), T2 (v), . . . voneinander abhängig sein. Definiere rekursiv L(v) : Ω 7→ IR durch L(∅) = 1 und L(v, i) = L(v)Ti (v). ❅ ❅ ❅ ❘ ❅s32 ✁❆ ✁ ❆ ❆ ✁ ❆❆❯s s✁☛✁ (13. Januar 2017) 9 Hieraus ergibt sich die Produktdarstellung L(v) = n Y Tvi (v|i−1 ) = Tv1 (∅)Tv2 (v1 )...Tvn (v1 , . . . , vn−1 ). i=1 Sei Zn = P {v||v|=n} L(v). Dann ist für m 6= 0 Wn := Zn , mn P 0 6= m := E i Ti (.) wohldefiniert, ein Martingal. V gibt eine natürliche Indizierung des Baumes mit unendlich vielen Ästen. Die Größen L(v) geben das Gewicht des Individuums v an. Der BGW-Verzweigungsprozess ist ein Spezialfall mit L(v) = 1 oder L(v) = 0. In der Zeichnung haben wir Individuen mit Gewicht Null weggelassen. Beispiele 10 (Zufällige Cantormengen) Als spezielles Beispiel für einen gewichteten Verzweigungsprozeß betrachten wir die Hausdorffdimension von zufälligen Cantormengen. Eine (die) Cantormenge wird folgendermaßen konstruiert: Aus dem Einheitsintervall entferne das mittlere Drittel. Aus den verbliebenen Intervallen entferne ebenfalls das mittlere Drittel usw. t0 r r ♣ ♣ ♣ ♣ ♣♣♣♣ ♣♣♣♣ ta r r ♣ ♣ ♣ ♣ ♣♣♣♣ ♣♣♣♣ Cantorset Cantorset Can tb r r ♣ ♣ ♣ ♣ ♣♣♣♣ ♣♣♣♣ t1 r r ♣ ♣ ♣ ♣ ♣♣♣♣ ♣♣♣♣ Cantorset Cantorset Can Es bleibt eine Menge C übrig, genannt die Cantormenge. Wir wollen diese Konstruktion nun zufällig machen. Anstelle von 1/3, 2/3 wählen wir zufällig, aber zu gegebener Verteilung, zwei (oder auch mehrere) Punkte aus und entfernen das mittlere (einige) Intervall. Für jedes verbleibende Intervall wiederholen wir diese Prozedur auf kleinerer Skala unabhängig, aber mit derselben Verteilung. Die übrigbleibende Menge C = C(ω) ist eine zufällige Cantormenge. Wir denken uns die Prozedur als Baum dargestellt wie oben mit der natürlichen Indizierung durch V. Sei L(v) die Länge des Intervalls v. Die Faktoren T1 (v), T2 (v), .. geben die jeweilige relative Länge der verbleibenden Intervalle bei Aufspaltung des Intervalls v. Für die deterministische Cantormenge gilt T1 (.) ≡ 1/3 = T2 (.), T3 = 0 = T4 = ... 10 (13. Januar 2017) Zeitdiskrete Martingale t0 t1 − T2 (∅) tT1 (∅) t1 Als nächstes klären wir den Zusammenhang zur Hausdorffdimension und Hausdorffmaß. Sei A eine beliebige Menge in IR (metrischer Raum). Eine offene δ- Überdeckung von A ist eine Familie Un , n ∈ IN , von offenen Mengen mit DurchS messer diam(Un ) < δ, die A überdeckt (A ⊂ n Un ). Für α > 0, δ > 0, P sei Hδα (A) = inf{ n diamα (Un )}, das Infimum über alle δ-Überdeckungen genommen. Das α-Hausdorffmaß von A ist: Hα (A) = limδ→0 Hδα (A). Das αHausdorffmaß Hα kann den Wert unendlich annehmen. Die Hausdorffdimension ist das kleinste α mit endlicher α-Hausdorffdimension, H(A) = inf{α|Hα (A) < ∞}. Für unsere zufälligen Cantormengen bietet sich als Überdeckung die n-te Generation an (modifiziert zur offenen δ-Überdeckung!). Der Wert Sn(α) := X Lα (v) |v|=n ist eine erste Annäherung (im Grenzwert exakt) an das α-Hausdorfmaß. Eine besondere Rolle spielt der Wert α mit E(T1α +T2α ) = 2. Für α <(=,>) α (α) ist Sn ein Submartingal (Martingal, Supermartingal). Der Wert α ist (f.s.) die Hausdorffdimension einer zufälligen Cantormengen C, falls C nicht die Null(α) menge ist. Der Grenzwert limn→∞ Sn ist das α-Hausdorff-Maß der zufälligen Cantormenge. Dieses Ergebnis läßt sich auch auf die Cantormenge selbst anwenden. Die Zven T. sind deterministisch (1/3, 2/3). Die Hausdorff-Dimension α = ln 2/ ln 3 α α erhält man durch Lösen der Gleichung 13 + 13 = 1 nach α. Beispiele 11 (Aktien) Der Aktienkurs Xn wird gerne als Martingal modelliert. Ein Händler kauft am n-ten Tag Cn Aktien. Am folgenden Tag hat er den Wert Cn (Xn+1 − Xn ) dazugewonnen. Der Prozess Mn := n−1 X Ci (Xi+1 − Xi ) i=1 ist ein Martingal, vorausgesetzt jede Handelsentscheidung Cn ist Fn -meßbar. (Dies ist die mathematische Formulierung für keine Insiderinformation.) (13. Januar 2017) 11 Beispiele 12 (Spielhäuser) Ein Spieler geht in ein Kasino mit mehrfachem Spielangebot wie z.B. Roulette und Black Jack. Zur Einfachheit sei die Zeit getaktet. Zu Beginn jeden Zeittaktes kann der Spieler frei ein Spiel auswählen und es einmal zu erlaubtem Einsatz spielen. Dieser Vorgang einschießlich Auszahlung wird in einem Zeittakt abgeschlossen. Sei Kn das Spielerkapital zum n-ten Zeitpunkt. Der Spieler möchte seinen Gewinn KN nach genau N Zeittakten maximieren, z.B im Sinne vom Erwartungswert, oder der Wahrscheinlichkeit mindestens einen bestimmten Betrag zu haben. Welche Strategie, d.h. Auswahl der Teilspiele, ist die beste? Dieses Problem, behandelt in Dubins-Savage, How to gamble if you must, führt auf die Konstruktion spezieller Martingale. In der Sektion über optimales Stoppen behandeln wir den Spezialfall mit nur zwei Optionen, weiterspielen oder stoppen. 12 (13. Januar 2017) Zeitdiskrete Martingale 2 Martingaltransformierte Unser Grundraum ist ein filtrierter W-raum (Ω, A, F, P ) mit einer Filtration F = (Fn )n∈IN0 . Alle betrachteten Prozesse X = (Xn )n∈IN0 sind adaptiert und integrierbar. Mit M= , M≤ , M≥ bezeichnen wir die Menge der Martingale (Sub-, Super-) mit Zeitparameter IN0 zur Filtration F. Da die Filtration meistens als fest angenommen wird und sich nicht verändert, wird sie in Formulierungen häufig weggelassen. Zum Beispiel, ist X ein Submartingal, so ist −X) ein Supermartingal (zu derselben Filtration). Wir betrachten und formulieren Resultate meistens für Submartingale, entsprechendes gilt dann für Supermartingale. 2.0.2 Filtrationwechsel Für einen Wechsel in eine Subfiltration gilt: Proposition 13 Sei (X, F) ein Martingal (Sub-, Super-). Sei X adaptiert zu einer Unterfiltration B = (Bn )n mit Bn ⊂ Fn . Dann ist (X, B) ein Martingal (Super-, Sub-). Beweis: Für B ∈ Bn gilt Z Z Z Z E(Xn+1 | Bn ) = Xn+1 = E(Xn+1 | Fn ) =≥,≤ Xn B B B und damit E(Xn+1 | Bn ) =≥,≤ Xn . 2.0.3 B q.e.d. Raumtransformationen Eine lineare Raumtransformation auf den reellen Zahlen beläßt ein Martingal als ein Martingal und ein Submartingal, wird je nach Vorzeichen der Steigung, zum Sub- oder Supermartingal. Bei konvexen Funktionen hilft der Satz von Jensen. 13 14 (13. Januar 2017) Martingaltransformierte Eine Funktion ϕ : I 7→ IR ∪ {∞} mit I ein Intervall heis̈t konvex , falls für alle x 6= y ∈ I, t ∈ (0, 1) und tx + (1 − t)y ∈ I gilt ϕ(tx + (1 − t)y) ≤ tϕ(x) + (1 − t)ϕ(y). Sie heis̈t strikt konvex, falls in obiger Ungleichung stets < gilt. Eine Funktion ϕ : IR → IR ∪ {−∞} heis̈t (strikt) konkav genau dann, wenn −ϕ (strikt) konvex ist. i) Im Inneren von I ist eine konvexe Funktion ϕ ist stetig und es existieren die linksseitige Ableitung ϕ− und die rechtsseitige Ableitung ϕ+ . Beide sind aufsteigend und ϕ− ≤ ϕ+ und verschieden an höchstens abz ählbar vielen Punkten. Satz 14 (Jensen Ungleichung) Sei X eine integrierbare Zg, B ⊂ A eine Unter-σ-Algebra und ϕ eine konvexe Funktion mit ϕ(X) wohldefiniert und integrierbar. Dann gilt ϕ(E(X | B)) ≤ E(ϕ(X) | B) Gleichheit gilt genau dann, wenn ϕ linear ist auf einer Menge D mit P (X ∈ D) = 1. Als Merkregel: Falscher Effee Eϕ ≥ ϕE (wie für die Jensensche Ungleichung). Lemma 15 Sei M ein Martingal und ϕ eine konvexe (konkave) Funktion mit ϕ(Mn ) integrierbar für jedes n. Dann ist ϕ(M ) = (ϕ(Mn ))n ein Submartingal bzgl. derselben Filtration. Sei X ein Submartingal. Sei ϕ eine aufsteigende konvexe Funktion und ϕ(Xn ) integrierbar für jedes n. Dann ist ϕ(X) ein Submartingal. Sei X ein Supermartingal. Sei ϕ eine absteigende konvexe Funktion und ϕ(Xn ) integrierbar für jedes n. Dann ist ϕ(X) ein Submartingal. Beweis: Für ein Martingal M und ϕ konvex gilt E(ϕ(Mn+1 ) | An ) ≥ ϕ(E(Mn+1 | An )) = ϕ(Mn ) Für ein Submartingal X und ϕ konvex aufsteigend gilt E(ϕ(Xn+1 ) | An ) ≥ ϕ(E(Xn+1 | An )) ≥ ϕ(Xn ) Für ein Supermartingal X und ϕ konvex absteigend gilt ebenfalls die obige Zeile. q.e.d. Das obige Lemma sieht nach einem Symmetriebruch bzgl. Sub- und Supermartingalen aus. Dies ist nicht der Fall. Gewisse Symmetrie erhalten wir, wenn wir eine konvexe Funktion ϕ durch die konkave Funktion −ϕ ersetzen. X ∈ M≤ , ϕ konkav ↓⇒ ϕ(X) ∈ M≥ (13. Januar 2017) 15 X ∈ M≥ , ϕ konkav ↑⇒ ϕ(X) ∈ M≥ Notation: Der Positivteil einer Funktion f is f + = f ∨ 0 und der Negativteil f = (−f ) ∨ 0. Beachte f − ist positiv und f = f + − f , |f | = f + + f − . Beispiele: i) Für ein Martingal M sind M + := (Mn+ )n und M − = (Mn− )n Submartingale zur gleichen Filtration. Für jedes p ≥ 1 ist |M |p = (|Mn |p )n und für jedes λ ≥ 0 ist eλM ein Submartingal. ii) Ist X ein Submartingal, so auch X + und eλX für positive λ. Jedoch X − ist im allgemeinen weder ein Sub- noch ein Supermartingal. iii) Ist X ein Supermartingal, so sind X − und eλX für λ ≤ 0 Submartingale. + X ist im allgemeinen weder ein Sub- noch ein Supermartingal. Auch wenn der Positivteil bzw. Negativteil keine schöne Martingaleigenschaft besitzt, läst sich das erste absolute Momente gut abschätzen. − Proposition 16 Für ein Submartingal X gilt 2EXn− + x0 ≤ E|Xn | ≤ 2EXn+ − x0 und für ein Supermartingal 2EXn+ − x0 ≤ E|Xn | ≤ 2EXn− + x0 . Beweis: Die erste Abschätzung erhalten wir aus x0 ≤ EXn = EXn+ − EXn− und E|Xn | = EXn+ + EXn− durch einsetzen. Die zweite folgt analog. q.e.d. 2.0.4 Raum der Martingale Durch Addition, Supremumsbildung, Infimumsbildung und Anwendung konvexer Funktionen lassen sich weitere (Super–, Sub–) Martingale erzeugen. Lemma 17 i) Der Raum M= der Martingale ist ein reeller Vektorraum. ii) Der Raum M≤ (M≥ ) der Submartingale (Super-) ist abgeschlossen bezüglich Addition, Multiplikation mit positiver Konstanten und dem endlichen Supremum (Infimum). Beweis: Leicht nachzurechnen. 2.0.5 q.e.d. Doob Zerlegung Ein vorhersehbarer Prozeß zu einer Filtration F = (Fn )n∈IN0 ist ein adaptierter Prozeß X = (Xn+1 )n∈IN0 . Dies ist zu verstehen mit Xn+1 ist Fn meßbar für alle n ∈ IN0 . Aus schreibtechnischen Gründen wird manchmal X0 := X1 mit hinzugenommen. 16 (13. Januar 2017) Martingaltransformierte Lemma 18 (Doob Zerlegung) Sei X ein Submartingal (Super-). Dann existiert genau ein Martingal M und genau ein vorhersehbarer, monoton aufsteigender (absteigender) Prozeß A mit A0 ≡ 0 und Xn = Mn + An . Der Prozess A wird rekursiv gegeben durch An+1 = An + E(Xn+1 | An ) − Xn . Beweis: • An wie oben definiert tut’s. An ist wohldefiniert, monoton steigend (fallend) und vorhersehbar. Eine Rechnung zeigt die Martingaleigenschaft von Mn := Xn − An , E(Mn+1 | Fn ) = E(Xn+1 −An+1 | Fn ) = E(Xn+1 | Fn )−An+1 −Xn +Xn = −An +Xn = Mn . • Eindeutigkeit. Sei Xn = M n +An eine zweite Zerlegung mit den obigen Eigenschaften. Wir zeigen durch Induktion nach n M n = Mn und An = An . Der Induktionsanfang ist leicht. Wir zeigen den Schritt n → n + 1. • An+1 = An+1 . An+1 = E(An+1 | Fn ) = E(Xn+1 − M n+1 | Fn ) = E(Xn+1 | Fn ) − M n = E(Xn+1 | Fn ) − Mn = E(Xn+1 − Mn+1 | Fn ) = E(An+1 | Fn ) = An+1 Hieraus folgt sofort Mn+1 = M n+1 . 2.1 q.e.d. Martingaldifferenzfolgen Eine Martingaldifferenzfolge (Sup-, Super-) zu einer Filtration F ist eine Folge D = (Dn )n∈IN von adaptierten und integrierbaren Zgn mit 0 =≤,≥ E(Dn | Fn−1 ), n ∈ IN. Wir verwenden die Kurznotation D = (Dn )n . Jede Martingaldifferenzfolge (Sup-Super-) D zur Filtration F liefert via Xn = n X Di + X0 (2.1) i=0 ein Martingal, (Sub-, Super-) bzgl. derselben Filtration. Umgekehrt, sei X ein Martingal (Sup-,Super-), so ist die Differenzfolge Dn := Xn − Xn−1 , n ∈ IN eine Martingaldifferenzfolge zur selben Filtration und es gilt (2.1). Wir sprechen von der Martingaldifferenzfolge D (Sub-, Super-) des Martingals (Sub-, Super-) X. 2.1. Martingaldifferenzfolgen (13. Januar 2017) 17 Satz 19 Sei die Filtration F und eine reelle Zahl x vorgegeben. Es gibt eine bijektive Abbildung zwischen Martingaldifferenzfolgen (Sub-, Super-) D und Martingalen (Sub-, Super-) mit Anfangswert x jeweils zur Filtration F. Diese kann gegeben werden durch Xn = n X Di + x. i=1 Beweis: Leicht. 2.1.1 q.e.d. Transformierte durch vorhersehbare Prozesse Die Martingaltransformierte eines Martingals (Sub-, Super-) X zu einem vorhersehbaren Prozeß C = (Cn )n∈IN ist der Prozess X C XnC := n X C i Di + X0 i=1 n ∈ IN0 . Hierbei ist Dn := Xn − Xn−1 die zugehörige Martingaldifferenzfolge. Einige Autoren benutzen die Notation C · X bzw. C ∗ X für X C . Für reellwertige Funktionen f, g (oder Vektoren) benutzen wir (f g)(x) := f (x)g(x). Satz 20 Sei M ein Martingal und C vorhersehbar. Ist CD integrierbar, so ist die Martingaltransformierte M C ein Martingal. Sei X ein Submartingal (Super-) und sei C vorhersehbar und positiv. Falls CD integrierbar ist, so ist die Martingaltransformierte X C ein Submartingal (Super-). Beweis: Die Martingaltransformierte M C ist adaptiert zur Filtration und integrierbar, da die einzelnen Terme Ci Di Fi meßbar und integrierbar sind. Die Martingaleigenschaft wird nachgerechnet C E(Mn+1 | Fn ) = E( n+1 X Ci Di + M0 | Fn ) = MnC + Cn+1 E(Dn+1 | Fn ) = MnC . i=1 Eine analoge Argumentation hält für Sub- und Supermartingale. q.e.d. Korollar 21 Sei M ein Martingal und C ein vorhersehbarer Prozess mit CD integrierbar. Dann ist der Erwartungswert der Martingaltransformierten eine Konstante. Sei X ein Submartingal (Super-) und C ein positiver vorhersehbar Prozess mit CD integrierbar. Dann ist der Erwartungswert EXnC monoton steigend (fallend) in n. 18 (13. Januar 2017) Martingaltransformierte Beweis: Wir zeigen nur den Martingalfall. Die anderen beiden Aussagen folgen analog. EMnC = X E(E(Ci Di | Fi−1 )) + M0 = i≤n X E(Ci E(Di | Fi−1 )) + M0 = M0 . i≤n q.e.d. Die punktweise Ordnung auf dem Raum der Prozesse ist die Ordnung (Xt )t∈T (Yt )t∈T ⇔ Xt (ω) ≤ Yt (ω) für alle t ∈ T, ω ∈ Ω. Lemma 22 Sei X ein Submartingal (Super-) und A B zwei vorhersehbare positive Prozesse. Sei D die Differenzfolge und AD, BD integrierbar. Dann gilt für alle n ∈ IN0 EXnA ≤ (≥)EXnB . Beweis: Der Induktionanfang X0A = X0 = X0B ist einfach. Für den Induktionsschritt n → n + 1 argumentiere B A E(Xn+1 −Xn+1 | Fn ) = XnB −XnA +(Bn+1 −An+1 )E(Dn+1 | Fn ) ≥ (≤)XnB −XnA Nehme auf beiden Seiten den Erwartungswert und verwende die Induktionshypothese. q.e.d. Kasinospieler: Ein Spieler spielt eine endliche Folge von (unabhängigen) Spielen mit zufälligem Ausgang D1 , D2 , , . . . , DN in einem Spielkasino. Dabei gebe Di die positive oder negative Auszahlung im i−ten Spiel bei Einsatz einer Einheit ab. Der Spieler darf (=mus̈) den Einsatz Cn für das n−te Spiel vor dem n-ten Spiel bestimmen. Üblicherweise einen positiven Einsatz und nicht mehr als er besitzt. (Es sei denn, man handelt an der Börse.) Hierbei kennt der Spieler die σ-Algebra der gesamten Vergangenheit bis vor dem n-ten Spiel. In der Regel ist dies die kanonische σ-Algebra σ(D1 , . . . , Dn−1 ) = An−1 erzeugt von allen Spielergebnisse bis zu diesem Zeitpunkt. Der von ihm gewählte Einsatz Cn ist daher An−1 mes̈bar, die Folge (Cn ) ist vorhersehbar. Die Folge (Cn ) heis̈t auch Strategie des Spielers. Sei Kn sein Kapital nach dem n-ten Spiel, K0 ∈ IR+ sein Anfangskapital. Nach dem n−ten Spiel beträgt sein Kapital KnC unter der Strategie C KnC = n X i=1 C i D i + K0 . 2.1. Martingaldifferenzfolgen (13. Januar 2017) 19 Der Spieler möchte möglichst viel gewinnen. Ein Kriterium wäre, den ErwarC tungswert EKN zu einem festgesetzten Zeitpunkt N zu maximieren. Mathematisch gesehen führt dies auf C sup EKN C über alle erlaubten Strategien C. Faire Spiele: Alle Spiele Di seien fair, d.h. E(Di | Ai−1 ) = 0. Dann ist (KnC ) eine Martingaltransformierte zur Martingaldifferenz D und dem vorhersehbaren Prozess C. Der Erwartungswert EKnC ist konstant K0 für jedes n und jede Strategie C liefert (20) EKnC = K0 . Anders formuliert, alle Aktionen des Spielers haben keinen Einfluß auf sein durchschnittlich erspieltes Kapital! Bei fairen Spielen spielt der Spieler Dummy. Nachteilige Spiele: Alle Spiele seien subfair (nachteilig) im Sinne E(Dn | An−1 ) ≤ 0 aus Sicht des Spielers gesehen. Das Kapital KnC unter der gewählten Strategie C ist jetzt ein Submartingal und das erwartete Kapital E(KnC ) nach der n-ten Runde fällt in n. Mit der Erhöhung der Einsätze sinkt der Erwartungswert. C sollte der Spieler mit Im Sinne der Erwartungswertmaximierung von EKN möglichst geringen Einsätzen spielen. Der Einsatz stets Null entspricht garnicht zu spielen. Selbst das Spielen einer einzigen Runde mit strikt positivem Einsatz kann schon nachteilig für ihn sein. Da dies ein Nullsummenspiel ist, was der eine verliert gewinnt der andere, profitiert das Spielkasino und wird infolgedessen versuchen den Spieler zum Spielen zu animieren. Vorteilhafte Spiel: Alle Spiele seien superfair (vorteilhaft) im Sinne E(Dn | An−1 ) ≥ 0 aus Sicht des Spielers gesehen. Das Kapital KnC unter der gewählten Strategie C ist jetzt ein Supermartingal und das erwartete Kapital E(KnC ) nach der nten Runde steigt in n. Es steigt auch mit Erhöhung der Einsätze. Im Sinne der 20 (13. Januar 2017) Martingaltransformierte C Erwartungswertmaximierung von EKN sollte der Spieler möglichst viel mit gros̈en Einsätzen spielen, nämlich stets und alles einsetzen. (Dies führt auf das Petersburger Spiel, auf unendliche Sicht gesehen geht man pleite.) Für das Spielkasino sind solche Spiele nachteilig, aber trotzdem gibt es solche tatsächlich im Spielkasino [?]. Mehr hierzu in dem Kapitel über Kasinospiele. Verschiedene Spiele: Und was macht der Spieler, wenn es Spiele Di gibt, die nachteilig sind und solche die vorteilhaft sind? Er sucht sich die für ihn vorteilhaften aus. Bei diesen setzt er möglichst viel (=alles), bei den anderen möglichst wenig (=nichts). Es reicht ihm, nur bei strikt vorteilhaften Spielen (EDi > 0) alles zu setzen. 2.2 Stoppzeiten Wir betrachten Stoppzeiten und Zeittransformationen durch eine Folge von Stoppzeiten. Stoppzeit ist ein wesentlicher Begriff für stochastische Prozesse und Wahrscheinlichkeitstheorie. Eine Abbildung τ : Ω 7→ IN0 heißt Stoppzeit bzgl. der Filtration F, falls für alle n ∈ IN0 gilt: {τ ≤ n} ∈ Fn . (2.2) Wir benutzen in natürlicher Weise erweiterte bzw. beschränkte Stoppzeiten, falls der Bildbereich erweitert (= N0 ) oder beschränkt ist. Ergibt sich die Filtration aus dem Kontext oder ist die kanonische Filtration eines bekannten Prozesses gemeint, so entfällt die Angabe der Filtration. Standardmäı̈g verwenden wir F0 als triviale σ-Algebra und lassen {τ = 0} zu. (Dies impliziert dann τ ≡ 0 oder τ > 0 f.s..) Stoppzeiten bezeichnen wir stets mit griechischen Buchstaben wie τ oder σ. Die konstante Abbildung ist eine Stoppzeit. Proposition 23 Sei F eine Filtration und τ eine Stoppzeit dazu. Äquivalent sind i) τ ist eine erweiterte Stoppzeit. ii) ∀n ∈ IN0 : {τ = n} ∈ Fn . iii) ∀n ∈ IN0 : {τ > n} ∈ Fn . Beweis: Einfach. i) ⇔ ii) Für die Hinrichtung benutze {τ = n} = {τ ≤ n}\{τ ≤ n − 1} ∈ Fn , da {τ ≤ n} ∈ Fn und {τ ≤ n − 1} ∈ Fn−1 ⊂ Fn gilt. Die Sn Rückrichtung ergibt sich aus {τ ≤ n} = i=0 {τ = i}. ii) ⇔ iii) Dies ergibt sich aus {τ > n} = Ω\{τ ≤ n} ∈ Fn q.e.d. 2.2. Stoppzeiten (13. Januar 2017) 21 Sei T = T (Ω, A, P, F)) die Menge der Stoppzeiten zu der vorgegebenen Filtration F, T zu den erweiterten Stoppzeiten. Proposition 24 Der Raum der Stoppzeiten T ist abgeschlossen bezüglich abzählbarem Infimum, endlichem Supremum und endlicher Summe. Der Raum der erweiterten Stoppzeiten T ist abgeschlossen bezüglich abzählbarem Infimum, abzählbarem Supremum und abzählbarer Summe. Beweis: Sei τi , i ∈ IN eine abzählbare Folge von Stoppzeiten. Das abzählbare Infimum bzw. Supremum erfüllt die Stoppzeiteigenschaft, da gilt [ \ {inf τi ≤ n} = {τi ≤ n} ∈ Fn , {sup τi ≤ n} = {τi ≤ n} ∈ Fn . i i i i Es verbleibt nachzuprüfen, unter welchen Bedingungen das Infimum oder Supremum wieder eine Stoppzeit oder erweiterte Stoppzeit im jeweiligen Raum ist. Die Summe von zwei Stoppzeiten τ1 , τ2 ist eine Stoppzeit wegen {τ1 + τ2 ≤ n} = n X ({τ1 = i} ∩ {τ2 ≤ n − i}) ∈ Fn i=0 für alle n. Für die abzählbare Summe argumentiere X X { τi ≤ n} = lim { τi ≤ n} ∈ Fn . i N →∞ i≤N q.e.d. Warnung: Die Differenz von Stoppzeiten ist im allgemeinen keine Stoppzeit. (Übung mit τ − 1.) Das Standardbeispiel einer erweiterten Stoppzeit für einen stochastischen Prozess X mit Werten in (E, E) sind erste Eintrittszeiten (bzw. Austrittszeiten) aus einer (meßbaren) Menge B ∈ E aus dem Zustandsraum τB (ω) := inf{n : Xn (ω) ∈ B} = inf{n : Xn (ω) 6∈ B}. Wir benutzen die Konvention inf ∅ := ∞. Heuristik: Eine Stoppzeit ist eine genaue Handlungsanweisung für jede auftauchende Situation, die so genau definiert ist, dass ein Rechner diese ausführen könnte. Diese Handlungsanweisung wird gegeben bevor die Situation eintritt. Aktien: Wann sollte ein Spieler eine Aktie verkaufen? Dies ist ein Stoppproblem. Abhängig von der Information bis zum Zeitpunkt n, grob gesagt der Historie der Aktienkurse Xm , m ≤ n bis zu diesem Zeitpunkt, entscheidet sich der Spieler für halten oder abstoßen. Der Verkaufszeitpunkt ist eine Stoppzeit, z.B. wenn der Wert Xn eine vorgegeben Schranke überschreitet. 22 (13. Januar 2017) Martingaltransformierte 2.2.1 Optional Sampling Theorem revisited Sei (X, F) ein adaptierter Prozess und τ eine Stoppzeit bzgl. der gegebenen Filtration. Der Prozeß X τ := (Xn∧τ )n (2.3) mit a ∧ b = min{a, b}, (Xτ ∧n )(ω) := (Xn∧τ (ω) )(ω) heißt gestoppter Prozeß. Der Prozess X τ läßt sich auch als transformierter Prozess XnC sehen bzgl. dem vorhersehbaren Prozess C = (Cn )n definiert durch Cn := 11n≤τ . Der Ctransformierte Prozeß X C erfüllt XnC = n X i=1 Ci Di + x 0 = n∧τ X Di + x0 = Xτ ∧n i=1 mit Di = Xi − Xi−1 die Differenzen und xo = X0 . Korollar 25 (Optional Sampling Theorem 2) Sei (X, F) ein Martingal (Sub-, Super-) und τ eine erweiterte Stoppzeit. Dann ist ((Xτ ∧n )n , F) ein Martingal (Sub, Super-). Die Funktion n 7→ E(Xτ ∧n ) ist eine konstante (aufsteigende, absteigende) Funktion. Für Stoppzeiten τ ≤ σ und Submartingale (Super-) gilt EXτ ∧n ≤≥ EXσ∧n Beweis: Die erste Aussage folgt aus Theorem 21 mit der Darstellung Xτ ∧n = q.e.d. XnC . Die zweite aus der ersten und die dritte aus Lemma 22. Kartenraten: Gegeben sei ein verdeckter Stapel gut gemischter Karten mit je 26 roten und 26 schwarzen Karten, ein normales Bridgeblatt (Rommeeoder Canasta-). Der Spieler gewinnt genau dann, wenn er eine rote Karte richtig vorhersagt nach folgender Prozedur: • Falls er die oberste zugedeckte Karte als Rot “vorhersagen möchte, be” kommt er sie. Ist es eine rote, hat der Spieler gewonnen, sonst verloren. • Falls nicht wird die oberste Karte gezogen, gezeigt und beiseite gelegt. Neustart mit dem Reststapel. • Falls der Spieler keine Karte bis zur letzten wählt, bekommt er die letzte zugewiesen. 2.2. Stoppzeiten (13. Januar 2017) 23 Gefragt wird nach einer Strategie (=Stoppzeit), die seine Gewinnwahrscheinlichkeit optimiert bzw. echt größer als 1/2 macht. Heuristik: Wenn der Spieler die erste Karte vorhersagen möchte, hat er eine Gewinnwahrscheinlichkeit von genau 21 . Dasselbe gilt für die letzte Karte aus Symmetrie. Die letzte Karte bekommt er auch, falls er vorher keine Vorhersage machen wollte. Falls der Spieler also keine bessere Wahl vorher findet, so kann er stets auf diese letzte Karte zurückgreifen. Was immer auch während der Ziehphase geschieht, die letzte Karte wird während der Auswahlprozedur nicht verändert und behält damit ihre Wahrscheinlichkeit von 1/2, rot zu sein. Der Spieler kann folglich stets eine Gewinnwahrscheinlichkeit von 1/2 garantieren. In einigen Fällen hat der Spieler aber eine bessere Auswahlmöglichkeit. Falls nach gewisser Zeit, z.B. die erste Karte war schwarz, mehr schwarze Karten als rote gezogen wurden, verbleiben in dem zugedeckten Stapel relativ mehr rote Karten als schwarze. Wenn der Spieler jetzt die oberste Karte wählt, ist die Wahrscheinlichkeit einer roten Karte strikt größer als 1/2, genauer der Quotienten der Anzahl der roten Karten mit der Gesamtanzahl der noch verbliebenen zugedeckten Karten. Falls sich keine dieser vorteilhaften Situationen ergibt, kann der Spieler stets auf die letzte zur zückgreifen. Da günstige Situationen wie oben beschrieben mit strikt positiver Wahrscheinlichkeit vorkommen, ist die Gesamtwahrscheinlichkeit für eine richtige Vorhersage des Spielers strikt größer als 1/2. (Diese Strategie ließe sich noch optimieren, aber wir sind zufrieden mit strikt größer als 1/2.) Die Ergebnisse scheinen sich zu widersprechen. Oder gibt es hier ein Lücke in der Argumentation? Wenn ja, welche? Mathematische Lösung: Seien X1 , . . . , X52 Zgn mit Werten in {0, 1}. Die Verteilung entspricht dem zufälligen Ziehen aus einer Urne mit 26 schwarzen (=0) und 26 roten (=1) Karten ohne zurücklegen (Polya’s Urnenmodell mit c = −1). Xi = 1 entspricht dem Ziehen einer roten Kugel in der i-ten Ziehung. Sei Yn := E(Xn+1 | Fn ), Fn die kanonische σ-Algebra erzeugt von X1 , . . . , Xn . Die Zg Yn gibt die Wahrscheinlichkeit an, daß die nächste oberste verdeckte Karte rot ist, gegeben die Kenntnis X1 , . . . , Xn der ersten n Karten. Der Spieler wählt eine Stoppzeit τ (=Auswahlregel) und erhält die nächste Karte mit Gewinnwert Xτ +1 . Sein erwarteter Gewinn ist EYτ . Der Spieler versucht seinen erwarteten Gewinn zu maximieren durch Wahl einer optimalen Stoppzeit, falls diese existiert. Er erhält supτ E(Yτ ). Die Schlüsselbeobachtung ist, daß (Yn )51 n=0 ein Martingal ist. E(Yn+1 | Fn ) = E(E(Xn+2 | Fn+1 ) | Fn ) = E(Xn+2 | Fn ) = Yn . 24 (13. Januar 2017) Martingaltransformierte Nach dem Optional Sampling Theorem sind alle Stoppzeiten gleich gut, E(Yτ ) = Y0 = 1/2. Die erwartete Gewinnwahrscheinlichkeit ist stets 1/2, unabhängig von den Aktionen des Spielers, lieber Dummy. Wo liegt der Pferdefuß in der heuristischen Argumentation? Er liegt im Gebrauch von W-keiten und bedingten W-keiten. Es gilt stets Yn = E(Xi | Fn ) für i = n + 1, . . . , 52, da die verbleibenden Karten austauschbar sind. Die nächste Karte gewinnt stets mit derselben W-keit wie die letzte, gegeben die Vorinformation. Also kann ich gleich bei der letzten bleiben. Und wenn ich Vorabinformationen über die ersten n Karten besitze, muß ich auch die bedingte W-keit betrachten, das die letzte Karte gewinnt. Und diese ist nicht immer 1/2. Wenn ich bis zur letzten nicht vorhergesagt habe und die letzte nehmen muss, so ist die W-keit für eine rote 0 oder 1. Die letzte Karte ist zwar unverändert durch die vorhergehende Prozedur, aber die bedingte W-keit, das die letzte Karte rot ist, hat sich durch die Vorabinformation geändert, von 12 am Anfang zu 0 oder 1. σ-Algebra der τ -Vergangenheit* Sei (Fn ) eine Filtration und τ eine erweiterte Stoppzeit. Das Mengensystem Fτ := {A ∈ A | ∀n ∈ T : A ∩ {τ ≤ n} ∈ Fn } heißt die σ-Algebra der τ -Vergangenheit. Wie der Name suggeriert, ist dies eine σ−Algebra. Proposition 26 Seien τ, σ erweiterte Stoppzeiten. (i) Fτ ist eine σ-Algebra. (ii) Für τ ≡ n gilt Fτ = Fn . (iii) Für τ ≤ σ gilt Fτ ⊂ Fσ . (iv) A ∈ Fτ ⇔ ∀n : A ∩ {τ = n} ∈ Fn S (v) Für jedes A ∈ Fτ gilt A = ◦ n (A ∩ {τ = n}) P (vi) Für eine Stoppzeit τ gilt E(· | Fτ ) = i∈IN0 11τ =i E(· | Fi ). (vii) Sei (X, F) ein Martingal (Sub-, Super-), σ eine beschränkte Stoppzeit. Es gilt E(Xσ | Fτ ) =(≥,≤) Xσ∧τ . 2.2. Stoppzeiten (13. Januar 2017) 25 Beweis: i) Fτ ist nicht leer und mit A ∈ Fτ gilt auch Ac ∈ Fτ wegen Ac ∩ {τ ≤ n} = {τ ≤ n}\(A ∩ {τ ≤ n}) ∈ Fn . Für Ai ∈ Fτ , i ∈ IN, gilt [ [ ( Ai ) ∩ {τ ≤ n} = (Ai ∩ {τ ≤ n}) ∈ Fn . i i ii) Die Menge {τ ≤ i} ist leer oder ganz Ω. iii) Für alle ω bis auf eine Nullmenge gilt τ (ω) ≤ σ(ω) und damit {σ ≤ n} ⊂ {τ ≤ n}. Für A ∈ Fτ gilt A ∩ {σ ≤ n} = A ∩ {τ ≤ n} ∩{σ ≤ n} ∈ Fn . {z } | ∈Fn iv)v) Leicht. vi) Für jedes A ∈ Fτ und integrierbare Zg Y gilt Z Z XZ XZ Y = 11τ =i E(Y | Fi ). 11A∩(τ =i) Y = E(Y | Fτ ) = A A i A i Beide Seiten sind Fτ meßbar. Damit sind die bedingten Erwartungen gleich. P P vii) E(Xσ | Fτ ) = i 11τ =i E(Xσ | Fi ) =(≥,≤) i 11τ =i Xσ∧i = Xσ∧τ . Beide Seiten sind Fτ meßbar und damit gleich. q.e.d. Satz 27 Sei (X, F) ein Martingal (Sub-, Super-) und τ eine Stoppzeit. Dann ist, sofern integrierbar, Xτ +n , n ∈ IN0 ein Martingal (Sub-, Super-) bezüglich (Fτ +n )n . Beweis: Wir geben die Argumentation nur für ein Martingal. X X E(Xτ +n+1 | Fτ +n ) = 11τ +n=j E(Xj+1 | Fj ) = 11τ +n=j Xj = Xτ +n . j j q.e.d. Korollar 28 Sei τ0 ≡ 0 und τm : Ω → {1, . . . , N }, m ∈ IN, eine aufsteigende Folge von beschränkten Stoppzeiten bzgl. einer Filtration F und (X, F) ein Martingal (Sub-, Super-). Dann ist (Xτm )m∈IN0 ein Martingal (Sub-, Super-) bezüglich der Filtration (Fτm )m . Beweis: Wir geben die Argumentation nur für ein Martingal. Der Prozess (Xτ1 +n , Fτ1 +n )n∈IN0 ist ein Martingal. τ2 ist eine Stoppzeit bezüglich der Filtration (Fτ1 +n )n . Folglich ist durch erneute Anwendung von Satz (27) Xτ1 , Xτ2 , Xτ2 +1 , . . . ein Martingal bezüglich Fτ1 , Fτ2 , Fτ2 +1 , . . . . Mit Induktion (Übung) erhalten wir die Aussage. q.e.d. 26 (13. Januar 2017) Martingaltransformierte Warnung: Aus x0 = E(Xτ ∧n ) für alle n folgt im allgemeinen nicht x0 = E(Xτ ), selbst für Martingale nicht. Das Martingal (verdoppeln des Einsatzes bis zum ersten Gewinn) ist ein Gegenbeispiel, Mτ ≡ 1 fast sicher, aber E(Mτ ∧n ) = 0 mit τ die Stoppzeit zum ersten Mal die 1 zu erreichen.