Martingaltheorie Vorlesungsmitschrift

Werbung
Martingaltheorie
Vorlesungsmitschrift
Professor Uwe Rösler
13. Januar 2017
Table of Contents
1 Zeitdiskrete Martingale
1.0.1 Meine Martingalfavoriten . . . . . . . . . . . . . . . . .
2 Martingaltransformierte
2.0.2 Filtrationwechsel . . . . . . . . . . . . . . . .
2.0.3 Raumtransformationen . . . . . . . . . . . . .
2.0.4 Raum der Martingale . . . . . . . . . . . . .
2.0.5 Doob Zerlegung . . . . . . . . . . . . . . . . .
2.1 Martingaldifferenzfolgen . . . . . . . . . . . . . . . .
2.1.1 Transformierte durch vorhersehbare Prozesse
2.2 Stoppzeiten . . . . . . . . . . . . . . . . . . . . . . .
2.2.1 Optional Sampling Theorem revisited . . . .
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
4
13
13
13
15
15
16
17
20
22
2
(13. Januar 2017) Table of Contents
1 Zeitdiskrete Martingale
Sei (Ω, A, P ) stets der zugrundeliegende Wahrscheinlichkeitsraum.
Ein stochastischer Prozess ist eine Familie Xt : Ω → E, t ∈ T von Zgn
mit Werten in einem meßbarem Raum (E, σ(E)). E heißt der Zustandsraum
und die Indexmenge T heißt Parameterraum oder auch Zeitparameterraum.
Hintergrund ist, dass T als Teilmenge der reellen Zahlen totalgeordnet ist und
dann die Interpretation Zeit erhält. Wir benutzen die Notation X = (Xt )t∈T
bzw. (Xt )t bzw. (Xt ) für die Familie.
Sei E eine Eigenschaft von Zgn. Wir sagen ein Prozess X hat die Eigenschaft E wenn alle Xn die Eigenschaft haben. Ein Beispiel ist Positivität oder
Integrierbarkeit.
Ein stochastischer Prozess (Xt )t∈T heißt zu einer Familie At , t ∈ T, von
σ-Algebren adaptiert, falls für alle t ∈ T die Zg Xt : Ω 7→ E meßbar ist
bezüglich At − σ(E).
Eine Filtration zu einer geordneten Menge (T, ≤) ist eine isotone Familie
F = (Ft )t∈T von σ-Algebren aus A. In Formeln, s ≤ t ∈ T ⇒ Fs ⊂ Ft . Ein
filtrierter W-Raum ist ein Tupel (Ω, A, F, P ) wie oben. Die kanonische
Filtration oder natürliche Filtration eines Prozesses X ist die Filtration
Ft := σ(Xs , s ≤ t), t ∈ T gegeben wird durch die kleinste σ-Algebra erzeugt
von allen Xs , s ≤ t. Dies ist die kleinste Filtration bzgl. der der Prozeß adaptiert
ist.
Ein Martingal, Submartingal, Supermartingal ist ein Tupel (X, F) =
(Xt , Ft )t∈T . Hierbei ist T eine Teilmenge der reellen Zahlen mit der natürlichen Ordnung und X ein reellwertiger, integrierbarer stochastischer Prozess
adaptiert zur Filtration F. Es gilt die Martingaleigenschaft (Super-, Sub-)
Xs = E(Xt | Fs )
Xs ≤ E(Xt | Fs )
Xs ≥ E(Xt | Fs )
3
Martingal
(1.1)
Submartingal
(1.2)
Supermartingal
(1.3)
4
(13. Januar 2017) Zeitdiskrete Martingale
f.s. für alle s ≤ t ∈ T. Die Angabe der Filtration wird häufig weggelassen,
insbesondere wenn immer dieselbe Filtration benutzt wird.
X ist Supermartingal genau dann, wenn −X ein Submartingal ist. Ein
Prozess ist ein Martingal genau dann, wenn er gleichzeitig ein Sub- und ein
Supermartingal ist.
Man unterscheidet zwischen diskreter Zeit, T ⊂ ZZ und stetiger Zeit anderenfalls. Die wesentliche mathematische Argumentationslinie ist ersichtlich
für T ⊂ IN. Daher, ein Standardmartingal (Sub-,Super-) ist ein Martingal
(Sub-,Super-) mit Zeitparameter T = IN0 , X0 = E(X1 ) und A0 die triviale σ-Algebra {∅, Ω}.
Ist T endlich oder in den natürlichen Zahlen enthalten und X ein Martingal
dazu, so können wir X einbetten in ein Standardmartingal Y. Dies geschieht
durch Yn = Xm mit m das Maximum der t ∈ T mit t ≤ n oder t das kleinste
Elment in T. Ebenso verfahre mit der Filtration. Resultate für das Standardmartingal übertragen sich dann auf das Originalmartingal. Ist T nicht von
obiger Struktur, so geschieht die Zurückführung auf Standardmartingalargumente in der Regel via Stoppzeiten. Dies ist eher technischer Natur und wir
überschlagen es hier.
Die Martingaleigenschaft (1.1) bzw. die Submartingal- bzw. Supermartingaleigenschaft ist im Standardfalle äquivalent zu
Xn = E(Xn+1 | Fn )
(1.4)
bzw. ≤, ≥ für alle n ≥ 1. Verwende zum Beweis die Projektionseigenschaft
E(Xn+2 | Fn ) = E(E(Xn+2 | Fn+1 ) | Fn ) = E(Xn+1 | Fn ) = Xn .
1.0.1
Meine Martingalfavoriten
Wir verwenden stets IN0 als Zeitparameter.
Beispiele 1 (Irrfahrt) Seien Xn , n ∈ IN, unabhängig, identisch verteilte,
Pn
integrierbare Zufallsgrößen, Sn =
i=1 Xi die n-te Partialsumme. Dann ist
(Mn )n
Mn := Sn − nEX1
ein Standardmartingal bezüglich der natürlichen Filtration Fn = σ(S1 , . . . , Sn ) =
σ(X1 , . . . , Xn ).
E(Mn+1 | Fn ) = Mn + E(Xn+1 − EX1 | Fn ) = Mn .
(13. Januar 2017)
5
Beispiele 2 (Exponentielle Martingale) Seien Xn , n ∈ IN, unabhängig,
identisch verteilte Zufallsgrößen mit Sn die n-te Partialsumme. Definiere
Mn (λ) := exp(λSn )/Φn (λ)
mit Φ(λ) := EeλX1 , λ ∈ IR. Die Folge (Mn (λ))n ist ein Standardmartingal
bzgl. der natürlichen Filtration wie eben.
Beispiele 3 (Reguläre Martingale) Sei F eine Filtration und X eine integrierbare Zufallsvariable. Dann ist Mn := E(X | Fn ) ein Martingal in n.
E(Mn+1 | Fn ) = E(E(X | Fn+1 ) | Fn ) = E(X | Fn ) = Mn .
Später werden wir sehen, daß genau die L1 -konvergenten Martingale so darstellbar sind.
Beispiele 4 ( Das Martingal) In einem Kasino spielt ein Spieler die Verdoppelungsstrategie, in Spielerkreisen auch als Martingalstrategie bekannt. Der
Spieler startet mit einem Einsatz von einem Chip auf einfache Chance (rotschwarz oder gerade-ungerade) im ersten Spiel. Verliert er, so verdoppelt er
seinen vorherigen Einsatz im nächsten Spiel. Gewinnt er irgendwann einmal,
so hört er auf. Zu diesem Zeitpunkt n hat er −1 − 2 − 4 − 8 − . . . − 2n−1 Einheiten verloren und gewinnt im n-ten Spiel 2n Einheiten. Insgesamt hat er eine
Einheit gewonnen. Da er fast sicher irgendwann einmal gewinnt, erscheint dies
als eine sichere Strategie.
Mathematisches Modell: Seien Yn , n ∈ IN uiv Zg mit Werten in {1, −1}
Pn
und p = P (Y = 1) im offenen Einheitsintervall (0, 1). Sei Sn = i=1 2i−1 Yi .
Yi = 1 wird interpretiert als Gewinn im i-ten Spiel, Sn als Kapital nach dem
n-ten Spiel bei Anfangskapital 0, sofern der Spieler das n-te Spiel gespielt hat.
Sn ist ein Martingal im Fall p = 1/2, ein Supermartingal im Fall p < 1/2
und anderenfalls ein Submartingal. Sei τ der erste Wert m mit Ym = 1. Auf
der Menge n < τ ist Sn der Gewinn (negative Werte bedeuten Verlust) bis
einschliesslich des n-ten Spieles. Da τ fast sicher endlich ist, gilt Sτ = 1. Zu
dem Zeitpunkt kann er das Kasino mit einer Einheit Gewinn verlassen.
Beispiele 5 (Likelihoodquotient für Münzwurf ) Seien X1 , X2 , . . . uiv Zgn
mit diskreter Verteilung P = (p(x))x∈E . Sei Q = (q(x))x∈E ein anderes W-maß.
Dann ist
n
Y
q(Xi )
Mn :=
,
p(X
i)
i=1
p(x) > 0 für alle x vorausgesetzt, ein Martingal bezüglich dem W-mas̈ P und
der natürlichen Filtration
q(Xn+1 )
E(Mn+1 | Fn ) = Mn E(
| Fn ) = M n .
p(Xn+1 )
6
(13. Januar 2017) Zeitdiskrete Martingale
Dieses Beispiel hat Anwendung in der Statistik. Wir wollen entscheiden, ob
die Zgn X1 , X2 , . . . , Xn eine Verteilung P oder Q haben, P, Q bekannt. Dazu
betrachten wir die Teststatistik Mn : IRn 7→ IR wie oben. ln Mn ist eine Summe von uiv Zgn. Nach dem starken Gesetz der Großen Zahl, anwendbar falls
P
q(Xi )
q(x)
q(Xi )
E| ln p(X
| < ∞ gilt, konvergiert n1 ln Mn gegen EP (ln p(X
) = x ln p(x)
p(x)
i)
i)
P
q(x)
q(Xi )
unter P bzw. gegen EQ (ln p(Xi ) ) = x ln p(x) q(x) unter Q. Sind diese Grenzwerte verschieden, so können wir P und Q unterscheiden. Die Grenzwerte sind
verschieden für P 6= Q, da nach Jensen gilt
EP ln
EQ ln
q(Xi )
q(Xi )
< ln EP
=0
p(Xi )
p(Xi )
p(Xi )
p(Xi )
q(Xi )
= EQ (− ln
) > − ln EQ
= 0.
p(Xi )
q(Xi )
q(Xi )
In der sequentiellen Statistik trifft man bereits eine Entscheidung, wenn ln Mn
gewisse Schranken überschreitet. Damit erreicht man gute Entscheidungen bei
möglichst wenig Beobachtungen.
Beispiele 6 (Radon-Nikodym Ableitung) Seien Q, P zwei W-Maße. Eine
(meßbare) Partition φ von Ω ist eine disjunkte Zerlegung von Ω in (meßbare)
S
Mengen. (φ ⊂ Pot(Ω), ◦ A∈φ A = Ω.) Eine Partition φ1 ist feiner als φ2 ,
geschrieben φ1 φ2 , falls jedes A ∈ φ1 in einem B ∈ φ2 enthalten ist.
Sei φ1 φ2 φ3 ... eine Folge von verfeinerten, meßbaren Partitionen.
Definiere
X Q(A)
Mn :=
1A
P (A)
A∈φn
n ∈ IN. Der Einfachheit nehmen wir stets P (B) > 0 an. Dann ist M = (Mn )n
ein Martingal bezüglich P und der Filtration Fn erzeugt von der Partition φn .
EP (Mn+1 | Fn )
=
X
A∈φn+1
=
Q(A)
EP (1A | Fn )
P (A)
X
X
Q(A)
EP (1A | Fn )
P (A)
X
X
Q(A)
11B P (A | B)
P (A)
X
X
Q(A)
11B
P (B)
B∈φn B⊃A∈φn+1
=
B∈φn B⊃A∈φn+1
=
B∈φn B⊃A∈φn+1
=
X Q(B)
11B = Mn
P (B)
B∈φn
(13. Januar 2017)
7
Beispiele 7 (Polya Urnen Modell) Gegeben sei eine Urne mit S schwarzen
und W weißen Bällen. Es wird zufällig mit Gleichverteilung ein Ball gezogen.
Dann werden insgesamt c ∈ {−1, 0, 1, . . .} Bälle dieser gezogenen Farbe zurückgelegt. Kein Ball wird zurückgelegt entspricht c = −1, der gezogene Ball wird
zurückgelegt entspricht c = 0 usw..
Sei Sn , Wn , n ∈ IN, die Anzahl der schwarzen bzw. weißen Kugeln nach der
n-ten Ziehung einschließlich eventuellem Zurücklegen. Dann ist
Mn =
Sn
Wn + S n
ein Martingal bezüglich der natürlichen Filtration. (Für c = −1 müssen wir
nach W + S Ziehungen stoppen, da kein Ball mehr in der Urne ist.) Mn ist die
bedingte Wahrscheinlichkeit, daß bei der nächsten (= n + 1-ten) Ziehung eine
schwarze Kugel gezogen wird, bedingt auf der Kenntnis der bisher gezogenen
Kugeln.
Mathematisches Modell: Sei Xn die Farbe, kodiert als 1 für ’schwarz’
und 0 für ’weiß’, der gezogenen Kugel in der n-ten Ziehung. Die Filtration ist
Pn
Fn = σ(X1 , . . . , Xn ). Die Zg Mn schreibt sich als, Zn := i=1 Xi ,
Mn = P (Xn+1 = 1 | An ) =
S + cZn
.
W + S + nc
Mn ist ein Martingal, da
E(Mn+1 | Fn )
=
=
S + cZn + cE(Xn+1 | Fn )
W + S + (n + 1)c
n
S + cZn + c WS+cZ
+S+nc
W + S + (n + 1)c
= . . . = Mn .
Das Polya Urnen Modell läßt sich auch für c ∈ [−1, ∞) spielen. Es werden
stets ⌊c⌋ Bälle der gezogenen Farbe zurückgelegt und, abhängig von einem
unabhängigen Bernoullizufallsexperiment zum Parameter c − ⌊c⌋, eine weitere
der Farbe.
Beispiele 8 (Verzweigungsprozesse) Historischer Ausgangspunkt für die
Verzweigungsprozesse war die Genealogie, insbesondere die Überlebenswahrscheinlichkeit eines Familiennamens. Als Nachkommen (Kinder) zählen wir hier
nur die männlichen Nachkommen, die den Familiennamen tragen und weitergeben können. Die Anzahl dieser Nachkommen sei unabhängig mit stets gleicher
Verteilung. Uns interessiert die Größe der n-ten Generation.
8
(13. Januar 2017) Zeitdiskrete Martingale
Mathematisches Modell: Seien Xi,j , i, j ∈ IN0 , uiv Zgn mit Werten in IN0 ,
0 < E(X• ) =: m < ∞. Der Bienayme-Galton-Watson (BGW) Prozess Z wird
rekursiv definiert durch Z0 = 1,
Zn+1 =
Zn
X
Xn,j .
j=1
Zn
Dann ist ( m
n )n ein Martingal bezüglich der Filtration Fn = σ(Xi,j , i < n, j ∈
IN, ) (oder auch der natürlichen Filtration).
Die Größe Xn,j gibt die Anzahl der Nachkommen des j-ten Individuums
der n-ten Generation an. Zn entspricht der Anzahl der Namensvertreter in der
n-ten Generation. Ein ’typischer’ Stammbaum sieht etwa folgendermaßen aus:
✏
✏✏
✑
✑
✑
✰
s✑
11
✁❆
✁ ❆
✁
❆
☛✁
❯s
s✁
s❄ ❆❆
✑
✮
s✏
1✏
✑◗
◗
✑
◗
s❄
12
✏
✏✏
✏
✏✏
s
✏ ✏PPP
s❄
2
◗
◗
◗
s
◗s13
✁❆
✁ ❆
✁
❆
s✁☛✁ s❄ ❆❆❯s
s❄
PP
PP
PP
PP
Pq
Ps 3
❅
s✠
31
✁❆
✁ ❆
✁
❆
❆❆❯s312
s✁☛✁
Beispiele 9 (Gewichteter Verzweigungsprozess) Jedes Individuum eines
Verzweigungsprozesses trägt zusätzlich ein zufälliges Gewicht. Dies ist das Gewicht der Mutter multipliziert mit einer Zufallsgröße.
Mathematisches Modell: Wir betrachten einen gerichteten Graphen (V, E).
Die Knotenmenge ist
V :=
∞
[
IN n ,
IN 0 := {∅}.
n=0
Wir benutzen für v = (v1 , ..., vn ) ∈ V die Notation vi = (v1 , ..., vn , i) und |v| =
n, |∅| = 0, v|m = (v1 , . . . , vm ). (Die Kanten e ∈ E sind die Tupel e = (v, vi).)
Seien T (v) : Ω → IRIN , v ∈ V , uiv Zgn. Beachte für festes v können
die Koordinaten T1 (v), T2 (v), . . . voneinander abhängig sein. Definiere rekursiv
L(v) : Ω 7→ IR durch L(∅) = 1 und
L(v, i) = L(v)Ti (v).
❅
❅
❅
❘
❅s32
✁❆
✁ ❆
❆
✁
❆❆❯s
s✁☛✁
(13. Januar 2017)
9
Hieraus ergibt sich die Produktdarstellung
L(v) =
n
Y
Tvi (v|i−1 ) = Tv1 (∅)Tv2 (v1 )...Tvn (v1 , . . . , vn−1 ).
i=1
Sei Zn =
P
{v||v|=n}
L(v). Dann ist für m 6= 0
Wn :=
Zn
,
mn
P
0 6= m := E i Ti (.) wohldefiniert, ein Martingal.
V gibt eine natürliche Indizierung des Baumes mit unendlich vielen Ästen.
Die Größen L(v) geben das Gewicht des Individuums v an. Der BGW-Verzweigungsprozess
ist ein Spezialfall mit L(v) = 1 oder L(v) = 0. In der Zeichnung haben wir Individuen mit Gewicht Null weggelassen.
Beispiele 10 (Zufällige Cantormengen) Als spezielles Beispiel für einen
gewichteten Verzweigungsprozeß betrachten wir die Hausdorffdimension von
zufälligen Cantormengen.
Eine (die) Cantormenge wird folgendermaßen konstruiert: Aus dem Einheitsintervall entferne das mittlere Drittel. Aus den verbliebenen Intervallen
entferne ebenfalls das mittlere Drittel usw.
t0
r
r
♣ ♣ ♣ ♣
♣♣♣♣ ♣♣♣♣
ta
r
r
♣ ♣ ♣ ♣
♣♣♣♣ ♣♣♣♣
Cantorset Cantorset Can
tb
r
r
♣ ♣ ♣ ♣
♣♣♣♣ ♣♣♣♣
t1
r
r
♣ ♣ ♣ ♣
♣♣♣♣ ♣♣♣♣
Cantorset Cantorset Can
Es bleibt eine Menge C übrig, genannt die Cantormenge.
Wir wollen diese Konstruktion nun zufällig machen. Anstelle von 1/3, 2/3
wählen wir zufällig, aber zu gegebener Verteilung, zwei (oder auch mehrere)
Punkte aus und entfernen das mittlere (einige) Intervall. Für jedes verbleibende
Intervall wiederholen wir diese Prozedur auf kleinerer Skala unabhängig, aber
mit derselben Verteilung. Die übrigbleibende Menge C = C(ω) ist eine zufällige
Cantormenge.
Wir denken uns die Prozedur als Baum dargestellt wie oben mit der natürlichen Indizierung durch V. Sei L(v) die Länge des Intervalls v. Die Faktoren
T1 (v), T2 (v), .. geben die jeweilige relative Länge der verbleibenden Intervalle
bei Aufspaltung des Intervalls v. Für die deterministische Cantormenge gilt
T1 (.) ≡ 1/3 = T2 (.), T3 = 0 = T4 = ...
10
(13. Januar 2017) Zeitdiskrete Martingale
t0
t1 − T2 (∅)
tT1 (∅)
t1
Als nächstes klären wir den Zusammenhang zur Hausdorffdimension und
Hausdorffmaß.
Sei A eine beliebige Menge in IR (metrischer Raum). Eine offene δ- Überdeckung von A ist eine Familie Un , n ∈ IN , von offenen Mengen mit DurchS
messer diam(Un ) < δ, die A überdeckt (A ⊂ n Un ). Für α > 0, δ > 0,
P
sei Hδα (A) = inf{ n diamα (Un )}, das Infimum über alle δ-Überdeckungen
genommen. Das α-Hausdorffmaß von A ist: Hα (A) = limδ→0 Hδα (A). Das αHausdorffmaß Hα kann den Wert unendlich annehmen. Die Hausdorffdimension
ist das kleinste α mit endlicher α-Hausdorffdimension,
H(A) = inf{α|Hα (A) < ∞}.
Für unsere zufälligen Cantormengen bietet sich als Überdeckung die n-te
Generation an (modifiziert zur offenen δ-Überdeckung!). Der Wert
Sn(α) :=
X
Lα (v)
|v|=n
ist eine erste Annäherung (im Grenzwert exakt) an das α-Hausdorfmaß.
Eine besondere Rolle spielt der Wert α mit E(T1α +T2α ) = 2. Für α <(=,>) α
(α)
ist Sn ein Submartingal (Martingal, Supermartingal). Der Wert α ist (f.s.) die
Hausdorffdimension einer zufälligen Cantormengen C, falls C nicht die Null(α)
menge ist. Der Grenzwert limn→∞ Sn ist das α-Hausdorff-Maß der zufälligen
Cantormenge.
Dieses Ergebnis läßt sich auch auf die Cantormenge selbst anwenden. Die
Zven T. sind deterministisch (1/3, 2/3). Die Hausdorff-Dimension α = ln 2/ ln 3
α
α
erhält man durch Lösen der Gleichung 13 + 13 = 1 nach α.
Beispiele 11 (Aktien) Der Aktienkurs Xn wird gerne als Martingal modelliert. Ein Händler kauft am n-ten Tag Cn Aktien. Am folgenden Tag hat er den
Wert Cn (Xn+1 − Xn ) dazugewonnen. Der Prozess
Mn :=
n−1
X
Ci (Xi+1 − Xi )
i=1
ist ein Martingal, vorausgesetzt jede Handelsentscheidung Cn ist Fn -meßbar.
(Dies ist die mathematische Formulierung für keine Insiderinformation.)
(13. Januar 2017)
11
Beispiele 12 (Spielhäuser) Ein Spieler geht in ein Kasino mit mehrfachem
Spielangebot wie z.B. Roulette und Black Jack. Zur Einfachheit sei die Zeit
getaktet. Zu Beginn jeden Zeittaktes kann der Spieler frei ein Spiel auswählen
und es einmal zu erlaubtem Einsatz spielen. Dieser Vorgang einschießlich Auszahlung wird in einem Zeittakt abgeschlossen. Sei Kn das Spielerkapital zum
n-ten Zeitpunkt.
Der Spieler möchte seinen Gewinn KN nach genau N Zeittakten maximieren, z.B im Sinne vom Erwartungswert, oder der Wahrscheinlichkeit mindestens einen bestimmten Betrag zu haben. Welche Strategie, d.h. Auswahl der
Teilspiele, ist die beste? Dieses Problem, behandelt in Dubins-Savage, How to
gamble if you must, führt auf die Konstruktion spezieller Martingale. In der
Sektion über optimales Stoppen behandeln wir den Spezialfall mit nur zwei
Optionen, weiterspielen oder stoppen.
12
(13. Januar 2017) Zeitdiskrete Martingale
2 Martingaltransformierte
Unser Grundraum ist ein filtrierter W-raum (Ω, A, F, P ) mit einer Filtration F = (Fn )n∈IN0 . Alle betrachteten Prozesse X = (Xn )n∈IN0 sind adaptiert
und integrierbar. Mit M= , M≤ , M≥ bezeichnen wir die Menge der Martingale (Sub-, Super-) mit Zeitparameter IN0 zur Filtration F. Da die Filtration
meistens als fest angenommen wird und sich nicht verändert, wird sie in Formulierungen häufig weggelassen. Zum Beispiel, ist X ein Submartingal, so ist
−X) ein Supermartingal (zu derselben Filtration).
Wir betrachten und formulieren Resultate meistens für Submartingale, entsprechendes gilt dann für Supermartingale.
2.0.2
Filtrationwechsel
Für einen Wechsel in eine Subfiltration gilt:
Proposition 13 Sei (X, F) ein Martingal (Sub-, Super-). Sei X adaptiert zu
einer Unterfiltration B = (Bn )n mit Bn ⊂ Fn . Dann ist (X, B) ein Martingal
(Super-, Sub-).
Beweis: Für B ∈ Bn gilt
Z
Z
Z
Z
E(Xn+1 | Bn ) =
Xn+1 =
E(Xn+1 | Fn ) =≥,≤
Xn
B
B
B
und damit E(Xn+1 | Bn ) =≥,≤ Xn .
2.0.3
B
q.e.d.
Raumtransformationen
Eine lineare Raumtransformation auf den reellen Zahlen beläßt ein Martingal
als ein Martingal und ein Submartingal, wird je nach Vorzeichen der Steigung,
zum Sub- oder Supermartingal. Bei konvexen Funktionen hilft der Satz von
Jensen.
13
14
(13. Januar 2017) Martingaltransformierte
Eine Funktion ϕ : I 7→ IR ∪ {∞} mit I ein Intervall heis̈t konvex , falls für
alle x 6= y ∈ I, t ∈ (0, 1) und tx + (1 − t)y ∈ I gilt
ϕ(tx + (1 − t)y) ≤ tϕ(x) + (1 − t)ϕ(y).
Sie heis̈t strikt konvex, falls in obiger Ungleichung stets < gilt.
Eine Funktion ϕ : IR → IR ∪ {−∞} heis̈t (strikt) konkav genau dann,
wenn −ϕ (strikt) konvex ist.
i) Im Inneren von I ist eine konvexe Funktion ϕ ist stetig und es existieren
die linksseitige Ableitung ϕ− und die rechtsseitige Ableitung ϕ+ . Beide sind
aufsteigend und ϕ− ≤ ϕ+ und verschieden an höchstens abz ählbar vielen
Punkten.
Satz 14 (Jensen Ungleichung) Sei X eine integrierbare Zg, B ⊂ A eine
Unter-σ-Algebra und ϕ eine konvexe Funktion mit ϕ(X) wohldefiniert und integrierbar. Dann gilt
ϕ(E(X | B)) ≤ E(ϕ(X) | B)
Gleichheit gilt genau dann, wenn ϕ linear ist auf einer Menge D mit P (X ∈
D) = 1.
Als Merkregel: Falscher Effee Eϕ ≥ ϕE (wie für die Jensensche Ungleichung).
Lemma 15 Sei M ein Martingal und ϕ eine konvexe (konkave) Funktion mit
ϕ(Mn ) integrierbar für jedes n. Dann ist ϕ(M ) = (ϕ(Mn ))n ein Submartingal
bzgl. derselben Filtration.
Sei X ein Submartingal. Sei ϕ eine aufsteigende konvexe Funktion und
ϕ(Xn ) integrierbar für jedes n. Dann ist ϕ(X) ein Submartingal.
Sei X ein Supermartingal. Sei ϕ eine absteigende konvexe Funktion und
ϕ(Xn ) integrierbar für jedes n. Dann ist ϕ(X) ein Submartingal.
Beweis: Für ein Martingal M und ϕ konvex gilt
E(ϕ(Mn+1 ) | An ) ≥ ϕ(E(Mn+1 | An )) = ϕ(Mn )
Für ein Submartingal X und ϕ konvex aufsteigend gilt
E(ϕ(Xn+1 ) | An ) ≥ ϕ(E(Xn+1 | An )) ≥ ϕ(Xn )
Für ein Supermartingal X und ϕ konvex absteigend gilt ebenfalls die obige
Zeile.
q.e.d.
Das obige Lemma sieht nach einem Symmetriebruch bzgl. Sub- und Supermartingalen aus. Dies ist nicht der Fall. Gewisse Symmetrie erhalten wir, wenn
wir eine konvexe Funktion ϕ durch die konkave Funktion −ϕ ersetzen.
X ∈ M≤ , ϕ konkav ↓⇒ ϕ(X) ∈ M≥
(13. Januar 2017)
15
X ∈ M≥ , ϕ konkav ↑⇒ ϕ(X) ∈ M≥
Notation: Der Positivteil einer Funktion f is f + = f ∨ 0 und der Negativteil
f = (−f ) ∨ 0. Beachte f − ist positiv und f = f + − f , |f | = f + + f − .
Beispiele: i) Für ein Martingal M sind M + := (Mn+ )n und M − = (Mn− )n
Submartingale zur gleichen Filtration. Für jedes p ≥ 1 ist |M |p = (|Mn |p )n
und für jedes λ ≥ 0 ist eλM ein Submartingal.
ii) Ist X ein Submartingal, so auch X + und eλX für positive λ. Jedoch X −
ist im allgemeinen weder ein Sub- noch ein Supermartingal.
iii) Ist X ein Supermartingal, so sind X − und eλX für λ ≤ 0 Submartingale.
+
X ist im allgemeinen weder ein Sub- noch ein Supermartingal.
Auch wenn der Positivteil bzw. Negativteil keine schöne Martingaleigenschaft besitzt, läst sich das erste absolute Momente gut abschätzen.
−
Proposition 16 Für ein Submartingal X gilt
2EXn− + x0 ≤ E|Xn | ≤ 2EXn+ − x0
und für ein Supermartingal
2EXn+ − x0 ≤ E|Xn | ≤ 2EXn− + x0 .
Beweis: Die erste Abschätzung erhalten wir aus x0 ≤ EXn = EXn+ − EXn−
und E|Xn | = EXn+ + EXn− durch einsetzen. Die zweite folgt analog.
q.e.d.
2.0.4
Raum der Martingale
Durch Addition, Supremumsbildung, Infimumsbildung und Anwendung konvexer Funktionen lassen sich weitere (Super–, Sub–) Martingale erzeugen.
Lemma 17 i) Der Raum M= der Martingale ist ein reeller Vektorraum.
ii) Der Raum M≤ (M≥ ) der Submartingale (Super-) ist abgeschlossen
bezüglich Addition, Multiplikation mit positiver Konstanten und dem endlichen
Supremum (Infimum).
Beweis: Leicht nachzurechnen.
2.0.5
q.e.d.
Doob Zerlegung
Ein vorhersehbarer Prozeß zu einer Filtration F = (Fn )n∈IN0 ist ein adaptierter Prozeß X = (Xn+1 )n∈IN0 . Dies ist zu verstehen mit Xn+1 ist Fn meßbar
für alle n ∈ IN0 . Aus schreibtechnischen Gründen wird manchmal X0 := X1
mit hinzugenommen.
16
(13. Januar 2017) Martingaltransformierte
Lemma 18 (Doob Zerlegung) Sei X ein Submartingal (Super-). Dann existiert genau ein Martingal M und genau ein vorhersehbarer, monoton aufsteigender (absteigender) Prozeß A mit A0 ≡ 0 und
Xn = Mn + An .
Der Prozess A wird rekursiv gegeben durch
An+1 = An + E(Xn+1 | An ) − Xn .
Beweis: • An wie oben definiert tut’s.
An ist wohldefiniert, monoton steigend (fallend) und vorhersehbar.
Eine Rechnung zeigt die Martingaleigenschaft von Mn := Xn − An ,
E(Mn+1 | Fn ) = E(Xn+1 −An+1 | Fn ) = E(Xn+1 | Fn )−An+1 −Xn +Xn = −An +Xn = Mn .
• Eindeutigkeit.
Sei Xn = M n +An eine zweite Zerlegung mit den obigen Eigenschaften. Wir
zeigen durch Induktion nach n M n = Mn und An = An . Der Induktionsanfang
ist leicht. Wir zeigen den Schritt n → n + 1.
• An+1 = An+1 .
An+1
=
E(An+1 | Fn ) = E(Xn+1 − M n+1 | Fn )
=
E(Xn+1 | Fn ) − M n = E(Xn+1 | Fn ) − Mn
=
E(Xn+1 − Mn+1 | Fn ) = E(An+1 | Fn ) = An+1
Hieraus folgt sofort Mn+1 = M n+1 .
2.1
q.e.d.
Martingaldifferenzfolgen
Eine Martingaldifferenzfolge (Sup-, Super-) zu einer Filtration F ist eine Folge D = (Dn )n∈IN von adaptierten und integrierbaren Zgn mit 0 =≤,≥
E(Dn | Fn−1 ), n ∈ IN. Wir verwenden die Kurznotation D = (Dn )n .
Jede Martingaldifferenzfolge (Sup-Super-) D zur Filtration F liefert via
Xn =
n
X
Di + X0
(2.1)
i=0
ein Martingal, (Sub-, Super-) bzgl. derselben Filtration. Umgekehrt, sei X ein
Martingal (Sup-,Super-), so ist die Differenzfolge Dn := Xn − Xn−1 , n ∈ IN
eine Martingaldifferenzfolge zur selben Filtration und es gilt (2.1). Wir sprechen
von der Martingaldifferenzfolge D (Sub-, Super-) des Martingals (Sub-, Super-)
X.
2.1. Martingaldifferenzfolgen (13. Januar 2017)
17
Satz 19 Sei die Filtration F und eine reelle Zahl x vorgegeben. Es gibt eine bijektive Abbildung zwischen Martingaldifferenzfolgen (Sub-, Super-) D und
Martingalen (Sub-, Super-) mit Anfangswert x jeweils zur Filtration F. Diese
kann gegeben werden durch
Xn =
n
X
Di + x.
i=1
Beweis: Leicht.
2.1.1
q.e.d.
Transformierte durch vorhersehbare Prozesse
Die Martingaltransformierte eines Martingals (Sub-, Super-) X zu einem
vorhersehbaren Prozeß C = (Cn )n∈IN ist der Prozess X C
XnC :=
n
X
C i Di + X0
i=1
n ∈ IN0 . Hierbei ist Dn := Xn − Xn−1 die zugehörige Martingaldifferenzfolge.
Einige Autoren benutzen die Notation C · X bzw. C ∗ X für X C .
Für reellwertige Funktionen f, g (oder Vektoren) benutzen wir (f g)(x) :=
f (x)g(x).
Satz 20 Sei M ein Martingal und C vorhersehbar. Ist CD integrierbar, so ist
die Martingaltransformierte M C ein Martingal.
Sei X ein Submartingal (Super-) und sei C vorhersehbar und positiv. Falls
CD integrierbar ist, so ist die Martingaltransformierte X C ein Submartingal
(Super-).
Beweis: Die Martingaltransformierte M C ist adaptiert zur Filtration und integrierbar, da die einzelnen Terme Ci Di Fi meßbar und integrierbar sind.
Die Martingaleigenschaft wird nachgerechnet
C
E(Mn+1
| Fn ) = E(
n+1
X
Ci Di + M0 | Fn ) = MnC + Cn+1 E(Dn+1 | Fn ) = MnC .
i=1
Eine analoge Argumentation hält für Sub- und Supermartingale.
q.e.d.
Korollar 21 Sei M ein Martingal und C ein vorhersehbarer Prozess mit CD
integrierbar. Dann ist der Erwartungswert der Martingaltransformierten eine
Konstante.
Sei X ein Submartingal (Super-) und C ein positiver vorhersehbar Prozess
mit CD integrierbar. Dann ist der Erwartungswert EXnC monoton steigend
(fallend) in n.
18
(13. Januar 2017) Martingaltransformierte
Beweis: Wir zeigen nur den Martingalfall. Die anderen beiden Aussagen folgen
analog.
EMnC =
X
E(E(Ci Di | Fi−1 )) + M0 =
i≤n
X
E(Ci E(Di | Fi−1 )) + M0 = M0 .
i≤n
q.e.d.
Die punktweise Ordnung auf dem Raum der Prozesse ist die Ordnung
(Xt )t∈T (Yt )t∈T ⇔ Xt (ω) ≤ Yt (ω)
für alle t ∈ T, ω ∈ Ω.
Lemma 22 Sei X ein Submartingal (Super-) und A B zwei vorhersehbare
positive Prozesse. Sei D die Differenzfolge und AD, BD integrierbar. Dann
gilt für alle n ∈ IN0
EXnA ≤ (≥)EXnB .
Beweis: Der Induktionanfang X0A = X0 = X0B ist einfach. Für den Induktionsschritt n → n + 1 argumentiere
B
A
E(Xn+1
−Xn+1
| Fn ) = XnB −XnA +(Bn+1 −An+1 )E(Dn+1 | Fn ) ≥ (≤)XnB −XnA
Nehme auf beiden Seiten den Erwartungswert und verwende die Induktionshypothese.
q.e.d.
Kasinospieler: Ein Spieler spielt eine endliche Folge von (unabhängigen)
Spielen mit zufälligem Ausgang D1 , D2 , , . . . , DN in einem Spielkasino. Dabei
gebe Di die positive oder negative Auszahlung im i−ten Spiel bei Einsatz einer
Einheit ab. Der Spieler darf (=mus̈) den Einsatz Cn für das n−te Spiel vor dem
n-ten Spiel bestimmen. Üblicherweise einen positiven Einsatz und nicht mehr
als er besitzt. (Es sei denn, man handelt an der Börse.) Hierbei kennt der Spieler
die σ-Algebra der gesamten Vergangenheit bis vor dem n-ten Spiel. In der Regel
ist dies die kanonische σ-Algebra σ(D1 , . . . , Dn−1 ) = An−1 erzeugt von allen
Spielergebnisse bis zu diesem Zeitpunkt. Der von ihm gewählte Einsatz Cn ist
daher An−1 mes̈bar, die Folge (Cn ) ist vorhersehbar. Die Folge (Cn ) heis̈t auch
Strategie des Spielers.
Sei Kn sein Kapital nach dem n-ten Spiel, K0 ∈ IR+ sein Anfangskapital.
Nach dem n−ten Spiel beträgt sein Kapital KnC unter der Strategie C
KnC =
n
X
i=1
C i D i + K0 .
2.1. Martingaldifferenzfolgen (13. Januar 2017)
19
Der Spieler möchte möglichst viel gewinnen. Ein Kriterium wäre, den ErwarC
tungswert EKN
zu einem festgesetzten Zeitpunkt N zu maximieren. Mathematisch gesehen führt dies auf
C
sup EKN
C
über alle erlaubten Strategien C.
Faire Spiele: Alle Spiele Di seien fair, d.h.
E(Di | Ai−1 ) = 0.
Dann ist (KnC ) eine Martingaltransformierte zur Martingaldifferenz D und dem
vorhersehbaren Prozess C. Der Erwartungswert EKnC ist konstant K0 für jedes
n und jede Strategie C liefert (20)
EKnC = K0 .
Anders formuliert, alle Aktionen des Spielers haben keinen Einfluß auf sein
durchschnittlich erspieltes Kapital!
Bei fairen Spielen spielt der Spieler Dummy.
Nachteilige Spiele: Alle Spiele seien subfair (nachteilig) im Sinne
E(Dn | An−1 ) ≤ 0
aus Sicht des Spielers gesehen. Das Kapital KnC unter der gewählten Strategie
C ist jetzt ein Submartingal und das erwartete Kapital E(KnC ) nach der n-ten
Runde fällt in n. Mit der Erhöhung der Einsätze sinkt der Erwartungswert.
C
sollte der Spieler mit
Im Sinne der Erwartungswertmaximierung von EKN
möglichst geringen Einsätzen spielen. Der Einsatz stets Null entspricht garnicht
zu spielen. Selbst das Spielen einer einzigen Runde mit strikt positivem Einsatz
kann schon nachteilig für ihn sein.
Da dies ein Nullsummenspiel ist, was der eine verliert gewinnt der andere,
profitiert das Spielkasino und wird infolgedessen versuchen den Spieler zum
Spielen zu animieren.
Vorteilhafte Spiel: Alle Spiele seien superfair (vorteilhaft) im Sinne
E(Dn | An−1 ) ≥ 0
aus Sicht des Spielers gesehen. Das Kapital KnC unter der gewählten Strategie
C ist jetzt ein Supermartingal und das erwartete Kapital E(KnC ) nach der nten Runde steigt in n. Es steigt auch mit Erhöhung der Einsätze. Im Sinne der
20
(13. Januar 2017) Martingaltransformierte
C
Erwartungswertmaximierung von EKN
sollte der Spieler möglichst viel mit
gros̈en Einsätzen spielen, nämlich stets und alles einsetzen. (Dies führt auf das
Petersburger Spiel, auf unendliche Sicht gesehen geht man pleite.)
Für das Spielkasino sind solche Spiele nachteilig, aber trotzdem gibt es
solche tatsächlich im Spielkasino [?]. Mehr hierzu in dem Kapitel über Kasinospiele.
Verschiedene Spiele: Und was macht der Spieler, wenn es Spiele Di gibt,
die nachteilig sind und solche die vorteilhaft sind? Er sucht sich die für ihn
vorteilhaften aus. Bei diesen setzt er möglichst viel (=alles), bei den anderen
möglichst wenig (=nichts). Es reicht ihm, nur bei strikt vorteilhaften Spielen
(EDi > 0) alles zu setzen.
2.2
Stoppzeiten
Wir betrachten Stoppzeiten und Zeittransformationen durch eine Folge von
Stoppzeiten. Stoppzeit ist ein wesentlicher Begriff für stochastische Prozesse
und Wahrscheinlichkeitstheorie.
Eine Abbildung τ : Ω 7→ IN0 heißt Stoppzeit bzgl. der Filtration F, falls
für alle n ∈ IN0 gilt:
{τ ≤ n} ∈ Fn .
(2.2)
Wir benutzen in natürlicher Weise erweiterte bzw. beschränkte Stoppzeiten,
falls der Bildbereich erweitert (= N0 ) oder beschränkt ist. Ergibt sich die Filtration aus dem Kontext oder ist die kanonische Filtration eines bekannten
Prozesses gemeint, so entfällt die Angabe der Filtration. Standardmäı̈g verwenden wir F0 als triviale σ-Algebra und lassen {τ = 0} zu. (Dies impliziert
dann τ ≡ 0 oder τ > 0 f.s..) Stoppzeiten bezeichnen wir stets mit griechischen
Buchstaben wie τ oder σ.
Die konstante Abbildung ist eine Stoppzeit.
Proposition 23 Sei F eine Filtration und τ eine Stoppzeit dazu. Äquivalent
sind
i) τ ist eine erweiterte Stoppzeit.
ii) ∀n ∈ IN0 : {τ = n} ∈ Fn .
iii) ∀n ∈ IN0 : {τ > n} ∈ Fn .
Beweis: Einfach. i) ⇔ ii) Für die Hinrichtung benutze {τ = n} = {τ ≤ n}\{τ ≤
n − 1} ∈ Fn , da {τ ≤ n} ∈ Fn und {τ ≤ n − 1} ∈ Fn−1 ⊂ Fn gilt. Die
Sn
Rückrichtung ergibt sich aus {τ ≤ n} = i=0 {τ = i}.
ii) ⇔ iii) Dies ergibt sich aus {τ > n} = Ω\{τ ≤ n} ∈ Fn
q.e.d.
2.2. Stoppzeiten (13. Januar 2017)
21
Sei T = T (Ω, A, P, F)) die Menge der Stoppzeiten zu der vorgegebenen
Filtration F, T zu den erweiterten Stoppzeiten.
Proposition 24 Der Raum der Stoppzeiten T ist abgeschlossen bezüglich abzählbarem Infimum, endlichem Supremum und endlicher Summe. Der Raum der
erweiterten Stoppzeiten T ist abgeschlossen bezüglich abzählbarem Infimum,
abzählbarem Supremum und abzählbarer Summe.
Beweis: Sei τi , i ∈ IN eine abzählbare Folge von Stoppzeiten. Das abzählbare
Infimum bzw. Supremum erfüllt die Stoppzeiteigenschaft, da gilt
[
\
{inf τi ≤ n} = {τi ≤ n} ∈ Fn ,
{sup τi ≤ n} = {τi ≤ n} ∈ Fn .
i
i
i
i
Es verbleibt nachzuprüfen, unter welchen Bedingungen das Infimum oder Supremum wieder eine Stoppzeit oder erweiterte Stoppzeit im jeweiligen Raum
ist.
Die Summe von zwei Stoppzeiten τ1 , τ2 ist eine Stoppzeit wegen
{τ1 + τ2 ≤ n} =
n
X
({τ1 = i} ∩ {τ2 ≤ n − i}) ∈ Fn
i=0
für alle n. Für die abzählbare Summe argumentiere
X
X
{
τi ≤ n} = lim {
τi ≤ n} ∈ Fn .
i
N →∞
i≤N
q.e.d.
Warnung: Die Differenz von Stoppzeiten ist im allgemeinen keine Stoppzeit. (Übung mit τ − 1.)
Das Standardbeispiel einer erweiterten Stoppzeit für einen stochastischen
Prozess X mit Werten in (E, E) sind erste Eintrittszeiten (bzw. Austrittszeiten)
aus einer (meßbaren) Menge B ∈ E aus dem Zustandsraum
τB (ω) := inf{n : Xn (ω) ∈ B}
= inf{n : Xn (ω) 6∈ B}.
Wir benutzen die Konvention inf ∅ := ∞.
Heuristik: Eine Stoppzeit ist eine genaue Handlungsanweisung für jede
auftauchende Situation, die so genau definiert ist, dass ein Rechner diese ausführen
könnte. Diese Handlungsanweisung wird gegeben bevor die Situation eintritt.
Aktien: Wann sollte ein Spieler eine Aktie verkaufen? Dies ist ein Stoppproblem. Abhängig von der Information bis zum Zeitpunkt n, grob gesagt der
Historie der Aktienkurse Xm , m ≤ n bis zu diesem Zeitpunkt, entscheidet sich
der Spieler für halten oder abstoßen. Der Verkaufszeitpunkt ist eine Stoppzeit,
z.B. wenn der Wert Xn eine vorgegeben Schranke überschreitet.
22
(13. Januar 2017) Martingaltransformierte
2.2.1
Optional Sampling Theorem revisited
Sei (X, F) ein adaptierter Prozess und τ eine Stoppzeit bzgl. der gegebenen
Filtration. Der Prozeß
X τ := (Xn∧τ )n
(2.3)
mit a ∧ b = min{a, b}, (Xτ ∧n )(ω) := (Xn∧τ (ω) )(ω) heißt gestoppter Prozeß.
Der Prozess X τ läßt sich auch als transformierter Prozess XnC sehen bzgl.
dem vorhersehbaren Prozess C = (Cn )n definiert durch Cn := 11n≤τ . Der Ctransformierte Prozeß X C erfüllt
XnC =
n
X
i=1
Ci Di + x 0 =
n∧τ
X
Di + x0 = Xτ ∧n
i=1
mit Di = Xi − Xi−1 die Differenzen und xo = X0 .
Korollar 25 (Optional Sampling Theorem 2) Sei (X, F) ein Martingal
(Sub-, Super-) und τ eine erweiterte Stoppzeit. Dann ist ((Xτ ∧n )n , F) ein Martingal (Sub, Super-). Die Funktion
n 7→ E(Xτ ∧n )
ist eine konstante (aufsteigende, absteigende) Funktion.
Für Stoppzeiten τ ≤ σ und Submartingale (Super-) gilt
EXτ ∧n ≤≥ EXσ∧n
Beweis: Die erste Aussage folgt aus Theorem 21 mit der Darstellung Xτ ∧n =
q.e.d.
XnC . Die zweite aus der ersten und die dritte aus Lemma 22.
Kartenraten: Gegeben sei ein verdeckter Stapel gut gemischter Karten
mit je 26 roten und 26 schwarzen Karten, ein normales Bridgeblatt (Rommeeoder Canasta-). Der Spieler gewinnt genau dann, wenn er eine rote Karte richtig
vorhersagt nach folgender Prozedur:
• Falls er die oberste zugedeckte Karte als Rot “vorhersagen möchte, be”
kommt er sie. Ist es eine rote, hat der Spieler gewonnen, sonst verloren.
• Falls nicht wird die oberste Karte gezogen, gezeigt und beiseite gelegt.
Neustart mit dem Reststapel.
• Falls der Spieler keine Karte bis zur letzten wählt, bekommt er die letzte
zugewiesen.
2.2. Stoppzeiten (13. Januar 2017)
23
Gefragt wird nach einer Strategie (=Stoppzeit), die seine Gewinnwahrscheinlichkeit optimiert bzw. echt größer als 1/2 macht.
Heuristik: Wenn der Spieler die erste Karte vorhersagen möchte, hat er
eine Gewinnwahrscheinlichkeit von genau 21 . Dasselbe gilt für die letzte Karte
aus Symmetrie. Die letzte Karte bekommt er auch, falls er vorher keine Vorhersage machen wollte. Falls der Spieler also keine bessere Wahl vorher findet, so
kann er stets auf diese letzte Karte zurückgreifen. Was immer auch während der
Ziehphase geschieht, die letzte Karte wird während der Auswahlprozedur nicht
verändert und behält damit ihre Wahrscheinlichkeit von 1/2, rot zu sein. Der
Spieler kann folglich stets eine Gewinnwahrscheinlichkeit von 1/2 garantieren.
In einigen Fällen hat der Spieler aber eine bessere Auswahlmöglichkeit. Falls
nach gewisser Zeit, z.B. die erste Karte war schwarz, mehr schwarze Karten als
rote gezogen wurden, verbleiben in dem zugedeckten Stapel relativ mehr rote Karten als schwarze. Wenn der Spieler jetzt die oberste Karte wählt, ist die
Wahrscheinlichkeit einer roten Karte strikt größer als 1/2, genauer der Quotienten der Anzahl der roten Karten mit der Gesamtanzahl der noch verbliebenen
zugedeckten Karten. Falls sich keine dieser vorteilhaften Situationen ergibt,
kann der Spieler stets auf die letzte zur zückgreifen. Da günstige Situationen
wie oben beschrieben mit strikt positiver Wahrscheinlichkeit vorkommen, ist
die Gesamtwahrscheinlichkeit für eine richtige Vorhersage des Spielers strikt
größer als 1/2. (Diese Strategie ließe sich noch optimieren, aber wir sind zufrieden mit strikt größer als 1/2.)
Die Ergebnisse scheinen sich zu widersprechen. Oder gibt es hier ein Lücke
in der Argumentation? Wenn ja, welche?
Mathematische Lösung: Seien X1 , . . . , X52 Zgn mit Werten in {0, 1}. Die
Verteilung entspricht dem zufälligen Ziehen aus einer Urne mit 26 schwarzen
(=0) und 26 roten (=1) Karten ohne zurücklegen (Polya’s Urnenmodell mit
c = −1). Xi = 1 entspricht dem Ziehen einer roten Kugel in der i-ten Ziehung.
Sei
Yn := E(Xn+1 | Fn ),
Fn die kanonische σ-Algebra erzeugt von X1 , . . . , Xn . Die Zg Yn gibt die Wahrscheinlichkeit an, daß die nächste oberste verdeckte Karte rot ist, gegeben die
Kenntnis X1 , . . . , Xn der ersten n Karten.
Der Spieler wählt eine Stoppzeit τ (=Auswahlregel) und erhält die nächste
Karte mit Gewinnwert Xτ +1 . Sein erwarteter Gewinn ist EYτ . Der Spieler
versucht seinen erwarteten Gewinn zu maximieren durch Wahl einer optimalen
Stoppzeit, falls diese existiert. Er erhält supτ E(Yτ ).
Die Schlüsselbeobachtung ist, daß (Yn )51
n=0 ein Martingal ist.
E(Yn+1 | Fn ) = E(E(Xn+2 | Fn+1 ) | Fn ) = E(Xn+2 | Fn ) = Yn .
24
(13. Januar 2017) Martingaltransformierte
Nach dem Optional Sampling Theorem sind alle Stoppzeiten gleich gut, E(Yτ ) =
Y0 = 1/2. Die erwartete Gewinnwahrscheinlichkeit ist stets 1/2, unabhängig
von den Aktionen des Spielers, lieber Dummy.
Wo liegt der Pferdefuß in der heuristischen Argumentation? Er liegt im
Gebrauch von W-keiten und bedingten W-keiten. Es gilt stets Yn = E(Xi | Fn )
für i = n + 1, . . . , 52, da die verbleibenden Karten austauschbar sind. Die
nächste Karte gewinnt stets mit derselben W-keit wie die letzte, gegeben die
Vorinformation. Also kann ich gleich bei der letzten bleiben. Und wenn ich
Vorabinformationen über die ersten n Karten besitze, muß ich auch die bedingte
W-keit betrachten, das die letzte Karte gewinnt. Und diese ist nicht immer 1/2.
Wenn ich bis zur letzten nicht vorhergesagt habe und die letzte nehmen muss,
so ist die W-keit für eine rote 0 oder 1. Die letzte Karte ist zwar unverändert
durch die vorhergehende Prozedur, aber die bedingte W-keit, das die letzte
Karte rot ist, hat sich durch die Vorabinformation geändert, von 12 am Anfang
zu 0 oder 1.
σ-Algebra der τ -Vergangenheit*
Sei (Fn ) eine Filtration und τ eine erweiterte Stoppzeit. Das Mengensystem
Fτ := {A ∈ A | ∀n ∈ T : A ∩ {τ ≤ n} ∈ Fn }
heißt die σ-Algebra der τ -Vergangenheit. Wie der Name suggeriert, ist dies
eine σ−Algebra.
Proposition 26 Seien τ, σ erweiterte Stoppzeiten.
(i) Fτ ist eine σ-Algebra.
(ii) Für τ ≡ n gilt Fτ = Fn .
(iii) Für τ ≤ σ gilt Fτ ⊂ Fσ .
(iv) A ∈ Fτ ⇔ ∀n : A ∩ {τ = n} ∈ Fn
S
(v) Für jedes A ∈ Fτ gilt A = ◦ n (A ∩ {τ = n})
P
(vi) Für eine Stoppzeit τ gilt E(· | Fτ ) = i∈IN0 11τ =i E(· | Fi ).
(vii) Sei (X, F) ein Martingal (Sub-, Super-), σ eine beschränkte Stoppzeit. Es
gilt
E(Xσ | Fτ ) =(≥,≤) Xσ∧τ .
2.2. Stoppzeiten (13. Januar 2017)
25
Beweis: i) Fτ ist nicht leer und mit A ∈ Fτ gilt auch Ac ∈ Fτ wegen Ac ∩ {τ ≤
n} = {τ ≤ n}\(A ∩ {τ ≤ n}) ∈ Fn . Für Ai ∈ Fτ , i ∈ IN, gilt
[
[
( Ai ) ∩ {τ ≤ n} = (Ai ∩ {τ ≤ n}) ∈ Fn .
i
i
ii) Die Menge {τ ≤ i} ist leer oder ganz Ω.
iii) Für alle ω bis auf eine Nullmenge gilt τ (ω) ≤ σ(ω) und damit {σ ≤
n} ⊂ {τ ≤ n}. Für A ∈ Fτ gilt
A ∩ {σ ≤ n} = A ∩ {τ ≤ n} ∩{σ ≤ n} ∈ Fn .
{z
}
|
∈Fn
iv)v) Leicht.
vi) Für jedes A ∈ Fτ und integrierbare Zg Y gilt
Z
Z
XZ
XZ
Y =
11τ =i E(Y | Fi ).
11A∩(τ =i) Y =
E(Y | Fτ ) =
A
A
i
A
i
Beide Seiten sind Fτ meßbar. Damit sind die bedingten Erwartungen gleich.
P
P
vii) E(Xσ | Fτ ) = i 11τ =i E(Xσ | Fi ) =(≥,≤) i 11τ =i Xσ∧i = Xσ∧τ . Beide
Seiten sind Fτ meßbar und damit gleich.
q.e.d.
Satz 27 Sei (X, F) ein Martingal (Sub-, Super-) und τ eine Stoppzeit. Dann
ist, sofern integrierbar, Xτ +n , n ∈ IN0 ein Martingal (Sub-, Super-) bezüglich
(Fτ +n )n .
Beweis: Wir geben die Argumentation nur für ein Martingal.
X
X
E(Xτ +n+1 | Fτ +n ) =
11τ +n=j E(Xj+1 | Fj ) =
11τ +n=j Xj = Xτ +n .
j
j
q.e.d.
Korollar 28 Sei τ0 ≡ 0 und τm : Ω → {1, . . . , N }, m ∈ IN, eine aufsteigende
Folge von beschränkten Stoppzeiten bzgl. einer Filtration F und (X, F) ein
Martingal (Sub-, Super-). Dann ist (Xτm )m∈IN0 ein Martingal (Sub-, Super-)
bezüglich der Filtration (Fτm )m .
Beweis: Wir geben die Argumentation nur für ein Martingal. Der Prozess
(Xτ1 +n , Fτ1 +n )n∈IN0 ist ein Martingal. τ2 ist eine Stoppzeit bezüglich der Filtration (Fτ1 +n )n . Folglich ist durch erneute Anwendung von Satz (27) Xτ1 , Xτ2 , Xτ2 +1 , . . .
ein Martingal bezüglich Fτ1 , Fτ2 , Fτ2 +1 , . . . . Mit Induktion (Übung) erhalten
wir die Aussage.
q.e.d.
26
(13. Januar 2017) Martingaltransformierte
Warnung: Aus x0 = E(Xτ ∧n ) für alle n folgt im allgemeinen nicht x0 =
E(Xτ ), selbst für Martingale nicht. Das Martingal (verdoppeln des Einsatzes bis zum ersten Gewinn) ist ein Gegenbeispiel, Mτ ≡ 1 fast sicher, aber
E(Mτ ∧n ) = 0 mit τ die Stoppzeit zum ersten Mal die 1 zu erreichen.
Herunterladen