Martingaltheorie Vorlesungsmitschrift

Werbung
Martingaltheorie
Vorlesungsmitschrift
Professor Uwe Rösler
31. Januar 2017
Table of Contents
1 Zeitdiskrete Martingale
1.0.1 Meine Martingalfavoriten . . . . . . . . . . . . . . . . .
2 Martingaltransformierte
2.0.2 Filtrationwechsel . . . . . . . . . . . . . . . .
2.0.3 Raumtransformationen . . . . . . . . . . . . .
2.0.4 Raum der Martingale . . . . . . . . . . . . .
2.0.5 Doob Zerlegung . . . . . . . . . . . . . . . . .
2.1 Martingaldifferenzfolgen . . . . . . . . . . . . . . . .
2.1.1 Transformierte durch vorhersehbare Prozesse
2.2 Stoppzeiten . . . . . . . . . . . . . . . . . . . . . . .
2.2.1 Optional Sampling Theorem revisited . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
4
.
.
.
.
.
.
.
.
13
13
13
15
15
16
17
20
22
3 Fast sichere Konvergenz
3.1 Doob Upcrossing Lemma . . . . . . . . . . . . . . . . . . .
3.1.1 Fast sichere Konvergenz . . . . . . . . . . . . . . . .
3.2 Klassische Resultate zur fast sicheren Martingalkonvergenz.
3.2.1 Kolmogoroff drei Reihen Satz* . . . . . . . . . . . .
.
.
.
.
.
.
.
.
27
27
30
30
32
4 L1 −Martingale
4.1 L1 −konvergente Martingale .
4.1.1 Zeitabschluss . . . . .
4.1.2 Regulaere Stoppzeiten
4.1.3 Diverses . . . . . . . .
.
.
.
.
.
.
.
.
37
38
39
41
44
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5 Rückwärtsmartingale
45
6 Quadratintegrierbare Martingale
47
1
2
(31. Januar 2017) Table of Contents
7 Exponentielle Martingale
7.1 Irrfahrt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2 Exponentielle Martingale . . . . . . . . . . . . . . . . . . . . .
49
49
49
8 Konvergenz und Topologie
8.1 Konvergenz von W-maßen . . . . . .
8.1.1 Gleichgradige Integrierbarkeit
8.1.2 Weitere Metriken . . . . . . .
8.2 Konvergenz von Zufallsgrößen . . . .
53
53
56
60
61
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 Zeitdiskrete Martingale
Sei (Ω, A, P ) stets der zugrundeliegende Wahrscheinlichkeitsraum.
Ein stochastischer Prozess ist eine Familie Xt : Ω → E, t ∈ T von Zgn
mit Werten in einem meßbarem Raum (E, σ(E)). E heißt der Zustandsraum
und die Indexmenge T heißt Parameterraum oder auch Zeitparameterraum.
Hintergrund ist, dass T als Teilmenge der reellen Zahlen totalgeordnet ist und
dann die Interpretation Zeit erhält. Wir benutzen die Notation X = (Xt )t∈T
bzw. (Xt )t bzw. (Xt ) für die Familie.
Sei E eine Eigenschaft von Zgn. Wir sagen ein Prozess X hat die Eigenschaft E wenn alle Xn die Eigenschaft haben. Ein Beispiel ist Positivität oder
Integrierbarkeit.
Ein stochastischer Prozess (Xt )t∈T heißt zu einer Familie At , t ∈ T, von
σ-Algebren adaptiert, falls für alle t ∈ T die Zg Xt : Ω 7→ E meßbar ist
bezüglich At − σ(E).
Eine Filtration zu einer geordneten Menge (T, ≤) ist eine isotone Familie
F = (Ft )t∈T von σ-Algebren aus A. In Formeln, s ≤ t ∈ T ⇒ Fs ⊂ Ft . Ein
filtrierter W-Raum ist ein Tupel (Ω, A, F, P ) wie oben. Die kanonische
Filtration oder natürliche Filtration eines Prozesses X ist die Filtration
Ft := σ(Xs , s ≤ t), t ∈ T gegeben wird durch die kleinste σ-Algebra erzeugt
von allen Xs , s ≤ t. Dies ist die kleinste Filtration bzgl. der der Prozeß adaptiert
ist.
Ein Martingal, Submartingal, Supermartingal ist ein Tupel (X, F) =
(Xt , Ft )t∈T . Hierbei ist T eine Teilmenge der reellen Zahlen mit der natürlichen Ordnung und X ein reellwertiger, integrierbarer stochastischer Prozess
adaptiert zur Filtration F. Es gilt die Martingaleigenschaft (Super-, Sub-)
Xs = E(Xt | Fs )
Xs ≤ E(Xt | Fs )
Xs ≥ E(Xt | Fs )
3
Martingal
(1.1)
Submartingal
(1.2)
Supermartingal
(1.3)
4
(31. Januar 2017) Zeitdiskrete Martingale
f.s. für alle s ≤ t ∈ T. Die Angabe der Filtration wird häufig weggelassen,
insbesondere wenn immer dieselbe Filtration benutzt wird.
X ist Supermartingal genau dann, wenn −X ein Submartingal ist. Ein
Prozess ist ein Martingal genau dann, wenn er gleichzeitig ein Sub- und ein
Supermartingal ist.
Man unterscheidet zwischen diskreter Zeit, T ⊂ ZZ und stetiger Zeit anderenfalls. Die wesentliche mathematische Argumentationslinie ist ersichtlich
für T ⊂ IN. Daher, ein Standardmartingal (Sub-,Super-) ist ein Martingal
(Sub-,Super-) mit Zeitparameter T = IN0 , X0 = E(X1 ) und A0 die triviale σ-Algebra {∅, Ω}.
Ist T endlich oder in den natürlichen Zahlen enthalten und X ein Martingal
dazu, so können wir X einbetten in ein Standardmartingal Y. Dies geschieht
durch Yn = Xm mit m das Maximum der t ∈ T mit t ≤ n oder t das kleinste
Elment in T. Ebenso verfahre mit der Filtration. Resultate für das Standardmartingal übertragen sich dann auf das Originalmartingal. Ist T nicht von
obiger Struktur, so geschieht die Zurückführung auf Standardmartingalargumente in der Regel via Stoppzeiten. Dies ist eher technischer Natur und wir
überschlagen es hier.
Die Martingaleigenschaft (1.1) bzw. die Submartingal- bzw. Supermartingaleigenschaft ist im Standardfalle äquivalent zu
Xn = E(Xn+1 | Fn )
(1.4)
bzw. ≤, ≥ für alle n ≥ 1. Verwende zum Beweis die Projektionseigenschaft
E(Xn+2 | Fn ) = E(E(Xn+2 | Fn+1 ) | Fn ) = E(Xn+1 | Fn ) = Xn .
1.0.1
Meine Martingalfavoriten
Wir verwenden stets IN0 als Zeitparameter.
Beispiele 1 (Irrfahrt) Seien Xn , n ∈ IN, unabhängig, identisch verteilte,
Pn
integrierbare Zufallsgrößen, Sn =
i=1 Xi die n-te Partialsumme. Dann ist
(Mn )n
Mn := Sn − nEX1
ein Standardmartingal bezüglich der natürlichen Filtration Fn = σ(S1 , . . . , Sn ) =
σ(X1 , . . . , Xn ).
E(Mn+1 | Fn ) = Mn + E(Xn+1 − EX1 | Fn ) = Mn .
(31. Januar 2017)
5
Beispiele 2 (Exponentielle Martingale) Seien Xn , n ∈ IN, unabhängig,
identisch verteilte Zufallsgrößen mit Sn die n-te Partialsumme. Definiere
Mn (λ) := exp(λSn )/Φn (λ)
mit Φ(λ) := EeλX1 , λ ∈ IR. Die Folge (Mn (λ))n ist ein Standardmartingal
bzgl. der natürlichen Filtration wie eben.
Beispiele 3 (Reguläre Martingale) Sei F eine Filtration und X eine integrierbare Zufallsvariable. Dann ist Mn := E(X | Fn ) ein Martingal in n.
E(Mn+1 | Fn ) = E(E(X | Fn+1 ) | Fn ) = E(X | Fn ) = Mn .
Später werden wir sehen, daß genau die L1 -konvergenten Martingale so darstellbar sind.
Beispiele 4 ( Das Martingal) In einem Kasino spielt ein Spieler die Verdoppelungsstrategie, in Spielerkreisen auch als Martingalstrategie bekannt. Der
Spieler startet mit einem Einsatz von einem Chip auf einfache Chance (rotschwarz oder gerade-ungerade) im ersten Spiel. Verliert er, so verdoppelt er
seinen vorherigen Einsatz im nächsten Spiel. Gewinnt er irgendwann einmal,
so hört er auf. Zu diesem Zeitpunkt n hat er −1 − 2 − 4 − 8 − . . . − 2n−1 Einheiten verloren und gewinnt im n-ten Spiel 2n Einheiten. Insgesamt hat er eine
Einheit gewonnen. Da er fast sicher irgendwann einmal gewinnt, erscheint dies
als eine sichere Strategie.
Mathematisches Modell: Seien Yn , n ∈ IN uiv Zg mit Werten in {1, −1}
Pn
und p = P (Y = 1) im offenen Einheitsintervall (0, 1). Sei Sn = i=1 2i−1 Yi .
Yi = 1 wird interpretiert als Gewinn im i-ten Spiel, Sn als Kapital nach dem
n-ten Spiel bei Anfangskapital 0, sofern der Spieler das n-te Spiel gespielt hat.
Sn ist ein Martingal im Fall p = 1/2, ein Supermartingal im Fall p < 1/2
und anderenfalls ein Submartingal. Sei τ der erste Wert m mit Ym = 1. Auf
der Menge n < τ ist Sn der Gewinn (negative Werte bedeuten Verlust) bis
einschliesslich des n-ten Spieles. Da τ fast sicher endlich ist, gilt Sτ = 1. Zu
dem Zeitpunkt kann er das Kasino mit einer Einheit Gewinn verlassen.
Beispiele 5 (Likelihoodquotient für Münzwurf ) Seien X1 , X2 , . . . uiv Zgn
mit diskreter Verteilung P = (p(x))x∈E . Sei Q = (q(x))x∈E ein anderes W-maß.
Dann ist
n
Y
q(Xi )
Mn :=
,
p(X
i)
i=1
p(x) > 0 für alle x vorausgesetzt, ein Martingal bezüglich dem W-mas̈ P und
der natürlichen Filtration
q(Xn+1 )
E(Mn+1 | Fn ) = Mn E(
| Fn ) = M n .
p(Xn+1 )
6
(31. Januar 2017) Zeitdiskrete Martingale
Dieses Beispiel hat Anwendung in der Statistik. Wir wollen entscheiden, ob
die Zgn X1 , X2 , . . . , Xn eine Verteilung P oder Q haben, P, Q bekannt. Dazu
betrachten wir die Teststatistik Mn : IRn 7→ IR wie oben. ln Mn ist eine Summe von uiv Zgn. Nach dem starken Gesetz der Großen Zahl, anwendbar falls
P
q(Xi )
q(x)
q(Xi )
E| ln p(X
| < ∞ gilt, konvergiert n1 ln Mn gegen EP (ln p(X
) = x ln p(x)
p(x)
i)
i)
P
q(x)
q(Xi )
unter P bzw. gegen EQ (ln p(Xi ) ) = x ln p(x) q(x) unter Q. Sind diese Grenzwerte verschieden, so können wir P und Q unterscheiden. Die Grenzwerte sind
verschieden für P 6= Q, da nach Jensen gilt
EP ln
EQ ln
q(Xi )
q(Xi )
< ln EP
=0
p(Xi )
p(Xi )
p(Xi )
p(Xi )
q(Xi )
= EQ (− ln
) > − ln EQ
= 0.
p(Xi )
q(Xi )
q(Xi )
In der sequentiellen Statistik trifft man bereits eine Entscheidung, wenn ln Mn
gewisse Schranken überschreitet. Damit erreicht man gute Entscheidungen bei
möglichst wenig Beobachtungen.
Beispiele 6 (Radon-Nikodym Ableitung) Seien Q, P zwei W-Maße. Eine
(meßbare) Partition φ von Ω ist eine disjunkte Zerlegung von Ω in (meßbare)
S
Mengen. (φ ⊂ Pot(Ω), ◦ A∈φ A = Ω.) Eine Partition φ1 ist feiner als φ2 ,
geschrieben φ1 φ2 , falls jedes A ∈ φ1 in einem B ∈ φ2 enthalten ist.
Sei φ1 φ2 φ3 ... eine Folge von verfeinerten, meßbaren Partitionen.
Definiere
X Q(A)
Mn :=
1A
P (A)
A∈φn
n ∈ IN. Der Einfachheit nehmen wir stets P (B) > 0 an. Dann ist M = (Mn )n
ein Martingal bezüglich P und der Filtration Fn erzeugt von der Partition φn .
EP (Mn+1 | Fn )
=
X
A∈φn+1
=
Q(A)
EP (1A | Fn )
P (A)
X
X
Q(A)
EP (1A | Fn )
P (A)
X
X
Q(A)
11B P (A | B)
P (A)
X
X
Q(A)
11B
P (B)
B∈φn B⊃A∈φn+1
=
B∈φn B⊃A∈φn+1
=
B∈φn B⊃A∈φn+1
=
X Q(B)
11B = Mn
P (B)
B∈φn
(31. Januar 2017)
7
Beispiele 7 (Polya Urnen Modell) Gegeben sei eine Urne mit S schwarzen
und W weißen Bällen. Es wird zufällig mit Gleichverteilung ein Ball gezogen.
Dann werden insgesamt c ∈ {−1, 0, 1, . . .} Bälle dieser gezogenen Farbe zurückgelegt. Kein Ball wird zurückgelegt entspricht c = −1, der gezogene Ball wird
zurückgelegt entspricht c = 0 usw..
Sei Sn , Wn , n ∈ IN, die Anzahl der schwarzen bzw. weißen Kugeln nach der
n-ten Ziehung einschließlich eventuellem Zurücklegen. Dann ist
Mn =
Sn
Wn + S n
ein Martingal bezüglich der natürlichen Filtration. (Für c = −1 müssen wir
nach W + S Ziehungen stoppen, da kein Ball mehr in der Urne ist.) Mn ist die
bedingte Wahrscheinlichkeit, daß bei der nächsten (= n + 1-ten) Ziehung eine
schwarze Kugel gezogen wird, bedingt auf der Kenntnis der bisher gezogenen
Kugeln.
Mathematisches Modell: Sei Xn die Farbe, kodiert als 1 für ’schwarz’
und 0 für ’weiß’, der gezogenen Kugel in der n-ten Ziehung. Die Filtration ist
Pn
Fn = σ(X1 , . . . , Xn ). Die Zg Mn schreibt sich als, Zn := i=1 Xi ,
Mn = P (Xn+1 = 1 | An ) =
S + cZn
.
W + S + nc
Mn ist ein Martingal, da
E(Mn+1 | Fn )
=
=
S + cZn + cE(Xn+1 | Fn )
W + S + (n + 1)c
n
S + cZn + c WS+cZ
+S+nc
W + S + (n + 1)c
= . . . = Mn .
Das Polya Urnen Modell läßt sich auch für c ∈ [−1, ∞) spielen. Es werden
stets ⌊c⌋ Bälle der gezogenen Farbe zurückgelegt und, abhängig von einem
unabhängigen Bernoullizufallsexperiment zum Parameter c − ⌊c⌋, eine weitere
der Farbe.
Beispiele 8 (Verzweigungsprozesse) Historischer Ausgangspunkt für die
Verzweigungsprozesse war die Genealogie, insbesondere die Überlebenswahrscheinlichkeit eines Familiennamens. Als Nachkommen (Kinder) zählen wir hier
nur die männlichen Nachkommen, die den Familiennamen tragen und weitergeben können. Die Anzahl dieser Nachkommen sei unabhängig mit stets gleicher
Verteilung. Uns interessiert die Größe der n-ten Generation.
8
(31. Januar 2017) Zeitdiskrete Martingale
Mathematisches Modell: Seien Xi,j , i, j ∈ IN0 , uiv Zgn mit Werten in IN0 ,
0 < E(X• ) =: m < ∞. Der Bienayme-Galton-Watson (BGW) Prozess Z wird
rekursiv definiert durch Z0 = 1,
Zn+1 =
Zn
X
Xn,j .
j=1
Zn
Dann ist ( m
n )n ein Martingal bezüglich der Filtration Fn = σ(Xi,j , i < n, j ∈
IN, ) (oder auch der natürlichen Filtration).
Die Größe Xn,j gibt die Anzahl der Nachkommen des j-ten Individuums
der n-ten Generation an. Zn entspricht der Anzahl der Namensvertreter in der
n-ten Generation. Ein ’typischer’ Stammbaum sieht etwa folgendermaßen aus:
✏
✏✏
✑
✑
✑
✰
s✑
11
✁❆
✁ ❆
✁
❆
☛✁
❯s
s✁
s❄ ❆❆
✑
✮
s✏
1✏
✑◗
◗
✑
◗
s❄
12
✏
✏✏
✏
✏✏
s
✏ ✏PPP
s❄
2
◗
◗
◗
s
◗s13
✁❆
✁ ❆
✁
❆
s✁☛✁ s❄ ❆❆❯s
s❄
PP
PP
PP
PP
Pq
Ps 3
❅
s✠
31
✁❆
✁ ❆
✁
❆
❆❆❯s312
s✁☛✁
Beispiele 9 (Gewichteter Verzweigungsprozess) Jedes Individuum eines
Verzweigungsprozesses trägt zusätzlich ein zufälliges Gewicht. Dies ist das Gewicht der Mutter multipliziert mit einer Zufallsgröße.
Mathematisches Modell: Wir betrachten einen gerichteten Graphen (V, E).
Die Knotenmenge ist
V :=
∞
[
n=0
IN n ,
IN 0 := {∅}.
Wir benutzen für v = (v1 , ..., vn ) ∈ V die Notation vi = (v1 , ..., vn , i) und |v| =
n, |∅| = 0, v|m = (v1 , . . . , vm ). (Die Kanten e ∈ E sind die Tupel e = (v, vi).)
Seien T (v) : Ω → IRIN , v ∈ V , uiv Zgn. Beachte für festes v können
die Koordinaten T1 (v), T2 (v), . . . voneinander abhängig sein. Definiere rekursiv
L(v) : Ω 7→ IR durch L(∅) = 1 und
L(v, i) = L(v)Ti (v).
❅
❅
❅
❘
❅s32
✁❆
✁ ❆
❆
✁
❆❆❯s
s✁☛✁
(31. Januar 2017)
9
Hieraus ergibt sich die Produktdarstellung
L(v) =
n
Y
Tvi (v|i−1 ) = Tv1 (∅)Tv2 (v1 )...Tvn (v1 , . . . , vn−1 ).
i=1
Sei Zn =
P
{v||v|=n}
L(v). Dann ist für m 6= 0
Wn :=
Zn
,
mn
P
0 6= m := E i Ti (.) wohldefiniert, ein Martingal.
V gibt eine natürliche Indizierung des Baumes mit unendlich vielen Ästen.
Die Größen L(v) geben das Gewicht des Individuums v an. Der BGW-Verzweigungsprozess
ist ein Spezialfall mit L(v) = 1 oder L(v) = 0. In der Zeichnung haben wir Individuen mit Gewicht Null weggelassen.
Beispiele 10 (Zufällige Cantormengen) Als spezielles Beispiel für einen
gewichteten Verzweigungsprozeß betrachten wir die Hausdorffdimension von
zufälligen Cantormengen.
Eine (die) Cantormenge wird folgendermaßen konstruiert: Aus dem Einheitsintervall entferne das mittlere Drittel. Aus den verbliebenen Intervallen
entferne ebenfalls das mittlere Drittel usw.
t0
r
r
♣ ♣ ♣ ♣
♣♣♣♣ ♣♣♣♣
ta
r
r
♣ ♣ ♣ ♣
♣♣♣♣ ♣♣♣♣
Cantorset Cantorset Can
tb
r
r
♣ ♣ ♣ ♣
♣♣♣♣ ♣♣♣♣
t1
r
r
♣ ♣ ♣ ♣
♣♣♣♣ ♣♣♣♣
Cantorset Cantorset Can
Es bleibt eine Menge C übrig, genannt die Cantormenge.
Wir wollen diese Konstruktion nun zufällig machen. Anstelle von 1/3, 2/3
wählen wir zufällig, aber zu gegebener Verteilung, zwei (oder auch mehrere)
Punkte aus und entfernen das mittlere (einige) Intervall. Für jedes verbleibende
Intervall wiederholen wir diese Prozedur auf kleinerer Skala unabhängig, aber
mit derselben Verteilung. Die übrigbleibende Menge C = C(ω) ist eine zufällige
Cantormenge.
Wir denken uns die Prozedur als Baum dargestellt wie oben mit der natürlichen Indizierung durch V. Sei L(v) die Länge des Intervalls v. Die Faktoren
T1 (v), T2 (v), .. geben die jeweilige relative Länge der verbleibenden Intervalle
bei Aufspaltung des Intervalls v. Für die deterministische Cantormenge gilt
T1 (.) ≡ 1/3 = T2 (.), T3 = 0 = T4 = ...
10
(31. Januar 2017) Zeitdiskrete Martingale
t0
t1 − T2 (∅)
tT1 (∅)
t1
Als nächstes klären wir den Zusammenhang zur Hausdorffdimension und
Hausdorffmaß.
Sei A eine beliebige Menge in IR (metrischer Raum). Eine offene δ- Überdeckung von A ist eine Familie Un , n ∈ IN , von offenen Mengen mit DurchS
messer diam(Un ) < δ, die A überdeckt (A ⊂ n Un ). Für α > 0, δ > 0,
P
sei Hδα (A) = inf{ n diamα (Un )}, das Infimum über alle δ-Überdeckungen
genommen. Das α-Hausdorffmaß von A ist: Hα (A) = limδ→0 Hδα (A). Das αHausdorffmaß Hα kann den Wert unendlich annehmen. Die Hausdorffdimension
ist das kleinste α mit endlicher α-Hausdorffdimension,
H(A) = inf{α|Hα (A) < ∞}.
Für unsere zufälligen Cantormengen bietet sich als Überdeckung die n-te
Generation an (modifiziert zur offenen δ-Überdeckung!). Der Wert
Sn(α) :=
X
Lα (v)
|v|=n
ist eine erste Annäherung (im Grenzwert exakt) an das α-Hausdorfmaß.
Eine besondere Rolle spielt der Wert α mit E(T1α +T2α ) = 2. Für α <(=,>) α
(α)
ist Sn ein Submartingal (Martingal, Supermartingal). Der Wert α ist (f.s.) die
Hausdorffdimension einer zufälligen Cantormengen C, falls C nicht die Null(α)
menge ist. Der Grenzwert limn→∞ Sn ist das α-Hausdorff-Maß der zufälligen
Cantormenge.
Dieses Ergebnis läßt sich auch auf die Cantormenge selbst anwenden. Die
Zven T. sind deterministisch (1/3, 2/3). Die Hausdorff-Dimension α = ln 2/ ln 3
α
α
erhält man durch Lösen der Gleichung 13 + 13 = 1 nach α.
Beispiele 11 (Aktien) Der Aktienkurs Xn wird gerne als Martingal modelliert. Ein Händler kauft am n-ten Tag Cn Aktien. Am folgenden Tag hat er den
Wert Cn (Xn+1 − Xn ) dazugewonnen. Der Prozess
Mn :=
n−1
X
i=1
Ci (Xi+1 − Xi )
ist ein Martingal, vorausgesetzt jede Handelsentscheidung Cn ist Fn -meßbar.
(Dies ist die mathematische Formulierung für keine Insiderinformation.)
(31. Januar 2017)
11
Beispiele 12 (Spielhäuser) Ein Spieler geht in ein Kasino mit mehrfachem
Spielangebot wie z.B. Roulette und Black Jack. Zur Einfachheit sei die Zeit
getaktet. Zu Beginn jeden Zeittaktes kann der Spieler frei ein Spiel auswählen
und es einmal zu erlaubtem Einsatz spielen. Dieser Vorgang einschießlich Auszahlung wird in einem Zeittakt abgeschlossen. Sei Kn das Spielerkapital zum
n-ten Zeitpunkt.
Der Spieler möchte seinen Gewinn KN nach genau N Zeittakten maximieren, z.B im Sinne vom Erwartungswert, oder der Wahrscheinlichkeit mindestens einen bestimmten Betrag zu haben. Welche Strategie, d.h. Auswahl der
Teilspiele, ist die beste? Dieses Problem, behandelt in Dubins-Savage, How to
gamble if you must, führt auf die Konstruktion spezieller Martingale. In der
Sektion über optimales Stoppen behandeln wir den Spezialfall mit nur zwei
Optionen, weiterspielen oder stoppen.
12
(31. Januar 2017) Zeitdiskrete Martingale
2 Martingaltransformierte
Unser Grundraum ist ein filtrierter W-raum (Ω, A, F, P ) mit einer Filtration F = (Fn )n∈IN0 . Alle betrachteten Prozesse X = (Xn )n∈IN0 sind adaptiert
und integrierbar. Mit M= , M≤ , M≥ bezeichnen wir die Menge der Martingale (Sub-, Super-) mit Zeitparameter IN0 zur Filtration F. Da die Filtration
meistens als fest angenommen wird und sich nicht verändert, wird sie in Formulierungen häufig weggelassen. Zum Beispiel, ist X ein Submartingal, so ist
−X) ein Supermartingal (zu derselben Filtration).
Wir betrachten und formulieren Resultate meistens für Submartingale, entsprechendes gilt dann für Supermartingale.
2.0.2
Filtrationwechsel
Für einen Wechsel in eine Subfiltration gilt:
Proposition 13 Sei (X, F) ein Martingal (Sub-, Super-). Sei X adaptiert zu
einer Unterfiltration B = (Bn )n mit Bn ⊂ Fn . Dann ist (X, B) ein Martingal
(Super-, Sub-).
Beweis: Für B ∈ Bn gilt
Z
Z
Z
Z
E(Xn+1 | Bn ) =
Xn+1 =
E(Xn+1 | Fn ) =≥,≤
Xn
B
B
B
und damit E(Xn+1 | Bn ) =≥,≤ Xn .
2.0.3
B
q.e.d.
Raumtransformationen
Eine lineare Raumtransformation auf den reellen Zahlen beläßt ein Martingal
als ein Martingal und ein Submartingal, wird je nach Vorzeichen der Steigung,
zum Sub- oder Supermartingal. Bei konvexen Funktionen hilft der Satz von
Jensen.
13
14
(31. Januar 2017) Martingaltransformierte
Eine Funktion ϕ : I 7→ IR ∪ {∞} mit I ein Intervall heis̈t konvex , falls für
alle x 6= y ∈ I, t ∈ (0, 1) und tx + (1 − t)y ∈ I gilt
ϕ(tx + (1 − t)y) ≤ tϕ(x) + (1 − t)ϕ(y).
Sie heis̈t strikt konvex, falls in obiger Ungleichung stets < gilt.
Eine Funktion ϕ : IR → IR ∪ {−∞} heis̈t (strikt) konkav genau dann,
wenn −ϕ (strikt) konvex ist.
i) Im Inneren von I ist eine konvexe Funktion ϕ ist stetig und es existieren
die linksseitige Ableitung ϕ− und die rechtsseitige Ableitung ϕ+ . Beide sind
aufsteigend und ϕ− ≤ ϕ+ und verschieden an höchstens abz ählbar vielen
Punkten.
Satz 14 (Jensen Ungleichung) Sei X eine integrierbare Zg, B ⊂ A eine
Unter-σ-Algebra und ϕ eine konvexe Funktion mit ϕ(X) wohldefiniert und integrierbar. Dann gilt
ϕ(E(X | B)) ≤ E(ϕ(X) | B)
Gleichheit gilt genau dann, wenn ϕ linear ist auf einer Menge D mit P (X ∈
D) = 1.
Als Merkregel: Falscher Effee Eϕ ≥ ϕE (wie für die Jensensche Ungleichung).
Lemma 15 Sei M ein Martingal und ϕ eine konvexe (konkave) Funktion mit
ϕ(Mn ) integrierbar für jedes n. Dann ist ϕ(M ) = (ϕ(Mn ))n ein Submartingal
bzgl. derselben Filtration.
Sei X ein Submartingal. Sei ϕ eine aufsteigende konvexe Funktion und
ϕ(Xn ) integrierbar für jedes n. Dann ist ϕ(X) ein Submartingal.
Sei X ein Supermartingal. Sei ϕ eine absteigende konvexe Funktion und
ϕ(Xn ) integrierbar für jedes n. Dann ist ϕ(X) ein Submartingal.
Beweis: Für ein Martingal M und ϕ konvex gilt
E(ϕ(Mn+1 ) | An ) ≥ ϕ(E(Mn+1 | An )) = ϕ(Mn )
Für ein Submartingal X und ϕ konvex aufsteigend gilt
E(ϕ(Xn+1 ) | An ) ≥ ϕ(E(Xn+1 | An )) ≥ ϕ(Xn )
Für ein Supermartingal X und ϕ konvex absteigend gilt ebenfalls die obige
Zeile.
q.e.d.
Das obige Lemma sieht nach einem Symmetriebruch bzgl. Sub- und Supermartingalen aus. Dies ist nicht der Fall. Gewisse Symmetrie erhalten wir, wenn
wir eine konvexe Funktion ϕ durch die konkave Funktion −ϕ ersetzen.
X ∈ M≤ , ϕ konkav ↓⇒ ϕ(X) ∈ M≥
(31. Januar 2017)
15
X ∈ M≥ , ϕ konkav ↑⇒ ϕ(X) ∈ M≥
Notation: Der Positivteil einer Funktion f is f + = f ∨ 0 und der Negativteil
f = (−f ) ∨ 0. Beachte f − ist positiv und f = f + − f , |f | = f + + f − .
Beispiele: i) Für ein Martingal M sind M + := (Mn+ )n und M − = (Mn− )n
Submartingale zur gleichen Filtration. Für jedes p ≥ 1 ist |M |p = (|Mn |p )n
und für jedes λ ≥ 0 ist eλM ein Submartingal.
ii) Ist X ein Submartingal, so auch X + und eλX für positive λ. Jedoch X −
ist im allgemeinen weder ein Sub- noch ein Supermartingal.
iii) Ist X ein Supermartingal, so sind X − und eλX für λ ≤ 0 Submartingale.
+
X ist im allgemeinen weder ein Sub- noch ein Supermartingal.
Auch wenn der Positivteil bzw. Negativteil keine schöne Martingaleigenschaft besitzt, läst sich das erste absolute Momente gut abschätzen.
−
Proposition 16 Für ein Submartingal X gilt
2EXn− + x0 ≤ E|Xn | ≤ 2EXn+ − x0
und für ein Supermartingal
2EXn+ − x0 ≤ E|Xn | ≤ 2EXn− + x0 .
Beweis: Die erste Abschätzung erhalten wir aus x0 ≤ EXn = EXn+ − EXn−
und E|Xn | = EXn+ + EXn− durch einsetzen. Die zweite folgt analog.
q.e.d.
2.0.4
Raum der Martingale
Durch Addition, Supremumsbildung, Infimumsbildung und Anwendung konvexer Funktionen lassen sich weitere (Super–, Sub–) Martingale erzeugen.
Lemma 17 i) Der Raum M= der Martingale ist ein reeller Vektorraum.
ii) Der Raum M≤ (M≥ ) der Submartingale (Super-) ist abgeschlossen
bezüglich Addition, Multiplikation mit positiver Konstanten und dem endlichen
Supremum (Infimum).
Beweis: Leicht nachzurechnen.
2.0.5
q.e.d.
Doob Zerlegung
Ein vorhersehbarer Prozeß zu einer Filtration F = (Fn )n∈IN0 ist ein adaptierter Prozeß X = (Xn+1 )n∈IN0 . Dies ist zu verstehen mit Xn+1 ist Fn meßbar
für alle n ∈ IN0 . Aus schreibtechnischen Gründen wird manchmal X0 := X1
mit hinzugenommen.
16
(31. Januar 2017) Martingaltransformierte
Lemma 18 (Doob Zerlegung) Sei X ein Submartingal (Super-). Dann existiert genau ein Martingal M und genau ein vorhersehbarer, monoton aufsteigender (absteigender) Prozeß A mit A0 ≡ 0 und
Xn = Mn + An .
Der Prozess A wird rekursiv gegeben durch
An+1 = An + E(Xn+1 | An ) − Xn .
Beweis: • An wie oben definiert tut’s.
An ist wohldefiniert, monoton steigend (fallend) und vorhersehbar.
Eine Rechnung zeigt die Martingaleigenschaft von Mn := Xn − An ,
E(Mn+1 | Fn ) = E(Xn+1 −An+1 | Fn ) = E(Xn+1 | Fn )−An+1 −Xn +Xn = −An +Xn = Mn .
• Eindeutigkeit.
Sei Xn = M n +An eine zweite Zerlegung mit den obigen Eigenschaften. Wir
zeigen durch Induktion nach n M n = Mn und An = An . Der Induktionsanfang
ist leicht. Wir zeigen den Schritt n → n + 1.
• An+1 = An+1 .
An+1
=
=
=
E(An+1 | Fn ) = E(Xn+1 − M n+1 | Fn )
E(Xn+1 | Fn ) − M n = E(Xn+1 | Fn ) − Mn
E(Xn+1 − Mn+1 | Fn ) = E(An+1 | Fn ) = An+1
Hieraus folgt sofort Mn+1 = M n+1 .
2.1
q.e.d.
Martingaldifferenzfolgen
Eine Martingaldifferenzfolge (Sup-, Super-) zu einer Filtration F ist eine Folge D = (Dn )n∈IN von adaptierten und integrierbaren Zgn mit 0 =≤,≥
E(Dn | Fn−1 ), n ∈ IN. Wir verwenden die Kurznotation D = (Dn )n .
Jede Martingaldifferenzfolge (Sup-Super-) D zur Filtration F liefert via
Xn =
n
X
Di + X0
(2.1)
i=0
ein Martingal, (Sub-, Super-) bzgl. derselben Filtration. Umgekehrt, sei X ein
Martingal (Sup-,Super-), so ist die Differenzfolge Dn := Xn − Xn−1 , n ∈ IN
eine Martingaldifferenzfolge zur selben Filtration und es gilt (2.1). Wir sprechen
von der Martingaldifferenzfolge D (Sub-, Super-) des Martingals (Sub-, Super-)
X.
2.1. Martingaldifferenzfolgen (31. Januar 2017)
17
Satz 19 Sei die Filtration F und eine reelle Zahl x vorgegeben. Es gibt eine bijektive Abbildung zwischen Martingaldifferenzfolgen (Sub-, Super-) D und
Martingalen (Sub-, Super-) mit Anfangswert x jeweils zur Filtration F. Diese
kann gegeben werden durch
Xn =
n
X
Di + x.
i=1
Beweis: Leicht.
2.1.1
q.e.d.
Transformierte durch vorhersehbare Prozesse
Die Martingaltransformierte eines Martingals (Sub-, Super-) X zu einem
vorhersehbaren Prozeß C = (Cn )n∈IN ist der Prozess X C
XnC :=
n
X
C i Di + X0
i=1
n ∈ IN0 . Hierbei ist Dn := Xn − Xn−1 die zugehörige Martingaldifferenzfolge.
Einige Autoren benutzen die Notation C · X bzw. C ∗ X für X C .
Für reellwertige Funktionen f, g (oder Vektoren) benutzen wir (f g)(x) :=
f (x)g(x).
Satz 20 Sei M ein Martingal und C vorhersehbar. Ist CD integrierbar, so ist
die Martingaltransformierte M C ein Martingal.
Sei X ein Submartingal (Super-) und sei C vorhersehbar und positiv. Falls
CD integrierbar ist, so ist die Martingaltransformierte X C ein Submartingal
(Super-).
Beweis: Die Martingaltransformierte M C ist adaptiert zur Filtration und integrierbar, da die einzelnen Terme Ci Di Fi meßbar und integrierbar sind.
Die Martingaleigenschaft wird nachgerechnet
C
E(Mn+1
| Fn ) = E(
n+1
X
i=1
Ci Di + M0 | Fn ) = MnC + Cn+1 E(Dn+1 | Fn ) = MnC .
Eine analoge Argumentation hält für Sub- und Supermartingale.
q.e.d.
Korollar 21 Sei M ein Martingal und C ein vorhersehbarer Prozess mit CD
integrierbar. Dann ist der Erwartungswert der Martingaltransformierten eine
Konstante.
Sei X ein Submartingal (Super-) und C ein positiver vorhersehbar Prozess
mit CD integrierbar. Dann ist der Erwartungswert EXnC monoton steigend
(fallend) in n.
18
(31. Januar 2017) Martingaltransformierte
Beweis: Wir zeigen nur den Martingalfall. Die anderen beiden Aussagen folgen
analog.
EMnC =
X
i≤n
E(E(Ci Di | Fi−1 )) + M0 =
X
i≤n
E(Ci E(Di | Fi−1 )) + M0 = M0 .
q.e.d.
Die punktweise Ordnung auf dem Raum der Prozesse ist die Ordnung
(Xt )t∈T (Yt )t∈T ⇔ Xt (ω) ≤ Yt (ω)
für alle t ∈ T, ω ∈ Ω.
Lemma 22 Sei X ein Submartingal (Super-) und A B zwei vorhersehbare
positive Prozesse. Sei D die Differenzfolge und AD, BD integrierbar. Dann
gilt für alle n ∈ IN0
EXnA ≤ (≥)EXnB .
Beweis: Der Induktionanfang X0A = X0 = X0B ist einfach. Für den Induktionsschritt n → n + 1 argumentiere
B
A
E(Xn+1
−Xn+1
| Fn ) = XnB −XnA +(Bn+1 −An+1 )E(Dn+1 | Fn ) ≥ (≤)XnB −XnA
Nehme auf beiden Seiten den Erwartungswert und verwende die Induktionshypothese.
q.e.d.
Kasinospieler: Ein Spieler spielt eine endliche Folge von (unabhängigen)
Spielen mit zufälligem Ausgang D1 , D2 , , . . . , DN in einem Spielkasino. Dabei
gebe Di die positive oder negative Auszahlung im i−ten Spiel bei Einsatz einer
Einheit ab. Der Spieler darf (=mus̈) den Einsatz Cn für das n−te Spiel vor dem
n-ten Spiel bestimmen. Üblicherweise einen positiven Einsatz und nicht mehr
als er besitzt. (Es sei denn, man handelt an der Börse.) Hierbei kennt der Spieler
die σ-Algebra der gesamten Vergangenheit bis vor dem n-ten Spiel. In der Regel
ist dies die kanonische σ-Algebra σ(D1 , . . . , Dn−1 ) = An−1 erzeugt von allen
Spielergebnisse bis zu diesem Zeitpunkt. Der von ihm gewählte Einsatz Cn ist
daher An−1 mes̈bar, die Folge (Cn ) ist vorhersehbar. Die Folge (Cn ) heis̈t auch
Strategie des Spielers.
Sei Kn sein Kapital nach dem n-ten Spiel, K0 ∈ IR+ sein Anfangskapital.
Nach dem n−ten Spiel beträgt sein Kapital KnC unter der Strategie C
KnC =
n
X
i=1
C i D i + K0 .
2.1. Martingaldifferenzfolgen (31. Januar 2017)
19
Der Spieler möchte möglichst viel gewinnen. Ein Kriterium wäre, den ErwarC
tungswert EKN
zu einem festgesetzten Zeitpunkt N zu maximieren. Mathematisch gesehen führt dies auf
C
sup EKN
C
über alle erlaubten Strategien C.
Faire Spiele: Alle Spiele Di seien fair, d.h.
E(Di | Ai−1 ) = 0.
Dann ist (KnC ) eine Martingaltransformierte zur Martingaldifferenz D und dem
vorhersehbaren Prozess C. Der Erwartungswert EKnC ist konstant K0 für jedes
n und jede Strategie C liefert (20)
EKnC = K0 .
Anders formuliert, alle Aktionen des Spielers haben keinen Einfluß auf sein
durchschnittlich erspieltes Kapital!
Bei fairen Spielen spielt der Spieler Dummy.
Nachteilige Spiele: Alle Spiele seien subfair (nachteilig) im Sinne
E(Dn | An−1 ) ≤ 0
aus Sicht des Spielers gesehen. Das Kapital KnC unter der gewählten Strategie
C ist jetzt ein Submartingal und das erwartete Kapital E(KnC ) nach der n-ten
Runde fällt in n. Mit der Erhöhung der Einsätze sinkt der Erwartungswert.
C
sollte der Spieler mit
Im Sinne der Erwartungswertmaximierung von EKN
möglichst geringen Einsätzen spielen. Der Einsatz stets Null entspricht garnicht
zu spielen. Selbst das Spielen einer einzigen Runde mit strikt positivem Einsatz
kann schon nachteilig für ihn sein.
Da dies ein Nullsummenspiel ist, was der eine verliert gewinnt der andere,
profitiert das Spielkasino und wird infolgedessen versuchen den Spieler zum
Spielen zu animieren.
Vorteilhafte Spiel: Alle Spiele seien superfair (vorteilhaft) im Sinne
E(Dn | An−1 ) ≥ 0
aus Sicht des Spielers gesehen. Das Kapital KnC unter der gewählten Strategie
C ist jetzt ein Supermartingal und das erwartete Kapital E(KnC ) nach der nten Runde steigt in n. Es steigt auch mit Erhöhung der Einsätze. Im Sinne der
20
(31. Januar 2017) Martingaltransformierte
C
Erwartungswertmaximierung von EKN
sollte der Spieler möglichst viel mit
gros̈en Einsätzen spielen, nämlich stets und alles einsetzen. (Dies führt auf das
Petersburger Spiel, auf unendliche Sicht gesehen geht man pleite.)
Für das Spielkasino sind solche Spiele nachteilig, aber trotzdem gibt es
solche tatsächlich im Spielkasino [?]. Mehr hierzu in dem Kapitel über Kasinospiele.
Verschiedene Spiele: Und was macht der Spieler, wenn es Spiele Di gibt,
die nachteilig sind und solche die vorteilhaft sind? Er sucht sich die für ihn
vorteilhaften aus. Bei diesen setzt er möglichst viel (=alles), bei den anderen
möglichst wenig (=nichts). Es reicht ihm, nur bei strikt vorteilhaften Spielen
(EDi > 0) alles zu setzen.
2.2
Stoppzeiten
Wir betrachten Stoppzeiten und Zeittransformationen durch eine Folge von
Stoppzeiten. Stoppzeit ist ein wesentlicher Begriff für stochastische Prozesse
und Wahrscheinlichkeitstheorie.
Eine Abbildung τ : Ω 7→ IN0 heißt Stoppzeit bzgl. der Filtration F, falls
für alle n ∈ IN0 gilt:
{τ ≤ n} ∈ Fn .
(2.2)
Wir benutzen in natürlicher Weise erweiterte bzw. beschränkte Stoppzeiten,
falls der Bildbereich erweitert (= N0 ) oder beschränkt ist. Ergibt sich die Filtration aus dem Kontext oder ist die kanonische Filtration eines bekannten
Prozesses gemeint, so entfällt die Angabe der Filtration. Standardmäı̈g verwenden wir F0 als triviale σ-Algebra und lassen {τ = 0} zu. (Dies impliziert
dann τ ≡ 0 oder τ > 0 f.s..) Stoppzeiten bezeichnen wir stets mit griechischen
Buchstaben wie τ oder σ.
Die konstante Abbildung ist eine Stoppzeit.
Proposition 23 Sei F eine Filtration und τ eine Stoppzeit dazu. Äquivalent
sind
i) τ ist eine erweiterte Stoppzeit.
ii) ∀n ∈ IN0 : {τ = n} ∈ Fn .
iii) ∀n ∈ IN0 : {τ > n} ∈ Fn .
Beweis: Einfach. i) ⇔ ii) Für die Hinrichtung benutze {τ = n} = {τ ≤ n}\{τ ≤
n − 1} ∈ Fn , da {τ ≤ n} ∈ Fn und {τ ≤ n − 1} ∈ Fn−1 ⊂ Fn gilt. Die
Sn
Rückrichtung ergibt sich aus {τ ≤ n} = i=0 {τ = i}.
ii) ⇔ iii) Dies ergibt sich aus {τ > n} = Ω\{τ ≤ n} ∈ Fn
q.e.d.
2.2. Stoppzeiten (31. Januar 2017)
21
Sei T = T (Ω, A, P, F)) die Menge der Stoppzeiten zu der vorgegebenen
Filtration F, T zu den erweiterten Stoppzeiten.
Proposition 24 Der Raum der Stoppzeiten T ist abgeschlossen bezüglich abzählbarem Infimum, endlichem Supremum und endlicher Summe. Der Raum der
erweiterten Stoppzeiten T ist abgeschlossen bezüglich abzählbarem Infimum,
abzählbarem Supremum und abzählbarer Summe.
Beweis: Sei τi , i ∈ IN eine abzählbare Folge von Stoppzeiten. Das abzählbare
Infimum bzw. Supremum erfüllt die Stoppzeiteigenschaft, da gilt
[
\
{inf τi ≤ n} = {τi ≤ n} ∈ Fn ,
{sup τi ≤ n} = {τi ≤ n} ∈ Fn .
i
i
i
i
Es verbleibt nachzuprüfen, unter welchen Bedingungen das Infimum oder Supremum wieder eine Stoppzeit oder erweiterte Stoppzeit im jeweiligen Raum
ist.
Die Summe von zwei Stoppzeiten τ1 , τ2 ist eine Stoppzeit wegen
{τ1 + τ2 ≤ n} =
n
X
i=0
({τ1 = i} ∩ {τ2 ≤ n − i}) ∈ Fn
für alle n. Für die abzählbare Summe argumentiere
X
X
{
τi ≤ n} = lim {
τi ≤ n} ∈ Fn .
i
N →∞
i≤N
q.e.d.
Warnung: Die Differenz von Stoppzeiten ist im allgemeinen keine Stoppzeit. (Übung mit τ − 1.)
Das Standardbeispiel einer erweiterten Stoppzeit für einen stochastischen
Prozess X mit Werten in (E, E) sind erste Eintrittszeiten (bzw. Austrittszeiten)
aus einer (meßbaren) Menge B ∈ E aus dem Zustandsraum
τB (ω) := inf{n : Xn (ω) ∈ B}
= inf{n : Xn (ω) 6∈ B}.
Wir benutzen die Konvention inf ∅ := ∞.
Heuristik: Eine Stoppzeit ist eine genaue Handlungsanweisung für jede
auftauchende Situation, die so genau definiert ist, dass ein Rechner diese ausführen
könnte. Diese Handlungsanweisung wird gegeben bevor die Situation eintritt.
Aktien: Wann sollte ein Spieler eine Aktie verkaufen? Dies ist ein Stoppproblem. Abhängig von der Information bis zum Zeitpunkt n, grob gesagt der
Historie der Aktienkurse Xm , m ≤ n bis zu diesem Zeitpunkt, entscheidet sich
der Spieler für halten oder abstoßen. Der Verkaufszeitpunkt ist eine Stoppzeit,
z.B. wenn der Wert Xn eine vorgegeben Schranke überschreitet.
22
(31. Januar 2017) Martingaltransformierte
2.2.1
Optional Sampling Theorem revisited
Sei (X, F) ein adaptierter Prozess und τ eine Stoppzeit bzgl. der gegebenen
Filtration. Der Prozeß
X τ := (Xn∧τ )n
(2.3)
mit a ∧ b = min{a, b}, (Xτ ∧n )(ω) := (Xn∧τ (ω) )(ω) heißt gestoppter Prozeß.
Der Prozess X τ läßt sich auch als transformierter Prozess XnC sehen bzgl.
dem vorhersehbaren Prozess C = (Cn )n definiert durch Cn := 11n≤τ . Der Ctransformierte Prozeß X C erfüllt
XnC =
n
X
i=1
Ci Di + x 0 =
n∧τ
X
Di + x0 = Xτ ∧n
i=1
mit Di = Xi − Xi−1 die Differenzen und xo = X0 .
Korollar 25 (Optional Sampling Theorem 2) Sei (X, F) ein Martingal
(Sub-, Super-) und τ eine erweiterte Stoppzeit. Dann ist ((Xτ ∧n )n , F) ein Martingal (Sub, Super-). Die Funktion
n 7→ E(Xτ ∧n )
ist eine konstante (aufsteigende, absteigende) Funktion.
Für Stoppzeiten τ ≤ σ und Submartingale (Super-) gilt
EXτ ∧n ≤≥ EXσ∧n
Beweis: Die erste Aussage folgt aus Theorem 21 mit der Darstellung Xτ ∧n =
q.e.d.
XnC . Die zweite aus der ersten und die dritte aus Lemma 22.
Kartenraten: Gegeben sei ein verdeckter Stapel gut gemischter Karten
mit je 26 roten und 26 schwarzen Karten, ein normales Bridgeblatt (Rommeeoder Canasta-). Der Spieler gewinnt genau dann, wenn er eine rote Karte richtig
vorhersagt nach folgender Prozedur:
• Falls er die oberste zugedeckte Karte als Rot “vorhersagen möchte, be”
kommt er sie. Ist es eine rote, hat der Spieler gewonnen, sonst verloren.
• Falls nicht wird die oberste Karte gezogen, gezeigt und beiseite gelegt.
Neustart mit dem Reststapel.
• Falls der Spieler keine Karte bis zur letzten wählt, bekommt er die letzte
zugewiesen.
2.2. Stoppzeiten (31. Januar 2017)
23
Gefragt wird nach einer Strategie (=Stoppzeit), die seine Gewinnwahrscheinlichkeit optimiert bzw. echt größer als 1/2 macht.
Heuristik: Wenn der Spieler die erste Karte vorhersagen möchte, hat er
eine Gewinnwahrscheinlichkeit von genau 21 . Dasselbe gilt für die letzte Karte
aus Symmetrie. Die letzte Karte bekommt er auch, falls er vorher keine Vorhersage machen wollte. Falls der Spieler also keine bessere Wahl vorher findet, so
kann er stets auf diese letzte Karte zurückgreifen. Was immer auch während der
Ziehphase geschieht, die letzte Karte wird während der Auswahlprozedur nicht
verändert und behält damit ihre Wahrscheinlichkeit von 1/2, rot zu sein. Der
Spieler kann folglich stets eine Gewinnwahrscheinlichkeit von 1/2 garantieren.
In einigen Fällen hat der Spieler aber eine bessere Auswahlmöglichkeit. Falls
nach gewisser Zeit, z.B. die erste Karte war schwarz, mehr schwarze Karten als
rote gezogen wurden, verbleiben in dem zugedeckten Stapel relativ mehr rote Karten als schwarze. Wenn der Spieler jetzt die oberste Karte wählt, ist die
Wahrscheinlichkeit einer roten Karte strikt größer als 1/2, genauer der Quotienten der Anzahl der roten Karten mit der Gesamtanzahl der noch verbliebenen
zugedeckten Karten. Falls sich keine dieser vorteilhaften Situationen ergibt,
kann der Spieler stets auf die letzte zur zückgreifen. Da günstige Situationen
wie oben beschrieben mit strikt positiver Wahrscheinlichkeit vorkommen, ist
die Gesamtwahrscheinlichkeit für eine richtige Vorhersage des Spielers strikt
größer als 1/2. (Diese Strategie ließe sich noch optimieren, aber wir sind zufrieden mit strikt größer als 1/2.)
Die Ergebnisse scheinen sich zu widersprechen. Oder gibt es hier ein Lücke
in der Argumentation? Wenn ja, welche?
Mathematische Lösung: Seien X1 , . . . , X52 Zgn mit Werten in {0, 1}. Die
Verteilung entspricht dem zufälligen Ziehen aus einer Urne mit 26 schwarzen
(=0) und 26 roten (=1) Karten ohne zurücklegen (Polya’s Urnenmodell mit
c = −1). Xi = 1 entspricht dem Ziehen einer roten Kugel in der i-ten Ziehung.
Sei
Yn := E(Xn+1 | Fn ),
Fn die kanonische σ-Algebra erzeugt von X1 , . . . , Xn . Die Zg Yn gibt die Wahrscheinlichkeit an, daß die nächste oberste verdeckte Karte rot ist, gegeben die
Kenntnis X1 , . . . , Xn der ersten n Karten.
Der Spieler wählt eine Stoppzeit τ (=Auswahlregel) und erhält die nächste
Karte mit Gewinnwert Xτ +1 . Sein erwarteter Gewinn ist EYτ . Der Spieler
versucht seinen erwarteten Gewinn zu maximieren durch Wahl einer optimalen
Stoppzeit, falls diese existiert. Er erhält supτ E(Yτ ).
Die Schlüsselbeobachtung ist, daß (Yn )51
n=0 ein Martingal ist.
E(Yn+1 | Fn ) = E(E(Xn+2 | Fn+1 ) | Fn ) = E(Xn+2 | Fn ) = Yn .
24
(31. Januar 2017) Martingaltransformierte
Nach dem Optional Sampling Theorem sind alle Stoppzeiten gleich gut, E(Yτ ) =
Y0 = 1/2. Die erwartete Gewinnwahrscheinlichkeit ist stets 1/2, unabhängig
von den Aktionen des Spielers, lieber Dummy.
Wo liegt der Pferdefuß in der heuristischen Argumentation? Er liegt im
Gebrauch von W-keiten und bedingten W-keiten. Es gilt stets Yn = E(Xi | Fn )
für i = n + 1, . . . , 52, da die verbleibenden Karten austauschbar sind. Die
nächste Karte gewinnt stets mit derselben W-keit wie die letzte, gegeben die
Vorinformation. Also kann ich gleich bei der letzten bleiben. Und wenn ich
Vorabinformationen über die ersten n Karten besitze, muß ich auch die bedingte
W-keit betrachten, das die letzte Karte gewinnt. Und diese ist nicht immer 1/2.
Wenn ich bis zur letzten nicht vorhergesagt habe und die letzte nehmen muss,
so ist die W-keit für eine rote 0 oder 1. Die letzte Karte ist zwar unverändert
durch die vorhergehende Prozedur, aber die bedingte W-keit, das die letzte
Karte rot ist, hat sich durch die Vorabinformation geändert, von 12 am Anfang
zu 0 oder 1.
σ-Algebra der τ -Vergangenheit*
Sei (Fn ) eine Filtration und τ eine erweiterte Stoppzeit. Das Mengensystem
Fτ := {A ∈ A | ∀n ∈ T : A ∩ {τ ≤ n} ∈ Fn }
heißt die σ-Algebra der τ -Vergangenheit. Wie der Name suggeriert, ist dies
eine σ−Algebra.
Proposition 26 Seien τ, σ erweiterte Stoppzeiten.
(i) Fτ ist eine σ-Algebra.
(ii) Für τ ≡ n gilt Fτ = Fn .
(iii) Für τ ≤ σ gilt Fτ ⊂ Fσ .
(iv) A ∈ Fτ ⇔ ∀n : A ∩ {τ = n} ∈ Fn
S
(v) Für jedes A ∈ Fτ gilt A = ◦ n (A ∩ {τ = n})
P
(vi) Für eine Stoppzeit τ gilt E(· | Fτ ) = i∈IN0 11τ =i E(· | Fi ).
(vii) Sei (X, F) ein Martingal (Sub-, Super-), σ eine beschränkte Stoppzeit. Es
gilt
E(Xσ | Fτ ) =(≥,≤) Xσ∧τ .
2.2. Stoppzeiten (31. Januar 2017)
25
Beweis: i) Fτ ist nicht leer und mit A ∈ Fτ gilt auch Ac ∈ Fτ wegen Ac ∩ {τ ≤
n} = {τ ≤ n}\(A ∩ {τ ≤ n}) ∈ Fn . Für Ai ∈ Fτ , i ∈ IN, gilt
[
[
( Ai ) ∩ {τ ≤ n} = (Ai ∩ {τ ≤ n}) ∈ Fn .
i
i
ii) Die Menge {τ ≤ i} ist leer oder ganz Ω.
iii) Für alle ω bis auf eine Nullmenge gilt τ (ω) ≤ σ(ω) und damit {σ ≤
n} ⊂ {τ ≤ n}. Für A ∈ Fτ gilt
A ∩ {σ ≤ n} = A ∩ {τ ≤ n} ∩{σ ≤ n} ∈ Fn .
{z
}
|
∈Fn
iv)v) Leicht.
vi) Für jedes A ∈ Fτ und integrierbare Zg Y gilt
Z
Z
XZ
XZ
Y =
11τ =i E(Y | Fi ).
11A∩(τ =i) Y =
E(Y | Fτ ) =
A
A
i
A
i
Beide Seiten sind Fτ meßbar. Damit sind die bedingten Erwartungen gleich.
P
P
vii) E(Xσ | Fτ ) = i 11τ =i E(Xσ | Fi ) =(≥,≤) i 11τ =i Xσ∧i = Xσ∧τ . Beide
Seiten sind Fτ meßbar und damit gleich.
q.e.d.
Satz 27 Sei (X, F) ein Martingal (Sub-, Super-) und τ eine Stoppzeit. Dann
ist, sofern integrierbar, Xτ +n , n ∈ IN0 ein Martingal (Sub-, Super-) bezüglich
(Fτ +n )n .
Beweis: Wir geben die Argumentation nur für ein Martingal.
X
X
E(Xτ +n+1 | Fτ +n ) =
11τ +n=j E(Xj+1 | Fj ) =
11τ +n=j Xj = Xτ +n .
j
j
q.e.d.
Korollar 28 Sei τ0 ≡ 0 und τm : Ω → {1, . . . , N }, m ∈ IN, eine aufsteigende
Folge von beschränkten Stoppzeiten bzgl. einer Filtration F und (X, F) ein
Martingal (Sub-, Super-). Dann ist (Xτm )m∈IN0 ein Martingal (Sub-, Super-)
bezüglich der Filtration (Fτm )m .
Beweis: Wir geben die Argumentation nur für ein Martingal. Der Prozess
(Xτ1 +n , Fτ1 +n )n∈IN0 ist ein Martingal. τ2 ist eine Stoppzeit bezüglich der Filtration (Fτ1 +n )n . Folglich ist durch erneute Anwendung von Satz (27) Xτ1 , Xτ2 , Xτ2 +1 , . . .
ein Martingal bezüglich Fτ1 , Fτ2 , Fτ2 +1 , . . . . Mit Induktion (Übung) erhalten
wir die Aussage.
q.e.d.
26
(31. Januar 2017) Martingaltransformierte
Warnung: Aus x0 = E(Xτ ∧n ) für alle n folgt im allgemeinen nicht x0 =
E(Xτ ), selbst für Martingale nicht. Das Martingal (verdoppeln des Einsatzes bis zum ersten Gewinn) ist ein Gegenbeispiel, Mτ ≡ 1 fast sicher, aber
E(Mτ ∧n ) = 0 mit τ die Stoppzeit zum ersten Mal die 1 zu erreichen.
3 Fast sichere Konvergenz
Besonders wichtige Martingalkonvergenzarten sind fast sichere Konvergenz (Doobsche Konversatz), die L1 -Konvergenz (Regulärität) und die L2 -Konvergenz
(Hilbertraum). Wir betrachten alle in getrennten Kapiteln.
Satz 29 (Doob Konvergenzsatz) Sei X ein Submartingal und sei supn∈IN E(Xn+ ) <
∞. Dann konvergiert Xn fast sicher gegen eine reellwertige Zufallsvariable.
Dreh- und Angelpunkt für die fast sichere Konvergenz ist das Doob Upcrossing Lemma.
3.1
Doob Upcrossing Lemma
Wir zeigen hier die fundamentale Upcrossing-Ungleichung, auf der mehrere
wichtige Konvergenzsätze aufbauen. Die wesentliche Idee ist der Begriff der
aufsteigenden Überquerungen.
Definition 30 Sei x = (xn )n∈IN eine abzählbare Folge erweiteter reeller Zahlen und I = (a, b), a < b ein offenes Intervall. Die Anzahl U = U (I, x) der
aufsteigenden Überquerungen von I durch die Folge x ist das Supremum aller
natürlichen Zahlen l ∈ IN0 , sodaß es Indizes n1 < n2 < n3 < n4 < . . . <
n2l−1 < n2l gibt mit xn2i−1 ≤ a und xn2i ≥ b für 1 ≤ i ≤ l.
Das folgende Bild zeigt die geometrische Bedeutung. In dem Bild sind die Punkte (n, xn ) in der Ebene aufgetragen und durch Geraden verbunden. Die aufsteigenden Überquerungen sind fetter eingezeichnet.
27
28
(31. Januar 2017) Fast sichere Konvergenz
✻
b
r
❇
a
❇
❇
1
❇
❇r
❅ ✄
❅✄r
2
✄
✄
✄
✄
r
✄❅ ✄
✄ ❅✄r
✄
n1
✄
✄
✄
r
n2
r
❊
❊
r
❊
❊
r
r
✄❅
✆
✆
❊
✄ ❅r
✆
❊
❆
✄
✆
r
❊ ✄
❆
✆
✂❈
❊ ✄
❆❆r
✆
✂ ❈
❊ ✄
❆
✆
✂ ❈
❊❊✄r
❆ ✂
❈ ✆
❆❆✂r
❈ ✆
❈✆
❈✆r
n3 n4
n5
n6
✲
Die Anzahl ist U ((4, 8), (6, 3, 2, 6, 5, 9, 10, 4, 8, 7, 5, 3, 6, 2, 8, 9)) = 3.
Eine äquivalente Beschreibung ist via der speziellen Folge, τ1 := inf{n |
xn ≤ a} τ2 := inf{n > τ1 | xn ≥ b} τ3 := inf{n > τ2 | xn ≤ a} usw. Allgemein:
τ2i := inf{n > τ2i−1 | xn ≥ b},
τ2i+1 := inf{n > τ2i | xn ≤ a}.
Dann gilt
U (I, x) = sup{l | n2l < ∞}.
Die Bedeutung aufsteigender Überquerungen liegt in folgendes Konvergenzkriterium für Folgen.
• Eine Folge x von erweiterten reellen Zahlen konvergiert in den erweiterten
reellen Zahlen dann und nur dann, falls für jedes offene, nicht leere Intervall
I = (a, b), a < b ∈ IR die Anzahl der (aufsteigenden) Überquerungen U (I, x)
endlich ist.
Die folgenden Eigenschaften für eine endliche Folge x sind einfach beweisbar. Sei I = (a, b). Wir verwenden für c ∈ IR x−c = (xn −c)n , x∨c = (xn ∨c)n
und weiteres sinngemäs̈. (τi )i ist obige Folge (von Stoppzeiten). Aus schreibtechnischen Gründes sei x∞ = −∞.
• ∀c ∈ IR U (I, x) = U (I − c, x − c)
• U (I, x) = U (I, x ∨ a) = U (I, x ∧ b)
• U (I, x) = U (I, (xτi )i∈IN )
• U (I, (xτi )i ) = 1τ2 <∞ + U (I, (Xτi )i≥3 ).
• Für n2i < ∞ gilt ≤
xn2i −xn2i−1
b−a
.
3.1. Doob Upcrossing Lemma (31. Januar 2017)
29
Damit erhalten wir
U (I, x) ≤
X
i|n2i <∞
xn2i − xn2i−1
.
b−a
Lemma 31 (Upcrossing Lemma von Doob) Die erwartete Anzahl der aufsteigenden Überquerungen eines Intervall I = (a, b), a < b, durch ein Submartingal X ist
E(Xn − a)+
E(U (I, X)) ≤ sup
.
(3.1)
b−a
n
Beachte, die Abbildung n 7→ E(Xn − a)+ ist isoton und der Grenzwert für
n → ∞ gleich dem Supremum über n. Dasselbe gilt für Stoppzeiten.
Beweis: Alles ist wohldefiniert. U ist eine pfadweise definierte Zg. Der Prozess Y = X ∨ a ist ein Submartingal mit ebensovielen aufsteigenden Überquerungen U (I − a, Y ) von (0, b − a) wie das Submartingal X bzgl. I = (a, b). Aus
schreibtechnischen Gründen sei Y∞ = 0.
Seien die τi rekursiv definiert wie oben für den Y bzw. X Prozess. Die τi
sind erweiterte Stoppzeiten. Setze Y∞ = a. Dann ist (Yτi )i ein Submartingal
mit derselben Überkreuzungsanzahl.
U (I, X)
=
=
≤
(b − a)EU (I, X)
≤
U (I − a, Y ) =
X
i
1τ2i <∞ ≤
X Yτ2i − Yτ2i−1
b−a
i
X
1
lim inf
11τ2i ≤N (Yτ2i − Yτ2i−1 )
b − a N →∞ i
X
1
lim inf
(Yτ2i ∧N − Yτ2i−1 ∧N )
b − a N →∞ i
X
E lim
(Yτ2i ∧N − Yτ2i−1 ∧N )
N
i
X
(EYτ2i ∧N − EYτ2i−1 ∧N )
X
(EYτ2i ∧N − EYτ2i−2 ∧N 11i>1 )
≤
lim
≤
lim
≤
lim(EYN − 0) = lim E(XN − a)+ = sup E(XN − a)+
N
N
N
i
i
N
N
q.e.d.
Das Doobsche Upcroosinglemma gilt auch für Martingale (Xn )n≤N mit endlichem Zeithorizont N ∈ IN. Erweitere den Zeitparameter durch Xn = XN für
n > N.
30
3.1.1
(31. Januar 2017) Fast sichere Konvergenz
Fast sichere Konvergenz
Satz 32 (Doob Konvergenzsatz) Sei X ein Submartingal und sei supn∈IN E(Xn+ ) <
∞. Dann konvergiert Xn fast sicher gegen eine reellwertige Zufallsvariable.
Beweis: Sei A := {lim inf n Xn < lim supn Xn } und Aa,b := {lim inf Xn < a <
b < lim sup Xn }.
• P (Aa,b ) = 0 für alle a < b.
Jeder Pfad n 7→ Xn (ω) für festes ω ∈ Aa,b überquert aufsteigend unendlich
oft das Intervall (a, b). In Formeln
Aa,b ⊂ {U ((a, b), X) = ∞}.
Das Doob Upcrossing Lemma liefert
E(Xn − a)+
< ∞.
n→∞
b−a
E(U ((a, b), X)) ≤ lim
Dies beides impliziert P (Aa,b ) ≤ P (U ((a, b), X) = ∞) = 0.
• A ist eine Nullmenge.
Beachte A ist enthalten in der Vereinigung aller Aa,b mit rationalen Zahlen
a < b. Damit ist A eine Nullmenge.
• Xn konvergiert fast sicher gegen eine erweiterte Zg Y : Ω 7→ IR
Dies gilt auf dem Komplement von A pfadweise.
• Y ist fast sicher endlich.
Aus Tschebycheff und Proposition (16) erhalten wir für c > 0,
P (|Y | > c) ≤ lim inf P (|Xn | > c) ≤ lim inf
n
n
E|Xn |
1
1
≤ lim inf (2EXn+ −x0 ) = (2 sup EXn+ −x0 ) →c→∞ 0.
c
c n
c
n
q.e.d.
Korollar 33 Jedes positive Supermartingal insbesondere Martingal ist fast sicher konvergent.
Beweis: Doobscher Konvergenzsatz.
3.2
Klassische Resultate zur fast sicheren Martingalkonvergenz.
Um einen kleinen Eindruck von der Stärke des Doobschen Konvergenzsatzes zu
gewinnen, wollen wir klassische starke Konvergenzätze für Summen unabhängiPn
ger Zgn ableiten. Die Partialsummen Sn = i=1 Xi unabhängiger zentrierter
3.2. Klassische Resultate zur fast sicheren Martingalkonvergenz. (31. Januar 2017) 31
(integrierbarer) Zgn bilden ein Martingal,
E(Sn+1 | An ) = Sn + E(Xn+1 | An ) .
{z
}
|
=E(Xn+1 )=0
Satz 34 (Levy) Seien Xn , n ∈ IN, unabhängige, zentrierte Zufallsgrößen mit
P
Pn
n∈IN Var(Xn ) < ∞. Dann konvergiert die n-te Partialsumme Sn =P i=1 Xi
∞
fast sicher gegen einen endlichen und wohldefinierten Wert genannt i=1 Xi .
Beweis: Wir rechnen das Doobsche Kriterium aus Satz 29 nach.
∞
n
X
X
Jensen
VarXi < ∞.
VarXi ≤
E 2 (Sn+ ) ≤ E(Sn2 ) =
i=1
i=1
Diese Abschätzung ist unabhängig von n.
q.e.d.
Beispiel: Seien X1 , X2 , . . . Zufallsvariablen mit Werten +1 und −1 jeweils mit Wahrscheinlichkeit 1/2. Sei cn , n ∈ IN eine Folge reeller Zahlen mit
P 2
P
punktweise
n cn < ∞. Dann ist
n cn Xn (in dieser Reihenfolge) fast sicher
P
wohldefiniert. Beachte die Summe muß nicht absolut konvergieren, n |cn Xn | =
P
1
n |cn | kann unendlich sein. Das Standardbeispiel ist cn = n .
Als nächstes ein wohlbekannter Hilfssatz für Folgen, das Kronecker-Lemma.
Lemma 35 (Kronecker) Seien an , bn , n ∈ IN zwei Folgen reeller Zahlen.
Die Folge bn sei strikt positiv und strikt steigend gegen ∞. Dann gilt:
n
X
ai
i=1
.
bi
konvergent =⇒
lim
n→∞
1
bn+1
n
X
ai = 0
i=1
Pn
Beweis: Setze sn :=
s := limn sn als Grenzwert der sn . Sei
i=1 ai /bi und
Pn
(cn )n eine strikt positive Folge und i=1 ci →n ∞. Dann konvergiert die Folge
c1 s1 +...+cn sn
ebenfalls gegen s.
c1 +...+cn
Wähle dazu zu vorgegebenem ǫ ein n0 mit |sn − s| < ǫ für alle n ≥ n0 .
Dann gilt
Pn
Pn
Pn0
ci (si − s)
ci si
ci (si − s)
i=1
i=1
0 +1
Pn
Pn
=s+
+ i=nP
n
j=1 cj
j=1 cj
j=1 cj
Mit n → ∞ and anschließend ǫ → 0 erhalten wir die Behauptung.
Für die spezielle Folge cn := bn+1 − bn , n ≥ 1 sind die Voraussetzungen
Pn
Pn
c i si
i=1
→n s.
cn > 0 und i=1 ci = bn+1 − b1 → ∞ erfüllt. Wir erhalten
bn+1
Aus der Identität
n
n
X
X
bi (si−1 − si ) − b1 s1
ci si = . . . = bn+1 sn +
i=1
i=2
32
(31. Januar 2017) Fast sichere Konvergenz
erhalten wir die nach Division durch bn+1
1
bn+1
n
X
i=1
ci si = sn −
1
bn+1
n
X
i=1
ai −
a1
bn+1
Mit dem Grenzübergang n → ∞ folgt die Behauptung.
.
q.e.d.
Satz 36 (Satz von Kolmogoroff ) Sei (bn )n eine strikt positive, gegen unendlich aufsteigende Folge. Sei X1 , X2 , . . . eine Folge unabhängiger, zentrierter
P∞
n)
< ∞. Dann konvergiert Sbnn fast sicher gegen 0.
Zgn mit n=1 Varb(X
2
n
Pn
i
Beweis: Die Zg Mn := i=1 X
bi ist eine Partialsumme unabhängiger Zgn. Der
Satz von Levy liefert die fast sichere Konvergenz von Mn gegen eine endliche
P ∞ Xi
Zufallsvariable M∞ :=
i=1 bi . Aus Kroneckers Lemma erhalten wir fast
sicher Sbnn → 0.
q.e.d
Die Standardsituation ist die einer Folge von zentrierten uiv Zgn mit endlicher Varianz und bn = nβ . Der Satz von Kolmogoroff liefert
Sn f.s.
→n→∞ 0
nβ
für jedes β > 1/2. Dies ist eine Verschärfung des Starken Gesetzes der Gros̈en
f.s.
Zahl, welches Snn →n 0 besagt.
P
Für β = 1/2 gilt VarXn /n2β = ∞ und der Satz von Kolmogoroff ist nicht
anwendbar. Der Zentrale Grenzwertsatz liefert noch Verteilungskonvergenz:
S
d
√n →n N (0, Var(X1 )).
n
3.2.1
Kolmogoroff drei Reihen Satz*
Dies ist eine Umkehrung des Satzes von Lévy 34.
Satz 37 Seien Xn , n ∈ IN, unabhängige, zentrierte und gleichmäs̈ig beschränkte Zufallsvariablen.
Pn
Die Partialsumme Sn = i=1 Xi konvergiert fast sicher gegen eine Zg dann
P
und nur dann, wenn die Summe n VarXn der Varianzen der Zuwächse Xn
endlich ist.
Im allgemeinen konvergiert Sn punktweise entweder mit Wahrscheinlichkeit
0 oder mit Wahrsch. 1.
Beweis: Die Rückrichtung ist der Satz von Levy 34. Nun zur Hinrichtung. Seien
die Xn gleichmäßig beschränkt durch c. Definiere die Stoppzeiten τ = τC =
inf{n | |Sn | > C} für eine reelle Zahl C.
3.2. Klassische Resultate zur fast sicheren Martingalkonvergenz. (31. Januar 2017) 33
• |Sτ ∧n | ≤ c + C
Der Fall τ > n ist einfach und im Falle τ ≤ n argumentiere
|Sτ ∧n | = |Sτ −1 + Xτ | ≤ |Sτ −1 | + |Xτ | ≤ c + C.
• Es existiert ein C mit P (τC = ∞) > 0.
Da Sn fast sicher konvergiert, folgt supn |Sn | ist beschränkt f.s. und P (τC =
∞) րC 1.
Pn
• Mn := Sn2 − An mit An := i=1 Var(Xi ), ist ein Martingal.
2
E(Mn+1 − Mn | An ) = E(Xn+1
− 2Xn+1 Mn − VarXn+1 | An ) = 0.
• E(Aτ ∧n ) = E(Sτ2∧n ) ≤ (c + C)2 < ∞.
Mτ ∧n ein Martingal und das Optinal Sampling Theorem liefert 0 = E(Mτ ∧n ) =
E(Sτ2∧n ) − E(Aτ ∧n ).
P
• A∞ := n∈IN VarXn < ∞
Für C mit P (τC = ∞) > 0 argumentiere
An E11τ =∞ ≤ E(Aτ ∧n ) ≤ (c + C)2 < ∞
und damit An ist gleichmäs̈ig beschränkt.
Zur letzten Aussage konvergiere Sn auf einer Menge von strikt positivem
Maß. Auf dieser Menge gelten die obigen Behauptungen und analog zum obigen
können wir A∞ < ∞ schließen. Dies impliziert seinerseits fast sichere Konvergenz der Partialsummen via dem Satz von Levy.
q.e.d.
Beispiel: Seien X1 , X2 , . . . unabhängige Zufallsgrößen mit Werten +1 und
−1 jeweils mit Wahrscheinlichkeit 1/2 und sei cn , n ∈ IN, eine Folge reeller
P∞
Zahlen. n=1 cn Xn ist fast sicher punktweise wohldefiniert dann und nur dann,
P∞ 2
P
wenn n=1 cn < ∞ gilt. Die Reihe n cn Xn konvergiert absolut genau dann,
P∞
P
wenn n=1 |cn | < ∞ gilt. Im Falle cn = 1/n konvergiert die Folge i≤n ci Xi
fast sicher, aber nicht absolut.
Satz 38 (Dreireihensatz von Kolmogoroff ) Sei Xn , n ∈ IN, eine Folge
Pn
unabhängiger Zgn. Dann konvergiert Sn = i=1 Xi fast sicher dann und nur
dann, wenn es eine Konstante c > 0 gibt bzgl. der alle folgenden drei Reihen
gegen einen endlichen Grenzwert konvergieren
X
P (|Xn | > c)
(3.2)
n
X
n
E(Xn 11|Xn |≤c )
(3.3)
34
(31. Januar 2017) Fast sichere Konvergenz
X
Var(Xn 11|Xn |≤c )
(3.4)
n
Konvergieren die Reihen für eine Konstante c > 0, so für alle Konstanten.
Konvergiert Sn auf einer Menge von strikt positivem Maß, so fast sicher überall.
Beweis: Wir zeigen die Hinrichtung. Sei c > 0 beliebig. Betrachte die abge(c)
(c)
schnittenen Zufallsgrößen Xn := 11|Xn |≤c Xn . Wir verwenden auch Sn =
P
(c)
i≤n Xi .
• Konvergenz der ersten Reihe.
Da Sn fast sicher konvergiert treten die Ereignisse |Xn | > c nur endlich oft
ein mit Wahrscheinlichkeit 1. Der Satz von Borel-Cantelli impliziert Konvergenz
der ersten Reihe.
(c)
• Sn konvergiert f.s. genau dann wenn Sn f.s. konvergiert.
P
(c)
Die Differenz Sn −Sn = i≤n Xi 11|Xi |>c < ∞ ist stets endlich, da |Xn | > c
nur endlich oft eintritt.
• Die dritte Reihe konvergiert.
Wir benutzen jetzt einen Symmetrisierungtrick von Levy. Wähle weitere unabhängige Zgn Xn , n ∈ IN mit X n habe dieselbe Verteilung wie Xn und
(c)
(c)
(c)
verwende S n analog. Dann konvergiert Sn − S n wegen dem vorherigen
fast sicher. Dies ist auch die Partialsumme von unabhängigen zentrierten Zgn
(c)
(c)
Xn − X n . Nach der Umkehrung des Satzes von Levy, 37 schließen wir auf
P
(c)
(c)
(c)
(c)
(c)
n Var(Xn − X n ) < ∞. Mit Var(Xn − X n ) = 2Var(Xn ) folgt die Konvergenz der dritten Reihe.
• Die zweite Reihe konvergiert.
Die Konvergenz der dritten Reihen impliziert laut dem Satz von Lévy 34 die
Pn
(c)
(c)
(c) Pn
(c)
Konvergenz von i=1 (Xi −EXi ) = Sn − i=1 EXi . Mit der Konvergenz
(c)
von Sn ergibt sich die Teilbehauptung.
⇐ Die Konvergenz der dritten Reihe liefert nach dem Satz von Lévy 34
Pn
(c)
(c)
die Konvergenz von
− EXi ). Dies zusammen mit der Konveri=1 (Xi
(c)
genz der zweiten Reihe impliziert die Konvergenz von Sn . Dies zusammen mit
der Konvergenz der ersten Reihe impliziert nach Borel-Cantelli die fast sichere
Konvergenz von Sn .
Konvergiert Sn nur auf einer Menge von strikt positivem Maß, so zeige die
Konvergenz der Reihen nur auf dieser Menge. Da die Reihen deterministisch
sind, gilt die Konvergenz überall. Damit auch die fast sichere Konvergenz von
Sn .
Konvergieren die Reihen für ein c > 0, so konvergiert Sn fast sicher und
dann konvergieren die Reihen für jedes c > 0.
q.e.d.
Zur Anwendung noch einmal fast sichere Konvergenz von Partialsummen
von uiv Zgn.
3.2. Klassische Resultate zur fast sicheren Martingalkonvergenz. (31. Januar 2017) 35
Satz 39 Seien Xn , n ∈ IN uiv zentrierte Zgn mit endlichem α-Moment E|X1 |α <
P
i
∞ für ein 1 < α < 2. Dann gilt i≤n iX
1/α konvergiert fast sicher gegen eine
Zgn und
Sn f.s.
→n 0.
n1/α
Bew: Wegen dem Lemma von Kronecker reicht es nur die fast sichere Konvergenz des ersten Ausdrucks zu beweisen. Wir verwenden den Drei-Reihen-Satz
von Kolmogoroff mit c = 1. Sei bn = n1/α und C generische Konstanten.
X
P(
n
X
n
|Xn |
≥ 1)
bn
Xn
|E
11|Xn |≤bn |
bn
=
X
P (|X1 |α ≥ n) ≤ E|Xn |α < ∞
=
X
|E
=
X
n
n
=
X1
11|X1 |≤bn |
bn
X |X1 |
X1
11|X1 |>bn | ≤
11|X1 |>bn |
E
bn
bn
n
n
X
E|X1 |
n−1/α 11|X1 |α >n
|E
n
X
n
Var
Xn
11|Xn |≤bn
bn
Z
|X1 |α
x−1/α dx)
≤
E|X1 |(C +
≤
E|X1 |(C + C|X1 |α(−1/α+1) )
≤
≤
=
≤
≤
1
C + CE|X1 |α < ∞
X X2
E 2n 11|Xn |≤bn
bn
n
X
X12
2
≤
EX
1
1
n−2/α 11|X1 |α ≤n
|X
|≤b
1
1
n
b2n
n
n
Z ∞
x−2/α dx)
EX12 (
X
E
|X1 |α −1
2
CEX1 (|X1 |α (−2/α
+ 1)) = CE|X1 |α < ∞
q.e.d.
36
(31. Januar 2017) Fast sichere Konvergenz
4 L1−Martingale
Der zweite großere Konvergenzsatz für Martingale betrifft die L1 -Konvergenz.
Diese kann nur vorliegen, wenn der Erwartungswert des Absolutbetrages beschränkt ist. Dann liegt nach Doob 29 auch fast sichere Konvergenz vor. Damit
reduziert sich die Fragestellung auf: Wann ist eine fast sicher konvergente Folge
auch L1 -konvergent? Dies führt auf gleichgradige Intergrierbarkeit.
Hier ein Beispiel für ein Martingal, welches fast sicher konvergiert aber nicht
in L1 .
Multiplikative Irrfahrt: Sei Xn , n ∈ IN eine Folge unabhängiger Zgn mit
Bernoulli Verteilung zum Parameter 1/2. Betrachte das positive Martingal
Kn :=
n
Y
(2Xi )
i=1
Dieses konvergiert f.s. gegen Null (Übung). Kn konvergiert nicht in L1 , da 0 der
einzig mögliche Grenzwert ist (der L1 -Grenzwert ist gleich dem stochastischen
Grenzwert) und kKn − 0k1 ≡ 1 6= 0 gilt. Die Interpretation ist Kn als Kapital
eines Spielers der Martingalstrategie.
Eine verfeinerte Version ist das Petersburger Spiel.
Petersburger Spiel: Sei Xn , n ∈ IN, eine Folge uiv Zgn mit strikt positiven
Werten. Wir wollen E(X1 ) > 1 und E(ln X1 ) < 0 annehmen. Definiere K0 = 1
und
n
Y
Xi .
Kn =
i=1
(Kn )n ist ein Submartingal. Der Erwartungswert E(Kn ) = (E(X1 ))n konvergiert exponentiell schnell gegen unendlich. Andererseits wissen wir nach dem
starken Gesetz der Großen Zahl ln nKn konvergiert f.s. gegen E(ln X1 ) < 0,
n
ln Kn
1X
f.s.
=
ln Xi →n E(ln X1 ) < 0.
n
n i=1
37
(31. Januar 2017) L1 −Martingale
38
Dies bedeutet Kn konvergiert f.s. gegen Null, aber Kn konvergiert nicht in L1 .
Spielinterpretation: Dieser Effekt hat eine schöne Interpretation. Ein
Spieler spiele obiges, für ihn langfristig günstiges Spiel. Kn ist sein Kapital
nach dem n−ten Teilspiel. Vor dem (n + 1)−Spiel darf er sich entscheiden,
das Kapital Kn als endgültigen Gewinn zu akzeptieren oder alles riskierend
weiterzuspielen um dann Kn+1 = Kn Xn+1 nach dem (n + 1)−ten Spielzug zu
besitzen. (Mehr zur kühnen Spielweise siehe die Sektion über Kasinospiele.)
Um seinen erwarteten Gewinn zu maximieren, sollte der Spieler stets weiterspielen. Der bedingte erwartete Zugewinn Kn (E(Xn+1 ) − 1) > 0 ist stets strikt
positiv. Andererseits wird der Spieler mit dieser Entscheidungsregel fast sicher
bankrott gehen (und dies relativ schnell). Dies läßt sich dadurch erklären, daß
der Spieler für große n mit sehr kleiner Wahrscheinlichkeit ein sehr großes Kapital ansammeln wird, mit großer Wahrscheinlichkeit jedoch das kleine Kapital
0.
Die Erwartung allein macht nicht glücklich!
4.1
L1 −konvergente Martingale
Im folgenden wird der Begriff gleichgradige Integrierbarkeit, siehe Anhang, vorausgesetzt.
Proposition 40 Sei X integrierbar. Dann ist die Familie E(X | B), mit B
eine Unter-σ-Algebra, gleichgradig integrierbar.
Bew: Sei Y = E(X | B)
E|X|
E|Y |
≤
→c→∞ 0
c
c
Z
|Y | ≤
|X| →c 0
P (|Y | > c) ≤
Z
|Y |>c
|Y |>c
Die Abschätzungen sind gleichmäßig.
Zur Wiederholung, es gilt für Zgn Yn , n ∈ IN
L1
Y n →n Y
⇔
⇔
s
Yn →n Y und kYn k →n kY k < ∞
s
Yn →n Y und gleichgradige Integrierbarkeit
Hierbei steht s für stochastische Konvergenz, d.h. dem Maße nach.
Satz 41 Äquivalent für ein Submartingal oder Supermartingale X sind:
q.e.d.
4.1. L1 −konvergente Martingale (31. Januar 2017)
39
(i) Xn konvergiert in L1 .
(ii) (Xn )n∈IN0 ist gleichgradig integrierbar.
(iii) supn kXn k1 ist endlich und kXn k1 →n kX∞ k1 mit X∞ der fast sichere
Grenzwert von X.
(iv) Es existiert eine symmetrische positive Funktion ϕ mit
und supn Eϕ(Xn ) < ∞.
ϕ(x)
x
→x→∞ ∞
Beweis: i) ⇒ ii) Siehe die obigen allgemeinen Äquivalenzen.
ii) ⇒ iii) Aus der gleichgradigen Integrierbarkeit folgt supn kXn k1 < ∞.
Nach Doob konvergiert die Folge (Xn )n fast sicher und damit auch stochastisch.
Für den Rest siehe oben.
iii) ⇒ i) Verwende Doob und siehe oben.
iii) ⇔ iv) Dies gilt allgemein, d.h. ohne die Martingalstruktur.
q.e.d.
Von der obigen Funktion ϕ können noch mehr schöne Eigenschaften gefordert werden, wie z.B. konvex und unendlich oft differenzierbar.
Bsp: Lp -Martingale sind regulär für p > 1 (Satz 41iv).
4.1.1
Zeitabschluss
Zeitabschluß: Von Zeitabschluß sprechen wir, wenn wir den Prozess (X, F) =
(Xn , Fn )n∈IN0 erweitern können zu einer Folge (Xn , Fn )n∈IN0 unter Beibehaltung der Struktur.
Es gibt mehrere solche Erweiterungen. Eine besondere Rolle spielt die ’kleinste’ Erweiterung. Hierbei wird F∞ als kleinste σ-Algebra erzeugt durch alle
Fn , n ∈ IN gewählt und X∞ als meßbar bzgl. F∞ , d.h. bestimmt bereits durch
die Folge (X, F).
Jedes L1 -konvergente Martingal (Sub-,Super-) (X, F) läßt sich erweitern zu
einem Martingal (Sub-, Super- ) (Xn , Fn )n∈IN0 durch den L1 -Grenzwert X∞ .
Dies ist gleichzeitig die kleinste Erweiterung.
Lemma 42 Für eine integrierbare Zg Y ist X mit
Xn := E(Y | Fn )
ein reguläres Martingal. Dieses konvergiert fast sicher und in L1 gegen denselben Grenzwert X∞ = E(Y | F∞ ).
Beweis: • kXn k1 ≤ kY k1 für n ∈ IN.
kXn k1 = E(|E(Y | Fn )|) ≤ E(E(|Y | | Fn )) = E(|Y |) = kY k1 < ∞.
• Xn ist gleichgradig integrierbar.
(31. Januar 2017) L1 −Martingale
40
Siehe Proposition (40)
• (X, F) ist ein Martingal.
Xn ist adaptiert, integrierbar und die Martingaleigenschaft wird mit der
Tower-Property nachgerechnet,
E(Xn+1 | Fn ) = E(E(Y | Fn+1 ) | Fn ) = E(Y | Fn ) = Xn .
• Xn konvergiert fast sicher gegen eine Zg genannt X∞ .
Dies folgt aus supn kXn k1 ≤ kY k1 < ∞ und dem Doob Konvergenzsatz 29.
• Xn konvergiert gegen X∞ in L1 .
Aus gleichgradiger Integrierbarkeit und der fast sicheren Konvergenz von
Xn gegen X∞ folgt die L1 -Konvergenz.
• Xn = E(X∞ | Fn ) fast sicher.
Aus fast sicherer Konvergenz Xn → X∞ und gleichgradiger Integrierbarkeit
erhalten wir fast sicher
E(X∞ | Fn ) = E(lim Xi | Fn ) = lim E(Xi | Fn ) = Xn .
i
i
• X∞ = E(Y | F∞ ) f.s.
R
Sei Z = E(Y | F∞ . Aus E(X∞ | Fn ) = E(Z | Fn ) f.s. erhalten wir A X∞ =
R
Z für alle A ∈ Fn , n ∈ IN. Damit auch für die von Fn , n ∈ IN erzeugte
A
σ-Algebra F∞ . Da beide Zgn X∞ und Z F∞ meßbar sind, folgt Gleichheit f.s..
q.e.d.
Satz 43 (Levy) Es gibt eine bijektive Abbildung zwischen integrierbaren F∞
meßbaren Zgn Y und L1 −konvergenten Martingalen (X, F). Diese kann gegeben werden durch
Xn = E(Y | Fn ).
Xn konvergiert fast sicher und in L1 gegen Y .
Beweis: Betrachte die Abbildung Y 7→ X = (E(Y | Fn ))n . Diese Abbildung ist
wohldefiniert nach dem Lemma 42. Ferner konvergiert E(Y | Fn ) in n fast sicher
gegen Y. Hieraus ergibt sich sofort die Injektivität und auch die Surjektivität
der Abbildung.
q.e.d.
1
Wir benutzen L -konvergente Martingale mit dem Zeitbereich IN0 .
Korollar 44 Jedes L1 −konvergente Martingal ist darstellbar als die Differenz
zweier positiver L1 −konvergenter Martingale.
+
−
Bew: Sei X ein reguläres Martingal. Zerlege X∞ = X∞
− X∞
in den Positivteil
−
+
| Fn ). Dann gilt
und Negativteil und setze Yn = E(X∞ | Fn ), Zn = E(X∞
Xn = Y n − Z n .
q.e.d.
4.1. L1 −konvergente Martingale (31. Januar 2017)
41
Bemerkung: Der Raum der L1 −konvergenten Martingale M1 versehen mit
der Norm kXk1 = supn kXn k1 ist ein normierter Vektorraum, siehe die Bijektion zu L1 (F∞ ). Allgemeiner, wegen der Bijektivität können wir den Raum
Lp (F∞ ), p ≥ 1 identifizieren mit einer Menge von Martingalen versehen mit
der Norm kXkp = supn kXn kn .
Satz 45 (Kolmogoroff 0-1 Gesetz) Seien Xn , n ∈ IN uiv Zgn. Dann ist
die terminale σ-Algebra F ∞ = ∩n F n , F n := σ(Xn , Xn+1 , . . .) trivial.
Bew: Sei Fn = σ(X1 , X2 , . . . , Xn ) die kanonische Filtration und F ∈ F ∞ ⊂
F∞ . Beachte Fn und F ∞ sind unabhängig.
11F = E(11F | F∞ ) = lim E(11F | Fn ) = E(1F ) = P (F )
n
P (F ) ist eine Konstante und kann nur 0 oder 1 sein.
4.1.2
q.e.d.
Regulaere Stoppzeiten
Eine der wesentlichen Anwendungen liegt im Optional Sampling Theorem EXτ =
EX1 für Martingale X und reguläre Stoppzeiten.
Eine Stoppzeit τ zur der Filtration F heißt regulär bzgl. dem Martingal
(X, F) falls das Martingal (Xτ ∧n , Fτ ∧n )n L1 −konvergent ist.
Bem: L1 −konvergente Martingale werden auch regulär genannt.
Lemma 46 Sei X ein reguläres Martingal bzgl. der Filtration F, X∞ der L1 Grenzwert. Dann ist jede erweiterte Stoppzeit τ regulär. Xτ hat die Darstellung
Xτ = E(X∞ | Fτ )
für n ∈ IN . Für jede Folge τm , m ∈ IN, von aufsteigenden Stoppzeiten ist
(Xτm , Fτm )m ein reguläres Martingal.
Beweis: Für eine erweiterte Stoppzeit τ gilt
Xτ ∧n
=
=
=
n
X
m=0
n
X
m=0
n
X
m=0
=
Xm 11τ =m + Xn 11τ >n
11τ =m E(X∞ | Fm ) + 11τ >n E(X∞ | Fn )
E(11τ =m X∞ | Fτ ∧m ) + E(11τ >n X∞ | Fτ ∧n )
E(X∞ | Aτ ∧n ).
(31. Januar 2017) L1 −Martingale
42
(Bedingt auf die Menge {τ = m} sind die σ−Algebren Fm und Fτ gleich.)
Hieraus folgt die Regularität von τ, Satz 41. Mit n → ∞ ergibt sich
Xτ = E(X∞ | Fτ ).
Der zweite Teil der Aussage folgt nach dem Satz 43 für die Filtration (Fτm )m .
q.e.d.
Korollar 47 Sei X ein Martingal und τ eine reguläre Stoppzeit. Dann ist jede
kleinere Stoppzeit σ ≤ τ regulär und
Xσ∧n = E(Xτ | Fσ∧n ).
Wann ist eine Stoppzeit regulär? Das folgende Lemma beantwortet diese
Frage.
Lemma 48 Sei X ein Martingal und τ eine Stoppzeit. Äquivalent sind
(i) τ ist regulär.
(ii) kXτ ∧n k1 →n kXτ k1 .
(iii) (Xτ ∧n )n ist gleichgradig integrierbar.
Beweis: Dieses Lemma ist eine Jagd durch die vorhergenhenden Sätze. Wir
überlassen es dem Leser als Übungsaufgabe und zur Kontrolle.
Korollar 49 (Optional Sampling Theorem) Sei τ eine reguläre Stoppzeit
bzgl. dem Martingal (X, F). Dann gilt
EXτ = EX1 .
Der nächste Abschnitt 7.1 bringt ein Beispiel.
Waldsche Identität
Lemma 50 (Waldsche Identität) Seien Xn , n ∈ IN , uiv Zgn, Sn die n−te
Pn
Partialsumme i=1 Xi und τ eine integrierbare Stoppzeit.
i) Ist X1 integrierbar, so ist τ regulär für das Martingal (Sn − E(Sn ))n . Es
gilt
E(Sτ ) = E(τ )E(X1 )
(4.1)
ii) Ist X1 quadratintegrierbar, so ist τ regulär für das Martingal ((Sn −E(Sn ))2 −
Var(Sn ))n . Ferner gilt
E((Sτ − τ E(X1 ))2 ) = E(τ )Var(X1 ).
(4.2)
4.1. L1 −konvergente Martingale (31. Januar 2017)
Beweis: OEdA sei EX1 = 0.
43
L1
Wir beginnen mit der L1 −Konvergenz Sτ ∧n →n→∞ Sτ
X
X
kSτ ∧n − Sτ k1 = E|
Xm 11τ ≥m | ≤ E
|Xm |11τ ≥m
m>n
=
X
m>n
=
m>n
E(11τ ≥m E(|Xm | | Fm−1 )) =
X
m>n
E(|X1 |)E(11τ ≥m )
E(|X1 |)E(τ 11τ ≥n ) →n→∞ 0.
Obige bewiesene Eigenschaft zeigt die Regulärität von τ und damit ESτ = 0.
Nun zur zweiten Aussage. Der Einfachheit halber seien die X-Zgn zentriert.
Sei Mn := Sn2 − nσ 2 mit σ 2 die Varianz von X1 .
• M ist ein Martingal.
Mn ist integrierbar und die Martingaleigenschaft wird nachgerechnet.
2
2
E(Sn2 | An−1 ) = E(Sn−1
+ Xn2 + 2Sn−1 Xn | An−1 ) = Sn−1
+ E(Xn2 )
• τ ist regulär.
Das Optional Sampling Theorem (OST) liefert EMτ ∧n = M0 = 0 und
damit ESτ2∧n = σ 2 E(τ ∧ n). Dies impliziert die Teilaussage wegen
sup E|Mτ ∧n | ≤ 2σ 2 E(τ ∧ n) ≤ 2σ 2 Eτ < ∞
n
ESτ2
2
= σ Eτ
•
Dies erhalten wir aus dem OST für reguläre Stoppzeiten, EMτ = 0. q.e.d.
Bemerkung: Die Waldsche Identität läßt vermuten, daß es ein ähnlich
gebautes Martingal gibt mit Sn3 , Sn4 , . . . . Wie sehen diese aus? Das nächste ist
Sn3 −nσ 2 Sn −nEX 3 für zentrierte Zgn. Und dann? (Die Lösung ist im Abschnitt
exponentielle Martingale.)
Folgerung 51 Seien Xn , n ∈ IN, uiv Zgn mit Werten −1 oder +1 mit Wahrscheinlichkeit 1/2. Sei Sn die Partialsumme und τc := inf{n | Sn ≥ c}. Dann
gilt E(τ1 ) = ∞.
Beweis: Wäre Eτ1 < ∞ so ergibt die Waldsche Identität 1 = ESτ1 = E(τ1 )E(X1 ) =
0 einen Widerspruch.
q.e.d.
Bemerkung: Seien Xn , n ∈ IN, uiv integrierbare Zgn, c > 0.
Im Fall EX1 > 0 gilt P (τc < ∞) = 1 und Eτc < ∞.
Im Fall EX1 = 0 gilt P (τc < ∞) = 1 und Eτc = ∞.
Im Fall EX1 < 0 gilt P (τc < ∞) < 1 und Eτc = ∞.
Mit Hilfe der Abschneidetechnik lassen sich einige Resultate für nicht integrierbare X−Zgn zeigen, sofern deren Positiv- oder Negativteil integrierbar ist.
(31. Januar 2017) L1 −Martingale
44
Spielstrategie: Einfache Chance Ein Spieler am Roulettetisch setzt stets
eine Einheit auf einfache Chance, sagen wir stets auf Rot (Gewinnchance p <
1/2). Er spielt solange, bis er insgesamt eine Einheit gewonnen hat. Er darf
beliebig viel Kredit aufnehmen. Die Wald Identität besagt, daß dieser Spieler
eventuell sehr lange spielen muß, der Erwartungswert seiner Spielzeit ist ∞.
Mit strikt positiver Wahrscheinlichkeit muß der Spieler sogar lebenslang spielen.
Selbst wenn wir die für den Spieler nachteilige grüne Zahl nicht berücksichtigen
(p = 1/2), bleibt der Erwartungswert der Spieldauer unendlich. Wird dem
Spieler nur begrenzter Kredit gegeben, so spielt er nur endlich oft, bis er pleite
ist oder eine Einheit gewonnen hat.
Verdoppelungsstrategie oder Martingalstrategie: Der Spieler spielt
am Roulette die Martingalstrategie. Er setzt jeweils auf einfache Chance, sagen
wir stets auf Rot, die mit W-keit p ∈ (0, 1) kommt.
• Gewinnt er, so verläßt er mit seinem Gewinn den Spieltisch.
• Hat er in der letzten Spielrunde verloren, so verdoppelt er in der neuen
Spielrunde seinen Einsatz.
Er darf beliebig viel Kredit aufnehmen.
Mit dieser Strategie kann der Spieler sicher sein, genau eine Einheit zu
gewinnen (und dann noch eine und noch eine......). Irgendwann kommt Rot
und dieses Ereignis tritt sogar nach endlicher Erwartungszeit ein. Wenn der
Spieler zum ersten Mal in der n−ten Spielrunde gewinnt, so hat er bis dahin
20 + 21 + . . . + 2n−2 = 2n−1 − 1 Einheiten verloren und gewinnt nun 2n−1 hinzu.
Dies macht einen Gewinn einer Einheit. Wo liegt der Pferdefuß in der Realität?
Mathematisch ist die Argumentation sauber, die Martingalstrategie ist tatsächlich
erfolgreich. Sie müssen nur genügend viel Geld parat haben, um diese Strategie
spielen zu können.
4.1.3
Diverses
5 Rückwärtsmartingale
Ein Rückwärtsmartingal ist ein adaptierter Prozess (Xn , An )n∈IN0 mit (Mt , Ft )t∈−IN0
ein Martingal, wobei M−n = Xn , F−n = An für n ∈ IN0 . Ausführlicher geschrieben, An , n ∈ IN ist eine fallende Folge von σ-Algebren und es gilt die
Martingaleigenschaft
E(Xn | An+1 ) = Xn+1
Analog definiere Rückwärtsub- und Rückwärtssupermartingale durch ≤ bzw.
≥ in obiger Gleichheit.
Die Doobsche Argumentation mit aufsteigenden bzw. absteigenden Überkreuzungen und die Grenzwertbetrachtung durch Monotonie hält allgemein
auch für Rückwärtsmartingale. Die Bedingung supn EXn+ < ∞ ist für Submartingale trivialerweise erfüllt, da das Supremum angenommen wird durch
E(X0+ ) und dieses ist endlich. Weiterhin sind die Rückwärtsmartingale stets
regulär.
Hier ist das Standardbeispiel für Irrfahrten.
Proposition 52 Seien Xn , n ∈ IN, uiv integrierbare Zgn, Sn die n-te Par1)
tialsumme. Dann ist Sn −nE(X
, n ∈ IN, ein Rückwärtsmartingal bzgl. der
n
Filtration (An )n∈IN , An := σ(Sn , Sn+1 , . . .) = σ(Sn , Xn+1 , Xn+1 , . . . und konvergiert fast sicher und in L1 .
Beweis: OEdA sei EX1 = 0.
• E(Xi | An ) = E(Xi | Sn ) für 1 ≤ i ≤ n.
Beachte An = σ(Sn , Xj , j > n) und die Unabhängigkeit von Xi und σ(Xj , j >
n).
• E(Xi | Sn ) = E(X1 | Sn ) für i ≤ n.
Die Verteilung von (Xi )ni=1 ist dieselbe wie von (Xπ(1) )ni=1 für eine Permutation π der ersten n Zahlen. Der Wert Sn ändert sich unter π nicht. Insbesondere
ist (Xi , Sn ) genauso verteilt wie (X1 , Sn ).
• ( Snn , An ) ist ein Rückwärtsmartingal.
45
46
(31. Januar 2017) Rückwärtsmartingale
Die Integrierbarkeit ist offensichtlich.
E(
n−1
n
1 X
1X
Sn
Sn−1
| An ) =
.
E(Xi | An ) = E(X1 | An ) = E(
Xi | A n ) =
n−1
n − 1 i=1
n i=1
n
Der Rest folgt aus Doob und Levy.
q.e.d.
Um die Stärke dieses Satzes zu demonstrieren, beweisen wir das starke Gesetz der Großen Zahl.
Satz 53 (Starke Gesetz der Großen Zahl) Seien Xn , n ∈ IN, uiv Zgn
und Sn die n-te Partialsumme.
Ist X1 integrierbar, so konvergiert Snn fast sicher gegen EX1 .
Ist X1 nicht integrierbar, so gilt lim supn |Snn | = ∞.
Beweis: Sei X1 integrierbar und oEdA EX1 = 0. Dann konvergiert das
Rückwärtsmartingal Snn , n ∈ IN fast sicher und in L1 gegen eine Zg Z. Z ist
meßbar bzgl. der terminalen σ-Algebra A∞ = ∩n An . Nach dem Kolmogoroff
0−1-Gesetz (45) ist A∞ trivial. Z ist eine Konstante. Wegen der L1 -Konvergenz
ist E(X1 ) = 0 = E(Z) = Z.
Sei jetzt X1 nicht integrierbar. Betrachte die Mengen An := {|Xn | > cn}
für eine positive Konstante c. Nach Borel-Cantelli treten fast sicher unendlich
viele der Ereignisse An ein, da die Mengen unabhängig sind und
X
P (An )
=
XX
=
X
n
n i≥n
i
P (i ≤
iP (i ≤
XX
|Xn |
|Xn |
< i + 1) =
< i + 1)
P (i ≤
c
c
i
n≤i
|X1 |
|X1 |
< i + 1) ≥ E
− 1 = ∞.
c
c
(ω)
| > 2c .
• Für ω ∈ An gilt | Snn(ω) | ∨ | Sn−1
n
Sn−1 (ω)
Sei oEdA | n | ≤ 2c . Es gilt
Sn (ω) Xn (ω) Sn−1 (ω) Xn (ω) Sn−1 (ω) =
> c −
n n +
≥ n − n
n
Damit folgt lim supn
|Sn |
n
≥
c
2
für jedes vorgegebene c > 0.
c c
= .
2
2
q.e.d.
6 Quadratintegrierbare
Martingale
Sei M ein quadratintegrierbares (EMn2 < ∞) Martingal. Wir benutzen der
Einfachheit halber Standardmartingale. Mn hat die Darstellung
Mn = M0 +
n
X
Di
i=1
mit den Martingaldifferenzen Di = Mi − Mi−1 . Eine einfache Rechnung ergibt
Proposition 54 Sei M ein quadratintegrierbares Martingal. Die Doob-Meier
Pn
Zerlegung des Submartingals (Mn2 ) lautet Mn2 = Xn +An mit An = i=1 E(Di2 |
Pn
Fi−1 ) und Xn = Mn2 −An . Die Varianz berechnet sich zu Var(Mn ) = i=1 Var(Di ).
2
| Fn−1 ) = E(Dn2 | Fn−1 ) und die Varianz
Bew: Berechne E(Mn2 − Mn−1
entsprechend.
q.e.d.
Satz 55 Sei M ein quadratintegrierbares Martingal. Dann konvergiert M in
L2 genau dann, wenn limn VarMn endlich ist.
Im L2 -Konvergenzfall konvergiert Mn auch fast sicher gegen den L2 -Grenzwert
M∞ und es gilt
X
VarM∞ =
VarDi .
i∈IN
Bew: OEdA sei M0 = 0.
′
⇒′ Das Martingal M konvergiere in L2 gegen einen Grenzwert genannt
M∞ . Dann gilt kMn k2 →n kM∞ k2 < ∞ und damit
EMn2 =
n
X
i=1
′
VarDi →n→∞
X
i∈IN
2
VarDi = EM∞
< ∞.
′
⇐ Die Folge (Mn )n ist eine Cauchyfolge, da für m < n gilt
kMn − Mm k22 = E(
n
X
i=m+1
Di )2 =
n
X
i=m+1
47
Var(Di ) ≤
X
i>m
Var(Di ) →m 0.
48
(31. Januar 2017) Quadratintegrierbare Martingale
Die fast sichere Konvergenz folgt aus Doob, supn E|Mn | ≤ supn kMn k2 <
∞. Der f.s. Grenzwert und der L2 Grenzwert sind gleich.
q.e.d.
7 Exponentielle Martingale
7.1
Irrfahrt
Pn
Seien X1 , X2 , . . . uiv zentrierte Zgn nicht identisch 0. Sei Sn = i=1 Xi die nte Partialsumme. Wir nehmen die natürliche Filtration Fn := σ(S1 , . . . , Sn ) =
σ(X1 , . . . , Xn ).
• Falls |X1 | integrierbar ist, so ist Sn ein Martingal.
• Falls X12 integrierbar ist, so ist Sn2 − nE(X12 ) ebenfalls ein Martingal.
• Falls |X1 |3 integrierbar ist, so ist Sn3 − 3Sn nE(X12 ) − nE(X1 )3 ein Martingal.
Und so weiter... (Bildungsgesetz? siehe hierzu 7.2)
Alle diese Martingale sind nicht regulär. Zeige hierfür: E| Martingaln | −→n
∞.
7.2
Exponentielle Martingale
Pn
Seien X1 , X2 , . . . uiv Zgn und Sn = i=1 Xi die n-te Partialsumme. Der Einfachheit habe Xi Erwartungswert 0 und sei nicht fast sicher eine Konstante.
Wir wollen das Martingal
Mn (t) := exp(tSn − n ln Φ(t)) = Φn (t) exp(
mit n ∈ IN, t ∈ IR
Φ(t) := E(exp(tX))
n
X
(tXi ))
(7.1)
i=1
(7.2)
betrachten.
Die erweiterte Funktion Φ : IR → IR+ ∪ {∞} wie oben definiert ist die
Laplacetransformierte.
Proposition 56 Der Logarithmus ln Φ der Laplacetransformierten ist eine konvexe, unterhalb stetige erweiterte Funktion. Sie ist strikt konvex, falls X keine
Konstante ist. Es gilt stets Φ(0) = 1.
49
50
(31. Januar 2017) Exponentielle Martingale
Beweis: Für u 6= v ∈ IR, λ ∈ (0, 1), verwende die Höldersche-Ungleichung p =
1/λ, q = 1/(1 − λ):
ln Φ(λu + (1 − λ)v)
=
Hölder
≤
ln k exp(λuX) exp((1 − λ)vX)k1
ln k exp(λuX)kp k exp((1 − λ)vX)kq
=
ln((E exp(uX))λ (E exp(vX))1−λ )
=
λ ln Φ(u) + (1 − λ) ln Φ(v).
Die Hölderungleichung ist strikt, da Φ strikt ist. (Der Fall X1 identisch eine
Konstante ist ausgeschlossen.) Der Rest ist einfach.
q.e.d.
Die Konvexität liefert Φ−1 (IR) = {t | Φ(t) < ∞)} ist ein Intervall. Die
Funktion Φ ist stetig im Inneren des Endlichkeitsintervalls und stetig an den
Rändern.
Bem: Eine erweiterte Funktion f : IR → IR heißt konvex, falls die Menge
{(x, y) ∈ IR2 | y > f (x)} konvex ist. Für f : IR → IR ∪ {∞} entspricht diese
Definition der üblichen Konvexitätsdefinition f (tx + (1 − t)y) ≤ tf (x) + (1 −
t)f (y) für alle x, y ∈ IR und t ∈ (0, 1).
Lemma 57 Sei Φ(t) endlich für ein t ∈ IR. Dann ist (Mn (t))n ein positives
Martingal bezüglich der natürlichen Filtration mit Anfangswert 1. Für t 6= 0
konvergiert dieses Martingal fast sicher gegen 0.
Beweis: Die Zgn Mn (t) sind wohldefiniert, strikt positiv und adaptiert zur Filtration Fn = σ(X1 , . . . , Xn ) = σ(M1 , . . . , Mn ). Die Zgn sind integrierbar mit
Erwartungswert 1 (Nachrechnen). Nun die Martingaleigenschaft
E(Mn | Fn−1 )
=
=
E(exp(t(Sn−1 + Xn ) − n ln Φ(t)) | Fn−1 )
Mn−1 E(exp(tXn )) exp(− ln Φ(t)) = Mn−1 .
• Mn (t)n → 0 fast sicher für t 6= 0.
ln Mn (t) ist die n-te Partialsumme der uiv Zgn Yi = tXi − ln Φ(t). Die Yi
sind integrierbar und nach Jensen, X1 ist keine Konstante,
EY1 = EtXi − ln EetX < 0.
Nach dem starken Gesetz der Großen Zahl konvergiert ln Mnn (t) fast sicher gegen
E(Y1 ) < 0. Dies impliziert die Teilausage.
q.e.d.
Aus Mn (t) lassen sich durch Summierung über t viele neue Martingale konstruieren. Wir geben einige Beispiele.
Proposition 58 Sei µ ein Maß auf IR. Dann ist
Z
exp(tSn − n ln Φ(t))µ(dt)
(7.3)
7.2. Exponentielle Martingale (31. Januar 2017)
51
ein Martingal, vorausgesetzt die Zgn sind integrierbar.
Beweis: Verwende Fubini.
Mit obiger Konstruktion können wir auch eine Folge von Zgn konstruieren,
die die Martingaleigenschaft erfüllt, aber nicht integrierbar sind. Als Beispiel
nehmen wir normal N (0, 1) verteilte, unabhängige Zgn Xn , n ∈ IN und µ sei
2
das Lebesguemaß. Eine Rechnung ergibt ln Φ(t) = t2 und
r
2
Z
Z
2π
n 2
Sn2
n
Sn 2
Sn
Mn = exp(tSn − t )dt = exp( ) exp(− (t− ) )dt =
exp
2
2n
2
n
n
2n
ist wohldefiniert und endlich. Mn ist nicht integrierbar für n = 1, aber integrierbar für n > 1. Daher ist Mn kein Martingal nach der gegebenen Definition. Die
Martingaleigenschaft E(Mn+1 | Fn ) = Mn ist erfüllt für alle n ≥ 1. Bedingt
auf den Anfangswert M1 ist (Mn )n ein Martingal. Das bedingte Martingal
konvergiert fast sicher gegen 0. Damit konvergiert auch Mn fast sicher gegen
0. (Übung: Welches Problem mit Nullmengen tut sich auf und wie läßt es sich
umgehen?)
Korollar 59 Sei Φ : IR → IR endlich in einer offenen Umgebung U der 0. Sei
exp(tx − nΦ(t)) =
∞ k
X
t
k=0
k!
M (k, n, x)
die Reihenentwicklung der analytischen Funktion in t ∈ U für x ∈ IR, n ∈ IN,
fest. Dann ist für jedes k ∈ IN die Folge M (k, n, Sn ), n ∈ IN, ein Martingal.
Insbesondere
M (0, n, Sn ) ≡ 1
M (1, n, Sn ) = Sn
M (2, n, Sn ) = (Sn )2 − nE(X12 )
usw.
Beweis: Wir haben bereits bewiesen
E(exp(tSn − n ln Φ(t)) | Am ) = exp(tSn−1 − (n − 1) ln Φ(t)).
Eine Reihenentwicklung in t liefert
∞ k
X
t
k=0
k!
E(M (k, n, Sn ) | An−1 ) =
∞ k
X
t
k=0
Ein Koeffizientenvergleich liefert die Aussage.
k!
M (k, n − 1, Sn−1 )
q.e.d.
tSn −nΦ(t)
Reguläre Stoppzeiten Die exponentiellen Martingale Mn (t) = e
t 6= 0 sind nicht regulär. Jedoch haben sie interessante reguläre Stoppzeiten.
52
(31. Januar 2017) Exponentielle Martingale
Satz 60 Seien die X-Zgn gleichmäßig beschränkt. Dann ist für jedes a < 0 < b
die Stoppzeit des ersten Verlassens des Intervalls (a, b),
τ = inf{n ∈ IN | Sn < a oder Sn > b}
eine reguläre Stoppzeit für das Martingal Mn (t) = exp(tSn − n ln Φ(t)), n ∈ IN .
Insbesondere:
EMτ = 1.
Beweis: Sei t 6= 0. Mτ ∧n ist ein beschränktes Martingal. Mτ ∧n konvergiert
fast sicher und in L1 gegen einen Grenzwert. Diesen nennen wir Mτ . Es folgt
EMτ = EM1 = 1.
q.e.d.
τ nimmt in der Regel den Wert ∞ an mit strikt positiver W-keit. Dies folgt
aus Mn (t) konvergiert f.s. gegen 0 für t 6= 0.
Umgekehrt, ist EMτ (t) = M0 (t) = 1 so ist die Stoppzeit regulär.
8 Konvergenz und Topologie
Wir betrachten verschiedene Konvergenzarten auf dem Raum der Maße und
auf dem Raum der Zufallsgrößen.
Beachte, daß fast jede Konvergenzart eine Konvergenz im topologischen
Sinne ist und umgekehrt, (Pedersen [?]). (Ein topologischer Raum ist ein Tupel
(E, τ ), wobei E eine Menge ist und τ eine Teilmenge der Potenzmenge ist, die E
enthält und abgeschlossen ist bezüglich endlichem Durchschnitt und beliebiger
Vereinigung. Eine Folge en ∈ E, n ∈ IN, konvergiert gegen e ∈ E, falls für
alle U ∈ τ mit e ∈ U es ein n0 gibt, sodaß für alle n ≥ n0 gilt en ∈ U.)
Die fast sichere Konvergenz ist eine Aussnahme, dies ist keine topologische
Konvergenzart.
8.1
Konvergenz von W-maßen
R
Für ein Maß µ und eine Funktion f benutzen wir µ(f ) := f dµ, falls dies
wohldefiniert ist.
Eine Folge µn von Maßen konvergiert bzgl. einer Klasse F von Funktionen,
falls für alle f ∈ F gilt
µn (f ) →n µ(f ).
F
Notation: µn →n µ.
Die zugehörige Topologie wird erzeugt von den Mengen
Z
Z
Uǫ,f (µ) := {ν | f dν − f dµ < ǫ},
ǫ > 0, f ∈ F.
Für F bestehend aus den Treppen 11A , A ∈ A, erhalten wir die punktweise
Konvergenz von Maßen.
Ab jetzt sei (Ω, τ ) ein topologischer Raum. Wir sprechen von schwacher
Konvergenz für die Konvergenz bezüglich aller stetigen beschränkten Funktionen.
53
54
(31. Januar 2017) Konvergenz und Topologie
w
C
d
Notation: µn →n µ oder µn →n µ oder µn →bn µ. Hierbei steht w für weak , d
für distribution und Cb für die Funktionenklasse. (Die W-theoretische schwache
Konvergenz ist die funktionalytische schwach* Konvergenz.)
Wir sprechen von vager Konvergenz für die Konvergenz bzgl. allen stetigen
Funktionen mit kompaktem Träger. (Der Träger supp(f ) einer Funktion ist die
kleinste abgeschlossene Menge f 6= 0 enthaltend.)
v
Notation: µn →n µ.
Eine Familie M von Maßen heißt straff, falls es für alle ǫ > 0 eine kompakte
Menge K gibt mit µ(K c ) ≤ ǫ für alle µ ∈ M.
Lemma 61 Eine Folge von W-maßen konvergiert schwach genau dann, wenn
sie vage konvergiert und die Familie straff ist.
d
v
µn →n µ ⇔ µn →n µ und {µn , n ∈ IN } straff.
Beweis: ⇒‘ Sei K ein kompaktes Intervall und Kǫ := {x ∈ IR | ∃y ∈ K :
’
|x − y| ≤ ǫ}. Es gibt eine stetige Funktion f, die auf dem Kompaktum K stets
1 ist, außerhalb von Kǫ stets 0 und ansonsten von unten durch 0, von oben
durch 1 beschränkt ist (Lemma von Urysohn, [?]). Es gilt
µn (Kǫc ) ≤ µn (1 − f ) →n µ(1 − f ) ≤ µ(K c ).
Wählen wir K mit µ(K) ≥ 1 − ǫ so gilt µn (Kǫc ) < ǫ bis auf endlich viele n.
Wir vergrößern K entsprechend, um die restlichen n’s mit einzuschließen.
⇐‘ Sei g stetig, beschränkt, und f, K wie oben. Argumentiere g = f g +
’
(1 − f )g,
|µn (g) − µ(g)| = |µn (f g) − µn (f g)| + |µn ((1 − f )g) − µ((1 − f )g)|.
Der erste Term wird klein für n hinreichend groß. Der zweite Term wird abgeschätzt durch ≤ kgk∞ (µn (K c ) + µ(K c )) und klein für K hinreichend groß.
q.e.d.
Beispiel: µn = δn auf den reellen Zahlen konvergiert vage (gegen Null),
aber nicht schwach.
Für eine Verteilungsfunktion F sei F −1 die linksstetige Inverse
F −1 (u) := inf{x | F (x) ≥ u}.
Lemma 62 Seien µ, µn , n ∈ IN, W-maße auf den reellen Zahlen. Äquivalent
sind die Aussagen
i) Die Folge µn konvergiert schwach gegen µ.
ii) Die Folge konvergiert bezüglich einer der Klassen Cc , Cb∞ , Cc∞ .
8.1. Konvergenz von W-maßen (31. Januar 2017)
55
iii) Die zugehörigen Verteilungsfunktionen Fn konvergieren gegen F für alle
Stetigkeitspunkte von F.
iv) Die Inversen Fn−1 konvergieren gegen F −1 für alle Stetigkeitspunkte von
F −1 .
Beweis: i) ⇔ ii). Konvergenz bzgl. Cb ist hier gleichbedeutend, Lemma 61,
mit Konvergenz bzgl. Cc . Jede Funktion aus Cc läßt sich in Supremumsnorm
beliebig gut durch eine Cc∞ Funktion approximieren. Dies reicht.
i)⇒ iii) Sei fa diejenige stetige Funktion,die 1 auf (−∞, a], 0 auf [a + ǫ, ∞)
und sonst linear ist. Es gilt
F (a − ǫ) ≤ µ(fa−ǫ ) ←n µn (fa−ǫ ) ≤ Fn (a) ≤ µn (fa ) →n µ(fa ) ≤ F (a + ǫ).
Anders geschrieben,
F (a − ǫ) ≤ lim inf Fn (a) ≤ lim sup Fn (a) ≤ F (a + ǫ).
n
n
Dies gilt für alle ǫ > 0.
iii) ⇐ i) Die Menge S der Stetigkeitspunkte von F ist dicht. (Eine monoton
steigende Funktion hat höchstens abzählbar viele Unstetigkeitspunkte und ides
sind Sprungstellen.) Betrachte die Menge aller meßbarer beschränkter Funktionen f mit µn (f ) →n µ(f ). Diese Menge ist abgeschlossen bzgl. Addition
und gleichmäßiger Konvergenz. Sie enthält alle Treppen 11(−∞,s] mit s ∈ S
ein Stetigkeitspunkt. Die Menge enthält alle stetigen Funktion mit kompaktem
Träger, da diese sich gleichmäßig durch Treppenfunktionen obiger Treppen approximieren lassen. Folglich konvergiert µn vage. Zusammen mit Straffheit der
Folge, siehe gleich, folgt schwache Konvergenz.
• µn , n ∈ IN, ist straff.
Wähle Stetigkeitspunkte s1 , s2 mit F (s1 ) < ǫ, F (s2 ) > 1 − ǫ. Für K = [s1 , s2 ]
gilt
µn (K c ) ≤ Fn (s1 ) + 1 − Fn (s2 ) →n F (s1 ) + 1 − F (s2 ) < 2ǫ.
Daher gilt µn (K c ) < 2ǫ bis auf endlich viele n. Wir vergrößern jetzt K entsprechend, um diese n mit einzuschließen.
iii) ⇔ iv) Dies ist einfach für F stetig und strikt steigend. Der allgemeine
Fall ist eine unschöne Übung.
q.e.d.
Eine Familie F von Funktionen heißt separabel oder trennend bzgl. einer
Familie M von Maßen, falls je zwei Maße aus der Familie sich für mindestens
eine Funktion f aus der Funktionenfamilie unterscheiden. (∀µ 6= ν ∈ M∃f ∈
F : µ(f ) 6= ν(f ).)
Cc ist W-maß trennend, Lemma 62 und Eindeutigkeit der Verteilungsfunktion.
56
(31. Januar 2017) Konvergenz und Topologie
8.1.1
Gleichgradige Integrierbarkeit
Gleichgradige Integrierbarkeit ist eine Eigenschaft von Maßen bzw. Verteilungen. Wir werden die w-theoretische Sprache mit Zgn verwenden, da hier die
meisten Anwendungen sind. Die Verbingung ist: Sei µ ein W-maß auf den reellen Zahlen mit der Borel σ-Algebra. Dann hat F −1 (U ) die Verteilung µ, wobei
F die zugehörige Verteingsfunktion ist und U gleichmäßig verteilt auf dem
Einheitsintervall.
Eine Familie F von Zgn heißt gleichmäßig integrierbar oder gleichgradig
integrierbar, falls gilt
Z
g(c) := sup
|X| −→c→∞ 0.
X∈F
|X|>c
Für eine Funktion f heißt die Familie F gleichmäßig f -integrierbar oder gleichgradig f -integrierbar, falls f (X) gleichgradig integrierbar ist. Sie heißt p-gleichmäßig
integrierbar für 1 ≤ p < ∞, oder gleichmäßig p-integrierbar , falls sie gleichgradig f -integrierbar ist für die Funktion f (x) = |x|p .
Bem: Eine Familie gleichgradig integrierbarer Zgn erfüllt stets
sup E|X| ≤ c + g(c) < ∞
X
Für eine Zg X definiere H = HX : [0, 1] 7→ IR
Z
HX (t) := sup{ |X|dP | P (A) ≤ t}.
A
Für eine Familie F von Zgn benutzen wir
HF (t) := sup HX (t).
X∈F
Falls der W-raum reichhaltig genug ist und eine gleichförmig verteilte Zg besitzt, (was wir stets annehmen,) so gilt
HX (t) =
Z
1
F −1 (u)du,
1−t
mit F die Verteilungsfunktion zu |X|. (Übung)
Bem: Genaugenommen ist H für Verteilungen definiert.
Satz 63 Für eine Familie F von Zgn sind die folgenden beiden Aussagen äquivalent:
(i) F ist gleichgradig integrierbar.
8.1. Konvergenz von W-maßen (31. Januar 2017)
57
(ii) Für alle ǫ > 0 gibt es eine integrierbare Zg Y mit supX∈F
ǫ.
R
|X|>Y
|X|dP <
(iii) HF : [0, 1] → IR ist stetig in 0.
(iv) Es gibt eine aufsteigende Funktion ϕ : IR+ → IR+ mit limx→∞
und F ist gleichgradig ϕ| · |-integrierbar.
Beweis: OEdA sind alle Zgn positive.
i)⇒ ii) Wähle Y als eine Konstante.
ii) ⇒ iii) In der Zerlegung
Z
Z
Z
X=
X+
A
A∩{X>Y }
A∩{X≤Y }
X≤
Z
X>Y
|X| +
Z
ϕ(x)
x
=∞
Y
A
ist der erste Term klein durch Wahl des Y glm. in X. Der zweite Term ist klein
in P (A) klein glm. in X.
iii) ⇒ i) Zu vorgegebenem ǫ > 0 wähle ein p > 0 mit HF (p) < ǫ. Wähle
1
eine Partition (Ai )N
i=1 von Ω in N ≤ p + 1 Mengen vom Maß ≤ p. Dann gilt
gleichmäßig in X ∈ F
Z
Z
XZ
X≤
X≤
X ≤ HF (p)N < ∞.
∪ i Ai
Ai
i
Die Markoffungleichung liefert
sup P (X > c) ≤ sup
X∈F
Es folgt
Z
sup
X∈F
X>c
X
R
X
ǫN
≤
→c→∞ 0
c
c
X ≤ sup HX (P (X > c) ≤ sup HF (P (X > c)) ≤ HF (sup(P (X > c)) →c→∞ 0
iv) ⇒ i)
X
Z
X
X=
X>c
Z
X>c
X
x
X
ϕ(X) ≤ sup
Eϕ(X).
ϕ(X)
ϕ(x)
x≥c
Der erste Faktor konvergiert mit c → ∞ gegen 0 glm. in X ∈ F und der zweite
ist endlich gleichmäßig für X ∈ F.
i) ⇒ iv) Wähle aufsteigende Folge 0 = e0 < en →n ∞ mit g(en ) ≤ 2−n .
P
Definiere die Funktion ϕ durch ϕ(x) = n∈IN0 (|x| − en )+ . ϕ ist symmetrisch
und auf IR+ strikt monoton steigend gegen unendlich. Es gilt
X
X (x − en )+
ϕ(x)
(x − en )+
= lim
≥
= n0 →n0 ∞
lim inf
x→∞ x
x
x
x
x
n
lim
n≤n0
58
(31. Januar 2017) Konvergenz und Topologie
Zu vorgegebenem n0 sei c gross mit ϕ(en0 ) < c
Z
XZ
ϕ(X) =
(|X| − en )+
ϕX>c
ϕ(X)>c
≤
≤
≤
n
X Z
n≥n0
X Z
n≥n0
X
X>en0
(X − en )+ +
Xn +
X≥en
−n
2
n<n0
X
ϕ(X)>c
g(ϕ−1 (c))
n<n0
X
+
n<n0
n≥n0
X
X Z
g(ϕ−1 (c)) →c→∞ 0
gleichmäßig für X ∈ F.
q.e.d.
Bemerkung: Die hier konstruierte Funktion ϕ ist eine Orlicz Funktion (ϕ
ist positiv, konvex und ϕ(0) = 0). Zusätzlich ließe sich ϕ glatt wählen, eventuell
unendlich oft differenzierbar und ϕ(x) > 0 für x > 0.
Der wesentliche Einsatz gleichgradiger Integrierbarkeit besteht in folgendem
Lemma, welches im Beweis wesentlich Zgn benutzt.
Lemma 64 Die Folge (Xn )n konvergiere in Verteilung gegen X. Dann ist
R
gleichgradige Integrierbarkeit der Familie Xn , n ∈ IN äquivalent zu |Xn | →n
R
|X| < ∞.
Bew: Sei fc die Funktion fc (x) = 11|x|≤c−1 + (|x| − c + 1)+ = (|x| − c)+ ∧ 1
R
R
• |X| ≤ lim inf n |Xn | < ∞
Z
|X| = lim
c→∞
Z
|X|fc (X) = lim lim
c
n
Z
|Xn |fc (Xn ) ≤ lim lim inf
c
n
Z
|Xn | < ∞
R
R
• lim supn |Xn | ≤ |X|
Z
Z
Z
Z
Z
|X| ≥
|X|fc (X) = lim |Xn |fc (Xn ) = lim( |Xn | − |Xn |(1 − fc (X))
n
n
Z
Z
Z
≥ lim sup |Xn | − lim sup |Xn |fc (X) ≥ lim sup |Xn | − g(c)
n
n
n
R
Mit c → ∞ erhalten wir lim sup |Xn | ≤
die Hinrichtung.
Nun zur Rückrichtung mit f = fc−1 .
Z
|Xn |>c
|Xn |
≤
Z
|Xn |(1 − f (Xn )) =
Z
R
|X∞ | ≤ lim inf
|Xn | −
Z
R
|Xn | und damit
|Xn |f (Xn )
8.1. Konvergenz von W-maßen (31. Januar 2017)
Z
|Xn | −
Z
≤
|
=
I + II + II
|X∞ || +
Z
59
|X|(1 − f (X) + |
Z
|X|f (X) −
Z
|Xn |f (|Xn )|
Zu vorgegebem ǫ wähle ein c hinreichend gross mit II < ǫ. Dann wähle ein
n0 so dass für alle n ≥ n0 sowohl I als auch III kleiner ǫ sind. Dies ergibt
R
supn≥n0 |Xn | > c|Xn | < 3ǫ. Durch Wahl eines noch größeren c können wir
g(c) < 3ǫ erreichen. ǫ war beliebig.
q.e.d.
Korollar 65 Sei Xn , n ∈ IN eine gegen X in Verteilung konvergierende Folge
von Zgn. Ist die Familie (Xn )n gleichgradig integrierbar, so vertauschen für
jede stetige Funktion f mit
lim sup
|x|→∞
|f (x)|
<∞
|x|
(8.1)
das Integral und der Limes,
lim
n
Z
f (Xn ) =
Z
f (X).
Bew: Die Familie f (Xn ), n ∈ IN ist gleichgradig integrierbar und konvergiert
in Verteilung.
q.e.d.
Jetzt kommen wir zu w-theoretischen Aussagen. Die Verbindung ist: Kon−1
(U ) fast sicher gegen
vergiert Xn gegen X in Verteilung, so konvergiert FX
x
−1
FX (U ).
Korollar 66 Die L1 -Konvergenz einer Folge (Xn )n von Zgn ist äquivalent zur
stochastischen Konvergenz und gleichgradiger Integrierbarkeit. Beide Grenzwerte stimmen fast sicher überein.
Bew: Hinrichtung: Die L1 -Konvergenz impliziert stochastische Konvergenz und
diese Konvergenz in Verteilung. Das obige Lemma liefert wegen kXn k → kXk1
die gleichgradige Integrierbarkeit.
Für die Rückrichtung argumentiere
Z
Z
Z
Z
|Xn − X| ≤
... +
... +
...
|X−Xn |<ǫ
ǫ≤|X−Xn |<c
c≤|X−Xn |
Z
Z
≤ ǫ + cP (|X − Xn | ≥ ǫ) + 2
|Xn | + 2
|X|
|Xn |<c/2
|X|>c/2
alle drei Terme werden beliebig klein für kleine ǫ, große c und n hinreichend
groß.
q.e.d.
60
(31. Januar 2017) Konvergenz und Topologie
Korollar 67 Seien Xn , n ∈ IN , p-integrierbare Zgn, 1 ≤ p < ∞. Dann sind
äquivalent
• Xn konvergiert in Lp .
• Xn → X stochastisch und kXn kp → kXkp < ∞.
• Xn konvergiert stochastisch und die Familie Xn , n ∈ IN ist gleichgradig
p-integrierbar.
Im Konvergenzfalle sind der stochastische und der Lp -Limes gleich.
Der Beweis ist einfach aus Obigem.
..........................................................................
8.1.2
Weitere Metriken
Metriken für Verteilungsfunktionen: Weitere Metriken lassen sich aus den
Verteilungsfunktionen konstruieren. Hintergrund ist die eineindeutige Zuordnung von Maßen und Verteilungsfunktionen. Beispiele auf dem Raum der Verteilungsfunktionen sind
d(F, G) := kF − Gk∞
d(F, G) = inf {ǫ | ∀x ∈ IR : |F (x) − G(x + ǫ)| < ǫ und |F (x) − G(x − ǫ)| < ǫ}
Z
d(F, G) = |F (x) − G(x)|dx.
Diese Metriken auf den Verteilungsfunktionen sind auch Metriken auf W-maßen,
durch Identifizierung von Verteilungsfunktion und W-maß. (d(µ, ν) = d(Fµ , Fν ).)
Wasserstein Metrik: Sei d eine Metrik auf dem Werteraum E und µ, ν
W-maße auf (E, B(E)). Definiere
D(µ, ν) := inf Ed(X, Y ).
Hierbei wird das Infimum über alle X mit Verteilung µ und alle Y mit Verteilung ν auf einem beliebigen W-raum genommen. Dies ist eine Metrik auf dem
Raum der W-maße.
Mallows Metrik: Ein Abstandsbegriff für Maße impliziert in natürlicher
Weise einen Abstandsbegriff für Zgn via der Verteilung. Umgekehrt, haben
wir einen Abstandsbegriff d für Zufallsgrößen gegeben, so definieren wir einen
(potentiellen) Abstandsbegriff d auf Maßen durch
d(µ, ν) := inf d(X, Y ).
8.2. Konvergenz von Zufallsgrößen (31. Januar 2017)
61
Hierbei wird das Infimum über alle X mit Verteilung µ und alle Y mit Verteilung ν auf einem beliebigen W-raum genommen.
Ein Beispiel ist die Mallows Metrik lp : Mp × Mp 7→ IR, 1 ≤ p ≤ ∞,
lp (µ, ν) = inf kX − Y kp
R
auf dem Raum Mp := {µ | |x|p µ(dx) < ∞} der p-fach integrierbaren Maße
auf IR. Ohne Beweis sei angeführt, das Infimum wird angenommen mit
lp (µ, ν) = kFµ−1 (U ) − Fν−1 (U )kp ,
U eine gleichförmig verteilte Zg (siehe [?]).
Satz 68 Der Raum (Mp , lp ), 1 ≤ p ≤ ∞, ist ein vollständiger, metrischer
Raum. Er ist separabel für 1 ≤ p < ∞.
Beweis: • Separabilität.
Sei D eine dichte abzählbare Teilmenge in Lp . Dann ist die Menge aller Verteilungen dazu dicht in Mp .
• Vollständigkeit.
Für die Vollständigkeit sei µn eine Cauchyfolge in lp -Mallow Metrik. Dann ist
Fµ−1
(U ), U gleichförmig verteilt, eine Lp -Cauchyfolge. Diese konvergiert punktn
weise gegen ein F −1 (U ). Das zugehörige W-maß µ tut’s.
q.e.d.
Eine Folge Xn ist lp konvergent, falls die Verteilungen in Mallows lp Metrik
konvergieren.
lp
Notation: Xn →n X.
Proposition 69 lp Konvergenz ist äquivalent zur schwachen Konvergenz plus
Konvergenz des p-ten absoluten Momentes. (=p-gleichmäßige Integrierbarkeit.)
Beweis: Wir benutzen die Version Fn−1 (U ) = Xn und d(Fn , Fm ) = kFµ−1 (U ) −
Fν−1 (U )kp . Dann verwende den Satz 71.
Bemerkung: Beachte auch die gleichmäßige Integrierbarkeit, Korollar 66.
8.2
Konvergenz von Zufallsgrößen
Konvergenzen der Verteilungen: Viele Eigenschaften übertragen sich von
den Verteilungen nach folgendem allgemeinen Prinzip: Eine Folge, bzw. Familie
von Zgn Xn hat die Eigenschaft ∗, falls die zugehörigen Verteilungen die Eigenschaft ∗ besitzt. In diesem Sinne sprechen wir von schwacher und vager
62
(31. Januar 2017) Konvergenz und Topologie
Konvergenz oder von einer straffen Familie von Zgn. Wir verwenden dieselben Symbole, z.B.
d
d
Notation: Xn → X ⇔ P Xn → P X .
Konvergenzen der Zgn: Nun zu Konvergenzarten der Zgn selbst. Eine
Folge Xn , n ∈ IN, von Zgn konvergiert stochastisch oder in Wahrscheinlichkeit
gegen eine Zg X, falls
lim P (|Xn − X| > ǫ) = 0
n
s
P
für alle ǫ > 0 gilt. Wir schreiben Xn →n X oder Xn →n X. s steht für
stochastic und P für probability.
Diese Konvergenz entspricht Konvergenz bzgl. der Topologie auf den Zgn
erzeugt durch die Metrik
d1 (X, Y ) := inf{ǫ ∈ IR | P (|X − Y | > ǫ) < ǫ}
oder der Metrik
d2 (X, Y ) := E
|X − Y | .
1 + |X − Y |
Eine Folge Xn von Zgn konvergiert fast sicher, falls
P (lim Xn = X) = 1
n
gilt.
f.s.
Notation: Xn →n X.
Eine Folge Xn ist Lp konvergent bzw. konvergiert im p-ten Mittel, 1 ≤ p ≤
Lp
∞, gegen X, falls kXn − Xkp →n 0. Wir schreiben Xn →n X und sprechen
auch von Konvergenz im p-ten Mittel.
Hier eine Übersicht. p-te Moment steht für Konvergenz des p-ten absoluten
Moments.
8.2. Konvergenz von Zufallsgrößen (31. Januar 2017)
63
L∞
❅
❅
❅
❅
❘
❅
Lp , 1 ≤ p < ∞
✻
+ p-te Moment
✠
+ 1-te Moment
fast sicher
✲
❄
L1
✛
■
❅
❅
❅
❅
Version
❅
❅
❅
✒
Version
❅
❅
❅
+ 1-te Moment
❅
❘
❅
✠
stochastisch
✻
✻W-theorie
Version
❄Maßtheorie
❄
schwach
✻
straff
❄
vage
Satz 70
Der Beweis erfogt in einer Reihe von Aussagen.
• Stochastische Konvergenz impliziert schwache Konvergenz.
v
Wir zeigen zuerst Xn → X. Sei f ∈ Cc .
|Ef (Xn ) − Ef (X)|
≤
≤
E(|f (Xn ) − f (X)|(11|Xn −X|≥ǫ + 11|Xn −X|<ǫ ))
2kf k∞ P (|Xn − X| ≥ ǫ) + sup |f (x) − f (y)|.
|x−y|<ǫ
Der erste Term ist klein für n groß, der zweite ist klein in ǫ, da eine stetige
Funktion auf einem Kompaktum gleichmäßig stetig ist.
64
(31. Januar 2017) Konvergenz und Topologie
Als nächstes zeigen wir Straffheit.
P (|Xn | > c)
≤
≤
P (|Xn | > c, |Xn − X| < ǫ) + P (|Xn | > c, |Xn − X| ≥ ǫ)
P (|X| > c − ǫ) + P (|Xn − X| ≥ ǫ).
Beide Terme sind klein für ǫ, c, n geeignet.
• Fast sichere Konvergenz impliziert stochastische Konvergenz.
P (|Xn − X| > ǫ) ≤ P ({∃N ≥ n : |XN − X| > ǫ}) →n 0.
• L1 -Konvergenz impliziert stochastische Konvergenz.
Dies folgt aus der Markoff Ungleichung
P (|Xn − X| > ǫ) ≤
E|Xn − X|
→n 0.
ǫ
• Lq -Konvergenz impliziert Lp -Konvergenz für 1 ≤ p ≤ q ≤ ∞.
Die Jensen Ungleichung ergibt kY kp ≤ kY kq .
• L∞ -Konvergenz impliziert fast sichere Konvergenz. Einfach.
Gegenbeispiele: Alle Beispiele sind auf dem W-raum ([0, 1], B, λ).
• Schwache Konvergenz impliziert nicht stochastische Konvergenz.
Seien Xn , n ∈ IN, uiv Zgn und keine Konstante. Diese Folge konvergiert schwach.
Würde sie auch stochastisch konvergieren, so würde gelten,
P (|Xn − Xm | > ǫ) ≤ P (|Xn − X| > ǫ/2) + P (|Xm − X| > ǫ/2) →n,m 0.
Andererseits P (|Xn − Xm | > ǫ) = P (|X1 − X2 | > ǫ) > 0 ist eine strikt positive
Konstante für n 6= m und ǫ hinreichend klein. Widerspruch.
• Stochastische Konvergenz impliziert nicht fast sichere Konvergenz.
X1 = 11[0,1] , X2 = 11[0,1/2] , X3 = 11[1/2,1] , X4 = 11[0,1/4] , X5 = 11[1/4,1/2] , ..., X8 =
1[0,1/8] , ... usw. Formaler Xn := 11[i/2m ,(i+1)/2m ] mit n = 2m + i, 0 ≤ i < 2m .
(Zeichnung machen!). Diese tut’s.
• Lp -Konvergenz, 1 ≤ p < ∞ impliziert nicht fast sichere Konvergenz.
Siehe oben.
• Fast sichere Konvergenz impliziert nicht Lp -Konvergenz.
Die Folge Xn := an 11[0,1/n] konvergiert fast sicher gegen 0, aber nicht in Lp für
geeignet gewählte an .
• Lp -Konvergenz impliziert nicht Lq -Konvergenz, 1 ≤ p < q ≤ ∞.
Pn
1
Wähle eine Folge Xn = i=1 11( i+1
, 1i ] ai mit ai geeignet. Übung.
Nun zu den verbleibenden positive Aussagen mit Zusatzbedingungen.
Version: Eine Version einer Zg ist eine Zg mit derselben Verteilung. Beliebt ist folgende Konstruktion. Sei U eine Zg mit gleichmäßiger Verteilung auf
[0, 1]. Dann ist F −1 (U ) eine Version von X. Übung.
8.2. Konvergenz von Zufallsgrößen (31. Januar 2017)
65
• Sei Xn schwach konvergent gegen X. Dann existiert eine Version Yn der
Xn mit Yn ist fast sicher konvergent gegen eine Version von X.
Seien Fn , F die zugehörigen Verteilungsfunktionen und U eine gleichmäßig verteilte Zg. Dann tut’s die Folge Yn = Fn−1 (U ). Die Aussage beruht auf Lemma
62. (F bzw F −1 hat höchstens abzählbar viele Unstetigkeitspunkte.)
q.e.d.
Bemerkung: Schwache und stochastische Konvergenz stimmen überein für
Zgn Xn , die gegen eine Konstante konvergieren. Auf diskreten W-räumen stimmen stochastische Konvergenz und fast sichere überein.
Teilfolgenprinzip: Jede stochastisch konvergente Folge hat eine fast sicher
konvergente Teilfolge. Der Grenzwert ist derselbe. (Übung)
Den folgenden Satz vergleiche mit dem Korollar 66.
Satz 71 Seien Xn , n ∈ IN , p-integrierbare Zgn, 1 ≤ p < ∞. Xn konvergiert
in Lp gegen X genau dann, wenn Xn stochastisch gegen X konvergiert und
kXn kp → kXkp < ∞ gilt.
Lp
s
Xn → X ⇔ Xn → X und kXn kp →n kXkp < ∞.
Beweis: ⇒‘ Lp Konvergenz impliziert stochastische Konvergenz. Die umge’
kehrte Dreiecksungleichung liefert
|kXn kp − kXkp | ≤ kXn − Xkp →n 0.
0.
⇐‘ Sei A die Menge |Xn − X| > ǫ konvergiert mit n dem Maße nach gegen
’
kXn − Xk
≤
k(Xn − X)11A k + kXn − X11Ac k
≤
kXn k − kXn 11Ac k + kX11A k + ǫ
≤
≤
≤
kXn 11A k + kX11A k + ǫ
kXn k − kX11Ac k + kX11A k + 2ǫ
kXn k − kXk + 2kX11A k + 2ǫ →n 2ǫ →ǫ→0 0
Herunterladen