¨Ubungen “Höhere Wahrscheinlichkeitstheorie” WS 2013/2014

Werbung
Übungen “Höhere Wahrscheinlichkeitstheorie”
WS 2013/2014
Institut für
Mathematik C
Institut für mathematische Strukturtheorie (Math. C)
14. Januar 2014
44. Es seien drei Zufallsvariablen X, X1 und X2 gegeben, welche folgende Eigenschaften
besitzen:
• X, X1 und X2 besitzen dieselbe Verteilung.
• X1 und X2 sind unabhängig.
• X1 + X2 besitzt dieselbe Verteilung wie a + bX für geeignete Werte von a, b ∈ R.
• E[X] < ∞ und Var[X] ∈ (0, ∞).
Zeigen Sie, daß dann X, X1 und X2 normalverteilt sind.
Hinweis: Gehen Sie wie folgt vor:
(a) Zeigen Sie, daß es ausreichend ist, den Fall E[X] = 0 zu betrachten.
(b) Leiten Sie eine Funktionalgleichung für ϕX (t) her.
(c) Iterieren Sie diese Funktionalgleichung für Potenzen von 2.
(d) Wenden Sie den zentralen Grenzwertsatz an.
48. Sei (Ω, A, P) ein Maßraum mit σ-endlichem Wahrscheinlichkeitsmaß P. Dann ist
L2 (Ω, A, P) := X : Ω → R | X ist A-meßbar, E[X 2 ] < ∞
ein reeller Hilbertraum mit innerem Produkt
(X, Y ) := E[XY ] =
Z
XY dP.
Ω
Ferner sei F eine Teil-σ-Algebra von A. Dann ist L2 (Ω, F, P) ein abgeschlossener Teilraum
von L2 (Ω, A, P). Zeigen Sie:
E[· | F] ist die zugehörige Orthogonalprojektion, d.h. zu X ∈ L2 (Ω, A, P) ist W = E[X|F]
jenes Element in L2 (Ω, F, P), welches kX − W k2 minimiert und orthogonal zu X − W
ist.
49. Sei (Ω, A, P) ein Maßraum mit σ-endlichem Wahrscheinlichkeitsmaß P. Seien X, Y zwei
A-meßbare Zufallsvariablen mit E[|X|] < ∞. Zeigen Sie:
Falls X und Y unabhängig sind, so gilt E[X|Y ] := E[X|σ(Y )] = E[X] P-fast überall gilt.
(Hier ist σ(Y ) die von Y erzeugte σ-Algebra.
50. Geben Sie ein Beispiel für zwei unabhängige Zufallsvariablen X, Y an, so daß E[X|F] und
E[Y |F] nicht stochastisch unabhängig sind, wobei F eine geeignete Teil-σ-Algebra ist.
Hinweis: Betrachten Sie zwei Bernoulli-Zufallsvariablen und geeignetes F ⊆ σ(X, Y ).
51. Die korrekte Definition von Down- und Upcrossings ist wie folgt:
Sei [a, b] ⊆ R, N ∈ N und (rn )n∈N eine Folge reeller Zahlen.
(a) Die Anzahl der Downcrossings ist gegeben durch
D[a,b] (rn )n∈N := sup k ∈ N0 | ∃u1 < v1 < u2 < v2 · · · < uk < vk : rui ≥ b, rvi ≤ a∀1 ≤ i ≤ k .
(b) Die Anzahl der Downcrossings bis zur Zeit N ist gegeben durch
N
D[a,b]
(rn )n∈N := sup k ∈ N0 | ∃u1 < v1 < u2 < v2 · · · < uk < vk ≤ N : rui ≥ b, rvi ≤ a∀1 ≤ i ≤ k
(c) Die Anzahl der Upcrossings ist gegeben durch
U[a,b] (rn )n∈N := sup k ∈ N0 | ∃u1 < v1 < u2 < v2 · · · < uk < vk : rui ≤ a, rvi ≥ b∀1 ≤ i ≤ k .
(d) Die Anzahl der Upcrossings bis zur Zeit N ist gegeben durch
N
D[a,b]
(rn )n∈N := sup k ∈ N0 | ∃u1 < v1 < u2 < v2 · · · < uk < vk ≤ N : rui ≤ a, rvi ≥ b∀1 ≤ i ≤ k
Man zeige: Die Folge (rn )n∈N von reellen Zahlen
konvergiert in [−∞, +∞] genau dann,
wenn für alle a, b ∈ Q gilt, daß D[a,b] (rn )n∈N < ∞.
52. Sei (Yn )n∈N eine Folge von i.i.d. verteilten Zufallsvariablen mit
1 = 1] = P[Y1 = −1] =
PP[Y
n
1
.
Die
symmetrische
Irrfahrt
auf
Z
ist
definiert
durch
Z
:=
n
i=1 Yi und Z0 := 0.
2
(a) Man zeige: (Zn )n∈N ist ein Martingal bzgl. der natürlichen Filtrierung.
(b) Sei τ := inf{n ≥ 5 | Zn+1 = Zn + 1} eine zufällige Zeit. Ist τ eine Stoppzeit? Ist
σ := τ + 1 eine Stoppzeit?
(c) Man berechne E[Zσ ] sowie E[Zτ ].
Hinweis: Man verwende folgende Version des Martingalkonvergenzsatzes für ein Martingal (Xn )n∈N und eine Stoppzeit T :
falls P[T < ∞], E[|Xτ |] < ∞ und limn→∞ E[Xn 1{T >n} ] = 0 gilt, so ist E[XT ] =
E[X0 ].
Herunterladen