3. Grenzwertsätze 3.1. Schwaches Gesetz der grossen Zahl

Werbung
74
3.
3. GRENZWERTSÄTZE
Grenzwertsätze
Sei nun {X1 , X2 , . . .} eine Folge von Zufallsvariablen auf einem Wahrscheinlichkeitsraum (Ω, F, IIP). Wir interessieren uns nun für die Summe Sn = X1 + · · · + Xn ,
und vor allem für die Asymptotik n → ∞. Zum einen wollen wir n−1 Sn betrachten
(Gesetz der grossen Zahl) und die Form der Verteilung von Sn bestimmen (zentraler
Grenzwertsatz).
3.1. Schwaches Gesetz der grossen Zahl
Satz 3.1. Seien IIE[Xi ] = µ unabhängig von i und die Varianzen im Schnitt beP
schränkt, supn n−1 ni=1 Var[Xi ] < ∞. Sind die Zufallsvariablen {Xi } unkorreliert,
so gilt
i
h S
n
lim IIP − µ≥ ε = 0
n→∞
n
für jedes ε > 0.
P
Beweis. Wir haben IIE[n−1 Sn ] = n−1 nk=1 IIE[Xk ] = µ, und, wegen der UnkorP
reliertheit, Var[n−1 Sn ] = n−2 nk=1 Var[Xk ] → 0. Somit folgt das Resultat aus der
Chebychev Ungleichung (2.1).
Sind die Zufallsvariablen {Xk } unabhängig und identisch verteilt, dann sind die
Bedingungen des Satzes erfüllt. Machen wir Zufallsexperimente unabhängig voneinander, haben wir nun die Intuition, mit der wir Wahrscheinlichkeiten eingeführt
haben, auch formal bewiesen.
Beispiele
• Für unabhängige {0, 1} Experimente mit Erfolgsparameter p hat Jacob Bernoulli
1713 durch kombinatorische Argumente bewiesen, dass IIP[|n−1 Sn − p| ≥ ε] → 0.
Ist n gross, hat man also ungefähr np Erfolge und n(1 − p) Misserfolge.
Sei f (x) : [0, 1] → IR eine stetige Funktion. Wir definieren die BernsteinPolynome
n
X
n k
Bn (x) :=
f (k/n)
x (1 − x)n−k .
k
k=0
Wir erhalten dann die Abschätzung
Jensen
|Bn (p) − f (p)| = |IIE[f (Sn /n)] − f (p)| ≤ IIE[|f (Sn /n) − f (p)|] .
3. GRENZWERTSÄTZE
75
Setzen wir kf k = supx |f (x)|, erhalten wir
|Bn (p) − f (p)| ≤ 2kf kIIP[|Sn /n − p| ≥ ε] + sup |f (x) − f (y)|IIP[|Sn /n − p| < ε] .
|x−y|≤ε
Aus dem schwachen Gesetz der grossen Zahl folgt, dass der erste Term gegen
Null konvergiert. Aus der Chebychev Ungleichung kann man schliessen, dass
die Konvergenz gleichmässig in p ist. Der zweite Term konvergiert gleichmässig
gegen Null, da jede stetige Funktion gleichmässig stetig ist. Somit konvergieren
die Bernstein Polynome gleichmässig gegen die Funktion f (x).
• Seien {Xi } unabhängige Experimente mit verschiedenen Erfolgsparameter pi .
Setzen wir X̃i = Xi − pi , dann haben die {X̃i } den gemeinsamen Mittelwert 0
und die Varianz Var[X̃i ] = Var[Xi ] = pi (1 − pi ) ≤ 41 . Also gilt
Pn
i
h Pn X̃ i
h S
n
k
k=1 pk IIP −
≥ ε = IIP k=1
≥ε →0.
n
n
n
Auch bei verschiedenen Erfolgsparameter nähert sich der Durchschnitt immer
mehr dem Mittelwert an.
• In den Anwendungen braucht man oft einen Ausdruck der Form IIE[f (X)], wobei
f (x) eine stetige Funktion ist, und X eine Zufallsvariable (z.B. Optionspreis). Oft
ist es schwer IIE[f (X)] auszurechnen, aber relativ einfach, X auf einem Computer
zu simulieren. Man erzeugt sich dann n unabhängige Zufallsvariablen {Xk } mit
P
der gleichen Verteilung wie X. Da n−1 nk=1 f (Xk ) sich immer mehr IIE[f (X)]
annähert, gibt dieses Verfahren mit hoher Wahrscheinlichkeit eine gute Approximation von IIE[f (X)]. Dieses Verfahren heisst Monte–Carlo Simulation.
R1
Will man ein Integral 0 f (x) dx numerisch berechnen, hat man manchmal Probleme, falls f (x) nicht eine schöne Funktion ist. Man bemerkt, dass für unabhängige und auf [0, 1] gleichverteilte Zufallsvariablen {Xk } der Mittelwert
R1
IIE[f (Xk )] = 0 f (x) dx gleich dem gesuchten Integral ist. Daher lässt sich das
P
Integral mit der Monte–Carlo Simulation n−1 nk=1 f (Xk ) approximieren. Der
Vorteil dieser Methode ist, dass die Integrationsdiskretisierung nicht regelmässig
P
ist, das heisst, nicht n−1 nk=1 f (k/n).
3.2. Konvergenzbegriffe
Seien nun {Xi } und X Zufallsvariablen auf (Ω, F, IIP). Wir definieren nun verschiedene Arten von Konvergenz von Xn nach X.
76
3. GRENZWERTSÄTZE
• Stochastische Konvergenz Wir sagen Xn konvergiert stochastisch gegen X,
IIP
Xn → X, falls
lim IIP[|Xn − X| ≥ ε] = 0
n→∞
für alle ε > 0.
• Fast sichere Konvergenz Wir sagen Xn konvergiert fast sicher gegen X,
Xn → X, falls
IIP[{ω : lim Xn (ω) = X(ω)}] = 1 .
n→∞
• Lp -Konvergenz, p ≥ 1
Wir sagen, Xn konvergiert in Lp gegen X, falls
lim IIE[|Xn − X|p ] = 0 .
n→∞
• Konvergenz in Verteilung Wir sagen Xn konvergiert in Verteilung gegen X,
d
Xn → X, falls
lim IIP[Xn ≤ x] = IIP[X ≤ x]
n→∞
für alle x ∈ IR, an denen FX (x) stetig ist. Dieser Konvergenzbegriff betrachtet
nur die Verteilungen. Zum Beispiel sind {Xk } unabhängig und identisch verteilt, dann konvergiert Xn in Verteilung gegen X1 . Dieser Konvergenzbegriff kann
daher nur verwendet werden, wenn wir uns nicht für limn→∞ Xn interessieren,
sondern für die Verteilungen.
Wir wollen die Konvergenzbegriffe nun vergleichen. Wir konzentrieren uns dabei auf
die ersten drei Begriffe, da der letzte Konvergenzbegriff von einer anderen Art ist.
Proposition 3.2.
i) “Fast sichere Konvergenz” impliziert “stochastische Konvergenz.”
ii) “Lp -Konvergenz” impliziert “stochastische Konvergenz.”
iii) Für q > p impliziert “Lq -Konvergenz” die “Lp -Konvergenz.”
iv) Ist IIE[(supn |Xn |)p ] < ∞, so folgt die “Lp -Konvergenz” aus der “fast sicheren
Konvergenz.”
v) Sei für jedes ε > 0
∞
X
n=1
IIP[|Xn − X| ≥ ε] < ∞ .
3. GRENZWERTSÄTZE
77
Dann konvergiert Xn sowohl stochastisch als auch fast sicher gegen X. Insbesondere hat jede stochastisch konvergierende Folge eine fast sicher konvergierende
Teilfolge.
Beweis.
i) Die fast sichere Konvergenz ist gleichbedeutend mit
IIP[∩k ∪m ∩n≥m {|Xn − X| ≤ k −1 }] = 1
(Für alle k gibt es ein m, so dass für alle n ≥ m, |Xn − X| ≤ k −1 gilt). Also gilt
IIP[∪m ∩n≥m {|Xn − X| ≤ `−1 }] ≥ IIP[∩k ∪m ∩n≥m {|Xn − X| ≤ k −1 }] = 1 .
Wegen der Monotonie in m haben wir weiter
1 = IIP[∪m ∩n≥m {|Xn − X| ≤ k −1 }] = lim IIP[∩n≥m {|Xn − X| ≤ k −1 }]
m→∞
für alle k. Wir können k −1 durch ε ersetzen. Also haben wir
lim IIP[|Xm − X| ≤ ε] ≥ lim IIP[∩n≥m {|Xn − X| ≤ ε}] = 1 .
m→∞
m→∞
Dies ist die stochastische Konvergenz.
ii) Dies folgt sofort mittels Hilfssatz 2.16 aus
IIE[|Xn − X|p ]
.
εp
iii) Dies folgt sofort mittels Korollar 2.15 aus
IIP[|Xn − X| ≥ ε] ≤
IIE[|Xn − X|p ]1/p ≤ IIE[|Xn − X|q ]1/q .
iv) Dies folgt aus der Eigenschaft der beschränkten Konvergenz.
v) Aus dem Borel–Cantelli-Lemma folgt, dass
IIP[{|Xn − X| ≥ ε unendlich oft}] = 0 .
Sei nun {εm } eine Folge von echt positiven Zahlen, die monoton gegen Null konvergiert. Dann ist
X
IIP[∪m {|Xn − X| ≥ εm unendlich oft}] ≤
IIP[{|Xn − X| ≥ εm unendlich oft}]
m
=0.
Also konvergiert Xn fast sicher gegen X.
Konvergiert Xn stochastisch gegen X, so wählen wir eine steigende Folge nk , so
dass IIP[|Xnk − X| ≥ k −1 ] < k −2 . Dann erfüllt {Xnk : k ∈ IIN} die Bedingung, und
konvergiert somit fast sicher gegen X.
78
3. GRENZWERTSÄTZE
Beispiele
• Sei IIP die Gleichverteilung auf [0, 1]. Für n ≥ 1 und k ∈ {0, 1, . . . , 2n − 1}
definieren wir Zn,k = 1I(k2−n ,(k+1)2−n ] . Wir lassen nun X1 = Z1,0 , X2 = Z1,1 ,
X3 = Z2,0 , etc., das heisst, wir zählen lexikographisch ab. Da immer wieder eine
1 auftritt, haben wir lim Xn = 0 und lim Xn = 1. Also kann Xn nicht fast sicher
konvergieren. Aber für ε ∈ (0, 1) haben wir
p
] = 2−n .
IIP[|Zn,k | ≥ ε] = IIP[Zn,k = 1] = IIE[Zn,k
Somit konvergiert Xn stochastisch und in Lp gegen 0.
• Sei IIP die Gleichverteilung auf [0, 1]. Wir definieren Xn = 2n 1I[0,2−n ] . Da IIP[ω >
0] = 1, erhalten wir, dass Xn fast sicher gegen 0 konvergiert. Aber
IIE[Xn ] = 2n IIP[[0, 2−n ]] = 2n 2−n = 1 .
Somit konvergiert Xn nicht in L1 gegen 0, und damit auch nicht in Lp .
Hilfssatz 3.3. Seien {Xn } und X Zufallsvariablen. Folgende Aussagen sind äquivalent:
i) Xn konvergiert in Verteilung gegen X.
ii) Für jede stetige beschränkte Funktion f (x) gilt
lim IIE[f (Xn )] = IIE[f (X)] .
n→∞
iii) Für jede dreimal stetig differenzierbare und beschränkte Funktion f (x) mit beschränkten ersten drei Ableitungen gilt
lim IIE[f (Xn )] = IIE[f (X)] .
n→∞
Beweis. “i) ⇒ ii)” Es gibt nur abzählbar viele Punkte, an denen F (x) nicht
stetig ist. Somit gilt für alle Intervalle der Form (y, z], wobei y < z und F (x) ist
stetig in y und z, dass die Aussage für Funktionen der Form f (x) = c1I(y,z] (x) gilt.
Wir können nun so Ober- und Untersummen wie beim Riemann-Integral bilden, und
die Aussage mit Hilfe der Monotonieeigenschaft des Erwartungswertes beweisen.
“ii) ⇒ iii)” trivial.
“iii) ⇒ i)” Betrachten wir die Funktion
3. GRENZWERTSÄTZE
79
1.0
0.8
0.6
0.4
0.2
0.2
-0.2
0.4
0.6
0.8
1.0
1.2
Abbildung 3.1: Die Funktion P (x)

1,
falls x ≤ 0,


P (x) = 0 ,
falls x ≥ 1,


20x7 − 70x6 + 84x5 − 35x4 + 1 , sonst,
dargestellt in Abbildung 3.1. Wir haben P (0) = 1 und P (1) = 0, die ersten drei
Ableitungen in 0 sind Null, und die ersten drei Ableitungen in 1 sind 0. Somit ist
P (x) dreimal stetig differenzierbar. Aus P 0 (x) = 140x3 (x − 1)3 folgt, dass P (x) im
Intervall [0, 1] fallend ist. Sei y ein Punkt, an dem F (x) stetig ist. Dann gilt
1I(−∞,y] (x) ≤ P ((x − y)/δ) ≤ 1I(−∞,y+δ] (x) .
Also erhalten wir
lim Fn (y) ≤ lim IIE[P ((Xn − y)/δ)] = IIE[P ((X − y)/δ)] ≤ F (y + δ) .
n→∞
n→∞
Da δ beliebig war, gilt limn→∞ Fn (y) ≤ F (y). Weiter gilt
lim Fn (y) ≥ lim IIE[P ((Xn − y + δ)/δ)] = IIE[P ((X − y + δ)/δ)] ≥ F (y − δ) .
n→∞
n→∞
Da δ beliebig war, gilt limn→∞ Fn (y) ≥ F (y).
80
3. GRENZWERTSÄTZE
0.60
0.55
50
100
150
200
0.45
0.40
0.35
Abbildung 3.2: Typisches Sn /n für uniform auf [0, 1] verteilte {Xk }
3.3. Starkes Gesetz der grossen Zahl
Wir haben gesehen, dass unter dem schwachen Gesetz der grossen Zahl der Durchschnitt von n Zufallsvariablen mit hoher Wahrscheinlichkeit nahe bei ihrem Mittelwert liegt. Wir wollen dieses Gesetz nun verschärfen und betrachten daher Sn /n für
ein ω. Ein möglicher Pfad ist in Abbildung 3.2 illustriert.
Satz 3.4. Seien {Xk } unabhängig mit festem Erwartungswert IIE[Xk ] = µ. Weiter
gelte eine der folgenden Bedingungen:
i) {Xk } seien identisch verteilt.
ii) Es gelte supk IIE[Xk4 ] < ∞.
Dann konvergiert Sn /n fast sicher gegen µ.
Beweis. i) Teilen wir Xk = Xk+ − Xk− in positiven und negativen Teil auf, dann
genügt es, den Satz für positive Zufallsvariablen zu beweisen. Lassen wir X̃n =
P
Xn 1IXn ≤n und S̃n = nk=1 X̃k . Wir zeigen zuerst, dass
S̃n − IIE[S̃n ]
=0.
n→∞
n
lim
Sei α > 1 und kn = bαn c. Wir wählen nun ε > 0. Es folgt aus der Chebychev-
3. GRENZWERTSÄTZE
81
Ungleichung
∞
X
n=1
IIP
h |S̃
kn
∞
∞
kn
i X
Var[S̃kn ] X 1 X
− IIE[S̃kn ]|
≥ε ≤
=
Var[X̃m ]
kn
ε2 kn2
ε2 kn2 m=1
n=1
n=1
∞
X 1
1 X
Var[X̃m ]
= 2
.
ε m=1
k2
n:k ≥m n
n
P∞
P
Da n=` (αn )−2 = α−2` /(1 − α−2 ), gibt es eine Konstante cα , so dass n:kn ≥m kn−2 ≤
cα m−2 . Damit erhalten wir
∞
m−1 Z
∞
∞
h |S̃ − IIE[S̃ ]|
i c X
2
X
IIE[X̃m
]
cα X −2 X `+1 2
kn
kn
α
IIP
≥ε ≤ 2
m
x dF (x)
= 2
2
k
ε
m
ε
n
`
n=1
m=1
m=1
`=0
Z `+1
∞
∞ X
X
cα
m−2
x2 dF (x)
= 2
ε `=0 m=`+1
`
Z
∞
cα X −1 `+1 2
≤A+ 2
`
x dF (x)
ε `=1
`
∞ Z
2cα X `+1
≤A+ 2
x dF (x) < ∞ ,
ε `=1 `
wobei A den Term für ` = 0 bezeichnet. Somit schliessen wir aus dem Borel–CantelliLemma, dass kn−1 (S̃kn − IIE[S̃kn ]) fast sicher gegen 0 konvergiert. Da
Z ∞
n Z
IIE[S̃n ]
1X k
=
x dF (x) →
x dF (x) = µ ,
n
n k=1 0
0
konvergiert also kn−1 S̃kn fast sicher gegen µ. Sei nun n ∈ [km , km+1 ). Dann gilt
S̃k
km S̃km
S̃km
S̃n
km+1 S̃km+1
≤ m+1 =
=
≤
.
km+1 km
km+1
n
km
km km+1
Lassen wir n gegen Unendlich streben, erhalten wir
1
S̃n
S̃n
µ ≤ lim
≤ lim
≤ αµ .
n→∞ n
α
n→∞ n
Da α > 1 beliebig war, folgt dass n−1 S̃n → µ.
Betrachten wir nun, wie oft das Ereignis {X̃n 6= Xn } eintritt. Wir haben
∞
X
IIP[X̃n 6= Xn ] =
n=1
=
∞
X
IIP[Xn > n] =
n=1
∞ X
m
X
∞ X
∞
X
IIP[Xn ∈ (m, m + 1]]
n=1 m=n
IIP[Xn ∈ (m, m + 1]] =
m=1 n=1
≤ IIE[X1 ] < ∞ .
∞
X
m=1
mIIP[X1 ∈ (m, m + 1]]
82
3. GRENZWERTSÄTZE
50
500
1000
1500
2000
-50
Abbildung 3.3: Irrfahrt und die Grenzen des iterierten Logarithmus
Somit folgt aus dem Borel–Cantelli Lemma, dass {X̃n 6= Xn } nur endlich oft eintritt.
Insbesondere gilt, dass n−1 Sn und n−1 S̃n den gleichen Grenzwert µ haben.
ii) Wir können ohne Beschränkung der Allgemeinheit annehmen, dass µ = 0. Wir
erhalten
IIE[Xi2 ]2 ≤ IIE[Xi4 ] ≤ M = sup IIE[Xk4 ] .
k
Für Sn ergibt sich die Abschätzung
IIE[Sn4 ] =
n
X
i,j,k,`=1
IIE[Xi Xj Xk X` ] ≤ nM + 6
n(n − 1)
M + 0 ≤ 3n2 M .
2
Also haben wir mit Hilfe von Hilfssatz 2.16
h S i IIE[(n−1 S )4 ]
3n2 M
3M
n
n
IIP ≥ ε ≤
≤ 4 4 = 4 2 .
4
n
ε
εn
εn
Letzterer Ausdruck ist summierbar, also können wir folgern aus dem Borel–Cantelli
Lemma folgern, dass n−1 Sn fast sicher gegen Null konvergiert.
Für viele Situationen ist die Bedingung IIE[Xk4 ] ≤ M erfüllt. Zum Beispiel bei
unabhängigen {0, 1} Experimenten mit Erfolgsparameter pi . Somit erhält man, dass
n−1 Sn − n−1 IIE[Sn ] fast sicher gegen Null konvergiert.
Das starke Gesetz der grossen Zahl gibt uns damit eine Schranke, wie schnell die
Summe Sn wachsen kann. Ist µ = 0, finden wir dass |Sn | ≤ εn, falls n gross genug
ist. Genauere Grenzen für Sn hat Alexander Jakowlewitsch Khintchine gefunden.
3. GRENZWERTSÄTZE
83
Satz 3.5. (Gesetz vom iterierten Logarithmus) Seien {Xk } unabhängig und
identisch verteilt mit Mittelwert IIE[Xk ] = 0 und Varianz σ 2 = Var[Xk ] < ∞. Dann
gilt
lim p
n→∞
Sn
2σ 2 n log log n
und
lim p
n→∞
Sn
2σ 2 n log log n
=1
= −1 .
3.4. Zentraler Grenzwertsatz
Aus dem Gesetz der grossen Zahl wissen wir, dass n−1 Sn gegen den Mittelwert
n−1 IIE[Sn ] konvergiert. Zur Verwendung in der Statistik brauchen wir aber genauere
Informationen über Sn . Wir wollen daher wissen, wie die Verteilung von Sn für grosse
n aussieht. Nehmen wir an, dass {Xk } unabhängig sind, Mittelwert µk und endliche
Varianz σk2 haben. Um die Verteilung studieren zu können, standardisieren wir nun
die Zufallsvariable
Sn − IIE[Sn ]
Sn∗ = p
.
Var[Sn ]
Dann ist IIE[Sn∗ ] = 0 und Var[Sn∗ ] = 1. Wir beweisen nun zwei Varianten des zentralen
Grenzwertsatzes.
Satz 3.6. Seien {Xn } unabhängige Zufallsvariablen und es gelte eine der beiden
folgenden Bedingungen:
i) supn IIE[|Xn3 ] < ∞ und limn
1
n
Pn
i=1
Var[Xi ] > 0.
ii) {Xn } sind identisch verteilt mit Varianz σ 2 < ∞.
Dann konvergiert Sn∗ in Verteilung gegen die standard Normalverteilung
Z x
1
2
∗
lim IIP[Sn ≤ x] = √
e−y /2 dy
n→∞
2π −∞
für alle x ∈ IR.
84
3. GRENZWERTSÄTZE
Beweis. Wir dürfen IIE[Xn ] = 0 annehmen. Wir verwenden Hilfssatz 3.3. Sei f (x)
eine dreimal stetig differenzierbare beschränkte Funktion mit beschränkten Ableitungen. Der Restterm in der Taylor-Formel
f (z + y) = f (z) + f 0 (z)y + 21 f 00 (z)y 2 + R(z, y)
lässt sich abschätzen durch
|R(z, y)| ≤ 61 |f 000 (z̃)| |y 3 | ≤ C|y 3 | ,
oder durch
|R(z, y)| ≤ 21 |f 00 (z̃) − f 00 (z)| |y 2 | ≤ δ(y)|y 2 | ,
wobei z̃ zwischen z und z + y liegt, δ(y) beschränkt ist und limy→0 δ(y) = 0.
Definieren wir Yi,n = Xi /σ(Sn ) und sei Ỹi,n eine normalverteilte Zufallsvariable
mit Mittelwert 0 und Varianz σ 2 (Yi,n ) unabhängig von den anderen Variablen. Dann
ist Sn∗ = Y1,n + · · · + Yn,n , und S̃n = Ỹ1,n + · · · + Ỹn,n ist standard normalverteilt. Wir
schreiben nun
f (Sn∗ )
− f (S̃n ) =
=
n
X
k=1
n
X
f (Zk,n + Yk,n ) − f (Zk,n + Ỹk,n )
2
2
− Ỹk,n
)
f 0 (Zk,n )(Yk,n − Ỹk,n ) + 21 f 00 (Zk,n )(Yk,n
k=1
+ R(Zk,n , Yk,n ) − R(Zk,n , Ỹk,n ) ,
wobei Zk,n = Ỹ1,n + · · · + Ỹk−1,n + Yk+1,n + · · · + Yn,n . Die Variablen Zk,n , Yk,n und
Ỹk,n sind unabhängig. Daher ist
IIE[f 0 (Zk,n )(Yk,n − Ỹk,n ) | Zk,n ] = f 0 (Zk,n )IIE[Yk,n − Ỹk,n ] = 0 ,
2
2
und damit IIE[f 0 (Zk,n )(Yk,n − Ỹk,n )] = 0. Analog folgt, dass IIE[f 00 (Zk,n )(Yk,n
− Ỹk,n
)] =
0. Für den Mittelwert ergibt sich somit
n
X
|IIE[f (Sn∗ )] − IIE[f (S̃n )]| = IIE[R(Zk,n , Yk,n )] − IIE[R(Zk,n , Ỹk,n )]
k=1
≤
n
X
k=1
IIE[|R(Zk,n , Yk,n )|] + IIE[|R(Zk,n , Ỹk,n )|] .
3. GRENZWERTSÄTZE
85
Wir müssen nun die letzte Summe abschätzen.
i) Für das dritte Moment der Normalverteilung haben wir die Abschätzung
r
8
2 3/2
2 3/2
3
IIE[|Ỹk,n |3 ] =
IIE[Ỹk,n
] ≤ 2IIE[Yk,n
] ≤ 2IIE[Yk,n
].
π
Damit erhalten wir
|IIE[f (Sn∗ )]
− IIE[f (S̃n )]| ≤
n
X
3
]
3CIIE[Yk,n
k=1
≤
≤ 3C
n
X
IIE[|Xk |3 ]
k=1
σ 3 (Sn )
3Cn supk IIE[|Xk |3 ]
1 3C supk IIE[|Xk |3 ]
√
=
.
σ 3 (Sn )
n (n−1 σ 2 (Sn ))3/2
Somit konvergiert der Ausdruck gegen Null.
ii) Wir erhalten wir die Abschätzung
|IIE[f (Sn∗ )]
− IIE[f (S̃n )]| ≤
n
X
2
2
IIE[δ(Yk,n )Yk,n
] + IIE[δ(Ỹk,n )Ỹk,n
]
k=1
h X̃ X̃ 2 i
h X X2 i
1
1
1
1
+
II
E
δ √
= n IIE δ √
σ n σ2n
σ n σ2n
h X̃ X̃ 2 i
h X X2 i
1
1
1
1
+ IIE δ √
.
= IIE δ √
2
2
σ n σ
σ n σ
Das Resultat folgt nun mit beschränkter Konvergenz, da δ(y) beschränkt ist.
Da die Normalverteilung als Grenzwert auftritt, nimmt diese Verteilung eine
besondere Rolle ein. Man findet daher die Normalverteilung in Tabellenbüchern.
Der klassische Spezialfall sind unabhängige 0-1 Experimente mit Erfolgsparameter 0 < p < 1
Z x
h S − np
i
1
2
n
lim IIP p
e−y /2 dy .
≤x = √
n→∞
2π −∞
np(1 − p)
Für p = 12 wurde dies 1730 von Abraham de Moivre und für beliebiges p von PierreSimon Laplace 1812 gezeigt. Hier wurde direkt die exakte Wahrscheinlichkeit mit
Hilfe der Sterlingschen Formel ausgewertet. De Moivre kannte aber die Integraldarstellung der Normalverteilung noch nicht.
Eine Anwendung könnte die folgende sein. Jemand will im Kasino Roulette spielen. Hier ist p = 18/37. Er hat vor, an einem Abend 100 Mal zu spielen. Wieviel
Geld muss der Spieler mitnehmen, um am Ende des Abends mit Wahrscheinlichkeit
86
3. GRENZWERTSÄTZE
99% keine Schulden zu haben? Wir formulieren das Problem mit 0-1 Experimenten,
das heisst, der gewonnene Betrag ist 2Sn − n. Wir suchen daher zuerst x, so dass
i
h S − np
n
≤ x = 0.01 .
IIP p
np(1 − p)
Aus einer Tabelle finden wir x = −2.3263 für die Normalverteilung. Also ist das
gesuchte Kapital
100 − 2
p
1800
+ 2 · 2.3263 34200/1369 = 25.9572 .
37
Der Spieler braucht also 26 Geldeinheiten. Dies ist auch das Resultat, das man bei
exakter Berechnung erhält.
Herunterladen