6. Simulation 6.1. Erzeugung von Zufallszahlen 6.2

Werbung
114
6.
6. SIMULATION
Simulation
6.1. Erzeugung von Zufallszahlen
Um auf dem Computer simulieren zu können, braucht man einen Pseudo-Zufallszahlengenerator. Eine beliebte Methode ist die Folgende. Man wählt einen Startwert
z0 in {0, 1, . . . , m − 1}. Dann erzeugt man die Zahlen zn+1 = (azn + c) mod m. Die
Zufallszahlen sind dann un = zn /m. Wenn man die Zahlen a, c, m geschickt wählt,
erhält man so eine Folge, die gleichverteilten Zufallsvariablen ähnlich sehen.
Da auf diese Weise nur m verschiedene Zahlen erreicht werden können, muss man
m so gross wie möglich wählen. Weiter sollte man a und c so wählen, dass alle m
Zahlen vorkommen. Und dann sollte es nicht möglich sein, gute Vorhersagen über
die nächste Zahl treffen zu können, wenn man a, c und m nicht kennt. Zum Beispiel
dürfen Teilintervalle von [0, 1] nicht periodisch getroffen werden.
Ein in der Literatur verwendeter Generator ist m = 232 (Bitlänge), a = 1 664 525
und c = 1 013 904 223. Die Wahl von m hat den Vorteil, dass der Computer automatisch modulo m rechnet. Das heisst, man benötigt weniger Rechenzeit, um die Zahlen
zu erzeugen. Auch die Division zn /m ist einfach. Eine Möglichkeit, die Periode zu
vergrössern ist ein multilinearer Generator
zn+1 = (a0 zn + a1 zn−1 + · · · + am zn−m )
mod m .
Dann benötigt man m + 1 Startwerte, die man z.B. durch einen einfachen Generator erzeugen könnte. Der Generator kann verbessert werden durch Vergrösserung
der Bitlänge, durch Kombination von verschiedenen Zufallszahlengeneratoren, und
durch Manipulation durch ein Schieberegister.
6.2. Inversionsverfahren
Definieren wir die Umkehrfunktion F −1 (x) = inf{y : F (y) ≥ x}. Ist U eine in (0, 1)
gleichverteilte Zufallsvariable, dann hat X = F −1 (U ) die Verteilungsfunktion F ,
IIP[X ≤ x] = IIP[F −1 (U ) ≤ x] = IIP[F (F −1 (U )) ≤ F (x)] = IIP[U ≤ F (x)] = F (x) .
Beispiele
• Gleichverteilung auf (a, b) Hier ist F (x) = (x−a)/(b−a) auf (a, b). Also haben
wir F −1 (y) = a + (b − a)y. Dies ergibt X = a + (b − a)U .
6. SIMULATION
115
• Diskrete Gleichverteilung Ist IIP[X = k] = n−1 für k = 1, 2, . . . , n, erhalten wir
X = bU nc + 1. Hier bezeichnet bxc = sup{n ∈ IIN : n ≤ x} den Ganzzahlteil von
x.
• 0-1 Experiment Ist IIP[X = 1] = p = 1 − IIP[X = 0], so setzen wir X = 0 falls
U < 1 − p, und X = 1 sonst. Dies können wir erreichen, indem wir X = bU + pc
setzen.
• Exponentialverteilte Variablen Ist F (x) = 1 − e−αx für x > 0, erhalten wir
F −1 (y) = −α−1 log(1 − y). Also gibt die Methode X = −α−1 log(1 − U ). Da
1 − U auch gleichverteilt auf (0, 1) ist, können wir X = −α−1 log U setzen.
• Paretoverteilte Variablen Für F (x) = 1 − (1 + x/β)−α erhalten wir F −1 (y) =
β[(1 − y)−1/α − 1]. Also erhalten wir X = β[U −1/α − 1].
• Geometrische Verteilung Wir haben F (x) = 1 − q bxc+1 . Also können wir die
geometrische Verteilung als X = blog U/ log qc erzeugen. Dies ist also eine abgerundete Exponentialverteilung.
6.3. Simulation mit Hilfe anderer Variablen
In vielen Fällen ist die Funktion F −1 (y) kompliziert oder lässt sich nicht in geschlossener Form darstellen. In manchen dieser Fälle kann man X aus anderen Zufallsvariablen erhalten.
Beispiele
• Binomialverteilte Zufallsvariablen Sind {Yi } unabhängige 0-1 Experimente mit
P
Parameter p, dann ist nj=1 Yj binomialverteilt mit Parametern n und p. Wir
P
können also eine binomialverteilte Variable mit X = nj=1 bUj + pc erzeugen,
wobei Uj unabhängige gleichverteilte Variablen sind.
• Poissonverteilte Variablen Wir haben in (2.2) gesehen, dass falls Ti unabhängig
exponentialverteilte Variablen mit Parameter 1 sind, und wir Nt = sup{n :
Pn
i=1 Ti ≤ t} setzen, dann ist Nt Poissonverteilt mit Paramter t. Somit können
P
Q
wir mit X = inf{n : − ni=1 log Ui > λ} − 1 = inf{n : ni=1 Ui < e−λ } − 1 eine
poissonverteilte Zufallsvariable mit Parameter λ erzeugen.
116
6. SIMULATION
c gHxL
0.7
0.6
o
0.5
0.4
0.3
0.2
o
o
o
++
o
o
+
+
+
+
+
0.1
+
+
+
+
+
++
f HxL
+
1
2
+
o
+
3
+
4
Abbildung 6.1: Simulation mittels der Verwerfungsmethode
• Hypergeometrischverteilte Zufallsvariablen Die hypergeometrische Verteilung
gibt die Verteilung der Anzahl der roten Kugeln, wenn man aus einer Urne
mit K roten und N − K schwarzen Kugeln n Kugeln zieht. Seien daher Ui
Pk−1
Yj )/(N − k + 1)c, da
gleichverteilte Variablen. Wir setzen Yk = bUk + (K − j=1
Pk−1
(K − j=1 Yj )/(N − k + 1) der Erfolgsparameter beim k-ten Ziehen ist. Dann
P
hat X = nj=1 Yj eine hypergeometrische Verteilung.
6.4. Die Verwerfungsmethode
Sein nun F (x) absolutstetig mit Dichte f (x). Sei g(x) die Dichte einer anderen
Verteilungsfunktion G(x), die einfach erzeugbar ist. Nehmen wir an, es gibt eine
Konstante c, so dass f (x) ≤ cg(x) für alle x. Wir erzeugen dann unabhängige Zufallsvariablen {Yk } mit Verteilungsfunktion G(x) und unabhängige gleichverteilte {Uk }.
Wir gehen folgendermassen vor. Wir starten mit n = 1. Ist Un ≤ f (Yn )/(cg(Yn )),
dann setzen wir X = Yn , sonst erhöhen wir n um eins. Das heisst, wir simulieren die
Variable, und akzeptieren sie dann mit Wahrscheinlichkeit f (Yn )/(cg(Yn )). Abbildung 6.1 zeigt eine Simulation der Gleichverteilung unter der Fläche begrenzt durch
cg(x). Die Punkte markiert mit + sind die akzeptierten Punkte unter der Fläche
f (x), die Simulationswerte sind die Werte auf der Abszisse. Die Punkte, die mit o
markiert sind, werden verworfen.
Kennt man Yk , wird die Variable mit Wahrscheinlichkeit f (Y1 )/(cg(Y1 )) akzeptiert. Die Variable wird also mit Wahrscheinlichkeit
Z
Z
f (x)
1
1
g(x) dx =
f (x) dx =
cg(x)
c
c
o
+
o
6. SIMULATION
117
akzeptiert. Wir werden also eine geometrisch verteilte Anzahl Variablen mit Parameter 1 − 1/c verwerfen, bevor wir Yk akzeptieren. Eine Variable wird akzeptiert
und ist kleiner als x mit Wahrscheinlichkeit
Z
Z x
1 x
F (x)
f (y)
g(y) dy =
.
f (y) dy =
c −∞
c
−∞ cg(y)
Bedingen wir also darauf, dass die Variable akzeptiert wird, haben wir die bedingte
Verteilung F (x). Daher hat X die Verteilungsfunktion F (x).
Betrachten wir eine diskrete Verteilung und setzen IIP[X = n] = f (n) und
IIP[Y = n] = g(n), dann funktioniert die Methode analog. Ist also c so gewählt,
dass cg(n) ≥ f (n) für alle n, so akzeptieren wir die Variable Yn mit Wahrscheinlichkeit f (Yn )/(cf (Yn )), und verwerfen sonst.
Beispiel Wir wollen eine Gammaverteilung mit Parametern γ > 1 und α erzeugen. Es genügt, den Fall α = 1 zu betrachten, da X/α die gesuchte Verteilung besitzt, wenn X Gammaverteilt mit Parametern γ und 1 ist. Also haben wir
f (x) = xγ−1 e−x /Γ(γ). Sei g(x) = 21 e−x/2 . Da xγ−1 e−x/2 das Maximum in 2(γ − 1)
annimmt, erhalten wir mit Hilfe der Stirlingschen Formel
c=
2γ (γ − 1)γ−1 e−γ+1
2γ (γ − 1)γ−1 e−γ+1
2γ
≤√
=p
.
Γ(γ)
2π(γ − 1)γ−1/2 e−γ+1
2π(γ − 1)
Wir erzeugen daher Yk = −2 log Ũk und Uk , wobei {Ũk } und {Uk } unabhängig sind.
Die oben beschriebene Methode liefert dann die gesuchten Variablen.
P
Ist γ ∈ IIN, lassen sich die Γ verteilten Variablen einfacher als − γk=1 log Ũk
erzeugen. Ist γ ∈
/ IIN, ist es effizienter, g(x) = (2x)bγc−1 e−x/2 /Γ(bγc) zu wählen, da
dann c kleiner wird. Ist 21 < γ < 1, so kann man für g die χ2 -Verteilung wählen, die
man aus der Normalverteilung erhält. Für γ = 21 hat man eine χ2 -Verteilung.
6.5. Normalverteilte Variablen
Ist X standardnormalverteilt, so ist σX + µ normalverteilt mit Mittelwert µ und
Varianz σ 2 . Also genügt es zu betrachten, wie man standardnormalverteilte Variablen erzeugt. Da die Verteilungsfunktion, beziehungsweise ihre Umkehrfunktion,
sich nicht in geschlossener Form darstellen lässt, ist das Inversionsverfahren nicht
geeignet, um die Variablen zu simulieren.
118
6. SIMULATION
y 6
3
R θ
x
-
Abbildung 6.2: Karthesische und Polarkoordinaten
Benötigen wir abhängige normalverteilte Variablen, können wir dies durch eine
Transformation von unabhängigen Variablen erreichen. Zum Beispiel, im zweidip
mensionalen Fall sind (σ1 X1 + µ1 , σ2 (ρX1 + 1 − ρ2 X2 ) + µ2 ) normalverteilt mit
Korrelationskoeffizient ρ.
6.5.1.
Die Box–Muller Methode
Seien X und Y zwei unabhängige standard-normalverteilte Zufallsvariablen, die wir
als Punkt in IR2 betrachten. Diesen Punkt können wir auch mit Polarkoordinaten (R, θ) darstellen, das heisst, X = R cos θ und Y = R sin θ, wobei θ ∈ [0, 2π).
Wir wollen nun die gemeinsame Verteilung von (R, θ) bestimmen. Sei A die Menge {(ρ cos ϕ, ρ sin ϕ) : ρ ≤ r, ϕ ∈ [0, φ]}. Dann erhalten wir durch den Wechsel zu
Polarkoordinaten
ZZ
Z rZ φ
1 −ρ2 /2
1 −(x2 +y2 )/2
IIP[R ≤ r, θ ≤ φ] =
e
dy dx =
e
ρ dϕ dρ
A 2π
0 0 2π
φ
2
=
(1 − e−r /2 ) .
2π
Das bedeutet, R und θ sind unabhängig, θ ist auf (0, 2π) gleichverteilt, und R2 ist
exponentialverteilt mit Parameter 12 . Somit erhalten wir zwei unabhängige standardnormalverteilte Variablen
p
−2 log U1 cos(2πU2 ) ,
p
Y = −2 log U1 sin(2πU2 ) .
X=
6. SIMULATION
119
1.0
+
o
+
o
+
+
o
+
+
+
+
0.5
+
+
+
+
+
+
+
+
+
+
-1.0
+ 0.5
-0.5
1.0
+
+
+
++
+
-0.5+
+
+
+
+
o
o
oo
+
o
o
-1.0
Abbildung 6.3: Simulation der Gleichverteilung im Einheitskreis
6.5.2.
Die Polar Marsaglia Methode
Betrachten wir wieder Polarkoordinaten (R, θ) von zwei standardnormalverteilten
Zufallsvariablen. Wir definieren nun die Transformation
(R, θ) 7→ (e−R
2 /4
, θ) .
Radius und Winkel bleiben unabhängig. Für die Verteilung des Radius erhalten wir
für 0 < r ≤ 1
2
IIP[e−R /4 ≤ r] = IIP[R2 ≥ −4 log r] = r2 .
2
Dies bedeutet, dass (e−R /4 , θ) (bezüglich kartesischen Koordinaten) im Einheitskreis
gleichverteilt ist. Da gleichverteilte Variablen einfach zu erzeugen sind, können wir
die standardnormalverteilten Variablen so konstruieren. Wir setzen Vi = 2Ui − 1.
Falls W = V12 + V22 > 1, verwerfen wir die Variablen, ansonsten setzen wir
r
−2 log W
X = V1
,
W
r
−2 log W
Y = V2
.
W
√
√
√
√
2
Dies gilt, da W = e−R /4 (also R = −2 log W ) und (V1 / W , V2 / W ) =
(cos θ, sin θ). Abbildung 6.3 zeigt eine Simulation von 40 Punkten, wobei 9 Punkte verworfen werden. Wir bemerken, dass die Wahrscheinlichkeit einen Punkt zu
akzeptieren bei π/4 liegt, also von vier Simulationen etwa eine verworfen wird.
120
6. SIMULATION
6.6. Monte-Carlo Simulation
6.6.1.
Die Methode
Für viele Grössen, die man berechnen möchte, ist die exakte Berechnung sehr kompliziert. Zum Beispiel benötigen Banken und Versicherungen heute ein Kapital, das
dem sogenannten Value-at-Risk zum Niveau 99.5% entspricht. Dies ist ein Eigenkapital, das mit Wahrscheinlichkeit 0.995 ausreicht. Die Portfolien sind normalerweise
so komplex, dass es sehr schwer ist, diesen Wert exakt zu berechnen.
Die Idee ist, die entsprechenden Werte beziehungsweise Prozesse zu simulieren.
Wenn wir die Grösse n mal unabhängig simuliert haben, so erhält man aus der
entspechenden Variablen Xi
n
1X
f (Xk ) ≈ IIE[f (X)] .
n k=1
Ist zum Beispiel Xk der Verlust, so ist
n
1X
1IX ≤x
n k=1 k
eine Näherung der Verteilungsfunktion.
Die Varianz des Schätzers
Var
n
h1 X
n
i
f (Xk ) = n−1 Var[f (Xk )]
k=1
ist ein Mass für die Qualität der Schätzung. Da wir die Varianz Var[f (Xk )] nicht
kennen, schätzen wir sie durch die empirische Varianz
n
2
1 X
f (Xk ) − f (X)
,
n − 1 k=1
wobei f (X) der geschätzte Mittelwert ist.
Da relativ grosse Genauigkeit benötigt, sind viele Simulationen nötig. Da die
gesuchte Variable durch einen komplexen Prozess erhalten wird, braucht eine Simulaion meist viel Zeit. Daher ist es von Vorteil, wenn die Varianz kleiner ist.
Beispiel 6.1. Man könnte auf die Idee kommen, π mittels einer Simulation zu
berechnen. Man simuliert zwei auf (0, 1) gleichverteilte Zufallsvariablen X und Y .
6. SIMULATION
121
Dann testet man, ob X 2 +Y 2 ≤ 1. Das heisst, man testet, ob der simulierte Punkt in
der Ebene im Einheitskreis liegt. Die Fläche des Kreisviertels ist π/4, die Fläche des
Quadrates ist 1. Somit ist die Wahrscheinlichkeit, dass der Punkt in den Einheitskreis
liegt, ist π/4. Ist In = 1, falls Xn2 + Yn2 ≤ 1 und In = 0 sonst, so hat man einen
Schätzer für π
N
4 X
In .
N n=1
Eine Simulation mit N = 100 000 gibt den Wert 3.13688, mit N = 1 000 000 erhalten
wir 3.14078. Mit N = 10 000 000 erhalten wir den ziemlich genauen Wert 3.14164.
Beispiel 6.2. In der Finanzmathematik sei {Sn } der Preis eines Aktivs. Im Black–
Scholes-Modell modelliert man
Sn = S0 exp
n
nX
Xk
o
,
k=1
wobei {Xk } unabhängige normalverteilte Variablen mit Mittelwert µ und Varianz
σ 2 sind. Eine asiatische Option ist eine Option mit der Auszahlung
N
+
X
1
Sk − K
,
N − n0 k=n +1
0
wobei K der Ausübungspreis ist. Hier wird der Durchschnitt genommen, damit es
unwahrscheinlich ist, dass ein einflussreicher Händler den Preis über eine längere
Zeit ohne grosse Kosten manipulieren kann. Um den Preis zu bestimmen, müssen
wir den Wert
N
h 1
+ i
X
IIE
Sk − K
N − n0 k=n +1
0
bestimmen, wobei hier IIE das Mass ist, das für die Preisbestimmung verwendet wird.
Das Problem ist nun, dass sich die Verteilung einer Summe von Lognormalverteilungen nicht effizient ausdrücken lässt. Um den Preis bestimmen zu können, werden
daher oft Monte-Carlo Simulationen verwendet.
6.6.2.
Varianzreduzierende Methoden
Die Zwei-Schätzer-Methode Nehmen wir an, dass wir den Erwartungswert einer Grösse h(X1 , X2 , . . . , Xn ) berechnen wollen, wobei {Xk } Zufallsvariablen sind.
122
6. SIMULATION
Nehmen wir weiter an, dass wir eine Funktion h̃ kennen, so dass
IIE[h(X1 , X2 , . . . , Xn )] = IIE[h̃(X1 , X2 , . . . , Xn )] .
Die Varianzen sollen endlich sein. Wir definieren dann den Schätzer
h∗ (X1 , X2 , . . . , Xn ) = αh(X1 , X2 , . . . , Xn ) + (1 − α)h̃(X1 , X2 , . . . , Xn ) .
Dieser Schätzer hat die Varianz
α2 Var[h] + (1 − α)2 Var[h̃] + 2α(1 − α) Cov[h, h̃] .
Die Varianz wird für
α∗ =
Var[h̃] − Cov[h, h̃]
Var[h] + Var[h̃] − 2 Cov[h, h̃]
minimal. Ist α∗ 6= 1, also Var[h] 6= Cov[h, h̃], so reduziert sich die Varianz des
Schätzers. Die Methode hat weiter den Vorteil, dass die Zufallsvariablen X1 , . . . , Xn
nur einmal erzeugt werden müssen, was Zeit im Programm spart. Wir bemerken
noch, dass normalerweise α∗ nicht berechnet werden kann. Man schätzt dann α∗
und verwendet eine Approximation an die optimale Wahl.
Beispiel 6.2 (Fortsetzung). In der Finanzmathematik erzeugt man standardnormalverteilte Variablen Zk . Dann ist auch −Zk standard-normalverteilt. In unserem Beispiel haben wir also Xk = µ + σZk , und setzt dann X̃k = µ − σZk .
Die gesuchte Funktion h(Z1 , . . . , ZN ) und h̃(Z1 , . . . , ZN ) = h(−Z1 , . . . , −ZN ) haben
dann selben Erwartungswert und selbe Varianz. Damit erhalten wir α∗ = 21 . Da wir
erwarten, dass Cov[h, h̃] < 0, wird die Varianz des Schätzers halbiert.
Die Kontroll-Variablen-Methode Sei h̃(X1 , . . . , Xn ) eine Variable, so dass der
Erwartungswert IIE[h̃(X1 , . . . , Xn )] einfach berechnet werden kann. Wir nehmen an,
dass die Varianz Var[h̃(X1 , . . . , Xn )] endlich sei. Der Schätzer
h∗ (X1 , . . . , Xn ) = h(X1 , . . . , Xn ) − c(h̃(X1 , . . . , Xn ) − IIE[h̃(X1 , . . . , Xn )])
hat dann den selben Erwartungswert wie h, und Varianz
Var[h(X1 , . . . , Xn )] + c2 Var[h̃(X1 , . . . , Xn )] − 2c Cov[h(X1 , . . . , Xn ), h̃(X1 , . . . , Xn )] ;
Wählt man
c=
Cov[h(X1 , . . . , Xn ), h̃(X1 , . . . , Xn )]
Var[h̃(X1 , . . . , Xn )]
6. SIMULATION
123
wird die Varianz minimal. Die optimale Wahl ergibt die Varianz
Var[h(X1 , . . . , Xn )] −
(Cov[h(X1 , . . . , Xn ), h̃(X1 , . . . , Xn )])2
.
Var[h̃(X1 , . . . , Xn )]
Um eine Varianz nahe bei Null zu erhalten, sucht man h̃, so dass
(Cov[h(X1 , . . . , Xn ), h̃(X1 , . . . , Xn )])2 ≈ Var[h(X1 , . . . , Xn )] Var[h̃(X1 , . . . , Xn )] .
Dash heisst, die Korrelation sollte nahe bei 1 oder −1 liegen.
Das optimale c kann selten genau bestimmt werden. Sind Varianz von h̃ und h
ungefähr gleich, und die Korrelation nahe bei 1, so scheint c = 1 eine gute Wahl zu
sein.
Beispiel 6.2 (Fortsetzung). Hätte man für die asiatische Option statt dem arithmetischen Mittel das geometrische Mittel verwendet, also die Auszahlung
N
Y
Sn
1/(N −n0 )
−K
+
,
k=n0 +1
so wäre es einfach den Preis der Option berechnen. Man kann für die Simulation
Q
PN
1
1/(N −n0 )
+
und ( N −n
nun verwenden, dass ( N
k=n0 +1 Sn )
k=n0 +1 Sk − K) stark kor0
reliert sind. Korrigiert man die Simulation entsprechend, lässt sich die Varianz stark
vermindern, so dass die simulierten Preise genauer werden.
6.7. Importance Sampling
Nehmen wir an, dass wir den Erwartungswert IIE[h(X)] für eine Variable X mit Dichtefunktion f (x) berechnen wollen. Sei g(x) eine Dichtefunktion mit der Eigenschaft,
dass g(x) > 0 für alle x mit f (x) > 0. Dann gilt
Z
Z
f (x)
IIE[h(X)] = h(x)f (x) dx = h(x)
g(x) dx .
g(x)
Ist Y eine Variable mit der Dichtefunktion g(x), so haben wir also
h
f (Y ) i
IIE[h(X)] = IIE h(Y )
.
g(Y )
Für die Monte-Carlo-Simulation sucht man nun die Dichtefunktion g(x), für die die
Varianz beziehungsweise das zweite Moment
Z
h
f 2 (x)
f (Y ) 2 i
IIE h(Y )
= h2 (x)
dx
g(Y )
g(x)
124
6. SIMULATION
minimal wird. Würden wir g(x) kennen und durch eine Funktion g(x) + εv(x) erR
setzen, dann müsste g(x) + εv(x) dx = 1 gelten, und die gesuchte Varianz müsste
ein Minimum in ε = 0 haben. Wir müssen daher
Z
hZ
i
f 2 (x)
2
dx + δ
h (x)
(g(x) + εv(x)) dx − 1
g(x) + εv(x)
minimieren. Leiten wir nach ε ab, erhalten wir
Z h
i
f 2 (x)
2
dx v(x) dx = 0 .
δ − h (x)
(g(x) + εv(x))2
In ε = 0, erhalten wir
Z h
f 2 (x) i
δ − h2 (x) 2
dx v(x) dx = 0 .
g (x)
R
Da dies für alle v(x) gelten muss, erhalten wir g(x) = h(x)f (x)/δ. Da g(x) dx = 1,
wird dies für g(x) = h(x)f (x)/IIE[h(X)] erreicht. Das heisst, wir simulieren h(x)f (x)/g(x) =
IIE[h(X)]. Damit wird die Varianz 0, und eine Simulation würde ausreichen. Natürlich
ist dies keine mögliche Wahl, da man die gesuchte Grösse IIE[h(X)] kennen müsste.
Man wird aber versuchen, g so zu wählen, dass g gross wird für Werte, an denen
h(x)f (x) gross wird. Dadurch wird das Gewicht der Verteilung an Stellen verlagert,
die für den Erwartungswert gewichtig sind.
Die Methode funktioniert analog auch für diskrete Wahrscheinlichkeitsverteilungen. Meistens wird die Methode für stochastische Prozesse angewendet, wo die
Gewichte geschickt verschoben werden, dass die interessanten Szenarien wahrscheinlicher werden.
P
Beispiel 6.3. Betrachten wir die Irrfahrt Sn = nk=1 Xk , wobei Xk normalverteilt
ist mit Mittelwert µ und Varianz 1. Die Variablen {Xk } seien unabhängig. Wir haben
IIE[Xk ] = µ. Nach dem Gesetz der grossen Zahl konvergiert Sn /n nach µ. Ist µ > 0,
so konvergiert also Sn nach Unendlich, und m = inf n∈IIN Sn ist endlich. Starten wir
mit einem Anfangskapital a > 0, so reicht das Kapital aus, falls a + m ≥ 0. Wir
können dann die Ruinwahrscheinlichkeit IIP[a+m < 0] durch Simulation bestimmen.
Es gibt zwei Probleme. Wir müssen die Simulation irgendwann abbrechen, zum
Beispiel, wenn der Prozess einen grossen Wert k erreicht, von dem aus Ruin sehr
unwahrscheinlich wird. Brechen wir ab, so berechnen wir nur eine Näherung des
gesuchten Wertes. Ist a gross, so wird die Ruinwahrscheinlichkeit klein. Das heisst,
wir müssen sehr viele Pfade simulieren, um einen interessanten Pfad zu erhalten.
6. SIMULATION
125
Damit wird die Varianz des numerischen Schätzers im Vergleich zur gesuchten Grösse
sehr gross. Die Simulation ist also sehr ineffizient.
Sei nun g(x) die Dichte der Normalverteilung mit Mittelwert −µ und Varianz 1.
Dann haben wir
exp{− 12 (x − µ)2 }
f (x)
=
= exp{2µx} .
g(x)
exp{− 12 (x + µ)2 }
Wir können dies für jede Variable Xk machen. Dann können wir ein Ereignis A, das
durch X1 , X2 , . . . , Xn bestimmt ist, durch
n
h Y
i
e
IIP[A] = IIE 1IA
exp{2µXk } = IIe
E[1IA exp{2µSn }]
k=1
ausdrücken, wobei Xk unter dem Mass II˜P normalverteilt mit Mittelwert −µ ist.
Setzen wir τ = inf{n : Sn < −a}, so erhalten wir (wir beweisen dies hier nicht)
IIP[a + m < 0] = IIP[τ < ∞] = IIe
E[1Iτ <∞ exp{2µSτ }] .
Da der Wert −a wegen dem negativen Trend sicher erreicht wird, haben wir also die
Ruinwahrscheinlichkeit
IIP[a + m < 0] = IIe
E[exp{2µSτ }] .
Wir haben nun, dass Ruin für jeden Pfad eintritt, das heisst, wir benötigen kein
Abbruchkriterium, und jeder Pfad ist zum numerischen Berechnen für unsere Grösse
wichtig. Man kann zeigen, dass diese Methode asymptotisch (für a → ∞) optimal ist.
Insbesondere erhalten wir aus Sτ < −a die Abschätzung IIP[a+m < 0] < exp{−2µa}.
Herunterladen