diplomarbeit - Universität Wien

Werbung
DIPLOMARBEIT
Titel der Diplomarbeit
Stochastische Prozesse
in der Versicherungsmathematik
verfasst von
Verena Klambauer
angestrebter akademischer Grad
Magistra der Naturwissenschaften (Mag. rer. nat.)
Studienkennzahl:
A 405
Studienrichtung:
Mathematik
Betreuer:
Ao. Univ.-Prof. Dr. Franz Hofbauer
Wien, im Februar 2013
Danksagung
Ich möchte mich an dieser Stelle bei Univ.-Prof. Dr. Franz Hofbauer für die intensive Betreuung meiner Diplomarbeit bedanken. In seinen zahlreichen Vorlesungen hat er mir einen
breiten Einblick in die Welt der Stochastik vermittelt und mich mit vielen Anregungen und
Ratschlägen bei der Erstellung dieser Arbeit unterstützt.
Ganz besonders möchte ich meinen Eltern und meiner Schwester danken, denn sie haben
mir dieses Studium nicht nur nanziell ermöglicht, sondern mich in meinem Weg immer
bestärkt. Sie sind mir stets mit Rat und Tat zur Seite gestanden - nicht zuletzt bei der Fertigstellung dieser Arbeit.
Ein groÿes Dankeschön gebührt auch meinem Freund und seiner Mutter, die mich bei meiner
Arbeit immer motivierend begleitet haben.
Zuletzt möchte ich mich auch bei all meinen Studienkollegen bedanken, die in den letzten
Jahren eine groÿe Stütze für mich waren und zu guten Freunden geworden sind.
Inhaltsverzeichnis
Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
Teil 1. Risikotheorie
Kapitel 1. Poissonprozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
Kapitel 2. Kleine Forderungen
2.1. Grundlagen der Risikotheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
2.2. Kleine Forderungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
Kapitel 3. Weitere Darstellungsarten der Wahrscheinlichkeit
Ψ(a)
3.1. Integralgleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
19
3.2. Reihendarstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
Ψ(a) . . . . . . . . . . . . . . . . . . . . .
26
3.3. Asymptotisches Verhalten der Wahrscheinlichkeit
Kapitel 4. Groÿe Forderungen und subexponentielle Verteilungen
4.1. Groÿe Forderungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
31
4.2. Subexponentielle Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
37
Kapitel 5. Beispiele
5.1. Weibullverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
45
5.2. Verallgemeinerte Paretoverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
46
5.3. Benktanderverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
48
5.4. Loggammaverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
50
Teil 2. Extremwerttheorie
Kapitel 6. Die drei Extremwertverteilungen
6.1. Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
55
6.2. Satz von Khintchine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
58
6.3. Max-stabile Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
64
6.4. Fisher-Tippett-Theorem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
68
6.5. Anwendungen des Fisher-Tippett-Theorems . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
76
Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
81
Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
83
Einleitung
Die Theorie über stochastische Prozesse ist ein wichtiges mathematisches Konzept, um Folgen
von Zufallsexperimenten beschreiben zu können. Man unterscheidet zwischen stochastischen
Prozessen mit diskreter und stochastischen Prozessen mit kontinuierlicher Zeit.
Unter einem stochastischen Prozess mit diskreter Zeit versteht man eine Folge von Zufallsvariablen
X0 , X1 , X2 , . . .
, wobei diese Werte in derselben Menge S annehmen. Die Menge S
bezeichnet man als Zustandsraum und
Xn
als Zustand zum Zeitpunkt n.
Der n-malige Münzwurf ist nur eines von vielen Beispielen dafür. Der Zustandsraum besteht hier aus den beiden Ausgängen Kopf und Zahl, das heiÿt
S = {Kopf, Zahl}. Xn
ist
der Ausgang nach dem n-ten Wurf.
Unter einem stochastischen Prozess mit kontinuierlicher Zeit versteht man eine Familie
von Zufallsvariablen
(Xt )t
standsraum, annehmen.
mit
Xt
t ∈ R,
wobei auch sie Werte in derselben Menge S, dem Zu-
bezeichnet man als Zustand zum Zeitpunkt
t.
Als Beispiel kann der Krankheitsverlauf bei einer Epidemie dienen.
Xt
ist die Anzahl
an Erkrankten zum Zeitpunkt t. Da entweder niemand oder nur eine positive Anzahl von
Personen erkrankt sein kann, ist der Zustandsraum durch
S = {0, 1, 2, . . .}
gegeben.
Die hierfür verwendete Literatur ndet sich in [9] und [11].
Im ersten Teil untersuche ich die Anwendung der stochastischen Prozesse in der Versicherungsmathematik, und zwar im Bereich der Risikotheorie.
Dazu betrachtet man folgende vereinfachte Situation: Ein Versicherungsunternehmen besitzt Einnahmen in Form von Prämien und Ausgaben für Leistungen aus versicherten Schadensfällen. Die Schadensmeldungen treen zu unabhängigen Zeitpunkten ein und haben eine
zufällige Höhe. In diesem Zusammenhang stellt sich die Frage, wie hoch das Risiko für das
Versicherungsunternehmen ist, einmal zahlungsunfähig zu werden. Um dem entgegenzuwirken, werden der Deckungsbedarf berechnet und Rücklagen gebildet. Es gilt nun, die Risikowahrscheinlichkeit, d.h. die Wahrscheinlichkeit, dass die Rücklagen in Höhe
werden, abzuschätzen. Diese wird mit
einem bestimmten Zeitintervall
(0, t]
Ψ(a)
a
aufgebraucht
bezeichnet. Die Anzahl der Forderungen, die in
eintreen, bilden einen stochastischen Prozess kontinu-
ierlicher Zeit. Im ersten Kapitel wird zu sehen sein, dass der Poissonprozess am besten dafür
geeignet ist, dieses mathematische Konzept zu beschreiben.
1
Einleitung
Abhängig davon, welche Verteilungsfunktion man für die Höhe der Forderungen benutzt,
unterscheidet man kleine und groÿe Forderungen. Dementsprechend nden sich in Kapitel 2
und Kapitel 4 Resultate, die das asymptotische Verhalten der Risikowahrscheinlichkeit beschreiben. Um diese Wahrscheinlichkeit leichter berechnen zu können, werden in Kapitel 3
eine Integral- und eine Reihendarstellung der Gegenwahrscheinlichkeit
K(a) = 1 − Ψ(a)
gegeben.
Der Aufbau wurde, in weiten Zügen, aus [9] und [10] entnommen. Die wichtigsten Sätze
und Begrie nden sich auch in [5] und [14]. Als weitere Grundlage wurden [2] und [15]
herangezogen. Die für Kapitel 3 notwendige Theorie über Erneuerungsprozesse kann in [6]
und [7] nachgelesen werden.
Im zweiten Teil meiner Diplomarbeit werde ich mich mit der Anwendung stochastischer
Prozesse in der Extremwerttheorie befassen.
Warum man in der Mathematik an Aussagen über extreme Ereignisse interessiert ist, zeigt
folgendes Beispiel: Möchte man einen Staudamm bauen, so stellt sich relativ schnell die Frage
nach dessen sinnvoller Höhe. Die Berechnungen werden sich nicht an der durchschnittlichen
Höhe des Wasserstandes orientieren, sondern an der maximalen Höhe der Flut.
Eine wichtige Rolle spielen solche Fragestellungen auch für Versicherungsunternehmen bzw.
Banken. In diesem Zusammenhang ist man zum Beispiel an der Wahrscheinlichkeit, wie oft
dieser Staudamm in 100 Jahren überutet wird, interessiert. Mithilfe solcher Schätzwerte
können unter anderem Sicherheitsreserven festgelegt werden.
Extreme Ereignisse wie Überutungen, Erdbeben etc. werden in der klassischen statistischen Analyse oft als Ausreiÿer bezeichnet, teilweise sogar ganz ignoriert. Mithilfe der
Extremwertverteilungen kann man heutzutage jedoch Modelle entwickeln, die das Auftreten
von extremen Ereignissen gut beschreiben und vorhersagen können. Dabei kommt die Theorie
über stochastische Prozesse zur Anwendung.
Angenommen, in dem oben beschriebenen Staudamm-Beispiel wird jeden Tag zur selben
Zeit der Wasserstand gemessen und
det man das Maximum über
(Mn )n∈N
Xn
sei der Wasserstand am Tag n. Anschlieÿend bil-
{X1 , X2 , . . . , Xn },
das mit
Mn
bezeichnet wird. Die Maxima
bilden eine neue Folge von Zufallsvariablen, von der man die Grenzwertverteilung
für immer gröÿer werdendes
n
beschreiben möchte.
Das zentrale Resultat in diesem Abschnitt ist das Theorem von Fisher-Tippett, das sich
mit der Verteilung der Maxima beschäftigt. In diesem Theorem wird gezeigt, dass die Verteilungsfunktion der Maxima gegen drei mögliche Verteilungstypen konvergiert. Abschlieÿend
werden einige Beispiele dazu angeführt.
Der Aufbau dieses Kapitels orientiert sich im Wesentlichen an [12]. Die wichtigsten Sätze
kann man auch in [13] und [15] nachlesen. Weiterführende Literatur und die in diesem Teil
verwendeten Begrie nden sich [1], [3] und [4].
2
Teil 1
Risikotheorie
KAPITEL 1
Poissonprozesse
Der Poissonprozess ist ein stochastischer Prozess kontinuierlicher Zeit, der nach Siméon
Denis Poisson benannt wurde. Er spielt unter anderem in der Versicherungsmathematik eine
wichtige Rolle und wird Ausgangspunkt für die Risikotheorie sein, die im weiteren Verlauf
dieser Arbeit genauer behandelt wird.
In diesem Kapitel werden die wichtigsten Resultate und Eigenschaften von Poissonprozessen hergeleitet. Der Aufbau richtet sich im Wesentlichen nach [9], [10] und [14]. In manchen
der nachfolgenden Beweise über Poissonprozesse werden Denitionen und Aussagen aus der
elementaren Wahrscheinlichkeitstheorie verwendet. Diese Sätze werden an den entsprechenden Stellen wiederholt, jedoch nicht bewiesen. Hierfür sei auf [8] verwiesen.
Denition 1.1.
Sei
Poisson- oder kurz
λ > 0.
Eine Zufallsvariable
P (λ)-verteilt,
X
mit Wertebereich
R = {0, 1, 2, . . .}
falls die Wahrscheinlichkeitsfunktion für
P(X = k) =
λk
k!
k∈R
heiÿt
durch
· e−λ
gegeben ist.
Die allgemeine Denition eines Poissonprozesses lautet:
Denition 1.2.
funktion von
g
Sei
g : R+ → R+
mit
(a)
g,
G(t) =
Rt
g(x)dx
die Stamm-
0
lim G(t) = ∞.
t→∞
Ein stochastischer Prozess
wichtsfunktion
eine Gewichtsfunktion und
(Xt )t≥0
mit kontinuierlicher Zeit heiÿt Poissonprozess mit Ge-
wenn gilt:
P(X0 = 0) = 1
(b) für
0 < s1 < s2 < . . . < sk
(c) für
s<t
hat
Xt − Xs
die
sind die Zuwächse
Xs1 , Xs2 −Xs1 , . . . , Xsk −Xsk−1
unabhängig
P (G(t) − G(s))-Verteilung
Der Poissonprozess ist ein gutes mathematisches Modell, um Ereignisse zu beschreiben, die
unabhängig voneinander zu zufälligen Zeitpunkten eintreten. Um zu sehen, dass dies auch
für das Eintreen von Schadensmeldungen bei einer Versicherung gilt, betrachtet man das
folgende
5
Poissonprozesse
Beispiel.
Hierfür werden ein Zeitintervall
(0, s]
und eine Anzahl
r
von Schadensmeldungen
bei einem Versicherungsunternehmen festgelegt. Jeder Schadensfall tritt zu einem zufälligen
Zeitpunkt unabhängig von den anderen ein.
Sei
g : R+ → R+
g(t)
gröÿer
eine Gewichtsfunktion. Dann wird ein Zeitpunkt
Xt
umso eher gewählt, je
ist. Die Wahrscheinlichkeit, dass eine Schadensmeldung im Zeitintervall
der Versicherung eintrit, soll proportional zu
Mit
t
G(u) − G(v)
(Xt )t≥0
bei
sein.
(0, t]
wird die Anzahl der Schadensmeldungen im Intervall
gezeigt, dass der stochastische Prozess
(u, v]
beschrieben. Nun wird
die drei Eigenschaften des Poissonprozesses
erfüllt.
P(X0 = 0) = 1,
Es gilt
denn im Zeitintervall
(0, 0]
meldet sich natürlich niemand. Somit ist
die Eigenschaft (a) erfüllt.
Für die nächsten beiden Eigenschaften wählt man ein
wobei
s > tk
angenommen und
k ∈ N
mit
0 = t0 < t1 < . . . < tk ,
tk+1 = s
gesetzt wird. Die Wahrscheinlichkeit, dass eine
G(ti )−G(ti−1 )
Schadensmeldung in (ti−1 , ti ] eintrit, ist somit pi =
für 1 ≤ i ≤ k + 1, da dann
G(s)
k+1
P
pi = 1 gilt.
i=1
Seien Zi = Xti − Xti−1 für 1 ≤ i ≤ k + 1 die Zuwächse. Der Vektor (Z1 , Z2 , . . . , Zk+1 ) besitzt
die Multinomialverteilung und daher folgt:
P (Z1 = n1 , Z2 = n2 , . . . , Zk = nk , Zk+1 = nk+1 ) =
Es gilt:
n1 + n2 + . . . + nk + nk+1 = r,
eintreten. Damit ist aber auch
r!
nk+1
pn1 1 pn2 2 . . . pnk k pk+1
.
n1 !n2 ! . . . nk !nk+1 !
da in dem Zeitintervall
Z1 + Z2 + . . . + Zk + Zk+1 = r.
(0, s]
Da
genau
Zk+1
r
Schadensfälle
die auf
r
fehlende
Anzahl ist, kann man es weglassen und erhält somit:
P (Z1 = n1 , Z2 = n2 , . . . , Zk = nk ) =
=
r!
(r−n −n −...−nk )
pn1 1 pn2 2 . . . pnk k pk+1 1 2
n1 !n2 ! . . . nk !(r − n1 − n2 − . . . − nk )!
=
r!
n1 !n2 ! . . . nk !(r − n1 − n2 − . . . − nk )!
G(t1 ) − G(t0 )
G(s)
n1
→1
für alle
k∈N
und
G(s) − G(tk )
G(s)
r
∞ gehen, sodass G(s)
G(s)
k)
lim G(s)−G(t
= e−G(tk ) , gilt
G(s)
Nun lässt man sowohl r als auch s gegen
r−k
G(s)
...
gegen
(r−n1 −n2 −...−nk )
1
konvergiert. Da
s→∞
P (Z1 = n1 , Z2 = n2 , . . . , Zk = nk ) =
k
r(r − 1) . . . (r − n1 − . . . − nk + 1) Y
n
=
(G(ti ) − G(ti−1 )) i
n1 !n2 ! . . . nk !G(s)n1 +n2 +...+nk i=1
→
=
k
Y
1
n
(G(ti ) − G(ti−1 )) i e−G(tk )
n1 !n2 ! . . . nk ! i=1
k
n
Y
(G(ti ) − G(ti−1 )) i
i=1
6
ni !
e−(G(ti )−G(ti−1 ))
2 −...−nk
G(s) ! r−n1 −n
G(s)
G(tk )
1−
G(s)
Poissonprozesse
Die Wahrscheinlichkeiten von Poissonverteilungen mit Parameter
durch
wλ (k) =
λ
sind generell gegeben
λk −λ
. Wie man erkennen kann, zerfällt der Grenzwert in das Produkt
k! e
k
Y
P (Z1 = n1 , Z2 = n2 , . . . , Zk = nk ) =
wλi (ni ),
i=1
mit
λi = G(ti ) − G(ti−1 ).
P(Zi = n) = wλi (n)
für
Das heiÿt, die Zuwächse
n ∈ N.
Z1 , . . . , Z k
Die Zufallsvariablen
Zi
sind unabhängig und
haben die
P (λi )-Verteilung
und
erfüllen daher Eigenschaft (b) und (c).
(Xt )t≥0
bildet somit einen gewichteten Poissonprozess.
Ist die Gewichtsfunktion
g
konstant, d.h. gilt
einem homogenen Poissonprozess. Dann gilt
Denition 1.3.
(a)
für alle
G(t) = λt für t ∈
Ein stochastischer Prozess
gener Poissonprozess mit Parameter
g(t) = λ
(Xt )t≥0
λ > 0,
t ∈ R+ ,
spricht man von
R+ . Dies führt zu der folgenden
mit kontinuierlicher Zeit heiÿt homo-
wenn gilt:
P(X0 = 0) = 1
(b) für
0 < s1 < s2 < . . . < sk
(c) für
s<t
hat
Xt − Xs
die
sind die Zuwächse
Xs1 , Xs2 −Xs1 , . . . , Xsk −Xsk−1
unabhängig
P (λ(t − s))-Verteilung
Im weiteren Verlauf der Arbeit wird nur mit homogenen Poissonprozessen gearbeitet.
Denition 1.4.
Unter Zwischenankunftszeiten versteht man die Zeiten zwischen aufein-
ander folgenden Schadensfällen bzw. die Zeiten, die zwischen den Schadensmeldungen liegen,
vorausgesetzt die Versicherungsnehmer melden Schäden gleich nach Eintritt bei der Versicherung.
Dies ermöglicht eine andere Beschreibung von homogenen Poissonprozessen. Zuvor ist jedoch noch folgender Hilfssatz notwendig:
Hilfssatz 1.1.
Gegeben seien die beiden Zufallsvektoren
U = (U1 , U2 , . . . , Un ),
wobei
V = (V1 , V2 , . . . , Vn )
U1 = V1 , U2 = V2 − V1 , . . ., Un = Vn − Vn−1
und
ist.
Dann sind folgende Aussagen äquivalent:
(a)
V
hat den Wertebereich
D = {(y1 , . . . , yn ) ∈ Rn : 0 < y1 < y2 < . . . < yn }
Wahrscheinlichkeitsdichte
(b)
U
hat den Wertebereich
f (x1 , . . . , xn ) =
g(y1 , . . . , yn ) =
(0, ∞)n
e−λyn λn , wobei
und die
g : D → [0, ∞).
und die Wahrscheinlichkeitsdichte
e−λ(x1 +...+xn ) λn , wobei
f : (0, ∞)n → [0, ∞).
Für den Beweis braucht man die Transformationsformel für Wahrscheinlichkeitsdichten.
7
Poissonprozesse
Satz 1.1.
Sei
W ⊂ Rn
oen,
det Dψ(x) 6= 0, ∀x ∈ W .
mit
scheinlichkeitsdichte
h:
Rn
ψ : W → Rn
eine injektive, stetig dierenzierbare Funktion
Weiters sei ein n-dimensionaler Zufallsvektor X mit Wahr-
→ [0, ∞)
gegeben und
h(x) = 0
für
x∈
/ W.
Für
Y = ψ(X)
ist
dann
k(x) = 1ψ(W ) (x)h(ψ −1 (x))| det Dψ −1 (x)|
die Wahrscheinlichkeitsdichte des Zufallsvektors
Y.
Beweis. Der Beweis kann in [8] nachgelesen werden.
Damit ist der Hilfssatz leicht bewiesen:
Beweis. Um die Transformationsformel für Dichten anzuwenden, braucht man zunächst
folgende Matrizen:

1
0
0 ···
0

 -1

 0

A= .
 ..


 0
0
1
0 ···
0
0


0 

-1 1 · · ·
0 0 

.
.
.
. 
..
.
.
.
.
.
.
.
.
. 


0 0 ··· 1 0 
0 0 · · · -1 1

und
A−1
1 0 0 ··· 0 0

··· 0 0 

··· 0 0 

.
. 
..
.
.
.
.
. 


··· 1 0 
··· 1 1

 1 1 0

 1 1 1

= . . .
 .. .. ..


 1 1 1
1 1 1
Damit kann man die lineare Transformation der Zufallsvektoren
U

und
V
wie folgt beschrei-
ben:
U = AV
(a) ⇒ (b)
Dann hat
Angenommen,
U
V
und
V = A−1 U
D
hat den Wertebereich
und die Wahrscheinlichkeitsdichte
g.
den Wertebereich
{Ay : y ∈ D} = {(y1 , y2 − y1 , y3 − y2 , . . . , yn − yn−1 ) : 0 < y1 < . . . < yn } = (0, ∞)n .
Die Wahrscheinlichkeitsdichte von
ψ(x) = Ax, W = ψ(W ) =
(0, ∞)n ,
U
ergibt sich aus der Transformationsformel, indem man
ψ −1 (x)
= A−1 x
und
Dψ −1 (x) = A−1
setzt:
f (x1 , . . . , xn ) = g(A−1 x)| det(A−1 )| = e−λ(x1 +...+xn ) λn .
(b) ⇒ (a)
f.
Angenommen,
Dann hat
V
U
hat den Wertebereich
(0, ∞)n
und die Wahrscheinlichkeitsdichte
den Wertebereich
{A−1 x : x ∈ (0, ∞n )} = {(x1 , x1 + x2 , . . . : xi ∈ (0, ∞), 1 ≤ i ≤ n)} = D.
Auch hier folgt die Wahrscheinlichkeitsdichte von
ψ(y) = A−1 y , W = ψ(W ) = (0, ∞)n , ψ −1 (y) = Ay
V
und
aus der Transformationsformel mit
Dψ −1 (y) = A:
g(y1 , . . . , yn ) = f (Ay)| det(A)| = e−λyn λn .
8
Poissonprozesse
Vor dem zentralen Resultat über Zwischenankunftszeiten wird an dieser Stelle die Denition der Exponentialverteilung wiederholt:
Denition 1.5.
Sei
λ > 0.
Eine kontinuierliche Zufallsvariable
heiÿt Exponential- oder kurz
E(λ)-verteilt,
X
mit Wertebereich
falls die Wahrscheinlichkeitsdichte für
R+
x ∈ R+
durch
f (x) = λ · e−λx
gegeben ist.
Satz 1.2.
riablen
Vi ,
Gegeben sei ein homogener Poissonprozess mit Parameter
wobei
1 ≤ i ≤ n,
λ > 0.
Die Zufallsva-
stellen jeweils die Wartezeit vom Zeitpunkt 0 bis zum Eintreen
der i-ten Schadensmeldung dar.
Seien
U1 = V1 , U2 = V2 − V1 , . . .
Un = Vn − Vn−1
die ersten n Zwischenankunftszeiten.
Ui
mit
1≤i≤n
s1 , . . . , sn > 0
und
ti = s1 + s2 + . . . + si
Dann gilt: Die Zufallsvariablen
Beweis. Es seien
,
0 < h < min(s1 , . . . , sn ),
sind unabhängig und
mit
E(λ)-verteilt.
1 ≤ i ≤ n.
Weiters sei
sodass gilt:
0 < t1 − h < t1 < t2 − h < t2 < . . . < tn − h < tn
Nun betrachtet man die Zerlegung des Intervalls
(0, tn ]
in die folgenden
2n
Teilintervalle:
(0, tn ] = (0, t1 − h] ∪ (t1 − h, t1 ] ∪ . . . ∪ (tn−1 , tn − h] ∪ (tn − h, tn ]
Seien
Z1 , Z2 , . . . , Z2n−1 , Z2n
die Anzahlen an Schadensmeldungen, die in den Intervallen
(0, t1 − h], (t1 − h, t1 ], . . . (tn − h, tn ]
bei der Versicherung eintreen.
Wie man leicht erkennen kann, sind folgende Aussagen äquivalent:
(a) Es gilt:
Vi ∈ (ti − h, ti ]
(b) Es gilt:
Z1 = 0, Z2 = 1, Z3 = 0, Z4 = 1, . . . , Z2n−1 = 0, Z2n ≥ 1
mit
1≤i≤n
Aus der Denition von homogenen Poissonprozessen folgt, dass die Zuwächse
1 ≤ j ≤ 2n
unabhängig und
P (λl)-verteilt
sind, wobei
l
Zj
mit
für die Länge des Intervalls steht.
Damit kann man weiters zeigen:
P(Vi ∈ (ti − h, ti ], 1 ≤ i ≤ n) = P(Z1 = 0, Z2 = 1, Z3 = 0, Z4 = 1, . . .)
= P(Z1 = 0) · P(Z2 = 1) · P(Z3 = 0) . . . P(Z2n ≥ 1)
= P(Z1 = 0) · P(Z2 = 1) · P(Z3 = 0) . . . (1 − P(Z2n = 0))
= e−λ(s1 −h) · e−λh · (λh) · e−λ(s2 −h) . . . e−λ(sn −h) · (1 − e−λh ),
da die Poisson-Wahrscheinlichkeiten durch
P(X = k) =
(λl)k −λl
gegeben sind.
k! e
9
Poissonprozesse
Fasst man weiter zusammen, dann folgt:
= (λh)n−1 · e−(n−1)(λh) · e−λ(s1 −h)−λ(s2 −h)−...−λ(sn −h) · (1 − e−λh )
= (λh)n−1 · e−(n−1)(λh) · e−λ(s1 +s2 +...+sn −nh) · (1 − e−λh )
= (λh)n−1 · e−(n−1)(λh) · e−λ(tn −nh) · (1 − e−λh )
= (λh)n−1 · e−λ(tn −nh+(n−1)h) · (1 − e−λh )
= (λh)n−1 · e−λ(tn −h) · (1 − e−λh )
= (λh)n−1 · (e−λ(tn −h) − e−λtn )
n−1
= (λh)
Ztn
·
λe−λxn dxn
tn −h
Zt1
Ztn
=
λn e−λxn dxn dxn−1 . . . dx1
...
t1 −h
tn −h
Z
=
f (x1 , . . . , xn )dxn . . . dx1 ,
W
wobei
Da
W = (t1 − h, t1 ] × . . . × (tn − h, tn ]
0 < V 1 < V 2 < . . . < Vn ,
und
f (x1 , . . . , xn ) = λn e−λxn .
ist der Wertebereich des Zufallsvektors
V = (V1 , . . . , Vn )
durch
D = {(y1 , . . . , yn ) ∈ Rn : 0 < y1 < . . . < yn } gegeben. Es ist leicht zu erkennen, dass W ⊆ D.
R
Zusammenfassend wurde gezeigt, dass P(V ∈ W ) =
f (x)dx für alle Würfel W mit W ⊆ D
W
gilt. Somit ist die Funktion
f
die Wahrscheinlichkeitsdichte von
Laut dem obigen Hilfssatz hat der Zufallsvektor
V.
U = (U1 , U2 , . . . , Un )
den Wertebereich
(0, ∞)n und die Dichte
g(x1 , x2 , . . . , xn ) = λn e−λ(x1 +...+xn )
= λ · e−λx1 · λ · e−λx2 . . . λ · e−λxn
= g1 (x1 ) · . . . · gn (xn ).
Da die Dichte
jedes
1≤i≤n
Parameter
λ
g(x)
des Zufallsvektors in ein Produkt
die Funktion
zerfällt und für
die Wahrscheinlichkeitsdichte der Exponentialverteilung mit
ist, folgt aus der elementaren Wahrscheinlichkeitstheorie:
Die Zufallsvariablen
E(λ)-Verteilung.
10
gi
g1 (x1 ) · . . . · gn (xn )
U1 , . . . , U n
sind unabhängig und für jedes
1≤i≤n
besitzt
Ui
die
KAPITEL 2
Kleine Forderungen
2.1 Grundlagen der Risikotheorie
Die grundlegende Idee einer Versicherung besteht in einem Risikotransfer vom Versicherungsnehmer an den Versicherer gegen Zahlung einer Prämie. Tritt nun ein versicherter Schadensfall ein, so kommt es zu Zahlungen seitens des Versicherungsunternehmens. Es wird angenommen, dass die Zeitpunkte, zu denen die Schadensfälle gemeldet werden, einen homogenen
Poissonprozess mit Parameter
λ>0
bilden.
Um weitere Aussagen treen zu können, wird zunächst die grundlegende Notation eingeführt:
•
Für
t>0
sei
Nt
die Anzahl der Forderungen im Zeitintervall
homogener Poissonprozess mit Parameter
•
Die Zufallsvariablen
Ui
i-ten
Für
wird mit
(i − 1)-ten
kann man von
•
Yi
die Höhe der
i-ten
E(λ)-verteilt
sind.
Forderung bezeichnet. Die Forderungen
F.
Da Forderungen, insbesondere von Geldbeträgen, sicher positiv sind,
F (0) = 0
Y1 , Y2 , . . .
ausgehen. Zu guter Letzt wird angenommen, dass die Zufalls-
unabhängig vom Poissonprozess sind.
Die Prämieneinnahmen der Versicherung werden pro Zeiteinheit zusammengefasst und
mit
•
Forderung bis zum Eintreen
seien unabhängig und identisch verteilt, d.h. sie besitzen die gleiche Vertei-
lungsfunktion
variablen
ist ein
Forderung betrachtet.
i ≥ 1
Y1 , Y2 , . . .
(Nt )t≥0
stellen die Zwischenankunftszeiten in diesem Poissonprozess
Aus Satz 1.2. folgt, dass diese unabhängig und
•
d.h.
λ > 0.
dar, d.h. es wird die Zeit vom Eintreen der
der
(0, t],
c>0
bezeichnet.
Nun lässt sich der Gewinn der Versicherung in
(0, t]
als Dierenz der Einnahmen und
Ausgaben folgendermaÿen darstellen:
Xt = (c · t) −
Nt
P
Yi
i=1
11
Kleine Forderungen
•
Die Rücklagen bilden den Sicherheitspolster der Versicherung für Zeiten erhöhter
Ausgaben. Dieser sei mit
Der Gewinn
Xt
a
bezeichnet.
kann auch negativ sein und somit für die Versicherung einen Verlust
darstellen. Für diesen Fall stellt sich die Frage, ob die Rücklagen
a
groÿ genug sind, und mit
welcher Wahrscheinlichkeit die Ausgaben die Rücklagen übersteigen.
Denition 2.1.
Die folgende Wahrscheinlichkeit
Ψ(a) = P(Xt < −a für
ist das Risiko, dass der Verlust die Rücklagen
übersteigt. Man kann
t
Zeitpunkt
Ψ(a)
a
ein
t > 0)
der Versicherung zu irgendeinem Zeitpunkt
auch als das Risiko des Versicherungsunternehmens, zu einem
zahlungsunfähig zu werden, interpretieren.
Im weiteren Verlauf der Arbeit wird das Verhalten von
(Xt )t≥0
noch ein Resultat über den Prozess
E(Xt ),
µ
F
untersucht. Doch zuvor sei
angeführt. Berechnet wird der Erwartungswert
d.h. der durchschnittliche Gewinn im Intervall
Der Erwartungswert der Verteilung
Ψ(a)
(0, t].
- die durchschnittliche Höhe der Forderungen - sei mit
bezeichnet.
Satz 2.1.
Sei
Bemerkung.
t > 0.
E(Xt ) = (c − λµ)t.
Dann gilt:
Folgende Eigenschaft von Erwartungswerten wird im Beweis verwendet und
kann in [8] nachgelesen werden:
Der Erwartungswert einer Zufallsvariablen
E(X) =
R∞
R0
P(X ≤ t)dt.
−∞
+
besitzt einen Wertebereich in R . Dann ist
R∞
und aus obiger Gleichung folgt, dass E(X) =
P(X > t)dt gilt.
0
Angenommen, die Zufallsvariable
t<0
lässt sich auch schreiben als
P(X > t)dt −
0
für
X
Beweis. Für
t>0
X
sei
Zt =

Nt

 P Yi
wenn
Nt > 0
i=1

0
wenn
.
Nt = 0
Dann gilt
(1)
P(Zt > x) =
=
(2)
=
∞
X
P(Y1 + Y2 + . . . + Yk > x|Nt = k) · P(Nt = k)
k=0
∞
X
k=0
12
P(Zt > x|Nt = k) · P(Nt = k)
k=0
∞
X
P(Y1 + Y2 + . . . + Yk > x) · P(Nt = k),
P(X ≤ t) = 0
Grundlagen der Risikotheorie
wobei in Gleichung (1) die Formel für die totale Wahrscheinlichkeit und in Gleichung (2) die
Unabhängigkeit von
Y1 , Y2 , . . .
Y1 + Y2 + . . . + Yk
und somit auch
Zt
und
Nt
verwendet wurde. Da die Zufallsvariablen
positive Werte annehmen und daher einen Wertebereich in
R+
haben, kommt obige Bemerkung zum Tragen, und man erhält folgende Gleichungen:
Z∞
E(Y1 + Y2 + . . . + Yk ) =
P(Y1 + Y2 + . . . + Yk > x)dx
und
0
Z∞
E(Zt ) =
P(Zt > x)dx.
0
Weiters gilt, dass alle Summanden in der obigen Summe nichtnegativ sind. Daher kann man
obige Gleichung von
0
bis
∞
integrieren und anschlieÿend Summe und Integral vertauschen:
Z∞
E(Zt ) =
P(Zt > x)dx
0
=
=
Z∞ X
∞
P(Y1 + Y2 + . . . + Yk > x) · P(Nt = k)dx
0 k=0
∞
X
E(Y1 + Y2 + . . . + Yk ) · P(Nt = k)
k=0
=
∞
X
kµ · P(Nt = k) = µ
∞
X
k · P(Nt = k)
k=0
k=0
= µE(Nt ) = µλt
Im letzten Schritt wurde verwendet, dass der Erwartungswert von
gilt, da
Nt
die
P (λt)-Verteilung
besitzt. Da
Xt = ct − Zt ,
Nt
gleich
(λt)
ist. Dies
folgt
E(Xt ) = ct − E(Zt ) = ct − µλt = (c − λµ)t.
Voraussetzung für das Überleben des Versicherungsunternehmens ist ein positiver Durchschnittsgewinn, d.h.
E(Xt )
soll gröÿer Null sein. Daher wird angenommen, dass
gilt. Führt man einen neuen Parameter
ρ=
c
λµ
−1
(c − λµ) > 0
ein, so ist die Annahme äquivalent zu
ρ > 0.
Für die folgende Untersuchung von
Ψ(a)
müssen die oben eingeführten Notationen erweitert
werden:
•
Man setzt
Vi = Yi − cUi
für
i ≥ 1.
Das ist die Dierenz zwischen der Höhe der
Forderung und den Prämieneinnahmen zwischen
i-ten
(i−1)-ter und i-ter Schadensmeldung.
13
Kleine Forderungen
•
Mit
Sk
wird die Summe der
V1 , . . . , V k
bezeichnet:
Sk =
k
P
Vi
i=0
Da es sich sowohl bei
Y1 , Y2 , . . .
handelt, sind somit die Zufallsvariablen
Wie bereits oben erwähnt, sind alle
gemeinsame Verteilungsfunktion
E(λ)-Verteilung
U1 , U2 , . . .
als auch bei
F.
V1 , V2 , . . .
Yi ,
mit
Sei
Tk =
als Funktion dieser auch unabhängig.
i ≥ 1,
identisch verteilt, d.h. sie haben eine
Dies gilt auch für die
besitzt. Somit kann man auch für alle
lungsfunktion angeben, die in weiterer Folge mit
•
k
P
Ui
um unabhängige Zufallsvariablen
G
Ui ,
mit
i ≥ 1,
V1 , V2 , . . .
wobei jedes
Ui
die
eine gemeinsame Vertei-
bezeichnet wird.
der Zeitpunkt der k-ten Forderung. Somit gilt für
k ≥ 1:
i=0
XTk = cTk −
k
P
Yi = −
i=1
k
P
Vi = −Sk
i=0
Nimmt man vereinfachend an, dass die Forderungen der Versicherten sofort zu Auszahlungen
seitens des Versicherungsunternehmens führen, so nimmt der Prozess
Zeitpunkten
T1 , T2 , . . .
Xt
seine Minima in den
an. Damit folgt:
Ψ(a) = P(XTk < −a
= P(Sk > a
für ein
für ein
k ≥ 1)
k ≥ 1)
= P(sup Sk > a)
k≥1
Sei
K(a) = 1 − Ψ(a)
die Gegenwahrscheinlichkeit, dann gilt:
K(a) = P(sup Sk ≤ a)
k≥1
2.2 Kleine Forderungen
Angenommen, die Verteilungsfunktion
F
lichkeitsdichte, die in weiterer Folge mit
sind, ist
f (x) = 0
Denition 2.2.
existieren, sodass
für alle
der Forderungen
f
(Yi )i≥1
besitzt eine Wahrschein-
bezeichnet wird. Da Forderungen immer positiv
x ≤ 0.
Man spricht von kleinen Forderungen, wenn ein
f (x) ≤
e−vx für jedes
x≥d
v >0
und ein
d>0
gilt. Mit anderen Worten: Die Wahrschein-
lichkeit, dass groÿe Forderungen bei der Versicherung eintreen, ist gering.
Um Aussagen über das Verhalten von
Ψ(a) treen zu können, braucht man die momenter-
zeugenden Funktionen der Zufallsvariablen
Yi , Ui
und
Vi
für
i ≥ 1.
Die allgemeine Denition
von momenterzeugenden Funktionen wird an dieser Stelle wiederholt:
14
Kleine Forderungen
Denition 2.3.
Für eine beliebige Zufallsvariable
DX := {t ∈ R :
E(etX )
< ∞}.
X
sei folgende Menge gegeben:
Dabei handelt es sich um die Menge aller
t ∈ R,
für die
E(etX ) existiert. Die momenterzeugende Funktion ist deniert durch:
mX : DX → R
mX (t) = E(etX )
X
Wenn
eine Dichte
f
besitzt, dann gilt
R∞
mX (t) =
etx f (x)dx
für
t ∈ DX .
−∞
Da eine Wahrscheinlichkeitsdichte
tion der Zufallsvariablen
Yi
für
f
i≥1
vorausgesetzt wurde, ist die momenterzeugende Funk-
durch
mF (t) = E(etYi ) =
R∞
etx f (x)dx =
−∞
gegeben. Liegt ein
mF (t) =
R∞
v>0
zu
etx f (x)dx
0
wie in Denition 2.2. vor, dann gilt:
etx f (x)dx ≤
0
Da
R∞
Rd
etx f (x)dx +
0
R∞
etx e−vx dx =
Rd
etx f (x)dx +
0
d
R∞
ex(t−v) dx
d
mF (t) endlich sein soll, ist nun die Summe der beiden Integrale in der obigen Ungleichung
Rd tx
betrachten. Für den ersten Summanden gilt:
e f (x)dx < ∞. Der zweite Summand ist
0
genau dann endlich, wenn
äquivalent
t<v
sein. Damit ist
Die Zufallsvariablen
keitsdichte
x(t − v) < 0.
U1 , U2 , . . .
f (x) = λ ·
mF (t)
x
positive Werte annimmt, muss
x ∈
t ∈ (−∞, u),
deniert für
E(λ)-verteilt
sind
e−λx für
Da
wobei
(t − v) < 0
oder
0 < u ≤ ∞.
und besitzen somit die Wahrscheinlich-
R+ . Die momenterzeugende Funktion ist daher laut
Denition durch
mE (t) = E(etUi ) =
R∞
etx λe−λx dx = λ
0
gegeben. Auch hier muss
valent
t < λ.
R∞
ex(t−λ) dx =
0
λ
λ−t
mE (t) endlich sein. Dies gilt genau dann, wenn (t−λ) < 0 oder äqui-
Daraus folgt, dass
Funktion der Zufallsvariablen
mE (t)
für
V1 , V2 , . . .
Z∞
mG (t) =
t ∈ (−∞, λ)
deniert ist. Die momenterzeugende
ist gegeben durch:
etx dG(x) = E(etVi )
−∞
= E(etYi −ctUi ) = E(etYi ) · E(e−ctUi )
= mF (t) · mE (−ct) = mF (t) ·
für
t ∈ (− λc , u),
λ
,
λ + ct
wobei die Tatsache verwendet wurde, dass die Zufallsvariablen
Yi
und
Ui
unabhängig sind.
Die Gestalt der momenterzeugenden Funktion
mG
lässt sich aber noch näher bestimmen.
Dafür wird folgender Satz aus der elementaren Wahrscheinlichkeitstheorie verwendet:
15
Kleine Forderungen
Satz 2.2.
Sei
X
eine Zufallsvariable mit
0 ∈ DX .
Dann gilt:
(k)
E(X k ) = mX
für
k ≥ 1,
d.h.
es existieren alle Momente.
Für die Zufallsvariablen
mG (0) =
(1)
0
mF (0) λλ
=
V1 , V2 , . . .
E(e0 )
ist
0 ∈ DVi = (− λc , u).
Mit Satz 2.2. folgt nun:
=1
mG (0) = E(Vi ) = E(Yi ) − cE(Ui ) = µ − λc = −ρµ < 0
R∞ 2 tx
00
mG (t) =
x e dG(x) > 0 für t ∈ (− λc , u)
(2)
(3)
−∞
Daraus kann man schlieÿen:
(1)
mG
geht durch den Punkt
(2)
mG
hat in
(3)
mG
ist konvex auf dem Intervall
(0|1)
(0|1)
negativen Anstieg
(− λc , u)
Es existieren somit zwei Möglichkeiten, wie der Graph
mG (t)
aussehen kann. Diese sind
in der folgenden Abbildung 2.1. dargestellt.
mG (t)
mG (t)
1
1
t
0
− λc
R
t
u
R = sup{r ∈ (0, u) : mG (r) ≤ 1}.
Behauptung: Weiters ist
Für
u<∞
Für
u = ∞
F (α) < 1
Dieser Parameter existiert, da die Menge nicht leer ist.
R < ∞.
ist diese Aussage trivial.
folgt die Behauptung wegen
und
lim mG (t) = ∞.
t→∞
1 − G(0) = P(Vi > 0) ≥ P(Yi > α)P(Ui ≤
Dies gilt, da es ein
α
c)
α > 0
= (1 − F (α))(1 − e−
λα
c
mit
)>0
+
aus R mit
G(0) < 1 existieren a und b
0 < a < b und G(b) − G(a) > 0. Daraus
Rb tx
mG (t) ≥ e dG(x) ≥ eta (G(b) − G(a)). Mit lim etx = ∞ für x > 0 ergibt sich:
gibt. Wegen
folgt, dass
u=R
mG (t)
Abbildung 2.1: Darstellungen von
Sei
0
− λc
t→∞
a
lim mG (t) ≥ lim eta (G(b) − G(a)) = ∞.
t→∞
t→∞
Mit Hilfe des Parameters
16
R
ist nun eine Abschätzung der Wahrscheinlichkeit
Ψ(a)
möglich.
Kleine Forderungen
Satz 2.3.
Es gilt
Ψ(a) ≤ e−Ra
für
a > 0.
Beweis. Zunächst deniert man folgende Wahrscheinlichkeiten:
für
n ≥ 1.
(
Ereignis
Da die Ereignisse
max Sk > a
für
1≤k≤n
n → ∞
1≤k≤n
monoton wachsend gegen das
)
sup Sk > a
streben, folgt aus dem Stetigkeitssatz:
k≥1
Ψn (a)
es ausreichend, eine Abschätzung für
Sei
Ψn (a) = P
max Sk > a
r ∈ (0, u)
mit
mG (r) ≤ 1.
Für alle
lim Ψn (a) = Ψ(a).
n→∞
Daher ist
zu geben.
a>0
erhält man mit Hilfe der Markov-Ungleichung:
Ψ1 (a) = P(S1 > a) = P(V1 > a) ≤
1
rV1 )
era E(e
= e−ra mG (r) ≤ e−ra
Die weiterführende Idee besteht darin, einen Induktionsbeweis zu führen. Daher wird angenommen, dass
Ψn (a) ≤ e−ra
für
Für den Induktionsschritt ist
a>0
gilt.
Ψn+1 (a) ≤ e−ra
zu zeigen. Dazu schreibt man
Ψn+1 (a)
als
Summe
Ψn+1 (a) = P(S1 > a) + P S1 ≤ a, max Sk > a
2≤k≤n+1
und schätzt beide Summanden separat ab.
R∞
P(S1 > a) = P(V1 > a) =
(1) Es gilt:
dG(x) ≤
a
folgt daraus, dass
e−r(a−x) ≥ 1
e−r(a−x) dG(x).
Die letzte Ungleichung
a
x ∈ [a, ∞)
für
R∞
ist.
(2) Für die Abschätzung des zweiten Summanden deniert man
S̃k :=
k
P
Vi
für
k≥2
und
i=2
bezeichnet mit
H
die Verteilungsfunktion der Zufallsvariable
man bildet dieses Maximum aus den Zufallsvariablen
max S̃k .
2≤k≤n+1
auch
Da
V2 , V3 , . . .
max S̃k
2≤k≤n+1
max Sk .
1≤k≤n
V2 , V3 , . . . , Vn+1 ,
V1
die Verteilungsfunktion
und
so erhält man
unabhängige und gleichverteilte Zufallsvariablen sind, besitzt
H.
V1 , max S̃k
Im nächsten Schritt wird die Verteilungsfunktion des Zufallsvektors
ermittelt. Da
Angenommen
max S̃k
2≤k≤n+1
2≤k≤n+1
voneinander unabhängig sind, ist diese durch
(x, y) 7→ G(x)H(y)
gegeben. Für
B = {(x, y) ∈ R2 : x ≤ a, y > a − x}
P S1 ≤ a, max Sk > a = P V1 ≤ a, V1 +
2≤k≤n+1
erhält man:
max S̃k > a
2≤k≤n+1
=P
V1 , max S̃k
2≤k≤n+1
Za Z∞
∈B
dH(y)dG(x)
=
−∞ a−x
Za
=
P
−∞
Za
max Sk > a − x dG(x) =
Ψn (a − x)dG(x)
1≤k≤n
−∞
17
Kleine Forderungen
Za
≤
e−r(a−x) dG(x),
−∞
wobei in der letzten Ungleichung die Induktionsannahme verwendet wurde.
Mit Hilfe der beiden Abschätzungen kann man nun den Induktionsschritt zu Ende führen:
Za
Ψn+1 (a) ≤
−r(a−x)
e
Z∞
dG(x) +
−∞
e
−r(a−x)
Z∞
dG(x) =
−∞
a
= e−ra
Z∞
e−r(a−x) dG(x)
erx dG(x) = e−ra mG (r) ≤ e−ra ,
−∞
wobei auch hier verwendet wurde, dass
Ψn (a) ≤
e−ra für
a>0
Da laut Denition
und alle
n≥1
mG (r) ≤ 1 ist. Zusammenfassend wurde gezeigt, dass
gilt.
R = sup{r > 0 : mG (r) ≤ 1}
ist, folgt:
Ψ(a) = lim Ψn (a) ≤ e−Ra .
n→∞
Dieser Satz liefert eine gewünschte Abschätzung für die Risikowahrscheinlichkeit. Er besagt, dass
meter
18
Ψ(a)
R>0
bei einer Erhöhung der Rücklagen
a
exponentiell abnimmt, wobei der Para-
Einuss auf die Geschwindigkeit der Abnahme hat.
KAPITEL 3
Weitere Darstellungsarten der Wahrscheinlichkeit Ψ(a)
3.1 Integralgleichung
Für die weitere Untersuchung der Risikowahrscheinlichkeit
genwahrscheinlichkeit
mit
k ≥ 1,
so gilt
K(a) = 1 − Ψ(a).
Deniert man
M
Ψ(a)
betrachtet man deren Ge-
als das Supremum über alle
Sk
K(a) = P(M ≤ a).
Nun kann das Problem auftreten, dass
riablen selber den Wert
∞
annimmt. Da
variablen mit Erwartungswert
µ−
c
λ
M
als Supremum von unendlich vielen Zufallsva-
V1 , V2 , . . .
= −ρµ < 0
unabhängige und gleich verteilte Zufalls-
sind, kommt das starke Gesetz der groÿen
Zahl zur Anwendung:
P
Da
lim 1 Sk
k→∞ k
= −ρµ
lim 1 Sk
k→∞ k
gilt, folgt somit
Damit wurde gezeigt, dass
= −ρµ
lim Sk = −∞
k→∞
P(M < ∞) = 1
=1
und daraus auch
M = sup Sk < ∞.
k≥1
gilt und
M
eine echte Zufallsvariable ist.
K
hat
daher die Eigenschaften einer Wahrscheinlichkeitsverteilung.
Der nächste Satz beinhaltet eine Integralgleichung für die Verteilungsfunktion
Satz 3.1.
K.
Sei
h(x) =
gegeben. Dann ist
h

 1 (1 − F (x))
µ
für
x≥0
0
für
x<0
eine Wahrscheinlichkeitsdichte und für die Verteilungsfunktion
λµ λµ
+
K(a) = 1 −
c
c
K
folgt:
Za
K(a − y)h(y)dy
0
für alle
a > 0.
19
Weitere Darstellungsarten der Wahrscheinlichkeit
Beweis. Da
F
eine Verteilungsfunktion ist, gilt
gleich Null. Der Erwartungswert von
R∞
µ = (1 − F (x))dx.
F
Ψ(a)
0 ≤ F (x) ≤ 1
ist wieder durch
µ
und somit ist
h
gröÿer oder
gegeben, das heiÿt
Daraus folgt:
0
Z∞
Z∞
h(x)dx =
h(x)dx =
−∞
h
Die Funktion
Z∞
0
1
(1 − F (x))dx = 1
µ
0
erfüllt somit alle Bedingungen einer Wahrscheinlichkeitsdichte.
S̃k = V2 + V3 + . . . + Vk
Für den nächsten Teil des Beweises deniert man
und
M̃ = sup S̃k .
Da die Zufallsvariablen
V2 , V3 , . . .
für
k ≥ 2
unabhängig sind und alle die gleiche
k≥2
Verteilung
G
haben, besitzt
M̃ = sup S̃k
wie
M = sup Sk
k≥2
grund der Unabhängigkeit der Zufallsvariablen
Zufallsvektors
(M̃ , Y1 , U1 )
lungsfunktion der
Mit
u>0
und
durch
B = {(x, y, z) ∈
M̃ , Y1
und
U1
(x, y, z) 7→ K(x)F (y)L(z)
E(λ)-Verteilung
R3
die Verteilungsfunktion
K.
Auf-
k≥1
ist die Verteilungsfunktion des
gegeben, wobei
L
für die Vertei-
steht.
: y ≤ u + cz, x ≤ u − y + cz}
erhält man:
!
K(u) = P(M ≤ u) = P S1 ≤ u, sup Sk ≤ u
k≥2
= P(V1 ≤ u, V1 + M̃ ≤ u)
= P(Y1 − cU1 ≤ u, Y1 − cU1 + M̃ ≤ u)
= P((M̃ , Y1 , U1 ) ∈ B)
Z∞ u+cz
Z u−y+cz
Z
dK(x)dF (y)dL(z)
=
−∞ −∞
Z∞ u+cz
Z
−∞
K(u − y + cz)dF (y)λe−λz dz
=
0
0
Indem man eine neue Integrationsvariable
Z∞ Zt
=
u
Deniert man nun für
u≥0
und
t = u + cz
einführt, folgt weiter:
λ
1
K(t − y)dF (y)λe− c (t−u) dt
c
0
t≥0
die Funktion
gilt:
K(u) =
R∞
u
20
λ
g(u, t) = λc e− c (t−u)
g(u, t)dt.
Rt
0
K(t − y)dF (y),
so
Integralgleichung
Für
s 6= 0
erhält man:
 ∞

Z
Z∞
K(u + s) − K(u)
1
g(u + s, t)dt − g(u, t)dt
=
s
s
1
=
s
u
u+s
Z
u+s
∞
Z
1
g(u + s, t)dt −
s
1
g(u + s, t)dt −
s
u
=−
1
s
u
u+s
Z
g(u, t)dt
u
1
s
g(u + s, t)dt +
Z∞
Z∞
(g(u + s, t) − g(u, t)) dt
u
u
Weiters besteht folgende Beziehung:
λ λ
g(u + s, t) = e− c (t−u−s)
c
Zt
K(t − y)dF (y)
0
λ
λ λ
= e− c (t−u)+ c s
c
Zt
K(t − y)dF (y)
0
=e
λ
s
c
g(u, t)
Damit folgt
u+s
u+s
Z
Z
λ
s
c
g(u, t)dt
g(u + s, t)dt = e
u
und aufgrund der rechtsseitigen Stetigkeit von
1
lim
s→0 s
u
t 7→ g(u, t)
gilt
u+s
u+s
Z
Z
λ
1
g(u + s, t)dt = lim e c s
g(u, t)dt = g(u, u).
s→0
s
u
u
Man erhält auch folgende Gleichung:
1
1 λs
(g(u + s, t) − g(u, t)) =
e c g(u, t) − g(u, t)
s
s
1 λ s
c
=
e − 1 g(u, t)
s
und somit
Z∞
lim
s→0
u
1
1 λs
(g(u + s, t) − g(u, t)) dt = lim
ec − 1
s→0 s
s
Z∞
u
λ
g(u, t)dt =
c
Z∞
g(u, t)dt.
u
21
Weitere Darstellungsarten der Wahrscheinlichkeit
Ψ(a)
Damit ist es möglich, die Ableitung der Funktion
K
an der Stelle
u
anzugeben:
K(u + s) − K(u)
s


u+s
Z
Z∞
1
1
g(u + s, t)dt +
(g(u + s, t) − g(u, t)) dt
= lim −
s→0
s
s
0
K (u) = lim
s→0
u
= −g(u, u) +
u
λ
c
Z∞
g(u, t)dt = −g(u, u) +
λ
K(u)
c
u
Um die letzte Gleichung weiter zu vereinfachen, kann man
wird wieder angenommen, dass
λ
g(u, u) =
c
F
g(u, u)
eine Wahrscheinlichkeitsdichte
partiell integrieren. Dafür
f
besitzt.
Zu
K(u − y)dF (y)
0
u λ Zu 0
λ
= K(u − y) (F (y) − 1) +
K (u − y) (F (y) − 1) dy
c
c
0
0
λ
λ
λ
= K(0) (F (u) − 1) − K(u) (F (0) − 1) +
c
c
c
Zu
0
K (u − y) (F (y) − 1) dy
0
=
λ
λ
λ
K(0) (F (u) − 1) + K(u) +
c
c
c
Zu
0
K (u − y) (F (y) − 1) dy
0
Im nächsten Schritt setzt man dieses Ergebnis in die Ableitung der Verteilungsfunktion
ein und ersetzt
(F (y) − 1)
0
durch
K (u) = −g(u, u) +
K
−µh(y):
λ
K(u)
c
Zu
λ
λ
λ
λ
0
= K(0)µh(u) − K(u) +
K (u − y)µh(y)dy + K(u)
c
c
c
c
0


Zu
λµ 
0
=
K(0)h(u) + K (u − y)h(y)dy 
c
0
Integriert man obige Gleichung von
manden, so ergibt sich:
22
0
bis
a
und vertauscht die Integrale im zweiten Sum-
Integralgleichung

Za
Za Zu
0
0

λµ 
0
K(0) h(u)du +
K (u − y)h(y)dydu
c
0
0 0


Za
Za Za
λµ 
0
=
K(0) h(u)du +
K (u − y)duh(y)dy 
c
0
0 y


a
Z
Za
λµ 
K(0) h(u)du + (K(a − y) − K(0)) h(y)dy 
=
c
K(a) − K(0) =
=
λµ
c
Za
K(a − y)h(y)dy
0
Dieses Ergebnis entspricht im Wesentlichen der gesuchten Formel, jedoch muss noch der Wert
von
K(0) bestimmt werden. Dazu wird lim
Ra
a→∞ 0
K(a − y)h(y)dy
berechnet. Dies erfolgt in zwei
Schritten:
•
Abschätzung nach oben: Da
x∈R
K
eine Verteilungsfunktion und somit
K(x) ≤ 1
für alle
ist, gilt:
Za
Z∞
Za
K(a − y)h(y)dy ≤
0
h(y)dy ≤
0
h(y)dy = 1,
0
wobei die letzte Gleichung aus der Tatsache folgt, dass
h eine Wahrscheinlichkeitsdichte
ist.
•
Abschätzung nach unten: Die wesentliche Eigenschaft, die hier einieÿt, ist die Monotonie der Verteilungsfunktion
K:
a
Za
Za
Z2
K(a − y)h(y)dy =
0
K(a − y)h(y)dy +
K(a − y)h(y)dy
a
2
0
a
Z2
≥
K(a − y)h(y)dy
0
a
Z2
≥
K
a
2
h(y)dy
0
23
Weitere Darstellungsarten der Wahrscheinlichkeit
Da sowohl
lim K(x) = 1
x→∞
als auch
Rx
lim
x→∞ 0
Ψ(a)
h(y)dy = 1
gilt, folgt
a
a
Z2
K
lim
a→∞
a
2
h(y)dy = lim K
a Z2
h(y)dy = 1
2
a→∞
0
0
und damit
Za
K(a − y)h(y)dy ≥ 1.
lim
a→∞
0
lim
Zusammenfassend wurde gezeigt, dass
Wenn man nun in obiger Gleichung
äquivalent
a
Ra
a→∞ 0
gegen
K(a − y)h(y)dy = 1.
∞
gehen lässt, erhält man
1 − K(0) =
λµ
c oder
λµ
c , womit die gesuchte Formel bewiesen ist.
K(0) = 1 −
3.2 Reihendarstellung
In diesem Abschnitt wird mit Hilfe der Integralgleichung eine Reihendarstellung für
K(a)
angegeben und anschlieÿend bewiesen.
Satz 3.2.
Gegeben sei
h(x) =
und
H(t) =
Rt
h(x)dx
für

 1 (1 − F (x))
µ
für
x≥0
0
für
x<0
t ∈ R.
−∞
Setzt man
H1 (t) = H(t)
und
R∞
Hk+1 (t) = Hk ∗ H(t) =
Hk (t − y)dH(y)
für
k ≥ 1
und
−∞
t ∈ R,
dann gilt:
K(a) =
ρ
ρ+1
Beweis. Zunächst deniert man
q < 1.
∞
P
1+
k=1
q :=
1
1+ρ
1
H (a)
(1+ρ)k k
=
mit
a > 0.
λµ
c . Da laut Voraussetzung
Weiters bezeichnet man die Wahrscheinlichkeitsdichten von
Hk
mit
ρ > 0
hk ,
wobei
Aufgrund der Tatsache, dass die Dichten für negative Werte gleich Null sind, folgt:
Zx
hk (x − y)h(y)dy
hk+1 (x) =
0
Zx
hk (y)h(x − y)dy
=
0
24
gilt, ist
k ≥ 1.
Reihendarstellung
Im nächsten Schritt wird für
a>0
k
per Induktion nach
2
K(a) = (1 − q)(1 + qH1 (a) + q H2 (a) + . . . + q
k−1
folgende Gleichung gezeigt:
Hk−1 (a)) + q
k
Za
K(a − y)hk (y)dy
(3.1)
0
Für
k=1
ergibt der Induktionsanfang:
λµ
(1 −
)·1 + q
c
Za
λµ
λµ
)+
K(a − y)h1 (y)dy = (1 −
c
c
Za
K(a − y)h(y)dy
0
0
= K(a),
wobei der letzte Schritt aus Satz 3.1. folgt.
Angenommen, die Gleichung wurde für
Um die Formel für
k+1
k
bereits gezeigt.
zu erhalten, muss zuerst Folgendes bewiesen werden:
Za
Za
K(a − y)hk (y)dy = (1 − q)Hk (a) + q
0
0
Dafür wird die Formel aus Satz 3.1. auf
K(a − y) = 1 − q + q
K(a − y)hk+1 (x)dx
a−y
R
K(a − y)
K(a − y − z)h(z)dz
angewendet und das Ergebnis
eingesetzt:
0
Za
Za
K(a − y)hk (y)dy =
0
Za
(1 − q)hk (y)dy +
0
Führt man die neue Integrationsvariable
0
x=z+y
a−y
Z
q
K(a − y − z)h(z)dzhk (y)dy
0
ein, so folgt weiter:
Za Za
K(a − x)h(x − y)hk (y)dxdy
= (1 − q)Hk (a) + q
0
y
Im nächsten Schritt vertauscht man die Integrale:
Za
= (1 − q)Hk (a) + q
Zx
K(a − x)
0
h(x − y)hk (y)dydx
0
Za
= (1 − q)Hk (a) + q
K(a − x)hk+1 (x)dx.
0
25
Weitere Darstellungsarten der Wahrscheinlichkeit
Ψ(a)
Der Induktionsschritt erfolgt nun relativ schnell:
K(a) = (1 − q) 1 +
k−1
X
!
i
q Hi (a)
+q
k
Za
K(a − y)hk (y)dy
i=1
= (1 − q) 1 +
0
k−1
X

!
q i Hi (a)
+ q k (1 − q)Hk (a) + q
i=1
= (1 − q) 1 +
Za
K(a − x)hk+1 (x)dx
0
k−1
X
!
i
k
+ (1 − q)q Hk (a) + q
q Hi (a)
k+1
i=1
= (1 − q) 1 +
K
Za
K(a − x)hk+1 (x)dx
0
k
X
!
q i Hi (a)
+ q k+1
i=1
Da

Za
K(a − x)hk+1 (x)dx
0
eine Verteilungsfunktion und
h
eine Wahrscheinlichkeitsdichte ist, gilt weiters
folgende Abschätzung:
0≤q
Za
k
K(a − y)hk (y)dy ≤ q
0
k
Za
hk (y)dy ≤ q k
0
und somit

lim q k
Za

K(a − y)hk (y)dy  = 0.
k→∞
0
Bildet man in Formel
(3.1)
den Limes für
k → ∞,
K(a) = (1 − q) 1 +
so erhält man:
∞
X
!
k
q Hk (a) .
k=1
3.3 Asymptotisches Verhalten der Wahrscheinlichkeit Ψ(a)
In diesem Abschnitt wird das zentrale Resultat der Theorie über Erneuerungsprozesse, der
sogenannte Erneuerungssatz, zu Hilfe gezogen, um eine Abschätzung für das asymptotische
Verhalten der Risikowahrscheinlichkeit
Ψ(a)
anzugeben.
Unter Erneuerungsprozessen versteht man stochastische Prozesse, die die fortlaufende Erneuerung von Maschinen, Werkzeugen, Glühbirnen etc. beschreiben. Die Zwischenankunftszeiten (Lebensdauer) sind unabhängig und identisch verteilt.
Denition 3.1.
wenn
26
F (t) = 0
Eine Verteilungsfunktion
für
t<0
und
F (0) < 1.
F
bezeichnet man als Lebensdauerverteilung,
Asymptotisches Verhalten der Wahrscheinlichkeit
(Zi )i≥1
Sei
erverteilung
eine Folge von Zufallsvariablen, die unabhängig sind und alle die Lebensdau-
F
haben. Sie stellen somit die Zwischenankunftszeiten dar.
Y0 = 0
Weiters sei
Ψ(a)
und
Yn =
n
P
Zi
für
n ≥ 1.
(Yn )n≥0
Der Prozess
heiÿt
i=1
Erneuerungspro-
zess mit Lebensdauerverteilung F, wobei Yn den n-ten Erneuerungszeitpunkt angibt.
Folgende Begrie werden im Erneuerungssatz verwendet und werden daher an dieser Stelle
wiederholt:
Denition 3.2.
Eine Funktion f heiÿt regulär, wenn
lim f (x)
x↓y
lim f (x)
und
x↑y
für alle y exis-
tieren.
Eine Funktion f heiÿt linksregulär, wenn zusätzlich gilt:
lim f (x) = f (y)
x↑y
Eine Funktion f heiÿt rechtsregulär, wenn zusätzlich gilt: lim f (x)
x↓y
Denition 3.3.
F
= f (y)
für alle y.
Rt
A(t − x)dF (x) heiÿt Erneue−∞
eine Lebensdauerverteilung ist, und die Funktionen A und a auf
Eine Gleichung der Form
rungsgleichung, wobei
für alle y.
A(t) = a(t) +
R+ deniert sind.
Die letzte Denition, die für den Erneuerungssatz relevant ist, behandelt die Gitterverteilung:
Denition 3.4.
d>0
und
Eine Verteilungsfunktion
cn ≥ 0
Gitterweite und
für
cn
n∈Z
µ=
nennt man Gitterverteilung, wenn ein
existieren, sodass
als Sprunghöhe im Punkt
Satz 3.3 (Erneuerungssatz).
R∞
F
F (t) =
nd
P
cn 1[nd,∞) (t) gilt. Dabei wird
n∈Z
bezeichnet.
Gegeben seien eine Lebensdauerverteilung
F
d
als
mit
xdF (x) < ∞ und eine Funktion a : [0, ∞) → R, die eine endliche Linearkombination
−∞
Ist die Funktion
A : [0, ∞) → R
Erneuerungsgleichung
A(t) = a(t)
R∞
ai (x)dx < ∞ ist.
0
eine auf kompakten Intervallen beschränkte Lösung der
Rt
+
A(t − x)dF (x), dann unterscheidet man folgende
−∞
von positiven, monoton fallenden, rechtsregulären Funktionen
ai
mit
zwei Fälle:
•
•
Wenn
Wenn
F
F
keine Gitterverteilung ist, dann gilt:
eine Gitterverteilung mit Gitterweite
lim A(t) =
t→∞
1
µ
R∞
a(x)dx.
0
d ist, dann gilt: lim A(nd) =
n→∞
d
µ
∞
P
a(id).
i=0
Der Beweis wird hier nicht angeführt. Dieser ndet sich zum Beispiel in [6], [7] und [9].
Um den Erneuerungssatz anwenden können, wird auf die Integraldarstellung der Verteilungsfunktion
K
aus Satz 3.1. zurückgegrien:
λµ λµ
K(a) = 1 −
+
c
c
Za
K(a − y)h(y)dy
0
27
Weitere Darstellungsarten der Wahrscheinlichkeit
Ψ(a)
Daraus folgt für die Risikowahrscheinlichkeit:
Ψ(a) = 1 − K(a)
λµ λµ
=1−1+
−
c
c
Za
(1 − Ψ(a − y)) h(y)dy
0
λµ λµ
=
−
c
c
Za
λµ
h(y)dy +
c
Za
Ψ(a − y)h(y)dy
0
Da
h
0
eine Wahrscheinlichkeitsdichte ist, gilt
R∞
h(y)dy = 1.
Somit kann man obige
0
Gleichung weiter umformulieren:
λµ
Ψ(a) =
c
=
λµ
c
Z∞
λµ
h(y)dy −
c
Za
0
0
Z∞
Za
h(y)dy +
λµ
c
a
λµ
h(y)dy +
c
Za
Ψ(a − y)h(y)dy
0
Ψ(a − y)h(y)dy
0
Im weiteren Verlauf wird der Fall der kleinen Forderungen behandelt. Es wird zusätzlich
angenommen, dass ein
λ
mF (R) λ+cR
von
F
=1
R > 0
und damit
mit
mG (R) = 1
mF (R) =
existiert. Dies ist äquivalent zu mG (R) =
λ+cR
λ . Setzt man für die momenterzeugende Funktion
weiter ein, so folgt:
Z∞
eRy f (y)dy =
λ + cR
λ
0
Nun kann man mit Hilfe partieller Integration berechnen:
Z∞
ReRy (1 − F (y))dy = −1 +
0
wobei
lim eRt (1 − F (t)) = 0
t→∞
eRy dF (y) =
cR
,
λ
0
wegen
eRt (1 − F (t)) ≤
Als Nächstes deniert man die Funktion
28
Z∞
R∞
eRy dF (y)
gilt.
t
g(y) =

 λµ eRy h(y)
für
y≥0
0
für
y<0
c
.
Asymptotisches Verhalten der Wahrscheinlichkeit
Ψ(a)
Man kann zeigen, dass es sich dabei um eine Wahrscheinlichkeitsdichte handelt:
Z∞
λµ
g(y)dy =
c
Z∞
eRy h(y)dy
0
0
=
λµ
c
Z∞
1
eRy (1 − F (y))dy
µ
0
=
Z∞
λ
c
eRy (1 − F (y))dy
0
λ c
= · =1
c λ
Für
t≥0
sei weiters
A(t) = eRt Ψ(t).
Verwendet man die obige Gleichung für
λµ Rt
A(t) =
e
c
Z∞
so folgt:
Zt
A(t − y)g(y)dy,
h(y)dy +
t
womit eine Erneuerungsgleichung für
Ψ(t),
0
A(t) gefunden wurde. Der Erneuerungssatz besagt nun:
1
lim A(t) =
t→∞
η
Z∞
a(x)dx,
0
wobei
a(x) =
λµ Rx
c e
R∞
h(y)dy
und
x
Nun sollen die beiden Integrale
R∞
η=
R∞
yg(y)dy .
0
a(x)dx
und
0
•
R∞
yg(y)dy
genauer berechnet werden:
0
Indem man die Integrationsreihenfolge vertauscht und das innere Integral ausrechnet,
folgt:
Z∞
λµ
a(x)dx =
c
0
Z∞ Z∞
0
=
λµ
c
0
=
λµ
c
x
Z∞ Zy
Z∞
eRx h(y)dydx
eRx h(y)dxdy
0
1 Ry
(e − 1)h(y)dy.
R
0
Unter Berücksichtigung der Tatsache, dass es sich bei
g
und
h um Wahrscheinlichkeits-
dichten handelt, kann man weiters schlieÿen:
29
Weitere Darstellungsarten der Wahrscheinlichkeit
Z∞
1
a(x)dx =
R
Z∞
Z∞
λµ
g(y)dy −
cR
0
λµ
1
1−
=
R
c
0
•
Ψ(a)
h(y)dy
0
Für das nächste Integral verwendet man die momenterzeugende Funktion
mF (x) =
R∞
exy dF (y) der Verteilungsfunktion F . Laut Denition des Parameters R gilt
0
mF (R) =
λ+cR
λ . Weiters wird angenommen, dass die Ableitung
0
mF (R)
existiert und
endlich ist. Somit gilt:
Z∞
0
mF (R) =
yeRy dF (y)
0
Mit Hilfe der partiellen Integration folgt:
Z∞
0
mF (R) =
eRy (1 + Ry)(1 − F (y))dy,
0
wobei
lim teRt (1 − F (t)) = 0
t→∞
wegen
teRt (1 − F (t)) ≤
λ 0
m (R) =
c F
g
gilt.
zu Hilfe, so erhält man:
Z∞
Z∞
g(y)dy + R
0
g
yeRy dF (y)
t
Zieht man weiters die Dention von
Da
R∞
yg(y)dy
0
eine Wahrscheinlichkeitsdichte ist und somit
R∞
g(y)dy = 1,
kann man obige Glei-
0
chung folgendermaÿen umformen:
Z∞
yg(y)dy =
λ 0
1
m (R) −
Rc F
R
0
Zusammenfassend wurde für das asymptotische Verhalten der Wahrscheinlichkeit
zeigt:
lim eRa Ψ(a) = lim A(a) =
a→∞
30
a→∞
c − λµ
.
0
λmF (R) − c
Ψ(a)
ge-
KAPITEL 4
Groÿe Forderungen und subexponentielle Verteilungen
4.1 Groÿe Forderungen
In diesem Kapitel werden die sogenannten
groÿen Forderungen behandelt, d.h.
die Ver-
teilungsfunktion der Forderungen strebt nun langsamer als exponentiell gegen Null. Ziel ist
es, weitere Aussagen über das asymptotische Verhalten der Risikowahrscheinlichkeit
Ψ(a) zu
treen. Dafür braucht man jedoch eine Denition, die als Arbeitsgrundlage geeignet ist:
Denition 4.1.
F1 (t) = F (t)
F
Gegeben sei eine Verteilungsfunktion
und deniert
Fn (t) = Fn−1 ∗ F (t)
für
F
mit
F (0) = 0.
Man setzt
n ≥ 2.
heiÿt subexponentiell, wenn folgende Bedingungen erfüllt sind:
• F (x) < 1
für alle
x ∈ R+
und
2 (x)
• lim sup 1−F
1−F (x) ≤ 2.
x→∞
Hilfssatz 4.1.
Gegeben sei eine subexponentielle Verteilungsfunktion
existiert eine Konstante
d > 0,
sodass für alle
x∈
R+ und
k≥1
F
und
ε > 0.
Dann
folgende Abschätzung gilt:
1 − Fk (x)
≤ d(1 + )k
1 − F (x)
Beweis. Man deniert
n (x)
αn = sup 1−F
1−F (x)
für
n ≥ 1.
Wie man leicht erkennen kann, ist
x≥0
α1 = 1.
Da
F
laut Voraussetzung subexponentiell ist, gilt
lim sup
x→∞
1 − F2 (x) − 1 + F (x)
F (x) − F2 (x)
= lim sup
1 − F (x)
1 − F (x)
x→∞
1 − F2 (x)
= lim sup
− 1 ≤ 1.
x→∞ 1 − F (x)
31
Groÿe Forderungen und subexponentielle Verteilungen
Damit existiert ein
c > 0,
sodass
F (x)−F2 (x)
1−F (x)
< (1 + ε)
für alle
x ≥ c.
Zieht man nun die
Denition der Faltung von Verteilungsfunktionen zu Hilfe, so folgt weiters:
Zx
1 − Fn+1 (x) = 1 − F (x) + F (x) − Fn+1 (x) = 1 − F (x) +
(1 − Fn (x − y)) dF (y)
0
Dividiert man diese Gleichung durch
(1 − F (x)),
1 − Fn+1 (x)
=1+
1 − F (x)
Zx
erhält man
1 − Fn (x − y)
dF (y).
1 − F (x)
0
Im nächsten Schritt bildet man das Supremum:
Zx
αn+1 ≤ 1 + sup
0≤x≤c
1 − Fn (x − y)
dF (y) + sup
1 − F (x)
x≥c
0
Zx
1 − Fn (x − y) 1 − F (x − y)
dF (y)
1 − F (x − y) 1 − F (x)
0
Aufgrund der Monotonie von
F , der Denition von αn
und der Tatsache, dass
Fn (x − y) ≥ 0
ist, folgt:
Zx
αn+1 ≤ 1 + sup
0≤x≤c
1
dF (y) + sup
1 − F (c)
x≥c
0
Zx
αn
1 − F (x − y)
dF (y)
1 − F (x)
0
F (x) − F2 (x)
F (x)
+ αn sup
= 1 + sup
1 − F (x)
x≥c
0≤x≤c 1 − F (c)
≤1+
Indem man
b=1+
F (c)
+ αn (1 + ε)
1 − F (c)
F (c)
1+F (c) setzt, wurde
Per Induktion folgt nun für alle
αk ≤ b
αn+1 ≤ b + αn (1 + ε)
für alle
n≥1
gezeigt.
k≥1
k−1
X
b
(1 + ε)k − 1
(1 + ε)i = b
≤ (1 + ε)k .
1+ε−1
ε
i=0
Mit
d=
b
ε hat man die gesuchte Ungleichung gefunden.
Hilfssatz 4.2.
für alle
Gegeben sei wieder eine subexponentielle Verteilungsfunktion
F.
Dann gilt
n≥1
1 − Fn (x)
= n.
x→∞ 1 − F (x)
lim
Beweis. Folgende Gleichung wurde im letzten Beweis gezeigt:
1−Fn+1 (x)
1−F (x)
Rx
n (x−y)
= 1+ 1−F
1−F (x) dF (y).
0
Diese wird in Folge verwendet, um die Aussage des Hilfssatzes per Induktion zu zeigen.
32
Groÿe Forderungen
Für
n=2
gilt
1 − F2 (x)
=1+
1 − F (x)
Zz
1 − F (x − y)
dF (y) +
1 − F (x)
1−F (x−y)
1−F (x)
≥1
für
1 − F (x − y)
dF (y).
1 − F (x)
z
0
Da sowohl
Zx
y≥0
als auch
1−F (x−y)
1−F (x)
≥
1−F (x−z)
1−F (x) für
y≥z
gilt, folgt
1 − F2 (x)
1 − F (x − z)
≥ 1 + F (z) +
(F (x) − F (z)).
1 − F (x)
1 − F (x)
Indem man
z=x
1−F2 (x)
1−F (x)
setzt, erhält man
≥ 1 + F (x)
und damit
lim inf
x→∞
1−F2 (x)
1−F (x)
≥ 2.
Zusammen mit der Voraussetzung ergibt sich :
lim
x→∞
1 − F2 (x)
=2
1 − F (x)
Das nächste Resultat wird im weiteren Verlauf des Beweises benötigt:
Man wählt
z > 0
x > z
und
F (x) > F (z)
so groÿ, dass auch
gilt. Verwendet man obige
Ungleichungen, so folgt:
1 − F (x − z)
≤
1≤
1 − F (x)
Da
lim 1−F2 (x)
x→∞ 1−F (x)
= 2,
ist
lim
x→∞
1−F (x−z)
1−F (x)
Angenommen, die Aussage wurde für
1 − F2 (x)
1
− 1 − F (z)
1 − F (x)
F (x) − F (z)
=1
n
für alle
bereits gezeigt, d.h. es gilt:
lim 1−Fn (x)
x→∞ 1−F (x)
Für den Induktionsschritt sei ein
man ein
c > 0,
sodass für alle
ε>0
x>c
gilt. Des Weiteren deniert man für
U (x) =
=n
vorgegeben. Mittels der Induktionsannahme ndet
n−ε<
x−c
Z
z > 0.
1−Fn (x)
1−F (x)
<n+ε
x>c
1 − F (x − y)
dF (y) und V (x) =
1 − F (x)
Zx
1 − F (x − y)
dF (y).
1 − F (x)
x−c
0
Betrachtet man zunächst das zweite Integral, so kann man sehen, dass
Zx
0 ≤ V (x) ≤
1
F (x) − F (x − c)
1 − F (x − c)
dF (y) =
=
−1
1 − F (x)
1 − F (x)
1 − F (x)
x−c
gilt. Daraus folgt mithilfe des oben gezeigten Grenzwertes:
lim V (x) = 0.
x→∞
33
Groÿe Forderungen und subexponentielle Verteilungen
Für das erste Integral zieht man die zu Beginn des Beweises angeführte Gleichung zu Hilfe.
Somit ist für
x > c:
1 − Fn+1 (x)
=1+
1 − F (x)
x−c
Z
1 − Fn (x − y) 1 − F (x − y)
dF (y) +
1 − F (x − y) 1 − F (x)
n=1
1 − Fn (x − y) 1 − F (x − y)
dF (y)
1 − F (x − y) 1 − F (x)
x−c
0
Für
Zx
erhält man:
1 − F2 (x)
= 1 + U (x) + V (x)
1 − F (x)
x → ∞,
so folgt
x−c≤y ≤x
ist und
Bildet man den Grenzwert für
lim U (x) = 1,
x→∞
da
lim 1−F2 (x)
x→∞ 1−F (x)
= 2
und
lim V (x) = 0.
x→∞
1−Fn (x−y)
1−F (x−y)
Da
für alle
x>c
≤
1
1−F (c) für
c
entsprechend gewählt wurde, kann man
folgende Abschätzung angeben:
1 + (n − ε)U (x) <
1 − Fn+1 (x)
1
< 1 + (n + ε)U (x) +
V (x)
1 − F (x)
1 − F (c)
Somit gilt:
lim inf
x→∞
Da man
ε
1 − Fn+1 (x)
1 − Fn+1 (x)
≥ 1 + n − ε und lim sup
≤1+n+ε
1 − F (x)
1 − F (x)
x→∞
beliebig klein wählen kann, ist
Satz 4.1.
1−Fn+1 (x)
1−F (x)
=n+1
gezeigt.
Gegeben sei
h(x) =
Dann ist
lim
x→∞
h

 1 (1 − F (x))
µ
für
x≥0
0
für
x<0
eine Wahrscheinlichkeitsdichte, und bei
H(t) =
Rt
h(x)dx
handelt es sich um
−∞
eine Verteilungsfunktion, für die
Ist
H
H(0) = 0
Ψ(a)
subexponentiell, so gilt lim
a→∞ 1−H(a)
gilt.
=
1
ρ.
Beweis. Wie bereits in Satz 3.1. gezeigt, erfüllt
h
die Eigenschaften einer Wahrscheinlich-
keitsdichte.
Weiters ist
H
eine Verteilungsfunktion mit
H(0) = 0,
da
h(x) = 0
für alle
x<0
gilt.
Um den letzten Teil des Satzes zu beweisen, zieht man die Aussage aus Satz 3.2. zu Hilfe.
Für
a>0
gilt
ρ
K(a) =
ρ+1
34
∞
X
k=0
!
1
Hk (a) ,
(1 + ρ)k
wobei
H0 (a) = 1
ist.
Groÿe Forderungen
∞
P
Für die Reihe
k=0
1
gilt
(1+ρ)k
∞
X
k=0
Dividiert man durch
1
1+ρ
=
.
ρ
(1 + ρ)k
1+ρ
ρ , so erhält man
∞
ρ X
1
= 1.
1+ρ
(1 + ρ)k
k=0
Somit gilt weiters
Ψ(a)
1 − K(a)
=
1 − H(a)
1 − H(a)
∞
X
1
ρ
=
1 − H(a) 1 + ρ
=
Man wählt ein
Konstante
ε ∈ (0, ρ).
d > 0,
ρ
1+ρ
∞
X
k=1
k=0
!
1
(1 − Hk (a))
(1 + ρ)k
1
1 − Hk (a)
.
k
(1 + ρ) 1 − H(a)
Da die Bedingungen aus Hilfssatz 4.1. erfüllt sind, existiert eine
sodass für alle
a>0
und
k≥1
1 − Hk (a)
≤ d(1 + ε)k
1 − H(a)
gilt. Da
∞
P
k=1
1
d(1
(1+ρ)k
Voraussetzung ist
H
+ ε)k < ∞
ist, kann man Grenzwert und Summe vertauschen. Laut
subexponentiell und daher kann Hilfssatz 4.2. angewendet werden:
∞
ρ X
1
1 − Hk (a)
k
1+ρ
(1 + ρ) 1 − H(a)
Ψ(a)
lim
= lim
a→∞ 1 − H(a)
a→∞
=
=
ρ
1+ρ
ρ
1+ρ
!
k=1
∞
X
k=1
∞
X
k=1
1
1 − Hk (a)
lim
k
(1 + ρ) a→∞ 1 − H(a)
k
1
1
=
ρ
(1 + ρ)k
Die letzte Gleichung besitzt Gültigkeit aufgrund folgender Tatsache:
Dierenziert man
1
1−x
=
∞
P
k=0
xk
für
|x| < 1,
so erhält man
1
(1−x)2
=
∞
P
kxk−1 .
k=1
Im nächsten Schritt betrachtet man alle Forderungen, die innerhalb eines bestimmten Zeitintervalls bei einem Versicherungsunternehmen eintreen und versucht, deren asymptotisches
Verhalten näher zu beschreiben. Dafür ist folgende Denition notwendig:
35
Groÿe Forderungen und subexponentielle Verteilungen
Denition 4.2.
Sei
t > 0.
Dann wird durch
Nt
P
Zt =
Yi
i=1
die Summe aller Forderungen im Zeitintervall
[0, t]
deniert.
Der nächste Satz widmet sich dem asymptotischen Verhalten von
Satz 4.2.
P(Zt > x).
F.
Gegeben sei eine subexponentielle Verteilungsfunktion
Dann gilt für alle
t > 0:
P(Zt > x)
= λt.
x→∞ 1 − F (x)
lim
Beweis. Wie schon im Beweis von Satz 2.1. gezeigt wurde, gilt:
∞
X
P(Zt > x) =
k=1
∞
X
=
P(Y1 + Y2 + . . . + Yk > x) · P(Nt = k)
(1 − Fk (x)) pk ,
k=1
wobei
pk =
(λt)k −λt
. Die Summe beginnt hier mit
k! e
k = 1, da für k = 0 der Summand wegfällt.
Das folgt aus der Tatsache, dass die leere Summe gleich 0 und somit nicht gröÿer als
Nun dividiert man in obiger Gleichung beide Seiten durch
x
ist.
(1 − F (x)):
∞
P(Zt > x) X 1 − Fk (x)
=
pk
1 − F (x)
1 − F (x)
k=1
Da
F
als subexponentiell vorausgesetzt wurde, kann man Hilfssatz 4.1. anwenden. Es existiert
daher eine Konstante
d>0
mit
1−Fk (x)
1−F (x)
≤ d2k
für alle
k≥1
und
x ∈ R+ .
Im nächsten Schritt sollen Grenzwert und Summe vertauscht werden. Dies ist möglich, da
∞
X
d2k pk = d
k=1
∞
X
(2λt)k
k=1
k!
e−λt
= de2λt e−λt = deλt < ∞,
d.h. endlich ist. Mit Hilfssatz 4.2. folgt für
t > 0:
∞
X
P(Zt > x)
1 − Fk (x)
lim
= lim
pk
x→∞ 1 − F (x)
x→∞
1 − F (x)
k=1
=
∞
X
k=1
=
∞
X
k=1
k lim
x→∞
1 − Fk (x)
1 − F (x)
∞
∞
X
X
(λt)k −λt
(λt)k −λt
kpk =
k
e
= (λt)
e
k!
k!
λt −λt
= λte e
36
!
k=1
= λt.
k=0
Subexponentielle Verteilungen
4.2 Subexponentielle Verteilungen
Im vorherigen Teil wurden subexponentielle Verteilungsfunktionen vorausgesetzt und untersucht, welche Eigenschaften diese besitzen. Damit konnten auch weitere Aussagen über die
Risikowahrscheinlichkeit
Ψ(a)
getroen werden. Der nächste Schritt wird darin bestehen,
hinreichende Bedingungen dafür zu nden, wann eine Verteilungsfunktion subexponentiell
ist.
Denition 4.3.
Gegeben sei eine Verteilungsfunktion

< 1
F (t)
= 0
Für
s>0
sei
Fs (t) =
F
für
t≥0
für
t<0
mit
F (s+t)−F (s)
deniert, und mit
1−F (s)
g(s) = lim
t↓0
wird die Ausfallsrate zum Zeitpunkt
Fs (t)
t
s bezeichnet. Dabei wird vorausgesetzt, dass dieser Grenz-
wert existiert.
Besitzt
F
eine Wahrscheinlichkeitsdichte
f,
so existiert der Wert
g(s),
wenn
f
in
s
stetig ist.
Dann gilt:
Fs (t)
t↓0
t
(F (s + t) − F (s)) /t
f (s)
= lim
=
t↓0
1 − F (s)
1 − F (s)
g(s) = lim
Bemerkung.
Ist die Ausfallsrate eine monoton wachsende Funktion, so kann man sagen,
dass das System altert. Ist
g(s)
konstant in jedem Punkt
s,
altert das System jedoch
nicht. In der Praxis besitzen somit realistische Verteilungsfunktionen eine monoton wachsende
Ausfallsrate.
Der nächste Satz gibt an, wie sich die Verteilungsfunktion bzw. die Wahrscheinlichkeitsdichte mithilfe der Ausfallsrate berechnet lässt.
Satz 4.3.
Gegeben sei eine Verteilungsfunktion

< 1
F (t)
= 0
Weiters wird angenommen, dass
Rt
Ausfallsrate und G(t) =
g(s)ds.
0
Dann gilt für t > 0
F
F
mit
für
t≥0
für
t<0
eine Wahrscheinlichkeitsdichte
F (t) = 1 − e−G(t)
und
f
besitzt. Sei
g(s)
die
f (t) = G(t)e−G(t) .
37
Groÿe Forderungen und subexponentielle Verteilungen
Beweis. Es gilt
F (0) = 0,
da es sich bei
F
um eine Lebensdauerverteilung handelt, die eine
Dichte besitzt.
Im nächsten Schritt zieht man die Denition von
Zt
G(t) =
Zt
zu Hilfe und setzt weiter ein:
f (s)
ds
1 − F (s)
g(s)ds =
0
G(t)
0
= − log(1 − F (t)) + log(1 − F (0))
= − log(1 − F (t)),
woraus
F (t) = 1 − e−G(t)
folgt.
Wenn man das letzte Resultat dierenziert, erhält man
f (t) = g(t)e−G(t) .
Um die nachfolgenden Sätze beweisen zu können, ist folgende Überlegung notwendig:
Sei
F2 (t) = F ∗ F (t)
die Faltung zweier Verteilungsfunktionen. Nun verwendet man die im
Beweis von Hilfssatz 4.1. gezeigte Formel, und setzt für die Verteilungsfunktion
Wahrscheinlichkeitsdichte
f
F
und die
ein:
1 − F2 (x)
1
−1=
1 − F (x)
1 − F (x)
Zx
(1 − F (x − y)) dF (y)
0
= eG(x)
Zx
e−G(x−y) f (y)dy
0
Zx
=
eG(x)−G(x−y)−G(y) g(y)dy
0
Satz 4.4.
Gegeben sei eine Verteilungsfunktion
sitzt und die dazugehörige Ausfallsrate
Wenn
F
subexponentiell ist und
g(x)
F,
die eine Wahrscheinlichkeitsdichte
f
be-
g.
für
x → ∞
monoton fallend gegen Null konvergiert,
dann gilt
Zx
lim
x→∞
eyg(x) f (y)dy = 1.
0
Beweis. Aufgrund der Voraussetzung, dass
g(x) für x → ∞ eine monoton fallende Funktion
ist, kann man folgende Abschätzung machen:
1 − F2 (x)
−1≥
1 − F (x)
Zx
e
0
38
yg(x)−G(y)
Zx
g(y)dy ≥
e
0
−G(y)
Zx
g(y)dy =
f (y)dy = F (x)
0
Subexponentielle Verteilungen
Da
F
eine Verteilungsfunktion ist, gilt ja
Tatsache, dass
F
lim F (x) = 1. Berücksichtigt man zusätzlich die
x→∞
subexponentiell und daher
Zx
lim
e
x→∞
yg(x)−G(y)
lim 1−F2 (x)
x→∞ 1−F (x)
Zx
g(y)dy = lim
x→∞
0
=2
ist, folgt
eyg(x) f (y)dy = 1.
0
Als Nächstes wird die Umkehrung dieses Satzes gezeigt.
Satz 4.5.
Gegeben sei eine Verteilungsfunktion
die dazugehörige Ausfallsrate
ist
F
x→∞
mit einer Wahrscheinlichkeitsdichte
f
und
g.
auf dem Intervall [d, ∞) monoton
Rx yg(x)
gegen Null konvergiert. Gilt weiters lim
e
f (y)dy = 1, dann
x→∞ 0
d > 0,
Angenommen, es existiert eine Konstante
fallend ist und für
F
g
sodass
subexponentiell.
Beweis. Auch hier geht man wieder von folgender Gleichung aus:
1 − F2 (x)
−1=
1 − F (x)
Zx
eG(x)−G(x−y)−G(y) g(y)dy.
0
Im nächsten Schritt wird der Integrationsbereich
[0, x]
in die Teilintervalle
[0, x2 ]
und
[ x2 , x]
zerteilt. Man erhält dadurch
1 − F2 (x)
−1=
1 − F (x)
x
x
Z2
Z2
eG(x)−G(x−y)−G(y) g(y)dy +
0
wobei im letzten Integral
eG(x)−G(t)−G(x−t) g(x − t)dt,
0
y
durch
x−t
substituiert wurde. Deniert man an dieser Stelle
ux (y) = eG(x)−G(x−y)−G(y) g(y)1[0, x ) (y) und vx (y) = eG(x)−G(x−y)−G(y) g(x − y)1[0, x ) (y),
2
2
so lässt sich die obige Gleichung schreiben als
1 − F2 (x)
−1=
1 − F (x)
Z∞
Z∞
ux (y)dy +
0
Aus
dass
x ≥ 2d
und da
0≤y≤
x
2 , folgt
d≤
x
2
0 ≤ G(x) − G(x − y) ≤ yg(x − y) ≤
vx (y)dy.
0
≤ x − y ≤ x.
Damit kann man weiters schlieÿen,
yg( x2 ) ist. Für diese Ungleichung wurde auch der
Umstand berücksichtigt, dass die Funktion
g
auf
[d, ∞)
monoton fallend ist.
39
Groÿe Forderungen und subexponentielle Verteilungen
Zusammenfassend kann man für
x ≥ 2d
und
0≤y≤
x
2 sehen:
0 ≤ G(x) − G(x − y) ≤ yg
Wie bereits aus Satz 4.3. bekannt ist, gilt
x ≥ 2d
x
2
f (y) = e−G(y) g(y).
Damit lässt sich für
ux (y)
mit
folgende Abschätzung geben:
x
f (y)1[0, x ) (y) ≤ ux (y) ≤ eyg( 2 ) f (y)1[0, x ) (y)
2
2
x ≥ 2d:
Daraus erhält man weiters für
x
x
Z∞
Z2
f (y)dy ≤
Z2
ux (y)dy ≤
0
0
x
eyg( 2 ) f (y)dy
0
Nun bildet man die Grenzwerte des linken und rechten Integrals in dieser Ungleichungskette.
Da
f
eine Wahrscheinlichkeitsdichte ist, folgt
x
Z∞
Z2
lim
f (y)dy =
x→∞
0
f (y)dy = 1.
0
Laut Voraussetzung gilt weiters
x
Z2
lim
x→∞
x
eyg( 2 ) f (y)dy = 1.
0
Somit wurde gezeigt, dass
Sei
ε > 0
lim
x→∞ 0
gegeben. Man wähle
Abschätzung erhält man für
Zc
0
g
x
2
für
ux (y)dy = 1.
c > d
x→∞
ux (y)dy ≤
0
R∞
f (y)dy <
c
Zc
yg ( x2 )
e
cg ( x2 )
lim
ε
2 . Mithilfe der obigen
Zc
f (y)dy ≤ e
0
f (y)dy.
0
gegen Null konvergiert, gilt
Daraus kann man weiter folgern, dass
40
so groÿ, dass
x ≥ 2c
Zc
f (y)dy ≤
Da
R∞
R∞
x→∞ c
lim
Rc
x→∞ 0
ux (y)dy =
ux (y)dy = 1 −
Rc
0
Rc
f (y)dy .
0
f (y)dy =
R∞
c
f (y)dy .
Subexponentielle Verteilungen
e−G(y) 1[0, x ) (y) ≤ 1,
Aufgrund obiger Ungleichung und der Tatsache, dass
kann man auch
2
eine Abschätzung für
vx (y)
angeben
Zc
Zc
vx (y)dy ≤
0
wobei
x ≥ c + d.
Da
x
x
eyg( 2 ) g(x − y)dy ≤ cecg( 2 ) g(x − c),
0
R∞
x
ε
lim cecg( 2 ) g(x
2 und x→∞
f (y)dy <
c
Z∞
Zc
ε
ux (y)dy <
und
2
vx (y)dy <
c
für alle
x ≥ x0
gelten. Für
− c) = 0
ist, gibt es ein
x0 ,
sodass
ε
2
0
y≥d
kann man noch folgende Ungleichung angeben:
0 ≤ vx (y) ≤ ux (y),
da
g(x − y) ≤ g(y)
d≤y≤
aus
x
2 und der Tatsache, dass
g
monoton fallend auf
[d, ∞)
ist,
folgt.
Zusammenfassend erhält man für
x ≥ x0 :
Z∞
Z∞
vx (y)dy ≤
0≤
ux (y)dy +
Aus
lim
lim
R∞
x→∞ 0
R∞
x→∞ 0
vx (y)dy = 0
ux (y)dy = 1
vx (y)dy <
c
0
Somit ist
Zc
und
ε ε
+ =ε
2 2
0
gezeigt.
lim
R∞
x→∞ 0
vx (y)dy = 0
folgt
1 − F2 (x)
= 2.
x→∞ 1 − F (x)
lim
Damit wurde gezeigt, dass
F
subexponentiell ist.
Auch im nächsten Satz werden hinreichende Bedingungen an eine Verteilungsfunktion
F
gestellt, um zu prüfen, ob diese subexponentiell ist. Der Satz wird in der Literatur auch oft
als Satz von Pitmann bezeichnet.
Satz 4.6.
Gegeben sei eine Verteilungsfunktion
die dazugehörige Ausfallsrate
x→∞
Besitzt die Funktion w
so ist
F
mit einer Wahrscheinlichkeitsdichte
f
und
g.
Angenommen, es existiert eine Konstante
fallend ist und für
F
d > 0,
sodass
g
auf dem Intervall
[d, ∞)
monoton
gegen Null konvergiert.
: [0, ∞) → R+ ,
deniert duch w(x)
= exg(x) f (x),
endliches Integral,
subexponentiell.
41
Groÿe Forderungen und subexponentielle Verteilungen
Beweis. Ziel ist es, Satz 4.5. anzuwenden. Dazu muss man lediglich zeigen, dass
lim
Rx
x→∞ 0
eyg(x) f (y)dy = 1
ist. Sei
Z∞
ε>0
gegeben. Man wählt nun ein
Z∞
ε
und
w(y)dy <
3
lim g(x) = 0
x→∞
so, dass
ε
3
f (y)dy <
c
c
gilt. Da
c>d
ist, gibt es ein
x0 > c
mit
ε
3 für
ecg(x) − 1 <
x ≥ x0 .
Es folgt
x
Z
Zc Z∞
Zx
Z∞
yg(x)
yg(x)
yg(x)
e
f (y)dy − f (y)dy ≤
e
− 1 f (y)dy + e
f (y)dy + f (y)dy
0
0
≤
0
c
Zc Zx
ecg(x) − 1 f (y)dy +
ε
3
Zc
Zx
f (y)dy +
w(y)dy
Rx
ε
3
+
ε
< ε.
3
c
0
Somit wurde gezeigt, dass
eyg(y) f (y)dy +
c
0
≤
c
eyg(x) f (y)dy =
0
R∞
f (y)dy = 1.
Aus Satz 4.5. folgt, dass
F
sub-
0
exponentiell ist.
Für den nächsten Satz wird angenommen, dass die Verteilungsfunktion
einen endlichen Erwartungswert besitzt, d.h.
µ=
R∞
F
mit
F (0) = 0
(1 − F (x)) dx < ∞.
0
Gegeben sei die Wahrscheinlichkeitsdichte
h(x) =

 1 (1 − F (x))
µ
für
x≥0
0
für
x<0
und die dazugehörige Verteilungsfunktion
H(t) =
Rt
h(x)dx.
Nun soll geprüft werden, ob
−∞
H
subexponentiell ist.
Satz 4.7.
Gegeben sei eine Verteilungsfunktion
genommen, es existiert eine Konstante
d > 0,
F
und die dazugehörige Ausfallsrate
sodass
g
x → ∞ gegen Null konvergiert.
Rt
G(t) = g(s)ds. Die Verteilungsfunktion H
auf dem Intervall
[d, ∞)
g.
An-
monoton
fallend ist und für
Weiters sei
ist subexponentiell, wenn eine der
0
beiden Eigenschaften erfüllt ist:
(a) Es existiert eine Konstante
(b) Es ist sowohl
42
L > 0,
lim xg(x) = ∞
x→∞
sodass
als auch
xg(x) ≤ L
für alle
lim sup xg(x)
G(x) < 1
x→∞
x≥0
erfüllt.
gilt.
Subexponentielle Verteilungen
Beweis. Da
von
H
F (x) = 1 − e−G(x)
h(x) =
ist, gilt
1 −G(x)
für
µe
x ≥ 0.
Für die Ausfallsrate
g̃
erhält man:
1 −G(x)
g̃(x) =
h(x)
µe
= ∞
R
1 − H(x)
h(y)dy
x
=
e−G(x)
R∞
=
e−G(y) dy
e−G(x)
,
K(x)
x
mit
K(x) :=
R∞
e−G(y) dy .
Weiters folgt für
x≥d
x
Z∞
K(x) ≥
g(y) −G(y)
1
e
dy =
g(x)
g(x)
x
Z∞
g(y)e−G(y) dy
x
1
1 −G(x)
=
(1 − F (x)) =
e
.
g(x)
g(x)
Mithilfe dieser Ungleichung sieht man, dass
1 −G(x)
−2G(x)
≤0
−g(x)e
K(x)
+
e
K(x)2
0
g̃(x) ≤ g(x) und g̃ (x) =
gilt. Das heiÿt,
x→∞
g̃
ist auf dem Intervall
[d, ∞)
ebenfalls monoton fallend und konvergiert für
gegen Null.
Daher genügt es laut Satz 4.6. zu zeigen, dass das Integral
R∞ 1
0
xg̃(x) e−G(x) dx endlich ist.
µe
Angenommen, die Eigenschaft
(a) ist erfüllt, dann ist folgende Abschätzung gültig:
Z∞
1 xg̃(x) −G(x)
e
e
dx ≤
µ
Rd
0
auf
[0, d]
1 xg̃(x) −G(x)
e
dx
µe
< ∞,
beschränkt ist.
Fasst man nun zusammen, wurde
(b) ist erfüllt. Es existiert daher ein
weil der Integrand
R∞ 1
0
x≥c
1 xg(x) −G(x)
1
e
e
dx ≤ eL K(d) < ∞.
µ
µ
d
d
Es ist auch
Z∞
xg̃(x) e−G(x) dx
µe
α ∈ (0, 1)
und ein
1 xg̃(x) −G(x)
e
stetig und daher
µe
<∞
gezeigt.
c≥d
so, dass
xg(x) < αG(x)
für
gilt.
Aufgrund der Voraussetzung ist
mit der Eigenschaft, dass
2
y
2
lim
y→∞ (1−α)yg(y)
≤ (1 − α)g(y)
= 0.
für alle
Daher gibt es eine Konstante
y≥b
b≥c
gilt.
43
Groÿe Forderungen und subexponentielle Verteilungen
Im nächsten Schritt integriert man beide Seiten von
2 log(x) − 2 log(b) ≤ (1 − α)(G(x) − G(b))
Äquivalent dazu ist
für alle
2 log(x) ≤ (1 − α)G(x) + B ,
b
nach
x
und erhält somit
x ≥ b.
wobei
B := 2 log(b) − (1 − α)G(b).
Diese Resultate kann man verwenden, um zu zeigen, dass
Z∞
1 xg̃(x) −G(x)
e
e
dx ≤
µ
Z∞
b
Auch hier ist
b
Rb
0
Zusammenfassend wurde
Z∞
1
1 B−2 log(x)
e
dx = eB
µ
µ
b
1 xg̃(x) −G(x)
e
dx
µe
beschränkt ist.
R∞ 1
0
44
1 −(1−α)G(x)
e
dx ≤
µ
< ∞,
Z∞
1
dx < ∞.
x2
b
weil der Integrand stetig und daher auf
xg̃(x) e−G(x) dx
µe
<∞
gezeigt.
[0, b]
KAPITEL 5
Beispiele
Die Theorie über subexponentielle Verteilungen und deren Eigenschaften soll in diesem
Kapitel anhand von Beispielen verdeutlicht werden. Für verschiedene Verteilungsfunktionen
kann man mit Satz 4.6. überprüfen, ob sie subexponentiell sind. Satz 4.7. gibt Aufschluss
darüber, ob die dazugehörige Funktion
H
subexponentiell ist. Mittels Satz 4.1. kann man
asymptotische Resultate für die Risikowahrscheinlichkeit
Ψ(a)
geben, wie man im Beispiel
der Weibull- und der verallgemeinerten Paretoverteilung sehen kann.
5.1 Weibullverteilung
Die Weibullverteilung hat folgende Verteilungsfunktion:
β
F (x) = 1 − e−γx ,
wobei
γ>0
ist und
β ∈ (0, 1)
angenommen wird. Die Wahrscheinlichkeitsdichte ist durch
β
f (x) = γβxβ−1 e−γx
gegeben. Die Ausfallsrate berechnet sich wie folgt:
β
f (x)
γβxβ−1 e−γx
= γβxβ−1 .
g(x) =
=
β
−γx
1 − F (x)
1− 1−e
Da von
β ∈ (0, 1) ausgegangen wurde, ist die Funktion g
monoton fallend und
lim g(x) = 0.
x→∞
Um Satz 4.6. anwenden zu können, muss man noch zeigen, dass das Integral der Funktion
w(x)
= exg(x) f (x)
endlich ist.
45
Beispiele
Es gilt:
Z∞
e
xg(x)
Z∞
f (x)dx =
0
xγβxβ−1
e
γβx
β−1 −γxβ
e
Z∞
dx =
0
γβxβ−1 eγβx
β −γxβ
dx
0
Z∞
= γβ
β
xβ−1 e−γ(1−β)x dx
0
∞
1
β
= −
· e−γ(1−β)x 1−β
0
1
1
1
1
= −
· γ(1−β)xβ +
· 0
1−β
1−β e
x=∞
e
1
=
<∞
1−β
Damit folgt, dass die Weibullverteilung für
γ>0
und
β ∈ (0, 1)
Weiters soll gezeigt werden, dass die Verteilungsfunktion
H
subexponentiell ist.
ebenfalls subexponentiell ist.
Dazu kann man Satz 4.7.(b) verwenden. Es wird überprüft, ob die Eigenschaften
lim xg(x) = ∞
x→∞
und
lim sup xg(x)
G(x) < 1
erfüllt sind:
x→∞
xg(x) = γβxβ
•
Da
•
Als Nächstes betrachtet man
mit
β ∈ (0, 1)
ist, folgt
lim xg(x) = ∞.
x→∞
lim sup xg(x)
G(x) .
Aus Satz 4.3. ist bekannt, dass
x→∞
β
G(x) = − log (1 − F (x)) = − log e−γx
= −(−γxβ ) = γxβ
gilt und somit
lim sup
x→∞
Da
H
γβxβ
= lim sup β = β < 1.
γxβ
x→∞
subexponentiell ist, ndet Satz 4.1. Anwendung. Für Forderungen, die eine Weibull-
verteilung mit
lässt sich
H
γ>0
und
β ∈ (0, 1)
haben, besagt dieser, dass
lim Ψ(a)
a→∞ 1−H(a)
in diesem Fall nicht genau berechnen.
5.2 Verallgemeinerte Paretoverteilung
Die verallgemeinerte Paretoverteilung besitzt die Verteilungsfunktion
− 1
α
F (x) = 1 − 1 + γαxβ
46
=
1
ρ ist. Jedoch
Verallgemeinerte Paretoverteilung
und die Dichtefunktion
f (x) = γβx
wobei
α, β, γ > 0
β−1
1 + γαx
β
−
(1+α)
α
sind. Somit ergibt sich für die Ausfallsrate
−
γβxβ−1 1 + γαxβ
f (x)
g(x) =
=
−1
1 − F (x)
(1 + γαxβ ) α
g
Um die Monotonie von
,
g:
(1+α)
α
γβxβ−1
1 + γαxβ
=
zu untersuchen, berechnet man die Ableitung
g
0
mithilfe der Quo-
tientenregel:
γβ(β − 1)xβ−2 (1 + γαxβ ) − γβxβ−1 γαβxβ−1
(1 + γαxβ )2
0
g (x) =
γβ(β − 1)xβ−2 (1 + γαxβ ) − γ 2 αβ 2 x2(β−1)
(1 + γαxβ )2
=
γβ 2 xβ−2 − γβxβ−2 − γ 2 αβx2(β−1)
(1 + γαxβ )2
γβxβ−2 β − 1 − γαxβ
=
(1 + γαxβ )2
=
Nun unterscheidet man zwei Fälle:
•
Für
β≤1
setzt man
d = 0.
•
Für
β>1
setzt man
d=
Somit ist
0
g (x) ≤ 0
für
x>d
Weiters sieht man, dass
β−1
γα
1
β
und die Ausfallsrate
lim g(x) = 0
x→∞
Z∞
e
.
xg(x)
Z∞
0
daher auf
xg(x) =
ist. Mit
f (x)dx ≤
g
β
[d, ∞)
γβxβ
1+γαxβ
≤
monoton fallend.
β
α für alle
x ≥ 0,
folgt
β
e α f (x)dx = e α < ∞.
0
Aus Satz 4.6. folgt, dass die verallgemeinerte Paretoverteilung subexponentiell ist.
Um zu zeigen, dass die Verteilungsfunktion
H
subexponentiell ist, genügt es Eigenschaft (a)
aus Satz 4.7. zu verwenden. Das heiÿt, man sucht eine Konstante
alle
x ≥ 0.
mit
xg(x) ≤ L
für
Wie bereits oben gezeigt wurde, gilt
xg(x) =
Man setzt
L>0
L=
β
α
>0
β
γβxβ
≤ ,
α
1 + γαxβ
und daraus folgt, dass
H
∀x ≥ 0.
subexponentiell ist.
47
Beispiele
Die verallgemeinerte Paretoverteilung ist auch ein gutes Beispiel dafür, wie man mithilfe
von Satz 4.1. das asymptotische Verhalten von
Für
α ∈ (0, 1)
Ψ(a)
beschreiben kann.
berechnet man den Erwartungswert wie folgt:
Z∞
Z∞
(1 − F (x)) dx =
µ=
0
1
(1 + γαx)− α dx
0
α−1 ∞
1
1
=
(1 + γαx) α =
γ(α − 1)
γ(1 − α)
0
Damit ergibt sich weiter für
x≥0
h(x) =
1
1
(1 − F (x)) = γ(1 − α)(1 + γαx)− α
µ
und daraus
Zt
Zt
h(x)dx = γ(1 − α)
H(t) =
0
1
(1 + γαx)− α dx = 1 − (1 + γαt)−
1−α
α
.
0
Man sieht, dass es sich bei
H
ebenfalls um eine verallgemeinerte Paretoverteilung handelt.
Da bereits gezeigt wurde, dass verallgemeinerte Paretoverteilungen subexponentiell sind, gilt
dies auch für
H.
Satz 4.1. besagt nun, dass
1−α
Ψ(a)
1
= lim Ψ(a) (1 + γα) α =
a→∞ 1 − H(a)
a→∞
ρ
lim
gilt. Betrachtet man den Fall
α=
1
2 , so folgt daraus
γ 1
lim Ψ(a) 1 + a = ,
a→∞
2
ρ
d.h.
Ψ(a)
konvergiert für
a→∞
wie
2
ρ(2+γa) gegen Null. Die Konvergenzgeschwindigkeit ist
langsamer als bei einer Exponentialfunktion.
5.3 Benktanderverteilung
Für die Benktanderverteilung ist die Verteilungsfunktion für

1 − e αβ x−(1−β) e−
F (x) =
0
48
αxβ
β
x≥1
für
x≥1
für
x<1
gegeben durch
Benktanderverteilung
und die Wahrscheinlichkeitsdichte durch
 α
e β x−(1−β) e−
f (x) =
0
wobei
α>0
β ∈ (0, 1).
und
αxβ
β
Die Ausfallsrate
α
x1−β
g
1−β
x
für
x≥1
für
x<1
,
berechnet sich wie folgt:

α
 1−β
+
f (x)
x
g(x) =
=
1 − F (x) 0
Die Funktion
+
1−β
x
für
x≥1
für
x<1
.
g ist somit auf dem Intervall [1, ∞) monoton fallend und konvergiert für x → ∞
gegen Null. Um Satz 4.6. anwenden zu können, benötigt man für
x≥1
xg(x) = αxβ + (1 − β)
und berechnet damit
xg(x)
e
α
αxβ
α
1−β
αxβ +(1−β)) β −(1−β) − β
(
f (x) = e
e x
e
+
x
x1−β
−α(1−β)xβ
α
α
1−β
β
= e β e1−β e
+ 2−β .
x2−2β
x
Mithilfe einer geeigneten Konstante
k
kann man folgende Abschätzung machen:
exg(x) f (x) ≤ ke
−α(1−β)xβ
β
,
woraus folgt, dass
Z∞
exg(x) f (x)dx < ∞,
0
d.h. endlich ist. Satz 4.6. besagt nun, dass die Benktanderverteilung subexponentiell ist.
An dieser Stelle stellt sich wieder die Frage, ob die Verteilungsfunktion
H
ebenfalls subex-
ponentiell ist. Dazu verwendet man Satz 4.7.(b) und überprüft die beiden Eigenschaften:
•
xg(x) = αxβ + (1 − β)
lim xg(x) = lim αxβ + (1 − β) = ∞.
Wie bereits oben gezeigt wurde, gilt
Daraus folgt:
x→∞
.
x→∞
49
Beispiele
•
Als Nächstes möchte man
lim sup xg(x)
G(x) < 1
zeigen. Dazu berechnet man zuerst:
x→∞
α
−
G(x) = − log (1 − F (x)) = − log e β x−(1−β) e
αxβ
β
αxβ
α
+ log x1−β +
β
β
α β
=
x − 1 + log x1−β
β
=−
Es folgt weiters
xg(x)
=
G(x)
≤
Für
x→∞
αxβ + (1 − β)
α
β
1−β )
β (x − 1) + log (x
αxβ + (1 − β)
.
α
β
β (x − 1)
erhält man
αxβ
+
α
β
β (x − 1)
αxβ + (1 − β)
= lim
lim α β
x→∞
x→∞
β (x − 1)
(1 − β)
α
β
β (x − 1)
βxβ
β(1 − β)
= lim
+
x→∞ xβ − 1
α(xβ − 1)
!
= β < 1.
Damit wurde
lim sup xg(x)
G(x) ≤ β < 1
gezeigt.
x→∞
Aus Satz 4.7. folgt, dass
H
subexponentiell ist.
5.4 Loggammaverteilung
Die Loggammaverteilung hat den Wertebereich
(1, ∞)
und besitzt folgende Wahrscheinlich-
keitsdichte:
f (x) =


αβ
Γ(β)
(log x)β−1 x−α−1
0
wobei
α>0
und
β > 1.
g(x) =
50
für
x≥1
für
x<1
,
Die Ausfallsrate lässt sich wie folgt berechnen:

 f (x)
für
x≥1
0
für
x<1
K(x)
Z∞
,
wobei
K(x) =
f (y)dy .
x
Loggammaverteilung
Für
x≥1
gilt:
Z∞
K(x) =
αβ
(log y)β−1 y −α−1 dy
Γ(β)
x
Z∞
≥
αβ
(log x)β−1 y −α−1 dy
Γ(β)
x
αβ
1
(log x)β−1 x−α
Γ(β)
α
x
= f (x).
α
=
Im nächsten Schritt leitet man sowohl die Ausfallsrate
0
g
0
f (x)K(x) + f (x)2
g (x) =
als auch die Dichtefunktion
f
ab:
und
K(x)2
αβ
f (x) =
Γ(β)
0
Setzt man
1
β−2 −α−1
β−1
−α−2
(β − 1) (log x)
x
+ (log x)
(−α − 1) x
x
!
αβ
(β − 1) (log x)β−1 −α−1
x−α−1
β−1
=
x
− (α + 1)
(log x)
Γ(β)
x
(log x)
x
αβ −α−1
β−1
α+1
β−1
=
x
(log x)
−
Γ(β)
x log x
x
β−1
α+1
= f (x)
−
.
x log x
x
d = eβ−1 ,
so ist
0
f (x) < 0
0
0
≤
0
f (x) αx f (x) + f (x)2
f (x)
=
für
K(x)2
g
K(x)2
d.h. die Ausfallsrate
und
f (x)K(x) + f (x)2
g (x) =
=
x>d
für alle
f (x)2
K(x)2
β−1
x log x
−
α+1
x
x
α f (x)
+ f (x)2
K(x)2
α+1
β−1
−
+ 1 < 0,
α log x
α
ist monoton fallend auf
[d, ∞).
Weiters gilt die folgende Abschätzung
x ≥ 1:
f (x)
≤ x xff(x)
= α.
xg(x) = x K(x)
(x)
α
51
Beispiele
Aus diesem Ergebnis folgt, dass
Z∞
xg(x)
e
lim g(x) = 0
x→∞
Z∞
f (x)dx =
0
e
xg(x)
und
Z∞
f (x)dx ≤
1
eα f (x)dx = eα < ∞.
1
Satz 4.6. besagt nun, dass die Loggammaverteilung subexponentiell ist.
Um zu zeigen, dass die Verteilungsfunktion
Satz 4.7.(a). Gesucht ist eine Konstante
bewiesen wurde, gilt
L=α
52
xg(x) ≤ α
H
auch subexponentiell ist, verwendet man
L > 0 mit xg(x) ≤ L für alle x ≥ 0. Wie bereits oben
für alle
x ≥ 1,
wobei
α>0
wählt, ist die Voraussetzung von Satz 4.7. erfüllt, und
ist. Indem man die Konstante
H
ist subexponentiell.
Teil 2
Extremwerttheorie
KAPITEL 6
Die drei Extremwertverteilungen
6.1 Grundlagen
Sei
X1 , X2 , . . .
eine Folge von unabhängigen und identisch verteilten - kurz i.i.d. (engl: inde-
pendent and identically distributed) - Zufallsvariablen mit einer gemeinsamen Verteilungsfunktion F.
Denition 6.1.
Das Maximum der ersten n Zufallsvariablen wird mit
Mn = max{X1 , X2 , . . . , Xn }
bezeichnet, wobei
n ∈ N.
Weiters kann man relativ leicht die Verteilungsfunktion von
mit
FMn
Mn
angeben, die im Folgenden
bezeichnet wird.
Lemma 6.1.
Für jedes
n∈N
gilt
FMn (x) = F n (x)
Beweis. Es gilt für jedes
∀x ∈ R.
x ∈ R:
FMn (x) = P (Mn ≤ x)
= P (X1 ≤ x, X2 ≤ x, . . . , Xn ≤ x)
(1)
= P (X1 ≤ x) · P (X2 ≤ x) · . . . · P (Xn ≤ x)
=
(2)
=
n
Y
P (Xi ≤ x)
i=1
n
Y
F (x)
i=1
= F n (x)
Bei (1) verwendet man die Unabhängigkeit der Zufallsvariablen und bei (2) die Tatsache,
dass
P (Xi ≤ x) = F (x)
für jedes
x∈R
und
i ∈ {1, . . . , n}.
55
Die drei Extremwertverteilungen
Die zentrale Frage in diesem Kapitel ist jene nach der Grenzwertverteilung von
Mn .
Dazu sind noch folgende Denitionen wichtig:
Denition 6.2.
Der rechte Randpunkt einer Verteilung F ist deniert als
(≤ ∞).
xR = sup{x| F (x) < 1}
Das heiÿt:
F (x) < 1
Denition 6.3.
für alle
x < xR
und
F (x) = 1
für alle
Xn
Gegeben seien die Zufallsvariablen
Verteilungsfunktionen
Fn
und
F.
Die Folge
x ≥ xR .
für
n≥1
und
X
mit den
Xn konvergiert in Verteilung
gegen
X,
falls
lim Fn (x) = F (x)
n→∞
für alle
x∈R
gilt, in denen F stetig ist.
Ohne eine Skalierung der
Für
x < xR
Mn
ist das Grenzwertverhalten leicht festzustellen.
folgt
lim P (Mn ≤ x) = lim F n (x) = 0.
n→∞
Wenn
xR < ∞
folgt für
n→∞
x ≥ xR
P (Mn ≤ x) = F n (x) = 1.
Somit gilt:

0
lim P (Mn ≤ x) =
n→∞
1
Das heiÿt, die Folge
(Mn )n≥1
wenn
x < xR
wenn
x ≥ xR
konvergiert in Verteilung gegen die Konstante
ist äquivalent zur Konvergenz von
Mn
gegen
xR
xR ≤ ∞ .
in Wahrscheinlichkeit, d.h. für jedes
Das
ε≥0
gilt:
lim P (|Mn − xR | > ε) = 0
n→∞
Da die Folge
(Mn )n≥1
monoton wachsend ist, folgt auch die fast sichere Konvergenz von
P
Mn :
lim Mn = xR = 1
n→∞
Dies bietet aber noch nicht genug Information, daher versucht man Aussagen über normierte
und zentrierte Maxima zu treen.
56
Grundlagen
Die Problemstellung lautet daher wie folgt:
Unter welchen Bedingungen und geeigneten Folgen
lim P
n→∞
für jedes
x ∈ R,
in dem
G
(an )n≥1
(Mn − bn )
≤x
an
in
(0, ∞)
und
(bn )n≥1
in
R
gilt
= G(x)
stetig ist?
Mit Hilfe des obigen Lemmas kann man dies noch umformulieren:
P
(Mn − bn )
≤x
an
= P (Mn ≤ an x + bn )
= F n (an x + bn )
Das heiÿt, es sind Folgen
G
(an )n≥1
in
(0, ∞)
und
(bn )n≥1
in
R
und eine Verteilungsfunktion
gesucht, sodass
lim F n (an x + bn ) = G(x)
n→∞
für alle Stetigkeitspunkte
Bemerkung.
x∈R
von
G
gilt.
Der Einfachheit halber wird in weiterer Folge die Menge der Stetigkeitspunkte
einer Verteilungsfunktion
H
mit
C(H)
bezeichnet.
Da in diesem Kapitel die nicht-ausgeartete Verteilungsfunktion eine wichtige Rolle spielt,
wird deren Denition an dieser Stelle wiederholt:
Denition 6.4.
Eine Verteilungsfunktion F heiÿt ausgeartet, wenn ein
F (x) = 1[a,∞) (x), ∀x ∈ R.
a∈R
existiert mit
Das heiÿt, die zugrunde liegende Zufallsvariable nimmt genau
einen Wert an.
Gilt dies nicht, so spricht man von einer nicht-ausgearteten Verteilungsfunktion.
57
Die drei Extremwertverteilungen
6.2 Satz von Khintchine
Das Ziel in diesem Abschnitt ist die Formulierung und der Beweis des Satzes von Khintchine.
Dieser Satz spielt eine wichtige Rolle, um das Fisher-Tippett-Theorem beweisen zu können.
Satz 6.1 (von Khintchine).
Sei
(Fn )n≥1
eine Folge von Verteilungsfunktionen und G eine
(an )n≥1
nicht-ausgeartete Verteilungsfunktion. Es seien
in
R,
Für eine nicht-ausgeartete Verteilungsfunktion
(0, ∞)
bzw.
(6.1)
G∗ und Folgen (αn )n≥1 in (0, ∞) und (βn )n≥1
sind dann äquivalent:
(a) lim Fn (αn x + βn ) = G∗ (x),
n→∞
(b)
Folgen in
∀x ∈ C(G)
lim Fn (an x + bn ) = G(x)
R
(bn )n≥1
sodass Folgendes gilt:
n→∞
in
bzw.
Es existieren Konstanten
für alle Stetigkeitspunkte
a ∈ (0, ∞)
und
b∈R
mit
x
von
lim αn
n→∞ an
G∗ .
=a
und
lim
n→∞
βn −bn
an
= b.
Weiters gilt:
G∗ (x) = G(ax + b)
∀x ∈ R.
(6.2)
Mithilfe dieses Satzes lassen sich in Abhängigkeit von bereits bekannten Konstantenfolgen
(bn )n≥1 alle weiteren Folgen (e
an )n≥1 in (0, ∞) und (ebn )n≥1 in R bestimmen, für
Fn (e
an x + ebn ) gegen eine nicht-ausgeartete Verteilungsfunktion konvergiert.
(an )n≥1
die
und
Um diesen Satz zu beweisen, sind noch einige Resultate über inverse Funktionen nötig.
Denition 6.5.
Sei
ϕ:R→R
eine (nicht notwendig streng) monoton wachsende, rechts-
seitig stetige Funktion. Auf dem oenen Intervall
(inf ϕ, sup ϕ)
sei die inverse Funktion
deniert durch
ϕ−1 (y) := inf My ,
wobei
My
gegeben ist durch
My := {u| ϕ(u) ≥ y}
für jedes
y ∈ (inf ϕ, sup ϕ).
Bemerkung. Der Denitionsbereich von ϕ−1 kann auch ein halboenes oder abgeschlossenes
Intervall sein, je nachdem, ob
inf{ϕ(x)} oder sup{ϕ(x)} für ein endliches x ∈ R angenommen
wird.
Hilfssatz 6.1.
stetig und
My
Sei
ϕ:R→R
wie in Denition 1.5. Dann gilt:
Beweis. Da
ϕ
Es existieren
un ∈ My
monoton wachsend ist, ist
mit
stetig ist, folgt, dass auch
Damit ergibt sich:
58
(nicht notwendig streng) monoton wachsend und rechtsseitig
My
My = [inf My , ∞).
ein nach oben unbeschränktes Intervall.
un ↓ inf My . Wegen un ∈ My
ϕ(inf My ) ≥ y ,
My = [inf My , ∞).
also
gilt
inf My ∈ My .
ϕ(un ) ≥ y , und da ϕ rechtsseitig
Satz von Khintchine
Einige wichtige Eigenschaften von inversen Funktionen werden zusammengefasst im folgenden
Lemma 6.2.
Sei
ϕ:R→R
eine (nicht notwendig streng) monoton wachsende, rechtsseitig
stetige Funktion.
(i) Für Konstanten
a > 0, b
c
und
aus
R
und
H(x) = ϕ (ax + b) − c
gilt
H −1 (y) = a−1 ϕ−1 (y + c) − b
ϕ−1
(ii) Für
wie oben deniert, gilt:
• ϕ−1 (ϕ(x)) ≤ x
• ϕ ϕ−1 (y) ≥ y
ϕ−1
(iii) Wenn
(iv) Sei
G
∀x
mit
ϕ(x) ∈ (inf{ϕ(x)}, sup{ϕ(x)})
∀y
mit
y ∈ (inf{ϕ(x)}, sup{ϕ(x)})
ϕ−1 (ϕ(x)) = x
stetig ist, dann ist
für jedes
x ∈ R.
eine nicht-ausgeartete Verteilungsfunktion, dann existieren
y1 < y2 ,
y1
und
y2
mit
sodass gilt:
G−1 (y1 ) < G−1 (y2 ) .
Beweis.
(i) Die inverse Funktion ist gegeben durch:
H −1 (y) = inf{x| ϕ(ax + b) − c ≥ y}
= a−1 (inf{(ax + b)| ϕ(ax + b) ≥ y + c} − b)
= a−1 (inf{z| ϕ(z) ≥ y + c} − b)
= a−1 ϕ−1 (y + c) − b
(ii) Es sei
ϕ−1
wie oben deniert.
•
Wegen
•
Sei
ϕ(x) ≥ ϕ(x)
z = ϕ−1 (y),
gilt
d.h.
x ∈ Mϕ(x)
und daher
z = inf My .
ϕ−1 (ϕ(x)) = inf Mϕ(x) ≤ x.
Laut Hilfssatz 6.1. gilt
z ∈ My
und somit
ϕ(z) ≥ y .
(iii) Aus (ii) ist bereits
ϕ−1 (ϕ(x)) ≤ x
bekannt.
Angenommen, es gilt strikte Ungleichung:
existiert ein
Gleichheit:
z ∈ Mϕ(x)
mit
z<x
und
ϕ−1 (ϕ(x)) < x,
ϕ(z) ≥ ϕ(x).
Da
ϕ
d.h.
inf Mϕ(x) < x.
Daher
monoton wachsend ist, folgt
ϕ(z) = ϕ(x).
z ∈ My
ϕ−1 (y) ≤ z .
Für
y = ϕ(z) = ϕ(x)
Für
y > ϕ(z) = ϕ(x) gilt x ∈
/ My . Aus dem Hilfssatz 6.1. folgt x < inf My = ϕ−1 (y). Da
z < x,
hat
ϕ−1
gilt
und somit
eine Sprungstelle in
ϕ(x).
Das ist aber ein Widerspruch zur Stetigkeit
−1 . Daraus folgt nun die behauptete Gleichheit:
von ϕ
ϕ−1 (ϕ(x)) = x.
59
Die drei Extremwertverteilungen
(iv) Da G nicht-ausgeartet ist, existieren
G(e
x2 ) = y2 ≤ 1.
Wegen
x1 =
Seien
x2 = inf My2
G−1 (y
und
1 ) und
x
e1 ∈
/ My2
und
x
e1
x
e2
x2 =
mit
x
e1 < x
e2 ,
G−1 (y
Ist
H
0 < G(e
x1 ) = y1 <
2 ).
folgt aus dem Hilfssatz 6.1., dass
dies ist äquivalent zu x
e1 < G−1 (y2 ).
Aus (ii) folgt x
e1 ≥ G−1 (G(e
x1 )) = G−1 (y1 ). Damit ist
Hilfssatz 6.2.
sodass
eine Verteilungsfunktion, dann ist
x
e1 < x2
G−1 (y1 ) < G−1 (y2 )
H
ist, und
gezeigt.
höchstens in abzählbar vielen
Punkten unstetig.
Beweis. Sei
Un
mit Sprunghöhe
die Menge aller Punkte
≥
1
n , wobei
Unstetigkeitsstellen von
n ∈ N.
x∈R
mit
(H(x) − H(x−)) ≥
∞
S
Da H monoton wachsend ist, ist
1
n , d.h. alle Punkte
Un
die Menge aller
n=1
H . Jede Menge Un kann maximal n Elemente enthalten und ist somit
abzählbar. Daraus folgt, dass auch die Vereinigung abzählbar ist.
Hilfssatz 6.3.
Sind
H1
gilt, in denen sowohl
und
H1
H2
Verteilungsfunktionen, sodass
als auch
H2
stetig sind, dann gilt
H1 (x) = H2 (x)
H1 (x) = H2 (x)
für alle
x∈R
bereits für alle
x ∈ R.
Beweis. Seien
U1
und
U2
die Unstetigkeitsstellen von
H1
bzw.
H2 . Dann ist U1 ∪ U2
abzähl-
bar.
Sei nun
x∈R
beliebig. Es gibt
xn ∈
/ U1 ∪ U2
mit
xn ↓ x.
Damit folgt
H1 (x) = lim H1 (xn ) = lim H2 (xn ) = H2 (x).
n→∞
Korollar 6.1.
b
und
β
Wenn
G
Konstanten aus
n→∞
eine nicht-ausgeartete Verteilungsfunktion ist und
R
sind, sodass
G(ax + b) = G(αx + β)
a=α
Beweis. Man wähle
x1 =
G−1 (y
1 ) und
die Inversen von
y1 < y 2
x2 =
G−1 (y
G(ax + b)
und
und
für alle
y1
−∞ < x1 < x2 < ∞
G(αx + β)
nach Lemma 6.2.(iv) so, dass
bilden:
y2
an, erhält man folgende Gleichungen:
(I)
a−1 (x1 − b) = α−1 (x1 − β)
für
y = y1
(II)
a−1 (x2 − b) = α−1 (x2 − β)
für
y = y2
60
gilt, dann folgt
2 ) gilt. Mithilfe Punkt (i) des obigen Lemmas kann man nun
und
und
x∈R
b = β.
a−1 G−1 (y) − b = α−1 G−1 (y) − β .
Wendet man dies auf
a > 0, α > 0,
Satz von Khintchine
Durch weitere Umformung ergibt sich:
(I)
a−1 x1 − a−1 b = α−1 x1 − α−1 β
(II)
a−1 x2 − a−1 b = α−1 x2 − α−1 β
Subtraktion der Gleichung (II) von Gleichung (I) führt zu:
a−1 (x1 − x2 ) = α−1 (x1 − x2 ).
Da
(x1 − x2 ) 6= 0
ist, sieht man mittels Division, dass
a = α und b = β.
Ein weiteres Lemma ist für den Beweis des Satzes von Khintchine hilfreich.
Lemma 6.3.
x
punkte
von
Seien
G
Fn
für
n≥1
und G Verteilungsfunktionen, sodass für alle Stetigkeits-
gilt
lim Fn (x) = G(x).
n→∞
lim yn = y
Wenn
n→∞
gilt, dann gilt auch
lim Fn (yn ) = G(y)
n→∞
für alle Punkte
Beweis. Sei
y ∈ C(G).
ε > 0.
Da
G(y) − G(y − δ) < ε.
Es gilt
da
G
G
in
Seien
y
stetig ist, existiert ein
u ∈ [y − δ, y)
und
G(v) − G(y) < ε ⇔ G(v) < G(y) + ε
δ>0
v ∈ (y, y + δ]
und
mit
G(y + δ) − G(y) < ε
Stetigkeitspunkte von
und
G.
G(y) − G(u) < ε ⇔ G(u) > G(y) − ε,
monoton wachsend ist.
Wegen
lim Fn (u) = G(u)
n→∞
Fn (u) > G(y) − ε
und
Da
u < y < v,
Sei
n0 := max (n1 , n2 ).
und
lim Fn (v) = G(v)
n→∞
Fn (v) < G(y) + ε
existiert ein
Für
n2 ∈ N
mit
n ≥ n0
gilt:
für alle
existiert ein
n1 ∈ N,
sodass
n ≥ n1 .
yn ∈ (u, v)
für
n ≥ n2 .
Fn (yn ) ≤ Fn (v) < G(y) + ε und Fn (yn ) ≥ Fn (u) > G(y) − ε
d.h.
|Fn (yn ) − G(y)| < ε
und somit
lim Fn (yn ) = G(y).
n→∞
Mit diesen Resultaten kann man nun den Satz von Khintchine beweisen.
61
Die drei Extremwertverteilungen
Beweis von Satz 6.1. Man setzt folgende Abkürzungen
αn
>0
an
βn − bn
0
∈R
βn : =
an
0
αn : =
0
Fn (x) : = Fn (an x + bn )
Somit kann man (6.1) schreiben als
0
lim Fn (x) = G(x),
(6.3)
n→∞
die Aussage (a) als
0
0
0
lim Fn (αn x + βn ) = G∗ (x),
(6.4)
n→∞
da
0
0
0
0
0
0
0
Fn (αn x + βn ) = Fn αn an x + βn an + bn = Fn an αn x + βn + bn = Fn αn x + βn
und die Aussage (b) als
0
lim αn = a
(b) ⇒ (a)
0
βn → b.
0
und
n→∞
Angenommen es gibt Konstanten
lim βn = b.
(6.5)
n→∞
a ∈ (0, ∞)
und
b ∈ R,
sodass
0
αn → a
und
Nach Voraussetzung gilt auch (6.1) oder in der vereinfachten Notation (6.3):
0
lim Fn (x) = G(x) ∀x ∈ C(G)
n→∞
Mit
0
0
yn := αn x + βn
und
y := ax + b
sind die Bedingungen von Lemma 6.3. erfüllt, und es
ergibt sich:
0
0
0
lim Fn (αn x + βn ) = G(ax + b) =: G∗ (x)
n→∞
für alle Punkte
x ∈ C(G∗ ).
G∗ (x) = G(ax + b)
für alle
Aus Hilfssatz 6.3. folgt mit
für alle
x∈R
(a) ⇒ (b)
Somit erhält man sowohl Aussage (a) als auch (6.2):
x ∈ C(G∗ )
bzw. für alle
H1 (x) = G∗ (x)
und
(ax + b) ∈ C(G).
H2 (x) = G(ax + b),
dass
G∗ (x) = G(ax + b)
gilt.
Laut Voraussetzung gilt nun Aussage
0
0
(a)
bzw. mittels einfacher Notation:
0
lim Fn (αn x + βn ) = G∗ (x)
n→∞
für alle Punkte
0 < G∗ (x) < 1
sodass
62
G∗
in
x1
x ∈ C(G∗ ).
für
und
Da
G∗
u < x < v.
x2
nicht-ausgeartet ist, gibt es ein Intervall
Man wählt zwei Punkte
stetig ist.
x1
und
x2
in
(u, v)
(u, v)
mit
mit
x1 6= x2 ,
Satz von Khintchine
Behauptung:
Die Folge
0
0
αn x1 + βn
n≥1
ist beschränkt.
(nk )k∈N
Angenommen diese Aussage gilt nicht. Dann würde eine Folge
lim
k→∞
0
0
αnk x1 + βnk = ±∞.
stetig ist. Es gibt ein
Weiters sei
k0
n0
so, dass
Dann gilt für alle
Sei
G∗ (x1 ) < α < 1
0
so, dass
Fn (w) > α
0
0
αnk x1 + βnk > u
für
für
w∈R
und
n ≥ n0 .
k ≥ k0
und
existieren, sodass
G(w) > α
so, dass
G
und
in
w
Dies folgt aus (6.3).
k0
auch so groÿ, dass
nk 0 ≥ n0 .
k ≥ k0 :
0
0
0
0
Fnk (αnk x1 + βnk ) ≥ Fnk (u) > α
Dies ist aber ein Widerspruch zu:
0
0
0
lim Fn (αn x1 + βn ) = G∗ (x1 ) < α
n→∞
0
0
αn x2 + βn
beschränkt ist.
n≥1
0
0
0
0
0
Somit ist auch die Folge (αn x1 + βn ) − (αn x2 + βn ) = αn (x1 − x2 ) beschränkt. Daraus
0
0
0
0
folgt die Beschränktheit von (αn )n≥1 . Da αn x1 + βn beschränkt ist, muss es auch (βn )n≥1
Auf gleiche Weise kann man zeigen, dass
sein.
a
und
(ax + b) ∈ C(G),
dass
Der Satz von Bolzano-Weierstraÿ besagt, dass es Konstanten
Folge
(nk )k∈N
b
aus
R
sowie eine
gibt mit
0
lim αnk = a
k→∞
und
0
lim βnk = b.
k→∞
Es folgt wieder aus Lemma 6.3. für alle Punkte
0
0
0
lim Fnk (αnk x + βnk ) = G(ax + b).
k→∞
Da nach (6.4)
G∗
G∗ (x) = G(ax + b)
eine Verteilungsfunktion ist, muss
a>0
sein. Sonst wäre
konstant oder entartet.
Es bleibt noch zu zeigen, dass
0
lim αn = a
n→∞
Angenommen, es gäbe eine andere Folge
und
0
lim βn = b.
n→∞
(mk )k∈N
mit
0
0
lim αmk = a
k→∞
und
0
0
lim βmk = b .
k→∞
Dann würde man
0
0
G(a x + b ) = G∗ (x) = G(ax + b)
erhalten. Nach Korollar 6.1. ist
Daher ist
alle
0
lim αn = a
n→∞
und
0
a =a
0
und
lim βn = b,
n→∞
0
b = b.
und es gilt Aussage (6.2):
G∗ (x) = G(ax + b)
für
x ∈ R.
63
Die drei Extremwertverteilungen
6.3 Max-stabile Verteilungen
Das zentrale Resultat in diesem Abschnitt ist der Satz, der die möglichen Grenzwertverteilungen für Maxima von i.i.d. Folgen charakterisiert. Ausgangspunkt sind folgende Denitionen:
Denition 6.6.
falls für jedes
Sei
G
eine nicht-ausgeartete Verteilungsfunktion. Diese heiÿt max-stabil,
n = 2, 3, . . .
Konstanten
an > 0
bn
und
aus
Gn (an x + bn ) = G(x)
R
existieren, sodass
∀x ∈ R
gilt.
Denition 6.7.
Eine Verteilungsfunktion
G,
einer Verteilungsfunktion
F
gehört zum maximalen Anziehungsbereich
wenn Konstanten
an > 0
lim F n (an x + bn ) = G(x)
bn ∈ R
existieren, sodass
∀x ∈ C(G)
n→∞
gilt. Man schreibt dann
und
(6.6)
F ∈ D(G).
In dem folgenden Theorem wird unter anderem gezeigt, dass die Grenzwertverteilungen
G,
die in (6.6) auftreten, mit der Klasse der max-stabilen Verteilungen übereinstimmen.
Theorem 6.1.
(i) Eine nicht-ausgeartete Verteilungsfunktion
wenn es eine Folge
und
(bn )n≥1
in
R
(Fn )n≥1
G ist max-stabil genau dann,
von Verteilungsfunktionen und Folgen
(an )n≥1
1
lim Fn (ank x + bnk ) = G k (x),
G
(ii) Wenn
k = 1, 2, . . .
und
(6.7)
x ∈ C(G).
nicht-ausgeartet ist, ist
Dann folgt:
(0, ∞)
gibt, sodass
n→∞
für jedes
in
G ∈ D(G).
D(G)
genau dann nicht leer, wenn
G
max-stabil ist.
Insbesondere stimmt die Klasse von Verteilungsfunktionen, die
als Grenzwert in (6.7) auftreten, mit der Klasse der max-stabilen Verteilungsfunktionen
überein.
Beweis.
(i) (⇒) Sei nun
x ∈ R,
wobei
an > 0
G max-stabil, das heiÿt Gn (an x + bn ) = G(x) für alle n ≥ 1 und
und
bn
Konstanten aus
R
sind. Mit
Fn := Gn
gilt
1
1
k
= G k (x).
Fn (ank x + bnk ) = Gnk (ank x + bnk )
Damit folgt auch schon die Aussage, dass
1
lim Fn (ank x + bnk ) = G k (x)
n→∞
64
für alle
k ∈ N.
Max-stabile Verteilungen
(⇐) Es wird vorausgesetzt, dass
G
nicht-ausgeartet ist. Dann ist es auch
nicht. Laut Voraussetzung gilt für alle
k≥1
und
1
Gk
für
k∈N
x ∈ C(G)
1
lim Fn (ank x + bnk ) = G k (x).
n→∞
Für
k=1
erhält man:
lim Fn (an x + bn ) = G(x),
n→∞
wobei
x ∈ C(G).
cn := ank , dn := bnk
Setzt man nun
und
G∗ := G1/k ,
dann folgt für
x ∈ C(G∗ ):
lim Fn (cn x + dn ) = G∗ (x).
n→∞
Somit sind die Bedingungen des Satzes von Khintchine erfüllt, und es folgt für geeignete
Konstanten
αk > 0
und
βk
aus
R,
dass für alle
x∈R
1
G∗ (x) = G k (x) = G(αk x + βk ).
Da somit
(ii) (⇒) Sei
G(x) = Gk (αk x + βk )
D(G) 6= 0
gilt, ist
G
max-stabil.
und F eine Verteilungsfunktion mit
F ∈ D(G).
Es gilt:
lim F n (an x + bn ) = G(x)
n→∞
für geeignete Konstanten
an > 0
und
bn
aus
R
und
x ∈ C(G).
Damit folgt bereits
lim F nk (ank x + bnk ) = G(x)
n→∞
und somit
1
lim F n (ank x + bnk ) = G k (x).
n→∞
Man sieht, dass die Bedingung (6.7) für
Fn := F n
erfüllt ist, und daher ist
G
nach (i)
max-stabil.
(⇐) Angenommen,
x ∈ R,
wobei
an > 0
G
ist max-stabil, d.h.
und
b
aus
R
Gn (an x + bn ) = G(x)
für alle
n ≥ 1
und
Konstanten sind. Dann folgt sofort, dass
lim Gn (an x + bn ) = G(x)
n→∞
für
x∈R
gilt und somit ist
G ∈ D(G).
65
Die drei Extremwertverteilungen
Korollar 6.2.
Sei
G eine max-stabile Verteilungsfunktion. Dann existieren reelle Funktionen
a : R+ → R+
b : R+ → R,
mit
Gs (a(s)x + b(s)) = G(x)
Beweis. Da
G
s>0
für
und
x ∈ R.
an
max-stabil ist, existieren Konstanten
Gn (an x + bn ) = G(x),
Im Folgenden wird mit
d.e
in
für alle
(0, ∞)
und
bn
aus
R,
sodass
n ≥ 1.
die obere Gauÿ-Klammer bezeichnet. Somit gilt auch:
Gdnse adnse x + bdnse = G(x)
für alle
x ∈ R, n ∈ N
und
s > 0.
Aufgrund der Konvergenz
lim n
n→∞ dnse
1
s
=
folgt
n
n
1
n→∞
Gn adnse x + bdnse = Gdnse (adnse x + bdnse ) dnse = G dnse (x) −−−→ G s (x).
Für
s=1
und
x∈R
erhält man:
lim Gn (an x + bn ) = G(x)
n→∞
Setzt man nun
αn := adnse , βn := bdnse
und
1
G∗ := G s ,
dann folgt
∀x ∈ R:
lim Gn (αn x + βn ) = G∗ (x)
n→∞
Damit sind die Voraussetzungen des Satzes von Khintchine erfüllt, und es existieren in Abhängigkeit von
s
geeignete Konstanten
lim
n→∞
adnse
an
a(s) ∈ (0, ∞)
= a(s)
und
lim
n→∞
und
b(s) ∈ R
bdnse −bn
an
mit
= b(s).
Daraus ergeben sich die folgenden Funktionen
a : R+ → R+ , s 7→ a(s) = lim
n→∞
die der gewünschten Bedingung
jedes
x
aus
R
und
s>0
adnse
an und
b : R+ → R, s 7→ b(s) = lim
n→∞
bdnse −bn
,
an
1
G (a(s)x + b(s)) = G s (x) ⇔ Gs (a(s)x + b(s)) = G(x)
für
entsprechen.
Folgende Denition ist im Bereich der Extremwerttheorie weit verbreitet:
Denition 6.8.
Seien
H1
und
H2
Verteilungsfunktionen. Man sagt,
selben Typ, falls geeignete Konstanten
a>0
und
H2 (x) = H1 (ax + b),
66
b
aus
R
H1
existieren mit
∀x ∈ R.
und
H2
sind vom
Max-stabile Verteilungen
Bemerkung.
(i) Mit dieser Denition kann man max-stabile Verteilungsfunktionen auch
folgendermaÿen charakterisieren:
Eine nicht-ausgeartete Verteilungsfunktion
n
funktion G für jedes
n = 2, 3, . . .
G
heiÿt max-stabil, wenn die Verteilungs-
vom selben Typ ist wie
G.
(ii) Aus dem Satz von Khintchine kann man weiters folgern:
Sei
(Fn )n≥1
eine Folge von Verteilungsfunktionen und gilt sowohl
lim Fn (an x + bn ) = G1 (x),
∀x ∈ C(G1 )
lim Fn (αn x + βn ) = G2 (x),
∀x ∈ C(G2 )
n→∞
als auch
n→∞
für nicht-ausgeartete Verteilungsfunktionen
G1
und
G2 ,
dann sind
G1
und
G2
vom sel-
ben Typ.
Damit ist die Grenzwertverteilung von normierten und zentrierten Maxima, d.h. von
Mn −bn
an
für
n → ∞,
eindeutig bestimmt bis auf Typ-Gleichheit - sofern diese exis-
tiert.
Korollar 6.3.
Seien
H1
und
H2
zwei nicht-ausgeartete Verteilungsfunktionen. Dann sind
folgende Aussagen äquivalent:
H1
(i)
und
(ii) Es gilt:
Beweis. (i)
b
aus
R,
H2
sind vom selben Typ.
D(H1 ) = D(H2 ).
⇒
sodass
H1
(ii) : Da
und
H2
vom selben Typ sind, existieren Konstanten
H2 (x) = H1 (ax + b), ∀x ∈ R,
gilt. Sei nun
lim F n (an x + bn ) = H1 (x),
n→∞
Indem man
αn :=
a
an und
βn :=
b
an
+ bn
F ∈ D(H1 ).
a>0
und
Das heiÿt:
∀x ∈ C(H1 ).
setzt, ist die Aussage (b) des Satzes von Khintchine
erfüllt, und daraus folgt:
lim F n (αn x + βn ) = H2 (x),
n→∞
wobei
H2 (x) = H1 (ax + b)
ist. Somit gilt:
F ∈ D(H2 ).
F ∈ D(H2 )
die Aussage
Analog kann man zeigen, dass
(ii)
⇒
(i) : Sei
αn > 0, bn
F ∈ D(H1 )
und
βn
aus
R,
und
F ∈ D(H2 ).
lim F n (an x + bn ) = H1 (x)
Aus dem Satz von Khintchine folgt, dass
H2
F ∈ D(H1 )
impliziert.
Das heiÿt, es gibt geeignete Konstanten
an > 0,
sodass gilt:
n→∞
und
∀x ∈ C(H2 ),
und
lim F n (αn x + βn ) = H2 (x).
n→∞
H2 (x) = H1 (ax + b), ∀x ∈ R,
und somit sind
H1
vom selben Typ.
67
Die drei Extremwertverteilungen
6.4 Fisher-Tippett-Theorem
Mit Hilfe des Fisher-Tippett-Theorems kann man die Extremwertverteilungen, d.h. die
nicht-ausgearteten Verteilungen
G,
die als Grenzwert in
lim F n (an x + bn ) = G(x), ∀x ∈ C(G)
n→∞
(an )n≥1
für geeignete Folgen
in
(0, ∞)
und
(bn )n≥1
in
R
auftreten, genau beschreiben.
Der Satz besagt, dass Extremwertverteilungen bis auf Typgleichheit die Form der Fréchet-,
Gumbel- oder Weibull-Verteilung haben.
Der Beweis erfolgt in zwei Schritten. Der erste Schritt wurde bereits im obigen Abschnitt
gezeigt: Aus Theorem 6.1. ist bekannt, dass die Extremwertverteilungen genau die maxstabilen Verteilungen sind.
Im nächsten Schritt wird gezeigt, dass jede max-stabile Verteilung bis auf Typgleichheit
mit einer von drei möglichen Verteilungen übereinstimmt. Dies wird bereits im nächsten Satz
bewiesen.
Dafür ist jedoch noch folgender Hilfssatz nötig:
Hilfssatz 6.4.
Sei
G
eine nicht-ausgeartete, max-stabile Verteilungsfunktion. Gegeben sei
folgende Funktion:
ψ : D → R,
x 7→ − log(− log G(x))
mit dem Denitionsbereich
D = {x ∈ R : G(x) ∈ (0, 1)}.
−1 im Sinne der Denition 6.5. auf
Funktion ψ
Dann besitzt diese eine inverse
R.
Beweis. Damit eine inverse Funktion gemäÿ Denition 6.5. existiert, muss
ψ
drei Eigen-
schaften erfüllen:
(1)
ψ
muss (nicht notwendig streng) monoton wachsend sein
(2)
ψ
muss eine rechtsseitig stetige Funktion sein
• inf ψ(x) = −∞
(3)
x∈D
• sup ψ(x) = ∞
x∈D
Nun ist nachzuweisen, dass
(1)
G
ψ
die obigen Eigenschaften besitzt:
ist als nicht-ausgeartete Verteilungsfunktion monoton wachsend. Die Logarithmus-
Funktion ist selbst streng monoton wachsend. Somit ist
noton wachsend.
68
ψ
(nicht notwendig) streng mo-
Fisher-Tippett-Theorem
(2)
G
ist rechtsseitig stetig und der Logarithmus sogar stetig. Damit ist
ψ
als Verknüpfung
rechtsseitig stetig.
(3)
•
inf ψ(x) = −∞
Die Aussage
Element
x̃
x∈D
in
D
gibt mit
ist bewiesen, sobald gezeigt ist, dass es kein kleinstes
G(x̃) > 0.
inf G(x) = 0
x∈D
Angenommen, es existiert ein
xn ↑ x̃
Da
G
gilt:
Dann folgt sofort:
und somit
x̃ ∈ D
mit
inf ψ(x) = −∞.
x∈D
G(x̃) > 0,
sodass für Folgen
(xn )n≥1
mit
b
R:
lim G(xn ) = 0.
n→∞
max-stabil ist, folgt für
n=2
und geeignete Konstanten
G2 (ax + b) = G(x),
a>0
und
aus
∀x ∈ R
Nun werden drei Fälle unterschieden:
Für
ax̃ + b < x̃
gilt
0 < G(x̃) = G2 (ax̃ + b) = 0,
und somit liegt ein Widerspruch vor.
Für
ax̃ + b > x̃ ⇔ x̃ >
x̃−b
a gilt
0 < G2 (x̃) = G2 a ·
x̃−b
a
+b =G
x̃−b
a
= 0.
Auch hier gibt es einen Widerspruch.
Für
ax̃ + b = x̃
gilt:
G2 (x̃) = G2 (ax̃ + b) = G(x̃) > 0.
Damit diese Gleichung gültig ist, müsste
G(x̃) = 1
und somit ausgeartet sein. Auch
dies ist ein Widerspruch.
Daher kann
D
kein kleinstes Element
enthalten, und die Aussage
•
Um
sup ψ(x) = ∞
x̃
inf G(x) = 0
x∈D
mit den oben geforderten Eigenschaften
ist gezeigt.
zu zeigen, geht man analog vor. Es wird bewiesen, dass
x∈D
sup G(x) = 1
und damit
x∈D
Angenommen, es existiert ein
xn ↑ x
0
gilt:
sup ψ(x) = ∞
gilt.
x∈D
0
x ∈
/D
mit
0
G(x ) = 1,
sodass für Folgen
(xn )n≥1
mit
lim G(xn ) < 1.
n→∞
Aufgrund der Max-Stabilität gilt wieder:
G2 (ax + b) = G(x),
∀x ∈ R
Auch hier werden drei Fälle unterschieden:
Für
0
ax + b < x
0
gilt
0
0
1 = G(x ) = G2 (ax + b) < 1,
und somit liegt ein Widerspruch vor.
69
Die drei Extremwertverteilungen
Für
0
0
0
0
ax + b > x ⇔ x >
x −b
a gilt
0
0
1 = G2 (x ) = G2 a ·
x −b
a
0 + b = G x a−b < 1,
und auch diese Gleichung stellt einen Widerspruch dar.
Für
0
ax + b = x
0
wählt man eine Folge
xn
mit
xn ↑ x
0
und es folgt
lim G2 (xn ) = lim G2 (axn + b) = lim G(xn ) < 1.
n→∞
Auch hier müsste
n→∞
G
n→∞
ausgeartet sein, was aber erneut einen Widerspruch zur Vor-
aussetzung darstellt.
Somit kann die Menge
D
enthalten, und daher gilt
kein gröÿtes Element
x
0
mit den obigen Eigenschaften
sup G(x) = 1.
x∈D
Zusammenfassend wurde gezeigt, dass
Satz 6.2.
Sei
G
ψ
auf
R
eine inverse Funktion
ψ −1
besitzt.
eine nicht-ausgeartete Verteilungsfunktion. Dann sind folgende Aussagen
äquivalent:
(a)
G
ist max-stabil
(b)
G
hat bis auf Typ-Gleichheit die Gestalt von einer der drei folgenden Verteilungsfunktio-
nen:
(i) Gumbel-Verteilung:
Λ(x) = exp(−e−x ),
für
x ∈ (−∞, ∞)
(ii) Fréchet-Verteilung: Für
α > 0
ist
0
Φα (x) = exp(−x−α ).1(0,∞) (x) =
exp(−x−α )
(iii) Weibull-Verteilung: Für
α>0
wenn
x≤0
wenn
x>0
ist

exp(−(−x)α )
α
Ψα (x) = exp(−(−x) ).1(−∞,0) (x)+1[0,∞) (x) =
1
wenn
x<0
wenn
x≥0
Beweis. (b) ⇒(a) : In diesem Schritt ist zu zeigen, dass die Gumbel-, Fréchet- und WeibullVerteilung max-stabil sind, d.h. für jedes
R
n = 2, 3, · · ·
soll es Konstanten
an > 0
und
bn
geben mit
Gn (an x + bn ) = G(x),
∀x ∈ R.
bn = log(n), so gilt ∀x ∈ R, ∀n ≥ 2:
−x n
n
= (exp(−e−x )) = Λ(x).
Λ (x + log(n))n = exp(−e−x−log(n) ) = exp − e n
ad (i) : Wählt man für die Konstanten
an = 1
und
Das heiÿt, die Gumbel-Verteilung ist max-stabil.
70
aus
Fisher-Tippett-Theorem
ad (ii) : Wählt man in diesem Fall für die Konstanten
und
1
an = n α
und
bn = 0,
so gilt
∀x ∈ R
∀n ≥ 2:
n n
Φα n1/α x = exp(−(n1/α x)−α ) .1(0,∞) (n1/α x)
−α n
x
= exp −
.1(0,∞) (x)
n
= exp(−x−α ) .1(0,∞) (x) = Φα (x)
Somit ist auch die Fréchet-Verteilung max-stabil.
ad (iii) : Hier wählt man für die Konstanten
1
an = n− α
und
bn = 0. Dann gilt ∀x ∈ R, ∀n ≥ 2:
n
.1(−∞,0) (n−1/α x) + 1[0,∞) (n−1/α x)
Ψα (n−1/α x)n = exp −(−(n−1/α x))α
n
= exp −((−x)α )n−1
.1(−∞,0) (x) + 1[0,∞) (x)
= (exp (−(−x)α )) .1(−∞,0) (x) + 1[0,∞) (x) = Ψα (x)
Auch die Weibull-Verteilung ist max-stabil.
(a) ⇒(b) : In diesem Beweisschritt wird auf die Funktionalgleichung von Korollar 6.2.
Gs (a(s)x + b(s)) = G(x), s > 0
für reelle Funktionen
a : R+ → R+
und
b : R+ → R
zurückgegrien und gezeigt, dass die einzige Lösung dieser Gleichung zum Typ der Gumbel-,
Fréchet- oder Weibull-Verteilung gehört. Dazu geht man von der bereits oben erwähnten
Funktion aus:
ψ : D → R,
x 7→ − log(− log G(x))
mit dem Denitionsbereich
D = {x ∈ R : G(x) ∈ (0, 1)}.
Laut Hilfssatz 6.4. besitzt die Funktion
ψ −1
ψ eine inverse Funktion ψ −1 auf R. Um die Funktion
genauer zu beschreiben, nimmt man die Funktionalgleichung
Gs (a(s)x + b(s)) = G(x)
von Korollar 6.2. und setzt diese in
ψ(x)
ein:
ψ(x) = − log(− log G(x))
= − log(− log Gs (a(s)x + b(s)))
= − log(− log(G(a(s)x + b(s)).s))
= ψ(a(s)x + b(s)) − log(s)
71
Die drei Extremwertverteilungen
Daraus ergibt sich mit Hilfe von Lemma 6.2.(i) für
ψ −1 (y) =
Für
y=0
1
−1
a(s) (ψ (y
a = a(s), b = b(s)
+ log(s)) − b(s)), ∀y ∈ R
und
und
c = log(s):
s > 0.
erhält man daraus
ψ −1 (0) =
1
−1
a(s) (ψ (log(s))
Subtrahiert man nun die Gleichung
ψ −1 (0)
von
− b(s)),
ψ −1 (y),
für
s > 0.
so folgt:
1
1
ψ −1 (y + log(s)) − b(s) −
(ψ −1 (log(s)) − b(s))
a(s)
a(s)
1
=
ψ −1 (y + log(s)) − ψ −1 (log(s))
a(s)
ψ −1 (y) − ψ −1 (0) =
Durch Umformung erhält man
a(s) ψ −1 (y) − ψ −1 (0) = ψ −1 (y + log(s)) − ψ −1 (log(s)) .
Indem man die Abkürzungen
z := log(s), ã(z) := a(ez )
und
f (y) := ψ −1 (y) − ψ −1 (0)
setzt,
folgt:
f (y + z) − f (z) = f (y)ã(z),
∀y, z ∈ R
(6.8)
Von dieser Gleichung werden nun die Lösungen gesucht, wobei man auch hier eine Fallunterscheidung machen muss:
1.Fall:
ã(z) ≡ 1
Dann vereinfacht sich Gleichung (6.8) zu:
f (y + z) − f (z) = f (y), ∀y, z ∈ R.
Die einzige
monoton wachsende Lösung ist bis auf Konstanten eindeutig und hat die Form
f (y) = cy ,
Die Konstante
c
für eine Konstante
muss gröÿer Null sein, da sonst
c > 0.
f (y) ≡ 0
und somit
ψ −1
konstant und
daher entartet wäre.
Da laut Denition
f (y) = ψ −1 (y) − ψ −1 (0)
ist, sieht man mittels Umformung, dass
ψ −1 (y) = cy + ψ −1 (0)
gilt und
ψ −1
stetig ist. In weiterer Folge deniert man
d := ψ −1 (0).
Lemma 6.2.(iii) anwenden und erhält:
x = ψ −1 (ψ(x)) = cψ(x) + d.
Daraus folgt
ψ(x) =
Man setzt dieses Ergebnis gleich mit
ψ(x) = − log(− log G(x)):
x−d
c
72
x−d
c .
= − log(− log G(x))
Nun kann man
G
Fisher-Tippett-Theorem
⇔ exp(− x−d
c ) = − log G(x)
⇔ exp(−e−
x−d
c
) = G(x)
⇔ exp(−e−αx+β ) = G(x)
mit
α=
1
c und
β=
ã(z) 6= 1,
2.Fall:
d
c . Man sieht, dass
d.h.
∃z0 ∈ R,
Vertauscht man in (6.8)
y
und
G
sodass
z,
vom Typ der Gumbel-Verteilung ist.
ã(z0 ) 6= 1.
so erhält man
f (z + y) − f (y) = f (z)ã(y), ∀y, z ∈ R.
Nun zieht man dieses Ergebnis von Gleichung (6.8) ab:
f (y) − f (z) = f (y)ã(z) − f (z)ã(y)
⇔ f (y) (1 − ã(z)) = f (z) (1 − ã(y)), ∀y, z ∈ R
Für
z = z0
und
d :=
f (z0 )
1−ã(z0 ) ergibt sich:
f (y) =
Dabei ist
d 6= 0,
da sonst
f (z0 )
(1 − ã(y)) = d (1 − ã(y))
1 − ã(z0 )
f (y) = 0, ∀y ∈ R
und
G
(6.9)
somit entartet wäre. Wenn man Gleichung
(6.9) in Gleichung (6.8) einsetzt, dann folgt:
d (1 − ã(y + z)) − d (1 − ã(z)) = d (1 − ã(y)) ã(z)
Im nächsten Schritt dividiert man durch
d 6= 0:
(1 − ã(y + z)) − (1 − ã(z)) = (1 − ã(y)) ã(z)
⇔ ã(z) − ã(y + z) = ã(z) − ã(y)ã(z)
⇔ ã(y + z) = ã(y)ã(z), ∀y, z ∈ R
Da die Funktion
ã(z) = a(ez )
nur positive Werte annimmt, kann man in obiger Gleichung
beide Seiten logarithmieren:
log(ã(y + z)) = log(ã(y)) + log(ã(z))
Als Lösung dieser Gleichung erhält man:
log(ã(y)) = cy,
mit
c = log(ã(1)) = log(ae ).
Durch Anwendung der Exponentialfunktion erhält man:
ã(y) = exp(cy),
wobei
c 6= 0,
da sonst
ã ≡ 1
∀y ∈ R
∀y ∈ R,
ein Widerspruch zur Voraussetzung wäre.
73
Die drei Extremwertverteilungen
Die Gleichung (6.9) kann man nun folgendermaÿen umformulieren:
ψ −1 (y) = a + d(1 − exp(cy)),
mit
a := ψ −1 (0). Da ψ(x) = − log(− log G(x)) monoton wachsend ist, gilt dies auch für ψ −1 .
Daher folgt:
Da
•
Für
muss
d<0
sein.
•
Umgekehrt: für
c<0
muss
ψ −1
c>0
d>0
sein.
eine stetige Funktion ist, kann an dieser Stelle Lemma 6.2.(iii) angewendet werden,
und für die Funktion
ψ(x)
wird deren Denition eingesetzt:
x = ψ −1 (ψ(x)) = a + d (1 − exp(cψ(x)))
= a + d 1 − (− log G(x))−c
Diese Gleichung kann man weiter umformen:
G(x) = exp −(1 −
Das gilt für alle
•
Für
c>0
x
mit
G(x) ∈ (0, 1).
setzt man
γ :=
1
c
Mit
α := − d1 > 0
G(x) = exp (−(αx + β)−γ ),
Da
G
Nun wird wieder unterschieden:
> 0.
Diese Bedingung ist für jene
x−a − 1c
d )
x∈R
für alle
und
x∈R
erfüllt, für die
β := 1 +
mit
a
d ergibt sich:
0 < G(x) < 1.
αx + β > 0
gilt.
monoton wachsend ist, erhält man folgendes Resultat:
G(x) = exp (−(αx + β)−γ ) .1(0,∞) (αx + β)
G
Somit ist
•
Für
c<0
vom Typ der Fréchet-Verteilung.
sei nun
δ := − 1c > 0.
Mit
α :=
G(x) = exp −(−(αx + β)δ ) ,
Diese Bedingung ist für jene
Da
G
x∈R
1
d
>0
für alle
und
β := −(1 + ad )
x ∈ R,
erfüllt, für die
für die
αx + β < 0
folgt:
0 < G(x) < 1.
gilt.
monoton wachsend ist, folgt:
G(x) = exp −(−(αx + β)δ ) .1(−∞,0) (αx + β) + 1[0,∞) (αx + β)
In diesem Fall ist
G
vom Typ der Weibull-Verteilung.
Damit lässt sich nun das Fisher-Tippett-Theorem leicht beweisen.
74
Fisher-Tippett-Theorem
Satz 6.3 (Fisher-Tippett-Theorem).
Für
n∈N
sei
Mn = max{X1 , X2 , . . . , Xn },
(Xi )1≤i≤n i.i.d. Zufallsvariablen mit gemeinsamer Verteilungsfunktion F
ausgeartete Verteilungsfunktion
(a)
ist eine Extremwertverteilung, d.h. es existieren Folgen
in
R,
für jedes
x ∈ C(G)
in
(0, ∞)
und
(bn )n≥1
(Mn −bn )
an
≤ x = lim F n (an x + bn ) = G(x)
n→∞
gilt.
ist vom Typ der Gumbel-, Fréchet- oder Weibull-Verteilung.
Beweis. Sei
G
eine nicht-ausgeartete Verteilungsfunktion. Nach Theorem 6.1.(ii) ist der
Anziehungsbereich von
G
(an )n≥1
sodass
n→∞
G
sind. Für eine nicht-
sind äquivalent:
G
lim P
(b)
G
wobei
G genau dann nicht leer, wenn G max-stabil ist. Laut obigem Satz ist
genau dann max-stabil, wenn
G
vom Typ der Gumbel-, Fréchet-, oder Weibull-Verteilung
ist.
Bemerkung.
(1) Die Gumbel-, Fréchet- und Weibull-Verteilung werden häug als die drei
Extremwertverteilungen bezeichnet.
(2) Wie aus dem Fisher-Tippett-Theorem hervorgeht, sind die drei Extremwertverteilungen
(Gumbel-, Fréchet- und Weibull-Verteilung) selbst stetig. Daher braucht in weiterer Folge
bei der Konvergenz in Verteilung nicht mehr auf Stetigkeitspunkte der Grenzwertverteilung geachtet werden.
Im Fisher-Tippett-Theorem wird davon ausgegangen, dass
gegen eine nicht-ausgeartete Grenzwertverteilung
teilung
G
G
(Mn −bn )
in Verteilung
an
n≥1
konvergiert. Von dieser Grenzwertver-
wird dann gezeigt, von welchem Typ sie ist.
Jedoch liegt nicht jede beliebige Verteilungsfunktion im Anziehungsbereich einer nicht ausgearteten Extremwertverteilung, wie das folgende Beispiel zeigt:
Beispiel.
ρ<1
Sei
F
eine Verteilungsfunktion mit dem rechten Randpunkt
xn ↑ xR ,
Existiert ein
lim F (xn ) = ρ, dann kann
n→∞
Anziehungsbereich der Gumbel-, Fréchet- oder Weibull-Verteilung sein.
und eine Folge
(xn )n≥1
xR < ∞.
mit
sodass
F
nicht im
Angenommen, dies wäre aber der Fall. Dann würde eine nicht-ausgeartete Verteilungsfunktion
G
mit
F ∈ D(G)
existieren, d.h. für geeignete Konstanten
lim F n (an x + bn ) = G(x)
n→∞
Da
F
F (xR ) = 1, und

= 1
n
F (an x + bn )
≤ ρn
rechtsseitig stetig ist, gilt
an > 0
und
bn
aus
R
würde gelten:
∀x ∈ R.
somit würde für alle
wenn
x≥
wenn
x<
n∈N
folgen:
xR −bn
an
xR −bn
an
75
Die drei Extremwertverteilungen
Wegen
F ∈ D(G)
lim
n→∞
Daher wäre
G
x∈R

1
würde somit für jedes
F n (a
nx
+ bn ) =
gelten:
wenn
x ≥ lim
n→∞
xR −bn
an
wenn
x < lim
xR −bn
an
0
n→∞
entartet, was ein Widerspruch zur Voraussetzung ist.
6.5 Anwendungen des Fisher-Tippett-Theorems
In diesem Abschnitt werden zwei Beispiele dafür gegeben, wie man das Fisher-TippettTheorem anwenden kann.
6.5.1 Beispiel 1
Es seien
X1 , X2 , . . .
unabhängige und
N (0, 1)-verteilte
Zufallsvariablen. Die Dichtefunktion
der Standardnormalverteilung ist gegeben durch
1
Φ(x) = √ e−
2π
Für
n≥1
1 2
x
2
.
bildet man die Konstantenfolge
1
an = (2 log(n) − log (4π log(n)))− 2 ,
wobei
(an )n≥1 ∈ (0, ∞)
die Verteilungsfunktion
bn =
ist. Weiter setzt man
Φ an t +
lim P
n→∞
1
an
n
1
an . In diesem Beispiel besitzt
Mn
an
. Nun möchte man den Grenzwert
(Mn − bn )
≤t
an
1 n
= lim Φ an t +
n→∞
an
berechnen. Dazu sei
r(x) := −2 log(x) − log(4π) − log (− log(x)) .
Für
x=
1
n ist
an = r
1 −
n
1
2
und
Φ an t +
1
an
n
=Φ
√t
r(x)
p
+ r(x)
1
x
=: H(x).
In weiterer Folge braucht man das folgende Resultat:
log(4π) + log (− log(x))
lim r(x) = lim −2 log(x) 1 +
= ∞,
x↓0
x↓0
2 log(x)
wobei
lim
x↓0
76
log(4π)
log (− log(x))
+
2 log(x)
2 log(x)
= 0.
−
1
a2n
Anwendungen des Fisher-Tippett-Theorems
Dies sieht man, indem man
y = − log(x)
lim −
y→∞
Um den Grenzwert von
log(y)
2y
setzt und die Regel von de l'Hospital anwendet:
= lim −
y→∞
1
x
log (H(x)) =
1
y
log Φ
= lim −
2
y→∞
√t
r(x)
1
2y
= 0.
p
+ r(x)
zu erhalten, wendet man
auch hier die Regel von de l'Hospital an:
Φ
0
lim log (H(x)) = lim
x↓0
x↓0
(1)
0
= lim Φ
x↓0
(2)
0
= lim Φ
x↓0
0
0
p
tr (x)
r (x)
+ r(x)
− 2r(x)3/2 + 2r(x)1/2
p
t
Φ √
+ r(x)
r(x)
!
0
p
t
t
r (x)
p
1−
+ r(x) ·
r(x)
2r(x)1/2
r(x)
!
0
p
r (x)
t
p
,
+ r(x) ·
2r(x)1/2
r(x)
√t
r(x)
wobei in
(1)
eingegangen ist, dass
lim r(x) = ∞
x↓0
lim Φ
√t
p
+ r(x)
!
1 −1
=√ e 2
2π
r(x)
x↓0
=1
ist, und in
(2),
dass
gilt. Nun ist ja
t
0
Φ
p
r(x)
p
+ r(x)
t2
+2t+r(x)
r(x)
und
0
r (x) = −
2
1
−
.
x x log(x)
Man setzt diese Ergebnisse oben ein
1 −1
lim log (H(x)) = lim √ e 2
x↓0
x↓0
2π
t2
+2t+r(x)
r(x)
·
− x2 −
1
x log(x)
2r(x)1/2
!
und logarithmiert ein zweites Mal
lim log (− log(H(x))) = lim log √12π −
x↓0
Da
x↓0
lim r(x) = ∞
x↓0
und
lim log(x) = −∞
x↓0
t2
2r(x)
gilt, folgt
= lim − 12 log(2π) − t −
x↓0
−t−
r(x)
2
2
+ log
t
=0
lim 2r(x)
r(x)
2
x↓
2
x
+
und
+ log(2) + log
1
x
1
x log(x)
1
− log 2r(x) 2
1
lim log(x)
=0
x↓0
und somit:
− log(2) − 12 log(r(x))
77
Die drei Extremwertverteilungen
Man kürzt
log(2)
und setzt
r(x)
ein:
= lim − 21 log(2π) − t + log(x) + log(4π)
+ 21 log (− log(x)) + log
2
x↓0
log(x))
− 12 lim −2 log(x) 1 + log(4π)+log(−
2 log(x)
1
x
−
x↓0
Da
1
x
log
= − log(x)
log(x)
ist, kann man
1
Weiters kann man zusammenfassen: −
2
= lim
x↓0
und
log
1
x
kürzen.
1
2
log(2π) + log(4π) =
1
2
log(2).
1
2
log(2) − t + 12 log (− log(x)) − 12 log(2) − 12 log (− log(x)) −
log(x))
− 21 lim log (1 + log(4π)+log(−
2 log(x)
x↓0
Der letzte Summand geht gegen Null, da
ist, kürzen sich alle Terme bis auf
−t
lim
x↓0
log(4π)
2 log(x)
+
log(− log(x))
2 log(x)
= 0.
Wie zu erkennen
weg. Es folgt
lim log (− log (H(x))) = −t
x↓0
und somit
lim (− log (H(x))) = e−t
x↓0
lim (log (H(x))) = −e−t
x↓0
−t
lim H(x) = e−e .
x↓0
1
n
−t
lim Φ an t + a1n
= e−e .
n→∞
x↓0
n
1
zum Typ der GumbelDamit wurde gezeigt, dass die Grenzwertverteilung von Φ an t +
an
Das heiÿt,
lim Φ
√t
r(x)
p
+ r(x)
x
−t
= e−e
oder
Verteilung gehört.
6.5.2 Beispiel 2
In diesem Beispiel geht man wieder von unabhängigen und identisch verteilten Zufallsvariablen
X1 , X2 , . . . aus. Die gemeinsame Verteilungsfunktion F
dichte
f
mit folgender Eigenschaft:
lim f (x)xk+1 = c,
x→∞
78
besitzt eine Wahrscheinlichkeits-
wobei
k≥0
ist.
Anwendungen des Fisher-Tippett-Theorems
Für
t>0
betrachtet man
lim log F
x↓0
t
x1/k
1 !
x
1
t
= lim log F
x↓0 x
x1/k
1
t
f x1/k
· − k1 t x− k −1
= lim
,
t
x↓0
F x1/k
wobei hier wieder die Regel von de l'Hospital verwendet wurde. Da
lim F
x↓0
t
x1/k
=1
gilt,
folgt weiter:
= lim f
t
x1/k
x↓0
t
k+1 x1/k
xk+1
t
k+1 −
t
kx(k+1)/k
1/k k+1
x
1
= lim c − k
x↓0
kt
x(k+1)/k
1
= lim c − k
x↓0
kt
c −k
=− t
k
Somit ist:
lim F
x↓0
Setzt man
x=
t
x1/k
1
x
= e−
c −k
t
k
1
n , dann ergibt sich:
n
lim F n1/k t = e−
c −k
t
k
n→∞
bzw.
lim F
n→∞
c 1/k n
−k
t
= e−t .
n·
k
1
n ≥ 1 die Konstantenfolgen an = n · kc k mit
1/k n
lim F n · kc
t , so sieht man, dass die Grenzwert-
Das heiÿt, wählt man in diesem Beispiel für
k≥0
und
bn = 0
und berechnet
n→∞
verteilung zum Typ der Fréchet-Verteilung gehört.
79
80
Zusammenfassung
Stochastische Prozesse dienen als grundlegendes mathematisches Konzept, um Folgen von
Zufallsexperimenten beschreiben zu können. Ausgehend davon, nach welchen Regeln ein stochastischer Prozess abläuft, kann man verschiedene Typen unterscheiden, wie zum Beispiel
Poisson- oder Erneuerungsprozesse. Dementsprechend ist die Anwendung stochastischer Prozesse in der Praxis auch breit gestreut. In der vorliegenden Arbeit wird gezeigt, wie stochastische Prozesse sowohl diskreter als auch kontinuierlicher Zeit im Bereich der Versicherungsmathematik zum Einsatz kommen können.
Der erste Teil beschäftigt sich mit der Risikotheorie. Man geht von der vereinfachten Annahme aus, dass ein Versicherungsunternehmen Einnahmen in Form von Prämien und Ausgaben für Leistungen aus versicherten Schadensfällen, sogenannte Forderungen, hat. Das
Verhalten der Risikowahrscheinlichkeit, d.h. der Wahrscheinlichkeit einer Versicherung, zahlungsunfähig zu werden, soll genauer untersucht werden. Dazu wird angenommen, dass die
Anzahl der Forderungen, die in einem bestimmten Zeitintervall eintreen, einen stochastischen Prozess kontinuierlicher Zeit bilden. Zunächst wird gezeigt, dass der Poissonprozess
dieses Modell am besten beschreibt. Da man verschiedene Verteilungsfunktionen für die Höhe
der Forderungen verwenden kann, unterscheidet man zwischen kleinen und groÿen Forderungen. In beiden Fällen werden Resultate für das asymptotische Verhalten der Risikowahrscheinlichkeit dargelegt.
Der zweite Teil setzt sich mit der Extremwerttheorie auseinander. Diese für eine Versicherung wichtige Fragestellung versucht, Antwort zu geben, wie häug sogenannte extreme
Ereignisse, wie Erdbeben oder Überutungen, eintreten können. Gegeben sei dazu eine Folge
von Ereignissen, d.h. ein stochastischer Prozess diskreter Zeit. Im nächsten Schritt bildet man
für jedes
n∈N
das Maximum
Mn
der ersten
n
Zufallsvariablen und versucht, eine Beschrei-
bung der Verteilungsfunktion zu nden. Das zentrale Resultat, das Fisher-Tippett-Theorem,
besagt, dass die Verteilungsfunktion der Maxima gegen drei mögliche Verteilungstypen konvergiert. Dies wird anhand von Beispielen belegt.
81
82
Literaturverzeichnis
[1] N. H. Bingham, C. M. Goldie, and J. L. Teugels. Regular Variation. Cambridge University Press, 1987.
[2] Lukas Breiteneder. Summe von Schäden mit heavy tailed Verteilungen unter Berücksich-
tigung von Abhängigkeitsstrukturen, pages 321. Diplomarbeit, Technische Universität
Wien, 2012.
[3] Laurens de Haan. Sample Extremes: An elementary Introduction, pages 161172. Statistica Neerlandica, Volume 30, 1976.
[4] Laurens de Haan and Ana Ferreira. Extreme Value Theory. An Introduction. Springer
Science+Business Media, LLC, 2006.
[5] Paul Embrechts, Claudia Klüppelberg, and Thomas Mikosch. Modelling Extremal Events
for Insurance and Finance. Springer-Verlag Berlin Heidelberg, 2008.
[6] Pierre Frères. Erneuerungsprozesse - Theorie und Anwendungen, pages 119. Diplomarbeit, Universität Wien, 2010.
[7] Georey Grimmett and David Stirzaker. Probability and Random Processes. Third Edi-
tion. Oxford University Press, 2001.
[8] Franz Hofbauer. Wahrscheinlichkeitstheorie 1. Unveröentlichtes Vorlesungsskriptum,
Universität Wien, SS 2008.
[9] Franz Hofbauer. Stochastische Prozesse, Markovketten und Erneuerungsprozesse. Unveröentlichtes Vorlesungsskriptum, Universität Wien, WS 2002/03.
[10] Franz Hofbauer. Wahrscheinlichkeitstheorie 2. Unveröentlichtes Vorlesungsskriptum,
Universität Wien, WS 2006/07.
[11] Samuel Karlin and Howard M. Taylor. A First Course in Stochastic Processes. Second
Edition. Academic Press, Inc., 1975.
[12] M.R. Leadbetter, Georg Lindgren, and Holger Rootzén. Extremes and Related Properties
of Random Sequences and Processes, pages 130. Springer-Verlag New York Inc., 1983.
[13] Matthias Löwe. Extremwerttheorie, pages 140. Vorlesungsskriptum, Westfälische Wilhemsuniversität Münster, WS 2008/09.
83
Literaturverzeichnis
[14] Thomas Mikosch. Non-Life Insurance Mathematics. An Introduction with the Poisson
Process. Springer-Verlag Berlin Heidelberg, 2009.
[15] Alexander Zwirchmayr and Peter Grandits.
Sachversicherungsmathematik, pages 96
123. Vorlesungsskriptum, Technische Universität Wien, 2008.
84
Lebenslauf – Verena Klambauer
KONTAKTDATEN
Adresse:
E-Mail:
2380 Perchtoldsdorf, Gauguschgasse 20
[email protected]
PERSÖNLICHE DATEN
Geburtsdatum und –ort:
Nationalität:
Familienstand:
21.10.1986, Wien
Österreich
ledig
AUSBILDUNG
09/1993 – 06/1997
Volksschule in Perchtoldsdorf, Roseggergasse 2
09/1997 – 06/2005
Bundesgymnasium Perchtoldsdorf, Roseggergasse 2
10/2005 – 01/2007
Studium der Rechtswissenschaften an der Universität Wien,
Abschluss der 1. Diplomprüfung
seit 03/2007
Diplomstudium Mathematik an der Universität Wien,
Studienschwerpunkt: Stochastik
08/2011 – 12/2011
Auslandssemester an der University of Edinburgh, Schottland
BESONDERE KENNTNISSE UND INTERESSEN
Sprachen
Deutsch:
Englisch:
Französisch:
in Wort und Schrift – Muttersprache
in Wort und Schrift – Schulkenntnisse (8 Jahre)
in Wort und Schrift – Schulkenntnisse (6 Jahre)
EDV-Kenntnisse
Windows, MS-Office, MatLab, Mathematica
BERUFSERFAHRUNG
07/2007 – 08/2007
Ferialpraktikum bei Erste Bank, Filiale Perchtoldsdorf
08/2012 – 09/2012
Ferialpraktikum bei Helvetia Versicherungen AG Generaldirektion,
Wien
Herunterladen