DIPLOMARBEIT Titel der Diplomarbeit Stochastische Prozesse in der Versicherungsmathematik verfasst von Verena Klambauer angestrebter akademischer Grad Magistra der Naturwissenschaften (Mag. rer. nat.) Studienkennzahl: A 405 Studienrichtung: Mathematik Betreuer: Ao. Univ.-Prof. Dr. Franz Hofbauer Wien, im Februar 2013 Danksagung Ich möchte mich an dieser Stelle bei Univ.-Prof. Dr. Franz Hofbauer für die intensive Betreuung meiner Diplomarbeit bedanken. In seinen zahlreichen Vorlesungen hat er mir einen breiten Einblick in die Welt der Stochastik vermittelt und mich mit vielen Anregungen und Ratschlägen bei der Erstellung dieser Arbeit unterstützt. Ganz besonders möchte ich meinen Eltern und meiner Schwester danken, denn sie haben mir dieses Studium nicht nur nanziell ermöglicht, sondern mich in meinem Weg immer bestärkt. Sie sind mir stets mit Rat und Tat zur Seite gestanden - nicht zuletzt bei der Fertigstellung dieser Arbeit. Ein groÿes Dankeschön gebührt auch meinem Freund und seiner Mutter, die mich bei meiner Arbeit immer motivierend begleitet haben. Zuletzt möchte ich mich auch bei all meinen Studienkollegen bedanken, die in den letzten Jahren eine groÿe Stütze für mich waren und zu guten Freunden geworden sind. Inhaltsverzeichnis Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Teil 1. Risikotheorie Kapitel 1. Poissonprozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Kapitel 2. Kleine Forderungen 2.1. Grundlagen der Risikotheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.2. Kleine Forderungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 Kapitel 3. Weitere Darstellungsarten der Wahrscheinlichkeit Ψ(a) 3.1. Integralgleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 3.2. Reihendarstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 Ψ(a) . . . . . . . . . . . . . . . . . . . . . 26 3.3. Asymptotisches Verhalten der Wahrscheinlichkeit Kapitel 4. Groÿe Forderungen und subexponentielle Verteilungen 4.1. Groÿe Forderungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 4.2. Subexponentielle Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 Kapitel 5. Beispiele 5.1. Weibullverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 5.2. Verallgemeinerte Paretoverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 5.3. Benktanderverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 5.4. Loggammaverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 Teil 2. Extremwerttheorie Kapitel 6. Die drei Extremwertverteilungen 6.1. Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 6.2. Satz von Khintchine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 6.3. Max-stabile Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 6.4. Fisher-Tippett-Theorem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 6.5. Anwendungen des Fisher-Tippett-Theorems . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 Einleitung Die Theorie über stochastische Prozesse ist ein wichtiges mathematisches Konzept, um Folgen von Zufallsexperimenten beschreiben zu können. Man unterscheidet zwischen stochastischen Prozessen mit diskreter und stochastischen Prozessen mit kontinuierlicher Zeit. Unter einem stochastischen Prozess mit diskreter Zeit versteht man eine Folge von Zufallsvariablen X0 , X1 , X2 , . . . , wobei diese Werte in derselben Menge S annehmen. Die Menge S bezeichnet man als Zustandsraum und Xn als Zustand zum Zeitpunkt n. Der n-malige Münzwurf ist nur eines von vielen Beispielen dafür. Der Zustandsraum besteht hier aus den beiden Ausgängen Kopf und Zahl, das heiÿt S = {Kopf, Zahl}. Xn ist der Ausgang nach dem n-ten Wurf. Unter einem stochastischen Prozess mit kontinuierlicher Zeit versteht man eine Familie von Zufallsvariablen (Xt )t standsraum, annehmen. mit Xt t ∈ R, wobei auch sie Werte in derselben Menge S, dem Zu- bezeichnet man als Zustand zum Zeitpunkt t. Als Beispiel kann der Krankheitsverlauf bei einer Epidemie dienen. Xt ist die Anzahl an Erkrankten zum Zeitpunkt t. Da entweder niemand oder nur eine positive Anzahl von Personen erkrankt sein kann, ist der Zustandsraum durch S = {0, 1, 2, . . .} gegeben. Die hierfür verwendete Literatur ndet sich in [9] und [11]. Im ersten Teil untersuche ich die Anwendung der stochastischen Prozesse in der Versicherungsmathematik, und zwar im Bereich der Risikotheorie. Dazu betrachtet man folgende vereinfachte Situation: Ein Versicherungsunternehmen besitzt Einnahmen in Form von Prämien und Ausgaben für Leistungen aus versicherten Schadensfällen. Die Schadensmeldungen treen zu unabhängigen Zeitpunkten ein und haben eine zufällige Höhe. In diesem Zusammenhang stellt sich die Frage, wie hoch das Risiko für das Versicherungsunternehmen ist, einmal zahlungsunfähig zu werden. Um dem entgegenzuwirken, werden der Deckungsbedarf berechnet und Rücklagen gebildet. Es gilt nun, die Risikowahrscheinlichkeit, d.h. die Wahrscheinlichkeit, dass die Rücklagen in Höhe werden, abzuschätzen. Diese wird mit einem bestimmten Zeitintervall (0, t] Ψ(a) a aufgebraucht bezeichnet. Die Anzahl der Forderungen, die in eintreen, bilden einen stochastischen Prozess kontinu- ierlicher Zeit. Im ersten Kapitel wird zu sehen sein, dass der Poissonprozess am besten dafür geeignet ist, dieses mathematische Konzept zu beschreiben. 1 Einleitung Abhängig davon, welche Verteilungsfunktion man für die Höhe der Forderungen benutzt, unterscheidet man kleine und groÿe Forderungen. Dementsprechend nden sich in Kapitel 2 und Kapitel 4 Resultate, die das asymptotische Verhalten der Risikowahrscheinlichkeit beschreiben. Um diese Wahrscheinlichkeit leichter berechnen zu können, werden in Kapitel 3 eine Integral- und eine Reihendarstellung der Gegenwahrscheinlichkeit K(a) = 1 − Ψ(a) gegeben. Der Aufbau wurde, in weiten Zügen, aus [9] und [10] entnommen. Die wichtigsten Sätze und Begrie nden sich auch in [5] und [14]. Als weitere Grundlage wurden [2] und [15] herangezogen. Die für Kapitel 3 notwendige Theorie über Erneuerungsprozesse kann in [6] und [7] nachgelesen werden. Im zweiten Teil meiner Diplomarbeit werde ich mich mit der Anwendung stochastischer Prozesse in der Extremwerttheorie befassen. Warum man in der Mathematik an Aussagen über extreme Ereignisse interessiert ist, zeigt folgendes Beispiel: Möchte man einen Staudamm bauen, so stellt sich relativ schnell die Frage nach dessen sinnvoller Höhe. Die Berechnungen werden sich nicht an der durchschnittlichen Höhe des Wasserstandes orientieren, sondern an der maximalen Höhe der Flut. Eine wichtige Rolle spielen solche Fragestellungen auch für Versicherungsunternehmen bzw. Banken. In diesem Zusammenhang ist man zum Beispiel an der Wahrscheinlichkeit, wie oft dieser Staudamm in 100 Jahren überutet wird, interessiert. Mithilfe solcher Schätzwerte können unter anderem Sicherheitsreserven festgelegt werden. Extreme Ereignisse wie Überutungen, Erdbeben etc. werden in der klassischen statistischen Analyse oft als Ausreiÿer bezeichnet, teilweise sogar ganz ignoriert. Mithilfe der Extremwertverteilungen kann man heutzutage jedoch Modelle entwickeln, die das Auftreten von extremen Ereignissen gut beschreiben und vorhersagen können. Dabei kommt die Theorie über stochastische Prozesse zur Anwendung. Angenommen, in dem oben beschriebenen Staudamm-Beispiel wird jeden Tag zur selben Zeit der Wasserstand gemessen und det man das Maximum über (Mn )n∈N Xn sei der Wasserstand am Tag n. Anschlieÿend bil- {X1 , X2 , . . . , Xn }, das mit Mn bezeichnet wird. Die Maxima bilden eine neue Folge von Zufallsvariablen, von der man die Grenzwertverteilung für immer gröÿer werdendes n beschreiben möchte. Das zentrale Resultat in diesem Abschnitt ist das Theorem von Fisher-Tippett, das sich mit der Verteilung der Maxima beschäftigt. In diesem Theorem wird gezeigt, dass die Verteilungsfunktion der Maxima gegen drei mögliche Verteilungstypen konvergiert. Abschlieÿend werden einige Beispiele dazu angeführt. Der Aufbau dieses Kapitels orientiert sich im Wesentlichen an [12]. Die wichtigsten Sätze kann man auch in [13] und [15] nachlesen. Weiterführende Literatur und die in diesem Teil verwendeten Begrie nden sich [1], [3] und [4]. 2 Teil 1 Risikotheorie KAPITEL 1 Poissonprozesse Der Poissonprozess ist ein stochastischer Prozess kontinuierlicher Zeit, der nach Siméon Denis Poisson benannt wurde. Er spielt unter anderem in der Versicherungsmathematik eine wichtige Rolle und wird Ausgangspunkt für die Risikotheorie sein, die im weiteren Verlauf dieser Arbeit genauer behandelt wird. In diesem Kapitel werden die wichtigsten Resultate und Eigenschaften von Poissonprozessen hergeleitet. Der Aufbau richtet sich im Wesentlichen nach [9], [10] und [14]. In manchen der nachfolgenden Beweise über Poissonprozesse werden Denitionen und Aussagen aus der elementaren Wahrscheinlichkeitstheorie verwendet. Diese Sätze werden an den entsprechenden Stellen wiederholt, jedoch nicht bewiesen. Hierfür sei auf [8] verwiesen. Denition 1.1. Sei Poisson- oder kurz λ > 0. Eine Zufallsvariable P (λ)-verteilt, X mit Wertebereich R = {0, 1, 2, . . .} falls die Wahrscheinlichkeitsfunktion für P(X = k) = λk k! k∈R heiÿt durch · e−λ gegeben ist. Die allgemeine Denition eines Poissonprozesses lautet: Denition 1.2. funktion von g Sei g : R+ → R+ mit (a) g, G(t) = Rt g(x)dx die Stamm- 0 lim G(t) = ∞. t→∞ Ein stochastischer Prozess wichtsfunktion eine Gewichtsfunktion und (Xt )t≥0 mit kontinuierlicher Zeit heiÿt Poissonprozess mit Ge- wenn gilt: P(X0 = 0) = 1 (b) für 0 < s1 < s2 < . . . < sk (c) für s<t hat Xt − Xs die sind die Zuwächse Xs1 , Xs2 −Xs1 , . . . , Xsk −Xsk−1 unabhängig P (G(t) − G(s))-Verteilung Der Poissonprozess ist ein gutes mathematisches Modell, um Ereignisse zu beschreiben, die unabhängig voneinander zu zufälligen Zeitpunkten eintreten. Um zu sehen, dass dies auch für das Eintreen von Schadensmeldungen bei einer Versicherung gilt, betrachtet man das folgende 5 Poissonprozesse Beispiel. Hierfür werden ein Zeitintervall (0, s] und eine Anzahl r von Schadensmeldungen bei einem Versicherungsunternehmen festgelegt. Jeder Schadensfall tritt zu einem zufälligen Zeitpunkt unabhängig von den anderen ein. Sei g : R+ → R+ g(t) gröÿer eine Gewichtsfunktion. Dann wird ein Zeitpunkt Xt umso eher gewählt, je ist. Die Wahrscheinlichkeit, dass eine Schadensmeldung im Zeitintervall der Versicherung eintrit, soll proportional zu Mit t G(u) − G(v) (Xt )t≥0 bei sein. (0, t] wird die Anzahl der Schadensmeldungen im Intervall gezeigt, dass der stochastische Prozess (u, v] beschrieben. Nun wird die drei Eigenschaften des Poissonprozesses erfüllt. P(X0 = 0) = 1, Es gilt denn im Zeitintervall (0, 0] meldet sich natürlich niemand. Somit ist die Eigenschaft (a) erfüllt. Für die nächsten beiden Eigenschaften wählt man ein wobei s > tk angenommen und k ∈ N mit 0 = t0 < t1 < . . . < tk , tk+1 = s gesetzt wird. Die Wahrscheinlichkeit, dass eine G(ti )−G(ti−1 ) Schadensmeldung in (ti−1 , ti ] eintrit, ist somit pi = für 1 ≤ i ≤ k + 1, da dann G(s) k+1 P pi = 1 gilt. i=1 Seien Zi = Xti − Xti−1 für 1 ≤ i ≤ k + 1 die Zuwächse. Der Vektor (Z1 , Z2 , . . . , Zk+1 ) besitzt die Multinomialverteilung und daher folgt: P (Z1 = n1 , Z2 = n2 , . . . , Zk = nk , Zk+1 = nk+1 ) = Es gilt: n1 + n2 + . . . + nk + nk+1 = r, eintreten. Damit ist aber auch r! nk+1 pn1 1 pn2 2 . . . pnk k pk+1 . n1 !n2 ! . . . nk !nk+1 ! da in dem Zeitintervall Z1 + Z2 + . . . + Zk + Zk+1 = r. (0, s] Da genau Zk+1 r Schadensfälle die auf r fehlende Anzahl ist, kann man es weglassen und erhält somit: P (Z1 = n1 , Z2 = n2 , . . . , Zk = nk ) = = r! (r−n −n −...−nk ) pn1 1 pn2 2 . . . pnk k pk+1 1 2 n1 !n2 ! . . . nk !(r − n1 − n2 − . . . − nk )! = r! n1 !n2 ! . . . nk !(r − n1 − n2 − . . . − nk )! G(t1 ) − G(t0 ) G(s) n1 →1 für alle k∈N und G(s) − G(tk ) G(s) r ∞ gehen, sodass G(s) G(s) k) lim G(s)−G(t = e−G(tk ) , gilt G(s) Nun lässt man sowohl r als auch s gegen r−k G(s) ... gegen (r−n1 −n2 −...−nk ) 1 konvergiert. Da s→∞ P (Z1 = n1 , Z2 = n2 , . . . , Zk = nk ) = k r(r − 1) . . . (r − n1 − . . . − nk + 1) Y n = (G(ti ) − G(ti−1 )) i n1 !n2 ! . . . nk !G(s)n1 +n2 +...+nk i=1 → = k Y 1 n (G(ti ) − G(ti−1 )) i e−G(tk ) n1 !n2 ! . . . nk ! i=1 k n Y (G(ti ) − G(ti−1 )) i i=1 6 ni ! e−(G(ti )−G(ti−1 )) 2 −...−nk G(s) ! r−n1 −n G(s) G(tk ) 1− G(s) Poissonprozesse Die Wahrscheinlichkeiten von Poissonverteilungen mit Parameter durch wλ (k) = λ sind generell gegeben λk −λ . Wie man erkennen kann, zerfällt der Grenzwert in das Produkt k! e k Y P (Z1 = n1 , Z2 = n2 , . . . , Zk = nk ) = wλi (ni ), i=1 mit λi = G(ti ) − G(ti−1 ). P(Zi = n) = wλi (n) für Das heiÿt, die Zuwächse n ∈ N. Z1 , . . . , Z k Die Zufallsvariablen Zi sind unabhängig und haben die P (λi )-Verteilung und erfüllen daher Eigenschaft (b) und (c). (Xt )t≥0 bildet somit einen gewichteten Poissonprozess. Ist die Gewichtsfunktion g konstant, d.h. gilt einem homogenen Poissonprozess. Dann gilt Denition 1.3. (a) für alle G(t) = λt für t ∈ Ein stochastischer Prozess gener Poissonprozess mit Parameter g(t) = λ (Xt )t≥0 λ > 0, t ∈ R+ , spricht man von R+ . Dies führt zu der folgenden mit kontinuierlicher Zeit heiÿt homo- wenn gilt: P(X0 = 0) = 1 (b) für 0 < s1 < s2 < . . . < sk (c) für s<t hat Xt − Xs die sind die Zuwächse Xs1 , Xs2 −Xs1 , . . . , Xsk −Xsk−1 unabhängig P (λ(t − s))-Verteilung Im weiteren Verlauf der Arbeit wird nur mit homogenen Poissonprozessen gearbeitet. Denition 1.4. Unter Zwischenankunftszeiten versteht man die Zeiten zwischen aufein- ander folgenden Schadensfällen bzw. die Zeiten, die zwischen den Schadensmeldungen liegen, vorausgesetzt die Versicherungsnehmer melden Schäden gleich nach Eintritt bei der Versicherung. Dies ermöglicht eine andere Beschreibung von homogenen Poissonprozessen. Zuvor ist jedoch noch folgender Hilfssatz notwendig: Hilfssatz 1.1. Gegeben seien die beiden Zufallsvektoren U = (U1 , U2 , . . . , Un ), wobei V = (V1 , V2 , . . . , Vn ) U1 = V1 , U2 = V2 − V1 , . . ., Un = Vn − Vn−1 und ist. Dann sind folgende Aussagen äquivalent: (a) V hat den Wertebereich D = {(y1 , . . . , yn ) ∈ Rn : 0 < y1 < y2 < . . . < yn } Wahrscheinlichkeitsdichte (b) U hat den Wertebereich f (x1 , . . . , xn ) = g(y1 , . . . , yn ) = (0, ∞)n e−λyn λn , wobei und die g : D → [0, ∞). und die Wahrscheinlichkeitsdichte e−λ(x1 +...+xn ) λn , wobei f : (0, ∞)n → [0, ∞). Für den Beweis braucht man die Transformationsformel für Wahrscheinlichkeitsdichten. 7 Poissonprozesse Satz 1.1. Sei W ⊂ Rn oen, det Dψ(x) 6= 0, ∀x ∈ W . mit scheinlichkeitsdichte h: Rn ψ : W → Rn eine injektive, stetig dierenzierbare Funktion Weiters sei ein n-dimensionaler Zufallsvektor X mit Wahr- → [0, ∞) gegeben und h(x) = 0 für x∈ / W. Für Y = ψ(X) ist dann k(x) = 1ψ(W ) (x)h(ψ −1 (x))| det Dψ −1 (x)| die Wahrscheinlichkeitsdichte des Zufallsvektors Y. Beweis. Der Beweis kann in [8] nachgelesen werden. Damit ist der Hilfssatz leicht bewiesen: Beweis. Um die Transformationsformel für Dichten anzuwenden, braucht man zunächst folgende Matrizen: 1 0 0 ··· 0 -1 0 A= . .. 0 0 1 0 ··· 0 0 0 -1 1 · · · 0 0 . . . . .. . . . . . . . . . 0 0 ··· 1 0 0 0 · · · -1 1 und A−1 1 0 0 ··· 0 0 ··· 0 0 ··· 0 0 . . .. . . . . . ··· 1 0 ··· 1 1 1 1 0 1 1 1 = . . . .. .. .. 1 1 1 1 1 1 Damit kann man die lineare Transformation der Zufallsvektoren U und V wie folgt beschrei- ben: U = AV (a) ⇒ (b) Dann hat Angenommen, U V und V = A−1 U D hat den Wertebereich und die Wahrscheinlichkeitsdichte g. den Wertebereich {Ay : y ∈ D} = {(y1 , y2 − y1 , y3 − y2 , . . . , yn − yn−1 ) : 0 < y1 < . . . < yn } = (0, ∞)n . Die Wahrscheinlichkeitsdichte von ψ(x) = Ax, W = ψ(W ) = (0, ∞)n , U ergibt sich aus der Transformationsformel, indem man ψ −1 (x) = A−1 x und Dψ −1 (x) = A−1 setzt: f (x1 , . . . , xn ) = g(A−1 x)| det(A−1 )| = e−λ(x1 +...+xn ) λn . (b) ⇒ (a) f. Angenommen, Dann hat V U hat den Wertebereich (0, ∞)n und die Wahrscheinlichkeitsdichte den Wertebereich {A−1 x : x ∈ (0, ∞n )} = {(x1 , x1 + x2 , . . . : xi ∈ (0, ∞), 1 ≤ i ≤ n)} = D. Auch hier folgt die Wahrscheinlichkeitsdichte von ψ(y) = A−1 y , W = ψ(W ) = (0, ∞)n , ψ −1 (y) = Ay V und aus der Transformationsformel mit Dψ −1 (y) = A: g(y1 , . . . , yn ) = f (Ay)| det(A)| = e−λyn λn . 8 Poissonprozesse Vor dem zentralen Resultat über Zwischenankunftszeiten wird an dieser Stelle die Denition der Exponentialverteilung wiederholt: Denition 1.5. Sei λ > 0. Eine kontinuierliche Zufallsvariable heiÿt Exponential- oder kurz E(λ)-verteilt, X mit Wertebereich falls die Wahrscheinlichkeitsdichte für R+ x ∈ R+ durch f (x) = λ · e−λx gegeben ist. Satz 1.2. riablen Vi , Gegeben sei ein homogener Poissonprozess mit Parameter wobei 1 ≤ i ≤ n, λ > 0. Die Zufallsva- stellen jeweils die Wartezeit vom Zeitpunkt 0 bis zum Eintreen der i-ten Schadensmeldung dar. Seien U1 = V1 , U2 = V2 − V1 , . . . Un = Vn − Vn−1 die ersten n Zwischenankunftszeiten. Ui mit 1≤i≤n s1 , . . . , sn > 0 und ti = s1 + s2 + . . . + si Dann gilt: Die Zufallsvariablen Beweis. Es seien , 0 < h < min(s1 , . . . , sn ), sind unabhängig und mit E(λ)-verteilt. 1 ≤ i ≤ n. Weiters sei sodass gilt: 0 < t1 − h < t1 < t2 − h < t2 < . . . < tn − h < tn Nun betrachtet man die Zerlegung des Intervalls (0, tn ] in die folgenden 2n Teilintervalle: (0, tn ] = (0, t1 − h] ∪ (t1 − h, t1 ] ∪ . . . ∪ (tn−1 , tn − h] ∪ (tn − h, tn ] Seien Z1 , Z2 , . . . , Z2n−1 , Z2n die Anzahlen an Schadensmeldungen, die in den Intervallen (0, t1 − h], (t1 − h, t1 ], . . . (tn − h, tn ] bei der Versicherung eintreen. Wie man leicht erkennen kann, sind folgende Aussagen äquivalent: (a) Es gilt: Vi ∈ (ti − h, ti ] (b) Es gilt: Z1 = 0, Z2 = 1, Z3 = 0, Z4 = 1, . . . , Z2n−1 = 0, Z2n ≥ 1 mit 1≤i≤n Aus der Denition von homogenen Poissonprozessen folgt, dass die Zuwächse 1 ≤ j ≤ 2n unabhängig und P (λl)-verteilt sind, wobei l Zj mit für die Länge des Intervalls steht. Damit kann man weiters zeigen: P(Vi ∈ (ti − h, ti ], 1 ≤ i ≤ n) = P(Z1 = 0, Z2 = 1, Z3 = 0, Z4 = 1, . . .) = P(Z1 = 0) · P(Z2 = 1) · P(Z3 = 0) . . . P(Z2n ≥ 1) = P(Z1 = 0) · P(Z2 = 1) · P(Z3 = 0) . . . (1 − P(Z2n = 0)) = e−λ(s1 −h) · e−λh · (λh) · e−λ(s2 −h) . . . e−λ(sn −h) · (1 − e−λh ), da die Poisson-Wahrscheinlichkeiten durch P(X = k) = (λl)k −λl gegeben sind. k! e 9 Poissonprozesse Fasst man weiter zusammen, dann folgt: = (λh)n−1 · e−(n−1)(λh) · e−λ(s1 −h)−λ(s2 −h)−...−λ(sn −h) · (1 − e−λh ) = (λh)n−1 · e−(n−1)(λh) · e−λ(s1 +s2 +...+sn −nh) · (1 − e−λh ) = (λh)n−1 · e−(n−1)(λh) · e−λ(tn −nh) · (1 − e−λh ) = (λh)n−1 · e−λ(tn −nh+(n−1)h) · (1 − e−λh ) = (λh)n−1 · e−λ(tn −h) · (1 − e−λh ) = (λh)n−1 · (e−λ(tn −h) − e−λtn ) n−1 = (λh) Ztn · λe−λxn dxn tn −h Zt1 Ztn = λn e−λxn dxn dxn−1 . . . dx1 ... t1 −h tn −h Z = f (x1 , . . . , xn )dxn . . . dx1 , W wobei Da W = (t1 − h, t1 ] × . . . × (tn − h, tn ] 0 < V 1 < V 2 < . . . < Vn , und f (x1 , . . . , xn ) = λn e−λxn . ist der Wertebereich des Zufallsvektors V = (V1 , . . . , Vn ) durch D = {(y1 , . . . , yn ) ∈ Rn : 0 < y1 < . . . < yn } gegeben. Es ist leicht zu erkennen, dass W ⊆ D. R Zusammenfassend wurde gezeigt, dass P(V ∈ W ) = f (x)dx für alle Würfel W mit W ⊆ D W gilt. Somit ist die Funktion f die Wahrscheinlichkeitsdichte von Laut dem obigen Hilfssatz hat der Zufallsvektor V. U = (U1 , U2 , . . . , Un ) den Wertebereich (0, ∞)n und die Dichte g(x1 , x2 , . . . , xn ) = λn e−λ(x1 +...+xn ) = λ · e−λx1 · λ · e−λx2 . . . λ · e−λxn = g1 (x1 ) · . . . · gn (xn ). Da die Dichte jedes 1≤i≤n Parameter λ g(x) des Zufallsvektors in ein Produkt die Funktion zerfällt und für die Wahrscheinlichkeitsdichte der Exponentialverteilung mit ist, folgt aus der elementaren Wahrscheinlichkeitstheorie: Die Zufallsvariablen E(λ)-Verteilung. 10 gi g1 (x1 ) · . . . · gn (xn ) U1 , . . . , U n sind unabhängig und für jedes 1≤i≤n besitzt Ui die KAPITEL 2 Kleine Forderungen 2.1 Grundlagen der Risikotheorie Die grundlegende Idee einer Versicherung besteht in einem Risikotransfer vom Versicherungsnehmer an den Versicherer gegen Zahlung einer Prämie. Tritt nun ein versicherter Schadensfall ein, so kommt es zu Zahlungen seitens des Versicherungsunternehmens. Es wird angenommen, dass die Zeitpunkte, zu denen die Schadensfälle gemeldet werden, einen homogenen Poissonprozess mit Parameter λ>0 bilden. Um weitere Aussagen treen zu können, wird zunächst die grundlegende Notation eingeführt: • Für t>0 sei Nt die Anzahl der Forderungen im Zeitintervall homogener Poissonprozess mit Parameter • Die Zufallsvariablen Ui i-ten Für wird mit (i − 1)-ten kann man von • Yi die Höhe der i-ten E(λ)-verteilt sind. Forderung bezeichnet. Die Forderungen F. Da Forderungen, insbesondere von Geldbeträgen, sicher positiv sind, F (0) = 0 Y1 , Y2 , . . . ausgehen. Zu guter Letzt wird angenommen, dass die Zufalls- unabhängig vom Poissonprozess sind. Die Prämieneinnahmen der Versicherung werden pro Zeiteinheit zusammengefasst und mit • Forderung bis zum Eintreen seien unabhängig und identisch verteilt, d.h. sie besitzen die gleiche Vertei- lungsfunktion variablen ist ein Forderung betrachtet. i ≥ 1 Y1 , Y2 , . . . (Nt )t≥0 stellen die Zwischenankunftszeiten in diesem Poissonprozess Aus Satz 1.2. folgt, dass diese unabhängig und • d.h. λ > 0. dar, d.h. es wird die Zeit vom Eintreen der der (0, t], c>0 bezeichnet. Nun lässt sich der Gewinn der Versicherung in (0, t] als Dierenz der Einnahmen und Ausgaben folgendermaÿen darstellen: Xt = (c · t) − Nt P Yi i=1 11 Kleine Forderungen • Die Rücklagen bilden den Sicherheitspolster der Versicherung für Zeiten erhöhter Ausgaben. Dieser sei mit Der Gewinn Xt a bezeichnet. kann auch negativ sein und somit für die Versicherung einen Verlust darstellen. Für diesen Fall stellt sich die Frage, ob die Rücklagen a groÿ genug sind, und mit welcher Wahrscheinlichkeit die Ausgaben die Rücklagen übersteigen. Denition 2.1. Die folgende Wahrscheinlichkeit Ψ(a) = P(Xt < −a für ist das Risiko, dass der Verlust die Rücklagen übersteigt. Man kann t Zeitpunkt Ψ(a) a ein t > 0) der Versicherung zu irgendeinem Zeitpunkt auch als das Risiko des Versicherungsunternehmens, zu einem zahlungsunfähig zu werden, interpretieren. Im weiteren Verlauf der Arbeit wird das Verhalten von (Xt )t≥0 noch ein Resultat über den Prozess E(Xt ), µ F untersucht. Doch zuvor sei angeführt. Berechnet wird der Erwartungswert d.h. der durchschnittliche Gewinn im Intervall Der Erwartungswert der Verteilung Ψ(a) (0, t]. - die durchschnittliche Höhe der Forderungen - sei mit bezeichnet. Satz 2.1. Sei Bemerkung. t > 0. E(Xt ) = (c − λµ)t. Dann gilt: Folgende Eigenschaft von Erwartungswerten wird im Beweis verwendet und kann in [8] nachgelesen werden: Der Erwartungswert einer Zufallsvariablen E(X) = R∞ R0 P(X ≤ t)dt. −∞ + besitzt einen Wertebereich in R . Dann ist R∞ und aus obiger Gleichung folgt, dass E(X) = P(X > t)dt gilt. 0 Angenommen, die Zufallsvariable t<0 lässt sich auch schreiben als P(X > t)dt − 0 für X Beweis. Für t>0 X sei Zt = Nt P Yi wenn Nt > 0 i=1 0 wenn . Nt = 0 Dann gilt (1) P(Zt > x) = = (2) = ∞ X P(Y1 + Y2 + . . . + Yk > x|Nt = k) · P(Nt = k) k=0 ∞ X k=0 12 P(Zt > x|Nt = k) · P(Nt = k) k=0 ∞ X P(Y1 + Y2 + . . . + Yk > x) · P(Nt = k), P(X ≤ t) = 0 Grundlagen der Risikotheorie wobei in Gleichung (1) die Formel für die totale Wahrscheinlichkeit und in Gleichung (2) die Unabhängigkeit von Y1 , Y2 , . . . Y1 + Y2 + . . . + Yk und somit auch Zt und Nt verwendet wurde. Da die Zufallsvariablen positive Werte annehmen und daher einen Wertebereich in R+ haben, kommt obige Bemerkung zum Tragen, und man erhält folgende Gleichungen: Z∞ E(Y1 + Y2 + . . . + Yk ) = P(Y1 + Y2 + . . . + Yk > x)dx und 0 Z∞ E(Zt ) = P(Zt > x)dx. 0 Weiters gilt, dass alle Summanden in der obigen Summe nichtnegativ sind. Daher kann man obige Gleichung von 0 bis ∞ integrieren und anschlieÿend Summe und Integral vertauschen: Z∞ E(Zt ) = P(Zt > x)dx 0 = = Z∞ X ∞ P(Y1 + Y2 + . . . + Yk > x) · P(Nt = k)dx 0 k=0 ∞ X E(Y1 + Y2 + . . . + Yk ) · P(Nt = k) k=0 = ∞ X kµ · P(Nt = k) = µ ∞ X k · P(Nt = k) k=0 k=0 = µE(Nt ) = µλt Im letzten Schritt wurde verwendet, dass der Erwartungswert von gilt, da Nt die P (λt)-Verteilung besitzt. Da Xt = ct − Zt , Nt gleich (λt) ist. Dies folgt E(Xt ) = ct − E(Zt ) = ct − µλt = (c − λµ)t. Voraussetzung für das Überleben des Versicherungsunternehmens ist ein positiver Durchschnittsgewinn, d.h. E(Xt ) soll gröÿer Null sein. Daher wird angenommen, dass gilt. Führt man einen neuen Parameter ρ= c λµ −1 (c − λµ) > 0 ein, so ist die Annahme äquivalent zu ρ > 0. Für die folgende Untersuchung von Ψ(a) müssen die oben eingeführten Notationen erweitert werden: • Man setzt Vi = Yi − cUi für i ≥ 1. Das ist die Dierenz zwischen der Höhe der Forderung und den Prämieneinnahmen zwischen i-ten (i−1)-ter und i-ter Schadensmeldung. 13 Kleine Forderungen • Mit Sk wird die Summe der V1 , . . . , V k bezeichnet: Sk = k P Vi i=0 Da es sich sowohl bei Y1 , Y2 , . . . handelt, sind somit die Zufallsvariablen Wie bereits oben erwähnt, sind alle gemeinsame Verteilungsfunktion E(λ)-Verteilung U1 , U2 , . . . als auch bei F. V1 , V2 , . . . Yi , mit Sei Tk = als Funktion dieser auch unabhängig. i ≥ 1, identisch verteilt, d.h. sie haben eine Dies gilt auch für die besitzt. Somit kann man auch für alle lungsfunktion angeben, die in weiterer Folge mit • k P Ui um unabhängige Zufallsvariablen G Ui , mit i ≥ 1, V1 , V2 , . . . wobei jedes Ui die eine gemeinsame Vertei- bezeichnet wird. der Zeitpunkt der k-ten Forderung. Somit gilt für k ≥ 1: i=0 XTk = cTk − k P Yi = − i=1 k P Vi = −Sk i=0 Nimmt man vereinfachend an, dass die Forderungen der Versicherten sofort zu Auszahlungen seitens des Versicherungsunternehmens führen, so nimmt der Prozess Zeitpunkten T1 , T2 , . . . Xt seine Minima in den an. Damit folgt: Ψ(a) = P(XTk < −a = P(Sk > a für ein für ein k ≥ 1) k ≥ 1) = P(sup Sk > a) k≥1 Sei K(a) = 1 − Ψ(a) die Gegenwahrscheinlichkeit, dann gilt: K(a) = P(sup Sk ≤ a) k≥1 2.2 Kleine Forderungen Angenommen, die Verteilungsfunktion F lichkeitsdichte, die in weiterer Folge mit sind, ist f (x) = 0 Denition 2.2. existieren, sodass für alle der Forderungen f (Yi )i≥1 besitzt eine Wahrschein- bezeichnet wird. Da Forderungen immer positiv x ≤ 0. Man spricht von kleinen Forderungen, wenn ein f (x) ≤ e−vx für jedes x≥d v >0 und ein d>0 gilt. Mit anderen Worten: Die Wahrschein- lichkeit, dass groÿe Forderungen bei der Versicherung eintreen, ist gering. Um Aussagen über das Verhalten von Ψ(a) treen zu können, braucht man die momenter- zeugenden Funktionen der Zufallsvariablen Yi , Ui und Vi für i ≥ 1. Die allgemeine Denition von momenterzeugenden Funktionen wird an dieser Stelle wiederholt: 14 Kleine Forderungen Denition 2.3. Für eine beliebige Zufallsvariable DX := {t ∈ R : E(etX ) < ∞}. X sei folgende Menge gegeben: Dabei handelt es sich um die Menge aller t ∈ R, für die E(etX ) existiert. Die momenterzeugende Funktion ist deniert durch: mX : DX → R mX (t) = E(etX ) X Wenn eine Dichte f besitzt, dann gilt R∞ mX (t) = etx f (x)dx für t ∈ DX . −∞ Da eine Wahrscheinlichkeitsdichte tion der Zufallsvariablen Yi für f i≥1 vorausgesetzt wurde, ist die momenterzeugende Funk- durch mF (t) = E(etYi ) = R∞ etx f (x)dx = −∞ gegeben. Liegt ein mF (t) = R∞ v>0 zu etx f (x)dx 0 wie in Denition 2.2. vor, dann gilt: etx f (x)dx ≤ 0 Da R∞ Rd etx f (x)dx + 0 R∞ etx e−vx dx = Rd etx f (x)dx + 0 d R∞ ex(t−v) dx d mF (t) endlich sein soll, ist nun die Summe der beiden Integrale in der obigen Ungleichung Rd tx betrachten. Für den ersten Summanden gilt: e f (x)dx < ∞. Der zweite Summand ist 0 genau dann endlich, wenn äquivalent t<v sein. Damit ist Die Zufallsvariablen keitsdichte x(t − v) < 0. U1 , U2 , . . . f (x) = λ · mF (t) x positive Werte annimmt, muss x ∈ t ∈ (−∞, u), deniert für E(λ)-verteilt sind e−λx für Da wobei (t − v) < 0 oder 0 < u ≤ ∞. und besitzen somit die Wahrscheinlich- R+ . Die momenterzeugende Funktion ist daher laut Denition durch mE (t) = E(etUi ) = R∞ etx λe−λx dx = λ 0 gegeben. Auch hier muss valent t < λ. R∞ ex(t−λ) dx = 0 λ λ−t mE (t) endlich sein. Dies gilt genau dann, wenn (t−λ) < 0 oder äqui- Daraus folgt, dass Funktion der Zufallsvariablen mE (t) für V1 , V2 , . . . Z∞ mG (t) = t ∈ (−∞, λ) deniert ist. Die momenterzeugende ist gegeben durch: etx dG(x) = E(etVi ) −∞ = E(etYi −ctUi ) = E(etYi ) · E(e−ctUi ) = mF (t) · mE (−ct) = mF (t) · für t ∈ (− λc , u), λ , λ + ct wobei die Tatsache verwendet wurde, dass die Zufallsvariablen Yi und Ui unabhängig sind. Die Gestalt der momenterzeugenden Funktion mG lässt sich aber noch näher bestimmen. Dafür wird folgender Satz aus der elementaren Wahrscheinlichkeitstheorie verwendet: 15 Kleine Forderungen Satz 2.2. Sei X eine Zufallsvariable mit 0 ∈ DX . Dann gilt: (k) E(X k ) = mX für k ≥ 1, d.h. es existieren alle Momente. Für die Zufallsvariablen mG (0) = (1) 0 mF (0) λλ = V1 , V2 , . . . E(e0 ) ist 0 ∈ DVi = (− λc , u). Mit Satz 2.2. folgt nun: =1 mG (0) = E(Vi ) = E(Yi ) − cE(Ui ) = µ − λc = −ρµ < 0 R∞ 2 tx 00 mG (t) = x e dG(x) > 0 für t ∈ (− λc , u) (2) (3) −∞ Daraus kann man schlieÿen: (1) mG geht durch den Punkt (2) mG hat in (3) mG ist konvex auf dem Intervall (0|1) (0|1) negativen Anstieg (− λc , u) Es existieren somit zwei Möglichkeiten, wie der Graph mG (t) aussehen kann. Diese sind in der folgenden Abbildung 2.1. dargestellt. mG (t) mG (t) 1 1 t 0 − λc R t u R = sup{r ∈ (0, u) : mG (r) ≤ 1}. Behauptung: Weiters ist Für u<∞ Für u = ∞ F (α) < 1 Dieser Parameter existiert, da die Menge nicht leer ist. R < ∞. ist diese Aussage trivial. folgt die Behauptung wegen und lim mG (t) = ∞. t→∞ 1 − G(0) = P(Vi > 0) ≥ P(Yi > α)P(Ui ≤ Dies gilt, da es ein α c) α > 0 = (1 − F (α))(1 − e− λα c mit )>0 + aus R mit G(0) < 1 existieren a und b 0 < a < b und G(b) − G(a) > 0. Daraus Rb tx mG (t) ≥ e dG(x) ≥ eta (G(b) − G(a)). Mit lim etx = ∞ für x > 0 ergibt sich: gibt. Wegen folgt, dass u=R mG (t) Abbildung 2.1: Darstellungen von Sei 0 − λc t→∞ a lim mG (t) ≥ lim eta (G(b) − G(a)) = ∞. t→∞ t→∞ Mit Hilfe des Parameters 16 R ist nun eine Abschätzung der Wahrscheinlichkeit Ψ(a) möglich. Kleine Forderungen Satz 2.3. Es gilt Ψ(a) ≤ e−Ra für a > 0. Beweis. Zunächst deniert man folgende Wahrscheinlichkeiten: für n ≥ 1. ( Ereignis Da die Ereignisse max Sk > a für 1≤k≤n n → ∞ 1≤k≤n monoton wachsend gegen das ) sup Sk > a streben, folgt aus dem Stetigkeitssatz: k≥1 Ψn (a) es ausreichend, eine Abschätzung für Sei Ψn (a) = P max Sk > a r ∈ (0, u) mit mG (r) ≤ 1. Für alle lim Ψn (a) = Ψ(a). n→∞ Daher ist zu geben. a>0 erhält man mit Hilfe der Markov-Ungleichung: Ψ1 (a) = P(S1 > a) = P(V1 > a) ≤ 1 rV1 ) era E(e = e−ra mG (r) ≤ e−ra Die weiterführende Idee besteht darin, einen Induktionsbeweis zu führen. Daher wird angenommen, dass Ψn (a) ≤ e−ra für Für den Induktionsschritt ist a>0 gilt. Ψn+1 (a) ≤ e−ra zu zeigen. Dazu schreibt man Ψn+1 (a) als Summe Ψn+1 (a) = P(S1 > a) + P S1 ≤ a, max Sk > a 2≤k≤n+1 und schätzt beide Summanden separat ab. R∞ P(S1 > a) = P(V1 > a) = (1) Es gilt: dG(x) ≤ a folgt daraus, dass e−r(a−x) ≥ 1 e−r(a−x) dG(x). Die letzte Ungleichung a x ∈ [a, ∞) für R∞ ist. (2) Für die Abschätzung des zweiten Summanden deniert man S̃k := k P Vi für k≥2 und i=2 bezeichnet mit H die Verteilungsfunktion der Zufallsvariable man bildet dieses Maximum aus den Zufallsvariablen max S̃k . 2≤k≤n+1 auch Da V2 , V3 , . . . max S̃k 2≤k≤n+1 max Sk . 1≤k≤n V2 , V3 , . . . , Vn+1 , V1 die Verteilungsfunktion und so erhält man unabhängige und gleichverteilte Zufallsvariablen sind, besitzt H. V1 , max S̃k Im nächsten Schritt wird die Verteilungsfunktion des Zufallsvektors ermittelt. Da Angenommen max S̃k 2≤k≤n+1 2≤k≤n+1 voneinander unabhängig sind, ist diese durch (x, y) 7→ G(x)H(y) gegeben. Für B = {(x, y) ∈ R2 : x ≤ a, y > a − x} P S1 ≤ a, max Sk > a = P V1 ≤ a, V1 + 2≤k≤n+1 erhält man: max S̃k > a 2≤k≤n+1 =P V1 , max S̃k 2≤k≤n+1 Za Z∞ ∈B dH(y)dG(x) = −∞ a−x Za = P −∞ Za max Sk > a − x dG(x) = Ψn (a − x)dG(x) 1≤k≤n −∞ 17 Kleine Forderungen Za ≤ e−r(a−x) dG(x), −∞ wobei in der letzten Ungleichung die Induktionsannahme verwendet wurde. Mit Hilfe der beiden Abschätzungen kann man nun den Induktionsschritt zu Ende führen: Za Ψn+1 (a) ≤ −r(a−x) e Z∞ dG(x) + −∞ e −r(a−x) Z∞ dG(x) = −∞ a = e−ra Z∞ e−r(a−x) dG(x) erx dG(x) = e−ra mG (r) ≤ e−ra , −∞ wobei auch hier verwendet wurde, dass Ψn (a) ≤ e−ra für a>0 Da laut Denition und alle n≥1 mG (r) ≤ 1 ist. Zusammenfassend wurde gezeigt, dass gilt. R = sup{r > 0 : mG (r) ≤ 1} ist, folgt: Ψ(a) = lim Ψn (a) ≤ e−Ra . n→∞ Dieser Satz liefert eine gewünschte Abschätzung für die Risikowahrscheinlichkeit. Er besagt, dass meter 18 Ψ(a) R>0 bei einer Erhöhung der Rücklagen a exponentiell abnimmt, wobei der Para- Einuss auf die Geschwindigkeit der Abnahme hat. KAPITEL 3 Weitere Darstellungsarten der Wahrscheinlichkeit Ψ(a) 3.1 Integralgleichung Für die weitere Untersuchung der Risikowahrscheinlichkeit genwahrscheinlichkeit mit k ≥ 1, so gilt K(a) = 1 − Ψ(a). Deniert man M Ψ(a) betrachtet man deren Ge- als das Supremum über alle Sk K(a) = P(M ≤ a). Nun kann das Problem auftreten, dass riablen selber den Wert ∞ annimmt. Da variablen mit Erwartungswert µ− c λ M als Supremum von unendlich vielen Zufallsva- V1 , V2 , . . . = −ρµ < 0 unabhängige und gleich verteilte Zufalls- sind, kommt das starke Gesetz der groÿen Zahl zur Anwendung: P Da lim 1 Sk k→∞ k = −ρµ lim 1 Sk k→∞ k gilt, folgt somit Damit wurde gezeigt, dass = −ρµ lim Sk = −∞ k→∞ P(M < ∞) = 1 =1 und daraus auch M = sup Sk < ∞. k≥1 gilt und M eine echte Zufallsvariable ist. K hat daher die Eigenschaften einer Wahrscheinlichkeitsverteilung. Der nächste Satz beinhaltet eine Integralgleichung für die Verteilungsfunktion Satz 3.1. K. Sei h(x) = gegeben. Dann ist h 1 (1 − F (x)) µ für x≥0 0 für x<0 eine Wahrscheinlichkeitsdichte und für die Verteilungsfunktion λµ λµ + K(a) = 1 − c c K folgt: Za K(a − y)h(y)dy 0 für alle a > 0. 19 Weitere Darstellungsarten der Wahrscheinlichkeit Beweis. Da F eine Verteilungsfunktion ist, gilt gleich Null. Der Erwartungswert von R∞ µ = (1 − F (x))dx. F Ψ(a) 0 ≤ F (x) ≤ 1 ist wieder durch µ und somit ist h gröÿer oder gegeben, das heiÿt Daraus folgt: 0 Z∞ Z∞ h(x)dx = h(x)dx = −∞ h Die Funktion Z∞ 0 1 (1 − F (x))dx = 1 µ 0 erfüllt somit alle Bedingungen einer Wahrscheinlichkeitsdichte. S̃k = V2 + V3 + . . . + Vk Für den nächsten Teil des Beweises deniert man und M̃ = sup S̃k . Da die Zufallsvariablen V2 , V3 , . . . für k ≥ 2 unabhängig sind und alle die gleiche k≥2 Verteilung G haben, besitzt M̃ = sup S̃k wie M = sup Sk k≥2 grund der Unabhängigkeit der Zufallsvariablen Zufallsvektors (M̃ , Y1 , U1 ) lungsfunktion der Mit u>0 und durch B = {(x, y, z) ∈ M̃ , Y1 und U1 (x, y, z) 7→ K(x)F (y)L(z) E(λ)-Verteilung R3 die Verteilungsfunktion K. Auf- k≥1 ist die Verteilungsfunktion des gegeben, wobei L für die Vertei- steht. : y ≤ u + cz, x ≤ u − y + cz} erhält man: ! K(u) = P(M ≤ u) = P S1 ≤ u, sup Sk ≤ u k≥2 = P(V1 ≤ u, V1 + M̃ ≤ u) = P(Y1 − cU1 ≤ u, Y1 − cU1 + M̃ ≤ u) = P((M̃ , Y1 , U1 ) ∈ B) Z∞ u+cz Z u−y+cz Z dK(x)dF (y)dL(z) = −∞ −∞ Z∞ u+cz Z −∞ K(u − y + cz)dF (y)λe−λz dz = 0 0 Indem man eine neue Integrationsvariable Z∞ Zt = u Deniert man nun für u≥0 und t = u + cz einführt, folgt weiter: λ 1 K(t − y)dF (y)λe− c (t−u) dt c 0 t≥0 die Funktion gilt: K(u) = R∞ u 20 λ g(u, t) = λc e− c (t−u) g(u, t)dt. Rt 0 K(t − y)dF (y), so Integralgleichung Für s 6= 0 erhält man: ∞ Z Z∞ K(u + s) − K(u) 1 g(u + s, t)dt − g(u, t)dt = s s 1 = s u u+s Z u+s ∞ Z 1 g(u + s, t)dt − s 1 g(u + s, t)dt − s u =− 1 s u u+s Z g(u, t)dt u 1 s g(u + s, t)dt + Z∞ Z∞ (g(u + s, t) − g(u, t)) dt u u Weiters besteht folgende Beziehung: λ λ g(u + s, t) = e− c (t−u−s) c Zt K(t − y)dF (y) 0 λ λ λ = e− c (t−u)+ c s c Zt K(t − y)dF (y) 0 =e λ s c g(u, t) Damit folgt u+s u+s Z Z λ s c g(u, t)dt g(u + s, t)dt = e u und aufgrund der rechtsseitigen Stetigkeit von 1 lim s→0 s u t 7→ g(u, t) gilt u+s u+s Z Z λ 1 g(u + s, t)dt = lim e c s g(u, t)dt = g(u, u). s→0 s u u Man erhält auch folgende Gleichung: 1 1 λs (g(u + s, t) − g(u, t)) = e c g(u, t) − g(u, t) s s 1 λ s c = e − 1 g(u, t) s und somit Z∞ lim s→0 u 1 1 λs (g(u + s, t) − g(u, t)) dt = lim ec − 1 s→0 s s Z∞ u λ g(u, t)dt = c Z∞ g(u, t)dt. u 21 Weitere Darstellungsarten der Wahrscheinlichkeit Ψ(a) Damit ist es möglich, die Ableitung der Funktion K an der Stelle u anzugeben: K(u + s) − K(u) s u+s Z Z∞ 1 1 g(u + s, t)dt + (g(u + s, t) − g(u, t)) dt = lim − s→0 s s 0 K (u) = lim s→0 u = −g(u, u) + u λ c Z∞ g(u, t)dt = −g(u, u) + λ K(u) c u Um die letzte Gleichung weiter zu vereinfachen, kann man wird wieder angenommen, dass λ g(u, u) = c F g(u, u) eine Wahrscheinlichkeitsdichte partiell integrieren. Dafür f besitzt. Zu K(u − y)dF (y) 0 u λ Zu 0 λ = K(u − y) (F (y) − 1) + K (u − y) (F (y) − 1) dy c c 0 0 λ λ λ = K(0) (F (u) − 1) − K(u) (F (0) − 1) + c c c Zu 0 K (u − y) (F (y) − 1) dy 0 = λ λ λ K(0) (F (u) − 1) + K(u) + c c c Zu 0 K (u − y) (F (y) − 1) dy 0 Im nächsten Schritt setzt man dieses Ergebnis in die Ableitung der Verteilungsfunktion ein und ersetzt (F (y) − 1) 0 durch K (u) = −g(u, u) + K −µh(y): λ K(u) c Zu λ λ λ λ 0 = K(0)µh(u) − K(u) + K (u − y)µh(y)dy + K(u) c c c c 0 Zu λµ 0 = K(0)h(u) + K (u − y)h(y)dy c 0 Integriert man obige Gleichung von manden, so ergibt sich: 22 0 bis a und vertauscht die Integrale im zweiten Sum- Integralgleichung Za Za Zu 0 0 λµ 0 K(0) h(u)du + K (u − y)h(y)dydu c 0 0 0 Za Za Za λµ 0 = K(0) h(u)du + K (u − y)duh(y)dy c 0 0 y a Z Za λµ K(0) h(u)du + (K(a − y) − K(0)) h(y)dy = c K(a) − K(0) = = λµ c Za K(a − y)h(y)dy 0 Dieses Ergebnis entspricht im Wesentlichen der gesuchten Formel, jedoch muss noch der Wert von K(0) bestimmt werden. Dazu wird lim Ra a→∞ 0 K(a − y)h(y)dy berechnet. Dies erfolgt in zwei Schritten: • Abschätzung nach oben: Da x∈R K eine Verteilungsfunktion und somit K(x) ≤ 1 für alle ist, gilt: Za Z∞ Za K(a − y)h(y)dy ≤ 0 h(y)dy ≤ 0 h(y)dy = 1, 0 wobei die letzte Gleichung aus der Tatsache folgt, dass h eine Wahrscheinlichkeitsdichte ist. • Abschätzung nach unten: Die wesentliche Eigenschaft, die hier einieÿt, ist die Monotonie der Verteilungsfunktion K: a Za Za Z2 K(a − y)h(y)dy = 0 K(a − y)h(y)dy + K(a − y)h(y)dy a 2 0 a Z2 ≥ K(a − y)h(y)dy 0 a Z2 ≥ K a 2 h(y)dy 0 23 Weitere Darstellungsarten der Wahrscheinlichkeit Da sowohl lim K(x) = 1 x→∞ als auch Rx lim x→∞ 0 Ψ(a) h(y)dy = 1 gilt, folgt a a Z2 K lim a→∞ a 2 h(y)dy = lim K a Z2 h(y)dy = 1 2 a→∞ 0 0 und damit Za K(a − y)h(y)dy ≥ 1. lim a→∞ 0 lim Zusammenfassend wurde gezeigt, dass Wenn man nun in obiger Gleichung äquivalent a Ra a→∞ 0 gegen K(a − y)h(y)dy = 1. ∞ gehen lässt, erhält man 1 − K(0) = λµ c oder λµ c , womit die gesuchte Formel bewiesen ist. K(0) = 1 − 3.2 Reihendarstellung In diesem Abschnitt wird mit Hilfe der Integralgleichung eine Reihendarstellung für K(a) angegeben und anschlieÿend bewiesen. Satz 3.2. Gegeben sei h(x) = und H(t) = Rt h(x)dx für 1 (1 − F (x)) µ für x≥0 0 für x<0 t ∈ R. −∞ Setzt man H1 (t) = H(t) und R∞ Hk+1 (t) = Hk ∗ H(t) = Hk (t − y)dH(y) für k ≥ 1 und −∞ t ∈ R, dann gilt: K(a) = ρ ρ+1 Beweis. Zunächst deniert man q < 1. ∞ P 1+ k=1 q := 1 1+ρ 1 H (a) (1+ρ)k k = mit a > 0. λµ c . Da laut Voraussetzung Weiters bezeichnet man die Wahrscheinlichkeitsdichten von Hk mit ρ > 0 hk , wobei Aufgrund der Tatsache, dass die Dichten für negative Werte gleich Null sind, folgt: Zx hk (x − y)h(y)dy hk+1 (x) = 0 Zx hk (y)h(x − y)dy = 0 24 gilt, ist k ≥ 1. Reihendarstellung Im nächsten Schritt wird für a>0 k per Induktion nach 2 K(a) = (1 − q)(1 + qH1 (a) + q H2 (a) + . . . + q k−1 folgende Gleichung gezeigt: Hk−1 (a)) + q k Za K(a − y)hk (y)dy (3.1) 0 Für k=1 ergibt der Induktionsanfang: λµ (1 − )·1 + q c Za λµ λµ )+ K(a − y)h1 (y)dy = (1 − c c Za K(a − y)h(y)dy 0 0 = K(a), wobei der letzte Schritt aus Satz 3.1. folgt. Angenommen, die Gleichung wurde für Um die Formel für k+1 k bereits gezeigt. zu erhalten, muss zuerst Folgendes bewiesen werden: Za Za K(a − y)hk (y)dy = (1 − q)Hk (a) + q 0 0 Dafür wird die Formel aus Satz 3.1. auf K(a − y) = 1 − q + q K(a − y)hk+1 (x)dx a−y R K(a − y) K(a − y − z)h(z)dz angewendet und das Ergebnis eingesetzt: 0 Za Za K(a − y)hk (y)dy = 0 Za (1 − q)hk (y)dy + 0 Führt man die neue Integrationsvariable 0 x=z+y a−y Z q K(a − y − z)h(z)dzhk (y)dy 0 ein, so folgt weiter: Za Za K(a − x)h(x − y)hk (y)dxdy = (1 − q)Hk (a) + q 0 y Im nächsten Schritt vertauscht man die Integrale: Za = (1 − q)Hk (a) + q Zx K(a − x) 0 h(x − y)hk (y)dydx 0 Za = (1 − q)Hk (a) + q K(a − x)hk+1 (x)dx. 0 25 Weitere Darstellungsarten der Wahrscheinlichkeit Ψ(a) Der Induktionsschritt erfolgt nun relativ schnell: K(a) = (1 − q) 1 + k−1 X ! i q Hi (a) +q k Za K(a − y)hk (y)dy i=1 = (1 − q) 1 + 0 k−1 X ! q i Hi (a) + q k (1 − q)Hk (a) + q i=1 = (1 − q) 1 + Za K(a − x)hk+1 (x)dx 0 k−1 X ! i k + (1 − q)q Hk (a) + q q Hi (a) k+1 i=1 = (1 − q) 1 + K Za K(a − x)hk+1 (x)dx 0 k X ! q i Hi (a) + q k+1 i=1 Da Za K(a − x)hk+1 (x)dx 0 eine Verteilungsfunktion und h eine Wahrscheinlichkeitsdichte ist, gilt weiters folgende Abschätzung: 0≤q Za k K(a − y)hk (y)dy ≤ q 0 k Za hk (y)dy ≤ q k 0 und somit lim q k Za K(a − y)hk (y)dy = 0. k→∞ 0 Bildet man in Formel (3.1) den Limes für k → ∞, K(a) = (1 − q) 1 + so erhält man: ∞ X ! k q Hk (a) . k=1 3.3 Asymptotisches Verhalten der Wahrscheinlichkeit Ψ(a) In diesem Abschnitt wird das zentrale Resultat der Theorie über Erneuerungsprozesse, der sogenannte Erneuerungssatz, zu Hilfe gezogen, um eine Abschätzung für das asymptotische Verhalten der Risikowahrscheinlichkeit Ψ(a) anzugeben. Unter Erneuerungsprozessen versteht man stochastische Prozesse, die die fortlaufende Erneuerung von Maschinen, Werkzeugen, Glühbirnen etc. beschreiben. Die Zwischenankunftszeiten (Lebensdauer) sind unabhängig und identisch verteilt. Denition 3.1. wenn 26 F (t) = 0 Eine Verteilungsfunktion für t<0 und F (0) < 1. F bezeichnet man als Lebensdauerverteilung, Asymptotisches Verhalten der Wahrscheinlichkeit (Zi )i≥1 Sei erverteilung eine Folge von Zufallsvariablen, die unabhängig sind und alle die Lebensdau- F haben. Sie stellen somit die Zwischenankunftszeiten dar. Y0 = 0 Weiters sei Ψ(a) und Yn = n P Zi für n ≥ 1. (Yn )n≥0 Der Prozess heiÿt i=1 Erneuerungspro- zess mit Lebensdauerverteilung F, wobei Yn den n-ten Erneuerungszeitpunkt angibt. Folgende Begrie werden im Erneuerungssatz verwendet und werden daher an dieser Stelle wiederholt: Denition 3.2. Eine Funktion f heiÿt regulär, wenn lim f (x) x↓y lim f (x) und x↑y für alle y exis- tieren. Eine Funktion f heiÿt linksregulär, wenn zusätzlich gilt: lim f (x) = f (y) x↑y Eine Funktion f heiÿt rechtsregulär, wenn zusätzlich gilt: lim f (x) x↓y Denition 3.3. F = f (y) für alle y. Rt A(t − x)dF (x) heiÿt Erneue−∞ eine Lebensdauerverteilung ist, und die Funktionen A und a auf Eine Gleichung der Form rungsgleichung, wobei für alle y. A(t) = a(t) + R+ deniert sind. Die letzte Denition, die für den Erneuerungssatz relevant ist, behandelt die Gitterverteilung: Denition 3.4. d>0 und Eine Verteilungsfunktion cn ≥ 0 Gitterweite und für cn n∈Z µ= nennt man Gitterverteilung, wenn ein existieren, sodass als Sprunghöhe im Punkt Satz 3.3 (Erneuerungssatz). R∞ F F (t) = nd P cn 1[nd,∞) (t) gilt. Dabei wird n∈Z bezeichnet. Gegeben seien eine Lebensdauerverteilung F d als mit xdF (x) < ∞ und eine Funktion a : [0, ∞) → R, die eine endliche Linearkombination −∞ Ist die Funktion A : [0, ∞) → R Erneuerungsgleichung A(t) = a(t) R∞ ai (x)dx < ∞ ist. 0 eine auf kompakten Intervallen beschränkte Lösung der Rt + A(t − x)dF (x), dann unterscheidet man folgende −∞ von positiven, monoton fallenden, rechtsregulären Funktionen ai mit zwei Fälle: • • Wenn Wenn F F keine Gitterverteilung ist, dann gilt: eine Gitterverteilung mit Gitterweite lim A(t) = t→∞ 1 µ R∞ a(x)dx. 0 d ist, dann gilt: lim A(nd) = n→∞ d µ ∞ P a(id). i=0 Der Beweis wird hier nicht angeführt. Dieser ndet sich zum Beispiel in [6], [7] und [9]. Um den Erneuerungssatz anwenden können, wird auf die Integraldarstellung der Verteilungsfunktion K aus Satz 3.1. zurückgegrien: λµ λµ K(a) = 1 − + c c Za K(a − y)h(y)dy 0 27 Weitere Darstellungsarten der Wahrscheinlichkeit Ψ(a) Daraus folgt für die Risikowahrscheinlichkeit: Ψ(a) = 1 − K(a) λµ λµ =1−1+ − c c Za (1 − Ψ(a − y)) h(y)dy 0 λµ λµ = − c c Za λµ h(y)dy + c Za Ψ(a − y)h(y)dy 0 Da h 0 eine Wahrscheinlichkeitsdichte ist, gilt R∞ h(y)dy = 1. Somit kann man obige 0 Gleichung weiter umformulieren: λµ Ψ(a) = c = λµ c Z∞ λµ h(y)dy − c Za 0 0 Z∞ Za h(y)dy + λµ c a λµ h(y)dy + c Za Ψ(a − y)h(y)dy 0 Ψ(a − y)h(y)dy 0 Im weiteren Verlauf wird der Fall der kleinen Forderungen behandelt. Es wird zusätzlich angenommen, dass ein λ mF (R) λ+cR von F =1 R > 0 und damit mit mG (R) = 1 mF (R) = existiert. Dies ist äquivalent zu mG (R) = λ+cR λ . Setzt man für die momenterzeugende Funktion weiter ein, so folgt: Z∞ eRy f (y)dy = λ + cR λ 0 Nun kann man mit Hilfe partieller Integration berechnen: Z∞ ReRy (1 − F (y))dy = −1 + 0 wobei lim eRt (1 − F (t)) = 0 t→∞ eRy dF (y) = cR , λ 0 wegen eRt (1 − F (t)) ≤ Als Nächstes deniert man die Funktion 28 Z∞ R∞ eRy dF (y) gilt. t g(y) = λµ eRy h(y) für y≥0 0 für y<0 c . Asymptotisches Verhalten der Wahrscheinlichkeit Ψ(a) Man kann zeigen, dass es sich dabei um eine Wahrscheinlichkeitsdichte handelt: Z∞ λµ g(y)dy = c Z∞ eRy h(y)dy 0 0 = λµ c Z∞ 1 eRy (1 − F (y))dy µ 0 = Z∞ λ c eRy (1 − F (y))dy 0 λ c = · =1 c λ Für t≥0 sei weiters A(t) = eRt Ψ(t). Verwendet man die obige Gleichung für λµ Rt A(t) = e c Z∞ so folgt: Zt A(t − y)g(y)dy, h(y)dy + t womit eine Erneuerungsgleichung für Ψ(t), 0 A(t) gefunden wurde. Der Erneuerungssatz besagt nun: 1 lim A(t) = t→∞ η Z∞ a(x)dx, 0 wobei a(x) = λµ Rx c e R∞ h(y)dy und x Nun sollen die beiden Integrale R∞ η= R∞ yg(y)dy . 0 a(x)dx und 0 • R∞ yg(y)dy genauer berechnet werden: 0 Indem man die Integrationsreihenfolge vertauscht und das innere Integral ausrechnet, folgt: Z∞ λµ a(x)dx = c 0 Z∞ Z∞ 0 = λµ c 0 = λµ c x Z∞ Zy Z∞ eRx h(y)dydx eRx h(y)dxdy 0 1 Ry (e − 1)h(y)dy. R 0 Unter Berücksichtigung der Tatsache, dass es sich bei g und h um Wahrscheinlichkeits- dichten handelt, kann man weiters schlieÿen: 29 Weitere Darstellungsarten der Wahrscheinlichkeit Z∞ 1 a(x)dx = R Z∞ Z∞ λµ g(y)dy − cR 0 λµ 1 1− = R c 0 • Ψ(a) h(y)dy 0 Für das nächste Integral verwendet man die momenterzeugende Funktion mF (x) = R∞ exy dF (y) der Verteilungsfunktion F . Laut Denition des Parameters R gilt 0 mF (R) = λ+cR λ . Weiters wird angenommen, dass die Ableitung 0 mF (R) existiert und endlich ist. Somit gilt: Z∞ 0 mF (R) = yeRy dF (y) 0 Mit Hilfe der partiellen Integration folgt: Z∞ 0 mF (R) = eRy (1 + Ry)(1 − F (y))dy, 0 wobei lim teRt (1 − F (t)) = 0 t→∞ wegen teRt (1 − F (t)) ≤ λ 0 m (R) = c F g gilt. zu Hilfe, so erhält man: Z∞ Z∞ g(y)dy + R 0 g yeRy dF (y) t Zieht man weiters die Dention von Da R∞ yg(y)dy 0 eine Wahrscheinlichkeitsdichte ist und somit R∞ g(y)dy = 1, kann man obige Glei- 0 chung folgendermaÿen umformen: Z∞ yg(y)dy = λ 0 1 m (R) − Rc F R 0 Zusammenfassend wurde für das asymptotische Verhalten der Wahrscheinlichkeit zeigt: lim eRa Ψ(a) = lim A(a) = a→∞ 30 a→∞ c − λµ . 0 λmF (R) − c Ψ(a) ge- KAPITEL 4 Groÿe Forderungen und subexponentielle Verteilungen 4.1 Groÿe Forderungen In diesem Kapitel werden die sogenannten groÿen Forderungen behandelt, d.h. die Ver- teilungsfunktion der Forderungen strebt nun langsamer als exponentiell gegen Null. Ziel ist es, weitere Aussagen über das asymptotische Verhalten der Risikowahrscheinlichkeit Ψ(a) zu treen. Dafür braucht man jedoch eine Denition, die als Arbeitsgrundlage geeignet ist: Denition 4.1. F1 (t) = F (t) F Gegeben sei eine Verteilungsfunktion und deniert Fn (t) = Fn−1 ∗ F (t) für F mit F (0) = 0. Man setzt n ≥ 2. heiÿt subexponentiell, wenn folgende Bedingungen erfüllt sind: • F (x) < 1 für alle x ∈ R+ und 2 (x) • lim sup 1−F 1−F (x) ≤ 2. x→∞ Hilfssatz 4.1. Gegeben sei eine subexponentielle Verteilungsfunktion existiert eine Konstante d > 0, sodass für alle x∈ R+ und k≥1 F und ε > 0. Dann folgende Abschätzung gilt: 1 − Fk (x) ≤ d(1 + )k 1 − F (x) Beweis. Man deniert n (x) αn = sup 1−F 1−F (x) für n ≥ 1. Wie man leicht erkennen kann, ist x≥0 α1 = 1. Da F laut Voraussetzung subexponentiell ist, gilt lim sup x→∞ 1 − F2 (x) − 1 + F (x) F (x) − F2 (x) = lim sup 1 − F (x) 1 − F (x) x→∞ 1 − F2 (x) = lim sup − 1 ≤ 1. x→∞ 1 − F (x) 31 Groÿe Forderungen und subexponentielle Verteilungen Damit existiert ein c > 0, sodass F (x)−F2 (x) 1−F (x) < (1 + ε) für alle x ≥ c. Zieht man nun die Denition der Faltung von Verteilungsfunktionen zu Hilfe, so folgt weiters: Zx 1 − Fn+1 (x) = 1 − F (x) + F (x) − Fn+1 (x) = 1 − F (x) + (1 − Fn (x − y)) dF (y) 0 Dividiert man diese Gleichung durch (1 − F (x)), 1 − Fn+1 (x) =1+ 1 − F (x) Zx erhält man 1 − Fn (x − y) dF (y). 1 − F (x) 0 Im nächsten Schritt bildet man das Supremum: Zx αn+1 ≤ 1 + sup 0≤x≤c 1 − Fn (x − y) dF (y) + sup 1 − F (x) x≥c 0 Zx 1 − Fn (x − y) 1 − F (x − y) dF (y) 1 − F (x − y) 1 − F (x) 0 Aufgrund der Monotonie von F , der Denition von αn und der Tatsache, dass Fn (x − y) ≥ 0 ist, folgt: Zx αn+1 ≤ 1 + sup 0≤x≤c 1 dF (y) + sup 1 − F (c) x≥c 0 Zx αn 1 − F (x − y) dF (y) 1 − F (x) 0 F (x) − F2 (x) F (x) + αn sup = 1 + sup 1 − F (x) x≥c 0≤x≤c 1 − F (c) ≤1+ Indem man b=1+ F (c) + αn (1 + ε) 1 − F (c) F (c) 1+F (c) setzt, wurde Per Induktion folgt nun für alle αk ≤ b αn+1 ≤ b + αn (1 + ε) für alle n≥1 gezeigt. k≥1 k−1 X b (1 + ε)k − 1 (1 + ε)i = b ≤ (1 + ε)k . 1+ε−1 ε i=0 Mit d= b ε hat man die gesuchte Ungleichung gefunden. Hilfssatz 4.2. für alle Gegeben sei wieder eine subexponentielle Verteilungsfunktion F. Dann gilt n≥1 1 − Fn (x) = n. x→∞ 1 − F (x) lim Beweis. Folgende Gleichung wurde im letzten Beweis gezeigt: 1−Fn+1 (x) 1−F (x) Rx n (x−y) = 1+ 1−F 1−F (x) dF (y). 0 Diese wird in Folge verwendet, um die Aussage des Hilfssatzes per Induktion zu zeigen. 32 Groÿe Forderungen Für n=2 gilt 1 − F2 (x) =1+ 1 − F (x) Zz 1 − F (x − y) dF (y) + 1 − F (x) 1−F (x−y) 1−F (x) ≥1 für 1 − F (x − y) dF (y). 1 − F (x) z 0 Da sowohl Zx y≥0 als auch 1−F (x−y) 1−F (x) ≥ 1−F (x−z) 1−F (x) für y≥z gilt, folgt 1 − F2 (x) 1 − F (x − z) ≥ 1 + F (z) + (F (x) − F (z)). 1 − F (x) 1 − F (x) Indem man z=x 1−F2 (x) 1−F (x) setzt, erhält man ≥ 1 + F (x) und damit lim inf x→∞ 1−F2 (x) 1−F (x) ≥ 2. Zusammen mit der Voraussetzung ergibt sich : lim x→∞ 1 − F2 (x) =2 1 − F (x) Das nächste Resultat wird im weiteren Verlauf des Beweises benötigt: Man wählt z > 0 x > z und F (x) > F (z) so groÿ, dass auch gilt. Verwendet man obige Ungleichungen, so folgt: 1 − F (x − z) ≤ 1≤ 1 − F (x) Da lim 1−F2 (x) x→∞ 1−F (x) = 2, ist lim x→∞ 1−F (x−z) 1−F (x) Angenommen, die Aussage wurde für 1 − F2 (x) 1 − 1 − F (z) 1 − F (x) F (x) − F (z) =1 n für alle bereits gezeigt, d.h. es gilt: lim 1−Fn (x) x→∞ 1−F (x) Für den Induktionsschritt sei ein man ein c > 0, sodass für alle ε>0 x>c gilt. Des Weiteren deniert man für U (x) = =n vorgegeben. Mittels der Induktionsannahme ndet n−ε< x−c Z z > 0. 1−Fn (x) 1−F (x) <n+ε x>c 1 − F (x − y) dF (y) und V (x) = 1 − F (x) Zx 1 − F (x − y) dF (y). 1 − F (x) x−c 0 Betrachtet man zunächst das zweite Integral, so kann man sehen, dass Zx 0 ≤ V (x) ≤ 1 F (x) − F (x − c) 1 − F (x − c) dF (y) = = −1 1 − F (x) 1 − F (x) 1 − F (x) x−c gilt. Daraus folgt mithilfe des oben gezeigten Grenzwertes: lim V (x) = 0. x→∞ 33 Groÿe Forderungen und subexponentielle Verteilungen Für das erste Integral zieht man die zu Beginn des Beweises angeführte Gleichung zu Hilfe. Somit ist für x > c: 1 − Fn+1 (x) =1+ 1 − F (x) x−c Z 1 − Fn (x − y) 1 − F (x − y) dF (y) + 1 − F (x − y) 1 − F (x) n=1 1 − Fn (x − y) 1 − F (x − y) dF (y) 1 − F (x − y) 1 − F (x) x−c 0 Für Zx erhält man: 1 − F2 (x) = 1 + U (x) + V (x) 1 − F (x) x → ∞, so folgt x−c≤y ≤x ist und Bildet man den Grenzwert für lim U (x) = 1, x→∞ da lim 1−F2 (x) x→∞ 1−F (x) = 2 und lim V (x) = 0. x→∞ 1−Fn (x−y) 1−F (x−y) Da für alle x>c ≤ 1 1−F (c) für c entsprechend gewählt wurde, kann man folgende Abschätzung angeben: 1 + (n − ε)U (x) < 1 − Fn+1 (x) 1 < 1 + (n + ε)U (x) + V (x) 1 − F (x) 1 − F (c) Somit gilt: lim inf x→∞ Da man ε 1 − Fn+1 (x) 1 − Fn+1 (x) ≥ 1 + n − ε und lim sup ≤1+n+ε 1 − F (x) 1 − F (x) x→∞ beliebig klein wählen kann, ist Satz 4.1. 1−Fn+1 (x) 1−F (x) =n+1 gezeigt. Gegeben sei h(x) = Dann ist lim x→∞ h 1 (1 − F (x)) µ für x≥0 0 für x<0 eine Wahrscheinlichkeitsdichte, und bei H(t) = Rt h(x)dx handelt es sich um −∞ eine Verteilungsfunktion, für die Ist H H(0) = 0 Ψ(a) subexponentiell, so gilt lim a→∞ 1−H(a) gilt. = 1 ρ. Beweis. Wie bereits in Satz 3.1. gezeigt, erfüllt h die Eigenschaften einer Wahrscheinlich- keitsdichte. Weiters ist H eine Verteilungsfunktion mit H(0) = 0, da h(x) = 0 für alle x<0 gilt. Um den letzten Teil des Satzes zu beweisen, zieht man die Aussage aus Satz 3.2. zu Hilfe. Für a>0 gilt ρ K(a) = ρ+1 34 ∞ X k=0 ! 1 Hk (a) , (1 + ρ)k wobei H0 (a) = 1 ist. Groÿe Forderungen ∞ P Für die Reihe k=0 1 gilt (1+ρ)k ∞ X k=0 Dividiert man durch 1 1+ρ = . ρ (1 + ρ)k 1+ρ ρ , so erhält man ∞ ρ X 1 = 1. 1+ρ (1 + ρ)k k=0 Somit gilt weiters Ψ(a) 1 − K(a) = 1 − H(a) 1 − H(a) ∞ X 1 ρ = 1 − H(a) 1 + ρ = Man wählt ein Konstante ε ∈ (0, ρ). d > 0, ρ 1+ρ ∞ X k=1 k=0 ! 1 (1 − Hk (a)) (1 + ρ)k 1 1 − Hk (a) . k (1 + ρ) 1 − H(a) Da die Bedingungen aus Hilfssatz 4.1. erfüllt sind, existiert eine sodass für alle a>0 und k≥1 1 − Hk (a) ≤ d(1 + ε)k 1 − H(a) gilt. Da ∞ P k=1 1 d(1 (1+ρ)k Voraussetzung ist H + ε)k < ∞ ist, kann man Grenzwert und Summe vertauschen. Laut subexponentiell und daher kann Hilfssatz 4.2. angewendet werden: ∞ ρ X 1 1 − Hk (a) k 1+ρ (1 + ρ) 1 − H(a) Ψ(a) lim = lim a→∞ 1 − H(a) a→∞ = = ρ 1+ρ ρ 1+ρ ! k=1 ∞ X k=1 ∞ X k=1 1 1 − Hk (a) lim k (1 + ρ) a→∞ 1 − H(a) k 1 1 = ρ (1 + ρ)k Die letzte Gleichung besitzt Gültigkeit aufgrund folgender Tatsache: Dierenziert man 1 1−x = ∞ P k=0 xk für |x| < 1, so erhält man 1 (1−x)2 = ∞ P kxk−1 . k=1 Im nächsten Schritt betrachtet man alle Forderungen, die innerhalb eines bestimmten Zeitintervalls bei einem Versicherungsunternehmen eintreen und versucht, deren asymptotisches Verhalten näher zu beschreiben. Dafür ist folgende Denition notwendig: 35 Groÿe Forderungen und subexponentielle Verteilungen Denition 4.2. Sei t > 0. Dann wird durch Nt P Zt = Yi i=1 die Summe aller Forderungen im Zeitintervall [0, t] deniert. Der nächste Satz widmet sich dem asymptotischen Verhalten von Satz 4.2. P(Zt > x). F. Gegeben sei eine subexponentielle Verteilungsfunktion Dann gilt für alle t > 0: P(Zt > x) = λt. x→∞ 1 − F (x) lim Beweis. Wie schon im Beweis von Satz 2.1. gezeigt wurde, gilt: ∞ X P(Zt > x) = k=1 ∞ X = P(Y1 + Y2 + . . . + Yk > x) · P(Nt = k) (1 − Fk (x)) pk , k=1 wobei pk = (λt)k −λt . Die Summe beginnt hier mit k! e k = 1, da für k = 0 der Summand wegfällt. Das folgt aus der Tatsache, dass die leere Summe gleich 0 und somit nicht gröÿer als Nun dividiert man in obiger Gleichung beide Seiten durch x ist. (1 − F (x)): ∞ P(Zt > x) X 1 − Fk (x) = pk 1 − F (x) 1 − F (x) k=1 Da F als subexponentiell vorausgesetzt wurde, kann man Hilfssatz 4.1. anwenden. Es existiert daher eine Konstante d>0 mit 1−Fk (x) 1−F (x) ≤ d2k für alle k≥1 und x ∈ R+ . Im nächsten Schritt sollen Grenzwert und Summe vertauscht werden. Dies ist möglich, da ∞ X d2k pk = d k=1 ∞ X (2λt)k k=1 k! e−λt = de2λt e−λt = deλt < ∞, d.h. endlich ist. Mit Hilfssatz 4.2. folgt für t > 0: ∞ X P(Zt > x) 1 − Fk (x) lim = lim pk x→∞ 1 − F (x) x→∞ 1 − F (x) k=1 = ∞ X k=1 = ∞ X k=1 k lim x→∞ 1 − Fk (x) 1 − F (x) ∞ ∞ X X (λt)k −λt (λt)k −λt kpk = k e = (λt) e k! k! λt −λt = λte e 36 ! k=1 = λt. k=0 Subexponentielle Verteilungen 4.2 Subexponentielle Verteilungen Im vorherigen Teil wurden subexponentielle Verteilungsfunktionen vorausgesetzt und untersucht, welche Eigenschaften diese besitzen. Damit konnten auch weitere Aussagen über die Risikowahrscheinlichkeit Ψ(a) getroen werden. Der nächste Schritt wird darin bestehen, hinreichende Bedingungen dafür zu nden, wann eine Verteilungsfunktion subexponentiell ist. Denition 4.3. Gegeben sei eine Verteilungsfunktion < 1 F (t) = 0 Für s>0 sei Fs (t) = F für t≥0 für t<0 mit F (s+t)−F (s) deniert, und mit 1−F (s) g(s) = lim t↓0 wird die Ausfallsrate zum Zeitpunkt Fs (t) t s bezeichnet. Dabei wird vorausgesetzt, dass dieser Grenz- wert existiert. Besitzt F eine Wahrscheinlichkeitsdichte f, so existiert der Wert g(s), wenn f in s stetig ist. Dann gilt: Fs (t) t↓0 t (F (s + t) − F (s)) /t f (s) = lim = t↓0 1 − F (s) 1 − F (s) g(s) = lim Bemerkung. Ist die Ausfallsrate eine monoton wachsende Funktion, so kann man sagen, dass das System altert. Ist g(s) konstant in jedem Punkt s, altert das System jedoch nicht. In der Praxis besitzen somit realistische Verteilungsfunktionen eine monoton wachsende Ausfallsrate. Der nächste Satz gibt an, wie sich die Verteilungsfunktion bzw. die Wahrscheinlichkeitsdichte mithilfe der Ausfallsrate berechnet lässt. Satz 4.3. Gegeben sei eine Verteilungsfunktion < 1 F (t) = 0 Weiters wird angenommen, dass Rt Ausfallsrate und G(t) = g(s)ds. 0 Dann gilt für t > 0 F F mit für t≥0 für t<0 eine Wahrscheinlichkeitsdichte F (t) = 1 − e−G(t) und f besitzt. Sei g(s) die f (t) = G(t)e−G(t) . 37 Groÿe Forderungen und subexponentielle Verteilungen Beweis. Es gilt F (0) = 0, da es sich bei F um eine Lebensdauerverteilung handelt, die eine Dichte besitzt. Im nächsten Schritt zieht man die Denition von Zt G(t) = Zt zu Hilfe und setzt weiter ein: f (s) ds 1 − F (s) g(s)ds = 0 G(t) 0 = − log(1 − F (t)) + log(1 − F (0)) = − log(1 − F (t)), woraus F (t) = 1 − e−G(t) folgt. Wenn man das letzte Resultat dierenziert, erhält man f (t) = g(t)e−G(t) . Um die nachfolgenden Sätze beweisen zu können, ist folgende Überlegung notwendig: Sei F2 (t) = F ∗ F (t) die Faltung zweier Verteilungsfunktionen. Nun verwendet man die im Beweis von Hilfssatz 4.1. gezeigte Formel, und setzt für die Verteilungsfunktion Wahrscheinlichkeitsdichte f F und die ein: 1 − F2 (x) 1 −1= 1 − F (x) 1 − F (x) Zx (1 − F (x − y)) dF (y) 0 = eG(x) Zx e−G(x−y) f (y)dy 0 Zx = eG(x)−G(x−y)−G(y) g(y)dy 0 Satz 4.4. Gegeben sei eine Verteilungsfunktion sitzt und die dazugehörige Ausfallsrate Wenn F subexponentiell ist und g(x) F, die eine Wahrscheinlichkeitsdichte f be- g. für x → ∞ monoton fallend gegen Null konvergiert, dann gilt Zx lim x→∞ eyg(x) f (y)dy = 1. 0 Beweis. Aufgrund der Voraussetzung, dass g(x) für x → ∞ eine monoton fallende Funktion ist, kann man folgende Abschätzung machen: 1 − F2 (x) −1≥ 1 − F (x) Zx e 0 38 yg(x)−G(y) Zx g(y)dy ≥ e 0 −G(y) Zx g(y)dy = f (y)dy = F (x) 0 Subexponentielle Verteilungen Da F eine Verteilungsfunktion ist, gilt ja Tatsache, dass F lim F (x) = 1. Berücksichtigt man zusätzlich die x→∞ subexponentiell und daher Zx lim e x→∞ yg(x)−G(y) lim 1−F2 (x) x→∞ 1−F (x) Zx g(y)dy = lim x→∞ 0 =2 ist, folgt eyg(x) f (y)dy = 1. 0 Als Nächstes wird die Umkehrung dieses Satzes gezeigt. Satz 4.5. Gegeben sei eine Verteilungsfunktion die dazugehörige Ausfallsrate ist F x→∞ mit einer Wahrscheinlichkeitsdichte f und g. auf dem Intervall [d, ∞) monoton Rx yg(x) gegen Null konvergiert. Gilt weiters lim e f (y)dy = 1, dann x→∞ 0 d > 0, Angenommen, es existiert eine Konstante fallend ist und für F g sodass subexponentiell. Beweis. Auch hier geht man wieder von folgender Gleichung aus: 1 − F2 (x) −1= 1 − F (x) Zx eG(x)−G(x−y)−G(y) g(y)dy. 0 Im nächsten Schritt wird der Integrationsbereich [0, x] in die Teilintervalle [0, x2 ] und [ x2 , x] zerteilt. Man erhält dadurch 1 − F2 (x) −1= 1 − F (x) x x Z2 Z2 eG(x)−G(x−y)−G(y) g(y)dy + 0 wobei im letzten Integral eG(x)−G(t)−G(x−t) g(x − t)dt, 0 y durch x−t substituiert wurde. Deniert man an dieser Stelle ux (y) = eG(x)−G(x−y)−G(y) g(y)1[0, x ) (y) und vx (y) = eG(x)−G(x−y)−G(y) g(x − y)1[0, x ) (y), 2 2 so lässt sich die obige Gleichung schreiben als 1 − F2 (x) −1= 1 − F (x) Z∞ Z∞ ux (y)dy + 0 Aus dass x ≥ 2d und da 0≤y≤ x 2 , folgt d≤ x 2 0 ≤ G(x) − G(x − y) ≤ yg(x − y) ≤ vx (y)dy. 0 ≤ x − y ≤ x. Damit kann man weiters schlieÿen, yg( x2 ) ist. Für diese Ungleichung wurde auch der Umstand berücksichtigt, dass die Funktion g auf [d, ∞) monoton fallend ist. 39 Groÿe Forderungen und subexponentielle Verteilungen Zusammenfassend kann man für x ≥ 2d und 0≤y≤ x 2 sehen: 0 ≤ G(x) − G(x − y) ≤ yg Wie bereits aus Satz 4.3. bekannt ist, gilt x ≥ 2d x 2 f (y) = e−G(y) g(y). Damit lässt sich für ux (y) mit folgende Abschätzung geben: x f (y)1[0, x ) (y) ≤ ux (y) ≤ eyg( 2 ) f (y)1[0, x ) (y) 2 2 x ≥ 2d: Daraus erhält man weiters für x x Z∞ Z2 f (y)dy ≤ Z2 ux (y)dy ≤ 0 0 x eyg( 2 ) f (y)dy 0 Nun bildet man die Grenzwerte des linken und rechten Integrals in dieser Ungleichungskette. Da f eine Wahrscheinlichkeitsdichte ist, folgt x Z∞ Z2 lim f (y)dy = x→∞ 0 f (y)dy = 1. 0 Laut Voraussetzung gilt weiters x Z2 lim x→∞ x eyg( 2 ) f (y)dy = 1. 0 Somit wurde gezeigt, dass Sei ε > 0 lim x→∞ 0 gegeben. Man wähle Abschätzung erhält man für Zc 0 g x 2 für ux (y)dy = 1. c > d x→∞ ux (y)dy ≤ 0 R∞ f (y)dy < c Zc yg ( x2 ) e cg ( x2 ) lim ε 2 . Mithilfe der obigen Zc f (y)dy ≤ e 0 f (y)dy. 0 gegen Null konvergiert, gilt Daraus kann man weiter folgern, dass 40 so groÿ, dass x ≥ 2c Zc f (y)dy ≤ Da R∞ R∞ x→∞ c lim Rc x→∞ 0 ux (y)dy = ux (y)dy = 1 − Rc 0 Rc f (y)dy . 0 f (y)dy = R∞ c f (y)dy . Subexponentielle Verteilungen e−G(y) 1[0, x ) (y) ≤ 1, Aufgrund obiger Ungleichung und der Tatsache, dass kann man auch 2 eine Abschätzung für vx (y) angeben Zc Zc vx (y)dy ≤ 0 wobei x ≥ c + d. Da x x eyg( 2 ) g(x − y)dy ≤ cecg( 2 ) g(x − c), 0 R∞ x ε lim cecg( 2 ) g(x 2 und x→∞ f (y)dy < c Z∞ Zc ε ux (y)dy < und 2 vx (y)dy < c für alle x ≥ x0 gelten. Für − c) = 0 ist, gibt es ein x0 , sodass ε 2 0 y≥d kann man noch folgende Ungleichung angeben: 0 ≤ vx (y) ≤ ux (y), da g(x − y) ≤ g(y) d≤y≤ aus x 2 und der Tatsache, dass g monoton fallend auf [d, ∞) ist, folgt. Zusammenfassend erhält man für x ≥ x0 : Z∞ Z∞ vx (y)dy ≤ 0≤ ux (y)dy + Aus lim lim R∞ x→∞ 0 R∞ x→∞ 0 vx (y)dy = 0 ux (y)dy = 1 vx (y)dy < c 0 Somit ist Zc und ε ε + =ε 2 2 0 gezeigt. lim R∞ x→∞ 0 vx (y)dy = 0 folgt 1 − F2 (x) = 2. x→∞ 1 − F (x) lim Damit wurde gezeigt, dass F subexponentiell ist. Auch im nächsten Satz werden hinreichende Bedingungen an eine Verteilungsfunktion F gestellt, um zu prüfen, ob diese subexponentiell ist. Der Satz wird in der Literatur auch oft als Satz von Pitmann bezeichnet. Satz 4.6. Gegeben sei eine Verteilungsfunktion die dazugehörige Ausfallsrate x→∞ Besitzt die Funktion w so ist F mit einer Wahrscheinlichkeitsdichte f und g. Angenommen, es existiert eine Konstante fallend ist und für F d > 0, sodass g auf dem Intervall [d, ∞) monoton gegen Null konvergiert. : [0, ∞) → R+ , deniert duch w(x) = exg(x) f (x), endliches Integral, subexponentiell. 41 Groÿe Forderungen und subexponentielle Verteilungen Beweis. Ziel ist es, Satz 4.5. anzuwenden. Dazu muss man lediglich zeigen, dass lim Rx x→∞ 0 eyg(x) f (y)dy = 1 ist. Sei Z∞ ε>0 gegeben. Man wählt nun ein Z∞ ε und w(y)dy < 3 lim g(x) = 0 x→∞ so, dass ε 3 f (y)dy < c c gilt. Da c>d ist, gibt es ein x0 > c mit ε 3 für ecg(x) − 1 < x ≥ x0 . Es folgt x Z Zc Z∞ Zx Z∞ yg(x) yg(x) yg(x) e f (y)dy − f (y)dy ≤ e − 1 f (y)dy + e f (y)dy + f (y)dy 0 0 ≤ 0 c Zc Zx ecg(x) − 1 f (y)dy + ε 3 Zc Zx f (y)dy + w(y)dy Rx ε 3 + ε < ε. 3 c 0 Somit wurde gezeigt, dass eyg(y) f (y)dy + c 0 ≤ c eyg(x) f (y)dy = 0 R∞ f (y)dy = 1. Aus Satz 4.5. folgt, dass F sub- 0 exponentiell ist. Für den nächsten Satz wird angenommen, dass die Verteilungsfunktion einen endlichen Erwartungswert besitzt, d.h. µ= R∞ F mit F (0) = 0 (1 − F (x)) dx < ∞. 0 Gegeben sei die Wahrscheinlichkeitsdichte h(x) = 1 (1 − F (x)) µ für x≥0 0 für x<0 und die dazugehörige Verteilungsfunktion H(t) = Rt h(x)dx. Nun soll geprüft werden, ob −∞ H subexponentiell ist. Satz 4.7. Gegeben sei eine Verteilungsfunktion genommen, es existiert eine Konstante d > 0, F und die dazugehörige Ausfallsrate sodass g x → ∞ gegen Null konvergiert. Rt G(t) = g(s)ds. Die Verteilungsfunktion H auf dem Intervall [d, ∞) g. An- monoton fallend ist und für Weiters sei ist subexponentiell, wenn eine der 0 beiden Eigenschaften erfüllt ist: (a) Es existiert eine Konstante (b) Es ist sowohl 42 L > 0, lim xg(x) = ∞ x→∞ sodass als auch xg(x) ≤ L für alle lim sup xg(x) G(x) < 1 x→∞ x≥0 erfüllt. gilt. Subexponentielle Verteilungen Beweis. Da von H F (x) = 1 − e−G(x) h(x) = ist, gilt 1 −G(x) für µe x ≥ 0. Für die Ausfallsrate g̃ erhält man: 1 −G(x) g̃(x) = h(x) µe = ∞ R 1 − H(x) h(y)dy x = e−G(x) R∞ = e−G(y) dy e−G(x) , K(x) x mit K(x) := R∞ e−G(y) dy . Weiters folgt für x≥d x Z∞ K(x) ≥ g(y) −G(y) 1 e dy = g(x) g(x) x Z∞ g(y)e−G(y) dy x 1 1 −G(x) = (1 − F (x)) = e . g(x) g(x) Mithilfe dieser Ungleichung sieht man, dass 1 −G(x) −2G(x) ≤0 −g(x)e K(x) + e K(x)2 0 g̃(x) ≤ g(x) und g̃ (x) = gilt. Das heiÿt, x→∞ g̃ ist auf dem Intervall [d, ∞) ebenfalls monoton fallend und konvergiert für gegen Null. Daher genügt es laut Satz 4.6. zu zeigen, dass das Integral R∞ 1 0 xg̃(x) e−G(x) dx endlich ist. µe Angenommen, die Eigenschaft (a) ist erfüllt, dann ist folgende Abschätzung gültig: Z∞ 1 xg̃(x) −G(x) e e dx ≤ µ Rd 0 auf [0, d] 1 xg̃(x) −G(x) e dx µe < ∞, beschränkt ist. Fasst man nun zusammen, wurde (b) ist erfüllt. Es existiert daher ein weil der Integrand R∞ 1 0 x≥c 1 xg(x) −G(x) 1 e e dx ≤ eL K(d) < ∞. µ µ d d Es ist auch Z∞ xg̃(x) e−G(x) dx µe α ∈ (0, 1) und ein 1 xg̃(x) −G(x) e stetig und daher µe <∞ gezeigt. c≥d so, dass xg(x) < αG(x) für gilt. Aufgrund der Voraussetzung ist mit der Eigenschaft, dass 2 y 2 lim y→∞ (1−α)yg(y) ≤ (1 − α)g(y) = 0. für alle Daher gibt es eine Konstante y≥b b≥c gilt. 43 Groÿe Forderungen und subexponentielle Verteilungen Im nächsten Schritt integriert man beide Seiten von 2 log(x) − 2 log(b) ≤ (1 − α)(G(x) − G(b)) Äquivalent dazu ist für alle 2 log(x) ≤ (1 − α)G(x) + B , b nach x und erhält somit x ≥ b. wobei B := 2 log(b) − (1 − α)G(b). Diese Resultate kann man verwenden, um zu zeigen, dass Z∞ 1 xg̃(x) −G(x) e e dx ≤ µ Z∞ b Auch hier ist b Rb 0 Zusammenfassend wurde Z∞ 1 1 B−2 log(x) e dx = eB µ µ b 1 xg̃(x) −G(x) e dx µe beschränkt ist. R∞ 1 0 44 1 −(1−α)G(x) e dx ≤ µ < ∞, Z∞ 1 dx < ∞. x2 b weil der Integrand stetig und daher auf xg̃(x) e−G(x) dx µe <∞ gezeigt. [0, b] KAPITEL 5 Beispiele Die Theorie über subexponentielle Verteilungen und deren Eigenschaften soll in diesem Kapitel anhand von Beispielen verdeutlicht werden. Für verschiedene Verteilungsfunktionen kann man mit Satz 4.6. überprüfen, ob sie subexponentiell sind. Satz 4.7. gibt Aufschluss darüber, ob die dazugehörige Funktion H subexponentiell ist. Mittels Satz 4.1. kann man asymptotische Resultate für die Risikowahrscheinlichkeit Ψ(a) geben, wie man im Beispiel der Weibull- und der verallgemeinerten Paretoverteilung sehen kann. 5.1 Weibullverteilung Die Weibullverteilung hat folgende Verteilungsfunktion: β F (x) = 1 − e−γx , wobei γ>0 ist und β ∈ (0, 1) angenommen wird. Die Wahrscheinlichkeitsdichte ist durch β f (x) = γβxβ−1 e−γx gegeben. Die Ausfallsrate berechnet sich wie folgt: β f (x) γβxβ−1 e−γx = γβxβ−1 . g(x) = = β −γx 1 − F (x) 1− 1−e Da von β ∈ (0, 1) ausgegangen wurde, ist die Funktion g monoton fallend und lim g(x) = 0. x→∞ Um Satz 4.6. anwenden zu können, muss man noch zeigen, dass das Integral der Funktion w(x) = exg(x) f (x) endlich ist. 45 Beispiele Es gilt: Z∞ e xg(x) Z∞ f (x)dx = 0 xγβxβ−1 e γβx β−1 −γxβ e Z∞ dx = 0 γβxβ−1 eγβx β −γxβ dx 0 Z∞ = γβ β xβ−1 e−γ(1−β)x dx 0 ∞ 1 β = − · e−γ(1−β)x 1−β 0 1 1 1 1 = − · γ(1−β)xβ + · 0 1−β 1−β e x=∞ e 1 = <∞ 1−β Damit folgt, dass die Weibullverteilung für γ>0 und β ∈ (0, 1) Weiters soll gezeigt werden, dass die Verteilungsfunktion H subexponentiell ist. ebenfalls subexponentiell ist. Dazu kann man Satz 4.7.(b) verwenden. Es wird überprüft, ob die Eigenschaften lim xg(x) = ∞ x→∞ und lim sup xg(x) G(x) < 1 erfüllt sind: x→∞ xg(x) = γβxβ • Da • Als Nächstes betrachtet man mit β ∈ (0, 1) ist, folgt lim xg(x) = ∞. x→∞ lim sup xg(x) G(x) . Aus Satz 4.3. ist bekannt, dass x→∞ β G(x) = − log (1 − F (x)) = − log e−γx = −(−γxβ ) = γxβ gilt und somit lim sup x→∞ Da H γβxβ = lim sup β = β < 1. γxβ x→∞ subexponentiell ist, ndet Satz 4.1. Anwendung. Für Forderungen, die eine Weibull- verteilung mit lässt sich H γ>0 und β ∈ (0, 1) haben, besagt dieser, dass lim Ψ(a) a→∞ 1−H(a) in diesem Fall nicht genau berechnen. 5.2 Verallgemeinerte Paretoverteilung Die verallgemeinerte Paretoverteilung besitzt die Verteilungsfunktion − 1 α F (x) = 1 − 1 + γαxβ 46 = 1 ρ ist. Jedoch Verallgemeinerte Paretoverteilung und die Dichtefunktion f (x) = γβx wobei α, β, γ > 0 β−1 1 + γαx β − (1+α) α sind. Somit ergibt sich für die Ausfallsrate − γβxβ−1 1 + γαxβ f (x) g(x) = = −1 1 − F (x) (1 + γαxβ ) α g Um die Monotonie von , g: (1+α) α γβxβ−1 1 + γαxβ = zu untersuchen, berechnet man die Ableitung g 0 mithilfe der Quo- tientenregel: γβ(β − 1)xβ−2 (1 + γαxβ ) − γβxβ−1 γαβxβ−1 (1 + γαxβ )2 0 g (x) = γβ(β − 1)xβ−2 (1 + γαxβ ) − γ 2 αβ 2 x2(β−1) (1 + γαxβ )2 = γβ 2 xβ−2 − γβxβ−2 − γ 2 αβx2(β−1) (1 + γαxβ )2 γβxβ−2 β − 1 − γαxβ = (1 + γαxβ )2 = Nun unterscheidet man zwei Fälle: • Für β≤1 setzt man d = 0. • Für β>1 setzt man d= Somit ist 0 g (x) ≤ 0 für x>d Weiters sieht man, dass β−1 γα 1 β und die Ausfallsrate lim g(x) = 0 x→∞ Z∞ e . xg(x) Z∞ 0 daher auf xg(x) = ist. Mit f (x)dx ≤ g β [d, ∞) γβxβ 1+γαxβ ≤ monoton fallend. β α für alle x ≥ 0, folgt β e α f (x)dx = e α < ∞. 0 Aus Satz 4.6. folgt, dass die verallgemeinerte Paretoverteilung subexponentiell ist. Um zu zeigen, dass die Verteilungsfunktion H subexponentiell ist, genügt es Eigenschaft (a) aus Satz 4.7. zu verwenden. Das heiÿt, man sucht eine Konstante alle x ≥ 0. mit xg(x) ≤ L für Wie bereits oben gezeigt wurde, gilt xg(x) = Man setzt L>0 L= β α >0 β γβxβ ≤ , α 1 + γαxβ und daraus folgt, dass H ∀x ≥ 0. subexponentiell ist. 47 Beispiele Die verallgemeinerte Paretoverteilung ist auch ein gutes Beispiel dafür, wie man mithilfe von Satz 4.1. das asymptotische Verhalten von Für α ∈ (0, 1) Ψ(a) beschreiben kann. berechnet man den Erwartungswert wie folgt: Z∞ Z∞ (1 − F (x)) dx = µ= 0 1 (1 + γαx)− α dx 0 α−1 ∞ 1 1 = (1 + γαx) α = γ(α − 1) γ(1 − α) 0 Damit ergibt sich weiter für x≥0 h(x) = 1 1 (1 − F (x)) = γ(1 − α)(1 + γαx)− α µ und daraus Zt Zt h(x)dx = γ(1 − α) H(t) = 0 1 (1 + γαx)− α dx = 1 − (1 + γαt)− 1−α α . 0 Man sieht, dass es sich bei H ebenfalls um eine verallgemeinerte Paretoverteilung handelt. Da bereits gezeigt wurde, dass verallgemeinerte Paretoverteilungen subexponentiell sind, gilt dies auch für H. Satz 4.1. besagt nun, dass 1−α Ψ(a) 1 = lim Ψ(a) (1 + γα) α = a→∞ 1 − H(a) a→∞ ρ lim gilt. Betrachtet man den Fall α= 1 2 , so folgt daraus γ 1 lim Ψ(a) 1 + a = , a→∞ 2 ρ d.h. Ψ(a) konvergiert für a→∞ wie 2 ρ(2+γa) gegen Null. Die Konvergenzgeschwindigkeit ist langsamer als bei einer Exponentialfunktion. 5.3 Benktanderverteilung Für die Benktanderverteilung ist die Verteilungsfunktion für 1 − e αβ x−(1−β) e− F (x) = 0 48 αxβ β x≥1 für x≥1 für x<1 gegeben durch Benktanderverteilung und die Wahrscheinlichkeitsdichte durch α e β x−(1−β) e− f (x) = 0 wobei α>0 β ∈ (0, 1). und αxβ β Die Ausfallsrate α x1−β g 1−β x für x≥1 für x<1 , berechnet sich wie folgt: α 1−β + f (x) x g(x) = = 1 − F (x) 0 Die Funktion + 1−β x für x≥1 für x<1 . g ist somit auf dem Intervall [1, ∞) monoton fallend und konvergiert für x → ∞ gegen Null. Um Satz 4.6. anwenden zu können, benötigt man für x≥1 xg(x) = αxβ + (1 − β) und berechnet damit xg(x) e α αxβ α 1−β αxβ +(1−β)) β −(1−β) − β ( f (x) = e e x e + x x1−β −α(1−β)xβ α α 1−β β = e β e1−β e + 2−β . x2−2β x Mithilfe einer geeigneten Konstante k kann man folgende Abschätzung machen: exg(x) f (x) ≤ ke −α(1−β)xβ β , woraus folgt, dass Z∞ exg(x) f (x)dx < ∞, 0 d.h. endlich ist. Satz 4.6. besagt nun, dass die Benktanderverteilung subexponentiell ist. An dieser Stelle stellt sich wieder die Frage, ob die Verteilungsfunktion H ebenfalls subex- ponentiell ist. Dazu verwendet man Satz 4.7.(b) und überprüft die beiden Eigenschaften: • xg(x) = αxβ + (1 − β) lim xg(x) = lim αxβ + (1 − β) = ∞. Wie bereits oben gezeigt wurde, gilt Daraus folgt: x→∞ . x→∞ 49 Beispiele • Als Nächstes möchte man lim sup xg(x) G(x) < 1 zeigen. Dazu berechnet man zuerst: x→∞ α − G(x) = − log (1 − F (x)) = − log e β x−(1−β) e αxβ β αxβ α + log x1−β + β β α β = x − 1 + log x1−β β =− Es folgt weiters xg(x) = G(x) ≤ Für x→∞ αxβ + (1 − β) α β 1−β ) β (x − 1) + log (x αxβ + (1 − β) . α β β (x − 1) erhält man αxβ + α β β (x − 1) αxβ + (1 − β) = lim lim α β x→∞ x→∞ β (x − 1) (1 − β) α β β (x − 1) βxβ β(1 − β) = lim + x→∞ xβ − 1 α(xβ − 1) ! = β < 1. Damit wurde lim sup xg(x) G(x) ≤ β < 1 gezeigt. x→∞ Aus Satz 4.7. folgt, dass H subexponentiell ist. 5.4 Loggammaverteilung Die Loggammaverteilung hat den Wertebereich (1, ∞) und besitzt folgende Wahrscheinlich- keitsdichte: f (x) = αβ Γ(β) (log x)β−1 x−α−1 0 wobei α>0 und β > 1. g(x) = 50 für x≥1 für x<1 , Die Ausfallsrate lässt sich wie folgt berechnen: f (x) für x≥1 0 für x<1 K(x) Z∞ , wobei K(x) = f (y)dy . x Loggammaverteilung Für x≥1 gilt: Z∞ K(x) = αβ (log y)β−1 y −α−1 dy Γ(β) x Z∞ ≥ αβ (log x)β−1 y −α−1 dy Γ(β) x αβ 1 (log x)β−1 x−α Γ(β) α x = f (x). α = Im nächsten Schritt leitet man sowohl die Ausfallsrate 0 g 0 f (x)K(x) + f (x)2 g (x) = als auch die Dichtefunktion f ab: und K(x)2 αβ f (x) = Γ(β) 0 Setzt man 1 β−2 −α−1 β−1 −α−2 (β − 1) (log x) x + (log x) (−α − 1) x x ! αβ (β − 1) (log x)β−1 −α−1 x−α−1 β−1 = x − (α + 1) (log x) Γ(β) x (log x) x αβ −α−1 β−1 α+1 β−1 = x (log x) − Γ(β) x log x x β−1 α+1 = f (x) − . x log x x d = eβ−1 , so ist 0 f (x) < 0 0 0 ≤ 0 f (x) αx f (x) + f (x)2 f (x) = für K(x)2 g K(x)2 d.h. die Ausfallsrate und f (x)K(x) + f (x)2 g (x) = = x>d für alle f (x)2 K(x)2 β−1 x log x − α+1 x x α f (x) + f (x)2 K(x)2 α+1 β−1 − + 1 < 0, α log x α ist monoton fallend auf [d, ∞). Weiters gilt die folgende Abschätzung x ≥ 1: f (x) ≤ x xff(x) = α. xg(x) = x K(x) (x) α 51 Beispiele Aus diesem Ergebnis folgt, dass Z∞ xg(x) e lim g(x) = 0 x→∞ Z∞ f (x)dx = 0 e xg(x) und Z∞ f (x)dx ≤ 1 eα f (x)dx = eα < ∞. 1 Satz 4.6. besagt nun, dass die Loggammaverteilung subexponentiell ist. Um zu zeigen, dass die Verteilungsfunktion Satz 4.7.(a). Gesucht ist eine Konstante bewiesen wurde, gilt L=α 52 xg(x) ≤ α H auch subexponentiell ist, verwendet man L > 0 mit xg(x) ≤ L für alle x ≥ 0. Wie bereits oben für alle x ≥ 1, wobei α>0 wählt, ist die Voraussetzung von Satz 4.7. erfüllt, und ist. Indem man die Konstante H ist subexponentiell. Teil 2 Extremwerttheorie KAPITEL 6 Die drei Extremwertverteilungen 6.1 Grundlagen Sei X1 , X2 , . . . eine Folge von unabhängigen und identisch verteilten - kurz i.i.d. (engl: inde- pendent and identically distributed) - Zufallsvariablen mit einer gemeinsamen Verteilungsfunktion F. Denition 6.1. Das Maximum der ersten n Zufallsvariablen wird mit Mn = max{X1 , X2 , . . . , Xn } bezeichnet, wobei n ∈ N. Weiters kann man relativ leicht die Verteilungsfunktion von mit FMn Mn angeben, die im Folgenden bezeichnet wird. Lemma 6.1. Für jedes n∈N gilt FMn (x) = F n (x) Beweis. Es gilt für jedes ∀x ∈ R. x ∈ R: FMn (x) = P (Mn ≤ x) = P (X1 ≤ x, X2 ≤ x, . . . , Xn ≤ x) (1) = P (X1 ≤ x) · P (X2 ≤ x) · . . . · P (Xn ≤ x) = (2) = n Y P (Xi ≤ x) i=1 n Y F (x) i=1 = F n (x) Bei (1) verwendet man die Unabhängigkeit der Zufallsvariablen und bei (2) die Tatsache, dass P (Xi ≤ x) = F (x) für jedes x∈R und i ∈ {1, . . . , n}. 55 Die drei Extremwertverteilungen Die zentrale Frage in diesem Kapitel ist jene nach der Grenzwertverteilung von Mn . Dazu sind noch folgende Denitionen wichtig: Denition 6.2. Der rechte Randpunkt einer Verteilung F ist deniert als (≤ ∞). xR = sup{x| F (x) < 1} Das heiÿt: F (x) < 1 Denition 6.3. für alle x < xR und F (x) = 1 für alle Xn Gegeben seien die Zufallsvariablen Verteilungsfunktionen Fn und F. Die Folge x ≥ xR . für n≥1 und X mit den Xn konvergiert in Verteilung gegen X, falls lim Fn (x) = F (x) n→∞ für alle x∈R gilt, in denen F stetig ist. Ohne eine Skalierung der Für x < xR Mn ist das Grenzwertverhalten leicht festzustellen. folgt lim P (Mn ≤ x) = lim F n (x) = 0. n→∞ Wenn xR < ∞ folgt für n→∞ x ≥ xR P (Mn ≤ x) = F n (x) = 1. Somit gilt: 0 lim P (Mn ≤ x) = n→∞ 1 Das heiÿt, die Folge (Mn )n≥1 wenn x < xR wenn x ≥ xR konvergiert in Verteilung gegen die Konstante ist äquivalent zur Konvergenz von Mn gegen xR xR ≤ ∞ . in Wahrscheinlichkeit, d.h. für jedes Das ε≥0 gilt: lim P (|Mn − xR | > ε) = 0 n→∞ Da die Folge (Mn )n≥1 monoton wachsend ist, folgt auch die fast sichere Konvergenz von P Mn : lim Mn = xR = 1 n→∞ Dies bietet aber noch nicht genug Information, daher versucht man Aussagen über normierte und zentrierte Maxima zu treen. 56 Grundlagen Die Problemstellung lautet daher wie folgt: Unter welchen Bedingungen und geeigneten Folgen lim P n→∞ für jedes x ∈ R, in dem G (an )n≥1 (Mn − bn ) ≤x an in (0, ∞) und (bn )n≥1 in R gilt = G(x) stetig ist? Mit Hilfe des obigen Lemmas kann man dies noch umformulieren: P (Mn − bn ) ≤x an = P (Mn ≤ an x + bn ) = F n (an x + bn ) Das heiÿt, es sind Folgen G (an )n≥1 in (0, ∞) und (bn )n≥1 in R und eine Verteilungsfunktion gesucht, sodass lim F n (an x + bn ) = G(x) n→∞ für alle Stetigkeitspunkte Bemerkung. x∈R von G gilt. Der Einfachheit halber wird in weiterer Folge die Menge der Stetigkeitspunkte einer Verteilungsfunktion H mit C(H) bezeichnet. Da in diesem Kapitel die nicht-ausgeartete Verteilungsfunktion eine wichtige Rolle spielt, wird deren Denition an dieser Stelle wiederholt: Denition 6.4. Eine Verteilungsfunktion F heiÿt ausgeartet, wenn ein F (x) = 1[a,∞) (x), ∀x ∈ R. a∈R existiert mit Das heiÿt, die zugrunde liegende Zufallsvariable nimmt genau einen Wert an. Gilt dies nicht, so spricht man von einer nicht-ausgearteten Verteilungsfunktion. 57 Die drei Extremwertverteilungen 6.2 Satz von Khintchine Das Ziel in diesem Abschnitt ist die Formulierung und der Beweis des Satzes von Khintchine. Dieser Satz spielt eine wichtige Rolle, um das Fisher-Tippett-Theorem beweisen zu können. Satz 6.1 (von Khintchine). Sei (Fn )n≥1 eine Folge von Verteilungsfunktionen und G eine (an )n≥1 nicht-ausgeartete Verteilungsfunktion. Es seien in R, Für eine nicht-ausgeartete Verteilungsfunktion (0, ∞) bzw. (6.1) G∗ und Folgen (αn )n≥1 in (0, ∞) und (βn )n≥1 sind dann äquivalent: (a) lim Fn (αn x + βn ) = G∗ (x), n→∞ (b) Folgen in ∀x ∈ C(G) lim Fn (an x + bn ) = G(x) R (bn )n≥1 sodass Folgendes gilt: n→∞ in bzw. Es existieren Konstanten für alle Stetigkeitspunkte a ∈ (0, ∞) und b∈R mit x von lim αn n→∞ an G∗ . =a und lim n→∞ βn −bn an = b. Weiters gilt: G∗ (x) = G(ax + b) ∀x ∈ R. (6.2) Mithilfe dieses Satzes lassen sich in Abhängigkeit von bereits bekannten Konstantenfolgen (bn )n≥1 alle weiteren Folgen (e an )n≥1 in (0, ∞) und (ebn )n≥1 in R bestimmen, für Fn (e an x + ebn ) gegen eine nicht-ausgeartete Verteilungsfunktion konvergiert. (an )n≥1 die und Um diesen Satz zu beweisen, sind noch einige Resultate über inverse Funktionen nötig. Denition 6.5. Sei ϕ:R→R eine (nicht notwendig streng) monoton wachsende, rechts- seitig stetige Funktion. Auf dem oenen Intervall (inf ϕ, sup ϕ) sei die inverse Funktion deniert durch ϕ−1 (y) := inf My , wobei My gegeben ist durch My := {u| ϕ(u) ≥ y} für jedes y ∈ (inf ϕ, sup ϕ). Bemerkung. Der Denitionsbereich von ϕ−1 kann auch ein halboenes oder abgeschlossenes Intervall sein, je nachdem, ob inf{ϕ(x)} oder sup{ϕ(x)} für ein endliches x ∈ R angenommen wird. Hilfssatz 6.1. stetig und My Sei ϕ:R→R wie in Denition 1.5. Dann gilt: Beweis. Da ϕ Es existieren un ∈ My monoton wachsend ist, ist mit stetig ist, folgt, dass auch Damit ergibt sich: 58 (nicht notwendig streng) monoton wachsend und rechtsseitig My My = [inf My , ∞). ein nach oben unbeschränktes Intervall. un ↓ inf My . Wegen un ∈ My ϕ(inf My ) ≥ y , My = [inf My , ∞). also gilt inf My ∈ My . ϕ(un ) ≥ y , und da ϕ rechtsseitig Satz von Khintchine Einige wichtige Eigenschaften von inversen Funktionen werden zusammengefasst im folgenden Lemma 6.2. Sei ϕ:R→R eine (nicht notwendig streng) monoton wachsende, rechtsseitig stetige Funktion. (i) Für Konstanten a > 0, b c und aus R und H(x) = ϕ (ax + b) − c gilt H −1 (y) = a−1 ϕ−1 (y + c) − b ϕ−1 (ii) Für wie oben deniert, gilt: • ϕ−1 (ϕ(x)) ≤ x • ϕ ϕ−1 (y) ≥ y ϕ−1 (iii) Wenn (iv) Sei G ∀x mit ϕ(x) ∈ (inf{ϕ(x)}, sup{ϕ(x)}) ∀y mit y ∈ (inf{ϕ(x)}, sup{ϕ(x)}) ϕ−1 (ϕ(x)) = x stetig ist, dann ist für jedes x ∈ R. eine nicht-ausgeartete Verteilungsfunktion, dann existieren y1 < y2 , y1 und y2 mit sodass gilt: G−1 (y1 ) < G−1 (y2 ) . Beweis. (i) Die inverse Funktion ist gegeben durch: H −1 (y) = inf{x| ϕ(ax + b) − c ≥ y} = a−1 (inf{(ax + b)| ϕ(ax + b) ≥ y + c} − b) = a−1 (inf{z| ϕ(z) ≥ y + c} − b) = a−1 ϕ−1 (y + c) − b (ii) Es sei ϕ−1 wie oben deniert. • Wegen • Sei ϕ(x) ≥ ϕ(x) z = ϕ−1 (y), gilt d.h. x ∈ Mϕ(x) und daher z = inf My . ϕ−1 (ϕ(x)) = inf Mϕ(x) ≤ x. Laut Hilfssatz 6.1. gilt z ∈ My und somit ϕ(z) ≥ y . (iii) Aus (ii) ist bereits ϕ−1 (ϕ(x)) ≤ x bekannt. Angenommen, es gilt strikte Ungleichung: existiert ein Gleichheit: z ∈ Mϕ(x) mit z<x und ϕ−1 (ϕ(x)) < x, ϕ(z) ≥ ϕ(x). Da ϕ d.h. inf Mϕ(x) < x. Daher monoton wachsend ist, folgt ϕ(z) = ϕ(x). z ∈ My ϕ−1 (y) ≤ z . Für y = ϕ(z) = ϕ(x) Für y > ϕ(z) = ϕ(x) gilt x ∈ / My . Aus dem Hilfssatz 6.1. folgt x < inf My = ϕ−1 (y). Da z < x, hat ϕ−1 gilt und somit eine Sprungstelle in ϕ(x). Das ist aber ein Widerspruch zur Stetigkeit −1 . Daraus folgt nun die behauptete Gleichheit: von ϕ ϕ−1 (ϕ(x)) = x. 59 Die drei Extremwertverteilungen (iv) Da G nicht-ausgeartet ist, existieren G(e x2 ) = y2 ≤ 1. Wegen x1 = Seien x2 = inf My2 G−1 (y und 1 ) und x e1 ∈ / My2 und x e1 x e2 x2 = mit x e1 < x e2 , G−1 (y Ist H 0 < G(e x1 ) = y1 < 2 ). folgt aus dem Hilfssatz 6.1., dass dies ist äquivalent zu x e1 < G−1 (y2 ). Aus (ii) folgt x e1 ≥ G−1 (G(e x1 )) = G−1 (y1 ). Damit ist Hilfssatz 6.2. sodass eine Verteilungsfunktion, dann ist x e1 < x2 G−1 (y1 ) < G−1 (y2 ) H ist, und gezeigt. höchstens in abzählbar vielen Punkten unstetig. Beweis. Sei Un mit Sprunghöhe die Menge aller Punkte ≥ 1 n , wobei Unstetigkeitsstellen von n ∈ N. x∈R mit (H(x) − H(x−)) ≥ ∞ S Da H monoton wachsend ist, ist 1 n , d.h. alle Punkte Un die Menge aller n=1 H . Jede Menge Un kann maximal n Elemente enthalten und ist somit abzählbar. Daraus folgt, dass auch die Vereinigung abzählbar ist. Hilfssatz 6.3. Sind H1 gilt, in denen sowohl und H1 H2 Verteilungsfunktionen, sodass als auch H2 stetig sind, dann gilt H1 (x) = H2 (x) H1 (x) = H2 (x) für alle x∈R bereits für alle x ∈ R. Beweis. Seien U1 und U2 die Unstetigkeitsstellen von H1 bzw. H2 . Dann ist U1 ∪ U2 abzähl- bar. Sei nun x∈R beliebig. Es gibt xn ∈ / U1 ∪ U2 mit xn ↓ x. Damit folgt H1 (x) = lim H1 (xn ) = lim H2 (xn ) = H2 (x). n→∞ Korollar 6.1. b und β Wenn G Konstanten aus n→∞ eine nicht-ausgeartete Verteilungsfunktion ist und R sind, sodass G(ax + b) = G(αx + β) a=α Beweis. Man wähle x1 = G−1 (y 1 ) und die Inversen von y1 < y 2 x2 = G−1 (y G(ax + b) und und für alle y1 −∞ < x1 < x2 < ∞ G(αx + β) nach Lemma 6.2.(iv) so, dass bilden: y2 an, erhält man folgende Gleichungen: (I) a−1 (x1 − b) = α−1 (x1 − β) für y = y1 (II) a−1 (x2 − b) = α−1 (x2 − β) für y = y2 60 gilt, dann folgt 2 ) gilt. Mithilfe Punkt (i) des obigen Lemmas kann man nun und und x∈R b = β. a−1 G−1 (y) − b = α−1 G−1 (y) − β . Wendet man dies auf a > 0, α > 0, Satz von Khintchine Durch weitere Umformung ergibt sich: (I) a−1 x1 − a−1 b = α−1 x1 − α−1 β (II) a−1 x2 − a−1 b = α−1 x2 − α−1 β Subtraktion der Gleichung (II) von Gleichung (I) führt zu: a−1 (x1 − x2 ) = α−1 (x1 − x2 ). Da (x1 − x2 ) 6= 0 ist, sieht man mittels Division, dass a = α und b = β. Ein weiteres Lemma ist für den Beweis des Satzes von Khintchine hilfreich. Lemma 6.3. x punkte von Seien G Fn für n≥1 und G Verteilungsfunktionen, sodass für alle Stetigkeits- gilt lim Fn (x) = G(x). n→∞ lim yn = y Wenn n→∞ gilt, dann gilt auch lim Fn (yn ) = G(y) n→∞ für alle Punkte Beweis. Sei y ∈ C(G). ε > 0. Da G(y) − G(y − δ) < ε. Es gilt da G G in Seien y stetig ist, existiert ein u ∈ [y − δ, y) und G(v) − G(y) < ε ⇔ G(v) < G(y) + ε δ>0 v ∈ (y, y + δ] und mit G(y + δ) − G(y) < ε Stetigkeitspunkte von und G. G(y) − G(u) < ε ⇔ G(u) > G(y) − ε, monoton wachsend ist. Wegen lim Fn (u) = G(u) n→∞ Fn (u) > G(y) − ε und Da u < y < v, Sei n0 := max (n1 , n2 ). und lim Fn (v) = G(v) n→∞ Fn (v) < G(y) + ε existiert ein Für n2 ∈ N mit n ≥ n0 gilt: für alle existiert ein n1 ∈ N, sodass n ≥ n1 . yn ∈ (u, v) für n ≥ n2 . Fn (yn ) ≤ Fn (v) < G(y) + ε und Fn (yn ) ≥ Fn (u) > G(y) − ε d.h. |Fn (yn ) − G(y)| < ε und somit lim Fn (yn ) = G(y). n→∞ Mit diesen Resultaten kann man nun den Satz von Khintchine beweisen. 61 Die drei Extremwertverteilungen Beweis von Satz 6.1. Man setzt folgende Abkürzungen αn >0 an βn − bn 0 ∈R βn : = an 0 αn : = 0 Fn (x) : = Fn (an x + bn ) Somit kann man (6.1) schreiben als 0 lim Fn (x) = G(x), (6.3) n→∞ die Aussage (a) als 0 0 0 lim Fn (αn x + βn ) = G∗ (x), (6.4) n→∞ da 0 0 0 0 0 0 0 Fn (αn x + βn ) = Fn αn an x + βn an + bn = Fn an αn x + βn + bn = Fn αn x + βn und die Aussage (b) als 0 lim αn = a (b) ⇒ (a) 0 βn → b. 0 und n→∞ Angenommen es gibt Konstanten lim βn = b. (6.5) n→∞ a ∈ (0, ∞) und b ∈ R, sodass 0 αn → a und Nach Voraussetzung gilt auch (6.1) oder in der vereinfachten Notation (6.3): 0 lim Fn (x) = G(x) ∀x ∈ C(G) n→∞ Mit 0 0 yn := αn x + βn und y := ax + b sind die Bedingungen von Lemma 6.3. erfüllt, und es ergibt sich: 0 0 0 lim Fn (αn x + βn ) = G(ax + b) =: G∗ (x) n→∞ für alle Punkte x ∈ C(G∗ ). G∗ (x) = G(ax + b) für alle Aus Hilfssatz 6.3. folgt mit für alle x∈R (a) ⇒ (b) Somit erhält man sowohl Aussage (a) als auch (6.2): x ∈ C(G∗ ) bzw. für alle H1 (x) = G∗ (x) und (ax + b) ∈ C(G). H2 (x) = G(ax + b), dass G∗ (x) = G(ax + b) gilt. Laut Voraussetzung gilt nun Aussage 0 0 (a) bzw. mittels einfacher Notation: 0 lim Fn (αn x + βn ) = G∗ (x) n→∞ für alle Punkte 0 < G∗ (x) < 1 sodass 62 G∗ in x1 x ∈ C(G∗ ). für und Da G∗ u < x < v. x2 nicht-ausgeartet ist, gibt es ein Intervall Man wählt zwei Punkte stetig ist. x1 und x2 in (u, v) (u, v) mit mit x1 6= x2 , Satz von Khintchine Behauptung: Die Folge 0 0 αn x1 + βn n≥1 ist beschränkt. (nk )k∈N Angenommen diese Aussage gilt nicht. Dann würde eine Folge lim k→∞ 0 0 αnk x1 + βnk = ±∞. stetig ist. Es gibt ein Weiters sei k0 n0 so, dass Dann gilt für alle Sei G∗ (x1 ) < α < 1 0 so, dass Fn (w) > α 0 0 αnk x1 + βnk > u für für w∈R und n ≥ n0 . k ≥ k0 und existieren, sodass G(w) > α so, dass G und in w Dies folgt aus (6.3). k0 auch so groÿ, dass nk 0 ≥ n0 . k ≥ k0 : 0 0 0 0 Fnk (αnk x1 + βnk ) ≥ Fnk (u) > α Dies ist aber ein Widerspruch zu: 0 0 0 lim Fn (αn x1 + βn ) = G∗ (x1 ) < α n→∞ 0 0 αn x2 + βn beschränkt ist. n≥1 0 0 0 0 0 Somit ist auch die Folge (αn x1 + βn ) − (αn x2 + βn ) = αn (x1 − x2 ) beschränkt. Daraus 0 0 0 0 folgt die Beschränktheit von (αn )n≥1 . Da αn x1 + βn beschränkt ist, muss es auch (βn )n≥1 Auf gleiche Weise kann man zeigen, dass sein. a und (ax + b) ∈ C(G), dass Der Satz von Bolzano-Weierstraÿ besagt, dass es Konstanten Folge (nk )k∈N b aus R sowie eine gibt mit 0 lim αnk = a k→∞ und 0 lim βnk = b. k→∞ Es folgt wieder aus Lemma 6.3. für alle Punkte 0 0 0 lim Fnk (αnk x + βnk ) = G(ax + b). k→∞ Da nach (6.4) G∗ G∗ (x) = G(ax + b) eine Verteilungsfunktion ist, muss a>0 sein. Sonst wäre konstant oder entartet. Es bleibt noch zu zeigen, dass 0 lim αn = a n→∞ Angenommen, es gäbe eine andere Folge und 0 lim βn = b. n→∞ (mk )k∈N mit 0 0 lim αmk = a k→∞ und 0 0 lim βmk = b . k→∞ Dann würde man 0 0 G(a x + b ) = G∗ (x) = G(ax + b) erhalten. Nach Korollar 6.1. ist Daher ist alle 0 lim αn = a n→∞ und 0 a =a 0 und lim βn = b, n→∞ 0 b = b. und es gilt Aussage (6.2): G∗ (x) = G(ax + b) für x ∈ R. 63 Die drei Extremwertverteilungen 6.3 Max-stabile Verteilungen Das zentrale Resultat in diesem Abschnitt ist der Satz, der die möglichen Grenzwertverteilungen für Maxima von i.i.d. Folgen charakterisiert. Ausgangspunkt sind folgende Denitionen: Denition 6.6. falls für jedes Sei G eine nicht-ausgeartete Verteilungsfunktion. Diese heiÿt max-stabil, n = 2, 3, . . . Konstanten an > 0 bn und aus Gn (an x + bn ) = G(x) R existieren, sodass ∀x ∈ R gilt. Denition 6.7. Eine Verteilungsfunktion G, einer Verteilungsfunktion F gehört zum maximalen Anziehungsbereich wenn Konstanten an > 0 lim F n (an x + bn ) = G(x) bn ∈ R existieren, sodass ∀x ∈ C(G) n→∞ gilt. Man schreibt dann und (6.6) F ∈ D(G). In dem folgenden Theorem wird unter anderem gezeigt, dass die Grenzwertverteilungen G, die in (6.6) auftreten, mit der Klasse der max-stabilen Verteilungen übereinstimmen. Theorem 6.1. (i) Eine nicht-ausgeartete Verteilungsfunktion wenn es eine Folge und (bn )n≥1 in R (Fn )n≥1 G ist max-stabil genau dann, von Verteilungsfunktionen und Folgen (an )n≥1 1 lim Fn (ank x + bnk ) = G k (x), G (ii) Wenn k = 1, 2, . . . und (6.7) x ∈ C(G). nicht-ausgeartet ist, ist Dann folgt: (0, ∞) gibt, sodass n→∞ für jedes in G ∈ D(G). D(G) genau dann nicht leer, wenn G max-stabil ist. Insbesondere stimmt die Klasse von Verteilungsfunktionen, die als Grenzwert in (6.7) auftreten, mit der Klasse der max-stabilen Verteilungsfunktionen überein. Beweis. (i) (⇒) Sei nun x ∈ R, wobei an > 0 G max-stabil, das heiÿt Gn (an x + bn ) = G(x) für alle n ≥ 1 und und bn Konstanten aus R sind. Mit Fn := Gn gilt 1 1 k = G k (x). Fn (ank x + bnk ) = Gnk (ank x + bnk ) Damit folgt auch schon die Aussage, dass 1 lim Fn (ank x + bnk ) = G k (x) n→∞ 64 für alle k ∈ N. Max-stabile Verteilungen (⇐) Es wird vorausgesetzt, dass G nicht-ausgeartet ist. Dann ist es auch nicht. Laut Voraussetzung gilt für alle k≥1 und 1 Gk für k∈N x ∈ C(G) 1 lim Fn (ank x + bnk ) = G k (x). n→∞ Für k=1 erhält man: lim Fn (an x + bn ) = G(x), n→∞ wobei x ∈ C(G). cn := ank , dn := bnk Setzt man nun und G∗ := G1/k , dann folgt für x ∈ C(G∗ ): lim Fn (cn x + dn ) = G∗ (x). n→∞ Somit sind die Bedingungen des Satzes von Khintchine erfüllt, und es folgt für geeignete Konstanten αk > 0 und βk aus R, dass für alle x∈R 1 G∗ (x) = G k (x) = G(αk x + βk ). Da somit (ii) (⇒) Sei G(x) = Gk (αk x + βk ) D(G) 6= 0 gilt, ist G max-stabil. und F eine Verteilungsfunktion mit F ∈ D(G). Es gilt: lim F n (an x + bn ) = G(x) n→∞ für geeignete Konstanten an > 0 und bn aus R und x ∈ C(G). Damit folgt bereits lim F nk (ank x + bnk ) = G(x) n→∞ und somit 1 lim F n (ank x + bnk ) = G k (x). n→∞ Man sieht, dass die Bedingung (6.7) für Fn := F n erfüllt ist, und daher ist G nach (i) max-stabil. (⇐) Angenommen, x ∈ R, wobei an > 0 G ist max-stabil, d.h. und b aus R Gn (an x + bn ) = G(x) für alle n ≥ 1 und Konstanten sind. Dann folgt sofort, dass lim Gn (an x + bn ) = G(x) n→∞ für x∈R gilt und somit ist G ∈ D(G). 65 Die drei Extremwertverteilungen Korollar 6.2. Sei G eine max-stabile Verteilungsfunktion. Dann existieren reelle Funktionen a : R+ → R+ b : R+ → R, mit Gs (a(s)x + b(s)) = G(x) Beweis. Da G s>0 für und x ∈ R. an max-stabil ist, existieren Konstanten Gn (an x + bn ) = G(x), Im Folgenden wird mit d.e in für alle (0, ∞) und bn aus R, sodass n ≥ 1. die obere Gauÿ-Klammer bezeichnet. Somit gilt auch: Gdnse adnse x + bdnse = G(x) für alle x ∈ R, n ∈ N und s > 0. Aufgrund der Konvergenz lim n n→∞ dnse 1 s = folgt n n 1 n→∞ Gn adnse x + bdnse = Gdnse (adnse x + bdnse ) dnse = G dnse (x) −−−→ G s (x). Für s=1 und x∈R erhält man: lim Gn (an x + bn ) = G(x) n→∞ Setzt man nun αn := adnse , βn := bdnse und 1 G∗ := G s , dann folgt ∀x ∈ R: lim Gn (αn x + βn ) = G∗ (x) n→∞ Damit sind die Voraussetzungen des Satzes von Khintchine erfüllt, und es existieren in Abhängigkeit von s geeignete Konstanten lim n→∞ adnse an a(s) ∈ (0, ∞) = a(s) und lim n→∞ und b(s) ∈ R bdnse −bn an mit = b(s). Daraus ergeben sich die folgenden Funktionen a : R+ → R+ , s 7→ a(s) = lim n→∞ die der gewünschten Bedingung jedes x aus R und s>0 adnse an und b : R+ → R, s 7→ b(s) = lim n→∞ bdnse −bn , an 1 G (a(s)x + b(s)) = G s (x) ⇔ Gs (a(s)x + b(s)) = G(x) für entsprechen. Folgende Denition ist im Bereich der Extremwerttheorie weit verbreitet: Denition 6.8. Seien H1 und H2 Verteilungsfunktionen. Man sagt, selben Typ, falls geeignete Konstanten a>0 und H2 (x) = H1 (ax + b), 66 b aus R H1 existieren mit ∀x ∈ R. und H2 sind vom Max-stabile Verteilungen Bemerkung. (i) Mit dieser Denition kann man max-stabile Verteilungsfunktionen auch folgendermaÿen charakterisieren: Eine nicht-ausgeartete Verteilungsfunktion n funktion G für jedes n = 2, 3, . . . G heiÿt max-stabil, wenn die Verteilungs- vom selben Typ ist wie G. (ii) Aus dem Satz von Khintchine kann man weiters folgern: Sei (Fn )n≥1 eine Folge von Verteilungsfunktionen und gilt sowohl lim Fn (an x + bn ) = G1 (x), ∀x ∈ C(G1 ) lim Fn (αn x + βn ) = G2 (x), ∀x ∈ C(G2 ) n→∞ als auch n→∞ für nicht-ausgeartete Verteilungsfunktionen G1 und G2 , dann sind G1 und G2 vom sel- ben Typ. Damit ist die Grenzwertverteilung von normierten und zentrierten Maxima, d.h. von Mn −bn an für n → ∞, eindeutig bestimmt bis auf Typ-Gleichheit - sofern diese exis- tiert. Korollar 6.3. Seien H1 und H2 zwei nicht-ausgeartete Verteilungsfunktionen. Dann sind folgende Aussagen äquivalent: H1 (i) und (ii) Es gilt: Beweis. (i) b aus R, H2 sind vom selben Typ. D(H1 ) = D(H2 ). ⇒ sodass H1 (ii) : Da und H2 vom selben Typ sind, existieren Konstanten H2 (x) = H1 (ax + b), ∀x ∈ R, gilt. Sei nun lim F n (an x + bn ) = H1 (x), n→∞ Indem man αn := a an und βn := b an + bn F ∈ D(H1 ). a>0 und Das heiÿt: ∀x ∈ C(H1 ). setzt, ist die Aussage (b) des Satzes von Khintchine erfüllt, und daraus folgt: lim F n (αn x + βn ) = H2 (x), n→∞ wobei H2 (x) = H1 (ax + b) ist. Somit gilt: F ∈ D(H2 ). F ∈ D(H2 ) die Aussage Analog kann man zeigen, dass (ii) ⇒ (i) : Sei αn > 0, bn F ∈ D(H1 ) und βn aus R, und F ∈ D(H2 ). lim F n (an x + bn ) = H1 (x) Aus dem Satz von Khintchine folgt, dass H2 F ∈ D(H1 ) impliziert. Das heiÿt, es gibt geeignete Konstanten an > 0, sodass gilt: n→∞ und ∀x ∈ C(H2 ), und lim F n (αn x + βn ) = H2 (x). n→∞ H2 (x) = H1 (ax + b), ∀x ∈ R, und somit sind H1 vom selben Typ. 67 Die drei Extremwertverteilungen 6.4 Fisher-Tippett-Theorem Mit Hilfe des Fisher-Tippett-Theorems kann man die Extremwertverteilungen, d.h. die nicht-ausgearteten Verteilungen G, die als Grenzwert in lim F n (an x + bn ) = G(x), ∀x ∈ C(G) n→∞ (an )n≥1 für geeignete Folgen in (0, ∞) und (bn )n≥1 in R auftreten, genau beschreiben. Der Satz besagt, dass Extremwertverteilungen bis auf Typgleichheit die Form der Fréchet-, Gumbel- oder Weibull-Verteilung haben. Der Beweis erfolgt in zwei Schritten. Der erste Schritt wurde bereits im obigen Abschnitt gezeigt: Aus Theorem 6.1. ist bekannt, dass die Extremwertverteilungen genau die maxstabilen Verteilungen sind. Im nächsten Schritt wird gezeigt, dass jede max-stabile Verteilung bis auf Typgleichheit mit einer von drei möglichen Verteilungen übereinstimmt. Dies wird bereits im nächsten Satz bewiesen. Dafür ist jedoch noch folgender Hilfssatz nötig: Hilfssatz 6.4. Sei G eine nicht-ausgeartete, max-stabile Verteilungsfunktion. Gegeben sei folgende Funktion: ψ : D → R, x 7→ − log(− log G(x)) mit dem Denitionsbereich D = {x ∈ R : G(x) ∈ (0, 1)}. −1 im Sinne der Denition 6.5. auf Funktion ψ Dann besitzt diese eine inverse R. Beweis. Damit eine inverse Funktion gemäÿ Denition 6.5. existiert, muss ψ drei Eigen- schaften erfüllen: (1) ψ muss (nicht notwendig streng) monoton wachsend sein (2) ψ muss eine rechtsseitig stetige Funktion sein • inf ψ(x) = −∞ (3) x∈D • sup ψ(x) = ∞ x∈D Nun ist nachzuweisen, dass (1) G ψ die obigen Eigenschaften besitzt: ist als nicht-ausgeartete Verteilungsfunktion monoton wachsend. Die Logarithmus- Funktion ist selbst streng monoton wachsend. Somit ist noton wachsend. 68 ψ (nicht notwendig) streng mo- Fisher-Tippett-Theorem (2) G ist rechtsseitig stetig und der Logarithmus sogar stetig. Damit ist ψ als Verknüpfung rechtsseitig stetig. (3) • inf ψ(x) = −∞ Die Aussage Element x̃ x∈D in D gibt mit ist bewiesen, sobald gezeigt ist, dass es kein kleinstes G(x̃) > 0. inf G(x) = 0 x∈D Angenommen, es existiert ein xn ↑ x̃ Da G gilt: Dann folgt sofort: und somit x̃ ∈ D mit inf ψ(x) = −∞. x∈D G(x̃) > 0, sodass für Folgen (xn )n≥1 mit b R: lim G(xn ) = 0. n→∞ max-stabil ist, folgt für n=2 und geeignete Konstanten G2 (ax + b) = G(x), a>0 und aus ∀x ∈ R Nun werden drei Fälle unterschieden: Für ax̃ + b < x̃ gilt 0 < G(x̃) = G2 (ax̃ + b) = 0, und somit liegt ein Widerspruch vor. Für ax̃ + b > x̃ ⇔ x̃ > x̃−b a gilt 0 < G2 (x̃) = G2 a · x̃−b a +b =G x̃−b a = 0. Auch hier gibt es einen Widerspruch. Für ax̃ + b = x̃ gilt: G2 (x̃) = G2 (ax̃ + b) = G(x̃) > 0. Damit diese Gleichung gültig ist, müsste G(x̃) = 1 und somit ausgeartet sein. Auch dies ist ein Widerspruch. Daher kann D kein kleinstes Element enthalten, und die Aussage • Um sup ψ(x) = ∞ x̃ inf G(x) = 0 x∈D mit den oben geforderten Eigenschaften ist gezeigt. zu zeigen, geht man analog vor. Es wird bewiesen, dass x∈D sup G(x) = 1 und damit x∈D Angenommen, es existiert ein xn ↑ x 0 gilt: sup ψ(x) = ∞ gilt. x∈D 0 x ∈ /D mit 0 G(x ) = 1, sodass für Folgen (xn )n≥1 mit lim G(xn ) < 1. n→∞ Aufgrund der Max-Stabilität gilt wieder: G2 (ax + b) = G(x), ∀x ∈ R Auch hier werden drei Fälle unterschieden: Für 0 ax + b < x 0 gilt 0 0 1 = G(x ) = G2 (ax + b) < 1, und somit liegt ein Widerspruch vor. 69 Die drei Extremwertverteilungen Für 0 0 0 0 ax + b > x ⇔ x > x −b a gilt 0 0 1 = G2 (x ) = G2 a · x −b a 0 + b = G x a−b < 1, und auch diese Gleichung stellt einen Widerspruch dar. Für 0 ax + b = x 0 wählt man eine Folge xn mit xn ↑ x 0 und es folgt lim G2 (xn ) = lim G2 (axn + b) = lim G(xn ) < 1. n→∞ Auch hier müsste n→∞ G n→∞ ausgeartet sein, was aber erneut einen Widerspruch zur Vor- aussetzung darstellt. Somit kann die Menge D enthalten, und daher gilt kein gröÿtes Element x 0 mit den obigen Eigenschaften sup G(x) = 1. x∈D Zusammenfassend wurde gezeigt, dass Satz 6.2. Sei G ψ auf R eine inverse Funktion ψ −1 besitzt. eine nicht-ausgeartete Verteilungsfunktion. Dann sind folgende Aussagen äquivalent: (a) G ist max-stabil (b) G hat bis auf Typ-Gleichheit die Gestalt von einer der drei folgenden Verteilungsfunktio- nen: (i) Gumbel-Verteilung: Λ(x) = exp(−e−x ), für x ∈ (−∞, ∞) (ii) Fréchet-Verteilung: Für α > 0 ist 0 Φα (x) = exp(−x−α ).1(0,∞) (x) = exp(−x−α ) (iii) Weibull-Verteilung: Für α>0 wenn x≤0 wenn x>0 ist exp(−(−x)α ) α Ψα (x) = exp(−(−x) ).1(−∞,0) (x)+1[0,∞) (x) = 1 wenn x<0 wenn x≥0 Beweis. (b) ⇒(a) : In diesem Schritt ist zu zeigen, dass die Gumbel-, Fréchet- und WeibullVerteilung max-stabil sind, d.h. für jedes R n = 2, 3, · · · soll es Konstanten an > 0 und bn geben mit Gn (an x + bn ) = G(x), ∀x ∈ R. bn = log(n), so gilt ∀x ∈ R, ∀n ≥ 2: −x n n = (exp(−e−x )) = Λ(x). Λ (x + log(n))n = exp(−e−x−log(n) ) = exp − e n ad (i) : Wählt man für die Konstanten an = 1 und Das heiÿt, die Gumbel-Verteilung ist max-stabil. 70 aus Fisher-Tippett-Theorem ad (ii) : Wählt man in diesem Fall für die Konstanten und 1 an = n α und bn = 0, so gilt ∀x ∈ R ∀n ≥ 2: n n Φα n1/α x = exp(−(n1/α x)−α ) .1(0,∞) (n1/α x) −α n x = exp − .1(0,∞) (x) n = exp(−x−α ) .1(0,∞) (x) = Φα (x) Somit ist auch die Fréchet-Verteilung max-stabil. ad (iii) : Hier wählt man für die Konstanten 1 an = n− α und bn = 0. Dann gilt ∀x ∈ R, ∀n ≥ 2: n .1(−∞,0) (n−1/α x) + 1[0,∞) (n−1/α x) Ψα (n−1/α x)n = exp −(−(n−1/α x))α n = exp −((−x)α )n−1 .1(−∞,0) (x) + 1[0,∞) (x) = (exp (−(−x)α )) .1(−∞,0) (x) + 1[0,∞) (x) = Ψα (x) Auch die Weibull-Verteilung ist max-stabil. (a) ⇒(b) : In diesem Beweisschritt wird auf die Funktionalgleichung von Korollar 6.2. Gs (a(s)x + b(s)) = G(x), s > 0 für reelle Funktionen a : R+ → R+ und b : R+ → R zurückgegrien und gezeigt, dass die einzige Lösung dieser Gleichung zum Typ der Gumbel-, Fréchet- oder Weibull-Verteilung gehört. Dazu geht man von der bereits oben erwähnten Funktion aus: ψ : D → R, x 7→ − log(− log G(x)) mit dem Denitionsbereich D = {x ∈ R : G(x) ∈ (0, 1)}. Laut Hilfssatz 6.4. besitzt die Funktion ψ −1 ψ eine inverse Funktion ψ −1 auf R. Um die Funktion genauer zu beschreiben, nimmt man die Funktionalgleichung Gs (a(s)x + b(s)) = G(x) von Korollar 6.2. und setzt diese in ψ(x) ein: ψ(x) = − log(− log G(x)) = − log(− log Gs (a(s)x + b(s))) = − log(− log(G(a(s)x + b(s)).s)) = ψ(a(s)x + b(s)) − log(s) 71 Die drei Extremwertverteilungen Daraus ergibt sich mit Hilfe von Lemma 6.2.(i) für ψ −1 (y) = Für y=0 1 −1 a(s) (ψ (y a = a(s), b = b(s) + log(s)) − b(s)), ∀y ∈ R und und c = log(s): s > 0. erhält man daraus ψ −1 (0) = 1 −1 a(s) (ψ (log(s)) Subtrahiert man nun die Gleichung ψ −1 (0) von − b(s)), ψ −1 (y), für s > 0. so folgt: 1 1 ψ −1 (y + log(s)) − b(s) − (ψ −1 (log(s)) − b(s)) a(s) a(s) 1 = ψ −1 (y + log(s)) − ψ −1 (log(s)) a(s) ψ −1 (y) − ψ −1 (0) = Durch Umformung erhält man a(s) ψ −1 (y) − ψ −1 (0) = ψ −1 (y + log(s)) − ψ −1 (log(s)) . Indem man die Abkürzungen z := log(s), ã(z) := a(ez ) und f (y) := ψ −1 (y) − ψ −1 (0) setzt, folgt: f (y + z) − f (z) = f (y)ã(z), ∀y, z ∈ R (6.8) Von dieser Gleichung werden nun die Lösungen gesucht, wobei man auch hier eine Fallunterscheidung machen muss: 1.Fall: ã(z) ≡ 1 Dann vereinfacht sich Gleichung (6.8) zu: f (y + z) − f (z) = f (y), ∀y, z ∈ R. Die einzige monoton wachsende Lösung ist bis auf Konstanten eindeutig und hat die Form f (y) = cy , Die Konstante c für eine Konstante muss gröÿer Null sein, da sonst c > 0. f (y) ≡ 0 und somit ψ −1 konstant und daher entartet wäre. Da laut Denition f (y) = ψ −1 (y) − ψ −1 (0) ist, sieht man mittels Umformung, dass ψ −1 (y) = cy + ψ −1 (0) gilt und ψ −1 stetig ist. In weiterer Folge deniert man d := ψ −1 (0). Lemma 6.2.(iii) anwenden und erhält: x = ψ −1 (ψ(x)) = cψ(x) + d. Daraus folgt ψ(x) = Man setzt dieses Ergebnis gleich mit ψ(x) = − log(− log G(x)): x−d c 72 x−d c . = − log(− log G(x)) Nun kann man G Fisher-Tippett-Theorem ⇔ exp(− x−d c ) = − log G(x) ⇔ exp(−e− x−d c ) = G(x) ⇔ exp(−e−αx+β ) = G(x) mit α= 1 c und β= ã(z) 6= 1, 2.Fall: d c . Man sieht, dass d.h. ∃z0 ∈ R, Vertauscht man in (6.8) y und G sodass z, vom Typ der Gumbel-Verteilung ist. ã(z0 ) 6= 1. so erhält man f (z + y) − f (y) = f (z)ã(y), ∀y, z ∈ R. Nun zieht man dieses Ergebnis von Gleichung (6.8) ab: f (y) − f (z) = f (y)ã(z) − f (z)ã(y) ⇔ f (y) (1 − ã(z)) = f (z) (1 − ã(y)), ∀y, z ∈ R Für z = z0 und d := f (z0 ) 1−ã(z0 ) ergibt sich: f (y) = Dabei ist d 6= 0, da sonst f (z0 ) (1 − ã(y)) = d (1 − ã(y)) 1 − ã(z0 ) f (y) = 0, ∀y ∈ R und G (6.9) somit entartet wäre. Wenn man Gleichung (6.9) in Gleichung (6.8) einsetzt, dann folgt: d (1 − ã(y + z)) − d (1 − ã(z)) = d (1 − ã(y)) ã(z) Im nächsten Schritt dividiert man durch d 6= 0: (1 − ã(y + z)) − (1 − ã(z)) = (1 − ã(y)) ã(z) ⇔ ã(z) − ã(y + z) = ã(z) − ã(y)ã(z) ⇔ ã(y + z) = ã(y)ã(z), ∀y, z ∈ R Da die Funktion ã(z) = a(ez ) nur positive Werte annimmt, kann man in obiger Gleichung beide Seiten logarithmieren: log(ã(y + z)) = log(ã(y)) + log(ã(z)) Als Lösung dieser Gleichung erhält man: log(ã(y)) = cy, mit c = log(ã(1)) = log(ae ). Durch Anwendung der Exponentialfunktion erhält man: ã(y) = exp(cy), wobei c 6= 0, da sonst ã ≡ 1 ∀y ∈ R ∀y ∈ R, ein Widerspruch zur Voraussetzung wäre. 73 Die drei Extremwertverteilungen Die Gleichung (6.9) kann man nun folgendermaÿen umformulieren: ψ −1 (y) = a + d(1 − exp(cy)), mit a := ψ −1 (0). Da ψ(x) = − log(− log G(x)) monoton wachsend ist, gilt dies auch für ψ −1 . Daher folgt: Da • Für muss d<0 sein. • Umgekehrt: für c<0 muss ψ −1 c>0 d>0 sein. eine stetige Funktion ist, kann an dieser Stelle Lemma 6.2.(iii) angewendet werden, und für die Funktion ψ(x) wird deren Denition eingesetzt: x = ψ −1 (ψ(x)) = a + d (1 − exp(cψ(x))) = a + d 1 − (− log G(x))−c Diese Gleichung kann man weiter umformen: G(x) = exp −(1 − Das gilt für alle • Für c>0 x mit G(x) ∈ (0, 1). setzt man γ := 1 c Mit α := − d1 > 0 G(x) = exp (−(αx + β)−γ ), Da G Nun wird wieder unterschieden: > 0. Diese Bedingung ist für jene x−a − 1c d ) x∈R für alle und x∈R erfüllt, für die β := 1 + mit a d ergibt sich: 0 < G(x) < 1. αx + β > 0 gilt. monoton wachsend ist, erhält man folgendes Resultat: G(x) = exp (−(αx + β)−γ ) .1(0,∞) (αx + β) G Somit ist • Für c<0 vom Typ der Fréchet-Verteilung. sei nun δ := − 1c > 0. Mit α := G(x) = exp −(−(αx + β)δ ) , Diese Bedingung ist für jene Da G x∈R 1 d >0 für alle und β := −(1 + ad ) x ∈ R, erfüllt, für die für die αx + β < 0 folgt: 0 < G(x) < 1. gilt. monoton wachsend ist, folgt: G(x) = exp −(−(αx + β)δ ) .1(−∞,0) (αx + β) + 1[0,∞) (αx + β) In diesem Fall ist G vom Typ der Weibull-Verteilung. Damit lässt sich nun das Fisher-Tippett-Theorem leicht beweisen. 74 Fisher-Tippett-Theorem Satz 6.3 (Fisher-Tippett-Theorem). Für n∈N sei Mn = max{X1 , X2 , . . . , Xn }, (Xi )1≤i≤n i.i.d. Zufallsvariablen mit gemeinsamer Verteilungsfunktion F ausgeartete Verteilungsfunktion (a) ist eine Extremwertverteilung, d.h. es existieren Folgen in R, für jedes x ∈ C(G) in (0, ∞) und (bn )n≥1 (Mn −bn ) an ≤ x = lim F n (an x + bn ) = G(x) n→∞ gilt. ist vom Typ der Gumbel-, Fréchet- oder Weibull-Verteilung. Beweis. Sei G eine nicht-ausgeartete Verteilungsfunktion. Nach Theorem 6.1.(ii) ist der Anziehungsbereich von G (an )n≥1 sodass n→∞ G sind. Für eine nicht- sind äquivalent: G lim P (b) G wobei G genau dann nicht leer, wenn G max-stabil ist. Laut obigem Satz ist genau dann max-stabil, wenn G vom Typ der Gumbel-, Fréchet-, oder Weibull-Verteilung ist. Bemerkung. (1) Die Gumbel-, Fréchet- und Weibull-Verteilung werden häug als die drei Extremwertverteilungen bezeichnet. (2) Wie aus dem Fisher-Tippett-Theorem hervorgeht, sind die drei Extremwertverteilungen (Gumbel-, Fréchet- und Weibull-Verteilung) selbst stetig. Daher braucht in weiterer Folge bei der Konvergenz in Verteilung nicht mehr auf Stetigkeitspunkte der Grenzwertverteilung geachtet werden. Im Fisher-Tippett-Theorem wird davon ausgegangen, dass gegen eine nicht-ausgeartete Grenzwertverteilung teilung G G (Mn −bn ) in Verteilung an n≥1 konvergiert. Von dieser Grenzwertver- wird dann gezeigt, von welchem Typ sie ist. Jedoch liegt nicht jede beliebige Verteilungsfunktion im Anziehungsbereich einer nicht ausgearteten Extremwertverteilung, wie das folgende Beispiel zeigt: Beispiel. ρ<1 Sei F eine Verteilungsfunktion mit dem rechten Randpunkt xn ↑ xR , Existiert ein lim F (xn ) = ρ, dann kann n→∞ Anziehungsbereich der Gumbel-, Fréchet- oder Weibull-Verteilung sein. und eine Folge (xn )n≥1 xR < ∞. mit sodass F nicht im Angenommen, dies wäre aber der Fall. Dann würde eine nicht-ausgeartete Verteilungsfunktion G mit F ∈ D(G) existieren, d.h. für geeignete Konstanten lim F n (an x + bn ) = G(x) n→∞ Da F F (xR ) = 1, und = 1 n F (an x + bn ) ≤ ρn rechtsseitig stetig ist, gilt an > 0 und bn aus R würde gelten: ∀x ∈ R. somit würde für alle wenn x≥ wenn x< n∈N folgen: xR −bn an xR −bn an 75 Die drei Extremwertverteilungen Wegen F ∈ D(G) lim n→∞ Daher wäre G x∈R 1 würde somit für jedes F n (a nx + bn ) = gelten: wenn x ≥ lim n→∞ xR −bn an wenn x < lim xR −bn an 0 n→∞ entartet, was ein Widerspruch zur Voraussetzung ist. 6.5 Anwendungen des Fisher-Tippett-Theorems In diesem Abschnitt werden zwei Beispiele dafür gegeben, wie man das Fisher-TippettTheorem anwenden kann. 6.5.1 Beispiel 1 Es seien X1 , X2 , . . . unabhängige und N (0, 1)-verteilte Zufallsvariablen. Die Dichtefunktion der Standardnormalverteilung ist gegeben durch 1 Φ(x) = √ e− 2π Für n≥1 1 2 x 2 . bildet man die Konstantenfolge 1 an = (2 log(n) − log (4π log(n)))− 2 , wobei (an )n≥1 ∈ (0, ∞) die Verteilungsfunktion bn = ist. Weiter setzt man Φ an t + lim P n→∞ 1 an n 1 an . In diesem Beispiel besitzt Mn an . Nun möchte man den Grenzwert (Mn − bn ) ≤t an 1 n = lim Φ an t + n→∞ an berechnen. Dazu sei r(x) := −2 log(x) − log(4π) − log (− log(x)) . Für x= 1 n ist an = r 1 − n 1 2 und Φ an t + 1 an n =Φ √t r(x) p + r(x) 1 x =: H(x). In weiterer Folge braucht man das folgende Resultat: log(4π) + log (− log(x)) lim r(x) = lim −2 log(x) 1 + = ∞, x↓0 x↓0 2 log(x) wobei lim x↓0 76 log(4π) log (− log(x)) + 2 log(x) 2 log(x) = 0. − 1 a2n Anwendungen des Fisher-Tippett-Theorems Dies sieht man, indem man y = − log(x) lim − y→∞ Um den Grenzwert von log(y) 2y setzt und die Regel von de l'Hospital anwendet: = lim − y→∞ 1 x log (H(x)) = 1 y log Φ = lim − 2 y→∞ √t r(x) 1 2y = 0. p + r(x) zu erhalten, wendet man auch hier die Regel von de l'Hospital an: Φ 0 lim log (H(x)) = lim x↓0 x↓0 (1) 0 = lim Φ x↓0 (2) 0 = lim Φ x↓0 0 0 p tr (x) r (x) + r(x) − 2r(x)3/2 + 2r(x)1/2 p t Φ √ + r(x) r(x) ! 0 p t t r (x) p 1− + r(x) · r(x) 2r(x)1/2 r(x) ! 0 p r (x) t p , + r(x) · 2r(x)1/2 r(x) √t r(x) wobei in (1) eingegangen ist, dass lim r(x) = ∞ x↓0 lim Φ √t p + r(x) ! 1 −1 =√ e 2 2π r(x) x↓0 =1 ist, und in (2), dass gilt. Nun ist ja t 0 Φ p r(x) p + r(x) t2 +2t+r(x) r(x) und 0 r (x) = − 2 1 − . x x log(x) Man setzt diese Ergebnisse oben ein 1 −1 lim log (H(x)) = lim √ e 2 x↓0 x↓0 2π t2 +2t+r(x) r(x) · − x2 − 1 x log(x) 2r(x)1/2 ! und logarithmiert ein zweites Mal lim log (− log(H(x))) = lim log √12π − x↓0 Da x↓0 lim r(x) = ∞ x↓0 und lim log(x) = −∞ x↓0 t2 2r(x) gilt, folgt = lim − 12 log(2π) − t − x↓0 −t− r(x) 2 2 + log t =0 lim 2r(x) r(x) 2 x↓ 2 x + und + log(2) + log 1 x 1 x log(x) 1 − log 2r(x) 2 1 lim log(x) =0 x↓0 und somit: − log(2) − 12 log(r(x)) 77 Die drei Extremwertverteilungen Man kürzt log(2) und setzt r(x) ein: = lim − 21 log(2π) − t + log(x) + log(4π) + 21 log (− log(x)) + log 2 x↓0 log(x)) − 12 lim −2 log(x) 1 + log(4π)+log(− 2 log(x) 1 x − x↓0 Da 1 x log = − log(x) log(x) ist, kann man 1 Weiters kann man zusammenfassen: − 2 = lim x↓0 und log 1 x kürzen. 1 2 log(2π) + log(4π) = 1 2 log(2). 1 2 log(2) − t + 12 log (− log(x)) − 12 log(2) − 12 log (− log(x)) − log(x)) − 21 lim log (1 + log(4π)+log(− 2 log(x) x↓0 Der letzte Summand geht gegen Null, da ist, kürzen sich alle Terme bis auf −t lim x↓0 log(4π) 2 log(x) + log(− log(x)) 2 log(x) = 0. Wie zu erkennen weg. Es folgt lim log (− log (H(x))) = −t x↓0 und somit lim (− log (H(x))) = e−t x↓0 lim (log (H(x))) = −e−t x↓0 −t lim H(x) = e−e . x↓0 1 n −t lim Φ an t + a1n = e−e . n→∞ x↓0 n 1 zum Typ der GumbelDamit wurde gezeigt, dass die Grenzwertverteilung von Φ an t + an Das heiÿt, lim Φ √t r(x) p + r(x) x −t = e−e oder Verteilung gehört. 6.5.2 Beispiel 2 In diesem Beispiel geht man wieder von unabhängigen und identisch verteilten Zufallsvariablen X1 , X2 , . . . aus. Die gemeinsame Verteilungsfunktion F dichte f mit folgender Eigenschaft: lim f (x)xk+1 = c, x→∞ 78 besitzt eine Wahrscheinlichkeits- wobei k≥0 ist. Anwendungen des Fisher-Tippett-Theorems Für t>0 betrachtet man lim log F x↓0 t x1/k 1 ! x 1 t = lim log F x↓0 x x1/k 1 t f x1/k · − k1 t x− k −1 = lim , t x↓0 F x1/k wobei hier wieder die Regel von de l'Hospital verwendet wurde. Da lim F x↓0 t x1/k =1 gilt, folgt weiter: = lim f t x1/k x↓0 t k+1 x1/k xk+1 t k+1 − t kx(k+1)/k 1/k k+1 x 1 = lim c − k x↓0 kt x(k+1)/k 1 = lim c − k x↓0 kt c −k =− t k Somit ist: lim F x↓0 Setzt man x= t x1/k 1 x = e− c −k t k 1 n , dann ergibt sich: n lim F n1/k t = e− c −k t k n→∞ bzw. lim F n→∞ c 1/k n −k t = e−t . n· k 1 n ≥ 1 die Konstantenfolgen an = n · kc k mit 1/k n lim F n · kc t , so sieht man, dass die Grenzwert- Das heiÿt, wählt man in diesem Beispiel für k≥0 und bn = 0 und berechnet n→∞ verteilung zum Typ der Fréchet-Verteilung gehört. 79 80 Zusammenfassung Stochastische Prozesse dienen als grundlegendes mathematisches Konzept, um Folgen von Zufallsexperimenten beschreiben zu können. Ausgehend davon, nach welchen Regeln ein stochastischer Prozess abläuft, kann man verschiedene Typen unterscheiden, wie zum Beispiel Poisson- oder Erneuerungsprozesse. Dementsprechend ist die Anwendung stochastischer Prozesse in der Praxis auch breit gestreut. In der vorliegenden Arbeit wird gezeigt, wie stochastische Prozesse sowohl diskreter als auch kontinuierlicher Zeit im Bereich der Versicherungsmathematik zum Einsatz kommen können. Der erste Teil beschäftigt sich mit der Risikotheorie. Man geht von der vereinfachten Annahme aus, dass ein Versicherungsunternehmen Einnahmen in Form von Prämien und Ausgaben für Leistungen aus versicherten Schadensfällen, sogenannte Forderungen, hat. Das Verhalten der Risikowahrscheinlichkeit, d.h. der Wahrscheinlichkeit einer Versicherung, zahlungsunfähig zu werden, soll genauer untersucht werden. Dazu wird angenommen, dass die Anzahl der Forderungen, die in einem bestimmten Zeitintervall eintreen, einen stochastischen Prozess kontinuierlicher Zeit bilden. Zunächst wird gezeigt, dass der Poissonprozess dieses Modell am besten beschreibt. Da man verschiedene Verteilungsfunktionen für die Höhe der Forderungen verwenden kann, unterscheidet man zwischen kleinen und groÿen Forderungen. In beiden Fällen werden Resultate für das asymptotische Verhalten der Risikowahrscheinlichkeit dargelegt. Der zweite Teil setzt sich mit der Extremwerttheorie auseinander. Diese für eine Versicherung wichtige Fragestellung versucht, Antwort zu geben, wie häug sogenannte extreme Ereignisse, wie Erdbeben oder Überutungen, eintreten können. Gegeben sei dazu eine Folge von Ereignissen, d.h. ein stochastischer Prozess diskreter Zeit. Im nächsten Schritt bildet man für jedes n∈N das Maximum Mn der ersten n Zufallsvariablen und versucht, eine Beschrei- bung der Verteilungsfunktion zu nden. Das zentrale Resultat, das Fisher-Tippett-Theorem, besagt, dass die Verteilungsfunktion der Maxima gegen drei mögliche Verteilungstypen konvergiert. Dies wird anhand von Beispielen belegt. 81 82 Literaturverzeichnis [1] N. H. Bingham, C. M. Goldie, and J. L. Teugels. Regular Variation. Cambridge University Press, 1987. [2] Lukas Breiteneder. Summe von Schäden mit heavy tailed Verteilungen unter Berücksich- tigung von Abhängigkeitsstrukturen, pages 321. Diplomarbeit, Technische Universität Wien, 2012. [3] Laurens de Haan. Sample Extremes: An elementary Introduction, pages 161172. Statistica Neerlandica, Volume 30, 1976. [4] Laurens de Haan and Ana Ferreira. Extreme Value Theory. An Introduction. Springer Science+Business Media, LLC, 2006. [5] Paul Embrechts, Claudia Klüppelberg, and Thomas Mikosch. Modelling Extremal Events for Insurance and Finance. Springer-Verlag Berlin Heidelberg, 2008. [6] Pierre Frères. Erneuerungsprozesse - Theorie und Anwendungen, pages 119. Diplomarbeit, Universität Wien, 2010. [7] Georey Grimmett and David Stirzaker. Probability and Random Processes. Third Edi- tion. Oxford University Press, 2001. [8] Franz Hofbauer. Wahrscheinlichkeitstheorie 1. Unveröentlichtes Vorlesungsskriptum, Universität Wien, SS 2008. [9] Franz Hofbauer. Stochastische Prozesse, Markovketten und Erneuerungsprozesse. Unveröentlichtes Vorlesungsskriptum, Universität Wien, WS 2002/03. [10] Franz Hofbauer. Wahrscheinlichkeitstheorie 2. Unveröentlichtes Vorlesungsskriptum, Universität Wien, WS 2006/07. [11] Samuel Karlin and Howard M. Taylor. A First Course in Stochastic Processes. Second Edition. Academic Press, Inc., 1975. [12] M.R. Leadbetter, Georg Lindgren, and Holger Rootzén. Extremes and Related Properties of Random Sequences and Processes, pages 130. Springer-Verlag New York Inc., 1983. [13] Matthias Löwe. Extremwerttheorie, pages 140. Vorlesungsskriptum, Westfälische Wilhemsuniversität Münster, WS 2008/09. 83 Literaturverzeichnis [14] Thomas Mikosch. Non-Life Insurance Mathematics. An Introduction with the Poisson Process. Springer-Verlag Berlin Heidelberg, 2009. [15] Alexander Zwirchmayr and Peter Grandits. Sachversicherungsmathematik, pages 96 123. Vorlesungsskriptum, Technische Universität Wien, 2008. 84 Lebenslauf – Verena Klambauer KONTAKTDATEN Adresse: E-Mail: 2380 Perchtoldsdorf, Gauguschgasse 20 [email protected] PERSÖNLICHE DATEN Geburtsdatum und –ort: Nationalität: Familienstand: 21.10.1986, Wien Österreich ledig AUSBILDUNG 09/1993 – 06/1997 Volksschule in Perchtoldsdorf, Roseggergasse 2 09/1997 – 06/2005 Bundesgymnasium Perchtoldsdorf, Roseggergasse 2 10/2005 – 01/2007 Studium der Rechtswissenschaften an der Universität Wien, Abschluss der 1. Diplomprüfung seit 03/2007 Diplomstudium Mathematik an der Universität Wien, Studienschwerpunkt: Stochastik 08/2011 – 12/2011 Auslandssemester an der University of Edinburgh, Schottland BESONDERE KENNTNISSE UND INTERESSEN Sprachen Deutsch: Englisch: Französisch: in Wort und Schrift – Muttersprache in Wort und Schrift – Schulkenntnisse (8 Jahre) in Wort und Schrift – Schulkenntnisse (6 Jahre) EDV-Kenntnisse Windows, MS-Office, MatLab, Mathematica BERUFSERFAHRUNG 07/2007 – 08/2007 Ferialpraktikum bei Erste Bank, Filiale Perchtoldsdorf 08/2012 – 09/2012 Ferialpraktikum bei Helvetia Versicherungen AG Generaldirektion, Wien