KAPITEL 13 ERZEUGENDE FUNKTION DER MOMENTE. CHARAKTERISTISCHE FUNKTION In Kapitel 9 haben wir den Begriff der erzeugenden Funktion einer diskreten Zufallsvariablen mit Werten in N untersucht. Im Falle allgemeiner Zufallsvariabler erweist es sich als zweckmässig, diese Definition leicht zu modifizieren. Wir werden dazu eine reelle Funktion einführen, die, wenn sie in einer Umgebung des Ursprungs definiert ist, die vollständige Information über die Momente einer Zufallsvariablen enthält. Die sogenannte charakteristische Funktion ist die komplexe Version dieser erzeugenden Funktion der Momente. 1. Einführung. — Es sei X eine reelle Zufallsvariable; ihr ordnet man die Funktion gX (u) = E[euX ] der reellen Variablen u zu, die für die Menge derjenigen u ∈ R definiert ist, für die E[euX ] < +∞ gilt. Die folgenden Eigenschaften ergeben sich unmittelbar: 1) Die Funktion gX ist stets für u = 0 definiert und es ist gX (0) = 1. Es gibt aber Zufallsvariable, bei denen die Funktion gX auch nur für u = 0 definiert ist (beispielsweise die Zufallsvariable von Cauchy). 2) Ist X beschränkt, so ist gX definiert und stetig auf ganz R. 3) Hat X positive Werte, so ist gX auf ] − ∞, 0] stetig und beschränkt. In diesem Fall führt man in der Regel die Variablentransformation u = −v durch und hat es dann mit der Laplace-Transformierten (der Verteilung) von X zu tun: LX (v) = gX (−v) = E[e−vX ]. Die so definierte Funktion LX ist auf [0, +∞[ stetig und beschränkt . Definition. — Es sei X eine reelle Zufallsvariable, für welche die Funktion gX (u) = E[euX ] der reellen Variablen u in einer offenen Umgebung des Ursprungs definiert ist. Dann heisst diese Funktion die erzeugende Funktion der Momente (der Verteilung) von X. 192 KAPITEL 13: ERZEUGENDE FUNKTION DER MOMENTE Die Terminologie erzeugende Funktion der Momente ist angebracht. Tatsächlich werden wir zeigen (Theorem 3.1), dass für eine reelle Zufallsvariable X, die eine erzeugende Funktion der Momente gX besitzt, folgendes gilt: a) die Momente aller positiven, ganzzahligen Ordnungen existieren; b) die Funktion gX lässt sich in einer Umgebung des Ursprungs in eine Potenzreihe entwickeln, wobei das Moment n-ter Ordnung von X als Koeffizient von un /n! in dieser Entwicklung auftritt. 2. Elementare Eigenschaften Satz 2.1. — Es sei gX die erzeugende Funktion der Momente einer Zufallsvariablen X. (1) Für reelle a, b gilt gaX+b (u) = ebu gX (au). (2) Die Funktion gX (−u) ist ebenfalls eine erzeugende Funktion der Momente. (3) Falls die Verteilung von X symmetrisch ist, falls also L(X) = L(−X) gilt, so ist gX eine gerade Funktion. (4) Die Funktion gX ist konvex. Beweis. — Die Eigenschaft (1) ist klar. Zum Beweis von Eigenschaft (2) genügt es zu bemerken, dass gX (−u) die erzeugende Funktion der Momente der Zufallsvariablen −X ist. Eigenschaft (3) folgt aus gX (u) = E[euX ] = E[eu(−X) ] = E[e(−u)X ] = gX (−u). Schliesslich ist (4) eine Konsequenz davon, dass die erzeugende Funktion eine konvexe Kombination von Exponentialfunktionen ist. Theorem 2.2 (Eindeutigkeitssatz). — Die erzeugende Funktion der Momente einer Zufallsvariablen bestimmt die Verteilung dieser Variablen. Anders formuliert, falls zwei Zufallsvariable die gleiche erzeugende Funktion der Momente haben, so haben sie auch die gleiche Verteilung. Beweis. — Dies lässt sich nur dann mit einfachen Mittel beweisen, wenn die Zufallsvariable X ihre Werte in N annimmt. In dieser Situation ist es üblich, an Stelle der erzeugenden Funktion der Momente g(u) = E[euX ] die erzeugende Funktion G(s) = E[sX ] zu betrachten, die im wesentlichen die gleiche Rolle spielt. Wir haben aber bereits mit elementaren Mitteln gezeigt (cf. Theorem 1.4 von Kap. 9), dass die Funktion G die Verteilung von X bestimmt. In der allgemeinen Situation ist der Beweis des Eindeutigkeitssatzes deutlich schwieriger (cf. Billingsley.1 ) 1 Billingsley (P.). — Probability and Measure, 3. Auflage . — New York, Wiley, , p. 390. 2. ELEMENTARE EIGENSCHAFTEN 193 Theorem 2.3. — Es sei (X, Y ) ein Paar von reellen unabhängigen Zufallsvariablen, von denen jede eine erzeugende Funktion der Momente besitzt. Dann gilt dies auch für die Summe X + Y und es gilt gX+Y = gX gY . (2.2) Beweis. — Es ist: gX+Y (u) = E[eu(X+Y ) ] = E[euX euY ]; die Unabhängigkeit von X und Y überträgt sich auf euX und euY . Mittels einer Anwendung von Theorem 2.2 aus Kapitel 11 folgt daraus gX+Y (u) = E[euX ] E[euY ] = gX (u) gY (u). Bemerkung. — Die Eigenschaft (2.2) charakterisiert die Unabhängigkeit nicht, denn man kann Paare (X, Y ) von Zufallsvariablen konstruieren, welche zwar erzeugende Funktionen der Momente besitzen und die nicht unabhängig sind, für die aber dennoch (2.2) gilt. Hierzu folgt ein Beispiel. Es sei (X, Y ) ein Paar von Zufallsvariablen, deren gemeinsame Verteilung die Dichte 2, falls (x, y) ∈ E; f (x, y) = 0, sonst; hat, wobei E die schraffierte Teilmenge von [0, 1] × [0, 1] bezeichnet, wie sie in Figur 1 dargestellt ist. 1 1/2 0 1/2 1 Fig. 1 Die Zufallsvariablen X und Y sind nicht unabhängig, denn beispielsweise gilt P{X ≤ 1/4, Y ≥ 3/4} = 0, aber P{X ≤ 1/4} = P{Y ≥ 3/4} = 1/4. Nehmen wir übrigens als (X ∗ , Y ∗ ) ein Paar von unabhängigen Zufallsvariablen, die beide in [0, 1] gleichverteilt sind, so gilt L(X) = L(X ∗ ), L(Y ) = L(Y ∗ ), L(X + Y ) = L(X ∗ + Y ∗ ) (cf. Aufgabe 1). Da die Zufallsvariablen X, Y , X + Y , X ∗ , Y ∗ , X ∗ + Y ∗ alle beschränkt sind, besitzen sie jeweils eine erzeugende Funktion der Momente und für jede reelle Zahl u gilt gX+Y (u) = gX ∗ +Y ∗ (u) = gX ∗ (u) gY ∗ (u) = gX (u) gY (u). Für das nicht unabhängige Paar (X, Y ) von Zufallsvariablen gilt also ebenfalls gX+Y = gX gY . 194 KAPITEL 13: ERZEUGENDE FUNKTION DER MOMENTE Theorem 2.3 hat die folgenden Korollare. Korollar 1. — Das Produkt von zwei erzeugenden Funktionen der Momente ist wieder eine erzeugende Funktion für Momente. Korollar 2. — Ist g eine erzeugende Funktion der Momente, so gilt dies auch für die Funktion h(u) = g(u)g(−u). Genauer gesagt, ist X eine Zufallsvariable, die g(u) als erzeugende Funktion der Momente hat und ist X eine von X unabhängige Zufallsvariable mit gleicher Verteilung wie X, so besitzt auch die Zufallsvariable Y = X − X eine erzeugende Funktion der Momente, und dies ist gerade h(u) = g(u)g(−u). Die Zufallsvariable Y wird als die “Symmetrisierte” von X bezeichnet. 3. Momente. — Das folgende Theorem rechtfertigt die eingeführte Bezeichnung einer erzeugenden Funktion der Momente. Theorem 3.1. — Es sei X eine Zufallsvariable, die eine erzeugende Funktion der Momente g besitzt. Dabei sei g(u) für alle u in einem offenen Intervall ]u1 , u2 [ mit u1 < 0 < u2 definiert. Dann gilt: k 1) für alle k ≥ 1 ist E[ |X| ] < +∞; 2) für alle t ∈] − s, +s[ mit 0 < s < u0 = min(−u1 , u2 ) ist g(t) = 1 + E[X] t t2 tn + E[X 2 ] + · · · + E[X n ] +··· 1! 2! n! 3) für alle k ≥ 1 ist g (k) (0) = E[X k ]. Beweis. — Wir führen den Beweis lediglich in dem Fall, wo die Verteilung von X eine Dichte f besitzt. k 1) Es geht darum, zu zeigen, dass für alle k ≥ 1 tatsächlich E[ |X| ] = k |x| f (x) dx < +∞ gilt. Sei dazu ein s mit 0 < s < u0 = min(−u1 , u2 ) R fest gewählt. Aus der Reihenentwicklung von es|x| für reelles x kann man k die Ungleichung sk |x| /k! ≤ es|x| für alle k ≥ 1 folgern. Daher gilt k |x| ≤ k! es|x| /sk . Daraus ergibt sich für jedes k ≥ 1 die Abschätzung +∞ 0 k! +∞ s|x| k! k sx −sx e f (x) dx = k e f (x) dx + e f (x) dx E[ |X| ] ≤ k s −∞ s 0 −∞ +∞ +∞ k! k! sx −sx e f (x) dx + e f (x) dx = k gX (s) + gX (−s)]. ≤ k s s −∞ −∞ Der letzte Ausdruck ist aber endlich, denn nach Annahme sind gX (s) und gX (−s) endlich. 2) Es geht im wesentlichen darum zu zeigen, dass man in +∞ +∞ (tx)k tx e f (x) dx = g(t) = f (x) dx k! −∞ −∞ k≥0 195 3. MOMENTE die Operatoren der Summation und der Integration vertauschen kann. Dazu definiert man tx und h(x) = f (x) e hn (x) = f (x) n (tx)k k=0 (n = 1, 2, . . . ). k! Für jede reelle Zahl x gilt natürlich limn hn (x) = h(x). Ausserdem hat man für alle n = 1, 2, . . . die Abschätzung |hn (x)| ≤ f (x) n k |tx| k=0 |tx|k ≤ f (x) = f (x) e|tx| ≤ f (x) es|x| . k! k! k≥0 Andererseits liefert eine zu 1) analoge Überlegung +∞ es|x| f (x) dx ≤ g(s) + g(−s) < +∞. −∞ Damit sind die Voraussetzungen für die Anwendung des Satzes von der dominierten Konvergenz erfüllt und man erhält +∞ +∞ n tk +∞ k h(x) dx = lim hn (x) dx = lim x f (x) dx g(t) = n n k! −∞ −∞ −∞ k=0 tk = E[X k ]. k! k≥0 3) Bekanntlich kann eine Potenzreihe innerhalb ihres Konvergenzkreises gliedweise differenziert werden. Aus Teil 2) folgt also, dass für jedes t aus dem Intervall ] − s, s[ und jedes k = 1, 2, . . . g (k) (t) = n≥k tn−k n(n − 1) . . . (n − k + 1) E[X ] n! n gilt, und daher ist speziell g (k) (0) = E[X k ]. Bemerkungen. — Wir haben gesehen, dass eine Zufallsvariable mit erzeugender Funktion der Momente auch Momente jeder positiven ganzen Ordnung besitzt. Die Umkehrung dieser Aussage ist allerdings falsch, denn eine Zufallsvariable kann Momente jeder beliebigen positiven ganzen Ordnung haben, ohne dass sie eine erzeugende Funktion der Momente (im Sinne der Definition von Abschnitt 1) besitzt. Dies zeigt das folgende Beispiel. Es sei X = eY , wobei Y eine N (0, 1)-verteilte Zufallsvariable ist (siehe Kap. 14, § 3 und 4). Die Verteilung von X heisst log-normal (0, 1). 196 KAPITEL 13: ERZEUGENDE FUNKTION DER MOMENTE a) Zunächst stellt man fest, dass X Momente jeder Ordnung hat, denn +∞ 2 2 1 n eny √ e−y /2 dy = en /2 < +∞. E[X ] = 2π −∞ +∞ y 2 1 uX eue √ e−y /2 dy. b) Andererseits ist g(u) = E[e ] = 2π −∞ Dieses Integral konvergiert genau dann, wenn u ∈]−∞, 0]. (Man beachte, dass für u > 0 und hinreichend grosses y stets uey > y 2 /2 gilt.) Aber ] − ∞, 0] ist keine offene Umgebung von u = 0 und somit ist g keine erzeugende Funktion der Momente. Somit besitzt X Momente jeder Ordnung, aber keine erzeugende Funktion der Momente. Das hat zur Konsequenz, dass die Folge der Momente nicht die Wahrscheinlichkeitsverteilung bestimmt, denn es gibt andere, von der lognormalen Verteilung verschiedene Verteilungen, welche die gleiche Folge von Momenten haben. Spezialfall. — Es sei X eine Zufallsvariable mit Werten in N; üblicherweise betrachtet man hierzu die erzeugende Funktion der faktoriellen Momente G(u) = E uX , die mit der erzeugenden Funktion der Momente g(u) = E euX gemäss g(u) = G eu zusammenhängt. (Diese Funktionen wurden in Kapitel 9 untersucht.) Das folgende Theorem ist eine Konsequenz von Theorem 3.1. Theorem 3.1 . — Es sei X eine Zufallsvariable mit Werten in N und G ihre erzeugende Funktion der faktoriellen Momente. Dabei sei G in einer offenen Umgebung von u = 1 definiert. Dann a) existieren alle Momente E[X n ] positiver ganzer Ordnung und sind endlich; daraus folgt, dass auch alle faktoriellen Momente positiver ganzer Ordnung existieren und endlich sind; b) gilt g (n) (0) = E[X n ] für jedes n ≥ 1 Beweis. a) Wir nehmen an, dass G(u) in einer offenen Umgebung von 1 definiert sei, also etwa in einem Intervall U =]u1 , u2 [ (0 < u1 < 1 < u2 ). Für jedes u ∈ U sei u = et , also t = Log u. Dann ist g(t) = G(et ) in dem offenen Intervall ]t1 , t2 [ definiert, wobei nun t1 < 0 < t2 , t1 = Log u1 , t2 = Log u2 ist. Aus Theorem 3.1 1) folgt nun, dass sämtliche Momente positiver ganzer Ordnung von X existieren und endlich sind; das gilt dann auch für die faktoriellen Momente. b) folgt aus Theorem 3.1 3). 4. CHARAKTERISTISCHE FUNKTIONEN 197 4. Charakteristische Funktionen. — Beim weiteren Ausbau der Theorie zieht man es vor, statt mit der erzeugenden Funktion der Momente einer Zufallsvariablen X mit deren charakteristischen Funktion zu arbeiten. Diese wird für reelles t durch ϕ(t) = E[eitX ] definiert und sie hat den erheblichen Vorteil, für jede reelle Zahl t und jede Zufallsvariable X zu existieren. Ausserdem ist der Zusammenhang zwischen Verteilung einer Zufallsvariablen und charakteristischer Funktion bijektiv. Andererseits ist die Handhabung der charakteristischen Funktionen etwas subtiler, da man als Werkzeug Funktionen einer komplexen Variablen heranziehen muss. Definition. — Es sei X eine reelle Zufallsvariable. Als charakteristische Funktion von X (oder der Verteilung von X) bezeichnet man die durch ϕX (t) = E[eitX ] definierte Funktion einer reellen Variablen t. Wichtige Spezialfälle: pk εxk , so ist ϕ(t) = pk eitxk . a) Ist X diskret mit Verteilung k k b) Ist X absolut stetig mit Dichte f , so ist ϕ(t) = R eitx f (x) dx. Theorem 4.1 (Elementare Eigenschaften). — Es bezeichne ϕ die charakteristische Funktion einer reellen Zufallsvariablen X. Dann gilt: 1) ϕ ist für jedes reelle t definiert und stetig; 2) ϕ ist beschränkt, wobei für jedes reelle t |ϕ(t)| ≤ ϕ(0) = 1 ist; 3) ϕ ist eine hermitesche Funktion, d.h. für jedes reelle t ist ϕ(−t) = ϕ(t) (eine reellwertige charakteristische Funktion ist gerade); 4) für alle reellen a, b, t gilt die Gleichheit ϕaX+b (t) = eibt ϕX (at); 5) ist die Verteilung von X symmetrisch, ist also L(−X) = L(X), so ist ϕX eine reelle, und damit eine gerade Funktion; 6) jede konvexe Kombination von charakteristischen Funktionen ist wieder eine charakteristische Funktion. Beweis. — Ein Hinweis für Eigenschaft 5) sollte genügen. Man muss nur ϕX (t) = ϕ−X (t) = ϕX (−t) = ϕX (t) schreiben. Daher ist ϕX reell und somit gerade. In der Tabelle auf der folgenden Seite sind die charakteristischen Funktionen für die gebräuchlichsten Verteilungen eingetragen. In den ersten drei Fällen handelt es sich um diskrete Verteilungen der Form k pk εk . In jedem Fall wird präzisiert, welche Werte die ganze Zahl k annimmt. Die restlichen Verteilungen sind absolut stetig mit Dichte f . Eine vollständige Beschreibung dieser vier Verteilungen wird im folgenden Kapitel gegeben, und zwar in den Abschnitten § 5, 6, 3 und 7. Die Berechnung ist in den ersten drei Fällen sehr einfach; das gilt allerdings nicht für die restlichen Fälle. Immerhin kann man im Falle der charakteristischen Funktion der Normalverteilung N (0, 1) einen Rückgriff auf die 198 KAPITEL 13: ERZEUGENDE FUNKTION DER MOMENTE Verteilung Binomialverteilung Poisson-Verteilung Geometrische Verteilung analytischer Ausdruck n k n−k pk = p q (0 ≤ k ≤ n) k λk pk = e−λ (k ≥ 0, λ > 0) k! pk = q k−1 p (k ≥ 1) Exponentialverteilung E(λ) f (x) = λe−λx I[0,∞[ (x) (λ > 0) Laplace-Verteilung Normalverteilung N (0, 1) Cauchy-Verteilung C(0, 1) 1 −|x| (x ∈ R) e 2 2 1 f (x) = √ e−x /2 (x ∈ R) 2π 1 1 f (x) = (x ∈ R) π 1 + x2 f (x) = charakteristische Funktion (q + peit )n eλ(e it −1) peit 1 − qeit λ λ − it 1 1 + t2 2 e−t /2 e−|t| Theorie der Funktionen einer komplexen Variablen umgehen, wenn man folgendermassen vorgeht. Die Normalverteilung N (0, 1) ist offensichtlich symmetrisch. Ihre charakteristische Funktion ist also gleich 2 1 itX cos(tx) e−x /2 dx. ϕ(t) = E[e ] = E[cos tX] = √ 2π R Damit hat man es mit der Standardsituation der Berechnung eines Integrals zu tun, das von einem Parameter abhängt. Durch Ableitung unter dem Integral, was leicht zu rechtfertigen ist, erhält man 2 1 (−x sin(tx)) e−x /2 dx ; ϕ (t) = √ 2π R und dann mittels partieller Integration ϕ (t) = −t ϕ(t) . Wegen ϕ(0) = 1 liefert die Integration dann 2 ϕ(t) = e−t /2 . Bemerkung. — Formal erhält man die charakteristische Funktion ϕ(t) aus der erzeugenden Funktion der Momente g(u), indem man u durch it ersetzt. In vielen Fällen, so beispielsweise bei den ersten sechs Verteilungen 4. CHARAKTERISTISCHE FUNKTIONEN 199 der obigen Tabelle, hat der Ausdruck g(it), den man durch Substitution erhält, als Funktion mit komplexen Werten einen guten Sinn und ist sogar gleich der charakteristischen Funktion, wie man sie direkt per Summation oder Integration in der komplexen Ebene erhält. Gleichwohl kann man diese Substitution nicht in den Rang einer allgemeinen Regel erheben, denn einerseits kann es sein, dass g(u) ausser am Ursprung nirgends definiert ist (wie etwa im Fall der Cauchy-Verteilung), andererseits kann selbst dann, wenn g(u) als Funktion der reellen Variablen u wohldefiniert ist, die komplexe Funktion g(it) mehrere Bedeutungen in der komplexen Ebene haben. Dieser letztere Fall tritt beispielsweise dann ein, wenn der algebraische Ausdruck für g nichtganzzahlige Potenzen der (komplexen) Variablen enthält. Es ist also sinnvoll, in jedem Fall eine direkte Berechnung von ϕ(t) anzugehen. Theorem 4.2 (Eindeutigkeitssatz). — Die charakteristische Funktion einer Zufallsvariablen bestimmt die Verteilung dieser Variablen. Anders formuliert, haben zwei Zufallsvariable die gleiche charakteristische Funktion, so haben sie auch die gleiche Verteilung. Wegen dieses Theorems, das am Ende dieses Kapitels bewiesen wird, ist es gerechtfertigt, von der charakteristischen Funktion zu sprechen: die charakteristische Funktion charakterisiert die Verteilung. Theorem 4.3. — Ist (X, Y ) ein Paar von unabhängigen Zufallsvariablen, so gilt für jedes reelle t die Gleichheit (4.1) ϕX+Y (t) = ϕX (t)ϕY (t). Beweis. — Tatsächlich ist ϕX+Y (t) = E[eit(X+Y ) ] = E[eitX eitY ], und da mit X und Y auch eitX und eitY unabhängig sind, folgt ϕX+Y (t) = E[eitX ] E[eitY ] = ϕX (t)ϕY (t). Bemerkung. — Die Eigenschaft (4.1) ist nicht charakteristisch für die Unabhängigkeit, denn es gibt Paare von nicht unabhängigen Zufallsvariablen, für die dennoch (4.1) gilt. Man kann hierfür ein besonders schlagendes Beispiel angeben (das übrigens nicht für die Situation der erzeugenden Funktionen von Momenten einschlägig ist). Es sei X eine Zufallsvariable mit Cauchy-Verteilung C(0, 1); ihre charakteristische Funktion ist ϕX (t) = e−|t| . Das Paar (X, Y ), wobei nun Y = X ist, führt zu dem angekündigten Effekt: 2 ϕX+Y (t) = ϕ2X (t) = e−2|t| = e−|t| = ϕX (t)ϕY (t). Korollar. — Das Produkt von zwei charakteristischen Funktionen ist wieder eine charakteristische Funktion. 200 KAPITEL 13: ERZEUGENDE FUNKTION DER MOMENTE Theorem 4.4. — Ist ϕ eine charakteristische Funktion, so gilt dies auch 2 für ϕ, |ϕ| , e ϕ. Ist zudem ϕ die charakteristische Funktion einer absolut 2 stetigen Zufallsvariablen, so gilt dies auch für ϕ und |ϕ| . Beweis. — Es sei X eine Zufallsvariable mit ϕ als charakteristischer Funktion. Die Zufallsvariable −X hat dann ϕ als charakteristische Funktion. Ist dabei X absolut stetig, so gilt dies auch für −X. Sei nun X eine von X unabhängige Zufallsvariable mit gleicher Verteilung wie X. Die Zufallsvariable Y = X − X hat dann die charakteristische 2 Funktion ϕX−X (t) = ϕX (t)ϕ−X (t) = ϕX (t)ϕX (t) = |ϕX (t)| . Ist dabei X absolut stetig, so gilt dies auch für Y . Die Zufallsvariable Y wird als die Symmetrisierte von X bezeichnet. Schliesslich gilt e ϕ = (ϕ + ϕ)/2, wobei ϕ und ϕ charakteristische Funktionen sind. Der Schwerpunkt (mit positiven Koeffizienten) von charakteristischen Funktionen ist aber wiederum eine charakteristische Funktion. Wir betrachten nun den Zusammenhang zwischen der charakteristischen Funktion und den Momenten einer Zufallsvariablen. Theorem 4.5. — Es sei X eine Zufallsvariable mit ϕ als charakteristischer Funktion. Falls E[ |X| ] < +∞ ist, so ist ϕ stetig differenzierbar und es gilt ϕ (0) = i E[X]. Beweis. — Wir geben den Beweis in dem Fall, dass X eine Dichte f besitzt. Dann gilt also itX eitx f (x) dx. ϕ(t) = E[e ] = R Für jede reelle Zahl t hat man itx ix e f (x) dx ≤ |x| f (x) dx = E[ |X| ] < +∞. R R Man kann also unter dem Integral differenzieren und erhält für reelles t die Darstellung ϕ (t) = R ix eitx f (x) dx und somit ϕ (0) = i E[X]. Analog kann man vorgehen, um die folgenden Aussagen für die höheren Momente zu beweisen. Theorem 4.6. — Es sei X eine Zufallsvariable und ϕ ihre charakten ristische Funktion. Für die ganze Zahl n ≥ 1 gelte E[ |X| ] < +∞. Dann gilt: 1) ϕ ist stetig differenzierbar bis zur Ordnung n einschliesslich; 2) ϕ(k) (0) = ik E[X k ] für alle k = 0, 1, . . . , n; 3) ϕ kann dargestellt werden mittels der Taylorformel: ϕ(t) = n (it)k k=0 k! n E[X k ] + o(|t| ), für t → 0. 4. CHARAKTERISTISCHE FUNKTIONEN 201 Das folgende Theorem wird in Kapitel 18, § 4, als technisches Hilfsmittel beim Beweis des zentralen Grenzwertsatzes benötigt. Theorem 4.7. — Es sei X eine zentrierte Zufallsvariable der Klasse L2 . Wir setzen Var X = σ 2 und bezeichnen mit ϕ ihre charakteristische Funktion. Dann gilt: a) für jedes reelle t hat die Funktion ϕ(t) die Darstellung 1 t2 σ 2 2 −t (1 − u)E X 2 eituX − 1 du; ϕ(t) = 1 − 2 0 b) für jedes reelle t mit 3t2 σ 2 ≤ 1 hat die Funktion Log ϕ(t) die Darstellung 1 t2 2 2 Log ϕ(t) = − σ − t (1 − u)E X 2 eituX − 1 du + 3θt4 σ 4 , 2 0 wobei θ eine komplexe Zahl mit |θ| ≤ 1 ist. Beweis. — Für jedes t und alle reellen x gilt die Gleichheit 1 t 2 x2 itx 2 2 (1 − u) eitux − 1 du. e = 1 + itx − −t x 2 0 a) Integriert man diese Gleichheit bezüglich µ, wobei µ die Verteilung von X ist, so erhält man die erste Darstellung. b) Die Funktion ϕ(t) lässt sich als 1 − r schreiben, wobei 1 t2 2 2 (1 − u)E X 2 eituX − 1 du r = σ +t 2 0 ist. Wegen |r| ≤ 32 t2 σ 2 ist |r| ≤ 12 für 3t2 σ 2 ≤ 1. Andererseits gilt für jede komplexe Zahl r mit |r| ≤ 12 1 1 dx x 2 , also Log(1 − r) + r = −r dx. Log(1 − r) = −r 0 1 − rx 0 1 − rx Das Integral in der rechten Gleichung kann aber dem Betrag nach durch 1 majorisiert werden, denn für jedes x mit 0 ≤ x ≤ 1 gilt |1 − rx| ≥ 1 − |rx| ≥ 1 − |x| ≥ 12 . Daher hat man 3 2 2 t2 σ 2 ≤ 3t4 σ 4 , |Log(1 − r) + r| ≤ |r| ≤ 2 und somit Log(1 − r) = −r + 3θt4 σ 4 , wobei θ eine komplexe Zahl mit |θ| ≤ 1 ist. Damit ist b) gezeigt. 202 KAPITEL 13: ERZEUGENDE FUNKTION DER MOMENTE 5. Die zweite charakteristische Funktion Definition. — Es sei X eine reelle Zufallsvariable und ϕ(t) ihre charakteristische Funktion. Als zweite charakteristische Funktion (der Verteilung) von X bezeichnet man die Funktion ψ(t) = Log ϕ(t) (t ∈ R). Da die charakteristische Funktion ϕ(t) eine Funktion mit komplexen Werten ist, muss man festlegen, in welchem Sinne der Logarithmus zu verstehen ist: wegen ϕ(0) = 1 nimmt man ψ als stetig mit ψ(0) = 0. Theorem 5.1. — Es sei (X, Y ) ein Paar von unabhängigen Zufallsvariablen. Dann gilt für jedes reelle t die Gleichheit ψX+Y (t) = ψX (t) + ψY (t). Der Beweis folgt unmittelbar aus Theorem 4.3. Definition. — Es sei X eine reelle Zufallsvariable, deren zweite charakteristische Funktion ψ eine Taylorentwicklung ψ(t) = n≥1 κn (it)n n! in einer Umgebung des Ursprungs hat. Der Koeffizient κn von (it)n /n! in dieser Entwicklung heisst n-ter Kumulant (der Verteilung) von X. Theorem 5.2. — Es sei (X, Y ) ein Paar von Zufallsvariablen, die beide die Voraussetzungen der vorigen Definition erfüllen. Der Kumulant n-ter Ordnung von X + Y ist dann die Summe der Kumulanten n-ter Ordnung von X und von Y (daher die Bezeichnung Kumulant ). Der Beweis ist eine direkte Folge von Theorem 5.1 und der vorangehenden Definition. Satz 5.3. — Es bezeichnen nun m1 , m2 , m3 die Momente der Ordnungen 1, 2, 3 von X und µ1 = 0, µ2 , µ3 deren zentrierte Momente der Ordnungen 1, 2, 3. Dann gilt: (it)2 (it)3 3 m2 + m3 + o(|t| ) = 1 + λ(t) 2! 3! (it)2 (it)3 3 µ2 + µ3 + o(|t| ). ψ(t) = Log 1 + λ(t) = itm1 + 2! 3! ϕ(t) = 1 + itm1 + Der Beweis beruht auf einer einfachen Rechnung. Wir beobachten, dass die Kumulanten der Ordnungen 1, 2 und 3 folgende Werte haben: 6. ERZEUGENDE FUNKTION EINES ZUFALLSVEKTORS 203 der Erwartungswert m1 = E[X]; das zentrierte Moment zweiter Ordnung, d.h. die Varianz µ2 = E[(X − m1 )2 ] ; das zentrierte Moment dritter Ordnung µ3 = E[(X − m1 )3 ]. Die Additivität der Koeffizienten κ überträgt sich auf die zentrierten Momente der Ordnungen 2 und 3, aber nicht weiter. Der vierte Kumulant beispielsweise ist κ4 = µ4 − 3µ22 . Beispiele. 1) Es sei X eine N (µ, σ)-verteilte Zufallsvariable. Dann gilt ϕ(t) = exp(itµ − 12 t2 σ 2 ), und daher ψ(t) = itµ − 12 t2 σ 2 . Folglich ist κ1 = µ, κ2 = σ 2 und κn = 0 für alle n ≥ 3. 2) Es sei X eine P(λ)-verteilte Zufallsvariable. Dannn gilt ϕ(t) = it it exp(λ(e − 1)), und daher ψ(t) = t(e − 1) = λ n≥1 (it) /n! . Folglich ist κn = λ für alle n ≥ 1. 3) Die Cauchy-Verteilung hat keine Kumulanten. 6. Erzeugende Funktion und charakteristische Funktion eines Zufallsvektors. — Wir beschränken uns hier auf einige leicht nachzuvollziehende Angaben über die erzeugenden Funktionen und die charakteristischen Funktionen von zweidimensionalen Zufallsvektoren. Definition. — Es sei (X, Y ) ein Zufallsvektor, für den die Funktion g(u, v) = E euX+vY von zwei reellen Variablen u, v in einer offenen Umgebung von (0, 0) definiert ist. Diese Funktion heisst dann erzeugende Funktion der Momente (der Verteilung) von (X, Y ). Die beiden folgenden Theoreme sind die Analoga der Theoreme 3.1 und 3.2 im Falle von zwei Variablen. Entsprechend übertragen sich die Beweise. Theorem 6.1 (Eindeutigkeitssatz). — Die erzeugende Funktion der Momente eines Zufallsvektors bestimmt die Verteilung dieses Vektors. Theorem 6.2. — Es sei (X, Y ) ein Zufallsvektor mit g(u, v) als erzeugender Funktion der Momente (die also in einer offenen Umgebung von (0, 0) definiert ist). Dann gilt k l 1) E[ |X| |Y | ] < +∞ für alle k, l ≥ 1; ∂ k+l 2) E[X k Y l ] = k l g(u, v) . ∂ u∂ v (u, v) = (0, 0) 204 KAPITEL 13: ERZEUGENDE FUNKTION DER MOMENTE Theorem 6.3. — Es sei (X, Y ) ein Zufallsvektor, der eine erzeugende Funktion der Momente g(u, v) besitzt. Dann hat auch jede der marginalen Zufallsvariablen X bzw. Y eine erzeugende Funktion der Momente g1 (u) bzw. g2 (v) und es gilt g1 (u) = g(u, 0), sowie g2 (v) = g(0, v). Der Beweis ist klar. Das folgende Theorem charakterisiert die Unabhängigkeit der marginalen Zufallsvariablen X, Y mit Hilfe der erzeugenden Funktion der Momente. Theorem 6.4. — Es sei (X, Y ) ein Zufallsvektor und g(u, v) (definiert in einer offenen Umgebung V von (0, 0)) seine erzeugende Funktion der Momente. Dann sind die beiden folgenden Aussagen äquivalent: 1) X und Y sind unabhängig; 2) Für alle (u, v) ∈ V gilt g(u, v) = g(u, 0)g(0, v). Beweis. 1) ⇒ 2) Seien also X und Y unabhängig; dann sind auch die Zuund evY unabhängig und für alle (u, v) ∈ V gilt g(u, v) = fallsvariablen euX uX uX+vY =E e E evY = g(u, 0)g(0, v). E e 2) ⇒ 1) Es gelte nun 2). Es bezeichne F(x, y) die gemeinsame Verteilungsfunktion von (X, Y ), sowie FX (x) und FY (y) die Verteilungsfunktionen der jeweiligen marginalen Zufallsvariablen. Dann ist (6.1) eux+vy dF(x, y) g(u, v) = 2 R ux e dFX (x) evy dFY (y) g(u, 0)g(0, v) = R R (6.2) eux+vy dFX (x)dFY (y). = R2 Da (6.1) = (6.2) für alle (u, v) ∈ V gilt, folgt aus Theorem 2.2 (Eindeutigkeitssatz), dass F(x, y) = FX (x)FY (y) für alle (x, y) gilt; das besagt aber, dass X und Y unabhängig sind. Man kann nun auch ganz entsprechend die charakteristische Funktion eines (beliebigen) Paares (X, Y ) von Zufallsvariablen durch ϕ(u, v) = E[ei(uX+vY ) ] (u, v) ∈ R2 ) definieren. Die den Theoremen 6.1, 6.2, 6.3, 6.4 entsprechenden Aussagen lassen sich ohne weiteres beweisen. Wir beschränken uns darauf, die folgende Aussage festzuhalten. Theorem 6.4 . — Es sei (X, Y ) ein Paar von reellen Zufallsvariablen mit ϕ(u, v) als charakteristischer Funktion. Dann sind die beiden folgenden Aussagen äquivalent: a) X und Y sind unabhängig. b) Für jedes (u, v) ∈ R2 gilt: ϕ(u, v) = ϕ(u, 0)ϕ(0, v). 7. FUNDAMENTALE EIGENSCHAFT 205 7. Die fundamentale Eigenschaft. — Ziel dieses Abschnitts ist der Beweis der Aussage, dass die auf der Menge der von Wahrscheinlichkeitsmasse 1 itx (R, B ) definierte Abbildung µ → µ̂(t) = R e dµ(x), die jeder Verteilung ihre “charakteristische Funktion” zuordnet, injektiv ist; dies rechtfertigt die Bezeichnung. Zuvor noch eine Bemerkung: bei der charakteristischen Funktion eines Masses handelt es sich im wesentlichen um die Fourier-Transformierte dieses Masses, sodass die Eindeutigkeitsaussage aus allgemeinen Eigenschaften der Fourier-Transformation (über geeigneten Räumen von Funktionen) folgt, die wir hier aber nicht voraussetzen wollen. Eine technische Komplikation ergibt sich daraus, dass wir das folgende Theorem nicht nur für absolutstetige Verteilungen, sondern für beliebige Wahrscheinlichkeitsverteilungen auf (R, B1 ) beweisen wollen. Wir geben hier nur den Gang des Beweises wieder, ohne alle Schritte im Detail zu begründen. Theorem 7.1. — Die charakteristische Funktion µ̂ eines Wahrscheinlichkeitsmasses µ bestimmt dieses Mass eindeutig. Wir beginnen mit einer Vorüberlegung zur Darstellung eines Masses µ. Sind µ, ν Wahrscheinlichkeitsmasse auf (R, B1 ), wobei ν die Verteilungsfunktion G hat, so hat deren Faltung µ ∗ ν die Verteilungsfunktion H mit H(z) = R G(z − x) dµ(x) . Es sei nun (νn ) eine Folge von Wahrscheinlichkeitsverteilungen auf (R, B1 ), deren Verteilungsfunktionen (Gn ) punktweise gegen die Verteilungsfunktion des Dirac-Masses ε0 konvergieren, und zwar in jedem Punkt, wo die letztgenannte Funktion stetig ist, d.h. es gilt Gn (x) → 0, falls x < 0; 1, falls x > 0. (n → ∞) (Dies ist der Begriff der “Konvergenz in der Verteilung”, geschrieben L (νn ) −→ ε0 , der in Kapitel 16 genauer behandelt wird.) Wegen Gn (z − x) → 0, falls x > z; 1, falls x < z; (n → ∞) gilt dann für alle x = z die punktweise Konvergenz Gn (z − x) → I]−∞,z[ (x) (n → ∞) . 206 KAPITEL 13: ERZEUGENDE FUNKTION DER MOMENTE Daraus folgt sofort Hn (z) = Gn (z − x) dµ(x) → µ(] − ∞, z[) R (n → ∞) für jedes z ∈ R mit µ({z}) = 0. Da die Menge der Punkte z mit dieser Eigenschaft in R überall dicht ist, erkennt man, dass das Mass µ durch die Werte Hn (z) (z ∈ R, n ∈ N) bestimmt ist. Das Ziel besteht nun darin, eine Folge (νn ) von WahrscheinlichkeitsverL teilungen mit (νn ) −→ ε0 ausfindig zu machen, für die gezeigt werden kann, dass die Verteilungsfunktionen Hn (z) der Faltungen µ ∗ νn , soweit es um die Abhängigkeit von µ geht, nur Eigenschaften der charakteristischen Funktion µ̂ benutzen. L Einen natürlichen Kandidaten für die Folge (νn ) mit (νn ) −→ ε0 liefert die zentrierte Normalverteilung, denn es gilt offensichtlich L N (0, a) −→ ε0 (a ↓ 0) . Man kann also, soweit es um die Konvergenz geht, einfach νn = N (0, 1/n) wählen. Dass diese Wahl im Sinn eines Beweises von Theorem 7.1 brauchbar ist, ergibt sich aus dem folgenden Lemma, da sich die charakteristische Funktion der zentrierten Normalverteilung N (0, a) bis auf einen konstanten Faktor als die Dichte der Normalverteilung N (0, 1/a) erweist. Dies folgt aus ∞ 2 2 1 √ (a > 0) . eitx e−(x/a) /2 dx = e−(at) /2 a 2π −∞ Lemma 7.2 a) Sind µ, ν Wahrscheinlichkeitsmasse auf (R, B1 ) und ist ν absolut-stetig bezüglich des Lebesgue-Masses λ, so ist die Faltung µ ∗ ν ebenfalls absolutstetig. b) Ist die Dichte g von ν (bis auf einen konstanten Faktor) selbst die charakteristische Funktion einer absolut-stetigen Wahrscheinlichkeitsverteilung, so hängt die Dichte h von µ ∗ ν, soweit der Beitrag von µ betroffen ist, nur von der charakteristischen Funktion µ̂ ab. Beweis. — a) Bezeichnen F, G, H die jeweiligen Verteilungsfunktionen von µ, ν, µ ∗ ν, sowie g die Dichte von ν, d.h. ν = g λ, so zeigt u−v G(u − v) dF (v) = g(t) dt dµ(v) H(u) = R R −∞ u g(t − v) dµ(v) dt , = dass µ ∗ ν die Dichte h(t) = R −∞ R g(t − v) dµ(v) hat. ERGÄNZUNGEN UND ÜBUNGEN 207 b) Wenn sich zudem noch g in der Form ∞ eitx f (x) dx g(t) = c · −∞ schreiben lässt, wobei f eine Wahrscheinlichkeitsdichte ist, so ergibt sich ∞ ∞ i(t−v)x c e f (x) dx dµ(v) = c eitx f (x) µ̂(−x) dx , h(t) = R −∞ −∞ und aus dieser Darstellung wird deutlich, dass die Abhängigkeit der Dichte h von µ ∗ ν, was den Beitrag des Masses µ angeht, nur dessen charakteristische Funktion µ̂ benutzt. Mit dem Beweis des Lemmas ist auch der Beweis von Theorem 7.1 abgeschlossen. ERGÄNZUNGEN UND ÜBUNGEN 1. — Es sei (X, Y ) ein Paar von reellen Zufallsvariablen, dessen gemeinsame Verteilung in der auf Theorem 2.3 dieses Kapitels folgenden Bemerkung beschrieben ist. Ausserdem sei (X ∗ , Y ∗ ) eine Paar von unabhängigen und auf [0, 1] gleichverteilten Zufallsvariablen. Für eine reelle Zufallsvariable Z bezeichne FZ deren Verteilungsfunktion. Folgende Aussagen lassen sich geometrisch beweisen: a) Es ist FX ∗ = FX und FY ∗ = FY . b) Für 1 ≤ z ≤ 2 gilt FX ∗ +Y ∗ (z) = 1 − FX ∗ +Y ∗ (2 − z) und FX+Y (z) = 1 − FX+Y (2 − z). c) Für 0 ≤ z ≤ 1 gilt FX+Y (z) = FX ∗ +Y ∗ (z). [Man unterscheide die beiden Fälle: 0 ≤ z ≤ 1/2 und 1/2 ≤ z ≤ 1.] d) Aus a), b) und c) ergibt sich FX+Y (z) = FX ∗ +Y ∗ (z) für alle z. Schliesslich ist, 0, falls z < 0; 2 z /2, falls 0 ≤ z < 1; FX ∗ +Y ∗ (z) = 2 1 − (2 − z) /2, falls 1 ≤ z < 2; 1, falls z ≥ 2. 2. — Es sei X eine Zufallsvariable mit der Verteilung pε1 + qε0 mit 0 ≤ p ≤ 1, p + q = 1. Man berechne die erzeugende Funktion der Momente der zentrierten Variablen X − p, sowie deren Momente der Ordnung k ≥ 1. 208 KAPITEL 13: ERZEUGENDE FUNKTION DER MOMENTE 3. (A. Joffe). — Es sei (X, Y ) ein Paar von unabhängigen Zufallsvariablen mit nichtnegativen Werten, wobei P{X = 0} = P{Y = 0} = 0 ist. Mit g1 (u) bzw. g2 (v) seien die Laplace-Transformierten von X bzw. Y benannt, die für u ≥ 0 durch g1 (u) = E[e−uX ], g2 (u) = E[e−uY ] (u ≥ 0) definiert sind. Dann gelten ∞folgende Aussagen: ! X " =− g1 (u)g2 (u) du. a) E X +Y 0 b) Bezeichnet g(u) die Laplace-Transformierte einer Zufallsvariablen X mit nichtnegativen Werten, wobei P{X = 0} = 0 gilt, so ist lim g(u) = 0. u→+∞ 4. (A. Joffe). — Es sei X eine Zufallsvariable mit positiven Werten und g(u) = E[e−uX ] bezeichne ihre Laplace-Transformierte, die für u ≥ 0 definiert sei. Dann gilt für alle p > 0 in [0, +∞] die folgende Identität: ∞ ! 1 " 1 = g(u)up−1 du. E Xp Γ(p) 0 Speziell für p = 1 und p = 1 2 ist !1" ∞ E g(u) du und = X 0 ∞ ! 1 " 1 E √ g(u)u−1/2 du. =√ π 0 X 5. — Es sei X eine Zufallsvariable, die eine erzeugende Funktion der Momente g(u) besitzt. Wir betrachten h(u) = Log g(u). Man zeige h (0) = E[X], h (0) = Var X, h (0) = E[(X − E[X])3 ]. Zu beachten ist, dass für n > 3 die Grösse h(n) (0) nicht mehr notwendigerweise gleich dem zentrierten Moment n-ter Ordnung von X ist. 6. — Man bezeichnet eine reelle Zufallsvariable X mit Werten in [1, +∞[ als Pareto-verteilt mit Verteilung P(a, 1), wobei a > 0 ist, wenn sie folgende Dichte hat: a f (x) = a+1 I[1,+∞[ (x). x a) Existieren die Momente E[X n ] für alle n ≥ 1? b) Für welche Werte von u ist die Funktion g(u) = E[euX ] definiert? Hat die Zufallsvariable X eine erzeugende Funktion der Momente? Hat sie eine charakteristische Funktion? 7. — Man berechne die erzeugende Funktion der Momente für die Zufallsvariable |X|, wenn X normal N (0, 1) verteilt ist. ERGÄNZUNGEN UND ÜBUNGEN 209 8. — Es sei (X, Y ) ein Paar von unabhängigen Zufallsvariablen, wobei jede von ihnen N (0, 1)-verteilt ist. Man zeige, dass das Produkt XY 1 eine erzeugende Funktion der Momente besitzt, die durch g(u) = √ 1 − u2 (|u| < 1) gegeben ist. Indem man formal u durch it (t reell) ersetzt, √ erhält man die charakteristische Funktion von XY , nämlich ϕ(t) = 1/ 1 + t2 . Deren Dichte ist durch die Fourier-Inversionsformel 1 ∞ cos tx 1 1 −itx √ e ϕ(t) dt = dt. = K0 (x) f (x) = 2π R π 0 π 1 + t2 gegeben, wobei K0 (x) die modifizierte Bessel-Funktion zweiter Ordnung ist (cf. Abramowitz & Stegun3 ). 9. — Es sei (X1 , X2 , X3 , X4 ) ein System von vier unabhängigen Zufallsvariablen, N (0, 1)-verteilt sind. Man zeige, dass die Determi die allesamt X1 X2 1 eine erzeugende Funktion hat, die durch g(u) = nante ∆ = X3 X4 1 − u2 (|u| < 1) gegeben ist. Dies ist die erzeugende Funktion der ersten LaplaceVerteilung. 10. — Es sei (ϕk ) (k ≥ 0) eine Folge von charakteristischen Funktionen und (αk ) (k ≥ 0) sei eine Folge von positiven Zahlen mit Summe 1. αk ϕk eine charakteristische Funktion. Wählt man speziell Dann ist auch k≥0 wobei ϕ eine feste charakteristische Funktion ist, so sieht man, ϕk = (ϕ)k , αk (ϕ)k eine charakteristische Funktion ist. dass auch k≥0 a) Wir wählen hier speziell αk = e−λ λk /k! (λ > 0, k ∈ N). Ist nun ϕ eine charakteristische Funktion, so ist für jedes λ > 0 auch ϕλ = eλ(ϕ−1) eine charakteristische Funktion (Satz von de Finetti). Nimmt man λ = 1 und ϕ(t) = 1/(1 + t2 ), so erkennt man, dass auch exp(−t2 /(1 + t2 )) eine charakteristische Funktion ist. Im Falle ϕ(t) = eit bestimme man die Verteilung, die ϕλ als charakteristische Funktion hat. b) Wählen wir jetzt speziell αk = pq k (0 < p < 1, p + q = 1, k ∈ N). Man zeige, dass für jede charakteristische Funktion ϕ und jedes λ > 1 auch ϕλ = (λ − 1)/(λ − ϕ) eine charakteristische Funktion ist. Im Spezialfall ϕ(t) = eit ermittle man die Verteilung, die ϕλ als charakteristische Funktion hat. 11. — Es sei (ϕλ ) (λ ∈ I) eine Familie von charakteristischen Funktionen, die durch die λ aus einem nichtleeren Intervall indiziert ist. f sei eine 3 Abramowitz (Milton) & Stegun (Irene). — Handbook of mathematical functions with formulas, graphs, and mathematical tables. — New York, Dover, , section 9.6.21. 210 KAPITEL 13: ERZEUGENDE FUNKTION DER MOMENTE Wahrscheinlichkeitsdichte auf I. Dann ist auch ϕ(t) = I ϕλ (t) f (λ) dλ eine charakteristische Funktion. a) Man zeige, dass für jede charakteristische Funktion ϕ auch Φ(t) = t (1/t) 0 ϕ(u) du eine charakteristische Funktion ist (Khintchin). b) Man zeige, dass für jedes γ > 0 die Funktion ϕγ (t) = 1/(1 + t2 )γ eine charakteristische Funktion ist. Für γ = 1 ist dies die charakteristische Funktion der ersten Laplace-Verteilung; für γ = 12 handelt es sich um die charakteristische Funktion von XY , wobei (X, Y ) ein Paar von unabhängigen Zufallsvariablen ist, die beide N (0, 1)-verteilt sind. c) In der Analysis begegnet man der Formel 1 t2 1 −|t| 2 dx. = √ exp − + x e 2 x2 2π R Dies zeigt, dass e−|t| eine charakteristische Funktion ist, denn für jedes 1 t2 x = 0 ist die Funktion exp − 2 eine charakteristische Funktion und x2 2x 1 √ exp − (x ∈ R) ist eine Dichte. 2 2π 12. — Es sei (X, Y ) ein Paar von Zufallsvariablen und Z = X + Y . Man zeige, dass, wenn X von Z unabhängig ist und zudem auch Y von Z unabhängig ist, die Zufallsvariable Z fast-sicher eine Konstante ist. 13. — Ist ein System von drei unabhängigen Zufallsvariablen (X, X1 , X2 ) gegeben, so kann man ihm das Paar (Y1 , Y2 ) mit Y1 = X + X1 und Y2 = X + X2 zuordnen. Man zeige, dass die Zufallsvariablen Y1 und Y2 genau dann unabhängig sind, wenn X fast-sicher konstant ist. 14. — Es sei X eine Zufallsvariable, die eine erzeugende Funktion g(u) der Momente besitzt. Man beweise die Ungleichung von Chernoff ∀ x > 0 P{X ≥ x} ≤ inf e−ux g(u). u≥0 15. — Für die charakteristische Funktion ϕ einer exponential-verteilten Zufallsvariablen X mit Parameter λ > 0 gilt (1) |ϕ(t)|2 = ϕ(t). Falls ϕ(t) der Gleichung (1) genügt, so gilt dies auch für ϕ(−t), die charakteristische Funktion der Zufallsvariablen −X. Andererseits ist ϕ(t) = 1, die charakteristische Funktion der Konstanten 0, die einzige reelle Funktion, die (1) erfüllt. Gibt es andere Wahrscheinlichkeitsverteilungen, deren charakteristische Funktion die Eigenschaft (1) hat? [Dieses Problem ist noch offen.]