ERZEUGENDE FUNKTION DER MOMENTE

Werbung
KAPITEL
13
ERZEUGENDE FUNKTION DER MOMENTE.
CHARAKTERISTISCHE FUNKTION
In Kapitel 9 haben wir den Begriff der erzeugenden Funktion einer diskreten
Zufallsvariablen mit Werten in N untersucht. Im Falle allgemeiner Zufallsvariabler erweist es sich als zweckmässig, diese Definition leicht zu modifizieren. Wir werden dazu eine reelle Funktion einführen, die, wenn sie in
einer Umgebung des Ursprungs definiert ist, die vollständige Information
über die Momente einer Zufallsvariablen enthält. Die sogenannte charakteristische Funktion ist die komplexe Version dieser erzeugenden Funktion der
Momente.
1. Einführung. — Es sei X eine reelle Zufallsvariable; ihr ordnet man
die Funktion gX (u) = E[euX ] der reellen Variablen u zu, die für die Menge
derjenigen u ∈ R definiert ist, für die E[euX ] < +∞ gilt. Die folgenden
Eigenschaften ergeben sich unmittelbar:
1) Die Funktion gX ist stets für u = 0 definiert und es ist gX (0) = 1.
Es gibt aber Zufallsvariable, bei denen die Funktion gX auch nur für u = 0
definiert ist (beispielsweise die Zufallsvariable von Cauchy).
2) Ist X beschränkt, so ist gX definiert und stetig auf ganz R.
3) Hat X positive Werte, so ist gX auf ] − ∞, 0] stetig und beschränkt.
In diesem Fall führt man in der Regel die Variablentransformation u = −v
durch und hat es dann mit der Laplace-Transformierten (der Verteilung) von
X zu tun:
LX (v) = gX (−v) = E[e−vX ].
Die so definierte Funktion LX ist auf [0, +∞[ stetig und beschränkt .
Definition. — Es sei X eine reelle Zufallsvariable, für welche die Funktion
gX (u) = E[euX ]
der reellen Variablen u in einer offenen Umgebung des Ursprungs definiert
ist. Dann heisst diese Funktion die erzeugende Funktion der Momente (der
Verteilung) von X.
192
KAPITEL 13: ERZEUGENDE FUNKTION DER MOMENTE
Die Terminologie erzeugende Funktion der Momente ist angebracht.
Tatsächlich werden wir zeigen (Theorem 3.1), dass für eine reelle Zufallsvariable X, die eine erzeugende Funktion der Momente gX besitzt, folgendes
gilt:
a) die Momente aller positiven, ganzzahligen Ordnungen existieren;
b) die Funktion gX lässt sich in einer Umgebung des Ursprungs in
eine Potenzreihe entwickeln, wobei das Moment n-ter Ordnung von X als
Koeffizient von un /n! in dieser Entwicklung auftritt.
2. Elementare Eigenschaften
Satz 2.1. — Es sei gX die erzeugende Funktion der Momente einer
Zufallsvariablen X.
(1) Für reelle a, b gilt gaX+b (u) = ebu gX (au).
(2) Die Funktion gX (−u) ist ebenfalls eine erzeugende Funktion der Momente.
(3) Falls die Verteilung von X symmetrisch ist, falls also L(X) = L(−X)
gilt, so ist gX eine gerade Funktion.
(4) Die Funktion gX ist konvex.
Beweis. — Die Eigenschaft (1) ist klar. Zum Beweis von Eigenschaft (2)
genügt es zu bemerken, dass gX (−u) die erzeugende Funktion der Momente
der Zufallsvariablen −X ist. Eigenschaft (3) folgt aus
gX (u) = E[euX ] = E[eu(−X) ] = E[e(−u)X ] = gX (−u).
Schliesslich ist (4) eine Konsequenz davon, dass die erzeugende Funktion eine
konvexe Kombination von Exponentialfunktionen ist.
Theorem 2.2 (Eindeutigkeitssatz). — Die erzeugende Funktion der
Momente einer Zufallsvariablen bestimmt die Verteilung dieser Variablen.
Anders formuliert, falls zwei Zufallsvariable die gleiche erzeugende Funktion
der Momente haben, so haben sie auch die gleiche Verteilung.
Beweis. — Dies lässt sich nur dann mit einfachen Mittel beweisen, wenn
die Zufallsvariable X ihre Werte in N annimmt. In dieser Situation ist es
üblich, an Stelle der erzeugenden Funktion der Momente g(u) = E[euX ] die
erzeugende Funktion G(s) = E[sX ] zu betrachten, die im wesentlichen die
gleiche Rolle spielt. Wir haben aber bereits mit elementaren Mitteln gezeigt
(cf. Theorem 1.4 von Kap. 9), dass die Funktion G die Verteilung von X
bestimmt.
In der allgemeinen Situation ist der Beweis des Eindeutigkeitssatzes deutlich schwieriger (cf. Billingsley.1 )
1
Billingsley (P.). — Probability and Measure, 3. Auflage . — New York, Wiley, ,
p. 390.
2. ELEMENTARE EIGENSCHAFTEN
193
Theorem 2.3. — Es sei (X, Y ) ein Paar von reellen unabhängigen
Zufallsvariablen, von denen jede eine erzeugende Funktion der Momente
besitzt. Dann gilt dies auch für die Summe X + Y und es gilt
gX+Y = gX gY .
(2.2)
Beweis. — Es ist: gX+Y (u) = E[eu(X+Y ) ] = E[euX euY ]; die Unabhängigkeit von X und Y überträgt sich auf euX und euY . Mittels einer
Anwendung von Theorem 2.2 aus Kapitel 11 folgt daraus gX+Y (u) =
E[euX ] E[euY ] = gX (u) gY (u).
Bemerkung. — Die Eigenschaft (2.2) charakterisiert die Unabhängigkeit
nicht, denn man kann Paare (X, Y ) von Zufallsvariablen konstruieren, welche
zwar erzeugende Funktionen der Momente besitzen und die nicht unabhängig
sind, für die aber dennoch (2.2) gilt. Hierzu folgt ein Beispiel.
Es sei (X, Y ) ein Paar von Zufallsvariablen, deren gemeinsame Verteilung
die Dichte
2, falls (x, y) ∈ E;
f (x, y) =
0, sonst;
hat, wobei E die schraffierte Teilmenge von [0, 1] × [0, 1] bezeichnet, wie sie
in Figur 1 dargestellt ist.
1
1/2
0
1/2
1
Fig. 1
Die Zufallsvariablen X und Y sind nicht unabhängig, denn beispielsweise gilt
P{X ≤ 1/4, Y ≥ 3/4} = 0, aber P{X ≤ 1/4} = P{Y ≥ 3/4} = 1/4. Nehmen
wir übrigens als (X ∗ , Y ∗ ) ein Paar von unabhängigen Zufallsvariablen, die
beide in [0, 1] gleichverteilt sind, so gilt L(X) = L(X ∗ ), L(Y ) = L(Y ∗ ),
L(X + Y ) = L(X ∗ + Y ∗ ) (cf. Aufgabe 1). Da die Zufallsvariablen X, Y ,
X + Y , X ∗ , Y ∗ , X ∗ + Y ∗ alle beschränkt sind, besitzen sie jeweils eine
erzeugende Funktion der Momente und für jede reelle Zahl u gilt gX+Y (u) =
gX ∗ +Y ∗ (u) = gX ∗ (u) gY ∗ (u) = gX (u) gY (u). Für das nicht unabhängige Paar
(X, Y ) von Zufallsvariablen gilt also ebenfalls gX+Y = gX gY .
194
KAPITEL 13: ERZEUGENDE FUNKTION DER MOMENTE
Theorem 2.3 hat die folgenden Korollare.
Korollar 1. — Das Produkt von zwei erzeugenden Funktionen der
Momente ist wieder eine erzeugende Funktion für Momente.
Korollar 2. — Ist g eine erzeugende Funktion der Momente, so gilt
dies auch für die Funktion h(u) = g(u)g(−u). Genauer gesagt, ist X eine
Zufallsvariable, die g(u) als erzeugende Funktion der Momente hat und ist
X eine von X unabhängige Zufallsvariable mit gleicher Verteilung wie X,
so besitzt auch die Zufallsvariable Y = X − X eine erzeugende Funktion der
Momente, und dies ist gerade h(u) = g(u)g(−u). Die Zufallsvariable Y wird
als die “Symmetrisierte” von X bezeichnet.
3. Momente. — Das folgende Theorem rechtfertigt die eingeführte
Bezeichnung einer erzeugenden Funktion der Momente.
Theorem 3.1. — Es sei X eine Zufallsvariable, die eine erzeugende
Funktion der Momente g besitzt. Dabei sei g(u) für alle u in einem offenen
Intervall ]u1 , u2 [ mit u1 < 0 < u2 definiert. Dann gilt:
k
1) für alle k ≥ 1 ist E[ |X| ] < +∞;
2) für alle t ∈] − s, +s[ mit 0 < s < u0 = min(−u1 , u2 ) ist
g(t) = 1 + E[X]
t
t2
tn
+ E[X 2 ] + · · · + E[X n ]
+···
1!
2!
n!
3) für alle k ≥ 1 ist g (k) (0) = E[X k ].
Beweis. — Wir führen den Beweis lediglich in dem Fall, wo die Verteilung
von X eine Dichte f besitzt.
k
1) Es geht darum, zu zeigen, dass für alle k ≥ 1 tatsächlich E[ |X| ] =
k
|x| f (x) dx < +∞ gilt. Sei dazu ein s mit 0 < s < u0 = min(−u1 , u2 )
R
fest gewählt. Aus der Reihenentwicklung von es|x| für reelles x kann man
k
die Ungleichung sk |x| /k! ≤ es|x| für alle k ≥ 1 folgern. Daher gilt
k
|x| ≤ k! es|x| /sk . Daraus ergibt sich für jedes k ≥ 1 die Abschätzung
+∞
0
k! +∞ s|x|
k!
k
sx
−sx
e f (x) dx = k
e f (x) dx +
e
f (x) dx
E[ |X| ] ≤ k
s −∞
s
0
−∞
+∞
+∞
k! k!
sx
−sx
e f (x) dx +
e
f (x) dx = k gX (s) + gX (−s)].
≤ k
s
s
−∞
−∞
Der letzte Ausdruck ist aber endlich, denn nach Annahme sind gX (s) und
gX (−s) endlich.
2) Es geht im wesentlichen darum zu zeigen, dass man in
+∞ +∞
(tx)k
tx
e f (x) dx =
g(t) =
f (x) dx
k!
−∞
−∞
k≥0
195
3. MOMENTE
die Operatoren der Summation und der Integration vertauschen kann. Dazu
definiert man
tx
und
h(x) = f (x) e
hn (x) = f (x)
n
(tx)k
k=0
(n = 1, 2, . . . ).
k!
Für jede reelle Zahl x gilt natürlich limn hn (x) = h(x). Ausserdem hat man
für alle n = 1, 2, . . . die Abschätzung
|hn (x)| ≤ f (x)
n
k
|tx|
k=0
|tx|k
≤ f (x)
= f (x) e|tx| ≤ f (x) es|x| .
k!
k!
k≥0
Andererseits liefert eine zu 1) analoge Überlegung
+∞
es|x| f (x) dx ≤ g(s) + g(−s) < +∞.
−∞
Damit sind die Voraussetzungen für die Anwendung des Satzes von der
dominierten Konvergenz erfüllt und man erhält
+∞
+∞
n
tk +∞ k
h(x) dx = lim
hn (x) dx = lim
x f (x) dx
g(t) =
n
n
k! −∞
−∞
−∞
k=0
tk
=
E[X k ].
k!
k≥0
3) Bekanntlich kann eine Potenzreihe innerhalb ihres Konvergenzkreises
gliedweise differenziert werden. Aus Teil 2) folgt also, dass für jedes t aus
dem Intervall ] − s, s[ und jedes k = 1, 2, . . .
g
(k)
(t) =
n≥k
tn−k
n(n − 1) . . . (n − k + 1) E[X ]
n!
n
gilt, und daher ist speziell g (k) (0) = E[X k ].
Bemerkungen. — Wir haben gesehen, dass eine Zufallsvariable mit erzeugender Funktion der Momente auch Momente jeder positiven ganzen Ordnung besitzt. Die Umkehrung dieser Aussage ist allerdings falsch, denn eine
Zufallsvariable kann Momente jeder beliebigen positiven ganzen Ordnung
haben, ohne dass sie eine erzeugende Funktion der Momente (im Sinne der
Definition von Abschnitt 1) besitzt. Dies zeigt das folgende Beispiel.
Es sei X = eY , wobei Y eine N (0, 1)-verteilte Zufallsvariable ist (siehe
Kap. 14, § 3 und 4). Die Verteilung von X heisst log-normal (0, 1).
196
KAPITEL 13: ERZEUGENDE FUNKTION DER MOMENTE
a) Zunächst stellt man fest, dass X Momente jeder Ordnung hat, denn
+∞
2
2
1
n
eny √ e−y /2 dy = en /2 < +∞.
E[X ] =
2π
−∞
+∞
y
2
1
uX
eue √ e−y /2 dy.
b) Andererseits ist g(u) = E[e ] =
2π
−∞
Dieses Integral konvergiert genau dann, wenn u ∈]−∞, 0]. (Man beachte, dass
für u > 0 und hinreichend grosses y stets uey > y 2 /2 gilt.) Aber ] − ∞, 0] ist
keine offene Umgebung von u = 0 und somit ist g keine erzeugende Funktion
der Momente.
Somit besitzt X Momente jeder Ordnung, aber keine erzeugende Funktion
der Momente. Das hat zur Konsequenz, dass die Folge der Momente nicht
die Wahrscheinlichkeitsverteilung bestimmt, denn es gibt andere, von der lognormalen Verteilung verschiedene Verteilungen, welche die gleiche Folge von
Momenten haben.
Spezialfall. — Es sei X eine Zufallsvariable mit Werten in N; üblicherweise
betrachtet man hierzu die erzeugende Funktion der faktoriellen Momente
G(u) = E uX ,
die mit der erzeugenden Funktion der Momente
g(u) = E euX
gemäss g(u) = G eu zusammenhängt. (Diese Funktionen wurden in Kapitel 9 untersucht.) Das folgende Theorem ist eine Konsequenz von Theorem 3.1.
Theorem 3.1 . — Es sei X eine Zufallsvariable mit Werten in N und
G ihre erzeugende Funktion der faktoriellen Momente. Dabei sei G in einer
offenen Umgebung von u = 1 definiert. Dann
a) existieren alle Momente E[X n ] positiver ganzer Ordnung und sind
endlich; daraus folgt, dass auch alle faktoriellen Momente positiver ganzer
Ordnung existieren und endlich sind;
b) gilt g (n) (0) = E[X n ] für jedes n ≥ 1
Beweis.
a) Wir nehmen an, dass G(u) in einer offenen Umgebung von 1 definiert
sei, also etwa in einem Intervall U =]u1 , u2 [ (0 < u1 < 1 < u2 ). Für jedes
u ∈ U sei u = et , also t = Log u. Dann ist g(t) = G(et ) in dem offenen
Intervall ]t1 , t2 [ definiert, wobei nun t1 < 0 < t2 , t1 = Log u1 , t2 = Log u2
ist. Aus Theorem 3.1 1) folgt nun, dass sämtliche Momente positiver ganzer
Ordnung von X existieren und endlich sind; das gilt dann auch für die
faktoriellen Momente.
b) folgt aus Theorem 3.1 3).
4. CHARAKTERISTISCHE FUNKTIONEN
197
4. Charakteristische Funktionen. — Beim weiteren Ausbau der
Theorie zieht man es vor, statt mit der erzeugenden Funktion der Momente
einer Zufallsvariablen X mit deren charakteristischen Funktion zu arbeiten.
Diese wird für reelles t durch ϕ(t) = E[eitX ] definiert und sie hat den
erheblichen Vorteil, für jede reelle Zahl t und jede Zufallsvariable X zu
existieren. Ausserdem ist der Zusammenhang zwischen Verteilung einer
Zufallsvariablen und charakteristischer Funktion bijektiv. Andererseits ist die
Handhabung der charakteristischen Funktionen etwas subtiler, da man als
Werkzeug Funktionen einer komplexen Variablen heranziehen muss.
Definition. — Es sei X eine reelle Zufallsvariable. Als charakteristische
Funktion von X (oder der Verteilung von X) bezeichnet man die durch
ϕX (t) = E[eitX ]
definierte Funktion einer reellen Variablen
t. Wichtige Spezialfälle:
pk εxk , so ist ϕ(t) =
pk eitxk .
a) Ist X diskret mit Verteilung
k
k
b) Ist X absolut stetig mit Dichte f , so ist ϕ(t) = R eitx f (x) dx.
Theorem 4.1 (Elementare Eigenschaften). — Es bezeichne ϕ die charakteristische Funktion einer reellen Zufallsvariablen X. Dann gilt:
1) ϕ ist für jedes reelle t definiert und stetig;
2) ϕ ist beschränkt, wobei für jedes reelle t |ϕ(t)| ≤ ϕ(0) = 1 ist;
3) ϕ ist eine hermitesche Funktion, d.h. für jedes reelle t ist ϕ(−t) = ϕ(t)
(eine reellwertige charakteristische Funktion ist gerade);
4) für alle reellen a, b, t gilt die Gleichheit ϕaX+b (t) = eibt ϕX (at);
5) ist die Verteilung von X symmetrisch, ist also L(−X) = L(X), so ist
ϕX eine reelle, und damit eine gerade Funktion;
6) jede konvexe Kombination von charakteristischen Funktionen ist wieder
eine charakteristische Funktion.
Beweis. — Ein Hinweis für Eigenschaft 5) sollte genügen. Man muss nur
ϕX (t) = ϕ−X (t) = ϕX (−t) = ϕX (t) schreiben. Daher ist ϕX reell und somit
gerade.
In der Tabelle auf der folgenden Seite sind die charakteristischen Funktionen für die gebräuchlichsten Verteilungen eingetragen.
In den ersten drei
Fällen handelt es sich um diskrete Verteilungen der Form k pk εk . In jedem
Fall wird präzisiert, welche Werte die ganze Zahl k annimmt. Die restlichen
Verteilungen sind absolut stetig mit Dichte f . Eine vollständige Beschreibung
dieser vier Verteilungen wird im folgenden Kapitel gegeben, und zwar in den
Abschnitten § 5, 6, 3 und 7.
Die Berechnung ist in den ersten drei Fällen sehr einfach; das gilt allerdings
nicht für die restlichen Fälle. Immerhin kann man im Falle der charakteristischen Funktion der Normalverteilung N (0, 1) einen Rückgriff auf die
198
KAPITEL 13: ERZEUGENDE FUNKTION DER MOMENTE
Verteilung
Binomialverteilung
Poisson-Verteilung
Geometrische Verteilung
analytischer Ausdruck
n k n−k
pk =
p q
(0 ≤ k ≤ n)
k
λk
pk = e−λ
(k ≥ 0, λ > 0)
k!
pk = q k−1 p (k ≥ 1)
Exponentialverteilung E(λ) f (x) = λe−λx I[0,∞[ (x) (λ > 0)
Laplace-Verteilung
Normalverteilung N (0, 1)
Cauchy-Verteilung C(0, 1)
1 −|x|
(x ∈ R)
e
2
2
1
f (x) = √ e−x /2 (x ∈ R)
2π
1 1
f (x) =
(x ∈ R)
π 1 + x2
f (x) =
charakteristische
Funktion
(q + peit )n
eλ(e
it
−1)
peit
1 − qeit
λ
λ − it
1
1 + t2
2
e−t
/2
e−|t|
Theorie der Funktionen einer komplexen Variablen umgehen, wenn man
folgendermassen vorgeht.
Die Normalverteilung N (0, 1) ist offensichtlich symmetrisch. Ihre charakteristische Funktion ist also gleich
2
1
itX
cos(tx) e−x /2 dx.
ϕ(t) = E[e ] = E[cos tX] = √
2π R
Damit hat man es mit der Standardsituation der Berechnung eines Integrals
zu tun, das von einem Parameter abhängt. Durch Ableitung unter dem
Integral, was leicht zu rechtfertigen ist, erhält man
2
1
(−x sin(tx)) e−x /2 dx ;
ϕ (t) = √
2π R
und dann mittels partieller Integration
ϕ (t) = −t ϕ(t) .
Wegen ϕ(0) = 1 liefert die Integration dann
2
ϕ(t) = e−t
/2
.
Bemerkung. — Formal erhält man die charakteristische Funktion ϕ(t)
aus der erzeugenden Funktion der Momente g(u), indem man u durch it
ersetzt. In vielen Fällen, so beispielsweise bei den ersten sechs Verteilungen
4. CHARAKTERISTISCHE FUNKTIONEN
199
der obigen Tabelle, hat der Ausdruck g(it), den man durch Substitution
erhält, als Funktion mit komplexen Werten einen guten Sinn und ist sogar
gleich der charakteristischen Funktion, wie man sie direkt per Summation
oder Integration in der komplexen Ebene erhält. Gleichwohl kann man
diese Substitution nicht in den Rang einer allgemeinen Regel erheben, denn
einerseits kann es sein, dass g(u) ausser am Ursprung nirgends definiert ist
(wie etwa im Fall der Cauchy-Verteilung), andererseits kann selbst dann,
wenn g(u) als Funktion der reellen Variablen u wohldefiniert ist, die komplexe
Funktion g(it) mehrere Bedeutungen in der komplexen Ebene haben. Dieser
letztere Fall tritt beispielsweise dann ein, wenn der algebraische Ausdruck
für g nichtganzzahlige Potenzen der (komplexen) Variablen enthält. Es ist
also sinnvoll, in jedem Fall eine direkte Berechnung von ϕ(t) anzugehen.
Theorem 4.2 (Eindeutigkeitssatz). — Die charakteristische Funktion
einer Zufallsvariablen bestimmt die Verteilung dieser Variablen. Anders formuliert, haben zwei Zufallsvariable die gleiche charakteristische Funktion, so
haben sie auch die gleiche Verteilung.
Wegen dieses Theorems, das am Ende dieses Kapitels bewiesen wird,
ist es gerechtfertigt, von der charakteristischen Funktion zu sprechen: die
charakteristische Funktion charakterisiert die Verteilung.
Theorem 4.3. — Ist (X, Y ) ein Paar von unabhängigen Zufallsvariablen,
so gilt für jedes reelle t die Gleichheit
(4.1)
ϕX+Y (t) = ϕX (t)ϕY (t).
Beweis. — Tatsächlich ist ϕX+Y (t) = E[eit(X+Y ) ] = E[eitX eitY ], und da
mit X und Y auch eitX und eitY unabhängig sind, folgt
ϕX+Y (t) = E[eitX ] E[eitY ] = ϕX (t)ϕY (t).
Bemerkung. — Die Eigenschaft (4.1) ist nicht charakteristisch für die
Unabhängigkeit, denn es gibt Paare von nicht unabhängigen Zufallsvariablen,
für die dennoch (4.1) gilt. Man kann hierfür ein besonders schlagendes
Beispiel angeben (das übrigens nicht für die Situation der erzeugenden
Funktionen von Momenten einschlägig ist).
Es sei X eine Zufallsvariable mit Cauchy-Verteilung C(0, 1); ihre charakteristische Funktion ist ϕX (t) = e−|t| . Das Paar (X, Y ), wobei nun Y = X
ist, führt zu dem angekündigten Effekt:
2
ϕX+Y (t) = ϕ2X (t) = e−2|t| = e−|t| = ϕX (t)ϕY (t).
Korollar. — Das Produkt von zwei charakteristischen Funktionen ist
wieder eine charakteristische Funktion.
200
KAPITEL 13: ERZEUGENDE FUNKTION DER MOMENTE
Theorem 4.4. — Ist ϕ eine charakteristische Funktion, so gilt dies auch
2
für ϕ, |ϕ| , e ϕ. Ist zudem ϕ die charakteristische Funktion einer absolut
2
stetigen Zufallsvariablen, so gilt dies auch für ϕ und |ϕ| .
Beweis. — Es sei X eine Zufallsvariable mit ϕ als charakteristischer
Funktion. Die Zufallsvariable −X hat dann ϕ als charakteristische Funktion.
Ist dabei X absolut stetig, so gilt dies auch für −X.
Sei nun X eine von X unabhängige Zufallsvariable mit gleicher Verteilung
wie X. Die Zufallsvariable Y = X − X hat dann die charakteristische
2
Funktion ϕX−X (t) = ϕX (t)ϕ−X (t) = ϕX (t)ϕX (t) = |ϕX (t)| . Ist dabei
X absolut stetig, so gilt dies auch für Y . Die Zufallsvariable Y wird als die
Symmetrisierte von X bezeichnet.
Schliesslich gilt e ϕ = (ϕ + ϕ)/2, wobei ϕ und ϕ charakteristische Funktionen sind. Der Schwerpunkt (mit positiven Koeffizienten) von charakteristischen Funktionen ist aber wiederum eine charakteristische Funktion.
Wir betrachten nun den Zusammenhang zwischen der charakteristischen
Funktion und den Momenten einer Zufallsvariablen.
Theorem 4.5. — Es sei X eine Zufallsvariable mit ϕ als charakteristischer Funktion. Falls E[ |X| ] < +∞ ist, so ist ϕ stetig differenzierbar und es
gilt ϕ (0) = i E[X].
Beweis. — Wir geben den Beweis in dem Fall, dass X eine Dichte f
besitzt. Dann gilt also
itX
eitx f (x) dx.
ϕ(t) = E[e ] =
R
Für jede reelle Zahl t hat man
itx
ix e f (x) dx ≤
|x| f (x) dx = E[ |X| ] < +∞.
R
R
Man kann also unter dem Integral differenzieren und erhält für reelles t die
Darstellung ϕ (t) = R ix eitx f (x) dx und somit ϕ (0) = i E[X].
Analog kann man vorgehen, um die folgenden Aussagen für die höheren
Momente zu beweisen.
Theorem 4.6. — Es sei X eine Zufallsvariable und ϕ ihre charakten
ristische Funktion. Für die ganze Zahl n ≥ 1 gelte E[ |X| ] < +∞. Dann
gilt:
1) ϕ ist stetig differenzierbar bis zur Ordnung n einschliesslich;
2) ϕ(k) (0) = ik E[X k ] für alle k = 0, 1, . . . , n;
3) ϕ kann dargestellt werden mittels der Taylorformel:
ϕ(t) =
n
(it)k
k=0
k!
n
E[X k ] + o(|t| ),
für
t → 0.
4. CHARAKTERISTISCHE FUNKTIONEN
201
Das folgende Theorem wird in Kapitel 18, § 4, als technisches Hilfsmittel
beim Beweis des zentralen Grenzwertsatzes benötigt.
Theorem 4.7. — Es sei X eine zentrierte Zufallsvariable der Klasse L2 .
Wir setzen Var X = σ 2 und bezeichnen mit ϕ ihre charakteristische Funktion.
Dann gilt:
a) für jedes reelle t hat die Funktion ϕ(t) die Darstellung
1
t2 σ 2
2
−t
(1 − u)E X 2 eituX − 1 du;
ϕ(t) = 1 −
2
0
b) für jedes reelle t mit 3t2 σ 2 ≤ 1 hat die Funktion Log ϕ(t) die
Darstellung
1
t2 2
2
Log ϕ(t) = − σ − t
(1 − u)E X 2 eituX − 1 du + 3θt4 σ 4 ,
2
0
wobei θ eine komplexe Zahl mit |θ| ≤ 1 ist.
Beweis. — Für jedes t und alle reellen x gilt die Gleichheit
1
t 2 x2
itx
2 2
(1 − u) eitux − 1 du.
e = 1 + itx −
−t x
2
0
a) Integriert man diese Gleichheit bezüglich µ, wobei µ die Verteilung
von X ist, so erhält man die erste Darstellung.
b) Die Funktion ϕ(t) lässt sich als 1 − r schreiben, wobei
1
t2 2
2
(1 − u)E X 2 eituX − 1 du
r = σ +t
2
0
ist. Wegen |r| ≤ 32 t2 σ 2 ist |r| ≤ 12 für 3t2 σ 2 ≤ 1. Andererseits gilt für jede
komplexe Zahl r mit |r| ≤ 12
1
1
dx
x
2
, also Log(1 − r) + r = −r
dx.
Log(1 − r) = −r
0 1 − rx
0 1 − rx
Das Integral in der rechten Gleichung kann aber dem Betrag nach durch 1
majorisiert werden, denn für jedes x mit 0 ≤ x ≤ 1 gilt |1 − rx| ≥ 1 − |rx| ≥
1 − |x| ≥ 12 . Daher hat man
3
2
2
t2 σ 2 ≤ 3t4 σ 4 ,
|Log(1 − r) + r| ≤ |r| ≤
2
und somit
Log(1 − r) = −r + 3θt4 σ 4 ,
wobei θ eine komplexe Zahl mit |θ| ≤ 1 ist. Damit ist b) gezeigt.
202
KAPITEL 13: ERZEUGENDE FUNKTION DER MOMENTE
5. Die zweite charakteristische Funktion
Definition. — Es sei X eine reelle Zufallsvariable und ϕ(t) ihre charakteristische Funktion. Als zweite charakteristische Funktion (der Verteilung)
von X bezeichnet man die Funktion ψ(t) = Log ϕ(t) (t ∈ R).
Da die charakteristische Funktion ϕ(t) eine Funktion mit komplexen
Werten ist, muss man festlegen, in welchem Sinne der Logarithmus zu
verstehen ist: wegen ϕ(0) = 1 nimmt man ψ als stetig mit ψ(0) = 0.
Theorem 5.1. — Es sei (X, Y ) ein Paar von unabhängigen Zufallsvariablen. Dann gilt für jedes reelle t die Gleichheit
ψX+Y (t) = ψX (t) + ψY (t).
Der Beweis folgt unmittelbar aus Theorem 4.3.
Definition. — Es sei X eine reelle Zufallsvariable, deren zweite charakteristische Funktion ψ eine Taylorentwicklung
ψ(t) =
n≥1
κn
(it)n
n!
in einer Umgebung des Ursprungs hat. Der Koeffizient κn von (it)n /n! in
dieser Entwicklung heisst n-ter Kumulant (der Verteilung) von X.
Theorem 5.2. — Es sei (X, Y ) ein Paar von Zufallsvariablen, die beide
die Voraussetzungen der vorigen Definition erfüllen. Der Kumulant n-ter
Ordnung von X + Y ist dann die Summe der Kumulanten n-ter Ordnung
von X und von Y (daher die Bezeichnung Kumulant ).
Der Beweis ist eine direkte Folge von Theorem 5.1 und der vorangehenden
Definition.
Satz 5.3. — Es bezeichnen nun m1 , m2 , m3 die Momente der Ordnungen 1, 2, 3 von X und µ1 = 0, µ2 , µ3 deren zentrierte Momente der
Ordnungen 1, 2, 3. Dann gilt:
(it)2
(it)3
3
m2 +
m3 + o(|t| ) = 1 + λ(t)
2!
3!
(it)2
(it)3
3
µ2 +
µ3 + o(|t| ).
ψ(t) = Log 1 + λ(t) = itm1 +
2!
3!
ϕ(t) = 1 + itm1 +
Der Beweis beruht auf einer einfachen Rechnung. Wir beobachten, dass
die Kumulanten der Ordnungen 1, 2 und 3 folgende Werte haben:
6. ERZEUGENDE FUNKTION EINES ZUFALLSVEKTORS
203
der Erwartungswert m1 = E[X];
das zentrierte Moment zweiter Ordnung, d.h. die Varianz
µ2 = E[(X − m1 )2 ] ;
das zentrierte Moment dritter Ordnung µ3 = E[(X − m1 )3 ].
Die Additivität der Koeffizienten κ überträgt sich auf die zentrierten Momente der Ordnungen 2 und 3, aber nicht weiter. Der vierte Kumulant
beispielsweise ist κ4 = µ4 − 3µ22 .
Beispiele.
1) Es sei X eine N (µ, σ)-verteilte Zufallsvariable. Dann gilt ϕ(t) =
exp(itµ − 12 t2 σ 2 ), und daher ψ(t) = itµ − 12 t2 σ 2 . Folglich ist κ1 = µ, κ2 = σ 2
und κn = 0 für alle n ≥ 3.
2) Es sei X eine P(λ)-verteilte Zufallsvariable.
Dannn gilt ϕ(t) =
it
it
exp(λ(e − 1)), und daher ψ(t) = t(e − 1) = λ n≥1 (it) /n! . Folglich
ist κn = λ für alle n ≥ 1.
3) Die Cauchy-Verteilung hat keine Kumulanten.
6. Erzeugende Funktion und charakteristische Funktion eines
Zufallsvektors. — Wir beschränken uns hier auf einige leicht nachzuvollziehende Angaben über die erzeugenden Funktionen und die charakteristischen Funktionen von zweidimensionalen Zufallsvektoren.
Definition. — Es sei (X, Y ) ein Zufallsvektor, für den die Funktion
g(u, v) = E euX+vY
von zwei reellen Variablen u, v in einer offenen Umgebung von (0, 0) definiert
ist. Diese Funktion heisst dann erzeugende Funktion der Momente (der
Verteilung) von (X, Y ).
Die beiden folgenden Theoreme sind die Analoga der Theoreme 3.1 und 3.2
im Falle von zwei Variablen. Entsprechend übertragen sich die Beweise.
Theorem 6.1 (Eindeutigkeitssatz). — Die erzeugende Funktion der
Momente eines Zufallsvektors bestimmt die Verteilung dieses Vektors.
Theorem 6.2. — Es sei (X, Y ) ein Zufallsvektor mit g(u, v) als erzeugender Funktion der Momente (die also in einer offenen Umgebung von (0, 0)
definiert ist). Dann gilt
k
l
1) E[ |X| |Y | ] < +∞ für alle k, l ≥ 1;
∂ k+l
2) E[X k Y l ] = k l g(u, v) .
∂ u∂ v
(u, v) = (0, 0)
204
KAPITEL 13: ERZEUGENDE FUNKTION DER MOMENTE
Theorem 6.3. — Es sei (X, Y ) ein Zufallsvektor, der eine erzeugende
Funktion der Momente g(u, v) besitzt. Dann hat auch jede der marginalen
Zufallsvariablen X bzw. Y eine erzeugende Funktion der Momente g1 (u) bzw.
g2 (v) und es gilt g1 (u) = g(u, 0), sowie g2 (v) = g(0, v).
Der Beweis ist klar.
Das folgende Theorem charakterisiert die Unabhängigkeit der marginalen
Zufallsvariablen X, Y mit Hilfe der erzeugenden Funktion der Momente.
Theorem 6.4. — Es sei (X, Y ) ein Zufallsvektor und g(u, v) (definiert
in einer offenen Umgebung V von (0, 0)) seine erzeugende Funktion der
Momente. Dann sind die beiden folgenden Aussagen äquivalent:
1) X und Y sind unabhängig;
2) Für alle (u, v) ∈ V gilt g(u, v) = g(u, 0)g(0, v).
Beweis.
1) ⇒ 2) Seien also X und Y unabhängig; dann sind auch die Zuund evY unabhängig und für alle (u, v) ∈ V gilt g(u, v) =
fallsvariablen
euX
uX
uX+vY
=E e
E evY = g(u, 0)g(0, v).
E e
2) ⇒ 1) Es gelte nun 2). Es bezeichne F(x, y) die gemeinsame
Verteilungsfunktion von (X, Y ), sowie FX (x) und FY (y) die Verteilungsfunktionen der jeweiligen marginalen Zufallsvariablen. Dann ist
(6.1)
eux+vy dF(x, y)
g(u, v) =
2
R
ux
e dFX (x)
evy dFY (y)
g(u, 0)g(0, v) =
R
R
(6.2)
eux+vy dFX (x)dFY (y).
=
R2
Da (6.1) = (6.2) für alle (u, v) ∈ V gilt, folgt aus Theorem 2.2 (Eindeutigkeitssatz), dass F(x, y) = FX (x)FY (y) für alle (x, y) gilt; das besagt
aber, dass X und Y unabhängig sind.
Man kann nun auch ganz entsprechend die charakteristische Funktion eines
(beliebigen) Paares (X, Y ) von Zufallsvariablen durch
ϕ(u, v) = E[ei(uX+vY ) ] (u, v) ∈ R2 )
definieren. Die den Theoremen 6.1, 6.2, 6.3, 6.4 entsprechenden Aussagen
lassen sich ohne weiteres beweisen. Wir beschränken uns darauf, die folgende
Aussage festzuhalten.
Theorem 6.4 . — Es sei (X, Y ) ein Paar von reellen Zufallsvariablen
mit ϕ(u, v) als charakteristischer Funktion. Dann sind die beiden folgenden
Aussagen äquivalent:
a) X und Y sind unabhängig.
b) Für jedes (u, v) ∈ R2 gilt: ϕ(u, v) = ϕ(u, 0)ϕ(0, v).
7. FUNDAMENTALE EIGENSCHAFT
205
7. Die fundamentale Eigenschaft. — Ziel dieses Abschnitts ist der Beweis der Aussage, dass die auf der Menge der
von
Wahrscheinlichkeitsmasse
1
itx
(R, B ) definierte Abbildung µ → µ̂(t) = R e dµ(x), die jeder Verteilung
ihre “charakteristische Funktion” zuordnet, injektiv ist; dies rechtfertigt die
Bezeichnung.
Zuvor noch eine Bemerkung: bei der charakteristischen Funktion eines
Masses handelt es sich im wesentlichen um die Fourier-Transformierte dieses
Masses, sodass die Eindeutigkeitsaussage aus allgemeinen Eigenschaften der
Fourier-Transformation (über geeigneten Räumen von Funktionen) folgt,
die wir hier aber nicht voraussetzen wollen. Eine technische Komplikation
ergibt sich daraus, dass wir das folgende Theorem nicht nur für absolutstetige Verteilungen, sondern für beliebige Wahrscheinlichkeitsverteilungen
auf (R, B1 ) beweisen wollen. Wir geben hier nur den Gang des Beweises
wieder, ohne alle Schritte im Detail zu begründen.
Theorem 7.1. — Die charakteristische Funktion µ̂ eines Wahrscheinlichkeitsmasses µ bestimmt dieses Mass eindeutig.
Wir beginnen mit einer Vorüberlegung zur Darstellung eines Masses µ.
Sind µ, ν Wahrscheinlichkeitsmasse auf (R, B1 ), wobei ν die Verteilungsfunktion G hat, so hat deren Faltung µ ∗ ν die Verteilungsfunktion H mit
H(z) =
R
G(z − x) dµ(x) .
Es sei nun (νn ) eine Folge von Wahrscheinlichkeitsverteilungen auf (R, B1 ),
deren Verteilungsfunktionen (Gn ) punktweise gegen die Verteilungsfunktion
des Dirac-Masses ε0 konvergieren, und zwar in jedem Punkt, wo die letztgenannte Funktion stetig ist, d.h. es gilt
Gn (x) →
0, falls x < 0;
1, falls x > 0.
(n → ∞)
(Dies ist der Begriff der “Konvergenz in der Verteilung”, geschrieben
L
(νn ) −→ ε0 , der in Kapitel 16 genauer behandelt wird.) Wegen
Gn (z − x) →
0, falls x > z;
1, falls x < z;
(n → ∞)
gilt dann für alle x = z die punktweise Konvergenz
Gn (z − x) → I]−∞,z[ (x) (n → ∞) .
206
KAPITEL 13: ERZEUGENDE FUNKTION DER MOMENTE
Daraus folgt sofort
Hn (z) =
Gn (z − x) dµ(x) → µ(] − ∞, z[)
R
(n → ∞)
für jedes z ∈ R mit µ({z}) = 0. Da die Menge der Punkte z mit dieser
Eigenschaft in R überall dicht ist, erkennt man, dass das Mass µ durch die
Werte Hn (z) (z ∈ R, n ∈ N) bestimmt ist.
Das Ziel besteht nun darin, eine Folge (νn ) von WahrscheinlichkeitsverL
teilungen mit (νn ) −→ ε0 ausfindig zu machen, für die gezeigt werden kann,
dass die Verteilungsfunktionen Hn (z) der Faltungen µ ∗ νn , soweit es um die
Abhängigkeit von µ geht, nur Eigenschaften der charakteristischen Funktion
µ̂ benutzen.
L
Einen natürlichen Kandidaten für die Folge (νn ) mit (νn ) −→ ε0 liefert die
zentrierte Normalverteilung, denn es gilt offensichtlich
L
N (0, a) −→ ε0
(a ↓ 0) .
Man kann also, soweit es um die Konvergenz geht, einfach νn = N (0, 1/n)
wählen. Dass diese Wahl im Sinn eines Beweises von Theorem 7.1 brauchbar
ist, ergibt sich aus dem folgenden Lemma, da sich die charakteristische
Funktion der zentrierten Normalverteilung N (0, a) bis auf einen konstanten
Faktor als die Dichte der Normalverteilung N (0, 1/a) erweist. Dies folgt aus
∞
2
2
1
√
(a > 0) .
eitx e−(x/a) /2 dx = e−(at) /2
a 2π −∞
Lemma 7.2
a) Sind µ, ν Wahrscheinlichkeitsmasse auf (R, B1 ) und ist ν absolut-stetig
bezüglich des Lebesgue-Masses λ, so ist die Faltung µ ∗ ν ebenfalls absolutstetig.
b) Ist die Dichte g von ν (bis auf einen konstanten Faktor) selbst die
charakteristische Funktion einer absolut-stetigen Wahrscheinlichkeitsverteilung, so hängt die Dichte h von µ ∗ ν, soweit der Beitrag von µ betroffen ist,
nur von der charakteristischen Funktion µ̂ ab.
Beweis. — a) Bezeichnen F, G, H die jeweiligen Verteilungsfunktionen
von µ, ν, µ ∗ ν, sowie g die Dichte von ν, d.h. ν = g λ, so zeigt
u−v
G(u − v) dF (v) =
g(t) dt dµ(v)
H(u) =
R
R −∞
u g(t − v) dµ(v) dt ,
=
dass µ ∗ ν die Dichte h(t) =
R
−∞
R
g(t − v) dµ(v) hat.
ERGÄNZUNGEN UND ÜBUNGEN
207
b) Wenn sich zudem noch g in der Form
∞
eitx f (x) dx
g(t) = c ·
−∞
schreiben lässt, wobei f eine Wahrscheinlichkeitsdichte ist, so ergibt sich
∞
∞
i(t−v)x
c
e
f (x) dx dµ(v) = c
eitx f (x) µ̂(−x) dx ,
h(t) =
R
−∞
−∞
und aus dieser Darstellung wird deutlich, dass die Abhängigkeit der Dichte h
von µ ∗ ν, was den Beitrag des Masses µ angeht, nur dessen charakteristische
Funktion µ̂ benutzt.
Mit dem Beweis des Lemmas ist auch der Beweis von Theorem 7.1
abgeschlossen.
ERGÄNZUNGEN UND ÜBUNGEN
1. — Es sei (X, Y ) ein Paar von reellen Zufallsvariablen, dessen gemeinsame Verteilung in der auf Theorem 2.3 dieses Kapitels folgenden Bemerkung
beschrieben ist. Ausserdem sei (X ∗ , Y ∗ ) eine Paar von unabhängigen und
auf [0, 1] gleichverteilten Zufallsvariablen. Für eine reelle Zufallsvariable Z
bezeichne FZ deren Verteilungsfunktion. Folgende Aussagen lassen sich geometrisch beweisen:
a) Es ist FX ∗ = FX und FY ∗ = FY .
b) Für 1 ≤ z ≤ 2 gilt FX ∗ +Y ∗ (z) = 1 − FX ∗ +Y ∗ (2 − z) und FX+Y (z) =
1 − FX+Y (2 − z).
c) Für 0 ≤ z ≤ 1 gilt FX+Y (z) = FX ∗ +Y ∗ (z). [Man unterscheide die
beiden Fälle: 0 ≤ z ≤ 1/2 und 1/2 ≤ z ≤ 1.]
d) Aus a), b) und c) ergibt sich FX+Y (z) = FX ∗ +Y ∗ (z) für alle z.
Schliesslich ist,

0,
falls z < 0;

 2
z /2,
falls 0 ≤ z < 1;
FX ∗ +Y ∗ (z) =
2

 1 − (2 − z) /2, falls 1 ≤ z < 2;
1,
falls z ≥ 2.
2. — Es sei X eine Zufallsvariable mit der Verteilung pε1 + qε0 mit
0 ≤ p ≤ 1, p + q = 1. Man berechne die erzeugende Funktion der Momente
der zentrierten Variablen X − p, sowie deren Momente der Ordnung k ≥ 1.
208
KAPITEL 13: ERZEUGENDE FUNKTION DER MOMENTE
3. (A. Joffe). — Es sei (X, Y ) ein Paar von unabhängigen Zufallsvariablen
mit nichtnegativen Werten, wobei P{X = 0} = P{Y = 0} = 0 ist. Mit g1 (u)
bzw. g2 (v) seien die Laplace-Transformierten von X bzw. Y benannt, die für
u ≥ 0 durch
g1 (u) = E[e−uX ],
g2 (u) = E[e−uY ] (u ≥ 0)
definiert sind. Dann gelten
∞folgende Aussagen:
! X "
=−
g1 (u)g2 (u) du.
a) E
X +Y
0
b) Bezeichnet g(u) die Laplace-Transformierte einer Zufallsvariablen X
mit nichtnegativen Werten, wobei P{X = 0} = 0 gilt, so ist lim g(u) = 0.
u→+∞
4. (A. Joffe). — Es sei X eine Zufallsvariable mit positiven Werten und
g(u) = E[e−uX ] bezeichne ihre Laplace-Transformierte, die für u ≥ 0 definiert
sei. Dann gilt für alle p > 0 in [0, +∞] die folgende Identität:
∞
! 1 "
1
=
g(u)up−1 du.
E
Xp
Γ(p) 0
Speziell für p = 1 und p =
1
2
ist
!1" ∞
E
g(u) du und
=
X
0
∞
! 1 "
1
E √
g(u)u−1/2 du.
=√
π 0
X
5. — Es sei X eine Zufallsvariable, die eine erzeugende Funktion der
Momente g(u) besitzt. Wir betrachten h(u) = Log g(u). Man zeige h (0) =
E[X], h (0) = Var X, h (0) = E[(X − E[X])3 ]. Zu beachten ist, dass für
n > 3 die Grösse h(n) (0) nicht mehr notwendigerweise gleich dem zentrierten
Moment n-ter Ordnung von X ist.
6. — Man bezeichnet eine reelle Zufallsvariable X mit Werten in [1, +∞[
als Pareto-verteilt mit Verteilung P(a, 1), wobei a > 0 ist, wenn sie folgende
Dichte hat:
a
f (x) = a+1 I[1,+∞[ (x).
x
a) Existieren die Momente E[X n ] für alle n ≥ 1?
b) Für welche Werte von u ist die Funktion g(u) = E[euX ] definiert?
Hat die Zufallsvariable X eine erzeugende Funktion der Momente? Hat sie
eine charakteristische Funktion?
7. — Man berechne die erzeugende Funktion der Momente für die
Zufallsvariable |X|, wenn X normal N (0, 1) verteilt ist.
ERGÄNZUNGEN UND ÜBUNGEN
209
8. — Es sei (X, Y ) ein Paar von unabhängigen Zufallsvariablen, wobei
jede von ihnen N (0, 1)-verteilt ist. Man zeige, dass das Produkt XY
1
eine erzeugende Funktion der Momente besitzt, die durch g(u) = √
1 − u2
(|u| < 1) gegeben ist.
Indem man formal u durch it (t reell) ersetzt,
√ erhält man die charakteristische Funktion von XY , nämlich ϕ(t) = 1/ 1 + t2 . Deren Dichte ist durch
die Fourier-Inversionsformel
1 ∞ cos tx
1
1
−itx
√
e
ϕ(t) dt =
dt. = K0 (x)
f (x) =
2π R
π 0
π
1 + t2
gegeben, wobei K0 (x) die modifizierte Bessel-Funktion zweiter Ordnung ist
(cf. Abramowitz & Stegun3 ).
9. — Es sei (X1 , X2 , X3 , X4 ) ein System von vier unabhängigen Zufallsvariablen,
N (0, 1)-verteilt sind. Man zeige, dass die Determi die allesamt
X1 X2 1
eine erzeugende Funktion hat, die durch g(u) =
nante ∆ = X3 X4 1 − u2
(|u| < 1) gegeben ist. Dies ist die erzeugende Funktion der ersten LaplaceVerteilung.
10. — Es sei (ϕk ) (k ≥ 0) eine Folge von charakteristischen Funktionen
und (αk ) (k ≥
0) sei eine Folge von positiven Zahlen mit Summe 1.
αk ϕk eine charakteristische Funktion. Wählt man speziell
Dann ist auch
k≥0
wobei ϕ eine feste charakteristische Funktion ist, so sieht man,
ϕk = (ϕ)k ,
αk (ϕ)k eine charakteristische Funktion ist.
dass auch
k≥0
a) Wir wählen hier speziell αk = e−λ λk /k! (λ > 0, k ∈ N). Ist nun ϕ
eine charakteristische Funktion, so ist für jedes λ > 0 auch ϕλ = eλ(ϕ−1)
eine charakteristische Funktion (Satz von de Finetti). Nimmt man λ = 1
und ϕ(t) = 1/(1 + t2 ), so erkennt man, dass auch exp(−t2 /(1 + t2 ))
eine charakteristische Funktion ist. Im Falle ϕ(t) = eit bestimme man die
Verteilung, die ϕλ als charakteristische Funktion hat.
b) Wählen wir jetzt speziell αk = pq k (0 < p < 1, p + q = 1, k ∈ N).
Man zeige, dass für jede charakteristische Funktion ϕ und jedes λ > 1 auch
ϕλ = (λ − 1)/(λ − ϕ) eine charakteristische Funktion ist. Im Spezialfall
ϕ(t) = eit ermittle man die Verteilung, die ϕλ als charakteristische Funktion
hat.
11. — Es sei (ϕλ ) (λ ∈ I) eine Familie von charakteristischen Funktionen,
die durch die λ aus einem nichtleeren Intervall indiziert ist. f sei eine
3
Abramowitz (Milton) & Stegun (Irene). — Handbook of mathematical functions with
formulas, graphs, and mathematical tables. — New York, Dover, , section 9.6.21.
210
KAPITEL 13: ERZEUGENDE FUNKTION DER MOMENTE
Wahrscheinlichkeitsdichte auf I. Dann ist auch ϕ(t) = I ϕλ (t) f (λ) dλ eine
charakteristische Funktion.
a) Man zeige, dass für jede charakteristische Funktion ϕ auch Φ(t) =
t
(1/t) 0 ϕ(u) du eine charakteristische Funktion ist (Khintchin).
b) Man zeige, dass für jedes γ > 0 die Funktion ϕγ (t) = 1/(1 + t2 )γ
eine charakteristische Funktion ist. Für γ = 1 ist dies die charakteristische
Funktion der ersten Laplace-Verteilung; für γ = 12 handelt es sich um die
charakteristische Funktion von XY , wobei (X, Y ) ein Paar von unabhängigen
Zufallsvariablen ist, die beide N (0, 1)-verteilt sind.
c) In der Analysis begegnet man der Formel
1 t2
1
−|t|
2
dx.
= √
exp −
+
x
e
2 x2
2π R
Dies zeigt, dass e−|t| eine charakteristische Funktion ist, denn für jedes
1 t2 x = 0 ist die Funktion exp − 2 eine charakteristische Funktion und
x2 2x
1
√ exp −
(x ∈ R) ist eine Dichte.
2
2π
12. — Es sei (X, Y ) ein Paar von Zufallsvariablen und Z = X + Y .
Man zeige, dass, wenn X von Z unabhängig ist und zudem auch Y von Z
unabhängig ist, die Zufallsvariable Z fast-sicher eine Konstante ist.
13. — Ist ein System von drei unabhängigen Zufallsvariablen (X, X1 , X2 )
gegeben, so kann man ihm das Paar (Y1 , Y2 ) mit Y1 = X + X1 und
Y2 = X + X2 zuordnen. Man zeige, dass die Zufallsvariablen Y1 und Y2
genau dann unabhängig sind, wenn X fast-sicher konstant ist.
14. — Es sei X eine Zufallsvariable, die eine erzeugende Funktion g(u)
der Momente besitzt. Man beweise die Ungleichung von Chernoff
∀ x > 0 P{X ≥ x} ≤ inf e−ux g(u).
u≥0
15. — Für die charakteristische Funktion ϕ einer exponential-verteilten
Zufallsvariablen X mit Parameter λ > 0 gilt
(1)
|ϕ(t)|2 = ϕ(t).
Falls ϕ(t) der Gleichung (1) genügt, so gilt dies auch für ϕ(−t), die charakteristische Funktion der Zufallsvariablen −X. Andererseits ist ϕ(t) = 1, die
charakteristische Funktion der Konstanten 0, die einzige reelle Funktion, die
(1) erfüllt. Gibt es andere Wahrscheinlichkeitsverteilungen, deren charakteristische Funktion die Eigenschaft (1) hat? [Dieses Problem ist noch offen.]
http://www.springer.com/978-3-7643-6169-3
Herunterladen