ABSOLUT STETIGE VERTEILUNGEN

Werbung
KAPITEL
14
DIE WICHTIGSTEN
WAHRSCHEINLICHKEITSVERTEILUNGEN
(ABSOLUT STETIGE VERTEILUNGEN)
In diesem Kapitel beschreiben wir die wichtigsten Wahrscheinlichkeitsverteilungen, die eine Dichte besitzen. Für jede von ihnen geben wir die wesentlichen
Eigenschaften an und skizzieren ihren Anwendungsbereich.
1. Die Gleichverteilung auf [0, 1]
Definition. — Eine Zufallsvariable U mit Werten in [0, 1] heisst gleichverteilt auf [0, 1], wenn sie absolut stetig ist und
f (x) = I[0,1] (x)
als Dichte hat. Die Verteilung mit der Dichte f heisst Gleichverteilung auf
[0, 1].
Die folgenden Eigenschaften sind leicht zu zeigen:
E[U ] =
g(u) = E[euU ] =
1
;
2
eu − 1
(u = 0),
u
Var U =
1
;
12
g(0) = 1 ;
L(U ) = L(1 − U ).
Die Gleichverteilung spielt eine grosse Rolle bei der Simulation von beliebigen
Wahrscheinlichkeitsverteilungen, was im folgenden Satz von P. Lévy zum
Ausdruck kommt.
Theorem 1.1. — Es sei F : R → [0, 1] eine monoton wachsende
und rechtsseitig-stetige Funktion mit F (−∞) = 0 und F (+∞) = 1. Mit
h : ]0, 1[→ R bezeichnet man ihre verallgemeinerte Inverse, die mittels
h(ω) = inf{x : F (x) ≥ ω}
(ω ∈]0, 1[ )
definiert ist. Sei nun U eine auf [0, 1] gleichverteilte Zufallsvariable. Dann
hat die Zufallsvariable X = h ◦ U gerade F als Verteilungsfunktion.
212
KAPITEL 14: DIE WICHTIGSTEN VERTEILUNGEN
Beweis. — Aus der Definition von h ergibt sich unmittelbar die Äquivalenz
ω ≤ F (x) ⇔ h(ω) ≤ x. Damit gilt aber für jedes reelle x
P{X ≤ x} = P{h ◦ U ≤ x} = P{U ≤ F (x)} = F (x).
Dies zeigt aber gerade, dass X die Funktion F als Verteilungsfunktion hat.
2. Die Gleichverteilung auf [a, b]
Definition. — Eine Zufallsvariable X mit Werten im Intervall [a, b]
(−∞ < a < b < +∞) heisst gleichverteilt auf [a, b], wenn sie absolut stetig
ist und die Dichte
1
I[a,b] (x)
f (x) =
b−a
hat. Die Verteilung mit der Dichte f heisst Gleichverteilung auf [a, b].
Die folgenden Eigenschaften lassen sich ebenfalls leicht nachweisen:
a+b
(a − b)2
;
Var X =
;
2
12
1 ebu − eau
(u = 0),
g(0) = 1.
g(u) = E[euX ] =
b−a
u
sh u
Für a = −1, b = +1 hat man g(u) =
(u = 0),
g(0) = 1,
u
und allgemein ist für a = −l, b = +l und l > 0
sh lu
(u = 0),
g(0) = 1.
g(u) =
lu
E[X] =
3. Die Normalverteilung oder Gauss-(Laplace)-Verteilung
3.1. Die reduzierte Normalverteilung
Definition. — Eine Zufallsvariable X mit Werten in R heisst reduziert
normalverteilt, wenn sie absolut stetig ist und als Dichte die Funktion
x2 1
√
exp −
f (x) =
2
2π
(x ∈ R)
hat. Die Verteilung mit der Dichte f heisst reduzierte Normalverteilung und
wird mit N (0, 1) notiert.
Es folgt nun eine Liste der wichtigsten Eigenschaften dieser klassischen
Verteilung:
a) Der Graph (cf. Fig. 1) der Dichte f hat die Form einer ziemlich
abgeflachten Glockenkurve. Um das zu sehen, genügt es festzustellen, dass
213
3. DIE NORMALVERTEILUNG
√
f gerade ist, ein Maximum (vom Wert f (0) = 1/ 2π ≈ 0, 399) bei x = 0
annimmt und dass f (x) = 0 genau für x = ±1 gilt.
b) Es bezeichne Φ die Verteilungsfunktion von X, also
x
t2 1
Φ(x) = √
dt (x ∈ R).
exp −
2
2π −∞
Deren Graph ist eine ziemlich gestreckte Kurve, die symmetrisch
zum Punkt
√
(0, 1/2) ist und deren Steigung in diesem Punkt gleich 1/ 2π ist.
c) Es gilt E[X] = 0 und Var X = 1. Aus diesem Grund wird die
Verteilung als zentriert und reduziert bezeichnet und mit N (0, 1) notiert.
2
d) Es gilt g(u) = E[euX ] = eu /2 (u ∈ R).
√1
2π
−1
+1
1
2
−1
+1
Fig. 1
Beweis. — Gemäss Definition ist
2
1
eux e−x /2 dx.
g(u) = √
2π R
Wegen
ux − x2 /2 = −(x − u)2 /2 + u2 /2
kann man
u2 /2
g(u) = e
1
√
2π
2
e−(x−u)
/2
dx
R
schreiben und erhält mittels der Variablentransformation x−u = t schliesslich
2
2
u2 /2 1
√
g(u) = e
e−t /2 dt = eu /2 .
2π R
214
KAPITEL 14: DIE WICHTIGSTEN VERTEILUNGEN
2
e) Die Funktion g(u) = eu /2 ist für alle reellen u definiert und lässt
sich auf der ganzen reellen Achse in eine Potenzreihe entwickeln. X besitzt
alle Momente beliebiger Ordnung. Das Moment n-ter Ordnung (n ≥ 0) tritt
als Koeffizient von un /n! in der Entwicklung von g um den Ursprung in
Erscheinung. Aus
2
g(u) = eu
/2
=
1 u2 n 1 1
(2n)! 1 u2n
2n
=
u
=
n! 2
n! 2n
n! 2n (2n)!
n≥0
n≥0
n≥0
erhält man somit als Werte für die Momente:
1 (2n)!
= 1 × 3 × · · · × (2n − 3) × (2n − 1)
2n n!
(n ≥ 0).
E[X 2n+1 ] = 0
E[X 2n ] =
(n ≥ 1) ;
2r/2 r + 1 r
.
f) Für jedes r > −1 ist E[ |X| ] = √ Γ
π
2
Beweis. — Es ist ja
∞
2
1
2
r −x2 /2
E[ |X| ] = √
|x| e
dx = √
xr e−x /2 dx ;
2π R
2π 0
daraus erhält man durch die Variablentransformation x2 /2 = u
2r/2 ∞ (r−1)/2 −u
2r/2 r + 1 r
u
e du = √ Γ
E[ |X| ] = √
.
2
π 0
π
r
3.2. Die allgemeine Normalverteilung
Definition. — Wir betrachten eine N (0, 1)-verteilte Zufallsvariable Y und
zwei reelle Zahlen µ und σ > 0. Die Zufallsvariable X = µ + σY heisst
N (µ, σ)-normalverteilt (oder N1 (µ, σ 2 )-normalverteilt in der Notation von
Kap. 12, § 5).
Die Verteilung von X hängt von zwei Parametern ab, nämlich von µ und
σ, deren Interpretation offensichtlich ist: E[X] = µ und Var X = σ 2 . Also
σ(X) = σ.
Die wichtigsten Eigenschaften der allgemeinen Normalverteilung werden
nun beschrieben.
a) Die Dichte von X ist durch
f (x) =
1 x − µ 2 1
√ exp −
(x ∈ R)
2
σ
σ 2π
gegeben. Will man den Graphen zeichnen, so ist zu beachten, dass f√symmetrisch zu x = µ ist, in x = µ sein Maximum (vom Wert f (µ) = 1/(σ 2π))
215
4. DIE LOG-NORMALE VERTEILUNG
annimmt, sowie dass f (x) = 0 genau für x = µ ± σ gilt. Es handelt sich
also um eine Glockenkurve, die symmetrisch zur Achse x = µ ist, mit ausgeprägter Spitze für kleines σ und abgeflacht für grosses σ.
b) Die Verteilungsfunktion von X ist durch
x − µ
x − µ
F(x) = P{X ≤ x} = P Y ≤
=Φ
σ
σ
(x ∈ R)
gegeben. Deren Graph ist symmetrisch √
bezüglich des Punktes (µ, 1/2) und
die Steigung in diesem Punkt ist 1/(σ 2π). Daraus ergibt sich, dass der
Graph die Form eine S-Kurve hat, die für kleine σ sehr steil und für grosses
σ sehr gedehnt ist.
c) Die erzeugende Funktion der Momente ist durch
σ 2 u2 g(u) = E[euX ] = exp µu +
2
(u ∈ R)
gegeben.
d) Aus der Form der erzeugenden Funktion ergibt sich sofort, dass
für ein Paar (X1 , X2 ) von unabhängigen Zufallsvariablen mit Verteilungen
N (µ1 , σ1 ), N (µ2 , σ2 ), wobei µ1 , µ2 reell und σ1 > 0, σ2 > 0 sind, die Summe
X = X1 + X2 die Verteilung N (µ, σ) mit µ = µ1 + µ2 und σ 2 = σ12 + σ22 hat.
Auftreten der Normalverteilung. — Die Erfahrung hat gezeigt, dass viele
physikalische, biometrische, u. dgl. (Mess-)Grössen normalverteilt sind. Eine
Erklärung für dieses Phänomen liefert der zentrale Grenzwertsatz , der
in Kapitel 18 behandelt wird. Es gibt allerdings auch Situationen, wo
die Anwendung der Normalverteilung zur Beschreibung eines Phänomens
geradezu kontra-indiziert ist. Beispielsweise kann man verifizieren, dass für
eine normalverteilte Zufallsvariable X die Variable Y = 1/X nicht einmal
einen Erwartungswert besitzt (d.h. E[1/ |X| ] = +∞). Betrachten wir etwa
das Ohmsche Gesetz I = V /R und nehmen an, die Spannung V habe eine
feste und bekannte Grösse, der Widerstand R dagegen sei normalverteilt
(was auf den ersten Blick vernünftig erscheint). Das hätte zur Folge, dass die
Stromstärke eine Zufallsgrösse wäre, die keinen Erwartungswert besitzt (was
für einen Ingenieur schwer zu akzeptieren wäre). Daher ist die Hypothese,
dass R normalverteilt sei, unrealistisch.
4. Die Log-normale Verteilung
Definition. — Eine Zufallsvariable X mit Werten in ]0, +∞[ heisst Lognormal-verteilt mit Parametern (µ, σ) (µ reell, σ > 0), wenn Y = Log X
N (µ, σ)-verteilt ist.
216
KAPITEL 14: DIE WICHTIGSTEN VERTEILUNGEN
Eigenschaften.
a) Die Verteilungsfunktion von X ist
Log x − µ Φ
, falls x > 0;
F(x) =
σ
0,
sonst.
b) Die Dichte von X ist
1 Log x − µ 2 1 1
f (x) = √
I]0,+∞[ (x).
exp −
2
σ
σ 2π x
2
2
2
c) Es gilt E[X] = eµ+σ /2 und Var X = e2µ+σ (eσ − 1).
d) Ist X Log-normal-verteilt mit Parametern (µ, σ), so ist X r (r > 0)
Log-normal-verteilt mit Parametern (rµ, rσ).
Bemerkung. — Aus c) und d) folgt, dass für alle r > 0 das Moment E[X r ]
2 2
endlich ist, wobei genau E[X r ] = erµ+(r σ )/2 .
e) Die Funktion g(u) = E[euX ] ist für kein u > 0 definiert. Anders
formuliert, die Log-normale Verteilung hat keine erzeugende Funktion, die in
einem offenen Intervall um den Punkt u = 0 definiert ist. Gleichwohl hat X
Momente jeder positiven ganzzahligen Ordnung.
Beweis.
a) Für jedes x > 0 gilt
F(x) = P{X ≤ x} = P{Y ≤ Log x}
Log x − µ Y − µ
Log x − µ ≤
=Φ
.
=P
σ
σ
σ
b) Die Dichte erhält man durch Ableiten von F(x).
c) Es sei X = eσY +µ mit L(Y ) = N (0, 1). Aus dem Transportsatz erhält
man
2
2
1
1
σx+µ −x2 /2
e
e
dx = √
e−(x−σ) /2+σ /2+µ dx
E[X] = √
2π R
2π R
2
2
1
= eµ+σ /2 √
e−(x−σ) /2 dx,
2π R
woraus sich mittels der Variablentransformation
x−σ = t
2
2
2
1
e−t /2 dt = eµ+σ /2
E[X] = eµ+σ /2 √
2π R
ergibt. Eine entsprechende Rechnung liefert den Ausdruck für die Varianz.
d) Es ist Log X r = r Log X. Wenn Log X gemäss N (µ, σ) verteilt ist,
ist also r Log X gemäss N (rµ, rσ) verteilt.
e) Das ist offensichtlich.
5. DIE EXPONENTIALVERTEILUNG
217
Auftreten der Log-normalen Verteilung. — Der Log-normalen Verteilung
begegnet man in einem überraschenden Zusammenhang, nämlich in der
Linguistik: die Anzahl der Wörter pro Satz (d.h. die Länge eines Satzes wird
durch die Anzahl der Wörter gemessen) ist in etwa Log-normal-verteilt.1
5. Die Exponentialverteilung
Definition. — Es sei λ eine positive Zahl; eine Zufallsvariable X mit
Werten in ]0, +∞[ heisst exponential-verteilt mit Parameter λ, wenn sie
absolut stetig ist und die Dichte
f (x) = λe−λx I]0,+∞[ (x)
hat. Die Verteilung mit der Dichte f heisst Exponentialverteilung mit Parameter λ (λ > 0) und wird mit E(λ) notiert.
Es folgen einige Eigenschaften der Exponentialverteilung.
a) Die Verteilungsfunktion von X ist
1 − e−λx , falls x > 0;
F(x) =
0,
sonst.
Es ist oft zweckmässig, mit der Überlebensfunktion (oder Zuverlässigkeitsfunktion) zu arbeiten, die durch r(x) = 1 − F(x) = P{X > x} definiert ist
und explizit dargestellt wird durch
e−λx , für x > 0;
r(x) =
1,
sonst.
b) Es gilt E[X] = 1/λ, Var X = 1/λ2 , sowie L(λX) = E(1).
c) Die erzeugende Funktion der Momente ist
g(u) = E[euX ] =
1
λ
=
u
λ−u
1−
λ
Beweis. — Es ist
g(u) = λ
∞
(u ∈] − ∞, λ[).
e−x(λ−u) dx.
0
Das Integral auf der rechten Seite konvergiert genau dann, wenn λ − u > 0
ist. In diesem Fall führt die Variablentransformation x(λ − u) = t auf
∞
λ
1
dt =
.
e−t
g(u) = λ
λ−u
λ−u
0
1
Williams (C.B.). — Studies in the history of probability and statistics: a note on a early
statistical study of literary style, Biometrika, t. 43, , p. 248–356.
218
KAPITEL 14: DIE WICHTIGSTEN VERTEILUNGEN
d) Die Funktion g(u) = 1/(1 − (u/λ)) ist im Intervall ] − ∞, λ[ definiert,
das wegen λ > 0 eine offene Umgebung des Ursprungs ist. Es handelt sich
also um die erzeugende Funktion der Momente von X, die für alle u aus
dem Intervall ] − λ, +λ[ in eine Potenzreihe entwickelt werden kann. Die
Zufallsvariable X hat Momente beliebiger Ordnung und das Moment n-ter
Ordnung (n ≥ 0) ist der Koeffizient von un /n! in der Reihenentwicklung
von g um den Ursprung. Es ist aber
u n n! un
1
=
=
g(u) =
,
(u ∈] − λ, +λ[)
u
λ
λn n!
1−
n≥0
n≥0
λ
so dass man
n!
(n ≥ 0)
E[X n ] = n
λ
als Werte für die Momente erhält.
e) Für jedes r > −1 gilt E[X r ] =
Beweis. — Es gilt
E[X ] = λ
r
Γ(r + 1)
.
λr
∞
xr e−λx dx
0
und die Variablentransformation
= u liefert
λx
∞
1
Γ(r + 1)
E[X r ] = r
ur e−u du =
.
λ 0
λr
Dieser Ausdruck ist genau dann endlich, wenn r + 1 > 0 ist.
f) Ist X E(λ)-verteilt, so hat der ganzzahlige Anteil Y = [X] die
Verteilung: P{Y = n} = pq n (n ≥ 0), wobei q = e−λ , p = 1 − q
ist. Mit anderen Worten, Y = [X] ist geometrisch verteilt. In diesem
Sinne ist die geometrische Verteilung n≥0 pq n n die diskrete Version der
Exponentialverteilung.
Beweis. — Ist X gemäss E(λ) verteilt (λ > 0) und setzt man q = e−λ , so
gilt für jede ganze Zahl n ≥ 0
−λ n+1
−λ(n+1)
= e
= q n+1 .
P{[X] > n} = P{X ≥ n + 1} = e
g) Ist X gemäss E(λ) verteilt, so ist U = e−λX auf ]0, 1[ gleichverteilt.
Beweis. — Für u aus dem Intervall ]0, 1[ gilt
Log u P{U ≤ u} = P{−λX ≤ Log u} = P X > −
λ
Log u = exp Log u = u.
= exp −λ −
λ
219
5. DIE EXPONENTIALVERTEILUNG
Bemerkung. — Aus g) folgt umgekehrt, dass für eine auf ]0, 1[ gleichverteilte Zufallsvariable U die Variable X = −(1/λ) Log U , λ > 0, E(λ)-verteilt
ist. Diese Eigenschaft kann man dazu verwenden, die Verteilung E(λ) zu
simulieren.
h) Die Gedächtnisfreiheit
Definition. — Eine Zufallsvariable X mit positiven Werten und mit
r(x) = P{X > x} > 0
für alle x ≥ 0 heisst gedächtnisfrei, wenn die Gleichheit
(5.1)
P{X > x + y | X > y} = P{X > x}
für alle x, y ≥ 0 gilt.
Betrachten wir als Zufallsvariable X die Lebensdauer eines Individuums A.
Dann drückt die Eigenschaft aus, dass A nicht altert. Wenn nämlich A mindestens y Zeiteinheiten gelebt hat, so wird es noch weitere x Zeiteinheiten mit
der gleichen Wahrscheinlichkeit leben, die ein neugeborenes Individuum vom
gleichen Typ wie A für diese Zeitspanne hat. Die Eigenschaft (5.1) drückt also
ein Nicht-Altern oder das Fehlen eines Gedächtnisses aus (das Individuum A
erinnert sich nicht daran, gealtert zu sein). Es ist bemerkenswert, dass die
Eigenschaft einer Zufallsvariablen, gedächtnisfrei zu sein, äquivalent dazu ist,
exponential-verteilt zu sein.
Theorem 5.1. — Es sei X eine absolut stetige Zufallsvariable mit
positiven Werten und mit
r(x) = P{X > x} > 0
(x > 0).
Dann sind die beiden folgenden Aussagen äquivalent:
(a) X ist exponential-verteilt.
(b) X ist gedächtnisfrei .
Beweis. — Wir stellen zunächst fest, dass die Aussage (b) zu der Aussage
(b )
∀ x, y ≥ 0
r(x + y) = r(x)r(y)
äquivalent ist. Es genügt also, die Äquivalenz (a) ⇔ (b ) zu beweisen.
(a) ⇒ (b ). Ist X gemäss E(λ) (λ > 0) verteilt, so gilt r(x) = e−λx für
jedes x > 0 und daraus folgt (b ) unmittelbar.
(b ) ⇒ (a). Die Gleichung (b ) ist die Funktionalgleichung der Exponentialfunktion. Da die Funktion r(x) rechtsseitig stetig ist, muss sie von der
Form r(x) = eαx (α ≥ 0, x > 0) sein (cf. Aufgabe 1). Da r(x) monoton
fallend sein muss, folgt α = −λ (λ ≥ 0). Da der Fall λ = 0 nicht dem einer
Zufallsvariablen entspricht, bleibt λ > 0 übrig.
220
KAPITEL 14: DIE WICHTIGSTEN VERTEILUNGEN
Auftreten der Exponentialverteilung
1) Man nimmt mit guten Gründen an, dass die Lebensdauer X eines
Gerätes (eines Organismus, einer Glühbirne, eines radioaktiven Atomkerns,
usw.) exponential-verteilt ist. Betrachten wir den Augenblick, zu dem ein
solches Gerät in Betrieb genommen wird. Dann ist r(x) = P{X > x}
(x > 0) als die Wahrscheinlichkeit zu interpretieren, dass dieses Gerät zum
Zeitpunkt x noch funktioniert (Überlebensfunktion). Man kann auch von der
Wahrscheinlichkeit sprechen, dass man sich bis zu diesem Zeitpunkt auf das
Gerät verlassen kann (Zuverlässigkeitsfunktion). Man sollte aber im Blick
behalten, dass die Annahme, X sei exponential-verteilt, mit der Eigenschaft
des Nicht-Alterns oder der Gedächtnisfreiheit äquivalent ist. Eine Verteilung,
die die Realität solcher Beispiele etwas besser wiedergibt, ist die GammaVerteilung mit Parametern (p, λ), wobei p > 1 und λ > 0 ist (cf. Aufgabe 7).
2) Es sei (X1 , X2 ) ein Paar von unabhängigen Zufallsvariablen, von
denen jede einzelne N (0, 1)-verteilt ist. Dann ist die Zufallsvariable Y =
X12 + X22 ( χ-Quadrat mit zwei Freiheitsgraden) E(1/2)-verteilt.
6. Die (erste) Laplace-Verteilung
Definition. — Eine Zufallsvariable X mit reellen Werten folgt der ersten
Laplace Verteilung, wenn sie absolut stetig ist mit der Dichte
1 −|x|
e
(x ∈ R).
2
Diese Verteilung hat folgende Eigenschaften.
1
a) Es gilt g(u) = E[euX ] =
(−1 < u < +1).
1 − u2
Beweis. — In der Tat, für −1 < u < +1, ist
0
"
1
1 ! ∞ −(1−u)x
ux−|x|
g(u) =
e
dx =
e
dx +
e(1+u)x dx
2 R
2 0
−∞
∞
∞
!
"
1
e−(1−u)x dx +
e−(1+u)x dx
=
2 0
0
!
"
1
1
1
1
+
.
=
=
2 1−u 1+u
1 − u2
f (x) =
b) Die Zufallsvariable X hat Momente jeder positiven ganzzahligen
Ordnung; das Moment n-ter Ordnung (n ≥ 0) ist der Koeffizient von un /n!
in der Reihenentwicklung von g um den Ursprung. Aus
1
u2n
g(u) =
(−1 < u < +1)
=
(2n)!
1 − u2
(2n)!
n≥0
folgt
E[X 2n ] = (2n)! ,
E[X 2n+1 ] = 0
(n ≥ 0).
221
7. DIE CAUCHY-VERTEILUNG
1
1
1
für −1 < u < +1 und der
=
1 − u2
1−u1+u
Tatsache, dass 1/(1 − u) die erzeugende Funktion der Momente einer E(1)verteilten Zufallsvariablen Y ist, sieht man, dass die Symmetrisierte von Y
Laplace-verteilt ist.
c) Wegen g(u) =
Auftreten der ersten Laplace-Verteilung. — Diese Verteilung, die anfänglich von Laplace2 vorgeschlagen worden war, um Fehler bei Experimenten
zu beurteilen, wurde dann in der Folge von der Normalverteilung (auch
zweite Laplace-Verteilung genannt) abgelöst. Von daher ist es interessant,
die Dichten beider Verteilungen miteinander zu vergleichen.
Satz 6.1. — Es sei
2
1
f (x) = √ e−x /2 ,
2π
Dann gilt für jedes reelle x
f (x) ≤ c g(x)
g(x) =
1 −|x|
e
2
,
mit c =
(x ∈ R).
2e
.
π
Beweis. — Wegen
1
x2
1
1
x2
2
(|x| − 1) =
+ − |x| ist −
≤ − |x|
2
2
2
2
2
und daher
2
1
1
f (x) = √ e−x /2 ≤ √ e((1/2)−|x|) =
2π
2π
,
2e 1 −|x|
e
= c g(x).
π 2
7. Die Cauchy-Verteilung
Definition. — Eine Zufallsvariable X mit reellen Werten bezeichnet man
als C(0, 1)-Cauchy-verteilt, wenn sie absolut stetig ist, mit der Dichte
f (x) =
1 1
π 1 + x2
(x ∈ R).
Es folgen einige Eigenschaften der Cauchy-Verteilung.
a) Der Graph von f ähnelt dem der Dichte der Normalverteilung, aber
nähert sich der x-Achse so langsam an, dass der Erwartungswert von X nicht
existiert.
b) Bedeutung der Notation C(0, 1). — Die Zahlen 0 und 1 beziehen sich
hier nicht auf den Erwartungswert und die Standardabweichung (die beide
nicht existieren), sondern lassen sich wie folgt deuten:
2
Laplace (Pierre-Simon, marquis de). — Théorie analytique des Probabilités. — Paris,
.
222
KAPITEL 14: DIE WICHTIGSTEN VERTEILUNGEN
M = 0 ist ein Median von X; in der Tat ist P{X ≤ 0} = P{X ≥ 0} = 1/2.
Q1 = −1 bzw. Q3 = +1 sind das erste bzw. das dritte Quartil von X; es
gilt nämlich P{X ≤ −1} = P{X ≥ +1} = 1/4. Hier ist der Quartilabstand
Q3 − Q1 = 2 ein Mass für die Dispersion.
c) Die Variable X hat keine erzeugende Funktion der Momente; der
Ausdruck
1
eux
g(u) =
dx
π R 1 + x2
nimmt nämlich für kein reelles u = 0 einen endlichen Wert an. Hier greift
man also zur charakteristischen Funktion, die durch ϕ(t) = e−|t| (t ∈ R)
gegeben ist. Man stellt fest, dass sie im Punkt t = 0 nicht differenzierbar ist,
was den pathologischen Charakter der Verteilung C(0, 1) unterstreicht.
d) Es sei Y eine C(0, 1)-verteilte Zufallsvariable und es seien α, β reelle
Zahlen mit β > 0. Man bezeichnet dann die Variable X = α+βY als Cauchyverteilt mit der Verteilung C(α, β). Deren Dichte ist durch
f (x) =
1
πβ
1+
1
x−α
β
2
(x ∈ R)
gegeben. Die Parameter α und β lassen sich folgendermassen interpretieren:
M = α ist ein Median von X; ausserdem sind Q1 = α−β bzw. Q3 = α+β das
erste erste bzw. dritte Quartil von X; Q3 − Q1 = 2β ist der Quartilabstand
von X.
e) Die charakteristische Funktion der Verteilung C(α, β) ist
ϕ(t) = eitα−β|t|
(t ∈ R).
Aus der Form der charakteristischen Funktion folgt sofort, dass für ein Paar
(X1 , X2 ) von unabhängigen Zufallsvariablen mit Verteilungen C(α1 , β1 ),
C(α2 , β2 ) (α1 , α2 , β1 , β2 reell und β1 > 0, β2 > 0) ihre Summe X = X1 + X2
C(α, β)-verteilt ist mit Parametern α = α1 + α2 , β = β1 + β2 .
Diese Eigenschaft hat eine überraschende Konsequenz. Ist X eine C(α, β)verteilte Zufallsvariable und ist (X1 , . . . , Xn ) ein System von n unabhängigen
Zufallsvariablen, die alle die gleiche Verteilung wie X haben, so hat die
Summe X1 + · · · + Xn die gleiche Verteilung wie n X, d.h. das arithmetische
Mittel X = (X1 + · · · + Xn )/n hat die gleiche Verteilung wie X.
Auftreten der Cauchy-Verteilung
Satz 7.1. — Es sei V eine auf dem Intervall ]−π/2, +π/2[ gleichverteilte
Zufallsvariable. Dann ist X = tg V gemäss C(0, 1) verteilt.
7. DIE CAUCHY-VERTEILUNG
223
Beweis. — Für jedes reelle x gilt
1
1
1 π
+ Arctg x = + Arctg x ,
P{X ≤ x} = P{V ≤ Arctg x} =
π 2
2 π
1 1
.
und daraus folgt durch Ableiten f (x) =
π 1 + x2
Bemerkung. — Man zeigt problemlos, dass 1/ tg V die gleiche Verteilungsfunktion wie tg V hat. Daraus ergibt sich, dass für eine C(0, 1)-verteilte Zufallsvariable X auch die reziproke Zufallsvariable 1/X gemäss C(0, 1) verteilt
ist.
Bemerkung. — Ist Y gemäss C(0, 1) verteilt, so bezeichnet man die
Verteilung von X = |Y | in der physikalischen Literatur als LorentzVerteilung.
8. Die Gamma-Verteilung. — Wir erinnern zunächst an Eulers Definition der Gamma-Funktion. Für reelles p > 0 sei
∞
Γ(p) =
e−x xp−1 dx .
0
Diese Funktion hat die elementaren Eigenschaften:√Γ(p + 1) = p Γ(p) (p > 0);
Γ(n) = (n − 1)! (n ganz ≥ 1); Γ(1) = 1; Γ(1/2) = π.
Mit Hilfe der Gamma-Funktion kann man eine Familie von Wahrscheinlichkeitsverteilungen definieren, die von zwei positiven Parametern abhängen
und deren Anwendungsbereich ausserordentlich umfangreich ist.
Definition. — Eine Zufallsvariable X mit Werten in [0, +∞[ ist Γ(p, λ)verteilt (Gamma-verteilt mit Parametern p > 0, λ > 0), wenn sie absolut
stetig ist und als Dichte
λ −λx
e
(λx)p−1 , falls x ≥ 0;
f (x) = Γ(p)
0,
sonst
hat. Für p = 1 erkennt man in Γ(1, λ) die Verteilung E(λ) wieder.
Die Gamma-Verteilung hat folgende Eigenschaften:
p
p
a) E[X] = , Var X = 2 .
λ
λ λ p
uX
(u ∈] − ∞, λ[ ).
b) g(u) = E[e ] =
λ−u
Beweis. — In der Gleichung
λ
g(u) =
Γ(p)
0
∞
e−x(λ−u) (λx)p−1 dx
224
KAPITEL 14: DIE WICHTIGSTEN VERTEILUNGEN
ist das Integral genau für λ − u > 0 konvergent. In diesem Fall führt man die
Variablentransformation x(λ − u) = t durch und erhält
∞
λt p−1 dt
λ p 1 ∞
λ
−t
e
e−t tp−1 dt
g(u) =
=
Γ(p) 0
λ−u
λ−u
λ − u Γ(p) 0
λ p
=
.
λ−u
c) Aus der Form der erzeugenden Funktion der Momente ergibt sich die
folgende Aussage: Ist (X1 , X2 ) ein Paar von unabhängigen Zufallsvariablen
mit den Verteilungen Γ(p1 , λ) und Γ(p2 , λ) (p1 , p2 , λ > 0, mit gleichem λ),
so ist die Summe X1 + X2 gemäss Γ(p1 + p2 , λ) verteilt.
Betrachten wir nun einige Fälle der Gamma-Verteilung für spezielle Wahl
der Parameter p und λ.
1) Die Verteilung Γ(1, λ) (λ > 0) stimmt mit der Verteilung E(λ)
überein.
2) Die Verteilung Γ(n, λ) (n ganz > 0, λ > 0) stimmt mit der Verteilung
einer Summe von n unabhängigen Zufallsvariablen überein, die alle E(λ)verteilt sind.
3) Ist Y eine N (0, 1)-verteilte Zufallsvariable, so ist ihr Quadrat X = Y 2
gemäss Γ(1/2, 1/2) verteilt.
Beweis. — Die erzeugende Funktion der Momente von X ist
g(u) = E[e
uX
1
]= √
2π
+∞
uy 2 −y 2 /2
e
−∞
2
dy = √
2π
∞
e−(y
2
/2)(1−2u)
dy.
0
Das Integral auf der rechten Seite konvergiert genau dann, wenn√1 − 2u > 0
ist. In diesem Fall ergibt sich aus der Variablentransformation y 1 − 2u = t
2
1
√
g(u) = √
1 − 2u 2π
∞
0
2
e−t
/2
dt = √
1
1 − 2u
(u ∈] − ∞, 1/2[),
und dies ist gerade die erzeugende Funktion der Momente der Γ(1/2, 1/2)Verteilung.
4) Es sei (Y1 , . . . , Yn ) ein System von n unabhängigen und N (0, 1)verteilten Zufallsvariablen. Dann ist X = Y12 + · · · + Yn2 gemäss Γ(n/2, 1/2)
verteilt. Diese Verteilung wird als χ-Quadrat-Verteilung mit n Freiheitsgraden bezeichnet und mit χ2n notiert. Im Fall n = 2 handelt es sich um die
Γ(1, 1/2)-Verteilung, die ja mit der E(1/2)-Verteilung übereinstimmt. Man
erkennt auch: ist (X1 , X2 ) ein Paar von unabhängigen Zufallsvariablen, die
χ2n1 - bzw. χ2n2 -verteilt sind, wobei n1 , n2 positive ganze Zahlen sind, so ist
9. DIE BETA-VERTEILUNG
225
die Summe X1 + X2 gemäss χ2n1 +n2 verteilt (Additionssatz für χ-QuadratVerteilungen).
Auftreten der Gamma-Verteilung. — Wir haben gesehen, dass es gute
Gründe dafür gibt, anzunehmen, dass die Lebensdauer eines Organismus
(eines Gerätes, eines radioaktiven Atomkerns, usw.) exponential-verteilt ist.
Unrealistisch an dieser Hypothese ist, dass damit implizit die Abwesenheit
eines Alterungsprozesses des Organismus (des Gerätes, des radioaktiven
Atomkerns, usw.) angenommen wird. Eine realistischere Hypothese besteht
darin, dass man annimmt, die Lebensdauer sei Γ(p, λ)-verteilt, wobei p etwas
grösser als 1 ist und λ > 0 (cf. Aufgabe 7).
9. Die Beta-Verteilung. — Die Eulersche Beta-Funktion B(r, s) wird
für Paare (r, s) positiver reeller Zahlen durch das Integral
1
xr−1 (1 − x)s−1 dx
B(r, s) =
0
definiert. Sie hängt mit der Gamma-Funktion folgendermassen zusammen:
B(r, s) =
Γ(r)Γ(s)
.
Γ(r + s)
Insbesondere erkennt man B(r, s) = B(s, r).
Definition. — Eine Zufallsvariable X mit Werten in [0, 1] heisst B(r, s)verteilt (Beta-verteilt mit Parametern r > 0, s > 0), wenn sie absolut stetig
ist mit der Dichte
1
xr−1 (1 − x)s−1 I[0,1] (x).
f (x) =
B(r, s)
Für r = s = 1 stimmt die Verteilung B(1, 1) mit der Gleichverteilung auf
[0, 1] überein.
Der Erwartungswert und die Varianz sind durch
rs
r
,
Var X =
E[X] =
2
r+s
(r + s) (r + s + 1)
gegeben. Man bemerkt, dass Var X < E[X][1 − E[X] ] gilt.
Auftreten der Beta-Verteilung. — Ist (X1 , . . . , Xn ) ein System von n
unabhängigen Zufallsvariablen, die alle auf dem Intervall [0, 1] gleichverteilt
sind, dann sind die Zufallsvariablen
Y = min(X1 , . . . , Xn ),
Z = max(X1 , . . . , Xn )
B(1, n)- bzw. B(n, 1)-verteilt (cf. Aufgabe 5). Die zu diesem System gehörigen Ordnungsstatistiken sind ebenfalls Beta-verteilt.
226
KAPITEL 14: DIE WICHTIGSTEN VERTEILUNGEN
1
1 +
I]0,1[ (x),
10. — Es sei g(x) = exp −
x 1−x
g(x)
.
f (x) = g(t) dt
R
Dann ist f die Dichte einer Zufallsvariablen mit Werten in ]0, 1[, die zur
Klasse C ∞ in ganz R gehört.
11. Die Arcussinus-Verteilungen
1
1
$
(0 <
π x(1 − x)
x < 1) heisst Arcussinus-Verteilung , was sich durch die √
Tatsache erklärt,
dass ihre Verteilungsfunktion durch F(x) = (2/π) Arc sin( x) (0 < x < 1)
gegeben ist. Sie ist von grosser Bedeutung in der Fluktuationstheorie.
b) Es gibt noch andere Verteilungen, die mit dem Arcussinus zusammenhängen, die wir im Folgenden mit (A1 ), (A2 ) bezeichnen werden. Dies
kommt in der folgenden Definition zum Ausdruck.
a) Die Verteilung B(1/2, 1/2) mit der Dichte f (x) =
Definition. — Eine Zufallsvariable X mit Werten in ] − 1, +1[ heisst (A1 )verteilt, wenn sie absolut stetig ist und als Dichte die Funktion
fX (x) =
1
1
√
π 1 − x2
(−1 < x < +1)
(A1 )
hat. Die Zufallsvariable |X| hat dann Werte in ]0, 1[ und sie hat die Dichte
f|X| (x) =
1
2
√
π 1 − x2
(0 < x < +1).
(A2 )
Dies nennt man die Dichte der (A2 )-Verteilung.
Auftreten der Verteilungen (A1 ) und (A2 ). — Die folgenden Zufallsvariablen sind (A1 )-verteilt:
sin U , wenn U in ] − π/2, +π/2[ gleichverteilt ist;
cos U , wenn U in ]0, π[ gleichverteilt ist;
sin U , cos U , wenn U in ]0, 2π[ gleichverteilt ist.
Da die Verteilung (A1 ) symmetrisch ist, hat jede dieser Zufallsvariablen die
gleiche Verteilung wie die entgegengesetzte Variable.
Die folgenden Zufallsvariablen sind (A2 )-verteilt:
sin U , wenn U in ]0, π[ gleichverteilt ist;
cos U , wenn U in ] − π/2, +π/2[ gleichverteilt ist.
Diese Beispiele zeigen, wenn es denn überhaupt noch erforderlich sein sollte,
dass verschiedene Zufallsvariable die gleiche Verteilung haben können.
Ist U eine in ]0, 2π[ gleichverteilte Zufallsvariable, dann sind sowohl
X = cos U als auch Y = sin U gemäss (A1 ) verteilt. Wegen X 2 − Y 2 =
ERGÄNZUNGEN UND ÜBUNGEN
227
cos2 U − sin2 U = cos(2U ) und 2XY = 2 sin U cos U = sin(2U ) sind auch
diese Variablen (A1 )-verteilt. Wegen X 2 + Y 2 = 1 ist die Zufallsvariable
X −Y
Z =X −Y = 2
=
X +Y2
2
2
2
2
1−
Y 2
1 − tg2 U
X
Y 2 =
1 + tg2 U
1+
X
(A1 )-verteilt. Da U in ]0, 2π[ gleichverteilt ist, ist die Zufallsvariable T = tg U
Cauchy-verteilt mittels C(0, 1). Damit wurde gezeigt:
Ist T eine C(0, 1)-verteilte Zufallsvariable, so ist die
1 − T2
gemäss (A1 ) verteilt.
Zufallsvariable Z =
1 + T2
Satz 11.1. —
ERGÄNZUNGEN UND ÜBUNGEN
1. — Die einzigen Lösungen r(·) der Funktionalgleichung
r(x + y) = r(x)r(y)
(x, y ≥ 0),
die rechtsseitig stetig und nicht identisch gleich Null sind, haben die Form
r(x) = eαx (α ∈ R).
2. Die Pareto-Verteilung. — Ist Y eine mit E(λ) (λ > 0) exponentialverteilte Zufallsvariable, so heisst die Zufallsvariable X = eY Pareto-Variable
mit der Pareto-Verteilung P(λ, 1).
x−λ, falls x ≥ 1;
a) Die Überlebensfunktion von X ist durch r(x) =
1,
falls x < 1
gegeben und die Dichte ist
λ/xλ+1 , falls x ≥ 1;
f (x) =
0,
sonst.
λ
, falls λ > 1 ist, sowie E[X] = +∞, falls λ ≤ 1.
λ−1
c) Für jedes ganze k ≥ 1 berechne man E[X k ] mittels der Überlebensfunktion von X k . Man folgere daraus, dass eine Pareto-verteilte Zufallsvariable keine erzeugende Funktion der Momente hat.
b) Es gilt E[X] =
3. Die Weibull-Verteilung. — Eine reellwertige Zufallsvariable X heisst
Weibull-verteilt mit Parametern (α, λ) (α > 0, λ > 0), wenn die Variable
228
KAPITEL 14: DIE WICHTIGSTEN VERTEILUNGEN
X α mit Parameter λ > 0 exponential-verteilt ist. Ihre Überlebensfunktion
α
ist durch r(x) = e−λx für x ≥ 0 und 1 für x < 0 gegeben; ihre Dichte ist
α
f (x) = αλe−λx xα−1 für x ≥ 0 und 0 für x < 0; der Erwartungswert ist
schliesslich E[X] = (1/λ1/α )Γ(1 + (1/α)).
4. Die logistische Standard-Verteilung. — Eine reellwertige Zufallsvariable X hat die logistische Standard-Verteilung, wenn sie von der Form
X = − Log(eY − 1) ist, wobei Y eine exponential-verteilte Zufallsvariable mit Parameter 1 ist. Für jedes reelle x ist F (x) = 1/(1 + e−x ) ihre
Verteilungsfunktion, r(x) = e−x /(1 + e−x ) ihre Überlebensfunktion und
f (x) = F (x)r(x) = 12 (1 + cosh x) ihre Dichte; f (x) ist gerade. Man zeige,
dass Log f (x) konkav ist.
5. — Es sei (X1 , . . . , Xn ) ein System von n unabhängigen und im Intervall
[0, 1] gleichverteilten Zufallsvariablen. Dann sind die Zufallsvariablen Y =
min(X1 , . . . , Xn ) bzw. Z = max(X1 , . . . , Xn ) gemäss B(1, n) bzw. B(n, 1)
verteilt.
r
6. Das geometrische Mittel. — Es sei X eine Zufallsvariable mit E[ |X| ] <
+∞ für alle r im Intervall [0, r0 [ (r0 > 0). Für jedes r im offenen Intervall
r
]0, r0 [ kann man die Abweichung er = (E[ |X| ])1/r betrachten. Aus den
Ungleichungen über die verschiedenen Mittelwerte folgt, dass die Funktion
r → er monoton wachsend ist. Dann existiert also ihr Limes limr↓0 er und ist
endlich; er wird mit e0 bezeichnet und geometrisches Mittel von X genannt.
a) Man berechne das geometrische Mittel für eine N (0, 1)-verteilte
Zufallsvariable X.
b) Man berechne das geometrische Mittel für eine E(λ)-verteilte Zufallsvariable X.
c) Man zeige, dass eine C(0, 1) Cauchy-verteilte Zufallsvariable X ein
geometrisches Mittel besitzt.
d) Man konstruiere die Verteilung einer Zufallsvariablen, die kein
geometrisches Mittel besitzt.
7. — Es sei X eine absolut-stetige Zufallsvariable mit Werten in [0, +∞[
und Dichte f , für welches die Überlebensfunktion r(x) =P{X >x} für alle
x > 0 positiv ist. Als Nichterfüllungsrate (“failure rate”) von X bezeichnet man die Funktion ρ(x) = f (x)/r(x). Es sei nun X eine Γ(p, λ)-verteilte
Zufallsvariable (p, λ > 0). Man zeige, dass ihre Nichterfüllungsrate streng
monoton wachsend bzw. konstant bzw. streng monoton fallend ist, je nachdem ob p > 1 bzw. p = 1 bzw. 0 < p < 1 ist. Man beachte, dass der Fall
p = 1 der Verteilung E(λ) entspricht.
ERGÄNZUNGEN UND ÜBUNGEN
229
8. — Es sei X eine Γ(p, λ)-verteilte Zufallsvariable (p, λ > 0). Man zeige,
dass für jedes r mit p + r > 0 gilt:
E[X r ] =
1 Γ(p + r)
.
λr Γ(p)
9. a) Es sei X eine Zufallsvariable mit der ersten Laplace-Verteilung, d.h.
mit der Dichte f (x) = (1/2) exp(− |x|) (x ∈ R). Man berechne die
erzeugende Funktion von |X| und leite daraus ihre Verteilung ab.
b) Es sei (X1 , X2 ) ein Paar von unabhängigen und E(1)-verteilten Zufallsvariablen. Man berechne die erzeugenden Funktionen der Zufallsvariablen X1 + X2 , X1 − X2 , |X1 − X2 | und bestimme auf diesem
Weg die Verteilungen.
c) Die erste Laplace-Verteilung L hat als erzeugende Funktion g(u) =
1/(1 − u2 ) (|u| < 1). Diese Funktion kann man auf zwei verschiedene
Arten faktorisieren:
2
1
1
1
1
1
;
β)
α)
=
= √
.
1 − u2
1−u1+u
1 − u2
1 − u2
α) Man zeige, dass L die Symmetrisierte einer Zufallsvariablen mit
Verteilung E(1) ist.
β)
dass L die Verteilung von X1 X2 + X3 X4 (oder von
Man zeige,
X1 X2 X3 X4 ) ist, wobei (X1 , X2 , X3 , X4 ) ein System von vier unabhängigen und N (0, 1)-verteilten Zufallsvariablen ist (cf. Aufgabe 9 von
Kap. 13).
Man stösst hier auf ein Phänomen, das bei der Normalverteilung nicht
auftritt: eine Normalverteilung hat keine Faktoren , die nicht selber
Normalverteilungen sind. Dies ist ein zusätzliches Argument dafür, in
der Fehlertheorie anstelle der ersten Laplace-Verteilung die zweite Laplace-Verteilung, i.e. die Normalverteilung, zu verwenden.
10. a) Es sei (X, Y ) ein Paar von unabhängigen Zufallsvariablen mit positiven
Werten, wobei Y gemäss E(λ) exponential-verteilt ist (λ > 0). Es
bezeichne L(u) die Laplace-Transformierte von X, d.h. L(u) = E[e−uX ]
(u ≥ 0). Man zeige, dass P{Y > X} = L(λ) gilt.
b) Es sei nun (X1 , . . . , Xn , Y ) ein System von (n + 1) unabhängigen
Zufallsvariablen mit positiven Werten wobei Y gemäss E(λ) (λ > 0)
verteilt ist. Man zeige
P{Y > X1 + · · · + Xn } = P{Y > X1 } . . . P{Y > Xn }.
Spezialfall. — Für n = 2 hat man
(1)
P{Y > X1 + X2 } = P{Y > X1 }P{Y > X2 }.
230
KAPITEL 14: DIE WICHTIGSTEN VERTEILUNGEN
Wegen P{Y > X} = L(λ) > 0 ist Aussage (1) äquivalent zu
P{Y > X1 + X2 | Y > X2 } = P{Y > X1 }.
(2)
Ist also (X1 , X2 , Y ) ein System von unabhängigen Zufallsvariablen
mit positiven Werten, wobei Y exponential-verteilt ist, so bringt (2)
die Eigenschaft der Gedächtnisfreiheit in verallgemeinerter Form zum
Ausdruck.
c) Es sei (X1 , . . . , Xn ) ein System von unabhängigen Zufallsvariablen, die
alle E(λ)-verteilt
sind (λ > 0). Es sei M = max1≤k≤n Xk . Man berechne
n
P{M > k=1 Xk − M }.
11. — Es sei X eine in [0, 1] gleichverteilte Zufallsvariable. Man berechne
ihre Abweichung r-ter Ordnung er bezogen auf den Ursprung. Daraus leite
man ihr geometrisches Mittel e0 ab.
12. — Es sei (Y1 , . . . , Yn ) ein System von n unabhängigen Zufallsvariablen,
die alle N (0, 1)-verteilt sind. Die Zufallsvariable X 2 = Y12 + · · · + Yn2 ist
1/2), deren Dichte hier mit g
χ2n -verteilt, d.h. sie hat die Verteilung Γ(n/2,
$
bezeichnet sei. Die Zufallsvariable X = Y12 + · · · + Yn2 hat dann die Dichte
f (x) = 2xg(x2 ) =
1
2(n/2)−1
2
1
xn−1 e−x /2
Γ(n/2)
(x ≥ 0).
$
2
Y12 + Y22 die Dichte f (x) = xe−x /2
a) Für n = 2 hat X =
(x ≥ 0) (Rayleigh-Verteilung). Sie stimmt mit der Weibull-Verteilung mit
Parametern α = 2, λ = 1/2 überein.
,
$
2 2 −x2 /2
x e
b) Für n = 3 hat X = Y12 + Y22 + Y32 die Dichte f (x) =
π
(x ≥ 0) (Maxwell-Verteilung).
c) Die gemeinsame Dichte von (Y1 , . . . , Yn ) ist
y2 + · · · + y2 2
1
1
n
exp − 1
e−x /2 ,
h(y1 , . . . , yn ) = √
= √
n
n
2
( 2π)
( 2π)
wobei x2 = y12 + · · · + yn2 gesetzt wurde. Man erkennt, dass h(y1 , . . . , yn ) nur
von x ≥ 0 abhängt; man kann also h(x) schreiben. Bezeichne nun An (x) die
Oberfläche Sn (0, x) einer n-dimensionalen Kugel mit Radius x (x > 0). Dann
ist f (x) = An (x)h(x), d.h.
1
2(n/2)−1
2
2
1
1
xn−1 e−x /2 = An (x) n/2 n/2 e−x /2 ,
Γ(n/2)
2 π
ERGÄNZUNGEN UND ÜBUNGEN
231
und daher
An (x) = 2
π n/2 n−1
x
.
Γ(n/2)
Das Volumen Vn (x) der Kugel Bn (0, x) (x > 0) erhält man also unmittelbar:
Vn (x) =
0
x
π n/2
An (t) dt =
xn .
Γ(1 + n/2)
13. a) Es sei (X1 , X2 ) ein Paar von unabhängigen und auf [0, 1] gleichverteilten Zufallsvariablen. Man berechne die Dichte und die charakteristische
Funktion von X = X1 − X2 und von 2X.
b) Es sei (Y1 , Y2 ) ein Paar von unabhängigen und auf [−1, +1]
gleichverteilten Zufallsvariablen. Für Y = Y1 + Y2 zeige man L(Y ) = L(2X).
232
KAPITEL 14: DIE WICHTIGSTEN VERTEILUNGEN
http://www.springer.com/978-3-7643-6169-3
Herunterladen