Bew-eise Stochastik - math.uni-bremen.de

Werbung
Dieses Update enthält nur die neuen/geänderten Seiten gegenüber der Auflage vom März 2016
Bew-eise
zum Skript
Stochastik
von
Gerhard Osius
Dichte von N(O,1)
0 .4
0.2
0
-4
-2
1,0
a 0
2
4
2
4
I
Verteilungsfunktion von JN(O, I)
0,9
I
I
0,8
I
I
I
I
I
I
I
0 ,7
0,6
I
!
0,5
0.4
<t>(a)
0 ,3
0,2
0 ,1
-4
-2
a 0
August 2016
Fachbereich Mathematik/Informatik
Universität Bremen
Beweise zur Stochastik
15.8.16
Vorwort- 1
Vorwort
Der vorliegende Beweis-Band enthält nur die Beweise für das Skript zur Stochastik.
Der Grund für die Trennung der Beweise vom Text-Band war zunächst historisch
bedingt, weil das Skripts in den ersten Auflagen noch keine Beweise enthielt. Nachdem mittlerweile die Beweise hinzugekommen sind, habe ich sie dennoch aus verschiedenen Gründen in einem separaten Teil zusammengestellt.
Die Beweise sind hier gerrau so aufgeführt, wie sie in der Vorlesung vorgetragen
werden - damit die Studierenden nicht mitschreiben müssen und sich auf die Inhalte konzentrieren können. Demzufolge sind die Beweise auch nicht besonders
platzsparend sondern eher übersichtlicher dargestellt. Der Begleittext der Beweise
ist dagegen extrem kurz gefaßt und besteht oft nur aus Querverweisen oder Stichworten.
Einige Beweise fehlen hier, entweder weil sie den hier vorgesehenen Rahmen sprengen würden (was bereits im Skript vermerkt ist) oder weil sie als Übungsaufgaben vorgesehen sind.
Inhaltlich unterscheidet sich diese Auflage von der letzten Version (März 2016)
zunächst durch einige Korrekturen sowie kleinere Änderungen bzw. Ergänzungen,
die durch die jeweiligen Änderungen im Skript bedingt sind. Hinzugekommen bzw.
neu formuliert sind die Beweise in den Abschnitten 6.1.4, 10.2 und 11.7.
Erfahrungsgemäß enthält das Skript - trotz Korrekturlesen - noch Druckfehler. Bevor man daher am eigenen Verständnis zweifelt, sollte man auch einen Fehler im
Skript in Erwägung ziehen. Für Hinweise auf Druckfehler oder andere Kommentare
pere-Mail ([email protected]) bin ich dankbar.
Bremen, am 15. August 2016
Gerhard Osius
Beweise zur Stochastik
Inhalt- 1
15.8.16
Inhalt (Beweise)
(Seiten pro Kapitel)
Kapitel - Seite
Für die nicht aufgeführten Abschnitte sind hier keine Beweise vorgesehen.
1.
Wahrscheinlichkeitsräume
1.0
1.1
1.2
1.3
1.4
2.
Zufallsvariablen und ihre Verteilungen
1-10
1-10
1-11
1-11
1-12
1-12
1-13
1-13
(4)
2-1
2-4
Bedingte Wahrscheinlichkeit und stochastische Unabhängigkeit
(6)
Bedingte Wahrscheinlichkeit
3.1.1 Wartezeiten und Exponential-Verteilung
Stochastische Unabhängigkeit von Ereignissen
Produkte diskreter Wahrscheinlichkeitsräume
3.3.1 Bernoulli-Wiederholungen und Binomialverteilung
3-1
3-3
3-3
3-4
3-6
3.1
3.2
3.3
4.
1-1
1-2
1-9
Definition einer Zufallsvariable und ihrer Verteilung
Reelle Zufallsvariablen
2.2
2.3
3.
Mengensysteme
Wahrscheinlichkeitsmaße
Endliche Wahrscheinlichkeitsräume
1.2.3 Binomial-Verteilung
1.2.4 * Relative Häufigkeiten
Abzählbare Wahrscheinlichkeitsräume
1.3.1 Poisson-Verteilung
Reelle Wahrscheinlichkeitsmaße mit Dichten
1.4.1 Normal-Verteilung
1.4.2 Exponential-Verteilung
1.4.3 Stetige Gleichverteilung
(13)
Verteilungsfunktionen und Dichten
4.1
Verteilungsfunktionen reeller Zufallsvariablen
4.1.1 Quasi-Inverse einer Verteilungsfunktion
4.2
Verteilungsfunktionen diskreter Zufallsvariablen
4.2.2 Binomial-Verteilung
4.2.3 Poisson-Verteilung
4.3 Stetige Zufallsvariablen mit Dichten
4.3.1 Stetige Gleichverteilung
4.3.2 Exponential-Verteilung
4.3.3 Normal-Verteilung
4.4 Dichten transformierter Zufallsvariablen
4.4.1 Lineare Transformationen stetiger Zufallsvariablen
4.4.2 Absolutbetrag und Potenzen stetiger Zufallsvariablen
4.4.3 Log-Normalverteilung
4.4.4 Weibull-Verteilung
4.4.5 Erzeugung von Zufallszahlen
Zufallsvektoren
4.5
4.5.1 Mehrdimensionale Borel-Menge
(21)
4-1
4-3
4-5
4-6
4-6
4-7
4-10
4-10
4-10
4-11
4-13
4-14
4-15
4-15
4-15
4-16
4-16
Beweise zur Stochastik
5.
6.
2.9.16
Inhalt- 2
4.6
Diskrete Zufallsvektoren
4.6.1 Multinomial-Verteilung
4.7 Stetige Dichten für zweidimensionalen Verteilungen
4.7.1 Zwei-dimensionale Normal-Verteilung
4.9 Endliche Produkte von Wahrscheinlichkeitsräumen
4.9.2 Allgemeiner Fall: beliebige Wahrscheinlichkeitsräume
4.10 Abzählbare Produkte von Wahrscheinlichkeitsräumen
4-16
4-16
4-17
4-18
4-20
4-20
4-21
Stochastische Unabhängigkeit von Zufallsvariablen
5.1
Stochastische Unabhängigkeit diskreter Zufallsvariablen
5.1.1 Randomisierte klinische Vergleichsstudie
5.1.2 Geometrische Verteilung
5.2
Unabhängigkeit bei stetigen Zufallsvariablen mit Dichten
5.2.1 Normalverteilte Zufallsvariablen
5.3
Unabhängigkeit bei Zufallsvektoren
Faltungen von Verteilungen
6.1
Faltung diskreter Verteilungen
6.1.1 Binomial-Verteilung
6.1.2 Multinomial-Verteilung
6.1.3 Faltung von Poisson-Verteilungen
6.1.4 Negative Binomial-Verteilungen
6.2
Faltung stetiger Verteilungen mit Dichten
6.2.1 Faltung von Normal-Verteilungen
6.2.2 Faltung von Exponential- und Gamma-Verteilungen
6.2.3 Poisson-Verteilung und Poisson-Prozeß
6.2.4 Elementare Eigenschaften der Gammafunktion
6.3 Arithmetische Operationen von Zufallsvariablen
(11)
5-3
5-4
5-5
5-6
5-9
5-10
(25)
6-1
6-1
6-3
6-5
6-6
6-11
6-13
6-15
6-18
6-19
6-20
Beweise zur Stochastik
7.
8.
9.
15.8.16
Inhalt- 3
Parameter von Verteilungen: Erwartungswert, Varianz, Schiefe,
Covarianz und Korrelation
7.2 Grundlegende Eigenschaften des Erwartungswerts
7.3 Erwartungswerte spezieller Verteilungen
7.3.1 Erwartungswerte spezieller diskreter Verteilungen
7.3.2 Erwartungswerte spezieller stetiger Verteilungen
7.3.3 Cauchy-Verteilung
7.3.4 Anwendung: Das Sammlerproblem
7.4 Varianz und Standardabweichung
7.5
Varianzen spezieller Verteilungen
7.5.1 Varianzen spezieller diskreter Verteilungen
7.5.2 Varianzen spezieller stetiger Verteilungen
7.6 Symmetrie und Schiefe
7.7 Die Ungleichungen von Chebychev und Markov
7.7.1 Normalverteilung
7.7.2 Empirische Verteilung
7.8 Covarianz, Korrelation und linearer Zusammenhang
7.8.1 Die Covarianz
7.8.2 Der Korrelationskoeffizient
7.8.4 Linearer Zusammenhang und Regressionsgerade
Schätzung von Erwartungswert und Varianz
(40)
7-1
7-12
7-13
7-15
7-16
7-17
7-20
7-22
7-24
7-31
7-32
7-33
7-34
7-38
7-39
(7)
8.1 Schätzen des Erwartungswerts
8.3 Schätzung der Varianz
8.3.1 Schätzung der Varianz bei bekanntem Erwartungswert
8.3.2 Schätzung der Varianz bei unbekanntem Erwartungswert
8-1
Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz
(26)
9.1
9.2
9.3
9.7
9.8
Konvergenz nach Wahrscheinlichkeit und
Schwaches Gesetz der großen Zahlen
9.1.1 Eigenschaften der Konvergenz nach Wahrscheinlichkeit
9.1.2 Stochastische Konvergenz und Konsistenz von Schätzern
Verteilungskonvergenz und Zentraler Grenzwertsatz
Grenzwertsätze für Binomial-Verteilungen
9.3.1 Die Normal-Approximation der Binomial-Verteilung
9.3.3 Die Poisson-Approximation der Binomial-Verteilung
Eigenschaften der Konvergenz nach Verteilung
Hypergeometrische Verteilungen
9.8.2 Zufälliges Ziehen mit und ohne Zurücklegen
9.8.3 Definition und Eigenschaften der hypergeom. Verteilung
9.8.4 Anwendungen und Schätzungen
9.8.5 Binamial-Approximation der hypergeometrischen Verteilung
9.8.6 Die multivariate hypergeometrische Verteilung
8-2
8-2
9-1
9-2
9-5
9-7
9-9
9-11
9-16
9-17
9-19
9-19
9-20
9-23
Beweise zur Stochastik
15.8.16
10. Konfidenzgrenzen für den Erwartungswert
11
12
Inhalt- 4
(4)
10.1 Exakte Konfidenzgrenzen für den Erwartungswert einer
Normal-Verteilung mit bekannter Varianz
10.2 Asymptotische Konfidenzgrenzen für den Erwartungswert einer
beliebigen Verteilung
10.3 Exakte Konfidenzgrenzen für den Erwartungswert einer
Normal-Verteilung mit unbekannter Varianz
Konfidenzgrenzen für eine Wahrscheinlichkeit
11.1 Die exakte obere Konfidenzgrenze nach Clopper-Pearson
11.2 Die exakte untere Konfidenzgrenze nach Clopper-Pearson
11.3 Das exakte zweiseitige Konfidenzintervall
11.4 Berechnung der Grenzen
11.6 Asymptotische (approximative) Konfidenzgrenzen
11.7 Grobe asymptotische (approximative) Konfidenzgrenzen
10-4
(18)
11-1
11-4
11-6
11-7
11-9
11-17
Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung
12.1 Konstruktion der exakten oberen Konfidenzgrenze
12.2 Konstruktion der exakten unteren Konfidenzgrenze
12.3 Konstruktion des exakten zweiseitigen Konfidenzintervalls
12.4 Berechnung der exakten Grenzen
12.5 Asymptotische (approximative) Konfidenzgrenzen
(9)
12-1
12-3
12-4
12-5
12-7
13. Testen von Hypothesen über Wahrscheinlichkeiten
13.1 Der exakte einseitige Binomial-Test mit oberer Alternative
13.1.3 Der optimale Test zum vorgegebenen Niveau
13.2 Der exakte einseitige Test mit unterer Alternative
13.3 Der exakte zweiseitige Binomial-Test
13.4 Asymptotische Tests
13.4.1 Der asymptotische einseitige obere Test
13.4.2 Der asymptotische einseitige untere Test
13.4.3 Der asymptotische zweiseitige Test
13.5 Planung des erforderlicher Stichproben-Mindestumfangs
13.5.1 Der einseitige obere Test
14. Tests für den Erwartungswert der Poisson-Verteilung
14.1 Der einseitige Poisson-Test mit oberer Alternative
14.1.1 Der exakte einseitige obere Poisson-Test
14.1.2 Der asymptotische einseitige obere Poisson-Test
14.2 Der einseitige Poisson-Test mit unterer Alternative
14.2.1 Der exakte einseitige untere Poisson-Test
14.2.2 Der asymptotische einseitige untere Poisson-Test
14.4 Der zweiseitige Poison-Test
14.4.2 Der asymptotische zweiseitige Poisson-Test
10-1
10-3
(12)
13-1
13-2
13-4
13-5
13-7
13-10
13-12
(8)
14-1
14-2
14-4
14-5
14-7
14-8
Faltungen von Verteilungen
B6-7
8.8.16
Beweis von
00
(3)
0.
P{l:X.<n}
z= 1 z
0
FürfestesN EW:sei
AN= {XN+n=OfürallenEW}
Aus 5.1.2 (5)- angewandt auf die Folge (XN+n)nElN- ergibt sich P(AN) = 0.
Es folgt:
P(
U AN)=
NE lN
lim P(AN) = 0,
Stetigkeit von unten, da (AN) aufsteigend.
N---+oo
00
Nun gilt:
2:: X.<
n
z
z= 1
::::}
es gibt ein NE W mit XN +n = 0 für allen E W
0
00
Also
P{l:X.<n} <
D
0.
i=l z
Beweis von
(4)
Y<k
ad "::::}":
Für Y < k gibt es ein l E {0, ... , k} mit Y = l und nach (1) ist
X 1 + ... +Xz+n = n.
Wegen Xz+n+l + ... + Xk+n > 0 folgt
Xl + ... +Xk+n > n.
ad "~":
Für X 1 + ... +Xk+n
> n ist
mit
(i)
X.=1.
z
Wegen Xz E {0, 1} ist n = X 1 + ... + Xi
< i < k + n. Also gibt es em
l E {0, ... , k} mit i = l + n. Nach (i) und (1) ist Y = l und somit Y < k.
D
<
i, also n
Beweis von
(5)
P{NB(n,p) < k} = P{B(k+n,p) > n}
Wir geben zwei Beweise an. Der erste Beweis verwendet die Beziehung (4) und der
zweite nur die Definition der Zähldichte (2) von NB( n, p). Es sei wieder q = 1- p.
1. Beweis: Aus L(Y) = NB(n,p), L(X
1
+ ... +Xk+n) = B(k+n,p) und (4) folgt (5).
Faltungen von Verteilungen
B6-8
8.8.16
2. Beweis: Induktion über k
Für (beliebige) Zufallsvariablen U ""'NB(n,p) und Vk ,..__,ß(k+n,p) ist zu zeigen
(i)
P{U<k} = P{Vk>n}
Für k = 0 gilt (i) wegen
P{U<O} = P{U=O} = pn,
P{V0 >n}
=
P{V0 =n} =pn
nach (2).
Für den Induktionsschritt k 1-----+ k + 1 verwenden wir em Vk+ 1 = Vk + W wobei
W'"'"' B(1, p) stochastisch unabhängig von Vk ist. Nach Induktionsvoraussetzung ist
(ii)
P { U < k + 1} = P { U < k} + P { U = k + 1} = P {Vk > n} + P { U = k + 1}
= q·P{Vk>n}
+ p·P{Vk>n} +P{U=k+1}.
Andererseits gilt
P{Vk >n-1} =P{Vk =n-1} +P{Vk >n}
(iii)
und somit
P{Vk+ 1 > n} = P{Vk + W> n}
=P{W=O, Vk >n}+P{W=1, Vk >n-1}
= q·P{Vk >n}+ p·P{Vk >n-1}
= q·P{Vk >n}+ p·P{Vk =n-1} + p·P{Vk >n}.
Für die Gleicheit der linken Seiten in (ii) und (iii) bleibt also zu zeigen
(iv)
P { U = k + 1}
= p · P {Vk = n- 1}.
Nach (2) ist
p { U = k + 1} = ( ~ +~) pn
_ _
P { V k-n
+k) P
1} -_(nn-1
l+ 1
n-1
k+ 1
q
und
woraus (iv) folgt.
D
Faltungen von Verteilungen
B6-9
8.8.16
Beweis von (unter Verwendung von (8))
(7)'
Für stochastisch unabhängige Y , ... , Yn mit Geo(p)-Verteilung gilt:
1
n
cL( 2: Y.) = NB(n,p).
z
0
z=l
Induktion über n. Für n = 1 ist nichts zu zeigen. Zum Induktionsschritt n
n
Nach Induktionsvor. gilt
Z: = 2: Y. "' NB(n,p)
z
f-----t
n + 1:
0
z=l
und Z ist stochastisch unabhängig von Y n+ "' Geo(p) nach 5.3 Satz 3 (Folgerung).
1
Der Träger von Z + Yn+ 1 ist W0 + W0 = W0, und für k E W0 ist nach 6.1 (3)
00
P { Z + Y n+ 1 = k } = i ~
0
k
2:
.
z=0
k
2:
P { Y n+ 1 = i } · P { Z = k- i }
P{ Y n +1 =i} · P{Z=k-i}
pqz
· (
n + k-
da P{Z< 0} = 0
i-1) pn qk-i
n-1
i =0
vgl. (6).
D
Faltungen von Verteilungen
Beweis von
k
B 6-10
8.8.16
0
2: c~~;1)
(8)
i=O
Induktion über k.
trivial, da(~) = 1.
k = 0:
k+l
2: (z+n-1)
k 1-----+ k + 1:
i=O
0
n-1
(k!n) + (~~~)
nach Induktions-Vor.
(k+~+n)
vgl. (i) unten.
Der Vollständigkeit halber zeigen wir noch für a, r E W
0
Dies ergibt sich unter Verwendung absteigender Produkte (vgl. 9.8.2 (17)) wie folgt
(a)r-1· r + (a)r-1 · (a-r+l)
r!
(a)r-1
(a)r
+(r-1)!
r!
(a+l) · (a)r-1
r!
= (a+l)r
.
r!
D
Beweis von
Der Beweis verläuft völlig analog zur Multinomialverteilung, d.h. zu 6.1.2 (2).
Seien
X.~
NB(1,p)
für i = 1, ... , n
~
NB(1,p)
für k = 1, ... , n 2
z
Yk
sodaß
x1, .... , X ' Y1, ... , y
(i)
L(X+) = NB(nl'p),
nl
n2
1
stochastisch unabhängig. Aus (5) I folgt
L(X+ + Y +) = NB([n 1 + n 2 ], p).
Da die beiden Zufallsvektoren X+ und Y + nach 5.3 Satz 3 (Folgerung) stochastisch
unabhängig sind folgt die Behauptung mit (i), weil
(ii)
D
Faltungen von Verteilungen
6.2
8.8.16
B 6-11
Faltung stetiger Verteilungen mit Dichten
Beweis von
(1)
( ax +ay, ßx +ßy),
ad T +T
"
X
Y
c
T '':
Z
ax<x<ßx,
(i)
ay<y<ßy
ay < z-ax,
Die beiden Intervalle (z- ßx,z- ax) und (ay,ßy) sind daher nicht disjunkt: sonst
müßte z- ax < ay oder ßy < z- ßx gelten - im Widerspruch zu (i). Also gibt es ein
x E T X und ein y E T Y mit z- x = y. Damit ist z = x + y E T X+ T y·
Beweis von
(2)
für zE Tz.
Da wir hier Dichten f X und f Y betrachten, die auf dem jeweiligen Träger stetig sind,
wollen wir (2) nur unter der zusätzlichen Voraussetzung beweisen, daß die durch (2)
definierte Funktion fz stetig auf Tz ist. - Sei f die Dichte von (X, Y), die außerhalb
des Trägers T = T x x T Y identisch 0 ist. Dann gilt für die Verteilungsfunktion Fz
von Z=X + Y:
Faltungen von Verteilungen
(i)
B 6-12
8.8.16
für a E IR
Fia) = P{X+Y<a}
J
f(x,y) d(x,y)
{(x,y) I x+y::::; a}
II
{(x,y) ly::::;a-x}
Veranschaulichung: Graphik!
_t (
_Tf(x,y) dy) dx
Substitution
z=x+y,
y=z-x
_L+oo( _L f(x,z- x) dz
a
)
dx
f(x,z-x) = 0
z<a
==aX +a Y' ax<x
Z
ßx
z-x<a
y
a
::::}
::::}
f(x,z-x) = 0
J ( J f( x, z- x) dz ) dx
rxx
Vertauschung der Integrale
(Satz von Fubini)
rxz
ßx
a
J ( J f( x, z- x) dx ) dz
=
rxz
rxx
Die Herleitung von (i) gilt auch ohne die Voraussetzung, daß X und Y stochastisch
unabhängig sind, was später beim Beweis von 6.3 (1) verwendet wird. Wegen der stochastischen Unabhängigkeit ergibt sich aus 5.2 Satz jetzt
und mit (i) folgt
a
Fia) =
J fiz) dz
az
ßx
mit
fiz) =
J
fx(x) -fy(z- x) dx
ax
Die Dichte von Z ist daher auf Tz= (az,ßz) gegeben durch F; =fz· Die Darstellung
(2) gilt sogar auch für z < a z bzw. z > ß z = ß x + ß Y' weil das erste Integral dann = 0,
ist: für a x<x<
- ß x folgt z- x <
- a Y bzw. z- x >
- ß Y und somit J'~(x, z- x) = 0.
Durch Vertauschen von X mit Y ergibt sich, daß auch die zweite Darstellung von fz
in (2) die Dichte Fz' von Z ist, und somit beide Darstellungen in (2) übereinstimmen.
D
Faltungen von Verteilungen
B 6-13
808016
6.2.1 Faltung von Normal-Verteilungen
Beweis von
(1)
mit
Seien X 0 ,. . .__ N(p, 0' a?) stochastisch unabhängig für i = 1,
z
z z
Aus der Dichte von X
Spezialfall:
(i)
1
f.(z x) = a.- l27r
- exp
2y
0
{-l
0
2
L.,J(
x~
a.2
20
0
z
für i = 1, 2
}
ergibt sich mit 6.2 (2) die Dichte f z von Z = X1 +X2 auf Tz= IR zu
+oo
(ii)
fiz) =
J
j 1(x) -j2(z- x) dx
-00
+oo
1
2 1r a a
1
J
0
2
-00
2
1 [ -x
ex { - P
2 a2
1
+ ~]}
dx
a2
2
Wir betrachten die Substitution
(iii)
Mit
folgt
x2
= 2
+
a1
Also:
1
- 21ra _
J
~
a y'21r
00
0
vgl. (iii)o
2
a2
+oo
0
(z-x) 2
exp
{-l [u
2
2
exp{-l ~}
2
2 a
+ za ~ J }
du
+oo
0
1
2
- exp{-l u } du
J
y'27r
2
_
00
+oo
J
II
cp(u) du= 1
-00
Also ist fz die Dichte von N(O, a 2 ), doho (1) gilt im Spezialfall p, = p, = 00
1
2
Faltungen von Verteilungen
B 6-14
808016
Allgemeiner Fall:
Für i = 1, 2 sind U 0 : = (X 0-p, 0)
z
z z
aus dem Spezialfall folgt
"'
N( 0, a ?) stochastisch unabhängig (5.3 Satz 1) und
z
vgl. 4.4.1 (7)0
Also:
D
Beweise von
(2)
Für a, ß E IR mit
(3)
Für stochastisch unabhängige X , 000, X mit L(Xo) =N(p,o,a?) für alle
1
n
z
z z
n
n
n
i = 1, 000, n gilt:
cL( 02: X z0) = N( 02: p, z0' 02: a?)
z 0
z=l
z=l
z=l
ad (2):
Mit 4.4.1 (7) ergibt sich:
*
*
ad {3):
ß ;= 0 gilt:
la [(a+ßX)- (a+ßp,)]
= ;
[X-p,] "'N(0,1)
(a+ßX) "'N([a+ßp,], [ßa] 2 )0
Folgt per Induktion aus (1)0
D
Faltungen von Verteilungen
B 6-15
8.8.16
6.2.2 Faltung von Exponential- und Gamma-V erteil ungen
Beweis von
(4)
c · Gam( a,ß) = Gam( a,cß)
für c>O.
Für X "' Gam( a,ß) ergibt sich die Dichte von c X nach 4.4.1 (6) zu
f cX(x)
=
lc fX\c
(~)
~ ·!(~I a~ß)
für
1 ·ß-a(~)a- 1 exp{
1_ · c r(a)
c
x> 0
-xj(cß)}
r(a) ·(cßfaxa-1exp{ -xj(cß)}
= f(x I 0!1 cß).
Also ist cX "'Gam( a,cß).
D
Beweise zu
(6)
für
f a ist für a < 1 eine streng fallende
Kurve und
für a > 1 eine schiefe Glockenkurve mit einem Maximum in z
Es ist
! ' (z )
Q
z> 0
= - 1 [( a-1) z a-2 e-z - z a-1 e-z]
r(a)
max
= a-1.
für
z> 0
für
z> 0
- 1 ·za-1 e-z · [( a-1 ) z-1 -1 J
r(a)
fa(z) · [(a-1) z- 1 -1 J.
Füra<1ist:
[(a-1)z- 1 -1]<0
f' (z) < 0
Q
und somit ist f streng fallend.
a
Füra>1gilt: f~(z)~O
{}
[(a-1)z- -1] ~ 0
1
== (a-1) <
~ z
für z>O.
) streng wachsend und auf (z max ,oo) streng fallend mit eiAlso ist f auf (0, z
a
max
nem Maximum in z
D
{}
max
z
max
Faltungen von Verteilungen
Beweis von
(9)
Übung!
8.8.16
B 6-16
Faltungen von Verteilungen
B 6-17
8.8.16
Beweise von
P{ Gam(n, -A-1) < a}
(11)
P{ Gam(n, 1) < a-A}
n-1
'I\' 1 ( ')i
1 - e-a>. · u
""'! a /\
z
i=O
0
P{ Pois(a-A)
Es ist:
P{ Gam(n, -A-1) < a}
für a > 0.
> n}
P { ,\-1 · Gam( n, 1) < a}
vgl. (4)
P{ Gam(n, 1) < a-A}
und
P{ Pois(a-A)
1 - P { Pois( a A) < n- 1}
> n}
n-1
'I\' 1 ( ')i
1 - e-a>. · u
""'! a /\ .
z
z=O
0
0
Zu zeigen bleibt für z: = a A
P { Gam( n, 1) < z}
(i)
n-1
-z
'I\' 1
· u ""'! z
z
1- e
0
z=O
i
0
Der Beweis erfolgt per Induktion·
n = 1:
Für Gam(1, 1) = Expo(1) ist
P{ Expo(1) <z} = 1- e-z
Induktionsschritt n
f-----t
vgl. 4.3.2, d.h. (i) gilt.
n +1
z
P { Gam( n + 1, 1) < z} =
J f( x In+ 1, 1) dx
0
z
1.. Jxne-xdx
da T(n+1) = n!
n! 0
Durch partielle Integration mit g(x) = xn und h(x) =- e-x ergibt sich
z
P{Gam(n+1,1)<z} = ~![-xne-x]~ +~! Jnxn- 1 e-xdx
0
z
1 n -z
--z
e
+
n!
J f(xl n,1) dx
0
1 n -z
--z
e
+ P { Gam(n, 1) < z}
n!
1 n -z
-z
+ 1- e
--z e
n!
n-1
'I\' 1 i
·u
""'! z
i=O
-z
1-e
n
nach Ind.-Vor.
.
'I\' 1 z
·u""'!z.
i=O
z.
z
0
D
Faltungen von Verteilungen
B 6-18
808016
6.2.3 Poisson-Verteilung und Poisson-Prozeß
Beweise von
(3)
Max { k E W0 I Sk < t}
(4)
sk < t
(5)
sk < t < sk+l
ad {3):
Aus Tk > 0 folgt 5 0 < 51 < 5 2
ad (4):
Nach (3) gilt SX
t
< to
0
0
< 000 <Sn' und somit gilt (3)0
Da die Folge (Sn) monoton wachsend ist, folgt
Die Umkehrung"~" in (4) folgt sofort mit (3)0
ad (5):
und
X =k
t
vgl. (4)0
und
Beweis von
(6)
für t> 0
0
Für n E W gilt:
(i)
P{ Xt
> n}
= P{ Sn<
t}
vgl. (4)
= P{ Gam(n, -A-1)
= P{ Pois(t-A)
< t}
> n}
daS "'Gam(n, -A-1), vgl. 6.2.2 (10)
n
vgl. 6.2.2 (11)
Hieraus folgt die Behauptung, weil für 1-L = t-A
P{Xt=n} = P{n<Xt<n+l}
> n}- P{ Pois(f-L) > n+l}
P{ Pois(f-L) = n}
= P{ Pois(f-L)
=
für nEW
D
Faltungen von Verteilungen
B 6-19
8.8.16
6.2.4 Elementare Eigenschaften der Gammafunktion
Beweise von
T(x)
x> 0.
(2)
r(x+1)
(3)
T(l)
(5)
r(~) =
ad (2):
Partielle Integration mit g( t) = tx und h( t) =- e- t liefert
X·
für
=1
v;
00
00
T(x+1) = J tx · e-t dt
[- tx · e-t]
0
0
00
+ J xtx- 1 . e-t dt
0
00
x · J t x-1 · e-t dt
x · T(x).
D
0
00
ad {3):
T(1) = Je-t dt
0
ad (5):
Der Beweis geht auf Emil Artirr (The Gamma Function, New York 1964)
zurück und verwendet die folgende Darstellung der Beta-Funktion
1
(i)
B(x,y) = Jtx- 1 (1-t)y- 1 dt
für x, y > 0
0
durch die Gamma-Funktion
(ii)
T(x) · T(y)
B( x, Y) = r( x + Y)
die im Beweis von 6.2.2 (6) hergeleitet wurde. Für x = y = ~ ergibt sich mit (3)
(iii)
B( ~, ~)
(iv)
B(~, ~) = J [t(1-t)]- 1/ 2 dt
=
r( ~) 2,
und zu zeigen bleibt
1
=
1r.
0
Mit der Substitution t = sin 2(x) und dt = [2 sin (x) cos(x)] dx ist
t(1- t)
und
B(~, ~)
2
2
2
2
= sin (x) [1- sin (x)] = sin (x) cos (x),
K/2
= J
0
12
[sin (x) cos (x)]- / [2 sin(x) cos(x)]
2
2
K/2
dx = 2 J dx =
0
1r.
D
Faltungen von Verteilungen
6.3
B 6-20
8.8.16
Arithmetische Operationen von Zufallsvariablen
Da wir bisher nur Dichten betrachtet haben, die auf dem jeweiligen Träger stetig
sind, wollen wir die Behauptungen hier nur unter der zusätzlichen Voraussetzung
beweisen, daß die durch (1) - (5) definierten Funktion!X+Y J X-Y ,fX·Y ,JX I Y
J X undfY
auf dem jeweiligen Träger stetig sind.
Beweis von
(1)
für a EIRund
P{X+Y<a}
+oo
J j( X, Z- X) dx
ßx
J
-00
rxX
ßy
J f(z-y,y) dy
+oo
J
j( X, Z- X) dx
f(z-y,y) dy
für zE IR.
(Xy
-00
Z=X + Y hat nach 6.2 (1) den Träger Tz= (az,ßz) = ( ax+ay, ßx+ßy) und für
die Verteilungsfunktion Fz von Z gilt nach (i) im Beweis von 6.2 (2)
a
(i)
Fia)
--
J fiz) dz
für a E IR,
und
az
ßx
(ii)
fiz)
J j( X, Z- X) dx
rxX
+oo
J
j( X, Z- X) dx
-00
In (ii) ist für z<az bzw. z>ßz=ßx+ßy das erste (und auch das zweite) Integral
= 0, weil für ax < x < ßx dann z- x < ay bzw. z- x > ßy gilt und somit f(x, z- x) = 0
ist. Also gilt die zweite Darstellung von Fz in (1) und die erste Zeile der Darstellung
von fz· Die zweite Zeile der Darstellung von fz ergibt sich durch Vertauschen von X
mit Y (oder durch Substitution x = z- y bzw. y = z- x).
D
Faltungen von Verteilungen
B 6-21
8.8.16
Beweis von
a
(2)
1 fx_y(z)
Fx_y(a) = P{X-Y<a}
dz
für a E IR
und
-00
+oo
fx_y(z)
1
ßx
1
f(x, x- z) dx
-00
f(x, x- z) dx
rxX
ßy
+oo
1
1
f(z+y,y) dy
(Xy
-00
f(z + y, y) dy
für zE IR.
Wir geben zwei Beweise an. Der erste Beweis führt (2) auf (1) zurück und der
zweite Beweis verläuft analog dem Beweis von (1),
1. Beweis: Für V=- Y ist X- Y =X+ V und wir können (1) auf (X,
V) anwenden,
wenn wir die Dichte von (X, V) bestimmen. Der Träger von V ist T v = (- ßy,- ay)
und der von (X, V) somit Tx x T v· Die Verteilungsfunktion von (X, V) ergibt sich zu
(i)
F(X,V)(a,b) = P{X<a V<b}
1
= P{X<a)Y>-b}
a
ßy
J (J
x
a
f( x, y) dy ) dx
Substitution:
-ß
J (- (
V
=-y
f(x,-v) dv) dx
X
b
a
1 ( 1 f(x,-v)
rxX
dv) dx
-ßy
Damit definiert
(ii)
!(X, V)( a, b) : = !( a,- b)
eine stetige Dichte von (X, V) auf dem Träger T x x T V' und (1) angewandt auf (X, V)
liefert die Behauptung (2).
2. Beweis: Nach 6.2 (1) hat Z =X- Y den Träger
mit
Für die Verteilungsfunktion Fz von Z =X- Y gilt:
Faltungen von Verteilungen
(iii)
B 6-22
8.8.16
für a E IR
Fia) = P{X-Y<a}
J
f(x,y) d(x,y)
{(x,y) I x-y::::; a}
II
{(x,y) I x-a ::::; y}
Veranschaulichung: Graphik!
too( xja
toof(x,y) dy )dx
_L
Substitution
y=x-z
z=x-y,
too( - -oo
j f(x,x-z) dz )dx
_L
too( _L f(x,x-z) dz
a
_L
ßx (
/
0
a
)
Tausch der Grenzen des
inneren Integrals
dx
xtf:.Tx
f(x,x-z) = 0
z<az= ax-ßy,
ax<x
x-z>ß
- y
f(x,x-z) = 0
)
_Lf(x,x-z) dz dx
X
ßx
a
J ( J f(x,x-z)
::::}
::::}
dz) dx
Vertauschung der Integrale
(Satz von Fubini)
rxx
rxz
a
ßx
J ( J f(x,x-z) dx) dz
rxz
rxx
a
J fiz)
mit
dz
az
(iv)
ßx
f(x,x-z) dx =
J
rxX
+oo
J
f(x,x-z) dx
-00
In (iv) ist für z <
a = a X - ß Y bzw. z >
ß = ß X - a Y das erste (und auch das zweite)
- Z
- Z
Integral = 0, weil für ax < x < ß x dann x- z > ßy bzw. x- z < ay gilt und somit f(x,
x- z) = 0 ist. Also gilt die zweite Darstellung von Fz in (2) und die erste Zeile der
Darstellung von fz· Die zweite Zeile der Darstellung von fz ergibt sich durch Vertauschen von X mit Y (oder durch Substitution x = z- y bzw. y = z- x).
D
Faltungen von Verteilungen
B 6-23
8.8.16
Beweis von
a
1 fx.y(z)
(3)
für a E IR
dz
mit
-00
0
00
1
1 ·f(x, !.) dx =
1R\{O}Ixl
X
1
0
1 ~ -f(x, ~) dx
l.J(x, ~) dx X
-oo
X
Für die Verteilungsfunktion Fz von Z =X· Y gilt für a E IR:
(i)
Fz(a) = P{X·Y<a}
1
f(x,y) d(x,y)
{(x,y) I xy ::::;a}
r[
J
=
J [
J
lR\{0}
Wegen
{
xy<a
_l [
Fz(a)
y<!!:.
-x
für x> 0
y>!!:.
-x
für x< 0
l
!(x, y) dy dx
{y I xy ::::;a}
-oo
!(x, y) dy ] dx
{ylxy::::;a}
}
folgt
l [_{'
a
if(x,y) dy] dx
+
f(x,y) dy] dx
X
z
Substitution: y=-x,
_L j
0 [
/[ /1.
00
_
00
lxl
J [ /
lR\{0}
l
~-f(x, ~) dz dx
-00
_l [_i-±
_
dy = l.dz
f(x, i)
dz] dx
f(x,i)dz]dx
1_
-oolxl
X
+
l [_i ±
+
.....................
+
J( x, i) dz ] dx
J' [ / LJ(x,i) dz] dx
0
_
00
lxl
J( x, i) dz ] dx
Vertauschung der Integrale (Satz von Fubini)
(ii)
Fia)
--
/ [ 1R\{O}Ixl
J L J( x, i) dx ] dz
_ 00
Damit sind die ersten beiden Zeilen in (3) gezeigt. Die zweite Zeile der Darstellung
Faltungen von Verteilungen
B 6-24
808016
von fz ergibt sich durch Vertauschen von X mit Y (oder durch Substitution x = z / y
bzwo y =
z / x) 0
Wir zeigen noch, daß der Träger von Z ein offenes Intervall ist:
Zum Nachweis von (iii) betrachten wir für festes y E IR die lineare Funktion
g
y
(x) = x y und erhalten die Darstellung
(iv)
mit
falls
falls
falls
y> 0 }
y= 0
y> 0
Zur Veranschaulichung der folgende Fälle zeichne man die Geraden g
und gß
Cty
Fall1:
O<
- a y .o
Dann ist
U
Tz =
Q
az =
Fall 2:
z
"x> 0
Dann ist
Tz =
X y
ßy< O.o
"
falls
falls
{ a"
axßY
= {
falls
falls
ß.A
ß a
X y
y <y<ß y
ax<O
ßx>O
ßx<O
'
U
Q
falls
falls
ßx>O}
ßx<O
mit
(ßxY,axy) = (az,ßz)
y <y<ß y
}
ßz = { "xaY
aß
X y
falls
falls
a x>O
ax<O
Fall 3:
< 00
O<a
- X oder ß xNach Vertauschen von X mit Y ergibt sich (iii) aus FallJ oder Fall 20
Fall4:
ay<O<ßy und ax<O<ßx
Dann ist
Tz =
U
0
y
mit
(axY,ßxY) = (az,ßz)
ß=VA
z
ß Xa y
}
0
gy[(ax,ßx)] = (az,ßz)
}
mit
ay<y<ßy
az = Min {axßy, ßxay},
ßz = Max {axaY, ßxßy}o
D
Beweis von
(4)
für a E IR
und
+oo
J IY 1-f(zy, Y) dy
-00
für zE IR
0
Faltungen von Verteilungen
B 6-25
808016
Völlig analog (3)0 Für die Verteilungsfunktion Fz von Z =:gilt für a E IR:
(i)
X
Fia) = P{ y <a}
J
{(x,y) I
f:::; a}
~/~ [
f(x,y) d(x,y)
{(x,y) I
- oo
J [
=
.!!:..<a
y-
x
{
_l [
x
< ay
> ay
l
+
f(x,y) dx] dy
folgt
l[
_ff(x,y) ax] ay
dx = y dz
Substitution: x = z y ,
0
_l [
_l [
_l [
J
für y > 0 }
für y < 0
arf(x,y) dx dy
f:::; a}
f(x,y) dx] dy
{ylxoy:::;a}
lR\{0}
Wegen
J
0
l
l
l
T"y f(zy,y) dz dy +
l [_[
y f(zy,y)
dz] dy
_i-y f(zy,y) dz dy +
_iiYI f(zy,y)
_t [
dz
dy +
_[IYI f(zy,y) dz] dy
(auch für y = 0 !)
Vertauschung der Integrale (Satz von Fubini)
Wir zeigen noch, daß der Träger von Z ein offenes Intervall ist:
(iii)
Tz = {: I ax < x<ßx, ay < y <ßy} = (az,ßz)o
1
Wegen Y;=O ist 0\t(ay,ßy), also ßy<O oder O<ayo Dann hat Y- den Träger
(a;\ ß;1) und wegen Z =X 0y-1 folgt (iii) aus dem Beweis von (3)(iii) mit y-1 statt
y
D
Konfidenzgrenzen für den Erwartungswert
B 10-3
15.8.16
10.2* Asymptotische Konfidenzgrenzen für den Erwartungswert
einer beliebigen Verteilung
Beweis von
(x(n))<~t}
(12)
P{4
(13)
P { fL < 4
u, a
o,a
n---+ oo
(x(n)) }
n---+ oo
1-a,
1- a .
Der Beweis gilt für jede konsistente Schätzung a(X(n)), weil dann (10) gilt.
ad {12):
P{4
~Q
(xCn)) < Ii} = P { x(n)- d < Ii}
Q
= p { fo[ x(n) -~t l < z a(x(n))}
Q
= p { u(n)
< z a(x(n))/a}
Q
= P{v(n)
(i)
< 0},
Aus der Konsistenz (10) folgt mit 9.1.1 (3)
z a(x(n))/a
p
a
zQ
n---+oo
0
Mit (8) und dem Theorem von Slutzky ergibt sich
(ii)
v(n)
L
n---+ oo
N(O, 1)- z = N(-z , 1).
a
a
Aus der Eigenschaft (VK)** der Verteilungskonvergenz (für stetige Limes-Verteilungen) ergibt sich mit (i)
------+
n---+oo
ad (14):
Analog (i) ergibt sich
P{~t<4
o,a
(xCn))} = P{~t<X(n)+d}
a
= P{v(n)
Wegen
P{N(-za ,1)<0} = <I>(z)
= 1-a.
a
- u(n)
L
(n---+oo)
P { fL < 4
u,a
-
(X(n)) }
< 0},
v(n) : =- u(n)- z a(x(n))ja.
Q
folgt wieder (ii) und somit.
N(O 1) - N(O 1)
'
n---+oo
-
'
P { N(- z , 1) < 0} = <P(z ) = 1- a.
a
a
D
Konfidenzgrenzen für eine Wahrscheinlichkeit
11.7
B 11-17
15.8.16
Grobe asymptotische (approximative) Konfidenzgrenzen
Beweis von
p
(4)
n---+ oo
a(p).
Nach 9.1.2 (2) (mit p statt p,) gilt
p
P
n---+oo
und da die Funktion a(-) in p stetig ist, folgt (4) mit 9.1.1 (3).
D
Beweis von
(9)
lim P{p
n---+oo
u, a
(x(n)) < p} = 1- a = lim P{p < p
n---+oo
o, a
(x(n))}.
Wie am Ende des Abschnitts ausgeführt wird, ergibt sich (9) als Spezialfall aus
10.2 (12) und (13) für B(1,p)-verteilte Zufallsvariablen X , ... , Xn. Der Vollständigkeit
1
halber geben wir den Beweis trotzdem für diesen Spezialfall an und setzen hierbei
p(n): = p(X(n)), o-(n): = a(ß(X(n))) und a: = a(p). Für die untere Grenze gilt
P{p
u,a
(x(n)) < p} = P{p(n)_ d < p}
a
P{rJn) <z o-(n)ja}
Ct
P{v(n) < 0},
(i)
vgl. (5)
v(n) : = u(n) _ z 5 (n) ja.
Ct
Aus der Konsistenz (4) folgt mit 9.1.1 (3)
z a(x(n))/a
a
p
n---+oo
zQ
0
Mit (5) und dem Theorem von Slutzky ergibt sich
(ii)
v(n)
L
n---+ oo
N(O, 1)- z = N(-z , 1).
a
a
Aus der Eigenschaft (VK)** der Verteilungskonvergenz (für stetige Limes-Verteilungen) ergibt sich mit (i)
------+
n----+ oo
Analog (i) ergibt sich für die obere Grenze
P{N(-z,",1)
<0} = <I>(zJ
= 1-a.
'--''--'-
Konfidenzgrenzen für eine Wahrscheinlichkeit
P{p < p
- u(n)
B 11-18
(x(n))} = P{p < p(n) + d }
o,a
a
= P{v(n)
Wegen
15.8.16
L
N(O 1) - N(O 1)
-
(n---+oo)
< 0},
'
-
'
P{p<p o, a(X(n))} n---+ oo
folgt wieder (ii) und somit.
P{N(-za,1)<o}=<P(z)
=1-a.
a
D
Beweise von
(10)
d (x(n))
Q
p
Vn
n---+ oo
d (x(n))
p
Q
(11)
n---+ oo
Jn(x(n))
Im Beweis setzen wir p(n) = p(X(n)) 1 d~n) = da(x(n)), D(n) =D(x(n)) und verwenden
die Konsistenz p(n)
p sowie die Eigenschaften 9.1.1 (3) und (7).
p
n---+ oo
p
n---+ oo
ad {11):
Aus 11.6 (28) folgt
p
n---+ oo
und "Multiplikation" mit (10) ergibt (11).
D
Beweise zu
(15)
a2(ß(X)) = ~ ~ (Xi-X)2 = n~1 a2(X).
z
Wegen X. E {0, 1} ist x? =X. und somit
z
z
z
= l[~x. _l(~x.?J
n i
z
n i
z
-
-2
X-X
a 2(X) = a 2(ß(X) ).
Damit gilt die erste Gleichheit in (5) und die zweite ergibt sich mit (14).
D
Herunterladen