Dieses Update enthält nur die neuen/geänderten Seiten gegenüber der Auflage vom März 2016 Bew-eise zum Skript Stochastik von Gerhard Osius Dichte von N(O,1) 0 .4 0.2 0 -4 -2 1,0 a 0 2 4 2 4 I Verteilungsfunktion von JN(O, I) 0,9 I I 0,8 I I I I I I I 0 ,7 0,6 I ! 0,5 0.4 <t>(a) 0 ,3 0,2 0 ,1 -4 -2 a 0 August 2016 Fachbereich Mathematik/Informatik Universität Bremen Beweise zur Stochastik 15.8.16 Vorwort- 1 Vorwort Der vorliegende Beweis-Band enthält nur die Beweise für das Skript zur Stochastik. Der Grund für die Trennung der Beweise vom Text-Band war zunächst historisch bedingt, weil das Skripts in den ersten Auflagen noch keine Beweise enthielt. Nachdem mittlerweile die Beweise hinzugekommen sind, habe ich sie dennoch aus verschiedenen Gründen in einem separaten Teil zusammengestellt. Die Beweise sind hier gerrau so aufgeführt, wie sie in der Vorlesung vorgetragen werden - damit die Studierenden nicht mitschreiben müssen und sich auf die Inhalte konzentrieren können. Demzufolge sind die Beweise auch nicht besonders platzsparend sondern eher übersichtlicher dargestellt. Der Begleittext der Beweise ist dagegen extrem kurz gefaßt und besteht oft nur aus Querverweisen oder Stichworten. Einige Beweise fehlen hier, entweder weil sie den hier vorgesehenen Rahmen sprengen würden (was bereits im Skript vermerkt ist) oder weil sie als Übungsaufgaben vorgesehen sind. Inhaltlich unterscheidet sich diese Auflage von der letzten Version (März 2016) zunächst durch einige Korrekturen sowie kleinere Änderungen bzw. Ergänzungen, die durch die jeweiligen Änderungen im Skript bedingt sind. Hinzugekommen bzw. neu formuliert sind die Beweise in den Abschnitten 6.1.4, 10.2 und 11.7. Erfahrungsgemäß enthält das Skript - trotz Korrekturlesen - noch Druckfehler. Bevor man daher am eigenen Verständnis zweifelt, sollte man auch einen Fehler im Skript in Erwägung ziehen. Für Hinweise auf Druckfehler oder andere Kommentare pere-Mail ([email protected]) bin ich dankbar. Bremen, am 15. August 2016 Gerhard Osius Beweise zur Stochastik Inhalt- 1 15.8.16 Inhalt (Beweise) (Seiten pro Kapitel) Kapitel - Seite Für die nicht aufgeführten Abschnitte sind hier keine Beweise vorgesehen. 1. Wahrscheinlichkeitsräume 1.0 1.1 1.2 1.3 1.4 2. Zufallsvariablen und ihre Verteilungen 1-10 1-10 1-11 1-11 1-12 1-12 1-13 1-13 (4) 2-1 2-4 Bedingte Wahrscheinlichkeit und stochastische Unabhängigkeit (6) Bedingte Wahrscheinlichkeit 3.1.1 Wartezeiten und Exponential-Verteilung Stochastische Unabhängigkeit von Ereignissen Produkte diskreter Wahrscheinlichkeitsräume 3.3.1 Bernoulli-Wiederholungen und Binomialverteilung 3-1 3-3 3-3 3-4 3-6 3.1 3.2 3.3 4. 1-1 1-2 1-9 Definition einer Zufallsvariable und ihrer Verteilung Reelle Zufallsvariablen 2.2 2.3 3. Mengensysteme Wahrscheinlichkeitsmaße Endliche Wahrscheinlichkeitsräume 1.2.3 Binomial-Verteilung 1.2.4 * Relative Häufigkeiten Abzählbare Wahrscheinlichkeitsräume 1.3.1 Poisson-Verteilung Reelle Wahrscheinlichkeitsmaße mit Dichten 1.4.1 Normal-Verteilung 1.4.2 Exponential-Verteilung 1.4.3 Stetige Gleichverteilung (13) Verteilungsfunktionen und Dichten 4.1 Verteilungsfunktionen reeller Zufallsvariablen 4.1.1 Quasi-Inverse einer Verteilungsfunktion 4.2 Verteilungsfunktionen diskreter Zufallsvariablen 4.2.2 Binomial-Verteilung 4.2.3 Poisson-Verteilung 4.3 Stetige Zufallsvariablen mit Dichten 4.3.1 Stetige Gleichverteilung 4.3.2 Exponential-Verteilung 4.3.3 Normal-Verteilung 4.4 Dichten transformierter Zufallsvariablen 4.4.1 Lineare Transformationen stetiger Zufallsvariablen 4.4.2 Absolutbetrag und Potenzen stetiger Zufallsvariablen 4.4.3 Log-Normalverteilung 4.4.4 Weibull-Verteilung 4.4.5 Erzeugung von Zufallszahlen Zufallsvektoren 4.5 4.5.1 Mehrdimensionale Borel-Menge (21) 4-1 4-3 4-5 4-6 4-6 4-7 4-10 4-10 4-10 4-11 4-13 4-14 4-15 4-15 4-15 4-16 4-16 Beweise zur Stochastik 5. 6. 2.9.16 Inhalt- 2 4.6 Diskrete Zufallsvektoren 4.6.1 Multinomial-Verteilung 4.7 Stetige Dichten für zweidimensionalen Verteilungen 4.7.1 Zwei-dimensionale Normal-Verteilung 4.9 Endliche Produkte von Wahrscheinlichkeitsräumen 4.9.2 Allgemeiner Fall: beliebige Wahrscheinlichkeitsräume 4.10 Abzählbare Produkte von Wahrscheinlichkeitsräumen 4-16 4-16 4-17 4-18 4-20 4-20 4-21 Stochastische Unabhängigkeit von Zufallsvariablen 5.1 Stochastische Unabhängigkeit diskreter Zufallsvariablen 5.1.1 Randomisierte klinische Vergleichsstudie 5.1.2 Geometrische Verteilung 5.2 Unabhängigkeit bei stetigen Zufallsvariablen mit Dichten 5.2.1 Normalverteilte Zufallsvariablen 5.3 Unabhängigkeit bei Zufallsvektoren Faltungen von Verteilungen 6.1 Faltung diskreter Verteilungen 6.1.1 Binomial-Verteilung 6.1.2 Multinomial-Verteilung 6.1.3 Faltung von Poisson-Verteilungen 6.1.4 Negative Binomial-Verteilungen 6.2 Faltung stetiger Verteilungen mit Dichten 6.2.1 Faltung von Normal-Verteilungen 6.2.2 Faltung von Exponential- und Gamma-Verteilungen 6.2.3 Poisson-Verteilung und Poisson-Prozeß 6.2.4 Elementare Eigenschaften der Gammafunktion 6.3 Arithmetische Operationen von Zufallsvariablen (11) 5-3 5-4 5-5 5-6 5-9 5-10 (25) 6-1 6-1 6-3 6-5 6-6 6-11 6-13 6-15 6-18 6-19 6-20 Beweise zur Stochastik 7. 8. 9. 15.8.16 Inhalt- 3 Parameter von Verteilungen: Erwartungswert, Varianz, Schiefe, Covarianz und Korrelation 7.2 Grundlegende Eigenschaften des Erwartungswerts 7.3 Erwartungswerte spezieller Verteilungen 7.3.1 Erwartungswerte spezieller diskreter Verteilungen 7.3.2 Erwartungswerte spezieller stetiger Verteilungen 7.3.3 Cauchy-Verteilung 7.3.4 Anwendung: Das Sammlerproblem 7.4 Varianz und Standardabweichung 7.5 Varianzen spezieller Verteilungen 7.5.1 Varianzen spezieller diskreter Verteilungen 7.5.2 Varianzen spezieller stetiger Verteilungen 7.6 Symmetrie und Schiefe 7.7 Die Ungleichungen von Chebychev und Markov 7.7.1 Normalverteilung 7.7.2 Empirische Verteilung 7.8 Covarianz, Korrelation und linearer Zusammenhang 7.8.1 Die Covarianz 7.8.2 Der Korrelationskoeffizient 7.8.4 Linearer Zusammenhang und Regressionsgerade Schätzung von Erwartungswert und Varianz (40) 7-1 7-12 7-13 7-15 7-16 7-17 7-20 7-22 7-24 7-31 7-32 7-33 7-34 7-38 7-39 (7) 8.1 Schätzen des Erwartungswerts 8.3 Schätzung der Varianz 8.3.1 Schätzung der Varianz bei bekanntem Erwartungswert 8.3.2 Schätzung der Varianz bei unbekanntem Erwartungswert 8-1 Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz (26) 9.1 9.2 9.3 9.7 9.8 Konvergenz nach Wahrscheinlichkeit und Schwaches Gesetz der großen Zahlen 9.1.1 Eigenschaften der Konvergenz nach Wahrscheinlichkeit 9.1.2 Stochastische Konvergenz und Konsistenz von Schätzern Verteilungskonvergenz und Zentraler Grenzwertsatz Grenzwertsätze für Binomial-Verteilungen 9.3.1 Die Normal-Approximation der Binomial-Verteilung 9.3.3 Die Poisson-Approximation der Binomial-Verteilung Eigenschaften der Konvergenz nach Verteilung Hypergeometrische Verteilungen 9.8.2 Zufälliges Ziehen mit und ohne Zurücklegen 9.8.3 Definition und Eigenschaften der hypergeom. Verteilung 9.8.4 Anwendungen und Schätzungen 9.8.5 Binamial-Approximation der hypergeometrischen Verteilung 9.8.6 Die multivariate hypergeometrische Verteilung 8-2 8-2 9-1 9-2 9-5 9-7 9-9 9-11 9-16 9-17 9-19 9-19 9-20 9-23 Beweise zur Stochastik 15.8.16 10. Konfidenzgrenzen für den Erwartungswert 11 12 Inhalt- 4 (4) 10.1 Exakte Konfidenzgrenzen für den Erwartungswert einer Normal-Verteilung mit bekannter Varianz 10.2 Asymptotische Konfidenzgrenzen für den Erwartungswert einer beliebigen Verteilung 10.3 Exakte Konfidenzgrenzen für den Erwartungswert einer Normal-Verteilung mit unbekannter Varianz Konfidenzgrenzen für eine Wahrscheinlichkeit 11.1 Die exakte obere Konfidenzgrenze nach Clopper-Pearson 11.2 Die exakte untere Konfidenzgrenze nach Clopper-Pearson 11.3 Das exakte zweiseitige Konfidenzintervall 11.4 Berechnung der Grenzen 11.6 Asymptotische (approximative) Konfidenzgrenzen 11.7 Grobe asymptotische (approximative) Konfidenzgrenzen 10-4 (18) 11-1 11-4 11-6 11-7 11-9 11-17 Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 12.1 Konstruktion der exakten oberen Konfidenzgrenze 12.2 Konstruktion der exakten unteren Konfidenzgrenze 12.3 Konstruktion des exakten zweiseitigen Konfidenzintervalls 12.4 Berechnung der exakten Grenzen 12.5 Asymptotische (approximative) Konfidenzgrenzen (9) 12-1 12-3 12-4 12-5 12-7 13. Testen von Hypothesen über Wahrscheinlichkeiten 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale Test zum vorgegebenen Niveau 13.2 Der exakte einseitige Test mit unterer Alternative 13.3 Der exakte zweiseitige Binomial-Test 13.4 Asymptotische Tests 13.4.1 Der asymptotische einseitige obere Test 13.4.2 Der asymptotische einseitige untere Test 13.4.3 Der asymptotische zweiseitige Test 13.5 Planung des erforderlicher Stichproben-Mindestumfangs 13.5.1 Der einseitige obere Test 14. Tests für den Erwartungswert der Poisson-Verteilung 14.1 Der einseitige Poisson-Test mit oberer Alternative 14.1.1 Der exakte einseitige obere Poisson-Test 14.1.2 Der asymptotische einseitige obere Poisson-Test 14.2 Der einseitige Poisson-Test mit unterer Alternative 14.2.1 Der exakte einseitige untere Poisson-Test 14.2.2 Der asymptotische einseitige untere Poisson-Test 14.4 Der zweiseitige Poison-Test 14.4.2 Der asymptotische zweiseitige Poisson-Test 10-1 10-3 (12) 13-1 13-2 13-4 13-5 13-7 13-10 13-12 (8) 14-1 14-2 14-4 14-5 14-7 14-8 Faltungen von Verteilungen B6-7 8.8.16 Beweis von 00 (3) 0. P{l:X.<n} z= 1 z 0 FürfestesN EW:sei AN= {XN+n=OfürallenEW} Aus 5.1.2 (5)- angewandt auf die Folge (XN+n)nElN- ergibt sich P(AN) = 0. Es folgt: P( U AN)= NE lN lim P(AN) = 0, Stetigkeit von unten, da (AN) aufsteigend. N---+oo 00 Nun gilt: 2:: X.< n z z= 1 ::::} es gibt ein NE W mit XN +n = 0 für allen E W 0 00 Also P{l:X.<n} < D 0. i=l z Beweis von (4) Y<k ad "::::}": Für Y < k gibt es ein l E {0, ... , k} mit Y = l und nach (1) ist X 1 + ... +Xz+n = n. Wegen Xz+n+l + ... + Xk+n > 0 folgt Xl + ... +Xk+n > n. ad "~": Für X 1 + ... +Xk+n > n ist mit (i) X.=1. z Wegen Xz E {0, 1} ist n = X 1 + ... + Xi < i < k + n. Also gibt es em l E {0, ... , k} mit i = l + n. Nach (i) und (1) ist Y = l und somit Y < k. D < i, also n Beweis von (5) P{NB(n,p) < k} = P{B(k+n,p) > n} Wir geben zwei Beweise an. Der erste Beweis verwendet die Beziehung (4) und der zweite nur die Definition der Zähldichte (2) von NB( n, p). Es sei wieder q = 1- p. 1. Beweis: Aus L(Y) = NB(n,p), L(X 1 + ... +Xk+n) = B(k+n,p) und (4) folgt (5). Faltungen von Verteilungen B6-8 8.8.16 2. Beweis: Induktion über k Für (beliebige) Zufallsvariablen U ""'NB(n,p) und Vk ,..__,ß(k+n,p) ist zu zeigen (i) P{U<k} = P{Vk>n} Für k = 0 gilt (i) wegen P{U<O} = P{U=O} = pn, P{V0 >n} = P{V0 =n} =pn nach (2). Für den Induktionsschritt k 1-----+ k + 1 verwenden wir em Vk+ 1 = Vk + W wobei W'"'"' B(1, p) stochastisch unabhängig von Vk ist. Nach Induktionsvoraussetzung ist (ii) P { U < k + 1} = P { U < k} + P { U = k + 1} = P {Vk > n} + P { U = k + 1} = q·P{Vk>n} + p·P{Vk>n} +P{U=k+1}. Andererseits gilt P{Vk >n-1} =P{Vk =n-1} +P{Vk >n} (iii) und somit P{Vk+ 1 > n} = P{Vk + W> n} =P{W=O, Vk >n}+P{W=1, Vk >n-1} = q·P{Vk >n}+ p·P{Vk >n-1} = q·P{Vk >n}+ p·P{Vk =n-1} + p·P{Vk >n}. Für die Gleicheit der linken Seiten in (ii) und (iii) bleibt also zu zeigen (iv) P { U = k + 1} = p · P {Vk = n- 1}. Nach (2) ist p { U = k + 1} = ( ~ +~) pn _ _ P { V k-n +k) P 1} -_(nn-1 l+ 1 n-1 k+ 1 q und woraus (iv) folgt. D Faltungen von Verteilungen B6-9 8.8.16 Beweis von (unter Verwendung von (8)) (7)' Für stochastisch unabhängige Y , ... , Yn mit Geo(p)-Verteilung gilt: 1 n cL( 2: Y.) = NB(n,p). z 0 z=l Induktion über n. Für n = 1 ist nichts zu zeigen. Zum Induktionsschritt n n Nach Induktionsvor. gilt Z: = 2: Y. "' NB(n,p) z f-----t n + 1: 0 z=l und Z ist stochastisch unabhängig von Y n+ "' Geo(p) nach 5.3 Satz 3 (Folgerung). 1 Der Träger von Z + Yn+ 1 ist W0 + W0 = W0, und für k E W0 ist nach 6.1 (3) 00 P { Z + Y n+ 1 = k } = i ~ 0 k 2: . z=0 k 2: P { Y n+ 1 = i } · P { Z = k- i } P{ Y n +1 =i} · P{Z=k-i} pqz · ( n + k- da P{Z< 0} = 0 i-1) pn qk-i n-1 i =0 vgl. (6). D Faltungen von Verteilungen Beweis von k B 6-10 8.8.16 0 2: c~~;1) (8) i=O Induktion über k. trivial, da(~) = 1. k = 0: k+l 2: (z+n-1) k 1-----+ k + 1: i=O 0 n-1 (k!n) + (~~~) nach Induktions-Vor. (k+~+n) vgl. (i) unten. Der Vollständigkeit halber zeigen wir noch für a, r E W 0 Dies ergibt sich unter Verwendung absteigender Produkte (vgl. 9.8.2 (17)) wie folgt (a)r-1· r + (a)r-1 · (a-r+l) r! (a)r-1 (a)r +(r-1)! r! (a+l) · (a)r-1 r! = (a+l)r . r! D Beweis von Der Beweis verläuft völlig analog zur Multinomialverteilung, d.h. zu 6.1.2 (2). Seien X.~ NB(1,p) für i = 1, ... , n ~ NB(1,p) für k = 1, ... , n 2 z Yk sodaß x1, .... , X ' Y1, ... , y (i) L(X+) = NB(nl'p), nl n2 1 stochastisch unabhängig. Aus (5) I folgt L(X+ + Y +) = NB([n 1 + n 2 ], p). Da die beiden Zufallsvektoren X+ und Y + nach 5.3 Satz 3 (Folgerung) stochastisch unabhängig sind folgt die Behauptung mit (i), weil (ii) D Faltungen von Verteilungen 6.2 8.8.16 B 6-11 Faltung stetiger Verteilungen mit Dichten Beweis von (1) ( ax +ay, ßx +ßy), ad T +T " X Y c T '': Z ax<x<ßx, (i) ay<y<ßy ay < z-ax, Die beiden Intervalle (z- ßx,z- ax) und (ay,ßy) sind daher nicht disjunkt: sonst müßte z- ax < ay oder ßy < z- ßx gelten - im Widerspruch zu (i). Also gibt es ein x E T X und ein y E T Y mit z- x = y. Damit ist z = x + y E T X+ T y· Beweis von (2) für zE Tz. Da wir hier Dichten f X und f Y betrachten, die auf dem jeweiligen Träger stetig sind, wollen wir (2) nur unter der zusätzlichen Voraussetzung beweisen, daß die durch (2) definierte Funktion fz stetig auf Tz ist. - Sei f die Dichte von (X, Y), die außerhalb des Trägers T = T x x T Y identisch 0 ist. Dann gilt für die Verteilungsfunktion Fz von Z=X + Y: Faltungen von Verteilungen (i) B 6-12 8.8.16 für a E IR Fia) = P{X+Y<a} J f(x,y) d(x,y) {(x,y) I x+y::::; a} II {(x,y) ly::::;a-x} Veranschaulichung: Graphik! _t ( _Tf(x,y) dy) dx Substitution z=x+y, y=z-x _L+oo( _L f(x,z- x) dz a ) dx f(x,z-x) = 0 z<a ==aX +a Y' ax<x Z ßx z-x<a y a ::::} ::::} f(x,z-x) = 0 J ( J f( x, z- x) dz ) dx rxx Vertauschung der Integrale (Satz von Fubini) rxz ßx a J ( J f( x, z- x) dx ) dz = rxz rxx Die Herleitung von (i) gilt auch ohne die Voraussetzung, daß X und Y stochastisch unabhängig sind, was später beim Beweis von 6.3 (1) verwendet wird. Wegen der stochastischen Unabhängigkeit ergibt sich aus 5.2 Satz jetzt und mit (i) folgt a Fia) = J fiz) dz az ßx mit fiz) = J fx(x) -fy(z- x) dx ax Die Dichte von Z ist daher auf Tz= (az,ßz) gegeben durch F; =fz· Die Darstellung (2) gilt sogar auch für z < a z bzw. z > ß z = ß x + ß Y' weil das erste Integral dann = 0, ist: für a x<x< - ß x folgt z- x < - a Y bzw. z- x > - ß Y und somit J'~(x, z- x) = 0. Durch Vertauschen von X mit Y ergibt sich, daß auch die zweite Darstellung von fz in (2) die Dichte Fz' von Z ist, und somit beide Darstellungen in (2) übereinstimmen. D Faltungen von Verteilungen B 6-13 808016 6.2.1 Faltung von Normal-Verteilungen Beweis von (1) mit Seien X 0 ,. . .__ N(p, 0' a?) stochastisch unabhängig für i = 1, z z z Aus der Dichte von X Spezialfall: (i) 1 f.(z x) = a.- l27r - exp 2y 0 {-l 0 2 L.,J( x~ a.2 20 0 z für i = 1, 2 } ergibt sich mit 6.2 (2) die Dichte f z von Z = X1 +X2 auf Tz= IR zu +oo (ii) fiz) = J j 1(x) -j2(z- x) dx -00 +oo 1 2 1r a a 1 J 0 2 -00 2 1 [ -x ex { - P 2 a2 1 + ~]} dx a2 2 Wir betrachten die Substitution (iii) Mit folgt x2 = 2 + a1 Also: 1 - 21ra _ J ~ a y'21r 00 0 vgl. (iii)o 2 a2 +oo 0 (z-x) 2 exp {-l [u 2 2 exp{-l ~} 2 2 a + za ~ J } du +oo 0 1 2 - exp{-l u } du J y'27r 2 _ 00 +oo J II cp(u) du= 1 -00 Also ist fz die Dichte von N(O, a 2 ), doho (1) gilt im Spezialfall p, = p, = 00 1 2 Faltungen von Verteilungen B 6-14 808016 Allgemeiner Fall: Für i = 1, 2 sind U 0 : = (X 0-p, 0) z z z aus dem Spezialfall folgt "' N( 0, a ?) stochastisch unabhängig (5.3 Satz 1) und z vgl. 4.4.1 (7)0 Also: D Beweise von (2) Für a, ß E IR mit (3) Für stochastisch unabhängige X , 000, X mit L(Xo) =N(p,o,a?) für alle 1 n z z z n n n i = 1, 000, n gilt: cL( 02: X z0) = N( 02: p, z0' 02: a?) z 0 z=l z=l z=l ad (2): Mit 4.4.1 (7) ergibt sich: * * ad {3): ß ;= 0 gilt: la [(a+ßX)- (a+ßp,)] = ; [X-p,] "'N(0,1) (a+ßX) "'N([a+ßp,], [ßa] 2 )0 Folgt per Induktion aus (1)0 D Faltungen von Verteilungen B 6-15 8.8.16 6.2.2 Faltung von Exponential- und Gamma-V erteil ungen Beweis von (4) c · Gam( a,ß) = Gam( a,cß) für c>O. Für X "' Gam( a,ß) ergibt sich die Dichte von c X nach 4.4.1 (6) zu f cX(x) = lc fX\c (~) ~ ·!(~I a~ß) für 1 ·ß-a(~)a- 1 exp{ 1_ · c r(a) c x> 0 -xj(cß)} r(a) ·(cßfaxa-1exp{ -xj(cß)} = f(x I 0!1 cß). Also ist cX "'Gam( a,cß). D Beweise zu (6) für f a ist für a < 1 eine streng fallende Kurve und für a > 1 eine schiefe Glockenkurve mit einem Maximum in z Es ist ! ' (z ) Q z> 0 = - 1 [( a-1) z a-2 e-z - z a-1 e-z] r(a) max = a-1. für z> 0 für z> 0 - 1 ·za-1 e-z · [( a-1 ) z-1 -1 J r(a) fa(z) · [(a-1) z- 1 -1 J. Füra<1ist: [(a-1)z- 1 -1]<0 f' (z) < 0 Q und somit ist f streng fallend. a Füra>1gilt: f~(z)~O {} [(a-1)z- -1] ~ 0 1 == (a-1) < ~ z für z>O. ) streng wachsend und auf (z max ,oo) streng fallend mit eiAlso ist f auf (0, z a max nem Maximum in z D {} max z max Faltungen von Verteilungen Beweis von (9) Übung! 8.8.16 B 6-16 Faltungen von Verteilungen B 6-17 8.8.16 Beweise von P{ Gam(n, -A-1) < a} (11) P{ Gam(n, 1) < a-A} n-1 'I\' 1 ( ')i 1 - e-a>. · u ""'! a /\ z i=O 0 P{ Pois(a-A) Es ist: P{ Gam(n, -A-1) < a} für a > 0. > n} P { ,\-1 · Gam( n, 1) < a} vgl. (4) P{ Gam(n, 1) < a-A} und P{ Pois(a-A) 1 - P { Pois( a A) < n- 1} > n} n-1 'I\' 1 ( ')i 1 - e-a>. · u ""'! a /\ . z z=O 0 0 Zu zeigen bleibt für z: = a A P { Gam( n, 1) < z} (i) n-1 -z 'I\' 1 · u ""'! z z 1- e 0 z=O i 0 Der Beweis erfolgt per Induktion· n = 1: Für Gam(1, 1) = Expo(1) ist P{ Expo(1) <z} = 1- e-z Induktionsschritt n f-----t vgl. 4.3.2, d.h. (i) gilt. n +1 z P { Gam( n + 1, 1) < z} = J f( x In+ 1, 1) dx 0 z 1.. Jxne-xdx da T(n+1) = n! n! 0 Durch partielle Integration mit g(x) = xn und h(x) =- e-x ergibt sich z P{Gam(n+1,1)<z} = ~![-xne-x]~ +~! Jnxn- 1 e-xdx 0 z 1 n -z --z e + n! J f(xl n,1) dx 0 1 n -z --z e + P { Gam(n, 1) < z} n! 1 n -z -z + 1- e --z e n! n-1 'I\' 1 i ·u ""'! z i=O -z 1-e n nach Ind.-Vor. . 'I\' 1 z ·u""'!z. i=O z. z 0 D Faltungen von Verteilungen B 6-18 808016 6.2.3 Poisson-Verteilung und Poisson-Prozeß Beweise von (3) Max { k E W0 I Sk < t} (4) sk < t (5) sk < t < sk+l ad {3): Aus Tk > 0 folgt 5 0 < 51 < 5 2 ad (4): Nach (3) gilt SX t < to 0 0 < 000 <Sn' und somit gilt (3)0 Da die Folge (Sn) monoton wachsend ist, folgt Die Umkehrung"~" in (4) folgt sofort mit (3)0 ad (5): und X =k t vgl. (4)0 und Beweis von (6) für t> 0 0 Für n E W gilt: (i) P{ Xt > n} = P{ Sn< t} vgl. (4) = P{ Gam(n, -A-1) = P{ Pois(t-A) < t} > n} daS "'Gam(n, -A-1), vgl. 6.2.2 (10) n vgl. 6.2.2 (11) Hieraus folgt die Behauptung, weil für 1-L = t-A P{Xt=n} = P{n<Xt<n+l} > n}- P{ Pois(f-L) > n+l} P{ Pois(f-L) = n} = P{ Pois(f-L) = für nEW D Faltungen von Verteilungen B 6-19 8.8.16 6.2.4 Elementare Eigenschaften der Gammafunktion Beweise von T(x) x> 0. (2) r(x+1) (3) T(l) (5) r(~) = ad (2): Partielle Integration mit g( t) = tx und h( t) =- e- t liefert X· für =1 v; 00 00 T(x+1) = J tx · e-t dt [- tx · e-t] 0 0 00 + J xtx- 1 . e-t dt 0 00 x · J t x-1 · e-t dt x · T(x). D 0 00 ad {3): T(1) = Je-t dt 0 ad (5): Der Beweis geht auf Emil Artirr (The Gamma Function, New York 1964) zurück und verwendet die folgende Darstellung der Beta-Funktion 1 (i) B(x,y) = Jtx- 1 (1-t)y- 1 dt für x, y > 0 0 durch die Gamma-Funktion (ii) T(x) · T(y) B( x, Y) = r( x + Y) die im Beweis von 6.2.2 (6) hergeleitet wurde. Für x = y = ~ ergibt sich mit (3) (iii) B( ~, ~) (iv) B(~, ~) = J [t(1-t)]- 1/ 2 dt = r( ~) 2, und zu zeigen bleibt 1 = 1r. 0 Mit der Substitution t = sin 2(x) und dt = [2 sin (x) cos(x)] dx ist t(1- t) und B(~, ~) 2 2 2 2 = sin (x) [1- sin (x)] = sin (x) cos (x), K/2 = J 0 12 [sin (x) cos (x)]- / [2 sin(x) cos(x)] 2 2 K/2 dx = 2 J dx = 0 1r. D Faltungen von Verteilungen 6.3 B 6-20 8.8.16 Arithmetische Operationen von Zufallsvariablen Da wir bisher nur Dichten betrachtet haben, die auf dem jeweiligen Träger stetig sind, wollen wir die Behauptungen hier nur unter der zusätzlichen Voraussetzung beweisen, daß die durch (1) - (5) definierten Funktion!X+Y J X-Y ,fX·Y ,JX I Y J X undfY auf dem jeweiligen Träger stetig sind. Beweis von (1) für a EIRund P{X+Y<a} +oo J j( X, Z- X) dx ßx J -00 rxX ßy J f(z-y,y) dy +oo J j( X, Z- X) dx f(z-y,y) dy für zE IR. (Xy -00 Z=X + Y hat nach 6.2 (1) den Träger Tz= (az,ßz) = ( ax+ay, ßx+ßy) und für die Verteilungsfunktion Fz von Z gilt nach (i) im Beweis von 6.2 (2) a (i) Fia) -- J fiz) dz für a E IR, und az ßx (ii) fiz) J j( X, Z- X) dx rxX +oo J j( X, Z- X) dx -00 In (ii) ist für z<az bzw. z>ßz=ßx+ßy das erste (und auch das zweite) Integral = 0, weil für ax < x < ßx dann z- x < ay bzw. z- x > ßy gilt und somit f(x, z- x) = 0 ist. Also gilt die zweite Darstellung von Fz in (1) und die erste Zeile der Darstellung von fz· Die zweite Zeile der Darstellung von fz ergibt sich durch Vertauschen von X mit Y (oder durch Substitution x = z- y bzw. y = z- x). D Faltungen von Verteilungen B 6-21 8.8.16 Beweis von a (2) 1 fx_y(z) Fx_y(a) = P{X-Y<a} dz für a E IR und -00 +oo fx_y(z) 1 ßx 1 f(x, x- z) dx -00 f(x, x- z) dx rxX ßy +oo 1 1 f(z+y,y) dy (Xy -00 f(z + y, y) dy für zE IR. Wir geben zwei Beweise an. Der erste Beweis führt (2) auf (1) zurück und der zweite Beweis verläuft analog dem Beweis von (1), 1. Beweis: Für V=- Y ist X- Y =X+ V und wir können (1) auf (X, V) anwenden, wenn wir die Dichte von (X, V) bestimmen. Der Träger von V ist T v = (- ßy,- ay) und der von (X, V) somit Tx x T v· Die Verteilungsfunktion von (X, V) ergibt sich zu (i) F(X,V)(a,b) = P{X<a V<b} 1 = P{X<a)Y>-b} a ßy J (J x a f( x, y) dy ) dx Substitution: -ß J (- ( V =-y f(x,-v) dv) dx X b a 1 ( 1 f(x,-v) rxX dv) dx -ßy Damit definiert (ii) !(X, V)( a, b) : = !( a,- b) eine stetige Dichte von (X, V) auf dem Träger T x x T V' und (1) angewandt auf (X, V) liefert die Behauptung (2). 2. Beweis: Nach 6.2 (1) hat Z =X- Y den Träger mit Für die Verteilungsfunktion Fz von Z =X- Y gilt: Faltungen von Verteilungen (iii) B 6-22 8.8.16 für a E IR Fia) = P{X-Y<a} J f(x,y) d(x,y) {(x,y) I x-y::::; a} II {(x,y) I x-a ::::; y} Veranschaulichung: Graphik! too( xja toof(x,y) dy )dx _L Substitution y=x-z z=x-y, too( - -oo j f(x,x-z) dz )dx _L too( _L f(x,x-z) dz a _L ßx ( / 0 a ) Tausch der Grenzen des inneren Integrals dx xtf:.Tx f(x,x-z) = 0 z<az= ax-ßy, ax<x x-z>ß - y f(x,x-z) = 0 ) _Lf(x,x-z) dz dx X ßx a J ( J f(x,x-z) ::::} ::::} dz) dx Vertauschung der Integrale (Satz von Fubini) rxx rxz a ßx J ( J f(x,x-z) dx) dz rxz rxx a J fiz) mit dz az (iv) ßx f(x,x-z) dx = J rxX +oo J f(x,x-z) dx -00 In (iv) ist für z < a = a X - ß Y bzw. z > ß = ß X - a Y das erste (und auch das zweite) - Z - Z Integral = 0, weil für ax < x < ß x dann x- z > ßy bzw. x- z < ay gilt und somit f(x, x- z) = 0 ist. Also gilt die zweite Darstellung von Fz in (2) und die erste Zeile der Darstellung von fz· Die zweite Zeile der Darstellung von fz ergibt sich durch Vertauschen von X mit Y (oder durch Substitution x = z- y bzw. y = z- x). D Faltungen von Verteilungen B 6-23 8.8.16 Beweis von a 1 fx.y(z) (3) für a E IR dz mit -00 0 00 1 1 ·f(x, !.) dx = 1R\{O}Ixl X 1 0 1 ~ -f(x, ~) dx l.J(x, ~) dx X -oo X Für die Verteilungsfunktion Fz von Z =X· Y gilt für a E IR: (i) Fz(a) = P{X·Y<a} 1 f(x,y) d(x,y) {(x,y) I xy ::::;a} r[ J = J [ J lR\{0} Wegen { xy<a _l [ Fz(a) y<!!:. -x für x> 0 y>!!:. -x für x< 0 l !(x, y) dy dx {y I xy ::::;a} -oo !(x, y) dy ] dx {ylxy::::;a} } folgt l [_{' a if(x,y) dy] dx + f(x,y) dy] dx X z Substitution: y=-x, _L j 0 [ /[ /1. 00 _ 00 lxl J [ / lR\{0} l ~-f(x, ~) dz dx -00 _l [_i-± _ dy = l.dz f(x, i) dz] dx f(x,i)dz]dx 1_ -oolxl X + l [_i ± + ..................... + J( x, i) dz ] dx J' [ / LJ(x,i) dz] dx 0 _ 00 lxl J( x, i) dz ] dx Vertauschung der Integrale (Satz von Fubini) (ii) Fia) -- / [ 1R\{O}Ixl J L J( x, i) dx ] dz _ 00 Damit sind die ersten beiden Zeilen in (3) gezeigt. Die zweite Zeile der Darstellung Faltungen von Verteilungen B 6-24 808016 von fz ergibt sich durch Vertauschen von X mit Y (oder durch Substitution x = z / y bzwo y = z / x) 0 Wir zeigen noch, daß der Träger von Z ein offenes Intervall ist: Zum Nachweis von (iii) betrachten wir für festes y E IR die lineare Funktion g y (x) = x y und erhalten die Darstellung (iv) mit falls falls falls y> 0 } y= 0 y> 0 Zur Veranschaulichung der folgende Fälle zeichne man die Geraden g und gß Cty Fall1: O< - a y .o Dann ist U Tz = Q az = Fall 2: z "x> 0 Dann ist Tz = X y ßy< O.o " falls falls { a" axßY = { falls falls ß.A ß a X y y <y<ß y ax<O ßx>O ßx<O ' U Q falls falls ßx>O} ßx<O mit (ßxY,axy) = (az,ßz) y <y<ß y } ßz = { "xaY aß X y falls falls a x>O ax<O Fall 3: < 00 O<a - X oder ß xNach Vertauschen von X mit Y ergibt sich (iii) aus FallJ oder Fall 20 Fall4: ay<O<ßy und ax<O<ßx Dann ist Tz = U 0 y mit (axY,ßxY) = (az,ßz) ß=VA z ß Xa y } 0 gy[(ax,ßx)] = (az,ßz) } mit ay<y<ßy az = Min {axßy, ßxay}, ßz = Max {axaY, ßxßy}o D Beweis von (4) für a E IR und +oo J IY 1-f(zy, Y) dy -00 für zE IR 0 Faltungen von Verteilungen B 6-25 808016 Völlig analog (3)0 Für die Verteilungsfunktion Fz von Z =:gilt für a E IR: (i) X Fia) = P{ y <a} J {(x,y) I f:::; a} ~/~ [ f(x,y) d(x,y) {(x,y) I - oo J [ = .!!:..<a y- x { _l [ x < ay > ay l + f(x,y) dx] dy folgt l[ _ff(x,y) ax] ay dx = y dz Substitution: x = z y , 0 _l [ _l [ _l [ J für y > 0 } für y < 0 arf(x,y) dx dy f:::; a} f(x,y) dx] dy {ylxoy:::;a} lR\{0} Wegen J 0 l l l T"y f(zy,y) dz dy + l [_[ y f(zy,y) dz] dy _i-y f(zy,y) dz dy + _iiYI f(zy,y) _t [ dz dy + _[IYI f(zy,y) dz] dy (auch für y = 0 !) Vertauschung der Integrale (Satz von Fubini) Wir zeigen noch, daß der Träger von Z ein offenes Intervall ist: (iii) Tz = {: I ax < x<ßx, ay < y <ßy} = (az,ßz)o 1 Wegen Y;=O ist 0\t(ay,ßy), also ßy<O oder O<ayo Dann hat Y- den Träger (a;\ ß;1) und wegen Z =X 0y-1 folgt (iii) aus dem Beweis von (3)(iii) mit y-1 statt y D Konfidenzgrenzen für den Erwartungswert B 10-3 15.8.16 10.2* Asymptotische Konfidenzgrenzen für den Erwartungswert einer beliebigen Verteilung Beweis von (x(n))<~t} (12) P{4 (13) P { fL < 4 u, a o,a n---+ oo (x(n)) } n---+ oo 1-a, 1- a . Der Beweis gilt für jede konsistente Schätzung a(X(n)), weil dann (10) gilt. ad {12): P{4 ~Q (xCn)) < Ii} = P { x(n)- d < Ii} Q = p { fo[ x(n) -~t l < z a(x(n))} Q = p { u(n) < z a(x(n))/a} Q = P{v(n) (i) < 0}, Aus der Konsistenz (10) folgt mit 9.1.1 (3) z a(x(n))/a p a zQ n---+oo 0 Mit (8) und dem Theorem von Slutzky ergibt sich (ii) v(n) L n---+ oo N(O, 1)- z = N(-z , 1). a a Aus der Eigenschaft (VK)** der Verteilungskonvergenz (für stetige Limes-Verteilungen) ergibt sich mit (i) ------+ n---+oo ad (14): Analog (i) ergibt sich P{~t<4 o,a (xCn))} = P{~t<X(n)+d} a = P{v(n) Wegen P{N(-za ,1)<0} = <I>(z) = 1-a. a - u(n) L (n---+oo) P { fL < 4 u,a - (X(n)) } < 0}, v(n) : =- u(n)- z a(x(n))ja. Q folgt wieder (ii) und somit. N(O 1) - N(O 1) ' n---+oo - ' P { N(- z , 1) < 0} = <P(z ) = 1- a. a a D Konfidenzgrenzen für eine Wahrscheinlichkeit 11.7 B 11-17 15.8.16 Grobe asymptotische (approximative) Konfidenzgrenzen Beweis von p (4) n---+ oo a(p). Nach 9.1.2 (2) (mit p statt p,) gilt p P n---+oo und da die Funktion a(-) in p stetig ist, folgt (4) mit 9.1.1 (3). D Beweis von (9) lim P{p n---+oo u, a (x(n)) < p} = 1- a = lim P{p < p n---+oo o, a (x(n))}. Wie am Ende des Abschnitts ausgeführt wird, ergibt sich (9) als Spezialfall aus 10.2 (12) und (13) für B(1,p)-verteilte Zufallsvariablen X , ... , Xn. Der Vollständigkeit 1 halber geben wir den Beweis trotzdem für diesen Spezialfall an und setzen hierbei p(n): = p(X(n)), o-(n): = a(ß(X(n))) und a: = a(p). Für die untere Grenze gilt P{p u,a (x(n)) < p} = P{p(n)_ d < p} a P{rJn) <z o-(n)ja} Ct P{v(n) < 0}, (i) vgl. (5) v(n) : = u(n) _ z 5 (n) ja. Ct Aus der Konsistenz (4) folgt mit 9.1.1 (3) z a(x(n))/a a p n---+oo zQ 0 Mit (5) und dem Theorem von Slutzky ergibt sich (ii) v(n) L n---+ oo N(O, 1)- z = N(-z , 1). a a Aus der Eigenschaft (VK)** der Verteilungskonvergenz (für stetige Limes-Verteilungen) ergibt sich mit (i) ------+ n----+ oo Analog (i) ergibt sich für die obere Grenze P{N(-z,",1) <0} = <I>(zJ = 1-a. '--''--'- Konfidenzgrenzen für eine Wahrscheinlichkeit P{p < p - u(n) B 11-18 (x(n))} = P{p < p(n) + d } o,a a = P{v(n) Wegen 15.8.16 L N(O 1) - N(O 1) - (n---+oo) < 0}, ' - ' P{p<p o, a(X(n))} n---+ oo folgt wieder (ii) und somit. P{N(-za,1)<o}=<P(z) =1-a. a D Beweise von (10) d (x(n)) Q p Vn n---+ oo d (x(n)) p Q (11) n---+ oo Jn(x(n)) Im Beweis setzen wir p(n) = p(X(n)) 1 d~n) = da(x(n)), D(n) =D(x(n)) und verwenden die Konsistenz p(n) p sowie die Eigenschaften 9.1.1 (3) und (7). p n---+ oo p n---+ oo ad {11): Aus 11.6 (28) folgt p n---+ oo und "Multiplikation" mit (10) ergibt (11). D Beweise zu (15) a2(ß(X)) = ~ ~ (Xi-X)2 = n~1 a2(X). z Wegen X. E {0, 1} ist x? =X. und somit z z z = l[~x. _l(~x.?J n i z n i z - -2 X-X a 2(X) = a 2(ß(X) ). Damit gilt die erste Gleichheit in (5) und die zweite ergibt sich mit (14). D