Grundstudium Mathematik Wahrscheinlichkeitsrechnung Bearbeitet von Dominique Foata, Aime Fuchs 1. Auflage 1999. Taschenbuch. xv, 383 S. Paperback ISBN 978 3 7643 6169 3 Format (B x L): 17 x 24,4 cm Gewicht: 783 g Wirtschaft > Betriebswirtschaft: Theorie & Allgemeines > Wirtschaftsmathematik und statistik Zu Inhaltsverzeichnis schnell und portofrei erhältlich bei Die Online-Fachbuchhandlung beck-shop.de ist spezialisiert auf Fachbücher, insbesondere Recht, Steuern und Wirtschaft. Im Sortiment finden Sie alle Medien (Bücher, Zeitschriften, CDs, eBooks, etc.) aller Verlage. Ergänzt wird das Programm durch Services wie Neuerscheinungsdienst oder Zusammenstellungen von Büchern zu Sonderpreisen. Der Shop führt mehr als 8 Millionen Produkte. KAPITEL 9 ERZEUGENDE FUNKTIONEN In diesem Kapitel werden ganz speziell diejenigen diskreten Wahrscheinlichkeitsverteilungen behandelt, deren Träger die natürlichen Zahlen sind. Dabei geht es auch um die Zufallsvariablen, die solche Verteilungen haben. Es wird gezeigt, wie man derartige Verteilungen mit Potenzreihen so in Verbindung bringen kann, dass man die charakteristischen Grössen dieser Verteilungen, wie Erwartungswert und Momente, mit Mitteln der klassischen Analysis von Reihen berechnen kann. 1. Definitionen. — Es bezeichne M die Menge der Wahrscheinlichkeitsverteilungen der Form ∞ αi εi P= i=0 und M die Menge der reellen, diskreten Zufallsvariablen, die auf einem Wahrscheinlichkeitsraum (Ω, A, P) definiert sind und deren Verteilung zu M gehört. Gemäss der im vorhergehenden Kapitel gegebenen Definition ist ∞das Faltungsprodukt von P mit einer Wahrscheinlichkeitsverteilung Q = j=0 βj εj gleich der Wahrscheinlichkeitsverteilung ∞ ∞ αi βj ε(i+j) . (1.1) P∗Q= i=0 j=0 Dafür schreibt man auch ∞ γk εk , P∗Q= wobei γk = k αi βk−i (k ≥ 0). i=0 k=0 Satz1.1. — Es seien P, Q, R, . . . Wahrscheinlichkeitsverteilungen der Familie M; dann gelten folgende Eigenschaften: (i) (ii) (iii) (iv) (v) P∗Q ∈ M; P∗Q = Q∗P; P ∗ (Q ∗ R) = (P ∗ Q) ∗ R ; εn ∗ εm P ∗ ε0 = ε0 ∗ P = P ; = ε(n+m) für n ≥ 0 und m ≥ 0. 122 KAPITEL 9: ERZEUGENDE FUNKTIONEN Alle diese Eigenschaften sind unmittelbare Folgerungen aus der Definition des Faltungsproduktes, welches die Form (1.1) für die Wahrscheinlichkeitsverteilungen aus M hat. Wegen (iii) kann man für jedes P ∈ M dessen Potenzen P1∗ = P definieren. Speziell ist und εn∗ 1 = εn Pn∗ = P ∗ P(n−1)∗ (n ≥ 2) für alle n ≥ 1. Der folgende Satz ist somit eine Konsequenz dieser letztgenannten Eigenschaft und des Satzes 3.2 aus Kapitel 8. Satz 1.2. — Es sei P eine zu M gehörende Wahrscheinlichkeitsverteilung. Die Summe Sn von n (n ≥ 1) reellen, diskreten und unabhängigen Zufallsvariablen, die alle die gleiche Verteilung P haben, hat ihrerseits Pn∗ als Verteilung. Es bezeichne nun M(s) die Menge der Potenzreihen in einer Variablen s, deren Koeffizienten nichtnegative reelle Zahlen sind und deren Summe gleich 1 ist, also ∞ ∞ αi si : αi ≥ 0, αi = 1 . M(s) = i=0 i=0 Der folgende Satz ist wiederum eine unmittelbare Folgerung aus der Definition des Faltungsproduktes für M, wobei man sich nur daran erinnern muss, dass in M(s) das Produkt von zwei Potenzreihen den üblichen Rechenregeln der Distributivität gehorcht und auf der Rechenregel si sj = si+j für Potenzen aufbaut. Satz 1.3. — DieAbbildung P → GP (s), die jeder Wahrschein∞ lichkeitsverteilung P = i=0 αi εi aus M die Potenzreihe (1.2) GP (s) = ∞ αi si i=0 zuordnet, ist eine Bijektion von M auf M(s) mit der Eigenschaft (1.3) GP∗Q (s) = GP (s) GQ (s), für alle P, Q aus M. Die Potenzreihe GP (s) aus (1.2) heisst die erzeugende Funktion der Wahrscheinlichkeitsverteilung P. Falls X eine Zufallsvariable ist, deren Verteilung P zu M gehört, bezeichnet man die erzeugende Funktion der Verteilung P auch mit GX (s) und spricht (etwas ungenau) von der erzeugenden Funktion der Zufallsvariablen X. 123 1. DEFINITIONEN ∞ Bemerkung. — Die erzeugende Funktion GP (s) = i=0 αi si konvergiert absolut und ihre Summe GP (s) ist eine stetige Funktion von s im Intervall [−1, +1] für reelles s (bzw. auf der Kreisscheibe |s| ≤ 1 für komplexes s). Sie besitzt Ableitungen beliebiger Ordnung, die man im Innern der Kreisscheibe, also für |s| < 1, durch gliedweises Differenzieren erhält. Daher kann man die üblichen Techniken der Ableitung und Integration von Potenzreihen heranziehen, um Eigenschaften der charakteristischen Grössen wie Erwartungswert und Momente zu untersuchen. Theorem 1.4 (Eindeutigkeitssatz). — Die erzeugende Funktion einer Zufallsvariablen mit nichtnegativen ganzzahligen Werten bestimmt die Verteilung dieser Zufallsvariablen vollständig. Anders gesagt: haben zwei Zufallsvariable (mit nichtnegativen, ganzzahligen Werten) die gleiche erzeugende Funktion, so haben sie auch die gleiche Verteilung. Beweis. — Es sei X eine Zufallsvariable mit Werten in N. Wir setzen pk = P{X = k} (k ≥ 0) und bezeichnen mit G(s) die erzeugende Funktion von X, also (1.4) G(s) = pk sk . k≥0 Wir werden uns davon überzeugen, dass man die Folge (pk ) (k ≥ 0) ausgehend von der Funktion G bestimmen kann. Verwendet man die Tatsache, dass man (1.4) innerhalb des Intervalles ] − 1, +1[ gliedweise differenzieren kann, so erhält man G(0) = p0 ; kpk uk−1 = kpk uk−1 , G (u) = k≥0 G (u) = k≥0 k≥1 k(k − 1)pk uk−2 = G (0) = p1 ; k(k − 1)pk uk−2 , G (0) = 2p2 ; k≥2 ... ... (n) G (u) = k(k − 1) . . . (k − n + 1)pk uk−n k≥0 = k(k − 1) . . . (k − n + 1)pk uk−n , G(n) (0) = n! pn (n ≥ 0). k≥n Es gilt also für jedes n ≥ 0 die Gleichheit G(n) (0) = n! pn ; somit bestimmt die Kenntnis von G vollständig die Verteilung (pk ) (k ≥ 0) von X. 124 KAPITEL 9: ERZEUGENDE FUNKTIONEN 2. Eigenschaften. — Wir werden als erstes zeigen, dass sich der Erwartungswert einer Zufallsvariablen aus der Familie M mit Hilfe der Reihe mit dem allgemeinen Glied P{X > i}, (i ≥ 0), berechnen lässt. Satz 2.1. — Es sei X eine Zufallsvariable aus der Klasse M . Dann gilt ∞ (2.1) i P{X = i} = i=1 ∞ P{X > i} i=0 im Sinne einer Gleichheit von Elementen von [0, +∞]. Konvergiert eine der beteiligten Reihen, so tut dies auch die andere und der gemeinsame Wert dieser Reihen ist der Erwartungswert E[X]. Beweis. — Für jedes i ≥ 0 sei αi = P{X = i}. Dann gilt in [0, +∞] (2.2) P{X > i} = P{X ≥ i} = αj . i≥0 i≥1 i≥1 j≥i Die rechte Seite ist eine iterierte Summe mit nichtnegativen Gliedern. Fubinis Theorem erlaubt es, die Reihenfolge der Summationen zu vertauschen und man erhält, immer noch im Sinne von Werten in [0, +∞], αj = αj = j αj . i≥1 j≥i j≥1 1≤i≤j j≥1 Bemerkung. — Man kann Satz 2.1 auch anders beweisen. Wenn man alle ∞ I{X>i} . Nimmt man davon Gleichheiten auf [0, +∞] bezieht, so gilt X = i=0 den Erwartungswert und vertauscht die Operatoren E und (was erlaubt ist, da alle Summanden nichtnegativ sind), so erhält man E[X] = ∞ E[I{X>i} ] = i=0 ∞ P{X > i}. i=0 Der gerade bewiesene Satz legt es nahe, eine zweite erzeugende Funktion zu X zu betrachten, die durch (2.3) HX (s) = ∞ P{X > i} si i=0 definiert ist. Betrachtet man s als reelle Variable, so konvergiert diese Reihe im offenen Intervall ] − 1, +1[, und zwischen GX (s) und HX (s) besteht die folgende funktionale Beziehung. 2. EIGENSCHAFTEN 125 Satz 2.2. — Für |s| < 1 gilt HX (s) = 1 − GX (s) . 1−s Beweis. — Wir greifen auf die Bezeichnungen aus dem Beweis von Satz 2.1 zurück. Für i ≥ 1 ist der Koeffizient von si in dem Produkt (1 − s)HX (s) gleich βi − βi−1 , d.h. gleich −αi , und der Koeffizient von s0 ist β0 = 1 − α0 . Das besagt aber gerade (1 − s)HX (s) = 1 − GX (s). Kennt man GX (s) oder HX (s) explizit, so kann man den Erwartungswert von X und dessen Momente — zumindest unter gewissen Bedingungen — berechnen. Dies wird nun ausgeführt. Satz 2.3. — Die erzeugende Funktion GX (s) hat eine linksseitige Ableitung GX (1) im Punkt s = 1 genau dann, wenn E[X] existiert und endlich ist. Dann gilt E[X] = GX (1). (2.4) Weiter hat die Funktion HX (s) genau dann einen linksseitigen Grenzwert HX (1) im Punkt s = 1, wenn E[X] existiert und endlich ist. Zudem gilt dann E[X] = HX (1). (2.5) Zum Beweis dieses Satzes ist es bequem, sich auf das bekannte Lemma von Abel zu berufen, das man folgendermassen formulieren kann. Lemma (Abel). αi (i ≥ 0) konvergiert und den Wert α hat, so ist 1) Wenn die Reihe i lim s→1−0 ∞ i αi s = i=0 ∞ αi = α. i=0 2) Falls alle αi ≥ 0 sind und lim ∞ s→1−0 i=0 ∞ αi si = α ≤ +∞ gilt, so ist αi = α. i=0 Beweis. 1) Man zeigt ∞ αi (si − 1) = 0. Da die Reihe mit dem allgelim s→1−0 i=0 meinen Glied αi konvergiert, gibt es zu jedem ε > 0 ein N (ε) derart, dass für 126 KAPITEL 9: ERZEUGENDE FUNKTIONEN alle N ≥ N die Abschätzung αi ≤ ε/4 gilt. Bei einer solchen Wahl N≤i≤N von N erhält man ∞ N ∞ αi (si − 1) ≤ αi (si − 1) + αi (si − 1). i=0 i=0 i=N+1 Für jedes s ∈ [0, 1[ gilt aber N αi (si − 1) ≤ M N sN − 1 , wobei M = max |αi | < +∞, 0≤i≤N i=0 N ε αi (si − 1) < für s nahe bei 1 hat. sodass man 2 i=0 Um den zweiten Term auf der rechten Seite zu majorisieren, verwendet man partielle Summation (die Technik, die in dieser Situation auf Abel αk , so erhält man zurückgeht). Setzt man Ai = k≥i ∞ ∞ i i = α (s − 1) (A − A )(s − 1) i i i+1 i=N+1 i=N+1 ∞ N+1 i i−1 = AN+1 (s − 1) + Ai (s − s ) i=N+2 ε ε ε ≤ sN+1 − 1 + sN+1 < . 4 4 2 ∞ Schliesslich ergibt sich also αi (si − 1) < ε unter der Voraussetzung, dass i=0 s genügend nahe bei i1 ist. 2) Wegen αi s ≤ αi für 0 < s < 1 ist der Fall α = +∞ klar. Sei i i also α endlich. Nach Voraussetzung gilt αi si < α < +∞ für 0 < s < 1; n n i somit hat man für jedes n ≥ 1 die Ungleichung αi ≤ α. Da αi eine i=0 i=0 monoton wachsende und beschränkte Funktion von n ist, muss sie gegen einen Grenzwert α konvergieren. Man kann nun den ersten Teil des Lemmas anwenden und erhält α = α. Der ist,i Beweis von Satz 2.3 kann nun geführt werden. Falls E[X] endlich iαi eine endliche Summe. Für |s| < 1 kann man die Reihe αi s hat i i gliedweise differenzieren und erhält GX (s) = iαi si−1 . Aus dem ersten i Teil des Lemmas von Abel folgt nun lim GX (s) = iαi = E[X]. Falls s→1−0 i lim iαi si−1 = lim GX (s) = α gilt, zeigt der zweite Teil des Lemmas s→1−0 i s→1−0 127 3. SUMMEN VON ZUFALLSVARIABLEN von Abel, dass die Summe αi gleich α ist, wobei dieser Wert endlich oder i unendlich sein kann. Damit ist die Beziehung (2.4) bewiesen. Für |s| < 1 hat man HX (s) = GX (1) − GX (s) 1 − GX (s) = = GX (σ), 1−s 1−s für s ≤ σ ≤ 1. Da HX (s) und GX (s) monoton sind, haben sie (endliche oder unendliche) Grenzwerte im Punkt 1. Die nachfolgenden Aussagen kann man ganz analog beweisen, deshalb wird auf die Darstellung des Beweises verzichtet. Satz 2.4. — Die Funktion GX (s) besitzt eine r-te linksseitige Ableitung (r positiv, ganzzahlig) im Punkt s = 1 genau dann, wenn das r-te faktorielle Moment E[X(X − 1) . . . (X − r + 1)] existiert und endlich ist. Es gilt dann (r) GX (1) (r) (2.6) E[X(X − 1) . . . (X − r + 1)] = GX (1) ; speziell im Fall r = 2 hat man (2.7) E[X(X − 1)] = GX (1) = 2 HX (1) und folglich (2.8) 2 Var X = GX (1) + GX (1) − GX (1) 2 (1) + HX (1) − HX (1) . = 2 HX Satz 2.5. — Angenommen, die Funktion GX (s) besitze eine Taylorentwicklung in der Umgebung von s = 1, oder (was auf dasselbe hinausläuft) die Funktion GX (1 + u) besitze eine solche Entwicklung in der Umgebung von u = 0. Dann ist das faktorielle Moment r-ter Ordnung (r ≥ 1) der Koeffizient von ur /r! in dieser Entwicklung, d.h. GX (1 + u) = 1 + E[X(X − 1) . . . (X − r + 1)] r≥1 ur . r! 3. Summen von Zufallsvariablen. — Wir betrachten zunächst den Fall einer festen Anzahl von Summanden, später dann auch die Situation, in der die Anzahl der Summanden zufällig ist. Satz 3.1. — Sind X und Y unabhängige Zufallsvariable, so gilt (3.1) GX+Y (s) = GX (s) GY (s). 128 KAPITEL 9: ERZEUGENDE FUNKTIONEN Beweis. — In der Tat, sind P und Q die Verteilungen von X und Y , so ist die Verteilung von X + Y die Faltung P ∗ Q. Die Behauptung folgt also aus Satz 1.3. Korollar. — Sind X1 , X2 , . . . , Xn unabhängige Zufallsvariable mit der gleichen Verteilung, deren erzeugende Funktion G(s) ist, so ist die erzeugende Funktion von Sn = X1 + X2 + · · · + Xn gegeben durch n (3.2) GSn (s) = G(s) . Wir behandeln nun den Fall einer Summe von Zufallsvariablen mit einer zufälligen Anzahl von Summanden. Sei also (Xn ) eine Folge von unabhängigen Zufallsvariablen, die auf demselben Wahrscheinlichkeitsraum (Ω, A, P) definiert sind und die alle die gleiche Verteilung PX ∈ M haben; dabei sei GX (s) die erzeugende Funktion. Weiter sei N eine auf demselben Raum definierte Zufallsvariable, die von den Xn unabhängig ist, mit der Verteilung PN ∈ M und der erzeugenden Funktion GN (s). Man setzt S0 = 0, Sn = X1 + . . . + Xn , n ≥ 1, und betrachtet nun die Zufallsvariable SN : ω −→ SN(ω) (ω) = X1 (ω) + · · · + XN(ω) (ω). Um SN einwandfrei zu definieren, benötigt man das Produkt von unendlich vielen Wahrscheinlichkeitsräumen; hier soll es uns aber nur auf die Berechnung der erzeugenden Funktion von SN ankommen. Für jedes j ≥ 0 kann man {SN = j} = ∞ {SN = j, N = n} = n=0 ∞ {X1 + · · · + Xn = j, N = n} n=0 schreiben. Dies zeigt speziell, dass SN eine Zufallsvariable ist, denn der zweite Ausdruck ist eine abzählbare Vereinigung von Ereignissen. Da die Variablen Xn von N unabhängig sind, ist auch jede der Variablen Sn von N unabhängig. Damit ergibt sich P{SN = j} = = ∞ n=0 ∞ P{SN = j, N = n} P{Sn = j, N = n} = n=0 und daher GSN (s) = ∞ j=0 ∞ P{Sn = j} P{N = n} n=0 j P{SN = j}s = ∞ ∞ j=0 n=0 P{Sn = j} P{N = n} sj . 129 4. DER STETIGKEITSSATZ Vertauscht man nun noch die Summationsreihenfolge, so erhält man GSN (s) = ∞ n=0 = P{N = n} ∞ P{Sn = j} sj j=0 n P{N = n} GX (s) [gemäss vorherigem Korollar] n=0 = GN GX (s) . Damit ist der folgende Satz bewiesen. Satz 3.2. — Die zufällige Summe SN = X1 + · · · + XN , wobei N eine Zufallsvariable mit nichtnegativen, ganzzahligen Werten ist, die unabhängig von der Folge (Xn ) (n ≥ 1) ist, hat als erzeugende Funktion die Komposition (3.3) GSN (s) = GN GX (s) = GN ◦ GX (s). 4. Der Stetigkeitssatz Theorem 4.1. — Es sei eine Folge (pn,k , k ≥ 0) (n ≥ 0) von Wahrscheinlichkeitsverteilungen auf N und eine Folge (αk , k ≥ 0) von nicht αk ≤ 1 gegeben. Ferner sei negativen Zahlen mit k≥0 Gn (u) = pn,k uk (n ≥ 0) und G(u) = α k uk . k≥0 k≥0 Dann sind die beiden folgenden Eigenschaften äquivalent: a) Für alle k ≥ 0 gilt lim pn,k = αk ; n→∞ b) Für alle u ∈]0, 1[ gilt lim Gn (u) = G(u). n→∞ Beweis. a) ⇒ b) Es seiku ∈]0, 1[ gewählt; dann existiert für jedes ε > 0 eine u < ε. Daraus folgt Zahl N (ε) mit k>N |Gn (u) − G(u)| ≤ k≥0 Also ist |Gn (u) − G(u)| < k |pn,k − αk | |u| ≤ N N k=0 |pn,k − αk | + uk . k>N |pn,k − αk | + ε. Lässt man nun (bei festem N ) k=0 n gegen unendlich streben, so erhält man die gewünschte Aussage, da ε > 0 beliebig ist. b) ⇒ a) Das klassische Diagonalverfahren zeigt, dass man aus jeder Folge (Pn ) = ((pn,k , k ≥ 1)) (n ≥ 1) von Wahrscheinlichkeitsverteilungen auf N eine konvergente Teilfolge (Pn ) herausziehen kann, d.h., dass für jedes pn,k existiert. k ≥ 0 der Limes lim n →∞ 130 KAPITEL 9: ERZEUGENDE FUNKTIONEN Hat (Pn ) zwei konvergente Teilfolgen (Pn ) und (Pn ), so gilt wegen der Implikation a) ⇒ b) des Theorems lim Gn (u) = G(u), n →∞ lim Gn (u) = G(u). n →∞ Somit haben die Grenzwerte zweier konvergenter Teilfolgen die gleiche erzeugende Funktion; da aber die erzeugende Funktion einer Folge diese Folge eindeutig bestimmt, müssen alle konvergenten Teilfolgen gegen den gleichen Grenzwert konvergieren. Für jedes k ≥ 0 existiert also der Grenzwert lim pn,k , den wir αk nennen. Die Folge (αk , k ≥ 0) hat dann G(u) als n→∞ erzeugende Funktion. In einer Situation, in der (αk , k ≥ 0) selbst eine Wahrscheinlichkeitsverteilung auf N ist, kann man dann das folgende Resultat formulieren. Theorem 4.2. — Es sei (Xn ) (n ≥ 1) eine Folge von Zufallsvariablen mit Werten in N und ebenso X eine Zufallsvariable mit Werten in N. Es sei weiter (pn,k , k ≥ 0) die Verteilung von Xn und Gn (u) = E[uXn ] deren erzeugende Funktion, schliesslich (αk , k ≥ 0) die Verteilung von X und G(u) = E[uX ] die entsprechende erzeugende Funktion. Dann sind die beiden folgenden Aussagen äquivalent: a) Für jedes k ≥ 0 gilt lim pn,k = αk (d.h. Xn konvergiert gegen X in n→∞ der Verteilung)1 ; b) Für alle u ∈]0, 1[ gilt lim Gn (u) = G(u). n→∞ ERGÄNZUNGEN UND ÜBUNGEN 1. — Man bestimme explizit die erzeugenden Funktionen für die BinomialverteilungB(n, p), für die Poisson-Verteilung πλ und für die geometrische Verteilung k≥1 pq k−1 εk . 2. —k−1Es sei X eine Zufallsvariable mit der geometrischen Verteilung p εk (0 < p < 1, q = 1 − p). Man zeige, dass die faktoriellen k≥1 q Momente von X existieren und berechne diese; speziell betrachte man den Fall p = 12 . 3. — Man beweise mit Hilfe der Technik der erzeugenden Funktionen nochmals die Faltungsidentitäten B(n, p) ∗ B(m, p) = B(n + m, p) ; 1 cf. Theorem 6.1 von Kapitel 16. πλ ∗ πµ = πλ+µ . ERGÄNZUNGEN UND ÜBUNGEN 131 4. — Ebenfalls mit Hilfe der Technik der erzeugenden Funktionen berechne man E[X] und Var X für den Fall, dass X die Verteilung B(n, p) bzw. die Verteilung πλ hat. 5. — Man definiert F (a, b, c; s) = 2 F1 a, b (a) (b) sn n n ;s = . c (c)n n! n≥0 ab a) Man zeige, dass F (a, b, c; s) = F (a + 1, b + 1, c + 1; s) gilt. c b) Die hypergeometrische Verteilung ist durch H(n, N, M ) = k M N−M k Nn−k εk n gegeben, wobei k in dem Intervall [max{0, n−(N −M )}, min{n, M }] variiert. Man zeige, dass die erzeugende Funktion GH (s) gegeben ist durch: (−N + M )n −M, −n F ; s , falls n ≤ N − M ; 2 1 N −M −n+1 (−N )n −N + n, −N + M GH (s) = (n − N + M + 1)N−n n−N+M ;s , s 2 F1 n−N +M +1 (n + 1)N−n falls n ≥ N − M + 1. Der Name hypergeometrische Verteilung geht auf diese Eigenschaft zurück. Man beachte, dass GH (s) in n und M symmetrisch ist. c) Man zeige unter Verwendung der Identität von Chu-Vandermonde, dass eine hypergeometrisch verteilte Zufallsvariable den Erwartungswert nM/N hat. (Man beachte, dass dieser Erwartungswert gleich GH (1) ist.) d) Man zeige, dass die zweite Ableitung von GH (s) im Punkt s = 1 gleich M (M − 1)n(n − 1) N (N − 1) ist. Daraus ist weiter zu folgern, dass die Varianz einer hypergeometrisch verteilten Zufallsvariablen durch nM (N − M ) ! n−1 " Var X = 1 − N2 N −1 gegeben ist. 6. — Es sei G(s) die erzeugende Funktion einer Zufallsvariablen aus X ∈ M . Man bestimme die erzeugenden Funktionen der Zufallsvariablen X + b und aX für positive, ganzzahlige a, b. 132 KAPITEL 9: ERZEUGENDE FUNKTIONEN 7. — Es bezeichne G(s) die erzeugende Funktion einer Zufallsvariablen X aus der Klasse M . Man gebe einen expliziten Ausdruck für J(s) = n n≥0 un s als Funktion von G(s) an, wenn un eine der folgenden Bedeutungen hat: a) P{X ≤ n}; b) P{X < n}; c) P{X ≥ n}; d) P{X > n + 1}; e) P{X = 2n} für alle n ≥ 0. 8. — Ein Sack enthalte eine weisse und zwei rote Kugeln. Man wiederholt unendlich oft die Operation, die darin besteht, eine Kugel zu ziehen, diese in den Sack zurückzulegen, falls sie weiss ist, und sie zu eliminieren, falls sie rot ist. Es bezeichne Xn die Zufallsvariable, die die Werte 0 oder 1 annimmt, je nachdem, ob bei der n-ten Operation eine rote oder weisse Kugel gezogen wird. Man setzt Rn = {Xn = 0} und Bn = {Xn = 1}. a) Es sei T1 der Zeitpunkt, zu dem man erstmals eine rote Kugel zieht (d.h. T1 ist die kleinste ganze Zahl m ≥ 1, für die Xm = 0 ist). Man berechne P{T1 =m} (m ≥ 1) und die erzeugende Funktion von T1 . Man folgere daraus m≥1 P{T1 = m} = 1 und man berechne den Erwartungswert und die Varianz von T1 . b) Es sei T2 der Zeitpunkt, zu dem die zweite rote Kugel gezogen wird. Man berechne P{T1 = m, T2 = n} für 1 ≤ m < n. c) Man berechne daraus P{T2 = n} und ermittle die erzeugende Funktion von T2 . Man zeige, dass T2 fast sicher endlich ist. Man berechne E[T2 ] und Var T2 . d) Mit Hilfe der vorangehenden Resultate berechne man P{Xn = 0} und daraus die Verteilung von Xn . 9. — Mit den Bezeichnungen und unter den Voraussetzungen von Satz 3.2 zeige man, dass SN einen endlichen Erwartungswert und eine endliche Varianz hat, falls dies für X1 und N gilt. Man beweise, dass dann 2 E[SN ] = E[N ] E[X1 ] und Var SN = E[N ] Var X1 + Var N E[X1 ] gilt. 10. — Bei einer Kernreaktion erzeugt ein Elementarteilchen eine Anzahl X1 von Teilchen gleicher Art, genannt erste Generation. Das i-te Teilchen (i = 1, 2, . . . , X1 ) der ersten Generation erzeugt, unabhängig von den anderen, ξi1 weitere Teilchen; die Anzahl der Teilchen der zweiten Generation 1 . Die Zufallsvariablen Xn und ξin werden dann ist also X2 = ξ11 + · · · + ξX 1 rekursiv ganz entsprechend definiert: Xn bezeichnet die Grösse der n-ten Generation und ξin die Anzahl der Nachkommen des i-ten Teilchens der nten Generation. n . Man setzt nun Für n ≥ 1 gilt also die Beziehung Xn+1 = ξ1n + · · · + ξX n n n unabhängig voraus, dass für jedes n ≥ 1 die Zufallsvariablen Xn , ξ1 , . . . , ξX n 133 ERGÄNZUNGEN UND ÜBUNGEN sind und dass sämtliche ξin die gleiche Verteilung wie X1 haben. Mit G(s) wird die erzeugende Funktion von X1 bezeichnet. a) Es bezeichne Gn (s) die erzeugende Funktion von Xn . Man zeige Gn+1 (s) = Gn G(s) = G Gn (s) , für n ≥ 1. b) Man zeige, dass die Funktion G(s) monoton wachsend und konvex im Intervall [0, 1] ist. c) Es sei xn = P{Xn = 0} = Gn (0); man zeige, dass die Folge (xn ) (n ≥ 1) monoton wächst und ihr Grenzwert x die kleinste zwischen 0 und 1 gelegene Lösung der Gleichung (∗ ) G(ξ) = ξ ist. d) Es sei µ = E[X1 ] die mittlere Anzahl der Nachkommen eines Teilchens. Vorausgesetzt wird nun G(s) = s; mit Hilfe von b) ist zu zeigen: (i) für µ ≤ 1 ist ξ = 1 die einzige zwischen 0 und 1 gelegene Lösung von (*); also ist x = 1; (ii) für µ > 1 hat (*) genau eine Lösung ξ mit 0 ≤ ξ < 1; also ist x = ξ. e) Man interpretiere x und das vorangehende Resultat. f) Es sei σ 2 = Var X1 . Mit Hilfe von Rekursionsformeln berechne man E[Xn ] und Var Xn als Funktion von µ und σ 2 . g) Man berechne Gn (s) im Falle PX1 = qε0 + pε1 (p + q = 1). 11. — Hier wird auf die Bezeichnungen von Aufgabe 8 des vorigen Kapitels zurückgegriffen. Es bezeichne T die kleinste ganze Zahl mit XT = a. Man berechne tn = P{T > n} (n≥ 0) und bestimme einen Ausdruck für die erzeugende Funktion H(s) = n≥0 tn sn . Daraus leite man E[T ] ab. 12. — Häufig ist es möglich, die Glieder einer Folge (u n ) (n ≥ 0) un sn eine explizit zu berechnen, wenn deren erzeugende Funktion U (s) = n≥0 spezielle analytische Form hat, beispielsweise, wenn es sich um eine rationale Funktion handelt. Sei also U (s) = P (s)/Q(s) eine rationale Funktion (in ausgekürzter Darstellung) mit Q(0) = 0. Mit s1 ,. . . , sm sollen die (reellen oder komplexen) Wurzeln von Q(s) bezeichnet werden, mit r1 , . . . , rm deren Vielfachheit. Zunächst soll angenommen werden, dass der Grad von P (s) echt kleiner als der von Q(s) ist. Die Partialbruchzerlegung von U (s) sieht dann folgendermassen aus: U (s) = 1≤i≤m 1≤j≤ri aij . (s − si )j 134 KAPITEL 9: ERZEUGENDE FUNKTIONEN a) Man zeige airi = ri ! P (si )/Q(ri ) (si ). b) Man zeige, dass sich für |s| < Potenzreihe entwickeln lässt, d.h. U (s) = un s n , wobei n≥0 inf |si | die Funktion U (s) in eine 1≤i≤m un = aij (−1)j 1≤i≤m 1≤j≤ri (j)n −n−j . s n! i Hierbei ist (j)n = j(j + 1) . . . (j + n − 1). Damit hat man eine exakte Formel für die un . c) Wir nehmen nun an, dass es genau eine Wurzel gibt, etwa s1 , die dem Betrage nach echt kleiner ist als alle übrigen Wurzeln, d.h. |s1 | < |si | für i = 2, . . . , m. Man zeige, dass dann un ∼ a1r1 (−1)r1 (r1 )n −n−r1 s n! 1 gilt, wenn n gegen unendlich strebt. d) Man zeige, dass die Aussage von c) auch dann noch gilt, wenn der Grad von P (s) grösser oder gleich dem Grad von Q(s) ist. 13. — Es wird eine Folge von Münzwürfen durchgeführt. Mit un (n ≥ 1) wird die Wahrscheinlichkeit bezeichnet, dass während der ersten n Würfe Kopf nicht dreimal hintereinander auftritt. a) Offenbar gilt u1 = u2 = 1 und man setzt auch noch u0 = 1. Man beweise für n ≥ 3 die Rekursion 1 1 1 un−1 + un−2 + un−3 . 2 4 8 b) Es sei nun U (s) = un sn . Man leite die explizite Form un = n≥0 U (s) = 2s2 + 4s + 8 8 − 4s − 2s2 − s3 her. c) Man zeige, dass der Nenner Q(s) = 8 − 4s − 2s2 − s3 eine strikt positive Wurzel s1 = 1, 087 . . . und zwei weitere komplexe Nullstellen hat, die dem2Betrag nach echt grösser als s1 sind. (In der Tat, für |s| < s1 gilt 4s + 2s + s3 < 4s1 +2s2 +s3 = 8 und dieselbe Ungleichung gilt für |s| = s1 , 1 1 s = s1 .) d) Mit Hilfe der Aussagen aus der vorhergehenden Aufgabe berechne man un . 135 ERGÄNZUNGEN UND ÜBUNGEN 14. — Zu dieser kommentierten Aufgabe, bei der nur die Techniken dieses Kapitels verwendet werden, wird keine Lösung angegeben. Sie behandelt einen sehr speziellen Fall des sogenannten Erneuerungstheorems (cf. Feller (op. cit.), Kap. 13). Wir betrachten eine Glühbirne, deren Funktionsdauer T als eine Zufallsvariable mit ganzzahligen Werten angesehen wird. Die Wahrscheinlichkeiten für die Funktionsdauer fk = P{T = k} (k = 1, 2, . . . ) sind f = 1 erfüllen. Zum Zeitpunkt t = 0 ist die gegeben und sollen k≥1 k Glühbirne neu. Sobald sie ausfällt, ersetzt man sie durch eine neue Birne gleichen Typs, usf. . . . Nun definiert man folgendermassen eine Folge (Xn ) (n = 1, 2, . . . ) von Zufallsvariablen. Es ist Xn = 1 oder 0, je nachdem, ob zum Zeitpunkt n eine Ersetzung stattfindet oder nicht. Nach Voraussetzung gilt also P{X1 = 1} = f1 und P{X1 = · · · = Xn−1 = 0, Xn = 1} = fn für n ≥ 2, sowie P{Xk+1 = · · · = Xn−1 = 0, Xn = 1 | Xk = 1} = fn−k für 1 ≤ k ≤ n − 1. a) Setzt man un = P{Xn = 1} für n ≥ 1 und zudem noch u0 = 1, f0 = 0, so gilt für n ≥ 1 die Faltungsidentität un = fk un−k . 0≤k≤n Falls das Ereignis {Xn = 1} eintritt, so hat man nämlich entweder vor dem Zeitpunkt n die Glühbirne ersetzen müssen, dies entspricht dem Ereignis {X1 = · · · = Xn−1 = 0, Xn = 1}, oder für ein gewisses k mit 1 ≤ k ≤ n − 1 ist das Ereignis {Xk = 1, Xk+1 = · · · = Xn−1 = 0, Xn = 1} eingetreten. Die Wahrscheinlichkeit dieses letzteren Ereignisses ist P{Xk+1 = · · · = Xn−1 = 0, Xn = 1 | Xk = 1}P{Xk = 1} = fn−k uk . Daher ist un = P{Xn = 1} = fn + fn−k uk = fk un−k . 1≤k≤n−1 b) Für |s| < 1 setzt man nun F (s) = k≥0 0≤k≤n k fk s und U (s) = un s n . n≥0 Die vorige Faltungsidentität impliziert offensichtlich die Funktionalgleichung U (s) 1 − F (s) = 1 für die erzeugenden Funktionen. Nehmen wir nun noch an, dass fk für alle hinreichend grossen k verschwindet, dass also F (s) ein Polynom ist und somit Q(s) = 1−F (s) keine Nullstelle hat, deren Betrag echt kleiner als 1 ist. Nehmen wir überdies an, dass 1 die einzige Nullstelle vom Betrag 1 von Q(s) ist. Da das Polynom F (s) nur nichtnegative Koeffizienten hat und deren Summe gleich 1 ist, ist 1 eine einfache Nullstelle von Q(s). Mit den Techniken der Aufgabe 12 kann man dann herleiten, dass limn un = 1/µ kfk die mittlere Lebensdauer einer Glühbirne bezeichnet. gilt, wobei µ = k≥1 15. — Kann man zwei sechsseitige Würfel so zinken, dass die Summe der geworfenen Augen über das Intervall {2, . . . , 12} gleichverteilt ist? 136 KAPITEL 9: ERZEUGENDE FUNKTIONEN 16. — Ein perfekter Würfel wird n-mal hintereinander geworfen. Man zeige, dass die Wahrscheinlichkeit dafür, dass die erzielte Gesamtzahl der Augen k ist, gleich αk /6n ist, wobei αk den Koeffizienten von sk im Polynom (s + s2 + · · · + s6 )n bezeichnet. Man berechne diese Wahrscheinlichkeit. 17. — Man berechne die faktoriellen Momente r-ter Ordnung für eine Poisson-verteilte Zufallsvariable mit Parameter λ (λ > 0). 18. — Es sei (X1 , X2 , . . . , Xr ) (r ≥ 1) ein System von r unabhängigen, identisch verteilten Zufallsvariablen, deren Verteilung die geometrische Verteilung mit Parameter p ist (0 ≤ p ≤ 1). Man setzt nun Sr = X1 + · · · + Xr und bezeichnet mit Π(r, p) die Verteilung dieser Zufallsvariablen (das ist die Pascal-Verteilung, auch negative Binomialverteilung genannt). a) Man berechne die erzeugende Funktion von Sr . b) Man bestimme daraus die Verteilung Π(r, p) von Sr . c) Man zeige, dass für jedes Paar r1 ,r2 ≥ 1 von reellen Zahlen und jedes p (0 ≤ p ≤ 1) Π(r1 , p) ∗ Π(r2 , p) = Π(r1 + r2 , p) gilt. θn εn , wobei θ n≥1 n ein Parameter aus ]0, 1[ ist und k ein geeigneter positiver Parameter. a) Man bestimme den Wert des Parameters k als Funktion von θ. b) Man berechne die erzeugende Funktion G(u) = E[uX ] und gebe deren Definitionsbereich genau an. c) Man berechne mit Hilfe von b) E[X] und Var X. 19. — Es sei X eine Zufallsvariable mit Verteilung k 20. (Der Pilzsammler)2 . — Es bezeichne N die Anzahl der Pilze, die ein Sammler während eines festen Zeitraumes sammelt. N wird als Zufallsvariable mit Werten in {1, 2, . . . } angesehen; G sei deren erzeugende Funktion. Ferner bezeichne p die Wahrscheinlichkeit, dass ein gesammelter Pilz essbar ist. Man zeige, dass unter plausiblen Annahmen über Unabhängigkeiten die Wahrscheinlichkeit dafür, dass alle gesammelten Pilze essbar sind, gerade gleich G(p) ist. 2 Diese Aufgabe, die wir Anatole Joffe verdanken, gehört zur Folklore der Wahrscheinlichkeitstheoretiker, die sich mit erzeugenden Funktionen beschäftigen.