Kapitel 3 Reelle Zufallsvariablen Gegeben sei ein W-Raum (Ω, C, P); der Messraum (R, B1 ) ist hier von besonderer Wichtigkeit: Eine reelle Zufallsvariable (auf Ω) ist eine Funktion X : Ω −→ R , die messbar bezüglich der SigmaAlgebren C und B 1 ist. Mit M(Ω, C) sei die Menge aller reellen Zufallsvariablen auf Ω bezeichnet. Lemma 3.1 (Messbarkeit erhaltende Operationen) (a) Seien X, Y ∈ M(Ω, C). Dann: (i) aX + bY ∈ M(Ω, C) für alle a, b ∈ R. (ii) max{X, Y } , min{X, Y } , X · Y ∈ M(Ω, C) , und im Fall Y (ω) 6= 0 ∀ ω ∈ Ω ist auch X/Y ∈ M(Ω, C) . (b) Seien Xn ∈ M(Ω, C) ∀ n ∈ N . (i) Wenn für jedes ω ∈ Ω die Zahlenfolge Xn (ω) , n ∈ N, nach oben beschränkt ist, dann : sup Xn ∈ M(Ω, C) . n∈N (ii) Wenn für jedes ω ∈ Ω die Zahlenfolge Xn (ω) , n ∈ N, nach unten beschränkt ist, dann : inf Xn ∈ M(Ω, C) . n∈N (iii) Wenn für jedes ω ∈ Ω die Zahlenfolge Xn (ω) , n ∈ N, konvergiert (in R), dann : lim Xn ∈ M(Ω, C) . n→∞ 3.1 Erwartungswert Definition 3.2 (Elementare Zufallsvariable: P-Integral / Erwartungswert) Eine elementare Zufallsvariable (auf Ω) ist eine reelle Zufallsvariable X : Ω −→ R mit endlichem Bild X(Ω) . Die Menge aller elementaren Zufallsvariablen auf Ω werde mit Me (Ω, C) bezeichnet. Für X ∈ Me (Ω, C) ist das P-Integral oder der Erwartungswert von X definiert durch: Z X X dP := E(X) := x · P(X = x) (eine reelle Zahl). Ω x∈X(Ω) Anmerkung: Statt E(X) schreiben wir bisweilen auch EP (X), wenn die zu Grunde liegende W-Verteilung P hervorgehoben werden soll. Beispiel: Indikatorvariable ¡ ¢ Sei X = 1 A mit einer Menge A ∈ C. Offensichtlich: 1 A ∈ Me (Ω, C) und E 11A = P(A) . 23 Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Wintersemester 2012/13 Kapitel 3: Reelle Zufallsvariablen 24 Beispiel: Binomialverteilte Zufallsvariable Sei X : Ω −→ {0, 1, . . . , n} eine Zufallsvariable mit X ∼ Bi(n, p) , (d.h. PX = Bi(n, p) ), mit gegebenen n ∈ N und p ∈ [ 0 , 1 ] . Dann ist X ∈ Me (Ω, C) und E(X) = n X k=0 µ ¶ n X n k k P(X = k) = k p (1 − p)n−k = n p , k k=0 wobei die letzte Gleichheit Resultat einiger Umformungen ist. Lemma 3.3 (Lineare Struktur) Me (Ω, C) = und für X = r X i=1 r nX o αi 1 Ai : αi ∈ R , Ai ∈ C (i = 1, . . . .r) , r ∈ N , i=1 αi 1 Ai , wobei αi ∈ R , Ai ∈ C (i = 1, . . . .r) und r ∈ N , gilt: r X E(X) = αi P(Ai ) . i=1 Me (Ω, C) ein linearer Raum, d.h. aX + bY ∈ Me (Ω, C) für alle X, Y ∈ Me (Ω, C) und alle a, b ∈ R, und das P-Integral (Erwartungswert) ist ein lineares und monotones Funktional, d.h. : E(aX + bY ) = aE(X) + bE(Y ) für alle X, Y ∈ Me (Ω, C) und alle a, b ∈ R; wenn X, Y ∈ Me (Ω, C) und X ≤ Y , dann E(X) ≤ E(Y ) . Anmerkung: Wie man leicht sieht gilt für alle X, Y ∈ Me (Ω, C) auch: max{X, Y } , min{X, Y } , X · Y ∈ Me (Ω, C) , sowie im Fall Y (ω) 6= 0 ∀ ω ∈ Ω : X/Y ∈ Me (Ω, C) . Wir betrachten jetzt nicht-negative reelle Zufallsvariablen auf Ω , also Zufallsvariablen X ∈ M(Ω, C) mit X ≥ 0. Die Menge aller nicht-negativen Zufallsvariablen auf Ω werde mit M+ (Ω, C) bezeichnet. Analog bezeichne M+ e (Ω, C) die Menge aller nicht-negativen elementaren Zufallsvariablen auf Ω. Lemma 3.4 (Approximation durch elementare Zufallsvariablen) Zu jedem X ∈ M+ (Ω, C) existiert eine isotone Folge Xn ∈ M+ e (Ω, C) , n ∈ N, also Xn ≤ Xn+1 ∀ n ∈ N , mit lim Xn = X . n→∞ Anmerkung: Die Xn , n ∈ N, können überdies messbar bezgl. der kleineren Sigma-Algebra © ª σ(X) := X −1 (B) : B ∈ B 1 ⊆ C ¡ ¢ gewählt werden, also Xn ∈ M+ ∀ n ∈ N. e Ω, σ(X) Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Wintersemester 2012/13 Kapitel 3: Reelle Zufallsvariablen 25 Theorem 3.5 (P-Integral / Erwartungswert nicht-negativer Zufallsvariablen) + e Sei X ∈ M+ (Ω, C) . Seien Xn ∈ M+ e (Ω, C) , n ∈ N, und Xn ∈ Me (Ω, C) , n ∈ N, zwei isotone Folgen en = X . Dann gilt: mit lim Xn = X und lim X n→∞ n→∞ en ) lim E(Xn ) = lim E(X n→∞ n→∞ in [ 0 , ∞] . Daher können wir definieren: Z Ω X dP := E(X) := lim E(Xn ) ∈ [ 0 , ∞] . n→∞ Beispiel: Poisson-verteilte Zufallsvariable Sei X : Ω −→ N0 eine Zufallsvariable mit X ∼ Poi(λ) , mit einem λ ∈ ( 0 , ∞) . Dann ist X ∈ M+ (Ω, C) , und durch Xn := X 1 {X≤n} = n X i 1 {X=i} , n ∈ N, i=1 ist eine isotone Folge in M+ e (Ω, C) E(Xn ) = n X i e−λ i=1 mit lim Xn = X gegeben. Wir erhalten: n→∞ λi i! ∀ n , folglich: E(X) = ∞ X i=1 i e−λ λi = λ. i! Lemma 3.6 (Linearität und Monotonie des Erwartungswerts für nicht-negative ZV’en) Seien X, Y ∈ M+ (Ω, C) . Es gilt: ½ E(aX + bY ) = aE(X) + bE(Y ) ∀ a, b ∈ [ 0 , ∞) ; wenn X ≤ Y , dann Konvention: c · ∞ := ∞ , falla c > 0 ; 0 , falls c = 0 E(X) ≤ E(Y ). Sei nun X ∈ M(Ω, C) beliebig. Wir zerlegen die Zufallsvariable X in ihren Positivteil und ihren Negativteil : X + := max{X , 0} und X − := min{−X , 0} ; dann: X + , X − ∈ M+ (Ω, C) und X = X + − X − . Definition 3.7 (P-integrierbare Zufallsvariable) Sei X ∈ M(Ω, C) . Die Zufallsvariable X heißt quasi-P-integrierbar, wenn E(X + ) < ∞ oder E(X − ) < ∞ , und in diesem Fall: Z X dP := E(X) := E(X + ) − E(X − ) ∈ [−∞ , ∞] Ω Konvention: c − ∞ := −∞ , ∞ − c := ∞ , ∀ c ∈ R. Wenn E(X + ) < ∞ und E(X − ) < ∞ , dann heißt die Zufallsvariable X P-integrierbar. Mit L1 (P) = L1 (Ω, C, P) sei die Menge aller P-integrierbaren Zufallsvariablen auf Ω bezeichnet. ¡ ¢ Anmerkung: Für X ∈ M(Ω, C) gilt die Äquivalenz: X ∈ L1 (P) ⇐⇒ E |X| < ∞ . Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Wintersemester 2012/13 Kapitel 3: Reelle Zufallsvariablen 26 Lemma 3.8 (Linearität und Monotonie des Erwartungswerts auf L1 (P)) Seien X, Y ∈ L1 (P) . Es gilt: ∀ a, b ∈ R : aX + bY ∈ L1 (P) und E(aX + bY ) = aE(X) + bE(Y ) ; wenn X ≤ Y , dann E(X) ≤ E(Y ). Theorem 3.9 (Konvergenzsätze für P-Integrale / Erwartungswerte) (1) Monotone Konvergenz Seien Xn , n ∈ N , eine isotone Folge in M+ (Ω, C) , X ∈ M+ (Ω, C) und lim Xn = X . Dann: n→∞ lim E(Xn ) = E(X) . n→∞ (2) Majorisierte Konvergenz Seien Xn , n ∈ N , eine Folge in M(Ω, C) , X ∈ M(Ω, C) , lim Xn = X , und es existiere n→∞ ein Y ∈ L1 (P) mit |Xn | ≤ Y ∀ n ∈ N . Dann: ¡ ¢ Xn ∈ L1 (P) ∀ n , X ∈ L1 (P) und lim E |Xn − X| = 0 , insbes.: n→∞ lim E(Xn ) = E(X) . n→∞ Theorem 3.10 (Transformationsformel für Integrale / Erwartungswerte) Seien noch (M, A) ein Messraum und T : Ω −→ M eine messbare (bezgl. C und A) Abbildung. Neben dem W-Raum (Ω, C, P)) betrachten wir auch den W-Raum (M, A, PT ) . Für jedes g ∈ M(M, A) gilt die Äquivalenz: g ◦ T ist quasi-P-integrierbar ⇐⇒ g ist quasi-PT -integrierbar. Im Fall der Quasi–Integrierbarkeit gilt: Z Z g ◦ T dP = Ω M g dPT , also EP (g ◦ T ) = EPT (g) . Korollar 3.11 (Erwartungswerte sind durch die Verteilung der ZV bestimmt) Seien X ∈ M(Ω, C) und g : R −→ R eine messbare (bezgl. B 1 und B 1 ) Funktion. Dann gilt die Äquivalenz: g ◦ X ist quasi-P-integrierbar ⇐⇒ g ist quasi-PX -integrierbar. Im Fall der Quasi–Integrierbarkeit gilt: EP (g ◦ X) = EPX (g) . Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Wintersemester 2012/13 Kapitel 3: Reelle Zufallsvariablen 27 Theorem 3.12 (P -Integrale / Erwartungswerte für Lebesgue-stetige W-Verteilung P ) Sei P eine W-Verteilung auf (Rk , B k ) , die eine Lebesgue-Dichte f besitzt. Wir betrachten den W-Raum (Rk , Bk , P ) . Für jedes g ∈ M(Rk , Bk ) gilt die Äquivalenz: g ∈ L1 (P ) ⇐⇒ g · f ist Lebesgue-integrierbar (über Rk ) . Z 1 Im Fall g ∈ L (P ) gilt: EP (g) = g f dµ . Rk Wir schließen diesen Abschnitt mit Berechnungsformeln für Erwartungswerte (a) diskreter und (b) Lebesgue-stetig verteilter reeller Zufallsvariablen. Wir formulieren die Formeln allgemeiner für Transformationen der reellen Zufallsvariablen (wie in Korollar 3.11 oben). Lemma 3.13 (Diskrete reelle ZV und Lebesgue-stetig verteilte reelle ZV) Seien X ∈ M(Ω, C) und g : R −→ R eine messbare (bezgl. B 1 und B 1 ) Funktion. (a) X sei diskret, d.h. es existiert eine abzählbare Teilmenge M ⊆ R mit X(ω) ∈ M ∀ ω ∈ Ω. X Dann gilt die Äquivalenz: g ◦ X ∈ L1 (P) ⇐⇒ |g(x)| P(X = x) < ∞ . Im Fall g ◦ X ∈ L1 (P) gilt: E(g ◦ X) = X x∈M g(x) P(X = x) . x∈M (b) X sei Lebesgue-stetig verteilt, d.h. die Verteilung von X besitzt eine Lebesgue-Dichte f . Dann gilt die Äquivalenz: g ◦ X ∈ L1 (P) ⇐⇒ g · f ist Lebesgue-integrierbar (über R) . Z 1 Im Fall g ◦ X ∈ L (P) gilt: E(g ◦ X) = g(x) f (x) dx . R 3.2 Varianz und Standardabweichung Sei ein W-Raum (Ω, C, P) gegeben. Definition 3.14 (Varianz und Standardabweichung einer P-integrierbaren ZV) Wenn X ∈ L1 (P) , dann heißt ³£ ¤2 ´ Var(X) := E X − E(X) ∈ [ 0 , ∞] die Varianz der Zufallsvariablen X, und √ (Konvention: ∞ := ∞) . p Var(X) heißt die Standardabweichung von X . Unter dem zweiten Moment einer reellen Zufallsvariablen X versteht man E(X 2 ) . Eine simple Beziehung zwischen dem zweiten Moment und der Varianz einer P-integrierbaren Zufallsvariablen X ist: Lemma 3.15 (Varianz, Erwartungswert und zweites Moment) Für X ∈ L1 (P) gilt: Var(X) = E(X 2 ) − ¡ E(X) ¢2 . Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Wintersemester 2012/13 Kapitel 3: Reelle Zufallsvariablen 28 Eine reelle Zufallsvariable X auf Ω heißt quadrat-P-integrierbar, wenn E(X 2 ) < ∞ . Lemma 3.16 (Der Raum der quadrat-P-integrierbaren Zufallsvariablen) Bezeichne L2 (P) = L2 (Ω, C, P) die Menge aller quadrat-P-integrierbaren reellen Zufallsvariablen auf Ω . Es gilt: (i) Wenn X, Y ∈ L2 (P) und a, b ∈ R , dann aX + bY ∈ L2 (P) . (ii) L2 (P) ⊆ L1 (P) . (iii) Für eine reelle Zufallsvariable X auf Ω haben wir die Äquivalenz: X ∈ L2 (P) ⇐⇒ X ∈ L1 (P) und Var(X) < ∞ . ¡ ¢2 ≤ E(X 2 ) E(Y 2 ) . (iv) Wenn X.Y ∈ L2 (P) , dann X · Y ∈ L1 (P) und E(X Y ) Für die in Kapitel 1 (Abschnitte 1.3 und 1.4) eingeführten Verteilungen sind die Erwartungswerte und Varianzen in nachfolgender Tabelle angegeben. PX U(M ) , M = {x1 , . . . , xm } ⊆ R E(X) x= 1 m m P i=1 Var(X) 1 m xi m P (xi − x)2 i=1 Bi(n, p) np Hyp(N, s, n) ns N Poi(λ) λ λ NegBi(r, p) r p r(1−p) p2 N(β, σ 2 ) β σ2 1 2 (a R( a , b ) 1 12 + b) 1 λ Exp(λ) Wei(c, λ) np(1 − p) ¡ N −n s N −1 n N 1 − 1 λ Γ ¡1 c s N ¢ (b − a)2 1 λ2 ¢ +1 Ga(c, λ) c λ LogN(β, σ 2 ) ¢ ¡ exp β + 12 σ 2 1 λ2 h ¡ ¢ ³ ¡ ¢´2 i Γ 2c + 1 − Γ 1c + 1 c λ2 ´ ¡ ¢³ ¡ ¢ exp 2β + σ 2 exp σ 2 − 1 Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Wintersemester 2012/13 Kapitel 3: Reelle Zufallsvariablen 3.3 29 Kovarianz und Korrelation Sei ein W-Raum (Ω, C, P) gegeben. Definition 3.17 (Kovarianz zweier reeller Zufallsvariablen) Seien X, Y ∈ L1 (P) , und es gelte X · Y ∈ L1 (P) . Dann heißt die reelle Zahl ³£ ¤£ ¤´ Cov(X, Y ) := E X − E(X) Y − E(Y ) die Kovarianz der beiden Zufallsvariablen X und Y . Bemerkungen: 1. Wenn die beiden Zufallsvariablen identisch sind, X = Y und X ∈ L2 (P), dann: Cov(X, X) = Var(X) . 2. Eine optisch andere Formel für die Kovarianz ist (analog zur Varianzformel von Lemma 3.15 ), für X, Y ∈ L1 (P) mit X · Y ∈ L1 (P) : Cov(X, Y ) = E(X Y ) − E(X) E(Y ) . Lemma 3.18 (Varianz einer Linearkombination) Wenn X, Y ∈ L2 (P) und a, b ∈ R, dann: Var(aX + bY ) = Var(X) + Var(Y ) + 2 Cov(X, Y ) . Allgemeiner: Wenn n ∈ N, n ≥ 2 , X1 , . . . , Xn ∈ L2 (P) und a1 , . . . , an ∈ R , dann: n n ³X ´ X Var ai Xi = a2i Var(Xi ) + 2 i=1 i=1 X ai aj Cov(Xi , Xj ) . 1≤i<j≤n Lemma 3.19 (Kovarianz zweier Linearkombinationen) Seien m, n ∈ N , X1 , . . . , Xm , Y1 , . . . , Yn ∈ L2 (P) und a1 , . . . , am , b1 , . . . , bn ∈ R . Dann: Cov m ³X ai Xi , i=1 n X j=1 ´ bj Yj = m X n X ai bj Cov(Xi , Yj ) . i=1 j=1 Definition 3.20 (Unkorreliertheit) Seien X, Y ∈ L1 (P) , mit X · Y ∈ L1 (P) . Die beiden Zufallsvariablen X und Y heißen unkorreliert, wenn Cov(X, Y ) = 0 , bzw. äquivalent damit: E(X Y ) = E(X) E(Y ) . Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Wintersemester 2012/13 Kapitel 3: Reelle Zufallsvariablen 30 Theorem 3.21 (Stochastische Unabhängigkeit impliziert Unkorreliertheit) (a) Seien X, Y ∈ L1 (P) , und X, Y seien stochastisch unabhängig. Dann: X · Y ∈ L1 (P) und E(X Y ) = E(X) E(Y ) , d.h. X und Y sind unkorreliert. (b) Allgemeiner: Seien X1 , . . . , Xn ∈ L1 (P) , und X1 , . . . , Xn seien stochastisch unabhängig. Dann: n n n ³Y ´ Y Y ¡ ¢ Xi ∈ L1 (P) und E Xi = E Xi . i=1 i=1 i=1 Definition 3.22 (Korrelationskoeffizient) Seien X, Y ∈ L2 (P) mit Var(X) > 0 und Var(Y ) > 0 . Dann heißt ρ(X, Y ) := p Cov(X, Y ) p Var(X) Var(Y ) ∈ [ −1 , 1 ] der Korrelationskoeffizient oder die Korrelation der Zufallsvariablen X und Y . Interpretation: Der Korrelationskoeffizient ρ = ρ(X, Y ) ist eine Maßzahl für die Stärke der linearen Abhängigkeit der beiden Zufallsvariablen X und Y . Die extremen Fälle ρ = ±1 liegen genau dann vor, wenn Y = bX + c P-f.s. mit gewissen reellen Konstanten b 6= 0 und c (im Fall b > 0 ist ρ = 1, im Fall b < 0 ist ρ = −1). Der Fall ρ = 0 ist die Unkorreliertheit der beiden Zufallsvariablen. 3.4 Charakteristische Funktionen Vorbemerkungen: Komplexe Zufallsvariable Die Menge C der komplexen Zahlen, C = © z = x + iy : x, y ∈ R ª , ist zunächst – bis auf die Schreibweise – identisch mit der euklidischen Ebene R2 und ist daher insbesondere mit der Borel’schen Sigma-Algebra B 2 versehen. Hinzu kommt natürlich die algebraische Körperstruktur. Eine Funktion Z : Ω −→ C lässt sich durch zwei reelle Funktionen X, Y : Ω −→ R beschreiben gemäß Z(ω) = X(ω) + i Y (ω) ∀ ω ∈ Ω , kurz: Z = X + i Y . Sei (Ω, C, P) ein W-Raum. Eine komplexe Zufallsvariable auf Ω ist eine messbare (bezgl. C und B2 ) Funktion Z : Ω −→ C , und das ist gleichbedeutend mit Z = X + iY und X, Y ∈ M(Ω, C). Die komplexe Zufallsvariable Z = X + iY heißt P-integrierbar, wenn X und Y P-integrierbar sind, und in diesem Fall heißt Z Z dP := E(Z) := E(X) + i E(Y ) ∈ C Ω das P-Integral bzw. der Erwartungswert von Z. Bezeichne L1 (P, C) die Menge aller P-integrierbaren komplexen Zufallsvariablen auf Ω. Man sieht leicht: ¡ ¢ (i) Für eine kompleze Zufallsvariable Z auf Ω : Z ∈ L1 (P, C) ⇐⇒ E |Z| < ∞ ; ¯ ¯ ¡ ¢ ¡ ¢ (ii) für Z ∈ L1 (P, C) : ¯ E(Z) ¯ ≤ E |Z| , und E Z = E(Z) ; Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Wintersemester 2012/13 Kapitel 3: Reelle Zufallsvariablen 31 (iii) für Z1 , Z2 ∈ L1 (P, C) und a, b ∈ C : aZ1 + bZ2 ∈ L1 (P, C) und E(aZ1 + bZ2 ) = a E(Z1 ) + b E(Z2 ) . Betrachten wir nun speziell den W-Raum (R, B1 , P ) für ein P ∈ W(R, B1 ) und für irgend ein gegebenes t ∈ R die kompleze Zufallsvariable auf R, R 3 x 7−→ eitx ∈ C , wobei bekanntlich eia = cos(a) + i sin(a) ∀ a ∈ R . ¯ itx ¯ Wegen ¯ e ¯ = 1, ist diese Funktion nach Punkt (i) der Vorbemerkung P -integrierbar, und wir haben daher Z eitx dP (x) ∈ C . R Lesen wir dieses Integral als Funktion der reellen Variablen t, so ist damit jedem P ∈ W(R, B1 ) eine komplexwertige Funktion zugeordnet. Definition 3.23 (Charakteristische Funktion) Für jedes P ∈ W(R, B1 ) heißt die Funktion Z ϕP : R −→ C , ϕP (t) = eitx dP (x) ∀ t ∈ R , R die charakteristische Funktion (oder die Fourier-Transformierte) von P . Wenn (Ω, C, P) ein W-Raum und X eine reelle Zufallsvariable auf Ω sind, dann heißt ϕX = ϕPX die charakteristische Funktion der Zufallsvariablen X; mit der Transformationsformel (Theorem 3.10) können wir auch schreiben: ³ ´ ϕX (t) = E eitX ∀ t ∈ R. Bemerkungen: 1. Für eine charakteristische Funktion ϕ = ϕP bzw. ϕ = ϕX sieht man leicht: ¯ ¯ ¯ ϕ(t) ¯ ≤ 1 ∀ t ∈ R , sowie ϕ(0) = 1 . Desweiteren ist nicht sehr schwer zu zeigen: ϕ ist gleichmäßig stetig. 2. Aus Definition 3.23 sehen wir, wie sich die charakteristische Funktion bei einer linearen Transformation der Zufallsvariablen X zu bX + c (mit reellen Konstanten b und c) ändert: ϕbX+c (t) = eict ϕX (bt) ∀ t ∈ R . Beispiel: Normalverteilte reelle Zufallsvariable Für X ∼ N(β, σ 2 ) erhalten wir mit Resultaten der Funktionentheorie (Kurvenintegrale holomorpher Funktionen) : ¡ ¢ ϕX (t) = exp iβt − 12 σ 2 t2 ∀ t ∈ R. Beispiel: Binomialverteilte Zufallsvariable Sei X ∼ Bi(n, p) . Mit elementarer Berechnung erhält man: ϕX (t) = = n X j=0 n X eitj j ¡n¢ ¡ j j=0 ¡n¢ pj (1 − p)n−j p eit ¢j ¡ ¡ ¢n 1 − p)n−j = p eit + 1 − p ∀ t ∈ R. Norbert Gaffke: Vorlesung “Einführung in die Wahrscheinlichkeitstheorie und Statistik”, Wintersemester 2012/13 Kapitel 3: Reelle Zufallsvariablen 32 Theorem 3.24 (Eindeutigkeitssatz für charakteristische Funktionen) Wenn P , Q ∈ W(R, B1 ) und ϕP = ϕQ , d.h. ϕP (t) = ϕQ (t) ∀ t ∈ R , dann: P = Q . Bemerkung: Inversionsformel Der Eindeutigkeitssatz lässt sich durch die Herleitung der Inversionsformel beweisen, die für sich genommen interessant ist: Für P ∈ W(R, B1 ) mit charakteristischer Funktion ϕP gilt: ¡ P (a , b ) ¢ + 1 2 ¡ P {a, b} ¢ 1 = lim T →∞ 2π Z T −T e−iat − e−ibt ϕP (t) dt it für alle a, b ∈ R , a < b . Theorem 3.25 ( Summe stochastisch unabhängiger reeller Zufallsvariablen) Seien X1 , . . . , Xn stochastisch unabhängige reelle Zufallsvariablen auf Ω. Wir betrachten die Summenn P variable S = Xi . Dann gilt: i=1 ϕS (t) = n Y ϕXi (t) ∀ t ∈ R . i=1 Korollar 3.26 (Summe stochastisch unabhängiger normalverteilter ZV’en) Seien X1 , . . . , Xn stochastisch unabhängige reelle Zufallsvariablen auf Ω mit Xi ∼ N(βi , σi2 ) , wobei βi ∈ R und σi ∈ ( 0 , ∞) , für alle i = 1, . . . , n . Dann: n X i=1 ³P ´ n n P Xi ∼ N βi , σi2 . i=1 i=1