14 4. Der Erwartungswert Im folgenden sei stets ein W-Raum (S, A , P) zugrundegelegt. 4.1 P-Integral und Erwartungswert Für meßbare numerische Funktionen (also für numerische ZV'en) auf dem Maßraum (S, A , P) ist (unter gewissen Voraussetzungen) das aus der Maßtheorie bekannte P-Integral erklärt, dessen Konstruktion hier kurz wiederholt sei. Sei õ die Menge aller reellen ZV'en mit endlichem Wertebereich, also der Vektorraum (!) der sogenannten Elementarfunktionen (MIT: "Treppenfunktionen") und sei õ+ die Menge aller nichtnegativen Elementarfunktionen. Zu jedem f 0 õ+ existiert eine Darstellung f = n ∑α 1 i i =1 Ai , wobei (A1, ..., An) eine meßbare Zerlegung von S ist, und die " i pw verschiedene nichtnegative reelle Zahlen sind. n Man definiert ∫ f dP : = ∑ α P( A ) . i i Sei M & + die Menge aller numerischen nichtnegativen Zufallsvariablen auf (S, A , P). Zu jedem & + existiert eine Folge (f n: n0ù) in õ+ mit f n 8 f für n64. f0M i =1 Man definiert: ∫ f dP : = sup ∫ f n dP (∈ [0, ∞ ]). n Eine numerische Zufallsvariable X ist darstellbar als X = X + - X - , wobei X+ = max(X, 0), X - = - min(X, 0), X+ $0, X - $0. X heißt P-quasiintegrierbar (bzw. P-integrierbar), wenn IX+ dP < 4 oder (bzw. und) IX - dP < 4 und man definiert IX dP := IX+ dP - IX - dP. Das P-Integral einer P-quasiintegrierbaren numerischen Zufallsvariablen X heißt in der Wahrscheinlichkeitsrechnung der Erwartungswert von X: E(X):= IX dP. Sei & L =& L (S, A , P) bzw. L = L (S, A , P) die Menge aller P-integrierbaren numerischen bzw. reellen Zufallsvariablen auf (S, A , P). 4.2 Die wichtigsten Eigenschaften des Erwartungswertes 1) Indikator- und Elementarfunktionen: E(1A) = P(A) für alle A 0 A , E(1) = 1. n Für X = ∑ αi 1A 0 õ ist X 0 L und E ( X ) = n ∑ α P( A ) . i i 2) E( A ) ist ein homogener, additiver und monotoner Operator auf M & + , d.h. für X, Y 0 M &+ : E(cX) = c E(X) für alle c $ 0 (Homogenität); E(X+Y) = E(X) + E(Y) (Additivität); E(X) # E(Y), falls X # Y P-f.s. (Monotonie). 3) L ist ein (ú-)Vektorraum und E( @ ) ist ein positives lineares Funktional auf L, d.h. für X,Y 0 L, a,b 0 ú ist aX + bY 0 L (Vektorraumeigenschaft) und E(aX + bY) = a E(X) + b E(Y) (Linearität), und für X,Y 0 L mit X # Y (P-fast) ist E(X) # E(Y) (Positivität). L enthält insbesondere alle beschränkten reellen Zufallsvariablen. 4) Satz von der monotonen Konvergenz (Levy): Sei (X n) eine (P-fast sicher) monoton wachsende Folge in M & + und sei X := lim X n (0 M & + ). Dann gilt: E(X n) 8 E(X) für n64. i =1 i i =1 15 5) Lemma von Fatou: Sei (X n) eine Folge in M & + . Dann gilt: E(lim inf X n) # lim inf E(X n). 6) Satz von der majorisierten Konvergenz (Lebesgue): Sei (X n) eine Folge von numerischen Zufallsvariablen, X eine numerische ZV und es sei X = lim X n (punktweise P-fast sicher). Ferner existiere Z 0 & L mit | X n | # Z P-f.s. für alle n0ù. Dann ist X n 0 & L für alle n0ù, X 0 & L und es gilt E(X) = lim E(X n). Bemerkungen 1) Sei X eine P-(quasi)integrierbare numerische ZV. Dann ist für alle A 0 A auch X .1A P(quasi)integrierbar. Man schreibt ∫ X dP := ∫ X ⋅ I A dP . A 2) Eine numerische ZV X ist genau dann P-integrierbar, wenn |X| P-integrierbar ist (d.h. E(|X|) < 4), und es gilt dann |E(X)| # E(|X|). 3) Endlichkeit integrierbarer ZV'en: Ist X 0 & L , so ist |X| < 4 P-f.s. 4) Für X 0 M & + gilt: E(X) = 0 ] X = 0 P-fast sicher. 5) Seien X, Y numerische ZV, sei X 0 & L , und sei X = Y P-fast sicher. Dann ist auch Y 0 & L und es gilt E(X) = E(Y). 6) Seien X, Y 0 & L und gelte ∫ X dP = ∫ Y dP A für alle A 0 A . Dann ist X = Y P-f.s.. A 7) Integration bezüglich eines Produktmaßes, Satz von Fubini Seien (S1, A1, P1) und (S 2, A 2, P2) W-Räume und sei (S, A , P) = (S 1× S 2, A1qA 2, P1qP2) der Produkt-W-Raum. Für jede numerische Zufallsvariable X : S 6 & ú gilt: ∫ | X | dP = ∫ ( ∫ | X (ω ,ω 1 Ω 2 )| dP2 (ω 2 ) ) dP1 (ω1 ) = Ω1 Ω 2 ∫ ( ∫ | X (ω ,ω 1 Ω 2 Ω1 2 )| dP1 (ω1 ) ) dP2 (ω 2 ) . Ist einer dieser Ausdrücke endlich, so ist X P-integrierbar, es existiert eine P1-Nullmenge N1 derart, daß X(T1, A ) P2-integrierbar ist für alle T1 0 N1c , es existiert eine P2-Nullmenge N2 derart, daß X( A , T2) P1-integrierbar ist für alle T2 0 N2c, und es gilt ∫ X dP = ∫ ( ∫ X (ω ,ω 1 Ω 2 ) dP2 (ω 2 ) ) dP1 (ω1 ) = Ω1 Ω 2 ∫ ( ∫ X (ω ,ω 1 2 Ω 2 Ω1 ) dP1 (ω1 ) ) dP2 (ω 2 ) . Dabei werden die inneren Integrale auf N1 bzw. auf N2 (z.B.) gleich 0 gesetzt. Entsprechendes gilt für endliche Produkträume mit mehr als zwei Faktoren. 4.3 Integraltransformationssatz Sei (F, F ) ein Ereignisraum, X: S 6 F eine F-wertige Zufallsvariable. PX bezeichne wie in 2.2 die Verteilung der Zufallsvariablen X. Ferner sei f: F 6 & úF-& Bmeßbar, also eine numerische Zufallsvariable auf dem W-Raum (F, F, PX). f ist genau dann PX-quasiintegrierbar, wenn f / X P-quasiintegrierbar ist, und es gilt dann: E(fBX) = If dPX . Bemerkungen 1) Seien (F, F ), X: S 6 F, PX wie in 4.3. Ferner sei g: F 6 & úF-& B -meßbar und PX- ∫ quasiintegrierbar, und B 0 F . Dann ist X −1 ( B) g ( X ) dP = ∫ g dP X B . 16 2) Sei X: S 6 & ú eine P-quasiintegrierbare numerische ZV. Dann ist E( X ) = ∫ X dP = ∫ x dP X ( x) . 4.4 Multiplikationssatz für Erwartungswerte Seien n0ù und (Xi: i=1,...,n) eine unabhängige Familie von numerischen Zufallsvariablen. n a) Falls X i $0 f.s. für i=1,...,n, so ist E (∏ X i ) = i =1 n ∏ E( X ) . i i =1 n b) Falls Xi P-integrierbar für 1,...,n, so ist auch n E (∏ X i ) = i =1 ∏ i =1 X i P-integrierbar und es gilt: n ∏ E( X ) . i i =1 4.5 Der Erwartungswert im diskreten Fall Sei (F, F ) ein Ereignisraum, X: S 6 F eine diskrete Zufallsvariable mit Träger TX d F und W-Funktion fX . Sei weiter g: F 6 & ú F-& B -meßbar. Dann gilt: 1) E( | g(X) | ) = ∑ | g ( x )| f X ( x ) . x ∈TX 2) g(X) ist genau dann P-integrierbar, wenn die Reihe ∑ g( x) f x ∈TX und aus jeder dieser äquivalenten Aussagen folgt: E(g(X)) = X ( x ) absolut-konvergent ist, ∑ g( x) f x ∈TX Insbesondere ist also für eine diskrete reelle Zufallsvariable X E(X) = X ( x) . ∑xf x ∈TX X ( x ) , falls diese Reihe absolut konvergiert. 4.6 Der Erwartungswert im stetigen Fall Sei n eine natürliche Zahl, X: S 6 ún eine A - Bn -meßbare, stetige Zufallsvariable mit der ú Borel-meßbar. Dann gilt: Dichte fX . Sei weiter g: ún 6 & 1) E( | g(X) | ) = ∫ | g( x)| f X ( x ) dλn ( x ) ; 2) g(X) ist genau dann P-integrierbar, wenn g @ fX Lebesgue-integrierbar ist, und aus jeder dieser äquivalenten Aussagen folgt: E(g(X)) = ∫ g( x) f X ( x ) dλn ( x ) . Zusatz: Im Fall n=1 erhält man mit g(x) = x; x0 ú: E(X) = Ix f(x) dx, falls I|x| f(x) dx < 4. 4.7 Varianz und Standardabweichung Sei X 0 & L . var(X) := F²(X) := E((X - E(X))2) heißt Varianz von X (oder zweites zentriertes Moment); F(X) = var( X ) heißt Standardabweichung von X. Für X 0 & L gilt: 1) var(X) $0; 2) var(X) = 0 ] es existiert c0ú mit X = c P-f.s.; 3) var(X) = E(X2) - (E(X))2 ("Verschiebungssatz"); 4) var(aX+b) = a² var(X) für a,b0ú. 4.8 L p - Räume 17 Für eine numerische Zufallsvariable X setze ||X||1 := E(|X|), ||X||2 := E ( X ²) . Für p=1,2 sei L p = {X | X reelle ZV auf (S, A, P), ||X||p < 4}. Insbesondere ist also L = L1. Die Elemente von L2 heißen quadratisch integrierbare reelle Zufallsvariablen. 1) Ungleichung von Schwarz: Für numerische ZV'en X,Y ist ||XAY||1 # ||X||2A||Y||2 . Insbesondere ist ||X||1 # ||X||2. 2) Ungleichung von Minkowski: Für numerische ZV'en X,Y, für die X+Y überall definiert ist, gilt: ||X+Y||p # ||X||p + ||Y||p für p=1,2. 3) Die Räume Lp sind ú-Vektorräume und || A || ist eine Halbnorm auf Lp, d.h. || A || hat alle Eigenschaften einer Norm außer der strikten Definitheit: Aus ||X||p = 0 folgt nicht X=0, sondern nur X=0 P-fast sicher (p=1,2). Ferner ist L2 d L1 und für X,Y 0 L2 ist XAY 0 L1. 4.9 Lineare Abhängigkeit Für X,Y 0 L2 ist [E(XY)]² = E(X²)AE(Y²) genau dann, wenn X und Y fast sicher linear abhängig sind, d.h. es existieren a,b0ú mit a²+b²>0 und aX+bY=0 P-fast sicher. 4.10 Kovarianz und Korrelation Seien X,Y 0 L2 . cov(X,Y) := E[(X-E(X))(Y-E(Y))]: Kovarianz von X und Y. cov( X , Y ) Falls var(X)>0 und var(Y)>0: ρ ( X , Y ): = : Korrelationskoeffizient von X und Y. σ ( X ) σ (Y ) X,Y 0 L2 heißen unkorreliert, falls cov(X,Y) = 0 ( ] D(X,Y) = 0, falls definiert). Es gilt: 1) cov(X,Y) = E(XY) - E(X)E(Y); speziell cov(X,X) = var(X); 2) Die Kovarianz ist eine symmetrische Biliearform auf L2, d.h. für X,Y,Z 0 L2, a0ú ist cov(X,Y) = cov(Y,X); cov(aX,Y) = a cov(X,Y); cov(X+Y,Z) = cov(X,Z) + cov(Y,Z). 3) X,Y unabhängig Y X,Y unkorreliert. (Die Umkehrung ist falsch.) Ferner, falls var(X)>0 und var(Y)>0: 4) -1 # D(X,Y) # 1; 5) |D(X,Y)| = 1 ] X, Y P-f.s. affin abhängig, d.h. es existieren a,b,c 0 ú mit a²+b²>0 und aX + bY = c P-f-s. 4.11 Erwartungswerte für Zufallsvektoren und Zufallsmatrizen Bekanntlich ist für n0ù ein n-dim. Zufallsvektor X ein Vektor, dessen Komponenten reelle Zufallsvariablen sind: X = (X1, ..., Xn)T. In Verallgemeinerung hiervon ist für m,n0ù eine (m,n)-Zufallsmatrix X eine (m,n)-Matrix, deren Komponenten reelle Zufallsvariablen sind: X = (Xi,j). Schreibe X0L1 (bzw. X0L2), falls X i,j0L1 (bzw. X i,j0L2) für alle i,j. Für X0L1 setze E(X) := (E(Xi,j)). Der Erwartungswert wird also komponentenweise gebildet; E(X) ist eine (konstante) reelle (m,n)-Matrix; für n=1 ein m-dim. (konstanter) Spaltenvektor. Sei X eine (m,n)-Zufallsmatrix, wobei X0L1, seien A eine reelle (konstante) (r,m)-, B eine reelle (konstante) (n,s)-Matrix. Dann gilt: E(AX) = AE(X) und E(XB) = E(X)B. 4.12 Kovarianzmatrix Sei X = (X1, ..., Xn)T 0L2 ein n-dimensionaler Zufallsvektor. Die symmetrische (n,n)-Matrix C(X) := E[(X-E(X))(X-E(X))T] = (cov(Xi,Xj))i,j=1,...,n heißt Kovarianzmatrix von X. (Speziell für n=1 ist C(X) = var(X).) Es gilt: 1) C(AX+a) = A C(X) AT für jede reelle (konstante) (m,n)-Matrix A und jeden (konstanten) 18 Vektor a0úm ; n 2) C(X) ist nichtnegativ definit, d.h. t C(X) t = var( ∑ t i X i ) $0 für alle t = (t1,...,tn)T 0 ún; T i =1 n 3) var( ∑ X i ) = i =1 n ∑ var( X ) + 2 ∑ cov( X , X i i =1 i 1≤ i < j ≤ n n j ) , speziell var( ∑ X i ) = i =1 n ∑ var( X ) falls i =1 i die Xi paarweise unkorreliert sind (Gleichung von Bienaymé). 4.13 Faltung von W-Maßen auf (ú, B) Seien P1, P2 W-Maße auf (ú, B) und sei A: ú² 6 ú die Addition, also A(x1,x2) = x1+x2 für (x1,x2)0ú². Dann heißt das W-Maß P1’P2 := A(P1qP2) die Faltung (das Faltungsprodukt) von P1 und P2. P1’P2 ist wieder ein W-Maß auf (ú, B) und für B0B gilt: P1 ∗ P2 ( B) = ∫ P ( B − x ) dP ( x ) = ∫ P ( B − x 2 1 1 1 1 2 ) dP2 ( x 2 ) . Das Faltungsprodukt ist kommutativ und assoziativ. Damit ist für W-Maße P1, ..., Pn auf (ú, B) auch das n-fache Faltungsprodukt P1’...’Pn erklärt und es gilt P1’...’Pn = A n(P1q...qPn), wobei A n : ún 6 ú, An(x1,...,xn) = x1+...+x n für (x1,...,xn)0ún. 4.14 Die Verteilung der Summe von unabhängigen Zufallsvariablen Seien X1, ..., X n unabhängige reelle ZV'en und sei S n = X1 + ... + Xn. Dann gilt: PSn = PX 1 ∗ ...∗ PX n . 4.15 Die Faltung stetiger W-Maße Sei P1 ein stetiges W-Maß auf (ú, B) mit der W-Dichte f1 und sei P2 irgendein W-Maß auf (ú, B). Dann ist P1’P2 stetig mit der W-Dichte x 6 If 1(x-x2) dP2(x2) , falls das Integral endlich ist, bzw. = 0, sonst. Falls auch P2 stetig ist mit der Dichte f2, so hat P1’P2 die WDichte f1’f2(x) := If1(x-y) f2(y) dy ("Faltung der W-Dichten f1 und f2"). Auch diese Verknüpfung ist kommutativ und assoziativ (Leb.f.ü.). Falls hierbei fi(x) = 0 für x<0, i=1,2, so ist f1’f2(x) = 0 für x#0 und x f1’f2(x) = ∫f 0 1 ( x − y ) f 2 ( y ) dy für x>0.