4. Der Erwartungswert

Werbung
14
4. Der Erwartungswert
Im folgenden sei stets ein W-Raum (S, A , P) zugrundegelegt.
4.1 P-Integral und Erwartungswert
Für meßbare numerische Funktionen (also für numerische ZV'en) auf dem Maßraum
(S, A , P) ist (unter gewissen Voraussetzungen) das aus der Maßtheorie bekannte P-Integral
erklärt, dessen Konstruktion hier kurz wiederholt sei.
Sei õ die Menge aller reellen ZV'en mit endlichem Wertebereich, also der Vektorraum (!) der
sogenannten Elementarfunktionen (MIT: "Treppenfunktionen") und sei õ+ die Menge aller
nichtnegativen Elementarfunktionen.
Zu jedem f 0 õ+ existiert eine Darstellung f =
n
∑α 1
i
i =1
Ai
, wobei (A1, ..., An) eine meßbare
Zerlegung von S ist, und die " i pw verschiedene nichtnegative reelle Zahlen sind.
n
Man definiert
∫ f dP : = ∑ α P( A ) .
i
i
Sei M
& + die Menge aller numerischen nichtnegativen Zufallsvariablen auf (S, A , P). Zu jedem
& + existiert eine Folge (f n: n0ù) in õ+ mit f n 8 f für n64.
f0M
i =1
Man definiert:
∫ f dP : = sup ∫ f
n
dP (∈ [0, ∞ ]).
n
Eine numerische Zufallsvariable X ist darstellbar als X = X + - X - , wobei X+ = max(X, 0),
X - = - min(X, 0), X+ $0, X - $0. X heißt P-quasiintegrierbar (bzw. P-integrierbar), wenn
IX+ dP < 4 oder (bzw. und) IX - dP < 4 und man definiert IX dP := IX+ dP - IX - dP.
Das P-Integral einer P-quasiintegrierbaren numerischen Zufallsvariablen X heißt in der
Wahrscheinlichkeitsrechnung der Erwartungswert von X:
E(X):= IX dP.
Sei &
L =&
L (S, A , P) bzw. L = L (S, A , P) die Menge aller P-integrierbaren numerischen bzw.
reellen Zufallsvariablen auf (S, A , P).
4.2 Die wichtigsten Eigenschaften des Erwartungswertes
1) Indikator- und Elementarfunktionen: E(1A) = P(A) für alle A 0 A , E(1) = 1.
n
Für X =
∑ αi 1A 0 õ ist X 0 L und E ( X ) =
n
∑ α P( A ) .
i
i
2) E( A ) ist ein homogener, additiver und monotoner Operator auf M
& + , d.h. für X, Y 0 M
&+ :
E(cX) = c E(X) für alle c $ 0 (Homogenität);
E(X+Y) = E(X) + E(Y) (Additivität);
E(X) # E(Y), falls X # Y P-f.s. (Monotonie).
3) L ist ein (ú-)Vektorraum und E( @ ) ist ein positives lineares Funktional auf L,
d.h. für X,Y 0 L, a,b 0 ú ist aX + bY 0 L (Vektorraumeigenschaft) und
E(aX + bY) = a E(X) + b E(Y) (Linearität),
und für X,Y 0 L mit X # Y (P-fast) ist E(X) # E(Y) (Positivität).
L enthält insbesondere alle beschränkten reellen Zufallsvariablen.
4) Satz von der monotonen Konvergenz (Levy):
Sei (X n) eine (P-fast sicher) monoton wachsende Folge in M
& + und sei X := lim X n (0 M
& + ).
Dann gilt: E(X n) 8 E(X) für n64.
i =1
i
i =1
15
5) Lemma von Fatou: Sei (X n) eine Folge in M
& + . Dann gilt: E(lim inf X n) # lim inf E(X n).
6) Satz von der majorisierten Konvergenz (Lebesgue):
Sei (X n) eine Folge von numerischen Zufallsvariablen, X eine numerische ZV und es sei
X = lim X n (punktweise P-fast sicher). Ferner existiere Z 0 &
L mit | X n | # Z P-f.s. für alle
n0ù. Dann ist X n 0 &
L für alle n0ù, X 0 &
L und es gilt E(X) = lim E(X n).
Bemerkungen
1) Sei X eine P-(quasi)integrierbare numerische ZV. Dann ist für alle A 0 A auch X .1A P(quasi)integrierbar. Man schreibt
∫ X dP := ∫ X ⋅ I
A
dP .
A
2) Eine numerische ZV X ist genau dann P-integrierbar, wenn |X| P-integrierbar ist (d.h.
E(|X|) < 4), und es gilt dann |E(X)| # E(|X|).
3) Endlichkeit integrierbarer ZV'en: Ist X 0 &
L , so ist |X| < 4 P-f.s.
4) Für X 0 M
& + gilt: E(X) = 0 ] X = 0 P-fast sicher.
5) Seien X, Y numerische ZV, sei X 0 &
L , und sei X = Y P-fast sicher. Dann ist auch Y 0 &
L
und es gilt E(X) = E(Y).
6) Seien X, Y 0 &
L und gelte
∫ X dP = ∫ Y dP
A
für alle A 0 A . Dann ist X = Y P-f.s..
A
7) Integration bezüglich eines Produktmaßes, Satz von Fubini
Seien (S1, A1, P1) und (S 2, A 2, P2) W-Räume und sei (S, A , P) = (S 1× S 2, A1qA 2, P1qP2) der
Produkt-W-Raum. Für jede numerische Zufallsvariable X : S 6 &
ú gilt:
∫ | X | dP = ∫ ( ∫ | X (ω ,ω
1
Ω
2
)| dP2 (ω 2 ) ) dP1 (ω1 ) =
Ω1 Ω 2
∫ ( ∫ | X (ω ,ω
1
Ω 2 Ω1
2
)| dP1 (ω1 ) ) dP2 (ω 2 ) .
Ist einer dieser Ausdrücke endlich, so ist X P-integrierbar, es existiert eine P1-Nullmenge N1
derart, daß X(T1, A ) P2-integrierbar ist für alle T1 0 N1c , es existiert eine P2-Nullmenge N2
derart, daß X( A , T2) P1-integrierbar ist für alle T2 0 N2c, und es gilt
∫ X dP = ∫ ( ∫ X (ω ,ω
1
Ω
2
) dP2 (ω 2 ) ) dP1 (ω1 ) =
Ω1 Ω 2
∫ ( ∫ X (ω ,ω
1
2
Ω 2 Ω1
) dP1 (ω1 ) ) dP2 (ω 2 ) .
Dabei werden die inneren Integrale auf N1 bzw. auf N2 (z.B.) gleich 0 gesetzt.
Entsprechendes gilt für endliche Produkträume mit mehr als zwei Faktoren.
4.3 Integraltransformationssatz
Sei (F, F ) ein Ereignisraum, X: S 6 F eine F-wertige Zufallsvariable.
PX bezeichne wie in 2.2 die Verteilung der Zufallsvariablen X. Ferner sei f: F 6 &
úF-&
Bmeßbar, also eine numerische Zufallsvariable auf dem W-Raum (F, F, PX).
f ist genau dann PX-quasiintegrierbar, wenn f / X P-quasiintegrierbar ist, und es gilt dann:
E(fBX) = If dPX .
Bemerkungen
1) Seien (F, F ), X: S 6 F, PX wie in 4.3. Ferner sei g: F 6 &
úF-&
B -meßbar und PX-
∫
quasiintegrierbar, und B 0 F . Dann ist
X
−1
( B)
g ( X ) dP =
∫ g dP
X
B
.
16
2) Sei X: S 6 &
ú eine P-quasiintegrierbare numerische ZV. Dann ist
E( X ) =
∫ X dP = ∫ x dP
X
( x) .
4.4 Multiplikationssatz für Erwartungswerte
Seien n0ù und (Xi: i=1,...,n) eine unabhängige Familie von numerischen Zufallsvariablen.
n
a) Falls X i $0 f.s. für i=1,...,n, so ist E (∏ X i ) =
i =1
n
∏ E( X ) .
i
i =1
n
b) Falls Xi P-integrierbar für 1,...,n, so ist auch
n
E (∏ X i ) =
i =1
∏
i =1
X i P-integrierbar und es gilt:
n
∏ E( X ) .
i
i =1
4.5 Der Erwartungswert im diskreten Fall
Sei (F, F ) ein Ereignisraum, X: S 6 F eine diskrete Zufallsvariable mit Träger TX d F und
W-Funktion fX . Sei weiter g: F 6 &
ú F-&
B -meßbar. Dann gilt:
1) E( | g(X) | ) = ∑ | g ( x )| f X ( x ) .
x ∈TX
2) g(X) ist genau dann P-integrierbar, wenn die Reihe
∑ g( x) f
x ∈TX
und aus jeder dieser äquivalenten Aussagen folgt: E(g(X)) =
X
( x ) absolut-konvergent ist,
∑ g( x) f
x ∈TX
Insbesondere ist also für eine diskrete reelle Zufallsvariable X E(X) =
X
( x) .
∑xf
x ∈TX
X
( x ) , falls
diese Reihe absolut konvergiert.
4.6 Der Erwartungswert im stetigen Fall
Sei n eine natürliche Zahl, X: S 6 ún eine A - Bn -meßbare, stetige Zufallsvariable mit der
ú Borel-meßbar. Dann gilt:
Dichte fX . Sei weiter g: ún 6 &
1) E( | g(X) | ) =
∫ | g( x)| f
X
( x ) dλn ( x ) ;
2) g(X) ist genau dann P-integrierbar, wenn g @ fX Lebesgue-integrierbar ist, und aus jeder
dieser äquivalenten Aussagen folgt: E(g(X)) =
∫ g( x) f
X
( x ) dλn ( x ) .
Zusatz: Im Fall n=1 erhält man mit g(x) = x; x0 ú: E(X) = Ix f(x) dx, falls I|x| f(x) dx < 4.
4.7 Varianz und Standardabweichung
Sei X 0 &
L . var(X) := F²(X) := E((X - E(X))2) heißt Varianz von X (oder zweites zentriertes
Moment); F(X) = var( X ) heißt Standardabweichung von X. Für X 0 &
L gilt:
1) var(X) $0;
2) var(X) = 0 ] es existiert c0ú mit X = c P-f.s.;
3) var(X) = E(X2) - (E(X))2 ("Verschiebungssatz");
4) var(aX+b) = a² var(X) für a,b0ú.
4.8 L p - Räume
17
Für eine numerische Zufallsvariable X setze ||X||1 := E(|X|), ||X||2 := E ( X ²) .
Für p=1,2 sei L p = {X | X reelle ZV auf (S, A, P), ||X||p < 4}. Insbesondere ist also L = L1.
Die Elemente von L2 heißen quadratisch integrierbare reelle Zufallsvariablen.
1) Ungleichung von Schwarz: Für numerische ZV'en X,Y ist ||XAY||1 # ||X||2A||Y||2 .
Insbesondere ist ||X||1 # ||X||2.
2) Ungleichung von Minkowski: Für numerische ZV'en X,Y, für die X+Y überall definiert
ist, gilt: ||X+Y||p # ||X||p + ||Y||p für p=1,2.
3) Die Räume Lp sind ú-Vektorräume und || A || ist eine Halbnorm auf Lp, d.h. || A || hat alle
Eigenschaften einer Norm außer der strikten Definitheit: Aus ||X||p = 0 folgt nicht X=0,
sondern nur X=0 P-fast sicher (p=1,2). Ferner ist L2 d L1 und für X,Y 0 L2 ist XAY 0 L1.
4.9 Lineare Abhängigkeit
Für X,Y 0 L2 ist [E(XY)]² = E(X²)AE(Y²) genau dann, wenn X und Y fast sicher linear
abhängig sind, d.h. es existieren a,b0ú mit a²+b²>0 und aX+bY=0 P-fast sicher.
4.10 Kovarianz und Korrelation
Seien X,Y 0 L2 .
cov(X,Y) := E[(X-E(X))(Y-E(Y))]: Kovarianz von X und Y.
cov( X , Y )
Falls var(X)>0 und var(Y)>0: ρ ( X , Y ): =
: Korrelationskoeffizient von X und Y.
σ ( X ) σ (Y )
X,Y 0 L2 heißen unkorreliert, falls cov(X,Y) = 0 ( ] D(X,Y) = 0, falls definiert). Es gilt:
1) cov(X,Y) = E(XY) - E(X)E(Y); speziell cov(X,X) = var(X);
2) Die Kovarianz ist eine symmetrische Biliearform auf L2, d.h. für X,Y,Z 0 L2, a0ú ist
cov(X,Y) = cov(Y,X); cov(aX,Y) = a cov(X,Y); cov(X+Y,Z) = cov(X,Z) + cov(Y,Z).
3) X,Y unabhängig Y X,Y unkorreliert. (Die Umkehrung ist falsch.)
Ferner, falls var(X)>0 und var(Y)>0:
4) -1 # D(X,Y) # 1;
5) |D(X,Y)| = 1 ] X, Y P-f.s. affin abhängig, d.h. es existieren a,b,c 0 ú mit a²+b²>0 und
aX + bY = c P-f-s.
4.11 Erwartungswerte für Zufallsvektoren und Zufallsmatrizen
Bekanntlich ist für n0ù ein n-dim. Zufallsvektor X ein Vektor, dessen Komponenten reelle
Zufallsvariablen sind: X = (X1, ..., Xn)T. In Verallgemeinerung hiervon ist für m,n0ù eine
(m,n)-Zufallsmatrix X eine (m,n)-Matrix, deren Komponenten reelle Zufallsvariablen sind:
X = (Xi,j).
Schreibe X0L1 (bzw. X0L2), falls X i,j0L1 (bzw. X i,j0L2) für alle i,j.
Für X0L1 setze E(X) := (E(Xi,j)). Der Erwartungswert wird also komponentenweise gebildet;
E(X) ist eine (konstante) reelle (m,n)-Matrix; für n=1 ein m-dim. (konstanter) Spaltenvektor.
Sei X eine (m,n)-Zufallsmatrix, wobei X0L1, seien A eine reelle (konstante) (r,m)-, B eine
reelle (konstante) (n,s)-Matrix. Dann gilt: E(AX) = AE(X) und E(XB) = E(X)B.
4.12 Kovarianzmatrix
Sei X = (X1, ..., Xn)T 0L2 ein n-dimensionaler Zufallsvektor. Die symmetrische (n,n)-Matrix
C(X) := E[(X-E(X))(X-E(X))T] = (cov(Xi,Xj))i,j=1,...,n heißt Kovarianzmatrix von X.
(Speziell für n=1 ist C(X) = var(X).) Es gilt:
1) C(AX+a) = A C(X) AT für jede reelle (konstante) (m,n)-Matrix A und jeden (konstanten)
18
Vektor a0úm ;
n
2) C(X) ist nichtnegativ definit, d.h. t C(X) t = var( ∑ t i X i ) $0 für alle t = (t1,...,tn)T 0 ún;
T
i =1
n
3) var( ∑ X i ) =
i =1
n
∑ var( X ) + 2 ∑ cov( X , X
i
i =1
i
1≤ i < j ≤ n
n
j
) , speziell var( ∑ X i ) =
i =1
n
∑ var( X ) falls
i =1
i
die Xi paarweise unkorreliert sind (Gleichung von Bienaymé).
4.13 Faltung von W-Maßen auf (ú, B)
Seien P1, P2 W-Maße auf (ú, B) und sei A: ú² 6 ú die Addition, also A(x1,x2) = x1+x2 für
(x1,x2)0ú². Dann heißt das W-Maß P1’P2 := A(P1qP2) die Faltung (das Faltungsprodukt) von
P1 und P2. P1’P2 ist wieder ein W-Maß auf (ú, B) und für B0B gilt:
P1 ∗ P2 ( B) =
∫ P ( B − x ) dP ( x ) = ∫ P ( B − x
2
1
1
1
1
2
) dP2 ( x 2 ) .
Das Faltungsprodukt ist kommutativ und assoziativ. Damit ist für W-Maße P1, ..., Pn auf
(ú, B) auch das n-fache Faltungsprodukt P1’...’Pn erklärt und es gilt
P1’...’Pn = A n(P1q...qPn), wobei A n : ún 6 ú, An(x1,...,xn) = x1+...+x n für (x1,...,xn)0ún.
4.14 Die Verteilung der Summe von unabhängigen Zufallsvariablen
Seien X1, ..., X n unabhängige reelle ZV'en und sei S n = X1 + ... + Xn.
Dann gilt: PSn = PX 1 ∗ ...∗ PX n .
4.15 Die Faltung stetiger W-Maße
Sei P1 ein stetiges W-Maß auf (ú, B) mit der W-Dichte f1 und sei P2 irgendein W-Maß auf
(ú, B). Dann ist P1’P2 stetig mit der W-Dichte x 6 If 1(x-x2) dP2(x2) , falls das Integral
endlich ist, bzw. = 0, sonst. Falls auch P2 stetig ist mit der Dichte f2, so hat P1’P2 die WDichte f1’f2(x) := If1(x-y) f2(y) dy ("Faltung der W-Dichten f1 und f2").
Auch diese Verknüpfung ist kommutativ und assoziativ (Leb.f.ü.).
Falls hierbei fi(x) = 0 für x<0, i=1,2, so ist f1’f2(x) = 0 für x#0 und
x
f1’f2(x) =
∫f
0
1
( x − y ) f 2 ( y ) dy für x>0.
Herunterladen