Lösung 9 - ISI Fallback Page

Werbung
Signal and Information
Processing Laboratory
Zeitdiskrete und statistische
Signalverarbeitung (ZSSV)
dass E[Y ] endlich ist, da sonst E[X] · E[Y ] undefiniert ist. Die folgende Rechnung zeigt,
dass E[Y ] endlich ist:
Z ∞Z ∞
y fXY (x, y) dx dy
E[Y ] =
−∞ −∞
Z ∞Z ∞
1
y [δ(y − x) + δ(y + x)] fX (x) dx dy
=
2 −∞ −∞
Z ∞
1
=
(x − x) fX (x) dx
2 −∞
Institut für Signal- und
Informationsverarbeitung
Prof. H.-A. Loeliger
Musterlösung 9
http://www.isi.ee.ethz.ch/teaching/courses/zssv
22. November 2016
=0
Verbundwahrscheinlichkeitsdichte
Aufgabe 4.6
R∞
a) E[X] = −∞ x fX (x) dx (Definition 4.9)
Jetzt gilt: fX (−x) = fX (x), d.h. fX (x) ist eine gerade Funktion. Daraus folgt:
Z ∞
xfX (x) dx
E[X] =
=
=
Z
−∞
0
x fX (x) dx +
−∞
Z 0
Z
∞
x fX (x) dx
0
x fX (−x) dx +
−∞
=−
= 0.
Z
∞
x fX (x) dx +
Z
∞
x fX (x) dx
Z0 ∞
und daher gilt E[X] · E[Y ] = 0 · E[Y ] = 0 = E[X · Y ], d.h. X und Y sind unkorreliert.
d) X und Y sind unabhängig falls gilt: fXY (x, y) = fX (x) · fY (y).
Einerseits ist:
Z ∞
fXY (x, y) dx
fY (y) =
−∞
Z ∞
1
[δ(y − x) + δ(y + x)] fX (x) dx
=
2 −∞
1
= [fX (y) + fX (−y)]
2
= fX (y) (weil fX (−y) = fX (y)) ,
so dass fX (x) · fY (y) = fX (x) · fX (y).
Anderseits ist fXY (x, y) = fX (x) 12 [δ(y − x) + δ(y + x)].
Weil fX (y) 6= 21 [δ(y − x) + δ(y + x)] ist fXY (x, y) 6= fX (x) · fY (y). X und Y sind also
abhängig. Das ist auch wie folgt intuitiv einsichtig: Falls x gegeben ist, können Aussagen
über y gemacht werden, nämlich: y = x oder y = −x. Beide Grössen sind also abhängig.
x fX (x) dx
0
0
b) Satz 4.3 im Skript gibt an, wie man den Erwartungswert einer Funktion eines reellen
Zufallsvektors berechnen kann. In dieser Aufgabe ist X = (x, y) und g(X) = xy. Wir
können schreiben:
Z ∞Z ∞
xy fXY (x, y) dx dy
E[X · Y ] =
−∞ −∞
Z ∞Z ∞
1
=
xy fX (x) [δ(y − x) + δ(y + x)] dx dy
2 −∞ −∞
Z ∞
Z ∞
1
y [δ(y − x) + δ(y + x)] dy dx
x fX (x)
=
2 −∞
−∞
Z ∞
1
=
x fX (x) (x − x) dx
2 −∞
Dichte der Summe
Aufgabe 4.7
a)
E[X] = −1 · P (X = −1) + 0 · P (X = 0) + 1 · P (X = 1)
1
1
1
= −1 · + 0 · + 1 ·
4
2
4
= 0
= 0.
c) X und Y sind unkorreliert falls gilt: E[X · Y ] = E[X] · E[Y ].
E[X · Y ] = 0, siehe b) und E[X] = 0, siehe a). Wir sollten uns nun noch davon überzeugen,
1
E[Y ] = −1 · P (Y = −1) + 1 · P (Y = 1)
1
1
= −1 · + 1 ·
2
2
= 0
2
Aus Satz 4.4 folgt:
E[Z] = E[X] + E[Y ]
= 0
die Vereinigung aller Ereignisse X1 = x1 , für welche g1 (X1 ) = y1 . Die Wahrscheinlichkeit
von dem Ereignis Y1 = y1 ist somit gegeben durch
X
P (Y1 = y1 ) =
P (X1 = x1 ).
x1 ∈X :g1 (x1 )=y1
b) Wir gehen aus von Z = X +Y . Welche Experimente führen nun zu einem fixen Wert Z = z?
z erhalten wir, wenn X = x auftritt und Y = z −x. Dieses Ereignis hat die Wahrscheinlichkeit fX,Y (x, z − x), und da X und Y unabhängig sind, ist diese Wahrscheinlichkeit genau
fX (x)fY (z − x). Dies ist aber nur eine von unendlich vielen Möglichkeiten das Ergebnis z
zu erhalten, d.h. wir müssen über alle möglichen x integrieren:
Z ∞
fX (x)fY (z − x)dx
fZ (z) =
−∞
Da es sich bei X und Y um eine diskrete Zufallsgrösse handelt, ist die Dichte eine Summe
von Dirac-Stössen:
Analog dazu
Die Verbundwahrscheinlichkeit von Y1 und Y2 ist
X
P (X1 = x1 und X2 = x2 )
P (Y1 = y1 und Y2 = y2 ) =
x1 ∈X :g1 (x1 )=y1
x2 ∈X :g2 (x2 )=y2
=
{z
P (Y1 =y1 )
·
}
X
P (X2 = x2 ) .
x2 ∈X :g2 (x2 )=y2
|
{z
P (Y2 =y2 )
zfZ (z)dz
−∞
1
1
1
1
1
= −2 − 1 + 0 + 1 + 2 = 0.
8
4
4
4
8
Funktionen von unabhängigen Zufallsgrössen
a) Sei Ai die i-te Zeile von A, dann können wir schreiben:
E[(A1 X, A2 X, ..., Am X)T ]
(E[A1 X], E[A2 X], ..., E[Am X])T
(A1 E[X], A2 E[X], ..., Am E[X])T
A E[X]
Das Ereignis Y1 = y1 ist gleich dem Ereignis g1 (X1 ) = y1 , d.h.,
{ω ∈ Ω : Y1 (ω) = y1 } = {ω ∈ Ω : g1 (X1 (ω)) = y1 }
[
{ω ∈ Ω : X1 (ω) = x1 },
=
(Satz 4.2)
(Satz 4.4)
b) Zuerst beweisen wir Satz 4.6 für X und Y reelle Zufallsgrössen. Da in diesem Fall
E[X · Y ] = E[X · Y ] und E[X] · E[Y ] = E[X] · E[Y ] reicht es E[X · Y ] = E[X] · E[Y ]
zu zeigen. X und Y sind unabhängig falls gilt:
X1 und X2 sind Zufallsgrössen mit endlichem Wertebereich X , also diskrete Zufallsgrössen.
Da sie unabhängig sind, gilt (Definition 4.4 im Skript)
∀x1 , x2 ∈ X .
}
Beweise
E[AX] =
=
=
=
∞
3
P (X1 = x1 )
P (X1 = x1 ) · P (X2 = x2 )
Aufgabe 4.9
Für E[Z] gilt also
x1 ∈X :g1 (x1 )=y1
X
x2 ∈X :g2 (x2 )=y2
Damit haben wir gezeigt, dass Y1 und Y2 unabhängig sind.
−∞
P (X1 = x1 und X2 = x2 ) = P (X1 = x1 ) · P (X2 = x2 ),
X
x1 ∈X :g1 (x1 )=y1
|
1
1
1
1
1
= δ(z + 2) + δ(z + 1) + δ(z) + δ(z − 1) + δ(z − 2).
8
4
4
4
8
Aufgabe 4.8
X
=
x1 ∈X :g1 (x1 )=y1
Somit können wir fZ (z) berechnen
Z ∞
fX (x)fY (z − x)dx
fZ (z) =
E[Z] =
P (X2 = x2 ).
x2 ∈X :g2 (x2 )=y2
1
1
1
fX (x) = δ(x + 1) + δ(x) + δ(x − 1)
4
2
4
1
1
fY (y) = δ(y + 1) + δ(y − 1)
2
2
Z
X
P (Y2 = y2 ) =
fX,Y (x, y) = fX (x) · fY (y)
Wir können also schreiben:
E[X · Y ] =
=
Z
∞
Z−∞
∞
−∞
Z
∞
xy fXY (x, y) dx dy
Z ∞
x fX (x) dx
y fY (y) dy
−∞
−∞
= E[X] · E[Y ]
4
Nun nehmen wir an X und Y sind komplexe Zufallsgrössen. Schreibe X als X =
Xr + i · Xi und Y als Y = Yr + i · Yi , wobei Xr , Xi , Yr und Yi reelle Zufallsgrössen
sind.
c) Es gilt: X und Y sind orthogonal ⇐⇒ Korrelation E[XY ] = 0
E[|Z|2 ] =
=
=
=
=
=
=
X und Y sind unabhängig falls gilt:
fXr ,Xi ,Yr ,Yi (xr , xi , yr , yi ) = fXr ,Xi (xr , xi ) · fYr ,Yi (yr , yi )
Daraus folgt mit Gleichung (4.25) im Skript, dass Xr und Yr unabhängig, Xr und Yi
unabhängig, Xi und Yr unabhängig und Xi und Yi unabhängig sind. Da Xr , Xi , Yr
und Yi reelle Zufallsgrössen sind, folgt aus dem bereits bewiesenen Teil des Satzes
4.6:
E[Xr · Yr ]
E[Xr · Yi ]
E[Xi · Yr ]
E[Xi · Yi ]
=
=
=
=
E[Xr ] · E[Yr ]
E[Xr ] · E[Yi ]
E[Xi ] · E[Yr ]
E[Xi ] · E[Yi ]
Wir können nun schreiben:
E[X · Y ] =
=
=
=
E[(Xr + i · Xi )(Yr − i · Yi )]
E[Xr · Yr ] + E[Xi · Yi ] + i · E[Xi · Yr ] − i · E[Xr · Yi ]
E[Xr ] · E[Yr ] + E[Xi ] · E[Yi ] + i · E[Xi ] · E[Yr ] − i · E[Xr ] · E[Yi ]
(E[Xr ] + i · E[Xi ])(E[Yr ] − i · E[Yi ])
E[|X + Y |2 ]
E[(X + Y )(X + Y )]
E[(X + Y )(X + Y )]
E[XX + XY + Y X + Y Y ]
E[XX] + E[XY ] + E[Y X] + E[Y Y ]
E[XX] + E[Y Y ]
E[|X|2 ] + E[|Y |2 ]
Varianz
Aufgabe 4.10
Die Varianz der Zufallsvariable X ist definiert als
Var(X) = E[(X − mX )2 ]
wobei mX = E[X] der Erwartungswert von X ist. Unter Berücksichtigung des diskreten
Wertebereichs von X folgt
Var(X) = E[X 2 ] − m2X
= E[1] − m2X
= 1 − m2X
dabei wurde benutzt, dass 12 = (−1)2 = 1.
Var(X)
= E[X] · E[Y ]
und auch:
E[X · Y ] =
=
=
=
=
E[(Xr + i · Xi )(Yr + i · Yi )]
E[Xr · Yr ] − E[Xi · Yi ] + i · E[Xi · Yr ] + i · E[Xr · Yi ]
E[Xr ] · E[Yr ] − E[Xi ] · E[Yi ] + i · E[Xi ] · E[Yr ] + i · E[Xr ] · E[Yi ]
(E[Xr ] + i · E[Xi ])(E[Yr ] + i · E[Yi ])
E[X] · E[Y ]
1
1 − m2X
1
2
mX
−1
− 12
1
2
womit der ganze Satz bewiesen ist.
5
6
1
Korrelations- und Kovarianzmatrix
Aufgabe 4.11
Es gilt: Y = AX +b ⇒ mY = AmX +b. Die Kovarianzmatrix ist definiert als VY = E[(Y −
mY )(Y −mY )H ]. Der Mittelwert wird subtrahiert, weshalb VY unabhängig von b ist. Somit
kann b zur Berechnung der Kovarianzmatrix vernachlässigt werden: VY =AX+b = VY =AX .
Dies sieht man auch in der folgenden Rechnung:
VY
RY
=
=
=
=
=
=
=
E[(Y − mY )(Y − mY )H ]
E[(AX + b − AmX − b)(AX + b − AmX − b)H ]
E[(AX − AmX )(AX − AmX )H ]
E[(AX − AmX )(X H AH − mX H AH )]
E[A(X − mX )(X H − mX H )AH ]
AE[(X − mX )(X H − mX H )]AH
AVX AH
=
=
=
=
=
=
E[Y Y H ]
E[(AX + b)(AX + b)H ]
E[(AX + b)(X H AH + bH )]
E[AXX H AH + AXbH + bX H AH + bbH ]
H
H
AE[XX H ]AH + AmX bH + bmH
X A + bb
H
H
H H
H
ARX A + AmX b + (AmX b ) + bb
Ein alternativer Weg die Korrelationsmatrix zu berechnen wird in Gleichung (4.111) beschrieben:
RY
=
=
=
=
=
Korrelationskoeffizient
Aufgabe 4.12
ρ=
a)
E[(X − mX )(Y − mY )]
p
Var(X)Var(Y )
Y =X:
b)
Y =
Var(X)
=1
ρ= p
Var(X)2
X
E[(X − mX )(Y − mY )]
+1: ρ= p
2
Var(X) · E[(Y − mY )2 ]
1
Var(X)
2
=q
Var(X) · 41 Var(X)
=1
c) X und Y sind statistisch unabhängig, d.h. E[XY ] = E[X] · E[Y ].
⇒ E[(X − mX )(Y − mY )] = E[XY ] − E[X] · E[Y ] = 0.
⇒ ρ=
E[(X − mX )(Y − mY )]
p
= 0.
Var(X)Var(Y )
VY + mY mH
Y
AVX AH + (AmX + b)(AmX + b)H
H
H
H H
H
AVX AH + AmX mH
X A + AmX b + (AmX b ) + bb
H
H H
H
H H
H
A(RX − mX mH
)A
+
Am
m
A
+
Am
b
+
(Am
X X
X
X b ) + bb
X
ARX AH + AmX bH + (AmX bH )H + bbH
7
E[(X − mX )( 21 X + 1 − 12 mX − 1)]
=q
Var(X) · E[( 12 X + 1 − 21 mX − 1)2 ]
8
Lineare Quantisierung bei A/D-Wandlung
Aufgabe 4.13
fX (x)
✻
a)
p0
p−2
∆
i · ∆ ≤ x < (i + 1)∆
⇐⇒
y =i·∆+ , i∈Z
2
(
max(z) = ∆2
z =x−y
=⇒
min(z) = − ∆2
b)
fZ (z) =
(
0,
− ∆2
≤z<
sonst
∆
2
Z
∞
zfZ (z)dz =
−∞
2
2
Z
∆/2
z
−∆/2
=
σZ =
c)
i) Für − ∆2 ≤ z <
∆
2
∆/2
z2
−∆/2
r
1
dz = 0
∆
2
∆2
1
dz =
∆
12
∆2
∆
|∆|
= √ = √
12
2 3
2 3
∞
[
i=−∞
−1
P i·∆≤X <i·∆+
∆
2
0
1
2
3
R i·∆+ ∆ +z
+ z = i·∆ 2 fX (x)dx =
∆
2
+ z pi
X
∞ ∞
X
∆
∆
+ z pi =
+z ·
pi
2
2
i=−∞
i=−∞
R∞
P∞
P∞
Bemerkung: Da −∞ fX (x)dx = i=−∞ ∆ · pi = ∆ · i=−∞ pi = 1 folgt:
Z
i=−∞
∞
2
z fZ (z)dz
−∞
pi =
dFZ (z)
dz
1
∆
< ∞ für ∆ > 0.
P
= fZ (z) = ∞
i=−∞ pi =
1
iv) Aber P (Z < z) = FZ (z), und
= konstant und
∆
unabhängig von z.
=⇒ Z ist gleichverteilt (im Intervall −∆/2 ≤ z < ∆/2).
Bemerkung: Eigentlich ist FZ (z) , P (Z ≤ z), aber da fZ (z) keine DiracStösse enthält, kann man auch, wie hier, “<” anstatt “≤” schreiben.
d) Gemäss c) müsste fX (x) eine Treppenfunktion mit konstantem Wert in jedem
Intervall i · ∆ ≤ x < (i + 1)∆ sein, damit Z gleichverteilt ist innerhalb − ∆2 , ∆2 .
Für praktische Anwendungen genügt es aber, dass fX (x) in jedem solchen Intervall
“etwa konstant” ist:
für ∆ > 0
{ω : i · ∆ ≤ X(ω) < i · ∆ +
∆
+ z}
2
und weil {ω : i·∆ ≤ X(ω) < i·∆+ ∆2 +z}∩{ω : j·∆ ≤ X(ω) < j·∆+ ∆2 +z} = ∅
für i 6= j folgt:
∞
X
∆
P (Z < z) =
P i·∆≤X <i·∆+ +z .
2
i=−∞
ii) Aber fX (x) hat folgende Form: fX (x) = pi , für i · ∆ ≤ x < (i + 1)∆
9
−2
P∞
gilt:
{ω : Z(ω) < z} =
✲ x
P (Z < z) =
Var(Z) = E[(Z − mZ ) ] = E[Z ] − E[Z] =
Z
p1
∆
−3
iii)
Bemerkung: Wir nehmen an, dass fZ rechtsseitig stetig ist.
E[Z] =
p3
p−3
=⇒
1
,
∆
p2
p−1
fX (x)
✻
✲ x
∆
−3
−2
−1
0
1
2
3
e) Es wurde dabei angenommen, dass die Zufallsgrösse X eine stetige Zufallsgrösse ist
und somit für jedes i gilt: P (X = i · ∆) = 0.
In Anwendungen können wir Ereignisse mit Wahrscheinlichkeit gleich 0 immer unbeachtet lassen.
10
Zugehörige Unterlagen
Herunterladen