bisheriges Formelblatt

Werbung
Formelblatt Theoretische Informationstechnik
d) Rayleigh-Verteilung:
Wahrscheinlichkeitsraum (Ω, A, P )
fR (r) =
(i) P (Ω) = 1.
(ii) P
S∞
P∞
n=1
An =
Ai ∩ Aj = ∅
n=1
∀An ∈ A,
P (An )
r − r22
e 2σ · I[0,∞) (r)
σ2
Bezeichnung: R ∼ Ray(σ 2 ), σ 2 > 0.
∀i, j mit i 6= j.
e) Rice-Verteilung:
Bedingte Wahrscheinlichkeit
P (A ∩ B)
P (A|B) =
,
P (B)
A, B ∈ A,
P (B) > 0.
r − r2 +µ2
fR (r) = 2 e 2σ2 · I0
σ
rµ
1
, I0 (x) =
σ2
π
Z
π
ex cos ϑ dϑ
0
Bezeichnung: R ∼ Rice(µ, σ 2 ), µ > 0, σ 2 > 0.
Satz der totalen Wahrscheinlichkeit und Bayes-Formel
P (A) =
∞
X
∞
[
P (A|Bn ) · P (Bn ),
Ω = • Bn ,
n=1
(ln(y)−µ)2
1
−
2σ 2
fY (y) = √
e
, y>0
y 2πσ
n=1
P (A|Bn ) · P (Bn )
P (Bn |A) = P∞
P (A|Bj ) · P (Bj )
j=1
∀n ∈ N,
f) Lognormal-Verteilung:
P (A) > 0.
Bezeichnung: Y ∼ LogN(µ, σ 2 ), µ ∈ R, σ 2 > 0.
Stochastische Unabhängigkeit (Ereignisse)
Erwartungswert
A, B ∈ A heißen stochastisch unabhängig, falls
a) X diskrete Zufallsvariable:
P (A ∩ B) = P (A) · P (B).
E (g(X)) =
∞
X
Diskrete Zufallsvariable
X : Ω → T = {t1 , t2 , ...} ⊂ R,
P (X = ti ) = fX (ti ).
Diskrete Verteilungen
1
n
Z
g(x)fX (x)dx
(falls existent).
−∞
∀i = 1, ..., n.
P (X = 1) = p
Varianz, Kovarianz, Korrelation
P (X = 0) = 1 − p,
und
p ∈ [0, 1].
n
k
pk (1 − p)
n−k
,
k = 0, 1, ..., n,
p ∈ [0, 1].
d) Geometrische Verteilung:
P (X = k) = (1 − p)k p,
k ∈ N0 = N ∪ {0},
p ∈ (0, 1].
e) Poissonverteilung:
k
P (X = k) = e−λ λk! ,
k ∈ N0 ,
λ > 0.
Absolut-stetige Zufallsvariable
P (X ≤ x) = FX (x) =
f (t)dt.
−∞ X
(x−µ)2
1
−
fX (x) = √
e 2σ2
2πσ
Bezeichnung: X ∼ N(µ, σ 2 ), µ ∈ R, σ 2 > 0.
b) Gleich- oder Rechteckverteilung:
1
b−a
,
0,
a≤x≤b
1
=
· I[a,b] (x)
sonst
b−a
Bezeichnung: X ∼ R(a, b), a < b ∈ R.
fX (x) =
λe−λx ,
0,
Cov(X,Y )
Var(X)·Var(Y )
Erwartungswertvektor und Kovarianzmatrix
a) E(X) = (E(X1 ), . . . , E(Xn ))0 ∈ Rn
b) Cov(X) = (Cov(Xi , Xj ))1≤i,j≤n ∈ Rn×n
X n-dimensional normalverteilt mit regulärer Kovarianzmatrix C
besitzt die Dichte
1
n
2
(2π) |C|
1
2
exp
n
−
1
(x − µ)0 C −1 (x − µ) .
2
o
Bezeichnung: X ∼ Nn (µ, C).
Stochastische Unabhängigkeit (Zufallsvariablen)
X1 , . . . , Xn (absolut-stetig) heißen stochastisch unabhängig, falls
fX1 ,...,Xn (x1 , . . . , xn ) = fX1 (x1 ) · · · fXn (xn )
∀x1 , . . . , xn ∈ R.
Transformationssatz
Unter den Annahmen
c) Exponentialverteilung:
c) Corr(X, Y ) = √
fX (x1 , . . . , xn ) =
a) Normalverteilung:
fX (x) =
n-dimensionale Normalverteilung
Rx
Absolut-stetige Verteilungen
a) Var(X) = E (X − E(X))2
b) Cov(X, Y ) = E ((X − E(X))(Y − E(Y )))
c) Binomialverteilung:
X : Ω → R,
∞
E (g(X)) =
b) Bernoulli-Verteilung:
P (X = k) =
(falls existent).
b) X absolut-stetige Zufallsvariable:
a) Diskrete Gleichverteilung:
P (X = i) =
g(xi )fX (xi )
i=1
x≥0
= λe−λx · I[0,∞) (x)
x<0
Bezeichnung: X ∼ Exp(λ), λ > 0.
M = {x ∈ Rn | fX (x) > 0} ⊆ Rn offen,
T : M → Rn injektiv,
∂T (x1 ,...,xn ) i
> 0 ∀(x1 , . . . , xn )0 ∈ M ,
∂xj
1≤i,j≤n
besitzt der Zufallsvektor Y = T (X) eine Dichte
fY (y1 , . . . , yn ) = Entropie
1
∂Ti (x)
∂xj
fX T −1 (y1 , . . . , yn )
|x=T −1 (y1 ,...,yn ) −1
∂Ti (y1 , . . . , yn ) fX T −1 (y1 , . . . , yn ) ,
= ∂yj
(y1 , . . . , yn )0 ∈ T (M ).
](x, y) =
y
x
y
x
y
x
arctan




π
2
P
P (X = xj ) log P (X = xj )
j
Gemeinsame Entropie
P
H(X, Y ) = −
P (X = xi , Y = yj ) log P (X = xi , Y = yj )
i,j
Bedingte Entropie
P
H(X|Y ) = −
Erweiterter Arcustangens ](x, y)

arctan



 arctan
H(X) = −
P (X = xi , Y = yj ) log P (X = xi |Y = yj )
i,j
+π
x > 0,
x<0
x > 0,
x = 0,
x = 0,
+ 2π
− π2
y≥0
Transinformation
I(X; Y ) = H(X) − H(X|Y )
y<0 .
y≥0
y<0
Differentielle Entropie
Summen von Zufallsvariablen
H(X) = −
R∞
−∞
f (x) log f (x)dx
0
X = (X1 , X2 ) Zufallsvektor mit Dichte fX (x1 , x2 ).
Dann besitzt Y = X1 + X2 die Dichte
Gemeinsame differentielle Entropie
∞
Z
H(X, Y ) = −
fX (t, y − t)dt.
fY (y) =
R∞ R∞
−∞
f (x, y) log f (x, y)dxdy
−∞
−∞
Komplexe Normalverteilung
Bedingte differentielle Entropie
a) X = U + iV ∈ Cn heißt komplex normalverteilt, wenn
(U , V )0 2n-dimensional normalverteilt ist.
H(X|Y ) = −
b) X ist zirkulär symmetrisch komplex normalverteilt, wenn
Kullback-Leibler-Distanz
1
=
2
U
Cov
V
Re Q
Im Q
− Im Q
Re Q
D(f k g) =
D(p k q) =
R∞ R∞
−∞
−∞
f (x, y) log f (x|y)dxdy
R∞
(x)
dx (kontinuierlich)
f (x) log fg(x)
−∞
P
pi
i
pi log
(diskret)
qi
für eine hermitesche, n.n.d. Matrix Q, X ∼ SCN(µ, Q).
Entropie der Normalverteilung
c) X ∼ SCN(µ, Q), Q regulär =⇒ X besitzt die Dichte
fX (x) = [det(πQ)]−1 exp −(x − µ)∗ Q−1 (x − µ) .
d) X ∼ SCN(µ, Q) =⇒ E (X − E(X))(X − E(X))∗
= Q.
e) X ∼ SCN(µ, Q), A ∈ Cm×n =⇒ AX ∼ SCN(Aµ, AQA∗ ).
1
2
X ∼ Nn (µ, C) =⇒ H(X) =
ln ((2πe)n |C|).
Binärer symmetrischer Kanal
C = max I(X; Y ) = 1 + (1 − ) log2 (1 − ) + log2 (p0 ,p1 )
f) X ∼ SCN(µ1 , Q1 ), Y ∼ SCN(µ2 , Q2 ), X, Y stochastisch
unabhängig =⇒ X + Y ∼ SCN(µ1 + µ2 , Q1 + Q2 ).
Gaußkanal mit binärer Eingabe
g) X ∼ SCN(µ, Q), Q regulär =⇒ H(X) = log |πeQ|.
C = max I(X; Y ) = 1 − E log2 (1 + e−W ) , W ∼ N
Stochastische Prozesse
Reeller Gaußkanal
{X(t) | t ∈ T }, {Y (t) | t ∈ T }, T ⊆ R:
C=
a) µX (t) = E (X(t)),
max I(X; Y ) =
E(X 2 )≤L
1
2
L
σ2
ln 1 +
Paralleler Gaußkanal
c) CXX (t1 , t2 ) = RXX (t1 , t2 ) − µX (t1 ) · µ∗X (t2 ),
I(X; Y ) =
C = Pn max
E(Xi2 )≤L
i=1
d) RXY (t1 , t2 ) = E (X(t1 )Y (t2 )).
2µ2 4µ2
, σ2
σ2
(p0 ,p1 )
b) RXX (t1 , t2 ) = E (X(t1 )X ∗ (t2 )),
∗
ΣZ = T diag(λ1 , . . . , λn )T 0 ,
Pn
1
2
i=1
Pn
i=1
ln 1 +
(ν−λi )+
λi
,
(ν − λi )+ = L.
Leistungsdichtespektrum
a) E |X(t)|2 = RXX (0) =
R∞
−∞
b) SXX (f ) ∈ R und SXX (f ) ≥ 0
SXX (f )df ,
∀f ∈ R,
c) SXX (f ) = SXX (−f ) , falls RXX (t) ∈ R.
Bandbegrenzer Gaußkanal
C=
R∞
b) µY (t) = E(Y (t)) = µX (t)
−∞
I(X; Y ) =
h(u)
R∞
−∞
R∞
−∞
∗
i=1
log
νλi
σ2
+
Pt
i=1,λi >0
,
ν−
σ2
λi
+
= L.
h(u)du,
h (v)RXX (t − u + v)dvdu,
d) SY Y (f ) = |H(f )|2 SXX (f ).
Pt
H ∗ H = U diag(λ1 , . . . , λt )U ∗ ,
h(u)X(t − u)du,
−∞
c) RY Y (t) =
max
∗
E(X X)≤L
LTI-Systeme
R∞
E(X 2 )≤L
L
N0 W
MIMO-Kanal (festes H)
C=
a) Y (t) =
max I(X; Y ) = W ln 1 +
MIMO-Kanal (normalverteiltes H)
C=
max
∗
E(X X)≤L
I X; (Y , H) = E log det Ir +
L
HH ∗
tσ 2
.
Herunterladen