Statistische Signaltheorie Formelsammlung SS 2006 Grundlagen Kombinatorik Wahrscheinlichkeitsräume Permutation Anordnungsmöglichkeiten von n Elementen: Pn = n! • Ergebnisraum Ω als Menge möglicher Ergebnisse ωi eines Zufallsgeschehens: Ω = {ω1 , ω2 , . . .} Anordnungsmöglichkeiten von n Elementen wobei k1 , k2 , . . . Elemente gleich sind: Pn(k) = • Ereignis A eines Zufallsgeschehens als Teilmenge des Ergebnisraums A ⊂ Ω • Ereignis-Algebra F als Menge von Ereignissen (Teilmengen) des Ergebnisraums F ⊆ P (Ω) Auswahl von k Elementen aus einer n-Menge mit Beachtung der Reihenfolge n! n = ohne Wiederholung/Zurücklegen: Vn(k) = k! k (n − k)! Ai ∩ A j ∈ F Ai \ Aj ∈ F ⇒ n! k1 !k2 ! . . . Variation Achtung: F = P (Ω) (Potenzmenge) nur für abzählbare Ω Minimalanforderungen an eine Ereignis-Algebra: Ω∈F C C A∈F ⇒ A ∈ F mit A = Ω \ A A1 , A2 , . . . ∈ F ⇒ Ai ∈ F c Veit Kleeberger mit Wiederholung/Zurücklegen: Vn(k) = nk i≥1 Eine Ereignisalgebra welche die Minimalanforderungen erfüllt ist eine σ-Algebra F . Das Paar (Ω, F ) heißt dann Ereignisraum bzw. messbarer Raum. Wenn F auf der Grundlage einer Menge G erzeugt wird, so wird diese Erzeugendensystem von F genannt. wenn F = P ( Ω ) → |F| = 2 N Elemente Mächtigkeit von F : |F| = Anzahl der Teilmengen (Ai ) von F N Definition des Wahrscheinlichkeitsmaßes 0 ≤ P (A) ≤ 1 für jedes Ereignis A P (Ω) = 1 A ∩ B = ∅ ⇒ P (A ∪ B) = P (A) + P (B) P( Ai ) ≤ i≥1 Auswahl von k Elementen aus einer n-Menge ohne Beachtung der Reihenfolge n n! ohne Wiederholung/Zurücklegen: Cn(k) = = (n − k)!k! k n+k−1 mit Wiederholung/Zurücklegen: Cn(k) = k Summenformeln Ai ∩ Aj = ∅, i = j ⇒ P ( P (Ai ) Kombination ∞ Ai ) = i=1 i≥1 ∞ n P (Ai ) k=1 k=0 n−1 axk = a k=0 Rechenregeln n−1 P (AC ) = 1 − P (A) P (A ∪ B) = P (A) + P (B) − P (A ∩ B) i=0 Bedingte Wahrscheinlichkeit und unabhängige Ereignisse P (B|A) = P (A ∩ B) P (A) Gesetz von der totalen Wahrscheinlichkeit P (A) = P (Bi )P (A|Bi ) i∈I f (k, l) 1 = 2 y=0 n a 1−x min(m,n) f (k, k) = ∞ xk k=0 k=0 (−1)n+1 m<a oder n<b |x| < 1 k! = ex n n =1 j=1 f (k,l)=0 für k=l k=a l=b 1 1 = n! e n k=0 k xn y n−k = (x + y)n f (n − k) = n f (k) k=0 0 k=max(a,b) Faltung Satz von Bayes P (Bj )P (A|Bj ) P (Bj |A) = P (Bi )P (A|Bi ) x[n] ∗ h[n] = P (B)P (A|B) P (B|A) = P (A) ∞ l=−∞ i∈I Für unabhängige Ereignisse gilt P (A ∩ B) = P (A) · P (B) P (B|A) = P (B), P (A|B) = P (A) ∞ 1y 1 − xn 1−x 1 i = (n − 1)n 2 n m P (A ∩ B) P (B) axk = i=1 A ⊂ B ⇒ P (A) < P (B) P (A|B) = ∞ 2k−1 = 2n − 1 x(t) ∗ h(t) = x[l]h[n − l] = ∞ h[l]x[n − l] l=−∞ +∞ +∞ x(τ )h(t − τ )dτ = h(τ )x(t − τ )dτ −∞ −∞ 2 SS 2006 Statistische Signaltheorie Formelsammlung Zufallsvariablen Transformation von ZV Definition P (X ∈ A) = Dichtefunktion fx (x) x Verteilungsfunktion F Erwartungswert E[X] oder μ Streuung (Varianz) V ar[X] oder σ 2 Standardabweichung P (X ∈ A) = fx (x)dx x∈A A Berechnung von fY (y) mit y = g(x) fx (x) F (x) = fx (t)dt F (x) = P (X ≤ x) = fx (t) t≤x −∞ μ = xfx (x)dx μ= x · fx (x) Ω x∈Ω 2 2 2 2 σ = E[(X − μ) ] = (x − μ) fx (x)dx σ = (x − μ)2 fx (x) x∈Ω Ω σ = V ar[X] monoton nicht fallend rechtsstetig Fx (−∞) = 0 2. Für jeden Bereich den Wertebereich für x und für g(x) bestimmen. 3. y = g(x) nach x auflösen (⇒ x = g −1 (x)) für jeden Bereich (bei mehreren Lösungen gültiges x für jeweiligen Bereich nehmen, s.o.) 4. Berechnung der Ableitung g (x) für jeden Bereich P (a ≤ x ≤ b) = Fx (b) − Fx (a) = • g (x) = 0 Fx (+∞) = 1 b a fx (x)dx P (x ≤ a) = Fx (a) fx (x)dx fY (y) = fX (x) a Erwartungswerte E[X + Y ] = E[X] + E[Y ] E[g(X)] = xw2 fX (x)dx P (y = yi ) = xw1 • g (x) = 0 ∞ E[aX + b] = aE[X] + b ⇒ g(x) = Waagrechte im Bereich [xw1 , xw2 ] mit yi als y-Position der Waagrechten fY (y) = P (y = yi ) · δ(y − yi ) fx (x)dx −∞ a P (x > a) = 1 − F (a) = 1. g(x) in Bereiche einteilen, wo sich die Definition ändert bzw. wo g(x) ein Extremum besitzt. 5. Aufstellen der Teilfunktionen für fY (y) Verteilungsfunktionen g(x)fX (x) bzw. diskrete ZV g(x)fX (x)dx Ω 1 |g (x)| x=g−1 (y) 6. Für alle Teilbereiche wo der gültige g(x) Bereich gleich ist: Summe bilden. x∈Ω stetige ZV 7. Mithilfe der gefundenen g(x)-Bereiche, die (stückweise definierte) Funktion fY (y) aufstellen. Spezialfälle Monoton steigende Funktion g(x) Streuungen V ar[X] = E[X 2 ] − (E[X])2 V ar[X + Y ] = V ar[X] + V ar[Y ] + 2Cov[X, Y ] V ar[aX] = a2 V ar[X] n n n n V ar ai Xi = a2i V ar(Xi ) + 2 ai aj Cov(Xi , Xj ) V ar[X − Y ] = V ar[X] + V ar[Y ] − 2Cov[X, Y ] i=1 c Veit Kleeberger i=1 V ar[X] P (|X − μ| ≥ a) ≤ a2 Monoton fallende Funktion g(x) FY (y) = 1 − FX (g −1 (y)) i=1 j=i+1 Tschebyschev-Ungleichung E[X 2 ] P (|X| ≥ a) ≤ a2 FY (y) = FX (g −1 (y)) 1 P (|X − μ| ≥ kσ) ≤ 2 k Lineare Transformation Wenn g(x) = y = ax + b ⇒ fY (y) = 1 f ( y−b ) |a| x a FY (y) = FX ( y−b ) a Momente k-tes Moment: mk = E[X k ] k-tes zentrales Moment: zk = E[(X − E[X])k ] Quantil, Fraktil Ein α-Quantil ist der Zahlenwert xα , der die Unlgleichung P (X < xα ) ≤ α erfüllt Das (schwache) Gesetz der großen Zahlen X n = (X1 + · · · + Xn )/n lim P X n − μ < ε = 1 ∀ > 0 n→∞ 3 4 Statistische Signaltheorie Formelsammlung SS 2006 Zweidimensionale Zufallsvariable Bedingte Verteilungen f (x|y) bzw. f (y|x) Fxy (x, y) = P (X ≤ x, Y ≤ y) = Verteilungsfunktion Fxy Erwartungswerte E[g(X, Y )] E[g(X, Y )] = ∞ ∞ −∞ −∞ ∞ Randverteilungen (Marginalisierung) fX (x) = fY (y) = −∞ ∞ x y fuv (u, v)dudv −∞ −∞ Für unabhängige Zufallsvariable X und Y gilt fxy (x, y) = fX (x)fY (y) E[XY ] = E[X]E[Y ] ∞ fX+Y (x) = fX (t)fY (x − t)dt = fX (x) ∗ fY (y) fuv (u, v) u≤x v≤y g(x, y)fxy (x, y)dxdy x fxy (x, y)dy f (y|x) = g(x, y)fxy (x, y) y fX (x) = fxy (x, y) fxy (x, y)dx fY (y) = fxy (x, y) x f (x, y) fX (x) fY (y)f (x|y)dy fY (y) = −∞ fX (x)f (y|x)dy fX (x) = fY (y)f (x|y) fY (y) = y −∞ fX (x)f (y|x) x Für unabhängige Zufallsvariable X und Y gilt f (y|x) = fY (y) Fxy (x, y) = FX (x)FY (y) f (x, y) fY (y) ∞ fX (x) = f (x|y) = fX (x) f (x, y) = fX (x)fY (y) Bayes-Regel V ar[X + Y ] = V ar[X] + V ar[Y ] f (x|y) = ∞ fX (x)f (y|x) fX (x)f (y|x) f (x|y) = fX (x)f (y|x) fX (x)f (y|x)dx X −∞ −∞ Bedingte Erwartungswerte Kovarianz Cov[X, Y ] Cov[X, Y ] = E[(X − μ1 )(Y − μ2 )] ∞ μ1 = E[X], μ2 = E[Y ] E[X|Y ] = Cov[X + Y, Z] = Cov[X, Z] + Cov[Y, Z] Cov[X, Y ] = 0 ⇒ X und Y unkorreliert E[X|Y ] = E[Y |x]fX (x)dx E[Y ] = −∞ Cov[aX + b, cY + d] = acCov[X, Y ] unkorreliert ⇒ unabhängig ∞ E[X|y]fY (y)dy E[X] = yf (y|x)dy −∞ ∞ X und Y unabhängig ⇒ Cov[X, Y ] = 0 Cov[aX, Y ] = aCov[X, Y ] ∞ E[Y |X] = xf (x|y)dx −∞ Cov[X, Y ] = E[XY ] − E[X]E[Y ] = Cov[Y, X] Cov[X, c] = 0 f (x|y) = ∞ y −∞ Cov[X, X] = V ar[X], c Veit Kleeberger −∞ E[Y |X] = xf (x|y) x Kovarianzmatrix V ar[z] z T = [y, x]T 2 Cov[Y, X] σy V ar[z] = 2 Cov[X, Y ] σx E[X] = E[X|y]fY (y) E[Y ] = y E[Y ] = E[E[Y |X]] V ar[X] = E[V ar[X|Y ]] + V ar[E[X|Y ]] Cov[X, Y ] ρ= V ar[X]V ar[Y ] −1≤ρ≤1 ρ = 1 ⇒ korreliert ρ = 0 ⇒ unkorreliert E[Y |x]fX (x) x E[X] = E[E[X|Y ]] Korrelationskoeffizient ρ yf (y|x) y V ar[Y ] = E[V ar[Y |X]] + V ar[E[Y |X]] Lineare Regression ρ = −1 ⇒ antipodisch X steht in linearer Regression mit Y, wenn E[X|y] eine lineare Funktion von y ist. In diesem Fall gilt: x̂ = E[X|y] = μx + ρ σx (y − μy ) σy (Regressionsgerade) Steht Y in linearer Regression mit X, dann gilt V ar[X + Y ] = V ar[X] + V ar[Y ] + 2ρ 5 V ar[X]V ar[Y ] ŷ = E[Y |x] = μy + ρ σy (x − μx ) σx (Regressionsgerade) 6 Statistische Signaltheorie Formelsammlung SS 2006 Wahrscheinlichkeitsverteilungen Stetige Verteilungsfunktionen Diskrete Verteilungsfunktionen Gleichverteilung U (a, b) Binomialverteilung B(n, p) n x p (1 − p)n−x , f (x) = P (X = x) = x x = 0, 1, . . . , n F (x) = P (X ≤ x) = x n i=0 σ 2 = np(1 − p) μ = np μ= Geometrische Verteilung G(p) f (x) = P (X = x) = (1 − p)x p, x = 0, 1, 2, . . . μ= F (x) = P (X ≤ x) = (1 − p)i p σ2 = f (x) = λe−λx Φ(jω) = σ2 = ⎩ 0 x<a − a) a ≤ x ≤ b 1 x>a 1 (x b−a (b − a)2 12 Exponentialverteilung E(λ) x p 1 − (1 − p)s 1−p p F (x) = P (X ≤ x) = ejbω − ejaω jω(b − a) a+b 2 i=0 ϕ(s) = a≤x≤b ⎧ ⎨ pi (1 − p)n−i Φ(jω) = Φ(jω) = (1 − p + pejω )n ϕ(s) = (1 − p + ps)n i 1 f (x) = b−a c Veit Kleeberger μ= 1−p p2 x≥0 F (x) = P (X ≤ x) = 1 − e−λx x≥0 λ λ − jω 1 λ σ2 = 1 λ2 Normalverteilung N (μ, σ) Poisson-Verteilung P (λ) f (x) = √ entsteht aus Binomialverteilung wenn p · n = λ = const. und n → ∞ P (X = x) = e−λ λx /x! x = 0, 1, 2, . . . F (x) = P (X ≤ x) = x i=0 ϕ(s) = eλ(s−1) μ=λ Φ(jω) = e σ2 = λ λ(ejω −1) e−λ λi /i! (x−μ)2 1 e− 2σ2 2πσ x F (x) = P (X ≤ x) = f (t)dt −∞ jμω− 21 σ 2 ω 2 Φ(jω) = e μ=μ σ2 = σ2 N (0, 1) heißt auch Standard-Normalverteilung Rayleigh-Verteilung R(σ) x − x22 e 2σ σ2 μ = σ π/2 f (x) = 7 x≥0 σ 2 = 2σ 2 (1 − π ) 4 8 Statistische Signaltheorie Formelsammlung Zweidimensionale (bivariate) Normalverteilung Die zweidimensionale Zufallsvariable (X, Y ) ist N (μx , μy , σx , σy , ρ)-verteilt, wenn sie eine Dichtefunktion folgender Gestalt besitzt: 2 2 2 1 y − μy x − μx x − μx 1 y − μy f (x, y) = + − 2ρ exp 2(1 − ρ2 ) σx σy σx σy 2πσx σy 1 − ρ2 1 1 z = [x, y]T ∧ μ = [μx , μy ]T = exp − (z − μ)V ar[z]−1 (z − μ)T 2 2π det(V ar[z]) Die bedingte Verteilung von Y bei gegebenem X = x ist die N (μ, σ)-Verteilung mit σy μ = μy + ρ (x − μx ) und σ 2 = σy2 (1 − ρ2 ) σx Verteilungsverknüpfungen Additionstheoreme X1 X2 X1 + X2 B(n1 , p) B(n2 , p) B(n1 + n2 , p) P (λ1 ) P (λ2 ) P (λ1 + λ2 ) N (μ1 , σ1 ) N (μ2 , σ2 ) N (μ1 + μ2 , Verteilung von Y E(λ) − N (0, σ) N (0, σ) λX1 E(1) X12 + X22 R(σ) U (a, b) − − λ1 ln(X1 ) Wahrscheinlichkeitserzeugende Funktion (nur für ganzzahlige Zufallsvariable) 1 dx ϕ (s) PX (X = x) = x x! dsx s=0 du(t) dt Integration t d d t aU (f ) + bU (f ) 1 2 t 1 U(f ) d t e−j2πt0 f U (f ) d t U (f − f ) 0 t j2πf U (f ) d |k| t 1 dU (f ) u(τ )dτ d t U (f )( 1 j2π 1 + 12 δ(t)) d u(t)(− j2πt df j2πf −∞ t f U (φ)dφ Vertauschung U ∗ (t) d Gleichanteil Dirac-Impuls u(t) = 1 u(t) = δ(t) u(t) = δ(t − t0 ) u(t) = σ(t) 1 |t| < T /2 u(t) = 0 sonst −| ad t| + d |t| < a u(t) = 0 sonst Gauß-Impuls e-Impuls Sinusfunktion Cosinusfunktion cos x = ejx + e−jx 2 u (f ) d d d t U (f ) = t U (f ) = d t U (f ) = T · si(πT f ) d t a · d · si2 (aπf ) 2αβsi(2πβt) d e−αt t>0 e−α|t| u(t) = sin(2πf0 t) u(t) = cos(2πf0 t) sin x = ejx − e−jx 2j t U (f ) = δ(f ) t U (f ) = 1 d 2 d u(t) = exp(− (απt 2) GT ) si-Impuls + 12 δ(f )) −∞ t ∗ V ar[X] = ϕ (1) + ϕ (1) − (ϕ (1))2 E[X 3 ] = ϕ (1) + 3ϕ (1) + ϕ (1) k −tu(t) d E(λ) Integraltransformationen von Verteilungen E[X] = ϕ (1) au1 (t) + bu2 (t) u(kt) u(t − t0 ) ej2πf0 t u(t) Differentiation Dreieck-Impuls Verteilung von X1 Verteilung von X2 Y E[X 2 ] = ϕ (1) + ϕ (1) Linearität Ähnlichkeit Verschiebung Rechteck-Impuls σ12 + σ22 ) c Veit Kleeberger Fourier-Transformationspaare Sprung-Impuls Beziehungen zwischen den Verteilungen ϕ(s) = E[sX ] SS 2006 d d d d e−j2πf t0 1 δ(f ) + 2 1 j2πf t U (f ) = α T exp(−πα2 T 2 f 2 ) G G t U (f ) = α |f | < β 0 sonst 1 t U (f ) = j2πf +α 2α t 4π 2 f 2 +α2 t U (f ) = 1 (δ(f − f ) − δ(f + f )) 0 0 2j t U (f ) = 1 (δ(f − f ) + δ(f + f )) 2 0 0 ejx = cos x + j sin x X1 und X2 unabhängig: ϕX1 +X2 (s) = ϕX1 (s)ϕX2 (s) Charakteristische Funktion Φ(ω) = E[ejωX ] 1 dk E[X n ] = k k Φ(ω) j dω E[X] = −jΦ (0) V ar[X] = −Φ (0) + (Φ (0))2 ω=0 X1 und X2 unabhängig: ΦX1 +X2 (ω) = ΦX1 (ω)ΦX2 (ω) 9 10 Statistische Signaltheorie Formelsammlung Stochastische Signale y[n, ω] = A(x[n, ω]) y[n + k] = A(x[n + k]) ∀k X[n, ω] = X(ωn ) Erwartunswertfunktion μ[n] = E[x[n]] Varianzfunktion Autokorrelationsfunktion Autokovarianzfunktion σ 2 [n] = V ar[x[n]] = rx [k, l] = E[x[k]x[l]] = Kreuzkorrelationsfunktion rx,y [k, l] = E[x[k]y[l]] cx,y [k, l] = Cov[x[k], y[l]] cx [k, l] = cx [l, k] +∞ = cx [k, l] = Cov[x[k], x[l]] Kreuzkovarianzfunktion = = = −∞ +∞ ξfx (ξ; n)dξ ξηfx (ξ, η; k, l)dξdη −∞ −∞ +∞ +∞ (ξ − μξ )(η − μη )fx (ξ, η; k, l)dξdη −∞ −∞ +∞ +∞ ξηfxy (ξ, η; k, l)dξdη −∞ −∞ +∞ +∞ (ξ − μξ )(η − μη )fxy (ξ, η; k, l)dξdη rxy [m, n] = E[x[m] · y[n]] = An (rx [m, n]) = h[n] ∗ rx [m, n] ∞ |h[i]| < ∞) Spezielle Zufallsfolgen Gaußsche Zufallsfolge s[n] = x(ωn ) + x(ωn+1 ) mit x(ωi ) = N (0, σ) rx [k, l] = σ 2 · δ[k − l] μx [i] = 0 ∀i rs [k, l] = σ 2 δ[k − l − 1] + 2σ 2 δ[k − l] + σ 2 δ[k − l + 1] μs [n] = E[s[n]] = 0 cx [k, k] = V ar[x[k]] = An heißt A bzgl. x[n] (A(x[n])) ry [m, n] = Am (rxy [m, n]) = Am (An (rx [m, n])) = h[m] ∗ h[n] ∗ rx [m, n] σx2 [k] Stationarität n mit x : Ω → {−δ, +δ} x(ωi ) P (x[i] = −δ) = P (x[i] = +δ) = 0, 5 i=0 fx (ξ0 , . . . , ξn−1 ; k, k + 1, . . . , k + n − 1) = fx (ξ0 , . . . , ξn−1 ; 0, . . . , n − 1) ∀n, k P (s[n] = r · δ) = Schwach Stationär (WSS, wide sense stationary) V ar[x[n]] = V ar[x[0]] ∀n rx [k, l] = rx [k − l] ∀k, l n+1 r+n+1 2 2−(n+1) Moving Avarage Folge s[n] = n→∞ 1) sicher konvergent: X[n, ω] → X(ω) 2) fast sicher konvergent: P ( lim X[n, ω] = X(ω)) = 1 3) konvergent im quadratischen Mittel: lim E{|x[n] − x|2 } = 0 4) konvergent in Wahrscheinlichkeit: 5) konvergent in Verteilung: aus 3) folgt stets 4) (nicht umgekehrt). E[s[n]] = μ m≥n cx [m, n] = V ar[s[n]] = (n + 1)δ 2 E[s[n]] = 0 1 k+1 Konvergenz 11 (falls A zustandsstabil, d.h. i=−∞ ξ 2 fx (ξ; n)dξ −∞ +∞ +∞ −∞ −∞ A(α1 x1 [n] + α2 x2 [n]) = α1 A(x1 [n]) + α2 A(x2 [n]) E[Y [n]] = A(E[x[n]]) = h[n] ∗ E[x[n]] Random Walk s[n] = E[x[n]] = E[x[0]] ∀n c Veit Kleeberger LTI-Systeme Zufallsfolgen (diskret) rx [k, l] = rx [l, k] SS 2006 n x[i] k>0 E[x[n]] = μ V ar[x[n]] = σ 2 i=n−k ((n−m)+k+1)σ 2 (k+1)2 0 für m − k ≤ n für m − k > n n→∞ n→∞ lim P (|x[n] − x|2 < ) = 0 n→∞ lim Fn (x) = F (x) n→∞ 1) → 5) : stark → schwach (im Prinzip) 12 Statistische Signaltheorie Formelsammlung SS 2006 Zufallsprozesse (kontinuierlich) Erwartunswertfunktion LTI-Systeme μ(t) = E[x(t)] Varianzfunktion Autokorrelationsfunktion Autokovarianzfunktion = σ 2 (t) = V ar[x(t)] = rx (t1 , t2 ) = E[x(t1 )x(t2 )] = cx (t1 , t2 ) = Cov[x(t1 ), x(t2 )] = Kreuzkorrelationsfunktion rx,y (t1 , t2 ) = E[x(t1 )y(t2 )] cx,y (t1 , t2 ) = Cov[x(t1 ), y(t2 )] Kreuzkovarianzfunktion = = +∞ −∞ +∞ y(t) = A(x(t)) = h(t) ∗ x(t) ξfx (ξ; t)dξ μy (t) = E[y(t)] = A(μx (t)) = h(t) ∗ μx (t) ξ 2 fx (ξ; t)dξ −∞ +∞ +∞ −∞ −∞ +∞ +∞ rxy (t1 , t2 ) = At2 (rx (t1 , t2 )) = h(t2 ) ∗ rx (t1 , t2 ) ξηfx (ξ, η; t1 , t2 )dξdη (ξ − μξ )(η − μη )fx (ξ, η; t1 , t2 )dξdη −∞ −∞ +∞ +∞ −∞ −∞ +∞ +∞ −∞ −∞ ξηfxy (ξ, η; t1 , t2 )dξdη (ξ − μξ )(η − μη )fxy (ξ, η; t1 , t2 )dξdη Cov[X, Y ] = E[XY ] − E[X]E[Y ] = E[(X − μx )(Y − μy )] unkorreliert ⇒ rxy (t1 , t2 ) = μx (t1 )μy (t2 ) ry (t1 , t2 ) = h(t1 ) ∗ rxy (t1 , t2 ) = h( t1 ) ∗ h( t2 ) ∗ rx (t1 , t2 ) Falls x(t) WSS: Sy (f ) = H(f ) · Sxy (f ) = |H(f )|2 Sx (f ) Spezielle Zufallsprozesse Poisson-Prozess ∞ u(t − Tn ) x(t) = orthogonal ⇒ rxy (t1 , t2 ) = 0 unabhängig ⇒ z.B. Fxy (ξ1 , ξ2 , η1 , η2 ; t1 , t2 ) = Fx (ξ1 , ξ2 ; t1 , t2 )Fy (η1 , η2 ; t1 , t2 ) t≥0 n=1 P (x(t) = i) = e−λt Stationarität {X(t1 ), . . . , X(tn )} und {X(t1 + h), . . . , X(tn + h)} besitzen für alle t1 , . . . , tn und h > 0 dieselbe Verteilungsfunktion. (λt)i , i! P ((x(t2 ) − x(t1 )) = n) = V ar[x(t)] = V ar[x(0)] ∀t rx (t1 , t2 ) = rx (t1 − t2 ) ∀t1 , t2 P ({|x(t + τ ) − x(t)| ≥ α}) ≤ SX (f ) = SX (−f ) 2 (rx (0) − rx (τ )) α2 rx (0) = SX (f ) ≥ 0 mit τ = t2 − t1 rx (0) = rx (t, t) = E{x(t)x(t)} Spektrale Leistungsdichte SX (f ) = F{rx } = i P (x(t) = k) k=0 (λ(t2 − t1 ))n −λ(t2 −t1 ) e n! t1 < t2 rx (t1 , t2 ) = λ min(t1 , t2 ) + λ2 t1 t2 E[X(t)] = V ar[X(t)] = λt y0 ∈ {−1, +1} (Anfangszustand) y(t) = (−1)x(t) y0 Autokorrelationsfunktion rx (t1 , t2 ) = rx (t2 − t1 ) = E{X(t1 )X(t1 + τ )} = rx (τ ) |rx (t)| ≤ rx (0) P (x(t) ≤ i) = Zufalls-Telegraphen-Prozess Autokovarianzfunktion cx (t1 , t2 ) = cx (t2 − t1 ) rx (−t) = rx (t) u(t) : Einheitssprung Tn : Zeitpunkt des Auftretens des n-ten Ereignisses i = 0, 1, 2, . . . Schwach Stationär (WSS, wide sense stationary) E[x(t)] = E[x(0)] ∀t c Veit Kleeberger α>0 +∞ E[y(t)] = E[y0 ]e−2λt rx (τ )e−j2πf τ dτ ry (t, t + τ ) = e−2λτ Wiener-Prozess x(t) = √ −∞ x(t) : Poisson-Prozess 1 −ξ 2 exp( ) 2αt 2παt E[x(t)] = 0 cx (t1 , t2 ) = α min{t1 , t2 } SX (f )∗ = SX (f ) +∞ SX (f )df = Leistung im Zeitbereich −∞ x(t) = αu(t) ⇒ rx (t) = α2 ru (t) SX (ω) = α2 SU (ω) rxy (t) = αruy (t) SXY (ω) = αSU Y (ω) ryx (t) = αryu (t) SY X (ω) = αSY U (ω) 13 x(t) = u(t) + v(t) ⇒ rx (t) = ru (t) + rv (t) + ruv (t) + rvu (t) SX (ω) = SU (ω) + SV (ω) + SU V (ω) + SV U (ω) rxy (t) = ruy (t) + rvy (t) SXY (ω) = SU Y (ω) + SV Y (ω) 14 Statistische Signaltheorie Formelsammlung Markov Prozesse fx (ξn |ξn−1 , ξn−2 , . . . ; tn , tn−1 , tn−2 , . . .) = fx (ξn |ξn−1 ; tn , tn−1 ) (1-Schritt-Gedächtnis) Markov-Ketten := Markov-Prozess mit diskretem Zufallsprozess mit diskreten Zufallsvariablen. Darstellung über Übergangsmatrix A Beispiel: a23 a12 a11 x=0 x=2 x=1 a21 a22 a33 a32 ⎤ ⎤ ⎡ ⎤ P [xn−1 = 0] P [xn = 0] a11 a21 a31 P [xn = 1] ⎦ = ⎣ a12 a22 a32 ⎦ · P [xn−1 = 1] ⎦ P [xn = 2] P [xn−1 = 2] a13 a23 a33 n Pn = A P n−1 = A (AP n−2 ) = A P0 : : : : n n −1 Pn = A P 0 = :: QΛ Q P0 : : :: aij = P (xn = j − 1|xn−1 = i − 1) < 1 15