Stoffsammlung: Stoch. Modelle und Signalverarbeitung Stephan Senn 9. Februar 2005 ETH Zürich, D-ITET Version 3.1 Text in LATEXgesetzt. e-Mail: [email protected] Homepage: www.ee.ethz.ch/ssenn/ INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Signale 1.1 Stabilität: Absolute Summierbarkeit von Signalen . 1.2 Endliche Energie: Quadratische Summierbarkeit von 1.3 Beschränkte Signale . . . . . . . . . . . . . . . . . . 1.4 Kausale Signale . . . . . . . . . . . . . . . . . . . . 1.5 Signalklassen . . . . . . . . . . . . . . . . . . . . . 1.6 Faltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Signalen . . . . . . . . . . . . . . . . . . . . . . . . . 2 Systeme 2.1 Systemeigenschaften . . . . . . . . . . . . . . . . . . . . . . 2.1.1 Linearität . . . . . . . . . . . . . . . . . . . . . . . . 2.1.2 Zeitinvarianz . . . . . . . . . . . . . . . . . . . . . . 2.1.3 BIBO-Stabilität (Bounded Input Bounded Output Stability) . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.4 Kausalität . . . . . . . . . . . . . . . . . . . . . . . . 2.1.5 Realisierbarkeit . . . . . . . . . . . . . . . . . . . . . 2.1.6 LTI-Systeme (Linear Time Invariant Systems) . . . . 2.1.7 Gedächtnis . . . . . . . . . . . . . . . . . . . . . . . 2.1.8 Invertierbarkeit . . . . . . . . . . . . . . . . . . . . . 2.2 Eigenschaften von LTI-Systemen . . . . . . . . . . . . . . . 2.2.1 Kausalität . . . . . . . . . . . . . . . . . . . . . . . . 2.2.2 BIBO-Stabilität . . . . . . . . . . . . . . . . . . . . . 3 Die 3.1 3.2 3.3 3.4 Z-Transformation Definition . . . . . . . . . . . Eigenschaften . . . . . . . . . Anfangs- und Endwerttheorem Umkehrformel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . für kausale Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 6 6 6 6 7 7 . . . 9 9 9 9 . . . . . . . . . 9 9 10 10 10 10 10 10 10 . . . . 11 11 11 11 12 4 Komplexe Analysis 12 4.1 Satz von Cauchy und Hadamard . . . . . . . . . . . . . . . . . 12 4.2 Konvergenz von Laurent-Reihen . . . . . . . . . . . . . . . . . 12 4.3 Analytische Funktionen . . . . . . . . . . . . . . . . . . . . . . 13 5 Normalformen und Faltungsalgorithmen 13 6 Zeitdiskret und kontinuierlich 15 6.1 Transformationen im Überblick . . . . . . . . . . . . . . . . . 15 6.2 Das Spektrum eines Signals . . . . . . . . . . . . . . . . . . . 15 6.3 Laplace- und Z-Transformation . . . . . . . . . . . . . . . . . 15 INHALTSVERZEICHNIS 2 6.4 Zeitkont. und zeitdiskrete Fourierransformation . . . . 6.5 Amplitudengang . . . . . . . . . . . . . . . . . . . . . 6.6 Konvergenzgebiete . . . . . . . . . . . . . . . . . . . . 6.7 Konvergenzbetrachtungen . . . . . . . . . . . . . . . . 6.7.1 Bei der Laplacetransformation . . . . . . . . . . 6.7.2 Bei der Z-Transformation . . . . . . . . . . . . 6.8 Stabilitätsbetrachtungen . . . . . . . . . . . . . . . . . 6.8.1 Beliebige Signale . . . . . . . . . . . . . . . . . 6.8.2 Rechtsseitige Signale . . . . . . . . . . . . . . . 6.8.3 Linksseitige Signale . . . . . . . . . . . . . . . . 6.9 Umwandlung zeitdiskreter in zeitkontinuierliche Signale 6.10 Abtastung . . . . . . . . . . . . . . . . . . . . . . . . . 6.11 Nyquist-Shannon Abtasttheorem . . . . . . . . . . . . 6.11.1 Definition . . . . . . . . . . . . . . . . . . . . . 6.11.2 Anwendung . . . . . . . . . . . . . . . . . . . . 6.11.3 Dezimation, Interpolation und Umrechnung der Abtastrate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 17 17 18 18 18 19 19 19 20 20 21 22 22 22 . . . . 23 7 Filterdesign 7.1 FIR-Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 IIR-Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2.1 Design . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2.2 Butterworth-Filter . . . . . . . . . . . . . . . . . . . 7.2.3 Beziehung zwischen Hoch- und Tiefpassfilter . . . . . 7.3 Inverse zeitdiskrete Filter . . . . . . . . . . . . . . . . . . . . 7.3.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . 7.3.2 Berechnung . . . . . . . . . . . . . . . . . . . . . . . 7.3.3 Regeln . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3.4 Grundsatz der inversen Filter . . . . . . . . . . . . . 7.4 Egalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4.1 Problemstellung . . . . . . . . . . . . . . . . . . . . . 7.4.2 Das klassische lineare Egalisationsverahren . . . . . . 7.4.3 Decision-Feedback Equalizer (DFE), ein nicht-lineares Egalisationsverfahren . . . . . . . . . . . . . . . . . . 8 Grundbegriffe der Wahrscheinlichkeitstheorie 8.1 Die Axiome von Kolmogorov . . . . . . . . . . 8.2 Zufallsgrössen . . . . . . . . . . . . . . . . . . 8.3 Funktionen von Zufallsgrössen . . . . . . . . . 8.4 Wahrscheinlichkeitsdichte und Verteilungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 25 26 26 26 26 27 27 27 27 27 28 28 28 . 29 31 . . . . . . . . . 31 . . . . . . . . . 32 . . . . . . . . . 32 . . . . . . . . . 32 INHALTSVERZEICHNIS 8.5 Verbundwahrs. und Verbundverteilungsfunktion . . . 8.6 Randverteilungen und Randdichten . . . . . . . . . . 8.7 Erwartungswert . . . . . . . . . . . . . . . . . . . . . 8.7.1 Erwartungswert einer Zufallsgrösse . . . . . . 8.7.2 Erwartungswert eines Zufallsvektors . . . . . . 8.7.3 Erwartungswert einer komplexen Zufallsgrösse 8.7.4 Wichtige Beziehungen . . . . . . . . . . . . . 8.8 Varianz und Korrelation . . . . . . . . . . . . . . . . 8.8.1 Moment einer Zufallsvariable . . . . . . . . . 8.8.2 Definition . . . . . . . . . . . . . . . . . . . . 8.8.3 Varianz einer komplexen Zufallsvariable . . . . 8.8.4 Korrelation und Kovarianz . . . . . . . . . . . 8.8.5 Varianz und Korrelation eines Zufallsvektors . 8.9 Unabhängigkeit und Korrelation . . . . . . . . . . . . 8.10 Bedingte Wahrscheinlichkeit . . . . . . . . . . . . . . 8.11 Formel von Bayes . . . . . . . . . . . . . . . . . . . . 8.11.1 Bei diskreten Zufallsgrössen . . . . . . . . . . 8.11.2 Bei reellen Zufallsgrössen . . . . . . . . . . . . 8.12 Totale Wahrscheinlichkeit . . . . . . . . . . . . . . . 8.12.1 Bei diskreten Zufallsgrössen . . . . . . . . . . 8.12.2 Bei reellen Zufallsgrössen . . . . . . . . . . . . 8.13 Totaler Erwartungswert . . . . . . . . . . . . . . . . 8.13.1 Bei diskreten Zufallsgrössen . . . . . . . . . . 8.13.2 Bei reellen Zufallsgrössen . . . . . . . . . . . . 8.14 Gegenüberstellung: Diskrete und reelle Zufallsgrössen 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Stochastische Prozesse 9.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . 9.2 Stationarität . . . . . . . . . . . . . . . . . . . . . . . . . 9.2.1 Strikt stationäre Prozesse . . . . . . . . . . . . . 9.2.2 Schwach stationäre Prozesse . . . . . . . . . . . . 9.3 Mittelwert eines stoch. Prozesses . . . . . . . . . . . . . 9.4 Auto- und Kreuzkorrelationsfunktion, mittlere Leistung stationäre Prozesse . . . . . . . . . . . . . . . . . . . . . 9.5 Lineare Filterung eines schwach stationären Prozesses . . 9.5.1 Problemstellung . . . . . . . . . . . . . . . . . . . 9.5.2 Z-Transformation der Übertragungsfunktion . . . 9.6 Wiener-Khinchine-Beziehung . . . . . . . . . . . . . . . . 9.7 Weisses Rauschen . . . . . . . . . . . . . . . . . . . . . . 9.8 Whitening Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . für . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 34 34 34 34 35 35 35 35 35 36 36 36 37 38 38 39 39 39 39 39 40 40 40 40 . . . . . 41 41 41 42 42 43 . . . . . . . 43 43 43 44 44 45 45 INHALTSVERZEICHNIS 4 10 Entscheidungs- und Schätztheorie 10.1 Grundproblem . . . . . . . . . . . . . . . . . . . . . 10.2 Entscheidungs- und Schätzregeln . . . . . . . . . . 10.3 Schätzregeln . . . . . . . . . . . . . . . . . . . . . . 10.3.1 Bayes’sche Schätzregel . . . . . . . . . . . . 10.3.2 LMMSE-Schätzung . . . . . . . . . . . . . . 10.3.3 Maximum-Likelihood-Schätzung . . . . . . . 10.4 Entscheidungsregeln . . . . . . . . . . . . . . . . . 10.4.1 Bayes’sche Entscheidungsregel . . . . . . . . 10.4.2 MAP-Entscheidungsregel . . . . . . . . . . . 10.4.3 Maximum-Likelihood-Entscheidungsregel . . 10.5 Entscheidungsgebiete und Fehlerwahrscheinlichkeit . . . . . . . . . . . 45 45 45 46 46 46 47 47 47 47 48 48 11 Stochastische Filter 11.1 Wiener-Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 LMMSE-Egalisation . . . . . . . . . . . . . . . . . . . . . . . 11.3 Adaptive Filter: LMS-Algorithmus . . . . . . . . . . . . . . . 48 48 49 50 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 Trellis Algorithmen und Diagramme 51 12.1 Trellis-Diagramme . . . . . . . . . . . . . . . . . . . . . . . . 51 12.2 Viterbi-Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . 51 12.2.1 Min-Summe-Version . . . . . . . . . . . . . . . . . . . 51 12.2.2 Max-Produkt-Version . . . . . . . . . . . . . . . . . . . 52 12.3 Wahrscheinlichkeitsmodelle mit den Trellis-Diagrammen . . . 53 12.3.1 ML-Entscheidungsregel für einen Pfad . . . . . . . . . 55 12.3.2 MAP-Entscheidungsregel für einen Pfad . . . . . . . . 55 12.3.3 Entscheidungsprobleme mit Hilfe des Viterbi-Algorithmus 56 A Matrizen A.1 Spezielle Matrizen . . . . . . . A.2 Transponieren . . . . . . . . . A.3 Konjugiert komplexe Matrizen A.4 Hermitesche Konjugation . . . B Dezibel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 57 57 57 57 58 C Ein Vergleich: Fourierreihen und zeitdiskrete Fouriertransformation 58 D Spezielle Grenzwerte 58 ABBILDUNGSVERZEICHNIS 5 Abbildungsverzeichnis 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 Realisierung der Übertragungsfunktion H(z) [1] . . . . . . . . Regelungsnormalform (Controller Canonical Form) der Übertragungsfunktion H(z) [1] . . . . . . . . . . . . . . . . . . . . Beobachternormalform (Observer Canonical Form) der Übertragungsfunktion H(z) [1] . . . . . . . . . . . . . . . . . . . . Umwandlung eines zeitdiskreten Signals in ein zeitkontinuierliches Signal [1] . . . . . . . . . . . . . . . . . . . . . . . . . . Abbildung z = esT [1] . . . . . . . . . . . . . . . . . . . . . . . Ein Übertragungskanal mit Rauschen [1] . . . . . . . . . . . . Decision-Feedback Equalizer (DFE) [1] . . . . . . . . . . . . . Mögliche DFE-Realisierung (ohne Entscheidungsglied) [1] . . . Stochastische Prozesse [3] . . . . . . . . . . . . . . . . . . . . Entscheidungs- und Schätzproblem [1] . . . . . . . . . . . . . Egalisationsproblem [1] . . . . . . . . . . . . . . . . . . . . . . Fixpunktiteration beim LMS-Algorithmus . . . . . . . . . . . Beispiel eines Trellis-Diagramms [1] . . . . . . . . . . . . . . . Beispiel zur Min-Summe-Version des Viterbi-Algorithmus [1] . Beispiel zur Max-Produkt-Version des Viterbi-Algorithmus [1] 14 14 14 21 21 28 30 30 42 46 50 51 54 54 54 Tabellenverzeichnis 1 2 3 Alle Transformationen im Überblick (I) . . . . . . . . . . . . . 16 Alle Transformationen im Überblick (II) . . . . . . . . . . . . 16 Alle Transformationen im Überblick (III) . . . . . . . . . . . . 16 1 SIGNALE 1 1.1 6 Signale Stabilität: Absolute Summierbarkeit von Signalen Ein zeitdiskretes reelles oder komplexes Signal f[k] ist stabil, falls f[k] absolut summierbar ist: ∞ X |f [k]| < ∞ k=−∞ Ein zeitkontinuierliches reelles oder komplexes Signal f(t) ist stabil, falls f(t) absolut integrierbar ist: Z ∞ |f [t]| dt < ∞ −∞ 1.2 Endliche Energie: Quadratische Summierbarkeit von Signalen Ein zeitdiskretes reelles oder komplexes Signal f[k] hat endliche Energie, falls f[k] quadratisch summierbar ist: ∞ X |f [k]|2 < ∞ k=−∞ Ein zeitkontinuierliches reelles oder komplexes Signal f(t) hat endliche Energie, falls f(t) quadratisch integrierbar ist: Z ∞ |f [t]|2 dt < ∞ −∞ 1.3 Beschränkte Signale Ein zeitdiskretes reelles oder komplexes Signal f[k] heisst beschränkt, falls gilt: |f [k]| < b, ∀k ∈ R Ein kontinuierliches reelles oder komplexes Signal f(t) heisst beschränkt, falls gilt: |f (t)| < b, ∀t ∈ R 1.4 Kausale Signale Ein zeitkontinuierliches Signal f (t) ist kausal, falls f (t) = 0 für t < 0. Ein zeitdiskretes Signal f [k] ist kausal, falls f [k] = 0 für k < 0. 1 SIGNALE 1.5 7 Signalklassen Für die Definitionsmenge der zeitdiskreten Signale gilt: • `1R [Z]: Menge der reellen absolut summierbaren Signale • `2R [Z]: Menge der reellen quadratisch summierbaren Signale • `∞ R [Z]: Menge der reellen beschränkten Signale • `1C [Z]: Menge der komplexen absolut summierbaren Signale • `2C [Z]: Menge der komplexen quadratisch summierbaren Signale • `∞ C [Z]: Menge der komplexen beschränkten Signale Für die Definitionsmenge der zeitkontinuierlichen Signale gilt: • `1R (R): Menge der reellen absolut summierbaren Signale • `2R (R): Menge der reellen quadratisch summierbaren Signale • `∞ R (R): Menge der reellen beschränkten Signale • `1C (R): Menge der komplexen absolut summierbaren Signale • `2C (R): Menge der komplexen quadratisch summierbaren Signale • `∞ C (R): Menge der komplexen beschränkten Signale Allgemein gilt für reelle zeitdiskrete und zeitkontinuierliche Signale: `1R ⊂ `2R ⊂ `∞ R Allgemein gilt für komplexe zeitdiskrete und zeitkontinuierliche Signale: `1C ⊂ `2C ⊂ `∞ C 1.6 Faltung Für die Faltung zweier reeller oder komplexer zeitdiskreter Signale f[k] und g[k] gilt: X X f [n] ∗ g[n] = (f ∗ g)[n] = f [k]g[n − k] = f [n − k]g[k] k∈Z k∈Z 1 SIGNALE 8 Für die Faltung zweier reeller oder komplexer zeitkontinuierlicher Signale f(t) und g(t) gilt: Z −∞ Z ∞ f (t − τ )g(τ )dτ f (τ )g(t − τ )dτ = f (t) ∗ g(t) = (f ∗ g)(t) = −∞ ∞ Für die Faltung gelten zudem folgende Eigenschaften: • Kommutativität: f ∗ g = g ∗ f • Assoziativität: (f ∗ g) ∗ h = f ∗ (g ∗ h) • Distributivität: f ∗ (g + h) = (f ∗ g) + (f ∗ h) • Assoziativität der skalaren Multiplikation: c · (f ∗ g) = (c · f ) ∗ g = f ∗ (c · g) mit c ∈ C • Ableitungsregel: (f ∗ g)0 = f 0 ∗ g = f ∗ g 0 Das Faltungstheorem besagt: • (f ∗ g)(t) = F (s) · G(s) bzw. (f ∗ g)(t) = F (jω) · G(jω) • (f ∗ g)[n] = F (z) · G(z) bzw. (f ∗ g)[n] = F (ejΩ ) · G(ejΩ ) Für die Faltung einer Funktion f mit dem Dirac-Stoss δ oder dem Einheitssprung σ gilt: • (f ∗ δ)(t) = f (t) bzw. (f ∗ δ)[n] = f [n] Rt P • (f ∗ σ)(t) = −∞ f (τ )dτ bzw. (f ∗ σ)[n] = nk=−∞ f [k] Weiter gilt der folgende Zusammenhang für h := f ∗ g: • f und g sind rechtsseitig =⇒ h ist auch rechtsseitig • f und g sind linksseitig =⇒ h ist auch linksseitig • f und g sind kausal =⇒ h ist auch kausal • f und g sind quadratisch summierbar =⇒ h ist auch quadratisch summierbar • f ist beschränkt und g ist quadratisch summierbar =⇒ h ist beschränkt • f ist beliebig und g ist von endlicher Dauer =⇒ h ist wohldefiniert 2 SYSTEME 2 2.1 9 Systeme Systemeigenschaften Gegeben sei das System S. Es gilt: S{f (t)} = g(t). Diese Eigenschaften gelten sowohl für zeitkontinuierliche als auch für zeitdiskrete Systeme. 2.1.1 Linearität Ein System ist linear, wenn das Superpositionsprinzip gilt: S{α1 f1 (t)+α2 f2 (t)} = α1 S{f1 (t)}+α2 S{f2 (t)} = α1 g1 (t)+α2 g2 (t) S ( X αk ∈ C ) αk fk (t) k = X αk S{fk (t)} = k X αk gk (t) k Eine direkte Konsequenz der Linearität ist: S{0} = 0. 2.1.2 Zeitinvarianz Zeitliche Verzögerungen des Eingangssignals bewirken bei Zeitinvarianz eine ebenso grosse zeitliche Verzögerung des Ausgangssignals. Es gilt also: S{f (t − t0 )} = g(t − t0 ) 2.1.3 BIBO-Stabilität (Bounded Input Bounded Output Stability) Falls das Ausgangssignal bei jedem beliebigen beschränkten Eingangssignal f (t) immer beschränkt bleibt, wird das System (BIBO-) stabil bezeichnet. |f (t)| ≤ Bf ⇒ |g(t)| ≤ Bg 2.1.4 Kausalität Ein System heisst kausal, wenn das Ausgangssignal g(t) in einem bestimmten Zeitpunkt t0 ausschliesslich vom vergangenen Eingangssignal f (t) für t ≤ t0 abhängt. g(t) ist somit unabhängig vom Verlauf von f (t) für t ≥ t0 . Es gilt also: g(t) = S{f (t), t ≤ t0 } Merke: Echtzeitrealisierungen (online) sind immer kausal. Nur dort wo Daten zwischengespeichert werden, sind akausale Systeme möglich (OfflineDatenverarbeitung). 2 SYSTEME 2.1.5 10 Realisierbarkeit Systeme, die stabil als auch kausal sind, werden als realisierbar bezeichnet. 2.1.6 LTI-Systeme (Linear Time Invariant Systems) Systeme, die linear als auch zeitinvariant sind, werden LTI-Systeme genannt. LTI-Systeme besitzen immer eine Impuls- und eine Schrittantwort. Existiert die Impuls- und Schrittantwort eines Systems, so ist das System ein LTISystem. Im anderen Fall ist das System kein LTI-System. 2.1.7 Gedächtnis Bei gedächtnislosen Systemen hängt das Ausgangssignal nur vom momentanen Wert des Eingangssignals ab. Bei Systemen mit Gedächtnis beeinflusst auch die Vorgeschichte des Eingangssignals das Ausgangssignal. Es gilt also: • Gedächtnisloses System: g(t) = S{f (t)} • System mit Gedächtnis: g(t) = S{f (t − n)} mit n > 0 2.1.8 Invertierbarkeit Bei invertierbaren Systemen lässt sich vom Ausgangssignal auf das Eingangssignal zurückschliessen. f (t) ⇔ g(t) mit f (t) 6= 0, ∀t S ist invertierbar! 2.2 2.2.1 Eigenschaften von LTI-Systemen Kausalität Ein LTI-System ist dann kausal, wenn seine Stossantwort h(t) ein kausales Signal ist. Es gilt also: h(t) = 0 für t < 0 bzw. h[k] = 0 für k < 0 Dies folgt direkt ausR der Faltung des Systems h(t) mit dem Eingang u(t): +∞ y(t) = (h ∗ u)(t) = −∞ h(τ ) · u(t − τ )dτ ⇒ h(t) = 0 für t < 0 2.2.2 BIBO-Stabilität Ein zeitdiskretes oder zeitkontinuierliches reelles oder komplexes LTI-System ist geanu dann BIBO-stabil, wenn seine Stossantwort h[k] bzw. h(t) ein stabiles Signal (d.h. absolut summierbar bzw. integrierbar) ist. 3 DIE Z-TRANSFORMATION 3 11 Die Z-Transformation 3.1 Definition Die zweiseitige Z-Transformation eines reellen oder komplexen zeitdiskreten Signals f [k] lautet: f [k] =⇒ F (z) ∞ X F (z) := f [k]z −k k=−∞ Für die Rücktransformation ergibt sich ein komplexes Linienintegral: F (z) =⇒ f [k] I 1 F (z)z k−1 dz f [k] := 2πj C 3.2 Eigenschaften Die wichtigsten Eigenschaften der zweiseitigen Z-Transformation sind: • f [k + k0 ] ⇐⇒ z k0 F (z) • k · f [k] ⇐⇒ −z · dF (z) dz • f ∗ [k] ⇐⇒ F ∗ (z ∗ ) • f [−k] ⇐⇒ F (z −1 ) • f [k] + g[k] ⇐⇒ F (z) + G(z) • c · f [k] ⇐⇒ c · F (z) mit c ∈ C 3.3 Anfangs- und Endwerttheorem für kausale Signale Wenn f [k] ein kausales Signal ist, dann gilt: lim f [k] = lim F (z) k→0 |z|→∞ Wenn f [k] ein rationales kausales Signal ist, sodass limk→∞ f [k] existiert, dann gilt: lim f [k] = lim(z − 1)F (z) f [k]→∞ z=1 4 KOMPLEXE ANALYSIS 3.4 12 Umkehrformel Die Rücktransformation lautet: 1 f [k] := 2πj I F (z)z k−1 dz C Dies ist ein geschlossenes komplexes Linienintegral. Für die Berechnung wählt man einen beliebigen Weg im komplexen Gebiet: z.B. z = r ·ejΩ . Daraus folgt dann: Z 2π 1 F (rejΩ )rk ejΩk dΩ f [k] := 2π 0 Nun lässt sich das Integral nach den klassischen Regeln der mathematischen Kunst berechnen. 4 4.1 Komplexe Analysis Satz von Cauchy und Hadamard Gegeben sei eine Potenzreihe C(x): C(x) := ∞ X ck xk x, ck ∈ C k=0 Für den Konvergenzradius gilt dann: −1 1 r = lim sup |ck | k k→∞ Mehr Informationen zum ’Limes superior’ findet man im Anhang in Abschnitt D auf S.58. Es gilt nun: Die Potenzreihe konvergiert absolut für |x| < r, und sie divergiert für |x| > r. Der Fall |x| = r wird bewusst offen gelassen. Hier kann alles passieren. Unter absoluter Konvergenz einer Reihe versteht man die Konvergenz des Absolutbetrages der Glieder einer Folge. 4.2 Konvergenz von Laurent-Reihen Gegeben sei die folgende Laurent-Reihe L(x): L(x) = ∞ X k=−∞ ck xk x, ck ∈ C 5 NORMALFORMEN UND FALTUNGSALGORITHMEN 13 Man zerlegt diese Reihe wie folgt: L(x) = ∞ X c−k x−k + k=1 ∞ X ck xk = L− (x) + L+ (x) k=0 Für die Konvergenzradien gilt nun: 1 • Konvergenzradius von L− (x): r− = lim supk→∞ |ck | k −1 1 • Konvergenzradius von L+ (x): r+ = lim supk→∞ |ck | k Damit gilt für den Konvergenzbereich von |x|: r− < |x| < r+ Daraus folgt: Eine Laurent-Reihe konvergiert im Innern eines Kreisringes um den Ursprung und divergiert ausserhalb dieses Kreisrings. 4.3 Analytische Funktionen Eine Funktion f (z) ist analytisch, wenn gilt: • Das Definitionsgebiet von f (z) ist eine zusammenhängende offene Teilmenge von C. • Die Cauchy-Riemann’sche Differentialgleichung ist erfüllt: ∂f (x+jy) = j ∂f (x+jy) mit x, y ∈ R. ∂y ∂x 5 Normalformen und Faltungsalgorithmen Eine beliebige Übertragungsfunktion habe die folgende Form: H(z) = a0 z n + a1 z n−1 + · · · + an z n + b1 z n−1 + · · · + bn Die Abbildungen 1, 2 und 3 auf S.14 zeigen drei Realisierungen der Übertragungsfunktion H(z). Man beachte, dass die z−1- bzw. leeren Komponenten Speicherglieder darstellen. In der Praxis wird meist die Realisierung in Abbildung 1 verwendet. 5 NORMALFORMEN UND FALTUNGSALGORITHMEN 14 Abbildung 1: Realisierung der Übertragungsfunktion H(z) [1] Abbildung 2: Regelungsnormalform (Controller Canonical Form) der Übertragungsfunktion H(z) [1] Abbildung 3: Beobachternormalform (Observer Canonical Form) der Übertragungsfunktion H(z) [1] 6 ZEITDISKRET UND KONTINUIERLICH 6 15 Zeitdiskret und kontinuierlich 6.1 Transformationen im Überblick Die Tabellen 1, 2 und 3 auf S.16 geben einen Überblick über wichtige Eigenschaften folgender Transformationen: • Fouriertransformation (FT) • Laplacetransformation (LT) • Zeitdiskrete Fouriertransformation • Z-Transformation (ZT) • Diskrete Fouriertransformation Man beachte, dass hier die zweiseitige Form der Transformationen betrachtet wird. 6.2 Das Spektrum eines Signals Für das Spektrum eines zeitkontinuierlichen Signals f (t) gilt: F (jω) = F (s)|s=jω Für das Spektrum eines zeitdiskreten Signals f [k] gilt: F (ejΩ ) = F (z)|z=ejΩ 6.3 Laplace- und Z-Transformation Zwischen der Laplace- und der Z-Transformation gilt folgender fundamentale Zusammenhang: z = esT Eine gute Approximation, um vom Z- in den Laplace-Bereich und umgekehrt zu gelangen, stellt die bilineare Transformation dar. Sie lautet: s= 2 z−1 · T z+1 z=− s + 2/T s − 2/T Damit gilt für die Transformation eines Systems H(s) vom s- in den zBereich: G(z) = H(s)|s= 2 · z−1 T z+1 6 ZEITDISKRET UND KONTINUIERLICH Transformation Fouriertransformation (FT) Laplacetransformation (LT) Zeitdiskrete Fouriertransf. Z-Transformation (ZT) Diskrete Fouriertransf. (DFT) Zeitachse R R Z Z Z mod N 16 Frequenzachse R C R mod 2π C Z mod N AbbildungR ∞ F (jω) :=R −∞ f (t)e−jωt dt ∞ F (s) := −∞ f (t)e−st dt P∞ −jΩn F (ejΩ ) := P∞ n=−∞ f [n]e F (z) := n=−∞ f [n]z −n P −1 −j2πkn N F [n] := N k=0 f [k]e Tabelle 1: Alle Transformationen im Überblick (I) Transformation Fouriertransformation (FT) Laplacetransformation (LT) Zeitdiskrete Fouriertransf. Z-Transformation (ZT) Diskrete Fouriertransf. (DFT) Beziehung F (jω) = F (s)|s=jω F (esT ) = F (z)|z=esT F (ejΩ ) = F (z)|z=ejΩ F [n] = F (ejΩ )|Ω= 2πn N Rücktransformation R∞ 1 f (t) := 2π F (jω)ejωt dω −∞ R σ+j∞ 1 f (t) := 2πj F (s)est ds σ−j∞ R π 1 jΩ jΩk )e dΩ f [k] := 2π H−π F (e k−1 1 f [k] := 2πj C F (z)z dz P −1 j2πkn N f [k] := N1 N n=0 F [n]e Tabelle 2: Alle Transformationen im Überblick (II) Transformation Fouriertransformation (FT) Laplacetransformation (LT) Zeitdiskrete Fouriertransf. Z-Transformation (ZT) Stabilität f (t) ist stabil, also absolut integierbar. ROC(f ) enthält die imaginäre Achse. f [k] ist stabil, also absolut summierbar. ROC(f ) enthält den Einheitskreis. Tabelle 3: Alle Transformationen im Überblick (III) 6 ZEITDISKRET UND KONTINUIERLICH 6.4 17 Zeitkont. und zeitdiskrete Fourierransformation Zwischen der zeitkontinuierlichen und der zeitdiskreten Fouriertransformation gilt folgender fundamentale Zusammenhang: Ω=ω·T Mit Hilfe der bilinearen Transformation und z = ejΩ sowie s = jω gilt: 2 ωT Ω −1 ω = tan Ω = 2 tan T 2 2 Damit gilt für die Transformation eines Systems H(jω) vom jω- in den ejΩ Bereich: G(ejΩ ) = H(jω)|ω= 2 tan Ω/2 T 6.5 Amplitudengang Der Amplitudengang |H| einer Übertragungsfunktion H lässt sich immer aus dem Pol-Nullstellen-Diagramm herauslesen. Es sei H(r) eine allgemeine Übertragungsfunktion: Qm (r − zk ) mit r = {z, s, ejΩ , jω} H(r) = c · Qk=1 n (r − p ) i i=1 pi sind die Polstellen und zk die Nullstellen der Übertragungsfunktion H(r). Für den Amplitudengang gilt dann: Qm |r − zk | |H(r)| = |c| · Qk=1 n i=1 |r − pi | 6.6 Konvergenzgebiete Konvergenzgebiet wird auf engl. Region of Convergence, kurz ROC, bezeichnet. Das Konvergenzgebiet eines Signals s wird mit ROC(s) bezeichnet. Es seien f und g zwei beliebige Signale (kontinuierlich oder diskret). Für das Konvergenzgebiet der Laplace- oder der Z-Transformation gilt: • Addition: ROC(f + g) ⊇ ROC(f ) ∩ ROC(g) • Multiplikation mit einem Skalar: ROC(af ) = ROC(f ) für a 6= 0 und a ∈ C • Faltung: ROC(f ∗ g) ⊇ ROC(f ) ∩ ROC(g) 6 ZEITDISKRET UND KONTINUIERLICH 18 • Zeitverschiebung: h(t) = f (t − τ ) bzw. h[k] = f [k − m], ROC(h) = ROC(f ) Für die Zeitumkehrung gilt: • bei der Laplacetransformation: H(s) = F (−s), ROC(f ) = {s ∈ C : σ1 < <{s} < σ2 } =⇒ ROC(h) = {s ∈ C : −σ2 < <{s} < −σ1 }. • bei der Z-Transformation: H(z) = F (z −1 ), ROC(f ) = {z ∈ C : r1 < |z| < r2 } =⇒ ROC(h) = {z ∈ C : 1/r2 < |z| < 1/r1 }. 6.7 Konvergenzbetrachtungen 6.7.1 Bei der Laplacetransformation Man zerlegt die Laplacetransformation wie folgt: Z +∞ Z 0 −st F (s) = f (t) · e dt + f (t) · e−st dt −∞ 0 Damit nun das Laplaceintegral existiert, muss die Exponentialfunktion abklingen. Es muss nun für den Exponenten von e eine Bedingung formuliert werden, sodass das Integral existiert bzw. abklingt. Dies ist nicht immer möglich. Zudem muss die Funktion f (t) langsamer ansteigen als die Exponentialfunktion abfällt, was im allgemeinen Fall fast immer der Fall ist. Man erhält also zwei Bedingungen für das Konvergenzgebiet: R +∞ • ROC1 : 0 f (t) · e−b(s)t dt ⇒ b(s) > 0 R0 • ROC2 : −∞ f (t) · e−b(s)t dt ⇒ b(s) < 0 Die Schnittmenge der beiden Konvergenzgebiete ROC1 und ROC2 ergibt den gesuchten Konvergenzbereich ROC = ROC1 ∩ ROC2 . 6.7.2 Bei der Z-Transformation Die Z-Transformation ist im wesentlichen eine Laurent-Reihe (siehe Abschnitt 4.2 auf S.12!). Man zerlegt nun diese Reihe wie folgt: F (z) = ∞ X k=−∞ f [k]z −k = ∞ X k=1 k f [−k]z + ∞ X k=0 f [k]z −k = F− (z) + F+ (z) 6 ZEITDISKRET UND KONTINUIERLICH 19 Man kann nun den Konvergenzradius (siehe Abschnitt 4.1 auf S.12!) von F− (z) und F+ (z) berechnen und so den Konvergenzbereich von F (z) angeben. In der Praxis berechnet man nur in wenigen Fällen den Konvergenzradius. Man betrachtet die Summen F− (z) und F+ (z) als geometrische Reihen. Für die Konvergenz einer geometrischen Reihe (im komplexen Raum) muss gelten: ∞ X 1 |q| < 1 qk = 1 − q k=0 Die folgenden Beziehungen können dabei hilfreich sein: P∞ a k • = 1−1 a mit | az | < 1 ak · σ[k] ⇐⇒ 1−1 a k=0 z z • − P∞ k=1 z k a = 1 1− az z mit | az | < 1 −ak · σ[−k − 1] ⇐⇒ 1 1− az Die komplexen geometrischen Reihen können wie reelle behandelt werden. Insofern erweist sich die Kenntnis der Herleitung der geometrischen Summenformel als nützlich. 6.8 6.8.1 Stabilitätsbetrachtungen Beliebige Signale Für ein beliebiges zeitkontinuierliches Signal f (t) dessen Laplacetransformation F (s) rational ist, gilt: f (t) ist stabil ⇐⇒ ROC(f ) enthält die imaginäre Achse Für ein beliebiges zeitkdiskretes Signal f [k] dessen Z-Transformation F (z) rational ist, gilt: f [k] ist stabil ⇐⇒ ROC(f ) enthält den Einheitskreis Siehe dazu auch Tabelle 3 auf S.16. 6.8.2 Rechtsseitige Signale Ein rechtsseitiges Signal f (t) mit rationaler Laplacetransformation F (s) ist genau dann stabil (absolut integrierbar), wenn gilt: Alle Pole von F (s) sind in der linken Halbebene. 6 ZEITDISKRET UND KONTINUIERLICH 20 Ein rechtsseitiges Signal f [k] mit rationaler Z-Transformation F (z) ist genau dann stabil (absolut summierbar), wenn gilt: Alle Pole von F (z) sind im Innern des Einheitskreises. 6.8.3 Linksseitige Signale Ein linksseitiges Signal f (t) mit rationaler Laplacetransformation F (s) ist genau dann stabil (absolut integrierbar), wenn gilt: Alle Pole von F (s) sind in der rechten Halbebene. Ein linksseitiges Signal f [k] mit rationaler Z-Transformation F (z) ist genau dann stabil (absolut summierbar), wenn gilt: Alle Pole von F (z) sind ausserhalb des Einheitskreises. 6.9 Umwandlung zeitdiskreter in zeitkontinuierliche Signale Gegeben sei ein zeitdiskretes Signal x[k] und ein Halteglied h(t), das meist wie folgt definiert ist: 1 0≤t<T h(t) = 0 sonst Für das zeitkontinuierliche Ausgangssignal y(t) gilt nun: y(t) := ∞ X x[k]h(t − kT ) k=−∞ Man zerlegt nun das Signal y(t) wie folgt (siehe Abbildung 4 auf S.21!): y(t) = x̃(t) ∗ h(t) ⇐⇒ Y (s) = X̃(s) · H(s) P sT jωT x̃(t) := ∞ )|s=jω k=−∞ x[k]δ(t − kT ) ⇐⇒ X̃(s) = X(z)|z=esT = X(e ) = X(e Das zeitdiskrete Signal wird dabei in ein quasi-zeitkontinuierliches Signal aus lauter Dirac-Stössen umgewandelt. Daraus folgt die Erkenntnis: Das Spektrum eines zeitkontinuierlichen Signals x̃(t) ist gleich dem periodischen Spektrum X(ejΩ ) des zeitdiskreten Signals x[k] mit Ω = ωT. Die Abbildung z = esT ist in Abbildung 5 auf S.21 dargestellt. 6 ZEITDISKRET UND KONTINUIERLICH 21 Abbildung 4: Umwandlung eines zeitdiskreten Signals in ein zeitkontinuierliches Signal [1] Abbildung 5: Abbildung z = esT [1] 6.10 Abtastung Für die Abtastung eines Signals x(t) mit der Abtastperiode T (T ∈ R) gilt allgemein: xs [k] = T · x(kT − τ ) Oft setzt man τ = 0. Zur Vereinfachung der folgenden Berechnungen wird der Ausdruck x(kT − τ ) mit T normiert. Für die z-Transformierte des abgetasteten Signals gs = T g(kT ) gilt: X Gs (z) = G(s) s∈C:esT =z Mit z = ρ · ejΩ folgt daraus: X jΩ Gs (ρ · e ) = n∈Z G ln(ρ) j(Ω + n2π) + T T Mit ρ = 1 und Ω = ω · T folgt daraus: jωT G̃(jω) = Gs (e n2π )= G j ω+ T n∈Z X 6 ZEITDISKRET UND KONTINUIERLICH 22 Es gilt also: Das Spektrum Gs (ejΩ ) eines abgetasteten Signals mit Ω = ωT ist gleich der Summe aller um ganzzahlige Vielfache von 2π/T verschobenen Kopien von G(jω). Damit gilt für die Frequenz von zeitdiskreten Signalen: • Ω = ωT = 2π ffs • Ω 2π = fnorm = f fs 6.11 Nyquist-Shannon Abtasttheorem 6.11.1 Definition Für verzerrungsfreie Rekonstruktion eines Signals muss gelten: |fs | ≥ 2 · |fg | Die Abtastfrequenz fs muss grösser gleich sein als zweimal die höchste im Originalsignal vorkommende Frequenz fg . Man unterscheidet drei Arten von Abtastung: • kritische Abtastung: |fS | = 2|fg | oder |ωg | = π/T Die kritische Abtastfrequenz fs wird auch als Nyquistrate bezeichnet. • Überabtastung: |fS | > 2|fg | oder |ωg | < π/T • Unterabtastung: |fS | < 2|fg | oder |ωg | > π/T 6.11.2 Anwendung Das Abtasttheorem spielt bei allen zeitdiskreten Systemen eine wichtige Rolle. Ein kontinuierliches Eingangssignal u(t) wird am Vorfilter (Anti-AliasingFilter) g1 (t) bandbegrenzt und anschliessend mit der Periode T abgetastet. Danach wird das Signal mit dem zeitdiskreten LTI-System h[k] gefaltet. Das zeitdiskrete Signal muss nun wieder in ein kontinuierliches Signal umgewandelt werden. Dies erfolgt durch die Faltung mit dem Nachfilter (Halteglied) g2 (t). Mathematisch bedeutet dies, dass das zeitdiskrete Signal zunächst mit Hilfe einer Dirac-Folge in ein quasi-kontinuierliches Signal umgewandelt werden muss, damit eine Faltung mit dem zeitkontinuierlichen Nachfilter erfolgen kann. Das Nachfilter erfüllt zudem die wichtige Aufgabe, dass die unerwünschten Kopien des abgetasteten Spektrums entfernt werden. 6 ZEITDISKRET UND KONTINUIERLICH 23 Erfüllt nun das Vor- und das Nachfilter das Abtasttheorem, dann ist das Gesamtsystem zeitinvariant und besitzt folgende Übertragungsfunktion: Y (jω) = G1 (jω)H(ejωT )G2 (jω)U (jω) Man beachte zudem, dass digitale Systeme eine zusätzliche Quantisierung beinhalten. Der Ablauf sieht dann wie folgt aus: 1. Faltung mit dem Vorfilter g1 (t) 2. Abtastung mit Periode T 3. Faltung mit dem zeitdiskreten LTI-System h[k] 4. Faltung mit dem Nachfilter g2 (t) 5. Quantisierung 6. Digitalisierung 6.11.3 Dezimation, Interpolation und Umrechnung der Abtastrate • Erhöhung der Abtastrate um einen ganzzahligen Faktor (↑ n): Die Erhöhung der Abtastrate nennt man Interpolation. Es sei g[k] ein Signal mit der Abtastfrequenz fs . Die Abtastfrequenz wird nun um den Faktor n erhöht: fs,int = fs · n, n ∈ N. Das neue Signal gint [k] erhält man, indem man zwischen den Werten von g[k] (n − 1) Nullen einfügt. Es gilt somit: Gint (z) = ∞ X gint [k]z −k·n = ∞ X gint [k](z n )−k = G(z n ) k=−∞ k=−∞ Daraus folgt für das Spektrum: Gint (ejΩ ) = G(ejnΩ ) • Verringerung der Abtastrate um einen ganzzahligen Faktor (↓ m): Das regelmässige Abtasten eines zeitdiskreten Signals nennt man Dezimation. Man beachte vorallem, dass bei der Dezimation Aliasing auftreten kann. Es gilt: X Gd (z) = G(zl ) 1 zl ∈Z:zl =z n 7 FILTERDESIGN 24 Mit z = ρ · ejΩ gilt: n−1 X jΩ Gd (ρe ) = 1 G(ρ n e j(Ω+m2π) n ) m=0 Mit ρ = 1 gilt für das Spektrum Gd (ejΩ ): jΩ Gd (e ) = n−1 X G(e j(Ω+m2π) n ) m=0 • Wechsel der Abtastrate um einen rationalen Faktor: Interpolation und Dezimation können kombiniert werden, um eine bestimmte Abtastfrequenz zu erreichen. Will man beispielsweise eine 1.5fache Abtastfrequenz (1.5fs ) erzielen, dann muss man das Signal zuerst um den Faktor 3 interpolieren (3fs ) und anschliessend um den Faktor 2 dezimieren (1/2 · 3fs = 3/2fs ). 7 Filterdesign Filter werden allgemein in zwei Kategorien eingeteilt: • Analoge Filter: Analoge Filter bearbeiten ein analoge Signal. Je nach Bauart unterscheidet man zwischen aktiven und passiven Filtern. Passive Filter bestehen aus Bauteilen, die keine zusätzliche Energie benötigen (z.B. Widerstände, Kapazitäten, Induktivitäten, usw.). Aktive Filter bestehen hauptsächlich aus Operationsverstärkern, die zusätzlich Energie für die aktive Verstärkung von Signalen benötigen. • Digitale Filter: Digitale Filter bearbeiten ein digitales Signal. Das analoge Signal wird mit Hilfe eines Analog-Digital-Wandler (A/DWandler) in ein digitales Signal gewandelt. Das Filter bearbeitet dann das digitale Signal. Anschliessend wird das digitale Signal mit Hilfe eines Digital-Analog-Wandlers (D/A-Wandler) wieder in ein analoges Signal zurückgewandelt. Die Prozessschritte eines A/D-Wandlers lauten: 1. Filterung des zeitkont. Signals mit einem Tiefpassfilter 2. Abtastung des zeitkont. Signals 3. Faltung mit einem Halteglied 7 FILTERDESIGN 25 4. Quantisierung 5. Digitalisierung Die Prozessschritte eines D/A-Wandlers lauten: 1. Ditigaler Wert einem analogen Wert zuordnen 2. Faltung mit einem Tiefpassfilter Digitale Filter lassen sich weiter wie folgt einteilen: • FIR-Filter: Die Stossantwort eines zeitdiskreten LTI-Systems ist von endlicher Dauer (Finite Impulse Response). • IIR-Filter: Die Stossantwort eines zeitdiskreten LTI-Systems ist nicht von endlicher Dauer (Infinite Impulse Response). 7.1 FIR-Filter Für einen idealen Tiefpassfilter gilt: sin(Ωc k) 1 |Ω| < Ωc jΩ ⇐⇒ h[k] = H(e ) = 0 Ωc ≤ |Ω| ≤ π πk Ein idealer zeitdiskreter Tiefpassfilter h[k] ist weder kausal noch stabil. Man ist nun bemüht, den Filter stabil zu machen, indem man nur ein bestimmtes Intervall von h[k] zulässt. Die Werte ausserhalb dieses Intervalls werden auf null gesetzt. Das Zulassen eines bestimmten Intervalls entspricht einer sogenannten Fensterfunktion w[k]. Die Multiplitkation der Fensterfunktion mit dem Filter h[k] ergibt das gewünschte Filter f [k]. Es gilt also: f [k] = w[k] · h[k] Die klassische Fensterfunktion ist wie folgt definiert (N ∈ N): 1 |k| ≤ N/2 w[k] = 0 |k| > N/2 Diese Fensterfunktion erweist sich aber als praktisch unbrauchbar, da das Filter nur sehr langsam abklingt. Eine bessere Fensterfunktion ist das sogenannte Hanning-Fenster (auf engl. raised-cosine window ): 1 2πk · 1 + cos |k| ≤ N/2 2 N +2 w[k] = 0 |k| > N/2 7 FILTERDESIGN 26 Durch eine zeitliche Verschiebung N/2, kann das System kausal gemacht werden. Zudem wird man das Filter noch normieren. Für die Stossantwort g[k] gilt dann: h[k]w[k] g[k + N/2] = P n∈Z h[n]w[n] 7.2 7.2.1 IIR-Filter Design IIR-Filter werden oft in einem zweistufigen Verfahren entworfen: 1. Entwurf eines zeitkontinuierlichen Filters 2. Transformation des zeitkontinuierlichen Filters in ein zeitdiskretes Filter (z.B. mit der bilinearen Transformation) IIR-Filter sind oft viel leistungsfähiger als FIR-Filter. 7.2.2 Butterworth-Filter Ein zeitkontinuierliches Butterworth-Filter der Ordnung N mit den Polstellen pk ist wie folgt definiert: H(s) := QN 1 k=1 (1 π − s ) pk pk := ωc · ej 2N (2k+N −1) Für den Amplitudengang gilt: |H(jω)|2 = 1+ 1 2N ω ωc √ Die Frequenz fc = ωc /2π wird wegen |H(jωc )| = 1/ 2 ≈ −3.01dB auch −3dB-Frequenz bezeichnet. 7.2.3 Beziehung zwischen Hoch- und Tiefpassfilter Es sei G(z) ein beliebiger Tiefpass. Aus G(z) lässt sich wie folgt ein Tiefpassfilter H(z) realisieren: H(z) = G(−z) Dies wird aus dem Spektrum (z = ejΩ ) von H(z) ersichtlich: H(ejΩ ) = G(−ejΩ ) = G(ejπ ejΩ ) = G(ejΩ+jπ ) Der Tiefpass wurde also um π verschoben. Daraus resultiert ein Hochpass. 7 FILTERDESIGN 7.3 7.3.1 27 Inverse zeitdiskrete Filter Definition Es sei g[k] ein zeitdiskretes Signal und f [k] ein Filter. Das Filter f [k] ist dann invers, wenn gilt: G(z) · F (z) = 1 ⇐⇒ g[k] ∗ f [k] = δ[k] Allgemein gilt: F(z) = 1/G(z) ist ohne weitere Angaben kein eindeutiges Signal. 7.3.2 Berechnung Die Berechnung von inversen Filtern erfolgt meistens mit Hilfe der Polynomdivision. Man beachte, dass die Polynomdivision eines Fitlers nicht eindeutig ist: • erster Möglichkeit: 1 : (a0 + a1 z + a2 z 2 + · · · + an z n ) =? • zweite Möglichkeit: 1 : (an z n + an−1 z n−1 + an−2 z n−2 + · · · + a0 ) =? Die beiden Polynomdivisionen führen auf unterschiedliche Resultate. Es ist nun so, dass nur eine der Polynomdivisionen - wenn überhaupt - ein stabiles Filter ergibt. 7.3.3 Regeln Es gilt: • Rechtsseitige Signale: Es gibt genau ein rechtsseitiges inverses Signal. • Linksseitige Signale: Es gibt genau ein linksseitiges inverses Signal. • Beidseitige Signale: Es gibt ein rechts- und ein linksseitiges inverses Signal. 7.3.4 Grundsatz der inversen Filter Für die Bildung eines inversen Filters gilt der Grundsatz: Eine gute Inversion Verzögerung. eines Signals braucht meistens eine 7 FILTERDESIGN 28 Abbildung 6: Ein Übertragungskanal mit Rauschen [1] 7.4 7.4.1 Egalisation Problemstellung In der Nachrichtentechnik hat man das Problem, dass der Kanal zwischen Sender und Empfänger mit Rauschen behaftet ist. Abbildung 6 auf S.28 zeigt ein mathematisches Modell eines Übertragungskanals. Man ist nun bestrebt, am Ausgangssignal x[k] wieder das Eingangssignal u[k] zu erhalten. Es soll also in guter Näherung gelten: x[k] ≈ u[k]. Die Aufgabe den Filter g[k] so anzupassen, dass am Ausgang wieder das Signal x[k] erscheint, nennt man Entzerrung, Entfaltung (auf engl. deconvolution) oder Egalisation (auf engl. equalization). Grundsätzlich unterscheidet man zwischen linearen und nichtlinearen Egalisationsverfahren. 7.4.2 Das klassische lineare Egalisationsverahren Lässt man den Rauschterm w[k] einmal auf der Seite, so würde man vermutlich G(z)H(z) = 1 fordern. Es erweist sich aber als besser, nur die Approximation H(z)G(z) ≈ z −L zu betrachten. Viele beidseitige Signale besitzen ein linksseitiges, stabiles und inverses Signal. Damit nun das inverse Filter auch noch kausal ist, muss das linksseitige Signal abgeschnitten und zeitlich verschoben werden. Dies bedeutet, dass eine zeitliche Verzögerung eingeführt werden muss. Und genau dies bewirkt der Term z −L in der oberen Approximation. Das Vorgehen lässt sich in folgende Teilschritte gliedern: 1. Das inverse und stabile Filter G(z) wird mit Hilfe der Polynomdivision gebildet, sofern ein solches Filter existiert. 2. Das Filter wird nun kausal gemacht. Ein linksseitiges Signal wird ab einer gewissen Stelle abgeschnitten und anschliessend zeitlich verschoben. Ein rechtsseitiges Signal muss nur noch zeitlich verschoben werden. Das folgende Beispiel soll dies verdeutlichen: Gegeben sei das System H(z) = 1 + 2z −1 . Mit Hilfe der Polynomdivision erhält man zwei mögliche inverse Signale: 7 FILTERDESIGN 29 • Rechtsseitiges inverses Signal: Gr (z) = 1 − 2z −1 + 4z −2 − 8z −3 + . . . • Linksseitiges inverses Signal: Gl (z) = · · · − 1 4 z 16 + 81 z 3 − 41 z 2 + 21 z Nur das linksseitiges Signal Gl (z) ist stabil. Man schneidet nun z.B. L = 4 Stellen ab und verschiebt das Signal mit z −L . Man erhält dann: G(z) = − 1 1 1 1 + z −1 − z −2 + z −3 16 8 4 2 Oft verwendet man die folgende abkürzende Schreibweise: G(z) = z −L Gl (z) 7.4.3 mod z Decision-Feedback Equalizer (DFE), ein nicht-lineares Egalisationsverfahren Decision-Feedback Equalizer ist ein Entzerrer mit Entscheidungsrückführung. Die Abbildung 7 auf S.30 zeigt den Aufbau eines derartigen Filters. Der DFE besitzt neben gewöhnlichen Filtern (Vorwärtsfilter Gf (z) und Rückwärtsfilter Gb (z)) auch noch ein Entscheidungsglied. Dieses Glied bewirkt, dass das Egalisationsverfahren nicht-linear ist. Die Entscheidungsfunktion ist eine Rundungsfunktion, die jeweils auf den nächsliegenden möglichen Eingangswert u[k] rundet. Die Idee besteht nun darin, H(z) = H1 (z) + H2 (z) aufzuteilen und nur die Inversion von H1 (z) zu betrachten. Abbildung 8 auf S.30 zeigt eine mögliche Realisierung jedoch ohne Entscheidungsglied. 7 FILTERDESIGN 30 Abbildung 7: Decision-Feedback Equalizer (DFE) [1] Abbildung 8: Mögliche DFE-Realisierung (ohne Entscheidungsglied) [1] 8 GRUNDBEGRIFFE DER WAHRSCHEINLICHKEITSTHEORIE 8 Grundbegriffe theorie 8.1 der 31 Wahrscheinlichkeits- Die Axiome von Kolmogorov Ein Wahrscheinlichkeitssystem oder ein Wahrscheinlichkeitsraum ist ein Tripel (Ω, ε, P ), bestehend aus einer Grundmenge (sample space) Ω, einer Ereignismenge (events) ε und einer Abbildung P : ε → R. P wird meist auch Wahrscheinlichkeitsmass (propability) genannt. Die Menge ε beinhaltet alle Teilmengen der Menge Ω. Die Menge ε ist somit eine Potenzmenge der Menge Ω (P(Ω) = ε) und erfüllt die Bedingungen einer Sigma-Algebra. F ist eine Sigma-Algebra, falls gilt: • Ω∈F • A ∈ F ⇒ Ac ∈ F • An ∈ F für n ≥ 1: S∞ n=1 An ∈ F Das Tripel (Ω, ε, P ) heisst Wahrscheinlichkeitsraum, falls gilt: • Ω 6= ∅ • ε ist eine Sigma-Algebra. • A ∈ ε mit 0 ≤ P (A) ≤ 1 → P (Ω) = 1 P∞ S • Sigma-Additivität: P ( ∞ n=1 An ) = n=1 P (An ), falls An ∩ Am = ∅ für n 6= m Aus der Definition des Wahrscheinlichkeitsraumes folgt: • ∅∈ε • A1 ∪ A 2 ∪ · · · ∪ A n ∈ ε → A1 ∩ A2 ∩ · · · ∩ An ∈ ε • P (Ac ) = 1 − P (A) • P (∅) = 0 Ein Ereignis ω = Ai mit Ai ∈ Ω und Ai ∩ Ak 6= ∅ für i 6= k wird Elementarereignis bezeichnet. 8 GRUNDBEGRIFFE DER WAHRSCHEINLICHKEITSTHEORIE 8.2 32 Zufallsgrössen Oft bezeichnet man Zufallsgrössen auch Zufallsvariablen. • Diskrete Zufallsgrössen: Eine diskrete Zufallsgrösse ist eine Funktion X : Ω → S mit einem endlichen oder abzählbar unendlichen Wertebereich S, sodass für jedes s ∈ S die Menge {ω ∈ Ω : X(ω) = s} ein Ereignis ist. Für P ({ω ∈ Ω : X(ω) = s}) wird oft nur P (X = s) geschrieben. • Reelle Zufallsgrössen: Eine reelle Zufallsgrösse ist eine Funktion X : Ω → S, sodass für jedes r ∈ R die Menge {ω ∈ Ω : X(ω) ≤ r} ein Ereignis ist. Für P ({ω ∈ Ω : X(ω) ≤ r}) wird oft nur P (X ≤ r) geschrieben. • Reeller Zufallsvektor: Eine Zusfallsgrösse mit X = (X1 . . . X2 )T wird Zufallsvektor bezeichnet. Es gilt also: Ω → Rn : ω 7→ (X1 . . . Xn )T . • Komplexe Zufallsgrössen: Eine komplexe Zufallsgrösse setzt sich aus zwei reellen Zufallsgrössen X und Y zusammen: Z = X + jY . Es gilt also: Ω → C : ω 7→ X(ω) + jY (ω). 8.3 Funktionen von Zufallsgrössen Zufallsgrössen sind oft Funktionen von anderen Zufallsgrössen. Für eine Funktion g einer Zufallsgrösse X gilt dann: Ω → R : ω 7→ g(X(ω)) 8.4 Wahrscheinlichkeitsdichte und Verteilungsfunktion Die Verteilungsfunktion FX (x) einer Zufallsgrösse X ist wie folgt definiert: FX (x) = P (X ≤ x) x∈R Für die Verteilungsfunktion FX (x) einer Zufallsgrösse X gilt: • FX (x) ist monoton wachsend (nicht fallend) • FX (x) ist rechsseitig stetig, d.h. limb→0 (x + b) = FX (x) • limx→−∞ [FX (x)] = 0 und limx→∞ [FX (x)] = 1 8 GRUNDBEGRIFFE DER WAHRSCHEINLICHKEITSTHEORIE 33 Es gelten folgende Abkürzungen: F (x − 0) = lim [F (x − h)] h>0,h→0 F (x + 0) = lim [F (x + h)] h>0,h→0 Für a, b ∈ R und a < b gilt weiter: • P (a < X ≤ b) = F (b) − F (a) • P (X = a) = F (a) − F (a − 0) • P (a ≤ X ≤ b) = P (a < X ≤ b) + P (X = a) P (a ≤ X ≤ b) = F (b) − F (a) + P (X = a) = F (b) − F (a − 0) • P (a ≤ X < b) = P (a < X ≤ b) − P (X = b) + P (X = a) P (a ≤ X < b) = F (b − 0) − F (a − 0) • P (X > a) = 1 − P (X ≤ a) = 1 − F (a) • P (X < a) = P (X ≤ a)−P (X = a) = F (a)−F (a)+F (a−0) = F (a−0) Für die Dichtefunktion, auch Wahrscheinlichkeitsdichtefunktion genannt, fX (x) gilt allgemein: dFX (x) fX (x) = dx Man beachte, dass die Dichtefunktion bei diskreten Zufallsgrössen zu Dirac-Stössen führt, da eine Sprungfunktion abgeleitet wird: δ(t) = dσ(t)/dt. Für die Dichtefunktion gilt: R∞ P • Normierungsbedinung: −∞ fX (x) = 1 bzw. ∞ i=−∞ P (X = i) = 1 Rx P • FX (x) = −∞ fX (t)dt bzw. FX (x) = xi=−∞ P (X = i) 8.5 Verbundwahrs. und Verbundverteilungsfunktion Für die Verbundverteilungsfunktion FX1 ,...,Xn (x1 , . . . , xn ) von n Zufallsgrössen X1 , . . . , Xn gilt allgemein: FX (x) = FX1 ,...,Xn (x1 , . . . , xn ) = P (X1 ≤ x1 , . . . , Xn ≤ xn ) ! n \ FX (x) = P {ω ∈ Ω : Xk ≤ xk } k=1 Für die Verbunddichtefunktion, auch Verbundwahrscheinlichkeitsdichtefunktion genannt, gilt dann: ∂ n FX1 ,...,Xn (x1 , . . . , xn ) ∂FX (x) = fX (x) = fX1 ,...,Xn (X1 , . . . , Xn ) = ∂x1 , . . . , xn ∂x 8 GRUNDBEGRIFFE DER WAHRSCHEINLICHKEITSTHEORIE 8.6 34 Randverteilungen und Randdichten Für die Randdichte einer reellen Dichtefunktion fX (x) gilt: Z ∞ Z ∞ ... fX (x)dx1 . . . dxk−1 dxk+1 . . . dxn fXk (xk ) = −∞ −∞ Für die Randverteilung einer reellen Zufallsgrösse gilt dann: Z xk fXk (t)dt FXk (xk ) = −∞ Für P (X = x) mit einer diskreten Zufallsgrösse X gilt: P (Xk = xk ) = ∞ X ··· i1 =−∞ ∞ X P (X1 = i1 , . . . , Xk−1 = ik−1 , Xk = xk , . . . , Xn = in ) in =−∞ Für die Randverteilung einer diskreten Zufallsgrösse gilt dann: FXk (xk ) = P (Xk ≤ xk ) = xk X P (Xk = i) i=−∞ 8.7 8.7.1 Erwartungswert Erwartungswert einer Zufallsgrösse Für den Erwartungswert einer reellen Zufallsgrösse gilt: Z ∞ Z ∞ g(x) · fX (x)dx x · fX (x)dx E[g(X)] := E[X] := −∞ −∞ Für den Erwartungswert einer diskreten Zufallsgrösse gilt: E[X] := ∞ X i · P (X = i) i=−∞ 8.7.2 ∞ X E[g(X)] := g(i) · P (X = i) i=−∞ Erwartungswert eines Zufallsvektors Allgemein gilt: E[X] = (E[X1 ], . . . , E[Xn ])T E[g(X)] = (E[g(X1 )], . . . , E[g(Xn )])T Für den Erwartungswert eines reellen Zufallsvektors gilt: Z ∞ Z ∞ T E[X] := x · fX (x)dx E[g(X)] := g(xT ) · fX (x)dx −∞ −∞ 8 GRUNDBEGRIFFE DER WAHRSCHEINLICHKEITSTHEORIE 35 Für den Erwartungswert eines diskreten Zufallsvektors gilt: E[X] := ∞ X i · P (X1 = i) + · · · + i=−∞ E[g(X)] := ∞ X i · P (Xn = i) i=−∞ ∞ X g(x1 = i) · P (X1 = i) + · · · + i=−∞ 8.7.3 ∞ X g(xn = i) · P (Xn = i) i=−∞ Erwartungswert einer komplexen Zufallsgrösse Mit der Zufallsgrösse Z = X + jY gilt: E[Z] = E[X] + jE[Y ] 8.7.4 Wichtige Beziehungen Es gilt: • E[aX + bY ] = aE[X] + bE[Y ] für reelle, komplexe und diskrete Zufallsgrössen X und Y und a, b ∈ C • E[a] = a mit a ∈ C • E[Z] = E[Z] für eine komplexe Zufallsgrösse Z • E[A · X] = A · E[X] mit dem reellen, komplexen oder diskreten Zufallsvektor X und einer beliebigen m × n-Matrix A 8.8 Varianz und Korrelation Es sei X eine reelle oder diskrete Zufallsvariable. Z sei eine komplexe Zufallsvariable. 8.8.1 Moment einer Zufallsvariable Das n-te Moment von X lautet: Z ∞ n E[X ] = xn fX (x)dx −∞ 8.8.2 n E[X ] = ∞ X in P (X = i) i=−∞ Definition Für die Varianz gilt mit mX = E[X]: V ar(X) := E[(X − mX )2 ] = E[X 2 ] − m2X 8 GRUNDBEGRIFFE DER WAHRSCHEINLICHKEITSTHEORIE 8.8.3 36 Varianz einer komplexen Zufallsvariable Es gilt: Z = X + jY . V ar(Z) = E[|Z − mZ |2 ] = E[|Z|2 ]−|mZ |2 = V ar(X)+V ar(Y ) 8.8.4 mZ = E[Z] Korrelation und Kovarianz Der Erwartungswert E[XY ] wird Korrelation bezeichnet. Für die Kovarianz gilt: Cov(X, Y ) := E[(X−mX )(Y − mY )] = E[XY ]−mX mY mX = E[X], mY = E[Y ] Für den Korrelationskoeffizienten gilt: Cov(X, Y ) ρ(X, Y ) = p V ar(X)V ar(Y ) 8.8.5 Varianz und Korrelation eines Zufallsvektors Die Korrelationsmatrix RX lautet: RX = E[X · XH ] H RX = RX Die Korrelationsmatrix RX ist positiv definit. Für einen komplexen oder reellen Vektor x gilt also: xH RX x ≥ 0. Für die Kovarianzmatrix VX gilt: VX = E[(X − mX )(X − mX )H ] mX = E[X] VX = RX − mX mH X Für Y = AX + b mit einer reellen oder komplexen n × n-Matrix A und einem reellen oder komplexen Spaltenvektor b gilt: • RY = ARX AH + 2<{AmX bH } + bbH • VY = AVX AH 8 GRUNDBEGRIFFE DER WAHRSCHEINLICHKEITSTHEORIE 8.9 37 Unabhängigkeit und Korrelation Satz 1 Zwei Ereignisse A und B sind stochastisch unabhängig, falls gilt: P (A ∩ B) = P (A) · P (B) Daraus folgt: Korollar 1 Zwei diskrete Zufallsvariablen X und Y sind unabhängig, falls gilt: P (X = x, Y = y) = P (X = x ∩ Y = y) = P (X = x) · P (Y = y) Korollar 2 Zwei reelle Zufallsvariablen X und Y sind unabhängig, falls gilt: P (X ≤ x, Y ≤ y) = P (X ≤ x∩Y ≤ y) = P (X ≤ x)·P (Y ≤ y) = F (x)·F (y) Korollar 3 Mit den Korollaren 1 und 2 gilt: • f (x, y) = f (x) · f (y) • F (x, y) = F (x) · F (y) Satz 2 Der Satz 1 lässt sich auch auf n Ereignisse bzw. n Zufallsvariablen erweitern. Es gilt: P (A1 ∩ A2 · · · ∩ An ) = n Y P (Ai ) i=1 Satz 3 X und Y seien zwei beliebige unabhängige Zufallsvariablen. E[X · Y] = E[X] · E[Y] Satz 4 X und Y seien zwei beliebige Zufallsvariablen. X und Y sind unabhängig. =⇒ X und Y sind unkorreliert. Satz 5 X und Y seien zwei beliebige Zufallsvariablen. X und Y sind unkorreliert. ⇐⇒ E[X · Y] = E[X] · E[Y] Satz 6 X und Y seien zwei beliebige Zufallsvariablen. Falls X und Y unkorreliert sind, gilt: E[XY ] = E[X]E[Y ] h i X und Y sind unkorreliert. ⇐⇒ Kovarianz E (X − mX )(Y − mY ) = 0 X und Y sind orthogonal. ⇐⇒ Korrelation Daraus folgt: E[XY] = 0 8 GRUNDBEGRIFFE DER WAHRSCHEINLICHKEITSTHEORIE 38 Korollar 4 Es sei die Zufallsgrösse Z = X + Y gegeben. Falls X und Y unkorreliert sind, gilt: V ar(Z) = V ar(X) + V ar(Y ) Korollar 5 Es sei die Zufallsgrösse Z = X + Y gegeben. Falls X und Y orthogonal sind, gilt: E[|Z|2 ] = E[|X|2 ] + E[|Y |2 ] Korollar 6 Für zwei beliebige Zufallsgrössen X und Y gilt: |Cov(X, Y )|2 ≤ V ar(X) · V ar(Y ) Siehe auch Kapitel A auf Seite 57 im Anhang über spezielle Matrizen und dessen Operationen. 8.10 Bedingte Wahrscheinlichkeit Es seien A und B zwei Ereignisse mit A, B ∈ ε, die voneinander abhängen. Die Wahrscheinlichkeit P , dass wenn das Ereignis B eingetreten ist auch das Ereignis A eintritt, ist wie folgt definiert: P (A|B) := P (A ∩ B) P (B) P (B) > 0 Man spricht in diesem Zusammenhang von bedingter Wahrscheinlichkeit. 8.11 Formel von Bayes Für die Formel von Bayes betrachtet man die Zerlegung der Grundmenge Ω = B1 + · · · + Bn mit Bi ∈ ε. Es gilt dann: P (Bi |A) := P (A|Bi ) · P (Bi ) P (A|Bi ) · P (Bi ) = P∞ P (A) j=1 P (A|Bj ) · P (Bj ) Dabei gilt: • P (Bi ): a priori Wahrscheinlichkeit der Ursache Bi • P (Bi |A): a posteriori Wahrscheinlichkeit der Ursache Bi Zudem gilt folgende Kettenregel: P ((A ∩ B) ∩ C) = P (A ∩ B)P (C|A ∩ B) = P (A)P (B|A)P (C|A ∩ B) 8 GRUNDBEGRIFFE DER WAHRSCHEINLICHKEITSTHEORIE 8.11.1 39 Bei diskreten Zufallsgrössen Für diskrete Zufallsgrössen gilt: =y) P (X = x|Y = y) = P (X=x,Y P (Y =y) (Y =y|A) P (A|Y = y) = P (A)P P (Y =y) p(x, y, z) = p(x)p(y|x)p(z|x, y) mit p(x) = P (X = x), . . . 8.11.2 Bei reellen Zufallsgrössen Für reelle Zufallsgrössen gilt: fX|Y (x|y) = fX,Y (x,y) fY (y) P (A)fY |A (y) = fY (y) P (A|Y = y) f (x, y, z) = f (x)f (y|x)f (z|x, y) Siehe auch Formelsammlung [5] S.168ff.. 8.12 Totale Wahrscheinlichkeit Für die Formel der totalen Wahrscheinlichkeit betrachtet man wieder die Zerlegung der Grundmenge Ω = B1 + · · · + Bn mit Bi ∈ ε. Es gilt nun: P (A) = n X P (A|Bj ) · P (Bj ) j=1 8.12.1 Bei diskreten Zufallsgrössen Für diskrete Zufallsgrössen gilt: X P [A] = P (Y = y)P [A|Y = y] y 8.12.2 Bei reellen Zufallsgrössen Für reelle Zufallsgrössen gilt: Z ∞ P (A) = fY (y)P [A|Y = y]dy −∞ Siehe auch Formelsammlung [5] S.168ff.. 8 GRUNDBEGRIFFE DER WAHRSCHEINLICHKEITSTHEORIE 8.13 40 Totaler Erwartungswert Aus der Formel der totalen Wahrscheinlichkeit folgt der Satz des totalen Erwartungswerts: n X E[A] = P (Bj )E[A|Bj ] j=1 8.13.1 Bei diskreten Zufallsgrössen Für diskrete Zufallsgrössen gilt: X E[X] = P (Y = y)E[X|Y = y] y 8.13.2 Bei reellen Zufallsgrössen Für reelle Zufallsgrössen gilt: Z ∞ fY (y)E[X|Y = y]dy E[X] = −∞ 8.14 Gegenüberstellung: Diskrete und reelle Zufallsgrössen Für diskrete und reelle Zufallsgrössen gilt: Diskrete Zufallsgrössen P (A|Y = y) = P [A] = P (A)P (Y =y|A) P (Y =y) P y P (Y = y)P [A|Y = y] P (X = x|Y = y) = P (X=x,Y =y) P (Y =y) p(x, y, z) = p(x)p(y|x)P (z|x, y) E[X] = P y Reelle Zufallsgrössen P (A|Y = y) = P (A) = R∞ −∞ fX|Y (x|y) = P (A)fY |A (y) fY (y) fY (y)P [A|Y = y]dy fX,Y (x,y) fY (y) f (x, y, z) = f (x)f (y|x)f (z|x, y) P (Y = y)E[X|Y = y] E[X] = R∞ −∞ fY (y)E[X|Y = y]dy 9 STOCHASTISCHE PROZESSE 9 41 Stochastische Prozesse 9.1 Definition Ist der Verlauf eines Experiments vom Zufall abhängig, so spricht man von einem stochastischen Experiment. Bei derartigen Experimenten wird man bemüht sein, möglichst viele Versuche, auch Samples genannt, durchzuführen, um das Verhalten eines Systems mit Hilfe von statistischen Methoden zu beschreiben. Die Menge aller Samples si , auch Sample Space oder Ensemble genannt, dient der Beschreibung des Systems. Jedes Sample besteht somit aus einer Abfolge von Werten, die einem bestimmten Zeitpunkt zugeordnet sind. Die Abfolge der Werte kann in diskreten Abständen oder kontinuierlich verlaufen. Der Wert eines Samples si zum Zeitpunkt tk ist somit eine Zufallsvariable: X(tk , si ). Der Wert der Menge der Samples s zum Zeitpunkt tk ist somit ein Zufallsvektor: X(tk , s). Der Sample Space, die Menge aller Samples, beschreibt somit einen stochastischen Prozess (siehe Abbilung 9 auf S.42). Um den Sachverhalt zu vereinfachen, definiert man einen stochastischen Prozess als ein Sample si über ein entsprechendes Zeitintervall T (mit 0 ≤ t ≤ T ): X(t, si ) . Die Notation kann dann wie folgt vereinfacht werden: X(t). Im folgenden werden wir uns nur mit diskreten stochastischen Prozessen auseinandersetzen. Für die Folge der Zufallsvariablen gilt dann: X[k] (mit k ∈ Z). Die untersuchten Eigenschaften und Beziehungen lassen sich aber in den meisten Fällen auf den kontinuierlichen Fall übertragen.[4] 9.2 Stationarität Die Stationarität eines stochastischen Prozesses lässt sich in zwei Kategorien einteilen: • Stationärität im engeren Sinne: Die Zufallsgrössen des stochastischen Prozesses sind unabhängig von einer zeitlichen Verschiebung. Diese Eigenschaft ist im allgemeinen schwer zu beweisen. • Stationarität im weiteren Sinne: Alle Momente eines stochastischen Prozesses sind unabhängig vom Betrachtungszeitpunkt. Diese Eigenschaft ist im allgemeinen einfacher zu beweisen. Ein Prozess wird i.i.d. (auf engl. independent and identically distributed ) genannt, wenn X[k] und X[n] für k 6= n unabhängig sind und die gleiche Verteilung haben. 9 STOCHASTISCHE PROZESSE 42 Abbildung 9: Stochastische Prozesse [3] 9.2.1 Strikt stationäre Prozesse Ein stochastischer Prozess ist dann strikt stationär, wenn es keine Rolle spielt, in welchen Zeitintervallen der stochastische Prozess beobachtet wird. Das Verhalten des Prozesses innerhalb beliebig gewählter Zeitintervalle ist gleich. Vergleicht man also einen Prozess P mit demselben Prozess P aber um n Zeiteinheiten verschoben, so gilt: X[k], X[k +1], . . . , X[k +m] = X[k +n], X[k +1+n], . . . , X[k +m+n] ∀n Dies bedeutet, dass die Verteilungsfunktionen der beiden stochastischen Prozesse identisch sein müssen. Es gilt also: FX[k],...,X[k+m]] (x0 , . . . , xm ) = FX[k+1+n],...,X[k+m+n]] (x0 , . . . , xm ) Weiter gilt dann für die Dichtefunktionen: fX[k],...,X[k+m]] (x0 , . . . , xm ) = fX[k+1+n],...,X[k+m+n]] (x0 , . . . , xm ) 9.2.2 Schwach stationäre Prozesse Ein stochastischer Prozess ist schwach stationär, wenn gilt: 9 STOCHASTISCHE PROZESSE 43 • E[X[k]] = E[X[k + 1]] = · · · = mX , ∀k • E[X[k + n] · X[k]] = E[X[k + 1 + n] · X[k + 1]] = · · · = rX für jedes n ∈ R, ∀k Merke: • Jeder stationäre Prozess ist auch ein schwach stationärer Prozess. • Zwei schwach stationäre Prozesse X[k] und Y [k] sind gemeinsam schwach stationär, wenn E[X[k + n] · Y [k]] für jedes n ∈ Z unabhängig von k gilt. 9.3 Mittelwert eines stoch. Prozesses Für den Mittelwert eines stoch. Prozesses gilt: k∈Z mX := E[X[k]] 9.4 Auto- und Kreuzkorrelationsfunktion, mittlere Leistung für stationäre Prozesse Für die Autokorrelationsfunktion gilt: RX [n] := E[X[k + n] · X[k]] k, n ∈ Z Daraus folgt für die mittlere Leistung: RX [0] := E[|X[k]|2 ] k∈Z Für die Kreuzkorrelationsfunktion gilt: RXY [n] := E[X[k + n] · X[k]] k, n ∈ Z Für eine allgemeine Definition siehe [3] auf S.32ff.. 9.5 9.5.1 Lineare Filterung eines schwach stationären Prozesses Problemstellung Gegeben sei ein deterministisches diskretes System h[k]. Das Eingangssignal X[k] sowie das Ausgangssignal Y [k] seien diskrete stochastische Prozesse. Die Übertragungsfunktion lautet: Y [k] = (X ∗ h)[k] = ∞ X i=−∞ X[k − i]h[i] 9 STOCHASTISCHE PROZESSE 44 Weiter gelten die folgenden Faltungsbeziehungen: • RY X [k] = h[k] ∗ RX [k] • RY [k] = h[−k] ∗ RY X [k] • RY [k] = h[k] ∗ h[−k] ∗ RX [k] Das Filter h̃[k] := h[−k] wird Matched Filter bezeichnet. 9.5.2 Z-Transformation der Übertragungsfunktion Die Z-Transformierte der Autokorrelationsfunktion SX lautet: SX (z) := ∞ X RX [n]z −n n=−∞ Mit SX (z) bezeichnet man das Leistungsdichtespektrum. Man kann mit Betrachtungen im Z-Bereich zeigen, dass RX [k] stabil und wohldefiniert ist. Für die Z-Transformation des Matched Filters h̃[k] gilt: h̃[k] := h[−k] ⇐⇒ H̃(z) := H(z −1 ) Weiter gilt dann für die Übertragungsfunktion: SY (z) = H(z) · H̃(z) · SX (z) Mit z = ejΩ gilt für das Leistungsdichtespektrum SY (z): 2 SY (ejΩ ) = H(ejΩ )H(ejΩ )SX (ejΩ ) = H(ejΩ ) SX (ejΩ ) Weiter gilt zudem: • RY X [k] = h[k] ∗ RX [k] ⇐⇒ SY X (z) = H(z)SX (z) • RY [k] = h[−k] ∗ RY X [k] ⇐⇒ SY = H̃(z)SY X (z) 9.6 Wiener-Khinchine-Beziehung Für das Leistungsdichtespektrum eines schwach stationären Prozesses X[k] gilt: Z π 1 2 E[|X[k]| ] = RX [0] = SX (ejΩ )dΩ 2π −π 10 ENTSCHEIDUNGS- UND SCHÄTZTHEORIE 9.7 45 Weisses Rauschen Weisses Rauschen ist ein stochastischer Prozess, der ein Leistungsdichtespektrum von SX (ejΩ ) = σ 2 aufweist. Daraus folgt mit der Wiener-KhinchineBeziehung (siehe Kapitel 9.6!): • E[X[k]] = 0 • V ar[X[k]] = σ 2 • RX [k] = σ 2 δ[k] 9.8 Whitening Filter Ein Filter g[k] ist ein Whitening-Filter für einen schwach stationären Prozess Y [k], falls gilt: • g[k] ist kausal und stabil • Die Z-Transformation 1/G(z) existiert. Das System 1/G(z) ist kausal und stabil. • SY (z)G(z)G̃(z) = 1 10 10.1 Entscheidungs- und Schätztheorie Grundproblem Ein stochastisches System besitze einen inneren Zustand X, der von aussen nicht beobachtbar ist. Gesucht ist nun eine möglichst optimale Schätzung X̂ anhand der Ausgänge Yi des Systems. Man sucht also eine Funktion h(.), sodass X̂ = h(Y1 , . . . , Yn ) eine optimale Schätzung von X ergibt (X ≈ X̂). Man betrachte auch die Abbildung 10 auf S.46. 10.2 Entscheidungs- und Schätzregeln Ist die Zufallsgrösse X diskret, dann spricht man vom Entscheidungsproblem. Im anderen Fall, wenn also die Zufallsgrösse kontinuierlich ist, liegt ein Schätzproblem vor. 10 ENTSCHEIDUNGS- UND SCHÄTZTHEORIE 46 Abbildung 10: Entscheidungs- und Schätzproblem [1] 10.3 Schätzregeln Für Schätzungen und Entscheidungen werden die folgenden Ausdrücke oft verwendet: argminx {f (x)} = ∃a, ∀x : f (a) ≤ f (x) argmaxx {f (x)} = ∃a, ∀x : f (a) ≥ f (x) Für die konkrete Berechnung dieser Ausdrücke wird meistens das Extremwerttheorem der Differentialrechnung verwendet. (Die erste Ableitung wird auf null gesetzt.) 10.3.1 Bayes’sche Schätzregel Die Schätzregel lautet: h(y) = argminx̂ {E[κ(x̂, X)|Y = y]} mit κ(x̂, x) = |x̂ − x|2 x̂ = h(y) = E[X|Y = y] Dabei bezeichnet κ(x̂, x) die Kostenfunktion. Es können auch andere Kostenfunktionen verwendet werden. Für den mittleren Schätzfehler gilt: E |x̂ − X|2 |Y = y = E |X − E[X|Y = y]|2 |Y = y = V ar[X|Y = y] 10.3.2 LMMSE-Schätzung LMMSE heisst auf engl. Linear Minimum Mean Squared Error. Die LMMSESchätzung basiert auf folgendem Ansatz: X̂ = n X k=1 hk Yk 10 ENTSCHEIDUNGS- UND SCHÄTZTHEORIE 47 X̂ ist genau dann eine LMMSE-Schätzung von X aus Yk für k = 1, . . . , n wenn das Orthogonalitätsprinzip erfüllt ist: h i E (X̂ − X)Yk = 0 Der Fehler einer Schätzung X̂ − X ist also immer orthogonal zu allen Beobachtungen Yk . Für den mittleren quadratischen Fehler gilt: 2 h i 2 2 E X̂ − X = E X(X − X̂) = E |X| − E X̂ 10.3.3 Maximum-Likelihood-Schätzung Die Schätzregel lautet: x̂ = h(y) = argmaxx {fY |X (y|x)} 10.4 Entscheidungsregeln 10.4.1 Bayes’sche Entscheidungsregel Die Entscheidungsregel lautet: h(y) = argminx̂ {E[κ(x̂, X)|Y = y]} = argminx̂ ( X ) κ(x̂, x)P (X = x)fY |X (y|x) x∈S mit κ(x̂, x) = 0 x̂ = x 1 x̂ = 6 x x̂ = h(y) = E[X|Y = y] Dabei bezeichnet κ(x̂, x) die Kostenfunktion und S der Wertebereich von X. Es können auch andere Kostenfunktionen verwendet werden. Für den Entscheidungsfehler für eine gegebene Beobachtung Y = y gilt mit der oberen Kostenfunktion: E[κ(x̂, X)|Y = y] = P (X 6= x̂|Y = y) 10.4.2 MAP-Entscheidungsregel Die Maximum-A-Posteriori-Entscheidungsregel, kurz MAP-Entscheidungsregel genannt, minimiert die Fehlerwahrscheinlichkeit. Sie lautet: x̂ = h(y) = argmaxx {P (X = x)fY |X (y|x)} 11 STOCHASTISCHE FILTER 10.4.3 48 Maximum-Likelihood-Entscheidungsregel Die Entscheidungsregel lautet: x̂ = h(y) = argmaxx {fY |X (y|x)} 10.5 Entscheidungsgebiete und Fehlerwahrscheinlichkeit Das Gebiet Gy für das eine Entscheidung x̂i für gegebene Y = y eine grössere Wahrscheinlichkeit hat als alle anderen Entscheidungen x̂k für gegebene Y = y, wird Entscheidungsgebiet der Entscheidung x̂i genannt. Es gilt also: Gy : P (X̂ = x̂i |Y = y) > P (X̂ = x̂k |Y = y) ∀k, k 6= i P (X̂ = X) ist die Wahrscheinlichkeit einer korrekten Entscheidung. Für die Wahrscheinlichkeit einer Fehlentscheidung gilt dann: X P (X̂ 6= X) = 1 − P (X̂ = X) = 1 − P (X = x)P (X̂ = X|X = x) x∈S 11 11.1 Stochastische Filter Wiener-Filter Das Wiener-Filter basiert auf der LMMSE-Schätzung. Ein Zustand X[k] eines stochastischen Systems sei nicht beobachtbar. Anhand der Ausgänge Y [k + L], . . . , Y [k − M ] des Systems soll der Zustand X[k] geschätzt werden. Die Schätzung X̂ soll so gewählt werden, dass der mittlere quadratische 2 Fehler E X̂[k] − X[k] minimiert wird. Es gilt dann: X̂[k] = M X h[n]Y [k − n] mit h[n] = 0 für n < −L ∧ n > M n=−L Ein Filter h[n] wird Wiener-Filter bezeichnet, wenn die Wiener-HopfGleichung erfüllt ist. Sie lautet: M X n=−L h[n]RY [j − n] = RXY [j] j = −L · · · + M 11 STOCHASTISCHE FILTER 49 Für den mittleren quadratischen Fehler gilt: M 2 X E X̂ − X = RX [0] − RXY [n]h[n] n=−L Man unterscheidet zudem folgende Typen von Wiener-Filtern: • L < ∞, M < ∞: FIR-Wiener-Filter • L = 0, M < ∞: kausales FIR-Wiener-Filter • L → ∞, M → ∞: IIR-Wiener-Filter Für L < ∞ und M < ∞ mit der Filterordnung N = M + L gilt für die Wiener-Hopf-Gleichung in Matrixform: RY [0] RY [1] RY [2] ... RY [N ] h[0 − L] RXY [0 − L] R [1] h[1 − L] RY [0] RY [1] . . . RY [N − 1] Y RXY [1 − L] · = . .. .. .. .. .. .. . . . . ... . h[N − L] RXY [N − L] RY [N ] RY [N − 1] RY [N − 2] . . . RY [0] Für L → ∞ und M → ∞ gilt: H(z)SY (z) = SXY (z) 11.2 LMMSE-Egalisation Auf S.28 in Kapitel 7.4 wurde das Egalisationsproblem ausführlich behandelt. Abbildung 11 auf S.50 zeigt nun das Egalisationsproblem mit stochastischen Prozessen, was in der Kommunikationstechnik häufig auftritt. Gegeben sei ein Vorfilter h[k] und einen durch W [n] verrauschten Kanal. Das Filter g[n] soll nun so konstruiert werden, sodass eine gute Schätzung X̂[n] für X[n] herauskommt. Bei der LMMSE-Egalisation wird die LMMSE-Schätzregel verwendet. Die wichtigsten Resultate sind: • RXY [n] = RXZ [n] ⇐⇒ SXY (z) = SXZ (z) • RY [n] = RZ [n] + RW [n] ⇐⇒ SY (z) = SZ (z) + SW (z) • G(z) = SXY (z) SY (z) = SX (z)H̃(z) SX (z)H(z)H̃(z)+SW (z) • H(z)G(z)|z=ejΩ = SZ (ejΩ ) SZ (ejΩ )+SW (ejΩ ) 11 STOCHASTISCHE FILTER 50 Abbildung 11: Egalisationsproblem [1] 11.3 Adaptive Filter: LMS-Algorithmus Adaptive Filter sind Filter, die lernfähig sind. Sie besitzen zwei Betriebsmodi: • Lernmodus: adaptierender Betriebszustand • Betriebsmodus: eingefrorener Betriebszustand Ein in der Praxis viel verwendeter Algorithmus für adaptive Filter ist der Least Mean Square, kurz LMS. Die Grundidee des LMS-Algorithmus besteht 2 in der Minimierung des mittleren quadratischen Fehlers E X̂[k] − X[k] mit Hilfe einer Fixpunktiteration. Für den Schätzwert gilt: X̂[k] = N X hk [n]Y [k − n] n=0 Für die Lernregel gilt mit Hilfe der Fixpunktiteration (siehe Abbildung 12 auf S.51): 2 h i ∂ hk+1 [n] = hk [n]−β· E X̂[k] − X[k] = hk [n]−β·E X̂[k] − X[k] Y [k − n] ∂hk [n] Man beachte, dass im Gegensatz zum Wiener-Filter die Berechnung von Auto- und Kreuzkorrelationen hier entfallen. Für die Betriebsmodi gilt nun: h i • im Lernmodus: hk+1 [n] = hk [n] − β · E X̂[k] − X[k] Y [k − n] • im Betriebsmodus: hk+1 [n] = hk [n] Der Schrittweitenparameter β wird zur Laufzeit nach bestimmten Regeln, die hier nicht erläutert werden, festgelegt. Allgemein ist der Parameter β am Anfang gross. Er nimmt mit zunehmender Laufzeit ab. Es sei hier noch angemerkt, dass dies nur ein einfacher LMS-Algorithmus darstellt. In der Praxis werden auch modifizierte LMS-Algorithmen mit z.T. mehreren Parametern eingesetzt. Zudem wird meist eine Entscheidungsrückführung wie bei der Egalisation verwendet. Dadurch lässt sich der Schätzfehler weiter reduzieren. 12 TRELLIS ALGORITHMEN UND DIAGRAMME 51 Abbildung 12: Fixpunktiteration beim LMS-Algorithmus 12 12.1 Trellis Algorithmen und Diagramme Trellis-Diagramme Trellis-Diagramme (trellis engl., zu deutsch Spalier) sind gewichtete und gerichtete Graphen, sogenannte Flussgraphen. Jeder Zweig besitzt also eine Richtung und eine Gewichtung. Dabei gilt zu beachten, dass der Fluss des Graphen immer vom Anfang- zum Endknoten zeigt. Es gibt also keine Zweige, die diesem Fluss entgegengesetzt sind. Die Knoten werden kolonnenweise angeordnet. Unter dem Begriff Zweigmetriken versteht man die Gewichtung der Zweige. Anstelle von Zweigen wird oft auch der Begriff Kanten verwendet. Die Abbildung 13 auf S.54 zeigt ein Trellis-Diagramm. 12.2 Viterbi-Algorithmus 12.2.1 Min-Summe-Version Für die Beschreibung der Trellis-Diagramme werden folgende Begriffe benötigt: • Pfadmetrik zum Knoten s: Summe der Zweigmetriken vom Startknoten zum Knoten s • Zustandsmetrik eines Knotens s: Pfadmetrik zum Knoten s Der Grundgedanken bei der Min-Summe-Version besteht darin, die Summe der Zweigmetriken und somit die Zustandsmetrik jedes Knotens zu minimieren. Für die Zustandsmetrik eines Knotens s mit der Gewichtungsfunktion µ(.) gilt: nX o µ(s) := min µ(bi ) durchl. Zweige bi 12 TRELLIS ALGORITHMEN UND DIAGRAMME 52 Für den Algorithmus gilt nun: 1. Gehe zum Startknoten und initialisier dessen Zustandsmetrik mit 0. 2. Wähle einen Knoten der ersten Kolonne und lege die Zustandsmetrik fest. 3. Bearbeite alle Knoten der ersten Kolonne nach demselben Verfahren. 4. Gehe dann zur zweiten Kolonne. 5. Wähle einen Knoten der zweiten Kolonne und wähle den Pfad mit der geringsten Pfadmetrik (ausgehend vom Startknoten). Die benachbarten Zweige, die eine höhere Pfadmetrik ergeben haben, werden mit einem x markiert und scheiden aus. Die x-markierten Pfade sind verbotene Pfade. 6. Bearbeite nun alle Knoten der zweiten Kolonne nach demselben Verfahren. 7. Bearbeite dann nach demselben Muster die weiteren Kolonnen bis der Endknoten erreicht wurde. 8. Der Pfad mit der kleinsten Pfadmetrik ist der übrigbleibende Pfad, der vom Start- zum Endknoten führt, ohne dass ein mit x-markierter Pfad durchlaufen wird. Zum besseren Verständnis betrachte man das Beispiel auf S.54. 12.2.2 Max-Produkt-Version Für die Beschreibung der Trellis-Diagramme werden folgende Begriffe benötigt: • Pfadmetrik zum Knoten s: Produkt der Zweigmetriken vom Startknoten zum Knoten s • Zustandsmetrik eines Knotens s: Pfadmetrik zum Knoten s Der Grundgedanken bei der Max-Produkt-Version besteht darin, das Produkt der Zweigmetriken und somit die Zustandsmetrik jedes Knotens zu maximieren. Für die Zustandsmetrik eines Knotens s mit der Gewichtungsfunktion µ(.) gilt: nY o µ(s) := max µ(bi ) durchl. Zweige bi Für den Algorithmus gilt nun: 12 TRELLIS ALGORITHMEN UND DIAGRAMME 53 1. Gehe zum Startknoten und initialisier dessen Zustandsmetrik mit 1. 2. Wähle einen Knoten der ersten Kolonne und lege die Zustandsmetrik fest. 3. Bearbeite alle Knoten der ersten Kolonne nach demselben Verfahren. 4. Gehe dann zur zweiten Kolonne. 5. Wähle einen Knoten der zweiten Kolonne und wähle den Pfad mit der grössten Pfadmetrik (ausgehend vom Startknoten). Die benachbarten Zweige, die eine kleinere Pfadmetrik ergeben haben, werden mit einem x markiert und scheiden aus. Die x-markierten Pfade sind verbotene Pfade. 6. Bearbeite nun alle Knoten der zweiten Kolonne nach demselben Verfahren. 7. Bearbeite dann nach demselben Muster die weiteren Kolonnen bis der Endknoten erreicht wurde. 8. Der Pfad mit der grössten Pfadmetrik ist der übrigbleibende Pfad, der vom Start- zum Endknoten führt, ohne dass ein mit x-markierter Pfad durchlaufen wird. Zum besseren Verständnis betrachte man das Beispiel auf S.54. 12.3 Wahrscheinlichkeitsmodelle Diagrammen mit den Trellis- Die Knoten der Trellis-Diagramme sind die Zustände eines Systems. Die Zweige oder Kanten beschreiben dann die Übergänge der Zustände. Jeder Übergang besitzt wiederum eine bestimmte Übergangswahrscheinlichkeit oder bestimmte Kosten. Man kann sich somit ein Trellis-Diagramm als Abfolge der Zustände eines endlichen Automaten vorstellen mit dem Unterschied, dass die Übergänge stochastisch oder mit Kosten behaftet sind. Jede Kolonne entspricht dem Zustandsset des Systems. Die Trellis-Diagramme erfüllen zudem folgende Eigenschaften: • Gleichverteilung: Alle Pfade sind gleichwahrscheinlich. • Markov-Eigenschaft: Ein Zustand hängt nur jeweils vom vorhergehenden Zustand ab und nicht von allen Zuständen der Vergangenheit. 12 TRELLIS ALGORITHMEN UND DIAGRAMME 54 Abbildung 13: Beispiel eines Trellis-Diagramms [1] Abbildung 14: Beispiel zur Min-Summe-Version des Viterbi-Algorithmus [1] Abbildung 15: Beispiel zur Max-Produkt-Version des Viterbi-Algorithmus [1] 12 TRELLIS ALGORITHMEN UND DIAGRAMME 55 Es beschreibe nun W = (W1 , . . . , Wn ) ein zufälliger Pfad mit n Abschnitten im Trellis-Diagramm. W sei ein reeller Zufallsvektor, der einen strikt stationären stochastischen Prozess beschreibt. Y sei ebenfalls ein reeller Zufallsvektor und sei eine Beobachtung dieses stochastischen Prozesses. Es gilt dann: n Y fY|W (y|w) = fYk |Wk (yk |wk ) k=1 12.3.1 ML-Entscheidungsregel für einen Pfad Die ML-Entscheidung für einen Pfad lautet: ( ŵM L = argmaxw {fY|W (y|w)} = argmaxw n Y ) fYk |Wk (yk |wk ) k=1 Diese Entscheidungsregel entspricht aber gerade der Max-Produkt-Version des Viterbi-Algorithmus. Mit Hilfe des Logarithmus (zur Basis 10) lässt sich folgende analoge Entscheidungsregel formulieren: ( n ) X − log(fYk |Wk (yk |wk )) ŵM L = argminw {− log(fY|W (y|w))} = argminw k=1 Diese Entscheidungsregel entspricht aber gerade der Min-Summe-Version des Viterbi-Algorithmus. 12.3.2 MAP-Entscheidungsregel für einen Pfad Die MAP-Entscheidung für einen Pfad lautet: ŵM AP = argmaxw {P (W = w)fY|W (y|w)} ( n ) Y ŵM AP = argmaxw P (Wk = wk )fYk |Wk (yk |wk ) k=1 Diese Entscheidungsregel entspricht aber gerade der Max-Produkt-Version des Viterbi-Algorithmus. Ist W gleichverteilt, dann geht die MAP-Entscheidungsregel in die MLEntscheidungsregel über: ŵM AP = argmaxw {P (W = w)fY|W (y|w)} = argmaxw {fY|W (y|w)} 12 TRELLIS ALGORITHMEN UND DIAGRAMME 56 Mit Hilfe des Logarithmus (zur Basis 10) lässt sich folgende analoge Entscheidungsregel formulieren: ŵM AP = argminw {− log(P (W = w)fY|W (y|w))} ( n ) X ŵM AP = argminw − log(P (Wk = wk )fYk |Wk (yk |wk )) k=1 Diese Entscheidungsregel entspricht aber gerade der Min-Summe-Version des Viterbi-Algorithmus. 12.3.3 Entscheidungsprobleme mit Hilfe des Viterbi-Algorithmus Mit Hilfe der ML- oder MAP-Entscheidungsregel erhält man aus der Beobachtung Y eine Entscheidung für W. Man probiert also von Y auf W zu schliessen. Die Berechnung dieser Entscheidung erweist sich oft als sehr kostspielig. Die Trellis-Diagramme kombiniert mit dem Viterbi-Algorithmus liefern aber ein sehr nützliches Werkzeug, um die Berechnung der Entscheidung effizient durchzuführen. Zudem bietet der Algorithmus die Möglichkeit einer effizienten technischen Realisierung des Problems. Der folgende Ablauf zeigt ein Entscheidungsproblem mit Hilfe der TrellisDiagramme und des Viterbi-Algorithmus: 1. Zustände des Trellis-Diagramms festlegen. 2. Zustandsübergangswahrscheinlichkeiten oder Zweigkosten in das Trellis-Diagramm einzeichnen. 3. Zustandsmetriken bestimmen. 4. Viterbi-Algorithmus anwenden. Dabei spielt keine Rolle, ob die MinSumme-Version oder die Max-Produkt-Version verwendet wird. 5. Der erhaltene Pfad ergibt eine optimale Entscheidung für den Prozess W. A MATRIZEN A Matrizen A.1 Spezielle Matrizen • symmetrische Matrix: A = AT • schiefsymmetrische Matrix: A = −AT • hermitesche Matrix: AH = AT • hermitesch konjugierte Matrix: AH = A∗ T • orthogonale Matrix: AT = A−1 • unitäre Matrix: AH = A−1 A.2 Transponieren • (AT )T = A • (A + B)T = AT + BT • (AB)T = BT AT A.3 Konjugiert komplexe Matrizen • (A∗ )∗ = A • (A + B)∗ = A∗ + B∗ • (AB)∗ = B∗ A∗ A.4 Hermitesche Konjugation • (AH )H = A • AH = (A∗ )T = (AT )∗ • (A + B)H = AH + BH • (AB)H = BH AH 57 B DEZIBEL B 58 Dezibel Für die dimensionslose Verstärkung x in Dezibel (dB) gilt: xdB = 10 · log10 (x) Für die Leistungsverstärkung x in Dezibel (dB) gilt: xdB = 20 · log10 (x) C Ein Vergleich: Fourierreihen und zeitdiskrete Fouriertransformation Die komplexe Fourierreihe einer Funktion f(x) lautet: g(x) = ∞ X cn · e 2π jnx T mit n=−∞ 1 cn = T Z T 2π g(x) · e− T jnx dx 0 Die Rücktransformation der zeitdiskreten Fouriertransformation lautet: Z 2π 1 F (ejΩ ) · ejkΩ dΩ f [k] = 2π 0 Ein Vergleich der Fourierreihe mit der Rücktransformation der zeitdiskreten Fouriertransformation ergibt: • T = 2π • f [−k] ist die Fourierreihenentwicklung von F (ejΩ ), sofern f [k] stabil ist. D Spezielle Grenzwerte Es sei F : a1 , a2 , . . . eine Folge von reellen Zahlen. • Limes superior: Es sei lim supi→∞ (ai ) = b. Die kleinste obere Grenze b der Folge F wird als limes superior bezeichnet. Somit gilt: limi→∞ (ai ) = lim sup(ai ) = lim inf (ak ) i→∞ i→∞ k≥i LITERATUR 59 • Limes inferior: Es sei lim inf i→∞ (ai ) = b. Die grösste untere Grenze b der Folge F wird als limes inferior bezeichnet. Somit gilt: limi→∞ (ai ) = lim inf (ai ) = lim sup(ak ) i→∞ i→∞ k≥i Falls der Grenzwert limi→∞ (ai ) = c existiert, so gilt: lim sup ai = lim inf ai = lim ai = c i→∞ i→∞ i→∞ Ein Beispiel soll dies veranschaulichen. Es sei ai = (−1)i . Somit gilt: • lim supi→∞ (ai ) = 1 • lim inf i→∞ (ai ) = −1 • limi→∞ (ai ) existiert nicht. Literatur [1] Skript zur Vorlesung ’Stochastische Modelle und Signalverarbeitung’ von Prof. Dr. H.-A. Loeliger [2] Formelsammlung ’Signal- und Systemtheorie I’ von Prof. Dr. H. Bölcskei [3] ’Communication System’ (Fourth Edition) by Simon Haykin; published at John Wiley and Sons, Inc. [4] Wikipedia: Stochastische Prozesse [5] ’Mathematik für Ingenieure’ von T. Vogel und R. Santschi (1.Auflage, 2004) Index Abtastung, 21 Änderung der Abtastrate, 23 Abtasttheorem, 22 Dezimation, 23 Interpolation, 23 Axiome von Kolmogorov, 31 LMS-Algorithmus, 50 Schwach stat. Prozesse, 43 Stochastische Filter, 48 Whitening Filter, 45 Wiener-Filter, 48 Formel von Bayes, 38 Fourierreihen, 58 Fouriertransfomation Definition, 15 Bedingte Wahrscheinlichkeit, 38 beschränkte Signale, 6 Beschränkung, 6 bilineare Transformation, 15, 17 Grundmenge, 31 Dezibel, 58 Diskrete Fouriertransf. Definition, 15 Integrierbarkeit, 6 Komplexe Analysis Analytische Funktionen, 13 Cauchy-Hadamard, 12 Konvergenz, 12 Konvergenzradius, 12 Laurent-Reihen, 12 Korrelation, 35 endliche Energie, 6 Ereignis, 31 Ereignismenge, 31 Erwartungswert Beziehungen, 35 Relationen, 35 Erwarungswert, 34 Laplacetransformation Definition, 15 Konvergenz, 18 Konvergenzgebiete, 17 Stabilität, 19 Limes inferior, 58 Limes superior, 58 LTI-Systeme, 10 BIBO-Stabilität, 10 Kausalität, 10 Faltung, 7 Dirac-Stoss, 8 Eigenschaften, 8 Einheitssprung, 8 Faltungstheorem, 8 Faltungsalgorithmen, 13 Filter Adaptive Filter, 50 Butterworth-Filter, 26 Egalisation, 28, 49 Entzerrung, 28 FIR-Filter, 25 Hoch- u. Tiefpass, 26 IIR-Filter, 26 Inverse zeitdiskrete Filter, 27 Matrizen, 57 Regeln, 57 Spezielle Matrizen, 57 Normalformen, 13 Potenzmenge, 31 60 INDEX Randdichte, 34 Randverteilung, 34 Schätzregeln, 46 Bayes’sche Schätzregel, 46 Maximum-LikelihoodSchätzung, 46 Sigma-Algebra, 31 Signalklassen, 7 Stabilität, 6 Stoch. Prozesse Mittelwert, 43 Stationarität, 41 Stoch. stat. Prozesse, 41 Autokorrelation, 43 Kreuzkorrelation, 43 mittlere Leistung, 43 Stochastische Prozesse, 41 Summierbarkeit, 6 Systemeigenschaften, 10 BIBO-Stabilität, 9 Gedächtnis, 10 Invertierbarkeit, 10 Kausalität, 9 Linearität, 9 LTI-Systeme, 10 Realisierbarkeit, 10 Zeitinvarianz, 9 Totale Wahrscheinlichkeit, 39 Trellis-Diagramme, 51 Entscheidungsprobleme, 56 MAP-Entscheidungsregel, 55 ML-Entscheidungsregel, 55 Wahrscheinlichkeitsmodelle, 53 Unabhängigkeit, 37 Varianz, 35 Verbunddichte, 33 Verbundverteilungsfunktion, 33 61 Verbundwahrscheinlichkeitsdichte, 33 Verteilungsfunktion, 32 Viterbi-Algorithmus, 51 Entscheidungsprobleme, 56 MAP-Entscheidungsregel, 55 Max-Produkt-Version, 52 Min-Summe-Version, 51 ML-Entscheidungsregel, 55 Wahrscheinlichkeitsdichte, 32 Wahrscheinlichkeitsraum, 31 Wahrscheinlichkeitssystem, 31 Weisses Rauschen, 45 Wiener-Hopf-Gleichung, 48 Wiener-Khinchine-Beziehung, 44 Z-Transformation, 11 Anfangswerttheorem, 11 Definition, 15 Eigenschaften, 11 Endwerttheorem, 11 Konvergenz, 18 Konvergenzgebiete, 17 Stabilität, 19 Zeitdiskrete Fouriertransf. Definition, 15 Zufallsgrössen, 32 Zufallsvariable, 32