Formeln und Notizen Stochastische Prozesse Florian Franzmann∗ 7. April 2009, 23:55 Uhr Abbildungsverzeichnis 1. 2. 3. 4. 5. 6. 7. Das komplementäre gauß’sche Fehlerintegral . . . . . . . . Korrelationsfunktionen und Leistungsdichtespektren . . . Typisches Szenario zur Wiener Filterung . . . . . . . . . . Trigonometrische Funktionen . . . . . . . . . . . . . . . . Konvergenzbereich kausaler kontinuierlicher LTI-Systeme rect- und sinc-Funktion . . . . . . . . . . . . . . . . . . . Konvergenzbereich diskreter LTI-Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 22 31 36 43 49 51 . . . . . . . . . . Winkel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 34 36 40 42 44 45 46 47 48 50 52 54 Tabellenverzeichnis 1. 2. 3. 4. 5. 6. 7. 8. 8. 8. 9. 10. 12. ∗ Teile von Einheiten . . . . . . . . . . . . . . . . . . . . . . Vielfache von Einheiten . . . . . . . . . . . . . . . . . . . Trigonometrische Funktionen – Funktionswerte besonderer Potenzen der imaginären Einheit . . . . . . . . . . . . . . Bekannte Reihen . . . . . . . . . . . . . . . . . . . . . . . Korrespondenzen der zweiseitigen Laplace-Transformation Sätze der zweiseitigen Laplace-Transformation . . . . . . . Korrespondenzen der Fourier-Transformation . . . . . . . Korrespondenzen der Fourier-Transformation . . . . . . . Korrespondenzen der Fourier-Transformation . . . . . . . Sätze der Fourier-Transformation . . . . . . . . . . . . . . Korrespondenzen der zweiseitigen z-Transformation . . . . Korrespondenzen der DTFT . . . . . . . . . . . . . . . . . [email protected] 1 Inhaltsverzeichnis 12. 13. 14. 15. Korrespondenzen der Sätze der DTFT . . Sätze der DFT . . . Korrespondenzen der DTFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hilbert-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 56 57 59 Inhaltsverzeichnis 1. Kombinatorik 6 2. Bernoulli-Experimente 7 3. Zufallsvariablen 3.1. Statistische Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . 3.1.1. Statistische Unabhängigkeit . . . . . . . . . . . . . . . . . . 3.1.2. Unkorreliertheit . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.3. Orthogonalität . . . . . . . . . . . . . . . . . . . . . . . . . 3.2. Bedingte Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . 3.2.0.1. Satz von Bayes . . . . . . . . . . . . . . . . . . . . 3.3. Abbildungen von Zufallsvariablen . . . . . . . . . . . . . . . . . . . 3.3.1. Eindimensionaler Fall . . . . . . . . . . . . . . . . . . . . . 3.3.2. Mehrdimensionaler Fall . . . . . . . . . . . . . . . . . . . . 3.4. Wichtige Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.1. Komplementäres gauß’sches Fehlerintegral . . . . . . . . . . 3.5. Verteilung und Dichte . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.1. Eigenschaften einer Dichte . . . . . . . . . . . . . . . . . . . 3.5.2. Eigenschaften einer Verteilung . . . . . . . . . . . . . . . . 3.5.3. Randdichte und Randverteilung . . . . . . . . . . . . . . . . 3.5.3.1. Randdichte . . . . . . . . . . . . . . . . . . . . . . 3.5.3.2. Randverteilung . . . . . . . . . . . . . . . . . . . . 3.5.4. Bedingte Verteilungen . . . . . . . . . . . . . . . . . . . . . 3.5.5. Spezielle Verteilungen . . . . . . . . . . . . . . . . . . . . . 3.5.5.1. Gleichverteilung . . . . . . . . . . . . . . . . . . . 3.5.5.2. Binomialverteilung (Bernoulli-Experiment) . . . . 3.5.5.3. Geometrische Verteilung . . . . . . . . . . . . . . 3.5.5.4. Poisson-Verteilung . . . . . . . . . . . . . . . . . . 3.5.5.5. Gauß-Verteilung (Normal-Verteilung) N (mX , σX ) 3.5.5.6. Cauchy-Verteilung . . . . . . . . . . . . . . . . . . 3.5.5.7. Lognormal-Verteilung . . . . . . . . . . . . . . . . 3.5.5.8. Laplace-Verteilung . . . . . . . . . . . . . . . . . . 3.5.5.9. Γ-Verteilung . . . . . . . . . . . . . . . . . . . . . 3.6. Perzentil und Median . . . . . . . . . . . . . . . . . . . . . . . . . 3.7. Erzeugende Funktionen . . . . . . . . . . . . . . . . . . . . . . . . 3.7.1. Momentenerzeugende Funktion ΦX (s) . . . . . . . . . . . . 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 7 7 7 7 8 8 8 8 8 8 8 9 9 9 9 9 10 10 10 10 11 11 11 12 12 12 13 13 14 14 14 Inhaltsverzeichnis 3.7.2. Charakteristische Funktion ΦX (jω) . . . . . . . . . . . . . . . . . . 15 3.7.3. Kumulantenerzeugende Funktion ΨX (s) . . . . . . . . . . . . . . . 15 4. Zufallsprozesse 4.1. Stationarität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.1. Strenge Stationarität . . . . . . . . . . . . . . . . . . . . . 4.1.2. Gemeinsame strenge Stationarität . . . . . . . . . . . . . 4.1.3. Schwache Stationarität . . . . . . . . . . . . . . . . . . . . 4.1.3.1. Eigenschaften (schwach) stationärer Prozesse . . 4.1.4. Zyklostationäre Prozesse . . . . . . . . . . . . . . . . . . . 4.1.5. Schwach zyklostationäre Prozesse . . . . . . . . . . . . . . 4.1.6. Ergodizität . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2. Mittelwerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.1. Erwartungswert . . . . . . . . . . . . . . . . . . . . . . . . 4.2.2. Momente n-ter Ordnung . . . . . . . . . . . . . . . . . . . 4.2.2.1. kontinuierlich . . . . . . . . . . . . . . . . . . . . 4.2.2.2. diskret . . . . . . . . . . . . . . . . . . . . . . . 4.2.3. Zentrale Momente n-ter Ordnung . . . . . . . . . . . . . . 4.2.3.1. kontinuierlich . . . . . . . . . . . . . . . . . . . . 4.2.3.2. diskret . . . . . . . . . . . . . . . . . . . . . . . 4.2.4. Wichtige Momente . . . . . . . . . . . . . . . . . . . . . . 4.2.4.1. Linearer Mittelwert . . . . . . . . . . . . . . . . 4.2.4.2. Quadratischer Mittelwert . . . . . . . . . . . . . 4.2.4.3. Varianz . . . . . . . . . . . . . . . . . . . . . . . 4.2.4.4. Normierte Momentanleistung . . . . . . . . . . . 4.2.5. Zentrale Verbundmomente . . . . . . . . . . . . . . . . . . 4.2.5.1. kontinuierlich . . . . . . . . . . . . . . . . . . . . 4.2.5.2. diskret . . . . . . . . . . . . . . . . . . . . . . . 4.2.5.3. Kovarianz . . . . . . . . . . . . . . . . . . . . . . 4.2.5.4. Korrelationskoeffizient . . . . . . . . . . . . . . . 4.2.5.5. Bedingte Erwartungswerte . . . . . . . . . . . . 4.3. LTI-Systeme und schwach stationäre Prozesse . . . . . . . . . . . 4.3.1. Mittelwerte . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.1.1. Linearer Mittelwert . . . . . . . . . . . . . . . . 4.3.1.2. Quadratischer Mittelwert . . . . . . . . . . . . . 4.3.2. Korrelationsfunktionen . . . . . . . . . . . . . . . . . . . . 4.3.2.1. Autokorrelationsfunktion . . . . . . . . . . . . . 4.3.2.2. Autokovarianz . . . . . . . . . . . . . . . . . . . 4.3.2.3. Kreuzkorrelation . . . . . . . . . . . . . . . . . . 4.3.2.4. Kreuzkovarianz . . . . . . . . . . . . . . . . . . . 4.3.2.5. Eigenschaften von AKF, AKV, KKF und KKV . 4.3.2.6. Autoleistungsdichtespektrum . . . . . . . . . . . 4.3.2.7. Kreuzleistungsdichtespektrum . . . . . . . . . . 4.3.2.8. KKF und LDS . . . . . . . . . . . . . . . . . . 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 15 15 15 15 16 17 17 17 18 18 18 18 18 18 18 18 18 18 19 19 19 20 20 20 20 20 20 20 20 20 21 21 21 21 21 22 22 22 23 23 Inhaltsverzeichnis 4.3.3. Autokorrelationsfunktion und Autoleistungsdichtespektrum . . 4.3.3.1. kontinuierlich . . . . . . . . . . . . . . . . . . . . . . . . 4.3.3.2. diskret . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.4. Kohärenzfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.5. Weißes Rauschen . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.5.1. Definition . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.5.2. Leistungsdichtespektrum . . . . . . . . . . . . . . . . . 4.3.5.3. Autokorrelationsfunktion . . . . . . . . . . . . . . . . . 4.3.5.4. Störleistung . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.5.5. Bandbegrenztes ECB-Rauschen . . . . . . . . . . . . . 4.3.5.6. Streng weißes Rauschen . . . . . . . . . . . . . . . . . . 4.4. Schätztheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.1. Prädiktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.1.1. Parameterschätzung . . . . . . . . . . . . . . . . . . . . 4.4.1.2. Intervallschätzung . . . . . . . . . . . . . . . . . . . . . 4.4.2. Prädiktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.2.1. Punktprädiktion . . . . . . . . . . . . . . . . . . . . . . 4.4.2.2. Intervallprädiktion . . . . . . . . . . . . . . . . . . . . . 4.4.3. Gütekriterien für Parameterschätzer . . . . . . . . . . . . . . . . 4.4.3.1. Erwartungstreuer Schätzer . . . . . . . . . . . . . . . . 4.4.3.2. Effizienter Schätzer . . . . . . . . . . . . . . . . . . . . 4.4.3.3. Konsistenter Schätzer . . . . . . . . . . . . . . . . . . . 4.4.3.4. Hinreichende Statistik . . . . . . . . . . . . . . . . . . . 4.4.4. Mittelwertschätzer . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.4.1. Arithmetisches Mittel . . . . . . . . . . . . . . . . . . . 4.4.4.2. Varianzschätzer bei bekanntem Mittelwert . . . . . . . 4.4.4.3. Varianzschätzer bei unbekanntem Mittelwert . . . . . . 4.4.4.4. Mittelwertschätzung bei bekannter Varianz . . . . . . . 4.4.4.5. Mittelwertschätzung bei unbekannter Varianz . . . . . 4.4.4.6. Mittelwertschätzung bei unbekannter Verteilung . . . . 4.4.4.7. Parameterschätzung bei bestimmten Verteilungen . . . 4.4.4.8. Wahrscheinlichkeitsschätzung . . . . . . . . . . . . . . . 4.4.4.9. Varianzschätzung bei normalverteilten Zufallsvariablen 4.4.5. MMSE- und LSE-Schätzung . . . . . . . . . . . . . . . . . . . . . 4.4.5.1. MMSE-Schätzung . . . . . . . . . . . . . . . . . . . . . 4.4.5.2. MSE-Schätzung . . . . . . . . . . . . . . . . . . . . . . 4.4.5.3. Maximum-Likelihood-Schätzer . . . . . . . . . . . . . . 4.4.5.4. Log-Likelihood-Funktion . . . . . . . . . . . . . . . . . 4.4.5.5. Bayes’sche Schätzung . . . . . . . . . . . . . . . . . . . 4.4.5.6. Maximum a posteriori-Schätzer (MAP) . . . . . . . . . 4.4.6. Cramer-Rao-Schranke . . . . . . . . . . . . . . . . . . . . . . . . 4.5. Lineare Optimalfilterung . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.1. Wiener Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.1.1. Zeitkontinuierlich . . . . . . . . . . . . . . . . . . . . . 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 23 24 24 24 24 24 24 25 25 25 25 25 25 26 26 26 26 27 27 27 27 27 27 27 28 28 28 28 28 28 29 29 29 29 29 30 30 30 30 31 31 31 31 Inhaltsverzeichnis A. Mathematische Grundlagen A.1. Frequenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.1.1. Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.1.2. Kreisfrequenz . . . . . . . . . . . . . . . . . . . . . . . . . . . A.1.3. Normierte Kreisfrequenz . . . . . . . . . . . . . . . . . . . . . A.1.4. Die z-Ebene . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.2. Lösungsformel für quadratische Gleichungen . . . . . . . . . . . . . . A.3. Geradengleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.3.1. Gerade durch einen Punkt P (x0 , y0 ) mit Steigung m . . . . . A.3.2. Gerade durch die Punkte P (x0 , y0 ) und A(x1 , y1 ) . . . . . . . A.3.3. Parameterform . . . . . . . . . . . . . . . . . . . . . . . . . . A.3.4. Allgemeine Form der Geradengleichung . . . . . . . . . . . . A.4. Additionstheoreme . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.5. Rechenregeln des Logarithmus . . . . . . . . . . . . . . . . . . . . . A.6. Differentiation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.6.1. Regeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.6.1.1. Quotientenregel . . . . . . . . . . . . . . . . . . . . A.6.1.2. Kettenregel . . . . . . . . . . . . . . . . . . . . . . . A.6.1.3. Produktregel . . . . . . . . . . . . . . . . . . . . . . A.6.1.4. Logarithmische Differentiation . . . . . . . . . . . . A.6.1.5. Differentiation eines parameterabhängigen Integrals A.6.1.6. l’Hospital’sche Regel . . . . . . . . . . . . . . . . . . A.6.2. Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.6.2.1. Laplace-Operator ∆ . . . . . . . . . . . . . . . . . . A.6.2.2. Divergenz-Operator div . . . . . . . . . . . . . . . . A.6.2.3. Gradient-Operator ∇ . . . . . . . . . . . . . . . . . A.6.2.4. Rotations-Operator . . . . . . . . . . . . . . . . . . A.6.2.5. Jacobi-Matrix (Funktionalmatrix) . . . . . . . . . . A.6.2.6. Hesse-Matrix . . . . . . . . . . . . . . . . . . . . . . A.6.2.7. Zusammengesetzte Operationen . . . . . . . . . . . A.7. Integrationsregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.7.1. Partielle Integration . . . . . . . . . . . . . . . . . . . . . . . A.7.2. Substitutionsregel . . . . . . . . . . . . . . . . . . . . . . . . A.7.3. Logarithmische Integration . . . . . . . . . . . . . . . . . . . A.7.4. Integration der Umkehrfunktion . . . . . . . . . . . . . . . . A.8. Komplexe Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.8.1. Komplexe Wurzel . . . . . . . . . . . . . . . . . . . . . . . . . A.9. Binomialkoeffizient . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.9.1. Reihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.10.Abschätzung mittels Union-Bound . . . . . . . . . . . . . . . . . . . A.11.Bessel-Funktion erster Art . . . . . . . . . . . . . . . . . . . . . . . . A.11.1. Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.11.2. Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 32 32 32 32 32 35 35 35 35 35 35 35 37 37 37 37 37 37 37 37 37 38 38 38 38 38 39 39 39 39 39 40 40 40 40 41 41 41 41 43 43 43 1. Kombinatorik B. Transformationen B.1. Laplace-Transformation . . . . . . . . . . . . . . B.1.1. Definition . . . . . . . . . . . . . . . . . . B.1.2. Inverse Laplace-Transformation . . . . . . B.2. Fourier-Transformation . . . . . . . . . . . . . . . B.2.1. Definition . . . . . . . . . . . . . . . . . . B.2.2. Inverse Fourier-Transformation . . . . . . B.2.3. rect- und sinc-Funktion . . . . . . . . . . B.2.4. Hinreichende Bedingung für die Existenz B.3. z-Transformation . . . . . . . . . . . . . . . . . . B.3.1. Definition . . . . . . . . . . . . . . . . . . B.3.2. Konvergenzbereich . . . . . . . . . . . . . B.3.3. Inverse z-Transformation . . . . . . . . . B.4. Zeitdiskrete Fouriertransformation (DTFT) . . . B.4.1. DTFT . . . . . . . . . . . . . . . . . . . . B.4.2. IDTFT . . . . . . . . . . . . . . . . . . . B.5. Diskrete Fourier-Transformation (DFT) . . . . . B.5.1. DFT . . . . . . . . . . . . . . . . . . . . . B.5.2. IDFT . . . . . . . . . . . . . . . . . . . . B.5.3. Zyklische Faltung . . . . . . . . . . . . . . B.5.4. Lineare Faltung . . . . . . . . . . . . . . . B.6. Symmetrien im Spektrum . . . . . . . . . . . . . B.7. Hilbert-Transformation . . . . . . . . . . . . . . . B.7.1. Definition . . . . . . . . . . . . . . . . . . B.7.2. Besonderheiten . . . . . . . . . . . . . . . B.8. ECB-Transformation . . . . . . . . . . . . . . . . B.8.1. Definition . . . . . . . . . . . . . . . . . . B.8.2. Inverse Transformation . . . . . . . . . . B.8.3. Theorem von Grettenberg . . . . . . . . . B.8.4. Inphasekomponente . . . . . . . . . . . . B.8.5. Quadraturkomponente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 43 43 43 46 46 46 46 48 48 48 51 52 53 53 54 55 55 55 55 55 58 58 58 58 59 59 60 60 60 60 1. Kombinatorik 1. N verschiedene Objekte kann man auf N ! verschiedene Arten anordnen. ! 2. Für k ≤ N Objekte aus einer Menge von N Objekten gibt es (NN−k)! verschiedene Anordnungen, wenn die k Objekte unterschieden werden oder ihre Reihenfolge beachtet wird. 3. Wenn Identität bzw. Reihenfolge nicht beachtet werden gibt es Nk verschiedene Anordnungen. 6 2. Bernoulli-Experimente 2. Bernoulli-Experimente Die Wahrscheinlichkeit, daß ein Ereignis bei einem bestimmten Versuch eintritt beträgt p · (1 − p)N −1 (1) Die Wahrscheinlichkeit, daß ein Ereignis bei einem beliebigen Versuch eintritt beträgt N · p · (1 − p)N −1 (2) Die Wahrscheinlichkeit, daß ein Ereignis bei genau k bestimmten Versuchen eintritt beträgt pk · (1 − p)N −k (3) Die Wahrscheinlichkeit, daß ein Ereignis genau k mal bei beliebigen Versuchen eintritt beträgt N · pk · (1 − p)N −k (4) k 3. Zufallsvariablen 3.1. Statistische Unabhängigkeit 3.1.1. Statistische Unabhängigkeit fXY (x, y) = fX (x) · fY (y) (5) E {XY } = E {X} · E {Y } (6) 3.1.2. Unkorreliertheit Aus statistischer Unabhängigkeit folgt Unkorreliertheit – ausschließlich bei GaußVerteilung folgt aus Unkorreliertheit statistische Unabhängigkeit. Für unkorrelierte Zufallsprozesse gilt SXY (jω) = 2π · mX · m∗Y · δ(ω) ∞ X SXY (ejΩ ) = 2π · mX · m∗Y · δ(Ω − 2πk) (7) (8) k=−∞ 3.1.3. Orthogonalität Zwei Zufallsvariablen X und Y heißen orthogonal, wenn E {XY } = 0. Aus Unkorreliertheit und E {X} = 0 ∪ E {Y } = 0 folgt Orthogonalität. Für orthogonale Zufallsprozesse gilt RXY = 0 ∧ SXY = 0 7 (9) 3. Zufallsvariablen 3.2. Bedingte Wahrscheinlichkeit P (B ∩ A) P (A) (10) P (B|A) · P (A) P (B) (11) P (B|A) = 3.2.0.1. Satz von Bayes P (A|B) = Bei statistischer Unabhängigkeit gilt ∧ P (A|B) = P (A) P (B|A) = P (B) (12) P (A ∪ C|B) = P (A|B) + P (C|B) (13) 1. P (B|B) = 1 2. P (∅|B) = 0 3. Falls A ∩ B = ∅, so gilt 3.3. Abbildungen von Zufallsvariablen 3.3.1. Eindimensionaler Fall fY (y) = fX (x) · |dx| fX (x) = 0 dy |g (x)| (14) 3.3.2. Mehrdimensionaler Fall fY (~y ) = mit J(~x) = (g −1 (~y )) fX (~x) fX = −1 |det J(g (~y ))| |det J(~x)| fU W (u, w) = ∂g1 ∂x1 ··· ∂g1 ∂xK .. . .. .. . ∂gK ∂x1 ··· fXY (x, y) | det J(x, y)| . ∂gK ∂xK (15) (16) 3.4. Wichtige Funktionen 3.4.1. Komplementäres gauß’sches Fehlerintegral Z∞ Q(x) := x 1 −y2 √ e 2 dy 2π √ Tip: Bei Q( 2 · . . .) hebt sich die Wurzel mit 20 log(. . . ) weg. 8 (17) 3. Zufallsvariablen 1 0.01 Q(x) −→ 0.0001 1e − 06 1e − 08 1e − 10 1e − 12 1e − 14 1e − 16 2 4 6 8 10 12 14 16 18 20 log10 (x) −→ (a) logarithmische Darstellung Abbildung 1: Das komplementäre gauß’sche Fehlerintegral 3.5. Verteilung und Dichte 3.5.1. Eigenschaften einer Dichte Z∞ fX (x) ≥ 0 ∧ fX (x) dx = 1 (18) −∞ 3.5.2. Eigenschaften einer Verteilung Eine Wahrscheinlichkeitsverteilung ist immer monoton steigend. Außerdem gilt 0 ≤ FX (x) ≤ 1 (19) 3.5.3. Randdichte und Randverteilung 3.5.3.1. Randdichte Z∞ fX (x) = fXY (x, η) dη (20) fXY (ξ, y) dξ (21) −∞ Z∞ fY (y) = −∞ 9 3. Zufallsvariablen 3.5.3.2. Randverteilung Zx Z∞ FX (x) = Zx fXY (ξ, η) dη dξ = −∞ −∞ Zy Z∞ FY (y) = fX (ξ)dξ (22) −∞ Zy fXY (ξ, η) dξ, dη = −∞ −∞ fY (η) dη (23) −∞ 3.5.4. Bedingte Verteilungen Rx −t fX (ξ) FX|X>t (x) = dξ 1 − FX (t) fXY (x, y) fY (y|X = x) = fX (x) fXY (x,y) fY |X (y) = fX (x) (24) (25) (26) 3.5.5. Spezielle Verteilungen Skript ab Seite 131. 3.5.5.1. Gleichverteilung Diskreter Fall fX (x) = N 1 X · δ(x − xi ) N (27) i=1 mX N 1 X = · xi N 2 σX = 1 · N i=1 N X (xi − mX )2 (28) (29) i=1 Kontinuierlicher Fall ( fX (x) = 1 xmax −xmin für xmin ≤ x ≤ xmax 0 sonst xmax + xmin 2 x3max − x3min (xmax + xmin )2 = − 3(xmax − xmin ) 4 mX = 2 σX Der Spitzenwertfaktor eines Zufallsprozesses mit gleichverteilter Amplitude ist ζq0 = 10 (30) (31) (32) √ 3. 3. Zufallsvariablen 3.5.5.2. Binomialverteilung (Bernoulli-Experiment) fX (x) = FX (x) = N X N k=0 N X k=0 pk · (1 − p)N −k · δ(x − k) mit 0 < p < 1 (33) N k p · (1 − p)N −k · ε(x − k) mit 0 < p < 1 k (34) k mX = N · p (35) (2) mX = N · p(1 + N p − p) (36) 2 σX = N · p(1 − p) (37) Die Binomialverteilung nähert sich für N · p · (1 − p) 1 der Normalverteilung an. 3.5.5.3. Geometrische Verteilung Beschreibt die Zahl der Fehlversuche bis zum ersten Treffer. fX (x) = FX (x) = ∞ X k=0 ∞ X p · (1 − p)k · δ(x − k) mit 0 < p < 1 (38) p · (1 − p)k · ε(x − k) (39) k=0 ΦX (s) = p 1 − (1 − p) · es (40) 1−p p mX = (2) (1 − p)(2 − p) p2 1−p = p2 mX = 2 σX (41) (42) (43) 3.5.5.4. Poisson-Verteilung Wahrscheinlichkeit, daß bei einem wiederholten BernoulliExperiment k Ergebnisse im Intervall ∆ liegen. fX (x) = e −a · FX (x) = e−a · ∞ X ak k=0 ∞ X k=0 11 · δ(x − k) (44) ak · ε(x − k) k! (45) k! 3. Zufallsvariablen ΦX (s) = ea(e s −1) (46) mX = a (47) (2) mX = a + a2 (48) 2 σX =a (49) Wobei a = λ∆. 3.5.5.5. Gauß-Verteilung (Normal-Verteilung) N (mX , σX ) Definition 1 2 2 · e−(x−mX ) /2σX 2π · σX 2 1 x − mX 2 mit erf(x) = √ R x e−ξ dξ FX (x) = · 1 + erf √ 2 π 2σX 0 fX (x) = √ ΦX (s) = es 2 σ 2 /2+sm X X (50) (51) (52) Nur bei normalverteilten Zufallsvariablen gilt: Xi unkorreliert ⇒ Xi statistisch unabhängig. Der Spitzenwertfaktor eines Zufallsprozesses mit gaußverteilter Amplitude geht gegen Unendlich. Zwei gemeinsam normalverteilte Zufallsvariablen „ 1 q ·e fXY (x, y) = 2πσX σY 1 − c2XY − 1 · ) 2(1−c2 XY „ (x−mX )2 (x−mX )(y−mY ) (y−mY )2 −2cXY · + σX σY σ2 σ2 X Y «« (53) N gemeinsam normalverteilte Zufallsvariablen N Zufallsvariablen X1 , . . . , XN werden als gemeinsam normalverteilt bezeichnet, wenn jede Linearkombination y = ~ eine normalverteilte Zufallsvariable erzeugt. a1 X1 + · · · + aN YN = ~aX 3.5.5.6. Cauchy-Verteilung fX (x) = π(b2 b + (x − a)2 ) (54) x0,5 = a = mX (55) 3.5.5.7. Lognormal-Verteilung − 1 fX (x) = √ ·e 2πσU x 12 (ln x−mU )2 2σ 2 U · ε(x) (56) 3. Zufallsvariablen 3.5.5.8. Laplace-Verteilung fX (x) = √ √ 1 · e− 2|x−mX |/σX 2σX 2 smX 2 s2 · e 2 − σX ΦX (s) = (57) (58) 3.5.5.9. Γ-Verteilung λa · xa−1 eλx ε(x) Γ(a) Z∞ a a−1 −λξ λ ξ e dξ · ε(x) FX (x) = Γ(a) fX (x) = (59) (60) 0 Z∞ Γ(x) = tx−1 · e−t dt x>0 (61) 0 = (x − 1)! (62) ΦX (s) = λ λ−s a (63) a λ a(a + 1) = λ2 a = 2 λ (64) mX = (2) mX 2 σX (65) (66) Erlang-Verteilung fX (x) = λn xn−1 e−λx · ε(x) (n − 1)! χ2 -Verteilung Spezialfall der Γ-Verteilung für λ = fX (x) = 1 2 und a = 2b , b ∈ N. xb/2−1 e−x/2 · ε(x) 2b/2 · Γ(b/2) ΦX (s) = 1 1 − 2s (67) (68) b 2 (69) χ-Verteilung fX (x) = 2xN −1 e− N x2 2 2 2 Γ( N2 ) 13 · ε(x) (70) 3. Zufallsvariablen Rayleigh-Verteilung (für N = 2) z= p x2 + y 2 (71) x2 z · e− 2σ2 wobei z ≥ 0 2 σ r π ·σ mZ = 2 π 2 σZ2 = 2 − ·σ 2 fZ (z) = (72) (73) (74) Maxwell-Verteilung (für N = 3) r fX (x) = 2 2 − x2 · x · e 2 · ε(x) π (75) Exponential-Verteilung FX (x) = 1 − e−λx · ε(x) fX (x) = λe−λx · ε(x) (76) (77) λ λ−s 1 = λ 2 = 2 λ 1 = 2 λ ΦX (s) = (78) mX (79) (2) mX 2 σX (80) (81) 3.6. Perzentil und Median Das u-Perzentil einer Zufallsvariable X ist der kleinste Wert, für den gilt ZxU u = P (X ≤ xU ) = FX (xU ) = fX (ξ) dξ (82) −∞ Das 0,5-Perzentil wird auch Median genannt. 3.7. Erzeugende Funktionen 3.7.1. Momentenerzeugende Funktion ΦX (s) ΦX (s) = E e sX Z∞ = fX (x)esx dx = L {fX (−x)} −∞ (n) Das Moment n-ter Ordnung entspricht der n-ten Ableitung von ΦX (0) bei s = 0. 14 (83) 4. Zufallsprozesse 3.7.2. Charakteristische Funktion ΦX (jω) ΦX (jω) = E e jωX Z∞ = fX (x)e jωx Z∞ dx = −∞ fX (−x)e−jωx dx = F {fX (−x)} (84) −∞ 3.7.3. Kumulantenerzeugende Funktion ΨX (s) ΨX (s) = ln ΦX (s) = ∞ (n) X Ψ (0) X n=0 (n) n! sn (85) (n) Kumulanten: λX = ΨX (0) 4. Zufallsprozesse 4.1. Stationarität 4.1.1. Strenge Stationarität Ein Prozeß heißt streng stationär, wenn gilt fX(t1 )···X(tN ) (x1 , . . . , xN ) = fX(t1 +∆)···X(tN +∆) (x1 , . . . , xN ) ∀N ∈ N, ∆ ∈ R (86) 4.1.2. Gemeinsame strenge Stationarität fX(t1 )···X(tM )Y (t1 )···Y (tN ) (x1 , . . . , xN , y1 , . . . , yN ) = fX(t1 +∆)···X(tN +∆)Y (t1 +∆)···Y (tN +∆) (x1 , . . . , xN , y1 , . . . , yN ) ∀M, N ∈ N, ∆ ∈ R 4.1.3. Schwache Stationarität 1. mX (t) = mX (87) 2. RXX (t1 , t2 ) = E {X(t1 )X ∗ (t2 )} (88) ∗ = RXX (t + τ, t) = E {X(t + τ )X (t)} RXX (τ ) mit τ := t1 − t2 (89) RXY (t + τ, t) := RXY (τ ) (91) (90) 3. speziell SXY = RXY (0) Kreuzleistung. 4. Für komplexe Zufallsprozesse gilt Re{x(η, t)} = xI (η, t) Inphasekomponente (92) Im{x(η, t)} = xQ (η, t) Quadraturkomponente (93) 15 4. Zufallsprozesse a) RxI xI (τ ) = RxQ xQ (τ ) (94) Real- und Imaginärteil besitzen gleiche AKF. b) RxI xQ (τ ) = −RxI xQ (−τ ) (95) Punktsymmetrische KKF zwischen Real- und Imaginärteil. Schwach stationäre Prozesse sind somit rotationsinvariant, d. h. x(η, t) und x(η, t)·ejϕ haben die gleiche AKF. Ein als komplex definierter Zufallsprozeß, dessen Imaginärteil 0 ist kann niemals stationär sein. ∗ (−τ ), speziell beim reellen Zufallsprozeß 5. Symmetrieeigenschaft: RXX (τ ) = RXX RXX (τ ) = RXX (−τ ) und RXY (τ ) = RY X (−τ ). Bei normalverteilten Prozessen gilt: Schwache Stationarität ⇒ Stationarität. 4.1.3.1. Eigenschaften (schwach) stationärer Prozesse AKF und AKV ∗ (τ ) RXX (−τ ) = RXX (96) ∗ CXX (τ ) (97) CXX (−τ ) = RXX (τ ) = E {X(t + τ )X ∗ (t)} (98) ∗ = E {X(t + τ + t0 )X (t)} = RXX (τ + t0 ) (99) (100) AKF und AKV haben ein Maximum in τ = 0. KKF und KKV RXY (−τ ) = RY∗ X (τ ) (101) CY∗ X (τ ) (102) CXY (−τ ) = CXY (t1 , t2 ) = RXY (t1 , t2 ) − mX (t1 )mY (t2 ) = RXY (t + τ, t) − mX (t + RXY (τ ) − 16 mX m∗Y τ )m∗Y (t) (103) (104) (105) 4. Zufallsprozesse Auto- und Kreuz-LDS Grundsätzlich gilt: SXX (jω) ≥ 0 (106) ∗ SXX (jω) = SXX (jω) (107) ∗ SXY (jω) (108) Komplexer Fall SXY (jω) = Reeller Fall SXX (jω) = SXX (−jω) (109) SXY (jω) = SY X (−jω) (110) 4.1.4. Zyklostationäre Prozesse fX···X (x1 , . . . , xN , t1 , . . . , tN ) = fX···X (x1 , . . . , xN , t1 + kT, . . . , tN + kT ) ∀k ∈ Z (111) Die zeitlich gemittelte AKF eines zyklostationären Prozesses hat die gleichen Eigenschaften wie die AKF eines stationären Prozesses (siehe Abschnitt 4.1.3.1). 4.1.5. Schwach zyklostationäre Prozesse mX (t + kT ) = mX (t) (112) RXX (t + τ + kT, t + kT ) = RXX (t + τ, t) (113) 4.1.6. Ergodizität Ein Prozeß heißt ergodisch, wenn jeder zeitliche Mittelwert einer beliebigen Musterfunktion mit dem entsprechenden Scharmittelwert identisch ist. Nachweis: Aus mX konstant schwache Stationarität (114) CXX (t0 , t1 ) = CXX (τ ) und 1 lim T →∞ 2T Z2T |τ | 1− 2T −2T folgt Ergodizität. 17 CXX (τ ) dτ = 0 (115) 4. Zufallsprozesse 4.2. Mittelwerte 4.2.1. Erwartungswert Erwartungswertoperator für eine Funktion g und eine reelle Zufallsvariable X(η): Z∞ E {g(X)} = n o ~ E g(X) = g(x)fX (x) dx −∞ Z∞ (116) Z∞ ··· −∞ g(~x)fX~ (~x) d~x (117) −∞ Der Erwartungswertoperator ist linear: E {a1 g1 (X) + a2 g2 (X)} = a1 E {g1 (x)} + a2 E {g2 (x)} (118) Das Signal-Störleistungs-Verhältnis berechnet sich aus den Mittelwerten zweiter Ordnung folgendermaßen: ! (2) mX SNR = 10 log10 dB (119) (2) mN 4.2.2. Momente n-ter Ordnung 4.2.2.1. kontinuierlich (n) mX Z∞ n = E {X } = xn fX (x) dx n ∈ N0 (120) −∞ 4.2.2.2. diskret (n) mX = E {X n } = ∞ X xni · P (xi ) n ∈ N0 (121) i=0 4.2.3. Zentrale Momente n-ter Ordnung 4.2.3.1. kontinuierlich (n) µX Z∞ n o (1) n (1) n = E X − mX = x − mX fX (x) dx n ∈ N0 (122) n ∈ N0 (123) −∞ 4.2.3.2. diskret (n) µX = E ∞ n o X (1) n (1) n x − mX · P (xi ) X − mX = i=−∞ 4.2.4. Wichtige Momente 4.2.4.1. Linearer Mittelwert 18 4. Zufallsprozesse kontinuierlich (1) mX Z∞ = mX = E {X} = xfX (x) dx (124) −∞ diskret (1) mX mX = E {X} = X xi · P (xi ) (125) x2 fX (x) dx (126) i 4.2.4.2. Quadratischer Mittelwert kontinuierlich (2) mX =E X 2 Z∞ = −∞ = Z∞ 1 2π SXX (jω) dω (127) −∞ (2) mX 1 = 2π Z∞ SXX (jω) dω = RXX (0) = E |X(t)|2 (128) −∞ diskret (2) mX = X x2i · P (xi ) (129) i 4.2.4.3. Varianz kontinuierlich 2 σX = (2) µX 2 = E (X − mX ) Z∞ = (x − mX )2 fX (x) dx (130) −∞ 2 σX = RXX (0) − m2X (131) diskret (2) 2 σX = mX − m2X (132) 4.2.4.4. Normierte Momentanleistung 2 Sx (t1 ) = E |x(η, t1 )| Z∞ = −∞ 19 |x|2 fx (x, t1 ) dx (133) 4. Zufallsprozesse 4.2.5. Zentrale Verbundmomente 4.2.5.1. kontinuierlich (m,n) µXY = E {(X − mX )m (X − mY )n } Z∞ = (x − mX )m (y − mY )n fXY (x, y) dx dy (134) (135) −∞ 4.2.5.2. diskret (m,n) µXY = E {(X − mX )m (X − mY )n } XX = (xi − mX )m (yj − mY )n · P (xi ∩ yj ) i (136) (137) j 4.2.5.3. Kovarianz kontinuierlich (1,1) CXY = µXY = E {(X − mX )(Y − mY )} = E {XY } − E {X} E {Y } Z∞ Z∞ = (x − mX )(y − mY )fXY (x, y) dx dy (138) (139) (140) −∞ −∞ diskret (1,1) CXY = µXY = E {(X − mX )(Y − mY )} XX = (xi − mX )(yj − mY ) · P (xi ∩ yj ) i (141) (142) j CXY = 0 ⇒ X und Y sind unkorreliert ⇒ E {XY } = E {X} E {Y } 4.2.5.4. Korrelationskoeffizient cXY = CXY σX σY (143) 4.2.5.5. Bedingte Erwartungswerte Z∞ Z∞ n o ~ E g(X|A) = ··· g(~x)fX|A x) d~x ~ (~ −∞ −∞ 4.3. LTI-Systeme und schwach stationäre Prozesse 4.3.1. Mittelwerte 4.3.1.1. Linearer Mittelwert 20 (144) 4. Zufallsprozesse kontinuierlich Z∞ mY = mX · h(t) dt = mX · H(0) (145) −∞ diskret mY = mX · H(1) (146) 4.3.1.2. Quadratischer Mittelwert kontinuierlich (2) mY 1 = RY Y (0) = 2π Z∞ |H(jω)|2 · SXX (jω) dω (147) −∞ diskret (2) mY 1 = RY Y [0] = 2π Z2π SY Y e jΩ 1 dΩ = 2π 0 Z2π |H ejΩ |2 · SXX ejΩ dΩ (148) 0 4.3.2. Korrelationsfunktionen 4.3.2.1. Autokorrelationsfunktion Rxx (t1 , t2 ) = E {x(η, t1 ) · x∗ (η, t2 )} Z∞ Z∞ im Reellen = x1 x2 fx1 x2 (x1 , x2 , t1 , t2 ) dx1 dx2 −∞ −∞ Z∞ Z∞ im Komplexen (149) (150) Z∞ Z∞ ((ac + bd) + j(bc − ad))fabcd (a, b, c, d) da db dc dd = −∞ −∞ −∞ −∞ (151) wobei a = Re{x(η, t1 )}, b = Im{x(η, t1 )}, c = Re{x(η, t2 )} und d = Im{x(η, t2 )}. Laplaceverteilter Zufallsprozeß λ2 Raa [λ] = σa2 e− α2 (152) 4.3.2.2. Autokovarianz CXX (t1 , t2 ) = E {[X(t1 ) − mX (t1 )] · [X(t2 ) − mX (t2 )]∗ } ∗ = RXX (t1 , t2 ) − mX (t1 )mX (t2 ) 4.3.2.3. Kreuzkorrelation 21 (153) (154) 4. Zufallsprozesse RXX (τ ) SXX (jω) RXY (τ ) h∗ (−τ ) H ∗ (jω) RY Y (τ ) h(τ ) H(jω) SXY (jω) SY Y (jω) (a) Im Kontinuierlichen RXX [κ] h∗ [−κ] RXY [κ] SXX (ejΩ ) H ∗ (ejΩ ) SXY (ejΩ ) RY Y [κ] h[κ] H(ejΩ ) SY Y (ejΩ ) (b) Im Diskreten Abbildung 2: Korrelationsfunktionen und Leistungsdichtespektren Definition RXY (t1 , t2 ) = E {X(t1 )Y ∗ (t2 )} (155) Sxy = φxy (t1 , t1 ) (156) Kreuzleistung 4.3.2.4. Kreuzkovarianz CXY (t1 , t2 ) = E {[X(t1 ) − mX (t1 )] · [Y (t2 ) − mY (t2 )]∗ } ∗ = RXY (t1 , t2 ) − mX (t1 )mY (t2 ) 4.3.2.5. Eigenschaften von AKF, AKV, KKF und KKV gerade Funktionen: (157) (158) AKF und AKV sind ∗ RXX (−τ ) = RXX (τ ) (159) ∗ CXX (τ ) (160) CXX (−τ ) = AKF und AKV eines periodischen Zufallsprozesses sind periodisch: RXX (τ ) = RXX (τ + t0 ) (161) Wegen CXX (τ ) = RXX (τ ) − |mX |2 folgt CXX (τ ) = CXX (τ + t0 ). AKF und AKV haben ihr Maximum in τ = 0: RXX (0) ≥ |RXX (τ )| ∀τ (162) 4.3.2.6. Autoleistungsdichtespektrum kontinuierlich Z∞ SXX (jω) = F {RXX (τ )} = −∞ 22 RXX (τ )e−jωτ dτ (163) 4. Zufallsprozesse diskret SXX (ejΩ ) = F∗ {RXX [κ]} = ∞ X RXY [κ]e−jΩκ (164) RXY (τ )e−jωτ dτ (165) κ=−∞ 4.3.2.7. Kreuzleistungsdichtespektrum kontinuierlich Z∞ SXY (jω) = F {RXY (τ )} = −∞ diskret SXY (ejΩ ) = F∗ {RXY [κ]} = ∞ X RXY [κ]e−jΩκ (166) κ=−∞ 4.3.2.8. Kreuzkorrelationsfunktion und Kreuzleistungsdichtespektrum zwischen Ein- und Ausgang kontinuierlich RXY (τ ) = RXX (τ ) ∗ h∗ (−τ ) (167) RY X (τ ) = RXX (τ ) ∗ h(τ ) (168) SXY (jω) = H ∗ (jω) · SXX (jω) (169) SY X (jω) = H(jω) · SXX (jω) (170) RXY [κ] = RXX [κ] ∗ h∗ [−κ] (171) RY X [κ] = RXX [κ] ∗ h[κ] (172) diskret SXY ejΩ = H ∗ ejΩ · SXX ejΩ SY X ejΩ = H ejΩ · SXX ejΩ (173) (174) 4.3.3. Autokorrelationsfunktion und Autoleistungsdichtespektrum am Ausgang 4.3.3.1. kontinuierlich RY Y (jω) = h(jω) ∗ RXY (jω) ∗ = h(jω) ∗ h (−jω) ∗ RXX (jω) = ρ(jω) ∗RXX (jω) | {z } Filter-AKF 23 (175) (176) (177) 4. Zufallsprozesse SY Y (jω) = H(jω) · SXY (jω) (178) ∗ = H (jω) · SY X (jω) (179) = |H(jω)|2 · SXX (jω) (180) 4.3.3.2. diskret RY Y [κ] = h[κ] ∗ RXY [κ] (181) ∗ = h[κ] ∗ h [−κ] ∗ RXX [κ] (182) ∗RXX [κ] (183) SY Y ejΩ = H(jω) · SXY (jω) (184) = ρ[κ] |{z} Filter-AKF ∗ = H (jω) · SY X (jω) = |H ejΩ |2 · SXX ejΩ (185) (186) 4.3.4. Kohärenzfunktion CXY (jω) GXY (jω) = p SXX (jω) · SY Y (jω) SXY ejΩ jω GXY (e ) = p SXX (ejΩ ) · SY Y (ejΩ ) (187) (188) 4.3.5. Weißes Rauschen 4.3.5.1. Definition Ein Prozeß heißt genau dann „weiß“, wenn er ein konstantes Spektrum hat. Die Autokorrelationsfunktion ist dann ein Dirac-Impuls in 0. kontinuierlich CXX (t1 , t2 ) = RXX (t1 , t2 ) − mX (t1 ) · m∗X (t2 ) = 0 ∀t1 6= t2 (189) CXX (t1 , t2 ) = RXX (t1 , t2 ) = C0 (t1 )δ(t1 − t2 ) (190) CXX [k1 , k2 ] = RXX [k1 , k2 ] = C0 [k1 ]δ[k1 − k2 ] (191) diskret 4.3.5.2. Leistungsdichtespektrum N0 2 (192) N0 · δ(τ ) 2 (193) SnHF nHF (jω) = 4.3.5.3. Autokorrelationsfunktion RnHF nHF (τ ) = 24 4. Zufallsprozesse 4.3.5.4. Störleistung Nl → ∞ (194) 4.3.5.5. Bandbegrenztes ECB-Rauschen Snn (jω) = N0 ∀ω ∈ R (195) 4.3.5.6. Streng weißes Rauschen Ein weißer Rauschprozeß heißt streng weiß genau dann, wenn die Zufallsvariablen X(t1 ) und X(t2 ) statistisch unabhängig für beliebige t1 6= t2 sind. 4.4. Schätztheorie 4.4.1. Prädiktion Prädiktion macht Aussagen über nicht beobachtbare oder nicht beobachtete Ereignisse auf Basis eines Wahrscheinlichkeitsmodells. Zu prädizierende Signale werden als Musterfunktionen eines Zufallsprozesses angesehen. Wichtige Größen bei der Prädiktion: ~ oder Φ ~ • Parametervektor φ ~ Vektor von deterministischen aber unbekannten Parametern. – φ: ~ Zufällige Parameter. – Φ: ~ • Beobachtungsvektor ~x oder X – ~x: Vektor von tatsächlich beobachtbaren Werten. ~ Vektor von als Zufallsvariablen modellierten Beobachtungen. – X: ~ für die ein statistisches Modell bekannt ist durch ~x̂ oder Ziel: Prädiktion von ~x oder X, ~ X̂. Voraussetzung: Kenntnis der Parameter des Wahrscheinlichkeitsmodells (z. B. Verbunddichte zwischen Parametern und Beobachtungen oder Erwartungswerte). 4.4.1.1. Parameterschätzung Ein oder mehrere unbekannte Parameterwerte eines Wahrscheinlichkeitsmodells sollen geschätzt werden. Wichtige Variablen: ~ oder Φ. ~ • Parametervektor φ ~ • Beobachtungsvektor ~x oder X. ~ her. (z. B. bedingte • Unbekanntes System/Kanal: Stellt die Beziehung zwischen ~x/X Wahrscheinlichkeiten, Verbundwahrscheinlichkeiten, Funktion & Rauschterm). ~ Erzeugt Schätzwerte als Funktionen der Beobachtung. Entwurf heuri• Schätzer Θ: ~ stisch oder per Modell der Beobachtungen X. 25 4. Zufallsprozesse ~ ~ ~ ~ x), Φ̂ ~ X): ~ Mustervektor φ̂ • Schätzwerte φ̂ = Θ(~ am Ausgang des Schätzers = Θ( ~ ~ abgeleitet aus Beobachtungen ~x oder Ausgangsvektor Φ̂ ~ X), ~ wenn die Θ = Θ( Beobachtungen als Zufallsvariablen betrachtet werden. ~ bzw. Φ ~ aus ~x bzw. X. ~ Ziel: Schätze φ Voraussetzung: Kenntnis der Beobachtung bzw. Struktur eines statistischen Modells der Beobachtung (der Parameter bei Bayes). Klassische Parameterschätzung Parameter φ werden als Konstanten angesehen. Schätzung ausschließlich auf Basis von tatsächlichen Beobachtungen. ~ aufgefaßt, Bayes’sche Schätzung Parameter werden als echte Zufallsvariablen Φ Schätzung einer Realisierung mittels eines Wahrscheinlichkeitsmodells ⇒ Prädiktion von Parametern. ~ zwei 4.4.1.2. Intervallschätzung Es werden für eine zu schätzende Zufallsvariable X Konstanten c1 , c2 als Schranken der Wahrscheinlichkeitsverteilung bestimmt, so daß ~ ≤ c2 ) = P (c1 < X γ |{z} =1− Konfidenzmaß ∆c = c2 − c1 δ |{z} (196) Konfidenzniveau Vertrauensintervall (197) 4.4.2. Prädiktion Schätzung des Wertes einer Zufallsvariable. 4.4.2.1. Punktprädiktion Genau ein Wert einer (noch) nicht beobachteten Zufallsvariable soll möglichst gut vorhergesagt werden. Optimierungskriterium ist z. B. der mittlere quadratische Fehler (MQF) ⇒ Optimierungsziel ist der minimale quadratische Fehler (MMSE). Kostenfunktion ist J(x̂) = E (X − x̂)2 = min (198) 4.4.2.2. Intervallprädiktion Für ein bestimmtes Konfidenzmaß γ soll ein möglichst kleines Vertrauensintervall ∆c festgelegt werden. Je nach Beschaffenheit der Wahrscheinlichkeitsdichtefunktion 1. Fall – Ein Maximum und und gerade Symmetrie: fX (c1 ) = fX (c2 ) mit c1 ≤ mX ≤ c2 (199) c1 = xδ/2 ∧ c2 = x1−δ/2 (200) 2. Fall – Ein Maximum: Startlösung nach Fall 1. Anschließend c1 und c2 so entlang der x-Achse verschieben, daß die Wahrscheinlichkeits erhöht wird. Dann ∆c so weit verkleinern, daß P (c1 < X ≤ c2 ) = γ gilt. 3. Fall – Mehrere Maxima: Lösung nach Fall 2, allerdings müssen alle Verschiebungen abgesucht werden. 26 4. Zufallsprozesse 4.4.3. Gütekriterien für Parameterschätzer 4.4.3.1. Erwartungstreuer Schätzer n o n o φ̂bias = E Φ̂ − φ = E Φ̂ − φ (201) Ein erwartungstreuer Schätzer erfüllt φ̂bias = 0. Ein asymptotisch erwartungstreuer Schätzer erfüllt limN →∞ φ̂bias = 0. 4.4.3.2. Effizienter Schätzer Ein erwartungstreuer Schätzer ist effizient genau dann, wenn die Kovarianzmatrix n oT n o CΦ̂Φ̂ = E Φ̂ − E Φ̂ Φ̂ − E Φ̂ (202) minimal CΦ̂Φ̂,effizient = min CΦ̂Φ̂ (203) φ̂ ist, wobei als Norm der größte Eigenwert dienen kann. 4.4.3.3. Konsistenter Schätzer Ein erwartungstreuer Schätzer ist konsistent, wenn er bezüglich der Wahrscheinlichkeit konvergiert lim P Φ̂ − φ ≥ ε = 0 (204) N →∞ wofür lim CΦ̂Φ̂ = 0 N →∞ (205) hinreichend ist. Beispiele ab Seite 334. ~ X ~ heißt hinreichende Statistik Ein Schätzer Θ ~ ~ wenn Φ̂ ~ ~ X ~ alle Informationen über φ für die Schätzung des Parametervektors φ, =Θ ~ enthalten sind, d. h. enthält, die in X fX Φ̂ ~x, φ, φ̂ fX|Φ ~x, φ, φ̂ = (206) ~ (~x) fΦ̂ φ̂ = Θ 4.4.3.4. Hinreichende Statistik hängt nicht von φ ab. 4.4.4. Mittelwertschätzer 4.4.4.1. Arithmetisches Mittel φ̂ = mX N 1 X xi = · N i=1 27 (207) 4. Zufallsprozesse 4.4.4.2. Varianzschätzer bei bekanntem Mittelwert Φ̂ = Σ̂2X = N 1 X (Xi − mX )2 N (208) i=1 4.4.4.3. Varianzschätzer bei unbekanntem Mittelwert N Σˆ2X = 2 1 X Xi − M̂X N −1 (209) i=1 4.4.4.4. Mittelwertschätzung bei bekannter Varianz Z. B. für den Fall, daß N zu klein ist um mit dem zentralen Grenzwertsatz zu argumentieren. 1. Nimm N Beobachtungen xi der Zufallsvariablen X und bilde das arithmetische Mittel. 2. Bestimme für das gewünschte Konfidenzmaß γ = 1−δ das Perzentil zu für u = 1− 2δ für die normierte Gauß-Verteilung. 3. Bestimme die Intervallgrenzen durch Entnormierung m̂X ± z1 − δ σX ·√ 2 N (210) 4.4.4.5. Mittelwertschätzung bei unbekannter Varianz N 2 σ̂X 1 X (xi − m̂X )2 = N −1 (211) i=1 2 = σ̂ 2 . Anschließend kann nach dem in Abschnitt 4.4.4.4 aufgezeigFür große N gilt σX X ten Schema verfahren werden. 4.4.4.6. Mittelwertschätzung bei unbekannter Verteilung Z. B. für den Fall, daß N zu klein ist um mit dem zentralen Grenzwertsatz zu argumentieren. σX σX P M̂X − √ < mX < M̂X + √ >1−δ (212) Nδ Nδ 4.4.4.7. Parameterschätzung bei bestimmten Verteilungen Exponentialverteilung Für M̂X > 0 P δ 1 − z1 − M̂X √2 N δ <λ< 1 + z1 − M̂X 28 √2 N =1−δ =γ (213) 4. Zufallsprozesse Poissonverteilung a1,2 = M̂X + z 2 δ 2 1− 2N v 2 u 2 u z1− δ u 2 2 − M̂X ± tM̂X + 2N 4.4.4.8. Wahrscheinlichkeitsschätzung ! r p(1 − p) P M̂X − p < z1− δ · =1−δ =γ 2 N r z2 2N M̂X + ± M̂X · p1,2 = z2 N 1+ · 1 − M̂X + z2 2N (214) (215) 2 (216) z2 2N Für N > 100 gilt s p1,2 = M̂X ± z · M̂X · (1 − M̂X ) N (217) 4.4.4.9. Varianzschätzung bei normalverteilten Zufallsvariablen Varianzschätzung bei bekanntem Mittelwert mX N Σ̂2X N Σ̂2X 2 < < σ X χ21− δ (N ) χ2δ (N ) 2 (218) 2 Varianzschätzung bei unbekanntem Mittelwert mX (N − 1)Σ̂2X (N − 1)Σ̂2X 2 < σX < 2 χ1− δ (N − 1) χ2δ (N −1) 2 (219) 2 4.4.5. MMSE- und LSE-Schätzung ~ so, daß eine quadratische AbweiZiel: Schätze einen Vektor determinierter Parameter φ ~ ~ φ̂ chung Ŷ = g X, von einer beobachtbaren Zufallsvariable Y minimiert wird. ~ 4.4.5.1. MMSE-Schätzung Bestimme die Parameter φ̂ einer Funktion g so, daß die ~ φ̂ den mittleren quadratischen Fehler minimiert (Minimum Zufallsvariable Ŷ = g X, Mean Square Error). n o ~ φ̂ = φ̂MMSE = argmin E Y − g X, ~ φ̂ (220) ΘMMSE Y, X, φ̂ 4.4.5.2. MSE-Schätzung N X ~ ~ ~ ~ ~ Φ̂MSE = ΘMSE Y, X, Φ̂ = argmin~ Yi − g Xi , Φ̂ Φ̂ 29 i=1 (221) 4. Zufallsprozesse ~ und 4.4.5.3. Maximum-Likelihood-Schätzer Gegeben: Ein Beobachtungsvektor X ein parametrisches Modell der Wahrscheinlichkeitsdichtefunktion fX|Φ (~u|~v ) (LikelihoodFunktion). Ziel: Finde den Maximum-Likelihood-Schätzer ~ φ = argmax~v f ~ ~ (~x, ~v ) Φ̂ML = ΘML X, (222) X|Φ 4.4.5.4. Log-Likelihood-Funktion ~ φ = argmax~v log f ~ (~x|~v ) Φ̂ML = ΘML X, X|φ (223) ~ unabhängig sind: günstig, wenn die N Elemente Xi des Beobachtungsvektors X u|~v ) = log log fX|φ ~ (~ N Y fXi |φ (xi |~v ) = i=1 N X log fXi |φ (xi |~v ) (224) i=1 Um die Log-Likelihood-Funktion bezüglich der K Elemente vk des Parametervektors ~v zu maximieren, setzt man die partiellen Ableitungen zu 0 und löst ein System mit K Gleichungen: N N X ∂ X ∂ log fXi |φ (xi , ~v ) = log fXi |φ (xi |~v ) = 0 ∂vk ∂~vk i=1 ∀k = 1, . . . , K (225) i=1 4.4.5.5. Bayes’sche Schätzung ~ Bayes (~x) = argmin R φ̂|~x φ̂Bayes = Θ φ̂ Z v |~x) d~v = argminφ̂ C φ̂, ~v fΦ| ~ X ~ (~ (226) (227) V Z v ) d~v x|~v ) fΦ C φ̂, ~v fX| ~ (~ ~ Φ ~ (~ = argminφ̂ (228) V 4.4.5.6. Maximum a posteriori-Schätzer (MAP) φ̂MAP = argmaxφ̂ fΦ| x ~ X ~ φ̂|~ = argmax~v fX| x|~v ) · fΦ v) ~ Φ ~ (~ ~ (~ (229) (230) In logarithmischer Darstellung ~ Φ̂ = argmax~v log fX| x, ~v ) + log fΦ v) ~ Φ ~ (~ ~ (~ 30 (231) 4. Zufallsprozesse g(t) D(η, t) U (η, t) X(η, t) Y (η, t) + E(η, t) + h(t) N (η, t) Abbildung 3: Typisches Szenario zur Wiener Filterung 4.4.6. Cramer-Rao-Schranke ~ und Untere Schranke für die Varianz eines geschätzten Parametervektors Φ̂ gegeben X ~v . ∂ φ̂bias,i 2 (1 + ∂v ) 2 i σΦ̂ ≥ (232) i ∂ ln fX| x|~v ) ~ Φ ~ (~ E ∂vi Für zufällige Parameter 2 σΦ̂ ≥ ( i E 1+ ∂ φ̂bias,i ∂vi ∂ ln fX| x,~v ) ~ Φ ~ (~ ∂vi 2 + 2 ∂ ln fΦ v) ~ (~ ∂vi ) (233) 4.5. Lineare Optimalfilterung 4.5.1. Wiener Filter 4.5.1.1. Zeitkontinuierlich Schwach stationäres weißes Rauschen am Eingang hopt (τ ) = 1 · RDX (τ ) R0 (234) SDX (jω) SXX (jω) (235) Allgemeine nichtkausale Filter Hopt (jω) = 31 A. Mathematische Grundlagen Restfehler E 2 Emin (t) Z∞ 1 = 2π SEE (jω) dω (236) SDX (jω) · SXD(jω) SXX (jω) (237) −∞ mit SEE (jω) = SDD (jω) − Für D(t) = g(t) ∗ U (t) und X(t) = U (t) + N (t) gilt Hopt (jω) = G(jω) · SU U (jω) + SU N (jω) SU U (jω) + SU N (jω) + SN U (jω) + SN N (jω) (238) Falls U (t) und N (t) orthogonal sind gilt Hopt (jω) = G(jω) · SEE (jω) = |G(jω)|2 · SU U (jω) SU U (jω) + SN N (jω) SU U (jω) · SN N (jω) − SU U (jω) · SN U (jω) SU U (jω) + SU N (jω) + SN U (jω) + SN N (jω) (239) (240) A. Mathematische Grundlagen A.1. Frequenz A.1.1. Definition f := 1 T (241) T ist die Periode der Schwingung. A.1.2. Kreisfrequenz ω := 2πf (242) ω fa (243) z := ejΩ (244) A.1.3. Normierte Kreisfrequenz Ω := fa ist die Abtastfrequenz. A.1.4. Die z-Ebene 32 A. Mathematische Grundlagen Tabelle 1: Teile von Einheiten Bezeichnung Präfix Faktor Faktor2 Faktor3 yotto y 10−24 10−48 10−72 zepto z 10−21 10−42 10−63 atto a 10−18 10−36 10−54 femto f 10−15 10−30 10−45 pico p 10−12 10−24 10−36 nano n 10−9 10−18 10−27 micro µ 10−6 10−12 10−18 milli m 10−3 10−6 10−12 centi c 10−2 10−4 10−8 deci d 10−1 10−2 10−4 33 A. Mathematische Grundlagen Tabelle 2: Vielfache von Einheiten Faktor Faktor2 Faktor3 da 101 102 103 Hekto h 102 104 106 Kilo k 103 106 1012 Mega M 106 1012 1018 Giga G 109 1018 1027 Tera T 1012 1024 1036 Peta P 1015 1030 1045 Exa E 1018 1036 1054 Zeta Z 1021 1042 1063 Yotta Y 1024 1048 1072 Bezeichnung Präfix Deka 34 A. Mathematische Grundlagen A.2. Lösungsformel für quadratische Gleichungen ax2 + bx + c = 0 √ −b ± b2 − 4ac 2a p ⇒ x1,2 = 2 −b ± j −(b − 4ac) 2a (245) falls b2 − 4ac ≥ 0 (246) falls b2 − 4ac < 0 A.3. Geradengleichung A.3.1. Gerade durch einen Punkt P (x0 , y0 ) mit Steigung m y = m(x − x0 ) + y0 (247) A.3.2. Gerade durch die Punkte P (x0 , y0 ) und A(x1 , y1 ) y = y0 + y1 − y0 · (x − x0 ) mit x1 6= x0 x1 − x0 (248) A.3.3. Parameterform x = x0 + t cos α (249) y = y0 + t sin α (250) mit t ∈ ]−∞, ∞[. A.3.4. Allgemeine Form der Geradengleichung Ax + By + C = 0 (251) A.4. Additionstheoreme 1 sin α · sin β = (cos(α − β) − cos(α + β)) 2 1 cos α · cos β = (cos(α − β) + cos(α + β)) 2 1 sin α · cos β = (sin(α − β) + sin(α + β)) 2 1 sin2 α = (1 − cos 2α) 2 1 2 cos α = (1 + cos 2α) 2 2 (254) (256) 2 cos 2α = cos α − sin α = 1 − sin α 35 (253) (255) sin 2α = 2 sin α cos α = 1 − cos2 α 2 (252) (257) (258) A. Mathematische Grundlagen cot tan sin cos Abbildung 4: Trigonometrische Funktionen Tabelle 3: Trigonometrische Funktionen – Funktionswerte besonderer Winkel 0 π 6 π 4 π 3 π 2 π 3 2π ϕ 0◦ 30◦ 45◦ 60◦ 90◦ 180◦ 270◦ I II III IV sin ϕ 0 1 2 1 0 −1 + + − − cos ϕ 1 1 2 0 −1 0 + − − + tan ϕ 0 1 3 nicht definiert 0 nicht definiert + − + − cot ϕ nicht definiert 0 nicht definiert 0 + − + − √ √ √ 1 2 3 3 3 1 2 √ √ 1 1 2 1 2 √ 3 1 2 2 √ 1 3 3 √ 3 36 Quadrant A. Mathematische Grundlagen ejα − e−jα 2j ejα + e−jα cos α = 2 (259) sin α = (260) ejα = cos α + j sin α (261) e−jα = cos α − j sin α (262) A.5. Rechenregeln des Logarithmus logb (u · v) = logb u + logb v logb logb uz = z · logb u logb u √ n v u= = logb u − logb v (263) 1 · logb u n (264) A.6. Differentiation A.6.1. Regeln A.6.1.1. Quotientenregel u 0 v = u0 v − uv 0 v2 (265) A.6.1.2. Kettenregel (u(v(x)))0 = u0 (v(x)) · v 0 (x) (266) (u(x) · v(x))0 = u(x) · v 0 (x) + u0 (x) · v(x) (267) A.6.1.3. Produktregel A.6.1.4. Logarithmische Differentiation y = u(x)v(x) mit u(x) > 0 v(x) · u0 (x) 0 v(x) 0 ⇒ y = u(x) v (x) · ln u(x) + u(x) (268) (269) A.6.1.5. Differentiation eines parameterabhängigen Integrals ∂ ∂x b(x) b(x) Z Z ∂ f (t, x) dt + f (b(x), x) · b0 (x) − f (a(x), x) · a0 (x) f (t, x) dt = ∂x a(x) (270) a(x) A.6.1.6. l’Hospital’sche Regel u(x) u0 (x) = lim 0 x→a v(x) x→a v (x) lim 37 (271) A. Mathematische Grundlagen A.6.2. Operatoren A.6.2.1. Laplace-Operator ∆ ∆f := n X ∂2f i=1 (272) ∂x2i = Sp (Hessf (~x)) (273) = ∇ · ∇f (274) A.6.2.2. Divergenz-Operator div Definition n X ∂fi divf := = Sp(J~v ) = ∇ · f ∂xi (275) ∇ · (φ~v ) = (∇φ) · ~v + φ(∇~v ) (276) i=1 Rechenregeln ∇ · (~v × w) ~ =w ~ · (∇ × ~v ) − ~v · (∇ × w) ~ (277) A.6.2.3. Gradient-Operator ∇ Definition gradf := ∇f = (fx1 , · · · , fxn )T (278) ∇(A + B) = ∇A + ∇B (279) Rechenregeln ∇(A ◦ B) = ∇A ◦ B + ∇A ◦ B (280) Hierbei bedeutet „◦“ eines der Produkte „·“, „ד oder „⊗“ und „A“ bedeutet, daß ∇ nur auf A angewandt wird. Damit folgt: ∇(φψ) = φ(∇ψ) + (∇φ)ψ (281) ∇(φ~v ) = ~v ⊗ (∇φ) + φ(∇~v ) (282) ∇(~v · w) ~ = (∇~v )T w ~ + (∇w) ~ T ~v (283) ∇ · (φf ) = (∇φ) · f + φ∇ · f (284) A.6.2.4. Rotations-Operator 38 A. Mathematische Grundlagen Definition ~ := rotV ∂v3 ∂x2 − ∂v2 ∂x3 ∂v1 ∂x3 − ∂v3 ∂x1 ∂v2 ∂x1 − ∂v1 ∂x2 ~ =∇×V (285) Rechenregeln ∇ × (φ~v ) = (∇φ) × ~v + φ(∇ × ~v ) ∂~v ∂w ~ ∇ × (~v × w) ~ = (∇ · w)~ ~ v+ − (∇ · ~v )w ~− ∂w ~ ∂~v Hierbei ist ∂~v ∂w ~ die Richtungsableitung von ~v in Richtung von w, ~ d. h. A.6.2.5. Jacobi-Matrix (Funktionalmatrix) ~ ∂f ~ ~ ∇f = = Jf = ∂~x (287) ∂ ∂w ~ =w ~ · ∇. ∂f1 ∂x1 ··· ∂f1 ∂xn .. . .. .. . ∂fm ∂x1 ··· . (286) ∂fm ∂xn = f~ ⊗ ∇ (288) A.6.2.6. Hesse-Matrix Hessφ (~x) = = 2 ∂x ∂2φ ∂2φ ∂x21 ∂2φ ∂x1 ∂x2 ∂2φ ∂x1 ∂x3 ∂2φ ∂x2 x1 ∂2φ ∂x22 ∂2φ ∂x2 ∂x3 ∂2φ ∂x3 x1 ∂2φ ∂x3 x2 ∂2φ ∂x23 = grad(gradφ) = ∇ ⊗ ∇φ (289) (290) A.6.2.7. Zusammengesetzte Operationen ∇ · (∇ × ~v ) = 0 (291) ∇ × (∇φ) = 0 (292) ∇ × (∇ × ~v ) = ∇(∇ · ~v ) − ∆~v (293) A.7. Integrationsregeln A.7.1. Partielle Integration Z Z 0 u(x)v (x) dx = u(x)v(x) − u0 (x)v(x) dx 39 (294) A. Mathematische Grundlagen Tabelle 4: Potenzen der imaginären Einheit j(n n 0 1 2 3 mod 4) 1 j −1 −j A.7.2. Substitutionsregel x = u(t) bzw. t = v(x). u und v seien zueinander Umkehrfunktionen. Z Z f (x) dx = f (u(t))u0 (t) dt bzw. Z Z f (u(t)) dt f (x) dx = v 0 (u(t)) A.7.3. Logarithmische Integration Z 0 f (x) dx = ln |f (x)| + c f (x) Z 1 f 0 (x) · f (x) dx = · f 2 (x) + c 2 (295) (296) (297) (298) A.7.4. Integration der Umkehrfunktion u und v seien zueinander Umkehrfunktionen. Dann ist Z u(x) dx = xu(x) − F (u(x)) + c1 mit (299) Z F (x) = v(x) dx + c2 (300) A.8. Komplexe Zahlen z = a + jb = ρ(cos ϕ + j sin ϕ) arg z = ϕ + 2kπ (−π < ϕ ≤ +π ∧ k ∈ Z) (301) (302) (303) a = ρ cos ϕ (304) b = ρ sin ϕ p ρ = a2 + b2 (305) 40 (306) A. Mathematische Grundlagen a für b ≥ 0 ∧ ρ > 0 arccos ρ a ϕ = − arccos ρ für b < 0 ∧ ρ > 0 unbestimmt für ρ = 0 für a > 0 arctan ab π für a = 0 ∧ b > 0 + 2 π ϕ = −2 für a = 0 ∧ b < 0 b arctan a + π für a < 0 ∧ b ≥ 0 arctan ab − π für a < 0 ∧ b < 0 (307) (308) z = ρ · ejϕ (309) ejϕ = cos ϕ + j sin ϕ (310) ea+jb = ea · cos b + jea · sin b (311) A.8.1. Komplexe Wurzel p √ ψ + 2πk ψ + 2πk n n + j sin z = |z| · cos n n (312) mit k = 0, . . . , n − 1 und ψ = arg(z). A.9. Binomialkoeffizient n n n! = = k n−k k!(n − k)! (313) A.9.1. Reihen Für konvergente Reihen gilt ∞ X (αan + βbn ) = α n=1 ∞ X an + β n=1 ∞ X bn (314) n=1 A.10. Abschätzung mittels Union-Bound P (A ∪ B) = P (A) + P (B) − P (A ∩ B) ≤ P (A) + P (B) 1 2 Harmonische Reihe Geometrische Reihe 41 (315) A. Mathematische Grundlagen Tabelle 5: Bekannte Reihen Formel 1 2 ∞ X 1 n n=1 ∞ X divergiert qk 1 falls |q| < 1 1−q qk q k0 − q k1 +1 1−q k=0 k1 X k=k0 n X (−1)n ∞ X 1 n2 n=1 ∞ X Anmerkung 1 ln 2 π 6 1 nα konvergiert für α > 1 n m · (m + 1) 2 n2 m · (m + 1) · (2n + 1) 6 n=1 m X n=1 m X n=1 42 B. Transformationen jω σ Abbildung 5: Konvergenzbereich kausaler kontinuierlicher LTI-Systeme A.11. Bessel-Funktion erster Art A.11.1. Definition 1 Jν (η) = 2π Zπ ej(η sin x−νx) dx (316) −π x n+1 1 x n 1 ≈ · · − falls x 1 n! 2 (n + 1)! 2 (317) A.11.2. Eigenschaften • n gerade ⇒ Jn (x) = Jn (−x) = J−n (x) = J−n (−x) • n ungerade ⇒ Jn (x) = −Jn (−x) = −J−n (x) = J−n (x) B. Transformationen B.1. Laplace-Transformation B.1.1. Definition Z∞ L{x(t)} = X(s) = x(t)e−st dt (318) −∞ B.1.2. Inverse Laplace-Transformation 1 x(t) = L−1 {X(s)} = 2π σ+j∞ Z X(s)est ds σ−j∞ 43 (319) B. Transformationen Tabelle 6: Korrespondenzen der zweiseitigen Laplace-Transformation x(t) X(s) = L{x(t)} δ(t) 1 s∈C ε(t) 1 s Re{s} > 0 Kb e−at ε(t) 1 s+a Re{s} > Re{−a} −e−at ε(−t) 1 s+a Re{s} < Re{−a} tε(t) tn ε(t) te−at ε(t) tn e−at ε(t) 1 s2 Re{s} > 0 n! sn+1 Re{s} > 0 1 (s+a)2 Re{s} > Re{−a} n! (s+a)n+1 Re{s} > Re{−a} sin(ω0 t)ε(t) ω0 s2 +ω02 Re{s} > 0 cos(ω0 t)ε(t) s s2 +ω02 Re{s} > 0 e−at cos(ω0 t)ε(t) s+a (s+a)2 +ω02 Re{s} > Re{−a} e−at sin(ω0 t)ε(t) ω0 (s+a)2 +ω02 Re{s} > Re{−a} t cos(ω0 t)ε(t) s2 −ω02 (s2 +ω02 )2 Re{s} > 0 t sin(ω0 t)ε(t) 2ω0 s (s2 +ω02 )2 Re{s} > 0 44 B. Transformationen Tabelle 7: Sätze der zweiseitigen Laplace-Transformation x(t) Linearität Ax1 (t) + Bx2 (t) X(s) = L{x(t)} Kb AX1 (s) + BX2 (s) Kb Kb{X1 } Kb{X2 } ⊇ ∩ Verschiebung x(t − τ ) e−sτ X(s) unverändert Modulation e−at x(t) X(s − a) um Re{a} nach rechts verschoben tx(t) d − ds X(s) unverändert d dt x(t) sX(s) Kb ⊇ Kb{X} −∞ x(τ )dτ 1 s X(s) Kb ⊇ Kb{X} ∩ {s : Re{s} > 0} „Multiplikation mit t“, Differentiation im Frequenzbereich Differentiation im Zeitbereich Integration Achsenskalierung Rt x(at) 1 |a| X 45 s a Kb mit Faktor a skalieren B. Transformationen B.2. Fourier-Transformation B.2.1. Definition Z∞ X(jω) = F{x(t)} = x(t)e−jωt dt = L{x(t)} s=jω (320) −∞ X(jω) = |X(jω)| · ejϕ(jω) (321) B.2.2. Inverse Fourier-Transformation Z∞ 1 X(jω)ejωt dω x(t) = 2π (322) −∞ B.2.3. rect- und sinc-Funktion ( 1 für |t| ≤ rect(at) := 0 sonst 1 2a (323) (324) ( sinc(ω) := sin ω ω 1 für ν 6= 0 für ν = 0 (325) Bemerkung zur Implementierung von Systemen, die auf der rect- bzw. sinc basieren: • Der Spitzenwertfaktor ζ0 geht gegen ∞. • Das System ist schwach stationär, nicht zyklostationär. Dadurch wird eine eventuell nötige Symboltaktsynchronisation extrem schwierig. • Die horizontale Augenöffnung im Augendiagramm geht gegen Null. • Das System ist nur mit einem sehr hohen Systemgrad implementierbar und nie exakt. Die Grundlaufzeit ist sehr hoch. Tabelle 8: Korrespondenzen der Fourier-Transformation x(t) X(jω) = F{x(t)} Bemerkung δ(t) 1 DiracImpuls δ̇(t) jω 46 B. Transformationen Tabelle 8: Korrespondenzen der Fourier-Transformation x(t) δ n (t) 1 tn ε(t) tn · ε(t) X(jω) = F{x(t)} (jω)n 2πδ(ω) Gleichgröße 2πjn δ n (ω) n ∈ N πδ(ω) + n! (jω)n+1 sign(t) 2 jω 1 1+(at)2 π a 1 jω Sprungfunktion + πjn δ n (ω) n ∈ N Signumfunktion · e− |ω| a 1 t2 +a2 π −a|ω| ae t t2 +a2 −jπ · e−a|ω| · signω 1 πt Bemerkung −jsign(ω) HilbertTransformator 1−cos(ωg ) πt jsign(ω) · rect( ωωg ) bandbegr. Hilberttr. cos(ω0 t) π[δ(ω + ω0 ) + δ(ω − ω0 )] Cosinusschwingung sin(ω0 t) jπ[δ(ω + ω0 ) − δ(ω − ω0 )] Sinusschwingung 2πδ(ω − ω0 ) komplexe Exp.Schw. ejω0 t sign(cos(ω0 t)) π P∞ 1 ν=1 2ν−1 [δ(ω − (2ν − 1)ω0 ) +δ(ω + (2ν − 1)ω0 )] 47 Rechteckschwingung B. Transformationen Tabelle 8: Korrespondenzen der Fourier-Transformation x(t) P∞ k=−∞ δ(t 1 T − kT ) ⊥⊥⊥ 1 T X(jω) = F{x(t)} 2π T P∞ k=−∞ δ ⊥⊥⊥ ωT 2π ω− Bemerkung 2π T ·k DiracKamm rect(at) 1 |a| sinc ω 2a Rechteckimpuls tri(at) 1 2 a sinc ω 2a Dreieckimpuls sinc(at) π |a| rect ω 2a sincImpuls ε(t) · e−at e−a|t| e−a 2 t2 1 a+jω Einseitiger Exp.Impuls 2a a2 +ω 2 √ a>0 Zweiseitiger Exp.Impuls 2 π − ω2 4a a e Gaußimpuls B.2.4. Hinreichende Bedingung für die Existenz der Fourier-Transformierten Z∞ |x(t)|dt < ∞ (326) −∞ B.3. z-Transformation B.3.1. Definition Z {x[k]} = X(z) = ∞ X k=−∞ 48 x[k]z −k (327) B. Transformationen 1.5 f (t) −→ 1 0.5 0 −0.5 −1 −0.5 0.5 0 t a 1 −→ (a) f (t) = rect(at) 1.2 1 −→ 0.6 F (jω) a 0.8 0.4 0.2 0 −0.2 −10 −8 −6 −4 −2 0 2 4 ω · π · a −→ (b) F (jω) = 1 ω sinc( 2a ) |a| Abbildung 6: rect- und sinc-Funktion 49 6 8 10 B. Transformationen Tabelle 9: Sätze der Fourier-Transformation x(t) Lineariät Ax1 (t) + Bx2 (t) X(jω) = F{x(t)} AX1 (jω) + BX2 (jω) Verschiebung x(t − τ ) e−jωτ X(jω) Modulation ejω0 t x(t) X(j(ω − ω0 )) tx(t) − dX(jω) d(jω) dx(t) dt jωX(jω) −∞ x(τ )dτ 1 jω X(jω) Differentiation im Frequenzbereich Differentiation Zeitbereich Integration im Rt Ähnlichkeit x(at) Faltung x1 (t) ∗ x2 (t) Multiplikation x1 (t) · x2 (t) Dualität Symmetrien Parsevalsches Theorem + πX(0)δ(ω) jω 1 X a ; a ∈ R \ {0} |a| X1 (jω) · X2 (jω) 1 2π X1 (jω) ∗ X2 (jω) x1 (t) x2 (jt) x2 (jω) 2πx1 (−ω) x(−t) x∗ (t) ∗ x (−t) X(−jω) X ∗ (−jω) X ∗ (jω) R∞ 2 −∞ |x(t)| dt 50 1 2π R∞ 2 −∞ |X(jω)| dω B. Transformationen Im{z} Im{z} Re{z} (a) kausal Re{z} (b) antikausal Abbildung 7: Konvergenzbereich diskreter LTI-Systeme mit z := ejΩ (328) B.3.2. Konvergenzbereich 1. Der Konvergenzbereich ist ein Ring um den Ursprung der z-Ebene. 2. Der Konvergenzbereich enthält keine Pole. 3. Ist x[k] von endlicher Dauer, so besteht der Konvergenzbereich aus der gesamten z-Ebene außer evt. z = 0 und/oder z = ∞. 4. Bei kausalen Folgen: Liegt der Kreis |z| = r0 im Konvergenzbereich, dann auch alle endlichen Werte von z, für die |z| > r0 gilt. 5. Bei antikausalen Folgen: Liegt der Kreis |z| = r0 im Konvergenzbereich, dann auch alle Werte von z, für die 0 < |z| < r0 gilt. 6. Bei zweiseitigen Folgen: Liegt |z| = r0 im Konvergenzbereich, so ist der Konvergenzbereich ein Ring in der z-Ebene, der |z| = r0 enthält. 51 B. Transformationen Tabelle 10: Korrespondenzen der zweiseitigen z-Transformation x[k] X(z) = Z{x[k]} Kb δ[k] 1 z∈C ε[k] z z−1 |z| > 1 ak ε[k] z z−a |z| > |a| (kausal) −ak ε[−k − 1] z z−a |z| < |a| (antikausal) kε[k] z (z−1)2 |z| > 1 kak ε[k] az (z−a)2 |z| > |a| 1 k 1 a ε[k − 1] · · ak−1 ln z z−a |z| > |a| sin(Ω0 k)ε[k] z sin Ω0 z 2 −2z cos Ω0 +1 |z| > 1 cos(Ω0 k)ε[k] z(z−cos Ω0 ) z 2 −2z cos Ω0 +1 |z| > 1 B.3.3. Inverse z-Transformation x[k] = 1 · 2πj I X(z)z k−1 dz (329) C = 1 2π = X Z2π X(|z|ejΩ |z|k ejΩk dΩ (330) 0 Res X(z)z ν = X ν 1 (m − 1)! k−1 z=z∞,ν dm−1 m k−1 (z − z ) X(z)z ∞,ν dz m−1 z=z∞,ν m ist die Vielfachheit der betrachteten Singularität. 52 (331) (332) B. Transformationen Lineariät Verschiebung Modulation ax1 [k] + bx2 [k] x[k − κ] ak x[k] ⊇ ∩ aX1 (z) + bX2 (z) Kb Kb{X1 } Kb{X2 } z −κ X(z) Kb{x}; z = 0 und z → ∞ gesondert betrachten z a Kb = z z a ∈ Kb{x} X Multiplikation mit k kx[k] −z dX(z) dz Kb{x}; z = 0 gesondert betrachten Zeitumkehr x[−k] X(z −1 ) Kb = {z z −1 ∈ Kb{x}} X1 (z) · X2 (z) Kb ⊇ Kb{x1 } ∩ Kb{x2 } Faltung x1 [k] ∗ x2 [k] Multiplikation x1 [k] · x2 [k] 1 2πj H X1 (ζ)X2 z ζ 1 ζ dζ Grenzen der Konvergenzbereiche multiplizieren B.4. Zeitdiskrete Fouriertransformation (DTFT) B.4.1. DTFT Die Zeitdiskrete Fouriertransformation ist gegeben durch X(ejΩ ) = F∗ {x[k]} = ∞ X x[k]e−jΩk (333) k=−∞ Sie entspricht der zweiseitigen z-Transformation für den Fall z = ejΩ , falls z = 1 ∈ Kb. 53 B. Transformationen B.4.2. IDTFT Die inverse DTFT braucht keinen Kb. x[k] = F∗−1 Z2π 1 X(e ) = 2π jΩ X(ejΩ )ejΩk dΩ 0 Tabelle 12: Korrespondenzen der DTFT x[k] X(ejΩ ) = F∗ {x[k]} δ[k] 1 ε[k] π P∞ ε[k]ejΩ0 k π P∞ 1 n=−∞ δ(Ω − 2πn) + 1−e−jΩ n=∞ δ(Ω 1 − Ω0 − 2πn) + 1−e−j(Ω−Ω0 ) 1 ejΩ0 k cos Ω0 k ε[k] · cos Ω0 k P∞ µ=−∞ δ 2π Ω 2π −µ P∞ n=−∞ δ(Ω − Ω0 − 2πn) P π ∞ n=−∞ δ(Ω − Ω0 − 2πn) + δ(Ω + Ω0 − 2πn) π 2 P∞ n=−∞ δ(Ω − Ω0 − 2πn) + δ(Ω + Ω0 − 2πn) jΩ e −cos Ω0 + 2 cos Ω−2 cos Ω0 π 2j ε[k] · sin Ω0 k P∞ n=−∞ δ(Ω − Ω0 − 2πn) − δ(Ω + Ω0 − 2πn) sin Ω0 + 2 cos Ω−2 cos Ω0 sin Ω0 k ( 1 rect[k] = 0 für 0 ≤ k ≤ N sonst P −jπ ∞ n=−∞ δ(Ω−Ω0 −2πn)− δ(Ω + Ω0 − 2πn) e−jΩ 54 N −1 2 · sin( N2Ω ) sin( Ω 2) (334) B. Transformationen Tabelle 12: Korrespondenzen der DTFT x[k] X(ejΩ ) = F∗ {x[k]} für k > 0 1 sign[k] = 0 für k = 0 −1 für k < 0 1+e−jΩ 1−e−jΩ 1 = −j tan(Ω/2) 1 1−ae−jΩ ak ε[k] B.5. Diskrete Fourier-Transformation (DFT) B.5.1. DFT Die DFT einer Folge x[k] der Länge M ist gegeben durch X[µ] = M −1 X µk x[k] · wM = DFTM {x[k]} mit µ = 0(1)M − 1 (335) k=0 mit dem Drehfaktor 2π wM = e−j M (336) B.5.2. IDFT Die Inverse DFT einer Folge X[µ] der Länge M ist definiert x[k] = M −1 1 X −µk X[µ]wM = DFT−1 M {X[µ]} mit k = 0(1)M − 1 M (337) µ=0 B.5.3. Zyklische Faltung Eine zyklische Faltung der Länge M ist definiert als x1 [k] M x2 [k] = x2 [k] M x1 [k] ⇔ M −1 X x̃1 [k − κ] · x2 [κ] = κ=0 M −1 X x̃2 [k − κ] · x1 [κ] (338) (339) κ=0 mit x̃[k] = x[k] für k = 0(1)M − 1. B.5.4. Lineare Faltung Die minimale DFT-Länge für aliasingfreies lineares Falten beträgt M = Mx + Mh − 1. 55 B. Transformationen Tabelle 13: Sätze der DTFT Eigenschaft Linearität x[k] ax1 [k] + bx2 [k] x[k − κ] Verschiebungssatz Zeitumkehr x[−k] ejΩ0 k x[k] Modulationssatz X(ejΩ ) = F∗ {x[k]} aX1 (ejΩ ) + bX2 (ejΩ ) e−jΩκ X(ejΩ ); κ ∈ Z X(e−jΩ ) X(ej(Ω−Ω0 ) ); Ω0 ∈ R jΩ ) Differentiation kx[k] j dX(e dΩ Konjugation x∗ [k] X ∗ (e−jΩ ) Realteil Re{x[k]} xg [k] Imaginärteil Im{x[k]} xu [k] Faltungssatz x1 [k] ∗ x2 [k] Multiplikationssatz x1 [k] · x2 [k] Parsevalsches Theorem P∞ 2 k=−∞ |x[k]| 56 Xg (ejΩ ) Re{X(ejΩ )} Xu (ejΩ ) jIm{X(ejΩ )} X1 (ejΩ )X2 (ejΩ ) 1 2π R 2π = 1 jΩ 2π X1 (e ) 1 2π Rπ 0 −π Y (ejΩ )X(ej(Ω−η) )dη ~ X2 (ejΩ ) |X(ejΩ )|dΩ B. Transformationen Tabelle 14: Sätze der DFT x[k] Linearität P ai ∈ C i ai xi [k] Zyklische Verschiebung im Zeitbereich x̃[k + κ] Zyklische Verschiebung im Frequenzbereich kλ x[k] · wM Zeitumkehrung x̃[−k] = x[M − k] x∗ [k] Komplexe Konjugation DFT der zyklischen Faltung im Zeitbereich x1 [k] M x2 [k] DFT der Multiplikation im Zeitbereich x1 [k] · x2 [k] 57 X[µ] P i ai Xi [µ] −µκ X[µ] · wM X[µ + λ] X[−µ] X ∗ [−µ] X1 [µ] · X2 [µ] 1 M PM −1 κ=0 X1 [µ − κ] · X2 [κ] B. Transformationen B.6. Symmetrien im Spektrum (340) ⇐⇒ x(t)reell (341) ∗ X(jω) = X (−jω) (342) Re {X(jω)} = Re {X(−jω)} (343) Im {X(jω)} = −Im {X(−jω)} (344) |X(jω)| = |X(−jω)| (345) arg {X(jω)} = − arg {X(−jω)} x(t) = Re {xg (t)} Re {xu (t)} + + jIm {xg (t)} (346) + jIm {xu (t)} X(jω) = Re {Xg (jω)} + jIm {Xu (jω)} + jIm {Xg (jω)} + Re {Xu (jω)} (347) B.7. Hilbert-Transformation B.7.1. Definition HH (ejΩ ) = −jsign(Ω) (348) (349) hh [k] = 1 π Zπ ( sin(Ωk)dΩ = 2 πk 0 für k gerade für k ungerade (350) 0 B.7.2. Besonderheiten (∞ ) ∞ X X H ai cos(it) + bi sin(it) = ai · sin(it) − b · cos(it) i=1 (351) i=1 Die Hilbert-Transformation liefert zu einer geraden Funktion eine ungerade Funktion mit demselben Betragsspektrum (nur Phase gedreht) und umgekehrt. |X(f )| = |XH (f )|∀f 6= 0 (352) Ein Signal und seine Hilbert-Transformierte sind zueinander orthogonal Z∞ x(t) · H {x(t)}∗ dt = 0 −∞ 58 (353) B. Transformationen Tabelle 15: Korrespondenzen der Hilbert-Transformation[3]. x(t) H {x(t)} Voraussetzung cos(ω0 t) sin(ω0 t) ω0 > 0 sin(ω0 t) − cos(ω0 t) ω0 > 0 δ0 (t) sin(ωg t) ωg t s(t) · cos(ω0 t) 1 πt – 1−cos(ωg t) ωg t – s(t) · sin(ω0 t) S(jω) = 0 für |ω| ≥ ω0 Läßt sich eine Funktion x(t) in einen geraden Anteil xg (t) und einen ungeraden Anteil xu zerlegen, so gilt H {x(t)} = H {xg (t)} + H {xu (t)} (354) Achtung: Bei Signaltransformationen zur Gewinnung des ECB-Signals jH {xHF (t)} = jxHF (t) ∗ 1 πt XHF (f ) · sign(f ) (355) B.8. ECB-Transformation Anmerkung: Der Faktor √12 wird verwendet, damit HF- und ECB-Signal die gleiche Energie haben. An f0 werden keinerlei Anforderungen gestellt. B.8.1. Definition 1 s(t) = √ · (sHF (t) + jH {sHF (t)}) · e−j·2π·f0 ·t 2 1 −j2πf0 t = √ s+ HF (t) · e 2 (356) (357) (358) 1 + S(f ) = √ SHF (f + f0 ) 2 1 = √ (1 + sign(f + f0 )) · SHF (f + f0 ) 2 59 (359) (360) Literatur B.8.2. Inverse Transformation √ 2 · Res(t) · ej2πf0 t √ 2 j2πf0 t ∗ −j2πf0 t s(t) · e = + s (t) · e 2 sHF (t) = (362) (363) √ SHF (f ) = (361) 2 (S(f − f0 ) + S ∗ (−(f + f0 ))) 2 (364) B.8.3. Theorem von Grettenberg Ein reeller, physikalischer, schwach stationärer Zufallsprozeß besitzt einen äquivalenten ECB-Prozeß mit den Eigenschaften stationär, mittelwertfrei, rotationssymmetrisch (siehe 4.1.3). B.8.4. Inphasekomponente hI (t) = Re {hK (t)} (365) (366) 1 1 HI (t) = Re {HK (f ) + HK (−f )} +j Im {HK (f ) − HK (−f )} {z } |2 {z } |2 gerader Anteil (367) ungerader Anteil B.8.5. Quadraturkomponente hQ (t) = Im {hK (t)} (368) (369) 1 1 HQ (t) = Im {HK (f ) + HK (−f )} − j Re {HK (f ) − HK (−f )} 2 2 (370) Literatur [1] Furlan, Peter: Das Gelbe Rechenbuch 1. Lineare Algebra, Differentialrechnung für Ingenieure, Naturwissenschaftler und Mathematiker. Dortmund : Verlag Martina Furlan, 1995. – ISBN 3–9316–4500–2 [2] Huber, Johannes: Nachrichtenübertragung. Erlangen : Vorlesungsskript zur gleichnamigen Veranstaltung, 2006 60 Literatur [3] Kammeyer, Karl-Dirk: Nachrichtenübertragung. Stuttgart : Teubner, 2004. – ISBN 3–519–26142–1 [4] Kellermann, Walter: Digitale Signalverarbeitung. Erlangen : Vorlesungsskript zur gleichnamigen Veranstaltung, 2005 [5] Kellermann, Walter: Stochastische Prozesse. Erlangen : Vorlesungsskript zur gleichnamigen Veranstaltung, 2005 [6] Konstantin Adolfowitsch Semendjajew, Ilja Nikolajewitsch B.: Taschenbuch der Mathematik. Thun und Frankfurt am Main : Verlag Harri Deutsch, 2001. – ISBN 3–8171–2005–2 [7] Paul Mühlbauer, Friedrich B.: Mathematische Formeln und Definitionen. München : Bayerischer Schulbuchverlag, 1998. – ISBN 3–7627–3261–X [8] Rudolf Rabenstein, Bernd G.: Einführung in die Systemtheorie. Stuttgart : Teubner, 2005. – ISBN 3–5192–6194–4 61 Index Symbole Differentialoperator, siehe Ableitungsoperator Differentiation, 37 Kettenregel, 37 logarithmische, 37 parameterabhängiges Integral, 37 Produktregel, 37 Quotientenregel, 37 Divergenz, 38 Q(x), 8 ∆, 38 H {.}, 58 j, 40 ∇, 38 A Abbildung von Zufallsvariablen, 8 Ableitungsoperator Nabla, 38 Divergenz, 38 Gradient, 38 Laplace, 38 Rotation, 38 zusammengesetzte Operationen, 39 Additionstheoreme, 35 atto, 33 Autokorrelationsfunktion, 21 weißes Rauschen, 24 E ECB-Transformation, 59 Ergodizität, 17 Erwartungswert, 18 bedingter, 20 Exa, 34 F Faltung lineare, 55 zyklische, 55 femto, 33 Filter Wiener, 31 nichtkausal, 31 Funktion charakteristische, 15 Filterautokorrelations-, 23, 24 Kohärenz-, 24 Korrelations-, 21 Auto-, 16, 21, 23 Kreuz-, 16, 21, 23 KovarianzAuto-, 16, 21 Kreuz-, 16, 22 kumulantenerzeugende, 15 Log-Likelihood, 30 momentenerzeugende, 14 Q, 8 rect-, 46 sinc-, 46 B Bayes’sche Regel, 8 Bernoulli, 7 Bessel-Funktion, 43 Binomialkoeffizient n k , 41 C centi, 33 cos-, 35 Covarianz, 20 Cramer-Rao-Schranke, 31 D deci, 33 Deka, 34 Dichte Eigenschaften, 9 Rand-, 9 62 Index Leistungsdichtespektrum Auto-, 17, 22, 23 Kreuz-, 17, 23 weißes Rauschen, 24 l’Hospitalsche Regel, 37 Logarithmus Rechenregeln, 37 trigonometrische, 35, 36 von Zufallsvariablen, 8 Wahrscheinlichkeitsdichte-, 9 Funktionalmatrix, 39 G Geradengleichung allgemeine Form, 35 durch Punkt und Steigung, 35 durch zwei Punkte, 35 Parameterform, 35 Giga, 34 Gradiend, 38 M Matrix Funktional, 39 Hesse, 39 Jakobi, 39 Median, 14 Mega, 34 micro, 33 milli, 33 Mittelwert, 18 linearer, 18, 20 quadratischer, 19, 21 Moment, 18 zentrales, 18 zentrales Verbund-, 20 H Hekto, 34 I Inphasekomponente, 60 Integration logarithmische, 40 partielle, 39 Substitutionsregel, 40 Umkehrfunktion, 40 N J nano, 33 O Jakobimatrix, 39 K Optimalfilterung, 31 Orthogonalität, 7 Kettenregel, 37 Kilo, 34 Kombinatorik, 6 Komplexe Zahlen, 40 Korrelationskoeffizient, 20 Kovarianz, 20 Kreuzkorrelierte, 21, 23 Kreuzleistung, 15, 22 P Perzentil, 14 Peta, 34 pico, 33 Prädiktion, 25, 26 Intervall-, 26 Punkt-, 26 Produktregel, 37 L Q Laplace-Operator, 38 Laplaceverteilung Autokorrelation, 21 Q-Funktion, 8 Quadratische Gleichung, 35 63 Index Quadraturkomponente, 60 Quotientenregel, 37 Parameter-, 25 Bayes, 26 klassische, 26 sin-, 35 Spitzenwertfaktor, 10, 12 Stationarität schwache, 15 strenge, 15 gemeinsame, 15 Zyklo-, 17 schwache, 17 Statistik hinreichende, 27 Symmetrie Rotation, 16 R Rauschen streng weißes, 25 weißes, 24 Reihe geometrische, 42 harmonische, 42 Reihen, 41 Rotation rot, 38 Rotationssymmetrie, 16 S Schätzer Bayes, 30 effizienter, 27 erwartungstreuer, 27 Intervall normalverteilte Zufallsvariable mit bekanntem mX , 29 normalverteilte Zufallsvariable mit unbekanntem mX , 29 konsistenter, 27 MAP, 30 Maximum-Likelihood, 30 Mittelwert arithmetischer, 27 bei bekannter Varianz, 28 bei unbekannter Varianz, 28 bei unbekannter Verteilung, 28 MMSE, 29 MSE, 29 Parameter Exponentialverteilung, 28 Poissonverteilung, 29 Wahrscheinlichkeit, 29 Varianz bei bekanntem Mittelwert, 28 bei unbekanntem Mittelwert, 28 Schätzung Intervall-, 26 T Tera, 34 Transformation DFT-, 55 Diskrete Fourier-, 55 DTFT-, 53 ECB, 59 Fourier-, 46–48 zeitdiskret, 53–55 Hilbert-, 58 inverse z-, 52 Laplace-, 43 Symmetrien, 58 z-, 48–53 U Unabhängigkeit statistische, 7–8 Union-Bound, 41 Unkorreliertheit, 7 V Varianz, 19 Verbundmoment Zentrales, 20 Verteilung bedingte, 10 64 Index mehrdimensional, 8 Binomial-, 11 Cauchy-, 12 χ-, 13 χ2 -, 13 Eigenschaften, 9 Erlang-, 13 Exponential-, 14 Gamma-, 13 Γ-, 13 Gauß-, 12 geometrische, 11 Gleich-, 10 Laplace-, 13 Lognormal-, 12 Maxwell-, 14 Normal-, 12 gemeinsame, 12 Poisson-, 11 Rand-, 10 Rayleigh-, 14 W Wahrscheinlichkeit bedingte, 8 Verbund-, 8–10, 12 Weißes Rauschen, 24 Wurzel komplexe, 41 Y Yotta, 34 yotto, 33 Z Zahl komplexe, 40 Wurzel, 41 zepto, 33 Zeta, 34 Zufallsprozeß, 10, 12 Zufallsvariable Abbildung eindimensional, 8 65