Spektralanalyse physiologischer Signale Dr. rer. nat. Axel Hutt Vorlesung 4 zum Übungsblatt Aufgabe 1: 1 XT (f ) ⇠ i ✓ sin(⇡(f 3Hz)5s) f 3Hz sin(⇡(f + 3Hz)5s) f + 3Hz ◆ Nullstellen: T=5s: f=2/5s, 4/5s, 6/5s,…. = 0.4Hz, 0.8Hz, 1.2Hz, …. T=1s: f= 2Hz, 4Hz, 8Hz, …. T=0.33 s: f= 6Hz, 12Hz, 18Hz, …. Vorsicht: 1/T=fNyquist Spektrum wird immer flacher mit fallendem T Aufgabe 2: Signal: T=100s, Δf=0.01 spectral leakage - Effekt: 1) z.Bsp. charakterisiert durch Nullstellen bei Frequenzen 2∙n/100s=n∙0.02Hz also 0.02Hz, 0.04Hz, …. 2) z.Bsp. charakterisiert durch Abfall der Amplitude mit 1/f Aufgabe 3: S(⌫) = Z 1 1 C(⌧ ) = C(0) = C(⌧ )e Z Z 1 i2⇡⌫⌧ S(⌫)e d⌧ i2⇡⌫⌧ d⌫ 1 1 S(⌫)d⌫ 1 2 = E[x (t)] Z 1 = lim T !1 T T x2 (t)dt T weiter mit Vorlesung 4 Statistische Eigenschaften von Verteilungen: Erwartungswert erstes Moment (erster Kumulant) zweites Moment E [f (x)] = E [x] = ⇥ E x 2 ⇤ Z = Z f (x)p(x)dx D xp(x)dx = x̄ (Mittelwert) D Z 2 x p(x)dx D zweiter Kumulant Z ⇥ ⇤ 2 E (x E[x]) = (x D 2 E[x]) p(x)dx = 2 (Varianz) Mehrere Zufallsvariablen: p(x1 ; x2 ; . . . ; xN ) p(xk , . . . , xk+l ) = | {z } M Variablen p(xk |xl ) Z Z D D multivariate Wahscheinlichkeitsdichte! mit N Variablen (joint probability density) ··· Z p(x1 ; . . . ; xN ) dx1 · · · dxk | D 1 · · · dxk+l+1 · · · dxN {z } N M Terme multivariate Wahscheinlichkeitsdichte mit N-M Variablen: Marginalverteilung (Randverteilung) bedingte Wahscheinlichkeitsdichte! (conditional probability distribution) p(x1 , x2 ) = p(x1 |x2 )p(x2 ) = p(x2 |x1 )p(x1 ) p(x1 |x2 ) p(x2 |x1 ) = p(x2 ) p(x1 ) Bayes-Regel Beispiel: p(Beobachtung|M odell) p(M odell|Beobachtung) = p(M odell) p(Beobachtung) Exkurs in Stochastischen Prozesse a) Zufallszahlen b) Wahrscheinlichkeit c) Wahrscheinlichkeitsdichte d) stochastische Prozesse e) Ergodizität und Stationarität stochastischer Prozess: Folge von Zufallsvariablen, die eine zeitliche Evolution eines Systems beschreibt Beispiel: Wiener-Prozess ξ(t) Zeitserie von Zufallsvariablen 0 Zeit t 10 Zufallsvariablen sind unabhängig (weisses Rauschen), ihre Wahrscheinlichkeitsdichte ist eine Gauss-Verteilung Wiener-Prozess: Wk+1 = Wk + ⇠k k 2 N0 ⇠k : weisses Gauss’sches Rauschen W(t) Zeit t weisses Rauschen: h⇠k ⇠l i = D kl unkorrelierte Zufallszahlen h⇠(t)⇠(t ⌧ )i = D (⌧ ) Wiener-Khinchin Theorem: F[h⇠(t)⇠(t ⌧ )i](f ) = P (f ) P (f ) = const alle Frequenzen mit gleichem Beitrag Spektren von Rauschprozessen Üb tt la sb g un Leistung he sie Frequenz Beispiel einer allgemeineren Formulierung x(t) : stochastischer Prozess x(t) kann von x(t ⌧ ) , 0 ⌧ < 1 abhängen, also x(tk+1 ) = f (xk , xk 1 , xk 2 , . . .) System mit Gedächtnis Spezialfall: x(tk+1 ) = f (xk ) System ohne Gedächtnis dieser stochastische Prozess heißt Markov-Prozess Formulierung eines allgemeinen Markov-Prozesses x(t) : stochastischer Markov-Prozess Zeit kontinuierlich dx(t) = f (x(t))dt + dW (t) dW: Rauschprozess κ: Rauschstärke Zeit diskret x(tk ) = f (x(tk )) t + W (tk ) W (tk ) = W (tk+1 ) x(tk ) = x(tk+1 ) W (tk ) x(tk ) Formulierung als Langevin-Gleichung: Zeit kontinuierlich ẋ(t) = f (x(t)) + ⇠(t) ξ: Rauschprozess ohne Rauschen: ẋ(t) = f (x(t)) Exkurs in Stochastischen Prozesse a) Zufallszahlen b) Wahrscheinlichkeit c) Wahrscheinlichkeitsdichte d) stochastische Prozesse e) Ergodizität und Stationarität Wie wird Wahrscheinlichkeitsdichte p berechnet ? Beispiel: verschiedene Lösungen von ẋ(t) = x(t) + 0.1⇠(t) mit identischen Anfangsbedingungen x(0) ⇠(t) : normalverteilte Zufallszahlen mit Mittelwert=0, Varianz=1 p1(x,t): Bestimmung über die Schar von Lösungen zu einem bestimmten Zeitpunkt t t=0.05 t=10 σ2=0.005 t=47.5 σ2=0.05 p2(x): Erwartungswert über die Zeit in einer Lösung σ2=0.05 σ2=0.05 Erkenntnis: • Wahrscheinlichkeitsdichte p1(x,t) variiert über die Zeit • Wahrscheinlichkeitsdichte p2(x) zeitunabhängig • Wahrscheinlichkeitsdichten gleich für grosse Zeiten p1(x,t)≈p2(x) • Wahrscheinlichkeitsdichten verschieden für kleine Zeiten p1(x,t)≠p2(x) Definition: starke Stationarität: p(x1 (tk ); . . . ; xN (tk )) = p(x1 (tk + ⌧ ); . . . ; xN (tk + ⌧ )) ⌧ 2R Definition: Stationarität im weiteren Sinn: E [x(t)] = µ 8t 2 R ⇥ E (x(t) E[x]) ⇤ 2 = 2 (t) < 1 Cov(x(t1 ), y(t2 )) = Cov(x(t1 + ⌧ ), y(t2 + ⌧ )) ⌧ 2R Cov(x(t1 ), y(t2 )) = E [(x(t1 ) x̄)(y(t2 ) ȳ)]