Spektralanalyse physiologischer Signale Dr. rer. nat. Axel Hutt Vorlesung 3 zum Übungsblatt Aufgabe 1) Abtastrate 10Hz (Nyquist -Frequenz 5Hz): x1(t): 3Hz x2(t): 2Hz und 0.5Hz Abtastrate 6Hz (Nyquist -Frequenz 3Hz): x1(t): Situation nicht klar, da Ergebnis von Startpunkt des Abtastens abhängt x2(t): kein Effekt Abtastrate fs<6Hz (Nyquist -Frequenz <3Hz): x1(t) : aliasing, i.e. neue Frequenz fs/2 - 3Hz erwartet x2(t): aliasing, falls fs/2 < 2Hz oder fs/2 < 0.5Hz Aufgabe 2) ähnlich der Bilder in letzter Vorlesung Aufgabe 3) g(⌫) = X n2Z0 F[x](⌫ + nfs ) = X X(⌫ + nfs ) n2Z0 periodisch in fs = X ck e i2⇡k⌫/fs k2Z0 1 ck = fs Z 1 = fs Z fs 0 fs 0 X X(⌫ + nfs )e i2⇡k⌫/fs d⌫ n2Z0 X n2Z0 X(⌫ + nfs )e i2⇡k⌫/fs +i2⇡knfs /fs d⌫ Z (n+1)fs X 1 = X(f )ei2⇡kf /fs df fs nfs n2Z0 1 = fs Z 1 X(f )ei2⇡kf /fs df 1 1 = x(k/fs ) fs 1 X g(⌫) = s(k/fs )e fs i2⇡k⌫/fs k2Z0 = t X k2Z0 s(k t)e i2⇡⌫k t q.e.d Vorlesung 3 allgemeiner Fall, wenn Signal nicht periodisch: XT (f ) = = Z Z T /2 x(t)e i2⇡f t dt T /2 1 1 x(t)w(t)e i2⇡f t dt ✓ ◆ ✓ ◆ T T w(t) = ⇥ t + ⇥ t+ 2 2 Fenster-Funktion XT (f ) = = XT (f ) = Z Z Z T /2 x(t)e i2⇡f t dt T /2 1 x(t)w(t)e i2⇡f t dt 1 1 0 x̃(f )w̃(f 0 f )df 0 Faltung 1 x̃(f ) = F[x](f ) = X(f ) w̃(f ) = F[w](f ) Beweis: X(f ) = = Z = 1 dt 1 Z = 1 ✓Z dt 1 Z 1 = 0 x(t)w(t)e df 0 1 df 0 1 1 Z 1 Z 1 i2⇡f 0 t 00 Z 1 dt 00 00 df w̃(f )e i2⇡f 00 t 1 0 00 df x̃(f )w̃(f )e i2⇡(f ◆ e i2⇡f t f 0 f 00 )t 1 00 0 00 df x̃(f )w̃(f ) 1 0 i2⇡f t 1 df x̃(f )e 1 1 Z 1 1 Z 1 0 Z x̃(f )w̃(f 0 f )df 0 Z | 1 e i2⇡(f 1 = (f {z f 0 f 00 )t f 0 f 00 ) dt } XT (f ) = Z 1 0 x̃(f )w̃(f 1 0 0 f )df = x̃ ⇤ w̃ Faltung f ⇤g = Z 1 1 f (⌧ )g(t ⌧ )d⌧ ✓ T w(t) = ⇥ t + 2 w̃(f ) = = Z ◆ ⇥ ✓ T t+ 2 ◆ T /2 e i2⇡f t dt T /2 1 ⇣ e i2⇡f sin(⇡f T ) = i⇡f i2⇡f T /2 ei2⇡f T /2 ⌘ Eigenschaften von Fensterfunktion Spektraldarstellung: 1 sin(⇡f T ) w̃(f ) = ⇡ f 1 ⇡T cos(⇡f T ) w̃(0) = lim =T f !0 ⇡ 1 0 w̃(f ) = 0 : sin(⇡f T ) = 0 ! 0 fn 2 = n T 0 ⇡fn T = 2⇡n Eigenschaften von Fensterfunktion 1 sin(⇡f T ) w̃(f ) = ⇡ f T T=1 f10 T !1: w̃(0) = T ! 1 2 0 fn = n ! 0 T w̃(f ) ! 2⇡ (f ) T=1 T=10 XT (f ) = Z 1 x̃(f 0 )w̃(f f 0 )df 0 1 T ! 1 : XT (f ) ! x̃ spectral leakage tritt nur dann auf, wenn das Signal endlich lang ist. x̃(f ) = (f f0 ) : XT (f ) = w̃(f f0 ) Illustration: Fehler ! allgemeiner Befund: endlich langes Fenster modifiziert Fourier Transformation und gewichtet Frequenzspektrum spectral leakage verschiedene Effekte : zero padding Superposition von Oszillationen mit f=1Hz und f=0.5Hz (Fourier_9a.m) oder mit gleicher Datenlänge: verschiedene Effekte : Fensterlänge (Fourier_9b.m) weiteres Beispiel: 1/T=0.02Hz (Fourier_9.m) 1/T=0.0125Hz (Fourier_9.m) Verschiedene Fensterformen XT (f ) = = Z Z T /2 x(t)e i2⇡f t dt T /2 1 1 x(t)w(t)e i2⇡f t dt aus der Praxis: je länger das stationäre Signal, • desto ausgeprägter die spektralen Hauptkomponenten. • desto kleiner der spektrale Leck-Effekt • wichtig in Analyse: Bestimmung der tatsächlich vorhandenen Frequenzbeiträge • Abtastrate muss der Dynamik des Signals angepasst sein. • neuronale Aktivität nicht stationär: Zeitfenster sollte nicht zu groß • Dynamik enthält aber verschiedene Zeitskalen Welche sind das ? Woher kommen sie ? Woher kommt Nichtstationarität ? Ausflug in die Physiologie Frage: woher kommen verschiedene Zeitskalen ? Wahrscheinlichkeit, dass ein Ion Energie E hat: p(x) ⇠ e E(x)/kT befindet sich Ion in einem elektrischen Feld: E(x) = qU (x) U(x): Spannung am Ort x q: Ladung des Ions bei großer Anzahl von Ionen: p(x) ⇠ n(x) n(x) ⇠ e qU (x)/kT zwei Ionenwolken an unterschiedlichen Orten: n(x1 ) =e n(x2 ) =e U (x1 ) U (x2 ) q kT q U kT Zellmembran in Neuron: Lipidschicht •Zellmembran trennt Ionenwolken mit unterschiedlicher Dichte •es ensteht eine elektrische Spannung zwischen dem Innerender Zelle und dem Äußeren der Zelle • im Konzentrationsgleichgewicht ist Spannung stabil ΔU nennt man Nernst-Potential oder reversal potential Ionen-Kanal (ion gate) • ion gate im Ionenkanal steuert Konzentration und Spannung Spannung an ion gate: U = IR I = g(V Er ) Er: reversal potential g: Leifähigkeit Einzelneuronen Modell von Hodgkin und Huxley Kirchhoff: I(t) ✓ dV Cm + In (t) + IL (t) dt In (t) = gn (V (t) Leitfähigkeit von Ionenkanälen n = K, N a 4 gK ⇠ n (t) gN a ⇠ m3 (t)h(t) ◆ =0 En ) reversal potential 2 Ionenkanäle: von K+-Ionen und Na+-Ionen 4 K+- ion gates 3 Na+- ion gates, 1 Na+- deaktivierende ion gates n,m,h: Wahrscheinlichkeiten, dass ein gate offen, d.h. für Ionen durchlässig ist. dx = ↵(1 dt x) ↵ = ↵(V ) , x x=n,m,h = (V ) gn sind spannungsabhängige Leitfähigkeiten Vm: Membranpotential n: Wahrscheinlichkeit, dass K+-Ionenkanal offen ist m: Wahrscheinlichkeit, dass Na+-Ionenkanal aktiv ist h: Wahrscheinlichkeit, dass Na+-Ionenkanal inaktiv ist Aktivität eines Neurons: I=0 I=-8.5 I=-10.5 II. Fourier Analyse II.1. Grundlagen a) Koeffizienten b) Fourier Theorem II.2. Mögliche Fehler in der Fourier Analyse Aliasing Periodizität Spectral leakage II.3. Berechnung von Spektren II.3. Berechnung von Spektren a) Definitionen b) Periodogram+ Bartlett-Welch Methode c) multi-taper Methode III. Zeit-Frequenz Analyse Definitionen Annahme: unendlich lange zeitkontinuierliches Signal x(t): mittlere Energie Z 1 1 Parseval’s theorem: Z 1 2 |x(t)| dt = 1 |X(f )|2 df Fourier transform Annahme: unendlich langes abgetastetes Signal x(tn): Energie-Spektraldichte S(fn ) = 2 t |DF T (fn )| 2 t : sampling time Annahme: endliches zeitkontinuierliches Signal x(t) der Länge T: average power: power spectral density: 1 P = lim T !1 2T Z T 2 T |x| (t) dt Sxx (f ) = lim |XT (f )| T !1 1 XT (f ) = p T Z 2 T x(t)e 0 i2⇡f t dt Annahme: endliches abgetastetes Signal x(tn) der Länge T: 2 t 2 power spectral density (PSD): Sxx (fn ) = |DF T (fn )| T statistische Schätzung der (PSD): t2 2 Sxx (fn ) = h|DF T (fn )| i T h·i : Scharmittel falls x(t) ein stationäres Signal ist: falls x(t) ein stationäres Signal ist: Sxx (f ) = F[A(t)](f ) A(t) = hx(⌧ )x(⌧ + t)i Wiener-Khinchin theorem Autokorrelation-Funktion cross-spectral density: Sxy (f ) = F[Cxy (t)](f ) Cxy (t) = hx(⌧ )y(⌧ + t)i Kreuzkorrelation-Funktion was ist Stationarität ? Exkurs in Stochastischen Prozesse Exkurs in Stochastischen Prozesse a) Zufallszahlen b) Wahrscheinlichkeit c) stochastische Prozesse d) Wahrscheinlichkeitsverteilungen e) Ergodizität und Stationarität Exkurs in Stochastischen Prozesse a) Zufallszahlen b) Wahrscheinlichkeit c) Wahrscheinlichkeitsverteilungen d) stochastische Prozesse e) Ergodizität und Stationarität Beispiel: man wirft einen idealen Würfel n-mal und erhält n Zufallszahlen xi , i=1,..,n {xi}={1,2,3,4,5,6} z.Bsp. die Folge 3,4,1,5,6,6,2,…. Beispiel: man wirft eine ideale Münze n-mal und erhält n Zufallszahlen xi , i=1,..,n {xi}={Kopf,Zahl} oder {xi}={0,1} z.Bsp. die Folge 0,1,1,1,0,1,0,0,…. Exkurs in Stochastischen Prozesse a) Zufallszahlen b) Wahrscheinlichkeit c) Wahrscheinlichkeitsverteilungen d) stochastische Prozesse e) Ergodizität und Stationarität Frage: wie oft tritt welche Zufallszahl auf ? Histogramm: H(xi ) = {#Xi |Xi , xi x/2 Xi < xi + x/2} Δx: Intervall Definition der Wahrscheinlichkeit eines Ereignisses: H(xi ) P (xi ) = n Beispiel: idealer Würfel hat 6 mögliche Augen, die gleich wahrscheinlich sind 1 P (xi ) = 6 Wahrscheinlichkeit einer geraden Augenzahl yi ,i=1,2,3: 3 1 P (yi ) = = 6 2 Exkurs in Stochastischen Prozesse a) Zufallszahlen b) Wahrscheinlichkeit c) Wahrscheinlichkeitsdichte d) stochastische Prozesse e) Ergodizität und Stationarität wichtige Eigenschaft: n X p(xi ) = 1 i=1 p(xi) : Wahrscheinlichkeitsdichte falls Zufallsvariable kontinuierlich ist, z.Bsp. x 2 R Z p(x)x = 1 p(x): Wahrscheinlichkeitsdichte D P (y) = Z x2 p(x)dx x1 Wahrscheinlichkeit, einen Wert y zu finden mit x1 y < x 2 Frage: wie gross ist die Wahrscheinlichkeit, eine Zufallszahl kleiner als y zu erhalten ? kumulative Wahrscheinlichkeitsverteilung X H(xi ) P (X x) = n i , xi x p(x) Beispiele von Wahrscheinlichkeitsdichten: Gleichverteilung Variable x p(x) Normalverteilung (Gaussverteilung) p(x) Variable x bimodale Verteilung Variable x Statistische Eigenschaften von Verteilungen: Erwartungswert erstes Moment (erster Kumulant) zweites Moment E [f (x)] = E [x] = ⇥ E x 2 ⇤ Z = Z f (x)p(x)dx D xp(x)dx = x̄ (Mittelwert) D Z 2 x p(x)dx D zweiter Kumulant Z ⇥ ⇤ 2 E (x E[x]) = (x D 2 E[x]) p(x)dx = 2 (Varianz)