Vorlesung 3 - GEOCITIES.ws

Werbung
Spektralanalyse
physiologischer Signale
Dr. rer. nat. Axel Hutt
Vorlesung 3
zum Übungsblatt
Aufgabe 1)
Abtastrate 10Hz (Nyquist -Frequenz 5Hz):
x1(t): 3Hz
x2(t): 2Hz und 0.5Hz
Abtastrate 6Hz (Nyquist -Frequenz 3Hz):
x1(t): Situation nicht klar, da Ergebnis von Startpunkt des Abtastens abhängt
x2(t): kein Effekt
Abtastrate fs<6Hz (Nyquist -Frequenz <3Hz):
x1(t) :
aliasing,
i.e. neue Frequenz fs/2 - 3Hz erwartet
x2(t):
aliasing, falls fs/2 < 2Hz oder fs/2 < 0.5Hz
Aufgabe 2)
ähnlich der Bilder in letzter Vorlesung
Aufgabe 3)
g(⌫) =
X
n2Z0
F[x](⌫ + nfs )
=
X
X(⌫ + nfs )
n2Z0
periodisch in fs
=
X
ck e
i2⇡k⌫/fs
k2Z0
1
ck =
fs
Z
1
=
fs
Z
fs
0
fs
0
X
X(⌫ + nfs )e
i2⇡k⌫/fs
d⌫
n2Z0
X
n2Z0
X(⌫ + nfs )e
i2⇡k⌫/fs +i2⇡knfs /fs
d⌫
Z
(n+1)fs
X
1
=
X(f )ei2⇡kf /fs df
fs
nfs
n2Z0
1
=
fs
Z
1
X(f )ei2⇡kf /fs df
1
1
= x(k/fs )
fs
1 X
g(⌫) =
s(k/fs )e
fs
i2⇡k⌫/fs
k2Z0
=
t
X
k2Z0
s(k t)e
i2⇡⌫k t
q.e.d
Vorlesung 3
allgemeiner Fall, wenn Signal nicht periodisch:
XT (f ) =
=
Z
Z
T /2
x(t)e
i2⇡f t
dt
T /2
1
1
x(t)w(t)e
i2⇡f t
dt
✓
◆ ✓
◆
T
T
w(t) = ⇥ t +
⇥
t+
2
2
Fenster-Funktion
XT (f ) =
=
XT (f ) =
Z
Z
Z
T /2
x(t)e
i2⇡f t
dt
T /2
1
x(t)w(t)e
i2⇡f t
dt
1
1
0
x̃(f )w̃(f
0
f )df
0
Faltung
1
x̃(f ) = F[x](f ) = X(f )
w̃(f ) = F[w](f )
Beweis:
X(f ) =
=
Z
=
1
dt
1
Z
=
1
✓Z
dt
1
Z
1
=
0
x(t)w(t)e
df
0
1
df
0
1
1
Z
1
Z
1
i2⇡f 0 t
00
Z
1
dt
00
00
df w̃(f )e
i2⇡f 00 t
1
0
00
df x̃(f )w̃(f )e
i2⇡(f
◆
e
i2⇡f t
f 0 f 00 )t
1
00
0
00
df x̃(f )w̃(f )
1
0
i2⇡f t
1
df x̃(f )e
1
1
Z
1
1
Z
1
0
Z
x̃(f )w̃(f
0
f )df
0
Z
|
1
e
i2⇡(f
1
= (f
{z
f 0 f 00 )t
f 0 f 00 )
dt
}
XT (f ) =
Z
1
0
x̃(f )w̃(f
1
0
0
f )df = x̃ ⇤ w̃
Faltung
f ⇤g =
Z
1
1
f (⌧ )g(t
⌧ )d⌧
✓
T
w(t) = ⇥ t +
2
w̃(f ) =
=
Z
◆
⇥
✓
T
t+
2
◆
T /2
e
i2⇡f t
dt
T /2
1 ⇣
e
i2⇡f
sin(⇡f T )
=
i⇡f
i2⇡f T /2
ei2⇡f T /2
⌘
Eigenschaften von Fensterfunktion
Spektraldarstellung:
1 sin(⇡f T )
w̃(f ) =
⇡
f
1 ⇡T cos(⇡f T )
w̃(0) = lim
=T
f !0 ⇡
1
0
w̃(f ) = 0 : sin(⇡f T ) = 0 !
0
fn
2
= n
T
0
⇡fn T
= 2⇡n
Eigenschaften von Fensterfunktion
1 sin(⇡f T )
w̃(f ) =
⇡
f
T
T=1
f10
T !1:
w̃(0) = T ! 1
2
0
fn = n ! 0
T
w̃(f ) ! 2⇡ (f )
T=1
T=10
XT (f ) =
Z
1
x̃(f 0 )w̃(f
f 0 )df 0
1
T ! 1 : XT (f ) ! x̃
spectral leakage tritt nur dann auf, wenn das Signal endlich lang ist.
x̃(f ) = (f
f0 ) : XT (f ) = w̃(f
f0 )
Illustration:
Fehler !
allgemeiner Befund: endlich langes Fenster modifiziert Fourier Transformation
und gewichtet Frequenzspektrum
spectral leakage
verschiedene Effekte : zero padding
Superposition von Oszillationen mit f=1Hz und f=0.5Hz
(Fourier_9a.m)
oder mit gleicher Datenlänge:
verschiedene Effekte : Fensterlänge
(Fourier_9b.m)
weiteres Beispiel:
1/T=0.02Hz
(Fourier_9.m)
1/T=0.0125Hz
(Fourier_9.m)
Verschiedene Fensterformen
XT (f ) =
=
Z
Z
T /2
x(t)e
i2⇡f t
dt
T /2
1
1
x(t)w(t)e
i2⇡f t
dt
aus der Praxis:
je länger das stationäre Signal, • desto ausgeprägter die spektralen Hauptkomponenten.
• desto kleiner der spektrale Leck-Effekt
• wichtig in Analyse: Bestimmung der tatsächlich vorhandenen Frequenzbeiträge • Abtastrate muss der Dynamik des Signals angepasst sein.
• neuronale Aktivität nicht stationär: Zeitfenster sollte nicht zu groß
• Dynamik enthält aber verschiedene Zeitskalen
Welche sind das ? Woher kommen sie ?
Woher kommt Nichtstationarität ?
Ausflug in die Physiologie
Frage: woher kommen verschiedene Zeitskalen ?
Wahrscheinlichkeit, dass ein Ion Energie E hat:
p(x) ⇠ e
E(x)/kT
befindet sich Ion in einem elektrischen Feld:
E(x) = qU (x)
U(x): Spannung am Ort x
q: Ladung des Ions
bei großer Anzahl von Ionen:
p(x) ⇠ n(x)
n(x) ⇠ e
qU (x)/kT
zwei Ionenwolken an unterschiedlichen Orten:
n(x1 )
=e
n(x2 )
=e
U (x1 ) U (x2 )
q
kT
q
U
kT
Zellmembran in Neuron:
Lipidschicht
•Zellmembran trennt Ionenwolken mit unterschiedlicher Dichte
•es ensteht eine elektrische Spannung zwischen dem Innerender Zelle und dem Äußeren der Zelle
• im Konzentrationsgleichgewicht ist Spannung stabil
ΔU nennt man Nernst-Potential oder reversal potential
Ionen-Kanal (ion gate)
• ion gate im Ionenkanal steuert Konzentration und Spannung
Spannung an ion gate:
U = IR
I = g(V
Er )
Er: reversal potential
g: Leifähigkeit
Einzelneuronen
Modell von Hodgkin und Huxley
Kirchhoff:
I(t)
✓
dV
Cm
+ In (t) + IL (t)
dt
In (t) = gn (V (t)
Leitfähigkeit
von Ionenkanälen
n = K, N a
4
gK ⇠ n (t)
gN a ⇠ m3 (t)h(t)
◆
=0
En )
reversal potential
2 Ionenkanäle: von K+-Ionen und Na+-Ionen
4 K+- ion gates
3 Na+- ion gates, 1 Na+- deaktivierende ion gates
n,m,h: Wahrscheinlichkeiten, dass ein gate offen, d.h. für Ionen durchlässig ist.
dx
= ↵(1
dt
x)
↵ = ↵(V ) ,
x
x=n,m,h
= (V )
gn sind spannungsabhängige Leitfähigkeiten
Vm: Membranpotential
n: Wahrscheinlichkeit, dass K+-Ionenkanal offen ist
m: Wahrscheinlichkeit, dass Na+-Ionenkanal aktiv ist
h: Wahrscheinlichkeit, dass Na+-Ionenkanal inaktiv ist
Aktivität eines Neurons:
I=0
I=-8.5
I=-10.5
II. Fourier Analyse
II.1. Grundlagen
a) Koeffizienten
b) Fourier Theorem
II.2. Mögliche Fehler in der Fourier Analyse
Aliasing
Periodizität
Spectral leakage
II.3. Berechnung von Spektren
II.3. Berechnung von Spektren
a) Definitionen
b) Periodogram+ Bartlett-Welch Methode
c) multi-taper Methode
III. Zeit-Frequenz Analyse
Definitionen
Annahme: unendlich lange zeitkontinuierliches Signal x(t):
mittlere Energie
Z
1
1
Parseval’s theorem:
Z 1
2
|x(t)| dt =
1
|X(f )|2 df
Fourier transform
Annahme: unendlich langes abgetastetes Signal x(tn):
Energie-Spektraldichte
S(fn ) =
2
t |DF T (fn )|
2
t : sampling time
Annahme: endliches zeitkontinuierliches Signal x(t) der Länge T:
average power:
power spectral density:
1
P = lim
T !1 2T
Z
T
2
T
|x| (t) dt
Sxx (f ) = lim |XT (f )|
T !1
1
XT (f ) = p
T
Z
2
T
x(t)e
0
i2⇡f t
dt
Annahme: endliches abgetastetes Signal x(tn) der Länge T:
2
t
2
power spectral density (PSD): Sxx (fn ) =
|DF T (fn )|
T
statistische Schätzung der (PSD):
t2
2
Sxx (fn ) =
h|DF T (fn )| i
T
h·i : Scharmittel
falls x(t) ein stationäres Signal ist:
falls x(t) ein stationäres Signal ist:
Sxx (f ) = F[A(t)](f )
A(t) = hx(⌧ )x(⌧ + t)i
Wiener-Khinchin theorem
Autokorrelation-Funktion
cross-spectral density:
Sxy (f ) = F[Cxy (t)](f )
Cxy (t) = hx(⌧ )y(⌧ + t)i
Kreuzkorrelation-Funktion
was ist Stationarität ?
Exkurs in Stochastischen Prozesse
Exkurs in Stochastischen Prozesse
a) Zufallszahlen
b) Wahrscheinlichkeit
c) stochastische Prozesse
d) Wahrscheinlichkeitsverteilungen
e) Ergodizität und Stationarität
Exkurs in Stochastischen Prozesse
a) Zufallszahlen
b) Wahrscheinlichkeit
c) Wahrscheinlichkeitsverteilungen
d) stochastische Prozesse
e) Ergodizität und Stationarität
Beispiel: man wirft einen idealen Würfel n-mal und
erhält n Zufallszahlen xi , i=1,..,n
{xi}={1,2,3,4,5,6}
z.Bsp. die Folge 3,4,1,5,6,6,2,….
Beispiel: man wirft eine ideale Münze n-mal und
erhält n Zufallszahlen xi , i=1,..,n
{xi}={Kopf,Zahl}
oder
{xi}={0,1}
z.Bsp. die Folge 0,1,1,1,0,1,0,0,….
Exkurs in Stochastischen Prozesse
a) Zufallszahlen
b) Wahrscheinlichkeit
c) Wahrscheinlichkeitsverteilungen
d) stochastische Prozesse
e) Ergodizität und Stationarität
Frage: wie oft tritt welche Zufallszahl auf ?
Histogramm:
H(xi ) = {#Xi |Xi , xi
x/2  Xi < xi +
x/2}
Δx: Intervall
Definition der Wahrscheinlichkeit eines Ereignisses:
H(xi )
P (xi ) =
n
Beispiel:
idealer Würfel hat 6 mögliche Augen, die
gleich wahrscheinlich sind
1
P (xi ) =
6
Wahrscheinlichkeit einer geraden Augenzahl yi ,i=1,2,3:
3
1
P (yi ) = =
6
2
Exkurs in Stochastischen Prozesse
a) Zufallszahlen
b) Wahrscheinlichkeit
c) Wahrscheinlichkeitsdichte
d) stochastische Prozesse
e) Ergodizität und Stationarität
wichtige Eigenschaft:
n
X
p(xi ) = 1
i=1
p(xi) : Wahrscheinlichkeitsdichte
falls Zufallsvariable kontinuierlich ist, z.Bsp. x 2 R
Z
p(x)x = 1
p(x): Wahrscheinlichkeitsdichte
D
P (y) =
Z
x2
p(x)dx
x1
Wahrscheinlichkeit, einen Wert y zu finden mit
x1  y < x 2
Frage: wie gross ist die Wahrscheinlichkeit, eine Zufallszahl kleiner als y zu erhalten ?
kumulative Wahrscheinlichkeitsverteilung
X H(xi )
P (X  x) =
n
i , xi x
p(x)
Beispiele von Wahrscheinlichkeitsdichten:
Gleichverteilung
Variable x
p(x)
Normalverteilung (Gaussverteilung)
p(x)
Variable x
bimodale Verteilung
Variable x
Statistische Eigenschaften von Verteilungen:
Erwartungswert
erstes Moment
(erster Kumulant)
zweites Moment
E [f (x)] =
E [x] =
⇥
E x
2
⇤
Z
=
Z
f (x)p(x)dx
D
xp(x)dx = x̄ (Mittelwert)
D
Z
2
x p(x)dx
D
zweiter Kumulant
Z
⇥
⇤
2
E (x E[x]) =
(x
D
2
E[x]) p(x)dx =
2
(Varianz)
Herunterladen