Vorlesung 4 - GEOCITIES.ws

Werbung
Spektralanalyse
physiologischer Signale
Dr. rer. nat. Axel Hutt
Vorlesung 4
zum Übungsblatt
Aufgabe 1:
1
XT (f ) ⇠
i
✓
sin(⇡(f 3Hz)5s)
f 3Hz
sin(⇡(f + 3Hz)5s)
f + 3Hz
◆
Nullstellen:
T=5s:
f=2/5s, 4/5s, 6/5s,…. = 0.4Hz, 0.8Hz, 1.2Hz, ….
T=1s:
f= 2Hz, 4Hz, 8Hz, ….
T=0.33 s:
f= 6Hz, 12Hz, 18Hz, ….
Vorsicht: 1/T=fNyquist
Spektrum wird immer flacher mit fallendem T
Aufgabe 2:
Signal: T=100s, Δf=0.01
spectral leakage - Effekt: 1) z.Bsp. charakterisiert durch Nullstellen
bei Frequenzen 2∙n/100s=n∙0.02Hz
also 0.02Hz, 0.04Hz, ….
2) z.Bsp. charakterisiert durch Abfall der Amplitude mit 1/f
Aufgabe 3:
S(⌫) =
Z
1
1
C(⌧ ) =
C(0) =
C(⌧ )e
Z
Z
1
i2⇡⌫⌧
S(⌫)e
d⌧
i2⇡⌫⌧
d⌫
1
1
S(⌫)d⌫
1
2
= E[x (t)]
Z
1
= lim
T !1 T
T
x2 (t)dt
T
weiter mit Vorlesung 4
Statistische Eigenschaften von Verteilungen:
Erwartungswert
erstes Moment
(erster Kumulant)
zweites Moment
E [f (x)] =
E [x] =
⇥
E x
2
⇤
Z
=
Z
f (x)p(x)dx
D
xp(x)dx = x̄ (Mittelwert)
D
Z
2
x p(x)dx
D
zweiter Kumulant
Z
⇥
⇤
2
E (x E[x]) =
(x
D
2
E[x]) p(x)dx =
2
(Varianz)
Mehrere Zufallsvariablen:
p(x1 ; x2 ; . . . ; xN )
p(xk , . . . , xk+l ) =
|
{z
}
M Variablen
p(xk |xl )
Z Z
D
D
multivariate Wahscheinlichkeitsdichte!
mit N Variablen (joint probability density)
···
Z
p(x1 ; . . . ; xN ) dx1 · · · dxk
|
D
1
· · · dxk+l+1 · · · dxN
{z
}
N
M Terme
multivariate Wahscheinlichkeitsdichte
mit N-M Variablen: Marginalverteilung (Randverteilung)
bedingte Wahscheinlichkeitsdichte!
(conditional probability distribution)
p(x1 , x2 ) = p(x1 |x2 )p(x2 )
= p(x2 |x1 )p(x1 )
p(x1 |x2 )
p(x2 |x1 ) =
p(x2 )
p(x1 )
Bayes-Regel
Beispiel:
p(Beobachtung|M odell)
p(M odell|Beobachtung) =
p(M odell)
p(Beobachtung)
Exkurs in Stochastischen Prozesse
a) Zufallszahlen
b) Wahrscheinlichkeit
c) Wahrscheinlichkeitsdichte
d) stochastische Prozesse
e) Ergodizität und Stationarität
stochastischer Prozess:
Folge von Zufallsvariablen, die eine
zeitliche Evolution eines Systems beschreibt
Beispiel: Wiener-Prozess
ξ(t)
Zeitserie von Zufallsvariablen
0
Zeit t
10
Zufallsvariablen sind unabhängig (weisses Rauschen),
ihre Wahrscheinlichkeitsdichte ist eine Gauss-Verteilung
Wiener-Prozess:
Wk+1 = Wk + ⇠k
k 2 N0
⇠k : weisses
Gauss’sches Rauschen
W(t)
Zeit t
weisses Rauschen:
h⇠k ⇠l i = D
kl
unkorrelierte Zufallszahlen
h⇠(t)⇠(t
⌧ )i = D (⌧ )
Wiener-Khinchin Theorem:
F[h⇠(t)⇠(t
⌧ )i](f ) = P (f )
P (f ) = const
alle Frequenzen mit gleichem Beitrag
Spektren von Rauschprozessen
Üb
tt
la
sb
g
un
Leistung
he
sie
Frequenz
Beispiel einer allgemeineren Formulierung
x(t) : stochastischer Prozess
x(t) kann von x(t
⌧ ) , 0  ⌧ < 1 abhängen, also
x(tk+1 ) = f (xk , xk
1 , xk 2 , . . .)
System mit Gedächtnis
Spezialfall:
x(tk+1 ) = f (xk )
System ohne Gedächtnis
dieser stochastische Prozess heißt Markov-Prozess
Formulierung eines allgemeinen Markov-Prozesses
x(t) : stochastischer Markov-Prozess
Zeit kontinuierlich
dx(t) = f (x(t))dt + dW (t)
dW: Rauschprozess
κ: Rauschstärke
Zeit diskret
x(tk ) = f (x(tk )) t +  W (tk )
W (tk ) = W (tk+1 )
x(tk ) = x(tk+1 )
W (tk )
x(tk )
Formulierung als Langevin-Gleichung:
Zeit kontinuierlich
ẋ(t) = f (x(t)) + ⇠(t)
ξ: Rauschprozess
ohne Rauschen:
ẋ(t) = f (x(t))
Exkurs in Stochastischen Prozesse
a) Zufallszahlen
b) Wahrscheinlichkeit
c) Wahrscheinlichkeitsdichte
d) stochastische Prozesse
e) Ergodizität und Stationarität
Wie wird Wahrscheinlichkeitsdichte p berechnet ?
Beispiel:
verschiedene Lösungen von
ẋ(t) =
x(t) + 0.1⇠(t)
mit identischen Anfangsbedingungen x(0)
⇠(t) : normalverteilte Zufallszahlen mit Mittelwert=0, Varianz=1
p1(x,t): Bestimmung über die Schar von Lösungen
zu einem bestimmten Zeitpunkt t
t=0.05
t=10
σ2=0.005
t=47.5
σ2=0.05
p2(x): Erwartungswert über die Zeit in einer Lösung
σ2=0.05
σ2=0.05
Erkenntnis:
• Wahrscheinlichkeitsdichte p1(x,t) variiert über die Zeit
• Wahrscheinlichkeitsdichte p2(x) zeitunabhängig
• Wahrscheinlichkeitsdichten gleich für grosse Zeiten
p1(x,t)≈p2(x)
• Wahrscheinlichkeitsdichten verschieden für kleine Zeiten
p1(x,t)≠p2(x)
Definition: starke Stationarität:
p(x1 (tk ); . . . ; xN (tk )) = p(x1 (tk + ⌧ ); . . . ; xN (tk + ⌧ ))
⌧ 2R
Definition: Stationarität im weiteren Sinn:
E [x(t)] = µ 8t 2 R
⇥
E (x(t)
E[x])
⇤
2
=
2
(t) < 1
Cov(x(t1 ), y(t2 )) = Cov(x(t1 + ⌧ ), y(t2 + ⌧ ))
⌧ 2R
Cov(x(t1 ), y(t2 )) = E [(x(t1 )
x̄)(y(t2 )
ȳ)]
Herunterladen