Universität Koblenz Institut für integrierte Naturwissenschaften Abteilung Physik Signale Seminar Digitale Signalverarbeitung Dr. Merten Joost von Ralf Töppner Matrikelnr.: 201210387 Koblenz, den 10. Juni 2005 Inhaltsverzeichnis 1 Vorwort 2 2 Signale und Systeme 2 3 Elementarsignale 3 4 Dirac-Impuls 4 5 6 7 Einteilung von Signalen 6 5.1 Diskrete und kontinuierliche Signale . . . . . . . . . . . . . . . . . . . . . . . 6 5.2 Deterministische und stochastische Signale . . . . . . . . . . . . . . . . . . . . 7 5.3 Periodische, kausale, gerade und ungerade Signale . . . . . . . . . . . . . . . . 8 5.4 Reelle und komplexe Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 5.5 Energie- und Leistungssignale . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.6 Orthogonale Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . LTI-Systeme 9 10 12 6.1 Besondere Eigenschaften linearer Systeme . . . . . . . . . . . . . . . . . . . . 12 6.2 Weitere Eigenschaften von Systemen . . . . . . . . . . . . . . . . . . . . . . . 14 Zusammenfassung 14 1 1 Vorwort Im Studium der Informatik ist das Thema Signale kaum mehr vertreten. Wir gehen in der In- formatik von den Bits als atomare Einheiten aus. Alles ist aus Nullen und Einsen aufgebaut. Wenn Daten übertragen werden, werden auch nur eben diese Einsen und Nullen übertragen. Was sich physikalisch auf der Leitung bzw. in den Geräten abspielt wird weitestgehend auÿer Acht gelassen, dabei könnte die Informatik ohne die digitale Signalverarbeitung gar nicht existieren. Schlieÿlich müssen bei der Datenübertragung die Bits immer wieder in Signale umgewandelt werden. Diese Signale können sich je nach verwendetem Medium stark voneinander unterscheiden. Am anderen Ende müssen diese Signale abgetastet und analysiert werden. Für das Verständnis dieser Vorgänge ist es nötig eine allgemeine Vorstellung von Signalen zu bekommen. Diese soll hier geschaen werden. 2 Signale und Systeme Das Wort Signal ist vom lateinischen Begri signalis abgeleitet. Es bedeutet soviel wie 1 dazu bestimmt, ein Zeichen zu geben . Unter diesem Begri werden die in einem physikalischen System auftretenden Variablen, wie etwa Spannungen, Ströme, Temperaturen, Kräfte usw., zusammengefasst. In den meisten Fällen ändern sich diese Signale mit der Zeit und können daher, mathematisch betrachtet, als Funktionen der Zeit dargestellt werden. Diese wird meist mit dem Buchstaben t chung i, der i von der Zeit t abhängt durch die Glei- abgekürzt. Betrachten wir etwa den Strom durch einen Leiter ieÿt, so kann die Tatsache, dass i = f (t) oder durch i = i(t) ausgedrückt werden. Die zweite Schreibweise ist allerdings inkonsequent, da mit dem gleichen Symbol sowohl die Funktion, als auch der Funktionswert zum Zeitpunkt t bezeichnet wird. Allerdings stellt das kein Problem dar, da zu jeder Zeit erkennbar ist, ob Funktion, oder Funktionswert gemeint ist. Bei der Festlegung der Formelzeichen wird dabei meist keine Rücksicht auf die physikalische Natur der Signale genommen. Stattdessen verwendet man meist Bezeichnungen wie x(t), y(t) oder z(t). Die Verarbeitung bzw. Umwandlung (Transformation) eines Eingangssignals zu einem Ausgangssignal wird formal durch die Formel x(t) → y(t) oder umgekehrt y(t) = T {x(t)} ausgedrückt. Abbildung 1: Zeitdarstellung Abbildung 2: Darstellung als Spektrum Signale lassen sich jedoch nicht nur im Zeitbereich, sondern auch im Frequenzbereich, im sogenannten Spektrum, des Signals beschreiben. Die Kenntnis des Spektrums ist die entscheidende Voraussetzung um Probleme in der Digitalen Signalverarbeitung zu lösen. So kann z.B. eine ausreichende Abtastfrequenz nur mit Kenntnis des Spektrums ermittelt werden. In Abbildung 1 ist eine zeitliche Darstellung eines Signals, in Abbildung 2 eine Darstellung als Spektrum gezeigt. In der zeitlichen Darstellung ist zu sehen, wie sich die Amplitude des Signals mit der Zeit ändert. In der Grak eines Spektrums lässt sich ablesen, aus welchen Frequenzen ein Signal zusammengesetzt ist, und zu welchem Anteil diese am Signal beteiligt sind. Ein weiterer Begri, der oft im Zusammenhang mit Signalen verwendet wird, ist der Begri System. Ein System ist ein technisches oder physikalisches Gebilde, das ein Signal, das Eingangssignal x(t), in ein anderes Signal, das Ausgangssignal y(t), umformt. Statt Eingangs- und Ausgangssignal spricht man auch von Erregung und Reaktion. Grasch 1 http://www.wikipedia.org 2 Abbildung 3: System wird ein System durch einen Block dargestellt, in welchem die Signale gekennzeichnet werden. Die Signalrichtung wird dabei durch Pfeile ausgedrückt (siehe Abbildung 3). Kapitel 6 auf Seite 12 befasst sich noch einmal ausführlicher mit Systemen, vor allem mit sog. Systemen. 3 LTI- Elementarsignale Unter Elementarsignalen versteht man eine Klasse von Zeitfunktionen, aus denen jeder beliebige Signalverlauf zusammensetzbar ist. Elementarsignale lassen sich eindeutig durch eine Funktion x(t) beschreiben. Im Folgenden sollen einige typische Elementarsignale vorgestellt werden. • Sprungfunktion (auch Einheitssprung oder Schrittfunktion) σ(t) = 0:t<0 1:t≥0 Abbildung 4: Sprungfunktion • Rampenfunktion r(t) = t · σ(t) = 0:t<0 t:t≥0 Abbildung 5: Rampenfunktion • Rechteckfunktion 3 rect t T0 = 0 : |t| > 1 : |t| ≤ T0 2 T0 2 Abbildung 6: Rechteckfunktion • sinc- oder Spalt-Funktion sinc t T0 sin = πt T0 πt T0 Abbildung 7: sinc-Funktion Die in der Signalverarbeitung wohl wichtigste Funktion ist die Cosinusfunktion oder Cosinusschwingung: x(t) = X̂ cos(2πf0 t) X̂ gibt dabei die Amplitude oder den Scheitelwert und man die Cosinusfunktion um 2π (1) f0 die Frequenz an. Verschiebt nach rechts, so erhält man die Sinusfunktion. Multipli- ziert man nun die Sinusfunktion mit der imaginären Einheit j und addiert das Ergebnis zur Cosinusfunktion (1) so erhalten wir mithilfe der Eulerschen Formel (2) die komplexe Sinusschwingung oder komplexe Exponentialfunktion (3). x(t) ejx = cos(x) + j sin(x) (2) x(t) = X̂ cos(2πf0 t) + j X̂ sin(2πf0 t) = X̂ej2πf0 t (3) X̂ und 2πf0 (= ω) in kann man sich dabei als Drehzeiger mit der Länge vorstellen, welcher mit der Winkelgeschwindigkeit tiert. Die Frequenz f0 dem Winkel 2πf0 t(= ωt) der komplexen Ebene ro- ist dabei gleich der Anzahl der Umdrehungen pro Zeiteinheit (siehe Abbildung 8: Die komplexe Exponentialfunktion als Drehzeiger Abbildung 8). 4 Dirac-Impuls Die tol; δ -Funktion, die zu Ehren des Mathematikers Paul A. M. Dirac (* 8. August 1902 in Bris† 20. Oktober 1984 in Tallahassee)2 auch Diracfunktion genannt wird, ist im mathema- 2 http://www.calsky.com/lexikon/de 4 tischen Sinne eigentlich keine Funktion, sondern eine Distribution, d.h. eine verallgemeinerte Funktion. Das bedeutet, dass ein Funktionswert sich nicht durch Einsetzen eines Arguments ergibt, sondern durch Ausführen einer Rechenvorschrift. Es gibt mehrere Möglichkeiten, die Deltafunktion zu denieren, eine Variante lautet: δ(t) H ∞ = 0 für t 6= 0 δ(t)dt = 1 −∞ Für t = 0 ist der Funktionswert (4) unbestimmt! Die Diracfunktion kann man sich als Rechteckfunktion mit der Fläche Rechteckfunktion hat die Höhe 1 und die Breite T0 und lässt anschlieÿend T0 . 1 vorstellen. Die 1 T0 welcher Multipliziert man die Funktion mit gegen Null gehen, so entsteht ein Rechteckimpuls δ(t) unendlich hoch und unendlich dünn ist. Die Denition der Diracfunktion (4) kann so interpretiert werden, dass die Diracfunktion nur dort existiert, wo ihr Argument t verschwindet. Die Deltafunktion an der Stelle t0 kann also auch durch Gleichung (5) beschrieben werden. δ(t − t0 ) = δ(t0 − t) (5) Betrachten wir nun das Integral ∞ Z ∞ Z x(t) · δ(t − t0 )dt = x(t) · δ(t0 − t)dt =? −∞ −∞ Der Integrand ist ein Produkt, wobei einer der Faktoren (nämlich der Dirac-Impuls) auÿer bei t = t0 stets verschwindet. Der andere Faktor (nämlich x(t)) hat darum nur bei t = t0 einen Einuss auf das Produkt. Das Produkt und damit auch obiges Integral kann deshalb anders geschrieben werden: Z ∞ Z ∞ x(t) · δ(t0 − t)dt = −∞ Z ∞ x(t) · δ(t0 − t)dt = x(t0 ) · −∞ −∞ | δ(t0 − t)dt = x(t0 ) {z } 1 Damit haben wir nun die wichtigste Eigenschaft des Dirac-Impulses (Gleichung (6)). Z ∞ Z ∞ x(t) · δ(t − t0 )dt = x(t) · δ(t0 − t)dt = x(t0 ) −∞ (6) −∞ Man sagt, dass der Dirac-Impuls δ(t − t0 ) das Signal x(t) an der Stelle t = t0 abtastet. Man spricht daher von der Abtasteigenschaft [1] des Dirac-Impulses. Diese Eigenschaft wird auch 3 erhalten wir: Ausblendeigenschaft[2] genannt. Mithilfe der Fouriertransformation Z ∞ δ(t) ◦−−• −∞ δ(t) · e−jωt dt = Z ∞ −∞ δ(t) · e|−jω0 {z } dt = =1 Z ∞ δ(t)dt = 1 −∞ δ(t) ◦−−•1 Das bedeutet also, dass der Dirac-Impuls alle Frequenzen enthält. Abbildung 9: Der Dirac-Impuls 3 Siehe Vortrag Fouriertrnsformation des Seminars Digitale Signalverarbeitung 5 (7) Dargestellt wird der Dirac-Impuls, wie Abbildung 9 zeigt, mit einem Pfeil. Die neben dem Pfeil stehende Zahl gibt das Gewicht, d.h. die Fläche des Dirac-Impulses an. Mithilfe des Dirac-Impulses sind wir nun in der Lage die sogenannte Abtastfunktion oder DiracImpulsreihe zu bilden. Zu diesem Zweck addiert man zum Dirac-Impuls seine um das Vielfache von T verschobenen Duplikate (siehe Gleichung (8)). δT (t) = ∞ X δ(t − nT ) (8) −∞ Die so denierte Funktion ist in Abbildung 10 zu sehen. Neben Dirac-Impulsreihe und Ab- Abbildung 10: Abtastfunktion tastfunktion wird sie auch Dirac-Kamm genannt. 5 Einteilung von Signalen Signale lassen sich aufgrund verschiedener Eigenschaften in verschiedene Klassen einteilen. In diesem Kapitel sollen verschiedene solche, zum Teil unabhängige Einteilungen vorgenommen werden. Zunächst werden Signale in Bezug auf ihren Werte- und Denitionsbereich untersucht. 5.1 Diskrete und kontinuierliche Signale s(t), dessen Funktionswerte s nur für diskrete - meist äquidistante - Zeitpunkte tv ; v = 0, ±1, ±2, ±3, ... deniert ist, nennt man zeitdiskret. Ist der Funktionswert s hingegen für jeden Punkt t eines kontinuierlichen Zeitbereichs deniert, dann nennt man das Signal Ein Signal zeitkontinuierlich. Entsprechend nennt man das Signal wertdiskret bzw. wertkontinuierlich, in Abhängigkeit davon, ob der Wertebereich diskret oder kontinuierlich ist. Man kann also bezüglich des Werte- und Denitionsbereiches zwischen vier verschiedenen Signaltypen unterscheiden: a) zeitkontinuierliche wertkontinuierliche Signale b) zeitdiskrete wertkontinuierliche Signale c) zeitkontinuierliche wertdiskrete Signale d) zeitdiskrete und wertdiskrete Signale Signalart (a) wird auch kurz als analoge Signale bezeichnet und Signalart (d) als digitale Signale, für den Fall, dass der Wertebereich von s(t) endlich ist. Diese Signale sind für die DSV (Digitale Signalverarbeitung) natürlich die bedeutendsten. In Abbildung 11[4] ist zu jeder Signalart ein Beispielgraph abgebildet. Zu beachten ist, dass bei zeitdiskreten Funktionen der Funktionswert zwischen den diskreten Zeitpunkten dv nicht Null ist, sondern s(t) kann man sich auch undeniert (Fälle (b) und (d)). Ein reelles zeitdiskretes Signal als Folge reeller Zahlen vorstellen. Erzeugt wird solch ein Signal, indem man ein analoges Signal mit äquidistanten Abständen abtastet. Der entsprechend umgekehrte Vorgang wird Interpolation genannt. Ein zeitkontinuierliches wertdiskretes Signal erhält man durch 6 Abbildung 11: Signale in Bezug auf Wert- und Denitionsbereich Quantisierung eines analogen Signals. In diesem Fall nennt man den umgekehrten Vorgang Glättung. Während eine Interpolation unter bestimmten Bedingungen das Originalsignal fehlerfrei wiederherstellen kann, ist eine Glättung stets mit Fehlern behaftet. Dieser Fehler wird auch Quantisierungsrauschen genannt. Die Entstehung eines digitalen Signals kann man sich vorstellen, als Abtastung und Quantisierung eines analogen Signals, wobei die Reihenfolge dabei keine Rolle spielt. In der nachfolgenden Tabelle sind nocheinmal die Beziehungen zwischen den verschiedenen Signalarten dargestellt: (a) (a) (a) (d) (c) (b) 5.2 → → → → → → (b) : (c) : Abtastung Quantisierung (d) : analog-digitale-Umsetzung (ADU) (a) : digital-analog-Umsetzung (DAU) (a) : Glättung (a) : Interpolation Deterministische und stochastische Signale Deterministische Signale sind Funktionen, deren Funktionswerte durch einen mathematischen Ausdruck oder eine bekannte Regel bestimmt (determiniert) sind. Eines der bekanntesten deterministischen Signale ist die schon erwähnte Cosinusfunktion (Gleichung (1)). Abbildung 12: Beispiel für ein deterministisches und ein stochastisches Signal Ein stochastisches Signal wird durch den Zufall bestimmt und lässt sich daher nur mit statistischen Mitteln beschreiben. D.h. die Amplitude eines stochastischen Signals lässt sich zu keiner Zeit exakt vorherbestimmen. Das bedeutet aber nicht, dass sich nichts über derartige Signale sagen lässt. So sind oft z.B. Mittelwert, Varianz und Autokorrelationsfunktion eines solchen Signals bestimmbar. Abbildung 12 zeigt für beide Signalarten jeweils ein Beispiel. 7 Allein stochastische Signale, wie z.B. Sprach- oder Bildsignale, sind Träger von Informationen. Vielfach sind stochastische Signale aber auch unerwünschte Signale, bzw. Störsignale. Solche Signale sind der Grund für die Tatsache, dass jedes reale Signal streng genommen ein stochastisches Signal ist, denn jedes Signal wird von Störsignalen überlagert. In der Theorie werden diese Signale allerdings durch idealisierte, determinierte Signale ersetzt, da sich diese mathematisch leichter handhaben lassen. 5.3 Periodische, kausale, gerade und ungerade Signale Ein Signal xP (t) heiÿt periodisch mit der Periode T0 , wenn es die Bedingungen aus Gleichung (9) erfüllt. xP (t) = xP (t + T0 ) Die sog. fundamentale Periode ist der kleinste positive Wert (9) T0 welcher Gleichung (9) erfüllt. Im Allgemeinen nennt man dies kurz Periode. Bei periodischen Signalen genügt die Kenntnis der Signal-Funktion während einer einzigen Periode, um das komplette Signal zu kennen. Ein Beispiel hierfür ist die Cosinusfunktion aus Abbildung 5.2. Eine weitere wichtige Klasse von Signalen sind die kausalen Signale. Ein Signal xcs (t) nennt man kausal, wenn es auf der negativen Zeitachse Null ist. Es wird deniert durch Gleichung (10). xcs (t) = Dabei beschreibt x(t) x(t) : t ≥ 0 0:t<0 (10) ein beliebiges Signal. Das bekannteste kausale Signal ist die Schritt- funktion (oder Sprungfunktion aus Kapitel 3 auf Seite 3) u(t), die durch Gleichung (11) deniert ist (siehe Abbildung 13). u(t) = 1:t≥0 0:t<0 (11) Abbildung 13: Beispiel für ein kausales Signal Gerade und ungerade Signale sind in Gleichung (13) deniert. xo (t) = −xo (−t) xe (t) = xe (−t), (12) Ein gerades Signal ist spiegelsymmetrisch zur y-Achse, wie beispielsweise die Cosinusfunktion oder die Rechteckfunktion. Ein ungerades Signal hingegen ist punktsymmetrisch zum Ursprung. Beispiele hierfür sind die Sinusfunktion und die Sägezahnfunktion in Abbildung 14. Jedes beliebige Signal lässt sich in ein gerades und ein ungerades Teilsignal zerlegen. Dies geschieht einfach mit Gleichung (13). x(t) = x(t) x(−t) x(t) x(−t) + + − | 2 {z 2 } | 2 {z 2 } xe (t) 5.4 (13) xo (t) Reelle und komplexe Signale Die meisten Signale, sowohl in der Theorie als auch in der Praxis, sind reelle Signale und es gilt Gleichung (14). xr (t) = x(t), mit 8 x(t) reell (14) Abbildung 14: Ungerade Sägezahnfunktion Ein reelles Signal ist eine Funktion, die der unabhängigen reellen Zeitvariablen len Funktionswert xr (t) zuordnet. Mathematisch ausgedrückt: t einen reel- xr : R → R. Die Signalverarbeitung arbeitet jedoch auch mit komplexen Signalen, die durch Gleichung (15) deniert werden. xc (t) = x(t), Mathematisch ausgedrückt: xc : R → C. x(t) mit komplex (15) Das klassische Beispiel hierfür ist die komplexe Sinusschwingung (Gleichung ( 3 auf Seite 4)). Jedes komplexe Signal kann man sich aus zwei reellen Signalen zusammengesetzt vorstellen, nämlich dem Realteil ginärteil xi (t) xr (t) und dem Ima- (siehe Gleichung (16)), xc (t) = xr (t) + jxi (t) (16) wobei j die imaginäre Einheit ist. 5.5 Energie- und Leistungssignale Eine weitere Möglichkeit der Einteilung von Signalen orientiert sich an den Begrien Energie und Leistung. R= U I (17) Abbildung 15: Einfache Schaltung mit Widerstand Abbildung 15 zeigt eine einfache Schaltung mit Widerstand R. Den Zusammenhang zwischen Spannung, Strom und Widerstand, der aus dem Ohm'schen Gesetz gefolgert ist, beschreibt Gleichung (17). Die im Zeitintervall t 1 ≤ t ≤ t2 gelieferte elektrische Energie Eel berechnet sich allgemein nach Gleichung (18). Z t2 u(t) · i(t)dt Eel = (18) t1 Aus (17) und (18) folgt Gleichung (19). Eel = 1 R Z t2 u2 (t)dt = R Z t1 t2 i2 (t)dt (19) t1 Die (mathematische) Energie ist also proportional zum Integral über die quadrierte Zeitfunktion. Die Energie eines zeitkontinuierlichen Signals s(t) nicht festgelegter physikalischer Dimension ist also bestimmt durch Denition 20. Z ∞ s2 (t)dt E= −∞ 9 (20) Ein Signal heiÿt nun Energiesignal, wenn es der Gleichung (21) genügt. Z ∞ s2 (t)dt < ∞ 0<E= (21) −∞ Ein Energiesignal besitzt also ein Signal mit endlicher und nicht verschwindender Energie E. Die Energie E=0 wird oftmals auch zugelassen. Ein Beispiel für Energiesignale ist die Rechteckfunktion aus Kapitel 2 auf Seite 2 (siehe Abbildung 16). Die Energie dieses Signals Abbildung 16: Rechtecksignal mit Amplitude berechnet sich nun so: A T0 /2 Z A2 dt = A2 · T0 E= −T0 /2 Die im Intervall −θ ≤ t ≤ +θ umgesetzte mittlere elektrische Leistung berechnet sich allgemein: 1 Pel = 2θ Z θ u(t) · i(t)dt (22) −θ Daraus folgt nach Gleichung (17): Pel = 1 1 R 2θ θ Z u2 (t)dt = R −θ 1 2θ Z θ i2 (t)dt (23) −θ Überträgt man Beziehung (24) nun auf ein unendlich langes Zeitintervall, so erhalten wir die s(t) mittlere Leistung eines zeitkontinuierlichen Signals Z 1 θ→∞ 2θ nicht festgelegter Dimension durch: θ s2 (t)dt P = lim (24) −θ Mithilfe Gleichung (24) können wir Leistungssignale jetzt wie folgt denieren: 1 θ→∞ 2θ θ Z s2 (t)dt < ∞ 0 < P = lim Man kann also sagen, dass ein Leistungssignal (25) −θ s(t) in einem unendlich langen Zeitintervall eine nichtverschwindende endliche mittlere Leistung P umsetzt. Das für die DSV bedeu- tendste Leistungssignal ist die Cosinusschwingung. Allgemein lässt sich sagen, dass ein Leistungssignal kein Energiesignal ist, da für ein solches gilt: gilt: 5.6 E → ∞. Ebenso ist ein Energiesignal kein Leistungssignal, da in diesem Fall P = 0. Orthogonale Signale Zur Denition orthogonaler Signale braucht es den Begri des Skalarprodukts. Dieses ist für x(t) und y(t) wie folgt Z ∞ < x, y >= x(t)y ∗ (t)dt zwei Energiesignale (siehe Kapitel 5.5) −∞ 10 deniert: (26) Wobei y ∗ (t) y(t) das konjugiert komplexe Signal zu Skalarprodukt zweier T0 -periodischer ist. Analog dazu deniert man das Leistungssignale (siehe Kapitel 5.5) Z T0 /2 < xp , yp >T0 = xp (t) und yp (t): xp (t)yp∗ (t)dt (27) −T0 /2 Anhand des Skalarproduktes können wir nun die Orthogonalität zweier Energiesignale und y(t) respektive zweier T0 -periodischer Leistungssignale xp (t) yp (t) und x(t) denieren. Und zwar herrscht Orthogonalität genau dann, wenn ihre Skalarprodukte Null sind: < x, y >= 0, respektive < xp , yp >T0 = 0 (28) Anhand dieser Denition lässt sich nun zeigen, dass komplexe Sinusschwingungen mit verschiedenen Frequenzen orthogonal zueinander stehen[1]. ϕk (t) = ej2πkf0 t und ϕl (t) = ej2πkf0 t mit lf0 , wobei k und l ganze Zahlen sind. Für das Skalarprodukt zweier Sinusschwingungen ϕk (t) und ϕl (t) gilt: R T0 /2 Z T0 /2 −T0 /2 ej0 dt = T0 für k = l j2π(k−l)f0 t hϕk , ϕl iT0 = e dt = j2π(k−l)f0 t T0 /2 e für k 6= l −T0 /2 j2π(k−l)f0 Gegeben sind zwei komplexe Sinusschwingungen den Frequenzen komplexer kf0 und −T0 /2 T0 /2 ej2π(k−l)f0 t = j2π(k−l)f0 −T0 /2 = cos(2π(k−l)f0 T0 2 )+j sin(2π(k−l)f0 = cos(2π(k−l)f0 T0 2 )−cos(2π(k−l)f0 = 2 sin(π(k−l)f0 T0 ) 2π(k−l)f0 = 2 sin((k−l)π) 2π(k−l)f0 mit T0 2 )−cos(2π(k−l)f0 j2π(k−l)f0 T 0 2 )+j sin(2π(k−l)f0 j2π(k−l)f0 −T0 2 T0 2 )−j sin(2π(k−l)f0 )+j sin(2π(k−l)f0 −T0 2 T0 2 ) ) |k − l| ∈ N =0 Diese Eigenschaft ist von entscheidender Bedeutung bei der Herleitung der Fourier-Reihe. Mit dem Skalarprodukt lässt sich allerdings nicht nur die Orthogonalität zweier Funktionen denieren, sondern auch die Norm kxk eines Energiesignals, bzw die Norm kxp k eines periodischen Signals: kxk = √ < x, x >, respektive kxp k = p < xp , xp >T0 (29) In Anlehnung an die Vektorrechnung kann man unter der Norm auch die Länge eines Signals verstehen. So können wir mithilfe Gleichung (20) für die Energie E eines Energiesignals schreiben: E = kxk2 =< x, x > Für die Energie E eines T0 -periodischen (30) Signals während der Periode T0 können wir analog schreiben: E = kxp k2 =< xp , xp >T0 Woraus sich für die mittlere Leistung P = P des T0 -periodischen (31) Signals ergibt: 1 1 kxp k2 = < xp , xp >T0 T0 T0 (32) 1 R multipliziert werden (je nachdem, ob das Signal einen Strom oder eine Spannung darstellt), wobei Wie schon in Kapitel 5.5 auf Seite 9 gesehen, muss das Ergebnis noch mit R R oder den Widerstand darstellt, um physikalisch sinnvolle Ergebnisse zu erhalten. 11 6 LTI-Systeme Eine besondere Klasse von Systemen bilden diejenigen, deren Verhalten von den Eingangssignalen unabhängig ist. Solche Signale heiÿen linear. Es gilt: c1 x1 (t) + c2 x2 (t) linearesSystem c1 y1 (t) + c2 y2 (t) −−−−−−−−−−−→ für beliebige Konstanten • c1 , c2 . (33) Darin enthalten sind zwei unabhängige Eigenschaften: Die Homogenität c · x(t) → c · y(t) (34) Ein System heiÿt also homogen, wenn eine Änderung der Amplitude des Eingangssignals, eine identische Änderung der Amplitude im Ausgangssignal bewirkt. Für diskrete Signale schreibt man auch: c · x[n] → c · y[n]. Ein Widerstand ist ein einfaches Beispiel, sowohl für ein homogenes als auch für ein nichthomogenes System. Nehmen wir an, das Eingangssignal des Systems sei die Spannung v(t), die am Widerstand abfällt, und die Ausgabe des Systems sei der Strom i(t) durch den Widerstand. Nach dem Ohm'schen Gesetz in der Elektrotechnik, welches sagt, dass der Spannungsabfall U über einem metallischen Leiter bei konstanter Tem- peratur proportional zu dem hindurchieÿenden elekrischen Strom mit der Stromstärke I ist (U ∼ I ), gilt, dass eine Erhöhung oder Senkung der Spannung eine vom Faktor äquivalente Erhöhung oder Senkung der Stromstärke bewirkt. Dieses System ist also homogen. Nehmen wir nun an, das Eingangssignal sei wieder die Spannung das Ausgangsignal sei nicht mehr der Strom am Widerstand abfallende Leistung p(t). i(t) v(t) am Widerstand, durch den Widerstand, sondern die Da Leistung proportional zum Quadrat der Spannung ist, steigt bei einer Verdopplung der Spannung die Leistung am Transistor um den Faktor vier. Dieses System ist also nicht homogen und damit auch nicht linear. • Die Additivität x1 (t) + x2 (t) → y1 (t) + y2 (t) (35) Ein System heiÿt also Additiv, wenn es von addierten Signalen durchquert wird, ohne dass diese interagieren. Handelt es sich wieder um diskrete Signale, so können wir schreiben: Wenn gilt y1 [n] → x1 [n] und y2 [n] → x2 [n] dann gilt auch y1 [n] + y2 [n] → x1 [n] + x2 [n]. Als Beispiel kann man sich ein Telefon vorstellen: Wenn man mit einer Person telefoniert und im Hintergrund spricht noch eine andere Person, so kann man am anderen Ende die beiden Personen klar voneinander unterscheiden. Die Daten interagieren also nicht. Dieses Beispielsystem ist also additiv. Ein System, welches sowohl die Homogenität, als auch die Additivität erfüllt heiÿt linear. Angenommen, ein System y(t) = V · x(t) mit einer beliebigen Verstärkung V sei linear. Die Linearität gilt auch noch dann, wenn sich die Verstärkung zeitlich ändert. y(t) = V (t) · x(t) mit z.B. V (t) = sin(t) So ein System nennt man zeitvariant. Ändert sich die Systemeigenschaft zeitlich nicht, so heiÿt das System zeitinvariant: x(t − τ ) linearesSystem y(t − τ ) −−−−−−−−−−−→ (36) Linearität und Zeitinvarianz sind völlig unabhängige Eigenschaften. Erfüllt ein System diese beiden Eigenschaften, nennt man es ein LTI-System (Linear TimeInvariant). Solche Systeme sind besonders einfach zu handhaben. 6.1 Besondere Eigenschaften linearer Systeme Eine besondere Eigenschaft linearer Systeme ist die Kommutativität. Dies betrit das Zusammenspiel zweier oder mehrerer Systeme. Nehmen wir an, zwei Systeme sind in Reihe 12 Abbildung 17: Reihenschaltung zweier Systeme geschaltet (Siehe Abbildung 17). Das Ausgangssignal des einen Systems (A) ist dann das Eingangssignal des anderen Systems (B). Ist jedes dieser Signale linear, so ist auch die Kombination dieser beiden Systeme linear. Die Kommutativität bedeutet, dass die Reihenfolge der Systeme im Gesamtsystem keine Rolle für das Gesamtsystem spielt. Im Beispiel könnte also auch System B vor Signal A stehen. Angenommen ein System besteht aus zwei Teilen, einer für die Verstärkung eines Signales, der andere für Filterung. Sind beide Einzelsysteme linear, so muss man sich nicht überlegen in welcher Reihenfolge die beiden Teile geschaltet werden sollen. Da es in der Elektrik aber nichtlineare Eekte wie Interferenz oder interne Störsignale gibt, lässt sich das nicht für die Realität verallgemeinern. Abbildung 18: System mit mehreren Ein- und Ausgängen Gehen wir nun einen Schritt weiter und betrachten Systeme mit mehreren Ein- und Ausgängen (Siehe Abbildung 18). Solch ein System ist genau dann linear, wenn es eine Komposition aus linearen Subsystemen ist. Die Addition von Signalen ändert dabei nichts an der Linearität. Die Komplexität des Systems spielt keine Rolle. Wichtig ist nur, dass es keine nichtlinearen Einüsse im System gibt. Um die Linearität eines Systems mit mehreren Ein- bzw Ausgängen zu verstehen betrachten wir nun ein solches System. Wir legen auf einen der Eingänge ein Signal, während die anderen Eingänge auf Masse gezogen werden. Nun erhalten wir auf den Ausgängen verschiedene Muster von Signalen. Als nächstes wiederholen wir den Vorgang mit einem anderen Signal und einem anderen Eingang. D.h. wir legen diesmal ein Signal an einen anderen Eingang an, während alle anderen wieder auf Masse gezogen werden. Das hat nun andere Ausgangssignale zur Folge. Als letztes legen wir beide Signale gleichzeitig an den jeweiligen Eingängen an. Die Signale, die nun an den Ausgängen erscheinen sind einfach jeweils die Summe der beiden vorigen Ausgangssignale. Eine weitere wichtige Frage bei linearen Systemen ist, ob die Multiplikation in linearen Systemen erlaubt ist. Tatsächlich hängt dies davon ab, mit was ein Signal multipliziert wird. Wird es mit einer Konstanten multipliziert, so ist das System linear. Dies kommt einer Verstärkung oder einer Dämpfung gleich. Die Multiplikation mit nichtkonstanten Signalen 13 hingegen ist nichtlinear. 6.2 Weitere Eigenschaften von Systemen Im Folgenden sollen noch drei allgemeine Typen von Systemen erklärt werden: • Kausale und deterministische Signale Ein kausales System reagiert erst dann mit einem Ausgangssignal, wenn ein Eingangssignal anliegt. Die Stoÿantwort eines kausalen Systems verschwindet für t < 0. Technisch realisierbare Systeme sind stets kausal. Die Kausalität ist eine Eigenschaft von zeitabhängigen Signalen. Ein deterministisches System reagiert bei gleicher Anfangsbedingung und gleicher Anregung stets mit demselben Ausgangssignal. Im Gegensatz dazu stehen die stochastischen Systeme. Wir haben festgestellt, dass stochastische Signale häuger vorkommen als deterministische. Bei Systemen ist dies genau umgekehrt. Ein Beispiel für ein stochastisches Signal sind Zufallsgeneratoren. • Dynamische Systeme Ein System heiÿt dynamisch, wenn sein Ausgangssignal auch von vergangenen Werten des Eingangssignales abhängt. Das System muss somit mindestens ein Speicherelement enthalten. Bei gedächtnislosen (statischen) Systemen hängt das Ausgangssignal nur vom momentanen Wert des Eingangssignales ab. • Stabilität Beschränkte Eingangssignale ergeben bei stabilen Systemen stets auch beschränkte Ausgangssignale (BIBO-stabil = bounded input - bounded output): | x(t) |≤ A < ∞ ⇒| y(t) |≤ B < ∞; A, B ≥ 0 7 (37) Zusammenfassung In diesem Dokument sollte ein kurzer Überblick über den Grundbegri Signale gegeben werden. Es sollte ein Grundverständnis des Themas geschaen werden, mit dem der Einstieg in die Digitale Signalverarbeitung erleichtert werden sollte. Zu diesem Zweck wurden erst die Begrie Signal und System erklärt, dann wurden einige Elementarsignale vorgestellt und dann mithilfe des Rechtecksignals der Dirac-Impuls (oder Diracstoÿ) eingeführt und mit ihm die Abtastfunktion bzw. der Dirackamm. Im folgenden Kapitel wurden einige Einteilungen von Signalen vorgenommen, z.B. in Energie- und Leistungssignale. Das letzte Kapitel handelt von Systemen und da speziell von linearen Systemen, welche eine entscheidende Rolle in der digitalen Signalverarbeitung spielen. Mit diesem Wissen sollte nun der Einstieg in die DSV geschat sein und weiterführende Themen wie die Fourier-Transformation angegangen werden können. 14 Literatur [1] Daniel Ch. von Grüningen, Digitale Signalverarbeitung, 2. Auage, Fachbuchverlag Leipzig [2] Martin Meyer: Grundlagen der Informationstechnik - Signale Systeme und Filter, 1. Auage, Vieweg-Verlag [3] M. versity Huemer: of Vorlesung Applied Signal- Sciences und of hagenberg.at/sta/wbackfri/Teaching/BSV/ Upper Biosignalverarbeitung, Uni- http://webster.fh- Austria [4] Prof. Dr.-Ing. R. Urbansky: Vorlesung Grundlagen der Informationsübertragung, Technische Universität Kaiserslautern [5] Steven cessing W. Smith: Second The Edition, http://www.dspguide.com http://nt.eit.uni-kl.de/lehre/guet/ Scientist and California Engineer's Technical 15 Guide Publishing, to Digital San Signal Diego, Pro- California