Fachhochschule Augsburg Fachbereich Elektrotechnik Mathematik II x(n') X1(k) 1 0 -1 1 0 1 -1 0 0 1 1-j 1 1 -j -1 -1 1-j+0,7(1-j) 0 0 -j -1 -1 1 1 0 Prof. Dr. C. Clemen SS 99 1+j+0,7(-1-j) 1+j 0 1 -j 0 1 0 -1 3 2 1 0 X3(k) 1 1 -1 X2(k) 0,7(1-j) -j 0,7(-1-j) -1 -1 -1 -1 1 1-j-0,7(1-j) j 1+j-0,7(-1-j) Inhaltsverzeichnis 1 Statistik für Meßtechnik und Nachrichtentechnik.........................................1 1.1 Versuchsausgänge im Zufallsexperiment .................................................................................... 1 1.2 Relative Häufigkeit und Wahrscheinlichkeit ............................................................................... 2 1.3 Bedingte Wahrscheinlichkeit und abhängige Ereignisse.............................................................. 3 1.4 Diskrete Zufallsvariable .............................................................................................................. 5 1.5 Kontinuierliche Zufallsvariable und Zufallsdichtefunktion.......................................................... 7 1.6 Variablentransformation ............................................................................................................. 9 1.7 Erwartungswerte....................................................................................................................... 10 1.8 Korrelation ............................................................................................................................... 12 1.9 Kombinatorik ........................................................................................................................... 14 1.10 Verteilungsfunktionen........................................................................................................ 15 1.10.1 1.10.2 1.10.3 1.11 Die Binominalverteilung ............................................................................................. 15 Poissonverteilung ........................................................................................................ 16 Gaußverteilung ........................................................................................................... 16 Zufallssignal ...................................................................................................................... 18 1.11.1 1.11.2 1.11.3 1.11.4 1.11.5 Stationäres stochastisches Signal, stationärer Prozeß:.................................................. 19 Stationäres stochastisches Signal bei ergodischem Prozeß: .......................................... 19 Physikalische Bedeutung............................................................................................. 20 Autokorrelationsfunktion ............................................................................................ 21 Beispiele: .................................................................................................................... 23 2 Transformationen für Spektralanalyse ........................................................30 2.1 Grundbegriffe ........................................................................................................................... 30 2.1.1 Arten von Signalen : ....................................................................................................... 30 2.1.2 Komplexe Darstellung von Schwingungen ...................................................................... 30 2.1.3 Praktische Bedeutung der Signalanalyse.......................................................................... 33 2.2 Fourierreihe.............................................................................................................................. 36 2.3 Fouriertransformation............................................................................................................... 39 2.4 Umsetzung zeitkontinuierlicher Signale in zeitdiskrete Signale und umgekehrt ........................ 43 2.5 Diskrete Signale: Beschreibung im Frequenzbereich................................................................. 45 2.6 Die diskrete Fouriertransformation (DFT)................................................................................. 46 2.7 Systemtheorie: Übertragungsfunktion, Faltung.......................................................................... 54 2.8 Die schnelle Fouriertransformation (FFT)................................................................................. 56 3 Numerische Integration gewöhnlicher Differentialgleichungen ................68 3.1 Numerische Differentiation ..................................................................................................... 69 3.2 Numerische Integration........................................................................................................... 72 3.2.1 Sehnen Trapez- Verfahren:.............................................................................................. 73 3.2.2 Integrationsformel nach Simpson: ................................................................................... 75 3.3 Numerische Lösung von gewöhnlichen Differentialgleichungen erster Ordnung ..................... 77 3.3.1 Die Methoden von Euler , Heun und Runge-Kutta .......................................................... 78 3.3.2 Diskretisationsfehler, Fehlerordnung, Schrittweitensteuerung.......................................... 84 3.4 Differentialgleichungen höherer Ordnung und Systeme........................................................... 86 3.5 Beispiele ................................................................................................................................. 87 3.5.1 RC-Glied ......................................................................................................................... 87 3.5.2 Nichtlineare Differentialgleichung erster Ordnung .......................................................... 91 3.5.3 3.5.4 3.5.5 3.5.6 LC-Schwingkreis............................................................................................................. 93 LC-Hochpaßfilter 3. Ordnung .......................................................................................... 96 Mondlandung .................................................................................................................. 99 Füchse und Hasen.......................................................................................................... 101 Literaturverzeichnis ........................................................................................103 Mathematik II 1.1 Versuchsausgänge im Zufallsexperiment Dr. C. Clemen SS 99 1 Statistik für Meßtechnik und Nachrichtentechnik Statistik befaßt sich mit Zufallsprozessen. Bsp.: Ausgang beim Würfeln Ausfälle bei Produktion von technischen Geräten, Elektronikbauteilen Streuung von Messwerten (Länge, Spannung...) Rauschspannung Nachrichtensignal In allen Fällen besteht die Ursache für den nicht deterministischen Charakter der Ereignisse in einer unvollständigen (oder grundsätzlich nicht vollständig erreichbaren) Kenntnis über ihr Zustandekommen. Bei den ersten drei Beispielen wäre bei hinreichender Kenntnis von Parametern (Bahnparameter, Prozeßdaten, Herstellungsgeschichte) zwar theoretisch genaue Kenntnis über das Ereignis zu erlangen, praktisch ist dies aber nicht sinnvoll oder möglich. Bei den letzten beiden Beisp. liegt der Grund für den Zufallscharakter naturgemäß in einer nicht ausreichenden Kenntnis über die Quelle. 1.1 Versuchsausgänge im Zufallsexperiment Zufallsexperiment werde unter gleichen Bedingungen mehrfach wiederholt , mögliche Versuchsausgänge seien ω1, ω2, ω3, ω4,... Menge aller möglichen Versuchsausgänge Ω = {ω1, ω2, ω3, ω4,... } endliche Anzahl Wird auch als Wahrscheinlichkeitsraum bezeichnet. Ereignis = Menge von Versuchsausgängen mit bestimmten Eigenschaften = Teilmenge von Ω Beispiel: Würfel, 1 Wurf : Versuchsausgänge werden durch Punktzahl gekennzeichnetà 6 mögliche Versuchsausgänge Ω = {ω1, ω2, ω3, ω4, ω5, ω6 } Ereignisse: A1 = {ω6} „6“, A2 = {ω1, ω3, ω5} „ungerade Punktzahl“ A3 = {ω1, ω2 } „1 oder 2 “ A2C = Komplement von A2 = {ω2, ω4, ω6} „gerade Punktzahl“ A1∪A2 = {ω1, ω3, ω5, , ω6} „nicht 2 und 4“ A1∪A1C = Ω, „irgendeine Zahl, trifft immer ein“ A2∩A3 = {ω1} „1“ Seite 1 Mathematik II 1.2 Relative Häufigkeit und Wahrscheinlichkeit A2∩A1 = { } = ∅ Dr. C. Clemen SS 99 „trifft nie ein“ A2 A3 Ω 1 5 4 1 1.2 Relative Häufigkeit und Wahrscheinlichkeit Sei A Ergebnis eines Zufallsexperiments, von dem wir N unabhängige Wiederholungen ausführen , dabei tauche das Ergebnis A gerade N(A) mal auf. relative Häufigkeit von A bei endlicher Stichprobe h N ( A) = (1.2-1) N ( A) N relative Häufigkeit von A N ( A) N →∞ N h ( A) = lim (1.2-2) Wir ordnen A die Wahrscheinlichkeit P(A) = h(A) zu . Man nennt die Zuordnung A ---> P(A) ein für die Ereignisse von Ω definiertes Wahrscheinlichkeitsmaß. Eigenschaften des Wahrscheinlichkeitsmaßes: 0 ≤ P( A) ≤ 1 P ( Ω) = 1 P( A1 ∪ A2 ∪....) = P( A1 ) + P( A2 ) +... falls Ai und A j (1.2-3) falls Ai ∩ A j = ∅ für i ≠ j , d . h. disjunkt / statistisch unabhä ngig / sich paarweise ausschließen Beispiel 1) Würfel , 1 Wurf P({ωi})=1/6 für i = 1,..,6, P(A2)= P({ω1})+ P({ω3 })+P({ω5})=3/6 =1/2 . P(A2C) =1- P(A2) = 1-1/2 = ½ ; P(A3)=2/6 Seite 2 Mathematik II 1.3 Bedingte Wahrscheinlichkeit und abhängige Ereignisse SS 99 Dr. C. Clemen Beispiel 2) Zufallsexp. : mit 2 Würfeln gleichzeitig würfeln, oder mit 1 Würfel 2x hintereinander würfeln: A= {„Gesamtpunktzahl = 7“}. Es gibt insgesamt 36 mögliche Versuchsausgänge, von denen 6 das Ereignis A darstellen. -> P(A) = 6/36 =1/6 . 11 12 13 14 15 16 21 22 23 24 25 26 31 31 33 34 35 36 41 42 43 44 45 46 51 52 53 54 55 56 61 62 63 64 65 66 Beispiel 3) 4 mal hintereinander eine Münze werfen. P = Wahrscheinlichkeit dafür, daß dabei 2 mal Bild vorkommt. ( Bild-->0, Zahl---> 1) 0000 0001 0010 0011 0100 0101 0110 0111 1.3 1000 1001 1010 1011 1100 1101 1110 1111 insgesamt 16 mögliche Versuchsausgänge, davon 6 mal mit Eigenschaft „2 mal Bild“. ---> P= 6/16 = 1/6 Allg. : Münze wird n mal geworfen, Wahrscheinlichkeit dafür, daß dabei k-mal Bild auftritt berechnet sich nach der Formel P= n k 2n = n! k !(n − k )! 2n n(n − 1).. (n − (k + 1)) k! = 2n Bedingte Wahrscheinlichkeit und abhängige Ereignisse Bsp.: Kartenspiel mit 52 Karten. Werden aus diesem Kartenspiel hintereinander zwei Karten (ohne Zurücklegen) gezogen, so hängt die Wahrscheinlichkeit für das Eintreffen eines bestimmten Ergebnisses B beim zweiten Zug vom Ergebnis A beim ersten Zug ab. Diese Wahrscheinlichkeit nennt man bedingte Wahrscheinlichkeit : Allgemein P(B|A)= Wahrscheinlichkeit für das Eintreffen von B unter der Voraussetzung, daß das Ereignis A eingetroffen ist. Die bedingte Wahrscheinlichkeit hängt mit der Wahrscheinlichkeit für das gemeinsame Auftreten von A und B wie folgt zusammen: Das Zufallsexperiment werden N mal ausgeführt. Dabei trete N1 mal das Ereignis A auf und unter diesen N1 Fällen seien N2 mal die Fälle, bei denen das Ereignis B auftritt. Seite 3 Mathematik II 1.3 Bedingte Wahrscheinlichkeit und abhängige Ereignisse SS 99 P( A ∩ B) = lim N →∞ Dr. C. Clemen N 2 ( B) N ( A) N 2 ( B) N ( A) N 2 ( B) = lim 1 = lim 1 = P( A) ⋅ P( B | A) lim N N N 1 ( A) N →∞ N N1 →∞ N 1 N →∞ P( A ∩ B) P ( A) P( A ∩ B) P ( A| B ) = P (B ) P ( B | A) = A A∩B B Beispiel von oben: Kartenspiel mit 52 Karten enthält 2 rote Asse. A sei das Ergebnis, daß beim ersten Zug ein rotes Ass gezogen wird und B sei die Wahrscheinlichkeit dafür, daß beim zweiten Zug ohne Zurücklegen der ersten Karte ein rotes Ass gezogen wird. P(A) = 2/52 ; P(B|A)= 1/51 . Damit ist die Wahrscheinlichkeit bei zweimaligem Ziehen (ohne Zurücklegen) zwei rote Asse zu ziehen P(A∩B)= P(A)P(B|A)= (2/52)(1/51) Allgemein: Zwei Ereignisse A und B sind statistisch unabhängig, wenn die Wahrscheinlichkeit für das Auftreten von B unabhängig von der Wahrscheinlichkeit für das Auftreten von A ist. Also P( B | A) = P( B) ⇒ P( A | B) = P( A) P ( A ∩ B ) = P ( A) P (B ) falls A ∩ B = ∅ also A und B statistisch unabhä ngig sind Seite 4 (1.3-1) Mathematik II 1.4 Diskrete Zufallsvariable 1.4 Dr. C. Clemen SS 99 Diskrete Zufallsvariable Ω ω1 ω5 x1 x2 P(xi) x3 Zur besseren Handhabung werden die Zustände im Wahrscheinlichkeitsraum durch reelle Zahlen gekennzeichnet. Diesen Zuständen werden aufgrund ihrer relativen Häufigkeit X(ωi) Wahrscheinlichkeiten zugeordnet. ---> Wahrscheinlichkeitsdichte der diskreten Zufallsvariable P(xi) Durch Verfeinerung der Abstände zwischen den Zuständen und gleichzeitiger Erhöhung der Zahl der Zustände gelangt man zu einer xi kontinuierlichen Zufallsvariable und ihrer Wahrscheinlichkeitsdichte p(x) (Verteilungsfunktion). Allgemein: kumulative Wahrscheinlichkeitsverteilung (Verteilungsfunktion) F(xk)=P(X ≤ xk).= Wahrscheinlichkeit dafür, daß die Variable X einen Wert X ≤ xk annimmt. Beispiel 1: Münze 4 mal hintereinander werfen: Es gibt 16 verschiedene Versuchsausgänge. Definiert man als Ereignis das Auftreten eines Kopfes, so gibt es 5 verschiedene Ereignisse, nämlich „kein Kopf“, „1x Kopf“, „2x Kopf“, „3x Kopf“, „4x Kopf“. Diesen Ereignissen ordnen wir die ganzen Zahlen 0, 1,2,3,4 zu und definieren die Zufallsvariable X mit den Werten xk = k für k = 0,... 4 . Für das Auftreten eines Wertes dieser Zufallsvariable definieren wir die diskreten Wahrscheinlichkeiten 4 4! k k !( 4 − k )! 3 P( x k ) = = = 16 2 k !( 4 − k )! 24 P( 0) = P( 4) = 1 / 16 P(1) = P( 3) = 4 / 16 P(2) = 6 / 16 Man erkennt, daß 4 ∑ P( x k ) = 1 k =0 Graphische Darstellung von P(xk) und F(xk) siehe nächste Seite: Seite 5 Mathematik II 1.4 Diskrete Zufallsvariable Dr. C. Clemen SS 99 P(xk) 1 F(xk)= P(X<=xk) 0,5 0,5 0 0 0 1 2 3 4 xk 0 1 2 3 4 xk Beispiel 2: digitale Übertragungsstrecke Empfänger Sender Störungen Gegeben sei ein binärer Übertragungskanal. Die Wahrscheinlichkeit dafür , daß ein empfangenes Bit falsch ist sei PF = 2/5 (Für Einsen und Nullen gleich groß). Zur Erhöhung der Übertragungssicherheit werde jedes Bit drei mal hintereinander gesendet. 0--->000 1--->111 Man kann das auch so ausdrücken: Zu jedem Informationsbit werden zusätzlich zwei Fehlersicherungsbits übertragen, wobei deren Werte gleich dem Wert des Informationsbits gewählt werden. Wie groß ist die Fehlerwahrscheinlichkeit für die Informationsbits? Lösung: X= Zahl der Fehler pro übertragenem Informationsbit ---> disktrete Zufallsvariable mit Werten xi =0, 1, 2, 3. richtige Übertragung eines Bits ---> Ereignis R, Fehler bei Übertragung ---> Ereignis F P(F)=2/5, P(R) = P(FC) = 1 - P(F) = 3/5. Der Zustandsraum hat 2x2x2 = 8 mögliche Zustände. X = 0: P(RRR) = P(R)P(R)P(R) =(3/5)3 = 27/125 X = 1: P(RRF) = P(R)P(R)P(R) =(3/5)2((2/5) = 18/125 X = 2: P(RFF) = P(R)P(R)P(R) =(3/5)(2/5)2 = 12/125 X = 3: P(FFF) = P(R)P(R)P(R) =(2/5)3 = 8/125 Für X=1 und X=2 gibt es jeweils 3 verschiedene Möglichkeiten der Anordnung des Fehlers bzw. des richtig übertragenen Bits, so daß sich die Wahrscheinlichkeiten sowie die kumulative Wahrscheinlichkeit wie folgt ergeben xi P(xi)⋅125 F(xi)⋅125 ------------------------------------0 27 27 1 54 81 2 36 117 3 8 125 Seite 6 Mathematik II 1.5 Kontinuierliche Zufallsvariable und Zufallsdichtefunktion SS 99 1.5 Dr. C. Clemen Kontinuierliche Zufallsvariable und Zufallsdichtefunktion Bei einer kontinuierlichen Zufallsvariable X kann x jeden Wert innerhalb eines Intervalls annehmen. Beispiele: 1) Körpergröße, Gewicht und Körpertemperatur von Patienten , die bei einem Arzt in der Praxis auftauchen. 2) Temperatur am Königsplatz 3) Drehscheibe: Endwinkel, der sich nach Rotation beim Anhalten ergibt. Man erkennt, daß daraus abgeleitete Größen auch Zufallsvariable sind z.B: die Projektion des Zeigerendpunktes auf eine Achse. ϕ ϕ 0 ≤ ϕ ≤ 2π y = cos ϕ − 1 ≤ y ≤ 1 y 4) Dartspiel: Abstand des Auftreffpunktes des Darts vom Mittelpunkt der Scheibe. Ist auch diskretisierbar indem auf der Scheibe Zonen eingezeichnet sind. 5) Amplitude einer Rauschspannung. 6) Wartezeit beim Anstehen in der Mensa (Zeit vom Eintreffen in der Mensa bis zum Empfang des Essens), Bus. Sei X eine kontinuierliche Zufallsvariable, die über einem Teilintervall oder über Teilintervallen der reellen Zahlen ℜ definiert ist. Wir können diese Variable durch eine „Nullfortsetzung“ über ganz ℜ definieren. Da es jetzt unendlich viele mögliche Zustände gibt, kann die Wahrscheinlichkeit nicht mehr wie bisher durch abzählen der zum Ereignis A gehörigen Zustände und teilen durch die Gesamtzahl der Zustände definiert werden. Man kann jedoch die kumulative Verteilungsfunktion angeben und daraus eine Dichtefunktion bestimmen: Seite 7 Mathematik II 1.5 Kontinuierliche Zufallsvariable und Zufallsdichtefunktion SS 99 Dr. C. Clemen FX (x ) = P ( X ≤ x ) Wahrscheinlichkeit dafür, daß der Wert der Zufallsvariable X kleiner oder gleich einem bestimmten Wert x ist. dF p X (x )dx = dx = P ( X ≤ x + dx ) − P ( X ≤ x ) Wahrscheinlichkeit dafür, daß der Wert der dx Zufallsvariable X im Intervall x ≤ X ≤ x+dx liegt. x P ( X ≤ x ) = F (x ) = ∫ p(x' )dx ' −∞ Diese Funktion ist monoton wachsend, also ist p(x) ≥ 0 und F(-∞) =0 , F(∞) =1 p(x)dx F(b)-F(a) p(x) ∞ ∫ p X (x)dx = 1 F(x) 1 −∞ a b p(x )dx = P (x ≤ X ≤ x + dx ) x x b P (a < x ≤ b) = F (b) − F (a ) = ∫ p (x ' )dx ' a Bsp.: Drehscheibe: Zufallsvariable ist Endwinkel ϕ 0≤ϕ<2π alle Winkel sind als Ergebnis gleich wahrscheinlich ---> p(ϕ)= const 2π 2π 0 0 1/(2π) ∫ p(ϕ )dϕ = ∫ const ⋅ dϕ = const ⋅ 2π = 1 ⇒ ϕ F (ϕ ) = ∫ pdϕ ' = 0 p = const = p(ϕ) 0 F(ϕ) 1 1 2π 2π ϕ ϕ 0 2π ϕ 2π Die Begriffe lassen sich ganz analog auch auf mehrere Variable übertragen. z.B. Seite 8 Mathematik II 1.5 Kontinuierliche Zufallsvariable und Zufallsdichtefunktion SS 99 p XY (x , y )dxdy = P (x < X < x + dx , y < Y < y + dy ) P (a < X ≤ b , c < Y ≤ d ) = ∫∫ p XY (x , y )dxdy a < x <b c< y < d Seite 9 Dr. C. Clemen Mathematik II 1.6 Variablentransformation 1.6 Dr. C. Clemen SS 99 Variablentransformation Bsp.: Man bestimme die Wahrscheinlichkeitsdichte für die Projektion des Winkels bei der Drehscheibe. Allgemein: Aus der Zufallsvariable X wird durch die Funktion g eine neue Zufallsvariable Y gebildet Y=g(X) . Die Funktion sei umkehrbar, d.h. g ist entweder monoton steigend oder monoton fallend. Daraus folgt: Wenn X im Intervall x<X<x+dx liegt, liegt Y im Intervall y < Y < y+dy mit y = g(x). Daraus folgt : p(x)dx = p(y)dy mit dx >0 und dy >0. Daraus folgt: x und die Ableitung können aus der Umkehrfunktion berechnet werden. Da die Ableitung bei fallender Funktion negativ ist wird der Absolutbetrag gesetzt. dx p( y ) = p( x ) (1.6-1.) dy Beispiel 1) Zwischen den Zufallsgrößen X und Y bestehe ein linearer Zusammenhang Y= αX + β y = αx + β y−β dx dg −1 1 > 0 falls α > 0 −1 x= = g ( y )⇒ = = α dy dy α < 0 falls α < 0 1 y−β pX α α Die neue Wahrscheinlichkeitsdichte geht durch eine Maßstabsänderung aus der alten hervor. ⇒ pY ( y ) = Beispiel 2) Drehscheibe : siehe einleitendes Beispiel: Y= A cosΦ Betrachten zunächst den Bereich 0<ϕ ≤π ⇒ y = A cos ϕ = g1 (ϕ ) in − A < y ≤ A y −1 ϕ = g1 ( y ) = arccos( ) A dϕ 1 1 =− pΦ (ϕ ) = 2 dy 2π y 1− a 1 1 ⇒ pY1 ( y ) = 2 2π y 1− a Analog ergibt sich derselbe Ausdruck im Bereich Seite 10 y Y A A 0 2π pΦ(ϕ) pY(y) Φ -A ϕ 0 2π Mathematik II 1.7 Erwartungswerte Dr. C. Clemen SS 99 π < ϕ ≤ 2π . Die Gesamtwahrscheinlichkeitsdichte im Intervall 0 < ϕ ≤ 2π ist also doppelt so groß wie die von pY1 ( y ) , nämlich pY ( y ) = 1.7 1 π 1 y 1− a 2 Erwartungswerte Beschreibung der Zufallsvariable durch charakteristische Größen. Wir bestimmen den Erwartungswert oder Mittelwert einer diskreten Zufallsvariable X wie folgt: Es werde das Zufallsexperiment mit den möglichen Ereignissen x1, x2, x3, ..... xk N mal ausgeführt. Dabei trete der Wert x1 der Zufallsvariable N1 mal auf , der Wert x2 der Zufallsvariable N2 mal auf, etc. Dann ist der Mittelwert: x N + x 2 N 2 + ...... + x k N k XN = 1 1 N Für N--> ∞ erhalten wir k X = x1 P( x1 ) + x 2 P( x 2 ) + ...... + x k P( x k ) = ∑ x i P( x i ) (1.7-1) i =1 Entsprechend definieren wir den Erwartungswert für eine kontinuierliche Zufallsvariable: X= ∞ ∫ xp( x)dx (1.7-2) −∞ Für die Operation zur Bildung des Erwartungswertes oder Mittelwertes sind drei verschiedenen Notationen gebräuchlich, oft werden sie sogar nebeneinander gebraucht. X = E[ X ] = µ X Wird eine Zufallsvariable über eine Funktionszusammenhang in eine neue Zufallsvariable transformiert, so kann man für diese neue Zufallsvariable auch den Erwartungswert bilden. Dafür ist die transformierte Wahrscheinlichkeitsdichte in die obige Formel einzusetzen. Wegen der Transformationsformel für die Wahrscheinlichkeitsdichten pZ(z)dz = pX(x)dx ist aber der Erwartungswert von Z gleich dem Erwartungswert von g(X): Z = g( X ) Z= ∞ ⇒ ∫ zp Z ( z )dz = −∞ (1.7-3) ∞ ∫ g ( x) p −∞ Seite 11 X ( x)dx = g ( X ) Mathematik II 1.7 Erwartungswerte Dr. C. Clemen SS 99 Die Bildung des Erwartungswertes ist eine lineare Operation, d.h. ∑ a g (X ) = ∑ a g (X ) i i i i (1.7-4) i i Die Erwartungswerte für Potenzen von X nennt man Momente (n-te Potenz = n-tes Moment) X 1.Moment = Mittelwert X2 2.Moment = quadratischer Mittelwert Xn n.tes Moment Ein Maß für die „Verschmierung“ einer Zufallsvariable bildet die Varianz (1.7-5) σ 2 = [( X − X ) 2 ] Wir berechnen aufgrund der Linearität: 2 σ 2 = [( X − X ) 2 ] = [ X 2 − 2 X X + X ] = X 2 − X 2 (1.7-6) Tschbyscheff’sche Ungleichung: Man kann nachweisen, daß allgemein gilt: P ( x − x ≤ kσ ) ≥ 1 − P ( x − x ≥ kσ ) < 1 1 k2 (1.7-7) k2 Diese Abschätzung gilt für jede Verteilungsfunktion, mit anderen Worten, sie ist unabhängig von der Verteilungsfunktion. Beisp.: P ( x < 2σ ) = 0,75 k= 2 ---> 1/(k2) = ¼ = 0,25 Zum Vergleich rechnen wir die entsprechende Wahrscheinlichkeit für die Verteilungsfunktion 1 p(x )= e − x −∞<x<∞ 2 Wir erhalten: x=0 x2 = 2 σ= 2 P ( x < 2σ ) = 0,94 Seite 12 Mathematik II 1.8 Korrelation 1.8 Dr. C. Clemen SS 99 Korrelation Zufallsexperiment mit zwei Zufallsvariable X und Y Kovarianz Varianz σ 2 X = ( X − X )( X − X ) σ XY = ( X − X )(Y − Y ) (1.8-1) Die Kovarianz ergibt ein Maß für die Ähnlichkeit der zwei statistischen Variablen, oder anders ausgedrückt Maß für den linearen Zusammenhang zwischen zwei statistischen Variablen σ 2 X +Y = {( X + Y ) − ( X + Y )} 2 = {( X − X ) + (Y − Y )} 2 = {( X − X ) 2 + (Y − Y ) 2 + 2( X − X )(Y − Y )} = ∫∫ {( X − X ) 2 + (Y − Y ) 2 + 2 ( X − X )(Y − Y )}p XY (x , y )dxdy ⇒ σ 2 X ± Y = σ 2 X + σ 2 Y ± 2σ XY (1.8-2) σ XY = ( X − X )(Y − Y ) = = X ⋅ Y − X ⋅ Y − X ⋅Y + X ⋅ Y = X ⋅Y − X ⋅Y Für statistisch unabhängige Zufallsvariable X und Y gilt σ XY = 0, X ⋅Y = X ⋅Y X +Y = X +Y σ Korrelationskoeffizient rXY = 2 X +Y σ XY σ 2 X ⋅ σ 2Y =σ 2 X +σ (1.8-3) 2 mit Seite 13 Y − 1 ≤ rXY ≤ 1 (1.8-4) Mathematik II 1.8 Korrelation Dr. C. Clemen SS 99 Beispiel.: Autounfallstatistik Für jeden bei einer oder mehreren Versicherungsgesellschaften registrierten Unfall wird aufgenommen: Autokennzeichen, Autotyp und PS -Zahl, Autofarbe, Alter und Geschlecht des Fahrers/Fahrerin, Schwere des Unfalls, Tempo beim Unfall, Wetter in Skala ( Schönes Wetter,..Föhn, ... frischer Schneefall, vereiste Straßen),Tageszeit, Jahreszeit, Fahrstrecke nach Antritt der Fahrt, Beifahrer (Zahl, Geschlecht, Alter ...). a) man erstelle diskrete Zufallsvariablen für verschiedenen Kategorien X= Autokennzeichen , die letzte Ziffer xi = 0,........,9 Y= PS-Zahl : y1 = 1 für 50 bis 70 PS , y2 =2 für 71 bis 90 PS, y3 = 3 für 91 bis 110PS y4 = 4 für 111 bis 140 PS , y5 = 5 für 141 bis 190 PS,.... Z = Versicherungsschaden (Krankenhaus und Auto-Reparaturkosten) (Schwere des Unfalls ) zi = DM -Beträge W =Wetterskala 6 = sehr schön, 5= weniger schön, bedeckter Himmel, .... b) man erfinde oder spekuliere über Abhängigkeiten. Wie würden Diagramme für Wertepaare X/Y, X/Z W/Z aussehen? Seite 14 Mathematik II 1.9 Kombinatorik 1.9 Dr. C. Clemen SS 99 Kombinatorik 1. n ! = 1 ⋅ 2 ⋅ 3⋅......⋅n ist die Anzahl der Möglichkeiten , n Elemente linear anzuordnen. (1.9-1) Bsp.: Die Zusammenstellung von linearen Anordnungen von 3 verschiedenen Elementen kann wie folgt vorgenommen werden. Es gibt 3 Möglichkeiten zur Belegung der ersten Position. Für jede dieser Möglichkeiten bleiben zur Besetzung der zweiten Position zwei Elemente. Ist auch die zweite Position besetzt, so kann die dritte Position nur mehr mit dem verbleibenden 3. ten Element besetzt werden. 2. nk ist die Anzahl der Möglichkeiten, aus n verschiedenen Elementen k Elemente (1.9-2) mit Zurücklegen und mit Berücksichtigung der Reihenfolge herauszugreifen Bsp.: Urne mit 5 (von 1 bis 5) nummerierten Kugeln, Entnahme von 2 Kugeln mit Zurücklegen und unter Berücksichtigung der Reihenfolge 11 12 13 21 22 23 31 31 33 41 42 43 51 52 53 Anzahl = 5x5 = 52 14 24 34 44 54 15 25 35 45 55 3. n n(n − 1)..(n − ( k + 1)) n! = = k! k !( n − k )! k ist Anzahl der Möglichkeiten aus n verschiedenen Elementen k Elemente ohne Zurücklegen und ohne Rücksicht auf die Reihenfolge herauszunehmen. (1.9-3) Bsp.: Urne mit mit 10 verschiedenen (von 1 bis 10 durchnummerierten) Kugeln. Entnahme von 3 ohne Zurücklegen : Es gibt 10 verschiedene Möglichkeiten für die erste Kugel , bei der zweiten Entnahme nur mehr 9 verschiedene Möglichkeiten und bei der dritten Entnahme nur mehr 8 verschiedene Möglichkeiten. Für die drei entnommenen Kugeln gibt es 3! Möglichkeiten der Anordnung. 10 ⋅ 9 ⋅ 8 Anzahl = = 10 ⋅ 3 ⋅ 4 = 120 1⋅ 2 ⋅ 3 Seite 15 Mathematik II 1.10 Verteilungsfunktionen Dr. C. Clemen SS 99 1.10 Verteilungsfunktionen auch Zufallsmodelle genannt 1.10.1 Die Binominalverteilung A sei Ergebnis bei einem Zufallsexperiment P(A)= p und P(AC)=1-p Wir führen n unabhängige Wiederholungen des Zufallsexperiments durch Die Wahrscheinlichkeit, daß bei den ersten m Versuchsausführungen das Ereignis A auftritt und bei den restlichen AC ist gegeben durch P ( A.... AA C .... A C ) = 1 P(4 A4 ).... P( 3 A) P ( A C )......... P( A C ) = p m (1 − p) n − m . 244 1444444424444444 3 m− mal (n − m)− mal n Es gibt Möglichkeiten, die Reihenfolge für die m Plätze von A unter den insgesamt n m Wiederholungen zu variieren. Daher ist P(X=m) = Wahrscheinlichkeit dafür, daß das Ereignis A m mal als Versuchsergebnis auftritt 0≤m≤n gegeben durch (1.10-1) n P( X = m) = p m (1 − p) n− m . m Eigenschaften der Binominalkoeffizienten: n n! . = m m!(n − m)! n n = m n − m (1.10-2) n n = =1 0 n n n =n = 1 n − 1 n n n(n − = = 2 2 n − 2 1 A Ist X i = je nachdem, ob bei der i-ten Durchführung des Zufallsexperimentes C 0 A auftritt, so gilt E[Xi]=1⋅p - 0⋅⋅(1-p) = p und E[(Xi-p)2]= (1- p)2p - (0 - p)2(1 - p)= p⋅(1 - p) Offenbar ist X= X1+X2 +X3 +....+Xn. Weil die Xi statistisch unabhängig sind, folgt für die binominalverteilte Zufallsvariable X (1.10-3) µ = n⋅ p σ 2 Bi = n ⋅ p ⋅ (1 − p) Bi Seite 16 Mathematik II 1.10 Verteilungsfunktionen Dr. C. Clemen SS 99 1.10.2 Poissonverteilung Einfacher handhabbare Näherung der Binominalverteilung für n groß, p klein, np = endlich P ( X = m) = µ m −µ e m! µ = np σ 2 (1.10-4) = µ (1 − p) ≈ µ 1.10.3 Gaußverteilung Die Gauß-Verteilung ist die wichtigste kontinuierliche Verteilung. Sie ist anwendbar bei Systemen mit vielen leicht gekoppelten Teilchen. Beisp.: Thermisches Rauschen Fehler in Produktion Streuung bei Längenmessung um Mittelwert p( x ) = ( x − µ )2 2 e 2σ = N (µ ; σ 2 ) − 1 σ 2π (1.10-5) Die Berechnung des Mittelwertes und der Varianz für diese Dichtefunktion ergibt, daß diese gleich den Parametern µ und σ in der Ausgangs-Formel sind. x Gauß'sche Verteilungsfunktion 5 , 4.9.. 5 0.2 0.16 p( x) p( x ) 0.12 0.08 1 . exp ( x 1 ) 2 2. 2 2. 2. π 0.04 0 5 4 3 2 1 0 1 2 3 4 5 x normierte Gauß'sche Verteilungsfunktion 0.4 0.32 φ( x) φ( x ) 0.24 0.16 0.08 0 5 4 3 2 1 0 x 1 2 3 Seite 17 4 5 2 1 . x exp 2 2. π 2 Mathematik II 1.10 Verteilungsfunktionen Dr. C. Clemen SS 99 Die Dichtefunktion ist symmetrisch zu x = µ, 99,7 % der Gesamtfläche liegt innerhalb des Intervalls µ-3σ < x < µ+3σ Die Berechnung der kumulativen Wahrscheinlichkeit (Verteilungsfunktion) führt auf ein nicht analytisch zu bestimmendes Integral. Der Wert des Integrals muß numerisch bestimmt werden. Für eine normierte Version der Verteilungsfunktion gibt es tabellierte Funktionswerte für den gesamten Definitionsbereich. x2 φ ( x) = 1 − 2 e 2π Φ( x) = 1 2π für −∞< x <∞ 2 Φ ( −∞) = 0, x −t e 2 dt ∫ −∞ Φ( ∞) = 1, Φ( − x ) = 1 − Φ( x ), oder auch in der amerik . Literatur 0 < Φ( x ) < 1 für x ≥ 0: ∞ x 2 2 2 2 e − t dt erfc( x ) = e − t dt ∫ ∫ π 0 π x x ≤ 0: erf ( x ) = erf ( x ) erf ( x ) = erf ( x ) + erfc( x ) = 1 x− µ u2 σ − x−µ e 2 du =Φ ( ) (t − µ ) 2 − 1 2σ 2 dt = 1 e ∫ ∫ σ 2π −∞ 2π −∞ x F (x ) = (1.10-6) σ Übung: Man rechne Φ(x) in erf(x) um. Lösung: für −∞< x <∞ x Φ( x ) = = t2 x/ 2 0 − 2 2 1 1 1 1 e 2 dt = e − t ' dt ' = e − t ' dt ' + ∫ ∫ ∫ 2π −∞ π −∞ π −∞ π 1 [1 + erf ( x)] 2 Seite 18 x/ 2 ∫ 0 e − t ' dt ' 2 (1.10-7) Mathematik II 1.11 Zufallssignal Dr. C. Clemen SS 99 1.11 Zufallssignal auch stochastisches Signal oder Zufallsprozeß genannt. Darunter versteht man eine Zufallsvariable, die von der Zeit abhängt. Bsp.: 1. 2. 3. 4. Mehrere Zufallsexperimente hintereinander Digitales Nachrichtensignal Rauschsignal Sprachsignal zu 1: Zwei Spieler A und B werfen zu den Zeitpunkten t0, t1, t2, t3,.... eine Münze. Bei „Wappen“ gewinnt der Spieler A eine DM, bei „Zahl“ gewinnt B eine DM. Der Gewinn des Spielers A ist eine diskrete Zufallsgröße X(t), wobei der Parameter t Element eines diskreten Parameterraums T = { t0, t1, t2, t3,.... } ist. X t1 t2 t3 t4 t5 t6 t7 t zu jedem Zeitpunkt ist X(t) eine Zufallsvariable. Die Dichtefunktion bzw. Wahrscheinlichkeitsverteilung (bei diskreter Zufallsvariable ) ist für jeden Zeitpunkt definiert. zu 4.: Beim Sprachsignal ändert sich z.B. die Dichtefunktion mit der Zeit p(x,t) von Formant zu Formant wie aus dem Signalverlauf für eine Beispielfunktion (Realisierungsfunktion) zu ersehen ist Seite 19 Mathematik II 1.11 Zufallssignal Dr. C. Clemen SS 99 1.11.1 Stationäres stochastisches Signal, stationärer Prozeß: 1. Die Dichtefunktion bzw. Wahrscheinlichkeitsverteilung (bei diskreter Zufallsvariable ) hängt nicht von der Zeit ab. 2. In diesem Fall hängen dann auch die Erwartungswerte (Mittelwert, Quadratischer Mittelwert, Streuung ...) nicht von der Zeit ab. 1.11.2 Stationäres stochastisches Signal bei ergodischem Prozeß: Bei einem ergodischen Prozeß genügt es nur eine Beispielfunktion (auch Realisierungsfunktion genannt) des Zufallsprozesses zu kennen, um auf die Erwartungswerte zu schließen. Die Erwartungswerte können als Zeitmittelwerte über eine ausgewählte (Realisierungs-) Funktion des stochastischen Prozesses bestimmt werden. Die Bedingung ergodisch ist noch stärker als stationär. X = x (t ) t X 2 = x 2 (t ) t t2 ( X − µ ) 2 = x (t ) − x (t ) t g ( X ) = g ( x (t )) t (1.11-1) Dabei ist mit g(x) eine aus der Zufallsvariablen gebildete Funktion bezeichnet worden. Die Operation zur Berechnung der Erwartungswerte wird wieder durch Überstrichen der Zufallsvariable gekennzeichnet. Seite 20 Mathematik II 1.11 Zufallssignal Dr. C. Clemen SS 99 K für ein diskretes Zufallssi gnal ∑ g ( x i ) P( x i ) i =1 g( X ) = ∞ (1.11-2) g ( x ) p( x)dx für ein kontinuier liches Zufallssi gnal −∫∞ Die Bestimmung der Zeitmittelwerte für diskrete bzw. kontinuierliche Realisierungsfunktion erfolgt nach der Vorschrift: 1 ∞ (1.11-3) für eine diskrete Realisierungsfunktion lim ∑ g( x(n)) 2 n →∞ n t n = −∞ g ( x (t )) = T lim 1 g ( x (t ))dt für eine kontinuierliche Realisierungsfunktion T →∞ 2T ∫ −T Bem.: 1. Bei einem diskreten stochastischen Signal liegt die Realisierungsfunktion als zeit- und werte- diskrete Folge von Werten x(n) vor, wobei x die diskreten Werte x1, ..... xK annehmen kann. Meistens ist die Zeitdiskretisierung äquidistant mit der Abtastperiode TA . Dann gilt x(n)= x(tn) mit tn = nTA. 2. Handelt es sich um Prozesse von endlicher oder gar nur kurzer Dauer (sogenannte Energiesignale), so ist die Zeitmittelung über den gesamten Zeitbereich (-∞ < t< ∞) nicht sinnvoll. Für diese Signale wird die Division durch die Zeit einfach weggelassen. Energiesignal ∞ für eine diskrete Realisierungsfunktion ∑ g ( x(n)) n = −∞ t g ( x (t )) = ∞ g ( x (t )) dt für eine kontinuierliche Realisierungsfunktion ∫ −∞ (1.11-4) 1.11.3 Physikalische Bedeutung Die zeitlichen Mittelwerte haben bei elektrischen Signalen folgende physikalische Bedeutung: Für ein Spannungssignal u(t) ist t u (t ) = U 0 Gleichspannungsanteil t u 2 (t ) = Pn u(t ) − u(t ) t zeitlich gemittelte, auf einen Bezugswiderstand von 1Ω normierte Leistung 2 t = U 2 eff Quadrat des Effektivwertes (engl.:Root Mean Square, RMS) Bem.: Normierte Signalleistung : Seite 21 Mathematik II 1.11 Zufallssignal Dr. C. Clemen SS 99 Im folgenden ist unter Signalleistung immer die auf den Bezugswiderstand normierte Leistung zu verstehen, den Index n werden wir jedoch weglassen. 1 P = lim T →∞ 2T T ∫ −T t P u 2 (t ) u 2 (t ) = n dt = R R R (1.11-5) Beispiel 1: Rauschsignal Es gibt beliebig viele Realisierungfunktionen, eine ist unten abgebildet. Alle Realisierungsfunktionen haben für jeden Zeitpunkt dieselbe Dichtefunktion für die Amplituden. Die Dichtefunktion gibt auch die Wahrscheinlichkeit wieder, mit der eine bestimmte Amplitude bei der stochastischen Zeitfunktion auftaucht. Man stelle sich ein Fenster vor, das bei der Amplitude x die Breite dx hat. Dann ist das Verhältnis der Zeit t(x) , in welcher die Amplitude x(t) der Zeitfunktion innerhalb dieses Fenster auftaucht, zur Gesamtbeobachtungszeit t0 gleich p(x) dx x(t) x p(x) t t ( x) p( x ) = lim t 0 →∞ t 0 t x (t ) = ∞ ∫ xp( x)dx = 0 −∞ t0 Beispiel 2: Binärer Zufallsgenerator Für ein 10 Bit langes Signal gibt es 210 mögliche Signalverläufe. 1.11.4 Autokorrelationsfunktion Wir nehmen an, das Rauschsignal aus Beispiel 1 sei bandbegrenzt. Es sei durch ein Tiefpaßfilter gegangen und enthalte nur mehr Teilschwingungen bis zu einer gewissen maximalen Frequenz. Die maximal mögliche Krümmung des Signalverlaufs in jeder Beispielfunktion ist begrenzt. Nun komprimieren wir das Signal zeitlich. Das kann man sich praktisch so vorstellen, daß wir das Signal auf einem Magnetband speichern und das Band bei der Wiedergabe schneller laufen lassen als bei der Aufnahme. Man erkennt, daß nun die maximale Krümmung des Signals in jeder Realisierungsfunktion des Zufalls-Signals auch stärker geworden ist. Trotzdem ist die Dichtefunktion für den Zufallsprozeß durch die Zeitkompression nicht verändert worden. Somit sind auch alle Erwartungswerte - Mittelwert, quadratischer Mittelwert (Leistung), Varianz (Quadrat des Effektivwertes) - unverändert, obwohl es sich bei dem zeitlich komprimierten Zufallsprozeß doch offensichtlich um einen wesentlich veränderten Prozeß handelt. Ein speziell definierter Erwartungswert, der auf den oben beschriebenen Effekt empfindlich reagiert, ist die Autokorrelationsfunktion (AKF). Sie ist ein Maß für die Krümmungen der Seite 22 Mathematik II 1.11 Zufallssignal Dr. C. Clemen SS 99 Beispielfunktion. Man kann sie auch als Maß für die Ähnlichkeit einer Beispielfunktion bei der Zeit t1 mit einer weiteren Beispielfunktion bei der Zeit t2 interpretieren. Wir behandeln hier die AKF nur für ergodische Prozesse. In diesem Fall ist die Dichtefunktion unabhängig von der Zeit . Zur Bestimmung der AKF wird die Beispielfunktion x(t) mit der um die variable Zeit τ verschobenen Beispielfunktion x( t + τ ) verglichen. Das Maß für den Vergleich ergibt sich aus der Berechnung des zeitlich gemittelten Produktes x(t)x( t + τ ). Für diese Berechnungsart der Autokorrelationsfunktion verwendet man das Symbol Φ xx (τ ) = x (t ) x (t + τ ) Φxx(τ) Φxx(τ)-->Sxx(f) F.T. vor |Sxx(f)| nach Zeitkompression τ Φxx(τ)<--Sxx(f) F.T.-1 (1.11-6) t nach vor Zeitkompression f Die Krümmungen der Signalfunktion bzw. die Ähnlichkeit des Zufallssignals mit sich selbst als Funktion des zeitlichen Abstandes von einem Referenz-Zeitpunkt hat etwas damit zu tun, wie sich die Realisierungsfunktion in Teilschwingungen auflösen läßt. Hierzu gibt es den wichtigen Satz von Wiener/ Kintschie, der besagt, daß für ergodische stochastische Prozesse die spektrale Leistungsdichte einer Realisierungsfunktion durch die AKF bestimmt ist. Je schmaler die zeitliche Ausdehnung der AKF ist, desto breiter ist die Ausdehnung der Leistungsdichte im Frequenzbereich und umgekehrt. Von Wiener und Kintschie wurde der folgende Satz bewiesen: Die komplexe spektrale Leistungsdichte eines stochastischen Signals ist gleich der Fouriertransformierten der Autokorrelationsfunktion des stochastischen Signals. Bem. zur Leistungsdichte: Die Leistung zerlegt man in eine Summe über die reelle Leistungsdichte p(f), dabei ist p(f)df die Leistung des Signals im Bereich zwischen f und f+df 2 t P = x (t ) = ∞ ∫ p( f )df (1.11-7) 0 Die komplexe Leistungsdichte Sxx(f) ist für Frequenzen von -∞ < f < ∞ definiert und stimmt bis auf eine Phase mit der reellen Leistungsdichte überein. 1 S xx ( f ) = p( f ) 2 * für f ≥ 0 (1.11-8) S xx (− f ) = S xx ( f ) (konjugiert komplex) Seite 23 Mathematik II 1.11 Zufallssignal Dr. C. Clemen SS 99 S xx ( f ) = ∞ ∫Φ xx (τ )e − j 2π ⋅ f ⋅τ dτ = F .T .[Φ xx (τ )] −∞ Φ xx (τ ) = ∞ ∫S xx (1.11-9) ( f )e j 2π ⋅ f ⋅τ df = F .T . −1 [ S xx ( f )] −∞ Der Wert der Autokorrelationsfunktion für τ = 0 stimmt mit der Signalleistung überein: (1.11-10) Φ xx (τ ) = P Für zwei stochastische Signale x(t) und y(t) kann man die Kreuzkorrelationsfuntkion definieren: t (1.11-11) Φ (τ ) = x(t ) y (t + τ ) xy Die Kreuzkorrelationsfunktion ist ein Maß für die Ähnlichkeit der Funktion x( t) mit der um die Zeit τ verschobenen Funktion y(t) , also mit y( t+ τ). 1.11.5 Beispiele: Zunächst berechnen wir die Zeitmittelwerte und die AKF für zwei deterministische Signale 1) Sinusschwingung: x (t ) = A cos(ω ⋅ t + ϕ ) x (t ) = A cos(ω ⋅ t + ϕ ) T 1 A cos(ω ⋅ t + ϕ )dt = 0 x (t ) = A cos(ω ⋅ t + ϕ ) = lim T →∞ 2T ∫ t t t t P = x 2 (t ) = A 2 cos 2 (ω ⋅ t + ϕ ) = −T 2 A 2 1 2 A Φ xx (τ ) = x (t ) x (t + τ ) = lim T →∞ 2T t T ∫ cos(ω ⋅ t + ϕ ) cos[ω ⋅ (t + τ ) + ϕ ]dt = −T 2 T 1 A lim T →∞ 2T 2 A2 ∫ [cos(ω ⋅ τ ) + cos[ω ⋅ (2t + τ ) + ϕ ]dt = 2 cos(ω ⋅ τ ) −T 2 A =P 2 Dabei wurde das Additionstheorem für den Cosinus verwendet: Φ xx (0) = cos( x + y ) = cos x cos y − sin x sin y cos( x − y ) = cos x cos y + sin x sin y durch Addition 1 cos x cos y = ( cos( x − y ) + cos( x + y )) 2 A2 Φ xx (τ ) = cos(ω ⋅ τ ) 2 Seite 24 (1.11-12) Mathematik II 1.11 Zufallssignal Dr. C. Clemen SS 99 Man erkennt, daß man bei der Zeitmittelung über eine periodische Funktion nur über eine Periode mitteln muß. x(t) x(t+τ) τ t Φ xx(τ) τ Die AKF einer periodischen Funktion ist wieder periodisch, mit derselben Periode wie die Funktion 2) periodische Pulsfolge Lösung auf graphischem Wege: x(t) A t0 t t1 x(t+τ) t τ x(t)x(t+τ) t Φ xx(τ) A2(t1/t0) τ 3) Widerstandsrauschen Die Leistungsdichte des Widerstandrauschens ist bis zu sehr hohen Frequenzen (< 1010 Hz) konstant und hängt nur von der Temperatur ab. p(f) = kT , k = 1,38 10-23 W/K° (Boltzmann Konstante). Wenn die Rauschquelle mit einem Meßinstrument oder einem Empfänger verbunden ist, so wird die auf den Verbraucher übertragene Leistung von dem Innenwiderstand und der Bandbreite des Verbrauchers abhängen. Diese Leistung wird maximal, wenn der Innenwiderstand des Verbrauchers gleich dem Widerstand der Rauschquelle ist. Seite 25 Mathematik II 1.11 Zufallssignal Dr. C. Clemen SS 99 RQ Ur,eff Band paß Ur,eff/2 Rauschquelle = Widerstand Rv=RQ Verbraucher t t u r (t ) = 0, u 2 r (t ) = U 2 r , eff U r , eff P = 2 2 1 R = BkT ⇒U r , eff = 4 BkTR (1.11-13) Die Amplituden sind nach einer Gauß’schen Dichtefunktion verteilt. Die Parameter µ und σ sind der Mittelwert (=0) und die Standardabweichung , in diesem Fall die effektive Rauschspannung. Die Autokorrelationsfunktion ergibt sich als Fouriertransformierte der Leistungsdichte . Sie ist eine Delta-Funktion, die praktisch nur für τ = 0 von Null verschieden ist. Die Amplitude der Rauschspannung kann somit nicht vorausgesagt werden. dx x(t) x p(x) t t0 |Sxx(f)| (1/2)kT f Φxx(τ) Seite 26 τ Mathematik II 1.11 Zufallssignal Dr. C. Clemen SS 99 4) Binäre Pseudo-Noise Folge (PN-Folge). In der digitalen Übertragungstechnik (Mobilfunk, Satellitenfunk, Radio und Fernsehen) spielen künstlich erzeugte binäre Rauschsignale als Nachrichtenträger eine wichtige Rolle. • Verschlüsselung • Übertragung mehrerer Teilnehmer über ein gemeinsames Funkfeld • Bandspreiztechnik zur Verringerung der Störanfälligkeit Diese Rauschsignale sind in ihren Eigenschaften zwar zufällig, sie werden aber nach einem genau definierten Prozeß erzeugt (sog. Quasizufallsfolgen oder Pseudo Noise-Folgen). Die Erzeugung kann z.B. durch ein über EXOR Glieder rückgekoppeltes Schieberegister erfolgen. Die Rückkopplungen werden gemäß den Koeffizienten eines Polynoms n-ten Grades (sog. Generatorpolynom) gesetzt. Damit sich die Folge mit der Periode N = 2n – 1 wiederholt muß das Polynom primitiv sein, d,h. es darf nur durch sich selbst und durch Eins teilbar sein. Es gibt für alle n primitive Polynome.Hat das Schieberegister n-Stufen, so ist die erzeugte binäre Datenfolge periodisch mit der Periode N = 2n - 1, d.h. nach N Folgegliedern wiederholt sich der Vorgang. Man nennt N die Maximallänge der Quasi-Zufallsfolge, die Folge wird auch als Maximalfolge der Länge N bezeichnet. Innerhalb der Maximallänge kommen die Nullen und Einsen zufällig vor, in dem Sinne, daß beliebige n-Bit Wörter (außer des Nullwortes n mal 0) auftreten können. In der Praxis werden Folgen mit n = 10 bis 16 und mehr eingesetzt, was Maximallängen N von 1023 bis 64 000 Bits bedeutet. Beispiel für eine PN-Folge mit einer Länge von 7 (n = 3): Generatorpolynom g(x) = x3 + x2 +1 tk Ausgang D-F.F. r2 D-F.F. D-F.F. r2 r2 t1 t2 t3 t4 Taktsteurerung + x3 x2 x1 x0 Das EXOR verknüpft binäre Zahlen nach der folgenden Addition: 0 1 ⊕ 0 0 1 1 1 0 Das D - Flip Flop (D-latch) gibt das am Eingang liegende logische Signal ( 0- oder 1-Pegel) mit einem Takt Verzögerung an den Ausgang weiter. Der logische Pegel am Ausgang des D- latches werde bei dem Taktzeitpunkt tk (k = 0, 1, 2 , 3, 4, ... ) mit ri, k (i =0, 1, 2 ) bezeichnet. Aufgrund der Struktur des Systems bestimmt man die Registerinhalte zum Taktzeitpunkt tk (k = 0, 1, 2 , 3, 4, ... ) nach der folgenden Tabelle: r0, k = r2, k-1 ⊕ r1, k-1 r1, k = r0, k-1 Seite 27 Mathematik II 1.11 Zufallssignal Dr. C. Clemen SS 99 r2, k = r1, k-1 k r2, k r1, k r0, k -------------------------------1 1 1 1 2 1 1 0 3 1 0 0 4 0 0 1 5 0 1 0 6 1 0 1 7 0 1 1 8 1 1 1 9 . . . 10 . . . Die Folge wiederholt sich nach N = 23 - 1 = 7 Bit zyklisch. Man erkennt, daß die Ausgangsfolge {r2, k } k = 1,2, 3, ... alle mögliche 3 Bit-Wörter enthält, außer der 000. PN-Folge mit Länge N=7 (n=3) 11 1001 0111 0010 1110 010 1 1 0 -1 TBit unipolar 7TBit bipolar Zur Berechnung der AKF der Ausgangsfolge schreiben wir von dieser jeweils um einen Takt verschobene Versionen untereinander und bilden den Zeitmittelwert des Produktes von je zwei untereinanderstehenden Funktionsverläufen. Das läuft darauf hinaus, untereinander stehende Bits zu multiplizieren und dann die Produkte über eine Periode zu addieren. n Φxx(n) 1 1 1 0 0 1 0 1 1 1 0 0 1 1 0 1 1 1 0 0 1 0 1 1 1 0 0 1 1 4 1 1 1 1 0 0 1 0 1 1 1 0 0 1 2 2 1 1 1 0 0 1 0 1 1 1 0 0 2 3 1 1 1 0 0 1 0 1 1 1 0 2 4 1 1 1 0 0 1 0 1 1 1 2 5 1 1 1 0 0 1 0 1 1 2 6 1 1 1 0 0 1 0 1 2 7 1 1 1 0 0 1 0 4 In der Praxis wird anstelle der unipolaren Folge mit Funktionswerten 0 und 1 eine sog. bipolare Folge verwendet, in der die Nullen durch -1 ersetzt sind ( das entsprechende Pulssignal ist dann Seite 28 Mathematik II 1.11 Zufallssignal Dr. C. Clemen SS 99 gleichspannungsfrei !). Für die bipolare Folge lauten die Werte der AKF : Φxx(0) = 7 und Φxx(n) = -1 für n= 1,... ,6 Allgemein: Wenn {ak } k = 1,2, 3, ...eine Folge mit der Periode N ist, so berechnet sich die Autokorrelationsfunktion nach der Formel: t Φ xx ( n) = x ( t ) x ( t + nTBit ) = N −1 ∑ ak −n a k (1.11-14) k =0 Entsprechend ist die Kreuzkorrelation zwischen zwei binären periodischen Folgen {ak } k = 1,2, 3, ...und {bk } k = 1,2, 3, ...(jeweils mit der Periode N) nach der Formel: t Φ xy (n) = x ( t ) y (t + nTBit ) = N −1 ∑ ak − n bk (1.11-15) k =0 zu bestimmen Die AKF einer periodischen Folge ist ebenfalls periodisch mit derselben Periode N. Anwendung von PN-Folgen: Verschlüsselung und Bandspreiztechnik Im Sender wird der digitale Datenstrom mit einem PN-Träger höherer Rate fPN (größenordungsmäßig 10 mal so hoch wie Datenrate fBit = 1/ TBit) moduliert. Das ergibt eine Verschlüsselung der Daten, sowie eine Verbreiterung des Signalspektrums um der Spreizfaktor fPN/fBit. Im Empfänger kann die Verschlüsselung durch den inversen Prozeß wieder rückgängig gemacht werden. Dazu muß im Empfänger der Code ( Erzeugungsprozeß der PN-Folge) sowie der Beginn der PN-Folge in dem übertragenen Datenstrom (zur Synchronisation) bekannt sein. Die Modulation erfolgt bei unipolarer Darstellung ( mit 0 und 1 ) durch EXOR-Verknüpfung der Nutzdaten mit den PN-Bits oder bei bipolarer Darstellung ( 0 --->-1 , 1-->1 ) durch Multiplikation der beiden Signale. Der Demodulator im Empfänger macht diesen Vorgang wieder rückgängig: bei unipolarer Darstellung durch EXOR Verknüpfung der empfangene Daten mit den PN-Daten oder bei bipolarer Darstellung durch eine Multiplikation der Signale. Nutzdatenfolge: verschlüsselte (codierte) Datenfolge demodulierte (decodierte) Datenfolge ak ck = ak⊕bk ck⊕bk= ak⊕bk⊕bk= ak Seite 29 wegen bk⊕bk = 0 Mathematik II 1.11 Zufallssignal Dr. C. Clemen SS 99 Um den PN-Generators im Empfänger mit dem empfangenen Signal zu synchronisieren wird zunächst im Empfänger über einige Perioden eine Kreuzkorrelation zwischen dem Empfangssignal und dem im Empfänger erzeugten PN-Signal berechnet. Die Kreuzkorrelation ergibt Spitzen zu den Zeiten, bei denen beide Signale am besten übereinstimmen . Mit diesen Triggerimpulsen kann der PN-Generator dann zu dem Empfangssignal synchronisiert werden. Modulator im Sender Nutzdaten ak verschlüsselter Datenstrom ck=ak+bk + PN-Folge bk PN-Generator PN 0 1 1 1 1 1 0 0 0 0 0 1 1 1 1 1 0 Nutzdaten ak 0 1 0 0 1 1 1 0 1 1 0 1 0 0 1 0 0 PN-Folge bk verschlüsselter Datenstrom ck=ak+bk 0 0 1 1 0 0 1 0 1 1 0 0 1 1 0 1 0 Demodulator im Empfänger verschlüsselter Datenstrom ck=ak+bk Nutzdaten ck+bk=ak + bk PN PN-Generator synchronisiert sync Seite 30