Statistik

Werbung
Fachhochschule Augsburg
Fachbereich Elektrotechnik
Mathematik II
x(n')
X1(k)
1
0
-1
1
0
1
-1
0
0
1
1-j
1
1
-j
-1
-1
1-j+0,7(1-j)
0
0
-j
-1
-1
1
1
0
Prof. Dr. C. Clemen
SS 99
1+j+0,7(-1-j)
1+j
0
1
-j
0
1
0
-1
3
2
1
0
X3(k)
1
1
-1
X2(k)
0,7(1-j)
-j
0,7(-1-j)
-1
-1
-1
-1
1
1-j-0,7(1-j)
j
1+j-0,7(-1-j)
Inhaltsverzeichnis
1 Statistik für Meßtechnik und Nachrichtentechnik.........................................1
1.1 Versuchsausgänge im Zufallsexperiment .................................................................................... 1
1.2 Relative Häufigkeit und Wahrscheinlichkeit ............................................................................... 2
1.3 Bedingte Wahrscheinlichkeit und abhängige Ereignisse.............................................................. 3
1.4 Diskrete Zufallsvariable .............................................................................................................. 5
1.5 Kontinuierliche Zufallsvariable und Zufallsdichtefunktion.......................................................... 7
1.6 Variablentransformation ............................................................................................................. 9
1.7 Erwartungswerte....................................................................................................................... 10
1.8 Korrelation ............................................................................................................................... 12
1.9 Kombinatorik ........................................................................................................................... 14
1.10
Verteilungsfunktionen........................................................................................................ 15
1.10.1
1.10.2
1.10.3
1.11
Die Binominalverteilung ............................................................................................. 15
Poissonverteilung ........................................................................................................ 16
Gaußverteilung ........................................................................................................... 16
Zufallssignal ...................................................................................................................... 18
1.11.1
1.11.2
1.11.3
1.11.4
1.11.5
Stationäres stochastisches Signal, stationärer Prozeß:.................................................. 19
Stationäres stochastisches Signal bei ergodischem Prozeß: .......................................... 19
Physikalische Bedeutung............................................................................................. 20
Autokorrelationsfunktion ............................................................................................ 21
Beispiele: .................................................................................................................... 23
2 Transformationen für Spektralanalyse ........................................................30
2.1 Grundbegriffe ........................................................................................................................... 30
2.1.1 Arten von Signalen : ....................................................................................................... 30
2.1.2 Komplexe Darstellung von Schwingungen ...................................................................... 30
2.1.3 Praktische Bedeutung der Signalanalyse.......................................................................... 33
2.2 Fourierreihe.............................................................................................................................. 36
2.3 Fouriertransformation............................................................................................................... 39
2.4 Umsetzung zeitkontinuierlicher Signale in zeitdiskrete Signale und umgekehrt ........................ 43
2.5 Diskrete Signale: Beschreibung im Frequenzbereich................................................................. 45
2.6 Die diskrete Fouriertransformation (DFT)................................................................................. 46
2.7 Systemtheorie: Übertragungsfunktion, Faltung.......................................................................... 54
2.8 Die schnelle Fouriertransformation (FFT)................................................................................. 56
3 Numerische Integration gewöhnlicher Differentialgleichungen ................68
3.1 Numerische Differentiation ..................................................................................................... 69
3.2 Numerische Integration........................................................................................................... 72
3.2.1 Sehnen Trapez- Verfahren:.............................................................................................. 73
3.2.2 Integrationsformel nach Simpson: ................................................................................... 75
3.3 Numerische Lösung von gewöhnlichen Differentialgleichungen erster Ordnung ..................... 77
3.3.1 Die Methoden von Euler , Heun und Runge-Kutta .......................................................... 78
3.3.2 Diskretisationsfehler, Fehlerordnung, Schrittweitensteuerung.......................................... 84
3.4 Differentialgleichungen höherer Ordnung und Systeme........................................................... 86
3.5 Beispiele ................................................................................................................................. 87
3.5.1 RC-Glied ......................................................................................................................... 87
3.5.2 Nichtlineare Differentialgleichung erster Ordnung .......................................................... 91
3.5.3
3.5.4
3.5.5
3.5.6
LC-Schwingkreis............................................................................................................. 93
LC-Hochpaßfilter 3. Ordnung .......................................................................................... 96
Mondlandung .................................................................................................................. 99
Füchse und Hasen.......................................................................................................... 101
Literaturverzeichnis ........................................................................................103
Mathematik II
1.1 Versuchsausgänge im Zufallsexperiment
Dr. C. Clemen
SS 99
1 Statistik für Meßtechnik und Nachrichtentechnik
Statistik befaßt sich mit Zufallsprozessen.
Bsp.:
Ausgang beim Würfeln
Ausfälle bei Produktion von technischen Geräten, Elektronikbauteilen
Streuung von Messwerten (Länge, Spannung...)
Rauschspannung
Nachrichtensignal
In allen Fällen besteht die Ursache für den nicht deterministischen Charakter der Ereignisse
in einer unvollständigen (oder grundsätzlich nicht vollständig erreichbaren) Kenntnis
über ihr Zustandekommen.
Bei den ersten drei Beispielen wäre bei hinreichender Kenntnis von Parametern
(Bahnparameter, Prozeßdaten, Herstellungsgeschichte) zwar theoretisch genaue Kenntnis über
das Ereignis zu erlangen, praktisch ist dies aber nicht sinnvoll oder möglich. Bei den letzten
beiden Beisp. liegt der Grund für den Zufallscharakter naturgemäß in einer nicht ausreichenden
Kenntnis über die Quelle.
1.1
Versuchsausgänge im Zufallsexperiment
Zufallsexperiment werde unter gleichen Bedingungen mehrfach wiederholt ,
mögliche Versuchsausgänge seien ω1, ω2, ω3, ω4,...
Menge aller möglichen Versuchsausgänge Ω = {ω1, ω2, ω3, ω4,... } endliche Anzahl
Wird auch als Wahrscheinlichkeitsraum bezeichnet.
Ereignis = Menge von Versuchsausgängen mit bestimmten Eigenschaften = Teilmenge von Ω
Beispiel:
Würfel, 1 Wurf : Versuchsausgänge werden durch Punktzahl gekennzeichnetà 6 mögliche
Versuchsausgänge Ω = {ω1, ω2, ω3, ω4, ω5, ω6 }
Ereignisse:
A1 = {ω6}
„6“,
A2 = {ω1, ω3, ω5}
„ungerade Punktzahl“
A3 = {ω1, ω2 }
„1 oder 2 “
A2C = Komplement von A2
= {ω2, ω4, ω6}
„gerade Punktzahl“
A1∪A2 = {ω1, ω3, ω5, , ω6} „nicht 2 und 4“
A1∪A1C = Ω,
„irgendeine Zahl,
trifft immer ein“
A2∩A3 = {ω1}
„1“
Seite 1
Mathematik II
1.2 Relative Häufigkeit und Wahrscheinlichkeit
A2∩A1 = { } = ∅
Dr. C. Clemen
SS 99
„trifft nie ein“
A2
A3
Ω
1
5
4
1
1.2
Relative Häufigkeit und Wahrscheinlichkeit
Sei A Ergebnis eines Zufallsexperiments, von dem wir N unabhängige Wiederholungen
ausführen , dabei tauche das Ergebnis A gerade N(A) mal auf.
relative Häufigkeit von A bei endlicher Stichprobe
h N ( A) =
(1.2-1)
N ( A)
N
relative Häufigkeit von A
N ( A)
N →∞ N
h ( A) = lim
(1.2-2)
Wir ordnen A die Wahrscheinlichkeit P(A) = h(A) zu . Man nennt die Zuordnung A ---> P(A)
ein für die Ereignisse von Ω definiertes Wahrscheinlichkeitsmaß.
Eigenschaften des Wahrscheinlichkeitsmaßes:
0 ≤ P( A) ≤ 1
P ( Ω) = 1
P( A1 ∪ A2 ∪....) = P( A1 ) + P( A2 ) +...
falls
Ai und A j
(1.2-3)
falls
Ai ∩ A j = ∅
für
i ≠ j , d . h.
disjunkt / statistisch unabhä ngig / sich paarweise ausschließen
Beispiel 1)
Würfel , 1 Wurf
P({ωi})=1/6 für i = 1,..,6,
P(A2)= P({ω1})+ P({ω3 })+P({ω5})=3/6 =1/2 .
P(A2C) =1- P(A2) = 1-1/2 = ½ ;
P(A3)=2/6
Seite 2
Mathematik II
1.3 Bedingte Wahrscheinlichkeit und abhängige Ereignisse
SS 99
Dr. C. Clemen
Beispiel 2)
Zufallsexp. : mit 2 Würfeln gleichzeitig würfeln, oder mit 1 Würfel 2x hintereinander würfeln:
A= {„Gesamtpunktzahl = 7“}. Es gibt insgesamt 36 mögliche Versuchsausgänge, von denen 6
das Ereignis A darstellen. -> P(A) = 6/36 =1/6 .
11
12
13
14
15
16
21
22
23
24
25
26
31
31
33
34
35
36
41
42
43
44
45
46
51
52
53
54
55
56
61
62
63
64
65
66
Beispiel 3)
4 mal hintereinander eine Münze werfen.
P = Wahrscheinlichkeit dafür,
daß dabei 2 mal Bild vorkommt.
( Bild-->0, Zahl---> 1)
0000
0001
0010
0011
0100
0101
0110
0111
1.3
1000
1001
1010
1011
1100
1101
1110
1111
insgesamt 16 mögliche Versuchsausgänge, davon 6
mal mit Eigenschaft „2 mal Bild“.
---> P= 6/16 = 1/6
Allg. : Münze wird n mal geworfen,
Wahrscheinlichkeit dafür, daß dabei k-mal Bild
auftritt berechnet sich nach der Formel
P=
 n
 
 k
2n
=
n!
k !(n − k )!
2n
n(n − 1).. (n − (k + 1))
k!
=
2n
Bedingte Wahrscheinlichkeit und abhängige Ereignisse
Bsp.: Kartenspiel mit 52 Karten. Werden aus diesem Kartenspiel hintereinander zwei Karten
(ohne Zurücklegen) gezogen, so hängt die Wahrscheinlichkeit für das Eintreffen eines
bestimmten Ergebnisses B beim zweiten Zug vom Ergebnis A beim ersten Zug ab. Diese
Wahrscheinlichkeit nennt man bedingte Wahrscheinlichkeit :
Allgemein
P(B|A)= Wahrscheinlichkeit für das Eintreffen von B unter der Voraussetzung, daß das
Ereignis A eingetroffen ist.
Die bedingte Wahrscheinlichkeit hängt mit der Wahrscheinlichkeit für das gemeinsame
Auftreten von A und B wie folgt zusammen:
Das Zufallsexperiment werden N mal ausgeführt. Dabei trete N1 mal das Ereignis A auf und
unter diesen N1 Fällen seien N2 mal die Fälle, bei denen das Ereignis B auftritt.
Seite 3
Mathematik II
1.3 Bedingte Wahrscheinlichkeit und abhängige Ereignisse
SS 99
P( A ∩ B) = lim
N →∞
Dr. C. Clemen
N 2 ( B)
N ( A) N 2 ( B)
N ( A)
N 2 ( B)
= lim 1
= lim 1
= P( A) ⋅ P( B | A)
lim
N
N N 1 ( A) N →∞ N N1 →∞ N 1
N →∞
P( A ∩ B)
P ( A)
P( A ∩ B)
P ( A| B ) =
P (B )
P ( B | A) =
A
A∩B
B
Beispiel von oben:
Kartenspiel mit 52 Karten enthält 2 rote Asse. A sei das Ergebnis, daß beim ersten Zug ein
rotes Ass gezogen wird und B sei die Wahrscheinlichkeit dafür, daß beim zweiten Zug ohne
Zurücklegen der ersten Karte ein rotes Ass gezogen wird.
P(A) = 2/52 ; P(B|A)= 1/51 . Damit ist die Wahrscheinlichkeit bei zweimaligem Ziehen
(ohne Zurücklegen) zwei rote Asse zu ziehen
P(A∩B)= P(A)P(B|A)= (2/52)(1/51)
Allgemein:
Zwei Ereignisse A und B sind statistisch unabhängig, wenn die Wahrscheinlichkeit für das
Auftreten von B unabhängig von der Wahrscheinlichkeit für das Auftreten von A ist. Also
P( B | A) = P( B)
 ⇒
P( A | B) = P( A) 
P ( A ∩ B ) = P ( A) P (B )
falls A ∩ B = ∅ also A und B statistisch unabhä ngig sind
Seite 4
(1.3-1)
Mathematik II
1.4 Diskrete Zufallsvariable
1.4
Dr. C. Clemen
SS 99
Diskrete Zufallsvariable
Ω
ω1
ω5
x1
x2
P(xi)
x3
Zur besseren Handhabung werden die
Zustände im Wahrscheinlichkeitsraum
durch reelle Zahlen gekennzeichnet.
Diesen Zuständen werden aufgrund ihrer
relativen Häufigkeit
X(ωi) Wahrscheinlichkeiten zugeordnet. --->
Wahrscheinlichkeitsdichte der diskreten
Zufallsvariable P(xi)
Durch Verfeinerung der Abstände
zwischen den Zuständen und
gleichzeitiger Erhöhung der Zahl der
Zustände gelangt man zu einer
xi
kontinuierlichen Zufallsvariable und ihrer
Wahrscheinlichkeitsdichte p(x)
(Verteilungsfunktion).
Allgemein:
kumulative Wahrscheinlichkeitsverteilung (Verteilungsfunktion)
F(xk)=P(X ≤ xk).= Wahrscheinlichkeit dafür, daß die Variable X einen Wert X ≤ xk annimmt.
Beispiel 1: Münze 4 mal hintereinander werfen:
Es gibt 16 verschiedene Versuchsausgänge. Definiert man als Ereignis das Auftreten eines
Kopfes, so gibt es 5 verschiedene Ereignisse, nämlich „kein Kopf“, „1x Kopf“, „2x Kopf“, „3x
Kopf“, „4x Kopf“. Diesen Ereignissen ordnen wir die ganzen Zahlen 0, 1,2,3,4 zu und
definieren die Zufallsvariable X mit den Werten
xk = k für k = 0,... 4 .
Für das Auftreten eines Wertes dieser Zufallsvariable definieren wir die diskreten
Wahrscheinlichkeiten
 4
4!
 
 k  k !( 4 − k )!
3
P( x k ) =
=
=
16
2 k !( 4 − k )!
24
P( 0) = P( 4) = 1 / 16
P(1) = P( 3) = 4 / 16
P(2) = 6 / 16
Man erkennt, daß
4
∑ P( x k ) = 1
k =0
Graphische Darstellung von P(xk) und F(xk) siehe nächste Seite:
Seite 5
Mathematik II
1.4 Diskrete Zufallsvariable
Dr. C. Clemen
SS 99
P(xk)
1
F(xk)=
P(X<=xk)
0,5
0,5
0
0
0 1 2 3 4
xk
0 1 2 3 4
xk
Beispiel 2:
digitale Übertragungsstrecke
Empfänger
Sender
Störungen
Gegeben sei ein binärer
Übertragungskanal. Die
Wahrscheinlichkeit dafür , daß ein
empfangenes Bit falsch ist sei PF =
2/5 (Für Einsen und Nullen gleich
groß). Zur Erhöhung der
Übertragungssicherheit werde jedes
Bit drei mal hintereinander
gesendet.
0--->000
1--->111
Man kann das auch so ausdrücken: Zu jedem Informationsbit werden zusätzlich zwei
Fehlersicherungsbits übertragen, wobei deren Werte gleich dem Wert des Informationsbits
gewählt werden.
Wie groß ist die Fehlerwahrscheinlichkeit für die Informationsbits?
Lösung:
X= Zahl der Fehler pro übertragenem Informationsbit ---> disktrete Zufallsvariable mit
Werten xi =0, 1, 2, 3.
richtige Übertragung eines Bits ---> Ereignis R, Fehler bei Übertragung ---> Ereignis F
P(F)=2/5,
P(R) = P(FC) = 1 - P(F) = 3/5.
Der Zustandsraum hat 2x2x2 = 8 mögliche Zustände.
X = 0:
P(RRR) = P(R)P(R)P(R) =(3/5)3 = 27/125
X = 1:
P(RRF) = P(R)P(R)P(R) =(3/5)2((2/5) = 18/125
X = 2:
P(RFF) = P(R)P(R)P(R) =(3/5)(2/5)2 = 12/125
X = 3:
P(FFF) = P(R)P(R)P(R) =(2/5)3 = 8/125
Für X=1 und X=2 gibt es jeweils 3 verschiedene Möglichkeiten der Anordnung des Fehlers
bzw. des richtig übertragenen Bits, so daß sich die Wahrscheinlichkeiten sowie die kumulative
Wahrscheinlichkeit wie folgt ergeben
xi
P(xi)⋅125
F(xi)⋅125
------------------------------------0
27
27
1
54
81
2
36
117
3
8
125
Seite 6
Mathematik II
1.5 Kontinuierliche Zufallsvariable und Zufallsdichtefunktion
SS 99
1.5
Dr. C. Clemen
Kontinuierliche Zufallsvariable und Zufallsdichtefunktion
Bei einer kontinuierlichen Zufallsvariable X kann x jeden Wert innerhalb eines Intervalls
annehmen.
Beispiele:
1) Körpergröße, Gewicht und Körpertemperatur von Patienten , die bei einem Arzt in der
Praxis auftauchen.
2) Temperatur am Königsplatz
3) Drehscheibe:
Endwinkel, der sich nach Rotation beim Anhalten ergibt. Man erkennt, daß daraus abgeleitete
Größen auch Zufallsvariable sind z.B: die Projektion des Zeigerendpunktes auf eine Achse.
ϕ
ϕ 0 ≤ ϕ ≤ 2π
y = cos ϕ − 1 ≤ y ≤ 1
y
4) Dartspiel: Abstand des Auftreffpunktes des Darts vom Mittelpunkt der Scheibe. Ist auch
diskretisierbar indem auf der Scheibe Zonen eingezeichnet sind.
5) Amplitude einer Rauschspannung.
6) Wartezeit beim Anstehen in der Mensa (Zeit vom Eintreffen in der Mensa bis zum Empfang
des Essens), Bus.
Sei X eine kontinuierliche Zufallsvariable, die über einem Teilintervall oder über Teilintervallen
der reellen Zahlen ℜ definiert ist. Wir können diese Variable durch eine „Nullfortsetzung“
über ganz ℜ definieren.
Da es jetzt unendlich viele mögliche Zustände gibt, kann die Wahrscheinlichkeit nicht mehr wie
bisher durch abzählen der zum Ereignis A gehörigen Zustände und teilen durch die Gesamtzahl
der Zustände definiert werden. Man kann jedoch die kumulative Verteilungsfunktion
angeben und daraus eine Dichtefunktion bestimmen:
Seite 7
Mathematik II
1.5 Kontinuierliche Zufallsvariable und Zufallsdichtefunktion
SS 99
Dr. C. Clemen
FX (x ) = P ( X ≤ x ) Wahrscheinlichkeit dafür, daß der Wert der Zufallsvariable X kleiner oder
gleich einem bestimmten Wert x ist.
dF
p X (x )dx =
dx = P ( X ≤ x + dx ) − P ( X ≤ x ) Wahrscheinlichkeit dafür, daß der Wert der
dx
Zufallsvariable X im Intervall x ≤ X ≤ x+dx liegt.
x
P ( X ≤ x ) = F (x ) =
∫ p(x' )dx '
−∞
Diese Funktion ist monoton wachsend, also ist p(x) ≥ 0 und F(-∞) =0 , F(∞) =1
p(x)dx
F(b)-F(a)
p(x)
∞
∫ p X (x)dx = 1
F(x) 1
−∞
a
b
p(x )dx = P (x ≤ X ≤ x + dx )
x
x
b
P (a < x ≤ b) = F (b) − F (a ) = ∫ p (x ' )dx '
a
Bsp.:
Drehscheibe: Zufallsvariable ist Endwinkel ϕ
0≤ϕ<2π
alle Winkel sind als Ergebnis gleich wahrscheinlich ---> p(ϕ)= const
2π
2π
0
0
1/(2π)
∫ p(ϕ )dϕ = ∫ const ⋅ dϕ
= const ⋅ 2π = 1 ⇒
ϕ
F (ϕ ) = ∫ pdϕ ' =
0
p = const =
p(ϕ)
0
F(ϕ) 1
1
2π
2π
ϕ
ϕ
0
2π
ϕ
2π
Die Begriffe lassen sich ganz analog auch auf mehrere Variable übertragen. z.B.
Seite 8
Mathematik II
1.5 Kontinuierliche Zufallsvariable und Zufallsdichtefunktion
SS 99
p XY (x , y )dxdy = P (x < X < x + dx , y < Y < y + dy )
P (a < X ≤ b , c < Y ≤ d ) =
∫∫ p XY (x , y )dxdy
a < x <b
c< y < d
Seite 9
Dr. C. Clemen
Mathematik II
1.6 Variablentransformation
1.6
Dr. C. Clemen
SS 99
Variablentransformation
Bsp.: Man bestimme die Wahrscheinlichkeitsdichte für die Projektion des Winkels bei der
Drehscheibe.
Allgemein:
Aus der Zufallsvariable X wird durch die Funktion g eine neue Zufallsvariable Y gebildet
Y=g(X) .
Die Funktion sei umkehrbar, d.h. g ist entweder monoton steigend oder monoton fallend.
Daraus folgt: Wenn X im Intervall x<X<x+dx liegt, liegt Y im Intervall y < Y < y+dy mit y =
g(x). Daraus folgt : p(x)dx = p(y)dy mit dx >0 und dy >0. Daraus folgt: x und die Ableitung
können aus der Umkehrfunktion berechnet werden. Da die Ableitung bei fallender Funktion
negativ ist wird der Absolutbetrag gesetzt.
dx
p( y ) = p( x )
(1.6-1.)
dy
Beispiel 1)
Zwischen den Zufallsgrößen X und Y bestehe ein linearer Zusammenhang Y= αX + β
y = αx + β
y−β
dx dg −1 1 > 0 falls α > 0
−1
x=
= g ( y )⇒ =
=

α
dy
dy
α < 0 falls α < 0
1
y−β
pX 

α
 α 
Die neue Wahrscheinlichkeitsdichte geht durch eine Maßstabsänderung aus der alten hervor.
⇒ pY ( y ) =
Beispiel 2)
Drehscheibe : siehe einleitendes Beispiel: Y= A cosΦ
Betrachten zunächst den Bereich
0<ϕ ≤π ⇒
y = A cos ϕ = g1 (ϕ ) in − A < y ≤ A
y
−1
ϕ = g1 ( y ) = arccos( )
A
dϕ
1
1
=−
pΦ (ϕ ) =
2
dy
2π
 y
1−  
a
1
1
⇒ pY1 ( y ) =
2
2π
 y
1−  
a
Analog ergibt sich derselbe Ausdruck im Bereich
Seite 10
y
Y
A
A
0
2π
pΦ(ϕ)
pY(y)
Φ
-A
ϕ
0
2π
Mathematik II
1.7 Erwartungswerte
Dr. C. Clemen
SS 99
π < ϕ ≤ 2π . Die Gesamtwahrscheinlichkeitsdichte im Intervall 0 < ϕ ≤ 2π ist also doppelt so
groß wie die von pY1 ( y ) , nämlich
pY ( y ) =
1.7
1
π
1
 y
1−  
 a
2
Erwartungswerte
Beschreibung der Zufallsvariable durch charakteristische Größen.
Wir bestimmen den Erwartungswert oder Mittelwert einer diskreten Zufallsvariable X wie
folgt:
Es werde das Zufallsexperiment mit den möglichen Ereignissen x1, x2, x3, ..... xk
N mal ausgeführt. Dabei trete der Wert x1 der Zufallsvariable N1 mal auf , der Wert x2 der
Zufallsvariable N2 mal auf, etc. Dann ist der Mittelwert:
x N + x 2 N 2 + ...... + x k N k
XN = 1 1
N
Für N--> ∞ erhalten wir
k
X = x1 P( x1 ) + x 2 P( x 2 ) + ...... + x k P( x k ) = ∑ x i P( x i )
(1.7-1)
i =1
Entsprechend definieren wir den Erwartungswert für eine kontinuierliche Zufallsvariable:
X=
∞
∫ xp( x)dx
(1.7-2)
−∞
Für die Operation zur Bildung des Erwartungswertes oder Mittelwertes sind drei
verschiedenen Notationen gebräuchlich, oft werden sie sogar nebeneinander gebraucht.
X = E[ X ] = µ X
Wird eine Zufallsvariable über eine Funktionszusammenhang in eine neue Zufallsvariable
transformiert, so kann man für diese neue Zufallsvariable auch den Erwartungswert bilden.
Dafür ist die transformierte Wahrscheinlichkeitsdichte in die obige Formel einzusetzen. Wegen
der Transformationsformel für die Wahrscheinlichkeitsdichten pZ(z)dz = pX(x)dx ist aber der
Erwartungswert von Z gleich dem Erwartungswert von g(X):
Z = g( X )
Z=
∞
⇒
∫ zp Z ( z )dz =
−∞
(1.7-3)
∞
∫ g ( x) p
−∞
Seite 11
X
( x)dx = g ( X )
Mathematik II
1.7 Erwartungswerte
Dr. C. Clemen
SS 99
Die Bildung des Erwartungswertes ist eine lineare Operation, d.h.
∑ a g (X ) = ∑ a g (X )
i
i
i
i
(1.7-4)
i
i
Die Erwartungswerte für Potenzen von X nennt man Momente (n-te Potenz = n-tes Moment)
X
1.Moment = Mittelwert
X2
2.Moment = quadratischer Mittelwert
Xn
n.tes
Moment
Ein Maß für die „Verschmierung“ einer Zufallsvariable bildet die Varianz
(1.7-5)
σ 2 = [( X − X ) 2 ]
Wir berechnen aufgrund der Linearität:
2
σ 2 = [( X − X ) 2 ] = [ X 2 − 2 X X + X ] = X 2 − X
2
(1.7-6)
Tschbyscheff’sche Ungleichung:
Man kann nachweisen, daß allgemein gilt:
P ( x − x ≤ kσ ) ≥ 1 −
P ( x − x ≥ kσ ) <
1
1
k2
(1.7-7)
k2
Diese Abschätzung gilt für jede Verteilungsfunktion, mit anderen Worten, sie ist unabhängig
von der Verteilungsfunktion.
Beisp.:
P ( x < 2σ ) = 0,75
k= 2 ---> 1/(k2) = ¼ = 0,25
Zum Vergleich rechnen wir die entsprechende Wahrscheinlichkeit für die Verteilungsfunktion
1
p(x )= e − x
−∞<x<∞
2
Wir erhalten:
x=0
x2 = 2
σ= 2
P ( x < 2σ ) = 0,94
Seite 12
Mathematik II
1.8 Korrelation
1.8
Dr. C. Clemen
SS 99
Korrelation
Zufallsexperiment mit zwei Zufallsvariable X und Y
Kovarianz
Varianz
σ 2 X = ( X − X )( X − X )
σ XY = ( X − X )(Y − Y )
(1.8-1)
Die Kovarianz ergibt ein
Maß für die Ähnlichkeit der zwei statistischen Variablen, oder anders ausgedrückt
Maß für den linearen Zusammenhang zwischen zwei statistischen Variablen
σ 2 X +Y = {( X + Y ) − ( X + Y )} 2 = {( X − X ) + (Y − Y )} 2 =
{( X − X ) 2 + (Y − Y ) 2 + 2( X − X )(Y − Y )} =
∫∫ {( X − X )
2
+ (Y − Y ) 2 + 2 ( X − X )(Y − Y )}p XY (x , y )dxdy
⇒
σ 2 X ± Y = σ 2 X + σ 2 Y ± 2σ XY
(1.8-2)
σ XY = ( X − X )(Y − Y ) =
= X ⋅ Y − X ⋅ Y − X ⋅Y + X ⋅ Y
= X ⋅Y − X ⋅Y
Für statistisch unabhängige Zufallsvariable X und Y gilt
σ XY = 0,
X ⋅Y = X ⋅Y
X +Y = X +Y
σ
Korrelationskoeffizient
rXY =
2
X +Y
σ XY
σ 2 X ⋅ σ 2Y
=σ
2
X
+σ
(1.8-3)
2
mit
Seite 13
Y
− 1 ≤ rXY ≤ 1
(1.8-4)
Mathematik II
1.8 Korrelation
Dr. C. Clemen
SS 99
Beispiel.: Autounfallstatistik
Für jeden bei einer oder mehreren Versicherungsgesellschaften registrierten Unfall wird
aufgenommen: Autokennzeichen, Autotyp und PS -Zahl, Autofarbe, Alter und Geschlecht des
Fahrers/Fahrerin, Schwere des Unfalls, Tempo beim Unfall, Wetter in Skala ( Schönes
Wetter,..Föhn, ... frischer Schneefall, vereiste Straßen),Tageszeit, Jahreszeit, Fahrstrecke
nach Antritt der Fahrt, Beifahrer (Zahl, Geschlecht, Alter ...).
a) man erstelle diskrete Zufallsvariablen für verschiedenen Kategorien
X= Autokennzeichen , die letzte Ziffer xi = 0,........,9
Y= PS-Zahl : y1 = 1 für 50 bis 70 PS , y2 =2 für 71 bis 90 PS, y3 = 3 für 91 bis 110PS y4 = 4
für 111 bis 140 PS , y5 = 5 für 141 bis 190 PS,....
Z = Versicherungsschaden (Krankenhaus und Auto-Reparaturkosten) (Schwere des Unfalls ) zi
= DM -Beträge
W =Wetterskala 6 = sehr schön, 5= weniger schön, bedeckter Himmel, ....
b) man erfinde oder spekuliere über Abhängigkeiten. Wie würden Diagramme für Wertepaare
X/Y, X/Z W/Z aussehen?
Seite 14
Mathematik II
1.9 Kombinatorik
1.9
Dr. C. Clemen
SS 99
Kombinatorik
1.
n ! = 1 ⋅ 2 ⋅ 3⋅......⋅n
ist die Anzahl der Möglichkeiten , n Elemente linear
anzuordnen.
(1.9-1)
Bsp.:
Die Zusammenstellung von linearen Anordnungen von 3 verschiedenen Elementen kann wie
folgt vorgenommen werden. Es gibt 3 Möglichkeiten zur Belegung der ersten Position. Für
jede dieser Möglichkeiten bleiben zur Besetzung der zweiten Position zwei Elemente. Ist auch
die zweite Position besetzt, so kann die dritte Position nur mehr mit dem verbleibenden 3. ten
Element besetzt werden.
2.
nk ist die Anzahl der Möglichkeiten, aus n verschiedenen Elementen k Elemente
(1.9-2)
mit Zurücklegen und mit Berücksichtigung der Reihenfolge herauszugreifen
Bsp.: Urne mit 5 (von 1 bis 5) nummerierten Kugeln, Entnahme von 2 Kugeln mit
Zurücklegen und unter Berücksichtigung der Reihenfolge
11
12
13
21
22
23
31
31
33
41
42
43
51
52
53
Anzahl = 5x5 = 52
14
24
34
44
54
15
25
35
45
55
3.
 n n(n − 1)..(n − ( k + 1))
n!
=
 =
k!
k !( n − k )!
 k
ist Anzahl der Möglichkeiten aus n verschiedenen Elementen k Elemente ohne
Zurücklegen und ohne Rücksicht auf die Reihenfolge herauszunehmen.
(1.9-3)
Bsp.: Urne mit mit 10 verschiedenen (von 1 bis 10 durchnummerierten) Kugeln. Entnahme von
3 ohne Zurücklegen : Es gibt 10 verschiedene Möglichkeiten für die erste Kugel , bei der
zweiten Entnahme nur mehr 9 verschiedene Möglichkeiten und bei der dritten Entnahme nur
mehr 8 verschiedene Möglichkeiten. Für die drei entnommenen Kugeln gibt es 3!
Möglichkeiten der Anordnung.
10 ⋅ 9 ⋅ 8
Anzahl =
= 10 ⋅ 3 ⋅ 4 = 120
1⋅ 2 ⋅ 3
Seite 15
Mathematik II
1.10 Verteilungsfunktionen
Dr. C. Clemen
SS 99
1.10 Verteilungsfunktionen
auch Zufallsmodelle genannt
1.10.1 Die Binominalverteilung
A sei Ergebnis bei einem Zufallsexperiment P(A)= p und P(AC)=1-p
Wir führen n unabhängige Wiederholungen des Zufallsexperiments durch
Die Wahrscheinlichkeit, daß bei den ersten m Versuchsausführungen das Ereignis A auftritt
und bei den restlichen AC ist gegeben durch
P ( A.... AA C .... A C ) = 1
P(4
A4
)....
P( 3
A) P ( A C )......... P( A C ) = p m (1 − p) n − m .
244
1444444424444444
3
m− mal
(n − m)− mal
 n
Es gibt   Möglichkeiten, die Reihenfolge für die m Plätze von A unter den insgesamt n
 m
Wiederholungen zu variieren. Daher ist
P(X=m) = Wahrscheinlichkeit dafür, daß das Ereignis A m mal als Versuchsergebnis auftritt
0≤m≤n
gegeben durch
(1.10-1)
 n
P( X = m) =   p m (1 − p) n− m .
 m
Eigenschaften der Binominalkoeffizienten:
 n
n!
.
 =
 m m!(n − m)!
 n  n 

  =
 m  n − m
(1.10-2)
 n  n
  =   =1
 0  n
 n  n 
 =n
  =
 1  n − 1
 n  n  n(n −
=
  =
2
 2  n − 2
1
 A
Ist X i = 
je nachdem, ob bei der i-ten Durchführung des Zufallsexperimentes  C
0
A
auftritt,
so gilt
E[Xi]=1⋅p - 0⋅⋅(1-p) = p und E[(Xi-p)2]= (1- p)2p - (0 - p)2(1 - p)= p⋅(1 - p) Offenbar ist X=
X1+X2 +X3 +....+Xn. Weil die Xi statistisch unabhängig sind, folgt für die binominalverteilte
Zufallsvariable X
(1.10-3)
µ = n⋅ p
σ 2 Bi = n ⋅ p ⋅ (1 − p)
Bi
Seite 16
Mathematik II
1.10 Verteilungsfunktionen
Dr. C. Clemen
SS 99
1.10.2 Poissonverteilung
Einfacher handhabbare Näherung der Binominalverteilung für
n groß, p klein, np = endlich
P ( X = m) =
µ m −µ
e
m!
µ = np
σ
2
(1.10-4)
= µ (1 − p) ≈ µ
1.10.3 Gaußverteilung
Die Gauß-Verteilung ist die wichtigste kontinuierliche Verteilung. Sie ist anwendbar bei
Systemen mit vielen leicht gekoppelten Teilchen.
Beisp.:
Thermisches Rauschen
Fehler in Produktion
Streuung bei Längenmessung um Mittelwert
p( x ) =
( x − µ )2
2
e 2σ = N (µ ; σ 2 )
−
1
σ 2π
(1.10-5)
Die Berechnung des Mittelwertes und der Varianz für diese Dichtefunktion ergibt, daß diese
gleich den Parametern µ und σ in der Ausgangs-Formel sind.
x
Gauß'sche Verteilungsfunktion
5 , 4.9.. 5
0.2
0.16
p( x)
p( x ) 0.12
0.08
1
. exp ( x 1 )
2
2. 2
2. 2. π
0.04
0
5
4
3
2
1
0
1
2
3
4
5
x
normierte Gauß'sche Verteilungsfunktion
0.4
0.32
φ( x)
φ( x ) 0.24
0.16
0.08
0
5
4
3
2
1
0
x
1
2
3
Seite 17
4
5
2
1 .
x
exp
2
2. π
2
Mathematik II
1.10 Verteilungsfunktionen
Dr. C. Clemen
SS 99
Die Dichtefunktion ist symmetrisch zu x = µ,
99,7 % der Gesamtfläche liegt innerhalb des Intervalls µ-3σ < x < µ+3σ
Die Berechnung der kumulativen Wahrscheinlichkeit (Verteilungsfunktion) führt auf ein nicht
analytisch zu bestimmendes Integral. Der Wert des Integrals muß numerisch bestimmt werden.
Für eine normierte Version der Verteilungsfunktion gibt es tabellierte Funktionswerte für den
gesamten Definitionsbereich.
x2
φ ( x) =
1 − 2
e
2π
Φ( x) =
1
2π
für
−∞< x <∞
2
Φ ( −∞) = 0,
x −t
e 2 dt
∫
−∞
Φ( ∞) = 1, Φ( − x ) = 1 − Φ( x ),
oder auch in der amerik . Literatur
0 < Φ( x ) < 1
für x ≥ 0:
∞
x
2
2
2
2
e − t dt
erfc( x ) =
e − t dt
∫
∫
π 0
π
x
x ≤ 0: erf ( x ) = erf ( x )
erf ( x ) =
erf ( x ) + erfc( x ) = 1
x− µ
u2
σ
−
x−µ
e 2 du =Φ (
)
(t − µ ) 2
−
1
2σ 2 dt = 1
e
∫
∫
σ 2π −∞
2π −∞
x
F (x ) =
(1.10-6)
σ
Übung:
Man rechne Φ(x) in erf(x) um.
Lösung:
für
−∞< x <∞
x
Φ( x ) =
=
t2
x/ 2
0
−
2
2
1
1
1
1
e 2 dt =
e − t ' dt ' =
e − t ' dt ' +
∫
∫
∫
2π −∞
π −∞
π −∞
π
1
[1 + erf ( x)]
2
Seite 18
x/ 2
∫
0
e − t ' dt '
2
(1.10-7)
Mathematik II
1.11 Zufallssignal
Dr. C. Clemen
SS 99
1.11 Zufallssignal
auch stochastisches Signal oder Zufallsprozeß genannt.
Darunter versteht man eine Zufallsvariable, die von der Zeit abhängt.
Bsp.:
1.
2.
3.
4.
Mehrere Zufallsexperimente hintereinander
Digitales Nachrichtensignal
Rauschsignal
Sprachsignal
zu 1: Zwei Spieler A und B werfen zu den Zeitpunkten t0, t1, t2, t3,.... eine Münze. Bei
„Wappen“ gewinnt der Spieler A eine DM, bei „Zahl“ gewinnt B eine DM. Der Gewinn des
Spielers A ist eine diskrete Zufallsgröße X(t), wobei der Parameter t Element eines diskreten
Parameterraums T = { t0, t1, t2, t3,.... } ist.
X
t1 t2
t3
t4
t5 t6
t7
t
zu jedem Zeitpunkt ist X(t) eine Zufallsvariable. Die Dichtefunktion bzw.
Wahrscheinlichkeitsverteilung (bei diskreter Zufallsvariable ) ist für jeden Zeitpunkt definiert.
zu 4.: Beim Sprachsignal ändert sich z.B. die Dichtefunktion mit der Zeit p(x,t) von Formant
zu Formant wie aus dem Signalverlauf für eine Beispielfunktion (Realisierungsfunktion) zu
ersehen ist
Seite 19
Mathematik II
1.11 Zufallssignal
Dr. C. Clemen
SS 99
1.11.1 Stationäres stochastisches Signal, stationärer Prozeß:
1. Die Dichtefunktion bzw. Wahrscheinlichkeitsverteilung (bei diskreter Zufallsvariable ) hängt nicht von
der Zeit ab.
2. In diesem Fall hängen dann auch die Erwartungswerte (Mittelwert, Quadratischer Mittelwert, Streuung
...) nicht von der Zeit ab.
1.11.2 Stationäres stochastisches Signal bei ergodischem Prozeß:
Bei einem ergodischen Prozeß genügt es nur eine Beispielfunktion (auch Realisierungsfunktion
genannt) des Zufallsprozesses zu kennen, um auf die Erwartungswerte zu schließen. Die
Erwartungswerte können als Zeitmittelwerte über eine ausgewählte (Realisierungs-) Funktion
des stochastischen Prozesses bestimmt werden. Die Bedingung ergodisch ist noch stärker als
stationär.
X = x (t )
t
X 2 = x 2 (t )
t
t2
( X − µ ) 2 =  x (t ) − x (t ) 


t
g ( X ) = g ( x (t ))
t
(1.11-1)
Dabei ist mit g(x) eine aus der Zufallsvariablen gebildete Funktion bezeichnet worden. Die
Operation zur Berechnung der Erwartungswerte wird wieder durch Überstrichen der
Zufallsvariable gekennzeichnet.
Seite 20
Mathematik II
1.11 Zufallssignal
Dr. C. Clemen
SS 99
K

für ein diskretes Zufallssi gnal
 ∑ g ( x i ) P( x i )
i =1
g( X ) =  ∞
(1.11-2)
 g ( x ) p( x)dx
für
ein
kontinuier
liches
Zufallssi
gnal
−∫∞
Die Bestimmung der Zeitmittelwerte für diskrete bzw. kontinuierliche Realisierungsfunktion
erfolgt nach der Vorschrift:

1 ∞
(1.11-3)
für eine diskrete Realisierungsfunktion
lim

∑ g( x(n))
2
n
→∞
n

t
n = −∞
g ( x (t )) = 
T
 lim 1 g ( x (t ))dt
für eine kontinuierliche Realisierungsfunktion
T →∞ 2T ∫
−T

Bem.:
1. Bei einem diskreten stochastischen Signal liegt die Realisierungsfunktion als zeit- und
werte- diskrete Folge von Werten x(n) vor, wobei x die diskreten Werte x1, ..... xK
annehmen kann. Meistens ist die Zeitdiskretisierung äquidistant mit der Abtastperiode TA .
Dann gilt x(n)= x(tn) mit tn = nTA.
2. Handelt es sich um Prozesse von endlicher oder gar nur kurzer Dauer (sogenannte
Energiesignale), so ist die Zeitmittelung über den gesamten Zeitbereich (-∞ < t< ∞) nicht
sinnvoll. Für diese Signale wird die Division durch die Zeit einfach weggelassen.
Energiesignal
∞

für eine diskrete Realisierungsfunktion

∑ g ( x(n))
 n = −∞
t
g ( x (t )) =  ∞
 g ( x (t )) dt
für eine kontinuierliche Realisierungsfunktion
∫
−∞
(1.11-4)
1.11.3 Physikalische Bedeutung
Die zeitlichen Mittelwerte haben bei elektrischen Signalen folgende physikalische Bedeutung:
Für ein Spannungssignal u(t) ist
t
u (t ) = U 0
Gleichspannungsanteil
t
u 2 (t ) = Pn
 u(t ) − u(t ) t 


zeitlich gemittelte, auf einen Bezugswiderstand von 1Ω normierte Leistung
2
t
= U 2 eff
Quadrat des Effektivwertes (engl.:Root Mean Square, RMS)
Bem.: Normierte Signalleistung :
Seite 21
Mathematik II
1.11 Zufallssignal
Dr. C. Clemen
SS 99
Im folgenden ist unter Signalleistung immer die auf den Bezugswiderstand normierte Leistung
zu verstehen, den Index n werden wir jedoch weglassen.
1
P = lim
T →∞ 2T
T
∫
−T
t
P
u 2 (t )
u 2 (t )
= n
dt =
R
R
R
(1.11-5)
Beispiel 1: Rauschsignal
Es gibt beliebig viele Realisierungfunktionen, eine ist unten abgebildet. Alle
Realisierungsfunktionen haben für jeden Zeitpunkt dieselbe Dichtefunktion für die Amplituden.
Die Dichtefunktion gibt auch die Wahrscheinlichkeit wieder, mit der eine bestimmte Amplitude
bei der stochastischen Zeitfunktion auftaucht.
Man stelle sich ein Fenster vor, das bei der Amplitude x die Breite dx hat. Dann ist das
Verhältnis der Zeit t(x) , in welcher die Amplitude x(t) der Zeitfunktion innerhalb dieses
Fenster auftaucht, zur Gesamtbeobachtungszeit t0 gleich p(x)
dx
x(t)
x
p(x)
t
t ( x)
p( x ) = lim
t 0 →∞ t 0
t
x (t ) =
∞
∫ xp( x)dx = 0
−∞
t0
Beispiel 2: Binärer Zufallsgenerator
Für ein 10 Bit langes Signal gibt es 210 mögliche Signalverläufe.
1.11.4 Autokorrelationsfunktion
Wir nehmen an, das Rauschsignal aus Beispiel 1 sei bandbegrenzt. Es sei durch ein
Tiefpaßfilter gegangen und enthalte nur mehr Teilschwingungen bis zu einer gewissen
maximalen Frequenz. Die maximal mögliche Krümmung des Signalverlaufs in jeder
Beispielfunktion ist begrenzt.
Nun komprimieren wir das Signal zeitlich. Das kann man sich praktisch so vorstellen, daß wir
das Signal auf einem Magnetband speichern und das Band bei der Wiedergabe schneller laufen
lassen als bei der Aufnahme.
Man erkennt, daß nun die maximale Krümmung des Signals in jeder Realisierungsfunktion des
Zufalls-Signals auch stärker geworden ist. Trotzdem ist die Dichtefunktion für den
Zufallsprozeß durch die Zeitkompression nicht verändert worden. Somit sind auch alle
Erwartungswerte - Mittelwert, quadratischer Mittelwert (Leistung), Varianz (Quadrat des
Effektivwertes) - unverändert, obwohl es sich bei dem zeitlich komprimierten Zufallsprozeß
doch offensichtlich um einen wesentlich veränderten Prozeß handelt.
Ein speziell definierter Erwartungswert, der auf den oben beschriebenen Effekt empfindlich
reagiert, ist die Autokorrelationsfunktion (AKF). Sie ist ein Maß für die Krümmungen der
Seite 22
Mathematik II
1.11 Zufallssignal
Dr. C. Clemen
SS 99
Beispielfunktion. Man kann sie auch als Maß für die Ähnlichkeit einer Beispielfunktion bei der
Zeit t1 mit einer weiteren Beispielfunktion bei der Zeit t2 interpretieren.
Wir behandeln hier die AKF nur für ergodische Prozesse. In diesem Fall ist die
Dichtefunktion unabhängig von der Zeit .
Zur Bestimmung der AKF wird die Beispielfunktion x(t) mit der um die variable Zeit τ
verschobenen Beispielfunktion x( t + τ ) verglichen. Das Maß für den Vergleich ergibt sich aus
der Berechnung des zeitlich gemittelten Produktes x(t)x( t + τ ).
Für diese Berechnungsart der Autokorrelationsfunktion verwendet man das Symbol
Φ xx (τ ) = x (t ) x (t + τ )
Φxx(τ)
Φxx(τ)-->Sxx(f)
F.T.
vor
|Sxx(f)|
nach
Zeitkompression
τ
Φxx(τ)<--Sxx(f)
F.T.-1
(1.11-6)
t
nach
vor
Zeitkompression
f
Die Krümmungen der Signalfunktion bzw. die Ähnlichkeit des Zufallssignals mit sich selbst als
Funktion des zeitlichen Abstandes von einem Referenz-Zeitpunkt hat etwas damit zu tun, wie
sich die Realisierungsfunktion in Teilschwingungen auflösen läßt. Hierzu gibt es den wichtigen
Satz von Wiener/ Kintschie, der besagt, daß für ergodische stochastische Prozesse die
spektrale Leistungsdichte einer Realisierungsfunktion durch die AKF bestimmt ist. Je schmaler
die zeitliche Ausdehnung der AKF ist, desto breiter ist die Ausdehnung der Leistungsdichte im
Frequenzbereich und umgekehrt. Von Wiener und Kintschie wurde der folgende Satz
bewiesen:
Die komplexe spektrale Leistungsdichte eines stochastischen Signals ist gleich der
Fouriertransformierten der Autokorrelationsfunktion des stochastischen Signals.
Bem. zur Leistungsdichte:
Die Leistung zerlegt man in eine Summe über die reelle Leistungsdichte p(f), dabei ist p(f)df
die Leistung des Signals im Bereich zwischen f und f+df
2
t
P = x (t ) =
∞
∫ p( f )df
(1.11-7)
0
Die komplexe Leistungsdichte Sxx(f) ist für Frequenzen von -∞ < f < ∞ definiert und stimmt
bis auf eine Phase mit der reellen Leistungsdichte überein.
1

S xx ( f ) = p( f ) 
2

*
für f ≥ 0
(1.11-8)
S xx (− f ) = S xx ( f ) 

(konjugiert komplex)
Seite 23
Mathematik II
1.11 Zufallssignal
Dr. C. Clemen
SS 99
S xx ( f ) =
∞
∫Φ
xx
(τ )e − j 2π ⋅ f ⋅τ dτ = F .T .[Φ xx (τ )]
−∞
Φ xx (τ ) =
∞
∫S
xx
(1.11-9)
( f )e j 2π ⋅ f ⋅τ df = F .T . −1 [ S xx ( f )]
−∞
Der Wert der Autokorrelationsfunktion für τ = 0 stimmt mit der Signalleistung überein:
(1.11-10)
Φ xx (τ ) = P
Für zwei stochastische Signale x(t) und y(t) kann man die Kreuzkorrelationsfuntkion
definieren:
t
(1.11-11)
Φ (τ ) = x(t ) y (t + τ )
xy
Die Kreuzkorrelationsfunktion ist ein Maß für die Ähnlichkeit der Funktion x( t) mit der um
die Zeit τ verschobenen Funktion y(t) , also mit y( t+ τ).
1.11.5 Beispiele:
Zunächst berechnen wir die Zeitmittelwerte und die AKF für zwei deterministische Signale
1) Sinusschwingung: x (t ) = A cos(ω ⋅ t + ϕ )
x (t ) = A cos(ω ⋅ t + ϕ )
T
1
A cos(ω ⋅ t + ϕ )dt = 0
x (t ) = A cos(ω ⋅ t + ϕ ) = lim
T →∞ 2T ∫
t
t
t
t
P = x 2 (t ) = A 2 cos 2 (ω ⋅ t + ϕ ) =
−T
2
A
2
1 2
A
Φ xx (τ ) = x (t ) x (t + τ ) = lim
T →∞ 2T
t
T
∫ cos(ω ⋅ t + ϕ ) cos[ω ⋅ (t + τ ) + ϕ ]dt =
−T
2 T
1 A
lim
T →∞ 2T 2
A2
∫ [cos(ω ⋅ τ ) + cos[ω ⋅ (2t + τ ) + ϕ ]dt = 2 cos(ω ⋅ τ )
−T
2
A
=P
2
Dabei wurde das Additionstheorem für den Cosinus verwendet:
Φ xx (0) =
cos( x + y ) = cos x cos y − sin x sin y
cos( x − y ) = cos x cos y + sin x sin y
durch Addition
1
cos x cos y = ( cos( x − y ) + cos( x + y ))
2
A2
Φ xx (τ ) =
cos(ω ⋅ τ )
2
Seite 24
(1.11-12)
Mathematik II
1.11 Zufallssignal
Dr. C. Clemen
SS 99
Man erkennt, daß man bei der Zeitmittelung über eine periodische Funktion nur über eine
Periode mitteln muß.
x(t)
x(t+τ)
τ
t
Φ xx(τ)
τ
Die AKF einer periodischen Funktion ist wieder periodisch, mit derselben Periode wie die
Funktion
2) periodische Pulsfolge
Lösung auf graphischem Wege:
x(t)
A
t0
t
t1
x(t+τ)
t
τ
x(t)x(t+τ)
t
Φ xx(τ)
A2(t1/t0)
τ
3) Widerstandsrauschen
Die Leistungsdichte des Widerstandrauschens ist bis zu sehr hohen Frequenzen (< 1010 Hz)
konstant und hängt nur von der Temperatur ab. p(f) = kT , k = 1,38 10-23 W/K° (Boltzmann
Konstante).
Wenn die Rauschquelle mit einem Meßinstrument oder einem Empfänger verbunden ist, so
wird die auf den Verbraucher übertragene Leistung von dem Innenwiderstand und der
Bandbreite des Verbrauchers abhängen.
Diese Leistung wird maximal, wenn der Innenwiderstand des Verbrauchers gleich dem
Widerstand der Rauschquelle ist.
Seite 25
Mathematik II
1.11 Zufallssignal
Dr. C. Clemen
SS 99
RQ
Ur,eff
Band
paß
Ur,eff/2
Rauschquelle
= Widerstand
Rv=RQ
Verbraucher
t
t
u r (t ) = 0, u 2 r (t ) = U 2 r , eff
 U r , eff
P = 
 2
2
 1

 R = BkT ⇒U r , eff = 4 BkTR

(1.11-13)
Die Amplituden sind nach einer Gauß’schen Dichtefunktion verteilt. Die Parameter µ und σ
sind der Mittelwert (=0) und die Standardabweichung , in diesem Fall die effektive
Rauschspannung. Die Autokorrelationsfunktion ergibt sich als Fouriertransformierte der
Leistungsdichte . Sie ist eine Delta-Funktion, die praktisch nur für τ = 0 von Null verschieden
ist. Die Amplitude der Rauschspannung kann somit nicht vorausgesagt werden.
dx
x(t)
x
p(x)
t
t0
|Sxx(f)|
(1/2)kT
f
Φxx(τ)
Seite 26
τ
Mathematik II
1.11 Zufallssignal
Dr. C. Clemen
SS 99
4) Binäre Pseudo-Noise Folge (PN-Folge).
In der digitalen Übertragungstechnik (Mobilfunk, Satellitenfunk, Radio und Fernsehen) spielen
künstlich erzeugte binäre Rauschsignale als Nachrichtenträger eine wichtige Rolle.
• Verschlüsselung
• Übertragung mehrerer Teilnehmer über ein gemeinsames Funkfeld
• Bandspreiztechnik zur Verringerung der Störanfälligkeit
Diese Rauschsignale sind in ihren Eigenschaften zwar zufällig, sie werden aber nach einem
genau definierten Prozeß erzeugt (sog. Quasizufallsfolgen oder Pseudo Noise-Folgen).
Die Erzeugung kann z.B. durch ein über EXOR Glieder rückgekoppeltes Schieberegister
erfolgen. Die Rückkopplungen werden gemäß den Koeffizienten eines Polynoms n-ten Grades
(sog. Generatorpolynom) gesetzt. Damit sich die Folge mit der Periode N = 2n – 1
wiederholt muß das Polynom primitiv sein, d,h. es darf nur durch sich selbst und durch Eins
teilbar sein. Es gibt für alle n primitive Polynome.Hat das Schieberegister n-Stufen, so ist die
erzeugte binäre Datenfolge periodisch mit der Periode N = 2n - 1, d.h. nach N Folgegliedern
wiederholt sich der Vorgang. Man nennt N die Maximallänge der Quasi-Zufallsfolge, die
Folge wird auch als Maximalfolge der Länge N bezeichnet. Innerhalb der Maximallänge
kommen die Nullen und Einsen zufällig vor, in dem Sinne, daß beliebige n-Bit Wörter (außer
des Nullwortes n mal 0) auftreten können. In der Praxis werden Folgen mit n = 10 bis 16 und
mehr eingesetzt, was Maximallängen N von 1023 bis 64 000 Bits bedeutet.
Beispiel für eine PN-Folge mit einer Länge von 7 (n = 3): Generatorpolynom g(x) = x3 + x2 +1
tk
Ausgang
D-F.F.
r2
D-F.F.
D-F.F.
r2
r2
t1 t2 t3 t4
Taktsteurerung
+
x3
x2
x1
x0
Das EXOR verknüpft binäre Zahlen nach der folgenden Addition:
0
1
⊕
0
0
1
1
1
0
Das D - Flip Flop (D-latch) gibt das am Eingang liegende logische Signal ( 0- oder 1-Pegel)
mit einem Takt Verzögerung an den Ausgang weiter.
Der logische Pegel am Ausgang des D- latches werde bei dem Taktzeitpunkt tk (k = 0, 1, 2 , 3,
4, ... ) mit ri, k (i =0, 1, 2 ) bezeichnet. Aufgrund der Struktur des Systems bestimmt man die
Registerinhalte zum Taktzeitpunkt tk (k = 0, 1, 2 , 3, 4, ... ) nach der folgenden Tabelle:
r0, k = r2, k-1 ⊕ r1, k-1
r1, k = r0, k-1
Seite 27
Mathematik II
1.11 Zufallssignal
Dr. C. Clemen
SS 99
r2, k = r1, k-1
k
r2, k
r1, k
r0, k
-------------------------------1
1
1
1
2
1
1
0
3
1
0
0
4
0
0
1
5
0
1
0
6
1
0
1
7
0
1
1
8
1
1
1
9
.
.
.
10
.
.
.
Die Folge wiederholt sich nach N = 23 - 1 = 7 Bit zyklisch. Man erkennt, daß die
Ausgangsfolge {r2, k } k = 1,2, 3, ... alle mögliche 3 Bit-Wörter enthält, außer der 000.
PN-Folge mit Länge N=7
(n=3)
11 1001 0111 0010 1110 010
1
1
0
-1
TBit
unipolar
7TBit
bipolar
Zur Berechnung der AKF der Ausgangsfolge schreiben wir von dieser jeweils um einen Takt
verschobene Versionen untereinander und bilden den Zeitmittelwert des Produktes von je zwei
untereinanderstehenden Funktionsverläufen. Das läuft darauf hinaus, untereinander stehende
Bits zu multiplizieren und dann die Produkte über eine Periode zu addieren.
n
Φxx(n)
1
1
1
0
0
1
0
1
1
1
0
0
1
1
0
1
1
1
0
0
1
0
1
1
1
0
0
1
1
4
1
1
1
1
0
0
1
0
1
1
1
0
0
1
2
2
1
1
1
0
0
1
0
1
1
1
0
0
2
3
1
1
1
0
0
1
0
1
1
1
0
2
4
1
1
1
0
0
1
0
1
1
1
2
5
1
1
1
0
0
1
0
1
1
2
6
1
1
1
0
0
1
0
1
2
7
1
1
1
0
0
1
0
4
In der Praxis wird anstelle der unipolaren Folge mit Funktionswerten 0 und 1 eine sog. bipolare
Folge verwendet, in der die Nullen durch -1 ersetzt sind ( das entsprechende Pulssignal ist dann
Seite 28
Mathematik II
1.11 Zufallssignal
Dr. C. Clemen
SS 99
gleichspannungsfrei !). Für die bipolare Folge lauten die Werte der AKF : Φxx(0) = 7 und
Φxx(n) = -1 für n= 1,... ,6
Allgemein:
Wenn {ak } k = 1,2, 3, ...eine Folge mit der Periode N ist, so berechnet sich die
Autokorrelationsfunktion nach der Formel:
t
Φ xx ( n) = x ( t ) x ( t + nTBit ) =
N −1
∑ ak −n a k
(1.11-14)
k =0
Entsprechend ist die Kreuzkorrelation zwischen zwei binären periodischen Folgen {ak } k =
1,2, 3, ...und {bk } k = 1,2, 3, ...(jeweils mit der Periode N) nach der Formel:
t
Φ xy (n) = x ( t ) y (t + nTBit ) =
N −1
∑ ak − n bk
(1.11-15)
k =0
zu bestimmen
Die AKF einer periodischen Folge ist ebenfalls periodisch mit derselben Periode N.
Anwendung von PN-Folgen: Verschlüsselung und Bandspreiztechnik
Im Sender wird der digitale Datenstrom mit einem PN-Träger höherer Rate fPN
(größenordungsmäßig 10 mal so hoch wie Datenrate fBit = 1/ TBit) moduliert. Das ergibt eine
Verschlüsselung der Daten, sowie eine Verbreiterung des Signalspektrums um der Spreizfaktor
fPN/fBit. Im Empfänger kann die Verschlüsselung durch den inversen Prozeß wieder rückgängig
gemacht werden. Dazu muß im Empfänger der Code ( Erzeugungsprozeß der PN-Folge)
sowie der Beginn der PN-Folge in dem übertragenen Datenstrom (zur Synchronisation)
bekannt sein.
Die Modulation erfolgt bei unipolarer Darstellung ( mit 0 und 1 ) durch EXOR-Verknüpfung
der Nutzdaten mit den PN-Bits oder bei bipolarer Darstellung ( 0 --->-1 , 1-->1 ) durch
Multiplikation der beiden Signale. Der Demodulator im Empfänger macht diesen Vorgang
wieder rückgängig: bei unipolarer Darstellung durch EXOR Verknüpfung der empfangene
Daten mit den PN-Daten oder bei bipolarer Darstellung durch eine Multiplikation der Signale.
Nutzdatenfolge:
verschlüsselte (codierte) Datenfolge
demodulierte (decodierte) Datenfolge
ak
ck = ak⊕bk
ck⊕bk= ak⊕bk⊕bk= ak
Seite 29
wegen bk⊕bk = 0
Mathematik II
1.11 Zufallssignal
Dr. C. Clemen
SS 99
Um den PN-Generators im Empfänger mit dem empfangenen Signal zu synchronisieren wird
zunächst im Empfänger über einige Perioden eine Kreuzkorrelation zwischen dem
Empfangssignal und dem im Empfänger erzeugten PN-Signal berechnet. Die Kreuzkorrelation
ergibt Spitzen zu den Zeiten, bei denen beide Signale am besten übereinstimmen . Mit diesen
Triggerimpulsen kann der PN-Generator dann zu dem Empfangssignal synchronisiert werden.
Modulator im Sender
Nutzdaten
ak
verschlüsselter
Datenstrom
ck=ak+bk
+
PN-Folge bk
PN-Generator
PN
0 1 1 1 1 1 0 0 0 0 0 1 1 1 1 1 0
Nutzdaten
ak
0 1 0 0 1 1 1 0 1 1 0 1 0 0 1 0 0
PN-Folge
bk
verschlüsselter
Datenstrom
ck=ak+bk
0 0 1 1 0 0 1 0 1 1 0 0 1 1 0 1 0
Demodulator im
Empfänger
verschlüsselter
Datenstrom
ck=ak+bk
Nutzdaten
ck+bk=ak
+
bk
PN
PN-Generator
synchronisiert
sync
Seite 30
Herunterladen