Vorlesung Physikalische Meßtechnik A (WS 98/99)

Werbung
Skriptum zur Vorlesung:
PHYSIKALISCHE MESSTECHNIK
A
(Signale/Systeme)
Kapitel F:
Beschreibung stochastischer Signale
Wintersemester 1998 / 99
Universität Paderborn
Fachbereich 6 - Physik -
Dozent:
Prof.Dr.H.Ziegler
Protokoll:
Dr.H.Aulfes / C.H.
Amplitudenbeschreibung
F.
I.
2
BESCHREIBUNG STOCHASTISCHER SIGNALE............................................5
Amplitudenbeschreibung...............................................................................................................................5
Grundbegriffe...............................................................................................................................................5
a) Signalklassifikation .................................................................................................................................5
b) Wahrscheinlichkeit..................................................................................................................................6
c) Verbundwahrscheinlichkeit .....................................................................................................................8
d) Statistische Variable................................................................................................................................9
2. Die Wahrscheinlichkeitsdichtefunktion......................................................................................................10
a) Definition ..............................................................................................................................................10
b) Beispiel .................................................................................................................................................11
c) Häufigster Wert.....................................................................................................................................11
d) Mittelwert..............................................................................................................................................11
e) Kumulative PDF....................................................................................................................................12
f)
Medianwert ...........................................................................................................................................13
g) Bemerkungen zu den Kenngrößen ........................................................................................................13
3. Messung der PDF.......................................................................................................................................14
a) Histogramm-Modus...............................................................................................................................14
b) Fenstermodus ........................................................................................................................................15
4. Analytische PDFs .......................................................................................................................................16
a) Mathematische Funktionsapproximation...............................................................................................16
b) Stochastisches Modell ...........................................................................................................................16
c) Stochastisches Modell mit freien Parametern........................................................................................16
5. Kenngrößen von PDFs ...............................................................................................................................16
a) Mittelwert..............................................................................................................................................16
b) Erwartungswerte von Funktionen..........................................................................................................17
c) 2.Moment ..............................................................................................................................................17
d) Mittelwert als 1.Moment .......................................................................................................................17
e) 2.Zentralmoment ...................................................................................................................................17
f)
Schiefe...................................................................................................................................................18
6. Spezielle PDFs ...........................................................................................................................................18
a) Gleichverteilung ....................................................................................................................................18
b) Binomialverteilung................................................................................................................................19
c) Poissonverteilung ..................................................................................................................................21
d) Gaußverteilung......................................................................................................................................21
7. Eigenschaften der Gauß-Verteilung ...........................................................................................................22
a) Häufigster Wert.....................................................................................................................................22
b) Wendepunkte.........................................................................................................................................22
c) Mittelwert..............................................................................................................................................22
d) Medianwert ...........................................................................................................................................23
e) Varianz ..................................................................................................................................................23
f)
Schiefe...................................................................................................................................................23
g) Normalverteilung ..................................................................................................................................24
h) Gaußsches Fehlerintegral ......................................................................................................................24
i)
Prozentgrenzen......................................................................................................................................24
8. PDF von Funktionen stochastischer Variablen...........................................................................................25
a) Beispiel Würfelsumme ..........................................................................................................................25
b) Beispiel Würfelprodukt .........................................................................................................................26
c) Fazit für PDF von Funktionen...............................................................................................................26
d) Fazit für Kenngrößen von Funktionen...................................................................................................27
9. Sonderfall: Summe gaußverteilter Funktionen ...........................................................................................27
a) PDF der Summe ....................................................................................................................................27
b) Mittelwert der Summe...........................................................................................................................27
c) Streuung der Summe .............................................................................................................................27
10.
Zentraler Grenzwertsatz .........................................................................................................................27
1.
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Amplitudenbeschreibung
3
II.
1.
Numerische Behandlung stochastischer Messwerte ..............................................................................28
Teststatistik ................................................................................................................................................28
a) Statistik und Messtechnik......................................................................................................................28
b) Stichprobe .............................................................................................................................................28
c) Messtechnische Aussage .......................................................................................................................28
2. Stichprobe ..................................................................................................................................................29
3. Schätzoperatoren........................................................................................................................................29
a) Verteilungsfunktion der Schätzung .......................................................................................................29
b) Konsistenz .............................................................................................................................................29
c) Unvoreingenommenheit (Unbiasedness)...............................................................................................29
4. Durchschnitt ...............................................................................................................................................30
5. Varianz .......................................................................................................................................................30
a) Schätzoperator.......................................................................................................................................30
b) Student-t-Verteilung..............................................................................................................................31
c) Vertrauensbereich .................................................................................................................................31
d) Beispiel .................................................................................................................................................31
6. Prüfung auf Gaußverteilung .......................................................................................................................33
a) Qualitativ...............................................................................................................................................33
b) Quantitativ.............................................................................................................................................35
7. Trendanalyse ..............................................................................................................................................36
a) Lineare Änderung des Mittelwertes.......................................................................................................36
b) Ausgleichsgerade ..................................................................................................................................36
c) Vertrauensbereich für die Steigung .......................................................................................................37
8. Korrelationskoeffizient...............................................................................................................................38
a) Modellannahmen...................................................................................................................................38
b) Rechengang ...........................................................................................................................................38
c) Grafische Darstellung............................................................................................................................38
d) Strenge Korrelation ...............................................................................................................................39
e) Keine Korrelation..................................................................................................................................39
f)
Korrelationskoeffizient..........................................................................................................................40
g) Korrelationskoeffizient und Kausalität..................................................................................................40
h) Beispiel .................................................................................................................................................40
III.
1.
2.
Zeitbeschreibung stochastischer Signale ................................................................................................41
Zeitablauf von Zufallsgrößen .....................................................................................................................41
Zeitliche Kenngrößen.................................................................................................................................42
a) Beispiel: Gasmoleküle...........................................................................................................................42
b) Zeitliche Unabhängigkeit ......................................................................................................................42
c) Ergozidität.............................................................................................................................................43
d) Quadratische Größen.............................................................................................................................43
e) Größen im Frequenzraum......................................................................................................................43
3. Ergodische Systeme ...................................................................................................................................44
a) Definition ..............................................................................................................................................44
b) Beispiel für nichtergodisches System....................................................................................................44
c) Messtheorie ...........................................................................................................................................45
IV.
1.
2.
Korrelationsfunktion ...............................................................................................................................45
Einführung..................................................................................................................................................45
Definitionen................................................................................................................................................45
a) Kreuzkorrelation ...................................................................................................................................45
b) Autokorrelation .....................................................................................................................................46
3. Die Autokorrelationsfunktion (AKF) .........................................................................................................46
a) AKF (0) .................................................................................................................................................46
b) AKF ( ∞ ) ..............................................................................................................................................46
c) AKF (>0)...............................................................................................................................................46
d) AKF (<0)...............................................................................................................................................47
e) Linearität ...............................................................................................................................................47
f)
Periodische Funktionen .........................................................................................................................48
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Amplitudenbeschreibung
g)
h)
i)
j)
4
Trigonometrische Funktionen ...............................................................................................................49
Rechteckfunktion...................................................................................................................................49
Konstante ..............................................................................................................................................49
Rauschsignale........................................................................................................................................49
4. Beziehung der AKF zur Fouriertransformation..........................................................................................50
a) Anschauung...........................................................................................................................................50
b) Faltungssatz...........................................................................................................................................51
c) Spektrale Leistungsdichte......................................................................................................................51
d) Beispiel Rauschspektrum ......................................................................................................................51
5. Anwendung der AKF .................................................................................................................................53
a) Diskrete Darstellung..............................................................................................................................53
b) Realisierung...........................................................................................................................................53
c) Laufender Mittelwert.............................................................................................................................54
d) Beispiel: Periodische Signale im Rauschen...........................................................................................54
6. Die Kreuzkorrelationsfunktion...................................................................................................................55
a) Laufzeitverschobene AKF.....................................................................................................................55
b) Zusammenhang, Kausalität....................................................................................................................56
c) Beziehungen zur spektralen Übertragungsfunktion...............................................................................56
7. Anwendungen der KKF..............................................................................................................................57
a) Geschwindigkeitsmessung.....................................................................................................................57
b) Schallquellenlokalisation.......................................................................................................................57
c) Systemanalyse mit Rauschen.................................................................................................................57
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Amplitudenbeschreibung
5
F. BESCHREIBUNG STOCHASTISCHER SIGNALE
I.
AMPLITUDENBESCHREIBUNG
1.
Grundbegriffe
Die Mathematik, die für die Beschreibung stochastischer Signale benötigt wird, ist nicht für
die Physiker entwickelt worden. I.A. holt sich die Mathematik Anregungen aus Gebieten der
Physik und versucht aus deren Vorstellungen ein mathematisches Gebilde zu konstruieren. So
geschehen z.B. in der Entwicklung der Differential- und Integralrechnung, Tensor- und Vektorrechnung.
Die Entwicklung der Mathematik der Stochastik wurde hingegen durch Sozialwissenschaften,
Biologiewissenschaften und andere Bereiche angeregt. Unglücklicher Weise wurden dort zum
Teil Worte eingeführt, die auch schon in der Physik eine (andere) Bedeutung haben. Deshalb
ist es für einen Physiker etwas verwirrend, mit dieser Thematik umzugehen.
Leider ist mir in der Literatur kein Buch bekannt, welches die grundlegenden Begriffe der Statistik klar definiert. Oft ist in den mir bekannten Büchern der Bezug der Begriffe zur Physik
und die mathematische Statistik in den Begriffen nicht klar genug dargestellt.
a)
Signalklassifikation
Am Anfang dieser Vorlesung wurde schon der Klassifizierungsbaum gezeigt. Innerhalb dieses
Baumes werden wir ausschließlich die Signalklasse mit folgenden Eigenschaften betrachten:
• Die Signale sind zeitlich veränderlich.
• Die Signale sind nur mit unendlich vielen Parametern beschreibbar. Die Anzahl der Parameter solcher Signale muss zu weiteren Bearbeitung reduziert werden, d.h. eine eindeutige
Rekonstruktion ist nicht möglich. Typischer Vertreter: Rauschen.
• Die Signale sind stationär. D.h. die Kenngrößen dieser Signale (z.B. Intensität) sind konstant und ändern sich nicht.
• Die Signale sind ergodisch. Bei diesem System stimmen die Aussagen aus der Anzahlstatistik mit den Aussagen aus der Zeitverlaufsstatistik überein. Beispiel: Bestimmung der Eigenschaften von Gasmolekülen durch Ausmessung einzelner Moleküle.
Gegenbeispiel eines nicht ergodischen Systems ist beispielsweise die Befragung eines Individuums eines Wahlvolkes nach seinem Wahlverhalten. Aus dessen lebenslangen (Zeitverlaufsstatistik) Wahlverhalten lassen sich keinerlei Aussagen über die Ausgang einer
Wahl machen.
Sehr viele physikalische Systeme sind nicht ergodisch.
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Amplitudenbeschreibung
6
Abbildung F-1
b)
Wahrscheinlichkeit
Der Begriff der Wahrscheinlichkeit ist definiert als:
lim P ( x ) =
N →∞
n
N
Man muss jetzt ein wenig umdenken. Das x ist nicht etwa eine variable Größe, die einen physikalischen Wert assoziiert, sondern soll eine Eigenschaft oder ein Merkmal darstellen.
Die Zahl n soll die Menge der diskreten Elemente darstellen, die die Eigenschaft oder das
Merkmal x haben. Der Quotient N ist die Gesamtzahl aller Elemente.
Folglich gilt:
0 ≤ n ≤ N und 0 ≤ P( x ) ≤ 1
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Amplitudenbeschreibung
7
Der Sachverhalt lässt sich auch gut mit den aus der Mengenlehre bekannten Darstellungen erklären:
Abbildung F-2
Hier sind die Elemente mit den Eigenschaften x, y, z Untermengen von N. Es gibt aber auch
Probleme, bei denen die Klassenzugehörigkeiten der Elemente logisch exklusiv zueinander
sind. Die Gesamtklasse habe die Merkmale x1 , x2 , x3 , x4 und sei logisch so konstruiert, dass
sich die Einzelklassen nicht überlappen können:
Abbildung F-3
Ein Element einer Klasse kann hierbei also nicht gleichzeitig einer anderen Klasse zugehörig
sein. Für die Wahrscheinlichkeit gilt:
P( xi ∨ x j ) = P( xi ) + P( x j )
⇒ Σ P ( xi ) = 1
i
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Amplitudenbeschreibung
8
(nochmals: Das sind keine Variablen -Gleichungen mit denen wie gewohnt gerechnet werden
kann).
c)
Verbundwahrscheinlichkeit
Nehmen wir an, wir hätten eine nicht-exklusive Zuordnung vorliegen, d.h. Merkmale können
einzeln, gemeinsam oder gar nicht auftreten. Es können Beziehungen zwischen den Merkmalen bestehen.
Am Beispiel einer Schafherde soll dies einmal für den einfachen Fall zweier Merkmale A/B
dargestellt werden. Die Merkmalpaare können zum Beispiel seien: Unterscheidung nach großen/kleinen Schafen oder schwarzen/weißen Schafen.
Abbildung F-4
Nun kann es sein, dass die Wahrscheinlichkeiten voneinander abhängen. Das könnte in unserem Beispiel z.B. bedeuten, dass die Wahrscheinlichkeit, dass ein Schaf schwarz ist, nicht unabhängig ist von einer anderen Wahrscheinlichkeit das es z.B. groß oder klein ist.
Man definiert die Wahrscheinlichkeit für das Auftreffen des Merkmals A bei gleichzeitigem
Vorhandensein von Merkmal B:
sprich: Wahrscheinlichkeit A gegeben B. Die Wahrscheinlichkeit, dass innerP( A /B)
halb der Menge B ein Element mit der Eigenschaft A auftritt.
sprich: Wahrscheinlichkeit A gegeben nicht B. Die Wahrscheinlichkeit dasein
P( A /B )
Element mit der Eigenschaft A auftritt von der Menge der Elemente die nicht die Eigenschaft
B besitzen.
P ( A und B ) sprich: Wahrscheinlichkeit A und B. Ist die Schnittmenge der Flächen A und B
und ist nicht zu verwechseln mit der bedingten Wahrscheinlichkeit P( A / B) . Die Wahrscheinlichkeit, dass ein Element sowohl die Eigenschaft A als auch die Eigenschaft B aufweist. Diese Definition kann man ineinander ausdrücken:
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Amplitudenbeschreibung
9
P( A undB) = P( A) ⋅ P( B / A) = P( B) ⋅ P( A / B)
P( A)
P( A / B) = P( B / A) ⋅
P( B)
Die Verbundwahrscheinlichkeit P( A / B) ist i.A. also etwas anderes als die Verbundwahrscheinlichkeit P( B / A) .
Beispiel aus der Elementarteilchenphysik: Radioaktiver Zerfall in α , β , γ -Teilchen . Sei
P ( A)
= Wahrscheinlichkeit eines Teilchens, ein α -Teilchen zu sein.
P( B)
= Wahrscheinlichkeit, ein Teilchen nachzuweisen.
P( B / A)
= Wahrscheinlichkeit, wenn ein α -Teilchen auftritt, es nachzuweisen.
P( A /B)
= Wahrscheinlichkeit, dass ein nachgewiesenes Teilchen ein α -Teilchen ist.
d)
Statistische Variable
Will man über eine kontinuierliche Messvariable eine statistische Aussage machen, so müssen
zunächst künstlich exklusive Klassen gebildet werden, in die die Messvariable unterteilt wird.
Als Beispiel sei das Alter angeführt:
U|
V|
W
x1 = 0 L 10 Jahre
x2 = 11 L 20 Jahre exklusive Klassen
M =
M
Das Ergebnis wird oft grafisch in einem Histogramm dargestellt:
Abbildung F-5
In umgekehrter Achsendarstellung findet diese Darstellungsweise in der sogenannten Alterspyramide eine Anwendung. Die nächste Abbildung zeigt ein Beispiel für eine solche Alterpyramide:
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Amplitudenbeschreibung
10
Eine Verfeinerung wird durch die Klassenbreite ∆ gemacht, indem jede Klasse die Breite
( x , x + ∆ ) hat. Wird dieses ∆ nun durch das mathematische dx ersetzt und dann die Grenzübergänge dx → 0 und N → ∞ durchgeführt, so folgt daraus, dass auch gilt: P → 0 . Wie in
anderen Bereichen der Physik ist es hier angebracht nicht mehr nur von einer Wahrscheinlichkeit, sondern von einer Wahrscheinlichkeitsdichte zu sprechen.
2.
Die Wahrscheinlichkeitsdichtefunktion
Die Wahrscheinlichkeitsdichtefunktion wird abgekürzt PDF (probability-density-function)
genannt.
a)
Definition
f ( x ) ⋅ dx = Wahrscheinlichkeit, daß x zwischen ( x , x + dx ) lim dx → 0 liegt.
Die Wahrscheinlichkeit P war eine dimensionslose Zahl. Daher muss nach der Definition für
f ( x ) gelten:
Dim f ( x ) →
1
.
x
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Amplitudenbeschreibung
11
Die Wahrscheinlichkeit, dass ein x zwischen x1 und x2 liegt kann berechnet werden:
z
x2
f ( x ) dx
x1
Damit können alle Wahrscheinlichkeiten ausrechnet werden, wenn die PDF bekannt ist.
b)
Beispiel
Einkommensverteilung. f ( x ) sei Wahrscheinlichkeitsdichte ein bestimmtes Monatseinkommen x zu bekommen. Die Darstellung könnte etwa so aussehen:
Abbildung F-6
Wie dargestellt kann die Eigenschaft x sowohl positive als auch negative Werte (=Verlust)
annehmen. Die PDF ist allerdings stets positiv.
Eine weitere Eigenschaft der PDF ist (Summe der Wahrscheinlichkeiten =1):
z
∞
f ( x ) dx = 1
−∞
c)
Häufigster Wert
Der Häufigste Wert ist definiert als eine Zahl die ausdrückt bei welchem Wert x die Verteilung f ( x ) maximal wird.
Dieser häufigste Wert ist nicht eindeutig, so kann die PDF für zwei verschiedene x -Werte die
gleichen Werte annehmen. Auch ist eine PDF denkbar, die für alle x -Werte konstant ist.
Folglich ist der häufigste Wert kein gutes Instrument eine PDF zu charakterisieren.
d)
Mittelwert
Eine weitere Kenngröße der Verteilungsfunktion (PDF) ist der Mittelwert. Dieser Mittelwert
ist nicht mit dem Durchschnitt einer Stichprobe zu verwechseln, es ist vielmehr der Mittelwert
einer bekannten Wahrscheinlichkeitsverteilung.
Der Mittelwert ist definiert:
z
∞
µ=
x ⋅ f ( x ) dx
µ = x
−∞
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Amplitudenbeschreibung
12
Gewissermaßen stellt dieser µ den mechanischen Mittelpunkt der PDF dar. Deshalb werden
auch Werte stark berücksichtigt die selten vorkommen z.B. sehr hohe Werte von x .
Beispiel: gegeben sei eine Wahrscheinlichkeitsverteilung, welche das personenbezogene
Vermögen eines Volkes darstellt.
Abbildung F-7
Ganz wenige Personen besitzen ein sehr großes Vermögen oder ein sehr geringes oder sogar
ein negatives Vermögen (Schulden), diese gehen aber bei der Mittelwertbildung stark mit ein.
e)
Kumulative PDF
Die kumulative PDF ist mathematisch nichts anderes als das unbestimmte Integral der PDF:
z
x
F ( x) =
f ( x ′) dx ′
−∞
Zum obigen Beispiel der Altersverteilung lässt sich F ( x ) deuten als die Wahrscheinlichkeit,
dass das Alter kleiner gleich x ist.
Abbildung F-8
Aus diesem Bild ist abzulesen: Mit 30%-iger Wahrscheinlichkeit ist jemand jünger als 20 Jahre und die Wahrscheinlichkeit beträgt 10%, das jemand zwischen 20 und 30 Jahre alt ist (diese
Daten sind allerdings frei erfunden!).
Die Funktion hat außerdem noch folgende Eigenschaften:
F ( x ) ≥ 0;
F ( x ) = monoton steigend
F ( −∞) = 0
F ( ∞) = 1
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Amplitudenbeschreibung
f)
13
Medianwert
Der Medianwert ist definiert als die Abszisse x, bei der der Wert 0,5 ist:
Abbildung F-9
Der Medianwert teilt also die Gesamtverteilung in zwei gleich mächtige Teilmengen, eine, bei
der die statistische Variable kleiner und eine Teilmenge, bei die statistische Variable größer
als der Medianwert ist. Die Frage nach dem Einkommen, bei dem 50% der Bevölkerung darunter und 50% der Bevölkerung darüber liegt, wird z.B. mit dem Medianwert beantwortet.
Einzelne Personen mit extrem hohen Einkommen werden nicht so hoch gewichtet, wie beim
Mittelwert.
g)
Bemerkungen zu den Kenngrößen
Jede der diskutierten Kenngrößen - Häufigster Wert, Mittelwert, Medianwert - ist anders definiert. Jede sagt etwas über die Verteilungsfunktion aus und hat die Dimension der statistischen Variablen. Dennoch sind alle drei Kenngrößen bezogen auf eine PDF i.a. unterschiedlich. Anhand der politischen Diskussion über die Studiendauer an unserer Hochschule soll
hier noch einmal herausgestellt werden, wie wichtig die genaue Kenntnis über die eingesetzten Kenngrößen ist.
Lange Zeit wurde die Studiendauer von den Ministerien durch eine Mittelwertbildung gefunden. Die Studiendauer - PDF sieht aber ungefähr so aus:
Abbildung F-10
In den ersten Semestern nach Studienbeginn wird niemand sein Studium zum Abschluss bringen. Zunächst werden dann einige wenige fertig bis dann der große "Berg" der Studienabschlüsse folgt. Einige brauchen länger, und ein geringer Prozentsatz wird erst nach einer außergewöhnlich langen Studiendauer fertig.
Wenn also (wie im Fachbereich der Physik schon vorgekommen) bei relativ wenigen Studierenden ein Abschluss nach etwa 24 Semestern geschafft wird, steigt der Mittelwert der Abschlüsse von einem Jahr aufs andere um vielleicht ein Semester. Diese scheinbare Studienverschlechterung ist als nur durch eine falsche Anwendung der Kenngrößen entstanden.
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Amplitudenbeschreibung
14
Genau der gleiche Fehler führte in den Anfangsjahren nach der Gründung der Uni zu positiven Meldungen: Als damals die ersten Abschlüsse vorlagen, waren die mittleren Studiendauern erheblich niedriger als bei den "alten" Universitäten. Der Grund dafür leuchtet jetzt natürlich ein: Eine 5-jährige Uni hat keinen Abschluss zu verzeichnen, der extrem lange gebraucht
hat.
Genau der gleiche Effekt tritt auf, wenn die Anfängerzahlen von einem Jahr aufs andere drastisch steigen. In so einem Fall würde die mittlere Studiendauer nach etwa 5 Jahren drastisch
sinken. Und das obwohl sich an der Qualität des Studiums rein gar nichts geändert hat.
Richtig und aussagefähig kann für so eine Statistik nur der jahrgangsbezogene Medianwert
sein. Man ermittelt für jeden Jahrgang die Semesterzahl, bei denen 50% der Studierenden ihren Abschluss geschafft haben. Langzeitstudierende und "Karteileichen" werden so nicht berücksichtigt. Jahrgangsbezogen muss die Statistik deshalb sein, weil damit eine Veränderung
der Anfangszahlen berücksichtigt wird.
Alle (meistens von der Presse) veröffentlichen Aussagen über eine mittlere Studiendauer sind
also sehr mit Vorsicht zu genießen.
3.
Messung der PDF
Um eine PDF zu bestimmen, wird zunächst eine sehr große Zahl von Einzelmessungen (im
Prinzip unendlich viele) gemacht. Die Auswertung dieser Messwerte kann auf zwei grundsätzlichen Methoden beruhen.
a)
Histogramm-Modus
Der Histogramm-Modus teilt man die statistische Variable in exklusive Klassen gleicher Breite ein.
Abbildung F-11
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Amplitudenbeschreibung
15
Das Messverfahren besteht im Wesentlichen aus folgendem Ablauf:
1.) Messung von U x
2.) U x der Kanalnummer n zuordnen. U n ≤ U x ≤ U n +1; U n +1 = U n + ∆U
3.) Den Häufigkeitszähler des Kanals n um 1 erhöhen: K n := K n + 1
4.) Wiederholen ab Punkt 1.) (für alle Messwerte)
5.) Normierung, damit Summe aller Kanäle =1.
Man kann die Klassenbreite ∆U verkleinern um näher an die wahre Verteilung zu kommen.
Je nach Gegebenheit kann es aber günstiger sein die Messwiederholrate zu erhöhen.
Der Vorteil dieser Methode liegt darin, dass jeder Messpunkt, unabhängig von seiner Messzeit, in das Ergebnis einfließt.
b)
Fenstermodus
Liegt die statistische Variable als Spannung U x vor, so bietet sich der folgender logischer
Aufbau an, um die PDF zu messen. U n ist die Spannung eines Kanals, der die Breite U x hat.
Aus der Schaltung lässt sich leicht ersehen, dass am Ausgang des AND-Gliedes eine logische
"1" anliegt falls die Spannung U x größer als U n , aber gleichzeitig kleiner als U n + ∆U ist.
Abbildung F-12
Wenn die logische "1" am Ausgang durch die Spannung 1V repräsentiert wird, erhält man
damit etwa folgendes Bild:
Abbildung F-13
Um zu einem Wert zu kommen, wird von diesem Ausgangssignal der Zeitmittelwert gebildet.
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Amplitudenbeschreibung
16
Solche Schaltungsaufbauten funktionieren bis in den GHz-Bereich ohne Probleme.
Der Nachteil dieser Methode liegt in der relativ hohen Messzeit. Der Vorteil liegt in der Möglichkeit U n und U x kontinuierlich verändern zu können (im Gegensatz zu dem Histogrammmodus, bei dem so etwas sehr aufwendig wäre).
4.
Analytische PDFs
a)
Mathematische Funktionsapproximation
Bei der mathematischen Approximation wird ganz einfach der Versuch gemacht, eine gemessene PDF durch eine Funktion anzugleichen. Dies kann zu einer näherungsweisen Lösung
führen, mit der man weiterarbeiten kann.
b)
Stochastisches Modell
Das stochastische Modell ist ein Gebiet auf dem Physiker und Mathematiker in der Vergangenheit am besten zusammengearbeitet haben: dem Gebiet der Statistik. Es gibt Beispiele aus
der Physik, bei denen man den physikalischen Prozess des Zustandekommens der beobachtenden Größe gut beschreiben kann und für den Elementarprozess ein physikalisches Modell
hat. Dabei gibt es eine ganz begrenzte Anzahl von Fällen, bei denen es den Mathematikern
gelungen ist, aufgrund der physikalischen Gesetze eine exakte stochastische Theorie herzuleiten. Mit dieser Theorie ist es möglich, die Wahrscheinlichkeitsdichtefunktion der beobachteten Größe zwingend zuzuordnen.
c)
Stochastisches Modell mit freien Parametern
Es gibt Fälle, bei denen die Physik zwar Aussagen macht über die Struktur des Elementarprozesses, aber in dem stochastischen Modell Werteparameter offen lässt. Das führt nicht zu einer exakten PDF, sondern lediglich zu einer PDF-Struktur. Für solche Fälle (die in der physikalischen Messtechnik sicher häufig auftreten) beschränkt man sich darauf, nicht die PDF selber zu messen, sondern die freien Parameter zu bestimmen.
5.
Kenngrößen von PDFs
a)
Mittelwert
Der Mittelwert oder auch Erwartungswert ist definiert als:
µ = E { x} =
∞
∫ x ⋅ f ( x) dx
−∞
Die Verteilungsfunktion wird mit einer Gewichtsfunktion x ′ multipliziert und dann integriert.
Allgemeiner nennt man das „den Erwartungswert ( E x ) der Größe x bezogen auf die Wahrscheinlichkeitsdichtefunktion von x“.
lq
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Amplitudenbeschreibung
b)
17
Erwartungswerte von Funktionen
Eine weitere Verallgemeinerung ist der Erwartungswert von Funktionen, die die analoge Rechenvorschrift hat:
l
z
∞
q
E H ( x) =
H ( x ) ⋅ f ( x ) dx
−∞
l
q
Sonderfall: Falls H ( x ) = x ⇒ E H ( x ) = µ
c)
2.Moment
Das 2.Moment ist der Erwartungswert der Funktion x 2 :
o t= zx
E x
∞
2
2
⋅ f ( x ) dx
−∞
M
o t
µ ′n = E x n
Entsprechend nennt man den Erwartungswert für die Funktion xn das n-te algebraische Moment der PDF µ ′n . Das 1. algebraische Moment ist demnach der Mittelwert µ .
d)
Mittelwert als 1.Moment
Eine aussagekräftigere Kenngröße erhält man, wenn die statistische Variable um den Mittelwert verschoben wird.
xa x−µ
Von allen Größen wird das 1.Moment subtrahiert und man erhält eine mittelwertfreie statistische Variable. Der Erwartungswert einer so verschobenen PDF ist natürlich Null.
Die Momente nennt man wegen der Mittelwertfreiheit Zentralmomente:
o
t
µ n = E ( x − µ ) n → n - tes Zentralmoment
e)
2.Zentralmoment
Das 2.Zentralmoment µ 2 wird als Streuung bezeichnet:
µ2 = σ 2
σ = µ2
Die Streuung ist ein Maß für die durchschnittlichen Abweichungen vom Mttelwert, also die
Breite der PDF.
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Amplitudenbeschreibung
f)
18
Schiefe
Für sehr unsymmetrische PDF´s macht es Sinn eine Kennzahl einzuführen, die über die Asymmetrie Auskunft gibt. Dies übernimmt das 3.Zentralmoment µ 3 .
Für µ 3 = 0 gilt, dass die Verteilungsfunktion symmetrisch gewichtet ist.
Meistens verwendet man nicht das µ 3 selber, sondern die Normierung auf die Streuung:
γ =
µ3
σ3
Diese Größe ist dimensionslos.
6.
Spezielle PDFs
a)
Gleichverteilung
Gegeben sein soll eine PDF, bei alle Werte zwischen xmin und xmax mit der gleichen Wahrscheinlichkeit vorkommen sollen:
Abbildung F-14
Aus der Normierungsbedingung (Fläche unter der Kurve =1) folgt, dass die überall gleiche
Wahrscheinlichkeit den Wert
1
xmax − xmin
hat.
Der häufigste Wert dieser PDF ist undefiniert. Der Mittelwert beträgt:
z
∞
µ=
x ⋅ f ( x ) dx
−∞
1
=
xmax − xmin
=
z
xmax
x ⋅ dx
xmin
1
( xmax + xmin )
2
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Amplitudenbeschreibung
19
Der Medianwert war ja der Halbierungswert der kumulativen Wahrscheinlichkeitsdichte funktion ( F ( x ) ). Diese Funktion sieht für die gleichverteilte PDF so aus:
Abbildung F-15
Der Medianwert ist für gleichverteilte PDFs also identisch mit dem Mittelwert.
Die Streuung berechnet sich zu:
2
µ2 = σ =
z
∞
( x − µ ) 2 ⋅ f ( x ) dx
−∞
1
=
xmax − xmin
z
xmax
( x 2 − 2 µ x + µ 2 ) dx
xmin
Wenn wir die Breite der PDF mit B ersetzen, so erhalten wir als Resultat:
1 ⋅ B2
σ 2 = 12
σ = 0,29 ⋅ B
Häufig will man von der PDF wissen, mit wieviel Prozent Wahrscheinlichkeit der Wert um
den Mittelwert streut. Die Aussage für diese PDF lautet deshalb:
Mit 58%-iger Wahrscheinlichkeit liegt der Wert in dem Bereich µ ± σ .
b)
Binomialverteilung
Die Binominalverteilung findet häufig Anwendung in der Atomphysik. Das physikalische
Grundereignis hat zwei ("Bi") Zustände A und B. Dies können z.B. atomare Spin-Zustände
sein.
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Amplitudenbeschreibung
20
Annahme:
Das Ereignis mit dem Zustand A kommt mit der Wahrscheinlichkeit p vor.
Das Ereignis mit dem Zustand B kommt dann mit der Wahrscheinlichkeit q = (1 − p) vor,
(Die Summe der Wahrscheinlichkeiten muss ja 1 sein).
Es werden nun N unabhängige Versuche durchgeführt, von denen k-mal der Zustand A vorkommt. Es wird also nach einer Verteilungsfunktion gesucht, bei der eben dieses Ergebnis
herauskommt. Die Mathematik liefert das Ergebnis:
f ( K) =
wobei
FG N IJ ⋅ p
H KK
K
⋅ q( N −K)
FG N IJ sprich: " N über K" definiert ist als FG N IJ = N !
H KK
H K K K ! ( N − K )!
Diese PDF hängt also von der diskreten dimensionslosen statistischen Variable K ab. Die PDF
kann aufgezeichnet werden:
Abbildung F-16
Da es keine Zwischenwerte gibt, erhält man für jeden ganzen K - Wert eine bestimmte Wahrscheinlichkeitsdichte die wie eine Delta-Funktion dargestellt werden kann.
Für den einfachsten Fall N=1 kann K nur die Werte K=0;1 annehmen. Die Wahrscheinlichkeit
für diesen Wert ist der Definition folgend: f (1) = p .
Der Mittelwert für diese PDF berechnet (ohne mathematischen Beweis) sich zu:
lq
µ= E K = N⋅p
Das 2. Zentralmoment (Streuung) hängt ab von der Wahrscheinlichkeit des Ereignisses und
der Zahl der durchgeführten Versuche:
p⋅q
N
p⋅q
σ=
N
σ 2 ( K) =
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Amplitudenbeschreibung
21
Oft wird die relative Streuung bezogen auf den Mittelwert angegeben:
p⋅q
σ
N =
=
N⋅p
µ
q
3
N ⋅p
Die Vorgehensweise in der physikalischen Messtechnik ist oftmals so, dass man von seinem
physikalischen Prozess zwar weiß, dass er binominalverteilt ist, aber seine Parameter q und p
nicht kennt. Man versucht sich dann über eine Mittelwertschätzung Zugang zu diesen Werten
zu verschaffen.
Eine logische Erweiterung erfährt die Binominalverteilung, falls mehr als zwei verschiedene
Ereignisse bei jedem Versuch auftreten können. Solche Verteilungen heißen Polynominalverteilung.
c)
Poissonverteilung
Ein Grenzfall für die Binominalverteilung ist der für N → ∞ , also für sehr viele Versuche.
Damit der Mittelwert nicht auch gegen unendlich konvergiert, machen wir die Nebenbedingung: N ⋅ p = λ = konst . , d.h. das einzelne Ereignis wird unwahrscheinlicher.
Der Grenzübergang ist nur mit großem mathematischem Aufwand zu machen. Die Lösung für
die diskrete PDF lautet:
f ( K) =
λK ⋅ e − λ
K!
Der Mittelwert dieser PDF ist nach Definition genau
lq
µ=E K =λ
Das Quadrat der Streuung wird ebenfalls zu
o
t
σ 2 = E ( K − λ )2 = λ
⇒σ = λ
Ein typisches physikalisches Beispiel für die Anwendung dieser Verteilung kommt aus der
Messtechnik des radioaktiven Zerfalls. Nehmen wir an, ein Detektor misst 100 Zerfälle pro
Sekunde. Nach jedem Zerfall hat der Detektor eine kurze Totzeit, während der er keine weiteren Zerfälle registrieren kann. Dennoch ist die Wahrscheinlichkeit nicht Null, dass während
dieser Totzeit (typisch µsek -Bereich) Zerfälle stattgefunden haben. Das Ergebnis der Messung muss deshalb korrigiert werden. Dies geschieht, indem die Poissonverteilung "befragt"
wird, wieviel Zerfälle in der Totzeit wahrscheinlich stattgefunden haben.
d)
Gaußverteilung
Ein weiterer Grenzübergang λ → ∞ führt zu der nicht mehr diskreten, sondern kontinuierlichen Gaußverteilung.
Der mathematische Grenzübergang führt zu der PDF mit zwei freien Parameter a und b:
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Amplitudenbeschreibung
22
−
1
f ( x) =
e
b ⋅ 2π
( x −a )2
2b 2
wobei das π im Vorfaktor durch die Normierungsbedingung (Fläche unter der Kurve = 1) herrührt.
7.
Eigenschaften der Gauß-Verteilung
a)
Häufigster Wert
Der Häufigste Wert dieser Funktion wird ermittelt indem man das Maximum der Funktion mit
den üblichen Methoden sucht. Das Ergebnis lautet:
Der Häufigste Wert ist bei x = a .
Die Wahrscheinlichkeit, diesen Häufigsten Wert anzutreffen ist:
f ( x = a) =
b)
1
b 2π
Wendepunkte
Die Wendepunkte (notwendige Bedingung 2.Ableitung = 0) der PDF liegen bei x = a ± b .
Die Wahrscheinlichkeit, diese Wendepunkte anzutreffen ist:
f ( x = a ± b) =
c)
1
⋅ f (a )
e
Mittelwert
Der Mittelwert ergibt sich aus:
z
∞
1
µ=
b 2π
x ⋅e
−
( x −a )2
2b 2
dx
−∞
mit Substitution: x ′ = x − a; x = x ′ + a; dx ′ = dx folgt
µ=
1
b 2π
z
−
∞
( x′ + a) ⋅ e
x ′2
2b 2
dx ′
−∞
Dieses Integral findet man in Lehrbüchern (z.B. Bronstein). Der Rechenvorgang soll hier deshalb nicht weiter verfolgt werden. Das Resultat lautet:
µ=a
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Amplitudenbeschreibung
23
Der Mittelwert ist also identisch dem Häufigsten Wert.
d)
Medianwert
Der Medianwert kann anschaulich hergeleitet werden. Die Gaußverteilung sieht grafisch so
aus:
Abbildung F-17
Diese Funktion ist bezogen auf den Häufigsten Wert a achsensymmetrisch. Bei solchen symmetrischen Verteilungsfunktionen ist der Medianwert genau durch die Symmetrielinie gegeben, die die Funktion in zwei gleich große Hälften teilt. Die Wahrscheinlichkeit links oder
rechts von der Symmetrielinie zu liegen ist ja gleich. Der Medianwert ist also ebenfalls a.
e)
Varianz
Die Varianz oder Streuung σ ist über das 2.Zentralmoment definiert:
1
σ2 =
b ⋅ 2π
z
∞
( x − a)2 ⋅ e
−
( x −a )2
2b2 dx
−∞
Die Lösung dieses uneigentlichen Integrals überlassen wir wieder dem Bronstein. Die Lösung
lautet:
σ 2 = b 2 bzw. σ = b
f)
Schiefe
Die Schiefe γ ist ja über das 3.Zentralmoment definiert und ist eine dimensionslose Kenngröße für die Asymmetrie der Verteilungsfunktion. Da die Gaußverteilung eine bezogen auf
den Mittelwert streng symmetrische PDF darstellt, ist:
γ =0
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Amplitudenbeschreibung
g)
24
Normalverteilung
Die Gaußverteilung heißt in einer reduzierten Darstellung mit µ = 0 und σ = 1 Normalverteilung. Die Gaußverteilung in der Form wie wir sie besprochen haben, wird in der Literatur oft
als Standard-Normalverteilung ( N ( µ , σ ) ) bezeichnet.
h)
Gaußsches Fehlerintegral
Das Gaußsche Fehlerintegral wird auch kumulative Verteilungsfunktion genannt und ist definiert als die Stammfunktion der Standard-Normalverteilung:
Abbildung F-18
Diese punktsymmetrische Funktion ist in Formelsammlungen tabelliert aufzufinden.
i)
Prozentgrenzen
Mit dem oben vorgestellten Fehlerintegral können die Wahrscheinlichkeits- oder Prozentgrenzen ermittelt werden. Z.B. beträgt die Wahrscheinlichkeit 90%, einen Wert in µ ± 1,64σ zu
finden. Hier einige weitere Werte:
90% = µ ± 1,64σ
95% = µ ± 1,96σ
99% = µ ± 2,58σ
99,7% = µ ± 3σ
99,9% = µ ± 3,29σ
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Amplitudenbeschreibung
8.
25
PDF von Funktionen stochastischer Variablen
Dieses Kapitel soll zeigen, wie schwierig es ist, i.A. das Ergebnis von Summe oder Produkt
von PDFs anhand derer Kenngrößen zu bestimmen.
a)
Beispiel Würfelsumme
Gegeben sei ein Würfel. Die Wahrscheinlichkeit eine bestimmte Zahl zu würfeln ist genau ein
Sechstel:
Abbildung F-19
Der Häufigste Wert dieser einfachen PDF ist undefiniert. Der Mittelwert ist: µ = 3,5 und der
Medianwert beträgt ebenfalls 3,5.
Nehmen wir nun einen zweiten Würfel hinzu und bestimmen wieder die Wahrscheinlichkeit
eine bestimmte Zahl zu würfeln. In diesem einfachen Beispiel lässt sich die Kombinatorik der
möglichen Würfelsummen noch hinschreiben:
1
2
3
4
5
6
1
2
3
4
5
6
7
2
3
4
5
6
7
8
3
4
5
6
7
8
9
4
5
6
7
8
9
10
5
6
7
8
9
10
11
6
7
8
9
10
11
12
Die dazugehörige PDF hat folgendes Aussehen:
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Amplitudenbeschreibung
26
Abbildung F-20
Sowohl der häufigste Wert, als auch der Mittelwert und Medianwert haben bei dieser PDF alle
(wg.Symmetrie) den gleichen Wert 7.
An diesem sehr einfachen Beispiel lässt sich gut erkennen, dass die Verteilungsfunktion PDF
einer Summe nichts zu tun hat mit der Verteilungsfunktion der Einzelvariablen. Der analytische Verlauf der Summen-PDF wird i.a. ein vollkommen anderer sein als der der Einzel-PDF.
Die Kenngrößen Mittel- und Medianwert scheinen sich mit der Summenoperation ebenfalls
summiert zu haben. Allerdings sei hier schon (einer Übungsaufgabe) vorweggenommen, dass
zwischen den Streuungen σ der Einzel- und der Summen-PDF überhaupt gar kein logischer
Zusammenhang besteht.
b)
Beispiel Würfelprodukt
Sucht man für dieses Beispiel nun die Wahrscheinlichkeit für das Auftreten einer bestimmten
Zahl durch das Produkt der Würfelaugen, so erhält man eine noch "wildere" PDF:
Abbildung F-21
Dieses Beispiel sei nur angeführt, um die Schwierigkeit darzustellen von einer gegebenen
(auch noch so einfachen PDF) auf das Produkt dieser PDF zu schließen.
c)
Fazit für PDF von Funktionen
Eine Rechenregel für die Summe von PDFs aufzustellen, scheint noch denkbar zu sein. Allerdings schon nicht mehr bei Produkten von PDFs.
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Amplitudenbeschreibung
d)
27
Fazit für Kenngrößen von Funktionen
Es lässt sich nur eine Aussage allgemein herleiten: Der Mittelwert der Summe einer PDF ist
gleich der Summe der Mittelwerte der Einzel-PDFs. Für alle anderen Kenngrößen der PDF
können keine Aussagen gemacht werden.
9.
Sonderfall: Summe gaußverteilter Funktionen
Für den doppelten Sonderfall, dass der Einzelprozess gaußverteilt ist und damit die mathematische Operation der Summe gebildet wird, können mathematisch untermauerte Aussagen gemacht werden.
a)
PDF der Summe
Die PDF der Summe ist auch gaußverteilt, falls die Einzel - PDFs identische Mittelwerte µ
besitzen. Dieses ist eine mächtige Aussage, die für alle anderen Verteilungen i.a. nicht gilt.
b)
Mittelwert der Summe
Auch hier gilt natürlich die schon oben gemachte allgemeine Aussage, dass der Mittelwert der
Summe einer Gauß-PDF gleich ist der Summe der Mittelwerte der Einzel-PDF.
c)
Streuung der Summe
Die Streuung der Summe von N gaußverteilten PDFs ist gegeben durch:
σ ′( Summe) = N ⋅ σ bzw. σ ′ 2 ( Summe) = N ⋅ σ 2
Wenn die einzelnen PDFs zwar den gleichen Mittelwert µ besitzen, aber verschiedene Streuungen haben, so lässt sich der Satz verallgemeinern zu:
N
σ ′ 2 ( Summe) = ∑ σ i2
i =1
10.
Zentraler Grenzwertsatz
Für den Fall der Summe einer großen Zahl statistisch unabhängiger Prozesse mit einer beliebigen PDF und beliebigen Parametern gilt der zentrale Grenzwertsatz. Dieser Satz sagt aus,
dass die Summen-PDF schnell und gut gegen die Gaußverteilung konvergiert. Schon bei einer
geringen Zahl N von etwa 10 ist Summen-PDF schon nicht mehr von einer Gaußverteilung zu
unterscheiden.
Dieser Satz ist deshalb besonders wichtig für Physiker, da sie in ihren Experimenten stets als
makroskopische Größe (Helligkeit, Spannungen, Ströme etc.) die Summe aller vorkommenden atomaren Prozesse - nie Einzelprozesse- beobachten.
Bei unserem Würfelexperiment hätten wir beispielsweise nur noch mehr Würfel nehmen müssen, um zu einer PDF zu gelangen, die gut berechenbar ist.
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Numerische Behandlung stochastischer Messwerte
28
Dieser Satz ist also eine erhebliche Erleichterung, da jetzt nur noch die speziellen Kenngrößen
der Verteilung fehlen. Die können aber im Gegensatz zu der ganzen PDF relativ leicht ermittelt werden, da jetzt bekannt ist, dass es sich um eine Gaußverteilung handelt.
II. NUMERISCHE BEHANDLUNG STOCHASTISCHER
MESSWERTE
1.
Teststatistik
a)
Statistik und Messtechnik
Die Statistik behandelt zwei Problemtypen. Der erste Typus behandelt die statistischen Zufallsgrößen. Beispiel: Es soll eine Statistik über die Körpergrößen aller erwachsenen Männer
in Deutschland erstellt werden. Die Grundgesamtheit sind alle deutschen männlichen Einwohner. Die gesuchte Aussage könnte z.B. der Durchschnitt der Körpergrößen sein. Oder eine
bessere Aussage: In welchen Bereich liegen die Körpergrößen von 90% aller erwachsenen
Männer (solche Aussagen braucht beispielsweise die Autoindustrie (neben den Daten für
Frauen) zur Dimensionierung der Sitze neuer Automodelle). Noch schöner wäre natürlich,
wenn man die komplette PDF dieser Verteilung hätte, aus der jegliche Aussage gewonnen
werden könnte.
Der zweite Typus - der in der Messtechnik immer vorkommt- ist der, dass man es mit einer
exakten Messgröße zu tun hat, der ein zeitlich konstanter, zufälliger und unabhängiger Messfehler überlagert ist.
b)
Stichprobe
Im Sinne der Teststatistik ist die Stichprobe eine Messung der statistischen Variablen, also ist
sie auch eine Zufallsgröße. Die Stichprobe muss eine gewisse endliche Größe N aufweisen.
Jede weitere Stichprobe muss von allen anderen vorherigen unabhängig sein (diese Forderung
ist in der biologischen, medizinischen und Sozialstatistik eines der schwierigsten Probleme).
Die Stichprobe hat also eine "eigene" Statistik, die zunächst mit der Statistik der Grundgesamtheit nichts zu tun hat.
c)
Messtechnische Aussage
Die messtechnische Aussage bzw. die Darstellung des Ergebnisses aus der entnommenen
Stichprobe sieht so aus:
Abbildung F-22
Diese Aussage lässt sich nicht mit einem einzelnen Messwert bestimmen.
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Numerische Behandlung stochastischer Messwerte
2.
29
Stichprobe
Die eingeführten Größen des Mittelwertes und der Streuung sind nur theoretische Werte die
der Grundgesamtheit angehören und demnach erst durch die Auswertung unendlich vieler
Messwerte zu erhalten wären. Die stets endlich bleibende Stichprobe gestattet es uns lediglich, diese theoretischen Werte abzuschätzen.
3.
Schätzoperatoren
Ein Schätzoperator ist eine Rechenvorschrift, nach der man anhand des Zahlenwertes des
Messergebnisses zu der messtechnischen Aussage kommt.
Wichtig ist der statistische Zusammenhang zwischen dem Ergebnis der Rechenvorschrift der
Schätzung aus Messwerten mit den Kenngrößen der Grundgesamtheit.
Die Teststatistik stellt also die Schätzoperatoren bereit und versucht deren Eigenschaften auf
die Verteilungsfunktion vorherzusagen.
a)
Verteilungsfunktion der Schätzung
Die Schätzoperatoren produzieren bei bekannter Quellverteilung der ursprünglichen PDF irgendeine Zielverteilung. D.h. das Ergebnis der Schätzfunktion ist wieder eine Verteilungsfunktion, die i.A. vollkommen anders als die Quellverteilung aussieht. Beim Sonderfall, dass
es sich bei der Quellverteilung um eine Gaußverteilung handelt, wird auch die Zielverteilung
von der Struktur her gaußverteilt sein, allerdings mit anderer Streuung.
b)
Konsistenz
Die Konsistenz ist ein sogenanntes Gütekriterium der Schätzoperatoren. Die Konsistenz sagt
aus, dass der Schätzoperator der Stichprobe für N → ∞ gleich ist dem Schätzoperator der statistischen Gesamtheit. Beispiel: Erwartungswert einer Stichprobe:
l q
lq
M soll das Messergebnis der Stichprobe darstellen. E l M q soll der Schätzoperator für den
lim E M → E x = µ
N →∞
Erwartungswert oder Mittelwert sein.
c)
Unvoreingenommenheit (Unbiasedness)
Ein zweites Gütekriterium ist die „Unvoreingenommenheit“ von Schätzoperatoren. Dies soll
wieder an dem Beispiel des Mittelwertes erläutert werden. Sei M N das Messergebnis, welches aus einer Stichprobe mit N Messungen besteht. Der Mittelwert über unendlich vieler solcher Messungen ist gleich dem Mittelwert der statistischen Gesamtheit:
l q → µ = E lxq
µ E MN
Ein Schätzoperator, der dieses Kriterium erfüllt ist unvoreingenommen.
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Numerische Behandlung stochastischer Messwerte
4.
30
Durchschnitt
Der Durchschnitt ist definiert als:
x=
1
( x1 + x2 + L + x N )
N
Dies ist eine Rechenvorschrift, die besagt, was mit den einzelnen Messwerten (x) zu tun ist,
damit man zu einer Zahl kommt. Die Frage ist nun, ob dieser Durchschnitt (der Messwerte)
etwas mit dem Mittelwert (der PDF) zu tun hat. Wünschenswert wäre ja, dass der Durchschnitt ein guter Schätzoperator des Mittelwertes ist.
Eine Prüfung gibt:
lq
E x =
lq l q
l q
1
( E x1 + E x2 + L + E x N ) = µ
N
d.h. für diesen Fall erhält man für den Erwartungswert des Durchschnitts genau den Mittelwert. Der Schätzoperator ist demnach konsistent und (durch eine Plausiblitätsprüfung) auch
unbiased.
5.
Varianz
Wenn die Grundgesamtheit eine Gaußverteilung mit bekanntem σ ist, dann kann mit Hilfe
des Summensatzes für gaußverteilte Funktionen schon eine Aussage über die Streuung des
Durchschnitts gemacht werden. Der Durchschnitt ist nun selbst eine statistische Variable.
o
σ 2 ( x ) = E ( x − µ)2
t
1 2
⋅ σ ( x)
N
1
σ (x) =
⋅ σ ( x)
N
=
Praktisch ist nach einer Messung natürlich nur der Durchschnitt x der Messwerte bekannt.
Die Streuung σ ( x ) und der Mittelwert µ sind nicht bekannt. Deshalb ist diese Form so nicht
zu gebrauchen. Die Lösung dieses Problems liegt in der Erschaffung eines weiteren Schätzoperators: Der Varianz.
a)
Schätzoperator
Es ist naheliegend, die Rechenvorschrift für diesen Schätzoperator V so zu formulieren:
Abbildung F-23
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Numerische Behandlung stochastischer Messwerte
31
hier wurde die fehlende Größe des Mittelwertes durch den Durchschnitt ersetzt. Die Formel
gibt die mittlere quadratische Abweichung der einzelnen Messwerte von dem Durchschnitt an.
Dieser Ansatz ist zwar konsistent (wie sich zeigen lässt) aber nicht unbiased, d.h. er schätzt
die Streuung immer in eine Richtung falsch. Und das ist natürlich schlecht und deshalb ist er
so nicht zu gebrauchen.
Richtig ist der folgende Schätzwert, bei dem lediglich im Nenner statt N jetzt N-1 steht, d.h.
der richtige Schätzwert ist größer.
S2 = V =
1 N
∑ ( xi − x ) 2
N − 1 i =1
Dieser Schätzwert ist nun auch unbiased.
b)
Student-t-Verteilung
Der obige Schätzoperator der Varianz hat auch wieder (genau wie der Durchschnitt) eine eigene Verteilungsfunktion. Diese Verteilungsfunktion muss natürlich bekannt sein, damit eine
Aussage über die Unsicherheit der Streuung gemacht werden kann.
Wenn die Grundverteilung eine Gaußverteilung ist, so wird der Schätzwert nach der Theorie
der t-Verteilung verteilt sein. Diese Verteilung lässt sich nicht explizit hinschreiben. Die Werte sind tabelliert zu finden. Sie hat die Kenngrößen µ , σ und N und heißt Student-tVerteilung. Diese Student-t-Verteilung sieht für verschiedene Werte von N auch unterschiedlich aus.
c)
Vertrauensbereich
Konsequenz für den Vertrauensbereich des Durchschnitts: Es reicht nun nicht mehr aus, alleine die Streuung als Vertrauensbereich anzugeben. Es müssen vielmehr größere Schranken angegeben werden, da der Unsicherheit von S Rechnung getragen werden muss. Die Darstellung
des Vertrauensbereiches (VB) sieht nun so aus:
VB(%) = x ±
1
S ⋅ c(%, N )
N
Der Faktor c(%, N ) ist in Student-t-Tabellen zu finden. Hat man eine Messung mit N=10 gemacht, so erhält man beispielsweise für eine gewünschte statistische Sicherheit von 95% den
Student-t-Faktor von c(95%,10) = 2,26 .
Eine Vorhersage lässt sich aus der Student-t-Verteilung für alle N > 30 herleiten: Sie geht
dann in eine Gaußverteilung über.
d)
Beispiel
Als Beispiel wird eine Messreihe aus 10 Beobachtungen x nach den obigen Regeln ausgewertet:
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Numerische Behandlung stochastischer Messwerte
32
i
xi
( xi − x ) 2
xi2
1
6
0
36
2
4
4
16
3
7
1
49
4
5
1
25
5
8
4
64
6
6
0
36
7
3
9
9
8
8
4
64
9
7
1
49
10
6
0
36
Summe
60
24
384
An dieser Stelle soll noch eine (in der Literatur) übliche abkürzende Notation eingeführt werden:
N
∑ xi =
x
i =1
Der Durchschnitt der Messreihe ist:
x=
x
60
=
=6
N 10
Die Varianz ist:
S2 =
1
24
⋅ ( x − x )2 =
= 2,67;
N −1
9
S = 1,63
für die einfachere Rechnerprogrammierung hat sich eine andere Form der Varianz durchgesetzt:
S2 =
FG
H
1
1
x2 −
x
N −1
N
2
IJ
K
Diese Darstellungsform hat den Vorteil bei der rechnergestützen Verarbeitung der Messdaten,
dass diese nicht zwischengespeichert werden müssen und die Varianz ausgerechnet werden
kann, ohne explizit den Durchschnitt zu kennen. Die folgende Rechnung soll ausgehend von
der ersten Form zeigen, dass diese beiden Darstellungsformen wirklich identisch sind:
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Numerische Behandlung stochastischer Messwerte
33
1
⋅ ( x − x )2
N −1
1
x2 − 2x ⋅ x + N ⋅ x 2
=
N −1
S2 =
LM
MN
1 L
x
=
N − 1 MN
2
x
x
1
x2 − 2
x +N⋅ 2
=
N −1
N
N
S2
2
−
1
x
N
2
OP
Q
OP
PQ
Der Vertrauensbereich soll angegeben werden mit einer statistischen Sicherheit von 95%. Die
Student-t-Tabelle liefert für diese Vorgaben c(95%,10) = 2,26 :
Ergebnis:
1
N
= 6 ± 2,26 ⋅ 1,63 ⋅ 0,32
, (95%)
= 6 ± 117
x = x ± c⋅S ⋅
6.
Prüfung auf Gaußverteilung
Im Folgenden werden zwei Möglichkeiten (eine qualitative und eine quantitative) aufgezeigt,
wie eine Stichprobe daraufhin geprüft werden kann, ob sie einer Gaußverteilung entstammt.
a)
Qualitativ
Die einfachste Möglichkeit einer solchen Prüfung basiert auf dem Gaußschen Summenpapier
(oder auch: Wahrscheinlichkeitspapier). Bei diesem ist die Summenhäufigkeitsachse so verzerrt, dass sich im Falle einer Gaußverteilung eine Gerade ergibt. Wir wollen an unserer obigen Messreihe diese Prüfung durchführen. Dazu erstellen wir zunächst die kumulative PDF:
Abbildung F-24
Diese Werte werden nun in das Wahrscheinlichkeitspapier übertragen:
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Numerische Behandlung stochastischer Messwerte
34
Abbildung F-25
Der Wert für 100% Summenhäufigkeit, der ja bei jeder Stichprobe sicher erreicht wird, lässt
sich in dieser Darstellung ebensowenig wie der Wert für 0% eintragen. Der Grund liegt darin,
dass sehr große Abweichungen vom Mittelwert nicht berücksichtigt werden sollen.
Durch die Punkte wird nun, meist von Auge, so eine Ausgleichsgerade gezogen, dass die Abweichungen minimal werden. Die Beurteilung, wie gut die vorliegende Verteilung einer
Gaußverteilung entspricht, geschieht nun durch die Untersuchung der folgenden drei Fragen:
1. Wie gut liegen die Punkte auf einer Geraden?
2. Wie stark weicht der errechnete Durchschnitt x der Stichprobe vom Mittelwert µ der
durch die Gerade bestimmten Gaußverteilung ab?
3. Wie gut entspricht die Steigung der Ausgleichsgeraden dem umgekehrt proportionalen des
Schätzoperators S ?
Das so geschilderte Vorgehen erlaubt eben nur eine qualitative und grobe Beurteilung. Sie ist
aber zum Auffinden starker Verzerrungen gut geeignet.
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Numerische Behandlung stochastischer Messwerte
b)
35
Quantitativ
Eine quantitative Beurteilung wird anhand des sogenannten χ 2 -Testes (sprich: Chi-QuadratTest) durchgeführt. Der Ablauf der Prüfung ist folgender:
1. Man errechne aus seiner Stichprobe die Schätzwerte x und S.
2. Man teile die Messwerte in K-Klassen ( K ≥ 4 ) mit der Klassenbreite S ein.
3. Man bestimme die mit noi bezeichnete Anzahl der Messwerte in den einzelnen Klassen
(Index o steht für observed (Beobachtung)).
4. Die Werte werden nun in ein PDF-Histogramm eingetragen in dem gleichzeitig die hypothetische Gaußverteilung aufgetragen ist.
Abbildung F-26
5. Nun muss für jede Klasse die erwartete (wahrscheinliche) Anzahl der Messwerte nei (Index e steht für expected (erwartet)) bestimmt werden, die sich ergeben würde, wenn es sich
tatsächlich um eine Gaußverteilung handeln würde
6. Ein Zahlenmaß für die Annahme oder Verwerfung der Hypothese ist nun die relative Abweichung der erwarteten mit der tatsächlich beobachteten Anzahl von Messwerten innerhalb der Klassenbreite:
K
(nei − noi ) 2
noi
i =1
χ2 = ∑
Das Ergebnis des χ 2 - Testes wird um so größer, je verkehrter die gemachte Hypothese ist.
Der χ 2 - Wert ist auch eine Zufallsgröße: wenn wir es mit einer Gaußverteilung zu tun haben,
wird der Wert χ 2 mit einer gewissen Wahrscheinlichkeit einen bestimmten Wert annehmen.
So lässt sich ebenso für einen errechneten Wert χ 2 eine gewisse prozentuale Wahrscheinlichkeitsaussage treffen mit der die Messreihe eine Gaußverteilung ist. Diese Werte sind tabelliert (z.B. im Bronstein) aufzufinden.
Typischer Weise lassen sich solche Tests nur sinnvoll bei Stichproben mit N ≥ 100 anwenden, damit überhaupt in den einzelnen Klassen noch eine gewisse Anzahl aussagefähiger
Messwerte übrig bleiben.
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Numerische Behandlung stochastischer Messwerte
7.
Trendanalyse
a)
Lineare Änderung des Mittelwertes
36
Sehr häufig werden auf messtechnischen Wege Abhängigkeiten einer Variablen y von einer
anderen Variablen x ermittelt. Betrachten wir also eine Variable y, die abhängig sein soll von
einem exakt bekannten einstellbaren Einflussparameter x. Für jeden festen Wert x misst man
nun eine gaußverteilte Stichprobe mit einer Anzahl von K Messpunkten. Der Mittelwert µ
dieser Stichprobe ergänzt mit dem festen Wert x ergibt ein Messwertpaar. Sodann verändert
man den Einflussparameter und misst wieder eine Stichprobe:
Abbildung F-27
Die Fragestellung der linearen Trendanalyse ist es festzustellen, ob es einen linearen Zusammenhang zwischen den Größen x und y von der Form
f ( x ) = µ = mx + b
gibt.
b)
Ausgleichsgerade
Dazu legen wir eine Gerade so durch unsere Messpunkte, dass die Summe der Abweichungsquadrate der Geraden von den Messpunkten i minimal wird:
N
F = ∑ ( yi − (mxi + b)) 2 = Min
i =1
Gesucht werden die beiden Unbekannten m und b. Ausmultipizieren ergibt:
N
F = ∑ ( yi2 + m2 xi2 + b 2 − 2mxi yi − 2byi − 2mbxi )
i =1
Notwendige Bedingungen fürs Minimum (ab hier mit der uns schon bekannten abkürzenden
Summen-Notation):
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Numerische Behandlung stochastischer Messwerte
37
!
∂F
= 2m x 2 − 2 xy + 2b x = 0
∂m
!
∂F
= 2bN − 2 y + 2m x = 0
∂b
aus diesen Bedingungen errechnen sich m und b:
m=
b=
1
x y
N
1
2
x
−
N
xy −
x2
1
( y − m x ) = y − mx
N
Das Ergebnis für den "Schätzoperator" y wird i.a. mit einem Dach gekennzeichnet und lautet:
y$ = mx x + bx
Der Index x bei m und b soll daran erinnern, dass x im Gegensatz zu y eine feste (keine statistische ) Variable ist. Eine andere Form des Resultats ergibt sich, wenn man b ersetzt:
y$ = mx ( x − x ) + y
Damit liegt eine Schätzung der den linearen Zusammenhang beschreibenden Geraden vor.
c)
Vertrauensbereich für die Steigung
Nun stellt sich wieder das Problem der Vertrauensgrenzen. Dazu werden zunächst analog zur
Streuung zwei Kenngrößen S x2 und S y2 gebildet:
S x2
S y2
=
=
x2
N −1
y2
N −1
−
1
x
N
2
−
1
y
N
2
Mit diesen Größen lässt sich der Vertrauensbereich (VB) der ermittelten Geraden angeben:
VB ± c ⋅
S y2 − m2 S x2
( N − 2) ⋅ S x2
wobei c der Student-t-Faktor ist.
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Numerische Behandlung stochastischer Messwerte
8.
Korrelationskoeffizient
a)
Modellannahmen
38
Im Unterschied zur Trendanalyse sind jetzt nicht nur die Größe y, sondern beide Messgrößen
statistische Größen, deren Werte zufällig schwanken. Es werden Messgrößenpaare aufgenommen, deren zeitlicher Ablauf nicht interessiert. Interessant ist nur, welche Messpaare miteinander vorkommen. Trägt man die Messergebnisse in ein Diagramm auf, so erhält man einen irgendwie verteilten Punktenebel:
Abbildung F-28
b)
Rechengang
Die Modellvorstellung basiert darauf, zwei Geraden zu berechnen: Die eine, wie bei der Trendanalyse, mit der Annahme x sei exakt bekannt und die andere mit der Annahme y sei keine
statistische Größe und exakt bekannt:
y$i = mx ⋅ xi + bx = mx ( x − x ) + y
x$i = my ⋅ yi + by = my ( y − y ) + x
c)
Grafische Darstellung
Die beiden Geraden werden i.a. unterschiedlich sein und miteinander einen Winkel γ bilden.
Der Schnittpunkt beider Geraden liegt bei ( x , y ) .
Abbildung F-29
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Numerische Behandlung stochastischer Messwerte
d)
39
Strenge Korrelation
Die beiden Größen sind dann eng miteinander verknüpft, wenn beide Geraden exakt übereinander liegen und der Winkel zwischen ihnen null ist. Es gibt keinen Punktenebel, sondern alle
Messpaare liegen genau auf der Geraden. Weiterhin sind die Steigungen der beiden Geraden
reziprok zueinander:
mx = ±
1
my
Abbildung F-30
e)
Keine Korrelation
Der andere Extremfall keiner Korrelation heißt: die beiden Größen haben nichts miteinander
zu tun. In diesem Fall ist der Punktenebel über die ganze Fläche verteilt:
Abbildung F-31
Die Steigungen der beiden Geraden sind null, d.h. mx = 0; my = 0 . Da die beiden Geraden
einmal von der y-Achse und einmal von der x-Achse aus berechnet wurden, ist der Winkel
zwischen den Geraden γ = 90° .
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Numerische Behandlung stochastischer Messwerte
f)
40
Korrelationskoeffizient
Der Korrelationskoeffizient rxy ist eine normierte Größe, die eine Aussage über den statistischen Zusammenhang der beiden Größen treffen soll. Er berechnet sich zu:
rxy =
mxy
Sx ⋅ S y
N
( xi − x ) ⋅ ( yi − y )
( N − 1)
i =1
mxy = ∑
Der Korrelationskoeffizient kann alle Werte in dem Intervall −1 … rxy … + 1 annehmen.
Die beiden Größen sind:
g)
− unkorreliert für
rxy = 0
− positiv korreliert für
rxy = +1
− negativ korreliert für
rxy = −1
− teilkorreliert für
rxy > 0,5
Korrelationskoeffizient und Kausalität
Wenn zwei Größen kausal zusammenhängen, wird der Betrag des Korrelationskoeffizienten
irgendwo zwischen 0,5 und 1 liegen. Der Umkehrschluss gilt aber nicht. Aus der Tatsache,
dass zwei Größen miteinander korreliert sind, kann man nicht schließen, dass sie auch kausal
miteinander verknüpft sind.
Klassisches Beispiel: Behauptung: Der Storch bringt die Kinder, denn die Korrelationsfunktion verschiedener Länder, bei die Geburtenrate dem Storchvorkommen gegenübergestellt wird
belegt dies eindeutig. Der Korrelationskoeffizient liegt deutlich über 0,5. Nach dieser Logik
wäre damit "bewiesen", dass der Storch die Kinder bringt.
In diesem einfachen Fall erkennt natürlich jeder den Trugschluss. Man vermutet sofort einen
dritten Grund. Dieser liegt in der reduzierten Zahl der Störche in den Industrienationen, in denen gleichzeitig die Großfamilie so gut wie ausgestorben ist (umgekehrt in den armen Ländern
unserer Erde).
h)
Beispiel
Als kleines Beispiel wollen wir zwei beobachtete Größen nämlich die Anzahl der verkauften
Regenschirme r an den Tagen mit n mm Niederschlag untersuchen.
n
0 mm
10 mm
5 mm
10 mm
r
250 Stück
1000 Stück
500 Stück
250 Stück
wir berechnen zuerst die Mittelwerte und Summen:
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Zeitbeschreibung stochastischer Signale
41
n = 6,25; r = 500; N = 4
x = 25
y = 2000
x 2 = 225
y 2 = 1375000
Sn2 =
1
x
N
N −1
x2 −
xy = 15000
2
≅ 23
Sr2 = 125000; mxy = 833
⇒ rxy = +0,49
Es ist eine positive Korrelation (bei Zunahme der Regenmenge werden natürlich auch mehr
Regenschirme verkauft) von etwa 0,5. Für statistische Aussagen ist der Wert schon "ganz
gut". Der Vertrauensbereich soll an dieser Stelle nicht ausgerechnet werden. Man vermutet
aber sicherlich, dass er ziemlich groß sein wird (vgl. Wertetabelle).
III.
1.
ZEITBESCHREIBUNG STOCHASTISCHER SIGNALE
Zeitablauf von Zufallsgrößen
Bis jetzt haben wir den Zeitverlauf von Zufallsgrößen nicht berücksichtigt. Alle gemachten
Aussagen und Kenngrößen haben also die zeitliche Reihenfolge ihres Auftretens unbeachtet
gelassen. Es wurden ja nur Amplitudenbeschreibungen gemacht. Wesentliche Teilinformationen der Messtechnik wurden damit eben nicht beschrieben. Wir können die Auswerteverfahren der statistischen Kenngrößen stochastischer Signale auf kausal-deterministische Signale
anwenden. Bekanntes Beispiel zweier Signale mit gleichen Amplituden (+1), die beide möglicherweise die gleiche PDF besitzen:
Abbildung F-32
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Zeitbeschreibung stochastischer Signale
42
Für 50% der Fälle ist sowohl bei Signal Y1 als auch bei Signal Y2 die Amplitude +1 und das
obwohl Signal Y2 keine Rechteckfunktion wie Signal Y1 sondern eine Zufallsfunktion für die
Werte +1,-1 ist.
2.
Zeitliche Kenngrößen
a)
Beispiel: Gasmoleküle
Wir können entweder aus einer großen Menge von Gasmolekülen eines herausgreifen und
dessen zeitlichen Verlauf verfolgen, oder den der Gesamtheit der Moleküle.
Die zeitlichen Mittelwerte führen den Index t. Der zeitliche Mittelwert des k-ten Moleküls ist
definiert als:
z
T
1
Yk (t ) dt
µ t ( k ) = lim
T →∞ T
0
Der Schätzoperator für diesen Mittelwert gilt für endliches T und stationäre Signale:
z
T
1
Yt ( k ) =
Yk (t ) dt
T0
Wenn, wie im Gas, eine statistische Gesamtheit vorliegt, gilt:
µ t (1) = µ t (2) = µ t (3) = L
d.h. die zeitlichen Mittelwerte der einzelnen Individuen sind gleich.
Wird nun der Mittelwert aller Moleküle zum gleichen Zeitpunkt t betrachtet (so wie wir es in
den vorangegangenen Kapiteln stets betrachtet haben), so ergibt sich der äquivalente Ausdruck:
µ N (t ) = lim
N →∞
1
N
N
∑ Yk (t )
k =1
Der Schätzoperator dafür ist:
YN (t ) =
b)
1
N
N
∑ Yk (t )
k =1
Zeitliche Unabhängigkeit
Der Mittelwert zu einem bestimmten Zeitpunkt t1 ist gleich einem Mittelwert zu einem anderen Zeitpunkt t2 usw. Deswegen wird der zeitlich unabhängige Mittelwert (stationäre Signale)
nicht als Funktion der Zeit geschrieben.
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Zeitbeschreibung stochastischer Signale
43
µ N (t1 ) = µ N (t2 ) = µ N (t3 ) = L = µ N
M
M
M
M
M
für alle Kenngrößen
Die Aussage gilt ebenso für alle anderen Kenngrößen.
c)
Ergozidität
Ein System nennt man ergodisch, wenn der zeitliche Mittelwert gleich dem Scharmittelwert
ist, also wenn gilt: µ N = µ t . Beobachtet man ein Individuum in seiner Geschichte und beobachtet man eine Vielzahl von Individuen, so sollen die Mittelwerte gleich sein.
Als Beispiel sei die Boltzmann-Verteilung eines Gases angeführt. Macht man von dem Gas
einen "Schnappschuss" zu einem beliebigen Zeitpunkt und wertet die Geschwindigkeiten der
einzelnen Moleküle aus, so wird man zu dem gleichen Resultat kommen, wie bei der Beobachtung eines einzelnen Moleküls über einen längeren Zeitraum.
d)
Quadratische Größen
Das quadratische Scharmittel (Varianz oder Streuung) ist definiert als:
VN =
S N2 (t )
N
1
(Yk (t ) − Yk (t )) 2 → σ 2N (t )
=
∑
( N − 1) k =1
Das Äquivalent für die Zeit ist die zeitliche Varianz oder Streuung:
Vt ( k ) = St2 ( k ) =
z
T
1
(Yk (t ) − Yk (t )) 2 dt → σ 2t ( k )
T0
Für elektrische Größen ist diese Größe proportional zu einer Wechselspannungsleistung im
Zeitbereich.
e)
Größen im Frequenzraum
Es stellt sich die Frage, ob wir die uns bekannten Fouriermethoden auch auf zufällige Signale
anwenden können, um irgendeine Aussage über den zeitlichen Verlauf dieser Signale zu bekommen. Wenn man dies tut, so wird man schon bei der Forderung, dass Signale mit einem
Mittelwert ungleich null absolut integrabel sein müssen, also dass gilt:
z
T
für µ ≠ 0 →
f (t ) muß existieren
0
bei einem klassischen Rauschsignal scheitern, weil es keine Periodizität aufweist.
Ein anderer Versuch wäre es, wenn nur ein endlicher zeitlicher Ausschnitt des Rauschsignals
gewählt würde. Die durchgeführte FT würde sicherlich zu einem Ergebnis führen. Nur: Die
FT des nächsten Ausschnittes würde ein vollkommen anders Aussehen haben. Wegen der in
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Zeitbeschreibung stochastischer Signale
44
der FT mitgeführten Phasenbeziehung wird der Mittelwert über sehr viele Ausschnitte verschwinden.
2
Im Gegensatz dazu ist die spektrale Leistungsdichte F(ω ) immer positiv und wird daher
auch nicht (über viele Ausschnitte gemittelt) verschwinden. Allerdings ist die Behauptung,
dass F(ω )
2
existiert, fragwürdig, weil ja F(ω ) nicht konsistent ist.
3.
Ergodische Systeme
a)
Definition
Ein System ist dann ergodisch, wenn alle zeitlichen Kenngrößen (Index T) mit den Scharkenngrößen (Index N) übereinstimmen.
Die Rechtfertigung für die Gleichheit dieser zwei verschiedenen Dinge ist schwierig. So soll
bei ergodischen Systemen der Zeitverlauf eines einzelnen Objektes gleich sein dem zeitlichen
Durchschnitt vieler Objekte.
b)
Beispiel für nichtergodisches System
Negativ-Beispiele für Systeme, die nicht ergodisch sind, gibt es aus der konventionellen Statistik als auch aus der Physik:
− Ein verdünntes Gas, dessen Gasmoleküle der Boltzmann-Verteilung unterliegen, kann sicherlich mit der Scharmittel-Theorie beschrieben werden. Wenn aber ein einzelnes Individuum zu verschiedenen Zeitpunkten betrachtet wird, so hat der daraus ermittelte zeitliche
Mittelwert sicher nichts mit dem Scharmittelwert zu tun. Das liegt vor allem daran, dass
die Zeit zwischen zwei Stößen mit der Wand, bei dem das Molekül seine Geschwindigkeit
ändert, sehr lange dauert.
Komprimierte Gase, bei denen die freie Weglänge der Teilchen viel kürzer ist und damit
öfters Geschwindigkeitsänderungen stattfinden, sind im Gegensatz dazu ergodisch.
− Die politische Meinung der Bevölkerung, die regelmäßig alle vier Jahre durch eine Wahl
"gemessen" wird, ist sicher repräsentativ. Will man dagegen durch regelmäßige Befragung
einer einzelnen Person auf die politische Meinung der Gesamtbevölkerung schließen, so
wird man natürlich jämmerlich scheitern.
− Ebenso bei der Einkommensstatistik. Die Einkommensverteilung einer einzelnen Person
über einen langen Zeitraum spiegelt natürlich in keinem Fall das durchschnittliche Einkommen der Gesamtbevölkerung wieder.
Fazit: In vielen natürlichen Systemen ist die Ergodizität nicht gegeben - auch in der Physik
nicht.
Nur bei sehr vielen stark wechselwirkenden Systemen (komprimiertes Gas) überträgt sich die
Verteilungsfunktion der Gesamtheit auf das Individuum. Ergodische Systeme sind damit ausschließlich in der Physik und nur unter ganz bestimmten Voraussetzungen vorzufinden.
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Korrelationsfunktion
c)
45
Messtheorie
Die Ergodizität ist Voraussetzung für die Messtheorie.
Denn: Eine Messung der Gesamtheit mit N Apparaturen die zu einem Zeitpunkt die physikalische Eigenschaft jedes dieser N Objekte bestimmt, ist kaum realistisch.
In der realen Messung wird eine Schätzung im Zeitbereich vorgenommen, d.h. mit einer Apparatur werden hintereinander k-mal die Eigenschaften eines Objektes gemessen.
Sodann wird die Annahme gemacht, dass das gemessene System ergodisch ist. Daraus wird
abgeleitet, dass die gemessenen Schätzoperatoren des Zeitbereiches auch gute Schätzoperatoren im Scharbereich sind. Der Scharbereich umfasst die Gesamtheit aller vorhandenen Objekte auf die die Gaußstatistik angewendet werden kann.
Die Aussagesicherheiten der Messung läßt sich damit wieder aus den uns schon bekannten
Verfahren ermitteln.
IV.
1.
KORRELATIONSFUNKTION
Einführung
Die Korrelationsfunktion hat das Ziel, ein Maß für die zeitliche Anordnung der Zufallsgrößen
zu finden. D.h. ein Kriterium zu finden, das eine Aussage über die Schnelligkeit der zeitlichen
Änderung einer Zufallsgröße macht.
Eine andere Erklärung: Die Korrelationsfunktion gibt eine Aussage über die "Vergesslichkeit"
der Zufallsgrößen. Damit ist sie auch ein Maß über die statistische Unabhängigkeit.
Ein Ansatz ist (in Anlehnung an den instantanen Korrelationskoeffizienten) die zeitliche Korrelation zweier Signale zu verschieden Zeitpunkten. Gibt es einen statistisch gesicherten Zusammenhang zweier Signale zwischen jetzt und später?
2.
Definitionen
a)
Kreuzkorrelation
Die Kreuzkorrelationsfunktion fragt genau nach diesem statistischen Zusammenhang zweier
Signale. Es ist eine zeitabhängige Funktion die so definiert ist:
z
T
1
x (t ′) ⋅ y (t + t ′) dt ′
T →∞ T
0
Rxy (t ) = lim
für stationäre Systeme gilt:
z
T
1
Rxy (t ) = lim
x (t ′ − t ) ⋅ y (t ′) dt ′
T →∞ T
0
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Korrelationsfunktion
b)
46
Autokorrelation
Ein "Abkömmling" der Kreuzkorrelationsfunktion ist die Autokorrelationsfunktion. Der einzige Unterschied besteht darin, dass jetzt nur ein Signal betrachtet wird. D.h. x = y:
z
T
1
x (t ′ + t ) ⋅ x (t ′) dt ′
T →∞ T
0
Rxx (t ) = lim
3.
Die Autokorrelationsfunktion (AKF)
In den nun folgenden Abschnitten werden wir uns an die AKF heranarbeiten, indem die Eigenschaften dieser Funktion untersucht werden.
Wir werden ab hier für die Autokorrelationsfunktion die Abkürzung AKF und später für die
Kreuzkorrelationsfunktion die Abkürzung KKF benutzen.
a)
AKF (0)
Wie sieht die AKF für t=0 aus? Eingesetzt in die obige Definition ergibt:
Rxx (0) = x 2 (t ′)
Für die Annahme x = 0 ist Rxx (0) = σ 2T . Wenn es sich um ein ergodisches System handelt,
folgt: Rxx (0) = σ 2T = σ 2N . D.h. die AKF ist eine Brücke zwischen Zeitverlaufsbeschreibungen
von Signalen und einer statistischen Kenngröße.
b)
AKF ( ∞ )
Im Gegensatz dazu gilt für große Werte t (ohne Beweis):
Rxx ( ∞) = x 2
c)
AKF (>0)
Gegeben sei ein beliebiges (verrauschtes) Signal (linkes Bild). In dem Integral wird die gleiche Funktion zeitverschoben (rechtes Bild) multipliziert.
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Korrelationsfunktion
47
Abbildung F-33
Jetzt werden diese Funktionen punktweise multipliziert, aufsummiert und der Durchschnitt
gebildet. Für t = 0 liegen beide Funktionen exakt übereinander. An dieser Stelle ist die AKF
garantiert positiv. Für alle anderen Werte für t muss das nicht der Fall sein. Das ist die plausible Erklärung, dass die AKF an der Stelle 0 ihr absolutes Maximum hat ( σ 2 ).
d)
AKF (<0)
Wie leicht einzusehen ist, ist die AKF eine gerade Funktion bezüglich der Verschiebung und
somit achsensymmetrisch:
Rxx (t ) = Rxx ( − t )
e)
Linearität
Unter der Annahme, dass zwei Signale (v,w) miteinander unkorreliert sind, kann definiert
werden:
Rxx (v + w) = Rxx (v ) + Rxx ( w)
d.h. dann ist die AKF eine lineare Funktion.
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Korrelationsfunktion
f)
48
Periodische Funktionen
Am ersten Beispiel der Kosinusfunktion soll deren AKF bestimmt werden. Wir behandeln
diese Funktion wieder mit der Definitionsgleichung und erhalten als Resultat:
Abbildung F-34
d.h. die AKF des Kosinus ist wieder ein Kosinus mit gleicher Periode. Dieses lässt sich verallgemeinern zu dem Satz:
Die AKF einer periodischen Funktion ist periodisch mit der gleichen Periode T0 (ohne Beweis).
Durch Einsetzen der Sinusfunktion in die Definitionsgleichung kommt natürlich die gleiche
AKF wie beim Kosinus heraus.
Abbildung F-35
Dies ist nicht weiter verwunderlich, weil der Sinus ja als eine um
π
2
verschobene Kosinus-
Funktion beschrieben werden kann.
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Korrelationsfunktion
g)
49
Trigonometrische Funktionen
Die wichtigste Erkenntnis für trigonometrische Funktionen ist, dass sämtliche Phaseninformation bei der AKF stets verloren gehen.
h)
Rechteckfunktion
Die AKF einer mittelwertfreien ( µ = 0 ) Rechteckfunktion ist:
Abbildung F-36
Im Gegensatz zur AKF der Kosinus- und Sinus-Funktion ist die Form der AKF jetzt nicht die
gleiche wie beim ursprünglichen Signal.
i)
Konstante
Die AKF einer zeitlich konstanten Funktion ist natürlich auch wieder eine Konstante, weil die
Zeitverschiebung hier keine Rolle spielt.
j)
Rauschsignale
Nun soll die AKF für stochastische Eingangssignale (Rauschen) untersucht werden. Wie bei
allen anderen Eingangssignalen wissen wir sicher, dass da Maximum bei t = 0 den Wert von
σ 2 hat. Weiter ist bekannt, dass die Funktion links und rechts vom Maximum abfällt und für
große Zeiten gegen Null gehen muss, weil bei einem zufälligen Rauschsignal die Amplitude
der Definitionsgleichung für die AKF immer kleiner wird.
Für rein stochastische Signale wird daher die AKF eines "schnellen" (mit hoher Frequenz)
Rauschsignals etwa so aussehen:
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Korrelationsfunktion
50
Abbildung F-37
Demgegenüber sieht die AKF eines "langsamen" (mit niedrigerer Frequenz) Rauschsignals
etwa so aus:
Abbildung F-38
Fazit: Die Art und Weise, wie die AKF vom Maximalwert Rxx (0) = x 2 in Funktion der Verschiebungszeitspanne auf den Wert Rxx ( ∞) abfällt, ist für die Erhaltungstendenz ("Vergesslichkeit" oder statistische Unabhängigkeit) des Signals charakteristisch.
4.
Beziehung der AKF zur Fouriertransformation
a)
Anschauung
2
Wir hatten ja schon früher über die mögliche Existenz von F(ω ) diskutiert. Nun soll die
Beziehung zwischen der AKF und der Fouriertransformation (FT) vertieft werden. So ganz
unabhängig können sie voneinander nicht sein, denn
− bei der FT führt ein hochfrequentes Zeitsignal zu einer "breiten" Fouriertransformierten.
Bei der AKF besteht (wie eben gezeigt) eine dazu reziproke Beziehung.
− bei der FT führt ein niederfrequentes Zeitsignal zu einer "schmalen" Fouriertransformierten. Bei der AKF besteht ebenfalls (wie eben gezeigt) eine dazu reziproke Beziehung.
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Korrelationsfunktion
51
Es scheint also so zu sein, als ob zu der FT ein phasenfreies, translationsinvariantes Äquivalent durch eine innere Beziehung zur AKF bestünde.
b)
Faltungssatz
Die Definition der AKF:
z
T
1
Rxx (t ) = lim
x (t ′) ⋅ x (t ′ + t ) dt ′
T →∞ T
0
sieht der der Faltung sehr ähnlich:
z
∞
x (t ) ⊗ x (t ) =
x (t ′) ⋅ x (t − t ′) dt
−∞
Durch einen Vergleich der beiden Definitionen können wir sagen:
⇒ Rxx (t ) = x (t ) ⊗ x ( − t )
Die AKF ist demnach die Faltung eines Signals mit seiner eigenen Zeitspiegelung.
Darauf den Faltungssatz angewendet, liefert:
F Rxx (t )
= F x (t ) ⊗ x ( −t )
= F (ω ) ⋅ F *(ω )
= F (ω )
2
Rxx (t ) = F- 1 F (ω )
2
In Worten: Die AKF ist die Rücktransformierte der spektralen Leistungsdichte.
c)
Spektrale Leistungsdichte
Die Fouriertransformierte der reellen achsensymmetrischen Funktion AKF ist die reelle spektrale Leistungsdichte.
Das ist der Querverweis, der die beiden großen Gebiete der Fourier-Methoden und der Statistik miteinander verbindet.
d)
Beispiel Rauschspektrum
Die Leistungsspektren der schnell und langsam veränderlichen Rauschsignale (s.oben) sehen
etwa so aus:
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Korrelationsfunktion
52
Abbildung F-39
Ein extremer Fall ist Rauschen das vollkommen unkorreliert ist. Für solche Signale ist die
AKF sehr schmal. D.h. nach sehr kurzer Zeit hat das Signal die Vergangenheit vollkommen
"vergessen". Im Spektralgebiet bedeutet dies, dass die Fouriertransformierte eine Konstante
ist. Eine konstante spektrale Leistungsdichte heißt, dass alle Frequenzen gleich stark vertreten
sind. In Anlehnung an die Optik, wo Licht mit dieser Eigenschaft als weiß bezeichnet wird,
heißt auch dieses Rausch-Signal "weißes Rauschen".
Abbildung F-40
Die Frequenzeigenschaft "weiß" ist also ein Synonym für die Zeiteigenschaft "vollkommen
unkorreliert".
Ein anderes Extrem ist das hochkorrelierte Signal, welches sich auch nach sehr langer Zeit
nicht "vergisst". Die AKF eines solchen Signals verändert sich kaum oder ist konstant. Die
Fouriertransformierte eines solchen Signals ist ein Delta-Peak:
Abbildung F-41
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Korrelationsfunktion
5.
Anwendung der AKF
a)
Diskrete Darstellung
53
Bisher haben wir uns nur um die theoretische Darstellung gekümmert. Will man die AKF allerdings anwenden, so hat man es natürlich mit diskreten Messwerten zu tun. Wir brauchen
also eine äquivalente, diskrete Darstellung der Kreuzkorrelationsfunktion KKF (die AKF ist ja
nur ein Sonderfall der KKF):
Rxy (n) =
1
N
N
∑ y( k ⋅ ∆t ′) ⋅ x( k ⋅ ∆t ′ − n)
k =1
Hierbei ist ∆t die Sampling-Taktzeit und N ⋅ ∆t die Zeitverschiebung. Die allgemeine
Schreibweise lautet:
Rxy [n] =
1
N
N
∑ y[ k ] ⋅ x[ k − n]
k =1
wobei in den eckigen Klammern ganzzahlige Ausdrücke stehen. Das ist die diskrete AKF an
den Stützstellen n.
b)
Realisierung
Gegeben seien zwei beliebige Funktionen x(t) und y(t), auf die die KKF angewendet werden
soll. Dazu werden die Samplingzeitpunkte, die voneinander einen zeitlichen Abstand von ∆t
haben, für das x-Signal mit Großbuchstaben und für das y-Signal mit Zahlen bezeichnet:
Abbildung F-42
Das Rechenschema für die diskrete KKF sieht so aus:
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Korrelationsfunktion
54
1
( A ⋅1 + B ⋅ 2 + C ⋅ 3 + …)
N
1
Rxy [1] = ( A ⋅ 2 + B ⋅ 3 + C ⋅ 4 + … )
N
M
M
Rxy [o] =
Es handelt sich als lediglich um Additionen und Multiplikationen.
c)
Laufender Mittelwert
Für eine neue Eingangsgröße müssen N solcher Multiplikationen und Additionen durchgeführt
werden. Der Rechenaufwand ist deshalb erheblich. Will man beispielsweise die AKF mit
1000 Stützstellen eines digitalen Audiosignals ( ∆t ≅ 50µs ) in Echtzeit errechnen, so darf die
Berechnung eines Wertes Rxy nur 50ns dauern.
Es wäre schön, wenn man kontinuierlich Werte bei der KKF-Messung erhalten würde. Dieses
ist so nicht möglich, weil am Ende jeder Messung über N - Werte das Ergebnis durch N dividiert wird.
Abhilfe schafft der sogenannte „laufende Mittelwert“ (running average). Dieser ermöglicht zu
einem bestehenden Mittelwert x N , der aus N Summanden berechnet worden ist, den Mittelwert x N +1 zu berechnen, ohne alle N+1 Summanden aufzuaddieren.
Der Mittelwert ist definiert als:
xN =
x1 + x2 + L + x N
N
Für N+1 müsste eigentlich alles noch mal berechnet werden:
x N +1 =
x1 + x2 + L + x N + x N +1
N +1
Die Frage ist nun, ob es nicht möglich ist, x N +1 zu berechnen, ohne die ganze Summenbildung. Mit ein wenig mathematischer Umformarbeit ist dies tatsächlich möglich:
x N +1 = x N +
x N +1 − x N
N +1
Der neue Durchschnitt errechnet sich aus dem alten Durchschnitt plus einer "Korrekturgröße".
d)
Beispiel: Periodische Signale im Rauschen
Man hat häufig das Problem ein sehr schwaches periodisches Signal zu detektieren, welches
von einem Rauschsignal großer Amplitude überlagert ist.
Beispiel aus der Astronomie: Quasare strahlen in sehr regelmäßigen Abständen Pulse im Radiofrequenzbereich ab. Diese Signale sind, wenn sie auf der Erde detektiert werden, vollkommen verrauscht.
Die Lock-In-Technik scheidet zur Detektion aus, weil kein Referenzsignal vorliegt.
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Korrelationsfunktion
55
Hier bietet die AKF aufgrund ihrer Eigenschaft der Linearität eine Lösung. Voraussetzung ist,
dass das Rauschen des Signals nichts mit dem eigentlichen vom Quasar abgestrahlten Signal
zu tun hat. Diese Voraussetzung ist natürlich stets erfüllt und wir können uns die Eigenschaft
der AKF zunutze machen, dass die AKF der Summe unkorrelierter Signale gleich der Summe
der einzelnen AKFs ist (s.a. Linearität der AKF).
Die AKF einer periodischen Funktion ist selber wieder eine periodische Funktion. Ferner
nimmt die AKF von stochastischem Rauschen relativ schnell mit der Zeit ab. Die AKF eines
solchen verrauschten Signals ist in der nächsten Abbildung zu sehen:
Abbildung F-43
Für große Zeiten t ist die AKF des Rauschens Null und es bleibt die AKF des periodischen
Signals (welches die gleiche Periode wie das Ursprungssignal des Quasars hat) übrig.
6.
Die Kreuzkorrelationsfunktion
a)
Laufzeitverschobene AKF
Gegeben seien zwei Rauschsignale, die von zwei voneinander örtlich etwas entfernt angebrachten Detektoren aufgenommen worden sind. Das Rauschsignal des ersten Detektors wird
am zweiten mit einer gewissen Zeitverzögerung detektiert. Konkret können das zwei Lichtdetektoren seien, die in einem quasikontinuierlichen Fertigungsprozess die Lichtreflexion des
Fertigungsgutes aufnehmen.
Bildet man von diesen beiden Signalen die KKF, so wird sich eine um die Zeit τ verschobene
AKF ausbilden:
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Korrelationsfunktion
56
Abbildung F-44
Diese Zeit τ ist exakt die Laufzeit, die das Fertigungsgut von Detektor 1 zum Detektor 2 benötigt hat.
b)
Zusammenhang, Kausalität
Der Vorteil der KKF liegt in de Bestimmung von Korrelationen, die zeitlich auseinander liegen.
Beispiel: Will man die Korrelation zwischen dem Rauchverhalten und Krebs-Sterbefällen erarbeiten, so macht es sicherlich wenig Sinn, die Stichprobe von nur einem Tag oder einer Woche zu betrachten.
Betrachtet man die Werte aber über einem langen Zeitraum mit KKF, so ist durch die Korrelation eine notwendige (aber nicht hinreichende) Bedingung der Kausalität gegeben.
c)
Beziehungen zur spektralen Übertragungsfunktion
Ein weiterer Aspekt der KKF bringt der Zusammenhang der AKF mit dem Leistungsdichtespektrum. Dazu zur Erinnerung die Kernzusammenhänge der Systemtheorie:
Abbildung F-45
2
Man kann zeigen: Wenn x(t) "weiß" ist ( F(ω ) =konst oder AKF=Delta-Funktion), dann gilt:
I (t ) = Rxy (t )
Wird am Eingang eines Systems spektral weißes Rauschen angelegt und mit dem Ausgang des
Systems kreuzkorreliert, so ist das Ergebnis die Impulsantwort I(t) des Systems.
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Korrelationsfunktion
7.
Anwendungen der KKF
a)
Geschwindigkeitsmessung
57
Die KKF bietet die Möglichkeit, Geschwindigkeiten berührungs- und markierungslos zu messen. Das Prinzip ist das gleiche wie bei der laufzeitverschobenen AKF: Zwei Detektoren, die
irgendeine zufällige Eigenschaft (Strahlung, Reflexion, Dichte etc.) messen, werden in einem
örtlichen Abstand in Laufrichtung des Objektes voneinander angebracht. Das Maximum der
KKF ist die um Zeit τ verschobene AKF. Mit dieser Zeit und dem bekannten Abstand der
Detektoren ist auch die Geschwindigkeit des Objektes bekannt.
Einsatzgebiet solcher Geschwindigkeitsmesser: z.B. Messung der Geschwindigkeit von heißem Stahl in Walzstraßen.
b)
Schallquellenlokalisation
Oft ist es nicht ganz einfach, ein bestimmtes auffallendes Störgeräusch aus einer Vielzahl von
Geräuschen zu lokalisieren.
Bei der Konstruktion von Kraftfahrzeugen werden auch schalltechnische Analysen erstellt, die
Aufschluss über die Herkunft von Fahrgeräusche geben sollen. Dabei wird das unerwünschte
Nebengeräusch (z.B. leises Klappern) außerhalb des Fahrzeuges mit einem Mikrofon aufgenommen. Ein zweites Mikrofon wird an verschiedenen Stellen im oder am Fahrzeug gehalten.
Aus der jeweilig errechneten KKF kann ersehen werden, ob eine plausible Korrelation gefunden wird, und wie weit sie weg ist:
Abbildung F-46
Selbstverständlich können durch Reflexionen mehrere Maxima in KKF auftreten. Dadurch ist
es u.U. sogar möglich, den Weg des Schalls rückzuverfolgen.
c)
Systemanalyse mit Rauschen
In dem Kapitel über Systemtheorie haben wir schon zwei verschieden Möglichkeiten zur Systemanalyse diskutiert (Frequenzgangmethode und Impulsantwortmethode).
Wir haben in dem Kapitel oben gesehen, dass die Kreuzkorrelations-Methode der Impulsantwort-Methode äquivalent ist.
Allerdings hat die KKF-Methode gegenüber der Impulsantwort-Methode einige Vorteile:
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Korrelationsfunktion
58
− Sie hat viel geringere Nichtlinearitäten, weil die Eingangsamplitude wesentlich kleiner sein
kann.
− Man braucht keinen aufwendigen Testgenerator, sondern nur einen einfach herzustellenden
Rauschgenerator.
− Durch die in der KKF schon eingebaute Mittelung braucht das Signal auch nicht frei zu
sein von Fremdsignalen.
Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99
Herunterladen