Skriptum zur Vorlesung: PHYSIKALISCHE MESSTECHNIK A (Signale/Systeme) Kapitel F: Beschreibung stochastischer Signale Wintersemester 1998 / 99 Universität Paderborn Fachbereich 6 - Physik - Dozent: Prof.Dr.H.Ziegler Protokoll: Dr.H.Aulfes / C.H. Amplitudenbeschreibung F. I. 2 BESCHREIBUNG STOCHASTISCHER SIGNALE............................................5 Amplitudenbeschreibung...............................................................................................................................5 Grundbegriffe...............................................................................................................................................5 a) Signalklassifikation .................................................................................................................................5 b) Wahrscheinlichkeit..................................................................................................................................6 c) Verbundwahrscheinlichkeit .....................................................................................................................8 d) Statistische Variable................................................................................................................................9 2. Die Wahrscheinlichkeitsdichtefunktion......................................................................................................10 a) Definition ..............................................................................................................................................10 b) Beispiel .................................................................................................................................................11 c) Häufigster Wert.....................................................................................................................................11 d) Mittelwert..............................................................................................................................................11 e) Kumulative PDF....................................................................................................................................12 f) Medianwert ...........................................................................................................................................13 g) Bemerkungen zu den Kenngrößen ........................................................................................................13 3. Messung der PDF.......................................................................................................................................14 a) Histogramm-Modus...............................................................................................................................14 b) Fenstermodus ........................................................................................................................................15 4. Analytische PDFs .......................................................................................................................................16 a) Mathematische Funktionsapproximation...............................................................................................16 b) Stochastisches Modell ...........................................................................................................................16 c) Stochastisches Modell mit freien Parametern........................................................................................16 5. Kenngrößen von PDFs ...............................................................................................................................16 a) Mittelwert..............................................................................................................................................16 b) Erwartungswerte von Funktionen..........................................................................................................17 c) 2.Moment ..............................................................................................................................................17 d) Mittelwert als 1.Moment .......................................................................................................................17 e) 2.Zentralmoment ...................................................................................................................................17 f) Schiefe...................................................................................................................................................18 6. Spezielle PDFs ...........................................................................................................................................18 a) Gleichverteilung ....................................................................................................................................18 b) Binomialverteilung................................................................................................................................19 c) Poissonverteilung ..................................................................................................................................21 d) Gaußverteilung......................................................................................................................................21 7. Eigenschaften der Gauß-Verteilung ...........................................................................................................22 a) Häufigster Wert.....................................................................................................................................22 b) Wendepunkte.........................................................................................................................................22 c) Mittelwert..............................................................................................................................................22 d) Medianwert ...........................................................................................................................................23 e) Varianz ..................................................................................................................................................23 f) Schiefe...................................................................................................................................................23 g) Normalverteilung ..................................................................................................................................24 h) Gaußsches Fehlerintegral ......................................................................................................................24 i) Prozentgrenzen......................................................................................................................................24 8. PDF von Funktionen stochastischer Variablen...........................................................................................25 a) Beispiel Würfelsumme ..........................................................................................................................25 b) Beispiel Würfelprodukt .........................................................................................................................26 c) Fazit für PDF von Funktionen...............................................................................................................26 d) Fazit für Kenngrößen von Funktionen...................................................................................................27 9. Sonderfall: Summe gaußverteilter Funktionen ...........................................................................................27 a) PDF der Summe ....................................................................................................................................27 b) Mittelwert der Summe...........................................................................................................................27 c) Streuung der Summe .............................................................................................................................27 10. Zentraler Grenzwertsatz .........................................................................................................................27 1. Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Amplitudenbeschreibung 3 II. 1. Numerische Behandlung stochastischer Messwerte ..............................................................................28 Teststatistik ................................................................................................................................................28 a) Statistik und Messtechnik......................................................................................................................28 b) Stichprobe .............................................................................................................................................28 c) Messtechnische Aussage .......................................................................................................................28 2. Stichprobe ..................................................................................................................................................29 3. Schätzoperatoren........................................................................................................................................29 a) Verteilungsfunktion der Schätzung .......................................................................................................29 b) Konsistenz .............................................................................................................................................29 c) Unvoreingenommenheit (Unbiasedness)...............................................................................................29 4. Durchschnitt ...............................................................................................................................................30 5. Varianz .......................................................................................................................................................30 a) Schätzoperator.......................................................................................................................................30 b) Student-t-Verteilung..............................................................................................................................31 c) Vertrauensbereich .................................................................................................................................31 d) Beispiel .................................................................................................................................................31 6. Prüfung auf Gaußverteilung .......................................................................................................................33 a) Qualitativ...............................................................................................................................................33 b) Quantitativ.............................................................................................................................................35 7. Trendanalyse ..............................................................................................................................................36 a) Lineare Änderung des Mittelwertes.......................................................................................................36 b) Ausgleichsgerade ..................................................................................................................................36 c) Vertrauensbereich für die Steigung .......................................................................................................37 8. Korrelationskoeffizient...............................................................................................................................38 a) Modellannahmen...................................................................................................................................38 b) Rechengang ...........................................................................................................................................38 c) Grafische Darstellung............................................................................................................................38 d) Strenge Korrelation ...............................................................................................................................39 e) Keine Korrelation..................................................................................................................................39 f) Korrelationskoeffizient..........................................................................................................................40 g) Korrelationskoeffizient und Kausalität..................................................................................................40 h) Beispiel .................................................................................................................................................40 III. 1. 2. Zeitbeschreibung stochastischer Signale ................................................................................................41 Zeitablauf von Zufallsgrößen .....................................................................................................................41 Zeitliche Kenngrößen.................................................................................................................................42 a) Beispiel: Gasmoleküle...........................................................................................................................42 b) Zeitliche Unabhängigkeit ......................................................................................................................42 c) Ergozidität.............................................................................................................................................43 d) Quadratische Größen.............................................................................................................................43 e) Größen im Frequenzraum......................................................................................................................43 3. Ergodische Systeme ...................................................................................................................................44 a) Definition ..............................................................................................................................................44 b) Beispiel für nichtergodisches System....................................................................................................44 c) Messtheorie ...........................................................................................................................................45 IV. 1. 2. Korrelationsfunktion ...............................................................................................................................45 Einführung..................................................................................................................................................45 Definitionen................................................................................................................................................45 a) Kreuzkorrelation ...................................................................................................................................45 b) Autokorrelation .....................................................................................................................................46 3. Die Autokorrelationsfunktion (AKF) .........................................................................................................46 a) AKF (0) .................................................................................................................................................46 b) AKF ( ∞ ) ..............................................................................................................................................46 c) AKF (>0)...............................................................................................................................................46 d) AKF (<0)...............................................................................................................................................47 e) Linearität ...............................................................................................................................................47 f) Periodische Funktionen .........................................................................................................................48 Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Amplitudenbeschreibung g) h) i) j) 4 Trigonometrische Funktionen ...............................................................................................................49 Rechteckfunktion...................................................................................................................................49 Konstante ..............................................................................................................................................49 Rauschsignale........................................................................................................................................49 4. Beziehung der AKF zur Fouriertransformation..........................................................................................50 a) Anschauung...........................................................................................................................................50 b) Faltungssatz...........................................................................................................................................51 c) Spektrale Leistungsdichte......................................................................................................................51 d) Beispiel Rauschspektrum ......................................................................................................................51 5. Anwendung der AKF .................................................................................................................................53 a) Diskrete Darstellung..............................................................................................................................53 b) Realisierung...........................................................................................................................................53 c) Laufender Mittelwert.............................................................................................................................54 d) Beispiel: Periodische Signale im Rauschen...........................................................................................54 6. Die Kreuzkorrelationsfunktion...................................................................................................................55 a) Laufzeitverschobene AKF.....................................................................................................................55 b) Zusammenhang, Kausalität....................................................................................................................56 c) Beziehungen zur spektralen Übertragungsfunktion...............................................................................56 7. Anwendungen der KKF..............................................................................................................................57 a) Geschwindigkeitsmessung.....................................................................................................................57 b) Schallquellenlokalisation.......................................................................................................................57 c) Systemanalyse mit Rauschen.................................................................................................................57 Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Amplitudenbeschreibung 5 F. BESCHREIBUNG STOCHASTISCHER SIGNALE I. AMPLITUDENBESCHREIBUNG 1. Grundbegriffe Die Mathematik, die für die Beschreibung stochastischer Signale benötigt wird, ist nicht für die Physiker entwickelt worden. I.A. holt sich die Mathematik Anregungen aus Gebieten der Physik und versucht aus deren Vorstellungen ein mathematisches Gebilde zu konstruieren. So geschehen z.B. in der Entwicklung der Differential- und Integralrechnung, Tensor- und Vektorrechnung. Die Entwicklung der Mathematik der Stochastik wurde hingegen durch Sozialwissenschaften, Biologiewissenschaften und andere Bereiche angeregt. Unglücklicher Weise wurden dort zum Teil Worte eingeführt, die auch schon in der Physik eine (andere) Bedeutung haben. Deshalb ist es für einen Physiker etwas verwirrend, mit dieser Thematik umzugehen. Leider ist mir in der Literatur kein Buch bekannt, welches die grundlegenden Begriffe der Statistik klar definiert. Oft ist in den mir bekannten Büchern der Bezug der Begriffe zur Physik und die mathematische Statistik in den Begriffen nicht klar genug dargestellt. a) Signalklassifikation Am Anfang dieser Vorlesung wurde schon der Klassifizierungsbaum gezeigt. Innerhalb dieses Baumes werden wir ausschließlich die Signalklasse mit folgenden Eigenschaften betrachten: • Die Signale sind zeitlich veränderlich. • Die Signale sind nur mit unendlich vielen Parametern beschreibbar. Die Anzahl der Parameter solcher Signale muss zu weiteren Bearbeitung reduziert werden, d.h. eine eindeutige Rekonstruktion ist nicht möglich. Typischer Vertreter: Rauschen. • Die Signale sind stationär. D.h. die Kenngrößen dieser Signale (z.B. Intensität) sind konstant und ändern sich nicht. • Die Signale sind ergodisch. Bei diesem System stimmen die Aussagen aus der Anzahlstatistik mit den Aussagen aus der Zeitverlaufsstatistik überein. Beispiel: Bestimmung der Eigenschaften von Gasmolekülen durch Ausmessung einzelner Moleküle. Gegenbeispiel eines nicht ergodischen Systems ist beispielsweise die Befragung eines Individuums eines Wahlvolkes nach seinem Wahlverhalten. Aus dessen lebenslangen (Zeitverlaufsstatistik) Wahlverhalten lassen sich keinerlei Aussagen über die Ausgang einer Wahl machen. Sehr viele physikalische Systeme sind nicht ergodisch. Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Amplitudenbeschreibung 6 Abbildung F-1 b) Wahrscheinlichkeit Der Begriff der Wahrscheinlichkeit ist definiert als: lim P ( x ) = N →∞ n N Man muss jetzt ein wenig umdenken. Das x ist nicht etwa eine variable Größe, die einen physikalischen Wert assoziiert, sondern soll eine Eigenschaft oder ein Merkmal darstellen. Die Zahl n soll die Menge der diskreten Elemente darstellen, die die Eigenschaft oder das Merkmal x haben. Der Quotient N ist die Gesamtzahl aller Elemente. Folglich gilt: 0 ≤ n ≤ N und 0 ≤ P( x ) ≤ 1 Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Amplitudenbeschreibung 7 Der Sachverhalt lässt sich auch gut mit den aus der Mengenlehre bekannten Darstellungen erklären: Abbildung F-2 Hier sind die Elemente mit den Eigenschaften x, y, z Untermengen von N. Es gibt aber auch Probleme, bei denen die Klassenzugehörigkeiten der Elemente logisch exklusiv zueinander sind. Die Gesamtklasse habe die Merkmale x1 , x2 , x3 , x4 und sei logisch so konstruiert, dass sich die Einzelklassen nicht überlappen können: Abbildung F-3 Ein Element einer Klasse kann hierbei also nicht gleichzeitig einer anderen Klasse zugehörig sein. Für die Wahrscheinlichkeit gilt: P( xi ∨ x j ) = P( xi ) + P( x j ) ⇒ Σ P ( xi ) = 1 i Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Amplitudenbeschreibung 8 (nochmals: Das sind keine Variablen -Gleichungen mit denen wie gewohnt gerechnet werden kann). c) Verbundwahrscheinlichkeit Nehmen wir an, wir hätten eine nicht-exklusive Zuordnung vorliegen, d.h. Merkmale können einzeln, gemeinsam oder gar nicht auftreten. Es können Beziehungen zwischen den Merkmalen bestehen. Am Beispiel einer Schafherde soll dies einmal für den einfachen Fall zweier Merkmale A/B dargestellt werden. Die Merkmalpaare können zum Beispiel seien: Unterscheidung nach großen/kleinen Schafen oder schwarzen/weißen Schafen. Abbildung F-4 Nun kann es sein, dass die Wahrscheinlichkeiten voneinander abhängen. Das könnte in unserem Beispiel z.B. bedeuten, dass die Wahrscheinlichkeit, dass ein Schaf schwarz ist, nicht unabhängig ist von einer anderen Wahrscheinlichkeit das es z.B. groß oder klein ist. Man definiert die Wahrscheinlichkeit für das Auftreffen des Merkmals A bei gleichzeitigem Vorhandensein von Merkmal B: sprich: Wahrscheinlichkeit A gegeben B. Die Wahrscheinlichkeit, dass innerP( A /B) halb der Menge B ein Element mit der Eigenschaft A auftritt. sprich: Wahrscheinlichkeit A gegeben nicht B. Die Wahrscheinlichkeit dasein P( A /B ) Element mit der Eigenschaft A auftritt von der Menge der Elemente die nicht die Eigenschaft B besitzen. P ( A und B ) sprich: Wahrscheinlichkeit A und B. Ist die Schnittmenge der Flächen A und B und ist nicht zu verwechseln mit der bedingten Wahrscheinlichkeit P( A / B) . Die Wahrscheinlichkeit, dass ein Element sowohl die Eigenschaft A als auch die Eigenschaft B aufweist. Diese Definition kann man ineinander ausdrücken: Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Amplitudenbeschreibung 9 P( A undB) = P( A) ⋅ P( B / A) = P( B) ⋅ P( A / B) P( A) P( A / B) = P( B / A) ⋅ P( B) Die Verbundwahrscheinlichkeit P( A / B) ist i.A. also etwas anderes als die Verbundwahrscheinlichkeit P( B / A) . Beispiel aus der Elementarteilchenphysik: Radioaktiver Zerfall in α , β , γ -Teilchen . Sei P ( A) = Wahrscheinlichkeit eines Teilchens, ein α -Teilchen zu sein. P( B) = Wahrscheinlichkeit, ein Teilchen nachzuweisen. P( B / A) = Wahrscheinlichkeit, wenn ein α -Teilchen auftritt, es nachzuweisen. P( A /B) = Wahrscheinlichkeit, dass ein nachgewiesenes Teilchen ein α -Teilchen ist. d) Statistische Variable Will man über eine kontinuierliche Messvariable eine statistische Aussage machen, so müssen zunächst künstlich exklusive Klassen gebildet werden, in die die Messvariable unterteilt wird. Als Beispiel sei das Alter angeführt: U| V| W x1 = 0 L 10 Jahre x2 = 11 L 20 Jahre exklusive Klassen M = M Das Ergebnis wird oft grafisch in einem Histogramm dargestellt: Abbildung F-5 In umgekehrter Achsendarstellung findet diese Darstellungsweise in der sogenannten Alterspyramide eine Anwendung. Die nächste Abbildung zeigt ein Beispiel für eine solche Alterpyramide: Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Amplitudenbeschreibung 10 Eine Verfeinerung wird durch die Klassenbreite ∆ gemacht, indem jede Klasse die Breite ( x , x + ∆ ) hat. Wird dieses ∆ nun durch das mathematische dx ersetzt und dann die Grenzübergänge dx → 0 und N → ∞ durchgeführt, so folgt daraus, dass auch gilt: P → 0 . Wie in anderen Bereichen der Physik ist es hier angebracht nicht mehr nur von einer Wahrscheinlichkeit, sondern von einer Wahrscheinlichkeitsdichte zu sprechen. 2. Die Wahrscheinlichkeitsdichtefunktion Die Wahrscheinlichkeitsdichtefunktion wird abgekürzt PDF (probability-density-function) genannt. a) Definition f ( x ) ⋅ dx = Wahrscheinlichkeit, daß x zwischen ( x , x + dx ) lim dx → 0 liegt. Die Wahrscheinlichkeit P war eine dimensionslose Zahl. Daher muss nach der Definition für f ( x ) gelten: Dim f ( x ) → 1 . x Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Amplitudenbeschreibung 11 Die Wahrscheinlichkeit, dass ein x zwischen x1 und x2 liegt kann berechnet werden: z x2 f ( x ) dx x1 Damit können alle Wahrscheinlichkeiten ausrechnet werden, wenn die PDF bekannt ist. b) Beispiel Einkommensverteilung. f ( x ) sei Wahrscheinlichkeitsdichte ein bestimmtes Monatseinkommen x zu bekommen. Die Darstellung könnte etwa so aussehen: Abbildung F-6 Wie dargestellt kann die Eigenschaft x sowohl positive als auch negative Werte (=Verlust) annehmen. Die PDF ist allerdings stets positiv. Eine weitere Eigenschaft der PDF ist (Summe der Wahrscheinlichkeiten =1): z ∞ f ( x ) dx = 1 −∞ c) Häufigster Wert Der Häufigste Wert ist definiert als eine Zahl die ausdrückt bei welchem Wert x die Verteilung f ( x ) maximal wird. Dieser häufigste Wert ist nicht eindeutig, so kann die PDF für zwei verschiedene x -Werte die gleichen Werte annehmen. Auch ist eine PDF denkbar, die für alle x -Werte konstant ist. Folglich ist der häufigste Wert kein gutes Instrument eine PDF zu charakterisieren. d) Mittelwert Eine weitere Kenngröße der Verteilungsfunktion (PDF) ist der Mittelwert. Dieser Mittelwert ist nicht mit dem Durchschnitt einer Stichprobe zu verwechseln, es ist vielmehr der Mittelwert einer bekannten Wahrscheinlichkeitsverteilung. Der Mittelwert ist definiert: z ∞ µ= x ⋅ f ( x ) dx µ = x −∞ Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Amplitudenbeschreibung 12 Gewissermaßen stellt dieser µ den mechanischen Mittelpunkt der PDF dar. Deshalb werden auch Werte stark berücksichtigt die selten vorkommen z.B. sehr hohe Werte von x . Beispiel: gegeben sei eine Wahrscheinlichkeitsverteilung, welche das personenbezogene Vermögen eines Volkes darstellt. Abbildung F-7 Ganz wenige Personen besitzen ein sehr großes Vermögen oder ein sehr geringes oder sogar ein negatives Vermögen (Schulden), diese gehen aber bei der Mittelwertbildung stark mit ein. e) Kumulative PDF Die kumulative PDF ist mathematisch nichts anderes als das unbestimmte Integral der PDF: z x F ( x) = f ( x ′) dx ′ −∞ Zum obigen Beispiel der Altersverteilung lässt sich F ( x ) deuten als die Wahrscheinlichkeit, dass das Alter kleiner gleich x ist. Abbildung F-8 Aus diesem Bild ist abzulesen: Mit 30%-iger Wahrscheinlichkeit ist jemand jünger als 20 Jahre und die Wahrscheinlichkeit beträgt 10%, das jemand zwischen 20 und 30 Jahre alt ist (diese Daten sind allerdings frei erfunden!). Die Funktion hat außerdem noch folgende Eigenschaften: F ( x ) ≥ 0; F ( x ) = monoton steigend F ( −∞) = 0 F ( ∞) = 1 Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Amplitudenbeschreibung f) 13 Medianwert Der Medianwert ist definiert als die Abszisse x, bei der der Wert 0,5 ist: Abbildung F-9 Der Medianwert teilt also die Gesamtverteilung in zwei gleich mächtige Teilmengen, eine, bei der die statistische Variable kleiner und eine Teilmenge, bei die statistische Variable größer als der Medianwert ist. Die Frage nach dem Einkommen, bei dem 50% der Bevölkerung darunter und 50% der Bevölkerung darüber liegt, wird z.B. mit dem Medianwert beantwortet. Einzelne Personen mit extrem hohen Einkommen werden nicht so hoch gewichtet, wie beim Mittelwert. g) Bemerkungen zu den Kenngrößen Jede der diskutierten Kenngrößen - Häufigster Wert, Mittelwert, Medianwert - ist anders definiert. Jede sagt etwas über die Verteilungsfunktion aus und hat die Dimension der statistischen Variablen. Dennoch sind alle drei Kenngrößen bezogen auf eine PDF i.a. unterschiedlich. Anhand der politischen Diskussion über die Studiendauer an unserer Hochschule soll hier noch einmal herausgestellt werden, wie wichtig die genaue Kenntnis über die eingesetzten Kenngrößen ist. Lange Zeit wurde die Studiendauer von den Ministerien durch eine Mittelwertbildung gefunden. Die Studiendauer - PDF sieht aber ungefähr so aus: Abbildung F-10 In den ersten Semestern nach Studienbeginn wird niemand sein Studium zum Abschluss bringen. Zunächst werden dann einige wenige fertig bis dann der große "Berg" der Studienabschlüsse folgt. Einige brauchen länger, und ein geringer Prozentsatz wird erst nach einer außergewöhnlich langen Studiendauer fertig. Wenn also (wie im Fachbereich der Physik schon vorgekommen) bei relativ wenigen Studierenden ein Abschluss nach etwa 24 Semestern geschafft wird, steigt der Mittelwert der Abschlüsse von einem Jahr aufs andere um vielleicht ein Semester. Diese scheinbare Studienverschlechterung ist als nur durch eine falsche Anwendung der Kenngrößen entstanden. Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Amplitudenbeschreibung 14 Genau der gleiche Fehler führte in den Anfangsjahren nach der Gründung der Uni zu positiven Meldungen: Als damals die ersten Abschlüsse vorlagen, waren die mittleren Studiendauern erheblich niedriger als bei den "alten" Universitäten. Der Grund dafür leuchtet jetzt natürlich ein: Eine 5-jährige Uni hat keinen Abschluss zu verzeichnen, der extrem lange gebraucht hat. Genau der gleiche Effekt tritt auf, wenn die Anfängerzahlen von einem Jahr aufs andere drastisch steigen. In so einem Fall würde die mittlere Studiendauer nach etwa 5 Jahren drastisch sinken. Und das obwohl sich an der Qualität des Studiums rein gar nichts geändert hat. Richtig und aussagefähig kann für so eine Statistik nur der jahrgangsbezogene Medianwert sein. Man ermittelt für jeden Jahrgang die Semesterzahl, bei denen 50% der Studierenden ihren Abschluss geschafft haben. Langzeitstudierende und "Karteileichen" werden so nicht berücksichtigt. Jahrgangsbezogen muss die Statistik deshalb sein, weil damit eine Veränderung der Anfangszahlen berücksichtigt wird. Alle (meistens von der Presse) veröffentlichen Aussagen über eine mittlere Studiendauer sind also sehr mit Vorsicht zu genießen. 3. Messung der PDF Um eine PDF zu bestimmen, wird zunächst eine sehr große Zahl von Einzelmessungen (im Prinzip unendlich viele) gemacht. Die Auswertung dieser Messwerte kann auf zwei grundsätzlichen Methoden beruhen. a) Histogramm-Modus Der Histogramm-Modus teilt man die statistische Variable in exklusive Klassen gleicher Breite ein. Abbildung F-11 Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Amplitudenbeschreibung 15 Das Messverfahren besteht im Wesentlichen aus folgendem Ablauf: 1.) Messung von U x 2.) U x der Kanalnummer n zuordnen. U n ≤ U x ≤ U n +1; U n +1 = U n + ∆U 3.) Den Häufigkeitszähler des Kanals n um 1 erhöhen: K n := K n + 1 4.) Wiederholen ab Punkt 1.) (für alle Messwerte) 5.) Normierung, damit Summe aller Kanäle =1. Man kann die Klassenbreite ∆U verkleinern um näher an die wahre Verteilung zu kommen. Je nach Gegebenheit kann es aber günstiger sein die Messwiederholrate zu erhöhen. Der Vorteil dieser Methode liegt darin, dass jeder Messpunkt, unabhängig von seiner Messzeit, in das Ergebnis einfließt. b) Fenstermodus Liegt die statistische Variable als Spannung U x vor, so bietet sich der folgender logischer Aufbau an, um die PDF zu messen. U n ist die Spannung eines Kanals, der die Breite U x hat. Aus der Schaltung lässt sich leicht ersehen, dass am Ausgang des AND-Gliedes eine logische "1" anliegt falls die Spannung U x größer als U n , aber gleichzeitig kleiner als U n + ∆U ist. Abbildung F-12 Wenn die logische "1" am Ausgang durch die Spannung 1V repräsentiert wird, erhält man damit etwa folgendes Bild: Abbildung F-13 Um zu einem Wert zu kommen, wird von diesem Ausgangssignal der Zeitmittelwert gebildet. Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Amplitudenbeschreibung 16 Solche Schaltungsaufbauten funktionieren bis in den GHz-Bereich ohne Probleme. Der Nachteil dieser Methode liegt in der relativ hohen Messzeit. Der Vorteil liegt in der Möglichkeit U n und U x kontinuierlich verändern zu können (im Gegensatz zu dem Histogrammmodus, bei dem so etwas sehr aufwendig wäre). 4. Analytische PDFs a) Mathematische Funktionsapproximation Bei der mathematischen Approximation wird ganz einfach der Versuch gemacht, eine gemessene PDF durch eine Funktion anzugleichen. Dies kann zu einer näherungsweisen Lösung führen, mit der man weiterarbeiten kann. b) Stochastisches Modell Das stochastische Modell ist ein Gebiet auf dem Physiker und Mathematiker in der Vergangenheit am besten zusammengearbeitet haben: dem Gebiet der Statistik. Es gibt Beispiele aus der Physik, bei denen man den physikalischen Prozess des Zustandekommens der beobachtenden Größe gut beschreiben kann und für den Elementarprozess ein physikalisches Modell hat. Dabei gibt es eine ganz begrenzte Anzahl von Fällen, bei denen es den Mathematikern gelungen ist, aufgrund der physikalischen Gesetze eine exakte stochastische Theorie herzuleiten. Mit dieser Theorie ist es möglich, die Wahrscheinlichkeitsdichtefunktion der beobachteten Größe zwingend zuzuordnen. c) Stochastisches Modell mit freien Parametern Es gibt Fälle, bei denen die Physik zwar Aussagen macht über die Struktur des Elementarprozesses, aber in dem stochastischen Modell Werteparameter offen lässt. Das führt nicht zu einer exakten PDF, sondern lediglich zu einer PDF-Struktur. Für solche Fälle (die in der physikalischen Messtechnik sicher häufig auftreten) beschränkt man sich darauf, nicht die PDF selber zu messen, sondern die freien Parameter zu bestimmen. 5. Kenngrößen von PDFs a) Mittelwert Der Mittelwert oder auch Erwartungswert ist definiert als: µ = E { x} = ∞ ∫ x ⋅ f ( x) dx −∞ Die Verteilungsfunktion wird mit einer Gewichtsfunktion x ′ multipliziert und dann integriert. Allgemeiner nennt man das „den Erwartungswert ( E x ) der Größe x bezogen auf die Wahrscheinlichkeitsdichtefunktion von x“. lq Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Amplitudenbeschreibung b) 17 Erwartungswerte von Funktionen Eine weitere Verallgemeinerung ist der Erwartungswert von Funktionen, die die analoge Rechenvorschrift hat: l z ∞ q E H ( x) = H ( x ) ⋅ f ( x ) dx −∞ l q Sonderfall: Falls H ( x ) = x ⇒ E H ( x ) = µ c) 2.Moment Das 2.Moment ist der Erwartungswert der Funktion x 2 : o t= zx E x ∞ 2 2 ⋅ f ( x ) dx −∞ M o t µ ′n = E x n Entsprechend nennt man den Erwartungswert für die Funktion xn das n-te algebraische Moment der PDF µ ′n . Das 1. algebraische Moment ist demnach der Mittelwert µ . d) Mittelwert als 1.Moment Eine aussagekräftigere Kenngröße erhält man, wenn die statistische Variable um den Mittelwert verschoben wird. xa x−µ Von allen Größen wird das 1.Moment subtrahiert und man erhält eine mittelwertfreie statistische Variable. Der Erwartungswert einer so verschobenen PDF ist natürlich Null. Die Momente nennt man wegen der Mittelwertfreiheit Zentralmomente: o t µ n = E ( x − µ ) n → n - tes Zentralmoment e) 2.Zentralmoment Das 2.Zentralmoment µ 2 wird als Streuung bezeichnet: µ2 = σ 2 σ = µ2 Die Streuung ist ein Maß für die durchschnittlichen Abweichungen vom Mttelwert, also die Breite der PDF. Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Amplitudenbeschreibung f) 18 Schiefe Für sehr unsymmetrische PDF´s macht es Sinn eine Kennzahl einzuführen, die über die Asymmetrie Auskunft gibt. Dies übernimmt das 3.Zentralmoment µ 3 . Für µ 3 = 0 gilt, dass die Verteilungsfunktion symmetrisch gewichtet ist. Meistens verwendet man nicht das µ 3 selber, sondern die Normierung auf die Streuung: γ = µ3 σ3 Diese Größe ist dimensionslos. 6. Spezielle PDFs a) Gleichverteilung Gegeben sein soll eine PDF, bei alle Werte zwischen xmin und xmax mit der gleichen Wahrscheinlichkeit vorkommen sollen: Abbildung F-14 Aus der Normierungsbedingung (Fläche unter der Kurve =1) folgt, dass die überall gleiche Wahrscheinlichkeit den Wert 1 xmax − xmin hat. Der häufigste Wert dieser PDF ist undefiniert. Der Mittelwert beträgt: z ∞ µ= x ⋅ f ( x ) dx −∞ 1 = xmax − xmin = z xmax x ⋅ dx xmin 1 ( xmax + xmin ) 2 Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Amplitudenbeschreibung 19 Der Medianwert war ja der Halbierungswert der kumulativen Wahrscheinlichkeitsdichte funktion ( F ( x ) ). Diese Funktion sieht für die gleichverteilte PDF so aus: Abbildung F-15 Der Medianwert ist für gleichverteilte PDFs also identisch mit dem Mittelwert. Die Streuung berechnet sich zu: 2 µ2 = σ = z ∞ ( x − µ ) 2 ⋅ f ( x ) dx −∞ 1 = xmax − xmin z xmax ( x 2 − 2 µ x + µ 2 ) dx xmin Wenn wir die Breite der PDF mit B ersetzen, so erhalten wir als Resultat: 1 ⋅ B2 σ 2 = 12 σ = 0,29 ⋅ B Häufig will man von der PDF wissen, mit wieviel Prozent Wahrscheinlichkeit der Wert um den Mittelwert streut. Die Aussage für diese PDF lautet deshalb: Mit 58%-iger Wahrscheinlichkeit liegt der Wert in dem Bereich µ ± σ . b) Binomialverteilung Die Binominalverteilung findet häufig Anwendung in der Atomphysik. Das physikalische Grundereignis hat zwei ("Bi") Zustände A und B. Dies können z.B. atomare Spin-Zustände sein. Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Amplitudenbeschreibung 20 Annahme: Das Ereignis mit dem Zustand A kommt mit der Wahrscheinlichkeit p vor. Das Ereignis mit dem Zustand B kommt dann mit der Wahrscheinlichkeit q = (1 − p) vor, (Die Summe der Wahrscheinlichkeiten muss ja 1 sein). Es werden nun N unabhängige Versuche durchgeführt, von denen k-mal der Zustand A vorkommt. Es wird also nach einer Verteilungsfunktion gesucht, bei der eben dieses Ergebnis herauskommt. Die Mathematik liefert das Ergebnis: f ( K) = wobei FG N IJ ⋅ p H KK K ⋅ q( N −K) FG N IJ sprich: " N über K" definiert ist als FG N IJ = N ! H KK H K K K ! ( N − K )! Diese PDF hängt also von der diskreten dimensionslosen statistischen Variable K ab. Die PDF kann aufgezeichnet werden: Abbildung F-16 Da es keine Zwischenwerte gibt, erhält man für jeden ganzen K - Wert eine bestimmte Wahrscheinlichkeitsdichte die wie eine Delta-Funktion dargestellt werden kann. Für den einfachsten Fall N=1 kann K nur die Werte K=0;1 annehmen. Die Wahrscheinlichkeit für diesen Wert ist der Definition folgend: f (1) = p . Der Mittelwert für diese PDF berechnet (ohne mathematischen Beweis) sich zu: lq µ= E K = N⋅p Das 2. Zentralmoment (Streuung) hängt ab von der Wahrscheinlichkeit des Ereignisses und der Zahl der durchgeführten Versuche: p⋅q N p⋅q σ= N σ 2 ( K) = Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Amplitudenbeschreibung 21 Oft wird die relative Streuung bezogen auf den Mittelwert angegeben: p⋅q σ N = = N⋅p µ q 3 N ⋅p Die Vorgehensweise in der physikalischen Messtechnik ist oftmals so, dass man von seinem physikalischen Prozess zwar weiß, dass er binominalverteilt ist, aber seine Parameter q und p nicht kennt. Man versucht sich dann über eine Mittelwertschätzung Zugang zu diesen Werten zu verschaffen. Eine logische Erweiterung erfährt die Binominalverteilung, falls mehr als zwei verschiedene Ereignisse bei jedem Versuch auftreten können. Solche Verteilungen heißen Polynominalverteilung. c) Poissonverteilung Ein Grenzfall für die Binominalverteilung ist der für N → ∞ , also für sehr viele Versuche. Damit der Mittelwert nicht auch gegen unendlich konvergiert, machen wir die Nebenbedingung: N ⋅ p = λ = konst . , d.h. das einzelne Ereignis wird unwahrscheinlicher. Der Grenzübergang ist nur mit großem mathematischem Aufwand zu machen. Die Lösung für die diskrete PDF lautet: f ( K) = λK ⋅ e − λ K! Der Mittelwert dieser PDF ist nach Definition genau lq µ=E K =λ Das Quadrat der Streuung wird ebenfalls zu o t σ 2 = E ( K − λ )2 = λ ⇒σ = λ Ein typisches physikalisches Beispiel für die Anwendung dieser Verteilung kommt aus der Messtechnik des radioaktiven Zerfalls. Nehmen wir an, ein Detektor misst 100 Zerfälle pro Sekunde. Nach jedem Zerfall hat der Detektor eine kurze Totzeit, während der er keine weiteren Zerfälle registrieren kann. Dennoch ist die Wahrscheinlichkeit nicht Null, dass während dieser Totzeit (typisch µsek -Bereich) Zerfälle stattgefunden haben. Das Ergebnis der Messung muss deshalb korrigiert werden. Dies geschieht, indem die Poissonverteilung "befragt" wird, wieviel Zerfälle in der Totzeit wahrscheinlich stattgefunden haben. d) Gaußverteilung Ein weiterer Grenzübergang λ → ∞ führt zu der nicht mehr diskreten, sondern kontinuierlichen Gaußverteilung. Der mathematische Grenzübergang führt zu der PDF mit zwei freien Parameter a und b: Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Amplitudenbeschreibung 22 − 1 f ( x) = e b ⋅ 2π ( x −a )2 2b 2 wobei das π im Vorfaktor durch die Normierungsbedingung (Fläche unter der Kurve = 1) herrührt. 7. Eigenschaften der Gauß-Verteilung a) Häufigster Wert Der Häufigste Wert dieser Funktion wird ermittelt indem man das Maximum der Funktion mit den üblichen Methoden sucht. Das Ergebnis lautet: Der Häufigste Wert ist bei x = a . Die Wahrscheinlichkeit, diesen Häufigsten Wert anzutreffen ist: f ( x = a) = b) 1 b 2π Wendepunkte Die Wendepunkte (notwendige Bedingung 2.Ableitung = 0) der PDF liegen bei x = a ± b . Die Wahrscheinlichkeit, diese Wendepunkte anzutreffen ist: f ( x = a ± b) = c) 1 ⋅ f (a ) e Mittelwert Der Mittelwert ergibt sich aus: z ∞ 1 µ= b 2π x ⋅e − ( x −a )2 2b 2 dx −∞ mit Substitution: x ′ = x − a; x = x ′ + a; dx ′ = dx folgt µ= 1 b 2π z − ∞ ( x′ + a) ⋅ e x ′2 2b 2 dx ′ −∞ Dieses Integral findet man in Lehrbüchern (z.B. Bronstein). Der Rechenvorgang soll hier deshalb nicht weiter verfolgt werden. Das Resultat lautet: µ=a Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Amplitudenbeschreibung 23 Der Mittelwert ist also identisch dem Häufigsten Wert. d) Medianwert Der Medianwert kann anschaulich hergeleitet werden. Die Gaußverteilung sieht grafisch so aus: Abbildung F-17 Diese Funktion ist bezogen auf den Häufigsten Wert a achsensymmetrisch. Bei solchen symmetrischen Verteilungsfunktionen ist der Medianwert genau durch die Symmetrielinie gegeben, die die Funktion in zwei gleich große Hälften teilt. Die Wahrscheinlichkeit links oder rechts von der Symmetrielinie zu liegen ist ja gleich. Der Medianwert ist also ebenfalls a. e) Varianz Die Varianz oder Streuung σ ist über das 2.Zentralmoment definiert: 1 σ2 = b ⋅ 2π z ∞ ( x − a)2 ⋅ e − ( x −a )2 2b2 dx −∞ Die Lösung dieses uneigentlichen Integrals überlassen wir wieder dem Bronstein. Die Lösung lautet: σ 2 = b 2 bzw. σ = b f) Schiefe Die Schiefe γ ist ja über das 3.Zentralmoment definiert und ist eine dimensionslose Kenngröße für die Asymmetrie der Verteilungsfunktion. Da die Gaußverteilung eine bezogen auf den Mittelwert streng symmetrische PDF darstellt, ist: γ =0 Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Amplitudenbeschreibung g) 24 Normalverteilung Die Gaußverteilung heißt in einer reduzierten Darstellung mit µ = 0 und σ = 1 Normalverteilung. Die Gaußverteilung in der Form wie wir sie besprochen haben, wird in der Literatur oft als Standard-Normalverteilung ( N ( µ , σ ) ) bezeichnet. h) Gaußsches Fehlerintegral Das Gaußsche Fehlerintegral wird auch kumulative Verteilungsfunktion genannt und ist definiert als die Stammfunktion der Standard-Normalverteilung: Abbildung F-18 Diese punktsymmetrische Funktion ist in Formelsammlungen tabelliert aufzufinden. i) Prozentgrenzen Mit dem oben vorgestellten Fehlerintegral können die Wahrscheinlichkeits- oder Prozentgrenzen ermittelt werden. Z.B. beträgt die Wahrscheinlichkeit 90%, einen Wert in µ ± 1,64σ zu finden. Hier einige weitere Werte: 90% = µ ± 1,64σ 95% = µ ± 1,96σ 99% = µ ± 2,58σ 99,7% = µ ± 3σ 99,9% = µ ± 3,29σ Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Amplitudenbeschreibung 8. 25 PDF von Funktionen stochastischer Variablen Dieses Kapitel soll zeigen, wie schwierig es ist, i.A. das Ergebnis von Summe oder Produkt von PDFs anhand derer Kenngrößen zu bestimmen. a) Beispiel Würfelsumme Gegeben sei ein Würfel. Die Wahrscheinlichkeit eine bestimmte Zahl zu würfeln ist genau ein Sechstel: Abbildung F-19 Der Häufigste Wert dieser einfachen PDF ist undefiniert. Der Mittelwert ist: µ = 3,5 und der Medianwert beträgt ebenfalls 3,5. Nehmen wir nun einen zweiten Würfel hinzu und bestimmen wieder die Wahrscheinlichkeit eine bestimmte Zahl zu würfeln. In diesem einfachen Beispiel lässt sich die Kombinatorik der möglichen Würfelsummen noch hinschreiben: 1 2 3 4 5 6 1 2 3 4 5 6 7 2 3 4 5 6 7 8 3 4 5 6 7 8 9 4 5 6 7 8 9 10 5 6 7 8 9 10 11 6 7 8 9 10 11 12 Die dazugehörige PDF hat folgendes Aussehen: Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Amplitudenbeschreibung 26 Abbildung F-20 Sowohl der häufigste Wert, als auch der Mittelwert und Medianwert haben bei dieser PDF alle (wg.Symmetrie) den gleichen Wert 7. An diesem sehr einfachen Beispiel lässt sich gut erkennen, dass die Verteilungsfunktion PDF einer Summe nichts zu tun hat mit der Verteilungsfunktion der Einzelvariablen. Der analytische Verlauf der Summen-PDF wird i.a. ein vollkommen anderer sein als der der Einzel-PDF. Die Kenngrößen Mittel- und Medianwert scheinen sich mit der Summenoperation ebenfalls summiert zu haben. Allerdings sei hier schon (einer Übungsaufgabe) vorweggenommen, dass zwischen den Streuungen σ der Einzel- und der Summen-PDF überhaupt gar kein logischer Zusammenhang besteht. b) Beispiel Würfelprodukt Sucht man für dieses Beispiel nun die Wahrscheinlichkeit für das Auftreten einer bestimmten Zahl durch das Produkt der Würfelaugen, so erhält man eine noch "wildere" PDF: Abbildung F-21 Dieses Beispiel sei nur angeführt, um die Schwierigkeit darzustellen von einer gegebenen (auch noch so einfachen PDF) auf das Produkt dieser PDF zu schließen. c) Fazit für PDF von Funktionen Eine Rechenregel für die Summe von PDFs aufzustellen, scheint noch denkbar zu sein. Allerdings schon nicht mehr bei Produkten von PDFs. Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Amplitudenbeschreibung d) 27 Fazit für Kenngrößen von Funktionen Es lässt sich nur eine Aussage allgemein herleiten: Der Mittelwert der Summe einer PDF ist gleich der Summe der Mittelwerte der Einzel-PDFs. Für alle anderen Kenngrößen der PDF können keine Aussagen gemacht werden. 9. Sonderfall: Summe gaußverteilter Funktionen Für den doppelten Sonderfall, dass der Einzelprozess gaußverteilt ist und damit die mathematische Operation der Summe gebildet wird, können mathematisch untermauerte Aussagen gemacht werden. a) PDF der Summe Die PDF der Summe ist auch gaußverteilt, falls die Einzel - PDFs identische Mittelwerte µ besitzen. Dieses ist eine mächtige Aussage, die für alle anderen Verteilungen i.a. nicht gilt. b) Mittelwert der Summe Auch hier gilt natürlich die schon oben gemachte allgemeine Aussage, dass der Mittelwert der Summe einer Gauß-PDF gleich ist der Summe der Mittelwerte der Einzel-PDF. c) Streuung der Summe Die Streuung der Summe von N gaußverteilten PDFs ist gegeben durch: σ ′( Summe) = N ⋅ σ bzw. σ ′ 2 ( Summe) = N ⋅ σ 2 Wenn die einzelnen PDFs zwar den gleichen Mittelwert µ besitzen, aber verschiedene Streuungen haben, so lässt sich der Satz verallgemeinern zu: N σ ′ 2 ( Summe) = ∑ σ i2 i =1 10. Zentraler Grenzwertsatz Für den Fall der Summe einer großen Zahl statistisch unabhängiger Prozesse mit einer beliebigen PDF und beliebigen Parametern gilt der zentrale Grenzwertsatz. Dieser Satz sagt aus, dass die Summen-PDF schnell und gut gegen die Gaußverteilung konvergiert. Schon bei einer geringen Zahl N von etwa 10 ist Summen-PDF schon nicht mehr von einer Gaußverteilung zu unterscheiden. Dieser Satz ist deshalb besonders wichtig für Physiker, da sie in ihren Experimenten stets als makroskopische Größe (Helligkeit, Spannungen, Ströme etc.) die Summe aller vorkommenden atomaren Prozesse - nie Einzelprozesse- beobachten. Bei unserem Würfelexperiment hätten wir beispielsweise nur noch mehr Würfel nehmen müssen, um zu einer PDF zu gelangen, die gut berechenbar ist. Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Numerische Behandlung stochastischer Messwerte 28 Dieser Satz ist also eine erhebliche Erleichterung, da jetzt nur noch die speziellen Kenngrößen der Verteilung fehlen. Die können aber im Gegensatz zu der ganzen PDF relativ leicht ermittelt werden, da jetzt bekannt ist, dass es sich um eine Gaußverteilung handelt. II. NUMERISCHE BEHANDLUNG STOCHASTISCHER MESSWERTE 1. Teststatistik a) Statistik und Messtechnik Die Statistik behandelt zwei Problemtypen. Der erste Typus behandelt die statistischen Zufallsgrößen. Beispiel: Es soll eine Statistik über die Körpergrößen aller erwachsenen Männer in Deutschland erstellt werden. Die Grundgesamtheit sind alle deutschen männlichen Einwohner. Die gesuchte Aussage könnte z.B. der Durchschnitt der Körpergrößen sein. Oder eine bessere Aussage: In welchen Bereich liegen die Körpergrößen von 90% aller erwachsenen Männer (solche Aussagen braucht beispielsweise die Autoindustrie (neben den Daten für Frauen) zur Dimensionierung der Sitze neuer Automodelle). Noch schöner wäre natürlich, wenn man die komplette PDF dieser Verteilung hätte, aus der jegliche Aussage gewonnen werden könnte. Der zweite Typus - der in der Messtechnik immer vorkommt- ist der, dass man es mit einer exakten Messgröße zu tun hat, der ein zeitlich konstanter, zufälliger und unabhängiger Messfehler überlagert ist. b) Stichprobe Im Sinne der Teststatistik ist die Stichprobe eine Messung der statistischen Variablen, also ist sie auch eine Zufallsgröße. Die Stichprobe muss eine gewisse endliche Größe N aufweisen. Jede weitere Stichprobe muss von allen anderen vorherigen unabhängig sein (diese Forderung ist in der biologischen, medizinischen und Sozialstatistik eines der schwierigsten Probleme). Die Stichprobe hat also eine "eigene" Statistik, die zunächst mit der Statistik der Grundgesamtheit nichts zu tun hat. c) Messtechnische Aussage Die messtechnische Aussage bzw. die Darstellung des Ergebnisses aus der entnommenen Stichprobe sieht so aus: Abbildung F-22 Diese Aussage lässt sich nicht mit einem einzelnen Messwert bestimmen. Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Numerische Behandlung stochastischer Messwerte 2. 29 Stichprobe Die eingeführten Größen des Mittelwertes und der Streuung sind nur theoretische Werte die der Grundgesamtheit angehören und demnach erst durch die Auswertung unendlich vieler Messwerte zu erhalten wären. Die stets endlich bleibende Stichprobe gestattet es uns lediglich, diese theoretischen Werte abzuschätzen. 3. Schätzoperatoren Ein Schätzoperator ist eine Rechenvorschrift, nach der man anhand des Zahlenwertes des Messergebnisses zu der messtechnischen Aussage kommt. Wichtig ist der statistische Zusammenhang zwischen dem Ergebnis der Rechenvorschrift der Schätzung aus Messwerten mit den Kenngrößen der Grundgesamtheit. Die Teststatistik stellt also die Schätzoperatoren bereit und versucht deren Eigenschaften auf die Verteilungsfunktion vorherzusagen. a) Verteilungsfunktion der Schätzung Die Schätzoperatoren produzieren bei bekannter Quellverteilung der ursprünglichen PDF irgendeine Zielverteilung. D.h. das Ergebnis der Schätzfunktion ist wieder eine Verteilungsfunktion, die i.A. vollkommen anders als die Quellverteilung aussieht. Beim Sonderfall, dass es sich bei der Quellverteilung um eine Gaußverteilung handelt, wird auch die Zielverteilung von der Struktur her gaußverteilt sein, allerdings mit anderer Streuung. b) Konsistenz Die Konsistenz ist ein sogenanntes Gütekriterium der Schätzoperatoren. Die Konsistenz sagt aus, dass der Schätzoperator der Stichprobe für N → ∞ gleich ist dem Schätzoperator der statistischen Gesamtheit. Beispiel: Erwartungswert einer Stichprobe: l q lq M soll das Messergebnis der Stichprobe darstellen. E l M q soll der Schätzoperator für den lim E M → E x = µ N →∞ Erwartungswert oder Mittelwert sein. c) Unvoreingenommenheit (Unbiasedness) Ein zweites Gütekriterium ist die „Unvoreingenommenheit“ von Schätzoperatoren. Dies soll wieder an dem Beispiel des Mittelwertes erläutert werden. Sei M N das Messergebnis, welches aus einer Stichprobe mit N Messungen besteht. Der Mittelwert über unendlich vieler solcher Messungen ist gleich dem Mittelwert der statistischen Gesamtheit: l q → µ = E lxq µ E MN Ein Schätzoperator, der dieses Kriterium erfüllt ist unvoreingenommen. Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Numerische Behandlung stochastischer Messwerte 4. 30 Durchschnitt Der Durchschnitt ist definiert als: x= 1 ( x1 + x2 + L + x N ) N Dies ist eine Rechenvorschrift, die besagt, was mit den einzelnen Messwerten (x) zu tun ist, damit man zu einer Zahl kommt. Die Frage ist nun, ob dieser Durchschnitt (der Messwerte) etwas mit dem Mittelwert (der PDF) zu tun hat. Wünschenswert wäre ja, dass der Durchschnitt ein guter Schätzoperator des Mittelwertes ist. Eine Prüfung gibt: lq E x = lq l q l q 1 ( E x1 + E x2 + L + E x N ) = µ N d.h. für diesen Fall erhält man für den Erwartungswert des Durchschnitts genau den Mittelwert. Der Schätzoperator ist demnach konsistent und (durch eine Plausiblitätsprüfung) auch unbiased. 5. Varianz Wenn die Grundgesamtheit eine Gaußverteilung mit bekanntem σ ist, dann kann mit Hilfe des Summensatzes für gaußverteilte Funktionen schon eine Aussage über die Streuung des Durchschnitts gemacht werden. Der Durchschnitt ist nun selbst eine statistische Variable. o σ 2 ( x ) = E ( x − µ)2 t 1 2 ⋅ σ ( x) N 1 σ (x) = ⋅ σ ( x) N = Praktisch ist nach einer Messung natürlich nur der Durchschnitt x der Messwerte bekannt. Die Streuung σ ( x ) und der Mittelwert µ sind nicht bekannt. Deshalb ist diese Form so nicht zu gebrauchen. Die Lösung dieses Problems liegt in der Erschaffung eines weiteren Schätzoperators: Der Varianz. a) Schätzoperator Es ist naheliegend, die Rechenvorschrift für diesen Schätzoperator V so zu formulieren: Abbildung F-23 Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Numerische Behandlung stochastischer Messwerte 31 hier wurde die fehlende Größe des Mittelwertes durch den Durchschnitt ersetzt. Die Formel gibt die mittlere quadratische Abweichung der einzelnen Messwerte von dem Durchschnitt an. Dieser Ansatz ist zwar konsistent (wie sich zeigen lässt) aber nicht unbiased, d.h. er schätzt die Streuung immer in eine Richtung falsch. Und das ist natürlich schlecht und deshalb ist er so nicht zu gebrauchen. Richtig ist der folgende Schätzwert, bei dem lediglich im Nenner statt N jetzt N-1 steht, d.h. der richtige Schätzwert ist größer. S2 = V = 1 N ∑ ( xi − x ) 2 N − 1 i =1 Dieser Schätzwert ist nun auch unbiased. b) Student-t-Verteilung Der obige Schätzoperator der Varianz hat auch wieder (genau wie der Durchschnitt) eine eigene Verteilungsfunktion. Diese Verteilungsfunktion muss natürlich bekannt sein, damit eine Aussage über die Unsicherheit der Streuung gemacht werden kann. Wenn die Grundverteilung eine Gaußverteilung ist, so wird der Schätzwert nach der Theorie der t-Verteilung verteilt sein. Diese Verteilung lässt sich nicht explizit hinschreiben. Die Werte sind tabelliert zu finden. Sie hat die Kenngrößen µ , σ und N und heißt Student-tVerteilung. Diese Student-t-Verteilung sieht für verschiedene Werte von N auch unterschiedlich aus. c) Vertrauensbereich Konsequenz für den Vertrauensbereich des Durchschnitts: Es reicht nun nicht mehr aus, alleine die Streuung als Vertrauensbereich anzugeben. Es müssen vielmehr größere Schranken angegeben werden, da der Unsicherheit von S Rechnung getragen werden muss. Die Darstellung des Vertrauensbereiches (VB) sieht nun so aus: VB(%) = x ± 1 S ⋅ c(%, N ) N Der Faktor c(%, N ) ist in Student-t-Tabellen zu finden. Hat man eine Messung mit N=10 gemacht, so erhält man beispielsweise für eine gewünschte statistische Sicherheit von 95% den Student-t-Faktor von c(95%,10) = 2,26 . Eine Vorhersage lässt sich aus der Student-t-Verteilung für alle N > 30 herleiten: Sie geht dann in eine Gaußverteilung über. d) Beispiel Als Beispiel wird eine Messreihe aus 10 Beobachtungen x nach den obigen Regeln ausgewertet: Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Numerische Behandlung stochastischer Messwerte 32 i xi ( xi − x ) 2 xi2 1 6 0 36 2 4 4 16 3 7 1 49 4 5 1 25 5 8 4 64 6 6 0 36 7 3 9 9 8 8 4 64 9 7 1 49 10 6 0 36 Summe 60 24 384 An dieser Stelle soll noch eine (in der Literatur) übliche abkürzende Notation eingeführt werden: N ∑ xi = x i =1 Der Durchschnitt der Messreihe ist: x= x 60 = =6 N 10 Die Varianz ist: S2 = 1 24 ⋅ ( x − x )2 = = 2,67; N −1 9 S = 1,63 für die einfachere Rechnerprogrammierung hat sich eine andere Form der Varianz durchgesetzt: S2 = FG H 1 1 x2 − x N −1 N 2 IJ K Diese Darstellungsform hat den Vorteil bei der rechnergestützen Verarbeitung der Messdaten, dass diese nicht zwischengespeichert werden müssen und die Varianz ausgerechnet werden kann, ohne explizit den Durchschnitt zu kennen. Die folgende Rechnung soll ausgehend von der ersten Form zeigen, dass diese beiden Darstellungsformen wirklich identisch sind: Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Numerische Behandlung stochastischer Messwerte 33 1 ⋅ ( x − x )2 N −1 1 x2 − 2x ⋅ x + N ⋅ x 2 = N −1 S2 = LM MN 1 L x = N − 1 MN 2 x x 1 x2 − 2 x +N⋅ 2 = N −1 N N S2 2 − 1 x N 2 OP Q OP PQ Der Vertrauensbereich soll angegeben werden mit einer statistischen Sicherheit von 95%. Die Student-t-Tabelle liefert für diese Vorgaben c(95%,10) = 2,26 : Ergebnis: 1 N = 6 ± 2,26 ⋅ 1,63 ⋅ 0,32 , (95%) = 6 ± 117 x = x ± c⋅S ⋅ 6. Prüfung auf Gaußverteilung Im Folgenden werden zwei Möglichkeiten (eine qualitative und eine quantitative) aufgezeigt, wie eine Stichprobe daraufhin geprüft werden kann, ob sie einer Gaußverteilung entstammt. a) Qualitativ Die einfachste Möglichkeit einer solchen Prüfung basiert auf dem Gaußschen Summenpapier (oder auch: Wahrscheinlichkeitspapier). Bei diesem ist die Summenhäufigkeitsachse so verzerrt, dass sich im Falle einer Gaußverteilung eine Gerade ergibt. Wir wollen an unserer obigen Messreihe diese Prüfung durchführen. Dazu erstellen wir zunächst die kumulative PDF: Abbildung F-24 Diese Werte werden nun in das Wahrscheinlichkeitspapier übertragen: Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Numerische Behandlung stochastischer Messwerte 34 Abbildung F-25 Der Wert für 100% Summenhäufigkeit, der ja bei jeder Stichprobe sicher erreicht wird, lässt sich in dieser Darstellung ebensowenig wie der Wert für 0% eintragen. Der Grund liegt darin, dass sehr große Abweichungen vom Mittelwert nicht berücksichtigt werden sollen. Durch die Punkte wird nun, meist von Auge, so eine Ausgleichsgerade gezogen, dass die Abweichungen minimal werden. Die Beurteilung, wie gut die vorliegende Verteilung einer Gaußverteilung entspricht, geschieht nun durch die Untersuchung der folgenden drei Fragen: 1. Wie gut liegen die Punkte auf einer Geraden? 2. Wie stark weicht der errechnete Durchschnitt x der Stichprobe vom Mittelwert µ der durch die Gerade bestimmten Gaußverteilung ab? 3. Wie gut entspricht die Steigung der Ausgleichsgeraden dem umgekehrt proportionalen des Schätzoperators S ? Das so geschilderte Vorgehen erlaubt eben nur eine qualitative und grobe Beurteilung. Sie ist aber zum Auffinden starker Verzerrungen gut geeignet. Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Numerische Behandlung stochastischer Messwerte b) 35 Quantitativ Eine quantitative Beurteilung wird anhand des sogenannten χ 2 -Testes (sprich: Chi-QuadratTest) durchgeführt. Der Ablauf der Prüfung ist folgender: 1. Man errechne aus seiner Stichprobe die Schätzwerte x und S. 2. Man teile die Messwerte in K-Klassen ( K ≥ 4 ) mit der Klassenbreite S ein. 3. Man bestimme die mit noi bezeichnete Anzahl der Messwerte in den einzelnen Klassen (Index o steht für observed (Beobachtung)). 4. Die Werte werden nun in ein PDF-Histogramm eingetragen in dem gleichzeitig die hypothetische Gaußverteilung aufgetragen ist. Abbildung F-26 5. Nun muss für jede Klasse die erwartete (wahrscheinliche) Anzahl der Messwerte nei (Index e steht für expected (erwartet)) bestimmt werden, die sich ergeben würde, wenn es sich tatsächlich um eine Gaußverteilung handeln würde 6. Ein Zahlenmaß für die Annahme oder Verwerfung der Hypothese ist nun die relative Abweichung der erwarteten mit der tatsächlich beobachteten Anzahl von Messwerten innerhalb der Klassenbreite: K (nei − noi ) 2 noi i =1 χ2 = ∑ Das Ergebnis des χ 2 - Testes wird um so größer, je verkehrter die gemachte Hypothese ist. Der χ 2 - Wert ist auch eine Zufallsgröße: wenn wir es mit einer Gaußverteilung zu tun haben, wird der Wert χ 2 mit einer gewissen Wahrscheinlichkeit einen bestimmten Wert annehmen. So lässt sich ebenso für einen errechneten Wert χ 2 eine gewisse prozentuale Wahrscheinlichkeitsaussage treffen mit der die Messreihe eine Gaußverteilung ist. Diese Werte sind tabelliert (z.B. im Bronstein) aufzufinden. Typischer Weise lassen sich solche Tests nur sinnvoll bei Stichproben mit N ≥ 100 anwenden, damit überhaupt in den einzelnen Klassen noch eine gewisse Anzahl aussagefähiger Messwerte übrig bleiben. Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Numerische Behandlung stochastischer Messwerte 7. Trendanalyse a) Lineare Änderung des Mittelwertes 36 Sehr häufig werden auf messtechnischen Wege Abhängigkeiten einer Variablen y von einer anderen Variablen x ermittelt. Betrachten wir also eine Variable y, die abhängig sein soll von einem exakt bekannten einstellbaren Einflussparameter x. Für jeden festen Wert x misst man nun eine gaußverteilte Stichprobe mit einer Anzahl von K Messpunkten. Der Mittelwert µ dieser Stichprobe ergänzt mit dem festen Wert x ergibt ein Messwertpaar. Sodann verändert man den Einflussparameter und misst wieder eine Stichprobe: Abbildung F-27 Die Fragestellung der linearen Trendanalyse ist es festzustellen, ob es einen linearen Zusammenhang zwischen den Größen x und y von der Form f ( x ) = µ = mx + b gibt. b) Ausgleichsgerade Dazu legen wir eine Gerade so durch unsere Messpunkte, dass die Summe der Abweichungsquadrate der Geraden von den Messpunkten i minimal wird: N F = ∑ ( yi − (mxi + b)) 2 = Min i =1 Gesucht werden die beiden Unbekannten m und b. Ausmultipizieren ergibt: N F = ∑ ( yi2 + m2 xi2 + b 2 − 2mxi yi − 2byi − 2mbxi ) i =1 Notwendige Bedingungen fürs Minimum (ab hier mit der uns schon bekannten abkürzenden Summen-Notation): Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Numerische Behandlung stochastischer Messwerte 37 ! ∂F = 2m x 2 − 2 xy + 2b x = 0 ∂m ! ∂F = 2bN − 2 y + 2m x = 0 ∂b aus diesen Bedingungen errechnen sich m und b: m= b= 1 x y N 1 2 x − N xy − x2 1 ( y − m x ) = y − mx N Das Ergebnis für den "Schätzoperator" y wird i.a. mit einem Dach gekennzeichnet und lautet: y$ = mx x + bx Der Index x bei m und b soll daran erinnern, dass x im Gegensatz zu y eine feste (keine statistische ) Variable ist. Eine andere Form des Resultats ergibt sich, wenn man b ersetzt: y$ = mx ( x − x ) + y Damit liegt eine Schätzung der den linearen Zusammenhang beschreibenden Geraden vor. c) Vertrauensbereich für die Steigung Nun stellt sich wieder das Problem der Vertrauensgrenzen. Dazu werden zunächst analog zur Streuung zwei Kenngrößen S x2 und S y2 gebildet: S x2 S y2 = = x2 N −1 y2 N −1 − 1 x N 2 − 1 y N 2 Mit diesen Größen lässt sich der Vertrauensbereich (VB) der ermittelten Geraden angeben: VB ± c ⋅ S y2 − m2 S x2 ( N − 2) ⋅ S x2 wobei c der Student-t-Faktor ist. Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Numerische Behandlung stochastischer Messwerte 8. Korrelationskoeffizient a) Modellannahmen 38 Im Unterschied zur Trendanalyse sind jetzt nicht nur die Größe y, sondern beide Messgrößen statistische Größen, deren Werte zufällig schwanken. Es werden Messgrößenpaare aufgenommen, deren zeitlicher Ablauf nicht interessiert. Interessant ist nur, welche Messpaare miteinander vorkommen. Trägt man die Messergebnisse in ein Diagramm auf, so erhält man einen irgendwie verteilten Punktenebel: Abbildung F-28 b) Rechengang Die Modellvorstellung basiert darauf, zwei Geraden zu berechnen: Die eine, wie bei der Trendanalyse, mit der Annahme x sei exakt bekannt und die andere mit der Annahme y sei keine statistische Größe und exakt bekannt: y$i = mx ⋅ xi + bx = mx ( x − x ) + y x$i = my ⋅ yi + by = my ( y − y ) + x c) Grafische Darstellung Die beiden Geraden werden i.a. unterschiedlich sein und miteinander einen Winkel γ bilden. Der Schnittpunkt beider Geraden liegt bei ( x , y ) . Abbildung F-29 Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Numerische Behandlung stochastischer Messwerte d) 39 Strenge Korrelation Die beiden Größen sind dann eng miteinander verknüpft, wenn beide Geraden exakt übereinander liegen und der Winkel zwischen ihnen null ist. Es gibt keinen Punktenebel, sondern alle Messpaare liegen genau auf der Geraden. Weiterhin sind die Steigungen der beiden Geraden reziprok zueinander: mx = ± 1 my Abbildung F-30 e) Keine Korrelation Der andere Extremfall keiner Korrelation heißt: die beiden Größen haben nichts miteinander zu tun. In diesem Fall ist der Punktenebel über die ganze Fläche verteilt: Abbildung F-31 Die Steigungen der beiden Geraden sind null, d.h. mx = 0; my = 0 . Da die beiden Geraden einmal von der y-Achse und einmal von der x-Achse aus berechnet wurden, ist der Winkel zwischen den Geraden γ = 90° . Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Numerische Behandlung stochastischer Messwerte f) 40 Korrelationskoeffizient Der Korrelationskoeffizient rxy ist eine normierte Größe, die eine Aussage über den statistischen Zusammenhang der beiden Größen treffen soll. Er berechnet sich zu: rxy = mxy Sx ⋅ S y N ( xi − x ) ⋅ ( yi − y ) ( N − 1) i =1 mxy = ∑ Der Korrelationskoeffizient kann alle Werte in dem Intervall −1 … rxy … + 1 annehmen. Die beiden Größen sind: g) − unkorreliert für rxy = 0 − positiv korreliert für rxy = +1 − negativ korreliert für rxy = −1 − teilkorreliert für rxy > 0,5 Korrelationskoeffizient und Kausalität Wenn zwei Größen kausal zusammenhängen, wird der Betrag des Korrelationskoeffizienten irgendwo zwischen 0,5 und 1 liegen. Der Umkehrschluss gilt aber nicht. Aus der Tatsache, dass zwei Größen miteinander korreliert sind, kann man nicht schließen, dass sie auch kausal miteinander verknüpft sind. Klassisches Beispiel: Behauptung: Der Storch bringt die Kinder, denn die Korrelationsfunktion verschiedener Länder, bei die Geburtenrate dem Storchvorkommen gegenübergestellt wird belegt dies eindeutig. Der Korrelationskoeffizient liegt deutlich über 0,5. Nach dieser Logik wäre damit "bewiesen", dass der Storch die Kinder bringt. In diesem einfachen Fall erkennt natürlich jeder den Trugschluss. Man vermutet sofort einen dritten Grund. Dieser liegt in der reduzierten Zahl der Störche in den Industrienationen, in denen gleichzeitig die Großfamilie so gut wie ausgestorben ist (umgekehrt in den armen Ländern unserer Erde). h) Beispiel Als kleines Beispiel wollen wir zwei beobachtete Größen nämlich die Anzahl der verkauften Regenschirme r an den Tagen mit n mm Niederschlag untersuchen. n 0 mm 10 mm 5 mm 10 mm r 250 Stück 1000 Stück 500 Stück 250 Stück wir berechnen zuerst die Mittelwerte und Summen: Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Zeitbeschreibung stochastischer Signale 41 n = 6,25; r = 500; N = 4 x = 25 y = 2000 x 2 = 225 y 2 = 1375000 Sn2 = 1 x N N −1 x2 − xy = 15000 2 ≅ 23 Sr2 = 125000; mxy = 833 ⇒ rxy = +0,49 Es ist eine positive Korrelation (bei Zunahme der Regenmenge werden natürlich auch mehr Regenschirme verkauft) von etwa 0,5. Für statistische Aussagen ist der Wert schon "ganz gut". Der Vertrauensbereich soll an dieser Stelle nicht ausgerechnet werden. Man vermutet aber sicherlich, dass er ziemlich groß sein wird (vgl. Wertetabelle). III. 1. ZEITBESCHREIBUNG STOCHASTISCHER SIGNALE Zeitablauf von Zufallsgrößen Bis jetzt haben wir den Zeitverlauf von Zufallsgrößen nicht berücksichtigt. Alle gemachten Aussagen und Kenngrößen haben also die zeitliche Reihenfolge ihres Auftretens unbeachtet gelassen. Es wurden ja nur Amplitudenbeschreibungen gemacht. Wesentliche Teilinformationen der Messtechnik wurden damit eben nicht beschrieben. Wir können die Auswerteverfahren der statistischen Kenngrößen stochastischer Signale auf kausal-deterministische Signale anwenden. Bekanntes Beispiel zweier Signale mit gleichen Amplituden (+1), die beide möglicherweise die gleiche PDF besitzen: Abbildung F-32 Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Zeitbeschreibung stochastischer Signale 42 Für 50% der Fälle ist sowohl bei Signal Y1 als auch bei Signal Y2 die Amplitude +1 und das obwohl Signal Y2 keine Rechteckfunktion wie Signal Y1 sondern eine Zufallsfunktion für die Werte +1,-1 ist. 2. Zeitliche Kenngrößen a) Beispiel: Gasmoleküle Wir können entweder aus einer großen Menge von Gasmolekülen eines herausgreifen und dessen zeitlichen Verlauf verfolgen, oder den der Gesamtheit der Moleküle. Die zeitlichen Mittelwerte führen den Index t. Der zeitliche Mittelwert des k-ten Moleküls ist definiert als: z T 1 Yk (t ) dt µ t ( k ) = lim T →∞ T 0 Der Schätzoperator für diesen Mittelwert gilt für endliches T und stationäre Signale: z T 1 Yt ( k ) = Yk (t ) dt T0 Wenn, wie im Gas, eine statistische Gesamtheit vorliegt, gilt: µ t (1) = µ t (2) = µ t (3) = L d.h. die zeitlichen Mittelwerte der einzelnen Individuen sind gleich. Wird nun der Mittelwert aller Moleküle zum gleichen Zeitpunkt t betrachtet (so wie wir es in den vorangegangenen Kapiteln stets betrachtet haben), so ergibt sich der äquivalente Ausdruck: µ N (t ) = lim N →∞ 1 N N ∑ Yk (t ) k =1 Der Schätzoperator dafür ist: YN (t ) = b) 1 N N ∑ Yk (t ) k =1 Zeitliche Unabhängigkeit Der Mittelwert zu einem bestimmten Zeitpunkt t1 ist gleich einem Mittelwert zu einem anderen Zeitpunkt t2 usw. Deswegen wird der zeitlich unabhängige Mittelwert (stationäre Signale) nicht als Funktion der Zeit geschrieben. Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Zeitbeschreibung stochastischer Signale 43 µ N (t1 ) = µ N (t2 ) = µ N (t3 ) = L = µ N M M M M M für alle Kenngrößen Die Aussage gilt ebenso für alle anderen Kenngrößen. c) Ergozidität Ein System nennt man ergodisch, wenn der zeitliche Mittelwert gleich dem Scharmittelwert ist, also wenn gilt: µ N = µ t . Beobachtet man ein Individuum in seiner Geschichte und beobachtet man eine Vielzahl von Individuen, so sollen die Mittelwerte gleich sein. Als Beispiel sei die Boltzmann-Verteilung eines Gases angeführt. Macht man von dem Gas einen "Schnappschuss" zu einem beliebigen Zeitpunkt und wertet die Geschwindigkeiten der einzelnen Moleküle aus, so wird man zu dem gleichen Resultat kommen, wie bei der Beobachtung eines einzelnen Moleküls über einen längeren Zeitraum. d) Quadratische Größen Das quadratische Scharmittel (Varianz oder Streuung) ist definiert als: VN = S N2 (t ) N 1 (Yk (t ) − Yk (t )) 2 → σ 2N (t ) = ∑ ( N − 1) k =1 Das Äquivalent für die Zeit ist die zeitliche Varianz oder Streuung: Vt ( k ) = St2 ( k ) = z T 1 (Yk (t ) − Yk (t )) 2 dt → σ 2t ( k ) T0 Für elektrische Größen ist diese Größe proportional zu einer Wechselspannungsleistung im Zeitbereich. e) Größen im Frequenzraum Es stellt sich die Frage, ob wir die uns bekannten Fouriermethoden auch auf zufällige Signale anwenden können, um irgendeine Aussage über den zeitlichen Verlauf dieser Signale zu bekommen. Wenn man dies tut, so wird man schon bei der Forderung, dass Signale mit einem Mittelwert ungleich null absolut integrabel sein müssen, also dass gilt: z T für µ ≠ 0 → f (t ) muß existieren 0 bei einem klassischen Rauschsignal scheitern, weil es keine Periodizität aufweist. Ein anderer Versuch wäre es, wenn nur ein endlicher zeitlicher Ausschnitt des Rauschsignals gewählt würde. Die durchgeführte FT würde sicherlich zu einem Ergebnis führen. Nur: Die FT des nächsten Ausschnittes würde ein vollkommen anders Aussehen haben. Wegen der in Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Zeitbeschreibung stochastischer Signale 44 der FT mitgeführten Phasenbeziehung wird der Mittelwert über sehr viele Ausschnitte verschwinden. 2 Im Gegensatz dazu ist die spektrale Leistungsdichte F(ω ) immer positiv und wird daher auch nicht (über viele Ausschnitte gemittelt) verschwinden. Allerdings ist die Behauptung, dass F(ω ) 2 existiert, fragwürdig, weil ja F(ω ) nicht konsistent ist. 3. Ergodische Systeme a) Definition Ein System ist dann ergodisch, wenn alle zeitlichen Kenngrößen (Index T) mit den Scharkenngrößen (Index N) übereinstimmen. Die Rechtfertigung für die Gleichheit dieser zwei verschiedenen Dinge ist schwierig. So soll bei ergodischen Systemen der Zeitverlauf eines einzelnen Objektes gleich sein dem zeitlichen Durchschnitt vieler Objekte. b) Beispiel für nichtergodisches System Negativ-Beispiele für Systeme, die nicht ergodisch sind, gibt es aus der konventionellen Statistik als auch aus der Physik: − Ein verdünntes Gas, dessen Gasmoleküle der Boltzmann-Verteilung unterliegen, kann sicherlich mit der Scharmittel-Theorie beschrieben werden. Wenn aber ein einzelnes Individuum zu verschiedenen Zeitpunkten betrachtet wird, so hat der daraus ermittelte zeitliche Mittelwert sicher nichts mit dem Scharmittelwert zu tun. Das liegt vor allem daran, dass die Zeit zwischen zwei Stößen mit der Wand, bei dem das Molekül seine Geschwindigkeit ändert, sehr lange dauert. Komprimierte Gase, bei denen die freie Weglänge der Teilchen viel kürzer ist und damit öfters Geschwindigkeitsänderungen stattfinden, sind im Gegensatz dazu ergodisch. − Die politische Meinung der Bevölkerung, die regelmäßig alle vier Jahre durch eine Wahl "gemessen" wird, ist sicher repräsentativ. Will man dagegen durch regelmäßige Befragung einer einzelnen Person auf die politische Meinung der Gesamtbevölkerung schließen, so wird man natürlich jämmerlich scheitern. − Ebenso bei der Einkommensstatistik. Die Einkommensverteilung einer einzelnen Person über einen langen Zeitraum spiegelt natürlich in keinem Fall das durchschnittliche Einkommen der Gesamtbevölkerung wieder. Fazit: In vielen natürlichen Systemen ist die Ergodizität nicht gegeben - auch in der Physik nicht. Nur bei sehr vielen stark wechselwirkenden Systemen (komprimiertes Gas) überträgt sich die Verteilungsfunktion der Gesamtheit auf das Individuum. Ergodische Systeme sind damit ausschließlich in der Physik und nur unter ganz bestimmten Voraussetzungen vorzufinden. Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Korrelationsfunktion c) 45 Messtheorie Die Ergodizität ist Voraussetzung für die Messtheorie. Denn: Eine Messung der Gesamtheit mit N Apparaturen die zu einem Zeitpunkt die physikalische Eigenschaft jedes dieser N Objekte bestimmt, ist kaum realistisch. In der realen Messung wird eine Schätzung im Zeitbereich vorgenommen, d.h. mit einer Apparatur werden hintereinander k-mal die Eigenschaften eines Objektes gemessen. Sodann wird die Annahme gemacht, dass das gemessene System ergodisch ist. Daraus wird abgeleitet, dass die gemessenen Schätzoperatoren des Zeitbereiches auch gute Schätzoperatoren im Scharbereich sind. Der Scharbereich umfasst die Gesamtheit aller vorhandenen Objekte auf die die Gaußstatistik angewendet werden kann. Die Aussagesicherheiten der Messung läßt sich damit wieder aus den uns schon bekannten Verfahren ermitteln. IV. 1. KORRELATIONSFUNKTION Einführung Die Korrelationsfunktion hat das Ziel, ein Maß für die zeitliche Anordnung der Zufallsgrößen zu finden. D.h. ein Kriterium zu finden, das eine Aussage über die Schnelligkeit der zeitlichen Änderung einer Zufallsgröße macht. Eine andere Erklärung: Die Korrelationsfunktion gibt eine Aussage über die "Vergesslichkeit" der Zufallsgrößen. Damit ist sie auch ein Maß über die statistische Unabhängigkeit. Ein Ansatz ist (in Anlehnung an den instantanen Korrelationskoeffizienten) die zeitliche Korrelation zweier Signale zu verschieden Zeitpunkten. Gibt es einen statistisch gesicherten Zusammenhang zweier Signale zwischen jetzt und später? 2. Definitionen a) Kreuzkorrelation Die Kreuzkorrelationsfunktion fragt genau nach diesem statistischen Zusammenhang zweier Signale. Es ist eine zeitabhängige Funktion die so definiert ist: z T 1 x (t ′) ⋅ y (t + t ′) dt ′ T →∞ T 0 Rxy (t ) = lim für stationäre Systeme gilt: z T 1 Rxy (t ) = lim x (t ′ − t ) ⋅ y (t ′) dt ′ T →∞ T 0 Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Korrelationsfunktion b) 46 Autokorrelation Ein "Abkömmling" der Kreuzkorrelationsfunktion ist die Autokorrelationsfunktion. Der einzige Unterschied besteht darin, dass jetzt nur ein Signal betrachtet wird. D.h. x = y: z T 1 x (t ′ + t ) ⋅ x (t ′) dt ′ T →∞ T 0 Rxx (t ) = lim 3. Die Autokorrelationsfunktion (AKF) In den nun folgenden Abschnitten werden wir uns an die AKF heranarbeiten, indem die Eigenschaften dieser Funktion untersucht werden. Wir werden ab hier für die Autokorrelationsfunktion die Abkürzung AKF und später für die Kreuzkorrelationsfunktion die Abkürzung KKF benutzen. a) AKF (0) Wie sieht die AKF für t=0 aus? Eingesetzt in die obige Definition ergibt: Rxx (0) = x 2 (t ′) Für die Annahme x = 0 ist Rxx (0) = σ 2T . Wenn es sich um ein ergodisches System handelt, folgt: Rxx (0) = σ 2T = σ 2N . D.h. die AKF ist eine Brücke zwischen Zeitverlaufsbeschreibungen von Signalen und einer statistischen Kenngröße. b) AKF ( ∞ ) Im Gegensatz dazu gilt für große Werte t (ohne Beweis): Rxx ( ∞) = x 2 c) AKF (>0) Gegeben sei ein beliebiges (verrauschtes) Signal (linkes Bild). In dem Integral wird die gleiche Funktion zeitverschoben (rechtes Bild) multipliziert. Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Korrelationsfunktion 47 Abbildung F-33 Jetzt werden diese Funktionen punktweise multipliziert, aufsummiert und der Durchschnitt gebildet. Für t = 0 liegen beide Funktionen exakt übereinander. An dieser Stelle ist die AKF garantiert positiv. Für alle anderen Werte für t muss das nicht der Fall sein. Das ist die plausible Erklärung, dass die AKF an der Stelle 0 ihr absolutes Maximum hat ( σ 2 ). d) AKF (<0) Wie leicht einzusehen ist, ist die AKF eine gerade Funktion bezüglich der Verschiebung und somit achsensymmetrisch: Rxx (t ) = Rxx ( − t ) e) Linearität Unter der Annahme, dass zwei Signale (v,w) miteinander unkorreliert sind, kann definiert werden: Rxx (v + w) = Rxx (v ) + Rxx ( w) d.h. dann ist die AKF eine lineare Funktion. Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Korrelationsfunktion f) 48 Periodische Funktionen Am ersten Beispiel der Kosinusfunktion soll deren AKF bestimmt werden. Wir behandeln diese Funktion wieder mit der Definitionsgleichung und erhalten als Resultat: Abbildung F-34 d.h. die AKF des Kosinus ist wieder ein Kosinus mit gleicher Periode. Dieses lässt sich verallgemeinern zu dem Satz: Die AKF einer periodischen Funktion ist periodisch mit der gleichen Periode T0 (ohne Beweis). Durch Einsetzen der Sinusfunktion in die Definitionsgleichung kommt natürlich die gleiche AKF wie beim Kosinus heraus. Abbildung F-35 Dies ist nicht weiter verwunderlich, weil der Sinus ja als eine um π 2 verschobene Kosinus- Funktion beschrieben werden kann. Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Korrelationsfunktion g) 49 Trigonometrische Funktionen Die wichtigste Erkenntnis für trigonometrische Funktionen ist, dass sämtliche Phaseninformation bei der AKF stets verloren gehen. h) Rechteckfunktion Die AKF einer mittelwertfreien ( µ = 0 ) Rechteckfunktion ist: Abbildung F-36 Im Gegensatz zur AKF der Kosinus- und Sinus-Funktion ist die Form der AKF jetzt nicht die gleiche wie beim ursprünglichen Signal. i) Konstante Die AKF einer zeitlich konstanten Funktion ist natürlich auch wieder eine Konstante, weil die Zeitverschiebung hier keine Rolle spielt. j) Rauschsignale Nun soll die AKF für stochastische Eingangssignale (Rauschen) untersucht werden. Wie bei allen anderen Eingangssignalen wissen wir sicher, dass da Maximum bei t = 0 den Wert von σ 2 hat. Weiter ist bekannt, dass die Funktion links und rechts vom Maximum abfällt und für große Zeiten gegen Null gehen muss, weil bei einem zufälligen Rauschsignal die Amplitude der Definitionsgleichung für die AKF immer kleiner wird. Für rein stochastische Signale wird daher die AKF eines "schnellen" (mit hoher Frequenz) Rauschsignals etwa so aussehen: Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Korrelationsfunktion 50 Abbildung F-37 Demgegenüber sieht die AKF eines "langsamen" (mit niedrigerer Frequenz) Rauschsignals etwa so aus: Abbildung F-38 Fazit: Die Art und Weise, wie die AKF vom Maximalwert Rxx (0) = x 2 in Funktion der Verschiebungszeitspanne auf den Wert Rxx ( ∞) abfällt, ist für die Erhaltungstendenz ("Vergesslichkeit" oder statistische Unabhängigkeit) des Signals charakteristisch. 4. Beziehung der AKF zur Fouriertransformation a) Anschauung 2 Wir hatten ja schon früher über die mögliche Existenz von F(ω ) diskutiert. Nun soll die Beziehung zwischen der AKF und der Fouriertransformation (FT) vertieft werden. So ganz unabhängig können sie voneinander nicht sein, denn − bei der FT führt ein hochfrequentes Zeitsignal zu einer "breiten" Fouriertransformierten. Bei der AKF besteht (wie eben gezeigt) eine dazu reziproke Beziehung. − bei der FT führt ein niederfrequentes Zeitsignal zu einer "schmalen" Fouriertransformierten. Bei der AKF besteht ebenfalls (wie eben gezeigt) eine dazu reziproke Beziehung. Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Korrelationsfunktion 51 Es scheint also so zu sein, als ob zu der FT ein phasenfreies, translationsinvariantes Äquivalent durch eine innere Beziehung zur AKF bestünde. b) Faltungssatz Die Definition der AKF: z T 1 Rxx (t ) = lim x (t ′) ⋅ x (t ′ + t ) dt ′ T →∞ T 0 sieht der der Faltung sehr ähnlich: z ∞ x (t ) ⊗ x (t ) = x (t ′) ⋅ x (t − t ′) dt −∞ Durch einen Vergleich der beiden Definitionen können wir sagen: ⇒ Rxx (t ) = x (t ) ⊗ x ( − t ) Die AKF ist demnach die Faltung eines Signals mit seiner eigenen Zeitspiegelung. Darauf den Faltungssatz angewendet, liefert: F Rxx (t ) = F x (t ) ⊗ x ( −t ) = F (ω ) ⋅ F *(ω ) = F (ω ) 2 Rxx (t ) = F- 1 F (ω ) 2 In Worten: Die AKF ist die Rücktransformierte der spektralen Leistungsdichte. c) Spektrale Leistungsdichte Die Fouriertransformierte der reellen achsensymmetrischen Funktion AKF ist die reelle spektrale Leistungsdichte. Das ist der Querverweis, der die beiden großen Gebiete der Fourier-Methoden und der Statistik miteinander verbindet. d) Beispiel Rauschspektrum Die Leistungsspektren der schnell und langsam veränderlichen Rauschsignale (s.oben) sehen etwa so aus: Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Korrelationsfunktion 52 Abbildung F-39 Ein extremer Fall ist Rauschen das vollkommen unkorreliert ist. Für solche Signale ist die AKF sehr schmal. D.h. nach sehr kurzer Zeit hat das Signal die Vergangenheit vollkommen "vergessen". Im Spektralgebiet bedeutet dies, dass die Fouriertransformierte eine Konstante ist. Eine konstante spektrale Leistungsdichte heißt, dass alle Frequenzen gleich stark vertreten sind. In Anlehnung an die Optik, wo Licht mit dieser Eigenschaft als weiß bezeichnet wird, heißt auch dieses Rausch-Signal "weißes Rauschen". Abbildung F-40 Die Frequenzeigenschaft "weiß" ist also ein Synonym für die Zeiteigenschaft "vollkommen unkorreliert". Ein anderes Extrem ist das hochkorrelierte Signal, welches sich auch nach sehr langer Zeit nicht "vergisst". Die AKF eines solchen Signals verändert sich kaum oder ist konstant. Die Fouriertransformierte eines solchen Signals ist ein Delta-Peak: Abbildung F-41 Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Korrelationsfunktion 5. Anwendung der AKF a) Diskrete Darstellung 53 Bisher haben wir uns nur um die theoretische Darstellung gekümmert. Will man die AKF allerdings anwenden, so hat man es natürlich mit diskreten Messwerten zu tun. Wir brauchen also eine äquivalente, diskrete Darstellung der Kreuzkorrelationsfunktion KKF (die AKF ist ja nur ein Sonderfall der KKF): Rxy (n) = 1 N N ∑ y( k ⋅ ∆t ′) ⋅ x( k ⋅ ∆t ′ − n) k =1 Hierbei ist ∆t die Sampling-Taktzeit und N ⋅ ∆t die Zeitverschiebung. Die allgemeine Schreibweise lautet: Rxy [n] = 1 N N ∑ y[ k ] ⋅ x[ k − n] k =1 wobei in den eckigen Klammern ganzzahlige Ausdrücke stehen. Das ist die diskrete AKF an den Stützstellen n. b) Realisierung Gegeben seien zwei beliebige Funktionen x(t) und y(t), auf die die KKF angewendet werden soll. Dazu werden die Samplingzeitpunkte, die voneinander einen zeitlichen Abstand von ∆t haben, für das x-Signal mit Großbuchstaben und für das y-Signal mit Zahlen bezeichnet: Abbildung F-42 Das Rechenschema für die diskrete KKF sieht so aus: Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Korrelationsfunktion 54 1 ( A ⋅1 + B ⋅ 2 + C ⋅ 3 + …) N 1 Rxy [1] = ( A ⋅ 2 + B ⋅ 3 + C ⋅ 4 + … ) N M M Rxy [o] = Es handelt sich als lediglich um Additionen und Multiplikationen. c) Laufender Mittelwert Für eine neue Eingangsgröße müssen N solcher Multiplikationen und Additionen durchgeführt werden. Der Rechenaufwand ist deshalb erheblich. Will man beispielsweise die AKF mit 1000 Stützstellen eines digitalen Audiosignals ( ∆t ≅ 50µs ) in Echtzeit errechnen, so darf die Berechnung eines Wertes Rxy nur 50ns dauern. Es wäre schön, wenn man kontinuierlich Werte bei der KKF-Messung erhalten würde. Dieses ist so nicht möglich, weil am Ende jeder Messung über N - Werte das Ergebnis durch N dividiert wird. Abhilfe schafft der sogenannte „laufende Mittelwert“ (running average). Dieser ermöglicht zu einem bestehenden Mittelwert x N , der aus N Summanden berechnet worden ist, den Mittelwert x N +1 zu berechnen, ohne alle N+1 Summanden aufzuaddieren. Der Mittelwert ist definiert als: xN = x1 + x2 + L + x N N Für N+1 müsste eigentlich alles noch mal berechnet werden: x N +1 = x1 + x2 + L + x N + x N +1 N +1 Die Frage ist nun, ob es nicht möglich ist, x N +1 zu berechnen, ohne die ganze Summenbildung. Mit ein wenig mathematischer Umformarbeit ist dies tatsächlich möglich: x N +1 = x N + x N +1 − x N N +1 Der neue Durchschnitt errechnet sich aus dem alten Durchschnitt plus einer "Korrekturgröße". d) Beispiel: Periodische Signale im Rauschen Man hat häufig das Problem ein sehr schwaches periodisches Signal zu detektieren, welches von einem Rauschsignal großer Amplitude überlagert ist. Beispiel aus der Astronomie: Quasare strahlen in sehr regelmäßigen Abständen Pulse im Radiofrequenzbereich ab. Diese Signale sind, wenn sie auf der Erde detektiert werden, vollkommen verrauscht. Die Lock-In-Technik scheidet zur Detektion aus, weil kein Referenzsignal vorliegt. Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Korrelationsfunktion 55 Hier bietet die AKF aufgrund ihrer Eigenschaft der Linearität eine Lösung. Voraussetzung ist, dass das Rauschen des Signals nichts mit dem eigentlichen vom Quasar abgestrahlten Signal zu tun hat. Diese Voraussetzung ist natürlich stets erfüllt und wir können uns die Eigenschaft der AKF zunutze machen, dass die AKF der Summe unkorrelierter Signale gleich der Summe der einzelnen AKFs ist (s.a. Linearität der AKF). Die AKF einer periodischen Funktion ist selber wieder eine periodische Funktion. Ferner nimmt die AKF von stochastischem Rauschen relativ schnell mit der Zeit ab. Die AKF eines solchen verrauschten Signals ist in der nächsten Abbildung zu sehen: Abbildung F-43 Für große Zeiten t ist die AKF des Rauschens Null und es bleibt die AKF des periodischen Signals (welches die gleiche Periode wie das Ursprungssignal des Quasars hat) übrig. 6. Die Kreuzkorrelationsfunktion a) Laufzeitverschobene AKF Gegeben seien zwei Rauschsignale, die von zwei voneinander örtlich etwas entfernt angebrachten Detektoren aufgenommen worden sind. Das Rauschsignal des ersten Detektors wird am zweiten mit einer gewissen Zeitverzögerung detektiert. Konkret können das zwei Lichtdetektoren seien, die in einem quasikontinuierlichen Fertigungsprozess die Lichtreflexion des Fertigungsgutes aufnehmen. Bildet man von diesen beiden Signalen die KKF, so wird sich eine um die Zeit τ verschobene AKF ausbilden: Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Korrelationsfunktion 56 Abbildung F-44 Diese Zeit τ ist exakt die Laufzeit, die das Fertigungsgut von Detektor 1 zum Detektor 2 benötigt hat. b) Zusammenhang, Kausalität Der Vorteil der KKF liegt in de Bestimmung von Korrelationen, die zeitlich auseinander liegen. Beispiel: Will man die Korrelation zwischen dem Rauchverhalten und Krebs-Sterbefällen erarbeiten, so macht es sicherlich wenig Sinn, die Stichprobe von nur einem Tag oder einer Woche zu betrachten. Betrachtet man die Werte aber über einem langen Zeitraum mit KKF, so ist durch die Korrelation eine notwendige (aber nicht hinreichende) Bedingung der Kausalität gegeben. c) Beziehungen zur spektralen Übertragungsfunktion Ein weiterer Aspekt der KKF bringt der Zusammenhang der AKF mit dem Leistungsdichtespektrum. Dazu zur Erinnerung die Kernzusammenhänge der Systemtheorie: Abbildung F-45 2 Man kann zeigen: Wenn x(t) "weiß" ist ( F(ω ) =konst oder AKF=Delta-Funktion), dann gilt: I (t ) = Rxy (t ) Wird am Eingang eines Systems spektral weißes Rauschen angelegt und mit dem Ausgang des Systems kreuzkorreliert, so ist das Ergebnis die Impulsantwort I(t) des Systems. Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Korrelationsfunktion 7. Anwendungen der KKF a) Geschwindigkeitsmessung 57 Die KKF bietet die Möglichkeit, Geschwindigkeiten berührungs- und markierungslos zu messen. Das Prinzip ist das gleiche wie bei der laufzeitverschobenen AKF: Zwei Detektoren, die irgendeine zufällige Eigenschaft (Strahlung, Reflexion, Dichte etc.) messen, werden in einem örtlichen Abstand in Laufrichtung des Objektes voneinander angebracht. Das Maximum der KKF ist die um Zeit τ verschobene AKF. Mit dieser Zeit und dem bekannten Abstand der Detektoren ist auch die Geschwindigkeit des Objektes bekannt. Einsatzgebiet solcher Geschwindigkeitsmesser: z.B. Messung der Geschwindigkeit von heißem Stahl in Walzstraßen. b) Schallquellenlokalisation Oft ist es nicht ganz einfach, ein bestimmtes auffallendes Störgeräusch aus einer Vielzahl von Geräuschen zu lokalisieren. Bei der Konstruktion von Kraftfahrzeugen werden auch schalltechnische Analysen erstellt, die Aufschluss über die Herkunft von Fahrgeräusche geben sollen. Dabei wird das unerwünschte Nebengeräusch (z.B. leises Klappern) außerhalb des Fahrzeuges mit einem Mikrofon aufgenommen. Ein zweites Mikrofon wird an verschiedenen Stellen im oder am Fahrzeug gehalten. Aus der jeweilig errechneten KKF kann ersehen werden, ob eine plausible Korrelation gefunden wird, und wie weit sie weg ist: Abbildung F-46 Selbstverständlich können durch Reflexionen mehrere Maxima in KKF auftreten. Dadurch ist es u.U. sogar möglich, den Weg des Schalls rückzuverfolgen. c) Systemanalyse mit Rauschen In dem Kapitel über Systemtheorie haben wir schon zwei verschieden Möglichkeiten zur Systemanalyse diskutiert (Frequenzgangmethode und Impulsantwortmethode). Wir haben in dem Kapitel oben gesehen, dass die Kreuzkorrelations-Methode der Impulsantwort-Methode äquivalent ist. Allerdings hat die KKF-Methode gegenüber der Impulsantwort-Methode einige Vorteile: Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99 Korrelationsfunktion 58 − Sie hat viel geringere Nichtlinearitäten, weil die Eingangsamplitude wesentlich kleiner sein kann. − Man braucht keinen aufwendigen Testgenerator, sondern nur einen einfach herzustellenden Rauschgenerator. − Durch die in der KKF schon eingebaute Mittelung braucht das Signal auch nicht frei zu sein von Fremdsignalen. Kapitel F des Skriptums zur Vorlesung „Physikalische Messtechnik A“ WS 1998 / 99