Einführung in die Wahrscheinlichkeitsrechnung und Fouriertransformation Dalitz CBM FH Niederrhein 2 Fouriertransformation Prof. Dr. Christoph Dalitz Fachhochschule Niederrhein Integraltransformationen und Fouriertransformation . . . . . . . . . . . . . . . . . . 2.2 Eigenschaften der Fouriertransformation . . . . . . . . . . . . . . . . . . . . . . . . 31 2.2.1 Die Umkehrformel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 2.2.2 Rechenregeln und Anwendungen . . . . . . . . . . . . . . . . . . . . . . . 32 2.2.3 Skript zur Vorlesung Computerbasierte Mathematik (CBM) Version 1.2 Zusammenfassung 2.3 Anders als es der Titel “Computerbasierte Mathematik” vermuten lässt, wird in dieser Veranstaltung nicht thematisiert, wie mit dem Computer mathematische Gleichungen gelöst werden (die sogenannte Numerik). Statt dessen werden die mathematischen Grundlagen weiterführender Elektrotechnikveranstaltungen behandelt, und zwar Wahrscheinlichkeitsrechnung und Fouriertransformation. Die behandelten Themen werden in einem Rechnerpraktikum vertieft. Inhaltsverzeichnis 29 2.1 Symmetrieeigenschaften und Benutzung von Tabellen . . . . . . . . . . . . 34 Die diskrete Fouriertransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 2.3.1 Definition und Matrixeigenschaften . . . . . . . . . . . . . . . . . . . . . . 36 2.3.2 Zusammenhang zur stetigen Fouriertransformation . . . . . . . . . . . . . . 38 2.3.3 Fast Fourier Transform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 3 Die Delta-Distribution 1 Wahrscheinlichkeitsrechnung 2 43 3.1 Definition und Rechenregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 3.2 Impulsantwort und Greensche Funktion . . . . . . . . . . . . . . . . . . . . . . . . 44 1.1 Definition der Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.2 Bedingte Wahrscheinlichkeit und Unabhängigkeit . . . . . . . . . . . . . . . . . . . 4 1.2.1 Bedingte Wahrscheinlichkeit und Satz von Bayes . . . . . . . . . . . . . . . 4 1.2.2 Anwendungen Krankheitstest und Mustererkennung . . . . . . . . . . . . . 5 1.2.3 Unabhängige Ereignisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.3 Folgen unabhängiger Versuche und Binomialverteilung . . . . . . . . . . . . . . . . 7 1.4 Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.4.1 Definition und Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.4.2 Erwartungswert und Varianz . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.5 Das schwache Gesetz der großen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . 13 1.6 Wahrscheinlichkeitsdichten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.6.1 Verteilungsfunktion und Dichte . . . . . . . . . . . . . . . . . . . . . . . . 16 1.6.2 Erwartungswert und Varianz . . . . . . . . . . . . . . . . . . . . . . . . . . 18 1.6.3 Anwendung: Driftgeschwindigkeit der Ladungsträger im Halbleiter . . . . . 19 1.1 Definition der Wahrscheinlichkeit Summen unabhängiger Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . 21 1.7.1 Das Faltungsintegral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 Die Menge aller möglichen Versuchsergebnisse bei einem Zufallsexperiment bezeichnen wir mit (sprich: “Omega”). Sie wird auch als Menge der Elementarereignisse bezeichnet. 1.7.2 Die diskrete Faltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 Ein Ereignis ist eine Teilmenge von . 26 Beispiele: 1.7 1.7.3 Der zentrale Grenzwertsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 29 A Mathematische Symbole 48 Version und Änderungen Version 0.1 1.0 Datum 2004.01.12 2004.02.24 Autor Dalitz Dalitz 1.1 1.2 2004.03.19 2004.04.16 Dalitz Dalitz Änderung Erstellung Teil 1 (Wahrscheinlichkeitsrechnung) Ergänzung Teile 2 (Fouriertransformation) und 3 (Delta-Distribution). Feinere Untergliederung in Teil 1. Korrektur Formel diskrete Faltung Korrektur Fouriertransformationspaar 1 und Seitenzahlen im Index 1 Wahrscheinlichkeitsrechnung 2 Dalitz CBM FH Niederrhein = 1 2 3 4 5 6 a) Einfacher Würfelwurf: f; ; ; ; ; g Ereignis “es wird ungerade Zahl geworfen”: A = f1; 3; 5g b) Wartezeit (in Sekunden) auf einen Anruf: = (0; 1) = R + Ereignis “Anruf nicht in erster Stunde”: A = (3600; 1) Wie das zweite Beispiel zeigt, kann die Menge auch unendlich sein. Ereignisse treffen mit bestimmten Wahrscheinlichkeiten ein. Damit wird einem Ereignis, also einer Teilmenge von , eine Zahl zwischen 0 (trifft praktisch nie ein) und 1 (trifft mit Sicherheit ein) zugeordnet. Dalitz CBM Der Beweis der Aussagen mithilfe der Definition ist eine gute Übung. Als Beispiel sei der Beweis von 2) angegeben: Axiom 1 (Positivität): Axiom 2 (Normiertheit): Axiom 3 (Additivität): : }( ) ! R mit den Eigenschaften: P (A) 0 für alle A P ( ) = 1 A \ B = ; ) P (A [ B ) = P (A) + P (B ) Bemerkungen: ( )” bezeichnet die Potenzmenge von , dh. die Menge aller Teilmengen von . “P : ! R” bedeutet also, dass die Funtkion P Teilmengen von auf reelle Zahlen abbil- a) “} }( ) Manchmal ist die Wahrscheinlichkeit eines Ereignisses A zu bestimmen, wenn bekannt ist, dass ein bestimmtes Ereignis B bereits eingetreten ist. Solch eine Wahrscheinlichkeit heißt bedingte Wahrscheinlichkeit und wird symbolisch mit P AjB bezeichnet. ( P (AjB ) = jA \ B j = 3 = 1 jB j 18 6 Die Berechnung in diesem Beispiel macht nur im Rahmen der klassischen Wahrscheinlichkeitsdefinition Sinn. Wir können Sie aber auf die allgemeine Situation verallgemeinern, indem wir mit der Größe von erweitern: jA \ B j P (A \ B ) j A \ Bj j j P (AjB ) = jB j = jB j = P (B ) j j Der letzte Ausdruck macht auch im nichtklassischen Fall Sinn und kann deshalb der Definition zugrunde gelegt werden. statistische Schätzung durch relative Häufigkeiten und Stichproben. Beispiele: Sterbetafeln für Lebensversicherungen Definition 1.2 (bedingte Wahrscheinlichkeit) Die Wahrscheinlichkeit von A unter der Bedingung B (bedingte Wahrscheinlichkeit) ist definiert als P (AjB ) := Die Wahrscheinlichkeitsverteilung genügt einer partiellen Differentialgleichung. Beispiele: Boltzmanngleichung, Schrödingergleichung (;) = 0 Wahrscheinlichkeit des Komplements: P (A) = 1 P (A) Erläuterung: Das Komplement von A ist definiert als A = n A A B ) P (A) P (B ) 1) Die leere Menge hat Wahrscheinlichkeit Null: P 3) ) Beispiel: Bestimme beim zweifachen Würfelwurf die Wahrscheinlichkeit für die Augensumme 4 (Ereignis A), wenn bekannt ist, dass die Summe gerade ist (Ereignis B ). Weil wir wissen, dass B eingetroffen ist, reduziert sich die Gesamtzahl der Möglichkeiten auf das Ereignis B und die Anzahl der “günstigen” Ereignisse auf A \ B (dh. das gleichzeitige Eintreffen von A und B ). Also ist Symmetrieüberlegungen liefern gleichwahrscheinliche Elementarereignisse, so dass sich die klassische Wahrscheinlichkeitsdefinition anwendbar ist. Beispiele: Würfelspiel, Münzwurf, Urnenmodelle, Bose-Einstein-/Fermi-Dirac-Statistik Satz 1.1 Folgende Eigenschaften folgen direkt aus den Wahrscheinlichkeitsaxiomen: 2) = A [ A und A \ A = ;. Also gilt ) = P (A)+ P (A). Auflösen nach P (A) Bedingte Wahrscheinlichkeit und Satz von Bayes Im konkreten Fall das zugrunde liegende Wahrscheinlichkeitsmaß P zu bestimmen ist meist keine leichte Aufgabe. Je nach Situation gibt es dazu verschiedene Ansätze: 1 = ( ) = ( 1.2 Bedingte Wahrscheinlichkeit und Unabhängigkeit det. b) Für sehr große Mengen (sogenannte “überabzählbar große” Mengen) führt das Zulassen beliebiger Teilmengen von als Ereignissen zu Problemen. Deshalb finden Sie in allen Büchern die zulässigen Ereignisse beschränkt auf eine sogenannte Ereignisalgebra. Das ist zwar korrekt, aber für uns zu spitzfindig, als dass wir uns davon verwirren lassen wollen. ist die disjunkte Vereinigung von A und A, dh. gemäß Axiomen 2 und 3: P P A[A ergibt die Behauptung. 1.2.1 Definition 1.1 (Wahrscheinlichkeitsmaß) Ein Wahrscheinlichkeitsmaß P ist eine Funktion P FH Niederrhein P (A \ B ) P (B ) Der folgende Satz gibt zwei einfache, aber wichtige Eigenschaften der bedingten Wahrscheinlichkeiten an. Satz 1.2 (Bayes) Sei fA1 ; A2 ; : : :g eine disjunkte1 Zerlegung von , dh. [k Ak für i 6 j . Dann gilt: = 1 Zwei Mengen heißen disjunkt, wenn Sie kein gemeinsames Element haben. 4) Für beliebige (nicht notwendig disjunkte) Ereignisse lautet das Additionstheorem (Axiom 3): P (A [ B ) = P (A) + P (B ) P (A \ B ) 3 4 = und Ai \ Aj = ; Dalitz CBM FH Niederrhein a) Formel der totalen Wahrscheinlichkeit P (B ) = X k b) Formel von Bayes P (Ai jB ) = = PPP(A(Ai) )P (PB(jBAjiA) ) k k k Der letzte Ausdruck ergibt sich aus dem mittleren durch Einsetzen der Formel a) für P b) die dem Test unterzogen werden. In der ärztlichen Praxis sind das normalerweise nur Personen, bei denen auch entsprechende Symptome beobachtet wurden. p bezieht sich dann auf die Wahrscheinlichkeit, bei Auftreten der Symptome auch diese Krankheit zu haben. (B ). [k Ak = ) B = \ B = ([k Ak ) \ B = [k (Ak \ B ) Weil die Ak alle disjunkt sind, sind auch die MengenP B \ Ak alle disjunkt, so dass sich nach der Additivität der Wahrscheinlichkeit ergibt P (B ) = Pk P (Ak \ B ). Einsetzen von Definition 1.2 auf der rechten Seite ergibt schließlich P (B ) = k P (Ak ) P (B jAk ). Die Formel von Bayes setzt P (AjB ) mit P (B jA) in Beziehung. Löse dazu Definition 1.2 auf nach P (A \ B ): Definition 1.2 ) P (Ai \ B ) = P (B ) P (Ai jB ) = P (B \ Ai ) = P (Ai ) P (B jAi ) ) P (A jB ) = P (Ai) P (B jAi ) P (B ) i 1.2.2 FH Niederrhein p = 0:005, dh. die Krankheit tritt selten auf Treffsicherheit (Kranke) q1 = 0:99, Fehlerrate (Gesunde) q2 = 0:02 ) Wahrscheinlichkeit, dass “Positiver” tatsächlich krank ist P (A1 jB ) = 0:2 Bei diesem Beispiel ist allerdings zu beachten, dass die Wahrscheinlichkeit p auf die Personen bezieht, Beweis: a) CBM Zahlenbeispiel: P (Ak ) P (B jAk ) P (Ai ) P (B jAi ) P (B ) Dalitz Anwendungen Krankheitstest und Mustererkennung Es gibt aber Fälle, in denen aber jeder “untersucht” wird, z.B. bei Vorsorgeuntersuchungen (ohne Symptome) oder bei Rasterfahndungen (ohne Anfangsverdacht). Das Zahlenbeispiel zeigt, dass selbst bei recht sicheren Verfahren in solchen Fällen ein “positives” Ergebnis mit großer Wahrscheinlichkeit falsch ist. Anwendung Mustererkennung Bei der Optical Character Recognition (OCR) muss aus einem vorgelegten Bild ein Buchstabe erkannt f!1 ; : : : ; !ng. Aus dem Bild wird ein Vektor werden. Die Menge möglicher Buchstaben sei x1 ; x2 ; : : : ; xk bestimmter Eigenschaften (z.B. Gesamthelligkeit, Unterlängen etc.) berechnet. x=( Anwendung Krankheitstest ( x) x Gesucht ist dann P !i j , dh. die Wahrscheinlichkeit für das Zeichen !i , wenn gemessen wird. Ausgewählt wird dann das Zeichen mit der höchsten Wahrscheinlichkeit. Wenn die Wahrscheinlichkeiten P j!i bekannt sind (z.B. durch statistische Abschätzung aus vorher untersuchten Schriftproben), lässt sich die gesuchte Wahrscheinlichkeit P !i j mit Bayes’ Formel berechnen. (x ) 1.2.3 Die Formel von Bayes hat viele wichtige Anwendungen, z.B. beim Krankheitstest oder in der Mustererkennung. = ) ( x) Unabhängige Ereignisse Ein Spezialfall der bedingten Wahrscheinlichkeit liegt vor, wenn das Eintreten des Ereignisses B keinen Einfluss auf die Wahrscheinlichkeit von A hat, dh. P AjB P A . In diesem Fall nennt man die Ereignisse A und B unabhängig und es gilt: ( P (A) = P (AjB ) = P (A \ B ) P (B ) )= ( ) ) P (A \ B ) = P (A) P (B ) Eine Person werde auf eine Krankheit gestestet. Dann gibt es zwei mögliche Ereignisse: die Person A). fA1 ; A2 g ist eine disjunkte Zerlegung von . ist krank (A1 ) oder die Person ist gesund (A2 Die relative Häufigkeit (Wahrscheinlichkeit) der Krankheit sei p P A1 ; die Wahrscheinlichkeit p. für Gesundheit ist dann P A2 Die rechte Gleichung ist allgemeiner als die linke, weil sie auch im Fall Deshalb nehmen wir sie als Basis der Definition von Unabhängigkeit. Beim Krankheitstest sind durch klinische Versuche für das Ereignis B eines positiven Testergebnisses folgende Werte bekannt: Definition 1.3 (unabhängige Ereignisse) Zwei Ereignisse heißen unabhängig, wenn gilt: = ( )=1 = ( ) q1 = P (B jA1 ) = Wahrscheinlichkeit positiver Test bei Krankheit q2 = P (B jA2 ) = Wahrscheinlichkeit positiver Test bei Gesundheit ist P (A1 jB ), dh. die Wahrscheinlichkeit, dass jemand im falle eines Gesucht positiven Tests tatsächlich krank ist. Dieser Wert kann mit der Formel von Bayes berechnet werden: P (A1 jB ) = P (A1 ) P (B jA1 ) i P (Ai ) P (B jAi ) P 1 = pq + pq 1 (1 p)q2 Der (wünschenswerte) Fall, dass diese Wahrscheinlichkeit möglichst nahe Eins ist, ist nur erreichbar, p q2 im Nenner klein ist. wenn der Ausdruck (1 ) 5 P (B ) = 0 Sinn macht. P (A \ B ) = P (A) P (B ) Beispiel: Betrachte beim Würfeln mit zwei Würfeln die Ereignisse “zweiter Würfel 6”. Es ist A = “erster Würfel 6” und B = 1 6 = 1 und P (B ) = 6 1 = 1 und P (A \ B ) = 1 36 6 36 6 36 Folglich ist P (A \ B ) = P (A) P (B ) und die Ereignisse sind unabhängig. P (A) = Meist argumentiert man in der Praxis andersherum: die Ereignisse sind “intuitiv” unabhängig und folglich ist P A \ B P A P B . So würde man im obigen Beispiel der beiden Würfel ar- ( )= ( ) ( ) 6 Dalitz CBM FH Niederrhein gumentieren, dass das Ergebnis des einen Würfels keinen Einfluss auf den anderen hat, die ErgebP 1. Wurf ist 6 nisse also unabhängig sind und folglich gilt: P 1. Wurf ist 6 und 2. Wurf ist 6 P 2. Wurf ist 6 . ( ( ) )= ( ) Dalitz CBM 0.14 0.12 n = 50 p = 0.25 0.1 1.3 Folgen unabhängiger Versuche und Binomialverteilung 0.08 Als weiteres Beispiel für Unabhängigkeit wollen wir den n-fachen Wurf einer Münze betrachten. Jeder einzelne Wurf hat zwei mögliche Ergebnisse, “Kopf” oder “Zahl”, die wir mit “1” und “0” identifizieren wollen. Die Wahrscheinlichkeit für “1” beim einzelnen Wurf sei p, so dass die für “0” p q ist (wegen P A P A , siehe Satz 1.1). dann 0.06 1 ( ) = 1 =: ( ) Was sind die Elementarereignisse beim n-fachen Münzwurf? Wenn wir die Ergebnisse der Würfe hintereinanderschreiben erhalten wir eine Folge von n Nullen und Einsen. Dh. die Elementareregnisse sind Vektoren der Dimension n mit Koeffizienten aus f ; g: f ; gn z.B. ! ; ; ; : : : ; ; 2 = 0 1 = (0 1 1 01 1 0) Die Wahrscheinlichkeit einer Folge ! ergibt sich dann aufgrund der Unabhängigkeit der Einzelwürfe als Produkt der Einzelwahrscheinlichkeiten, also: P ! pk qn k mit k = Anzahl Einsen in ! (1) ( )= Normalerweise interessiert nicht, bei genau welchen Würfen “Kopf” (“1”) kam, sondern nur wie oft insgesamt Kopf kam, also die Gesamtzahl der Einsen, bzw. mit der Bezeichnung ! ! 1 ; : : : ; !n das Ereignis n X Ek f! 2 j !i k g i=1 =( = ) = Ek enthält also alle Wurffolgen ! mit k Einsen. Wir wollen nun P (Ek ) bestimmen. P Nach der Additivität von P ist P (Ek ) = !2Ek P (! ). Alle ! 2 Ek haben die gleiche, durch (1) gegebene Wahrscheinlichkeit. Also ist P (Ek ) = pk qn k X !2Ek 1 = pk qn k jEk j n = 100 p = 0.5 0.04 0.02 0 0 Anzahl Möglichkeiten, k Einsen auf n Plätze zu verteilen = n k n k n k P (Ek ) = mit q = 1 p (2) pq k k kann hierbei die Werte 0; 1; : : : ; n annehmen, so dass durch (2) eine Wahrscheinlichkeitsverteilung auf der Menge f0; 1; : : : ; ng definiert wird. Diese Wahrscheinlichkeitsverteilung heißt Binomialverteilung. Der Verlauf der Verteilung für verschiedene Werte von n und p ist in Abb. 1 zu sehen: das Maximum der Verteilung liegt etwa bei np, für p = 0:5 ist die Verteilung symmetrisch um diesen Wert, für P 6= 0:5 ist die Verteilung unsymmetrisch. 7 20 30 40 50 60 70 80 Abbildung 1: Binomialverteilung für verschiedene Werte n und p. Bei einer Geburt wird ein Junge oder ein Mädchen geboren. Die Wahrscheinlichkeit für k Mädchen in einer Familie mit n Kindern berechnet sich also nach (2), wobei p die Wahrscheinlichkeit für ein Mädchen ist. Bei der Übertragung eines digitalen Signals von n Bits gibt (2) die Wahrschinlichkeit dafür an, dass k Bits falsch übertragen wurden, wenn p die Wahrscheinlichkeit für ein einzelnes Bit ist, falsch übertragen zu werden. Mathematische Programmpakete wie O CTAVE, M ATLAB oder S CILAB stellen üblicherweise mindestens zwei Funktionen zur Berechnung der Binomialverteilung bereit: a) Die Probability Density Funktion (PDF) liefert Einzelwahrscheinlichkeiten: binomial pdf (k; n; p) = P (k) b) Die Cumulative Distribution Funktion (CDF) liefert die Summe aller Wahrscheinlichkeiten unter einem gegebenen Wert x: binomial cdf (x; n; p) = ( ) = 1 ( ) = k!(nn! k)! Der Ausdruck in Klammern wird “n über k ” gelesen und ist der Binomialkoeffizient. Die gesuchte Wahrscheinlichkeit für k Einsen beim n-fachen Münzwurf ist also 10 Das Modell des “Münzwurfs” ist auf alle Situationen anwendbar, in denen ein Versuche mit zwei möglichen Ausgängen mehrmals unabhängig wiederholt wird: “jEk j” bezeichnet dabei die Anzahl der Elemente in der Menge Ek . Es ist jEk j = FH Niederrhein X kx P (k) Wegen P A P A lässt sich damit natürlich auch die Summe aller Wahrscheinlichkeiten über einem gegebenen Wert berechnen. 1.4 Zufallsvariablen 1.4.1 Definition und Beispiele 01 Beim n-fachen Münzwurf hatten wir jedem Elementarereignis ! 2 f ; gn eine relle Zahl zugeordnet (die Anzahl “Kopf”). Solch eine Zahl, die das Ergebnis eines Zufallsexperiments ist, nennt man Zufallsvariable oder Zufallsgröße. 8 Dalitz CBM FH Niederrhein Definition 1.4 (Zufallsvariable) Eine Zufallsvariable (ZV) ist eine Funktion X zuordnet. : ! R, die jedem Elementarereignis eine relle Zahl Eine ZV definiert eine Wahrschienlichkeitsverteilung auf R , indem sie einem reellen Zahlenbereich die Wahrscheinlichkeit der Elementarereignisse zuordnet, die dorthin abgebildet werden, z.B. P (X = x) P (X x) = = P (f! 2 mit X (!) = xg P (f! 2 mit X (!) xg nach R? (X a) machen Sinn. Welche Vorteile ergeben sich durch den Übergang von R ist geordnet, d.h. Ausdrücke wie P Dalitz CBM 1; 2; 3; 4; 5; 6g 1 E (X ) = k P (X = k) = k = 3:5 6 k=1 k=1 Verallgemeinerung: Gleichverteilung auf f1; 2; : : : ; ng, d.h. P (X = k ) = 1=n für k = 1; 2; : : : ; n n n X 1 1X 1 n(n + 1) = n + 1 E (X ) = k = k= n n n 2 2 k=1 k=1 a) einfaches Würfeln: Gleichverteilung auf f b) Binomialverteilung E (X ) (1 0 p)n k für p1 2 2 m=k a = = Beispiel a) ist eine diskrete Zufallsvariable: X kann nur endlich viele diskrete Werte annehmen. Diese diskreten Werte haben Wahrscheinlichkeiten > . Beispiel b) ist eine stetige Zufallsgröße: nur Intervalle haben eine Wahrscheinlichkeit > ; für jeden . einzlenen Wert a 2 R gilt dagegen P X a 0 Definition 1.5 (Erwartungswert) Der Erwartungswert einer diskreten Zufallsvariable X ist die Summe über alle möglichen Werte der ZV, gewichtet mit ihrer jeweiligen Wahrscheinlichkeit: X k2X ( ) n X k=0 k n! pk q n k!(n k)! k (n 1)! pk 1 qn k ( k 1)!(n k)! k=1 n X n 1 k 1 (n 1) (k 1) p q np k 1 k=1 nX1 n 1 m (n 1) m p q np np m m=0 {z } =1, da P ( ) für (n 1)-fachen Münzwurf np Satz 1.3 Seien X und Y zwei Zufallsvariablen X; Y und 2 R. Dann gilt E ( X ) = E (X ) E (X + Y ) = E (X ) + E (Y ) Mit anderen Worten: der Erwartungswert ist linear. Erwartungswert und Varianz E (X ) := = Die Berechnung des Erwartungswertes der Binomialverteilung ist erheblich einfacher, wenn man den folgenden Satz benutzt. Wir beschränken uns im Folgenden zunächst auf diskrete Zufallsvariablen und werden erst später auf stetige Verteilungen zurückkommen. 1.4.2 1 k P (X = k) | 2 2 e (x ) =2 dx 0 ( = )=0 k=0 n X = k 2 f0; 1; : : : ; ng b) Normal- oder Gaussverteilte Zufallsgröße Z b P (a X b) = n X = = Beispiele für Zufallsvariablen: ( = )= 6 X 6 X Anders als in einem beliebigen kann man in R rechnen. Das ermöglicht die Definition von Mittelwert (“Erwartungswert”), mittlerem Fehler usw. a) Binomialverteilte Zufallsgröße ( n k k p P X k sonst FH Niederrhein k P (X = k) Diesen Satz wollen wir verwenden um den Erwartungswert der Binomialverteilung zu berechnen. Betrachte dazu beim n-fachen Münzwurf die ZV’s Yi = Ergebnis (0 oder 1) des i-ten Münzwurfs Die Binomialverteilte ZV X des n-fachen Münzwurfs ist dann die Summe über die Yi ( = ) Da die Wahrscheinlichkeit P X k ja in etwa der relativen Häufigkeit des Auftretens von k entspricht, entspricht der Erwartungswert also dem statistischen Mittelwert von X bei häufiger Wiederholung des Zufallsexperiments. Beispiele: 9 X= X i = 1n Yi ) Satz 1.3 E (X ) = X (Yi = 1) = p und P (Yi = 0) = 1 E (Yi ) = 1 p + 0 q = p für alle i = 1; : : : ; n E (X ) = n E (Yi ) = np Die Yi sind alle identisch verteilt mit P ) ) i = 1n E (Yi ) 10 p = q. Dalitz CBM FH Niederrhein Neben dem Erwartungswert interessiert auch die mittlere Abweichung davon. Die naheliegende DeE X wäre E jX j , also der Mittelwert über den finition der mittleren Abweichung von Betrag aller Abweichungen. Weil der Betrag jedoch die in Berechnungen unangenehme Eigenschaft hat, an der Stelle 0 nicht differenzierbar zu sein, verwendet man statt des Betrags das Quadrat der Abweichung. = ( ) Definition 1.6 (Varianz) Sei X eine Zufallsvariable mit Erwartungswert quadratischen Abweicheung von : V ar(X ) := E ((X )2 ) = X k2X ( ) ( ) = E (X ). Die Varianz von X ist der Mittelwert der )2 P (X = k) (k Dalitz CBM 0.18 n = 20 n = 200 0.16 0.14 0.12 0.1 0.08 0.06 0.04 Die Wurzel aus der Varianz heißt Streuung oder Standardabweichung p (X ) := V ar(X ) Die Streuung (X ) ist die Größe, die bei Experimenten als “Messfehler” X angegeben wird. Es ist also V ar (X ) = (X )2 . 0 = = E ((X E (X 2 ) = E (X 2 ) )2 ) = E (X 2 0 0.2 Beispiele: 1; 2; 3; 4; 5; 6g. Den Erwartungswert hatten wir be- a) einfaches Würfeln: Gleichverteilung auf f : berechnet. reits oben als =35 6 X 6 X 1 V ar(X ) = (k )2 P (X = k) = (k 3:5)2 = 2:9167 6 k=1 k=1 b) einfacher Münzwurf: X kann 0 mit W’keit p und 1 mit W’keit q = 1 p annehmen. Erwartungswert hatten wir bereits als = p berechnet. V ar(X ) = (1 p)2 p + (0 p)2 (1 p) = p p2 = pq Anders als für den Erwartungswert gilt für die Varianz im allgemeinen V ar (X + Y ) 6= V ar (X ) + V ar(Y ), wie man sich leicht am Beispiel X = Y mit = E (X ) klarmachen kann: E (X + X ) = E (X ) + E (X ) = 2 ) V ar(X + X ) = V ar(2X ) = E ((2X 2)2 ) = E (4(X )2 ) = 4E ((x )2 ) = 4V ar(X ) 6= V ar(X ) + V ar(X ) 0.4 0.6 0.8 V ar( X ) = 2 V ar(X ) für 2 R V ar(X + Y ) = V ar(X ) + V ar(Y ) wenn X und Y unabhängig sind Den Begriff der Unabhängigkeit haben wir bisher nur für Ereignisse kennengelernt. Was bedeutet Unabhängikeit von Zufallsvariablen? Definition 1.7 (unabhängige Zufallsvariablen) Zwei Zufallsvariablen X und Y heißen unabhängig, wenn für alle x; y P (X < x und Y < y) = P (X < x) P (Y < y) 2 R gilt Bei diskreten ZV’s, d.h. ZV’s die nur nur endlich viele Werte annehmen können, ist das gleichbedeutend mit P (X = x und Y = y) = P (X = x) P (Y = y) Als Anwendung von Satz 1.4 wollen wir die Varianz der Binomialverteilung berechnen und betrachten wieder die unabhängigen Ausgange Yi der einzelnen Münzwürfe i ; : : : ; n. Die binomialverteilte Pn ZV X ist dann wieder X i=1 Yi und aus der Unabhängigkeit der Yi folgt dann mit Satz 1.4 n n X X V ar Yi Yi V ar X V ar i=1 i=1 Die Yi sind alle identisch veteilt, haben also dieselbe Varianz des einfachen Münzwurfs, die wir oben bereits als p p berechnet hatten. =1 = ( )= (1 ( )= ) V ar(X ) = n V ar(Yi ) = np(1 ( ) p) = npq Wie der folgende Satz zeigt, gibt es aber doch Fälle, in denen die Varianz sich additiv verhält. 11 1 Satz 1.4 2X + 2 ) 2 E (1) | {z } = =P P (X )=1 2 = E (X 2 ) E 2 (X ) 2 E| ({zX}) Abbildung 2: Wahrscheinlichkeitsverteilung P von Xi =n beim : Münzwurf mit p für verschiedene Werte von n = 05 0.02 Aus der Linearität des Erwartungswerts (Satz 1.3) folgt folgende Darstellung der Varianz: V ar(X ) FH Niederrhein 12 Dalitz CBM FH Niederrhein Dalitz CBM FH Niederrhein f(x) 1.5 Das schwache Gesetz der großen Zahlen Fläche V Beobachtung: bei häufiger Wiederholung desselben Zufallsexperiments liegt das arithmetische Mittel der Versuchsergebnisse fast immer in der Nähe des Erwartungswerts. Das ist intuitiv einleuchtend, denn beim Erwartungswert wird ja jedes mögliche Ergebnis mit seiner Wahrscheinlichkeit gewichtet, also mit der relativen Häufigkeit seines Auftretens. Für den Münzwurf ist dies in Abb. 2 deutlich sichtbar: mit zunehmendem n konzentriert sich die Verteilung immer mehr um den Erwartungswert. y Diese Tatsache wollen wir nun theoretisch als “schwaches Gesetz der großen Zahlen” beweisen. Als Hilfsmittel benötigen wir dazu die Tschebyschew-Ungleichung. Satz 1.5 (Tschebyscheff-Ungleichung) Für jede Zufallsvariable X mit V ar P (jX E (X )j ") Beweis: V ar(X ) = = E (X X X x2X ( ) x2X ( ) jx j" V ar(X ) "2 für beliebiges " > (X ) < 1 gilt 0 = | {z } x2X ( ) jx j" "2 Idee (vgl. Abb. 3): wenn man viele zufällige Punkte in der Fläche V auswählt, so entspricht der Anteil der Punkte, die unterhalb der Kurve f x landen, etwa dem Anteil des Integrals über f an der Gesamtfläche V . () Teilen durch "2 ergibt die Behauptung. Wie können wir nun das wiederholte Durchführen desselben Zufallsexperiments modellieren? Indem wir jedem Einzelexperiment eine eigene Zufallsvariable zuweisen; diese Zufallsvariablen sind dann alle unabhängig und identisch verteilt. Auf den arithemtischen Mittelwert solcher Zufallsvariablen bezieht sich der folgende Satz. Satz 1.6 (Schwaches Gesetz der großen Zahlen) Seien Xi 2N unabhängige, identisch verteilte Zufallsvariablen mit Erwartungswert und Varianz 2 . Dann gilt für jedes beliebige " > : ! n X X P " i n!1 n i=1 lim 1 0 =0 = n1 Pni=1 Xi gilt nach den Sätzen 1.3 und 1.4 P P P = E (Sn ) = E n1 ni=1 Xi = n1 ni=1 E (Xi ) = n1 ni=1 P P P 2 V ar(Sn) = V ar n1 ni=1 Xi = n12 ni=1 V ar(Xi ) = n12 ni=1 2 = n Beweis: Für die Zufallsvariable Sn Anwendung der Tschbyscheff-Ungleichung auf Sn ergibt P (jSn j ") 2 n "2 n!1 ! 0 Warum heißt dieses Gesetz “schwach”? Weil es noch ein “starkes” Gesetz der großen Zahlen gibt, das das “schwache” Gesetz zur Folge hat (aber nicht umgekehrt). Dieses “starke” Gesetz ist nicht 13 Prinzip der x Monte-Carlo Integration b Anwendung Monte-Carlo Integration "2 P (jx j ") ( ) x nur sehr viel schwerer zu beweisen, sondern es erfordert auch einen gewissen Scharfsinn, überhaupt den Unterschied zwischen beiden Gesetzen zu verstehen. Der Unterschied wird in [3] verständlich erläutert, der Beweis wird in [1] und [2] präsentiert. )2 (mit der Bezeichnung = E (X )) X (x )2 P (x) (x )2 P (x) "2 P (x) Abbildung 3: a Zur mathematischen Modellierung betrachten wir zunächst die Auswahl eines zufälligen Punktes (x; y) aus V . Für diesen Punkt ist 1 Z b f (x) dx =: p P (f (x) y) = V a Wir betrachten nun für einen zufälligen Punkt X= 1 0 wenn f sonst (x) y (3) (x; y) die Zufallsvariable Wegen Gleichung (3) steht der Erwartungswert von X in direktem Zusammenhang zum Integral über f: Z b E (X ) = p ) f (x) dx = V E (X ) a Nach dem schwachen Gestz der großen Zahlen gilt dann für n-fache Wiederholung n X X p für große n n i=1 i p 1 Pn Was ist mit dem “Messfehler” von Y V ar Y ? n i=1 Xi , d.h. Y n X X n V ar X V ar Y V ar n i=1 i n2 | {z } p(1 p) 1 ( )= (1 = )= 1 14 ( )= ( ) (Xi)ni=1 ( ) (4) Dalitz CBM r ) (Y ) = FH Niederrhein p(1 p) n Dalitz CBM FH Niederrhein F(x) (5) 1 Aus Formel (5) ziehen wir für die praktische Anwendung zwei Folgerungen: Der Fehler wird kleiner, wenn p groß ist, d.h. wenn V von f gut ausgefüllt wird. Wir müssen also V möglichst wenig größer als die Integralfläche wählen. Der Fehler fällt mit 1=pn, also relativ langsam. 0.5 Leider hat die Formel (5) für den Messfehler einen Schönheitsfehler: die unbekannte Größe p wird zur Berechnung des Fehlers benötigt! Wir brauchen aber eine Schätzung des Fehlers aus den gemessenen Daten. Dazu können wir die quadratischen Abweichungen vom gemessenen Mittelwert aufaddieren (vgl. Physikpraktikum). Gemessener Mittelwert für p: n X p X n i=1 i Arithmetischer Mittelwert der gemessenen Abweichungen: n n X X V ar X Xi p 2 X2 n i=1 n i=1 i n n X X Xi 2 X p2 p n i=1 n i=1 i | {z } p^ 1 ^= 1 1 ( ) ^) = 1 ( (6) 2Xi p^ + p^2 n X i=1 Xi 2 ! (Y ) n =1 =^ = ^(1 ^) Als Zusammenfassung von (3) und (7) ergibt als Schätzung für den Integralwert Z b a f (x) dx V n1 Xi V i=1 n X s 1 Pn 2 n i=1 Xi n 2 1 Pn n i=1 Xi (8) wobei “” im Sinne eines Messfehlers (Streuung) zu verstehen ist, nicht im Sinne maximaler Obergrenzen. Verteilungsfunktion und Dichte F: F wächst monoton mit 0 F (x) 1 und limx! 1 F (x) = 0 und limx!1 F (x) = 1. An einer Stelle a mit P (X = a) > 0 hat F einen Sprung der Höhe P (a). Die Wahrscheinlichkeitsverteilung ist durch die Verteilungsfunktion vollständig bestimmt. Z.B. ist P (a < X b) = P (X b) P (X a) = F (b) F (a) Ein wichtiger Spezialfall ist der einer stetigen Zufallsvariablen. Bei einer stetigen Zufallsvariablen lässt sich F darstellen als Integral Z x F (x) = 1 f (x0) dx0 für irgendeine positive Funktion die Verteilungsfunktion F f (x) 0 mit R1 1 f (x) dx = 1 (Normiertheit). In diesem Fall ist a) stetig auf ganz R b) stückweise differenzierbar ( )= () d Die positive, normierte Funktion f x dx F x heißt Wahrscheinlichkeitsdichte. Wir können die Dichte so auffassen, dass f x dx die Wahrscheinlichkeit für das Intervall x; x dx angibt. () 15 Abbildung 4: Verteilungsfunktion der Augenzahl beim Würfeln 6 Abb. 4 zeigt die Verteilungsfunktion für X = “Augenzahl beim einfachen Würfeln”. (7) ( ) 5 F (x) = P (X x) p^2 In unserem Fall kann Xi nur die Werte 0 und 1 annehmen, so dass gilt Xi Xi 2 und somit r n n X X p p Xi 2 Xi p ) Y n i=1 n i=1 n Dieses Ergebnis hätten wir auch direkt durch Einsetzen der Schätzung (6) für p in die exakte Formel für die Streuung (5) erhalten. 1 4 Eigenschaften jeder Verteilungsfunktion 1 Pn Xi 2 p^2 i=1 n 3 Eine reellwertige Zufallsvariable X definiert eine Verteilungsfunktion (cumulative distribution function, CDF) Einsetzen in (5) ergibt s 2 1.6 Wahrscheinlichkeitsdichten 1.6.1 +^ = n1 2^1 =1 x 16 ( + ) Dalitz CBM 0 Dalitz 1.6.2 f(x) 1 FH Niederrhein CBM FH Niederrhein Erwartungswert und Varianz P(c<x<d) Die Definition des Erwartungswerts für diskrete Zufallsvariablen über eine Summe können wir für stetige Zufallsvariablen nicht verwenden. Wir müssen statt dessen die Summen durch Integrale ersetzen. 000 111 111 000 000 111 000 111 000 111 000 111 000 111 000 111 000 111 000 111 000 111 000 111 000 111 000 111 000 111 000 111 000 111 000 111 000 111 000 111 c x d 1 (0 1) Abbildung 5: Gleichverteilung auf ; : Die Wahrscheinlichkeit eines Intervalls entspricht seiner Länge. Zur Verteilungsfunktion in Abb. 4 gibt es also keine Wahrscheinlichkeitsdichte: die Verteilungsfunktion ist nämlich nicht stetig. Es gibt aber andere, häufig auftretende Beispiele für stetige Wahrscheinlichkeitsverteilungen: (0; 1) (siehe Abb. 5) 8 < 0 für x 0 1 für 0 < x < 1 f (x) = 0 sonst F (x) = x für 0 < x < 1 : 1 für x 1 Bei dieser Gleichverteilung ist jeder Wert in (0; 1) gleichwahrscheinlich. Diese Verteilung lässt sich auch auf ein beliebiges IntervallR (a; b) statt (0; 1) verallgemeinern. In diesem Fall ergibt sich aus der Normierungsbedingung f (x) dx = 1 der Normierungsfaktor 1=(b a): a) Gleichverteilung auf dem Intervall Definition 1.8 (Erwartungswert und Varianz) Erwartungswert und Varianz einer stetigen Zufallsvariablen gegeben durch Z 1 E (X ) := V ar(X ) := E (X = E (X 2 ) 2 = f (x) = 1 für a < x < b b a 0 sonst b) Normal- oder Gaußverteilung mit Erwartungswert und Varianz 2 : 1 e (x )2 =22 Dichtefunktion: ';2 (x) = p 22 Z x ';2 (x0 ) dx0 Verteilungsfunktion: ;2 (x) = )2 1 ( )= 2 ( )= 2 =1 () ;2 (x) = 1 12 erfc xp 2 = 21 + 12 erf xp 2 2 2 O CTAVE hat darüberhinaus noch die Funktion normal cdf für die CDF (Verteilungsfunktion) der Normalverteilung. 17 wobei bei der Varianz die Abkürzung = Z Z 1 1 (x 1 f ist )2 f (x) dx x2 f (x) dx 2 1 = E (X ) verwendet wurde. Als Beispiele wollen wir Erwartungswert und Varianz der oben angegebenen stetigen Verteilungen berechnen: a) Gleichverteilte Zufallsvariable X auf Z b x E (X ) = E (X 2 ) = V ar(X ) = (a; b) b+a dx = b a 2 Z b x2 b3 a3 dx = 3(b a) a b a (b a)2 2 2 E (X ) E (X ) = a 12 b) Normalverteilte Zufallsvariable X zu Parametern ist die Substitution y x nützlich. Die Normalverteilung tritt in der Praxis sehr häufig auf; den Grund dafür werden wir später kennen lernen (Zentraler Grenzwertsatz). Das Integral in der Verteilungsfunktion lässt sich über die Errorfunktionen erf und erfc [4] ausdrücken: Z x Z 1 p e t2 dt erfc x p e t2 dt erf x erf x 0 x mit Wahrscheinlichkeitsdichte x f (x) dx 1 ( X und 2 . Bei der Berechnung der Integrale = 1 Z 1x e (x )2 =22 dx = p 1 Z 1(y + ) e y2 =22 dy E (X ) = p 2 2 Z 11 22 Z 11 1 1 2 =22 2 2 y dy + p 2 e y =2 dy = p 2 ye 2 | 1 {z 2 1 | } {z } = 1 Z 1(x )2 e (x )2 =22 dx V ar(X ) = p 2 2 Z 11 = p 1 2 y2 e y2 =22 dy = 2 2 1 = 0, da Integrand ungerade 18 =1 Dalitz CBM FH Niederrhein Halbleiter Gitterschwingungen (Phononen) ( )= () Abbildung 6: Bewegung eines Ladungsträgers der Ladung q und Masse m im Halbleiter Anwendung: Driftgeschwindigkeit der Ladungsträger im Halbleiter Betrachten wir einen Ladungsträger (Elektron, “Loch”) der Ladung q und der Masse m (“effektive” Masse des Quasiteilchens) in einem Halbleiter, den wir der Einfachheit halber als eindimensional annehmen (Abb. 6). Die Bewegung wird von verschiedenen Faktoren beeinflusst: a) Beschleunigung durch ein äußeres elektrisches Feld. d) Wechselwirkung mit anderen Ladungsträgern durch Stöße, deren induziertes elektrisches Feld und das Paulische Ausschlussprinzip. Die Gesamtheit der Ladungsträger wird geeigneterweise durch eine Wahrscheinlichkeitsverteilung beschrieben, die angibt mit welcher Wahrscheinlichkeit ein Teilchen zur Zeit t am Ort x mit der Geschwindigkeit v ist. Es ist also = Bruchteil Teilchen, die zur Zeit t an einem Ort in mit einer Geschwindigkeit (v; v + dv) sind (x; x + dx) Wenn wir annehmen, dass diese Verteilung zeitunabhängig (“stationär”) und homogen (für alle Orte nur noch von der Geschwindigkeit v abhängig und somit eine Wahrscheinleichkeitsdichte im Sinne dieses Kapitels. Der Erwartungswert dieser Verteilung ist die mittlere Geschwindigkeit oder Driftgeschwindigkeit hv i der Ladungsträger. 1 1 v f (v) dv (9) () Wir können also bei bekanntem f v die Driftgeschwindigkeit und damit auch die Stromdichte (hv i mal Ladungsdichte) berechnen. Aber wie kommt man auf die Wahrscheinlichkeitsverteilung f v ? () () Antwort: die Funktion f v genügt der Boltzmanngleichung. Unter der Annahme einer geringen Ladungsträgerdichte (typisch für Halbleiter, nicht für Leiter!) können die Wechselwirkungen der Ladunsgträger untereinander (siehe oben c) und d)) vernachlässigt werden und die Boltzmanngleichung lautet in diesem Fall: qE f (v) m v = M (v) | Z 1 1 f (v0 ) K (v; v0 ) dv0 {z Streuung v 0 } !v 19 ) =: 1 qE f (v) m v Z 1 = M (v) 1 f (v0) dv0 1 Z 1 M (v0 ) dv0 f (v) 1 | () 1 {z (11) } =1 Diese Gleichung bestimmt f v nur bis auf einen frei wählbaren multiplikativen Faktor (Warum?), den wir so wählen, dass f als Wahrscheinlichkeitsdichte normiert ist: Z 1 1 f (v) dv = 1 f (v) v (12) f (v) | Z 1 1 M (v0 ) K (v0 ; v) dv0 {z Streuung v ! v0 } (10) + f (v) = M (v) mit = m qE (13) Die allgemeine Lösung dieser Gleichung kann in einer mathematischen Formelsammlung (z.B. [5]) nachgeschlagen werden: Z v 0 f v e v C M v0 ev dv0 ( )= + ( ) 0 wobei C eine frei wählbare Konstante ist. Aufgrund der Normierungsbedingung (12) muss insbesondere f 1 sein, was wegen des Vorfaktors e v nur mit der Wahl ( x gleich) ist, dann ist f Z ( In der Relaxationszeit-Näherung nimmt die Boltzmanngleichung die Form an c) Stöße mit Störstellen (Dotierung) im Kristallgitter. hvi = 2 Damit nimmt die Gleichung (11), die Form einer einfachen linearen Differentialgleichung erster Ordnung an: b) Stöße mit den Schwingungen des Kristallgitters. f (t; x; v) dx dv FH Niederrhein p m= kT e mv2 =2kT ist die Maxwellverteilung, die ohne äußeres Feld E Die Funktion M v als Gleichgewichtsverteilung angenommen wird. Die Funktion K v; v 0 beschreibt die Stöße der Ladungsträger mit den Gitterschwingungen. Im einfachsten Fall (“Relaxationszeit-Näherung”) setzt man K v; v0 onst: = . heißt Relaxationszeit, weil sie die Einheit einer Zeit hat und ein Maß dafür ist, wie schnell eine Anfangsverteilung ohne äußeres Feld E gegen die Gleichgewichtsverteilung M v strebt. v 1.6.3 CBM ()= Kraft F = q E durch äußeres Feld E q, m Dalitz )=0 Z 0 0 C= M (v0 ) ev dv0 1 erreichbar ist. Damit ergibt sich als Lösung von (13) Z v 0 f v e v M v0 ev dv0 ( )= ( ) 1 (14) Abb. 7 zeigt diese Funktion für verschiedene Werte von E . Deutlich ist zu erkennen, dass mehr Ladungsträger eine höhere Geschwindigkeit haben, wenn das Feld größer ist. Wie sich mit Hilfe einer partiellen Integration nachrechnen lässt, erfüllt die Lösung (14) die Normierungsbedingung (12): Z 1 Z v Z 1 0 f v dv M v0 ev dv0 dv e v 1 () = 1 = e | | {z } v v e Z v v 1 1 ( ) 0 1 M (v0 ) ev dv0 {z =0 20 1} + Z 1 | 1 M (v0 ) dv0 {z =1 } Dalitz CBM FH Niederrhein 0.4 E1 E2 > E1 0.35 0.3 0.25 0.2 0.15 0.1 Abbildung 7: Geschwindigkeitsverteilung (14) für zwei verschiedene Werte des elektrischen Feldes E1 und 0.05 0 −2 0 2 4 6 8 10 E2 () Nachdem wir die Geschwindigkeitsverteilung f v der Ladungsträger bestimmt haben, können wir nun die Driftgeschwindigkeit (9) als Erwartungswert von v bestimmen (die Randterme verschwinden ): bei der partiellen Integration wegen f 1 Z 1 Z 1 Z v 0 hvi v f v dv v e v M v0 ev dv0 dv ( = = Z 1 1 | 1 () e = 1 = v = Z v )=0 1 0 | {z } v v e M (v0 ) ev dv0 dv 1{z } = 1 R 11 f (v) dv= 1 ( ) 1 + Z 1 | 1 v M (v) dv {z } =0, weil Integrand ungerade qE m Die Driftgeschwindigkeit und damit auch der Strom (= Driftgeschwindigkeit mal Ladungsdichte) ist also proportional zum angelegten elektrischen Feld E . Das ist nichts anderes als das Ohmsche Gesetz. Experimentelle Ergebnisse haben gezeigt, dass das Ohmsche Gestz in Halbleitern für große Feldstärken E nicht mehr gilt, sondern dass die Driftgeschwindigkeit gegen einen Sättigungswert strebt (velocity saturation). In unserer einfachen Relaxationszeit-Näherung (11) für die Ladungsträger-Gitter Wechselwirkung lässt sich dieses Phänomen nicht erklären, sondern man muss komplexere Modelle für die Stoßwechselwirkung K v; v 0 in (10) verwenden. ( CBM y 1111111111111 0000000000000 0000000000000 1111111111111 0000000000000 1111111111111 x+y ≤ z z 0000000000000 1111111111111 0000000000000 1111111111111 0000000000000 1111111111111 0000000000000 1111111111111 0000000000000 1111111111111 0000000000000 1111111111111 0000000000000 1111111111111 z 0000000000000 1111111111111 0000000000000 1111111111111 0000000000000 1111111111111 Das Faltungsintegral FH Niederrhein x Abbildung 8: Die Fläche x () () ( )= ( ) 1 1 bzw. für eine beliebige Fläche A in der (X; Y )-Ebene ZZ P ((X; Y ) 2 A) = f (x) g(y) dx dy Für stetige Zufallsvariablen mit Dichten f x und g x bedeutet das2 Z x Z y Z x P X < x und Y < y dx0 f x0 dy0 g y0 ( )= dx0 1 Z y +y z dy0 f (x0 ) g(y0 ) 1 A Es ergibt sich also bei zwei unabhängigen Zufallsvariablen die zweidimensionale Wahrscheinlichkeitsdichte f x g y für den Vektor X; Y . () () ( ) () = + () () H (z ) = P (Z z ) = P (X + Y z ) Das ist das Integral von f (x) g (y ) über die Fläche x + y z (siehe Abb. 8). Frage: Was ist die Wahrscheinlichkeitsdichte h z der Summe Z X Y ? Dazu wollen wir zunächst die Verteilungsfunktion H z bestimmen und dann h z durch Ableiten gewinnen. Wenn wir bei der Berechnung dieses Integrals die Variable y festhalten und x variieren, dann muss x z y sein. Das Doppelintegral ergibt sich also als Z 1 Z z y H (z ) ) 1.7 Summen unabhängiger Zufallsvariablen 1.7.1 Dalitz = = P (X + Y Z 1 z) = dy g(y) 1 ) h(z) = H 0(z) = Z Z z 1 dy g(y) 1 | dx f (x) 1 {z } 1 1 = x + y) 1 dw dy g(y) f (w (substituiere w Z z Z dw f (w y) 1 = y) dy g(y) f (z y) 1 Das zuletzt erhaltene Integral heißt Faltung von f und g . Erinnerung: laut Definition 1.7 heißen zwei Zufallsvariablen unabhängig, wenn P (X < x und Y < y) = P (X < x) P (Y < y) Definition 1.9 (Faltung von Funktionen) Die Faltung zweier Funktionen f und g , symbolisch f f g (x) := Z 1 g, ist definiert als das Integral g(y) f (x y) dy 1 R R 2 Die Notationen f (x) dx und dx f (x) sind gleichbedeutend. Die letztere Form ist für Mehrfachintegrale besser geeignet, weil man leichter erkennt wleches Integralzeichen sich auf welche Integrationsvariable bezieht. 21 22 Dalitz CBM FH Niederrhein CBM FH Niederrhein Satz 1.8 Die Faltung hat folgende Eigenschaften: f 1 Dalitz f g =gf Kommutativität: f*f f (g h) = (f g) h Assoziativität: 0.8 Z Normerhaltung: 1 dz f g (z ) = Z 1 0.6 1 dx f (x) Z 1 1 dx g(x) 1 0 Oft betrachtet man Funktionen, die nur für x > leben (z.B. Einschaltvorgänge bei linearen Systemen), d.h. ( ist die Heavysidesche Sprungfunktion): 0.4 f (x) = (x) f (x) 0.2 Abbildung 9: Gleichverteilung auf : ; : und deren Faltung mit sich selbst ( 0 5 0 5) 0 −1 −0.5 0 0.5 1 Satz 1.7 X und Y seien unabhängige Zufallsvariablen mit Wahrscheinlichkeitsdichten g y . Dann ist die Zufallsvariable Z X Y verteilt zur Dichte h f g. () = + = f (x) f (x) = g(x) = h(z ) = = Z ( 0:5; 0:5) gleichverteilter Zufallsvariablen: 0:5 < x < 0:5 1 0 für sonst 1 = dx f (x) g(z{z x}) | lebt auf (z 0:5; z + 0:5) 0 für jz j > 1 min(0:5;z +0:5) für jz j 1 y max( 0:5;z 0:5) 1 8 < : z 9 = ; dx f (x) |{z} lebt auf ( 0:5; +0:5) 0:5 = 0 1 jzj für jz j > für jz j 1 1 Das Ergebnis ist in Abb. 9 dargestellt. An diesem Beispiel sehen wir bereits zwei Eigenschaften der Faltung: Selbst in einfachsten Fällen ist die direkte Berechnung des Faltungsintegral ziemlich kompliziert. Wir werden im nächsten Kapitel mit der Fouriertransformation eine Methode kennenlernen, wie die Faltung auf einfache Multiplikation zurückgeführt werden kann. Die Faltung führt zu einer “Glättung” der beteiligten Funktionen. Im obigen Beispiel ist die Wahrscheinlichkeitsdichte nicht einmal steitig, ihre Faltung mit sich selber aber sehr wohl. Wenn wir sie nocheinmal mit sich selber falten wird sie sogar einmal stetig differenzierbar usw. Da die Faltung laut Satz 1.7 die Summe von zwei Zufallsvariablen beschreibt, muss die Faltung wegen X Y Y X kommutativ und wegen X YR Z X Y Z assoziativ sein. Ferner gelten, wenn f und g normiert sind. muss für die Faltung als Wahrscheinlichkeitsdichte f g Tatsächlich gilt für die Faltung + = + +( + ) = ( + )+ =1 23 1.7.2 0 1 f g (x) = Z für x < für x 0 0 Z x 1 (y) f (y) (x y) g(x y) dy = dy f (y) g(x y) | {z } 1|{z} 0 y0 yx Die diskrete Faltung Bisher haben wir die Summe stetiger Zufallsvariablen betrachtet. Was ist mit der Summe diskreter Zufallsvariablen? Seien X; Y diskrete Zufallsvariablen mit P X x p x und P Y y q y . Dann ist X Y verteilt mit () Z z +0:5 In dem Fall nimmt die Faltung die Form an und Beispiel: Summe zweier auf dem Intervall (x) = mit + P (X + Y ( = )= ( ) = z) = X x2X ( ) ( = )= p(x) q(z x) Wichtiger Spezialfall: X; Y nehmen nur ganzzahlige Werte (d.h. Werte aus Z an. Dann sind p und q P Folgen mit n2Z p n und X Y ist verteilt zur diskreten Faltung der Folgen p und q : ( )=1 + Definition 1.10 (diskrete Faltung) Die Faltung zweier Folgen p und q , symbolisch p q , ist definiert als das die Summe p q (n) := 1 X k= 1 p(k) q(n k) Beispiel: Augensumme beim n-fachen Würfeln. Die Verteilung beim einfachen Würfeln ist gegeben durch p(k) = 1=6 0 1 für k sonst 6 (15) Somit ist die Wahrscheinlichkeit für die Summe k beim n-fachen Würfeln gegeben durch P (Summe = k) = |p p {z: : : p} (k) n-mal 24 (16) Dalitz CBM FH Niederrhein Dalitz CBM FH Niederrhein 1 f ( x ) g ( y − x ) bei festem y gefaltete Gleichverteilung Normalverteilung 0.8 x1 111 000 000 111 000 111 000 111 000 111 000 111 111 000 000 111 000 111 000 111 000 111 000 111 000 111 000 111 000 111 000 111 111 000 000 111 000 111 000 111 000 111 000 111 000 111 000 111 000 111 δ 111 000 000 111 000 111 000 111 000 111 000 111 000 111 000 111 Abbildung 10: Approximation des Integrals über f x g y x bei festem y durch eine Riemannsumme. Der Abstand zwischen zwei Stützstellen sei Æ xi+1 xi . Die Stützstellen sind in der Intervallmitte gewählt, um den Fehler zu minimieren. () ( 111 000 000 111 000 111 000 111 000 111 ) = xN Numerische Programme bieten normalerweise eine Funktion zum Falten zweier Vektoren an (O CTA VE: fftconv, S CILAB : convol). Diese Funktionen sind für fftconv ; definiert durch zi = i X j =1 z= x j yi j für i (x y) = 1; : : : ; length(x) + length(y) n =2 0.6 0.4 n =7 0.2 0 0 P1 = 1/6 * ones(1,6); P = fftconv(P1,P1); P = fftconv(P1,P); ## beachte, dass Ergebnisvektor mit Index Eins beginnt, ## dieser Index aber der Summe 1+1+1 entspricht data=[3:length(P)+2;P]; gplot data’ with impulses; 5 6 (0 1) = +( 2) 1) = xn + ym = x1 + y1 + (n + (0; 1) mit sich selbst mithilfe von ## bestimme Funktion an Stützstellen in Intervallmitten N = 20; dx = 1/N; x = [dx/2:dx:1-dx/2]; fdiskret = f(x); ## berechne Faltung und deren Abtaststellen z = x(1)+x(1):dx:x(N)+x(N); fgefaltet = dx*fftconv(fdiskret, fdiskret); data = [z; fgefaltet]; gplot data’ with impulses; Die diskrete Faltung kann als Approximation der stetigen Faltung aufgefasst werden, indem man sie als Riemann-Summe des Integrals interpretiert (siehe Abb. 10): i=1 4 ## Dichte der Gleichverteilung auf (0,1) ## Funktion ist vektorisiert (auch Inputvektor x möglich), ## da Operator ’>=’ und ’<=’ elementweise vergleichen function [y] = f(x) y = (x >= 0) & (x <= 1); endfunction =3 N X 3 Beispiel: Berechnung der Faltung der stetigen Gleichverteilung auf O CTAVE: =0 f (x) g(y x) dx Æ 2 Die Anzahl k ergibt sich durch Betrachtung des maximalen z -Werts zk Æ. Æ und Vergleich dises Ausdrucks mit zk z1 k m Diese Formel ergibt sich direkt durch Anwendungen der Definition 1.10 auf endliche Folgen (= Vekimmer zu Null, toren), die für Indizes 0 und n Null sind. z1 ergibt sich dabei wegen y0 weshalb dieser erste Eintrag im Ergebnis der O CTAVE-Funktion fftconv weggelassen ist und somit der Ergebnisvektor um Eins nach links verschoben ist. Auch die Verteilung (15) ist solch eine endliche Folge, so dass sich Verteilung (16) z.B. mit O CTAVE für n wie folgt berechnen und darstellen lässt: Z 1 Abbildung 11: Vergleich der nfachen Faltung der Gleichverteilung auf ; mit der Normalverteilung. f (xi ) g(y xi ) An welchen Stellen y liefert die Approximation durch die diskrete Faltung nun die Funktionswerte? Dazu erinnern wir uns, dass die Faltung ja die Summe zweier Zufallsvariablen beschreibt. Wenn also x1 ; x2 ; : : : ; xn = x1 + (n 1) Æ y1 ; y2 ; : : : ; ym = y1 + (m 1) Æ dann liefert die diskrete Faltung der Abtastvektoren Æ (f g ) die Werte an den k Abtaststellen z1 = x1 + y1 ; z2 ; : : : ; zk = z1 + (k 1) Æ mit k = n + m 1 f g abgetastet wird an den n Stellen abgetastet wird an den m Stellen 25 1.7.3 Der zentrale Grenzwertsatz Wenn man auf diese Weise die n-fache Faltung der Gleichverteilung mit sich selbst berechnet, dann macht man die erstaunliche Beobachtung, dass das Ergebnis sich immer mehr der Normalverteilung zum entsprechenden Mittelwert und Varianz annähert (siehe Abb. 11). Tatsächlich gilt dieses Phänomen nicht nur für die Gleichverteilung, sondern für jede stetige oder diskrete Verteilung mit endlicher Varianz. 26 Dalitz CBM ( ) FH Niederrhein Satz 1.9 (Zentraler Grenzwertsatz) Xi i2N seien unabhängige, identisch verteilte Zufallsvariablen E Xi und endlicher Varianz < 2 V ar Xi < 1. Dann ist ihre Summe mit Mittelwert Pn 2 Yn X i=1 i für große n annähernd normalverteilt zum Mittelwert n und Varianz n , d.h. für alle x gilt ! Z x n X (x0 n)2 =2n2 dx0 p e X x P i 2 n!1 n 1 i=1 = ( ) = lim 2 0 = ( ) 1 =0 Anwendung: Approximation der Binomialverteilung Dalitz CBM Betrachten wir für ein Zahlenbeispiel wieder den n-fachen Münzwurf. In diesem Fall ist 2 p q und = ) = 1000 % = E (jXi j3 ) = j1 pj3 p + j0 pj3 q = pq(q2 + p2 ) 0:7975 q 2 + p2 ) p % = 0:7975( ppqn 3 n und p = 0:5 ergibt sich die Fehlerabschätzung dann zu 0:025219. ) = 1 2npq = 1 ( ) Da die Binomialverteilung nur ganzzahlige Werte annimmt, erhält man bessere Approximationswer: statt x te, wenn auf der rechten Seite von (17) die Normalverteilungsfunktion an der Stelle x genommen wird (warum?). Die folgende Tabelle gibt ein paar mit den O CTAVE-Funktionen binomi: berechnete Zahlenwerte: al cdf und normal cdf für p +05 =05 Wert n 100 1000 10000 Wert x 45 510 4990 binomial cdf(x; n; p) 0.18410 0.74667 0.42466 normal cdf(x; np; npq ) 0.15866 0.73646 0.42074 +05 normal cdf(x : ; np; npq) 0.18406 0.74668 0.42465 Aufgrund des zentralen Grenzwertsatzes kann man in vielen Situationen von normalverteilten Zufallsgrößen ausgehen. Z.B. folgt aus dem zentralen Grenzwertsatz, dass der “gewürfelte” Integralwert in der Monte-Carlo Integration in Gleichung (8) annähernd normalverteilt ist und somit der Messfehler in Gleichung (8) im Sinne der Standardabweichung der Normalverteilung zu verstehen ist. Eine Abschätzung des Fehlers, den man bei der Approximation durch die Normalverteilung macht, liefert der Satz von Berry-Esseen. Ähnlich wie die Tschebyscheff-Ungleichung ist diese Abschätzung allerdings für die meisten praktischen Anwendungen viel zu grob. Trotzdem ist der Satz außerordentlich bemerkenswert, weil er kein Grenzwertsatz ist, sondern eine globale Abschätzung des Fehlers für beliebige Werte von n und x liefert. ( ) = Satz 1.10 (Satz von Berry-Esseen) Es seien Xi i2N unabhängige, identisch verteilte ZufallsvariaE Xi , Varianz 2 V ar Xi und mittlerer kubischer Abweichung blen mit Mittelwert 3 % E jXi j . Dann gilt für alle x und n ! Z x n X : % 0 n)2 =2n2 0 ( x p 2 e dx < 3 p Xi x P n n 1 i=1 = ( ) = ( ) 2 1 ( ) 0 7975 27 = p, Für n Wenn die betrachteten Wahrscheinlichkeiten nahe bei Eins sind, dann ist diese Abschätzung brauchbar, für kleine Wahrscheinlichkeiten jedoch nicht. Die Anzahl “Kopf” bei n Münzwürfen ist die Summe über unabhängige Einzelergebnisse. Wir sind also in der Situation des zentralen Grenzwertsatzes und es muss für große n gelten x X n k n k pq P Yn x k k=0 Z x 0 2 p normal cdf x; np; npq (17) e (x np) =2npq dx0 ( FH Niederrhein 28 Dalitz CBM a) Original −Raum Bild −Raum komplizierte Gleichung FH Niederrhein b) Lösung f g f Dalitz CBM ebene Welle mit Wellenzahl k = 2 π / λ u x einfache Gleichung Lösung F F Filter− Operation FH Niederrhein R G y v Abbildung 12: Anwendungsgebiete von Integraltransformationen. Blendenebene Schirmebene 2 Fouriertransformation Abbildung 13: Beugungsbild einer ebenen Welle, die auf eine Blende trift. 2.1 Integraltransformationen und Fouriertransformation Definition 2.1 (Integraltransformation) Eine Integraltransformation bildet eine Originalfunktion F (y) = Z 1 f auf eine Bildfunktion F ab mittels K (x; y) f (x) dx Wir werden im Folgenden sehen, dass die Fouriertransformation eine Reihe nützlicher rechentechnischer Eigenschaften hat. Darüberhinaus hat sie aber auch in vielen physikalischen Situationen eine anschauliche Bedeutung: a) In der Signalverarbeitung wird das Fourierintegral als Überlagerung verschiedener “reiner Schwingungen” mit unterschiedlichen Frequenzen ! aufgefasst: 1 K (x; y) heißt Kern der Transformation. F (t) = Wichtige Beispiele für Integraltransformationen sind Fouriertransformation: K x; y e ixy ( )= Laplacetransformation: K (x; y) = (x) e xy wobei i die imaginäre Einheit (i2 = 1) und (x) die Heavysidesche Sprungfunktion ist: x0 (x) = 01 für sonst Die zwei typischen Anwendungsgebiete von Integraltransformationen sind schematisch in Abb. 12 dargestellt: a) Komplizierte Operationen im Originalraum können zu einfachen Operationen im Bildraum werden. Z.B. überführt die Fouriertransformation die Faltung in eine einfache Multiplikation oder die Ableitung in Multiplikation mit der Variablen. Dies ermöglicht z.B. eine einfachere Behandlung partieller Differentialgleichungen. b) Manipulationen im Bildraum nebst anschließender Rücktransformation sind zur Filterung möglich. Z.B. kann man so bestimmte Frequenzen und Nebengeräusche in Audio-Signalen unterdrücken. Z 1 f (!) e 1 i!t d! Man spricht deshalb auch vom Übergang von der “Frequenzdarstellung” zur “Zeitdarstellung” und umgekehrt. b) In der Quantenmechanik erfolgt durch die Fouriertransformation der Wechsel von der Ortsdarstellung zur Impulsdarstellung. c) In der Optik beschreibt die Fouriertransformation die Beugung einer ebenen Welle an einer Blende (siehe Abb. 13) in der “Fraunhoferschen Näherung” [11]. Der Zusammenhang zwischen der komplexen Wellenamplitude in der Blendenebene f x; y und der komplexen Wellenampli= ist die Wellenzahl) tude in der Schirmebene F u; v ist gegeben durch (k ZZ ikR e F u; v f x; y e ik(ux+vy) dx dy ( ) =2 ( ) ( ) iR ( ) Blende ( ) Definition 2.2 (Fouriertransformation) Die Fouriertransformierte F einer Funktion f ist definiert durch F (y) = Z 1 f (x) e 1 ixy dx Sie existiert für jede Funktion f mit =: F (f )(y) R1 1 jf (x)j dx < 1. 29 + ( ) Dies ist die zweidimensionale Fouriertransformation (beachte, dass ux vy nichts anderes ist als das Skalarprodukt der Vektoren u; v und x; y ). Das sichtbare Beugungsbild in der Schirmebene ist die Intensität (= Betragsquadrat) der Amplitude, also jF u; v j2 . Damit ergibt sich eine Möglichkeit die Fouriertransformation experimentell zu realisieren. 30 ( ) Dalitz CBM Nr. f (x) 3 1 für 0 sonst 1 a2 + x 2 (x) e ax 4 e ajxj 5 e 1 2 a<x<a FH Niederrhein R F (y) = 11 f (x) e 2 Dalitz CBM ixy dx sin(ay) y ajyj e a ) 1 a + iy 2a a2 + y 2 r y2 =4a e a ax2 e ajyj = e aj yj = 2a ) 2.2.2 F e ajxj = Z 1 1 Z 1 eixy dx 2 1 {z a2 + x 2 | } F e ajxj e f (x) = F 1 F (y) = 21 Z 1 1 () Vorfaktor f ist, dann lässt sich f zurückge- F (y) eixy dy Stauchung bzw. Streckung Die analytische Berechnung des Fourier- bzw. Umkehrintegrals erfordert oft höhere Mathematik (insbesondere den Residuensatz aus der Funktionentheorie). Deswegen empfiehlt sich unbedingt die Verwendung von Tabellen, wie man sie z.B. in [10], [6] oder [5] findet. Tabelle 1 gibt ein paar Beispiele. Wegen der Ähnlichkeit der Fouriertransformation (Definition 2.2) und ihrer Umkehrformel (Satz 2.1) folgt aus ) Z 1 f (x) e Faltungsregel Multiplikationsregel Differentiationsregel 1 1 f (y) Folglich werden solche Tabellen nur in eine Richtung benötigt. So lässt sich z.B. aus dem Transformationspaar Nr. 2 in Tabelle 1 das Paar Nr. 4 herleiten: Z 1 ajyj e ixy e dx a = 1 a2 + x 2 31 xk f (x) ik d k dy F (1a) (1b) (2a) (2b) (3) (4a) (4b) (5a) (y) (5b) Offenbar führt die Fouriertransformation nicht immer zu einer Vereinfachung von Rechenoperationen im Bildraum: bei den Regeln (4b) und (5b) werden die einfachen Operationen im Originalraum zu komplizierten Operationen im Bildraum. Alle Regeln aus Satz 2.2 sind leicht aus der Definition der Fouriertransformation und der Umkehrformel beweisbar. Als Beispiel sei die Regel (4b) bewiesen: ixy dx 1 F ( y) = 1 Z 1f (x) e+ixy dx = F 2 2 1 F (y) die Fouriertransformierte von f (x) h(x) H (y) = F (h) f (x) + g(x) F (y) + G(y) a f (x) a F (y) f (x x0 ) F (y) e iyx0 f (x) eixy0 F (y y0 ) 1 y f (ax) aF a (f g)(x) F(y) G(y) f (x) g(x) 21 F G (y) d k ik yk F (y) dx f (x) Verschiebungsregel 1=2 F (y) = F f (y) = = a2 2+a y2 () Das Integral auf der rechten Seite sieht fast genauso aus wie das Fourierintegral, bis auf zwei Unterschiede: e+ixy statt e ixy Satz 2.2 (Rechenregeln der Fouriertransformation) Sei und G y die Fouriertransformierte von g x . Dann gilt: Linearität die Fouriertransformierte von 1 a2 +x2 Rechenregeln und Anwendungen Die Umkehrformel F ixy dx 1 2.2 Eigenschaften der Fouriertransformation Satz 2.1 (Umkehrformel) Wenn winnen durch 1 Die Bedeutung der Fouriertransformation ergibt sich daraus, dass sie einige komplizierte Operationen (wie z.B. Faltung oder Differentiation) in einfachere Operationen im Bildraum überführt. Tabelle 1: Ein paar Fouriertransformationspaare 2.2.1 FH Niederrhein Z 1 dx g(x) f (x) e 1 ixy = Z 1 dx 1 1 Z 1dz G(z) eizx f (x) e 2 1 {z | } ixy Umkehrformel für g (x) Z 1 Z 1 = 21 dz G(z) dx f (x) e 1 {z | 1 = 21 G F (y) 32 F (y z ) ix(y z ) } Dalitz CBM FH Niederrhein Anwendung 1: allgemeine Lösung der Schwingungsgleichung 2 2 f (x; t) 2 f (x; t) = 0 t x Eine Fouriertransformation bzgl. der Variable x ergibt nach Satz 2.2 (6a) 2 F (y; t) + 2 y2 F (y; t) = 0 t g(x) = e Mit der Bezeichnung a ) G(y) = a e == 1=22 können wir f;2 über g ausdrücken, und zwar r a g(x ) r F f;2 (y) = a G(y) e t) g1 (x + t) beschreibt eine mit Geschwindigkeit nach links wandernde Welle g2 (x t) beschreibt eine mit Geschwindigkeit nach rechts wandernde Welle F f1 ;12 f2;22 X1 normalverteilt zu Mittelwert 1 und Varianz 12 X2 normalverteilt zu Mittelwert 2 und Varianz 22 Nach Satz 1.7 ist dann Y = X1 + X2 verteilt zur Faltung der beiden Dichten f1 ;12 (x) und f2 ;22 (x) 1 2 2 f;2 (x) = p 2 e (x ) =2 2 33 y2 =4a iy =e y2 2 =2 iy e y2 12 =2 iy1 (18) e y2 22 =2 iy2 Ein Vergleich mit (18) zeigt, dass das wieder die Fouriertransformierte der Normalverteilung ist zu den Parametern 1 2 und 2 12 22 . Wir haben also bewiesen: = + = + Satz 2.3 Die Summe zweier normalverteilter Zufallsgrößen ist wieder normalverteilt zum Mittelwert 1 2 und zur Varianz 12 22 . + + Bemerkung: aufgrund des zentralen Grenzwertstzes war dieses Ergebnis zu erwarten (warum?). 2.2.3 Symmetrieeigenschaften und Benutzung von Tabellen Aufgrund der Eulerschen Formel eix ben F (y) Aus Satz 1.7 wissen wir, dass die Summe unabhängiger Zufallsvariablen verteilt ist zur Faltung der Einzeldichten. Die Faltungsregel der Fouriertransformation kann uns helfen, diese Faltung zu berechnen. Als Anwendung wollen wir zeigen, dass die Summe zweier normalverteilter Zufallsvariablen wieder normalverteilt ist. Sei dazu =e = F f1 ;12 F f2 ;22 = = e y2 (12 +22 )=2 iy(1 +2 ) Diese Funktionen sind so zu wählen, dass die Rand- und Anfangsbedingungen erfüllt sind. Anwendung 2: Summe normalverteilter Zufallsvariablen iy Also ergibt sich nach der Faltungsregel G1 und G2 . Die Lösung erhalten wir dann Wir sehen, dass die allgemeine Lösung der Schwingungsgleichung zwei beliebig wählbare Funktionen g1 und g2 enthält. In diesem Fall können wir diese Funktionen leicht anschaulich interpretieren: mit y2 =4a so dass sich aus der Verschiebungsregel ergibt + 2( ) Z 1 Z 1 = 21 dy G1 (y) eiy(x+t) + 21 dy G2 (y) eiy(x 1 1 = g1 (x + t) + g2(x t) r ax2 f;2 (x) = Damit haben wir eine einfache gewöhnliche Differentialgleichung erhalten (y können wir als einen konstanten Parameter betrachten), deren allgemeine Lösung ist F y; t G y eiyt G y e iyt f (x; t) FH Niederrhein ) ( mit beliebigen -von y abhängigen- Integrationskonstanten durch Anwendung der Umkehrformel: CBM Wenn wir die Faltung mithilfe der Fouriertransformation berechnen wollen, müssen wir zunächst wissen, was die Fouriertransformierte F f;2 ist. Die Tabelle 1 liefert Wegen der Differentiationsregel und der Linearität lassen sich durch Fouriertransformation lineare partielle Differentialgleichungen mit konstanten Koeffizienten vereinfachen. Betrachten wir dazu als Beispiel die eindimensionale Schwingungsgleichung: ( ) = 1( ) Dalitz = = Z 1 Z 1 1 1 dx f (x) e = os(x)+ i sin(x) können wir das Fourierintegral auch schreiixy dx f (x) os(xy) i Z 1 1 dx f (x) sin(xy) Im allgemeinen ist dieses Integral komplexwertig, selbst wenn f eine rein relle Funktion ist. Wenn f aber Symmetrieeigenschaften hat, dann tragen evtl. nicht beide Summanden zur Transformierten bei. Beim Integral einer ungeraden Funktion über die gesamte reelle Achse heben sich nämlich die Anteile x > und x < gegenseitig auf. 0 0 Symmetrie von f f reell und gerade: f (x) = f ( x) f reell und ungerade: f (x) = f ( x) Auswirkung auf F nur cos-Term trägt bei: F y reell und gerade nur sin-Term trägt bei: F y imaginär und ungerade () () 34 Dalitz CBM FH Niederrhein Aus diesem Grund findet man oft in Tabellenwerken für gerade bzw. ungerade Funktionen anstelle der exponentiellen Fouriertransformation die Cosinustransformierte bzw. Sinustransformierte angegeben. Definition 2.3 (Fouriercosinus- und Fouriersinustransformation) Die Fouriercosinustransformierte Fos einer Funktion f ist definiert durch Fos (y) := Z 1 0 f (x) os(xy) dx wobei y Dalitz 0 Ihr Zusammenhang zur Fouriertransformation für gerades f ist CBM FH Niederrhein Immer genau überprüfen, wie die Autoren die Fouriertransformation definieren! Z.B. ist in [5] p die Fouriertransformation mitp dem Vorfaktor = definiert und die Sinus- und Kosinustransformation mit dem Vorfaktor = . 1 2 2 Meistens findet man nicht exakt die Funktion, die man sucht in den Tabellen. Mithilfe der Regeln von Satz 2.2 lässt sich die Fourier-/Rück-Transformation der gesuchten Funktion aber oft auf eine Funktion der Tabelle zurückführen. Wenn man nur Tabellen der Sinus- und Cosinustransformierten hat, dann muss man beachten, dass ein Vorfaktor x oder y aus einer geraden eine ungerade Funktion macht und umgekehrt. F (y) = 2 Fos (jyj) Die Fouriersinustransformierte Fsin einer Funktion f ist definiert durch Fsin (y) := Z 1 0 f (x) sin(xy) dx wobei y 2.3 Die diskrete Fouriertransformation 0 Wie bei der Faltung gibt es auch von der Fouriertransformation eine diskrete Version, die nicht Funktionen sondern Vektoren transformiert. Ihr Zusammenhang zur Fouriertransformation für ungerades f ist 2i Fsin(y) für y > 0 9 = = 2i sign(y) Fsin (jyj) F (y) = 0 für y = 0 : 2i Fsin(jyj) für y < 0 ; wobei sign(y ) das Vorzeichen (“signum”) von y ist. 8 < 2.3.1 F (y) = 1 y2 (1 + y2)2 Diese Funktion ist gerade, so dass wir zur Berechnung der Originalfunktion eine Korrespondenz xe x der Cosinustransformierten verwenden können. In [10] Tabelle 2.2 finden wir für g x die Cosinustransformierte Gos y y2 = y2 2 . Aufgrund des Zusammenhangs F y Fos y für y > ist also Fos y 21 F y 12 Gos y und es ergibt sich ( ) = (1 ) (1 + ) () 0 ( )= ( )= () 1 1 f (x) = g(jxj) = jxj e jxj 2 2 (Beachte, dass wir f (x) gerade fortsetzen müssen für Werte x < 0) iy F (y) = 1 + y2 Diese Funktion ist ungerade, so dass wir zur Berechnung der Originalfunktion eine Korrespondenz der Sinustransformierten verwenden können. In [10] Tabelle 2.1 finden wir für gx e x die Sinustransformierte Gsin y y= y2 . Aufgrund des Zusammenhangs 1F y 1 Gsin y und es ergibt sich F y i Fsin y für y > ist also Fsin y 2i 2 ( )= ( ) = ) (1 + ) ( )= 2 ( ) 0 ( )= ( )= () 1 1 jxj f (x) = 2 sign(x) g(jxj) = 2 sign(x) e (Beachte, dass wir f (x) ungerade fortsetzen müssen für Werte x < 0) Zum Abschluss noch ein paar praktische Hinweise zur Benutzung von Tabellen der Fouriertransformation: 35 = Fm = ( )= ( )=2 b) Definition 2.4 (Diskrete Fouriertransformation) Die diskrete Fouriertransformation (DFT) überführt einen Vektor 2 C N in einen Vektor 2 C N mittels N X Fm (19) fk e i2(k 1)(m 1)=N für m ; ; : : : ; N k=1 Wenn man die Vektorindizes statt bei Eins bei Null beginnen lässt, dann wird die Definition zu f Wir wollen zwei Beispiele betrachten wie man Tabellen der Cosinus- und Sinustransformation für die Rücktransformation in den Originalraum verwenden kann. a) Definition und Matrixeigenschaften =1 2 NX1 k=0 fk e i2 km=N für m = 0; 1; : : : ; N 1 In dieser Definition fallen zwei Unterschiede zur Integral-Fouriertransformation auf: F die DFT hat einen Faktor R1 1 dx f (x) e ixy 2 im Exponenten der Exponent der DFT ist von der Dimension N der Vektoren abhängig Mit der Bezeichnung amk schreiben: N X amk fk FM k=1 = = exp( 2i (m 1)(k 1)=N lässt sich (19) als ein Matrixprodukt bzw. F=Af Die DFT ist also eine lineare Abbildung im Vektorraum C N . Um eine Formel für die Rücktransformation zu finden müssen wir die Matrix A invertieren. = [amk ℄ mit amk = exp( 2i (m 1)(k 1)=N ist invertierbar und es ist = N1 (A)T bzw. Satz 2.4 Die Matrix A A 1 36 Dalitz CBM = N1 amk = N1 a 1 mk FH Niederrhein Dalitz CBM e+i2(k 1)(m 1)=N f(x) e−ixy bei festem y Dabei bezeichnet A die komplex Konjugierte Matrix und AT die transponierte Matrix. Durch die komplexe Konjugation ändert sich das Vorzeichen im Exponenten. Beweis: Betrachte B = A (A )T bmj = = = N X k=1 N X k=1 ( = [bmj ℄. Wir müssen zeigen, dass B die Einheitsmatrix E ist. Es ist e 2i(m 1)(k 1)=N e2i(k 1)(j 1)=N e2i(k 1)(j 1 qN 1 q N m)=N für q für q = N X k=1 qk 1 mit q = e2i(j m)=N 6= 1, d.h. j 6= m Es ist q N e2i(j m) , was für j 6 m gleich Eins ist. Also ist bmj in der Tat gleich Null für m 6 und gleich Eins für m j , d.h. B ist die Einheitsmatrix. Damit ist der Satz bewiesen. = ) = = 111 000 000 111 000 111 000 111 000 111 000 111 −N∆ 2.3.2 = 1, d.h. j = m =j N 1=2 A definieren. Diese Wir können die DFT noch besser verstehen, wenn wir eine Matrix C Matrix hat dann die Eigenschaft C C T E (E stehe für die Einheitsmatrix), d.h. die adjungierte3 Matrix von C ist auch ihre Inverse. Solche Matrizen heißen unitär und haben die Eigenschaft, dass sie Längen und Winkel erhalten, wenn man sie auf Vektoren anwendet. Es ist also j j2 jC j 2 jA j2=N . = ( ) = f Satz 2.5 (Parsevalsche Gleichung der DFT) Für jeden Vektor und seine DFT 1 N X N m=1 jFm j2 = d.h. bis auf den Vorfaktor N X k=1 F gilt 3 N m=1 () F (y) = Z 1 dx f (x) e 1 ixy ( N X n= N f (n) e iyn Wir wollen nun die Summe auf der rechten Seite über die DFT M X1 fk e 2i km=M m ; ;:::;M F m k=0 ~ +) =0 1 (20) 1 ~f Vektors . Seine DFT ist dann 2N X = z z Satz 2.6 (Umkehrformel der diskreten Fouriertransformation) Wenn der Vektor DFT des Vektors 2 C N ist, dann gilt N X 111 000 000 111 000 111 000 111 000 111 000+N∆ 111 ) Ebenso wie wir die diskrete Faltung als Approximation der stetigen Faltung aufgefasst haben, so können wir auch die DFT als Approximation der stetigen Fouriertransformation auffassen. Wir wollen dazu annehmen, dass die Funktion f x auf dem Intervall x 2 a; a “lebt”, d.h. außerhalb dieses Intervalls verschwindet. Mit den Bezeichnungen von Abb. 14 ist dann F~ (m) F2 = C N die Erinnerung an die lineare Algebra: die adjungierte Matrix ist die komplex konjugierte und transponierte Matrix 37 k=0 2N X k=0 e f ( N + k) e Nym 2N X k=0 i kym mit f ( N + k) e i (k F (ym)= Wenn wir auflösen nach F = 2N + 1 die Dimension des f ( N + k) e 2i km=(2N +1) | F~ ausdrücken: Fm e2i (m 1)(k 1)=N = = Unmittelbar aus Satz 2.4 ergibt sich die 1 () N + k) k = 0; 1; : : : ; M 1 Da die maximale Stützstelle +N ist, ist M 1 = 2N und somit M Bemerkenswerterweise gilt eine ähnliche Parsevalsche Gleichung auch für die stetige Fouriertransformation. Um diese Version der Parsevalschen Gleichung zu verstehen, muss man aber zunächst wissen, wie man Längen von und Winkel zwischen Funktionen definieren kann, was jenseits der Fachhochschulmathematik liegt. fk = Abbildung 14: Approximation des Integrals über f x e ixy bei festem y durch eine Riemannsumme. Der Abstand zwischen zwei Stützstellen sei . Die Stützstellen sind in der Intervallmitte gewählt, um den Fehler zu minimieren. ~f f~k = f ( 1=N erhält die DFT die Länge eines Vektors. Für komplexe Zahlen z ist das Betragsquadrat definiert durch jz j2 f 111 000 000 111 000 111 000 111 000 111 000 111 000 111 000 111 des Vektors ausdrücken, der eine Diskretisierung der Funktion f ist: Bemerkungen: ∆ ~( ) = jfk j2 111 000 000 111 000 111 000 111 000 111 000 111 000 111 000 111 000 111 000 111 111 000 000 111 000 111 000 111 000 111 000 111 000 111 000 111 000 111 Zusammenhang zur stetigen Fouriertransformation f = f = f FH Niederrhein 2m 2N + 1 =: ym (m = 0; 1; : : : ; 2N ) N )ym {z } laut Gleichung (20) (ym), dann können wir die stetige Fouriertransformierte F über die diskrete F (ym ) F~ (m) eiNym mit ym = 2m (2N + 1) 38 für m = 0; 1; : : : ; 2N (21) Dalitz CBM FH Niederrhein , mit dem die x-Werte “abgetastet” werden, heißt Abtastrate oder sampling rate. Mit der Formel (21) kann F (y ) im Bereich y 2 (0; 2=) an den diskreten Stellen ym approximiert werden. Was ist aber außerhalb des Bereichs (0; 2=)? Wegen eix = os(x) + i sin(x) ist die DFT Der Abstand F~ (m) = M X1 k=0 f~k e 2i km=M () 0.5 für alle m2Z 2.4 0.3 2.0 1.2 0.8 F (y) = $ 0.4 (22) Als Beispiel wollen wir das folgende Transformationspaar betrachten und die Approximation von F durch die DFT untersuchen: ( (1 0 jyj) für jy j 1 sonst Die O CTAVE-Funktion fft() berechnet die DFT eines Vektors, so dass die Approximation (21) von F mit folgendem O CTAVE-Code berechnet werden kann: 0 −30 0 ⇒ 10 20 0 −1.4 30 = 30 =2 c) zeigt das Ergebnis der diskreten Approximation für N und . Merkwürdigerweise sieht das Ergebnis anders aus als die in b) dargestellte Funktion F . Das liegt daran, dass die DFT laut Gleichung (22) periodisch ist und somit der Bereich m > N (was laut (21) der Bereich −0.2 0.2 0.6 1.0 1.4 d) m>N 3.1 2.7 1.9 1.5 1.5 1.1 0.7 0.7 0.3 y≈π/∆ −0.1 m= 0 −0.1 m = 2N m=N −2 −1 0 1 2 3 3.5 e) ∆=∆c 2.5 2 2 1.5 1.5 1 1 0.5 0.5 0 0.5 1 1.5 0 2 f) ∆>∆c 3 2.5 0 Die Ergebnisse sind in Abb. 15 dargestellt: −0.6 2.3 3 ## graphische Darstellung des Realteils von F ## (das dritte Argument "ˆ" sorgt für Balkendiagramm) plot(yvec, real(Fvec), "ˆ"); −1.0 F ( y m − y2N ) = F ( y m ) 3.5 c) ∆ y ≈ 0.05 3.5 ## Diskretisierung ("Abtasten") von f und daraus ## berechnete diskrete Approximation von F fvec = f(xvec); # f sei vorher als Funktion definiert Fvec = deltax * fft(fvec); Fvec = Fvec .* exp(i*N*deltax*yvec); 39 −10 2.3 ## daraus resultierende y-Werte deltay = 2*pi / ((2*N+1)*deltax); yvec = 0:deltay:2*N*deltay; (x) und F (y) −20 ∆ = 2.0 N = 30 3.1 ## Sampling im x-Raum N = 30; deltax = pi; xvec = -N*deltax:deltax:N*deltax; a) und b) zeigen die Funktionen f b) F(y) 2.8 0.4 0.1 () 3.2 a) f(x) FH Niederrhein 1.6 Um F y in einem größeren y -Bereich (“Frequenzbereich”) zu berechnen, müssen wir also die Abtastrate verfeinern. Tatsächlich sagt uns das Shannonsche Abtasttheorem (s.u.), dass die Approximation (21) nur brauchbar ist, wenn wir die Abtastrate so fein machen, dass F y ausserhalb des dadurch abgebildeten Frequenzbereichs verschwindet bzw. sehr klein ist. 1 os x f (x) = x2 CBM 0.2 periodisch mit der Periode M , d.h. es ist F~ (m + M ) = F~ (m) Dalitz korrektes F(y) 0 0.2 0.4 0.6 0.8 1 1.2 1.4 Abbildung 15: Approximation der Fouriertransformation mit der diskreten Fouriertransformation. ( 0) y > = ist) dem Bereich y 2 = ; entspricht. Wenn man das berücksichtigt, dann erhält man durch Verschieben der rechten Hälfte nach links die Abbildung d), was tatsächlich die Funktion F ist. Wenn man die Abtastrate im x-Raum größer macht, dann wird der abgebildete y -Bereich ; = kleiner, so dass möglicherweise nicht mehr der ganze Bereich abgebildet ist, auf dem F y lebt. Abb. e) zeigt den Fall, dass sich die “Schwänze” von f gerade in der Mitte berühren, und Abb. f) den Fall, dass Sie sich überlappen und das Ergebnis im Randbereich falsch wird. Dieser Effekt, der bei zu großer Abtastrate auftritt, wird Aliasing-Effekt genannt. (0 2 ) () Wenn wir die Fouriertransformation durch die DFT und damit durch die Riemannsumme aus Abb. 14 approximieren, dann haben wir zwei Fehlerursachen: 40 Dalitz CBM FH Niederrhein Den Truncation Error durch Abschneiden des Integrals über ( 1; 1) bei endlichem N . Den Sampling Error durch eine schlechte Approximation des Integranden durch eine Stufenfunktion bei zu großer Abtastrate . Zum Sampling Error gibt es ein bemerkenswertes Theorem, das uns sagt, dass wir die Abtastrate bei bestimmten Funktionen gar nicht beliebig klein machen müssen. Dalitz CBM FH Niederrhein sich die “Schwänze” gerade berühren. Ist die Abtastrate größer kommt es zu Überlappungen und zum “Aliasing Effekt”. () Und was ist, wenn F y nicht bandbegrenzt ist? Dann ist die Samplingrate immer zu groß und der abgebildete y -Bereich zu klein. Dadurch kommt es in der Nähe des maximal abgebildeten ymax = immer zu Ungenauigkeiten durch den “Aliasing-Effekt”, die aber bei feinerer Abtastrate geringer werden. = Satz 2.7 (Shannonsches Abtasttheorem) Wenn die Fouriertransformierte bandbegrenzt ist, d.h. F (y) = 0 für jyj > a, dann ist die (unendliche) Riemannsumme (20) exakt F (y) = 1 X n= 1 f (n) e iyn für 2.3.3 jyj = (23) unter der kritischen Abtastrate = =a liegt. sofern die Abtastrate F (y) = 1 X n= 1 ) iny=a n e mit ( n = = Die “naive” Berechnung dieses Matrix/Vektor-Produkt erfordert tenzierungen für die amk ). Beweis: Die wesentliche Idee ist, dass F y in eine Fourier-Reihe entwickelt werden kann, weil F nur auf dem endlichen Intervall a; a lebt. Es ist also für y 2 a; a ( Wir haben gesehen, dass die diskrete Fouriertransformation nichts anderes als ein Matrix/VektorProdukt ist: NX1 amk fk mit amk e 2imk=N Fm k=0 = (x) durch die Abtastwerte vollständig bestimmt: 1 X sin((x n)=) f (x) = f (n) (x n)= n= 1 Ferner ist dann f () Fast Fourier Transform ) (y) 1 Z a dy F (y) e+iny=a 2a a Die Fast Fourier Transform (FFT) ist ein Algorithmus, der die DFT mit deutlich geringerem Rechenaufwand berechnet, und zwar mit nur O N N Operationen. In O CTAVE steht der FFTAlgorithmus in der Funktion fft() zur Verfügung. Wie der Algorithmus funktioniert und welche Varianten es gibt steht in [13]. ( log ) Das Integral im Koeffizienten n ist nach der Umkehrformel der Fouriertransformation gleich f n=a . Mit der Bezeichnung =a ist also 2 ( ) F (y) = 1 X n= 2 e 1 2a = iyn f (n) = 1 X n= 1 iyn f e (n) was der erste Teil des Abtasttheorems (23) ist. Um den zweiten Teil (2.7) herzuleiten, müssen wir die Umkehrformel auf (23) anwenden. Dabei müssen wir allerdings beachten, dass F y außerhalb a; a nicht durch (23) gegeben ist (das wäre nämlich die periodische Fortsetzung), des Intervalls sondern Null ist. Wir müssen also die Funktion zurücktransformieren ( () ) F (y) = F (y) E( a;a) (y) mit E( a;a) Also ist nach der Umkehrformel f (x) = 1 Z 1dy F (y) E ( 2 1 a;a) (y) eixy = (y) = 01 1 X n= 1 ( für y 2 sonst f (n) Z 1 a; a) dy e 1 iyn E ( a;a) (y) eixy Das letzte Integral führt zu den sin-Faktoren in (2.7). Einen guten Überblick mit weiteren Informationen zum Abtasttheorem findet man in [12]. Die anschauliche Bedeutung des Abtasttheorems und der kritischen Abtastrate können wir in Abb. 15 , so dass die kritische Abtastrate sehen: die dort betrachtete Funktion F y ist bandbegrenzt mit a =a ist. In Abb. 15 e) ist die Abtastrate genau gleich , wass dem Fall entspricht, dass = = () =1 41 O(N 2 ) Multiplikationen (plus Po- 42 Dalitz CBM FH Niederrhein Dalitz CBM FH Niederrhein Beweis: Zum Beweis müssen dir die Integrale, in denen Æ auftaucht, auf die Definitionsgleichung (24) zurückführen. 3 Die Delta-Distribution =x 3.1 Definition und Rechenregeln a) Substituiere y Definition 3.1 (Delta-Distribution) Die Dirac’sche Delta-Distribution Æ b) Um diese Gleichheit im Sinne der Distributionen zu zeigen, müssen wir beide Seiten auf eine Testfunktion f x anwenden und zeigen, dass dasselbe herauskommt, d.h. dass Z 1 1 für jede an x (x) ist definiert durch die Eigenschaft Æ(x) f (x) dx = f (0) () 1 Z 1Æ(x) f (x) dx Æ(x) f (x) dx = jj 1 1 Dazu substituieren wir im linken Integral y = x und machen eine Fallunterscheidung für > 0 und < 0. Der Betrag im Nenner ergibt sich dadurch, dass sich für < 0 bei der Substitution Z (24) = 0 stetige “Testfunktion” f . Man kann zeigen, dass es keine Funktion mit der Eigenschaft (24) gibt. Æ ist also keine Funktion im herkömmlichen Sinne. Zur Frage was Æ x denn statt dessen ist (ein lineares Funktional) und in welchem Sinne Æ als verallgemeinerte Funktion aufgefasst werden kann: siehe Folien. Anschaulich kann man Æ x als eine Wahrscheinlichkeitsdichte auffassen, die ihre gesamte konzentriert hat. In der Mechanik entspricht das einer Punktmas“Masse” am Punkt x se im Ursprung und in der Elektrostatik einer Punktladung im Ursprung. () () =0 Mithilfe der Delta-Distribution können wir formal auch eine Wahrscheinlichkeitsdichte für diskrete Wahrscheinlichkeitsverteilungen angeben. Z.B. können wir Æ x als Wahrscheinlichkeitsdichte einer Zufallsvariablen X auffassen, die mit Wahrscheinlichkeit Eins den Wert “0” annimmt. Die zugehörige Verteilungsfunktion ist nämlich Z y wenn y < P X y y (25) Æ x dx wenn y 1 () )= ( ) = 10 wobei die Heavysidesche Springfunktion bezeichnet. =1 g(x) = p Æ(x 1) + q Æ(x) Das Argument x 1 im ersten Term verschiebt die “Masse” der Delta-Distribution an den Ort x = 1. Satz 3.1 (Eigenschaften der Delta-Distribution) Die Delta-Distribution hat folgende Eigenschaften: a) Für jede Testfunktion f gilt: Z 1 b) Für jede Zahl 2 R gilt: Æ(x) = c) Für jede Funktion f gilt: Æf 1 Æ ist die Ableitung der Heavysideschen Sprungfunktion : 43 Æ(x) f (y x) dx = f (y) 1 d) Ergibt sich, wenn wir Gleichung (25) auf beiden Seiten nach y ableiten. Eigenschaft c) besagt, dass Æ bezüglich der Faltungsoperation das neutrale Element ist. Diese Eigenschaft werden wir im folgenden Kapitel ausnutzen, um die Lösung von inhomogenen Differentialgleichungen zu vereinfachen. Eigenschaft d) besagt, dass ein Sprung der Höhe Eins an der Stelle x beim Ableiten zu einem Æ -Beitrag führt. Dies lässt sich leicht verallgemeinern auf einen Sprung der Höhe h an der Stelle x a: solch ein Sprung führt in der Ableitung zu einem Beitrag h Æ x a . Dadurch können wir die Ableitungsoperation auch für Funktionen definieren, die im herkömmlichen Sinne nicht differenzierbar sind. =0 = ( ) 3.2 Impulsantwort und Greensche Funktion In diesem Abschnitt werden wir sehen, dass wir eine Lösung einer inhomogenen Differentialgleichung finden können, indem wir zunächst eine Lösung zur Inhomogenität Æ x finden (die sogenannte Impulsantwort) und dann das Ergebnis mit der tatsächlich vorliegenden Inhomogenität falten. () Dies beruht zume einen darauf, dass die Æ -Distribution das neutrale Element der Faltung ist (Satz 3.1c) und folgenden weiteren Eigenschaften der Faltung: a) R g(x) = 11 dy f (y) g(x y) hat die Eigenschaften (f + g) h = f h + g h (f g)0 = f 0 g = f g0 (der Strich bezeichne die Ableitung: f 0 = dxd f ) Satz 3.2 Die Faltung f Dies bedeutet, dass die Ableitung einer Faltung auf nur eine der beiden Funktionen durchgezogen werden kann. jj Æ(x) =f 1 Bemerkungen: b) Æ(x a) f (x) dx = f (a) 1 Z c) 0 = () 0 Das lässt sich verallgemeinern für beliebige diskrete Zufallsvariablen, indem wir jedem möglichen Wert einen Æ -Term multipliziert mit seiner Wahrscheinlichkeit zuweisen. Z.B. hat der Münzwürf mit p für das Ergebnis “0” die Wahrscheinden Wahrscheinlichkeiten p für das Ergebnis “1” und q lichkeitsdichte d) 1 die Grenzen umdrehen, was dann mit einem Minuszeichen wieder rückgängig gemacht wird. Bemerkungen: ( a. Beweis: Æ(x) = 0 (x) a) ergibt sich direkt durch Einsetzen der Definition der Faltung. 44 Dalitz CBM FH Niederrhein Dalitz CBM FH Niederrhein () Die Lösung g t heißt Impulsantwort der Differentialgleichung oder auch Greensche Funktion. Bei gewöhnlichen Differentialgleichungen spricht man meist von der Impulsantwort und bei partiellen Differentialgleichungen von der Greenschen Funktion. Die Bezeichnung “Impulsantwort” rührt daher, dass Sie im Falle eines Stromkreises wie in Abb. 16 beschreibt, wie das System auf einen Spannungsimpuls Æ t reagiert. L R U(t) I(t) = = d dx Z Z 1 1 dy f (y) g(x y) 1 dy f (y) g0 (x 1 y) = = Z F (Æ)(y) = 1 f g0 dy f (y) g(x y) x 1 Als Beispiel wollen wir den einfachen Stromkreis aus Abb. 16 betrachten. Der Strom I Differentialgleichung (t) genügt der (26) Dies ist eine inhomogene lineare Differentialgleichung mit der Inhomogenität folgendes Lösungsverfahren gelernt (t) der inhomogenen Gleichung (26). Die Lösung von (26) ist dann die Summe Ihom (t) + Ispez (t), wobei die Integrationskonstante so zu wählen ist, dass die vorgegebenen Anfangswerte (oder Randwerte) von I (t) angenommen werden. () Muss nun die Bestimmung der speziellen Lösung Ispez t für jede Inhomogenität U t individuell erfolgen? Nein! Wir können eine spezielle Lösung für beliebiges U t nach folgendem Verfahren angeben: Bestimme eine Lösung Rg t Æ t . ()= () g(t) zur Inhomogenität Æ, d.h. eine Lösung der Gleichung L g0 (t) + = g U eine Lösung von (26). Um das einzusehen, wollen wir I (t) = (g U ) in Gleichung (26) einsetzen: d L (g U ) + R (g U ) Satz=3.2b L g0 U + R g U dt Satz 3.2a = (|Lg0 {z+ Rg}) U Satz=3.1c U g(t) = Dann ist Ispez Æ(x) e ixy dx =1 F iyL G(y) + R G(y) = 1 ) G(y) = 1 ) iyL + r 1 (t) e L tR=L ( )=Ce Wenn wir noch beachten, dass die allgemeine homogene Lösung von (26) Ihom t ist die Integrationskonstante), dann ergibt sich die allgemeine Lösung von (26) zu I (t) U (t). Dazu haben Sie Bestimmung einer speziellen Lösung Ispez () 1 Nachschlagen in einer Tabelle ergibt () () 1 L g0 (t) + R g(t) = Æ(t) Bestimmung der allgemeinen Lösung Ihom t der homogenen Differentialgleichung, d.h. der Gleichung die sich ergibt, wenn U t identisch Null gesetzt wird. Diese Lösung enthält eine frei wählbare Konstante (Integrationskonstante). () Z Als Beispiel wollen wir die Impulsantwort zur Gleichung (26) mittels Fouriertransformation bestimmen: Dabei wurde benutzt, dass man bei der Ableitung eines Integrals nach einem Parameter (in diesem Fall ist x im Faltungsintegral ein konstanter Parameter) diese Ableitung in das Integral hineinziehen kann. d L I (t) + R I (t) = U (t) dt () Wie aber können wir nun die Impulsantwort g t bestimmen? Das ist oft mithilfe der Fouriertransformation möglich, denn die Delta-Distribution hat eine besonders einfache Fouriertransformierte, nämlich eine Konstante: () b) Es ist (f g)0 () Abbildung 16: Stromkreis, der durch eine lineare Differentialgleichung mit der Inhomogenität U t beschrieben wird = = Ihom (t) + Ispez (t) = Ce Ce = + g U (t) Z 1 tR=L + 1 (s) e sR=L U (t s) ds L 1 Z 1 tR=L + 1 e sR=L U (t s) ds Ce tR=L L 0 () Bei der letzten Umformung wurde benutzt, dass t für negative Werte Null und für positive Werte Eins ist, so dass das Integral erst ab der unteren Grenze Null einen Beitrag liefert. Zunächst verwunderlich erscheint, dass die Lösung zur Zeit t ein Integral von Null bis Unendlich enthält, also scheinbar auch von der Zukunft abhängt. Das ist jedoch nicht so, denn im Integranden steht U t s , so dass nur die Werte von U vor der Zeit t eingehen. ( ) Wir wollen noch ein weiteres Beispiel betrachten, in dem sowohl die Greensche Funktion als auch die Æ -Distribution eine konkrete physikalische Bedeutung haben: die Poissongleichung (für eine Einführung in diese Gleichung siehe [14]). '(x) = %("x) (27) Sie beschreibt den Zusammenhang zwischen dem elektrischen Potential ' und einer Ladungsverteilung % in der Elektrostatik. " ist die Dielektrizitätskonstante und ist der Laplace-Operator = 2 2 2 + + z x y Æ 45 tR=L ist (C 46 Dalitz CBM FH Niederrhein x wobei x; y; z die drei Kartesischen Koordinaten des Vektors bezeichnen. Die Greensche Funktion der Gleichung der Poissongleichung ist dann die Lösung g (x) g(x) = Æ(x) (28) 1 Bis auf den Faktor =" ist das die Poissongleichung für die Ladungsverteilung einer Punktladung im Ursprung. Eine Lösung dieser Gleichung ist ebenfalls mithilfe der Fouriertransformation möglich, liegt aber jenseits der Fachhochschulmathematik. Das Ergebnis ist g(x) = Dalitz A CBM Mathematische Symbole Kategorie Mengenbezeichner 1 1 4 jxj Das daraus resultierende elektrische Feld ist E(x) = r'(x) = 41 jxxj3 (r ist der Nabla-Operator) Mengenoperatoren '(x) = 1 g % = 1 Z %(x0 ) d3 x0 " 4" 3 jx x0 j R Was ist in diesem Fall mit der allgemeinen homogenen Lösung? Die obigen Lösungen haben alle die Eigenschaft, dass sie im Unendlichen (j j ! 1) verschwinden. Wenn dies die Randbedingung ist, dann ist diese Lösung vollständig und es kommt kein weiterer Term hinzu. Denn wenn man bereits eine Lösung gefunden hat, die die Randbedingungen erfüllt, dann ist die eindeutige Lösung dadurch ja bereits gegeben. Bei anderen Randbedingungen sieht die Lösung aber im allgemeinen anders aus. Methoden, wie man bei komplizierteren Randbedingungen die passende Greensche Funktion findet, stehen in [14]. x Symbol N , R, C Bedeutung natürliche, reelle, komplexe Zahlen natürliche Zahlen inklusive der Null Omega, Menge der Elemantarereignisse leere Menge Potenzmenge von A (Menge aller Teilmengen) Menge aller Werte, die die Zufallsvariable X ! R annimmt Vereingungs-, Schnitt-, Differenzmenge Komplement von A, d.h. A nA Kardinalität oder Mächtigkeit von A (Anzahl der Elemente) Teilmenge von, Obermenge von N0 ; }(A) X ( ) : [, \, n = A jAj , 1 was (bis auf den fehlenden Vorfaktor =") das Coulombsche Gesetz ist. Das Potential einer beergibt sich dann laut unserer Regel durch Faltung mit der Greenschen liebigen Ladungsdichte % Funktion zu (x) FH Niederrhein Operationen [ und \ auch über mehr als zwei Mengen möglich, z.B. Logische Symbole Analysis =) () n X i=1 n Y k=1 xi , “daraus folgt” “genau dann wenn”, “ist äquivalent zu” X n2N xn ai i 1, 1 ( ) [a; b℄ dx0 f (x0 ) 1 d f (x) dx x f (x; y), f (x; y) x Za;xb , f g 1 [ k=1 Ak endliche Summe, unendliche Reihe Produkt a1 a2 : : : an imaginäre Einheit, d.h. i2 unendlich, minus unendlich offenes Intervall a < x < b, geschlossenes Intervall a x b = 1 bestimmtes Integral über ( 1; x) (x) nach x partielle Ableitung von f (x; y ) nach x Z Ableitung von f Faltungsprodukt von f und g , d.h. 1 1 f (y) g(x y) dy Beispiele: A \ B = ; ) P (A [ B ) = P (A) + P (B ) (A oder B ) = P (A) + P (B ) Definition Erwartungswert: E (X ) = x P (X = x) x2X ( ) Mittelwert über alle Werte, die X annehmen kann (X ( )), gewichtet mit ihrer WahrscheinlichWenn A und B nicht zusammen eintreten können, ist P X keit. 47 48 Dalitz CBM FH Niederrhein Referenzen Index [1] B. W. Gnedenko: Lehrbuch der Wahrscheinlichkeitstheorie. Harri Deutsch 1997 (10. Auflage) Abtastrate, 38 Abtasttheorem von Shannon, 41 adjungierte Matrix, 37 Messfehler, 11 Monte-Carlo Integration, 14 Mustererkennung, 6 Normalverteilung, 17 Summe zweier, 34 [5] I.N. Bronstein, K.A. Semendjajew, G. Musiol: Taschenbuch der Mathematik. Harri Deutsch 2000 (5. Auflage) Bayes, Formel von, 5 Berry-Esseen, Satz von, 27 Binomialkoeffizient, 7 Binomialverteilung, 7 Boltzmanngleichung, 19 [6] H. Stöcker: Taschenbuch mathematischer Formeln und moderner Verfahren. Harri Deutsch 1999 (4. Auflage) Delta-Distribution, 43 Dichtefunkktion, 16 Tschebyscheff-Ungleichung, 13 [2] U. Krengel: Einführung in die Wahrscheinlichkeitstheorie und Statistik. Vieweg 2002 (6. Auflage) [3] R. Hafner: Wahrscheinlichkeitsrechnung und Statistik. Springer 1989 (1. Auflage) [4] M. Abramowitz, I. Stegun: Pocketbook of Mathematical Functions. Harri Deutsch 1984 [7] Octave Homepage: http://www.octave.org/ [8] J. W. Eaton: GNU Octave Manual. Network Theory Ltd. 2002 [9] Scilab Homepage: http://www.scilab.org/ [10] W. Preuß: Funktionaltransformationen. Fachbuchverlag Leipzig 2002 [11] J.-Ph. Pérez: Optik. Spektrum 1996 [12] A.J. Jerri: The Shannon Sampling Theorem ... A Tutorial Review. Proceedings of the IEEE, Vol. 65, No. 11, November 1977 (befindet sich in unserer Bücherei!) [13] Press at. al.: Numerical Recipes in C/Fortran/Pascal. Cambridge University Press 1992 [14] J. Honerkamp, H. Römer: Klassische Theoretische Physik. Springer 1989 (2. Auflage) Parsevalsche Gleichung, 37 Poissongleichung, 46 Unabhängigkeit Ereignisse, 6 Zufallsvariablen, 12 unitäre Matrix, 37 Elementarereignisse, 2 Ereignis, 2 Erwartungswert diskrete Zufallsvariable, 9 stetige Zufallsvariable, 18 Varianz diskrete Zufallsvariable, 11 stetige Zufallsvariable, 18 Verteilungsfunktion, 16 Faltung diskrete, 24 stetige, 22 Fast Fourier Transform, 42 Fourierkosinustransformierte, 35 Fouriersinustransformierte, 35 Fouriertransformation Definition, 29 diskrete (DFT), 36 diskrete Umkehrformel, 37 Rechenregeln, 32 Umkehrformel, 31 Wahrscheinlichkeit bedingte, 4 Definition, 3 Wahrscheinlichkeitsdichte, 16 zentraler Grenzwertsatz, 26 Zufallsvariable, 8 Gaußverteilung, 17 Gesetz der großen Zahlen schwaches, 13 starkes, 13 Gleichverteilung, 17 Greensche Funktion, 46 Heavysidesche Sprungfunktion, 29 Impulsantwort, 46 Integraltransformation, 29 Komplement, 3 Laplacetransformation, 29 49 50