Einführung in die Wahrscheinlichkeitsrechnung und

Werbung
Einführung in die Wahrscheinlichkeitsrechnung
und Fouriertransformation
Dalitz
CBM
FH Niederrhein
2 Fouriertransformation
Prof. Dr. Christoph Dalitz
Fachhochschule Niederrhein
Integraltransformationen und Fouriertransformation . . . . . . . . . . . . . . . . . .
2.2
Eigenschaften der Fouriertransformation . . . . . . . . . . . . . . . . . . . . . . . .
31
2.2.1
Die Umkehrformel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
31
2.2.2
Rechenregeln und Anwendungen . . . . . . . . . . . . . . . . . . . . . . .
32
2.2.3
Skript zur Vorlesung Computerbasierte Mathematik (CBM)
Version 1.2
Zusammenfassung
2.3
Anders als es der Titel “Computerbasierte Mathematik” vermuten lässt, wird in dieser Veranstaltung nicht thematisiert, wie mit dem Computer mathematische Gleichungen gelöst werden (die
sogenannte Numerik). Statt dessen werden die mathematischen Grundlagen weiterführender Elektrotechnikveranstaltungen behandelt, und zwar Wahrscheinlichkeitsrechnung und Fouriertransformation. Die behandelten Themen werden in einem Rechnerpraktikum vertieft.
Inhaltsverzeichnis
29
2.1
Symmetrieeigenschaften und Benutzung von Tabellen . . . . . . . . . . . .
34
Die diskrete Fouriertransformation . . . . . . . . . . . . . . . . . . . . . . . . . . .
36
2.3.1
Definition und Matrixeigenschaften . . . . . . . . . . . . . . . . . . . . . .
36
2.3.2
Zusammenhang zur stetigen Fouriertransformation . . . . . . . . . . . . . .
38
2.3.3
Fast Fourier Transform . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
42
3 Die Delta-Distribution
1 Wahrscheinlichkeitsrechnung
2
43
3.1
Definition und Rechenregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
43
3.2
Impulsantwort und Greensche Funktion . . . . . . . . . . . . . . . . . . . . . . . .
44
1.1
Definition der Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
1.2
Bedingte Wahrscheinlichkeit und Unabhängigkeit . . . . . . . . . . . . . . . . . . .
4
1.2.1
Bedingte Wahrscheinlichkeit und Satz von Bayes . . . . . . . . . . . . . . .
4
1.2.2
Anwendungen Krankheitstest und Mustererkennung . . . . . . . . . . . . .
5
1.2.3
Unabhängige Ereignisse . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
1.3
Folgen unabhängiger Versuche und Binomialverteilung . . . . . . . . . . . . . . . .
7
1.4
Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
1.4.1
Definition und Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
1.4.2
Erwartungswert und Varianz . . . . . . . . . . . . . . . . . . . . . . . . . .
9
1.5
Das schwache Gesetz der großen Zahlen . . . . . . . . . . . . . . . . . . . . . . . .
13
1.6
Wahrscheinlichkeitsdichten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
1.6.1
Verteilungsfunktion und Dichte . . . . . . . . . . . . . . . . . . . . . . . .
16
1.6.2
Erwartungswert und Varianz . . . . . . . . . . . . . . . . . . . . . . . . . .
18
1.6.3
Anwendung: Driftgeschwindigkeit der Ladungsträger im Halbleiter . . . . .
19
1.1 Definition der Wahrscheinlichkeit
Summen unabhängiger Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . .
21
1.7.1
Das Faltungsintegral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
21
Die Menge aller möglichen Versuchsergebnisse bei einem Zufallsexperiment bezeichnen wir mit
(sprich: “Omega”). Sie wird auch als Menge der Elementarereignisse bezeichnet.
1.7.2
Die diskrete Faltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
Ein Ereignis ist eine Teilmenge von .
26
Beispiele:
1.7
1.7.3
Der zentrale Grenzwertsatz . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
29
A Mathematische Symbole
48
Version und Änderungen
Version
0.1
1.0
Datum
2004.01.12
2004.02.24
Autor
Dalitz
Dalitz
1.1
1.2
2004.03.19
2004.04.16
Dalitz
Dalitz
Änderung
Erstellung Teil 1 (Wahrscheinlichkeitsrechnung)
Ergänzung Teile 2 (Fouriertransformation) und 3
(Delta-Distribution). Feinere Untergliederung in
Teil 1.
Korrektur Formel diskrete Faltung
Korrektur Fouriertransformationspaar 1 und Seitenzahlen im Index
1 Wahrscheinlichkeitsrechnung
2
Dalitz
CBM
FH Niederrhein
= 1 2 3 4 5 6
a) Einfacher Würfelwurf:
f; ; ; ; ; g
Ereignis “es wird ungerade Zahl geworfen”: A
= f1; 3; 5g b) Wartezeit (in Sekunden) auf einen Anruf: = (0; 1) = R +
Ereignis “Anruf nicht in erster Stunde”: A = (3600; 1) Wie das zweite Beispiel zeigt, kann die Menge auch unendlich sein.
Ereignisse treffen mit bestimmten Wahrscheinlichkeiten ein. Damit wird einem Ereignis, also einer
Teilmenge von , eine Zahl zwischen 0 (trifft praktisch nie ein) und 1 (trifft mit Sicherheit ein)
zugeordnet.
Dalitz
CBM
Der Beweis der Aussagen mithilfe der Definition ist eine gute Übung. Als Beispiel sei der Beweis von
2) angegeben:
Axiom 1 (Positivität):
Axiom 2 (Normiertheit):
Axiom 3 (Additivität):
: }(
) ! R mit den Eigenschaften:
P (A) 0 für alle A P (
) = 1
A \ B = ; ) P (A [ B ) = P (A) + P (B )
Bemerkungen:
(
)” bezeichnet die Potenzmenge von , dh. die Menge aller Teilmengen von . “P :
! R” bedeutet also, dass die Funtkion P Teilmengen von auf reelle Zahlen abbil-
a) “}
}(
)
Manchmal ist die Wahrscheinlichkeit eines Ereignisses A zu bestimmen, wenn bekannt ist, dass ein
bestimmtes Ereignis B bereits eingetreten ist. Solch eine Wahrscheinlichkeit heißt bedingte Wahrscheinlichkeit und wird symbolisch mit P AjB bezeichnet.
(
P (AjB ) =
jA \ B j = 3 = 1
jB j
18 6
Die Berechnung in diesem Beispiel macht nur im Rahmen der klassischen Wahrscheinlichkeitsdefinition Sinn. Wir können Sie aber auf die allgemeine Situation verallgemeinern, indem wir mit der Größe
von erweitern:
jA \ B j
P (A \ B )
j
A \ Bj
j
j
P (AjB ) =
jB j = jB j = P (B )
j
j
Der letzte Ausdruck macht auch im nichtklassischen Fall Sinn und kann deshalb der Definition zugrunde gelegt werden.
statistische Schätzung durch relative Häufigkeiten und Stichproben.
Beispiele: Sterbetafeln für Lebensversicherungen
Definition 1.2 (bedingte Wahrscheinlichkeit)
Die Wahrscheinlichkeit von A unter der Bedingung B (bedingte Wahrscheinlichkeit) ist definiert als
P (AjB ) :=
Die Wahrscheinlichkeitsverteilung genügt einer partiellen Differentialgleichung.
Beispiele: Boltzmanngleichung, Schrödingergleichung
(;) = 0
Wahrscheinlichkeit des Komplements: P (A) = 1 P (A)
Erläuterung: Das Komplement von A ist definiert als A = n A
A B ) P (A) P (B )
1) Die leere Menge hat Wahrscheinlichkeit Null: P
3)
)
Beispiel: Bestimme beim zweifachen Würfelwurf die Wahrscheinlichkeit für die Augensumme 4 (Ereignis A), wenn bekannt ist, dass die Summe gerade ist (Ereignis B ). Weil wir wissen, dass B eingetroffen ist, reduziert sich die Gesamtzahl der Möglichkeiten auf das Ereignis B und die Anzahl der
“günstigen” Ereignisse auf A \ B (dh. das gleichzeitige Eintreffen von A und B ). Also ist
Symmetrieüberlegungen liefern gleichwahrscheinliche Elementarereignisse, so dass sich die
klassische Wahrscheinlichkeitsdefinition anwendbar ist.
Beispiele: Würfelspiel, Münzwurf, Urnenmodelle, Bose-Einstein-/Fermi-Dirac-Statistik
Satz 1.1 Folgende Eigenschaften folgen direkt aus den Wahrscheinlichkeitsaxiomen:
2)
= A [ A und A \ A = ;. Also gilt
) = P (A)+ P (A). Auflösen nach P (A)
Bedingte Wahrscheinlichkeit und Satz von Bayes
Im konkreten Fall das zugrunde liegende Wahrscheinlichkeitsmaß P zu bestimmen ist meist keine
leichte Aufgabe. Je nach Situation gibt es dazu verschiedene Ansätze:
1 = (
) = (
1.2 Bedingte Wahrscheinlichkeit und Unabhängigkeit
det.
b) Für sehr große Mengen (sogenannte “überabzählbar große” Mengen) führt das Zulassen beliebiger Teilmengen von als Ereignissen zu Problemen. Deshalb finden Sie in allen Büchern
die zulässigen Ereignisse beschränkt auf eine sogenannte Ereignisalgebra. Das ist zwar korrekt,
aber für uns zu spitzfindig, als dass wir uns davon verwirren lassen wollen.
ist die disjunkte Vereinigung von A und A, dh.
gemäß Axiomen 2 und 3:
P
P A[A
ergibt die Behauptung.
1.2.1
Definition 1.1 (Wahrscheinlichkeitsmaß)
Ein Wahrscheinlichkeitsmaß P ist eine Funktion P
FH Niederrhein
P (A \ B )
P (B )
Der folgende Satz gibt zwei einfache, aber wichtige Eigenschaften der bedingten Wahrscheinlichkeiten an.
Satz 1.2 (Bayes) Sei fA1 ; A2 ; : : :g eine disjunkte1 Zerlegung von , dh. [k Ak
für i 6 j . Dann gilt:
=
1
Zwei Mengen heißen disjunkt, wenn Sie kein gemeinsames Element haben.
4) Für beliebige (nicht notwendig disjunkte) Ereignisse lautet das Additionstheorem (Axiom 3):
P (A [ B ) = P (A) + P (B ) P (A \ B )
3
4
= und Ai \ Aj = ;
Dalitz
CBM
FH Niederrhein
a) Formel der totalen Wahrscheinlichkeit
P (B ) =
X
k
b) Formel von Bayes
P (Ai jB ) =
= PPP(A(Ai) )P (PB(jBAjiA) )
k
k
k
Der letzte Ausdruck ergibt sich aus dem mittleren durch Einsetzen der Formel a) für P
b)
die dem Test unterzogen werden. In der ärztlichen Praxis sind das normalerweise nur Personen, bei
denen auch entsprechende Symptome beobachtet wurden. p bezieht sich dann auf die Wahrscheinlichkeit, bei Auftreten der Symptome auch diese Krankheit zu haben.
(B ).
[k Ak = ) B = \ B = ([k Ak ) \ B = [k (Ak \ B )
Weil die Ak alle disjunkt sind, sind auch die MengenP
B \ Ak alle disjunkt, so dass sich nach der
Additivität der Wahrscheinlichkeit ergibt P (B ) = Pk P (Ak \ B ). Einsetzen von Definition
1.2 auf der rechten Seite ergibt schließlich P (B ) = k P (Ak ) P (B jAk ).
Die Formel von Bayes setzt P (AjB ) mit P (B jA) in Beziehung. Löse dazu Definition 1.2 auf
nach P (A \ B ):
Definition 1.2 ) P (Ai \ B ) = P (B ) P (Ai jB ) =
P (B \ Ai ) = P (Ai ) P (B jAi )
) P (A jB ) = P (Ai) P (B jAi )
P (B )
i
1.2.2
FH Niederrhein
p = 0:005, dh. die Krankheit tritt selten auf
Treffsicherheit (Kranke) q1 = 0:99, Fehlerrate (Gesunde) q2 = 0:02
) Wahrscheinlichkeit, dass “Positiver” tatsächlich krank ist P (A1 jB ) = 0:2
Bei diesem Beispiel ist allerdings zu beachten, dass die Wahrscheinlichkeit p auf die Personen bezieht,
Beweis:
a)
CBM
Zahlenbeispiel:
P (Ak ) P (B jAk )
P (Ai ) P (B jAi )
P (B )
Dalitz
Anwendungen Krankheitstest und Mustererkennung
Es gibt aber Fälle, in denen aber jeder “untersucht” wird, z.B. bei Vorsorgeuntersuchungen (ohne
Symptome) oder bei Rasterfahndungen (ohne Anfangsverdacht). Das Zahlenbeispiel zeigt, dass selbst
bei recht sicheren Verfahren in solchen Fällen ein “positives” Ergebnis mit großer Wahrscheinlichkeit
falsch ist.
Anwendung Mustererkennung
Bei der Optical Character Recognition (OCR) muss aus einem vorgelegten Bild ein Buchstabe erkannt
f!1 ; : : : ; !ng. Aus dem Bild wird ein Vektor
werden. Die Menge möglicher Buchstaben sei
x1 ; x2 ; : : : ; xk bestimmter Eigenschaften (z.B. Gesamthelligkeit, Unterlängen etc.) berechnet.
x=(
Anwendung Krankheitstest
( x)
x
Gesucht ist dann P !i j , dh. die Wahrscheinlichkeit für das Zeichen !i , wenn gemessen wird. Ausgewählt wird dann das Zeichen mit der höchsten Wahrscheinlichkeit. Wenn die Wahrscheinlichkeiten
P j!i bekannt sind (z.B. durch statistische Abschätzung aus vorher untersuchten Schriftproben),
lässt sich die gesuchte Wahrscheinlichkeit P !i j mit Bayes’ Formel berechnen.
(x )
1.2.3
Die Formel von Bayes hat viele wichtige Anwendungen, z.B. beim Krankheitstest oder in der Mustererkennung.
=
)
( x)
Unabhängige Ereignisse
Ein Spezialfall der bedingten Wahrscheinlichkeit liegt vor, wenn das Eintreten des Ereignisses B
keinen Einfluss auf die Wahrscheinlichkeit von A hat, dh. P AjB
P A . In diesem Fall nennt
man die Ereignisse A und B unabhängig und es gilt:
(
P (A) = P (AjB ) =
P (A \ B )
P (B )
)= ( )
) P (A \ B ) = P (A) P (B )
Eine Person werde auf eine Krankheit gestestet. Dann gibt es zwei mögliche Ereignisse: die Person
A). fA1 ; A2 g ist eine disjunkte Zerlegung von .
ist krank (A1 ) oder die Person ist gesund (A2
Die relative Häufigkeit (Wahrscheinlichkeit) der Krankheit sei p
P A1 ; die Wahrscheinlichkeit
p.
für Gesundheit ist dann P A2
Die rechte Gleichung ist allgemeiner als die linke, weil sie auch im Fall
Deshalb nehmen wir sie als Basis der Definition von Unabhängigkeit.
Beim Krankheitstest sind durch klinische Versuche für das Ereignis B eines positiven Testergebnisses
folgende Werte bekannt:
Definition 1.3 (unabhängige Ereignisse)
Zwei Ereignisse heißen unabhängig, wenn gilt:
= ( )=1
= ( )
q1 = P (B jA1 ) = Wahrscheinlichkeit positiver Test bei Krankheit
q2 = P (B jA2 ) = Wahrscheinlichkeit positiver Test bei Gesundheit
ist P (A1 jB ), dh. die Wahrscheinlichkeit, dass jemand im falle eines
Gesucht
positiven Tests
tatsächlich krank ist. Dieser Wert kann mit der Formel von Bayes berechnet werden:
P (A1 jB ) =
P (A1 ) P (B jA1 )
i P (Ai ) P (B jAi )
P
1
= pq + pq
1 (1 p)q2
Der (wünschenswerte) Fall, dass diese Wahrscheinlichkeit möglichst nahe Eins ist, ist nur erreichbar,
p q2 im Nenner klein ist.
wenn der Ausdruck
(1
)
5
P (B )
= 0 Sinn macht.
P (A \ B ) = P (A) P (B )
Beispiel: Betrachte beim Würfeln mit zwei Würfeln die Ereignisse
“zweiter Würfel 6”. Es ist
A = “erster Würfel 6” und B =
1 6 = 1 und P (B ) = 6 1 = 1 und P (A \ B ) = 1
36 6
36 6
36
Folglich ist P (A \ B ) = P (A) P (B ) und die Ereignisse sind unabhängig.
P (A) =
Meist argumentiert man in der Praxis andersherum: die Ereignisse sind “intuitiv” unabhängig und
folglich ist P A \ B
P A P B . So würde man im obigen Beispiel der beiden Würfel ar-
(
)= ( ) ( )
6
Dalitz
CBM
FH Niederrhein
gumentieren, dass das Ergebnis des einen Würfels keinen Einfluss auf den anderen hat, die ErgebP 1. Wurf ist 6 nisse also unabhängig sind und folglich gilt: P 1. Wurf ist 6 und 2. Wurf ist 6
P 2. Wurf ist 6 .
(
(
)
)= (
)
Dalitz
CBM
0.14
0.12
n = 50
p = 0.25
0.1
1.3 Folgen unabhängiger Versuche und Binomialverteilung
0.08
Als weiteres Beispiel für Unabhängigkeit wollen wir den n-fachen Wurf einer Münze betrachten.
Jeder einzelne Wurf hat zwei mögliche Ergebnisse, “Kopf” oder “Zahl”, die wir mit “1” und “0”
identifizieren wollen. Die Wahrscheinlichkeit für “1” beim einzelnen Wurf sei p, so dass die für “0”
p q ist (wegen P A
P A , siehe Satz 1.1).
dann
0.06
1
( ) = 1
=:
( )
Was sind die Elementarereignisse beim n-fachen Münzwurf? Wenn wir die Ergebnisse der Würfe
hintereinanderschreiben erhalten wir eine Folge von n Nullen und Einsen. Dh. die Elementareregnisse
sind Vektoren der Dimension n mit Koeffizienten aus f ; g:
f ; gn z.B. ! ; ; ; : : : ; ; 2
= 0 1
= (0 1 1
01
1 0) Die Wahrscheinlichkeit einer Folge ! ergibt sich dann aufgrund der Unabhängigkeit der Einzelwürfe
als Produkt der Einzelwahrscheinlichkeiten, also:
P ! pk qn k mit k = Anzahl Einsen in !
(1)
( )=
Normalerweise interessiert nicht, bei genau welchen Würfen “Kopf” (“1”) kam, sondern nur wie oft
insgesamt Kopf kam, also die Gesamtzahl der Einsen, bzw. mit der Bezeichnung !
! 1 ; : : : ; !n
das Ereignis
n
X
Ek f! 2 j
!i k g
i=1
=(
=
)
=
Ek enthält also alle Wurffolgen ! mit k Einsen. Wir wollen nun P (Ek ) bestimmen.
P
Nach der Additivität von P ist P (Ek ) = !2Ek P (! ). Alle ! 2 Ek haben die gleiche, durch (1)
gegebene Wahrscheinlichkeit. Also ist
P (Ek ) = pk qn
k
X
!2Ek
1 = pk qn k jEk j
n = 100
p = 0.5
0.04
0.02
0
0
Anzahl Möglichkeiten, k Einsen
auf n Plätze zu verteilen
=
n
k
n k n k
P (Ek ) =
mit q = 1 p
(2)
pq
k
k kann hierbei die Werte 0; 1; : : : ; n annehmen, so dass durch (2) eine Wahrscheinlichkeitsverteilung
auf der Menge f0; 1; : : : ; ng definiert wird. Diese Wahrscheinlichkeitsverteilung heißt Binomialverteilung. Der Verlauf der Verteilung für verschiedene Werte von n und p ist in Abb. 1 zu sehen: das
Maximum der Verteilung liegt etwa bei np, für p = 0:5 ist die Verteilung symmetrisch um diesen
Wert, für P 6= 0:5 ist die Verteilung unsymmetrisch.
7
20
30
40
50
60
70
80
Abbildung 1: Binomialverteilung für
verschiedene Werte n und p.
Bei einer Geburt wird ein Junge oder ein Mädchen geboren. Die Wahrscheinlichkeit für k
Mädchen in einer Familie mit n Kindern berechnet sich also nach (2), wobei p die Wahrscheinlichkeit für ein Mädchen ist.
Bei der Übertragung eines digitalen Signals von n Bits gibt (2) die Wahrschinlichkeit dafür an,
dass k Bits falsch übertragen wurden, wenn p die Wahrscheinlichkeit für ein einzelnes Bit ist,
falsch übertragen zu werden.
Mathematische Programmpakete wie O CTAVE, M ATLAB oder S CILAB stellen üblicherweise mindestens zwei Funktionen zur Berechnung der Binomialverteilung bereit:
a) Die Probability Density Funktion (PDF) liefert Einzelwahrscheinlichkeiten:
binomial pdf
(k; n; p) = P (k)
b) Die Cumulative Distribution Funktion (CDF) liefert die Summe aller Wahrscheinlichkeiten unter einem gegebenen Wert x:
binomial cdf
(x; n; p) =
( ) = 1 ( )
= k!(nn! k)!
Der Ausdruck in Klammern wird “n über k ” gelesen und ist der Binomialkoeffizient. Die gesuchte
Wahrscheinlichkeit für k Einsen beim n-fachen Münzwurf ist also
10
Das Modell des “Münzwurfs” ist auf alle Situationen anwendbar, in denen ein Versuche mit zwei
möglichen Ausgängen mehrmals unabhängig wiederholt wird:
“jEk j” bezeichnet dabei die Anzahl der Elemente in der Menge Ek . Es ist
jEk j =
FH Niederrhein
X
kx
P (k)
Wegen P A
P A lässt sich damit natürlich auch die Summe aller Wahrscheinlichkeiten
über einem gegebenen Wert berechnen.
1.4 Zufallsvariablen
1.4.1
Definition und Beispiele
01
Beim n-fachen Münzwurf hatten wir jedem Elementarereignis ! 2 f ; gn eine relle Zahl zugeordnet (die Anzahl “Kopf”). Solch eine Zahl, die das Ergebnis eines Zufallsexperiments ist, nennt man
Zufallsvariable oder Zufallsgröße.
8
Dalitz
CBM
FH Niederrhein
Definition 1.4 (Zufallsvariable)
Eine Zufallsvariable (ZV) ist eine Funktion X
zuordnet.
: ! R, die jedem Elementarereignis eine relle Zahl
Eine ZV definiert eine Wahrschienlichkeitsverteilung auf R , indem sie einem reellen Zahlenbereich
die Wahrscheinlichkeit der Elementarereignisse zuordnet, die dorthin abgebildet werden, z.B.
P (X = x)
P (X x)
=
=
P (f! 2 mit X (!) = xg
P (f! 2 mit X (!) xg
nach R?
(X a) machen Sinn.
Welche Vorteile ergeben sich durch den Übergang von
R ist geordnet, d.h. Ausdrücke wie P
Dalitz
CBM
1; 2; 3; 4; 5; 6g
1
E (X ) = k P (X = k) = k = 3:5
6
k=1
k=1
Verallgemeinerung: Gleichverteilung auf f1; 2; : : : ; ng, d.h. P (X = k ) = 1=n für k =
1; 2; : : : ; n
n
n
X
1 1X
1 n(n + 1) = n + 1
E (X ) = k =
k= n
n
n
2
2
k=1
k=1
a) einfaches Würfeln: Gleichverteilung auf f
b) Binomialverteilung
E (X )
(1
0
p)n
k
für
p1 2
2
m=k
a
=
=
Beispiel a) ist eine diskrete Zufallsvariable: X kann nur endlich viele diskrete Werte annehmen. Diese
diskreten Werte haben Wahrscheinlichkeiten > .
Beispiel b) ist eine stetige Zufallsgröße: nur Intervalle haben eine Wahrscheinlichkeit > ; für jeden
.
einzlenen Wert a 2 R gilt dagegen P X a
0
Definition 1.5 (Erwartungswert)
Der Erwartungswert einer diskreten Zufallsvariable X ist die Summe über alle möglichen Werte der
ZV, gewichtet mit ihrer jeweiligen Wahrscheinlichkeit:
X
k2X (
)
n
X
k=0
k
n!
pk q n
k!(n k)!
k
(n 1)! pk 1 qn k
(
k
1)!(n k)!
k=1
n X
n 1 k 1 (n 1) (k 1)
p q
np
k 1
k=1
nX1 n 1 m (n 1) m
p q
np
np
m
m=0
{z
}
=1, da P (
) für (n 1)-fachen Münzwurf
np
Satz 1.3 Seien X und Y zwei Zufallsvariablen X; Y und 2 R. Dann gilt
E ( X ) = E (X )
E (X + Y ) = E (X ) + E (Y )
Mit anderen Worten: der Erwartungswert ist linear.
Erwartungswert und Varianz
E (X ) :=
=
Die Berechnung des Erwartungswertes der Binomialverteilung ist erheblich einfacher, wenn man den
folgenden Satz benutzt.
Wir beschränken uns im Folgenden zunächst auf diskrete Zufallsvariablen und werden erst später auf
stetige Verteilungen zurückkommen.
1.4.2
1
k P (X = k)
|
2 2
e (x ) =2 dx
0
( = )=0
k=0
n
X
=
k 2 f0; 1; : : : ; ng
b) Normal- oder Gaussverteilte Zufallsgröße
Z b
P (a X b) =
n
X
=
=
Beispiele für Zufallsvariablen:
( = )=
6
X
6
X
Anders als in einem beliebigen kann man in R rechnen. Das ermöglicht die Definition von
Mittelwert (“Erwartungswert”), mittlerem Fehler usw.
a) Binomialverteilte Zufallsgröße
( n
k
k p
P X k
sonst
FH Niederrhein
k P (X = k)
Diesen Satz wollen wir verwenden um den Erwartungswert der Binomialverteilung zu berechnen.
Betrachte dazu beim n-fachen Münzwurf die ZV’s
Yi = Ergebnis (0 oder 1) des i-ten Münzwurfs
Die Binomialverteilte ZV X des n-fachen Münzwurfs ist dann die Summe über die Yi
( = )
Da die Wahrscheinlichkeit P X
k ja in etwa der relativen Häufigkeit des Auftretens von k entspricht, entspricht der Erwartungswert also dem statistischen Mittelwert von X bei häufiger Wiederholung des Zufallsexperiments.
Beispiele:
9
X=
X
i = 1n Yi
)
Satz 1.3
E (X ) =
X
(Yi = 1) = p und P (Yi = 0) = 1
E (Yi ) = 1 p + 0 q = p für alle i = 1; : : : ; n
E (X ) = n E (Yi ) = np
Die Yi sind alle identisch verteilt mit P
)
)
i = 1n E (Yi )
10
p = q.
Dalitz
CBM
FH Niederrhein
Neben dem Erwartungswert interessiert auch die mittlere Abweichung davon. Die naheliegende DeE X wäre E jX j , also der Mittelwert über den
finition der mittleren Abweichung von Betrag aller Abweichungen. Weil der Betrag jedoch die in Berechnungen unangenehme Eigenschaft
hat, an der Stelle 0 nicht differenzierbar zu sein, verwendet man statt des Betrags das Quadrat der
Abweichung.
= ( )
Definition 1.6 (Varianz)
Sei X eine Zufallsvariable mit Erwartungswert quadratischen Abweicheung von :
V ar(X ) := E ((X
)2 ) =
X
k2X (
)
(
)
= E (X ). Die Varianz von X ist der Mittelwert der
)2 P (X = k)
(k
Dalitz
CBM
0.18
n = 20
n = 200
0.16
0.14
0.12
0.1
0.08
0.06
0.04
Die Wurzel aus der Varianz heißt Streuung oder Standardabweichung
p
(X ) := V ar(X )
Die Streuung (X ) ist die Größe, die bei Experimenten als “Messfehler” X angegeben wird. Es ist
also V ar (X ) = (X )2 .
0
=
=
E ((X
E (X 2 )
=
E (X 2 )
)2 ) = E (X 2
0
0.2
Beispiele:
1; 2; 3; 4; 5; 6g. Den Erwartungswert hatten wir be-
a) einfaches Würfeln: Gleichverteilung auf f
: berechnet.
reits oben als =35
6
X
6
X
1
V ar(X ) = (k )2 P (X = k) = (k 3:5)2 = 2:9167
6
k=1
k=1
b) einfacher Münzwurf: X kann 0 mit W’keit p und 1 mit W’keit q = 1 p annehmen. Erwartungswert hatten wir bereits als = p berechnet.
V ar(X ) = (1 p)2 p + (0 p)2 (1 p) = p p2 = pq
Anders als für den Erwartungswert gilt für die Varianz im allgemeinen V ar (X + Y ) 6= V ar (X ) +
V ar(Y ), wie man sich leicht am Beispiel X = Y mit = E (X ) klarmachen kann:
E (X + X ) = E (X ) + E (X ) = 2
) V ar(X + X ) = V ar(2X ) = E ((2X 2)2 ) = E (4(X )2 )
= 4E ((x )2 ) = 4V ar(X )
6= V ar(X ) + V ar(X )
0.4
0.6
0.8
V ar( X ) = 2 V ar(X )
für 2 R
V ar(X + Y ) = V ar(X ) + V ar(Y )
wenn X und Y unabhängig sind
Den Begriff der Unabhängigkeit haben wir bisher nur für Ereignisse kennengelernt. Was bedeutet
Unabhängikeit von Zufallsvariablen?
Definition 1.7 (unabhängige Zufallsvariablen)
Zwei Zufallsvariablen X und Y heißen unabhängig, wenn für alle x; y
P (X < x und Y < y) = P (X < x) P (Y < y)
2 R gilt
Bei diskreten ZV’s, d.h. ZV’s die nur nur endlich viele Werte annehmen können, ist das gleichbedeutend mit
P (X = x und Y
= y) = P (X = x) P (Y = y)
Als Anwendung von Satz 1.4 wollen wir die Varianz der Binomialverteilung berechnen und betrachten
wieder die unabhängigen Ausgange
Yi der einzelnen Münzwürfe i ; : : : ; n. Die binomialverteilte
Pn
ZV X ist dann wieder X
i=1 Yi und aus der Unabhängigkeit der Yi folgt dann mit Satz 1.4
n
n
X
X
V ar Yi
Yi
V ar X V ar
i=1
i=1
Die Yi sind alle identisch veteilt, haben also dieselbe Varianz des einfachen Münzwurfs, die wir oben
bereits als p
p berechnet hatten.
=1
=
( )=
(1
(
)=
)
V ar(X ) = n V ar(Yi ) = np(1
( )
p) = npq
Wie der folgende Satz zeigt, gibt es aber doch Fälle, in denen die Varianz sich additiv verhält.
11
1
Satz 1.4
2X + 2 )
2 E (1)
| {z }
= =P P (X )=1
2 = E (X 2 ) E 2 (X )
2 E| ({zX})
Abbildung 2:
Wahrscheinlichkeitsverteilung
P
von
Xi =n beim
:
Münzwurf mit p
für verschiedene Werte
von n
= 05
0.02
Aus der Linearität des Erwartungswerts (Satz 1.3) folgt folgende Darstellung der Varianz:
V ar(X )
FH Niederrhein
12
Dalitz
CBM
FH Niederrhein
Dalitz
CBM
FH Niederrhein
f(x)
1.5 Das schwache Gesetz der großen Zahlen
Fläche V
Beobachtung: bei häufiger Wiederholung desselben Zufallsexperiments liegt das arithmetische Mittel
der Versuchsergebnisse fast immer in der Nähe des Erwartungswerts. Das ist intuitiv einleuchtend,
denn beim Erwartungswert wird ja jedes mögliche Ergebnis mit seiner Wahrscheinlichkeit gewichtet,
also mit der relativen Häufigkeit seines Auftretens. Für den Münzwurf ist dies in Abb. 2 deutlich
sichtbar: mit zunehmendem n konzentriert sich die Verteilung immer mehr um den Erwartungswert.
y
Diese Tatsache wollen wir nun theoretisch als “schwaches Gesetz der großen Zahlen” beweisen. Als
Hilfsmittel benötigen wir dazu die Tschebyschew-Ungleichung.
Satz 1.5 (Tschebyscheff-Ungleichung) Für jede Zufallsvariable X mit V ar
P (jX
E (X )j ") Beweis:
V ar(X )
=
=
E (X
X
X
x2X (
)
x2X (
)
jx j"
V ar(X )
"2
für beliebiges " >
(X ) < 1 gilt
0
=
| {z }
x2X (
)
jx j" "2
Idee (vgl. Abb. 3): wenn man viele zufällige Punkte in der Fläche V auswählt, so entspricht der
Anteil der Punkte, die unterhalb der Kurve f x landen, etwa dem Anteil des Integrals über f an der
Gesamtfläche V .
()
Teilen durch "2 ergibt die Behauptung.
Wie können wir nun das wiederholte Durchführen desselben Zufallsexperiments modellieren? Indem
wir jedem Einzelexperiment eine eigene Zufallsvariable zuweisen; diese Zufallsvariablen sind dann
alle unabhängig und identisch verteilt. Auf den arithemtischen Mittelwert solcher Zufallsvariablen
bezieht sich der folgende Satz.
Satz 1.6 (Schwaches Gesetz der großen Zahlen) Seien Xi 2N unabhängige, identisch verteilte
Zufallsvariablen mit Erwartungswert und Varianz 2 . Dann gilt für jedes beliebige " > :
!
n
X
X
P
"
i
n!1
n
i=1
lim
1
0
=0
= n1 Pni=1 Xi gilt nach den Sätzen 1.3 und 1.4
P
P
P
=
E (Sn ) =
E n1 ni=1 Xi = n1 ni=1 E (Xi ) = n1 ni=1 P
P
P
2
V ar(Sn) = V ar n1 ni=1 Xi = n12 ni=1 V ar(Xi ) = n12 ni=1 2 =
n
Beweis: Für die Zufallsvariable Sn
Anwendung der Tschbyscheff-Ungleichung auf Sn ergibt
P (jSn j ") 2
n "2
n!1
! 0
Warum heißt dieses Gesetz “schwach”? Weil es noch ein “starkes” Gesetz der großen Zahlen gibt,
das das “schwache” Gesetz zur Folge hat (aber nicht umgekehrt). Dieses “starke” Gesetz ist nicht
13
Prinzip der
x Monte-Carlo Integration
b
Anwendung Monte-Carlo Integration
"2 P (jx j ")
( )
x
nur sehr viel schwerer zu beweisen, sondern es erfordert auch einen gewissen Scharfsinn, überhaupt
den Unterschied zwischen beiden Gesetzen zu verstehen. Der Unterschied wird in [3] verständlich
erläutert, der Beweis wird in [1] und [2] präsentiert.
)2 (mit der Bezeichnung = E (X ))
X
(x )2 P (x) (x )2 P (x)
"2 P (x)
Abbildung 3:
a
Zur mathematischen Modellierung betrachten wir zunächst die Auswahl eines zufälligen Punktes
(x; y) aus V . Für diesen Punkt ist
1 Z b f (x) dx =: p
P (f (x) y) =
V
a
Wir betrachten nun für einen zufälligen Punkt
X=
1
0
wenn f
sonst
(x) y
(3)
(x; y) die Zufallsvariable
Wegen Gleichung (3) steht der Erwartungswert von X in direktem Zusammenhang zum Integral über
f:
Z b
E (X ) = p
)
f (x) dx = V E (X )
a
Nach dem schwachen Gestz der großen Zahlen gilt dann für n-fache Wiederholung
n
X
X p für große n
n i=1 i
p
1 Pn
Was ist mit dem “Messfehler” von Y
V ar Y ?
n i=1 Xi , d.h. Y
n
X
X
n V ar X
V ar Y
V ar
n i=1 i
n2 | {z }
p(1 p)
1
( )=
(1
=
)= 1
14
( )=
( )
(Xi)ni=1
( )
(4)
Dalitz
CBM
r
) (Y ) =
FH Niederrhein
p(1 p)
n
Dalitz
CBM
FH Niederrhein
F(x)
(5)
1
Aus Formel (5) ziehen wir für die praktische Anwendung zwei Folgerungen:
Der Fehler wird kleiner, wenn p groß ist, d.h. wenn V von f gut ausgefüllt wird. Wir müssen
also V möglichst wenig größer als die Integralfläche wählen.
Der Fehler fällt mit
1=pn, also relativ langsam.
0.5
Leider hat die Formel (5) für den Messfehler einen Schönheitsfehler: die unbekannte Größe p wird zur
Berechnung des Fehlers benötigt! Wir brauchen aber eine Schätzung des Fehlers aus den gemessenen
Daten. Dazu können wir die quadratischen Abweichungen vom gemessenen Mittelwert aufaddieren
(vgl. Physikpraktikum).
Gemessener Mittelwert für p:
n
X
p
X
n i=1 i
Arithmetischer Mittelwert der gemessenen Abweichungen:
n
n
X
X
V ar X Xi p 2
X2
n i=1
n i=1 i
n
n
X
X
Xi 2
X p2
p
n i=1
n i=1 i
| {z }
p^
1
^= 1
1
( )
^) = 1
(
(6)
2Xi p^ + p^2 n
X
i=1
Xi 2
!
(Y )
n
=1
=^
=
^(1 ^)
Als Zusammenfassung von (3) und (7) ergibt als Schätzung für den Integralwert
Z b
a
f (x) dx
V n1 Xi V i=1
n
X
s
1 Pn
2
n i=1 Xi
n
2
1 Pn
n i=1 Xi
(8)
wobei “” im Sinne eines Messfehlers (Streuung) zu verstehen ist, nicht im Sinne maximaler Obergrenzen.
Verteilungsfunktion und Dichte
F:
F wächst monoton mit 0 F (x) 1 und limx! 1 F (x) = 0 und limx!1 F (x) = 1.
An einer Stelle a mit P (X = a) > 0 hat F einen Sprung der Höhe P (a).
Die Wahrscheinlichkeitsverteilung ist durch die Verteilungsfunktion vollständig bestimmt. Z.B.
ist
P (a < X b) = P (X b) P (X a) = F (b) F (a)
Ein wichtiger Spezialfall ist der einer stetigen Zufallsvariablen. Bei einer stetigen Zufallsvariablen
lässt sich F darstellen als Integral
Z x
F (x) =
1
f (x0) dx0
für irgendeine positive Funktion
die Verteilungsfunktion F
f (x)
0 mit
R1
1 f (x) dx
= 1 (Normiertheit). In diesem Fall ist
a) stetig auf ganz R
b) stückweise differenzierbar
( )=
()
d
Die positive, normierte Funktion f x
dx F x heißt Wahrscheinlichkeitsdichte. Wir können die
Dichte so auffassen, dass f x dx die Wahrscheinlichkeit für das Intervall x; x dx angibt.
()
15
Abbildung 4: Verteilungsfunktion der Augenzahl beim Würfeln
6
Abb. 4 zeigt die Verteilungsfunktion für X = “Augenzahl beim einfachen Würfeln”.
(7)
( )
5
F (x) = P (X x)
p^2
In unserem Fall kann Xi nur die Werte 0 und 1 annehmen, so dass gilt Xi Xi 2 und somit
r
n
n
X
X
p
p
Xi 2
Xi p ) Y n i=1
n i=1
n
Dieses Ergebnis hätten wir auch direkt durch Einsetzen der Schätzung (6) für p in die exakte Formel
für die Streuung (5) erhalten.
1
4
Eigenschaften jeder Verteilungsfunktion
1 Pn Xi 2 p^2
i=1
n
3
Eine reellwertige Zufallsvariable X definiert eine Verteilungsfunktion (cumulative distribution function, CDF)
Einsetzen in (5) ergibt
s
2
1.6 Wahrscheinlichkeitsdichten
1.6.1
+^ = n1
2^1
=1
x
16
(
+ )
Dalitz
CBM
0
Dalitz
1.6.2
f(x)
1
FH Niederrhein
CBM
FH Niederrhein
Erwartungswert und Varianz
P(c<x<d)
Die Definition des Erwartungswerts für diskrete Zufallsvariablen über eine Summe können wir für
stetige Zufallsvariablen nicht verwenden. Wir müssen statt dessen die Summen durch Integrale ersetzen.
000
111
111
000
000
111
000
111
000
111
000
111
000
111
000
111
000
111
000
111
000
111
000
111
000
111
000
111
000
111
000
111
000
111
000
111
000
111
000
111
c
x
d
1
(0 1)
Abbildung 5: Gleichverteilung auf ; :
Die Wahrscheinlichkeit eines Intervalls entspricht seiner Länge.
Zur Verteilungsfunktion in Abb. 4 gibt es also keine Wahrscheinlichkeitsdichte: die Verteilungsfunktion ist nämlich nicht stetig. Es gibt aber andere, häufig auftretende Beispiele für stetige Wahrscheinlichkeitsverteilungen:
(0; 1) (siehe Abb. 5)
8
< 0 für x 0
1
für 0 < x < 1
f (x) = 0 sonst
F (x) = x für 0 < x < 1
:
1 für x 1
Bei dieser Gleichverteilung ist jeder Wert in (0; 1) gleichwahrscheinlich. Diese Verteilung lässt
sich auch auf ein beliebiges IntervallR (a; b) statt (0; 1) verallgemeinern. In diesem Fall ergibt
sich aus der Normierungsbedingung f (x) dx = 1 der Normierungsfaktor 1=(b a):
a) Gleichverteilung auf dem Intervall
Definition 1.8 (Erwartungswert und Varianz)
Erwartungswert und Varianz einer stetigen Zufallsvariablen
gegeben durch
Z
1
E (X )
:=
V ar(X )
:=
E (X
=
E (X 2 ) 2 =
f (x) =
1
für a < x < b
b a
0
sonst
b) Normal- oder Gaußverteilung mit Erwartungswert und Varianz 2 :
1 e (x )2 =22
Dichtefunktion: ';2 (x) = p
22
Z x
';2 (x0 ) dx0
Verteilungsfunktion: ;2 (x) =
)2
1
( )= 2
( )= 2
=1
()
;2 (x) = 1 12 erfc xp 2 = 21 + 12 erf xp 2
2
2
O CTAVE hat darüberhinaus noch die Funktion normal cdf für die CDF (Verteilungsfunktion)
der Normalverteilung.
17
wobei bei der Varianz die Abkürzung =
Z
Z
1
1
(x
1
f
ist
)2 f (x) dx
x2 f (x) dx 2
1
= E (X ) verwendet wurde.
Als Beispiele wollen wir Erwartungswert und Varianz der oben angegebenen stetigen Verteilungen
berechnen:
a) Gleichverteilte Zufallsvariable X auf
Z b
x
E (X )
=
E (X 2 )
=
V ar(X )
=
(a; b)
b+a
dx =
b a
2
Z b
x2
b3 a3
dx =
3(b a)
a b a
(b a)2
2
2
E (X ) E (X ) =
a
12
b) Normalverteilte Zufallsvariable X zu Parametern
ist die Substitution y x nützlich.
Die Normalverteilung tritt in der Praxis sehr häufig auf; den Grund dafür werden wir später
kennen lernen (Zentraler Grenzwertsatz). Das Integral in der Verteilungsfunktion lässt sich über
die Errorfunktionen erf und erfc [4] ausdrücken:
Z x
Z 1
p e t2 dt erfc x p e t2 dt
erf x
erf x
0
x
mit Wahrscheinlichkeitsdichte
x f (x) dx
1
(
X
und 2 . Bei der Berechnung der Integrale
=
1 Z 1x e (x )2 =22 dx = p 1 Z 1(y + ) e y2 =22 dy
E (X ) = p 2
2 Z 11
22 Z 11
1
1
2 =22
2 2
y
dy + p 2
e y =2 dy
= p 2 ye
2 | 1 {z
2
1
|
}
{z
}
= 1 Z 1(x )2 e (x )2 =22 dx
V ar(X ) = p 2
2 Z 11
= p 1 2 y2 e y2 =22 dy = 2
2 1
= 0, da Integrand ungerade
18
=1
Dalitz
CBM
FH Niederrhein
Halbleiter
Gitterschwingungen
(Phononen)
( )=
()
Abbildung 6: Bewegung eines Ladungsträgers
der Ladung q und Masse m im Halbleiter
Anwendung: Driftgeschwindigkeit der Ladungsträger im Halbleiter
Betrachten wir einen Ladungsträger (Elektron, “Loch”) der Ladung q und der Masse m (“effektive”
Masse des Quasiteilchens) in einem Halbleiter, den wir der Einfachheit halber als eindimensional
annehmen (Abb. 6). Die Bewegung wird von verschiedenen Faktoren beeinflusst:
a) Beschleunigung durch ein äußeres elektrisches Feld.
d) Wechselwirkung mit anderen Ladungsträgern durch Stöße, deren induziertes elektrisches Feld
und das Paulische Ausschlussprinzip.
Die Gesamtheit der Ladungsträger wird geeigneterweise durch eine Wahrscheinlichkeitsverteilung
beschrieben, die angibt mit welcher Wahrscheinlichkeit ein Teilchen zur Zeit t am Ort x mit der
Geschwindigkeit v ist. Es ist also
=
Bruchteil Teilchen, die zur Zeit t an einem Ort in
mit einer Geschwindigkeit
(v; v + dv) sind
(x; x + dx)
Wenn wir annehmen, dass diese Verteilung zeitunabhängig (“stationär”) und homogen (für alle Orte
nur noch von der Geschwindigkeit v abhängig und somit eine Wahrscheinleichkeitsdichte im Sinne dieses Kapitels. Der Erwartungswert dieser Verteilung ist die mittlere Geschwindigkeit oder Driftgeschwindigkeit hv i der Ladungsträger.
1
1
v f (v) dv
(9)
()
Wir können also bei bekanntem f v die Driftgeschwindigkeit und damit auch die Stromdichte (hv i
mal Ladungsdichte) berechnen. Aber wie kommt man auf die Wahrscheinlichkeitsverteilung f v ?
()
()
Antwort: die Funktion f v genügt der Boltzmanngleichung. Unter der Annahme einer geringen Ladungsträgerdichte (typisch für Halbleiter, nicht für Leiter!) können die Wechselwirkungen der Ladunsgträger untereinander (siehe oben c) und d)) vernachlässigt werden und die Boltzmanngleichung
lautet in diesem Fall:
qE f (v)
m v
= M (v)
|
Z
1
1
f (v0 ) K (v; v0 ) dv0
{z
Streuung v 0
}
!v
19
)
=: 1
qE f (v)
m v
Z 1
= M (v) 1 f (v0) dv0
1 Z 1 M (v0 ) dv0
f (v)
1
|
()
1
{z
(11)
}
=1
Diese Gleichung bestimmt f v nur bis auf einen frei wählbaren multiplikativen Faktor (Warum?),
den wir so wählen, dass f als Wahrscheinlichkeitsdichte normiert ist:
Z
1
1
f (v) dv = 1
f (v)
v
(12)
f (v)
|
Z
1
1
M (v0 ) K (v0 ; v) dv0
{z
Streuung v
! v0
}
(10)
+ f (v) =
M (v)
mit
=
m
qE
(13)
Die allgemeine Lösung dieser Gleichung kann in einer mathematischen Formelsammlung (z.B. [5])
nachgeschlagen werden:
Z v
0
f v e v C
M v0 ev dv0
( )=
+
( )
0
wobei C eine frei wählbare Konstante ist. Aufgrund der Normierungsbedingung (12) muss insbesondere f 1
sein, was wegen des Vorfaktors e v nur mit der Wahl
(
x gleich) ist, dann ist f
Z
(
In der Relaxationszeit-Näherung nimmt die Boltzmanngleichung die Form an
c) Stöße mit Störstellen (Dotierung) im Kristallgitter.
hvi =
2
Damit nimmt die Gleichung (11), die Form einer einfachen linearen Differentialgleichung erster Ordnung an:
b) Stöße mit den Schwingungen des Kristallgitters.
f (t; x; v) dx dv
FH Niederrhein
p
m= kT e mv2 =2kT ist die Maxwellverteilung, die ohne äußeres Feld E
Die Funktion M v
als Gleichgewichtsverteilung angenommen wird. Die Funktion K v; v 0 beschreibt die Stöße der Ladungsträger mit den Gitterschwingungen. Im einfachsten Fall (“Relaxationszeit-Näherung”) setzt man
K v; v0
onst:
= . heißt Relaxationszeit, weil sie die Einheit einer Zeit hat und ein Maß
dafür ist, wie schnell eine Anfangsverteilung ohne äußeres Feld E gegen die Gleichgewichtsverteilung
M v strebt.
v
1.6.3
CBM
()=
Kraft F = q E
durch äußeres Feld E
q, m
Dalitz
)=0
Z 0
0
C=
M (v0 ) ev dv0
1
erreichbar ist. Damit ergibt sich als Lösung von (13)
Z v
0
f v e v
M v0 ev dv0
( )=
( )
1
(14)
Abb. 7 zeigt diese Funktion für verschiedene Werte von E . Deutlich ist zu erkennen, dass mehr Ladungsträger eine höhere Geschwindigkeit haben, wenn das Feld größer ist.
Wie sich mit Hilfe einer partiellen Integration nachrechnen lässt, erfüllt die Lösung (14) die Normierungsbedingung (12):
Z 1
Z v
Z 1
0
f v dv
M v0 ev dv0 dv
e v
1
()
=
1
=
e
|
| {z }
v
v e
Z v
v
1
1
( )
0
1
M (v0 ) ev dv0 {z
=0
20
1}
+
Z
1
|
1
M (v0 ) dv0
{z
=1
}
Dalitz
CBM
FH Niederrhein
0.4
E1
E2 > E1
0.35
0.3
0.25
0.2
0.15
0.1
Abbildung 7: Geschwindigkeitsverteilung (14) für zwei verschiedene
Werte des elektrischen Feldes E1 und
0.05
0
−2
0
2
4
6
8
10
E2
()
Nachdem wir die Geschwindigkeitsverteilung f v der Ladungsträger bestimmt haben, können wir
nun die Driftgeschwindigkeit (9) als Erwartungswert von v bestimmen (die Randterme verschwinden
):
bei der partiellen Integration wegen f 1
Z 1
Z 1
Z v
0
hvi
v f v dv
v e v
M v0 ev dv0 dv
(
=
=
Z
1
1
|
1
()
e
= 1 =
v
=
Z v
)=0
1
0
| {z }
v
v e
M (v0 ) ev dv0 dv
1{z
}
= 1 R 11 f (v) dv= 1
( )
1
+
Z
1
|
1
v M (v) dv
{z
}
=0, weil Integrand ungerade
qE
m
Die Driftgeschwindigkeit und damit auch der Strom (= Driftgeschwindigkeit mal Ladungsdichte) ist
also proportional zum angelegten elektrischen Feld E . Das ist nichts anderes als das Ohmsche Gesetz.
Experimentelle Ergebnisse haben gezeigt, dass das Ohmsche Gestz in Halbleitern für große
Feldstärken E nicht mehr gilt, sondern dass die Driftgeschwindigkeit gegen einen Sättigungswert
strebt (velocity saturation). In unserer einfachen Relaxationszeit-Näherung (11) für die Ladungsträger-Gitter Wechselwirkung lässt sich dieses Phänomen nicht erklären, sondern man muss komplexere Modelle für die Stoßwechselwirkung K v; v 0 in (10) verwenden.
(
CBM
y
1111111111111
0000000000000
0000000000000
1111111111111
0000000000000
1111111111111
x+y ≤ z
z
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
z
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
Das Faltungsintegral
FH Niederrhein
x
Abbildung 8: Die Fläche x
() ()
(
)=
( )
1
1
bzw. für eine beliebige Fläche A in der (X; Y )-Ebene
ZZ
P ((X; Y ) 2 A) =
f (x) g(y) dx dy
Für stetige Zufallsvariablen mit Dichten f x und g x bedeutet das2
Z x
Z y
Z x
P X < x und Y < y
dx0 f x0
dy0 g y0
( )=
dx0
1
Z y
+y z
dy0 f (x0 ) g(y0 )
1
A
Es ergibt sich also bei zwei unabhängigen Zufallsvariablen die zweidimensionale Wahrscheinlichkeitsdichte f x g y für den Vektor X; Y .
() ()
(
)
()
= +
()
()
H (z ) = P (Z z ) = P (X + Y z )
Das ist das Integral von f (x) g (y ) über die Fläche x + y z (siehe Abb. 8).
Frage: Was ist die Wahrscheinlichkeitsdichte h z der Summe Z X Y ? Dazu wollen wir zunächst
die Verteilungsfunktion H z bestimmen und dann h z durch Ableiten gewinnen.
Wenn wir bei der
Berechnung dieses Integrals die Variable y festhalten und x variieren, dann muss x z y sein. Das
Doppelintegral ergibt sich also als
Z 1
Z z y
H (z )
)
1.7 Summen unabhängiger Zufallsvariablen
1.7.1
Dalitz
=
=
P (X + Y
Z
1
z) =
dy g(y)
1
) h(z) = H 0(z) =
Z
Z z
1
dy g(y)
1
|
dx f (x)
1 {z
}
1
1
= x + y)
1
dw
dy g(y) f (w
(substituiere w
Z z
Z
dw f (w y)
1
=
y)
dy g(y) f (z y)
1
Das zuletzt erhaltene Integral heißt Faltung von f und g .
Erinnerung: laut Definition 1.7 heißen zwei Zufallsvariablen unabhängig, wenn
P (X < x und Y < y) = P (X < x) P (Y < y)
Definition 1.9 (Faltung von Funktionen)
Die Faltung zweier Funktionen f und g , symbolisch f
f g (x) :=
Z
1
g, ist definiert als das Integral
g(y) f (x y) dy
1
R
R
2
Die Notationen f (x) dx und dx f (x) sind gleichbedeutend. Die letztere Form ist für Mehrfachintegrale besser
geeignet, weil man leichter erkennt wleches Integralzeichen sich auf welche Integrationsvariable bezieht.
21
22
Dalitz
CBM
FH Niederrhein
CBM
FH Niederrhein
Satz 1.8 Die Faltung hat folgende Eigenschaften:
f
1
Dalitz
f g =gf
Kommutativität:
f*f
f (g h) = (f g) h
Assoziativität:
0.8
Z
Normerhaltung:
1
dz f g (z ) =
Z
1
0.6
1
dx f (x)
Z
1
1
dx g(x)
1
0
Oft betrachtet man Funktionen, die nur für x > leben (z.B. Einschaltvorgänge bei linearen Systemen), d.h. ( ist die Heavysidesche Sprungfunktion):
0.4
f (x) = (x) f (x)
0.2
Abbildung 9: Gleichverteilung auf
: ; : und deren Faltung mit
sich selbst
( 0 5 0 5)
0
−1
−0.5
0
0.5
1
Satz 1.7 X und Y seien unabhängige Zufallsvariablen mit Wahrscheinlichkeitsdichten
g y . Dann ist die Zufallsvariable Z X Y verteilt zur Dichte h f g.
()
= +
=
f (x)
f (x) = g(x) =
h(z )
=
=
Z
( 0:5; 0:5) gleichverteilter Zufallsvariablen:
0:5 < x < 0:5
1
0
für
sonst
1
=
dx f (x) g(z{z x})
|
lebt auf (z 0:5; z + 0:5)
0
für jz j > 1
min(0:5;z +0:5)
für jz j 1
y
max( 0:5;z 0:5)
1
8
<
:
z
9
=
;
dx f (x)
|{z}
lebt auf ( 0:5; +0:5)
0:5
=
0
1 jzj
für jz j >
für jz j 1
1
Das Ergebnis ist in Abb. 9 dargestellt. An diesem Beispiel sehen wir bereits zwei Eigenschaften der
Faltung:
Selbst in einfachsten Fällen ist die direkte Berechnung des Faltungsintegral ziemlich kompliziert. Wir werden im nächsten Kapitel mit der Fouriertransformation eine Methode kennenlernen, wie die Faltung auf einfache Multiplikation zurückgeführt werden kann.
Die Faltung führt zu einer “Glättung” der beteiligten Funktionen. Im obigen Beispiel ist die
Wahrscheinlichkeitsdichte nicht einmal steitig, ihre Faltung mit sich selber aber sehr wohl.
Wenn wir sie nocheinmal mit sich selber falten wird sie sogar einmal stetig differenzierbar
usw.
Da die Faltung laut Satz 1.7 die Summe von zwei Zufallsvariablen beschreibt, muss die Faltung wegen
X Y Y X kommutativ und wegen X YR Z
X Y
Z assoziativ sein. Ferner
gelten, wenn f und g normiert sind.
muss für die Faltung als Wahrscheinlichkeitsdichte f g
Tatsächlich gilt für die Faltung
+ = +
+( + ) = ( + )+
=1
23
1.7.2
0
1
f g (x) =
Z
für x <
für x 0
0
Z x
1
(y) f (y) (x y) g(x y) dy = dy f (y) g(x y)
| {z }
1|{z}
0
y0
yx
Die diskrete Faltung
Bisher haben wir die Summe stetiger Zufallsvariablen betrachtet. Was ist mit der Summe diskreter
Zufallsvariablen? Seien X; Y diskrete Zufallsvariablen mit P X
x
p x und P Y y
q y . Dann ist X Y verteilt mit
()
Z z +0:5
In dem Fall nimmt die Faltung die Form an
und
Beispiel: Summe zweier auf dem Intervall
(x) =
mit
+
P (X + Y
( = )= ( )
= z) =
X
x2X (
)
( = )=
p(x) q(z x)
Wichtiger Spezialfall:
X; Y nehmen nur ganzzahlige Werte (d.h. Werte aus Z an. Dann sind p und q
P
Folgen mit n2Z p n
und X Y ist verteilt zur diskreten Faltung der Folgen p und q :
( )=1
+
Definition 1.10 (diskrete Faltung)
Die Faltung zweier Folgen p und q , symbolisch p q , ist definiert als das die Summe
p q (n) :=
1
X
k=
1
p(k) q(n k)
Beispiel: Augensumme beim n-fachen Würfeln. Die Verteilung beim einfachen Würfeln ist gegeben
durch
p(k) =
1=6
0
1
für k
sonst
6
(15)
Somit ist die Wahrscheinlichkeit für die Summe k beim n-fachen Würfeln gegeben durch
P (Summe = k) = |p p {z: : : p} (k)
n-mal
24
(16)
Dalitz
CBM
FH Niederrhein
Dalitz
CBM
FH Niederrhein
1
f ( x ) g ( y − x ) bei festem y
gefaltete Gleichverteilung
Normalverteilung
0.8
x1
111
000
000
111
000
111
000
111
000
111
000
111
111
000
000
111
000
111
000
111
000
111
000
111
000
111
000
111
000
111
000
111
111
000
000
111
000
111
000
111
000
111
000
111
000
111
000
111
000
111
δ
111
000
000
111
000
111
000
111
000
111
000
111
000
111
000
111
Abbildung 10: Approximation
des Integrals über f x g y x
bei festem y durch eine Riemannsumme. Der Abstand zwischen
zwei Stützstellen sei Æ
xi+1
xi . Die Stützstellen sind in der Intervallmitte gewählt, um den Fehler zu minimieren.
() (
111
000
000
111
000
111
000
111
000
111
)
=
xN
Numerische Programme bieten normalerweise eine Funktion zum Falten zweier Vektoren an (O CTA VE: fftconv, S CILAB : convol). Diese Funktionen sind für
fftconv ; definiert durch
zi =
i
X
j =1
z=
x j yi
j
für i
(x y)
= 1; : : : ; length(x) + length(y)
n =2
0.6
0.4
n =7
0.2
0
0
P1 = 1/6 * ones(1,6);
P = fftconv(P1,P1);
P = fftconv(P1,P);
## beachte, dass Ergebnisvektor mit Index Eins beginnt,
## dieser Index aber der Summe 1+1+1 entspricht
data=[3:length(P)+2;P];
gplot data’ with impulses;
5
6
(0 1)
= +(
2)
1)
= xn + ym = x1 + y1 + (n +
(0; 1) mit sich selbst mithilfe von
## bestimme Funktion an Stützstellen in Intervallmitten
N = 20;
dx = 1/N;
x = [dx/2:dx:1-dx/2];
fdiskret = f(x);
## berechne Faltung und deren Abtaststellen
z = x(1)+x(1):dx:x(N)+x(N);
fgefaltet = dx*fftconv(fdiskret, fdiskret);
data = [z; fgefaltet];
gplot data’ with impulses;
Die diskrete Faltung kann als Approximation der stetigen Faltung aufgefasst werden, indem man sie
als Riemann-Summe des Integrals interpretiert (siehe Abb. 10):
i=1
4
## Dichte der Gleichverteilung auf (0,1)
## Funktion ist vektorisiert (auch Inputvektor x möglich),
## da Operator ’>=’ und ’<=’ elementweise vergleichen
function [y] = f(x)
y = (x >= 0) & (x <= 1);
endfunction
=3
N
X
3
Beispiel: Berechnung der Faltung der stetigen Gleichverteilung auf
O CTAVE:
=0
f (x) g(y x) dx Æ
2
Die Anzahl k ergibt sich durch Betrachtung des maximalen z -Werts zk
Æ.
Æ und Vergleich dises Ausdrucks mit zk z1 k
m
Diese Formel ergibt sich direkt durch Anwendungen der Definition 1.10 auf endliche Folgen (= Vekimmer zu Null,
toren), die für Indizes 0 und n Null sind. z1 ergibt sich dabei wegen y0
weshalb dieser erste Eintrag im Ergebnis der O CTAVE-Funktion fftconv weggelassen ist und somit der
Ergebnisvektor um Eins nach links verschoben ist. Auch die Verteilung (15) ist solch eine endliche
Folge, so dass sich Verteilung (16) z.B. mit O CTAVE für n
wie folgt berechnen und darstellen
lässt:
Z
1
Abbildung 11:
Vergleich der nfachen Faltung der Gleichverteilung
auf ; mit der Normalverteilung.
f (xi ) g(y xi )
An welchen Stellen y liefert die Approximation durch die diskrete Faltung nun die Funktionswerte?
Dazu erinnern wir uns, dass die Faltung ja die Summe zweier Zufallsvariablen beschreibt. Wenn also
x1 ; x2 ; : : : ; xn = x1 + (n 1) Æ
y1 ; y2 ; : : : ; ym = y1 + (m 1) Æ
dann liefert die diskrete Faltung der Abtastvektoren Æ (f g ) die Werte an den k Abtaststellen
z1 = x1 + y1 ; z2 ; : : : ; zk = z1 + (k 1) Æ mit k = n + m 1
f
g
abgetastet wird an den n Stellen
abgetastet wird an den m Stellen
25
1.7.3
Der zentrale Grenzwertsatz
Wenn man auf diese Weise die n-fache Faltung der Gleichverteilung mit sich selbst berechnet, dann
macht man die erstaunliche Beobachtung, dass das Ergebnis sich immer mehr der Normalverteilung
zum entsprechenden Mittelwert und Varianz annähert (siehe Abb. 11). Tatsächlich gilt dieses Phänomen nicht nur für die Gleichverteilung, sondern für jede stetige oder diskrete Verteilung mit endlicher
Varianz.
26
Dalitz
CBM
( )
FH Niederrhein
Satz 1.9 (Zentraler Grenzwertsatz) Xi i2N seien unabhängige, identisch verteilte Zufallsvariablen
E Xi und endlicher Varianz < 2 V ar Xi < 1. Dann ist ihre Summe
mit Mittelwert
Pn
2
Yn
X
i=1 i für große n annähernd normalverteilt zum Mittelwert n und Varianz n , d.h. für
alle x gilt
!
Z x
n
X
(x0 n)2 =2n2 dx0 p
e
X
x
P
i
2
n!1 n 1
i=1
= ( )
=
lim
2
0
=
( )
1
=0
Anwendung: Approximation der Binomialverteilung
Dalitz
CBM
Betrachten wir für ein Zahlenbeispiel wieder den n-fachen Münzwurf. In diesem Fall ist
2 p q und
=
)
= 1000
% = E (jXi j3 ) = j1 pj3 p + j0 pj3 q = pq(q2 + p2 )
0:7975
q 2 + p2 )
p % = 0:7975(
ppqn
3 n
und p = 0:5 ergibt sich die Fehlerabschätzung dann zu 0:025219.
) =
1
2npq
=
1
(
)
Da die Binomialverteilung nur ganzzahlige Werte annimmt, erhält man bessere Approximationswer: statt x
te, wenn auf der rechten Seite von (17) die Normalverteilungsfunktion an der Stelle x
genommen wird (warum?). Die folgende Tabelle gibt ein paar mit den O CTAVE-Funktionen binomi: berechnete Zahlenwerte:
al cdf und normal cdf für p
+05
=05
Wert n
100
1000
10000
Wert x
45
510
4990
binomial cdf(x; n; p)
0.18410
0.74667
0.42466
normal cdf(x; np; npq )
0.15866
0.73646
0.42074
+05
normal cdf(x
: ; np; npq)
0.18406
0.74668
0.42465
Aufgrund des zentralen Grenzwertsatzes kann man in vielen Situationen von normalverteilten Zufallsgrößen ausgehen. Z.B. folgt aus dem zentralen Grenzwertsatz, dass der “gewürfelte” Integralwert in
der Monte-Carlo Integration in Gleichung (8) annähernd normalverteilt ist und somit der Messfehler
in Gleichung (8) im Sinne der Standardabweichung der Normalverteilung zu verstehen ist.
Eine Abschätzung des Fehlers, den man bei der Approximation durch die Normalverteilung macht,
liefert der Satz von Berry-Esseen. Ähnlich wie die Tschebyscheff-Ungleichung ist diese Abschätzung
allerdings für die meisten praktischen Anwendungen viel zu grob. Trotzdem ist der Satz außerordentlich bemerkenswert, weil er kein Grenzwertsatz ist, sondern eine globale Abschätzung des Fehlers für
beliebige Werte von n und x liefert.
( )
=
Satz 1.10 (Satz von Berry-Esseen) Es seien Xi i2N unabhängige, identisch verteilte ZufallsvariaE Xi , Varianz 2
V ar Xi und mittlerer kubischer Abweichung
blen mit Mittelwert 3
% E jXi j . Dann gilt für alle x und n
!
Z x
n
X
:
%
0 n)2 =2n2 0 (
x
p 2 e
dx < 3 p
Xi x
P
n
n
1
i=1
= (
)
= ( )
2
1
( )
0 7975
27
=
p,
Für n
Wenn die betrachteten Wahrscheinlichkeiten nahe bei Eins sind, dann ist diese Abschätzung brauchbar, für kleine
Wahrscheinlichkeiten jedoch nicht.
Die Anzahl “Kopf” bei n Münzwürfen ist die Summe über unabhängige Einzelergebnisse. Wir sind
also in der Situation des zentralen Grenzwertsatzes und es muss für große n gelten
x X
n k n k
pq
P Yn x
k
k=0
Z x
0
2
p
normal cdf x; np; npq
(17)
e (x np) =2npq dx0
(
FH Niederrhein
28
Dalitz
CBM
a)
Original
−Raum
Bild
−Raum
komplizierte
Gleichung
FH Niederrhein
b)
Lösung f
g
f
Dalitz
CBM
ebene Welle mit
Wellenzahl k = 2 π / λ
u
x
einfache
Gleichung
Lösung F
F
Filter−
Operation
FH Niederrhein
R
G
y
v
Abbildung 12: Anwendungsgebiete von Integraltransformationen.
Blendenebene
Schirmebene
2 Fouriertransformation
Abbildung 13: Beugungsbild einer ebenen Welle, die auf eine Blende trift.
2.1 Integraltransformationen und Fouriertransformation
Definition 2.1 (Integraltransformation)
Eine Integraltransformation bildet eine Originalfunktion
F (y) =
Z
1
f auf eine Bildfunktion F
ab mittels
K (x; y) f (x) dx
Wir werden im Folgenden sehen, dass die Fouriertransformation eine Reihe nützlicher rechentechnischer Eigenschaften hat. Darüberhinaus hat sie aber auch in vielen physikalischen Situationen eine
anschauliche Bedeutung:
a) In der Signalverarbeitung wird das Fourierintegral als Überlagerung verschiedener “reiner
Schwingungen” mit unterschiedlichen Frequenzen ! aufgefasst:
1
K (x; y) heißt Kern der Transformation.
F (t) =
Wichtige Beispiele für Integraltransformationen sind
Fouriertransformation: K x; y e ixy
( )=
Laplacetransformation: K (x; y) = (x) e xy
wobei i die imaginäre Einheit (i2 = 1) und (x) die Heavysidesche Sprungfunktion ist:
x0
(x) = 01 für
sonst
Die zwei typischen Anwendungsgebiete von Integraltransformationen sind schematisch in Abb. 12
dargestellt:
a) Komplizierte Operationen im Originalraum können zu einfachen Operationen im Bildraum werden. Z.B. überführt die Fouriertransformation die Faltung in eine einfache Multiplikation oder
die Ableitung in Multiplikation mit der Variablen. Dies ermöglicht z.B. eine einfachere Behandlung partieller Differentialgleichungen.
b) Manipulationen im Bildraum nebst anschließender Rücktransformation sind zur Filterung
möglich. Z.B. kann man so bestimmte Frequenzen und Nebengeräusche in Audio-Signalen unterdrücken.
Z
1
f (!) e
1
i!t d!
Man spricht deshalb auch vom Übergang von der “Frequenzdarstellung” zur “Zeitdarstellung”
und umgekehrt.
b) In der Quantenmechanik erfolgt durch die Fouriertransformation der Wechsel von der Ortsdarstellung zur Impulsdarstellung.
c) In der Optik beschreibt die Fouriertransformation die Beugung einer ebenen Welle an einer
Blende (siehe Abb. 13) in der “Fraunhoferschen Näherung” [11]. Der Zusammenhang zwischen
der komplexen Wellenamplitude in der Blendenebene f x; y und der komplexen Wellenampli= ist die Wellenzahl)
tude in der Schirmebene F u; v ist gegeben durch (k
ZZ
ikR
e
F u; v f x; y e ik(ux+vy) dx dy
( )
=2
( )
( )
iR
( )
Blende
( )
Definition 2.2 (Fouriertransformation)
Die Fouriertransformierte F einer Funktion f ist definiert durch
F (y) =
Z
1
f (x) e
1
ixy dx
Sie existiert für jede Funktion f mit
=: F (f )(y)
R1
1 jf (x)j dx < 1.
29
+
( )
Dies ist die zweidimensionale Fouriertransformation (beachte, dass ux vy nichts anderes
ist als das Skalarprodukt der Vektoren u; v und x; y ). Das sichtbare Beugungsbild in der
Schirmebene ist die Intensität (= Betragsquadrat) der Amplitude, also jF u; v j2 . Damit ergibt
sich eine Möglichkeit die Fouriertransformation experimentell zu realisieren.
30
( )
Dalitz
CBM
Nr.
f (x)
3
1 für
0 sonst
1
a2 + x 2
(x) e ax
4
e ajxj
5
e
1
2
a<x<a
FH Niederrhein
R
F (y) = 11 f (x) e
2
Dalitz
CBM
ixy dx
sin(ay)
y
ajyj
e
a
)
1
a + iy
2a
a2 + y 2
r
y2 =4a
e
a
ax2
e ajyj = e aj yj = 2a
)
2.2.2
F e
ajxj
=
Z
1
1 Z 1 eixy dx
2 1 {z
a2 + x 2
|
}
F
e ajxj e
f (x) = F 1 F (y)
= 21
Z
1
1
()
Vorfaktor
f
ist, dann lässt sich
f
zurückge-
F (y) eixy dy
Stauchung bzw. Streckung
Die analytische Berechnung des Fourier- bzw. Umkehrintegrals erfordert oft höhere Mathematik (insbesondere den Residuensatz aus der Funktionentheorie). Deswegen empfiehlt sich unbedingt die Verwendung von Tabellen, wie man sie z.B. in [10], [6] oder [5] findet. Tabelle 1 gibt ein paar Beispiele.
Wegen der Ähnlichkeit der Fouriertransformation (Definition 2.2) und ihrer Umkehrformel (Satz 2.1)
folgt aus
)
Z
1
f (x) e
Faltungsregel
Multiplikationsregel
Differentiationsregel
1
1 f (y)
Folglich werden solche Tabellen nur in eine Richtung benötigt. So lässt sich z.B. aus dem Transformationspaar Nr. 2 in Tabelle 1 das Paar Nr. 4 herleiten:
Z 1
ajyj
e ixy
e
dx
a
=
1 a2 + x 2
31
xk f (x)
ik
d k
dy F
(1a)
(1b)
(2a)
(2b)
(3)
(4a)
(4b)
(5a)
(y)
(5b)
Offenbar führt die Fouriertransformation nicht immer zu einer Vereinfachung von Rechenoperationen
im Bildraum: bei den Regeln (4b) und (5b) werden die einfachen Operationen im Originalraum zu
komplizierten Operationen im Bildraum.
Alle Regeln aus Satz 2.2 sind leicht aus der Definition der Fouriertransformation und der Umkehrformel beweisbar. Als Beispiel sei die Regel (4b) bewiesen:
ixy dx
1 F ( y) = 1 Z 1f (x) e+ixy dx = F
2
2 1
F (y) die Fouriertransformierte von f (x)
h(x)
H (y) = F (h)
f (x) + g(x) F (y) + G(y)
a f (x)
a F (y)
f (x x0 )
F (y) e iyx0
f (x) eixy0
F (y y0 )
1 y
f (ax)
aF a
(f g)(x) F(y) G(y)
f (x) g(x) 21 F G (y)
d k
ik yk F (y)
dx f (x)
Verschiebungsregel
1=2
F (y) = F f (y) =
= a2 2+a y2
()
Das Integral auf der rechten Seite sieht fast genauso aus wie das Fourierintegral, bis auf zwei Unterschiede:
e+ixy statt e ixy
Satz 2.2 (Rechenregeln der Fouriertransformation) Sei
und G y die Fouriertransformierte von g x . Dann gilt:
Linearität
die Fouriertransformierte von
1
a2 +x2
Rechenregeln und Anwendungen
Die Umkehrformel
F
ixy dx
1
2.2 Eigenschaften der Fouriertransformation
Satz 2.1 (Umkehrformel) Wenn
winnen durch
1
Die Bedeutung der Fouriertransformation ergibt sich daraus, dass sie einige komplizierte Operationen
(wie z.B. Faltung oder Differentiation) in einfachere Operationen im Bildraum überführt.
Tabelle 1: Ein paar Fouriertransformationspaare
2.2.1
FH Niederrhein
Z
1
dx g(x) f (x) e
1
ixy
=
Z
1
dx
1
1 Z 1dz G(z) eizx f (x) e
2 1 {z
|
}
ixy
Umkehrformel für g (x)
Z 1
Z 1
= 21 dz G(z) dx f (x) e
1
{z
| 1
= 21 G F (y)
32
F (y z )
ix(y z )
}
Dalitz
CBM
FH Niederrhein
Anwendung 1: allgemeine Lösung der Schwingungsgleichung
2
2
f (x; t) 2
f (x; t) = 0
t
x
Eine Fouriertransformation bzgl. der Variable x ergibt nach Satz 2.2 (6a)
2
F (y; t) + 2 y2 F (y; t) = 0
t
g(x) = e
Mit der Bezeichnung a
) G(y) = a e
== 1=22 können wir f;2 über g ausdrücken, und zwar
r
a
g(x )
r
F f;2 (y) = a G(y) e
t)
g1 (x + t) beschreibt eine mit Geschwindigkeit nach links wandernde Welle
g2 (x t) beschreibt eine mit Geschwindigkeit nach rechts wandernde Welle
F f1 ;12 f2;22
X1 normalverteilt zu Mittelwert 1 und Varianz 12
X2 normalverteilt zu Mittelwert 2 und Varianz 22
Nach Satz 1.7 ist dann Y = X1 + X2 verteilt zur Faltung der beiden Dichten f1 ;12 (x) und f2 ;22 (x)
1
2 2
f;2 (x) = p 2 e (x ) =2
2
33
y2 =4a iy
=e
y2 2 =2 iy
e
y2 12 =2 iy1
(18)
e
y2 22 =2 iy2
Ein Vergleich mit (18) zeigt, dass das wieder die Fouriertransformierte der Normalverteilung ist zu
den Parametern 1 2 und 2 12 22 . Wir haben also bewiesen:
= +
= +
Satz 2.3 Die Summe zweier normalverteilter Zufallsgrößen ist wieder normalverteilt zum Mittelwert
1 2 und zur Varianz 12 22 .
+
+
Bemerkung: aufgrund des zentralen Grenzwertstzes war dieses Ergebnis zu erwarten (warum?).
2.2.3
Symmetrieeigenschaften und Benutzung von Tabellen
Aufgrund der Eulerschen Formel eix
ben
F (y)
Aus Satz 1.7 wissen wir, dass die Summe unabhängiger Zufallsvariablen verteilt ist zur Faltung der
Einzeldichten. Die Faltungsregel der Fouriertransformation kann uns helfen, diese Faltung zu berechnen.
Als Anwendung wollen wir zeigen, dass die Summe zweier normalverteilter Zufallsvariablen wieder
normalverteilt ist. Sei dazu
=e
= F f1 ;12 F f2 ;22 =
= e y2 (12 +22 )=2 iy(1 +2 )
Diese Funktionen sind so zu wählen, dass die Rand- und Anfangsbedingungen erfüllt sind.
Anwendung 2: Summe normalverteilter Zufallsvariablen
iy
Also ergibt sich nach der Faltungsregel
G1 und G2 . Die Lösung erhalten wir dann
Wir sehen, dass die allgemeine Lösung der Schwingungsgleichung zwei beliebig wählbare Funktionen
g1 und g2 enthält. In diesem Fall können wir diese Funktionen leicht anschaulich interpretieren:
mit
y2 =4a
so dass sich aus der Verschiebungsregel ergibt
+ 2( )
Z 1
Z 1
= 21 dy G1 (y) eiy(x+t) + 21 dy G2 (y) eiy(x
1
1
= g1 (x + t) + g2(x t)
r
ax2
f;2 (x) =
Damit haben wir eine einfache gewöhnliche Differentialgleichung erhalten (y können wir als einen
konstanten Parameter betrachten), deren allgemeine Lösung ist
F y; t G y eiyt G y e iyt
f (x; t)
FH Niederrhein
)
(
mit beliebigen -von y abhängigen- Integrationskonstanten
durch Anwendung der Umkehrformel:
CBM
Wenn wir die Faltung mithilfe der Fouriertransformation berechnen wollen, müssen wir zunächst
wissen, was die Fouriertransformierte F f;2 ist. Die Tabelle 1 liefert
Wegen der Differentiationsregel und der Linearität lassen sich durch Fouriertransformation lineare
partielle Differentialgleichungen mit konstanten Koeffizienten vereinfachen. Betrachten wir dazu als
Beispiel die eindimensionale Schwingungsgleichung:
( ) = 1( )
Dalitz
=
=
Z
1
Z
1
1
1
dx f (x) e
= os(x)+ i sin(x) können wir das Fourierintegral auch schreiixy
dx f (x) os(xy) i
Z
1
1
dx f (x) sin(xy)
Im allgemeinen ist dieses Integral komplexwertig, selbst wenn f eine rein relle Funktion ist. Wenn f
aber Symmetrieeigenschaften hat, dann tragen evtl. nicht beide Summanden zur Transformierten bei.
Beim Integral einer ungeraden Funktion über die gesamte reelle Achse heben sich nämlich die Anteile
x > und x < gegenseitig auf.
0
0
Symmetrie von f
f reell und gerade:
f (x) = f ( x)
f reell und ungerade:
f (x) = f ( x)
Auswirkung auf F
nur cos-Term trägt bei:
F y reell und gerade
nur sin-Term trägt bei:
F y imaginär und ungerade
()
()
34
Dalitz
CBM
FH Niederrhein
Aus diesem Grund findet man oft in Tabellenwerken für gerade bzw. ungerade Funktionen anstelle der
exponentiellen Fouriertransformation die Cosinustransformierte bzw. Sinustransformierte angegeben.
Definition 2.3 (Fouriercosinus- und Fouriersinustransformation)
Die Fouriercosinustransformierte Fos einer Funktion f ist definiert durch
Fos (y) :=
Z
1
0
f (x) os(xy) dx
wobei y
Dalitz
0
Ihr Zusammenhang zur Fouriertransformation für gerades f ist
CBM
FH Niederrhein
Immer genau überprüfen, wie die Autoren die Fouriertransformation
definieren! Z.B. ist in [5]
p
die Fouriertransformation mitp
dem Vorfaktor = definiert und die Sinus- und Kosinustransformation mit dem Vorfaktor
= .
1 2
2
Meistens findet man nicht exakt die Funktion, die man sucht in den Tabellen. Mithilfe der
Regeln von Satz 2.2 lässt sich die Fourier-/Rück-Transformation der gesuchten Funktion aber
oft auf eine Funktion der Tabelle zurückführen. Wenn man nur Tabellen der Sinus- und Cosinustransformierten hat, dann muss man beachten, dass ein Vorfaktor x oder y aus einer geraden
eine ungerade Funktion macht und umgekehrt.
F (y) = 2 Fos (jyj)
Die Fouriersinustransformierte Fsin einer Funktion f ist definiert durch
Fsin (y) :=
Z
1
0
f (x) sin(xy) dx
wobei y
2.3 Die diskrete Fouriertransformation
0
Wie bei der Faltung gibt es auch von der Fouriertransformation eine diskrete Version, die nicht Funktionen sondern Vektoren transformiert.
Ihr Zusammenhang zur Fouriertransformation für ungerades f ist
2i Fsin(y) für y > 0 9
=
= 2i sign(y) Fsin (jyj)
F (y) = 0
für y = 0
:
2i Fsin(jyj) für y < 0 ;
wobei sign(y ) das Vorzeichen (“signum”) von y ist.
8
<
2.3.1
F (y) =
1 y2
(1 + y2)2
Diese Funktion ist gerade, so dass wir zur Berechnung der Originalfunktion eine Korrespondenz
xe x
der Cosinustransformierten verwenden können. In [10] Tabelle 2.2 finden wir für g x
die Cosinustransformierte Gos y
y2 =
y2 2 . Aufgrund des Zusammenhangs
F y
Fos y für y > ist also Fos y 21 F y 12 Gos y und es ergibt sich
( ) = (1 ) (1 + )
()
0
( )= ( )=
()
1
1
f (x) = g(jxj) = jxj e jxj
2
2
(Beachte, dass wir f (x) gerade fortsetzen müssen für Werte x < 0)
iy
F (y) =
1 + y2
Diese Funktion ist ungerade, so dass wir zur Berechnung der Originalfunktion eine Korrespondenz der Sinustransformierten verwenden können. In [10] Tabelle 2.1 finden wir für
gx
e x die Sinustransformierte Gsin y
y=
y2 . Aufgrund des Zusammenhangs
1F y
1 Gsin y und es ergibt sich
F y
i Fsin y für y > ist also Fsin y
2i
2
( )=
( ) = ) (1 + )
( )= 2 ( )
0
( )=
( )=
()
1
1
jxj
f (x) =
2 sign(x) g(jxj) = 2 sign(x) e
(Beachte, dass wir f (x) ungerade fortsetzen müssen für Werte x < 0)
Zum Abschluss noch ein paar praktische Hinweise zur Benutzung von Tabellen der Fouriertransformation:
35
=
Fm =
( )=
( )=2
b)
Definition 2.4 (Diskrete Fouriertransformation)
Die diskrete Fouriertransformation (DFT) überführt einen Vektor 2 C N in einen Vektor 2 C N
mittels
N
X
Fm
(19)
fk e i2(k 1)(m 1)=N für m ; ; : : : ; N
k=1
Wenn man die Vektorindizes statt bei Eins bei Null beginnen lässt, dann wird die Definition zu
f
Wir wollen zwei Beispiele betrachten wie man Tabellen der Cosinus- und Sinustransformation für die
Rücktransformation in den Originalraum verwenden kann.
a)
Definition und Matrixeigenschaften
=1 2
NX1
k=0
fk e i2 km=N
für
m = 0; 1; : : : ; N
1
In dieser Definition fallen zwei Unterschiede zur Integral-Fouriertransformation
auf:
F
die DFT hat einen Faktor
R1
1 dx f (x) e
ixy
2 im Exponenten
der Exponent der DFT ist von der Dimension N der Vektoren abhängig
Mit der Bezeichnung amk
schreiben:
N
X
amk fk
FM
k=1
=
= exp( 2i (m 1)(k 1)=N lässt sich (19) als ein Matrixprodukt
bzw.
F=Af
Die DFT ist also eine lineare Abbildung im Vektorraum C N . Um eine Formel für die Rücktransformation zu finden müssen wir die Matrix A invertieren.
= [amk ℄ mit amk = exp( 2i (m 1)(k 1)=N ist invertierbar und es ist
= N1 (A)T bzw.
Satz 2.4 Die Matrix A
A
1
36
Dalitz
CBM
= N1 amk = N1
a 1 mk
FH Niederrhein
Dalitz
CBM
e+i2(k 1)(m 1)=N
f(x) e−ixy bei festem y
Dabei bezeichnet A die komplex Konjugierte Matrix und AT die transponierte Matrix. Durch die
komplexe Konjugation ändert sich das Vorzeichen im Exponenten.
Beweis: Betrachte B = A (A )T
bmj
=
=
=
N
X
k=1
N
X
k=1
(
= [bmj ℄. Wir müssen zeigen, dass B die Einheitsmatrix E ist. Es ist
e 2i(m 1)(k 1)=N e2i(k 1)(j 1)=N
e2i(k 1)(j
1 qN
1 q
N
m)=N
für q
für q
=
N
X
k=1
qk 1
mit
q = e2i(j
m)=N
6= 1, d.h. j 6= m
Es ist q N e2i(j m) , was für j 6 m gleich Eins ist. Also ist bmj in der Tat gleich Null für m 6
und gleich Eins für m j , d.h. B ist die Einheitsmatrix. Damit ist der Satz bewiesen.
=
)
=
=
111
000
000
111
000
111
000
111
000
111
000
111
−N∆
2.3.2
= 1, d.h. j = m
=j
N 1=2 A definieren. Diese
Wir können die DFT noch besser verstehen, wenn wir eine Matrix C
Matrix hat dann die Eigenschaft C C T E (E stehe für die Einheitsmatrix), d.h. die adjungierte3
Matrix von C ist auch ihre Inverse. Solche Matrizen heißen unitär und haben die Eigenschaft, dass
sie Längen und Winkel erhalten, wenn man sie auf Vektoren anwendet. Es ist also j j2
jC j 2
jA j2=N .
=
( ) =
f
Satz 2.5 (Parsevalsche Gleichung der DFT) Für jeden Vektor und seine DFT
1
N
X
N m=1
jFm j2 =
d.h. bis auf den Vorfaktor
N
X
k=1
F gilt
3
N m=1
()
F (y) =
Z
1
dx f (x) e
1
ixy
(
N
X
n= N
f (n) e
iyn
Wir wollen nun die Summe auf der rechten Seite über die DFT
M
X1
fk e 2i km=M
m ; ;:::;M
F m
k=0
~
+)
=0 1
(20)
1
~f
Vektors . Seine DFT ist dann
2N
X
= z z
Satz 2.6 (Umkehrformel der diskreten Fouriertransformation) Wenn der Vektor
DFT des Vektors 2 C N ist, dann gilt
N
X
111
000
000
111
000
111
000
111
000
111
000+N∆
111
)
Ebenso wie wir die diskrete Faltung als Approximation der stetigen Faltung aufgefasst haben, so
können wir auch die DFT als Approximation der stetigen Fouriertransformation auffassen. Wir wollen
dazu annehmen, dass die Funktion f x auf dem Intervall x 2 a; a “lebt”, d.h. außerhalb dieses
Intervalls verschwindet. Mit den Bezeichnungen von Abb. 14 ist dann
F~ (m)
F2
=
C N die
Erinnerung an die lineare Algebra: die adjungierte Matrix ist die komplex konjugierte und transponierte Matrix
37
k=0
2N
X
k=0
e
f ( N + k) e
Nym 2N
X
k=0
i kym mit
f ( N + k) e i (k
F (ym)=
Wenn wir auflösen nach F
= 2N + 1 die Dimension des
f ( N + k) e 2i km=(2N +1)
|
F~ ausdrücken:
Fm e2i (m 1)(k 1)=N
=
=
Unmittelbar aus Satz 2.4 ergibt sich die
1
()
N + k)
k = 0; 1; : : : ; M 1
Da die maximale Stützstelle +N ist, ist M 1 = 2N und somit M
Bemerkenswerterweise gilt eine ähnliche Parsevalsche Gleichung auch für die stetige Fouriertransformation. Um diese Version der Parsevalschen Gleichung zu verstehen, muss man aber
zunächst wissen, wie man Längen von und Winkel zwischen Funktionen definieren kann, was
jenseits der Fachhochschulmathematik liegt.
fk =
Abbildung 14:
Approximation
des Integrals über f x e ixy bei
festem y durch eine Riemannsumme. Der Abstand zwischen
zwei Stützstellen sei
. Die
Stützstellen sind in der Intervallmitte gewählt, um den Fehler zu
minimieren.
~f
f~k = f (
1=N erhält die DFT die Länge eines Vektors.
Für komplexe Zahlen z ist das Betragsquadrat definiert durch jz j2
f
111
000
000
111
000
111
000
111
000
111
000
111
000
111
000
111
des Vektors ausdrücken, der eine Diskretisierung der Funktion f ist:
Bemerkungen:
∆
~( ) =
jfk j2
111
000
000
111
000
111
000
111
000
111
000
111
000
111
000
111
000
111
000
111
111
000
000
111
000
111
000
111
000
111
000
111
000
111
000
111
000
111
Zusammenhang zur stetigen Fouriertransformation
f = f =
f
FH Niederrhein
2m
2N + 1 =: ym (m = 0; 1; : : : ; 2N )
N )ym {z
}
laut Gleichung (20)
(ym), dann können wir die stetige Fouriertransformierte F über die diskrete
F (ym ) F~ (m) eiNym mit
ym =
2m
(2N + 1)
38
für
m = 0; 1; : : : ; 2N
(21)
Dalitz
CBM
FH Niederrhein
, mit dem die x-Werte “abgetastet” werden, heißt Abtastrate oder sampling rate.
Mit der Formel (21) kann F (y ) im Bereich y 2 (0; 2=) an den diskreten Stellen ym approximiert
werden. Was ist aber außerhalb des Bereichs (0; 2=)? Wegen eix = os(x) + i sin(x) ist die DFT
Der Abstand
F~ (m) =
M
X1
k=0
f~k e 2i km=M
()
0.5
für alle
m2Z
2.4
0.3
2.0
1.2
0.8
F (y) =
$
0.4
(22)
Als Beispiel wollen wir das folgende Transformationspaar betrachten und die Approximation von F
durch die DFT untersuchen:
(
(1
0
jyj)
für jy j 1
sonst
Die O CTAVE-Funktion fft() berechnet die DFT eines Vektors, so dass die Approximation (21) von F
mit folgendem O CTAVE-Code berechnet werden kann:
0
−30
0
⇒
10
20
0
−1.4
30
= 30
=2
c) zeigt das Ergebnis der diskreten Approximation für N
und
. Merkwürdigerweise
sieht das Ergebnis anders aus als die in b) dargestellte Funktion F . Das liegt daran, dass die DFT
laut Gleichung (22) periodisch ist und somit der Bereich m > N (was laut (21) der Bereich
−0.2
0.2
0.6
1.0
1.4
d)
m>N
3.1
2.7
1.9
1.5
1.5
1.1
0.7
0.7
0.3
y≈π/∆
−0.1
m= 0
−0.1
m = 2N
m=N
−2
−1
0
1
2
3
3.5
e)
∆=∆c
2.5
2
2
1.5
1.5
1
1
0.5
0.5
0
0.5
1
1.5
0
2
f)
∆>∆c
3
2.5
0
Die Ergebnisse sind in Abb. 15 dargestellt:
−0.6
2.3
3
## graphische Darstellung des Realteils von F
## (das dritte Argument "ˆ" sorgt für Balkendiagramm)
plot(yvec, real(Fvec), "ˆ");
−1.0
F ( y m − y2N ) = F ( y m )
3.5
c)
∆ y ≈ 0.05
3.5
## Diskretisierung ("Abtasten") von f und daraus
## berechnete diskrete Approximation von F
fvec = f(xvec);
# f sei vorher als Funktion definiert
Fvec = deltax * fft(fvec);
Fvec = Fvec .* exp(i*N*deltax*yvec);
39
−10
2.3
## daraus resultierende y-Werte
deltay = 2*pi / ((2*N+1)*deltax);
yvec = 0:deltay:2*N*deltay;
(x) und F (y)
−20
∆ = 2.0
N = 30
3.1
## Sampling im x-Raum
N = 30;
deltax = pi;
xvec = -N*deltax:deltax:N*deltax;
a) und b) zeigen die Funktionen f
b)
F(y)
2.8
0.4
0.1
()
3.2
a)
f(x)
FH Niederrhein
1.6
Um F y in einem größeren y -Bereich (“Frequenzbereich”) zu berechnen, müssen wir also die Abtastrate verfeinern. Tatsächlich sagt uns das Shannonsche Abtasttheorem (s.u.), dass die Approximation
(21) nur brauchbar ist, wenn wir die Abtastrate so fein machen, dass F y ausserhalb des dadurch
abgebildeten Frequenzbereichs verschwindet bzw. sehr klein ist.
1 os x
f (x) =
x2
CBM
0.2
periodisch mit der Periode M , d.h. es ist
F~ (m + M ) = F~ (m)
Dalitz
korrektes F(y)
0
0.2
0.4
0.6
0.8
1
1.2
1.4
Abbildung 15: Approximation der Fouriertransformation mit der diskreten Fouriertransformation.
(
0)
y > = ist) dem Bereich y 2 = ; entspricht. Wenn man das berücksichtigt, dann
erhält man durch Verschieben der rechten Hälfte nach links die Abbildung d), was tatsächlich
die Funktion F ist.
Wenn man die Abtastrate
im x-Raum größer macht, dann wird der abgebildete y -Bereich
; = kleiner, so dass möglicherweise nicht mehr der ganze Bereich abgebildet ist, auf
dem F y lebt. Abb. e) zeigt den Fall, dass sich die “Schwänze” von f gerade in der Mitte
berühren, und Abb. f) den Fall, dass Sie sich überlappen und das Ergebnis im Randbereich
falsch wird. Dieser Effekt, der bei zu großer Abtastrate auftritt, wird Aliasing-Effekt genannt.
(0 2 )
()
Wenn wir die Fouriertransformation durch die DFT und damit durch die Riemannsumme aus Abb. 14
approximieren, dann haben wir zwei Fehlerursachen:
40
Dalitz
CBM
FH Niederrhein
Den Truncation Error durch Abschneiden des Integrals über
( 1; 1) bei endlichem N .
Den Sampling Error durch eine schlechte Approximation des Integranden durch eine Stufenfunktion bei zu großer Abtastrate .
Zum Sampling Error gibt es ein bemerkenswertes Theorem, das uns sagt, dass wir die Abtastrate bei
bestimmten Funktionen gar nicht beliebig klein machen müssen.
Dalitz
CBM
FH Niederrhein
sich die “Schwänze” gerade berühren. Ist die Abtastrate größer kommt es zu Überlappungen und zum
“Aliasing Effekt”.
()
Und was ist, wenn F y nicht bandbegrenzt ist? Dann ist die Samplingrate immer zu groß und der
abgebildete y -Bereich zu klein. Dadurch kommt es in der Nähe des maximal abgebildeten ymax
= immer zu Ungenauigkeiten durch den “Aliasing-Effekt”, die aber bei feinerer Abtastrate geringer
werden.
=
Satz 2.7 (Shannonsches Abtasttheorem) Wenn die Fouriertransformierte bandbegrenzt ist, d.h.
F (y) = 0 für jyj > a, dann ist die (unendliche) Riemannsumme (20) exakt
F (y) = 1
X
n=
1
f (n) e
iyn
für
2.3.3
jyj =
(23)
unter der kritischen Abtastrate = =a liegt.
sofern die Abtastrate
F (y) =
1
X
n=
1
)
iny=a
n e
mit
(
n =
=
Die “naive” Berechnung dieses Matrix/Vektor-Produkt erfordert
tenzierungen für die amk ).
Beweis: Die wesentliche Idee ist, dass F y in eine Fourier-Reihe entwickelt werden kann, weil F
nur auf dem endlichen Intervall a; a lebt. Es ist also für y 2 a; a
(
Wir haben gesehen, dass die diskrete Fouriertransformation nichts anderes als ein Matrix/VektorProdukt ist:
NX1
amk fk mit amk e 2imk=N
Fm
k=0
=
(x) durch die Abtastwerte vollständig bestimmt:
1
X
sin((x n)=)
f (x) =
f (n)
(x n)=
n= 1
Ferner ist dann f
()
Fast Fourier Transform
)
(y)
1 Z a dy F (y) e+iny=a
2a a
Die Fast Fourier Transform (FFT) ist ein Algorithmus, der die DFT mit deutlich geringerem Rechenaufwand berechnet, und zwar mit nur O N N Operationen. In O CTAVE steht der FFTAlgorithmus in der Funktion fft() zur Verfügung. Wie der Algorithmus funktioniert und welche Varianten es gibt steht in [13].
(
log )
Das Integral im Koeffizienten n ist nach der Umkehrformel der Fouriertransformation gleich
f n=a . Mit der Bezeichnung
=a ist also
2 (
)
F (y) =
1
X
n=
2 e
1 2a
=
iyn f
(n) =
1
X
n=
1
iyn f
e
(n)
was der erste Teil des Abtasttheorems (23) ist. Um den zweiten Teil (2.7) herzuleiten, müssen wir
die Umkehrformel auf (23) anwenden. Dabei müssen wir allerdings beachten, dass F y außerhalb
a; a nicht durch (23) gegeben ist (das wäre nämlich die periodische Fortsetzung),
des Intervalls
sondern Null ist. Wir müssen also die Funktion zurücktransformieren
(
()
)
F (y) = F (y) E(
a;a)
(y)
mit
E(
a;a)
Also ist nach der Umkehrformel
f (x) =
1 Z 1dy F (y) E
(
2 1
a;a)
(y) eixy =
(y) = 01
1
X
n=
1
(
für y 2
sonst
f (n)
Z
1
a; a)
dy e
1
iyn E
(
a;a)
(y) eixy
Das letzte Integral führt zu den sin-Faktoren in (2.7). Einen guten Überblick mit weiteren Informationen zum Abtasttheorem findet man in [12].
Die anschauliche Bedeutung des Abtasttheorems und der kritischen Abtastrate können wir in Abb. 15
, so dass die kritische Abtastrate
sehen: die dort betrachtete Funktion F y ist bandbegrenzt mit a
=a ist. In Abb. 15 e) ist die Abtastrate genau gleich , wass dem Fall entspricht, dass
=
=
()
=1
41
O(N 2 ) Multiplikationen (plus Po-
42
Dalitz
CBM
FH Niederrhein
Dalitz
CBM
FH Niederrhein
Beweis: Zum Beweis müssen dir die Integrale, in denen Æ auftaucht, auf die Definitionsgleichung (24)
zurückführen.
3 Die Delta-Distribution
=x
3.1 Definition und Rechenregeln
a) Substituiere y
Definition 3.1 (Delta-Distribution)
Die Dirac’sche Delta-Distribution Æ
b) Um diese Gleichheit im Sinne der Distributionen zu zeigen, müssen wir beide Seiten auf eine
Testfunktion f x anwenden und zeigen, dass dasselbe herauskommt, d.h. dass
Z
1
1
für jede an x
(x) ist definiert durch die Eigenschaft
Æ(x) f (x) dx = f (0)
()
1 Z 1Æ(x) f (x) dx
Æ(x) f (x) dx =
jj 1
1
Dazu substituieren wir im linken Integral y = x und machen eine Fallunterscheidung für > 0
und < 0. Der Betrag im Nenner ergibt sich dadurch, dass sich für < 0 bei der Substitution
Z
(24)
= 0 stetige “Testfunktion” f .
Man kann zeigen, dass es keine Funktion mit der Eigenschaft (24) gibt. Æ ist also keine Funktion
im herkömmlichen Sinne.
Zur Frage was Æ x denn statt dessen ist (ein lineares Funktional) und in welchem Sinne Æ als
verallgemeinerte Funktion aufgefasst werden kann: siehe Folien.
Anschaulich kann man Æ x als eine Wahrscheinlichkeitsdichte auffassen, die ihre gesamte
konzentriert hat. In der Mechanik entspricht das einer Punktmas“Masse” am Punkt x
se im Ursprung und in der Elektrostatik einer Punktladung im Ursprung.
()
()
=0
Mithilfe der Delta-Distribution können wir formal auch eine Wahrscheinlichkeitsdichte für diskrete
Wahrscheinlichkeitsverteilungen angeben. Z.B. können wir Æ x als Wahrscheinlichkeitsdichte einer
Zufallsvariablen X auffassen, die mit Wahrscheinlichkeit Eins den Wert “0” annimmt. Die zugehörige
Verteilungsfunktion ist nämlich
Z y
wenn y <
P X y
y
(25)
Æ x dx
wenn y 1
()
)=
( ) = 10
wobei die Heavysidesche Springfunktion bezeichnet.
=1
g(x) = p Æ(x 1) + q Æ(x)
Das Argument x 1 im ersten Term verschiebt die “Masse” der Delta-Distribution an den Ort x = 1.
Satz 3.1 (Eigenschaften der Delta-Distribution) Die Delta-Distribution hat folgende Eigenschaften:
a) Für jede Testfunktion f gilt:
Z
1
b) Für jede Zahl 2 R gilt:
Æ(x) =
c) Für jede Funktion f gilt:
Æf
1
Æ ist die Ableitung der Heavysideschen Sprungfunktion :
43
Æ(x) f (y x) dx = f (y)
1
d) Ergibt sich, wenn wir Gleichung (25) auf beiden Seiten nach y ableiten.
Eigenschaft c) besagt, dass Æ bezüglich der Faltungsoperation das neutrale Element ist. Diese
Eigenschaft werden wir im folgenden Kapitel ausnutzen, um die Lösung von inhomogenen
Differentialgleichungen zu vereinfachen.
Eigenschaft d) besagt, dass ein Sprung der Höhe Eins an der Stelle x
beim Ableiten zu
einem Æ -Beitrag führt. Dies lässt sich leicht verallgemeinern auf einen Sprung der Höhe h an
der Stelle x a: solch ein Sprung führt in der Ableitung zu einem Beitrag h Æ x a . Dadurch
können wir die Ableitungsoperation auch für Funktionen definieren, die im herkömmlichen
Sinne nicht differenzierbar sind.
=0
=
(
)
3.2 Impulsantwort und Greensche Funktion
In diesem Abschnitt werden wir sehen, dass wir eine Lösung einer inhomogenen Differentialgleichung
finden können, indem wir zunächst eine Lösung zur Inhomogenität Æ x finden (die sogenannte Impulsantwort) und dann das Ergebnis mit der tatsächlich vorliegenden Inhomogenität falten.
()
Dies beruht zume einen darauf, dass die Æ -Distribution das neutrale Element der Faltung ist (Satz 3.1c)
und folgenden weiteren Eigenschaften der Faltung:
a)
R
g(x) = 11 dy f (y) g(x y) hat die Eigenschaften
(f + g) h = f h + g h
(f g)0 = f 0 g = f g0 (der Strich bezeichne die Ableitung: f 0 = dxd f )
Satz 3.2 Die Faltung f
Dies bedeutet, dass die Ableitung einer Faltung auf nur eine der beiden Funktionen durchgezogen werden kann.
jj Æ(x)
=f
1
Bemerkungen:
b)
Æ(x a) f (x) dx = f (a)
1
Z
c)
0 = ()
0
Das lässt sich verallgemeinern für beliebige diskrete Zufallsvariablen, indem wir jedem möglichen
Wert einen Æ -Term multipliziert mit seiner Wahrscheinlichkeit zuweisen. Z.B. hat der Münzwürf mit
p für das Ergebnis “0” die Wahrscheinden Wahrscheinlichkeiten p für das Ergebnis “1” und q
lichkeitsdichte
d)
1
die Grenzen umdrehen, was dann mit einem Minuszeichen wieder rückgängig gemacht wird.
Bemerkungen:
(
a.
Beweis:
Æ(x) = 0 (x)
a) ergibt sich direkt durch Einsetzen der Definition der Faltung.
44
Dalitz
CBM
FH Niederrhein
Dalitz
CBM
FH Niederrhein
()
Die Lösung g t heißt Impulsantwort der Differentialgleichung oder auch Greensche Funktion. Bei
gewöhnlichen Differentialgleichungen spricht man meist von der Impulsantwort und bei partiellen
Differentialgleichungen von der Greenschen Funktion. Die Bezeichnung “Impulsantwort” rührt daher, dass Sie im Falle eines Stromkreises wie in Abb. 16 beschreibt, wie das System auf einen Spannungsimpuls Æ t reagiert.
L
R
U(t)
I(t)
=
=
d
dx
Z
Z
1
1
dy f (y) g(x y)
1
dy f (y) g0 (x
1
y)
=
=
Z
F (Æ)(y) =
1
f g0
dy f (y) g(x y)
x
1
Als Beispiel wollen wir den einfachen Stromkreis aus Abb. 16 betrachten. Der Strom I
Differentialgleichung
(t) genügt der
(26)
Dies ist eine inhomogene lineare Differentialgleichung mit der Inhomogenität
folgendes Lösungsverfahren gelernt
(t) der inhomogenen Gleichung (26).
Die Lösung von (26) ist dann die Summe Ihom (t) + Ispez (t), wobei die Integrationskonstante
so zu wählen ist, dass die vorgegebenen Anfangswerte (oder Randwerte) von I (t) angenommen
werden.
()
Muss nun die Bestimmung der speziellen Lösung Ispez t für jede Inhomogenität U t individuell
erfolgen? Nein! Wir können eine spezielle Lösung für beliebiges U t nach folgendem Verfahren
angeben:
Bestimme eine Lösung
Rg t Æ t .
()= ()
g(t) zur Inhomogenität Æ, d.h. eine Lösung der Gleichung L g0 (t) +
= g U eine Lösung von (26).
Um das einzusehen, wollen wir I (t) = (g U ) in Gleichung (26) einsetzen:
d
L (g U ) + R (g U ) Satz=3.2b L g0 U + R g U
dt
Satz 3.2a
= (|Lg0 {z+ Rg}) U Satz=3.1c U
g(t) =
Dann ist Ispez
Æ(x) e
ixy dx
=1
F iyL G(y) + R G(y) = 1 ) G(y) = 1
)
iyL + r
1 (t) e
L
tR=L
( )=Ce
Wenn wir noch beachten, dass die allgemeine homogene Lösung von (26) Ihom t
ist die Integrationskonstante), dann ergibt sich die allgemeine Lösung von (26) zu
I (t)
U (t). Dazu haben Sie
Bestimmung einer speziellen Lösung Ispez
()
1
Nachschlagen in einer Tabelle ergibt
()
()
1
L g0 (t) + R g(t) = Æ(t)
Bestimmung der allgemeinen Lösung Ihom t der homogenen Differentialgleichung, d.h. der
Gleichung die sich ergibt, wenn U t identisch Null gesetzt wird. Diese Lösung enthält eine
frei wählbare Konstante (Integrationskonstante).
()
Z
Als Beispiel wollen wir die Impulsantwort zur Gleichung (26) mittels Fouriertransformation bestimmen:
Dabei wurde benutzt, dass man bei der Ableitung eines Integrals nach einem Parameter (in
diesem Fall ist x im Faltungsintegral ein konstanter Parameter) diese Ableitung in das Integral
hineinziehen kann.
d
L I (t) + R I (t) = U (t)
dt
()
Wie aber können wir nun die Impulsantwort g t bestimmen? Das ist oft mithilfe der Fouriertransformation möglich, denn die Delta-Distribution hat eine besonders einfache Fouriertransformierte,
nämlich eine Konstante:
()
b) Es ist
(f g)0
()
Abbildung 16: Stromkreis, der durch eine lineare Differentialgleichung mit der
Inhomogenität U t beschrieben wird
=
=
Ihom (t) + Ispez (t)
=
Ce
Ce
=
+ g U (t)
Z 1
tR=L + 1
(s) e sR=L U (t s) ds
L 1
Z 1
tR=L + 1
e sR=L U (t s) ds
Ce
tR=L
L 0
()
Bei der letzten Umformung wurde benutzt, dass t für negative Werte Null und für positive Werte
Eins ist, so dass das Integral erst ab der unteren Grenze Null einen Beitrag liefert.
Zunächst verwunderlich erscheint, dass die Lösung zur Zeit t ein Integral von Null bis Unendlich
enthält, also scheinbar auch von der Zukunft abhängt. Das ist jedoch nicht so, denn im Integranden
steht U t s , so dass nur die Werte von U vor der Zeit t eingehen.
(
)
Wir wollen noch ein weiteres Beispiel betrachten, in dem sowohl die Greensche Funktion als auch
die Æ -Distribution eine konkrete physikalische Bedeutung haben: die Poissongleichung (für eine
Einführung in diese Gleichung siehe [14]).
'(x) = %("x)
(27)
Sie beschreibt den Zusammenhang zwischen dem elektrischen Potential ' und einer Ladungsverteilung % in der Elektrostatik. " ist die Dielektrizitätskonstante und ist der Laplace-Operator
=
2 2
2
+
+ z
x
y
Æ
45
tR=L ist (C
46
Dalitz
CBM
FH Niederrhein
x
wobei x; y; z die drei Kartesischen Koordinaten des Vektors bezeichnen. Die Greensche Funktion
der Gleichung
der Poissongleichung ist dann die Lösung g
(x)
g(x) = Æ(x)
(28)
1
Bis auf den Faktor
=" ist das die Poissongleichung für die Ladungsverteilung einer Punktladung
im Ursprung. Eine Lösung dieser Gleichung ist ebenfalls mithilfe der Fouriertransformation möglich,
liegt aber jenseits der Fachhochschulmathematik. Das Ergebnis ist
g(x) =
Dalitz
A
CBM
Mathematische Symbole
Kategorie
Mengenbezeichner
1 1
4 jxj
Das daraus resultierende elektrische Feld ist
E(x) = r'(x) = 41 jxxj3
(r ist der Nabla-Operator)
Mengenoperatoren
'(x) =
1 g % = 1 Z %(x0 ) d3 x0
"
4" 3 jx x0 j
R
Was ist in diesem Fall mit der allgemeinen homogenen Lösung? Die obigen Lösungen haben alle die
Eigenschaft, dass sie im Unendlichen (j j ! 1) verschwinden. Wenn dies die Randbedingung ist,
dann ist diese Lösung vollständig und es kommt kein weiterer Term hinzu. Denn wenn man bereits
eine Lösung gefunden hat, die die Randbedingungen erfüllt, dann ist die eindeutige Lösung dadurch
ja bereits gegeben. Bei anderen Randbedingungen sieht die Lösung aber im allgemeinen anders aus.
Methoden, wie man bei komplizierteren Randbedingungen die passende Greensche Funktion findet,
stehen in [14].
x
Symbol
N , R, C
Bedeutung
natürliche, reelle, komplexe Zahlen
natürliche Zahlen inklusive der Null
Omega, Menge der Elemantarereignisse
leere Menge
Potenzmenge von A (Menge aller Teilmengen)
Menge aller Werte, die die Zufallsvariable X
! R annimmt
Vereingungs-, Schnitt-, Differenzmenge
Komplement von A, d.h. A
nA
Kardinalität oder Mächtigkeit von A (Anzahl der Elemente)
Teilmenge von, Obermenge von
N0
;
}(A)
X (
)
:
[, \, n
=
A
jAj
, 1
was (bis auf den fehlenden Vorfaktor
=") das Coulombsche Gesetz ist. Das Potential einer beergibt sich dann laut unserer Regel durch Faltung mit der Greenschen
liebigen Ladungsdichte %
Funktion zu
(x)
FH Niederrhein
Operationen [ und \ auch über mehr als zwei Mengen möglich, z.B.
Logische
Symbole
Analysis
=)
()
n
X
i=1
n
Y
k=1
xi ,
“daraus folgt”
“genau dann wenn”, “ist äquivalent zu”
X
n2N
xn
ai
i
1, 1
( ) [a; b℄
dx0 f (x0 )
1
d
f (x)
dx
x f (x; y), f (x; y)
x
Za;xb ,
f g
1
[
k=1
Ak
endliche Summe, unendliche Reihe
Produkt a1 a2 : : : an
imaginäre Einheit, d.h. i2
unendlich, minus unendlich
offenes Intervall a < x < b, geschlossenes Intervall a x b
= 1
bestimmtes Integral über
( 1; x)
(x) nach x
partielle Ableitung von f (x; y ) nach x
Z
Ableitung von f
Faltungsprodukt von f und g , d.h.
1
1
f (y) g(x y) dy
Beispiele:
A \ B = ; ) P (A [ B ) = P (A) + P (B )
(A oder B ) = P (A) + P (B )
Definition Erwartungswert: E (X ) =
x P (X = x)
x2X (
)
Mittelwert über alle Werte, die X annehmen kann (X (
)), gewichtet mit ihrer WahrscheinlichWenn A und B nicht zusammen eintreten können, ist P
X
keit.
47
48
Dalitz
CBM
FH Niederrhein
Referenzen
Index
[1] B. W. Gnedenko: Lehrbuch der Wahrscheinlichkeitstheorie. Harri Deutsch 1997 (10. Auflage)
Abtastrate, 38
Abtasttheorem von Shannon, 41
adjungierte Matrix, 37
Messfehler, 11
Monte-Carlo Integration, 14
Mustererkennung, 6
Normalverteilung, 17
Summe zweier, 34
[5] I.N. Bronstein, K.A. Semendjajew, G. Musiol: Taschenbuch der Mathematik. Harri Deutsch 2000
(5. Auflage)
Bayes, Formel von, 5
Berry-Esseen, Satz von, 27
Binomialkoeffizient, 7
Binomialverteilung, 7
Boltzmanngleichung, 19
[6] H. Stöcker: Taschenbuch mathematischer Formeln und moderner Verfahren. Harri Deutsch 1999
(4. Auflage)
Delta-Distribution, 43
Dichtefunkktion, 16
Tschebyscheff-Ungleichung, 13
[2] U. Krengel: Einführung in die Wahrscheinlichkeitstheorie und Statistik. Vieweg 2002 (6. Auflage)
[3] R. Hafner: Wahrscheinlichkeitsrechnung und Statistik. Springer 1989 (1. Auflage)
[4] M. Abramowitz, I. Stegun: Pocketbook of Mathematical Functions. Harri Deutsch 1984
[7] Octave Homepage: http://www.octave.org/
[8] J. W. Eaton: GNU Octave Manual. Network Theory Ltd. 2002
[9] Scilab Homepage: http://www.scilab.org/
[10] W. Preuß: Funktionaltransformationen. Fachbuchverlag Leipzig 2002
[11] J.-Ph. Pérez: Optik. Spektrum 1996
[12] A.J. Jerri: The Shannon Sampling Theorem ... A Tutorial Review. Proceedings of the IEEE, Vol.
65, No. 11, November 1977 (befindet sich in unserer Bücherei!)
[13] Press at. al.: Numerical Recipes in C/Fortran/Pascal. Cambridge University Press 1992
[14] J. Honerkamp, H. Römer: Klassische Theoretische Physik. Springer 1989 (2. Auflage)
Parsevalsche Gleichung, 37
Poissongleichung, 46
Unabhängigkeit
Ereignisse, 6
Zufallsvariablen, 12
unitäre Matrix, 37
Elementarereignisse, 2
Ereignis, 2
Erwartungswert
diskrete Zufallsvariable, 9
stetige Zufallsvariable, 18
Varianz
diskrete Zufallsvariable, 11
stetige Zufallsvariable, 18
Verteilungsfunktion, 16
Faltung
diskrete, 24
stetige, 22
Fast Fourier Transform, 42
Fourierkosinustransformierte, 35
Fouriersinustransformierte, 35
Fouriertransformation
Definition, 29
diskrete (DFT), 36
diskrete Umkehrformel, 37
Rechenregeln, 32
Umkehrformel, 31
Wahrscheinlichkeit
bedingte, 4
Definition, 3
Wahrscheinlichkeitsdichte, 16
zentraler Grenzwertsatz, 26
Zufallsvariable, 8
Gaußverteilung, 17
Gesetz der großen Zahlen
schwaches, 13
starkes, 13
Gleichverteilung, 17
Greensche Funktion, 46
Heavysidesche Sprungfunktion, 29
Impulsantwort, 46
Integraltransformation, 29
Komplement, 3
Laplacetransformation, 29
49
50
Herunterladen