Skript Vorkurs

Werbung
Brückenkurs zur Vorlesung Theoretische
Mechanik
WiSe 2015/16
Inhaltsverzeichnis
1 Differentiation und Integration
1
1.1
Differentiation
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1.2
Taylorreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.3
Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
2 Komplexe Zahlen
10
2.1
Kartesische Form . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2
Polarform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3
Zusammenhänge und wichtige Relationen in kartesischer Form und Polarform 12
3 Trigonometrische und Hypertrigonometrische Funktionen
14
3.1
Trigonometrische Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.2
Hypertrigonometrische Funktionen . . . . . . . . . . . . . . . . . . . . . . 16
4 Beschreibung mehrdimensionaler Probleme
18
4.1
Vektoren und Skalarfelder/Vektorfelder . . . . . . . . . . . . . . . . . . . 18
4.2
Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.3
Koordinatensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.4
Polar- und Kugelkoordinaten in drei Dimensionen . . . . . . . . . . . . . . 23
4.5
Mehrdimensionale Differentiation . . . . . . . . . . . . . . . . . . . . . . . 24
4.5.1
Partielle vs. totale Ableitung . . . . . . . . . . . . . . . . . . . . . 24
4.5.2
Skalarfelder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.5.3
Vektorfelder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.6
Mehrdimensionale Integration . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.7
Mehrdimensionale Taylorreihen . . . . . . . . . . . . . . . . . . . . . . . . 30
ii
Inhaltsverzeichnis
iii
5 Differentialgleichungen
32
5.1 Lösung durch Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.1.1 Lösung durch Trennung der Variablen . . . . . . . . . . . . . . . . 34
Kapitel 1
Differentiation und Integration
1.1 Differentiation
Die Ableitung gibt den Anstieg einer Funktion an jedem Ort x an. Sie ist gegeben über
den Grenzwert des Differentialquotienten
d
f (x + ∆x) − f (x)
f (x) = lim
.
∆x→0
dx
∆x
(1.1)
Beispiel Differentialquotient für f (x) = x2
d
(x + ∆x)2 − x2
f (x) = lim
∆x→0
dx
∆x
2x∆x + ∆x2
= lim
∆x→0
∆x
= lim 2x + ∆x
∆x→0
= 2x
Es gibt drei relevante Ableitungsregeln mit deren Hilfe man die Ableitung einer beliebigen
Funktion berechnen kann (sofern man annimmt, dass man die Ableitungen einiger
elementarer Funktionen kennt). Im Folgenden seien f (x) und g (x) stetig differenzierbare
Funktionen auf R oder einem abgeschlossenen Intervall in R, sowie λ und µ reelle Zahlen.
Als Konvention benutzt man ein ’ um die Ableitung einer Funktion zu bezeichnen. Es gilt
[λ · f (x) + µ · g (x)]0 = λ · f 0 (x) + µ · g 0 (x) .
(1.2)
Die Produktregel für Funtionen lautet
[f (x) · g (x)]0 = f 0 (x) · g (x) + f (x) · g 0 (x) ,
1
(1.3)
2
1 Differentiation und Integration
während die Kettenregel
[f (g (x))]0 = g 0 (x) · f 0 (g (x))
(1.4)
lautet. An dieser Stelle ist darauf hinzuweisen ist, dass f 0 (g (x)) die Ableitungsfunktion
von f 0 mit g (x) als Argument bezeichnet. Man nennt diese Regel auch “innere Ableitung
mal auessere Ableitung”.
Als weitere Ableitungsregel gibt es noch die Quotientenregel,
f (x)
g(x)
0
=
f (x)g 0 (x) − f 0 (x)g(x)
,
g 2 (x)
(1.5)
die sich allerdings auch aus der Produktregel herleiten lässt.
Beispiel Produktregel für f (x) = x sin(x)
d
f (x) = [x]0 · sin(x) + x · [sin(x)]0 = sin(x) + x cos(x)
dx
Beispiel Kettenregel für f (x) = eαx+β
Definiere u(v) = ev und v(x) = αx + β.
d
dv(x) du(v) = αeαx+β
f (x) =
dx
dx
dv v=v(x)
Es gibt einige wichtige Ableitungen von elementaren Funktionen die man wissen sollte.
f (x) = 1
−→
f 0 (x) = 0
(1.6a)
f (x) = x
−→
f 0 (x) = 1
(1.6b)
f (x) = ex
−→
(1.6c)
(1.6d)
(1.6f)
f (x) = sin (x)
−→
f 0 (x) = ex
1
f 0 (x) =
x
f 0 (x) = cos (x)
f (x) = cos (x)
−→
f 0 (x) = − sin (x)
f (x) = ln (x)
(x > 0)
−→
(1.6e)
Mit Hilfe der drei elementaren Ableitungsregeln kann man einige weitere nützliche Regeln
herleiten, zum Beispiel die Ableitung von Polynomfunktionen. Dazu stellt man fest, dass
f (x) = xn = x
| · x · x{z· · · · · x}
n mal
(1.7)
1.1 Differentiation
3
und somit unter Anwendung der Produktregel,
0

0




 · x · x · · · · · x + x0 · x · x · x · · · · · x
f 0 (x) = x
|
|
| · x · x{z· · · · · x} = x · x
{z
}
{z
}
n − 1 mal
n mal
= x · xn−1
0
n − 1 mal
+ xn−1 .
(1.8)
Setzt man dies nun n − 1 mal ineinander ein erhält man
0
f (x) = x · x · x
= x2 xn−2
n−2
0
0 + x · xn−2 + xn−1
+ 2 · xn−2
..
.
= xn−1 (x)0 + (n − 1) · xn−1 = xn−1 + (n − 1) xn−1
= nxn−1 .
(1.9)
Desweiteren ist es möglich eine Regel für die Ableitung der Umkehrfunktion herzuleiten.
Beachtet man nämlich, dass f f −1 (x) = x, so kann man die Kettenregel für den Fall
g = f −1 anwenden. Dann gilt
0
h i0
1 = x = f f −1 (x)
h
i0
= f −1 (x) f 0 f −1 (x)
(1.10)
und es folgt durch Umstellen, dass
h
i0
f −1 (x) =
1
.
f 0 (f −1 (x))
(1.11)
Dies kann man sich am Beispiel der Logarithmusfunktion leicht veranschaulichen. Die
Umkehrfunktion des Logarithmus ist die Exponentialfunktion, also f (x) = ex und
f −1 (x) = ln (x). Damit folgt, dass
[ln (x)]0 =
1
1
= ,
x
eln(x)
(1.12)
wie wir auch oben schon in der Sektion über elementare Ableitungen festgehalten haben.
Die höheren Ableitungen einer Funktion folgen einfach aus wiederholtem Ableiten.
Mit anderen Worten, die zweite Ableitung einer Funktion ist die Ableitung ihrer ersten
Ableitung. Die dritte Ableitung einer Funktion ist die Ableitung ihrer zweiten Ableitung
und so weiter.
Ein lokales Extremum einer Funktion ist eine Stelle an der die Funktion in einer
hinreichend kleinen Umgebung um diesen Wert den größten oder kleinsten Wert annimmt.
Man kann die Ableitungen einer Funktion verwenden, um lokale Extrema von Funktionen
4
1 Differentiation und Integration
zu finden. Eine Funktion hat ein lokales Extrema, wenn ihre erste Ableitung verschwindet
und ihre zweite Ableitung nicht gleich null ist. Ist die zweite Ableitung der Funktion an
solch einer Stelle größer als null, so liegt ein Maximum vor. Ist die zweite Ableitung der
Funktion an solch einer Stelle kleiner als null, so liegt ein Minimum vor.
Ein globales Extremum einer Funktion ist die Stelle, an der der größte, beziehungsweise
kleinste Funktionenwert angenommen wird. Eine Funktion kann mehrere lokale Extrema
haben und ihr globales Extrema wird entweder an einem lokalen Extremum im Inneren
oder an einem Randpunkt angenommen.
Schließlich wollen wir noch kurz die Regel von L’Hospital erwähnen. Betrachtet man
einen Grenzwert von Funktionen in einem Bruch wobei der gesamte Bruch divergiert weil
zum Beispiel 00 oder ∞
∞ vorkommt, so kann man im Allgemeinen schreiben, dass
lim
x→x0
f (x)
f 0 (x)
= lim 0
.
g (x) x→x0 g (x)
(1.13)
Divergiert dieser Ausdruck immer noch in der selben Form so kann man durch wiederholte
Anwendung das ganze auf den Quotienten zweiter Ableitungen umschreiben und so weiter.
Beispiel L’Hospital für f (x) =
sin(x)
x
sin(x)
cos(x)
= lim
=1
x→0
x→0
x
1
lim
1.2 Taylorreihen
Die Taylorreihe ist die Entwicklung einer Funktion in eine Potenzreihe. Mit anderen
Worten versucht man eine allgemeine Funktion f (x) durch einen Ausdruck der folgenden
Form zu ersetzen
f (x) =
∞
X
fn xn ,
(1.14)
(x − x0 )n ,
fx(n)
0
(1.15)
n=0
oder allgemeiner
f (x) =
∞
X
n=0
wobei letzteres die Taylorreihe einer Funktion um den Punkt x0 genannt wird. Der Punkt
x0 wird oftmals Entwicklungspunkt genannt.
Wir bilden die Taylorreihe mit folgender Forderung: Die Funktion f (x) und ihre Taylorreihe sollen am Entwicklungspunkt in Funktionswert und jeder Ableitung übereinstimmen.
1.2 Taylorreihen
5
Dies führt auf folgendes Gleichungssystem,
f (x0 ) =
∞
X
0
n=0
∞
X
00
n=1
∞
X
f (x0 ) =
f (x0 ) =
fx(n)
(x
0
− x0 ) n
nfx(n)
(x
0
n (n −
− x0 )
= fx(0)
,
0
x=x0
n−1 1) fx(n)
(x
0
= fx(1)
,
0
x=x0
n−2 − x0 )
n=2
= 2fx(2)
,
0
x=x0
..
.
..
.
∞
X
dm
n−m (n)
f
(x
)
=
n
(n
−
1)
·
·
·
(n
−
m)
f
(x
−
x
)
0
0
x0
dxm
n=m
x=x
= m! · fx(m)
.
0
(1.16)
0
Damit ist die Taylorreihe einer Funktion f (x) um den Entwicklungspunkt x0 durch
folgenden Ausdruck gegeben
∞
X
1 dn
f
(x)
(x − x0 )n .
n
n!
dx
n=0
x=x0
(1.17)
Eine Funktion wird im Allgemeinen durch ihre Taylorreihe um einen Entwicklungspunkt
x0 in der Umgebung um diesen Punkt approximiert. In vielen Fällen genügen bereits ein
paar wenige Terme um das korrekte Verhalten in der Umgebung um den Entwicklungspunkt widerzuspiegeln.
Beispiel Taylorreihe für f (x) = sin(x) um x0 = 0
Es gilt
d2n
sin(x) = (−1)n sin(x)
dx2n
und
d2n+1
sin(x) = (−1)n cos(x),
dx2n+1
für n = 0, 1, 2, 3, . . . . Damit lässt sich schreiben
∞
X
1 d2n
sin(x) =
f
(x)
2n
(2n)!
dx
n=0
=
=
∞
X
(−1)n
n=0
∞
X
x
2n
x=0
∞
X
∞
X
(−1)n
sin (0) x2n +
cos (0) x2n+1
(2n)!
(2n
+
1)!
n=0
(−1)n 2n+1
x
.
(2n + 1)!
n=0
1
d2n+1
+
f
(x)
2n+1
(2n
+
1)!
dx
n=0
x2n+1
x=0
6
1 Differentiation und Integration
Die Taylorreihe für cos(x) lässt sich durch einfaches Ableiten berechnen,
cos(x) = sin0 (x) =
∞
X
∞
X
(−1)n
(−1)n 2n
(2n + 1)x2n =
x .
(2n + 1)!
(2n)!
n=0
n=0
Taylorreihen sind von ungemeiner Bedeutung in der Physik, da sie erlauben, komplexe
Ausdrücken unter bestimmten Näherungen in einfachere Ausdrücke zu verwandeln, wodurch ein Weiterrechnen erst möglich wird.
Beispiel Kleinwinkelnäherung für f (x) = sin(x) um x0 = 0
sin(x) =
∞
X
(−1)n 2n+1
x3
x5
x
=x−
+
− ...
(2n + 1)!
6
120
n=0
Weiß man, dass x nahe bei x0 = 0 liegt, so lässt sich die Reihe frühzeitig abbrechen.
1.3 Integration
Das Bilden der Stammfunktion F (x) einer Funktion f (x) ist die Umkehroperation
zur Ableitung. Das Berechnen der Stammfunktion wird meist auch das Bilden des
unbestimmten Integrals oder Integration genannt und mit
Z
F (x) =
f (x) dx
(1.18)
bezeichnet. Die Relation zwischen der Stammfunktion und der Ableitung wird als so
genannter Fundementalsatz der Analysis bezeichnet, es gilt
F 0 (x) = f (x) .
(1.19)
In der Physik haben wir es in den allermeisten Fällen mit bestimmten Integralen zu
tun. Diese beschreiben den (vorzeichenbehafteten) Flächeninhalt einer Funktion f (x)
zwischen zwei Punkten a und b mit a > b. Dabei muss das gesamte Intervall [a, b]
im Definitionsbereich der Funktion liegen. Sie können berechnet werden als Differenz
zwischen F (b) und F (a), man schreibt dieses Objekt auch folgendermaßen,
Z b
a
f (x) dx = F (b) − F (a) .
(1.20)
1.3 Integration
7
Es ist damit klar, dass folgende Relation gilt,
Z b
f (x) dx = −
Z a
f (x) dx.
(1.21)
b
a
Schliesslich kann man den Fundamentalsatz der Analysis auch für bestimmte Integrale
formulieren,
Z b
f 0 (x) dx = f (b) − f (a) .
(1.22)
a
Wie schon bei der Ableitung existieren einige fundamentale Regeln in Bezug auf
das Bilden von bestimmten Integralen. Es seien f (x) und g (x) stetig differenzierbare
Funktionen auf R oder einem abgeschlossenen Intervall in R, λ und µ reelle Zahlen sowie
a und b relle Zahlen, sodass [a, b] im Definitionsbereich sowohl von f als auch g liegt. Es
gilt erneut die Linearität
Z
[λ · f (x) + µ · g (x)] dx = λ ·
Z
f (x) dx + µ ·
Z
g (x) dx.
(1.23)
Außerdem gilt für alle c mit a ≤ c ≤ b
Z b
Z c
f (x) dx =
a
Z b
f (x) dx +
a
f (x) dx,
(1.24)
c
wobei speziell zu berücksichtigen ist, dass immer folgende Relation gilt,
Z a
f (x) dx = 0.
(1.25)
a
Weiterhin gilt quasi ein Analogon zur Kettenregel, die Substitutionsregel
Z g−1 (b)
Z b
f (x) dx =
a
g −1 (a)
f (g (y)) · g 0 (y) dy.
(1.26)
Beispiel Substitution
Löse
Z 1p
1 − x2 dx.
0
Substituiere
x = x(z) = sin(z)
⇒
dx(z)
= cos(z)
dz
⇔
dx = cos(z)dz,
8
1 Differentiation und Integration
damit folgt
Z 1p
1−
x2 dx
=
Z sin−1 (1) q
0
sin−1 (0)
1−
sin(z)2 cos(z)dz
Z
=
π
2
cos2 (z)dz.
0
Dies kann mit partieller Integration gelöst werden.
Es existiert auch Analog zur Produktregel, die so genannte partielle Integration. Man kann
sich die Regel der partiellen Integration jederzeit leicht herleiten, indem man zunächst
die Produktregel für die Ableitung hinschreibt
[f (x) · g (x)]0 = f 0 (x) · g (x) + f (x) · g 0 (x) ,
(1.27)
anschließend das bestimmte Integral auf beide Seiten anwendet,
Z b
0
[f (x) · g (x)] dx =
a
Z b
0
f (x) · g (x) +
Z b
a
f (x) · g 0 (x) ,
(1.28)
a
sich dann an Formel (1.22) erinnert, woraus sich die linke Seite umschreiben lässt,
f (b) g (b) − f (a) g (a) =
Z b
0
f (x) · g (x) +
a
Z b
f (x) · g 0 (x) .
(1.29)
f 0 (x) · g (x) .
(1.30)
a
Abschließendes Umstellen liefert
Z b
0
f (x) · g (x) = f (b) g (b) − f (a) g (a) −
a
Z b
a
Wir werden nun die Substitutionsregel und die partielle Integration an einem Beispiel
anwenden. Es geht hierbei um das bestimmte Integral der Logarithmusfunktion f (x) =
ln(x) zwischen zwei positiven Zahlen a und b,
Z b
ln (x) dx = F (b) − F (a),
(1.31)
a
mit F (x) der gesuchten Stammfunktion. Zunächst substituieren wir x = ey . Mit der
y
y
Relation dx
dy = e ⇔ dx = e dy folgt
Z b
Z ln(b)
ln (x) dx =
a
y
y
Z ln(b)
ln (e ) e dy =
ln(a)
yey dy.
(1.32)
ln(a)
Nun benutzen wir die partielle Integration aus Gleichung (1.30). Dabei assoziieren wir
die Funtionen wie folgt
u→y
und
v 0 → ey .
(1.33)
1.3 Integration
9
Es ist ersichtlich, dass die Ableitung von y gerade 1 ist und die Stammfunktion von ey
gleich ey ist. Damit ergibt sich
Z ln(b)
ln(a)
ln(b) Z ln(b)
ye dy = ye −
ey dy
y
y
ln(a)
ln(a)
= b ln (b) − a ln (a) − eln(b) − eln(a)
= b ln (b) − b − (a ln (a) − a) = F (b) − F (a),
(1.34)
sodass man sofort für die Stammfunktion F (x) des Logarithmus folgendes Ablesen kann,
Z
F (x) =
ln (x) dx = x ln (x) − x.
(1.35)
Kapitel 2
Komplexe Zahlen
Die komplexe Zahlen sind eine Erweiterung der reellen Zahlen in die Ebene. Man kann
sie interpretieren als ein paar von reellen Zahlen, was erlaubt gewisse Rechenoperationen
geschlossen in diesem neuen Raum C auszuführen. Die komplexe Einheit i ist gegeben
durch die elementare Relation
i · i = −1
⇔
√
−1 = ±i.
(2.1)
Es gibt zwei wichtige Darstellung der komplexen Zahlen. Die kartesische Repräsentation
und die Polarform. Beide operieren in der Ebene unter der Tatsache, dass eine komplexe
Zahl eigentlich nichts weiter als ein Tupel zweier reeller Zahlen ist.
Im
Re(z)
z
|z|
Im(z)
ϕ
Re
Figure 2.1: Zusammenhang zwischen kartesischer und Polarform
10
2.1 Kartesische Form
11
2.1 Kartesische Form
In der kartesischen Form wird eine komplexe Zahl durch den Realteil und den Imaginärteil
ausgedrückt,
z = a + ib.
(2.2)
Real- und Imaginärteil können jede relle Zahl als Wert annehmen. Man schreibt meist
Re (z) = a,
Im (z) = b.
(2.3)
Man nennet diese Darstellung kartesisch weil sie der Koordinatendarstellung eines Punktes
im R2 über die kartesischen Koordinatenachsen angibt. Addition und Subtraktionen
können dann als Vektoraddition bzw. -subtraktion verstanden werden.
2.2 Polarform
In der Polarform wird eine komplexe Zahl durch Amplitude und Phase dargestellt,
z = reiϕ .
(2.4)
Amplitude und Phase können prinzipiell jede reelle Zahl als Wert annehmen, obwohl
Mehrdeutigkeiten entstehen und die Abbildung nicht mehr bijektiv ist. Man schreibt
|z| = r,
arg (z) = ϕ,
(2.5)
wobei |·| der Betrag oder die Amplitude und arg (·) das Argument oder die Phase der
komplexen Zahl z ist. Wir werden den Betrag später noch ausführlicher diskutieren.
Im
z
|r| = 1
ϕ
Re
Figure 2.2: Einheitskreis
12
2 Komplexe Zahlen
Man nennt diese Darstellung polar, weil sie der Koordinatendarstellung eines Punktes
im R2 über so genannte Polarkoordinaten angibt.
2.3 Zusammenhänge und wichtige Relationen in kartesischer
Form und Polarform
Die zentrale Gleichung, welche die kartesische Darstellung einer komplexen Zahl mit ihrer
Polarform verknüpft (vgl. 2.1), ist die Eulersche Gleichung
eiϕ = cos (ϕ) + i sin (ϕ) .
(2.6)
Damit kann man ablesen, dass Real- und Imaginärteil einer komplexen Zahl z = reiϕ
durch folgende Relationen gegeben sind,
Re (z) = r cos (ϕ) ,
Im (z) = r sin (ϕ) .
(2.7)
Der Betrag einer komplexen Zahl z = a + ib ist gegeben durch folgende Gleichung,
|z| =
√
z · z∗ =
p
a2 + b2 =
q
Re (z)2 + Im (z)2 .
(2.8)
Des weiteren definiert man die so genannte komplexe Konjugation einer komplexen Zahl
z = a + ib als
z ∗ = a − ib,
(2.9)
mit anderen Worten, das Vorzeichen des Imaginärteils der komplexen Zahl wird invertiert.
Das Produkt zweier komplexer Zahlen ist gegeben durch einfaches Ausmultiplizieren
unter Verwendung der elementaren Relation für die komplexe Einheit i. Es gilt für zwei
komplexe Zahlen z1 = a1 + ib1 und z2 = a2 + ib2 , dass
z1 · z2 = (a1 + ib1 ) (a2 + ib2 ) = a1 a2 + ia1 b2 + ib1 a2 + i · ib1 b2
= a1 a2 − b1 b2 + i (b1 a2 + b2 a1 ) .
(2.10)
Die Division zweier komplexer Zahlen wird üblicherweise über eine Trick gelöst, nämlich
der Erweiterung mit dem komplex Konjugierten des Nenners,
z1
z1 · z2∗
a1 a2 + b1 b2 + i (b1 a2 − b2 a1 )
.
=
=
z2
z2 · z2∗
a22 + b22
(2.11)
In dieser Form kann man Real- und Imaginärteil nun leicht trennen.
Das Ziehen von Wurzeln oder Exponentieren von komplexen Zahlen geschiet am
2.3 Zusammenhänge und wichtige Relationen in kartesischer Form und Polarform
13
Leichtesten in der Polarform. Schreiben wir, dass z = reiϕ so gilt, dass
z n = reiϕ
n
= rn einϕ
nach den Exponentialgesetzen.
(2.12)
Kapitel 3
Trigonometrische und
Hypertrigonometrische
Funktionen
Zu den wichtigsten Funktionstypen in der theoretischen Physik zählen die trigonometrischen und hypertrigonometrischen Funktionen. BeideFunktionen können jedoch auf die
Exponentialfunktion (möglicherweise im Komplexen) zurückgeführt werden, womit sich
viele Theoreme leicht beweisen bzw. herleiten lassen.
3.1 Trigonometrische Funktionen
Die klassische Einführung der trigonometrischen Funktionen geschiet meist über Längenrelationen im rechtwinkligen Dreieck. Der Sinus is die Gegenkathete durch die Hypothenuse,
der Kosinus die Ankathete durch die Hypothenuse und der Tangens ist Gegenkathete
durch die Ankathete.
Die zentrale Gleichung von der man hier startet ist erneut die Eulersche Gleichung
eix = cos (x) + i sin (x) .
(3.1)
Wir wollen uns zunächst von der Gültigkeit dieser Gleichung überzeugen. Dazu notieren
wir die Taylorreihe der komplexen Exponentialfunktion um den Entwicklungspunkt
x0 = 0,
ix
e
=
∞
X
1
n!
n=0
(ix)n .
(3.2)
Diese Taylorreihe konvergiert für alle Werte von x gegen den tatsächlichen Wert von eix .
14
3.1 Trigonometrische Funktionen
15
Wir trennen das Taylorpolynom nun in gerade und ungerade Ordnungen,
eix =
=
∞
∞
X
1 2n 2n X
i x +
n=0
∞
X
1
i2n+1 x2n+1
(2n
+
1)!
n=0
2n!
∞
X
1
1
(−1)n x2n + i
(−1)n x2n+1
2n!
(2n
+
1)!
n=0
n=0
1
1
= 1 − x2 + x4 − . . .
2
24
x3
x5
+i x−
+
− ...
6
120
= cos (x) + i sin (x) ,
!
(3.3)
und man sieht die Eulersche Formel erscheinen. Dies hat nun eine wichtige Konsequenz:
man kann den Sinus bzw. den Kosinus durch die Exponentialfunktion ausdrücken,
1 ix
e + e−ix ,
2
1 ix
sin (x) =
e − e−ix .
2i
cos (x) =
(3.4a)
(3.4b)
Diese beiden Relationen sind elementar und können für die verschiedensten Rechnungen
verwendet werden. Zum Beispiel sind Additionstheoreme damit sehr leicht herleitbar,
1 i(x+y)
e
+ e−i(x+y)
2
h
i∗ 1
= ei(x+y) + ei(x+y)
2
1
= eix eiy + c.c.
2
1
= cos (x) cos (y) − sin (x) sin (y) + i sin (x) cos (y) + i sin (y) cos (x)
2
cos (x + y) =
+ c.c.
= cos (x) cos (y) − sin (x) sin (y) ,
(3.5)
1
sin (x + y) = ei(x+y) − e−i(x+y)
2
h
i∗ 1
= ei(x+y) − ei(x+y)
2
1
= eix eiy − c.c.
2
1
= cos (x) cos (y) − sin (x) sin (y) + i sin (x) cos (y) + i sin (y) cos (x)
2
− c.c.
= sin (x) cos (y) + cos (y) sin (x) .
(3.6)
Ohne weiteres können damit viele weitere Eigenschaften der trigonometrischen Funktionen
16
3 Trigonometrische und Hypertrigonometrische Funktionen
nachgewiesen werden. Besonders wichtig ist hierbei die trigonometrische Identität
sin2 (x) + cos2 (x) = 1.
(3.7)
3.2 Hypertrigonometrische Funktionen
Wenn man die Prozedur aus dem vorherigen Abschnitt an Stelle für die komplexe
Exponentialfunktion für die reellwertige Exponentialfunktion durchführt erhält man die
so genannten hypertrigonometrischen Funktionen,
∞
X
1 n
e =
x
x
=
n=0
∞
X
n!
∞
1 2n X
1
x +
x2n+1
2n!
(2n
+
1)!
n=0
n=0
1
1
= 1 + x2 + x4 − . . .
2
24
x3
x5
+ x+
+
− ...
6
120
!
= cosh (x) + sinh (x) .
(3.8)
Erneut kann man direkt eine einfache Relation zwischen diesen Funktionen und der
Exponentialfunktion selbst herleiten,
1 x
e + e−x ,
2
1 x
sinh (x) =
e − e−x .
2
(3.9a)
cosh (x) =
(3.9b)
Trigonometrische und hypertrigonometrische Funktionen verhalten sich ähnlich, aber
nicht identisch. Dies kann man zum Beispiel an den Ableitungen und Stammfunktionen
sehen. Von besonderer Wichtigkeit sind diese Funktionen speziell deshalb, weil sie die
Erweiterung des Sinus und Kosinus für komplexe Argumente darstellen. Es gilt nämlich
1 i·ix
e + e−i·ix =
2
1 i·ix
sin (ix) =
e − e−i·ix =
2i
cos (ix) =
1 −x
e + ex = cosh (x) ,
2
1 −x
e − ex = i sinh (x) .
2i
(3.10a)
(3.10b)
Außerdem gilt eine ähnliche Relation zur trigonometrischen Identität, die hypertrigonometrische Identität
cosh2 (x) − sinh2 (x) = 1.
(3.11)
3.2 Hypertrigonometrische Funktionen
y
17
y
x
cosh(x)
Figure 3.1: Hypertrigonometrische Funtionen
x
sinh(x)
Kapitel 4
Beschreibung mehrdimensionaler
Probleme
In der theoretischen Physik werden sehr oft Probleme beschrieben, die mehr als eine
Variable zu ihrer Beschreibung brauchen. Selbst die Beschreibung einer räumlich eindimensionalen Bewegung benötigt zumindest noch die Zeit für eine sinnvolle Beschreibung.
Man beschreibt mehrdimensionale Objekte mit Vektoren.
4.1 Vektoren und Skalarfelder/Vektorfelder
Ein Objekt, das mehrere so genannte Freiheitsgrade besitzt, wird im Allgemeinen über
einen Vektor beschrieben, der genauso viele Elemente besitzt, wie das Objekt Freiheitsgrade hat. Möchte man zum Beispiel die Position eines Punktes im dreidimensionalen
Raum durch seine x, y- und z-Koordinate beschreiben, so notiert man dies meist als
Spaltenvektor,
 
x
 

~r = 
y  = xêx + yêy + zêz .
(4.1)
z
Die Menge aller Vektoren für ein Problem einer gegebenen Dimensionalität wird als
Vektorraum bezeichnet. Im Allgemeinen hat ein Vektor so viel Einträge N , wie er
Dimensionen hat.
Jeder N -dimensionale Vektorraum V wird durch eine Basis aufgespannt. Jeder Vektorraum besitzt eine Basis, genauer genommen gibt es sogar unendlich viele verschiedene
Basen. Eine orthonormale Basis ist eine Menge von Vektoren, welche senkrecht aufeinander stehen, d.h. ihr Skalarprodukt ist null. Man sagt auch, dass die Vektoren sind
orthogonal sind und Länge eins haben (ihr Betrag ist eins, man nennt dies auch normiert).
18
4.1 Vektoren und Skalarfelder/Vektorfelder
19
Hat man solch eine Basis gefunden, nennen wir sie zum Beispiel, so kann man jeden
Vektor des Vektorraums als Linearkombination dieser Vektoren schreiben,
~x =
N
X
λi êi = λ1 ê1 + · · · + λN êN .
(4.2)
i=1
Die kanonische Basis eines Vektorraums ist gegeben durch das Aufspannen in die kartesischen Koordinatenachsen. Dies ist jedoch nicht die einzige Möglichkeit, wir werden
später bei den Koordinatensystemen eine andere Basis kennenlernen.
Allgemein sind Vektorräume über einem Körper K definiert. Sind die Einträge reelwertig,
so gilt K = R, sind die Einträge komplexwertig, so gilt K = R.
Es gibt vier elementare Operationen in einem Vektorraum. Zum einen die Vektoraddition, welche elementweise stattfindet,

(1)


(1)


(1)
(1)

(N )


.

r
r
r + r2
 1   2   1
 ..   ..  
..
~r1 + ~r2 =  .  +  .  = 
.

 
 
(N )
(N )
r1
r2
(N )
r1
+ r2
(4.3)
Zum anderen die skalare Multiplikation mit einem Element des Grundkörpers K,
 (1)   (1) 
r
λr
 .   . 
.   . 
λ~r = λ 
 .  =  . .
r(N )
(4.4)
λr(N )
Außerdem noch das innere Produkt, was meist Skalarprodukt genannt wird, eine Abbildung die zwei Vektoren in den Grundkörper abbildet,

(1)
 
(1)
r
r
 1   2
 ..   ..
~r1 · ~r2 =  .  ·  .

 
(N )
r1
(N )
r2


(1) (1)
(N ) (N )

 = r1 r2 + · · · + r1 z2 .

(4.5)
Die Wurzel des Skalarprodukt eines Vektors wird auch Betrag genannt und gibt die
geometrische Länge dieses Vektors an,
|~r| =
q
√
2
2
~r · ~r =
r(1) + · · · + r(N ) ,
(4.6)
sowie das äußere Produkt, was in drei Dimensionen oft Kreuzprodukt genannt wird,
eine Abbildung die zwei Vektoren erneut auf einen Vektor abbildet (hier nur für den
20
4 Beschreibung mehrdimensionaler Probleme
dreidimensionalen Fall),






x 1 y2 − x 2 y1
x2
x1

    





=
×
~r1 × ~r2 = 
 y1   y2  x2 z1 − z2 x1  .
x 1 y2 − x 2 y1
z2
z1
(4.7)
In mehrdimensionalen Räumen gibt es nun grundsätzlich zwei verschiedene Arten, eine
Funktion zu definieren. Die Skalarfelder, welche einen Vektor auf einen Skalar abbilden
(zum Beispiel die Temperatur in einem Raum) und die Vektorfelder, welche einen Vektor
auf einen anderen Vektor abbilden (zum Beispiel die Windrichtung auf einer Wetterkarte).
Mathematisch schreibt man Skalarfelder im Allgemeinen als s : KN 7→ K bzw. s (~r),
wobei ~r ∈ KN und s ∈ K, sowie Vektorfelder als ~v : KN 7→ KM bzw. ~v (~r), wobei ~r ∈ KN
und ~v ∈ KM .
4.2 Matrizen
Um das Konzept der Matrix zu verstehen, müssen wir zunächst den Begriff der linearen
Abbildung einführen. Eine lineare Abbildung M ist eine Abbildung von einem Vektorraum
KN in einen anderen Vektorraum KM , welche folgende Relationen erfüllt,
M (~r1 + ~r2 ) = M (~r1 ) + M (~r2 ) ,
M (λ~r1 ) = λM (~r1 ) .
(4.8a)
(4.8b)
Diese beiden Bedingungen heißen ganz allgemein in der Mathematik “Linearitätsbedingungen”. Im Folgenden werden wir uns der Einfachheit halber mit Abbildungen eines
Vektorraums in sich selbst befassen, was die allermeisten Probleme in der Physik mit
einschließt.
Man sieht nun, dass es für eine lineare Abbildung genügt, die Wirkung der Matrix auf
eine beliebige Orthonormalbasis zu kennen. Ist dies nämlich der Fall, so kann das Ergebnis
für einen beliebigen Vektor einfach aus den Bildern der Orthonormalbasis konstruiert
werden,
M (~x) = M
N
X
i=1
!
λi êi
=λ
N
X
M (êi ) .
(4.9)
i=1
Die Bilder der Vektoren in der Orthonormalbasis sind in unserem speziellen Fall nun
wieder selbst Vektoren des selben Vektorraums und können allgemein wieder in der selben
4.2 Matrizen
21
Orthonormalbasis aufgespannt werden,
M (êi ) = ~yi =
N
X
mij êj .
(4.10)
j=1
Die Koeffizienten mij in dieser Entwicklung geben nun einem die Matrixdarstellung der
linearen Abbildung bezüglich der Orthonormalbasis der êi ,

m11

 m21

M = .
 ..


···
···
..
.
m12
m22
..
.
m1N

m2N 

,
.. 
. 
(4.11)

mN 1 mN 2 · · ·
mN N
und man kann nun einfach schreiben
M (~x) = M~x,
(4.12)
unter der üblichen Matrix-Vektor Multiplikationsregel “Zeile mal Spalte”.
Das Hintereinanderausführen zweier linearer Abbildung geschiet nun durch Multiplikation der entsprechenden Matrizen. Das Umkehren einer linearen Abbildung entspricht
dem invertieren der Matrix.
Weiterhin existiert noch ein weiteres wichtiges Konzept, die so genannte Determinante.
Die Determinante einer linearen Abbildung gibt an, wie die Abbildung Volumen verzerrt,
indem sie das Verhältnis aus dem Volumen eines kleinen Volumenelements nach Anwendung der Abbildung mit dem Volumen vor der Anwendung der Abbildung angibt. Die
Berechnung von Determinanten von 2 × 2 und 3 × 3 Matrizen geht noch recht einfach, ab
einer Dimension von 4 benötigt man die Leibnitzregel. Sei M eine N × N -Matrix, dann
ist ist ihre Determinante gegebein durch
det (A) =
X
sgn (σ)
n
Y
aσ(i),i .
(4.13)
i=1
σ∈Sn
Beispiel Determinatenkriterium für Lösbarkeit

2x + ay
= 0
−2x + y
= 0
!
2 a
−2 1
⇒
|
{z
≡M
x
y
!
=0
⇒
det (M ) = 2 + 2a 6= 0
}
Man sieht sofort, dass das Gleichungssystem lösbar ist, wenn a 6= −1 gilt.
Determinanten können außerdem verwendet werden, um zu bestimmen, wann eine Matrix
22
4 Beschreibung mehrdimensionaler Probleme
M invertierbar ist, nämlich genau dann, wenn det (M ) 6= 0, was heißt, dass die Matrix
vollen Rang hat. Außerdem können Gleichungssysteme auf ihre Lösbarkeit überprüft
werden.
4.3 Koordinatensysteme
Bestimmte physikalische Probleme lassen sich günstiger in anderen Koordinatensystemen
als den kanonischen Koordinaten beschreiben. Wir werden uns in der theoretischen
Mechanik näher mit Koordinatensystemen befassen und wollen hier nur das Grundkonzept
an einem sehr einfachen Beispiel diskutieren.
Angenommen wir beschreiben ein zweidimensionales Problem in den kanonischen
Koordinaten, welche durch die Einheitsvektoren
!
êx =
1
,
0
und
êy =
0
1
!
(4.14)
beschrieben werden. Wir nennen diese Koordinaten x und y, ein Punkt ist also gegeben
durch den Vektor
~r =
x
y
!
= xêx + yêy .
(4.15)
Wir wollen nun den selben Punkt in einem gedrehten Koordinatensystem beschreiben.
Dieses Koordinatensystem sei um 45◦ gegenüber dem ersten Koordinatensystem gedreht.
Die Einheitsvektoren in diesem Koordinatensystem lauten nun
!
êx0
1 1
=√
,
2 1
!
1 −1
êy0 = √
,
2 1
(4.16)
und wir können nun einen Punkt bezüglich dieser gedrehten Koordinaten durch folgenden
Vektor beschreiben,
~r =
x0
y0
!
= x0 êx + y 0 êy .
(4.17)
rot
Obwohl diese Schreibweise möglich ist wird, um Verwirrung zu vermeiden, mit der
Spaltenvektorschreibweise in den allermeisten Fällen angenommen, dass die Einträge in
Bezug auf die kanonischen Koordianten beschrieben werden. Tut man dies nicht, sollte
man dies deutlich herausstellen. Wir können uns nun die Frage stellen, wie wir allgemein
aus den Koordinaten (x, y) eines Punktes die rotierten Koordinaten (x0 , y 0 ) erhalten. Dazu
bemerken wir, dass diese spezielle Koordinatentransformation eine lineare Abbildung ist.
4.4 Polar- und Kugelkoordinaten in drei Dimensionen
23
Nach der Vorschrift aus dem vorherigen Teilabschnitt können wir uns somit die Elemente
der zugehörigen Matrix konstruieren, indem wir uns die Bilder der Einheitsvektoren
anschauen. Es gilt
êx −→ êx0
êy −→ êy0 ,
und
(4.18)
womit wir sofort ablesen können, dass
!
Trot
1 1 −1
=√
.
2 1 1
(4.19)
Nun kann man allgemein die Darstellung eines Vektors bezüglich der gestrichenen Koordinaten durch Multiplikation des Vektors in den ungestrichenen Koordinaten mit dieser
Matrix erhalten. Schließlich wollen wir noch die Jacobi-Determinante dieser Transformationsmatrix bestimmen. Sie ist gegeben durch det (Trot ) = 1, was heißt, dass diese
Transformation Volumen, bzw. in diesem zweidimensionale Fall den Flächeninhalte,
erhält. Davon kann man sich auch anschaulich leicht überzeugen. Es ist zu beachten, dass
nicht alle Koordinatentransformationen linear sind wie man sich leicht am Beispiel einer
einfachen Verschiebung entlang der x-Achse um einen gewissen Wert klarmachen kann
(affin linear).
Für den N -imensionalen Fall bilden die Rotationsmatrizen die spezielle orthogonale
Gruppe SO(N ), für die gilt, dass ihre Determinate 1 ist und sie deshalb Volumen erhalten.
4.4 Polar- und Kugelkoordinaten in drei Dimensionen
Als wichtigen Fall wollen wir uns noch den Fall der nicht kartesischen Koordinaten
anschauen, die für viele Probleme der Physik wichtig sind. Betrachtet man Probleme,
die eine bestimmte räumliche Symmetrie aufweisen, so lassen sich diese Probleme im
Allgemeinen einfachere lösen, wenn man sie nicht in kartesischen Koordinaten beschreibt.
Ist ein Punkt ~r zum Beispiel durch seine kartesischen Koordinaten x, y, z im Raum
gegeben,
 
x
 

~r = 
y  ,
(4.20)
z
so lässt er sich ebenfalls vollständig durch seinen Abstand r = |~r| zum Ursprung und zwei
Winkeln, ϕ und θ, gegeben. Es lässt sich in den sogenannten Kugelkoordinaten schreiben
24
4 Beschreibung mehrdimensionaler Probleme
als


r cos(ϕ) sin(θ)



~r =  r sin(ϕ) sin(θ) 
.
r cos(θ)
(4.21)
Gibt es ledigliche eine Rotationssymmetrie um eine einzelne Achse (in der Regel die
z-Achse), so bietet sich auch eine Darstellung in Polar- oder Zylinderkoordinaten an,


r cos(ϕ)



~r =  r sin(ϕ) 
,
z
wobei r =
p
(4.22)
x2 + y 2 den Abstand von der z-Achse beschreibt.
Zwischen kartesischen und Kugelkoordinaten existiert ebenfalls eine Transformationsmatrix J,


cos(ϕ) sin(θ) r cos(ϕ) cos(θ) −r sin(ϕ) sin(θ)



J =  sin(ϕ) sin(θ) r sin(ϕ) cos(θ) r cos(ϕ) sin(θ) 
,
cos(θ)
−r sin(θ)
0
(4.23)
mit




dx
dr
 
 
dy  = J  dθ  .
 
 
dz
dϕ
(4.24)
Die Jacobi-Determinate ist in diesem Fall
det (J) = r2 sin(θ),
(4.25)
woraus sich die Änderung des Volumenelements im Falle einer dreidimensionalen Integration ergibt,
dV = dxdydz
⇒
dV = r2 sin(θ)drdθdϕ.
(4.26)
4.5 Mehrdimensionale Differentiation
4.5.1 Partielle vs. totale Ableitung
Wenn man eine Funktion von mehreren Variablen hat, interessiert man sich meist für die
partielle Ableitung der Funktion nach den einzelnen Variablen. Die partielle Ableitung
4.5 Mehrdimensionale Differentiation
25
beschreibt die Veränderung einer Funktion an einem Punkt, wenn man eine einzelne
Variable verändert (die Variable nach der man partiell ableitet) und alle anderen Variablen
konstant lässt. Praktisch bildet man die Ableitung, indem man die Variablen nach denen
man nicht ableitet, als Konstanten ansieht. Man schreibt die partielle Ableitung als
∂
∂x , wobei x die Ableitungsvariable repräsentiert. Die partielle Ableitung ist von der
totalen Ableitung einer Funktion nach einer Variable zu unterscheiden, bei der es darauf
ankommt, wie sehr sich die Funktion bei Veränderung dieser Variable ändert, allerdings
unter Berücksichtigung der Tatsache, dass die anderen Variablen der Funktion miteinander
zusammenhängen können. Betrachtet man zum Beispiel eine Funktion f (x, t), wobei x
aber auch von t abhängt (dies schreibt man manchmal als f (x (t) , t)), so ist die partielle
Ableitung,
∂f (x (t) , t)
,
∂t
(4.27)
von der totalen Ableitung zu unterscheiden,
df (x (t) , t)
∂f (x, t) dx ∂f (x, t)
=
+
,
dt
∂x dt
∂t
(4.28)
wobei man die totale Ableitung über die Kettenregel aus den partiellen Ableitungen der
Funktion herleiten kann.
4.5.2 Skalarfelder
Für Skalarfelder ist die wichtigste Ableitungsoperation der sogenannte Gradient. Sei
V (~r) ein Skalarfeld, dann ist der Gradient ein Vektor, welcher als Einträge die Ableitung von V nach den Variablen in den zugehörigen Einheitsvektorrichtungen hat. Im
dreidimensionalen Fall wäre dies explizit

grad (V (~r)) =

∂V
∂x 
 ∂V
 .
 ∂y 
∂V
∂z
(4.29)
Der Gradient eines Skalarfelds kann kurz über die Einführung des sogenannten Nabla~ geschrieben werden, welcher durch folgenden Ausdruck gegeben ist,
Operators ∇

~ =
∇

∂
 ∂x

 ∂ .
 ∂y 
∂
∂z
(4.30)
26
4 Beschreibung mehrdimensionaler Probleme
Man schreibt meist in Kurzform
~ (~r) .
grad (V (~r)) = ∇V
(4.31)
Der Gradient eines Sklarafeldes V (~r) definiert ein Vektorfeld F~ (~r). Offensichtlich hat jedes
Skalarfeld ein Vektorfeld, aber nicht jedes Vektorfeld hat ein dazu gehöriges Skalarfeld.
Vektorfelder, die ein Skalarfeld besitzen, aus welchem man sie durch Gradientenbildung
erhalten kann, werden konservative Vektorfelder genannt, das zugehörige Skalarfeld heißt
das Potential dieses Vektorfelds. Wir werden uns später mit diesem Konzept noch einmal
befassen, wenn wir weitere Konzepte eingeführt haben.
4.5.3 Vektorfelder
Die partielle Ableitung eines Vektorfelds nach einer bestimmten Variable wird komponentenweise durchgeführt. Sei zum Beispiel F~ (~r) = (Fx (~r) , Fy (~r) , Fz (~r)) ein dreidimensionales Vektorfeld. Dann ist die partielle Ableitung dieses Vektorfelds nach der Variable
x zum Beispiel einfach gegeben durch




∂
Fx (~r)
Fx (~r)

  ∂x
∂ ~
∂ 
∂
.



=
F (~r) =
F
(~
r
)
F
(~
r
)
y
y

  ∂y
∂x
∂x 
∂
Fz (~r)
F
(~
r
)
z
∂z
(4.32)
Desweiteren gibt es noch zwei wichtige Ableitungen, die Divergenz eines Vektorfelds,
~ · F~ (~r) .
div F~ (~r) = ∇
(4.33)
und die Rotation eines Vektorfelds,
~ × F~ (~r) .
rot F~ (~r) = ∇
(4.34)
Diese können unter Benutzung des Nabla-Operators berechnet werden. In drei Dimensionen lauten die expliziten Darstellungen folgendermaßen,
∂
∂
∂
div F~ (~r) =
Fx (~r) +
Fy (~r) +
Fz (~r) ,
∂x
∂y
∂z

rot F~ (~r) =
∂
Fz (~r)
 ∂y
 ∂ Fx (~
r)
 ∂z
∂
r)
∂x Fy (~
−
−
−
(4.35a)

∂
r)
∂z Fy (~

∂
r )
.
∂x Fz (~
∂
r)
∂y Fx (~
(4.35b)
4.6 Mehrdimensionale Integration
27
4.6 Mehrdimensionale Integration
Natürlich können auch im Mehrdimensionalen bestimmte Integrale von Funktionen
ausgewertet werden. Hierbei integriert man jedoch nicht einfach über Intervalle, also
zwischen zwei Werten x0 und x1 , sondern über Gebiete. Manchmal wird auch ein Skalaroder Vektorfeld nur über einen Teil seiner Variablen integriert, es verbleibt dann immer
noch die Abhängigkeit von den Variablen die von der Integration nicht betroffen wurden.
Genauso wie bei der partiellen Ableitung gilt bei der Integration auch im Allgemeinen, dass man nach einzelnen Variablen einer mehrdimensionalen Funktion integriert,
als würden alle anderen Variablen dieser Funktion Konstanten sein. Das Bilden eines
bestimmten Integrals über ein mehrdimensionales Gebiet geschiet dann über das Hintereinanderausführen dieser eindimensionalen Integrale nach dem Satz von Fubini. Es
ist jedoch eine wichtige Sache zu beachten! Man muss zunächst das Gebiet, über das
man integriert, korrekt parametrisieren, d.h. also die richtigen Grenzen finden, welche im
Allgemeinen auch von den anderen Variablen abhängen können. Dabei muss jedoch auf
die Reihenfolge aufgepasst werden, denn es darf nur über eine Variable integriert werden,
bei der die Integralgrenzen der folgenden bestimmten Integrale nicht mehr von dieser
Variable abhängen.
Wir wollen uns zwei Beispiele anschauen. Zunächst wollen wir das zweidimensionale
Skalarfeld V (x, y) = x2 y entlang der Linie, welche die Punkte (0, 0) und (1, 1) verbindet,
integrieren. Dazu können wir diese Kurve folgendermaßen parametrisieren,
x (t) = t,
y (t) = t,
(4.36)
und die Laufvariable t von 0 bis 1 laufen lassen. Die allgemeine Formel, wenn man eine
Parametrisierung der Kurve gefunden hat, lautet
Z t1
Z
V (~r) dr =
γ
t0
V (~γ (t)) ~γ˙ (t) dt.
(4.37)
2
Für das obige Beispiel ergibt sich,
Z 1
Z
V (x, y) dr =
Z 1
V (x (t) , y (t)) dt =
0
0
1
1 1
t · tdt = t4 = .
4 4
2
(4.38)
0
In einem zweiten Beispiel wollen wir das selbe Skalarfeld nun über das Dreieck, welches
die Punkte (0, 0), (0, 1) und (1, 0) verbindet, integrieren. Dazu stellen wir fest, dass wir
das Dreieck folgendermaßen beschreiben können,
0≤x≤1
und
0 ≤ y ≤ 1 − x.
(4.39)
28
4 Beschreibung mehrdimensionaler Probleme
Dann lässt sich das Integral leicht ausrechnen, solange man die Reihenfolgenregel von
oben beachtet,
Z 1 Z 1−x
Z
V (x, y) dA =
V (x, y) dydx
0
0
Z 1 Z 1−x
=
0
Z 1
=
0
Z 1
=
x2 ydydx
0
1 1−x
x y 2 dx
2 0
2
x2 (1 − x)2 dx
0
Z 1
=
x2 − 2x3 + x4 dx
0
1
1
1 1
= x3 − x4 + x5 3
2
5 0
1 1 1
10 15
6
1
= − + =
−
+
= .
3 2 5
30 30 30
30
(4.40)
Warum war es von vorneherein klar, dass das Ergebnis positiv sein muss?
Da wir meist Vektorfelder in drei Dimensionen betrachten, unterscheiden wir dort zwei
verschiedene Integrale, Kurvenintegrale und Oberflächenintegrale. Bei einem Kurvenintegral wird ein Vektorfeld entlang eines Weges im Raum integriert, während bei einem
Oberflächenintegral ein Vektorfeld über eine gewisse Fläche integriert wird. Die Idee ist
in beiden Fällen prinzipiell die selbe, durch Multiplikation mit einem entsprechenden
Richtungsvektor wird aus dem Vektorfeld ein Skalarfeld gemacht und anschließend das
oben diskutierte Integrationsprinzip für Skalarfelder verwendet. Der Einheitsvektor im
Fall des Kurvenintegrals ist der Tangentialvektor an jedem Ort der Kurve. Im Fall des
Oberflächenintegrals ist dies der Normalenvektor.
Wir wollen uns nun zwei Beispiele anschauen. Für das Kurvenintegral betrachten wir
das Vektorfeld F~ (~r) = (y, x, z 2 ), welches wir entlang der Geraden, welche die Punkte
(0, 0, 0) und (1, 1, 1) verbindet, integrieren wollen. Dazu empfiehlt es sich, diese Gerade
zu parametrisieren,
x (t) = t,
y (t) = t,
z (t) = t,
(4.41)
wobei die Laufvariable t erneut von 0 bis 1 läuft. Der Tangentialvektor dieser Gerade an
jedem Punkt ist gegeben durch den Vektor (dx, dy, dz), meist einfach d~r genannt. Das
Integral schreibt sich nun zunächst einfach als
Z
F~ (~r) · d~r =
Z
Fx (~r) dx + Fy (~r) dy + Fz (~r) dz.
(4.42)
Da wir unsere Kurve parametrisiert haben, können wir nun Substitution anwenden und
4.6 Mehrdimensionale Integration
29
erhalten folgenden Ausdruck,
Z
F~ (~r) · d~r =
Z
Fx (~r (t))
dx
dt +
dt
Z
Fy (~r (t))
dy
dt +
dt
Z
Fz (~r (t))
dz
dt,
dt
(4.43)
der nun einfach ausgerechnet werden kann für unser Problem,
Z
F~ (~r) · d~r =
Z 1
Z 1
tdt +
tdt +
0
0
z 2 (t) dt
0
0
Z 1
=
x (t) dt +
y (t) dt +
0
=
Z 1
Z 1
Z 1
t2 dt
0
1 1 1
4
+ + = .
2 2 3
3
(4.44)
Mithilfe dieses Konzepts können wir nun einige äquivalente Beschreibungen eines konservativen Vektorfeldes bestimmen. Die folgenden Aussagen sind äquivalent.
1. Es existiert ein Skalarfeld V (~x), sodass
~ (~x) ,
F~ (~x) = −∇V
(4.45)
wobei das Minuszeichen reine Konvention ist.
2. Für alle partiellen Ableitungen gilt
∀~x :
∂Fj (~x)
∂Fi (~x)
=
,
∂xj
∂xi
(4.46)
~ × F~ (~x) reduzieren lässt. Diese Eigenschaft
was im dreidimensionalen Fall sich auf ∇
wird auch Wirbelfreiheit genannt.
3. Linienintegrale von F~ (~x) sind wegunabhängig. Für den Anfangspunkt ~x0 und den
Endpunkt ~x1 eines Weges entlang dessen F~ (~x) integriert wird gilt stets
Z
F~ (~x) d~x = V (~x1 ) − V (~x0 ) .
(4.47)
Schließlich wollen wir uns nun noch ein einfaches Beispiel eines Oberflächeintegrals
betrachten. Wir betrachten erneut das Vektorfeld F~ (~r) = y, x, z 2 und wollen nun das
Oberflächenintegral dieses Vektorfeldes über den Würfel mit Kantenlänge zwei, dessen
Mittelpunkt sich im Koordinatenurpsrung befindet, berechnen. Dazu bietet es sich an die
Seitenflächen des Würfels einzeln zu betrachten. Sie können inklusive des dazu gehörigen
Normalenvektors folgendermaßen beschrieben werden,
1:
x = 1,
− 1 ≤ y ≤ 1,
−1 ≤ z ≤ 1,
n̂1 = (1, 0, 0) ,
(4.48a)
2:
x = −1,
− 1 ≤ y ≤ 1,
−1 ≤ z ≤ 1,
n̂2 = (−1, 0, 0) ,
(4.48b)
30
4 Beschreibung mehrdimensionaler Probleme
3:
y = 1,
− 1 ≤ x ≤ 1,
−1 ≤ z ≤ 1,
n̂3 = (0, 1, 0) ,
(4.48c)
4:
y = −1,
− 1 ≤ x ≤ 1,
−1 ≤ z ≤ 1,
n̂4 = (0, −1, 0) ,
(4.48d)
5:
z = 1,
− 1 ≤ x ≤ 1,
−1 ≤ y ≤ 1,
n̂5 = (0, 0, 1) ,
(4.48e)
6:
z = −1,
− 1 ≤ x ≤ 1,
−1 ≤ y ≤ 1,
n̂6 = (0, 0, −1) .
(4.48f)
Damit lässt sich das Integral in 6 Teile aufsplitten,
Z
Z
~ = F~ (~r) · n̂1 dA +
F~ (~r) · dA
Z
1
2
Z
+
F~ (~r) · n̂4 dA +
4
Z
F~ (~r) · n̂3 dA
3
Z
F~ (~r) · n̂5 dA +
5
Z 1 Z 1
=
F~ (~r) · n̂2 dA +
y
−1 −1 x=1
Z 1 Z 1 +
x
dydz −
−1 −1
Z 1 Z 1
+
−1 −1
y=1
z=1
F~ (~r) · n̂6 dA
6
Z 1 Z 1
y
−1 −1 x=−1
Z 1 Z 1 dxdz −
z2
Z
−1 −1
dxdy −
x
dydz
Z 1 Z 1
−1 −1
y=−1
dxdz
z2
z=−1
dxdy
=0.
(4.49)
Wir können dies physikalisch interpretieren. Was wir gerade berechnet haben ist der
Fluss, der aus dem Würfel heraus strömt. Man kann sich anschaulich leicht klar machen,
dass dies tatsächlich gleich null ist.
4.7 Mehrdimensionale Taylorreihen
Die Verallgemeinerung der eindimensionalen Taylorreihe auf den mehrdimensionalen Fall
ist relativ durchsichtig. Man entwickelt immer noch entlang eines einzelnen Entwicklungspunktes ~x0 , der nun jedoch durch einen Vektor beschrieben wird und fordert nun
analog zum eindimensionalen Fall, dass alle partiellen Ableitungen der Taylorreihe mit
den partiellen Ableiungen der urpsrünglichen Funktion übereinstimmen. Wir werden
dies nun kurz für den Fall eines Skalarfelds hinschreiben. Die Verallgemeinerung für ein
Vektorfeld ist einfach, denn man betracht hier einfach alle Komponenten wie für den Fall
des Skalarfeldes.
Sei also V (~x) ein Skalarfeld und ~x ein Vektor im RN , dann ist die Taylorreihe von V
um den Punkt ~x(0) gegeben durch
T (x1 , x2 , . . . , xN ) =
∞
X
i1 =0
···
∞
X
iN
1
(0) i1
(0) iN
x1 − x1
· · · xN − xN
n ! · · · nN !
=0 1
4.7 Mehrdimensionale Taylorreihen
31
∂ i1
∂ iN
× i1 · · · iN V (~x) ∂x1
∂xN
~
x=~
x(0)
(4.50)
Dies ist eine recht verwirrende Formel, speziell weil es nicht ohne Weiteres so einfach ist,
sie nach Ordnungen zu ordnen. Hierbei wird bei einer mehrdimensionalen Taylorreihen die
Ordnung so definiert, dass sie die Summe der Ableitungsgrade aller partiellen Ableitungen
P
des Terms entspricht. Mit anderen Worten, sie ist gegeben durch den Term N
k=0 ik . Zum
Beispiel haben folgende Glieder den Grad 2,
2
1
(0) 2 ∂ ∂
(0)
x2 − x2
x1 − x1
V
(~
x
)
2
∂x1 ∂x22
,
(4.51a)
.
(4.51b)
~
x=~
x(0)
2
1
(0) 3 ∂
x4 − x4
V
(~
x
)
3
6
∂x4
~
x=~
x(0)
Kapitel 5
Differentialgleichungen
Differentialgleichung sind vielleicht das Kernkonzept der theoretischen Physik. Während
man bei einer normalen Gleichung nach bestimmten Variblen umstellt um sie zu lösen,
hat man bei einer Differentialgleichung Kenntnis über eine oder mehrere Ableitungen
einer Funktion und versucht die ursprüngliche Funktion zu bestimmen. Neben der
Differentialgleichung selbst benötigt man meist Randbedingungen um eine eindeutige
Lösung zu finden.
Eine häufig verwendete (und vollkommen legitime) Lösungsmethode für Differentialgleichung ist das kluge Raten eines Ansatzes, eventuell unter Beachtung der Tatsache,
dass man noch einige unbekannte Parameter hat, und Überprüfen der Gültigkeit der
Lösung.
Die Anzahl der freien Parameter einer Differentialgleichung ohne Berücksichtigung der
Randbedingung ist gleich dem höchsten Grad der Ableitung, die in der Differentialgleichung vorkommt. Ein einfaches Beispiel ist die Differentialgleichung
d2
f (x) = 1.
dx2
(5.1)
Die allgemeine Lösung ist gegeben durch
1
f (x) = x2 + bx + c.
2
(5.2)
Man nennt die Konstanten hierbei auch Integrationskonstanten. Der Grund dafür wird
im nächsten Unterkapitel klar.
5.1 Lösung durch Integration
Genauso wie das einfache Ableiten einer Gleichung eine gültige Äquivalenzumformung ist
(zumindest in der Physik), so ist es auch das Integrieren dieser Gleichung, bzw. genauer
32
5.1 Lösung durch Integration
33
das Bilden des bestimmten Integrals. Hierzu schauen wir uns erneut das Beispiel von
oben an,
d2
f (x) = 1.
dx2
(5.3)
Integrieren wir diese Gleichung nun nach x, so sehen wir folgenden Ausdruck,
Z
d2
f (x) dx =
dx2
Z
1dx,
(5.4)
und wir erhalten formal zwei Integrationskonstanten,
d
f (x) + b1 = x + b2 .
dx
(5.5)
Man sieht nun aber sofort, dass b1 und b2 nicht unabhängig sind. Man kann sie in eine
einzelne Integrationskonstante b = b2 − b1 umformen,
d
f (x) = x + b.
dx
(5.6)
Bildet man nun von dieser Gleichung erneut das Integral, so erhält man mit einem
analogen Argument,
Z
d
f (x) dx =
dx
Z
(x + b) dx,
1
f (x) = x2 + bx + c.
2
(5.7)
Wir prüfen durch zweimaliges Ableiten, ob wir tatsächlich die Differentialgleichung korrekt
gelöst haben,
1
f (x) = x2 + bx + c,
2
f 0 (x) = x + b,
(5.8b)
f 00 (x) = 1.
(5.8c)
(5.8a)
Diese Lösungsmethode bietet sich besonders dann an, wenn man Randbedingungen für
die Ableitung gegeben hat. Für den Fall f 0 (0) = 1 und f (0) = 0 erhält man sofort das
Resultat
1=0+b
⇒
b = 1,
(5.9a)
0=c
⇒
c = 0,
(5.9b)
34
5 Differentialgleichungen
womit man auf das folgende Ergebnis kommt,
1
f (x) = x2 + x.
2
(5.10)
Es ist zu beachten, dass man beim Bestimmen der Randbedingungen immer bei den
Gleichungen mit den wenigsten freien Variablen anfangen sollte.
5.1.1 Lösung durch Trennung der Variablen
Die Lösung per Trennung der Variablen ist sehr nützlich, wenn es sich um eine Differentialgleichung erster Ordnung handelt, welche linear in der ersten Ableitung ist. Hierbei
wendet man folgende Prozedur an. Man schreibt die Funktion selbst als y und notiert die
dy
Ableitung als dx
. Dann bringt man alle Differentiale und Variablen einer Sorte auf eine
Seite und führt eine Integreation durch.
Betrachten wir zum Beispiel die Differentialgleichung
y0 = y2.
(5.11)
dy
Hier schreiben wir y 0 = dx
und bringen dann das dx auf die eine Seite der Gleichung,
sowie das y und dy auf die andere Seite,
dy
= dx,
y2
Z
1
dy = dx,
y2
1
− = x + c,
y
1
y (x) = −
.
x+c
Z
(5.12)
Die Integrationskonstante kann erneut so bestimmt werden, wie im vorherigen Abschnitt
gezeigt.
Herunterladen