Skript

Werbung
II.
Semester
1
1. Matrizen
1.1. Definition von Matrizen
Ein rechteckiges Schema der Form

a11 a12 a13 . . .

..
..
A =  a21 a22
.
.
am1 am2 . . . . . .

a1n
.. 
. 
(1.1)
amn
von m · n Zahlen aij heißt Matrix oder auch (m × n)-Matrix. Der erste Index i bezeichnet
die Zeilen, der zweite Index j bezeichnet die Spalten der Matrix. aij heißen Elemente
oder Komponenten der Matrix.
Die Elemente der Matrix können beliebige “mathematische Objekte” sein. Sind alle
aij = 0, spricht man von einer m × n-Nullmatrix.
Ist m = n, so handelt es sich um eine quadratische Matrix.
Sind in der quadratischen Matrix nuir die Diagonalelemente von Null verschieden und
gleich, handelt es sich um eine Einheitsmatrix


1 0 ... 0
0 1 . . . 0 


E=
(1.2)
=1
.
.


.
0 ...
...
0 1
Einer quadratischen Matrix lässt sich eine Determinante zuordnen
det(A) = |A|
a11 . . .
det(A) = ...
am1 . . .
(1.3)
a1n .. ∈ R für a ∈ R
ij
. amn
(1.4)
Beispiel:
3 5 3 5
= 3 · (−3) − 5 · 2 = −19
A=
⇒ det(A) = 2 −3
2 −3
Der allgemeine Fall wird später behandelt.
Die transponierte Matrix AT zu einer (n × m) Matrix A ist gegeben durch
a11 . . . am1 .. AT = ...
. a1n . . . amn (1.5)
3
1. Matrizen
und ist eine (m × n) Matrix. Beispiel
2 3 −1T 2 3
3 1 4 = 3 1
−1 4
(1.6)
1.2. Rechenregeln für Matrizen
1.2.1. Addition und Subtraktion
Die Summe S und die Differenz D sind definiert als
Sij
= (A ⊕ B)ij = aij + bij
(1.7)
Dij
= (A B)ij = aij − bij
(1.8)
(1.9)
Dies bedeutet, daß die Rechenoperationen elementweise definiert sind. Beispiel
5 1
−2 −3
3 −2
=
−
2 1
−1 4
1 5
Addition und Subtraktion werden auf die normale Addition und Subtraktion von reellen oder komplexen Zahlen zurückgeführt. Falls A und B nicht die gleiche Spaltenund Zeilenahl haben, sind Summe und Differenz nicht definiert. Aus der Definition der
Matrixaddition folgt unmittelbar die Matrixmultiplikation mit einem Skalar
λa11 . . . λa1n .. , λ ∈ R
λA = ...
(1.10)
. λam1 . . . λamn 1.2.2. Multiplikation von Matrizen
Um die Rechenregeln für die Multiplikation zu motivieren, schauen wir uns zuerst die
Multiplikation von Matrix und Vektor an. Dabei ist das Beispiel von linearen Gleichungssystemen besonders interessant. Betrachten wir das Gleichungssystem
2x1 − 3x2 =
16
(1.11a)
−x1 + 2x2 =
−10
(1.11b)
Dann kann man dieses System formell als
2 −3
x1
16
=
−1 2
x2
−10
{z
} | {z } | {z }
|
A
4
~
x
~c
(1.12)
1.2. Rechenregeln für Matrizen
schreiben, wobei wir hier die Kurzschreibweise für ein Produkt aus Matrix und Vektor
gebildet haben
2x1 − 3x2
16
A~x = ~c ⇔
=
(1.13)
−1x1 + 2x2
−10
Existiert die Matrix A−1 , so gilt
A−1 A~x = A−1~c ⇒ ~x = A−1~c
(1.14)
Während die Vorgehensweise formell klar ist, stellen sich dennoch mehrere Fragen:
• Wie multipliziert man Matrix und Vektor?
• Wie multipliziert man Matrizen?
• Wie findet man A−1 zu A?
Aus der Matrixnotation für das Gleichungssystem 1.11 kann man die allgemeine Multiplikation von Matrix und Vektor direkt ablesen
X
(A~x)i =
aij xj
(1.15)
j
Anschaulich bedeutet dies, daß die Komponente i des resultierenden Vektors sich durch
Multiplizieren der Zeile i der Matrix mit dem Vektor ergibt. Dieser Zusammenhang lässt
sich mit der Einsteinschen Summenkonvention einfacher schreiben
X
aij xj = aij xj
(1.16)
j
Die Einsteinsche Summenkonvention besagt: Tritt in einer Summe ein Index doppelt
auf, so wird über diesen Index summiert.
Kehren wir nun zu dem linearen Gleichungssystem Gl. 1.11 und seiner Matrixformulierung zurück
x1
2x1 − 3x2
2 −3
16
16
⇔
(1.17)
=
=
−1 2
x2
−10
−x1 + 2x2
−10
Multipliziert man nun eine weitere Matrix von links (wir stellen später fest, daß die
Matrixmultiplikation nicht kommutativ ist) an die Gleichung, so erhält man
x1
16
2 3
2 −3
2 3
=
(1.18)
−10
1 2
−1 2
x2
1 2
| {z }
B
Für die linke Seite findet man durch die Multiplikation von Matrix von Vektor
2 3
2x1 + (−3)x2
2 · 2x1 + 2(−3)x2 + 3(−1)x1 + 3 · 2x2
=
1 20
(−1)x1 + 2x2
1 · 2x2 + 1(−3)x2 + 2(−1)x1 + 2 · 2x2
1x1 + 0x2
1 0
x1
=
=
0x1 + 1x2
0 1
x2
(1.19)
(1.20)
5
1. Matrizen
Für die rechte Seite gilt
2 3
1 2
16
2 · 16 + 3(−10)
2
=
−10
1 · 16 + 2(−10)
−4
(1.21)
1 0
x1
2
=
0 1
x2
−4
(1.22)
Womit dann gilt
Daraus lässt sich auch sofort die Lösung des Gleichungssystems ablesen. Außerdem zeigt
sich, daß die Matrix B tatsächlich die Matrix A−1 sein muß, da sie die Gleichung löst.
Allgemein gilt für die Multiplikation von Matrizen
b11 b12
b21 b22
a11 a12
(b11 a11 + b12 a21 ) (b11 a12 + b12 a22
=
a21 a22
(b21 a11 + b22 a21 ) (b21 a12 + b22 a22
(1.23)
oder in Kurzform
(BA)ij =
X
bik akj
(1.24)
k
Das Element i, j ergibt sich also aus der Multiplikation der Zeile i der ersten Matrix mit
der Spalte j der zweiten Matrix.
Definition Die Elemente der aus einer (l × m) Matrix A und einer (m × n) Matrix B
gebildeten Produktmatrix C = AB sind durch
cij =
m
X
aik bkj
k=1
gegeben. Die Produktmatrix ist eine (l × n) Matrix.
Beispiel
2
1

1
1
1

1 0
3 4 
1 2 =
0 2
1 1

0 2 3 4

2
=
1 0 2
1

9 10
3 2


2 3 4
4 3 8
3 3 6
Die Matrizen müssen nicht vom gleichen Typ sein. Es genügt, daß die Spaltenzahl der
ersten (linken) gleich der Zeilenzahl der zweiten (rechten) Matrix ist. Es ist, wie im
Beispiel gezeigt, offensichtlich, daß die Matrixmultiplikation nicht kommutativ ist.
6
1.3. Determinanten
1.3. Determinanten
Jeder quadratischen Matrix A lässtsich eine Determinante |A| = det(A) zuordnen. Dabei
bedeutet die Notation der Betragsstriche nicht, daß die Determinante eine positive Zahl
sein muß.
Definition Die Determinante eine quadratischen (n × n) Matrix ist gegeben durch
a11 . . .
|A| = ...
an1 . . .
a1n .. = a ∆ − a ∆ · · · ± a ∆
11 11
12 12
1n 1n
. ann (1.25)
Die ∆1n sind ((n − 1) × (n − 1)) Unterdeterminanten von A
|A| =
n
X
(−1)1+j a1j ∆1j
(1.26)
j=1
mit der Definition der Unterdeterminanten
a11
..
.
a
∆ij = (i−1)1
a(i+1)1
..
.
an1
...
...
...
...
a1(j−1)
a1(j+1)
...
..
.
a(i−1)(j−1) a(i−1)(j+1) . . .
a(i+1)(j−1) a(i+1)(j+1) . . .
..
.
an(j−1)
an(j+1)
...
a1n a(i−1)n a(i+1)n ann (1.27)
In den Unterdeterminanten zu (i, j) sind also die Zeile i und die Spalte j gestrichen.
Beispiel
3
1 −2
4
2
0 =
−1 −2 5 2 0
4 0
4
2 3
− 1
+ (−2) −2 5
−1 5
−1 −2
= 3(2 · 5 − 0 · (−2)) − 1(4 · 5 + 0 · (−1)) − 2(4 · (−2) − 2(−1)) = 22
Sonderfälle für Determinanten
n=1
det(A)
= a11
(1.28)
n=2
det(A)
= a11 a22 − a12 a21
(1.29)
n=3
det(A)
= a11 a22 a33 + a12 a23 a31 + a13 a21 a32
−a11 a23 a32 − a12 a21 a33 − a13 a22 a31
(1.30)
7
1. Matrizen
1.3.1. Eigenschaften von Determinanten
1. Eine Determinante |A| ist homogen in Bezug auf die Elemente einer Spalte oder
Zeile. D.h. multipliziert man eine Zeile oder Spalte mit einer Zahl λ, so gilt
a11 . . . a1n a11 . . . a1n ..
..
.. .. .
.
. . λai1 . . . λain = λ ai1 . . . ain = λ|A|
(1.31)
..
..
.. .. .
.
. . an1 . . . ann an1 . . . ann Damit gilt auch
|λA| = λn |A|
(1.32)
2. Eine Determinante wechselt das Vorzeichen, wenn zwei benachbarte Zeilen oder
Spalten vertauscht werden
a11
a21
..
.
an1
...
...
...
...
a21
a1n a11
a2n =
−
..
.. .
. an1
ann
...
...
...
...
a2n a1n .. . ann (1.33)
3. Die Determinante der transponierten Matrix |AT | stimmt mit der Determinante
von |A| überein
4. Eine Determinante ändert sich nicht, wen zu einer Zeile oder Spalte das Vielfache
einer anderen Zeile oder Spalte hinzu addiert wird
a11 . . . a1n a11 + λai1 . . . a1n + λain ..
.. ..
..
.
. .
.
ai1 . . . ain = ai1
...
ain
(1.34)
..
.. ..
..
.
. .
.
an1 . . . ann an1
...
ann
1.3.2. Laplacescher Entwicklungssatz
Die Berechnung einer Determinanten kann auch durch Entwicklung nach einer beliebigen
Zeile oder Spalte erfolgen
|A| =
X
j
8
(−1)i+j aij ∆ij
(1.35)
1.4. Das Inverse einer Matrix
Dabei bedeutet hier die Summe über Spalte j, daß nach Zeile i entwickelt wird. Alternativ
ist natürlich die Entwicklung nach Spalte j möglich
X
|A| =
(−1)i+j aij ∆ij
(1.36)
i
Der Faktor (−1)i+j ordnet den Unterdeterminanten ein Schachbrettmuster für die Vorzeichen zu
+ − + . . .
− + − . . .
(1.37)
+ − + . . .
. . . . . . . . . . . .
Für die Determinanten größerer Matrizen führt man diese Entwicklung für die Unterdeterminanten fort.
1.3.3. Definition über Indexpermutation
Die mathematisch elegante Definition der Determinanten verwendet die Permutation.
Die Determinante |A| einer Matrix A ist die durch
X
|A| =
(−1)P a1j1 a2j2 . . . anjn
(1.38)
P
gegebene Zahl, die durch die Summation über alle n! Permutationen der Spaltenindizes
aus der natürlichen Reihenfolge 1, 2, . . . , n gebildet wird.
Dabei gibt P an, wie viele Indexvertauschungen (Transpositionen) nötig sind, um eine
bestimmte Permutation zu erreichen.
1.4. Das Inverse einer Matrix
Das Ziel unserer Rechnung zu Beginn war ja, ein lineares Gleichungssystem zu lösen.
Dazu benötigen wir eine Matrix A−1 , für die gilt A−1 A = 1.
Definition: Die inverse Matrix A−1 zu einer quadratischen Matrix A erfüllt A−1 A = 1
und AA−1 = 1. Ihre Elemente sind gegeben durch
(A−1 )ij =
1
1
(−1)i+j ∆ji =
(−1)i+j ∆Tij
|A|
|A|
(1.39)
Natürlich kann man die Elemente von A−1 durch das Lösen des Gleichungssystems
A−1 A = 1 bestimmen, aber dies widerspricht dem eigentlichen Sinn des Verfahrens.
Beispiel: Wir kennen schon
BA =
2 3
1 2
2 −3
−1 2
=1
9
1. Matrizen
Offensichtlich gilt B = A−1 . Prüfen wir dies mit der Definition
det(A) = 1
(A−1 )11 = (−1)1+1 ∆11 = (−1)2 · 2 = 2
(A−1 )12 = (−1)1+2 ∆21 = (−1)3 · (−3) = 3
(A−1 )21 = (−1)2+1 ∆12 = (−1)3 · (−1) = 1
(A−1 )22 = (−1)2+2 ∆22 = (−1)4 · 2 = 2
1.5. Das Gauß-Verfahren
Determinanten lassen sich besonders einfach für Matrizen in Dreiecksform berechnen


a11 . . . . . . . . . a1 n

.. 

a22 . . . . . .
. 



.. 
..

.
. 



.. 
..
 0
.
. 
ann
Hier ist die Determinante das Produkt der Diagonalelemente. Da die Dreiecksform auch
für die Läsung von Gleichungssystemen vorteilhaft ist, wäre es nützlich, ein Verfahren
zu haben, das dies leistet. Das Gauß-Verfahren ist ein solches Verfahren, das sich auch
automatisieren lässt.
Das Verfahren soll folgendes leisten: Aus der Matrix


a11
...
a1n

.. 
A =  ...
. 
an1 . . . ann
soll in (n − 1) Schritten eine Diagonalmatrix entstehen. Die Schritte sind dabei
1. Schritt

a11
 0

 ..
 .
0
a12
a122
..
.
...
...
a1n2 . . .

a1n
a12n 

.. 
. 
a1nn
Hier bezeichnen die Superskripte der Elemente den Schritt
2. Schritt

a11 a12 . . .
 0 a1 . . .
22

 0
0
a233

 ..
..
 .
.
0
0 a2n2
10
...
...
...
..
.
...

a1n
a12n 

a23n 

.. 
. 
a2nn
1.5. Das Gauß-Verfahren
3. Schritt

a11 a12
 0 a1
22

 0
0

 ..
..
 .
.
0
0
... ...
... ...
a233 . . .
..
.
...
0
a1n
a12n
a23n
..
.
an−1
nn







Um die Nullen unterhalb der Diagonale zu erzeugen, müssen folgende Rechnungen durchgeführt werden
1. Schritt: Zeilenumformungen, um unter a11 Nullen zu erzeugen
⇒ Die neuen Elemente der zweiten Zeile bis zur n-ten Zeile
a21
a21
!
⇒
a122 = a22 − a12
0 = a121 = a21 − a11
a11
a11
a21
1
a23 = a23 − a13
a11
...
a
21
a12n = a2n − a1n
a11
..
.
an1
an1
! 1
0 = an1 = an1 − a11
⇒
a1n2 = an2 − a12
a11
a11
an1
1
an3 = an3 − a13
a11
...
a
n1
a1nn = ann − a1n
a11
2. Schritt: Zeilenumformungen, um unter a122 Nullen zu erzeugen
!
0 = a232 = a132 − a122
a132
⇒
a122
a233 = a133 − a123
a132
a122
...
a23n = a13n − a12n
a132
a122
a2n3 = a1n3 − a123
a1n2
a122
..
.
!
0 = a2n2 = a1n2 − a122
a1n2
⇒
a122
...
a2nn = a1nn − a12n
a1n2
a122
11
1. Matrizen
(n−2)
(n-1). Schritt: Zeilenumformungen, um unter a(n−1)(n−1) Nullen zu erzeugen
!
0=
an−1
n,(n−1)
=
an−2
n,(n−1)
−
an−2
n,(n−1)
(n−2)
a(n−1),(n−1) n−2
a(n−1),(n−1)
⇒
n−1
ann
=
n−2
ann
−
an−2
n,n−1
n−2
an−1,n n−2
an−1,n−1
Aus diesen Beziehungen lässt sich folgendes allgemeines Schema herleiten:
Nach dem k-ten Schritt gilt
akij
=
ak−1
ij
−
k−1
k−1 aik
akj k−1
akk
mit a0ij = aij
(1.40)
wobei folgende Indizes durchlaufen werden
k = 1, . . . , n − 1
i = k + 1, . . . , n
j = k, . . . , n
Ein Problem taucht auf, wenn Diagonalelemente Null sind. Dem kann man dann mit
Zeilenvertauschung abhelfen.
Formuliert man ein lineares Gleichungssystem mit Hilfe von Matrizen, so ist nun leicht
zu erkennen, daß in der Dreiecksform, die sich aus dem Gauß-Verfahren ergibt, die Lösung
direkt abzulesen ist: In der letzten Zeile steht die Lösung für das letzte Element und
durch Einsetzen in die jeweils darüber liegende Zeile ist es möglich auch für die anderen
Komponenten die Lösung abzulesen.
Die Berechnung der Determinanten der Dreiecksmatrix ist trivial: Das Produkt der
Diagonalelemente ist die Determinante der Matrix. Unter Verwendung der Determinanteneigenschaften aus Kapitel 1.3.1, kann man dann den Transformationsfaktor für jeden
Schritt des Gauß-Verfahrens bestimmen.
1.6. Cramersche Regel
Das Gauß-Verfahren ist an sich sehr effizient bei der Lösung von Gleichungssystemen,
aber auch bei der Berechnung von Determinanten. Es gibt allerdings zur Lösung linearer Gleichungssysteme ein weiteres Lösungsverfahren, daß auf der Berechnung von
Determinanten fusst. Die sogenannte Cramersche Regel für Gleichungssysteme der Form
A~x = ~b.
|Ai |
A~x = ~b ⇒ xi =
|A

a11 . . .
 ..
mitAi =  .
an1 . . .
12
a1,i−1
..
.
b1
..
.
a1,i+1
..
.
...
an,i−1 bn an,i+1 . . .

a1n
.. 
. 
ann
1.7. Transformation von Vektoren
Dieses Verfahren funktioniert ohne dabei inverse Matrizen zu verwenden, dafür müssen
natürlich mehrere Determinanten berechnet werden.
Generell funktioniert das Verfahren folgendermaßen:
Definiert man ein Xi


1
x1
 ..

..


.
.




1 xi−1



 det(Xi ) = xi
xi
Xi = 



xi+1 1




..
..

. 
.
xn
1
wobei die Werte des Vektors ~x in der i-ten Spalte eingetragen sind. Damit ist dann
AXi = Ai ⇒ det(AXi )
= det(A) · det(Xi )
= det(Ai
xi det(A)
|Ai |
⇒ xi =
|A|
= det(Ai )
1.7. Transformation von Vektoren
Aus den Rechenregeln für Matrizen können wir sehen, daß das Produkt einer (n × n)
Matrix und eines Vektors aus Rn wiederum ein Rn Vektor ist. Daraus folgt, daß diese
Matrizen als Transformationsmatrizen für Vektoren aufgefasst werden können.
Als Beispiel betrachten wir die Matrizen
2 0
−1 0
0 −1
C=
B=
A=
0 1
0 1
1 0
Betrachten wir nun die Vektoren
~x =
1
1
~y =
1
−1
Dann folgt
−1
A~x =
1
1
A~y =
1
−1
B~x =
1
−1
B~y =
−1
2
C~x =
1
2
C~y =
−1
An Hand der Beispiele (s. Abb. 1.1) kann man erkennen, daß A eine Drehung beschreibt, B hingegen eine Spiegelung. C ist anscheinend eine Streckung.
13
1. Matrizen
x2
x2
1
1
x1
1
1
x1
Abbildung 1.1.: Beispiele für die Transformation eines Vektors (s. Text). Links die Transformation des Vektors ~x, rechts ~y . Die durchgezogene Linie bezeichnet
den ursprünglichen Vektor, gestrichelt A, Strichpunkt B, Punkt C.
Im folgenden sollen nun die verschiedenen relevanten Verfahren zur Bestimmung von
Transformationsmatrizen vorgestellt werden. Dabei geht es im wesentlichen um Drehungen und Spiegelungen. Hier werden nicht nur Vektoren transformiert, sondern in manchen Fällen die Koordinatensysteme. Die Anwendung in der Physik ist offensichtlich:
Die Beschreibung physikalischer Systeme ist nicht in jedem Koordinatensystem gleich
schwierig.
1.7.1. Drehung eines Vektors
Die Drehung eines Vektors, wie in Abb. 1.2 dargestellt, ist graphisch einfach darstellbar.
Die wichtigste Eigenschaft ist dabei die Erhaltung der Länge des Vektors. Grundsätzlich
lassen sich folgende Relationen feststellen
v = |~v | = |~v 0 | α = α1 + α2
v1 = v sin α1
v2 = v cos α1
v10 = −v sin α2
v20 = v cos α2
Die Vorzeichen vor den Komponenten des gedrehten Vektors ergeben sich hier aus der
umgekehrten Drehrichtung des Winkels α2 . Mit Hilfe der Additionstheoreme
sin(α ± β) = sin α cos β ± sin β cos α
cos(α ± β) = cos α cos β ∓ sin α sin β
14
1.7. Transformation von Vektoren
x2
a
v
v’
a
1
a
2
x1
Abbildung 1.2.: Drehung eines Vektors ~v um den Winkel α
15
1. Matrizen
kann man nun die Winkel α1 und α2 zusammenführen
sin α = sin(α1 + α2 ) = sin α1 cos α2 + sin α2 cos α1
v2 v10
v1 v20
−
v v
v v
cos α = cos(α1 + α2 ) = cos α1 cos α2 − sin α1 sin α2
=
v2 v20
v1 v10
+
v v
v v
⇒ v1 v20 = v 2 sin α + v2 v10
=
v 2 cos α = v2 v20 + v1 v10
2
2
⇒ v1 v cos α = v2 v sin α +
| · v1
v22 v10
|
+ v2v0
{z 1 }1
v 2 v10
⇒ v10 = v1 cos α − v2 sin α
v20 = v1 sin α + v2 cos α
Dieses Ergebnis können wir nun als Matrix formulieren
0 v1
cos α − sin α
v1
=
sin α cos α
v2
v20
(1.41)
1.7.2. Drehung des Koordinatensystems
Mit der hier beschriebenen Methodik können wir nun beschreiben, wie man einen Vektor
in einem bestehenden Koordinatensystem dreht. Tatsächlich benötigt man die Drehung
eines Koordinatensystems bei gleichem Vektor häufiger. Der Hintergrund dafür ist meist,
daß ein gegebener physikalischer Zustand (also der Vektor) in anderen Koordinaten
beschrieben werden soll.
Diesen Umstand beschreiben wir nun folgendermaßen
0
v1
v
~v =
= 10
v2 K
v2 K 0
Der Vektor bleibt also gleich (s. Abb. 1.3) nur seine Darstellung ändert sich
Es gilt
v1 = v cos β
v2 = v sin β
v10 = v cos(β − α) = v cos β cos α + v sin β sin α
v20 = v sin(β − α) = v sin β cos α − v cos β sin α
⇒ v10 = v1 cos α + v2 sin α
v20 = −v1 sin α + v2 cos α
16
1.7. Transformation von Vektoren
x2
x 2‘
v2
v
v1’
v2’
x 1‘
a
v
b
1
x1
Abbildung 1.3.: Drehung eines Vektors ~v um den Winkel α
17
1. Matrizen
Also gilt
0
v1
cos α sin α
v1
=
0
v2 K 0
− sin α cos α
v2 K
(1.42)
Diese Drehmatrix dreht nun das Koordinatensystem. Der Vektor bleibt dabei erhalten,
aber seine Darstellung ändert sich. Tatsächlich unterscheidet sich diese Drehmatrix von
der Drehmatrix zur Drehung von Vektoren nur durch das Vorzeichen des Drehwinkels.
1.7.3. Darstellung in 3D
Die bisherige Darstellung der Drehung erfolgte immer nur in 2D. In 3D kann man die
oben gemachten Rechnung analog ausführen und erhält für die Drehungen des Koordinatensystems um die Koordinatenachsen folgendes


1
0
0
x1 -Achse
Dx1 = 0 cos α sin α 
(1.43)
0 − sin α cos α


cos α 0 − sin α
1
0 
x2 -Achse
Dx2 =  0
(1.44)
sin α 0 cos α


cos α sin α 0
x3 -Achse
Dx3 = − sin α cos α 0
(1.45)
0
0
1
Stellt man nun die Einheitsvektoren des neuen Koordinatensystems im alten Koordinatensystem dar (Abb. 1.4), so erhält man (hier ist die Drehung um die x1 -Achse
angenommen


0
~e02 = cos α
(1.46)
sin α


0
(1.47)
~e03 = − sin α
cos α
Analog gilt für die x2 -Achse


cos α
~e01 =  0 
− sin α


sin α
~e03 =  0 
cos α
18
(1.48)
(1.49)
1.7. Transformation von Vektoren
x3
x 3‘
e3
e3’
x 2‘
e2’
e2
x2
x1
Abbildung 1.4.: Einheitsvektoren von Ausgangs-KS und gedrehtem KS bei Drehung um
x1
und die x3 -Achse


cos α
~e01 =  sin α 
9


− sin α
~e02 =  cos α 
0
(1.50)
(1.51)
Die Einheitsvektoren des gedrehten Koordinatensystems K 0 sind gleich den Zeilen der
Drehmatrix, die K in K 0 überführt.
Welches ist nun die Matrix, mit der man K 0 in K überführt? Beispiel


cos α sin α 0
Dx3 = − sin α cos α 0
0
0
1
19
1. Matrizen
Das Inverse kann man mit der Formel 1.39 berechen
(D−1
x3 )ij =
(−1)i+j ∆ji
|Dx3 |
|Dx3 | = cos2 α + sin2 α = 1
Wobei die Unterdeterminanten
∆11 = cos α
∆12
= − sin α
∆13 = 0
∆21 = sin α
∆22
= cos α
∆23 = 0
∆31 = 0
∆32
=0
∆33 = 0
Daraus folgt
D−1
x3


cos α − sin α 0
=  sin α cos α 0
0
0
1
(1.52)
Diese Matrix erfüllt D−1 = DT . Matrizen der Inverses ihrer Transponierten entspricht
heißen orthogonal.
Folgerungen
• Drehmatrizen haben die Determinante 1
• Drehmatrizen sind orthogonale Matrizen mit D−1 = DT
• Die Einheitsvektoren des Koordinatensystems K 0 sind die Zeilen von D, die K in
K 0 überführt
• Die Einheitsvektoren des Koordinatensystems K sind die Spalten von D, die K in
K 0 überführt
1.7.4. Eigenschaften von Drehungen
Aus der Tatsache, daß die Zeilen der Drehmatrix
K 0 in K enthält, folgt
 0
~e1 · ~e1 ~e01 · ~e2
U = ~e02 · ~e1 ~e02 · ~e2
~e03 · ~e1 ~e03 · ~e2
für K → K 0 die Einheitsvektoren von

~e01 · ~e3
~e02 · ~e3 
~e03 · ~e3
mit ~e0i · ~ej = Uij = cos ](~e0i , ~ej ).
Da die ~e0i , ~ei Einheitsvektoren
⇒
3
X
k=1
20
u2ik = 1
für i = 1, 2, 3
1.7. Transformation von Vektoren
Außerdem sind sie orthogonal zueinander
⇒
3
X
uik ujk = 1
für i = 1, 2, 3 i 6= j
k=1
also
⇒
3
X
uik ujk = δij
k=1
Die Matrix der Drehung hat 9 Elemente, 6 davon sind durch die vorangegangenen Bedingungen definiert. Damit bleiben 3 wahlfreie Eelemente.
Satz: Jede Drehung im R3 lässt sich durch drei Einzeldrehungen um die Koordinatenachsen erzeugen


U11 U12 U13
(1.53)
U = U21 U22 U23 
U31 U32 U33
= D1 (α)D2 (β)D3 (γ)
(1.54)


cos β cos γ
cos β sin γ
− sin β
= − cos α sin γ + sin α sin β cos γ cos α cos γ + sin α sin β sin γ sin α cos β 
sin α sin γ + cos α sin β cos γ − sin α cos γ + cos α sin β sin γ cos α cos β
(1.55)
Die drei Winkel α, β, γ liefern somit die drei Bedingungen für die drei letzten Elemente.
Die Wahl genau dieser drei Winkel ist dabei nicht zwingend. Alternativ werden häufig
die Eulerschen Winkel verwendet.
Statt dreimal um die Koordinatenachsen zu drehen kann man auch um eine beliebige
Achse drehen. Hier ergeben sich die drei Elemente aus der Richtung der Drehachse und
dem Winkel. Da die Länge der Drehachse keine Rolle spielt, ergeben sich aus der Achse
selber nur zwei Komponenten.
Es gilt dabei
1
1
cos ϕ = (Spur(U) − 1) = (U11 + U22 + U 33 −1)
{z
}
2
2 |
(1.56)
Spur(U)

T = U + UT − (Spur(U) − 1)1

T13
T23 
T33
ist die Drehachse
(1.57)
(1.58)
Beispiel


45 −108
44
1 
60 −19 −108
U=
125
100
60
45
|U| = 1
21
1. Matrizen
Für die Einheitsvektoren gilt


45
1 
−108
~e01 =
125
44


60
1 
−19 
~e02 =
125
−108


100
1  
60
~e03 =
125
45
Die Drehachse und der Drehwinkel lassen sich nun berechnen
1
71
Spur U =
(45 − 19 + 45) =
125
125
1 71
125
⇒ cos ϕ = (
−
) = −0.216
2 125 125
⇒ ϕ = 102.47◦


144 −48 144
1 
−48 16 −48
T=
125
144 −48 144
1
144 −48 144
Drehachse
125
1
3 −1 3
Einheitsvektor √
19
Die Drehmatrix lässt sich dann unter Kenntnis von Drehachse und Drehwinkel bestimmen.
d~ sei der Einheitsvektor entlang der Drehachse und ϕ der Drehwinkel
X
U = Uij = di dj + cos ϕ(δij − di dj ) − sin φ
ijk dk
k
Beispiel
1
27
3 −1 3
d~ = √
cos ϕ = −
125
19


9 −3 9
1 
−3 1 −3
⇒ di dj =
19
9 −3 9


10 3 −9
27 
3 18 3 
cos ϕ(δij di dj ) = −
125 · 19
−9 3 10
q


27 2
0
3 1
− 1 − ( 125
)
X
−3 0 3
√
sin ϕ
ijk dk =
19
k
−1 −3 0
1.8. Spiegelung, Drehspiegelung, Inversion
Die bisher betrachteten Transformationen hatten insbesondere gemein, daß die Determinante ihrer Transformationsmatrix 1 war. Das bedeutet insbesondere, daß die Länge von
Vektoren erhalten bleibt und sich die Händigkeit des Koordinatensystems nicht ändert.
22
1.8. Spiegelung, Drehspiegelung, Inversion
x3‘=x3
x3
Spiegelung
x2
x2‘
x1
x1‘=x1
Abbildung 1.5.: Spiegelung an der x1 − x3 -Ebene
Der nächste Schritt ist nun die Betrachtung von Transformationen mit Determinante -1. Damit bleibt zwar weiterhin die Länge von Vektoren erhalten, die Händigkeit des Systems ändert sich aber. Neben der anschaulichen Bedeutung der Händigkeit
gibt es natürlich auch eine mathematischere Definition: Die Händigkeit eines Koordinatensystems lässt sich aus dem Kreuzprodukt seiner Einheitsvektoren ablesen. Für ein
rechtshändiges Koordinatensystem gilt
~ei × ~ej = ijk
(1.59)
wobei ijk der Epsilon-Tensor oder auch das Levi-Civita-Symbol ist.
1.8.1. Spiegelung
Die Transformationsmatrix für die Spiegelung ist die Einheitsmatrix mit einer -1 in der
Zeile, die der gespiegelten Achse entspricht.
BeispielSpiegelung an der x1 − x3 -Ebene (s. Abb. 1.5)


1 0 0
S = 0 −1 0
0 0 1
Hier wird nun aus dem ursprünglich rechtshändigen ein linkshändiges Koordinatensystem.
23
1. Matrizen
x3
Inversion
x1‘
x2
x2‘
x1
x3‘
Abbildung 1.6.: Inversion
1.8.2. Inversion
Bei der Inversion werden alle Achsen gespiegelt (s. Abb. 1.6)


−1 0
0
I =  0 −1 0 
0
0 −1
(1.60)
1.8.3. Drehspiegelung
Die Drehspiegelung ist letztlich nur eine Kombination von Drehung und Spiegelung
BeispielDrehung um x3 , Spiegelung von x2


 

1 0 0
cos α sin α 0
cos α sin α 0
 0 −1 0 − sin α cos α 0 =  sin α − cos α 0
0 0 1
0
0
1
0
0
1
Siehe auch Abb. 1.7
24
1.8. Spiegelung, Drehspiegelung, Inversion
x3
x3‘’=x3
SD
x2‘’
x2
x1‘’
x1
x3‘=x3
S
D
x2‘
x1‘=x1
Abbildung 1.7.: Drehung um x3 , Spiegelung von x2
25
1. Matrizen
1.9. Eigenwerte und Eigenvektoren
In den vorhergehenden Abschnitten haben wir gesehen, daß man das Produkt aus Matrix
und Vektor als Transformation eines Vektors betrachten kann. Nun gibt es Transformationen, für die gilt
A~x = λ~x
(1.61)
Die Transformation eines Vektors ergibt also ein skalares Vielfaches des Vektors selber.
Man erkennt leicht, daß für Drehmatrizen die Drehachse ein Vektor ist, der solch eine Relation erfüllt. Die Gleichung dazu bezeichnet man als Eigenwertgleichung. Ein typisches
Beispiel für die Anwendung dieser Gleichung ist z.B. das Trägheitsmoment
~ = I~
L
ω
~ = mr2 ω ergibt sich eine Eigenwertgleichung.
mit L
Die grundsätzliche Idee findet dann später auch in der Quantenmechanik Anwendung,
wo in der Schrödinger-Gleichung
HΨ = EΨ
H ein Operator ist, dessen Eigenwerte bestimmt werden.
Die Idee des Eigenwerts soll nun am Beispiel von harmonischen Oszillatoren beschrieben werden. Von den HO ist bekannt, daß sie charakteristische Frequenzen haben. Deren
Verbindung mit Eigenwerten leiten wir nun her.
Die gedämpfte Schwingung wird durch folgende DGL beschrieben
mẍ(t) = −cx(t) − β ẋ(t)
r
c
ω0 =
m
ẋ = v
γ=
β
m
Damit lässt sich diese DGL zweiter Ordnung als Vektor von DGL erster Ordnung schreiben
d x
x
0
1
ẋ =
v
↔
=
2
2
v
−ω0 −γ
v̇ = −ω0 − γv
dt v
Um diese Gleichung zu lösen, machen wir uns nun das Wissen zu Nutze, daß die Lösung
als gedämpfe Schwingung geschrieben werden kann
x(t) = x0 eλt
v(t) = v0 eλt
Damit ergibt sich dann die Gleichung
x
0
1
x0 λt
λ 0 eλt =
e
v0
−ω02 −γ
v0
x0
0
1
x0
λ
=
v0
−ω02 −γ
v0
26
1.9. Eigenwerte und Eigenvektoren
Offensichtlich ist es also möglich, auch aus einer DGL eine Matrixgleichung zu entwickeln.
Wie lösen wir nun im Allgemeinen Gleichungen der Form
A~x = λ~x
(1.62)
mit n × n Matrizen A, Vektoren der Länge n und λ ∈ C. Es zeigt sich, daß es für λ
insgesamt ≤ n verschiedene Lösungen ∈ C gibt. λ = 0 ist die Triviallösung, die keine
weitere Beachtung findet.
Um das System zu lösen, schreiben wir es als
(A − λ1)~x = 0
um. Daraus kann man ablesen, daß, wenn (A − λ1)−1 existieren würde, die Lösung
(A − λ1)−1 (A − λ1)~x = 0 ⇒ 1~x = 0
wäre. Die Existenz des Inversen führt also immer nur zur Triviallösung. Wir suchen
also eine nicht-invertierbare Matrix. Eine Matrix ist aber genau dann nicht invertierbar,
wenn ihre Determinante Null ist
|A − λ1| = 0
Definition Lösungen des Polynoms n-ten Grades
a11 − λ
a12
...
a21
a22 − λ . . .
|A − λ1| = .
..
.
.
.
an1
an2
...
= Pn (λ) = 0
ann − λ
a1n
a2n
..
.
(1.63)
heißen Eigenwerte der Matrix A. Pn (λ) hat nach dem Hauptsatz der Algebra n Lösungen
in C, die aber nicht verschieden sein müssen (entartete Eigenwerte).
Aus den Eigenwerten λ lassen sich die Eigenvektoren xλ ermitteln (bis auf konstante
Faktoren)
Beispiel
7 4
4 1
7−λ
4
= (7 − λ)(1 − λ) − 16 = 0
4
1−λ
A=
⇒ |A − λ1| =
λ1,2
= λ2 − 8λ − 9 = 0
√
= 4 ± 16 + 9 = 4 ± 5
λ1 = 9
λ2 = 1
27
1. Matrizen
Die berechneten Eigenwerte werden nun in die Eigenwertgleichung eingesetzt, um nach
dem Eigenvektor zu lösen
−2xλ1 ,1 4xλ1 ,2
λ1 = 9 ⇒ (A − 91)xλ1 =
=0
4xλ1 ,1 −8xλ1 ,2
⇒ −2xλ1 ,1 + 4xλ1 ,2 = 0
Beide Zeilen sind linear unabhängig, damit kann man eine Komponente willkürlich festlegen
xλ1 ,2 = 1 ⇒ xλ1 ,1 = 2
2
~xλ1 =
1
Für den Eigenwert λ2 = −1 folgt dann
~xλ2 =
1
−2
Man stellt fest, daß ~xλ1 · ~xλ2 = 0 gilt. Die Eigenvektoren stehen senkrecht aufeinander.
Kommen wir zurück zum physikalischen Beispiel:
0
1
⇒ |A − λ1| = 0
A=
−ω02 −γ
λ2 + γλ + ω02 = 0
r
γ2
γ
λ1,2 = − ±
− ω02
2
4
Das sind die bekannten Lösungen für ein Pendel. Man findet λ1 = λ∗2
Nun noch zu einem komplexeren Beispiel


2 −1 2
A = −1 2 −2
2 −2 5
⇒ |A − λ1| = 0 = λ3 − 9λ2 + 15λ − 7
λ1 = 7 ist offensichtlich eine Nullstelle. Nach Polynomdivision verbleibt
λ2 − 2λ + 1 = 0 ⇒ λ2 = λ3 = 1
Das ist eine entartete Nullstelle! Für λ1 = 7 findet man den Eigenvektor (1, −1, 2). Für
λ2 = λ3 = 1 erhält man die Bestimmungsgleichung
x1 − x2 + 2x3 = 0
28
1.9. Eigenwerte und Eigenvektoren
Damit kann man zwei Komponenten willkürlich und unterschiedlich wählen
 
 
1
−2



0
x λ2 = 1
x λ3 =
0
1
Es gilt xλ1 · xλ3 = 0 und xλ1 · xλ2 = 0. xλ2 und xλ3 müssen nicht orthogonal zueinander
sein, es finden sich aber orthogonale Lösungne.
Behalten wir xλ1 und nennen es ~y1 . xλ2 steht schon senkrecht auf xλ1 , daher behalten
wir es ebenfalls und nennen es ~y2 . Damit bleibt xλ3 übrig, das zwar auf ~y1 senkrecht
steht, nicht aber auf ~y2 . ~y3 = xλ3 + αxλ2 ist aber auch ein Eigenvektor.
Wir suchen jetzt ein α für das gilt
~y3 · ~y2 = (xλ3 + αxλ2 ) · xλ2 = 0


1

⇒ ~y1 = −1
2
⇒ −2 + 2α = 0 ⇒ α = 1
 
 
1
−1



1
~y2 = 1
~y1 =
0
1
1.9.1. Eigenschafte der Eigenwerte
|A| =
Spur A =
n
Y
α=1
n
Y
λα
(1.64)
λα
(1.65)
α=1
Eigenvektoren zu unterschiedlichen Eigenwerten sind linear unabhängig.
Eigenwerte reeller symmetrischer Matrizen sind reell, ebenso für hermitesche Matrizen
(hermitesch: A = A† ⇔ aij = a∗ji ).
Eigenvektoren reel-symmetirscher Matrizen stehen paarweise senkrecht zueinander.
29
2. Vektoranalysis
Mit der Kenntnis der linearen Algebra und insbesondere der Kenntnis der Matrizenrechnung können wir uns nun erheblich detaillierter mit den Funktionen mehrerer Veränderlicher beschäftigen.
Wir erinnern uns an den Nabla-Operator
∂
∂
∂
,
,
(2.1)
∇=
∂x1 ∂x2 ∂x3
und an die Ableitung eines Vektorfeldes
 ∂A1
...
∂x1
 ..
0
A = .
∂An
∂x1
...
∂A1 
∂xm
..  ⇒ A0 = ∂Ai
ij
. 
∂xj
∂A
(2.2)
n
∂xm
die sogenannte Jacobi- oder Funktionalmatrix. Ebenfalls haben wir die Hesse-Matrix
eines Skalarfeldes kennengelernt
 ∂2Φ

∂2Φ
.
.
.
2
∂x
∂x
m
1
2
 ∂x. 1
.. 
 ⇒ Hij = ∂ Φ
.
H=
(2.3)
. 
 .
∂xi ∂xj
2
2
∂ Φ
∂ Φ
∂x1 ∂xm . . .
∂x2
m
Was können wir mit unserem Wissen über Matrizen nun anfangen?
Wir erinnern uns an lokale Extreme: Gegeben sei eine Funktion Φ(~r) : Rn → R und es
sei ∇Φ(~r) = 0 an der Stelle ~r0 , dann lässt sich die Hesse-Matrix bestimmen.
Mit der Kenntnis der Eigenwerte lässt sich jetzt sagen
Eine Matrix ist positiv definit, wenn alle Eigenwerte positiv sind.
Beispiel:
Φ(~r) = x21 + x1 x2 + x22 + x1 + x2 + 1
∇Φ =
2.1. Skalar- und Vektorfelder
Die Unterscheidung von Skalar- und Vektorfelder ist erst einmal trivial: Skalarfelder
ordnen jedem Punkt des Raums ein Skalar zu, Vektorfelder einen Vektor. Dabei ist es
üblicherweise so, daß Vektorfelder eine Abbildung Rn → Rn sind. Dies ist aber nicht
notwendigerweise so.
Typische Beispiele sind:
31
2. Vektoranalysis
Abbildung 2.1.: Gemeinsame Darstellung eines Vektor- und eines Skalarfeldes: In Blau
und Rot ist im Hintergrund eine Dichteverteilung dargestellt. Blau sind
Gebiete niedriger Dichte, Rot hoher Dichte. Darüber gelegt ist ein Geschwindigkeitsfeld: Die Pfeile geben die Richtung an, die Farbe die Länge
des Vektors
Skalarfelder Temperatur, Ladungsdichte, Massendichte, elektrisches Potential, Luftdruck
Vektorfelder Strömung, Stromdichte, elektrisches/magnetisches Feld, magnetisches Potential
Typischerweise werden Skalarfelder durch farbige Darstellungen oder Höhenlinien dargestellt, Vektorfelder hingegen durch Pfeildarstellungen.
2.2. Gradient, Divergenz, Rotation
Der Nabla-Operator ist aus dem vergangenen Semester schon bekannt
 
∇=
∂
∂x1
 ∂ 
 ∂x2 
∂
∂x3
(2.4)
Damit ist auch direkt die einfachste Anwendung des Nabla-Operators definiert: Der
Gradient.
2.2.1. Gradient
Mathematisch gesehen ist der Gradient die Anwendung des Nabla-Operators auf ein
Skalarfeld. Anschaulich stellt der Gradient die Richtungsableitung entlang der Koordi-
32
2.2. Gradient, Divergenz, Rotation
natenachsen dar

∇Φ =

∂Φ
∂x1
 ∂Φ 
 ∂x2 
∂Φ
∂x3
(2.5)
Der Zusammenhang mit der Richtungsableitung in Richtung des normierten Vektors ~n
ist nun der folgende
∂Φ
Φ(~r + ~n) − Φ(~r)
=
= ∇Φ · ~n
∂~n
|~n|
(2.6)
Beispiel
Φ(x1 , x2 , x3 ) = x21 + 3x2 x23
⇒ ∇Φ = (2x1 , 3x23 , 6x2 x3 )
2.2.2. Divergenz
Die Divergenz ist das Skalarprodukt aus Nabla-Operator und Vektor
   
∂
A1
∂x1

  
∂
~
∇ · A =  ∂x2  · A2
∂
A3
∂x
(2.7)
3
∂A1 ∂A2 ∂A3
+
+
(2.8)
=
∂x1
∂x2
∂x3
Neben der mathematischen Herleitung hat die Divergenz natürlich auch eine physikalische Bedeutung: Mit der Divergenz sind Quellen und Senken eines Feldes verknüpft.
Zur Illustration ist in Abb. 2.2 die Strömung entlang der x1 -Achse durch einen Würfel
~ r) = n(~r)~v (~r) ein Strom, der sich aus Teilchenzahl und Strömungsdargestellt. Dabei sei A(~
geschwindigkeit zusammensetzt. Mit
∆N + Teilchen pro ∆tin ∆V
∆N − Teilchen pro ∆taus ∆V
kann man jetzt die Teilchenänderung im Volumen ∆V bestimmen
∆x1
∆N + = A1 (x1 −
)∆F ∆t
2
∂A1 ∆x1
≈ A1 (x1 ) −
. . . ∆F ∆t
∂x1 2
∆x1
∆N − = A1 (x1 +
)∆F ∆t
2
∂A1 ∆x1
≈ A1 (x1 ) +
. . . ∆F ∆t
∂x1 2
∆N = ∆N + − ∆N −
∂A1
∂A1
=−
∆x1 ∆F ∆t = −
∆V ∆t
∂x1
∂x1
33
2. Vektoranalysis
A1(x1+D
x1/2)
A1(x1-D
x1/2)
D
x1
Abbildung 2.2.: Fluß entlang der x1 -Achse durch einen Würfel mit der Breite ∆x1 und
einer Querschnittsfläche ∆F .
Nun kann man den Übergang von endlichen Volumen und endlichen Zeit zu infinitesimalen Volumina und Zeiten machen
lim
∆V →0,∆t→0
=
∆N
∆V
∆t
=−
∂A1
∂x1
Damit folgt dann, wenn man dieselbe Betrachtung für alle Dimensionen durchführt
∂n
∂n
=
∂t A~
∂t
∂A1 ∂A2 ∂A3
=−
+
+
∂x1
∂x2
∂x3
~
= −∇ · A
Über die Divergenz ist es also möglich die Teilchenzahländerung in einem Volumen durch
eine Strömung zu bestimmen. Dies führt dann zur Kontinuitätsgleichung
∂n
~=0
+∇·A
∂t
(2.9)
Allgemeiner kennzeichnet die Divergenz die Quellen eines Feldes
34
~=0⇒
∇·A
~>0⇒
∇·A
quellenfrei
~<0⇒
∇·A
Senke
Quelle
2.2. Gradient, Divergenz, Rotation
2.2.3. Rotation
Die letzte Operation mit dem Nabla-Operator ist das Kreuzprodukt von Nabla und
einem Vektorfeld

~=
∇·A

∂
 ∂x∂ 1 
 ∂x2 
∂
∂x3

=
∂A3
∂x2
 ∂A
 ∂x31
∂A2
∂x1

A1
×  A2 
A3

2
− ∂A
∂x3
3
− ∂A
∂x1 
1
+ ∂A
∂x2

(2.10)
(2.11)
Den Sinn dieser sog. Rotation erkennt man nicht auf Anhieb, aber über eine Hilfskonstruktion kann man ihr eine physikalische Bedeutung geben. Im Rahmen der Betrachtung
ˆ = 0 gilt. Wie kann man nun
der Divergenz hat sich gezeigt, daß für quellfreie Felder ∇·~A
ˆ konstruieren
~
quellfreie Felder konstruieren? Über ein Hilfsfeld A kann man sich nun~A
Âi =
X
aijk
j,k
∂Ak
∂xj
X ∂ X
∂Ak
ˆ =
∇ ·~A
aijk
∂xi
∂xj
i
=
X
aijk
i,j,k
j,k
∂2A
k
∂xi ∂xj
=0
ˆ mit
Es zeigt sich, daß für aijk = ijk die Gleichung erfüllt ist. Und es gilt, jedes Feld~A
ˆ =
~A
X
i,j,k
ijk
∂Ak
~
=∇×A
∂xj
ist quellenfrei.
2.2.4. Rechenregeln
Rechenregeln für den Nabla-Operator lassen sich formal aus den Rechenregeln für Skalarund Kreuzprodukt zusammen mit den Ableitungsregeln herleiten. Dabei muss man die
Produktregel anwenden, wenn der Nabla-Operator links von einem Produkt steht.
35
2. Vektoranalysis
~ und B
~ Vektorfelder, so gilt:
Sind ψ, ϕ und f Skalarfelder (Funktionen) und A
~
~ + ϕ∇ψ
~
∇(ψϕ)
= ψ ∇ϕ
~ A
~ · B)
~ = (A
~ · ∇)
~ B
~ + (B
~ · ∇)
~ A
~+A
~ × (∇
~ × B)
~ +B
~ × (∇
~ × A)
~
∇(
~ · (ϕA)
~ = ϕ∇
~ ·A
~+A
~ · ∇ϕ
~
∇
~ · (A
~ × B)
~ =B
~ · (∇
~ × A)
~ −A
~ · (∇
~ × B)
~
∇
(2.12)
(2.13)
(2.14)
(2.15)
~ · (∇ϕ)
~
∇
= div (grad ϕ) = ∆ϕ
~ · (∇
~ × A)
~ = div (rot A)
~ =0
∇
~ × (∇ϕ)
~
∇
= rot (grad ϕ) = 0
(2.16)
(2.17)
(2.18)
~ × ϕA
~ = ϕ∇
~ ×A
~−A
~ × ∇ϕ
~
∇
~ × (A
~ × B)
~ = (B
~ · ∇)
~ A
~ − B(
~ ∇
~ · A)
~ + A(
~ ∇
~ · B)
~ − (A
~ · ∇)
~ B
~
∇
(2.20)
~ × (∇
~ × A)
~ = rot (rot A)
~ = grad (div A)
~ − ∆A
~
∇
(2.21)
(2.19)
(Abschnitt ist aus der Wikipedia entnommen)
2.3. Koordinatensystem (Wiederholung)
Physikalische Probleme lassen sich auf verschiedene Weisen mit Hilfe von Koordinaten
beschreiben. Dabei zeigt sich, daß wenn die Koordinaten dem Problem und insbesondere seinen Symmetrien angepasst sind, die mathematische Beschreibung meist sehr viel
einfacher wird.
Es ist z.B. leicht einzusehen, daß eine Beschreibung von Planetenbahnen in kartesischen Koordinaten problematisch ist. Noch deutlich wird es allerdings, wenn man die Bewegung eines Körpers auf einer Kugeloberfläche betrachtet: Bei Verwendung kartesischer
Koordinaten ist man auf 3 Raumkoordinaten angewiesen, während man bei Verwendung
von Kugelkoordinaten sich auf zwei Winkelkoordinaten beschränken kann.
Die kartesischen Koordinaten haben dennoch eine herausragende Stellung, was insbesondere an ihrer Symmetrie liegt. Im folgenden sollen noch einmal die beiden anderen relevanten Koordinatensysteme vorgestellt werden und ihre zentralen Eigenschaften.
Aufbauend darauf werden im nächsten Abschnitt dann die dazugehörigen Differentialoperatoren dargestellt. Alle hier vorgestellten Koordinatensysteme sind orthogonale Koordinatensysteme, dies ist keine zwingende Eigenschaft für ein Koordinatensystem, aber
eine überaus praktische.
Definition Lässt sich jeder Vektor ~u eines Vektorraums V über den Körper K als
Linearkombination
~u = u1~v1 + u2~v2 + · · · + un~vn =
n
X
ui~vi
i=1
ui ∈ K
36
~vi ∈ V
(2.22)
2.3. Koordinatensystem (Wiederholung)
einer Menge B = {~v1 , . . . , ~vn }, n ∈ N linear unabhängiger Vektoren darstellen, so ist B
eine Basis von V . Die Abbildung ΦB : Rn → V ; ΦB (u1 , . . . , un ) = ~u heißt Koordinatensystem.
Die Basisvektoren eines Koordinatensystems lassen sich nun mit dieser Definition bestimmen. In kartesischen Koordinaten gilt allgemein
X
~u =
ui~ei
i
X ∂~u
⇒ d~u =
(
)dui
∂ui
i
X ∂~u
=
|
| e~i dui
∂u
i | {zi}
=1
X
=
dui~ei
i
Damit lässt sich aus d~u/dui jeder Basisvektor bestimmen. In diese Rechnung ist eingegangen, daß die Basisvektoren nicht von den Koordinaten abhängen. Dies ist in krummlinigen Koordinaten meist anders
X
~u =
ui~e~ui
i
X ∂~u
⇒ d~u =
(
)dui
∂ui
i
X ∂~u
| ~eui dui
=
|
∂u
i | {zi}
i.A. 6=1
=
⇒ ~eui =
X
dui~eui
i
∂~
u
∂ui
∂~
u
| ∂u
|
i
Auf diese Weise lassen sich dann die Basisvektoren berechnen. Der Term
gui = |
∂~u
|
∂ui
(2.23)
Heißt dabei Metrikkoeffizient. Seine anschauliche Bedeutung ist dabei der zurückgelegte
Weg für eine infinitesimale Änderung entlang des Einheitsvektors ~eui .
Direkt damit verbunden ist auch die sogenannte Funktionaldeterminante zu bestimmen. Diese wird im weiteren benötigt, um die Integration in krummlinigen Koordinaten
durchzuführen. Dabei ist zu beachten, daß nur in kartesischen Koordinaten das Integrationsgebiet aus inifinitesimalen Würfeln besteht. In krummlinigen Koordinaten. Für die
37
2. Vektoranalysis
korrekte Beschreibung der Integration nimmt man an, daß man ein kartesisches Koordinatensystem und ein anderes Koordinatensystem hat
~r : (x, y, z) ↔ (u, v, w)
Jeder Punkt soll in beiden Koordinatensystem eindeutig definiert sein, damit muß es
bijektive Funktionen
u = u(x, y, z) v = v(x, y, z)
w = w(x, y, z)
geben. Daraus lässt sich wiederum durch Taylor-Entwicklung die Änderung der u, v, w
zu bestimmen
∆u = u(x + ∆x, y + ∆y, z + ∆z)
= (∂x u)∆x + (∂y u)∆y + (∂z u)∆z
∆v = · · · = (∂x v)∆x + (∂y v)∆y + (∂z v)∆z
∆u = . . . (∂x w)∆x + (∂y w)∆y + (∂z w)∆z
Dies lässt sich vereinfacht als Funktionaldeterminante schreiben
∂x u ∂y u ∂z u ∂(u, v, w) = ∂x v ∂y v ∂z v ∂(x, y, z)
∂x w ∂y w ∂z w
Damit hat man nun einen Mechanismus an der Hand, um die infinetisimale Veränderung
von (u, v, w) mit (x, y, z) zu beschreiben (Tatsächlich kann man diesen Zusammenhang
auch durch das Produkt der Metrikkoeffizienten bestimmen). Dies kann man dann im
nächsten Schritt verwenden, um das Volumenelement der Integration zu bestimmen.
φ(x, y, z) → φ(x(u, v, w), . . . ) = φ̃(u, v, w)
Z
Z
∂(u, v, w)
φ(x, y, z)dxdydz =
φ̃(u, v, w)
dudvdw
∂(x, y, z)
V
V
= gu gv gw φ̃(u, v, w)
(2.24)
(2.25)
(2.26)
Die Funktionaldeterminante ergibt also die Größe des Volumenelements eines bestimmten Koordinatensystems.
2.3.1. Kartesische Koordinaten
Die Vectordarstellung ist


x1
~r = x1~e1 + x2~e2 + x3~e3 = x2 
x3
(2.27)
Eine Transformation in kartesische Koordinaten erübrigt sich. Die Funktionaldeterminante ist natürlich 1.
38
2.3. Koordinatensystem (Wiederholung)
π
3/2 π
P(r,φ,z)
φ
r
z
0
1/2 π
Abbildung 2.3.: Darstellung der Zylinderkoordinaten. In der x, y-Ebene beschreiben
r und ϕ einen Punkt, z dann seine Höhe über der Ebene. (Quelle:
Wikipedia)
2.3.2. Zylinderkoordinaten
Zylinderkoordinaten ergeben sich aus den ebenen Polarkoordinaten durch Hinzufügen
einer weiteren (kartesischen) Achse. In Abb. 2.3 sind die Koordinaten dargestellt. Für
die Achsen werden meist die Bezeichner (ρ, ϕ, z) oder (r, ϕ, z) verwendet.
Es gilt
~r = ρ~eρ + z~ez
(2.28)
(Dies ist auch der Grund, wieso üblicherweise ρ als Achsenname benutzt wird: r ist die
Länge des Vektors).
Die kartesischen Koordinaten ergeben sich aus den Zylinderkoordinaten durch
x = ρ cos ϕ
(2.29)
y = ρ sin ϕ
(2.30)
z=z
(2.31)
Um die Zylinderkoordinaten aus kartesischen Koordinaten zu gewinnen, geht man folgendermaßen vor
p
ρ = x2 + y 2
(2.32)
z=z
(
arccos xρ
ϕ=
2π − arccos xρ
(2.33)
für y ≥ 0
für y < 0
(2.34)
39
2. Vektoranalysis
Dabei ist hier der Winkel zwischen [0, 2π] definiert. Viele Programmiersprachen besitzen
eine Funktion atan2 um die Fallunterscheidung beim Winkel zu umgehen.
Aus der Umrechnung der Koordinatensysteme lassen sich nun auch die Einheitsvektoren bestimmen (hier nur für Polarkoordinaten vorgerechnet, da die z-Achse sich nicht
ändert)
~r = x~ex + y~ey = ρ cos ϕ~ex + ρ sin ϕ~ey
∂~r
∂~r
⇒
= cos ϕ~ex + sin ϕ~ey ⇒ | | = gρ = 1
∂ρ
∂ρ
∂~r
∂~r
= −ρ sin ϕ~ex + ρ cos ϕ~ey ⇒ | | = gϕ = ρ
∂ϕ
∂ϕ
⇒ ~eρ = cos ϕ~ex + sin ϕ~ey
~eϕ = − sin ϕ~ex + cos ϕ~ey
Hier kann man auch die Bedeutung des Metrikkoeffizienten gϕ erkennen: Eine Bewegung entlang ~eϕ ist offensichtlich eine Kreisbewegung, damit ist der zurücklegte Weg ein
Kreissegment der Länge ρ∆ϕ.
Für die Funktionaldeterminante gilt
cos ϕ −ρ sin ϕ 0
∂(x, y, z) det
= sin ϕ ρ cos ϕ 0 = ρ < /math >
∂(ρ, ϕ, z) 0
0
1
(2.35)
Folglich ergibt sich für das Volumenelement dV:
dV = ρ dρ dϕ dz
(2.36)
2.3.3. Kugelkoordinaten
Die Kugel- oder sphärischen Koordinaten haben als Koordinaten den Kugelradius r
und die Winkel ϕ (Azimuth) und θ (Polarwinkel). Dieses Koordinatensystem wird in
ähnlicher Weise auch von den Geographen verwendet, allerdings falsch: Während in der
Physik der Polarwinkel von [0; π] geht, wird in der Geographie [−π/2, π/2] verwendet.
Die Transformationsgleichungen von kartesischen in Kugelkoordinaten lauten
p
(2.37)
r = x2 + y 2 + z 2


arctan( xy )
x > 0,



Sgn(y) π
x = 0,
2
ϕ = atan2(y, x) =
(2.38)
y

arctan(
)
+
π
x
<
0
∧
y
≥
0,

x


arctan( y ) − π x < 0 ∧ y < 0.
x
z
z
π
z
θ = arccos p
= arccos
=
− arctan p
(2.39)
2
2
2
2
r
2
x +y +z
x + y2
40
2.3. Koordinatensystem (Wiederholung)
3/2 π
π
P(r,φ,θ)
θ r
φ
r0
0
1/2 π
Abbildung 2.4.: Die Abbildung zeigt einen Punkt P mit den kartesischen Koordinaten
(x, y, z) und den Kugelkoordinaten (r, ϕ, θ) (Quelle: Wikipedia)
Die Rücktransformation erfolgt nach den Gleichungen
x = r · sin θ · cos ϕ
(2.40)
y = r · sin θ · sin ϕ
(2.41)
z = r · cos θ
(2.42)
Die Einheitsvektoren der sphärischen Koordinaten lauten damit:


sin θ · cos ϕ
er =  sin θ · sin ϕ 
cos θ


cos θ · cos ϕ
eθ =  cos θ · sin ϕ 
− sin θ


− sin ϕ
eϕ = + cos ϕ
0
(2.43)
(2.44)
(2.45)
Die Herleitung ist letztlich identisch mit der Herleitung, wie sie für Zylinderkoordinaten vorgeführt wurde.
Die Funktionalmatrix lautet hier nun


sin θ cos ϕ r cos θ cos ϕ −r sin θ sin ϕ
∂(x, y, z) 
= sin θ sin ϕ r cos θ sin ϕ r sin θ cos ϕ 
(2.46)
∂(r, θ, ϕ)
cos θ
−r sin θ
0
41
2. Vektoranalysis
Daraus folgt das Volumenelement
dV = r2 sin θ dϕ dθ dr
(2.47)
Und die Metrikkoeffizienten
gr = 1 gθ = r
gϕ = r sin θ
(2.48)
2.4. Differentialoperatoren in krummlinigen Koordinaten
Die verschiedenen Differentialoperatoren wurden ja schon mit Hilfe physikalischer Beispiele motiviert, letztlich muß nun der Übergang zu anderen Volumenelementen gemacht werden. Dazu verwenden ein allgemeines Koordinatensystem mit den Variablen
(u, v, w) und den dazugehörigen Metrikkoeffizienten gu , gv , gw . Dann gilt für infinitesimale Abstände
d~r = gu du~eu + gv dv~ev + gw dw~ew
dV = gu gv gw dudvdw
(2.49)
(2.50)
Analog gilt dies natürlich auf für Flächen.
2.4.1. Gradient und Nabla-Operator
Der Gradient lässt sich als Richtungsableitung verstehen. Diesen Ansatz verwenden wir
nun, um die Transformation auf ein anderes Koordinatensystem durchzuführen
dΦ = (grad Φ) · d~r = (∇Φ) · d~r
∂~r
∂~r
∂~r
= (∇Φ) ·
du +
dv +
dw
∂u
∂v
∂w
= ((∇Φ)u~eu + (∇Φ)v ~ev + (∇Φ)w~ew ) · (gu du~eu + gv dv~ev + gw dw~ew )
= (∇Φ)u gu du + (∇Φ)v gv dv + (∇Φ)w gw dw
Andererseits gilt aber auch für die linke Seite
∂Φ
∂Φ
∂Φ
dΦ =
du +
dv +
dw
∂u
∂v
∂w
was das totale Differential ausgeschrieben ist. Durch Vergleich der Differentialterme
erhält man dann
1 ∂Φ
1 ∂Φ
1 ∂Φ
(∇Φ)u =
(∇Φ)v =
(∇Φ)w =
gu ∂u
gv ∂v
gw ∂w
1 ∂Φ
1 ∂Φ
1 ∂Φ
⇒ grad Φ = ∇Φ =
~eu +
~ev +
~ew
gu ∂u
gv ∂v
gw ∂w
42
2.4. Differentialoperatoren in krummlinigen Koordinaten
Au(u+?
u/2)
Au(u-?
u/2)
Abbildung 2.5.: Das zu Abb. 2.2 analoge Bild für beliebige orthogonale Koordinaten.
Zylinderkoordinaten
∇=
∂
1 ∂
∂
~eρ +
~eϕ + ~ez
∂ρ
ρ ∂ϕ
∂z
(2.51)
Kugelkoordinaten
∇ = ~er
1 ∂
1
∂
∂
+ ~eθ
+ ~eϕ
∂r
r ∂θ
r sin θ ∂ϕ
(2.52)
2.4.2. Divergenz
Um die Divergenz herzuleiten wurde in kartesische Koordinaten der Fluß durch einen
Würfel beschrieben. Für beliebige orthogonale Koordinaten ergibt sich ein beliebiges
Volumen, wie in Abb. 2.5 dargestellt. Die überaus komplexe Form mag sich zwar ergeben,
wenn man den den Einheitsvektoren folgt (in Kugelkoordinaten ergibt sich so z.B. eine
Kugelschale), aber letztlich interessieren uns nur infinitesimale Volumina. Für die gilt
dann:
∆V = gu gv gw ∆u∆v∆w
(2.53)
Und für den in der Abbildung dargestellten Fluß in u-Richtung, der durch die v − wFläche geht gilt dann
∆F = gv gw ∆v∆w
(2.54)
43
2. Vektoranalysis
Damit ergibt sich folgende Rechnung
∆u
)∆F ∆t
2
∆u
= Au (u ∓
)gv gw ∆v∆w∆t
2
∂
∆u
≈ (Au gv gw +
(Au gv gw )
)∆v∆w∆t
∂u
2
⇒ ∆N = ∆N + − ∆N −
∂
= − (Au gv gw )∆u∆v∆w∆t
∂u
∂
∆V ∆t
= − (Au gv gw )
∂u
gu gv gw
∆N ± = Au (u ∓
Und wiederum analog kann man den Übergang zu unendlich kleinen Volumina und
unendlich kleinen Zeiten machen
!
lim
∆N
∆V
∆V →0,∆t→0
∆t
=
∂n
∂t
Au
1
∂
=−
(A0 gv gw )
gu gv gw ∂u
∂n
1
∂
∂
∂n
∂
=
=−
(Au gv gw ) +
(Av gu gw ) +
(Aw gu gv )
⇒
∂t A~
∂t
gu gv gw ∂u
∂v
∂w
Zylinderkoordinaten
~ = 1 ∂ (ρAρ ) + 1 ∂Aϕ + ∂Az
∇·A
ρ ∂ρ
ρ ∂ϕ
∂z
(2.55)
Kugelkoordinaten
~=
∇·A
1 ∂ 2
1 ∂
1
∂
(r Ar ) +
(sin θAθ ) +
Aϕ
r2 ∂r
r sin θ ∂θ
r sin θ ∂ϕ
(2.56)
BeispielWann ist ein Feld in Kugelkoordinaten quellenfrei? Hierzu haben wir schon
einmal ausströmende Badeenten betrachtet. Nehmen wir an, daß wir im Zentrum einer
Kugel eine Entenquelle haben von der radial Enten ausströmen. Wie verhält sich die
Entendichte, wenn keine Quellen vorhanden sind und die Geschwindigkeit der Enten
konstant ist?
Im ersten Schritt erkennt man, daß die Dichte ρE (~r) = ρE (r) sein muß, da es sich um
eine radiale Bewegung handelt. Damit sind Kugelkoordinaten die geeignete Wahl. Um
44
2.4. Differentialoperatoren in krummlinigen Koordinaten
Quellfreiheit zu garantieren, muß ∇ · (ρE (r)~vE ) = 0 gelten. ~vE = v0~er
1 ∂ 2
!
(r v0 ρE (r)) = 0
r2 ∂r
∂ 2
(r ρE (r)) = 0
∂r
r2 ρE (r) = c
c
ρE (r) = 2
r
2.4.3. Laplace-Operator
Der Laplace-Operator, die zweite Ableitung in mehreren Dimensionen kann aus Gradient
und Divergenz direkt hergeleitet werden, da ∆ = ∇ · ∇ gilt.
∂ gv gw ∂
∂ gu gw ∂
∂
gv gu ∂
1
+
+
(2.57)
∆=
gu gv gw ∂u
gu ∂u
∂v
gv ∂v
∂w
gw ∂w
Zylinderkoordinaten
1 ∂
∆=
ρ ∂ρ
∂
1 ∂2
∂2
ρ
+ 2 2+ 2
∂ρ
ρ ∂φ
∂z
(2.58)
Kugelkoordinaten
∆=
2 ∂
1 ∂2
1 cos θ ∂
1
∂2
∂2
+
+
+
+
2
∂r2 r ∂r r2 ∂θ2 r2 sin θ ∂θ r2 sin θ ∂ϕ2
(2.59)
2.4.4. Rotation
Formell lässt sich die Rotation wieder mit dem Argument der Quellfreiheit konstruieren:
Wir suchen ein Feld, dessen Divergenz Null ist. Dieses Feld lässt sich über die Rotation eines anderen Feldes konstruieren. Allgemein kann die Rotation in krummlinigen
Koordinaten als Determinate schreiben
~eu
~ev
~ew g
g
g
g
g
u w
v gu v w
∂
∂ ~= ∂
∇×A
(2.60)
∂u
∂v
∂w g A g A g A u u
v v
w w
Oder ausgeschrieben
~=
∇×A
∂
∂
1
(gw Aw ) −
(gv Av ) ~eu
gv gw ∂v
∂w
1
∂
∂
+
(gu Au ) −
(gw Aw ) ~ev
gu gw ∂w
∂u
1
∂
∂
+
(gv Av ) −
(gu Au ) ~ew
gu gw ∂u
∂v
(2.61)
45
2. Vektoranalysis
Zylinderkoordinaten
∂Aϕ
∂Aρ ∂Az
∂Aρ
1 ∂
1 ∂Az
~
~eρ +
~eϕ +
~ez
∇×A=
−
−
(ρAϕ ) −
ρ ∂ϕ
∂z
∂z
∂ρ
ρ ∂ρ
∂ϕ
(2.62)
Kugelkoordinaten
1
∂
1
1 ∂Ar
∂Aθ
∂
∇×A=
er +
(Aϕ sin θ) −
−
(rAϕ ) eθ
r sin θ ∂θ
∂ϕ
r sin θ ∂ϕ
∂r
∂Ar
1 ∂
(rAθ ) −
eϕ
+
r ∂r
∂θ
(2.63)
2.4.5. Anwendungen
BeispielElektrischer Dipol in Zylinderkoordinaten
Gegeben sei das Potential Φ und p~ = p~ez
Φ(~r) =
1 p~~r
1
pz
=
3
2
4π0 r
4π0 (ρ + z 2 )3/2
Mit den neu gewonnen Kenntnissen über Differentialoperatoren ist es nun möglich das
elektrische Feld zu berechnen
∂Φ
1 ∂Φ
∂Φ
∇Φ = ~eρ (
) + ~eϕ (
) + ~ez (
)
∂ρ
ρ ∂ϕ
∂z
pz2ρ
1 3
= ~eρ −
4π0 2 (ρ2 + z 2 )5/2
3
pz2ρ
1
p
+ ~ez
(−
+
)
4π0 2 (ρ2 + z 2 )5/2 (ρ2 + z 2 )3/2
p · ~r)
1 p~
1 3(~
(ρ~eρ + z~ez ) +
=
5
4π0 r
|
{z
} 4π0 r3
~
r
Interessant ist es nun, die Divergenz und Rotation des elektrischen Feldes zu berechnen.
1 ∂
∂Ez
~ = 1
∇·E
(ρEρ ) +
4π0 ρ ∂ρ
∂z
1
15pz
15pz(ρ2 + z 2 )
=
−
4π0 (ρ2 + z 2 )5/2
(ρ2 + z 2 )7/2
= 0für r 6= 0
∂Eρ ∂Ez
~
∇×E =
−
∂z
∂ρ
3pρ
5
6pz 2 ρ
5
6pz 2 ρ
3
2pρ
= 2
−
+
−
5/2
7/2
7/2
2
2
2
2
2
2
2 (ρ + z )
2 (ρ + z )
2 (ρ + z 2 )5/2
(ρ + z )
=0
46
2.5. Oberflächenintegrale und Integralsätze
E@rD
Φ@rD
1.0
1.4
0.8
1.2
0.6
1.0
0.4
0.8
0.2
0.6
rR
0.5
1.0
1.5
2.0
2.5
rR
3.0
0.5
1.0
1.5
2.0
2.5
3.0
Abbildung 2.6.: Potential und elektrisches Feld der homogen geladenen Kugel
~ =0
Da nur ein Dipolmoment im Ursprung vorliegt, ist es nicht verwunderlich, daß ∇ · E
ist. Bei näherer Betrachtung zeigt sich aber, daß genau im Ursprung die Divergenz nicht
Null ist. Dies ist verträglich mit der Annahme zweier entgegengesetzter Ladungen, die
das Dipolmoment bilden.
BeispielHomogen geladene Kugel
Das Potential Φ ist gegeben durch
(
q/r
r>R
1
Φ(~r) =
r2
4π0 23 Rq (1 − 3R
r≥R
2)
Daraus kann man das elektrische Feld berechnen
3
Berechnung des elektrischen Feldes

∇Φ = ~er
∂Φ
∂r


 1
 1 ∂Φ 
∂Φ 



+ ~eθ 
 r ∂r  + ~eφ  r sin θ ∂r 
|{z}
|{z}
=0
=
1
4π0
(

q
~e
r2 r
r
q R3 ~er
=0
r>R
2.5. Oberflächenintegrale und Integralsätze
Zusammen mit dem Begriff der Divergenz stellt sich die Frage, wie sich z.B. die Anzahl
von Gasmolekülen in einem Volumen ändert, wenn ein bestimmter Strömung vorliegt,
wie groß also der Fluß durch die Oberfläche des Volumens ist. Die Divergenz ist quasi
die differentielle Antwort auf die Frage. Mit Hilfe eines Oberflächenintegrals kann man
nun den tatsächlichen Fluß durch eine Oberfläche bestimmen.
Im einfachsten Beispiel, dem Fluß durch eine Röhre (Abb. 2.7), kann man den Fluß
~ r)
relativ einfach bestimmen: Es gibt eine Querschnittsfläche F , durch die ein Fluß A(~
47
2. Vektoranalysis
Abbildung 2.7.: Fluß durch eine Röhre. Durch die Geometrie kann die Strömung nur
senkrecht durch Querschnittsfläche gehen.
fließt. Auf Grund
R der Geometrie ist der Fluß immer senkrecht zur Oberfläche womit der
gesamte Fluß F A(~r)df ist.
~ verschwunden, eben weil
Nun ist in diesem Beispiel aber die vektorielle Natur von A
Fluß und Fläche senkrecht aufeinander stehen. Wenn man nun den Fluß durch eine
beliebige Oberfläche (Abb. 2.8) berechnen will, muß man sich Gedanken über den Winkel
zwischen Fläche und Strömung machen. Dabei stellt man fest, daß nur Strömungen, die
senkrecht zur Fläche verlaufen, auch einen Fluß durch die Fläche verursachen.
Um nun den Fluß zu berechnen teilt man die Fläche F in Teilflächen ∆f auf. Zu jeder
~ . Damit ist der Fluß dann
Teilfläche gehört eine Flächennormale ∆f
ΦF =
X
→
~ (~r)i i → ∞, |∆f | → 0
~ ri ) · ∆f
A(~
Z
~ (~r)
~ r) · df
A(~
(2.64)
F
i
~ gleich 0, wenn Strömung und Fläche parallel sind.
~ · df
Dabei ist A
2.5.1. Gauß’scher Satz
Nun geht es darum, die Divergenz, die im Rahmen der Kontinuitätsgleichung die Dichteänderung in einem Volumen beschreibt, mit dem Fluß durch die Oberfläche des Volumens zu verknüpfen. (Es wird sich im weiteren zeigen, daß nicht nur hydrodynamische
Beispiele, sondern auch elektrodynamische Beispiele anführen lassen.)
~ r) und darin ein Volumen V mit geschlossenere
Satz: Gegeben sei ein Vektorfeld A(~
~
Oberfläche FV , deren Normale df (~r) nach außen gerichtet sein. Dann gilt
I
FV
~ (~r) =
~ r) · df
A(~
Z
~ r)dV
∇ · A(~
(2.65)
V
~ r) = ~r in einem Würfel. Die Berechnung des OberflächenBeispielDas Vektorfeld A(~
~ = ~ez dxdy (und
integrals ist bei weitem nicht so trivial, wie es aussieht. Zwar ist df
entsprechend für die anderen Seite des Würfels), aber das Vektorfeld hat einen nicht-
48
2.5. Oberflächenintegrale und Integralsätze
D
f
Abbildung 2.8.: Eine beliebige Fläche, durch die eine (gestrichelte) Strömung fließt. Die
Fläche wird in einzelne Teilflächen zerlegt mit jeweils eigener Flächen~ .
normale ∆f
49
2. Vektoranalysis
konstanten Winkel zur Oberfläche. Mit dem Satz von Gauß wird das aber ziemlich trivial
I
~ (~r)
ΦFV =
~r · df
ZFV
∇ · ~rdV
=
ZV
3dV = 3V
=
V
Da in diesem Beispiel die Divergenz des Vektorfeldes nicht vom Ort abhängt, ist das
Ergebnis auch nicht von dem tatsächlichen Volumen abhängig.
Betrachten wir das nun für ein Wirbelfeld
~ r) = ∇ × A(~
~ r)
B(~
I
~
~ r) · df
⇒ ΦFV = B(~
Z
~
=
∇ · BdV
V
Z
~ =0
∇ · (∇ × A)
=
{z
}
V |
=0
~ entweder völlig im Inneren von V liegt oder aber genauso
Anschaulich heißt das, daß B
viele Feldlinien in das Volumen hineingehen, wie herauskommen.
Beweisskizze:
~ durch die Oberfläche eines kleinen Würfelvolumens ∆V
Der Fluß eines Vektorfeldes A
ist gegeben durch
I
~
~ · df
A
ΦF∆V =
F∆V
∆N
~
≈
≈ ∇ · A∆V
∆t
Nun kann man ein beliebiges Integrationsvolumen in unendlich viele unendlich kleine
Würfel zerlegen. Die Flüsse an den Oberflächen im Inneren des Volumens heben sich
gegenseitig auf, so daß nur der Fluß durch die äußere Oberfläche relevant ist.
BeispielNun noch ein weiteres Beispiel, diesmal aber in anderen Koordinaten. Gegeben
sei das Feld einer Punktladung
~ r) =
E(~
1 q
~er
4π0 r2
Wie groß ist der Fluß durch eine beliebige Fläche, die q umschließt?
Fluß durch eine Kugel um q
I
Z 2π Z π
1 q
~
~
~e · ~er R2 sin θdθdφ
E · df =
2 r
FK
0
0 4π0 r
q
=
0
50
2.5. Oberflächenintegrale und Integralsätze
q
Abbildung 2.9.: Das beliebige Volumen um q wird in zwei Gebiete geteilt: Eine Kugel
im Inneren und die schraffierte Fläche zwischen Kugel und beliebigem
Volumen
Statt nun das beliebige Volumen zu betrachten, nehmen wir ein Volumen, das innen
von der Kugel und außen von der beliebigen Oberfläche begrenzt wird (Abb. 2.9. Wieso?
Nun, wenn man die Divergenz des elektrischen Feldes betrachtet, stellt man fest, daß
gilt
~ =
∇·E
1 ∂ 2 1 q
(r
)=0
r2 ∂r
4π0 r2
(Nur im Ursprung liegt eine Ladung, damit muß das elektrische Feld außerhalb des
Ursprungs quellenfrei sein).
Somit gilt
I
I
I
~
~
~
~
~
~ · df
E · df = 0 =
E · df −
E
FK +F
FK | {z }
F
q/0
I
⇒
F
~ = q
~ · df
E
0
Der Fluß des elektrischen Feldes durch eine beliebige Oberfläche ist also gleich der Summe
der eingeschlossenen Ladung!
2.5.2. Der Stokes’sche Satz
Während der Satz von Gauß Aussagen über Oberflächenintegrale von Feldern mit Quellen macht, bezieht sich der Satz von Stokes auf quellenfreie Felder.
51
2. Vektoranalysis
Im Falle endlicher Flächen gilt
I
1
~
~ · dr
~
~n · (∇ × A) ≈
A
∆F C∆F
I
~
~ ≈
~ · dr
·(∇
×
A)
A
⇒ ∆F
~
n
| {z }
(2.66)
(2.67)
C∆F
~
df
Dabei ist ∆F die Fläche, C∆F deren Umrandung und ~n deren Flächennormale. Mit einer
ähnlichen Argumentation wie beim Satz von Gauß ist es nun möglich, aus unendlich
vielen unendlich kleinen Flächen kann man eine große Fläche zusammensetzen, wobei
sich die Umrandungen im inneren wieder aufheben.
I
Z
~
~
~
~ r) · df
A(~r) · dr =
∇ × A(~
(2.68)
C∆F
F
Der Stokes’sche Satz bildet einen Zusammenhang zwischen Kurven- und Flächenintegralen. Das Wegintegral entlang einer geschlossenen Kurve ist vom Weg unabhängig, wenn
~ = 0 (→ konservative Kraftfelder)
∇×A
BeispielGegeben sei das Vektorfeld
~ = 1B
~ × ~r
A
2
~ Wir wollen nun mit der Kurve C, einem Kreis mit
mit einem konstanten Vektor B.
Radius R das Wegintegral berechnen
I
I
1~
~
~
~
A · dr = B · ~r × |{z}
dr
Spatprodukt!
2
C
=r~eφ dφ
Z
2π
1~
= B
·
R2~er × ~eφ dφ
2
0
~ · ~ez πR2
=B
~ · F~
=B
Nun wenden wir den Satz von Stokes an. Eine Nebenrechnung vorweg
~ × B)
~ = (B
~ · ∇)A
~ − B(∇
~
~ − (~a · ∇)B
~ + A(∇
~
~
∇ × (A
· A)
· B)
~ × ~r) = (~r · ∇)B
~ − ~r(∇ · B)
~ + B(∇
~
~ · ∇)~r
⇒ ∇ × (B
· ~r) − (B
| {z } | {z } | {z } | {z }
=0
=0
~
=3B
~
B
Damit folgt dann
I
C
~ =
~ · dr
A
Z
~
~ · dF
∇×A
FC
Z
~ =B
~
~ · F~
=B·
dF
FC
Stoeks liefert das gleiche Ergebnis allerdings schneller und zusätzlich mit einer Aussage
über allgemeine Flächen.
52
2.6. Einschub: Zeitableitung der Einheitsvektoren
2.6. Einschub: Zeitableitung der Einheitsvektoren
Bisher haben wir uns mit räumlichen Ableitungen in verschiedenen orthogonalen Koordinatensystemen beschäftigt. Es zeigt sich allerdings, daß auch die zeitliche Ableitung
ein wenig mehr Betrachtung benötigt. Daher sollen hier noch einmal Geschwindigkeit
und Beschleunigung in nicht-kartesischen Koordinatensystemen betrachtet werden.
Ebene Polarkoordinaten
Wir haben folgende Einheitsvektoren
~er = cos ϕ~e1 + sin ϕ~e2
~eϕ = − sin ϕ~e1 + cos ϕ~e2
In dieser Darstellung enthalten die Einheitsvektoren nicht-konstante Terme, so daß die
zeitliche Ableitung nicht verschwindet
˙ r = ϕ̇(− sin ϕ~e1 + cos ϕ~e2 ) = φ̇~eϕ
~e
˙ ϕ = ϕ̇(− cos ϕ~e1 − sin ϕ~e2 ) = −ϕ̇~er
~e
In Polarkoordinaten gilt ~r = r~er und somit
˙ = ṙ~er + r~e˙ r
~v =~r
= ṙ~er + rϕ̇~eϕ
˙ = r̈~er + ṙ~e˙ r + ṙϕ̇~eϕ + rϕ̈~eϕ + rϕ̇~e˙ ϕ
~a =~v
= (r̈ − rϕ̇2 )~er + (2ṙϕ̇ + rϕ̈)~eϕ
Kugelkoordinaten Die Rechnung für Kugelkoordinaten folgt dem selben Muster wie
in den ebenen Polarkoordinaten, allerdings mit deutlich mehr Termen. Hier sei nur das
Ergebnis angegeben
~v = ṙ~er + rθ̇~eθ + rϕ̇ sin θ~eϕ
~a = (r̈ + rθ̇2 − rϕ̇2 sin2 θ)~er +
+ (2ṙθ̇ + rθ̈ − rϕ̇2 sin θ cos θ)~eθ +
+ (2ṙφ̇ sin θ + 2rφ̇θ̇ cos θ + rϕ̈ sin θ)~eϕ
53
3. Differentialgleichungen
Wir haben nun schon die Kulturtechniken Differenzieren und Integrieren kennengelernt.
Aber bisher nur bei bekannten Funktionen. Wie sieht aber aus, wenn wir einen funktionellen Zusammenhang suchen?
Betrachten wir das Beispiel des Populationswachstums: Eine Population von, sagen wir mal Bakterien im Mensaessen, habe zum Zeitpunkt t die Größe P (t). Ihre
Größenänderung hängt von der aktuellen Populationsgröße ab (DGL I )
∆P ∝ P (t)∆t
⇒ ∆P = P (t + ∆t) − P (t) = γP (t)∆t
∆P
dP
lim
=
= Ṗ = γP
∆t→0 ∆t
dt
γ = const
Daraus kann man direkt
P (t) = C exp(γt),
C = const
als allgemeine Lösung der DGL ablesen. Erfahrungen zeigen, daß keine Population für
immer ein exponentielles Wachstum aufweist. In den meisten Fällen gibt es eine maximale Population Pmax (DGL II )
dP
= τ P (Pmax − P ) = γP − τ P 2 ,
dt
γ = τ Pmax ,
γ, τ = const
Diese DGL heißt logistische DGL.
Schlimmstenfalls sind γ, τ zeitabhängig (DGL III ) und es existiert eine externe Populationszuname oder -abnahme (DGL IV ). Diese verschiedenen DGL kann man klassifizieren nach folgenden Gesichtspunkten
• DGL I ist linear, DGL II, III sind nichtlinear
• DGL I, II haben konstante, DGL III hingegen variable Koeffizienten
• DGL I, II, III sind homogen, DGL IV ist inhomogen
• Alle DGL sind 1. Ordnung
Ein Beispiel für DGL 2. Ordnung ist die Newtonsche Bewegungsgleichung
m
d2~r
¨ = F (~r, t)
= m~r
dt
55
3. Differentialgleichungen
3.1. Grundbegriffe
Definition
Eine DGL für eine Funktion einer einzelnen unabhängigen Variable heißt gewöhnliche
DGL (ODE, ordinary differential equation). Sind mehrere unabhängige Variablen und
partielle Ableitungen im Spiel, sprechen wir von einer partiellen DGL (PDE, partial
differential equation). Die höchste auftretende Ableitung bestimmt die Ordnung der
DGL.
Eine gewöhnliche DGL n-ter Ordnung hat die allgemeine implizite Form
F (x, y, y 0 , y 00 , . . . , y (n) ) = 0
(3.1)
mit einer Funktion F von (n + 2) unabhängigen Variablen. Ist es möglich, die DGL auf
y n = f (x, y, y 0 , y 00 , . . . , y (n−1) )
(3.2)
umzuformen, liegt eine explizite DGL vor.
3.2. Lineare DGL 1. Ordnung
Die allgemeine Form einer linearen DGL 1. Ordnung ist
y0 =
dy
= γ(x)y(x) + s(x)
dx
(3.3)
mit y = y(x). Wenn die Störfunktion s(x) = 0 ist, liegt eine homogene DGL 1. Ordnung vor, sonst eine inhomogene DGL. Die homogene Gleichung besitzt eine allgemeine
Lösung, die man aus der Separation der Variablen gewinnen kann
dy
dy
= γ(x)y ⇒
dy
y
Z y
⇒
y(x0 )
= γ(x)dx
dy 0
y0
Z
x
(3.4)
γ(x0 )dx0
(3.5)
γ(x0 )dx0
0
0
γ(x )dx
(3.6)
=
x
Z 0x
⇒ log(y) − log(y(x0 ))
⇒ y(x)
=
Z
x0
x
= y(x0 ) exp
(3.7)
x0
Der gegebene Wert y(x0 ) heißt Anfangswert und das Problem mit y 0 = γ(x)y und
y(x0 ) = y0 definierte Problem wird als Anfangswertproblem bezeichnet.
Ohne speziellen Anfangswert spricht man von der allgemeinen Lösung
Z x
0
0
y(x) = C exp
γ(x )dx , C = const
(3.8)
x0
56
3.2. Lineare DGL 1. Ordnung
BeispielVerkaufsrückgang bei steigenden Preisen
V (p) sei der wöchentliche Verkauf eines Produkts zum Stückpreis p
Annahme: Die Verkaufsänderungsrate sei
dV 1
λ
=−
dp V
p
dann lässt sich mit der Trennung der Variablen die Lösung direkt schreiben als
Z p
λ
0
V (p) = V (p0 ) exp
(− 0 )dp
p
p0
p
= V (p0 ) exp(−λ log( ))
p0
λ
p0
= V (p0 )
p
Die Lösung zeigt zwar qualitativ das richtige Verhalten (der Verkauf nimmt bei steigenden Preisen ab), aber
lim V (p) = ∞
p→∞
ist sicher keine realistische Annahme. Daher ein besserer Ansatz
dV
V
= −λ
,
dp
µ+p
µ, λ = const > 0
Damit kann man wiederum durch direktes Ansetzen der Lösung folgedes erhalten
λ
p0
V (p) = V (p0 )
µ+p
womit dann auch gilt
lim V (p) = V (p0 )
p→∞
p0
µ
λ
<∞
Allgemeine Lösung der inhomogenen DGL 1. Ordnung Bisher haben wir die Lösung
einer DGL betrachtet, deren Störglied s(x) = 0 ist. Nun wollen wir einen Schritt weitergehen und auch inhomogene DGL betrachten. Dazu betrachten wir zuerst einmal
irgendeine partikuläre Lösung yp (x) der inhomogenen DGL y 0 = γ(x)y + s(x) und eine
beliebige andere Lösung y(x). Dann kann man folgende Rechnung anstellen
z 0 (x) = (y(x) − yp (x))0
= y 0 (x) − yp0 (x)
= (γ(x)y(x) + s(x)) − (γ(x)yp (x) + s(x))
= γ(x)(y(x) − yp (x))
= γ(x)z(x)
57
3. Differentialgleichungen
Damit ist z(X) = y(x) − yp (x) offenbar Lösung der homogenen DGL
Z x
0
0
z(x) = C exp
γ(x )dx = y(x) − yp (x)
x0
Z x
0
0
⇒ y(x) = yp (x) + C exp
γ(x )dx
x0
Die Lösung der inhomogenen DGL ergibt sich aus der Summe einer speziellen (partikulären) Lösung der inhomogenen DGL und der allgemeinen Lösung der homogenen
DGL.
Wie findet man nun eine Lösung der inhomogenen DGL? Zuerst betrachtet man
y 0 = γ(x)y homogen + s(x)
| {z }
Z
⇒yh
= C exp
0
γ(x )dx
0
Um nun aus der homogenen Lösung yh (x) die Lösung der inhomogenen DGL zu gewinnen, nimmt man nun an, daß C keine Konstante mehr ist (Variation der Konstanten)
Z
0
0
y = C(x) exp
γ(x )dx
Z
Z
dy
0
0
0
0
0
⇒
= C (x) exp
γ(x )dx + C(x)γ(x) exp
γ(x )dx
dx
Diese Ableitung kann man nun in die ursprüngliche inhomogene DGL einsetzen und
erhält dann
Z
Z
Z
C 0 (x) exp
γ(x0 )dx0 + C(x)γ(x) exp
γ(x0 )dx0 = C(x)γ(x) exp
γ(x0 )dx0 + s(x)
Daraus folgt dann
Z
0
0
C (x) = s(x) exp − γ(x )dx
0
Dies ist wiederum eine DGL, diesmal allerdings eine homogene, deren Lösung trivial ist
Z
Z
0
00
00
C(x) = s(x ) exp − γ(x )dx dx0 + C2
Z
Z
Z
y(x) = exp
γ(x0 )dx0 dx ( s(x0 ) exp − γ(x00 )dx00 dx0 + C2 )
Beispiel
y 0 = sin(x) −
58
y
x
3.3. Homogene DGL 1. Ordnung
Zuerst lösen wir die homogene DGL
y0 = −
y
dy
⇒
x
y
=−
log |y|
dx
x
= − log |x| + log |C| ⇒ yh
=
C
x
Nun können wir die Konstanten variieren
C(x)
x
dy
C 0 (x)x − C(x)
=
dx
x2
0
C (x)x − C(x)
C(x)
= sin(x) − 2
x2
x
0
⇒ C (x) = x sin(x)
y=
⇒ C(x) = sin(x) − x cos(x) + C2
C2 + sin(x)
⇒ y(x) =
− cos(X)
x
3.3. Homogene DGL 1. Ordnung
Einen Sonderfall bilden sogenannte homogenen DGL 1. Ordnung. Diese haben die allgemeine Form
y0 = f (
y
x
(3.9)
Diese lassen sich durch ein geeignetes Substitutionsverfahren lösen, das hier kurz angerissen werden soll.
y 0 = xu0 + u = f (u)
f (u) − u
u0 =
x
y(x) = xu(x) →
→
Es ist leicht zu sehen, daß es sich hier um eine DGL mit getrennten Variablen handelt,
die mit bekannten Methoden gelöst werden kann
Z
du
=
f (u) − u
Z
dx
x
Anschließend kann u(x) wieder benutzt werden, um y(x) bestimmt werden.
59
3. Differentialgleichungen
Beispiel
y0 =
⇒ u0 =
u−
1
u2
y x2
−
x y2
−u
x
1
=− 2
xu
Z
Z
dx
u3
⇒ u2 du = −
⇒
x
3
= − log x
u = (C − 3 log x)1/3 ⇒ y = x(C − 3 log x)1/3
3.4. Nichtlineare DGL 1. Ordnung
Es gibt unendlich viele DGL diesen Typs. Es ist zwar möglich, die DGL weiter zu klassifizieren und zum Teil auch zu lösen, aber nicht immer kommt man auf eine Lösung. Hier
sollen zwei Verfahren vorgestellt werden und die Existenz der Lösung bewiesen werden.
Separation der Variablen Kann man die DGL auf die Form
dy
= f (x)g(y)
dx
(3.10)
bringen, so lässt sich das bekannte Verfahren der Separation der Variablen verwenden
Z
Z
dy
dy
= f (x)dx ⇒
= f (x)dx
(3.11)
g(y)
g(y)
BeispielDosis-/Wirkungsfunktion eines Medikaments
• W (x) Wirkung von x Einheiten
• S Sättigung
• Beobachtun:
dW
dx
=K
W 2
,
x
K ist eine Konstante und es gilt limx→∞ W (x) = S
Nun gilt
dx
dW
=K 2
2
W
x
1
x
=− +C
⇒−
W
K
x
⇒ W (x) = −
Cx − k
Als Randbedingung haben wir noch den Limes für x → ∞
lim W (x) = S = −
x→∞
60
1
1
⇒C=−
C
S
3.5. Lineare DGL 2. Ordnung
3.5. Lineare DGL 2. Ordnung
Viele Probleme der Physik sind als DGL 2. Ordnung zu klassifizieren (Newtonsche Bewegungsgleichung, Schrödingergleichung, Wellengleichung etc.). Die allgemeine Form ist
y 00 (x) + a(x)y 0 (x) + b(x)y(x) = s(x)
(3.12)
Auch hier liegt für s(x) = 0 eine homogene DGL vor.
3.5.1. Lineare DGL 2. Ordnung mit variablen Koeffiziente
Die allgemeine homogene Lösung mit stetigen Koeffizienten a(x), b(x) lautet
y(x) = c1 y1 (x) + c2 y2 (x)
(3.13)
folgt also dem sogenannten Superpositionsprinzip. y1 (x) und y2 (x) sind dabei linear
unabhängige Lösungen, d.h. die Wronski-Determinante ist von Null verschieden
y1 (x) y2 (x)
6= 0
W (y1 , y2 )(x) = 0
(3.14)
y1
y20 Die Wronski-Determinante macht Aussagen über die lineare Unabhängigkeit von Lösungen, wie ihre Form zustande kommt, sehen wir später bei der Umformung von DGL 2.
Ordnung in Systeme von DGL 1. Ordnung. Die beiden linear unabhängigen Lösungen
bilden das Fundamentalsystem der homogenen DGL.
Wie auch schon bei der DGL 1. Ordnung ergibt sich die Lösung der inhomogenen
DGL aus einer partikulären Lösung und der allgemeinen homogenen Lösung. Mit der
Lösung der DGL 2. Ordnung mit variablen Koeffizienten werden wir uns im Rahmen
dieser Vorlesung nicht weiter beschäftigen, da dies z.T. relativ komplex ist.
3.5.2. Homogene lineare DGL 2. Ordnung mit konstanten Koeffizienten
Während die DGL mit variablen Koeffizienten durchaus sehr komplex sein kann, gibt es
für die DGL mit konstanten Koeffizienten ein sehr effizientes Standardverfahren. Ausgehend von der DGL
y 00 (x) + ay 0 (x) + by(x) = 0
(3.15)
wählt man den sog. Eulerschen Ansatz. Dabei geht man davon aus, daß sich die Lösung
als Exponentialfunktion schreiben lässt
y(x) = C exp(λx)
C, λ = const
(3.16)
Damit können nun erste und zweite Ableitung berechnet werden
y 0 = Cλ exp(λx) = λy(x)
00
2
2
y = Cλ exp(λx) = λ y(x)
(3.17)
(3.18)
61
3. Differentialgleichungen
Setzt man nun diesen Ansatz in die ursprüngliche DGL ein, so erhält man eine algebraische Gleichung
λ2 y(x) + λay(x) + by(x) = 0
(3.19)
2
(3.20)
⇒ λ + λa + b = 0
Diese algebraische Gleichung ist trivial lösbar. Allerdings müssen Spezialfälle berücksichtigt werden. Mit ∆ = a2 − 4b und C1 , C2 = const ∈ R folgt

√
λ1,2 = 21 (−a ± ∆, ∆ > 0

C1 exp(λ1 x) + C2 exp(λ2 x)
y(x) = (C1 + C2 x) exp(− a2 x)
(3.21)
∆=0
√


−∆
a
(C1 cos(βx) + C2 sin(βx)) exp(αx) α = − 2 , β = 2 , ∆ < 0
Der Fall ∆ = 0 führt zu zwei identischen Nullstellen und somit zu einer entarteten
Lösung. Da eine DGL 2. Ordnung aber immer zwei verschiedene Lösungen hat, muß hier
noch eine zweite Lösung konstruiert werden. Diese zweite Lösung ist hier x exp(λx). Für
DGL höherer Ordnung ist das Verfahren identisch und bei mehrfachen Nullstellen wird
mit Polynomen eine weitere unabhängige Lösung konstruiert.
Schwingungen Die DGL 2. Ordnung mit konstanten Koeffizienten lassen sich in der
Regel als Schwingungsgleichungen identifizieren mit der Form
mẍ = −µẋ
|{z}
−kx
|{z}
,
µ, k = const
Reibung Rückstellkraft
⇒ ẍ +
µ
m}
| {z
a
+
k
=0
m
| {z }
b
⇒∆=
µ 2
m
+4
k
m
Abhängig vom Vorzeichen von ∆ ergeben sich dann gedämpfte Schwingung, Kriechfall
und aperiodischer Grenzfall. Hier sei noch einmal der Fall ∆ = 0 (aperiodischer Grenzfall
dokumentiert
∆=0
⇒k
µ2
4m
µ ⇒ x(t) = (C1 + C2 t) exp −
t
2m
µ
Es gilt dabei x(0) = C1 und ẋ(0) = C2 − 2m
C1 . Damit lässt sich aus bekannten Anfangswerten die bestimmte Lösung angeben
µ µ
x(t) = (x(0) + (
x(0) + ẋ(0))t) exp −
t
2m
2m
62
3.5. Lineare DGL 2. Ordnung
3.5.3. Inhomogene lineare DGL 2. Ordnung mit konstanten Koeffizienten
Bisher wurden die externen Einflüsse vernachlässigt, so wie eine periodische Anregug
bei der Schwingungsgleichung. Hier sollen nun für die inhomogene Gleichung Lösungsverfahren aufgezeigt werden.
Allgemeine Form der DGL
y 00 (x) + ay 0 (x) + by(x) = s(x),
a, b = const
(3.22)
Wie schon bei der DGL 1. Ordnung gilt hier, daß sich die Lösung aus der Lösung der
homogenen und einer partikulären Lösung ergibt. Ebenfalls wie bei DGL 1. Ordnung
kann man diese DGL über Variation der Konstanten formell lösen, allerdings mit zwei
zu variierenden Konstanten. Der Vollständigkeit halber sei die Lösung angegeben

Rx
R
0 )s(x0 )dx0 − exp(λ x) x exp(−λ x0 )s(x0 )dx0
 1
exp(λ
x)
exp(−λ
x
λ1 =
6 λ2
2
2
1
1
λ1 −λ2
x0
x0
R
yp (x) =
R
exp(λx) x x exp(−λx0 )s(x0 )dx0 − x x0 exp(−λx0 )s(x0 )dx0
λ1 = λ2 = λ
x0
x0
(3.23)
Und genau wie bei der exakten Formulierung der Variation der Konstanten für DGL 1.
Ordnung ist auch hier dieser Ansatz formell richtig, aber meist unpraktikabel. Tatsächlich
werden meist folgende Verfahren genutzt
• geeigneter Ansatz (auch geschicktes Raten)
• Variation der Konstanten (nicht nach dem formellen Endergebnis)
• Laplace-Transformation
Geeigneter Ansatz Für bestimmte Störfunktionen s(x) kann man leicht geeignete
Lösungsansätze wählen. Ein sehr häufiger Fall ist eine Funktion der Form
(
cos(βx)
2
m
s(x) = (k0 + k1 x + k2 x + . . . km x ) exp(αx)
(3.24)
sin(βx)
Man kann schon vermuten, daß die Lösung auch wieder die Form Polynom multipliziert mit komplexer Exponentialfunktion hat. Um die genaue Lösung zu formalisieren,
benötigt man noch einmal das charakteristische Polynom, das wir für die homogene
Gleichung hergeleitet haben. Für die homogene Gleichung erfüllt diese ja die Bedingung
P (λ1,2 ) = 0. Als partikuläre Lösung erhält man


((A0 + A1 x + · · · + Am xm ) cos(βx)



 +(B + B x + · · · + B xm ) sin(βx)) exp(αx) fürP (α + iβ) 6= 0
0
1
m
yp (x) =
ν
x ((A0 + A1 x + · · · + Am xm ) cos(βx)



 +(B + B x + · · · + B xm ) sin(βx)) exp(αx) für(α + iβ)νfache Nullstellevonp
0
1
m
(3.25)
63
3. Differentialgleichungen
Die tatsächliche Lösung erhält man dann durch Verwendung dieses Lösungsansatzes und
Koeffizientenvergleich.
Beispiel
ÿ + 4ẏ = cos(2t)
Für die homogene Lösung erhält man
ÿh + 4ẏh = 0
yh (t) = C exp(λt)
⇒ λ2 + 4λ = 0
p(λ) = λ2 + 4λ
Die Lösungen sind somit λ = −4 und λ = 0
Für die Inhomogenität vergleichen wir erst einmal die Form und erhalten dann
k0 = 1 k1 = · · · = km = 0 α = 0 β = 2
Eingesetzt in das charakteristische Polynom liefert dies
P (0 + 2i) = −4 + 8i 6= 0
Somit ist klar, welchen Lösungsansatz wir wählen müssen. Damit gilt dann
yp = A0 cos(2t) + B0 sin(2t)
ẏp = −2A0 sin(2t) + 2B0 cos(2t)
ÿp = −4A0 cos(2t) − 4B0 sin(2t)
Das können wir nun in die DGL einsetzen und Koeffizientenweise (hier also nach Sinusund Kosinustermen, bei Polynomen höherer Ordnung auch nach Potenz von x mal Sinus
oder Kosinus vergleichen)
8A0 + 4B0 = 0
−4A0 + 8B0 = 1
Daraus ergibt sich A0 = −1/20 und B0 = 1/10. Die allgemeine Lösung lautet dann
y(t) = C1 + C2 exp(−4t) +
1
1
sin(2t) −
cos(2t)
10
20
Variation der Konstanten Die formelle Lösung der Variation der Konstanten haben
wir schon zu Beginn des Abschnitts gesehen, hier soll noch einmal das Grundprinzip
vorgestellt werden.
yh (x) = C1 y1 (x) + C2 y2 (x)
(3.26)
yp (x) = C1 (x)y1 (x) + C2 (x)y2 (x)
0
(3.27)
0
0
0
ẏp (x) = C1 (x)y1 (x) + C2 (x)y2 (x) + C1 (x) y1 (x) + C2 (x) y2 (x)
64
(3.28)
3.5. Lineare DGL 2. Ordnung
Natürlich könnte man an dieser Stelle weitergehen und auch die zweite Ableitungen
berechnen und anschließend in die DGL einsetzen. Dies führt allerdings nicht zu einer
Lösung. Stattdessen stellen wir zwei Forderungen auf:
1. C1 (x)0 y1 (x) + C2 (x)0 y2 (x) = 0
⇒yp0
=
C1 y100
+
C2 y200
+
C10 y10
+
(3.29)
C20 y20 2.
Ċ1 ẏ1 + Ċ2 ẏ2 = s(x)
(3.30)
Dies lässt sich dann wiederum in die ursprüngliche DGL einsetzen
C1 y100 + C2 y200 + C10 y10 + C20 y20 +a(C1 y10 + C2 y20 ) + b(C1 y1 + C2 y2 ) = s(x)
|
{z
}
(3.31)
s(x)
⇒ C1 y100 + ay10 + by1 +C2 y200 + ay20 + by2 = 0
|
{z
}
|
{z
}
=0
(3.32)
=0
Die Konstruktion liefert eine partikuläre Lösung mit
C10 y1 + C2 y20 = 0
(3.33)
C10 y10
(3.34)
+
C2 y20
=s
Dieses Gleichungssystem lässt sich dann für C1 und C2 lösen. Mit Gleichungssystemen
von DGL 1. Ordnung werden wir uns im nächsten Abschnitt detailliert beschäftigen,
hier dennoch ein
Beispiel
ÿ + 4ẏ = cos(2t)
⇒ λ2 + 4λ = 0 ⇒ λ1 = 0, λ2 = −4
⇒ yh (t) = C1 + C2 exp(−4t)
⇒
C10 (t)
yp (t)
0
+ C2 (t) exp(−4t)
−4C20 exp(−4t)
= C1 (t) + C2 (t) exp(−4t)
=0
= cos(2t)
1
⇒ C20 (t) = − exp(4t) cos(2t)
4
1
0
C1 (t) = cos(2t)
4
Das muß dann einfach nur noch integriert werden
1
sin(2t)
8
1 1
C2 (t) = −
(2 cos(2t) + sin(2t)) exp(4t)
4 10
C1 (t) =
65
3. Differentialgleichungen
3.6. Lineare DGL n-ter Ordnung
Nehmen wir ein System von N homogenen, lineare DGL mit
yi0
=
N
X
aij yj
i = 1, 2, . . . , N
(3.35)
j=1
wobei die aij konstant sind. Auch hier findet sich wieder ein Exponentialansatz
yi (x) = Yi exp(λx)
λYi exp(λx) =
N
X
aij Yj exp(λx)
(3.36)
(3.37)
j=1
⇒
N
X
(λδij − aij )Yj =
(3.38)
j=1
Das ist, wie man leicht erkennt, eine Eigenwertgleichung, da wir nur an nicht-trivialen
Lösungen (Yj 6= 0) interessiert sind. Aus
det(aij − λ1) = 0
(3.39)
folgen dann die N Eigenwerte mit der entsprechenden Lösung exp(λx). Die Eigenvektoren entsprechen dann den Vektoren Yj
BeispielGegeben sei das DGL-System
y10 = y2
y20 = ay1 + by2
Dieses Gleichungssystem lässt sich schreiben als
0 y1
y1
0 1
=
y2
a b
y2
Daraus folgt dann die Eigenwertgleichung
−λ
1 a b − λ = 0
p
Mit den Lösungen λ1,2 = −b/2 ± b2 /4 − a. Damit folgen die Lösungen exp(λ1,2 x).
Aus dem Beispiel folgen nun die Eigenwerte und somit die Exponentialfunktionen in
der Lösung. Wie kommt man aber nun auf die endgültige Lösung? Wir brauchen noch
die Vektoren. Hier zeigt sich, daß die Lösung als
~y (x) =
N
X
i=1
66
Ci ~yi (x)
(3.40)
3.6. Lineare DGL n-ter Ordnung
schreiben lässt. Auch hier müssen wir lineare Unabhängigkeit erfüllen.
Y (x) = (~y1 (x), ~y2 (x), . . . , ~yN (x))
(3.41)
W (x) = det Y (x) 6= 0
(3.42)
Die Wronski-Determinante (die hier anders definiert ist, als bei der DGL 2. Ordnung!),
zeigt hier auch wieder die lineare Unabhängigkeit. Die Lösung ist nun, daß jede Lösung
mit ihrem Eigenvektor eingeht.
Beispiel
0 y1
1 2
y1
=
y2
2 1
y2
Die Berechnung der Eigenwerte liefert λ1 = 3 und λ2 = −1. Die zugehörigen Eigenvektoren sind ~yλ1 = (1, 1) und ~yλ2 = (−1, 1). Damit ist die Lösung der DGL
−1
1
exp(−x)
exp(3x) + C2
~y (x) = C1
1
1
Ein Fall wird hier nicht behandelt: Der Fall entarteter Eigenwerte. Für entartete Eigenwerte stellt sich die Frage, ob sich dafür linear unabhängige Eigenvektoren finden
lassen. Für die weitere Betrachtung sei auf die Vorlesung Mathematik III für Physiker
verwiesen.
DGL n-ter Ordnung und Systeme von n DGL 1. Ordnung Zwischen Systemen von n
DGL 1. Ordnung und DGL n-ter Ordnung besteht ein einfacher Zusammenhang: Jede
DGL n-ter Ordnung lässt sich in System von n DGL 1. Ordnung transformieren und
zwar über folgenden Zusammenhang
y (n) + a1 y (n−1) + · · · + an y(x) = 0
(3.43)
yn = y
yn−1 = y
y1 = y
⇒
y10
+ a1 y1 + · · · + an yn =
(3.44)
0
(3.45)
(n)
(3.46)
0
0yi+1
= yi
(3.47)
Durch diese Trafo wird jede Ableitung durch eine eigene Variable ersetzt. Damit ergibt sich auch die Lösung nach dem selben Schema. Nun wird auch klar, wieso die
Wronski-Determinante für Systeme und DGL höherer Ordnung unterschiedlich definiert
sind und dennoch dasselbe liefern: Für DGL höherer Ordnung lassen sich in der WronskiDeterminante die Ableitungen dann durch unabhängige Variablen ersetzen und man
erhält eine identische Definition der Wronski-Determinante.
Alternativ kann man aber auch für die DGL n-ter Ordnung direkt den Eulerschen
Ansatz anwenden. Dies führt dann wiederum zu algebraischen Gleichungen (n-ter Ordnung). Die Lösung ist dann ebenfalls trivial.
Die Lösung von inhomogenen DGL höherer Ordnung soll hier ebenfalls nicht behandelt
werden.
67
3. Differentialgleichungen
3.7. Existenz und Eindeutigkeitssatz
Neben der technischen Lösung von DGL sollte man noch einen wichtigen theoretischen
Aspekt berücksichtigen: Sind DGL überhaupt lösbar und falls ja, wie viele Lösungen
gibt es. Im Fall der DGL erster Ordnung gibt es hier einen wichtigen Satz, der Aussagen
darüber macht: Den Existenz- und Eindeutigkeitssatz von Picard-Lindelöf.
Das Anfangswertproblem
dy
= f (x, y)
dy
y(x0 ) = y0
x, y ∈ R
(3.48)
besitzt auf dem Intervall [x0 −α; x0 +α] mit α = min(a, Mb undM = max |f (x, y)| genau
eine Lösung, wenn f (x, y) stetig auf dem Rechteck R = {(x, y)|x − x0 | ≤ a, |y − y0 | ≤ b}
und es eine positive Lipschitz-Konstante L gibt mit
|f (x, y) − f (, ŷ)| ≤ L|y − ŷ|
(3.49)
(Die Funktion ist also Lipschitz-stetig auf R).
Der Satz zeigt Existenz und Eindeutigkeit der Lösung, aber auch ihre iterative Konstruierbarkeit.
Numerische Lösung Eine große Zahl nichtlinearer DGL lassen sich prinzipiell nicht
analytisch lösen. In der Physik jenseits dieser Vorlesung sind die meisten DGL tatsächlich
auch nicht analytisch lösbar. Um dieses Problem zu umgehen wird eine Reihe numerischer
Verfahren verwendet. Das einfachste dieser Verfahren ist das Euler-Verfahren, das aber
für eine tatsächliche Benutzung viel zu langsam konvergiert.
Stattdessen wird in sehr vielen Fällen das Runge-Kutta-Verfahren verwendet. Auch
wenn das RK-Verfahren das belieteste Standardverfahren ist, gibt es auch ein paar Fallstricke. Die sollen aber in einer anderen Vorlesung besprochen werden.
Für das Runge-Kutta-Verfahren nimmt man ein Anfangswertproblem mit einer expliziten DGL 1. Ordnung an, so daß sich die DGL als
dy
= f (x, y) y(x0 ) = y0
dx
(3.50)
schreiben lässt. Wir wollen den Wert y(b) auf dem Intervall [a; b] bestimmen. Dazu teilt
man das Intervall in n äquidistante Intervalle der Länge h = b−a
n .
xi+1 = xi
x0 = a
(3.51)
xn = b
(3.52)
Damit kann man in erster Ordnung die Lösung schrittweise approximieren
dy = y(xi ) + hf (xi , yi )
y(xi+1 ) = y(xi ) + h
dy xi
68
(3.53)
3.8. Separierbare partielle DGL
Das wäre dann das oben erwähnte Eulerverfahren. Graphisch entspricht es dem Verfolgen
der Tangente an der Kurve. Dadurch, daß dieses Verfahren “1. Ordnung” ist, benötigt
man sehr viele Einzelschritte, um eine Lösung zu berechnen.
Erheblich besser wird es, wenn man Runge-Kutta 4. Ordnung verwendet
y( xi+1 ) = y(xi ) + ki
h
ki = (k1i + k2i + k3i + k4i )
6
k1i = f (xi , yi )
h
h
k2i = f (xi + , yi + k1i )k3i
2
2
(3.54)
(3.55)
(3.56)
= f (xi +
h
h
, yi + k2i )
2
2
(3.57)
Auch dieses Verfahren kann man graphisch mit Tangenten darstellen, allerdings werden
hier mehrfach verbesserte Werte für den Mittelpunkt der Tangente bestimmt.
3.8. Separierbare partielle DGL
Bisher haben wir uns ausschließlich mit DGL von einer Variablen beschäftigt. Tatsächlich
sind die meisten DGL von mehreren Variablen abhängig. Auf der anderen Seite besteht
aber das Problem, daß partielle DGL nur in einer Unterklasse überhaupt potentiell lösbar
sind. Dies sind die separierbaren partiellen DGL. Die DGL für das Zentralkraftproblem,
das Wasserstoffatom oder auch nur die mehrdimensionale Schwingungsgleichung fallen
in diese Kategorie.
Ein typischer Vertreter dieser Klasse von DGL ist die Helmholtzgleichung
∂2Ψ ∂2Ψ ∂2Ψ
+
+
+ k2 Ψ = 0
∂x2
∂y 2
∂z 2
(3.58)
Diese Gleichung geht in nur einer Dimension auf die Schwingungsgleichung einer Seite
zurück und beschreibt hier die Schwingung einer Membran.
Wie geht man nun bei der Lösung dieser DGL vor? Aus der Physik kann man annehmen, daß bei der Schwingung einer Membran die einzelnen Richtungen sich überlagern,
man also schreiben kann
Ψ(x, y, z) = X(x)Y (y)Z(z)
(3.59)
Die Tatsache, daß x, y, z nicht explizit vorkommen und es keine gemischten Ableitungen
gibt, spricht auch dafür.
Diesen Ansatz kann man nun in die DGL einsetzen
YZ
∂2X
∂2Y
∂2Z
+
XZ
+
XY
+ k 2 XY Z = 0
∂x2
∂y 2
∂z 2
1 ∂2X
1 ∂2Y
1 ∂2Z
⇒
+
+
= −k 2
X ∂x2
Y ∂y 2
Z ∂z 2
(3.60)
(3.61)
69
3. Differentialgleichungen
Der Trick ist nun, daß jeder der Summanden auf der linken Seite nur von einer Variable
abhängt. Damit muß jeder Term einzeln konstant sein. Dies lässt sich leicht verstehen:
Wird im ersten Term x geändert, y und z bleiben aber konstant, so muß der x-abhängige
Term konstant sein, denn alle anderen Terme sind konstant.
Nun weist man jedem Term einzeln ein Separationskonstante zu:
1 ∂2X
1 ∂2Y
1 ∂2Z
2
2
=
−l
=
−k
−
−
X ∂x2
Y ∂y 2
Z ∂z 2
1 ∂2Y
⇒
= −m2
Y ∂y 2
1 ∂2Z
= −k 2 − l2 − m2 = −n2
Z ∂z 2
(3.62)
(3.63)
(3.64)
Die Wahl des negativen Vorzeichens ist prinzipiell beliebig, da wir die Lösung aber
kennen, zeigt es sich, daß das eine günstige Wahl ist. Die l, m, n parametrisieren die
Lösung. Da zwischen diesen drei Parametern und k eine Beziehung festgelegt ist, hängt
die Lösung nur von zwei Parametern ab
Ψlm (x, y, z) = Xl (x)Ym (y)Zn (z)
2
2
2
2
k =l +m +n
X
Ψ=
al,m Ψl,m
(3.65)
(3.66)
(3.67)
l,m
BeispielQuadratische Trommel
∂2Ψ ∂2Ψ
+
+ k2 Ψ = 0
∂x2
∂y 2
Ψ(0, y) = Ψ(a, y) = Ψ(x, 0) = Ψ(x, a) = 0
Dieses Beispiel entspricht einer am Rand eingespannten Trommel (die Auslenkung an den
Kanten ist 0) mit einer Federkonstante k. Wir wählen den Ansatz Ψ(x, y) = X(x)Y (y).
1 ∂2X
1 ∂2Y
+
X ∂x2
Y ∂y 2
∂2X
∂x2
∂2Y
∂y 2
l2 + m2
= −k 2
= −l2 X
= −m2 Y
= k2
Die Lösung der separierten DGL ist trivial
Xl (x) = Al sin(lx) + Bl cos(lx)
70
3.8. Separierbare partielle DGL
Wie nicht anders zu erwarten, hat auch diese DGL 2. Ordnung zwei Lösungen. Aus den
Randbedingungen kann man jetzt folgende Schlüsse ziehen
Xl (0) = 0
⇒ Bl = 0
Xl (a) = 0
⇒ sin(la) = 0
Die Cosinus-Lösungen verschwinden schon einmal, aus dem rechten Rand gewinnen wir
aber eine Aussage über l!.
la = nl π
nl ∈ N
Wir gewinnen also eine diskrete Quantenzahl. Anschaulich beschreibt diese Quantenzahl
die Zahl der Wellenberge, die sich unterbringen lässt. Es folgt daraus
n2l + n2m =
k 2 a2
π2
Zu jedem k gehören also Kombinationen von nl und nm , die die x und y Lösung beschreiben.
BeispielWellengleichung
Die Helmholtzgleichung beschreibt die Schwingung einer Membran, allerdings nur deren
Ortsanteil. Um die zeitliche Entwicklung einer Schwingung zu betrachten, schauen wir
uns die Wellengleichung (hier in 1D) an
2
∂2u
2∂ u
−
c
=0
∂t2
∂x2
u soll hier wieder die Randbedingung u(0, t) = u(l, t) = 0 erfüllen. Wiederum machen
wir einen Separationsansatz
u(x, t) = X(x)T (t)
es folgt
X 00
1 T̈
(x) = 2 (t)
X
c T
X 00 + λ2 X = 0
T̈ + c2 λ2 T = 0
Für λ = 0 lauten die Lösungen X(x) = a0 + a1 x und T (t) = b0 + b1 t. Es ist offensichtlich,
daß diese Lösungen nur für a0 = a1 = b0 = b1 = 0 die Randbedingungen erfüllen können.
Ansonsten lauten die Lösungen
X(x) = a1 cos(λx) + a2 sin(λx)
T (t) = b1 cos(cλt) + b2 sin(cλt)
71
3. Differentialgleichungen
Wie schon im vorherigen Beispiel, kann man für den Ortsanteil folgern, daß a1 = 0 ist
und
λn =
nπ
,
l
n∈N
Nun kann man aber noch die Anfangsbedingungen des Problems berücksichtigen
u(x, 0) = φ(x),
ut (x, 0) = ψ(x)
Wie muß man nun die Lösung zusammensetzen, um die Anfangsbedingunen zu erfüllen?
u(x, t) =
u(x, 0) =
ut (x, 0) =
∞
X
n=1
∞
X
n=1
∞
X
sin(
nπ
nπ nπ x) An cos( ct) + Bn sin( ct)
l
l
l
An sin(
cBn
n=1
nπ
!
x) = φ(x)
l
nπ
nπ
!
sin( x) = ψ(x)
l
l
Hier hat man nun auf der linken Seite der Gleichung eine unendlich Summe von Lösungen
stehen. Wie findet man nun die Koeffizienten An und Bn heraus? Hier kann man sich
zu Nutze machen, daß die Lösungen orthogonale Funktionen sind, die folgende Relation
erfüllen
Z l
nπ
mπ
1
sin( x) sin(
x) = δnm
l
l
2
0
Damit ist es nun möglich, die Koeffizienten zu bestimmen, indem man mit den orthogonalen Funktionen multipliziert und über die [0; l] integriert
2
l
Z
l
nπ
φ(x) sin( x)dx
l
0
Z l
nπ
2
ψ(x) sin( x)dx
Bn =
nπl 0
l
An =
Man erkennt, daß es sich hier offensichtlich um eine Fouriertransformation handelt!
Grundsätzlich stellen die Lösungen, die auf diese Weise für die separierten DGL gewonnen werden, immer orthogonale Funktionen dar.
Separierbare partielle DGL in krummlinigen Koordinaten Im vorherigen Abschnitt
haben wir die Helmholtzgleichung kennengelernt. Diese lässt sich allgemein als
∆u(~x) + k 2 u(~x) = h(x)
(3.68)
schreiben. Wenn wir nun statt einer quadratischen Membran zu einer kreisförmigen
Membran übergehen und Lösungen annehmen, die radialsymmetrisch sind (u(~x) = f (r)),
72
3.9. Fourier- und Laplace-Transformation
können wir den Radialanteil des Laplace-Operators verwenden (hier allgemein für ndimensionale Probleme)
1 ∂
∂2
n−1 ∂
n−1 ∂
∆r = n−1
r
= 2+
(3.69)
r
∂r
∂r
∂r
r ∂r
Dies wiederum führt zur DGL
n−1 0
f (r) + k 2 f (r) = 0
(3.70)
r
Die Lösung dieser DGL ist nun im Gegensatz zum kartesischen Problem alles andere
als trivial. Es wird sich im nächsten Semester zeigen, daß die Lösung die zylindrischen
Besselfunktionen sind.
BeispielBewegung om konservativen Zentralkraftfeld
Der Klassiker unter den DGL ist die Bewegung im Zentralkraftfeld. Es gelte F~ (~r) =
F (~r)~er , womit F~ konservativ ist ∇ × F~ = 0. Nun lässt sich daraus ein Potential ableiten
f 00 (r) +
!
F~ (~r) = F (r)~er = −∇V (~r
∂V
1 ∂V
1 ∂V
=−
~er −
~eθ −
~eϕ
∂r
r ∂θ
r sin θ ∂ϕ
woraus dann wiederum folgt, daß V (~r) = V (r) ist. Nun haben wir zwar nicht die DGL
separiert, haben dafür aber unser Problem auf andere Weise radikal vereinfacht. Wir
können nun neue Gleichung formulieren
E = 1/2m(ṙ)2 + V (r) = const
~ = ~r × p~ = const
L
~˙ =
Die Energieerhaltung ist trivial, die Erhaltung des Drehimpulses ergibt sich aus L
F~ × ~r = 0. Jetzt können wir aber wieder unser Wissen über die Zeitableitung der
Einheitsvektoren anwenden
~r = r~er ⇒ ~r˙ = ṙ~er + rθ̇~eθ + r sin θϕ̇~eϕ
3.9. Fourier- und Laplace-Transformation
Im vergangenen Semester haben Sie schon die Fouriertransformation kennengelernt. Die
Fouriertransformation ist ein Beispiel für eine Reihe von verschiedenen Integraltransformationen. Es gibt eine Reihe relevanter Zusammenhänge zwischen der Lösung von
Differentialgleichungen und den Integraltransformationen:
• Integraltransformationen können DGL in gewöhnliche Gleichung umwandeln
• Integraltransformationen erlauben die Darstellung von Funktionen in orthogonalen
Funktionsräumen
Den letzteren Punkt wurde schon in den vorherigen Abschnitten bei der Lösung inhomogener DGL angewandt. Daher soll hier noch einmal kurz auf den ersten Punkt
eingegangen werden.
73
3. Differentialgleichungen
3.9.1. Fouriertransformation
Die FT ist definiert über
Z ∞
1
˜
F (k) = f (x) = √
f (x) exp(−ikx)dx
2π −∞
Z ∞
1
F (k) exp(ikx)dk
f (x) = F̃ (k) = √
2π −∞
(3.71)
(3.72)
Die FT entspricht damit einer Zerlegung der Funktion in den orthogonalen Funktionssatz sin und cos (zumindest bei der Betrachtung der FT in endlichen Intervallen). Eine
besondere Eigenschaft der FT ist folgende
∂f˜(x)
= −ik f˜(x) = −ikF (k)
(3.73)
∂x
Damit ist es dan trivial möglich, DGL in gewöhnliche Gleichung zu transformieren. In
den einfachen Fällen entspricht dies der Annahme eines Exponentialansatzes für die
Lösung, wie z.B. für den harmonischen Oszillator.
mẍ + Dx = 0
−mω 2 x̃ + Dx̃ = 0
D
⇒ ω2 =
m
Gerade für den Fall von partiellen DGL wird dies aber signifikant interessanter, da
sich z.B. die Poisson-Gleichung, damit umformen lässt
∂2φ ∂2φ
+ 2 = 4πρ
∂x2
∂y
2
2
kx Φ̃ + ky Φ = 4π ρ̃
∆Φ =
Die weiteren Anwendungen folgen dann im nächsten Semester.
3.9.2. Laplace-Transformation
Die Laplace-Transformation von f (t) für t ≥ 0 ist definiert über
Z ∞
F (s) =
exp(−st)f (t)dt = L[f ]
0
Beispiel
Z
∞
f (t) = 1 ⇒ F (s) =
exp(−st)dt
Z T
= lim
exp(−st)dt
0
T →∞ 0
1
1
= lim (− exp(−sT )) − (− exp(−0))
T →∞
s
s
1
=
s
74
(3.74)
3.9. Fourier- und Laplace-Transformation
Genau wie bei der Fouriertransformation gibt es auch hier einen Satz über die Transformation von Differentialoperatoren
L(f (k) (t) = sk L(f (t)) − sk−1 f (0) − sk−2 f˙(0) − . . . f (k−1) (0)
(3.75)
Man erkennt deutlich, daß hier - im Gegensatz zur FT - die Anfangswerte der Funktion
f eine Rolle spielen. Damit ist die Laplace-Transformation ideal geeignet, um Anfangswertprobleme zu lösen.
Beispiel
ÿ + 4ẏ = cos(2t)
y(0) = 0 ẏ(0) = 1
2
L(ÿ) = s L(y) − sy(0) − ẏ(0) = s2 L(y) − 1
L(ẏ) = sL(y) − y(0) = sL(y)
s
L(cos(2t)) = 2
s>0
s +4
Wendet man nun die Laplace-Transformation auf die Ausgangsgleichung an, so erhält
man
s
s2 + 4
s2 + s + 4
⇒ L(y) = 2
(s + 4)(s2 + 4s)
s2 L(y) − 1 + 4sL(y))
Um nun die Rücktransformation durchzuführen, zerlegt man den Term auf der rechten
Seite in seine Partialbrüche
L(y) =
1 1
1
s
1 1
1
−
+
+
20 s + 4 20 s2 + 4 5 s2 + 4 s(s + 4)
Die Rücktransformation der Laplace-Transformation ist leider nicht so trivial wie bei der
FT, ihre genaue Funktionsweise wird erst im vierten Semester besprochen. Allerdings
ist sie für bestimmte Funktionen tabelliert.
1
s+4
s
L(cos(2t)) = 2
s +4
1
1
L( sin(2t)) = 2
2
s +4
1
1
L( (1 − exp(−4t)) =
4
s(s + 4)
L(exp(−4t)) =
Womit sich dann auch diese DGL lösen lässt.
75
Herunterladen