Script - Helmut-Schmidt

Werbung
Kurzskript zur Vorlesung
Mathematik C
Helmut Schmidt Universität
Universität der Bundeswehr Hamburg
Herbsttrimester 2014
Prof. Dr. Marcus Stiemer
Inhaltsverzeichnis
I
Vektoranalysis
0 Grundbegriffe der Vektorrechnung (Wiederholung)
0.1 Vektorräume . . . . . . . . . . . . . . . . . . . .
0.2 Lineare Abbildungen . . . . . . . . . . . . . . .
0.3 Euklidische Vektorräume . . . . . . . . . . . . .
0.4 Orientierung eines Vektorraumes . . . . . . . .
0.5 Vektorprodukt . . . . . . . . . . . . . . . . . . .
0.6 Mehrfache Produkte . . . . . . . . . . . . . . .
.
.
.
.
.
.
6
6
13
18
24
25
26
1 Felder und Koordinatensysteme
1.1 Der Ortsraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Darstellung von Feldern . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Krummlinige Koordinatensysteme . . . . . . . . . . . . . . . . . . . . .
30
30
32
33
2 Integration
2.1 Kurven . . . . . . . . . . . . . . . . . . . . . .
2.2 Flächen im dreidimensionalen Raum . . . . .
2.3 Raumintegration bei kartesischen Koordinaten
2.4 Krummlinige Koordinaten . . . . . . . . . . .
.
.
.
.
40
40
48
58
62
.
.
.
.
.
67
68
73
78
80
83
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 Differentialoperatoren und Integralsätze
3.1 Gradient und Potential . . . . . . . . . . . . . . . . . . .
3.2 Rotation und Stokesscher Integralsatz . . . . . . . . . . .
3.3 Divergenz und Gaußscher Integralsatz . . . . . . . . . . .
3.4 Die Lemmata von Poincaré und Existenz von Potentialen
3.5 Der Laplace-Operator . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
II Partielle Differentialgleichungen
4 Existenz und Eindeutigkeit bei elliptischen Problemen
88
5 Lösung von Randwertproblemen mit Orthogonalentwicklung
5.1 Kartesische Koordinaten . . . . . . . . . . . . . . . . . . . . . . . . . .
90
91
II
5.2
5.3
Orthogonalentwicklung in Funktionenräumen . . . . . . . . . . . . . . .
Separation und Superposition in Zylinderkoordinaten . . . . . . . . . .
94
99
A Anhang
106
Stichwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
III
Thema der Vektoranalysis ist die (mehrdimensionale) Differential- und Integralrechnung mit Funktionen, die jedem Punkt des Raumes einen Vektor zuordnen, das heißt,
eine Größe, die neben einem Betrag auch eine Richtung besitzt. Diese sogenannten
Vektorfelder bilden die Grundlage der Beschreibung elektromagnetischer Phänomene.
Beispiele für Vektorfelder sind
~ x) zwischen einer Gewitterwolke und
• die ortsabhängige elektrische Feldstärke E(~
dem Boden zu einem gewissen Zeitpunkt oder
~ x) zu einem gewissen
• die ortsabhängige elektrische magnetische Flussdichte B(~
Zeitpunkt im Raum, der einen stromdurchflossenen Leiter umgibt.
Die Grundgleichungen der elektromagnetischen Felder werden über differentielle Beziehungen der betrachteten Feldgrößen formuliert. Bevor wir die mathematische Formulierung dieser Beziehungen diskutieren, werden im folgenden die zugrunde liegenden
Begriffe Vektorräume und lineare Abbildungen wiederholt, die bereits aus den mathematischen Grundlagenvorlesungen bekannt sind.
4
Teil I
Vektoranalysis
5
0
Grundbegriffe der
Vektorrechnung (Wiederholung)
Übersicht
0.1
Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
0.2
Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . .
13
0.3
Euklidische Vektorräume . . . . . . . . . . . . . . . . . . . . . .
18
0.4
Orientierung eines Vektorraumes
. . . . . . . . . . . . . . . . .
24
0.5
Vektorprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . .
25
0.6
Mehrfache Produkte . . . . . . . . . . . . . . . . . . . . . . . .
26
0.1 Vektorräume
Zahlreiche physikalische Größen besitzen nicht nur einen Betrag, sondern auch eine
Richtung. Bekannte Beispiele sind
• die Kraft F~ , die zu einer gewissen Zeit auf eine punktförmige Masse wirkt,
• die Beschleunigung ~a einer punktförmigen Masse zu einem gewissen Zeitpunkt,
• die Geschwindigkeit ~v einer punktförmigen Masse zu einem gewissen Zeitpunkt,
~ die zu einer gewissen Zeit an einem gewissen Ort
• die elektrische Feldstärke E,
herrscht,
~ die zu einer gewissen Zeit an einem gewissen Ort
• die magnetische Flußdichte B,
herrscht,
• Verschiebungen des Raumes (bzw. der Ebene) oder
• frei bewegliche Pfeile (im Raum oder in der Ebene).
Zur Beschreibung dieser vektoriellen physikalischen Größen ist neben einer Maßzahl
und einer Maßeinheit auch die Angabe einer Richtung erforderlich. Dagegen erfordert
die Beschreibung einer skalaren physikalischen Größe lediglich die Angabe einer Maßzahl und einer Maßeinheit.
6
Die oben genannten physikalischen Größen zeigen alle das gleiche Verhalten bei Superposition und Skalierung. Aus mathematischer Sicht legt dies nahe, vom konkreten
physikalischen Hintergrund zu abstrahieren, und sie alle als Modelle des gleichen rein
strukturellen Begriffs eines Vektors aufzufassen. Um einen Vektor unabhängig von physikalischen Modellen formal definieren zu können, fordert man die Rechenregeln, die
in allen oben genannten Modellen gelten, als sogenannte Axiome. Abstrakte Objekte
werden also dadurch definiert, dass die Beziehungen, die zwischen ihnen gelten, als
Axiome gefordert werden.
• Vektoren zur Darstellung von Objekten, die eine Länge und eine Richtung haben
(Felder, Funktionen)
• Vorteile der Abstraktion
Definition 0.1 (Vektorraumaxiome)
Es sei V eine nichtleere Menge mit den Elementen ~x, ~y , ~z, . . . , auf der
• eine Addition definiert ist, die jedem Paar von Elementen (~x, ~y ), ~x, ~y ∈ V , ein
Element ~x + ~y ∈ V zuordnet, sowie
• eine Skalarmultiplikation, die jedem Paar (α, ~x) aus einer reellen Zahl α ∈ R
und einem Vektor ~x ∈ V einen Vektor α~x ∈ V zuordnet.
Genau dann heißt V mit dieser Addition und dieser Skalarmultiplikation ein Vektorraum über dem Körper R (oder kurz: reeller Vektorraum), wenn für beliebige ~x, ~y , ~z ∈ V
und α, β ∈ R die folgenden Rechenregeln gelten:
1. ~x + ~y = ~y + ~x
2. (~x + ~y ) + ~z = ~x + (~y + ~z)
(Kommutativität)
(Assioziativität)
3. Es gibt einen Nullvektor ~0 ∈ V mit ~x + ~0 = ~x
4. Zu ~x ∈ V gibt es −~x ∈ V mit ~x + (−~x) = ~0
(Gegenvektor)
5. α(β~x) = (αβ)~x = β(α~x)
6. 1~x = ~x
7. (α + β)~x = α~x + β~x
8. α(~x + ~y ) = α~x + α~y
Beispiel
1. Mit der komponentenweisen Addition


 
x1 + y 1
x1


 
 x2 + y 2 
 x2 
,
.,
~x + ~y := 
~
x
=
.
 . 
.
 . 
.
xn + y n
xn
 
y1
 
 y2 
n

~y = 
 ..  ∈ R
.
yn
7
~b
~a
~a − ~b
~a
~a + ~b
~b
~b
|~a| − |~b|
Abbildung 0.1. Geometrische Interpretation der Vektoraddition und -subtraktion anhand von Verschiebungsvektoren.
und der durch


αx1


 αx2 

α~x :=  . 
,
 .. 


x1
 
 x2 
n

~x = 
 ..  ∈ R ,
.
αxn
α∈R
xn
definierten Skalarmultiplikation wird der Rn zum reellen Vektorraum.
2. Die Menge aller Verschiebungsvektoren des Rn definieren mit der Hintereinanderausführung von Verschiebungen als Addition und der Skalierung von Verschiebungen als Skalarmultiplikation einen Vektorraum.
3. Der Ortsvektor eines Punktes P (x1 , . . . , xn ) im Rn ist der Verschiebungsvektor
vom Nullpunkt zu diesem Punkt, d.h.


x1
−
→ .
0P =  ..  ∈ Rn .
xn
4. Sei I ⊆ R ein Intervall. Dann bildet die Menge aller Funktionen f : I −→ R
einen Vektorraum.
5. Es sei V ein Vektorraum über R. Dann ist eine nichtleere Teilmenge W von V
mit den Eigenschaften
• für ~x, ~y ∈ W gilt stets ~x + ~y ∈ W (Abgeschlossenheit bezgl. der Addition)
• für ~x ∈ W , α ∈ R gilt stets α~x ∈ W (Abgeschlossenheit bzgl. der Skalarmultiplikation)
ebenfalls ein Vektorraum, ein sogenannter Untervektorraum von V .
6.
8
P
an sin nx +
P
bn cos nx
n ∈ {0, 1, 2, . . . , N}
~y
~v
~x
w
~
Abbildung 0.2. Die Vektoren ~v und w
~ sind linear unabhängig;
die Vektoren ~x und ~y sind linear abhängig.
Bemerkung
Zur Darstellung von Vektoren im Rn ist die transponierte Schreibweise
~x = (x1 , . . . , xn )> ∈ Rn
oft platzsparend.
Lineare Unabhängigkeit, Dimension und Basis Wir wenden uns nun der Darstellung von Vektoren zu. Dazu sollen geeignete Systeme von Vektoren definiert werden,
die es erlauben, alle anderen Vektoren eindeutig durch das ausgewählte System darzustellen.
Definition 0.2 (Linearkombination)
Es sei V ein Vektorraum über R. Eine endliche Summe der Form
n
X
αi~xi
i=1
mit ~x1 , . . . , ~xn ∈ V und α1 , . . . , αn ∈ R heißt Linearkombination. Die reellen Zahlen
α1 , α2 , . . . , αk heißen Koeffizienten der Linearkombination.
Entscheidend ist nun, welche Gesamtheit von Vektoren als Linearkombination gegebener Vektoren dargestellt werden kann, und ob dies auf eindeutige Weise erfolgt. Die
Eindeutigkeit hängt mit dem Begriff der linearen Unabhängigkeit zusammen.
Definition 0.3 (lineare abhängigigkeit/unabhängig) 1. Die Vektoren ~x1 , ~x2 , . . . , ~xk ∈
V heißen linear abhängig, wenn es Zahlen α1 , α2 , . . . , αk ∈ R gibt, die nicht alle
Null sind, so dass
k
X
αi~xi = ~0
i=1
gilt (nichttriviale Linearkombination des Nullvektors).
2. Sind ~x1 , ~x2 , . . . , ~xk ∈ V nicht linear abhängig, so heißen sie linear unabhängig.
9
Um die Frage der Darstellbarkeit zu diskutieren, wird nun das lineare Erzeugnis oder
der Spann einer Menge von Vektoren definiert:
Satz und Definition 0.4 (Spann)
Der Spann span(~x1 , . . . , ~xk ) der Vektoren ~x1 , ~x2 , . . . , ~xk ∈ V ist die Menge aller Linearkombinationen. Er ist ein Untervektorraum von V .
Beispiel 1. Für n ∈ N betrachten wir die Funktionen 1, sin nx, cos nx. Diese spannen
den Raum der trigonometrischen Polynome auf.
2. Wir betrachte im Vektorraum V = R4 die Vektoren
 
 
 
 
1
−1
0
0
0
0
0
1
 
 
 
 
~x1 =   , ~x2 =   , ~x3 =   , ~x4 =  
1
0
1
0
0
1
1
1
und behaupten, dass ~x1 , ~x2 , ~x3 , ~x4 linear unabhängig sind. Zeige dazu, dass die
Gleichung
α1~x1 + α2~x2 + α3~x3 + α4~x4 = 0
nur die Lösung α1 = α2 = α3 = α4 = 0 besitzt. Dazu schreiben wir die Vektoren spaltenweise in eine Matrix und wenden elementare Zeilenumformungen an
(Gauß-Algorithmus):

1 −1 0 0 | (−1)


0 0 0 1


1 0 1 0 ←−−−−− +




0
1
−→
−→
1 1


0 0 0 0


0 0 0 1 | (−1)


0 0 0 0


0 0 0 1
←−−−−− +

0 0 0 0


0 0 0 1


0 1 1 0 | (−1)


0 1 1 1

0 0

0 0
−→ 
0 0

←−−−−− +

0 0

0 0

0 0

0 0 0 0
Es folgt




1 −1 0 0
1 −1 0 0
0 0 0 1
0 1 1 0




rang 
 = rang 
=3
0 0 1 0
0 0 0 1
0 1 1 1
0 0 0 0
Das homogene lineares Gleichungssystem hat einen Lösungsraum L mit dim L =
4 − 3 = 1. Also sind die Vektoren ~x1 , ~x2 , ~x3 , ~x4 linear abhängig.
10
Alternativ hätten wir auch die Determinante der zugehörigen Matrix bestimmen
können:


1 −1 0 0
0 0 0 1


det A := det 
=0
0 0 1 0
0 1 1 1
Also sind die Spalte/Zeile der Matrix linear abhängige Vektoren.
3. Wir behaupten, dass die Funktionen sin und cos linear unabhängig sind. Betrachte dazu die Gleichung
α1 sin x = α2 cos x = 0 für alle x ∈ [−π, π]
Da diese Gleichung für alle x gelten muss, folgt α1 sin 0 = α2 cos 0 und α2 sin π2 =
α2 cos π2 . Somit ist α1 = α2 = 0 die triviale Lösung und sin und cos damit linear
unabhängig.
4. Wir halten die Funktionen 1, sin2 x und cos2 x für linear abhängig. Wir betrachten
dafür die Gleichung
1 = sin2 x + cos2 x für alle x ∈ R
Da dieses Additionstheorem für alle x gilt ist 1, sin2 x und cos2 x damit linear
abhängig.
5. Wir betrachten den durch die folgenden Funktionen aufgespannten Vektorraum:
~e1 := 1, ~e2 := sin x, ~e3 := cos x, ~e4 := sin 2x, ~e5 := cos 2x,
d
und betrachten auf V := span{~e1 , ..., ~e5 } den Differentialoperator D := dx
, f 7−→
0
f . Die Bilder werden als Linearkombination der Basisvektoren dargestellt und
die Koeffizienten spaltenweise in die Abbildungmsatrix eingetragen:


0 0 0 0 0


0 0 −1 0 0 



AD = 
0 1 0 0 0 


0 0 0 0 −2
0 0 0 2 0
Hier bist rang AD = 4 < 5, also ist D nicht bijektiv. Alle konstanten Funktionen
werden auf 0 abgebildet, liegen also im Kern von D.
6. Es gelten die Additionstheoremen
cos(2x) = 1−sin2 (x),
sin2 (x) =
1
(1 − cos(2x))
2
und
cos2 (x) =
1
(1 + cos(2x)) .
2
11
Wir wählen die Basis
~e1 = sin(x), ~e2 = cos(x), ~e3 = sin2 (x), ~e4 = cos2 (x), ~e5 = sin(x) cos(x) .
Dann gilt
~e 01 = ~e2 ,
~e 02 = ~e3 ,
1
1
~e 03 = ~e1 − ~e5 ,
2
2
Für die Umrechnung zwischen den
gilt
  
~e1 0
0
 0 
~e2   0
   1
~e3 0  = 
   2
 0  1
~e4   2
0
~e5 0
1
1
~e 04 = ~e1 + ~e5 ,
2
2
1
~e 05 = ~e4 .
2
Basisvektoren der alten und der neuen Basis
1
0
0
0
0
0
1
0
0
0
 
~e1
0 0
 
0 0  ~e2 
 
 
0 − 12 
 ~e3  .

 
0 21  ~e4 
1
0
~e5
2
Es folgt
  
0
x1
  
 x2   1
  
 x3  =  0
  
  
 x4   0
0
x5
 
x1 0
0 12 12 0
 
0 0 0 0  x2 0 
 
 0
1 0 0 0
 x3 
 
0 0 0 21  x4 0 
0 − 12 21 0
x5 0
Definition 0.5 (Basis)
Ist jeder Vektor eines (Unter)vektorraums U eindeutig als Linearkombination von ~e1 , ~e2 , . . . , ~ek
darstellbar, so heißt (~e1 , ~e2 , . . . , ~ek ) eine Basis von U .
Satz und Definition 0.6 (Dimension eines Vektorraumes)
Der Vektorraum V über R besitze eine Basis aus n ∈ N Vektoren. Dann besteht jede
Basis von V aus n Vektoren. Die Zahl n < ∞ heißt Dimension des Vektorraums V .
Beispiel
a) Die kanonischen Einheitsvektoren
 
 
 
1
0
0
 
 
 
0
1
0
 
 
 
 , ~e2 = 0 , . . . , ~en =  ... 
0
~e1 = 
 
 
 
 .. 
 .. 
 
.
.
0
0
0
1
bilden eine Basis des Rn .
12
b) Die Funktionen 1, sin x, cos x, sin 2x, cos 2x ?? bilden eine Basis des Vektorraums

0

0

0


0

0

..
.

0 0 ···

0 −1 · · ·

1 0 · · ·


0 0 · · ·

0 0 · · ·

.. .. . .
.
. .
c) Die Lösungen der Differentialgleichung y 00 = −y bilden einen C-Vektorraum
(cos t, sin t)
Zusammenfassend halten wir folgendes fest: Ist ~e1 , . . . , ~en eine Basis des n-dimensionalen
Vektorraums V , so gibt es zu jedem Vektor ~x ∈ V genau einen Satz von n Koeffizienten
x1 , . . . , xn , so dass die Darstellung
~x =
n
X
xi~ei
i=1
gilt.
0.2 Lineare Abbildungen
Eine wichtige Rolle werden sogenannte lineare Abbildungen spielen. Das sind Abbildungen, die die Vektorraumverknüpfungen respektieren“.
”
Definition 0.7 (Lineare Abbildung)
Gegeben seien zwei Vektorräume V und W über R. Eine Abbildung
A : V −→ W
heißt lineare Abbildung, wenn für ~x, ~y ∈ V , α ∈ R
1. A(~x + ~y ) = A(~x) + A(~y )
2. A(α~x) = αA(~x)
gilt.
Man beachte, dass auf der linken Seite jeweils die Addition und die Skalarmultiplikation in V zu berechnen sind, während auf der rechten Seite die Verknüpfungen in W
anzuwenden sind.
13
Beispiel
Es sei nun V ein Vektorraum der Dimension n < ∞ und (~e1 , . . . .~en ) eine Basis von V .
Dann besitzt jeder Vektor ~x ∈ V eine eindeutige Darstellung der Form
~x =
n
X
xi~ei .
i=1
Definiere nun die lineare Abbildung T : V −→ Rn durch
 
x1
 
 x2 

T (~x) = 
 ..  .
.
xn
Die Abbildung T ist umkehrbar eindeutig (bijektiv).
Definition 0.8 (Isomorphismus)
Gegeben seien zwei Vektorräume V und W über R. Eine umkehrbar eindeutige (bijektive) lineare Abbildung
A : V −→ W
heißt Isomorphismus. Die Vektorräume V und W heißen isomorph, wenn es einen
Isomorphismus A : V −→ W gibt.
Zwei isomorphe Vektorräume sind strukturgleich, das heißt, jede mögliche Vektorraumverknüpfung in V entspricht einer analogen Operation in W .
Satz 0.9
Ein beliebiger endlichdimensionaler Vektorraum V ist isomorph zum Rn mit n =
dim V . Der Isomorphismus T wird jeweils durch die Festlegung einer Basis definiert.
Eine lineare Abbildung ist durch die Bilder ihrer Basisvektoren eindeutig festgelegt: Es
seien V und W Vektorräume, und es gelte dim V = n < ∞. Ferner sei (~e1 , . . . , ~en ) eine
n
P
Basis von V . Dann folgt mit den Rechenregeln für lineare Abbildungen für ~x =
xj ~ej
j=1
A(~x) = A
n
X
!
xj ~ej
j=1
=
n
X
xj A(~ej ).
(0.1)
j=1
Ist nun auch dim W = m < ∞ und (f~1 , . . . , f~m ) eine Basis von W , so können die Bilder
A(~ej ) der Einheitsvektoren von V bezüglich der Basis f~1 , . . . , f~m dargestellt werden:
A(~ej ) =
m
X
i=1
14
Aij f~i .
(0.2)
Einsetzen dieser Beziehung in Gleichung (0.1) ergibt
A(~x) =
n
X
xj
j=1
m
X
Aij f~i =
i=1
m
n
X
X
i=1
!
f~i .
Aij xj
(0.3)
j=1
Das heißt, nach Wahl einer Basis im Ausgangsraum (~ej )j=1,...,n und einer Basis im
Zielraum (f~i )i=1,...,m kann die Wirkung der linearen Abbildung durch Multiplikation
mit ihre Darstellungsmatrix (Aij )1≤i≤m,1≤j≤n dargestellt werden:
Satz 0.10
Es seien V und W zwei Vektorräume mit Basen (~e1 , . . . , ~en ) bzw. (f~1 , . . . , f~m ). Weiter
sei A : V −→ W eine lineare Abbildung mit
m
X
A(~ej ) =
Aij f~i .
j=1
Dann gilt für ~x =
n
P
xi~ei ∈ V und ~y =
i=1
m
P
yj f~j = A(~x) ∈ W
j=1

 
x1
A11 A12
y1
  
 x2   A21 A22
 .. 
 
 .  = (Aij ) 
..
 ..  =  ..
.
.  .
ym
Am1 Am2
xn


...
...
...
 
A1n
x1
 
A2n   x2 
 
.. 
 . 
.   .. 
. . . Amn
xn
Die i-te Spalte der Darstellungsmatrix (Aij ) enthält somit die Koeffizienten der Basisdarstellung des Bildes A(~ei ) des i-ten Basisvektors von V bezüglich der Basis (f~1 , . . . , f~m ).
Das Ergebnis des vorhergehenden Satzes kann durch das folgende Diagramm dargestellt
werden:
n
X
m
X
A
xi~ei ∈ V
yj f~j ∈ W
j=1
i=1
Tv
Tw
(x1 , . . . , xm )> ∈ Rn




>
m
(y1 , . . . , ym ) ∈ R
x1
y1
x1
 .. 
 .. 
 .. 
 .  →  .  = (Aij )  . 
xn
ym
xn
Hierbei sind TV und TW die Isomorphismen, die einem Vektor in V bzw. in W das
zugehörige Koordinatentupel im Rn bzw. Rm bzgl. der gegebenen Basis zuordnen.
15
~e2
A~e2
A~e1
sin ϕ
ϕ
cos ϕ
~e1
Abbildung 0.3. Geometrische Interpretation einer Drehung um den Winkel ϕ.
Beispiel
Wir betrachten den Vektorraum V = R3 und wählen die kanonische Einheitsbasis
 
 
 
0
0
1
 
 
 
~e1 = 0 , ~e2 = 1 , ~e3 = 0
1
0
0
als Basis. Weiter sei Dϕ die lineare Abbildung, die jeden Vektor in ~x ∈ V auf einen
Vektor ~y ∈ V abbildet, der bezüglich der Achse in Richtung von ~e3 um das Bogenmaß ϕ
gegen den Uhrzeigersinn gedrehten ist. Dann ist Dϕ eine lineare Abbildung. Die Bilder
der Einheitsvektoren sind
 




0
− sin ϕ
cos ϕ
 




ϕ
ϕ
ϕ
D (~e1 ) =  sin ϕ  , D (~e2 ) =  cos ϕ , D (~e3 ) = 0 .
1
0
0
ϕ
Mit dem vorhergehenden Satz folgt für die Darstellungsmatrix (Dij
) von Dϕ bezüglich
der im identischen Start- und Zielraum identisch gewählten Basis ~e1 , ~e2 , ~e3


cos ϕ − sin ϕ 0


ϕ
Dij
=  sin ϕ
cos ϕ 0 .
0
0
1
Koordinatentransformation Die Darstellung von Vektoren durch Koordinatentupel
und lineare Abbildungen durch Matrizen hängt von der Wahl der Basis ab. Oftmals ist
es praktisch, unterschiedliche Basen zur Beschreibung technischer Vorgänge zu wählen.
Dann ist es erforderlich, die Darstellung eines Vektors bezüglich einer Basis in die
bezüglich einer anderen Basis umzurechnen. Gleiches gilt für die Matrixdarstellung
linearer Abbildungen. Es seien (~e1 , . . . , ~en ) und (~e˜1 , . . . , ~e˜n ) zwei Basen des reellen Vektorraums V . Dann kann jeder Basisvektor der ersten Basis durch die Vektoren der
16
zweiten Basis dargestellt werden:
~ej =
n
X
Tij ~e˜i ,
j = 1, . . . , n ,
(0.4)
i=1
wobei det Tij 6= 0 gilt, das heißt, die Matrix (Tij ) ist invertierbar. Jeder Vektor ~x ∈ V
kann nun bezüglich beider Basen dargestellt werden:
~x =
n
X
xj ~ej =
j=1
n
X
x̃i~e˜i .
(0.5)
i=1
Einsetzen von Gleichung (0.4) in die erste dieser Darstellungen ergibt
!
n
n
n
n
n
X
X
X
X
X
Tij ~e˜i =
Tij xj ~e˜i .
~x =
xj ~ej =
xj
j=1
i=1
j=1
i=1
(0.6)
j=1
Vergleich der Koeffizienten vor den Basisvektoren ~e˜j in den beiden Darstellungen (0.5)
und (0.6) von ~x ergibt
!
n
X
x̃i =
Tij xj
j=1
und somit folgt die Transformationsformel
 
 
x1
x̃1
 .. 
 .. 
 .  = (Tij )  .  .
xn
x̃n
Wir fassen dies in einem Satz zusammen:
Satz 0.11
Es seien (~e1 , . . . , ~en ) und (~e˜1 , . . . , ~e˜n ) zwei Basen des reellen Vektorraums V und
~ej =
n
X
Tij ~e˜i ,
j = 1, . . . , n ,
i=1
die Basistransformation neu −→ alt“. Dann können die Koeffizienten eines Vektors
”
~x bezüglich der neuen Basis durch
x̃i =
n
X
Tij xj ,
i = 1, . . . , n
j=1
aus den Koeffizienten bezüglich der alten Basis berechnet werden. Man sagt: Die KoeffizientenTransformation ist kontravariant zur Basistransformation.
Auch dieser Zusammenhang kann durch ein Schaubild verdeutlicht werden: Hierbei ist
T die Koordinatentransformation alte Koordinaten −→ neue Koordinaten“ und T >
”
die Basistransformation neue Basis −→ alte Basis“. Ferner sind S : V −→ Rn und
”
17
~x ∈ V mit ~e1 , . . . , ~en
Basistransformation
T>
~x ∈ V mit ~e˜1 , . . . , ~e˜n
S
S̃
(x1 , . . . , xm )> ∈ Rn




>
n
 (x̃1 , . . . , x̃n ) ∈ R
x1
x1
x̃1
 .. 
 .. 
 .. 
 .  →  .  = (Tij )  . 
xn
x̃n
xn
S̃ : V −→ Rn die Koordinaten-Isomorphismen bezüglich der alten beziehungsweise
bezüglich der neuen Basis.
Bei Basiswechsel im Definitions- oder im Bildraum ändert sich entsprechend die Darstellungsmatrix einer linearen Abbildung. Durch eine analoge Rechnung wie zuvor kann
gezeigt werden, dass der folgende Satz gilt.
Satz 0.12
Gegeben seien zwei Vektorräume V und W und (~e1 , . . . , ~en ) sei eine Basis von V und
(f~1 , . . . , f~m ) sei eine Basis von W . Weiter sei A eine lineare Abbildung A : V −→ W
mit Darstellungsmatrix (Aij ) ∈ Rm×n bezüglich dieser Basen. Ferner seien (~e˜1 , . . . , ~e˜n )
˜
˜
und (f~1 , . . . , f~m ) weitere ( neue“) Basen von V bzw. von W . Die Koordinatentrans”
formationen alte Koordinaten −→ neue Koordinaten“ werden durch die Matrizen
”
(Tik ) ∈ Rn×n bzw. (Ujl ) ∈ Rm×m dargestellt. Dann gilt für Koeffizienten der Darstellungsmatrix (Ãkl ) bezüglich der neuen Basen
(Ãij ) = (Uik )(Akl )(Tlj−1 )
0.3 Euklidische Vektorräume
Bei den eingangs genannten physikalischen Modellen, die als Motivation der abstrakten Definition eines Vektorraums dienten, tragen Längen und Winkel eine wichtige
Bedeutung. In der Struktur Vektorraum“ alleine werden diese Eigenschaften der Mo”
dell noch nicht berücksichtigt. Hierzu ist die Definition einer sogenannten Euklidischen
Struktur für einen Vektorraum erforderlich.
Für die Definition eines Skalarproduktes sind zunächst einige Begriffe bereitzustellen.
Definition 0.13 (Bilinearform)
Es sei V ein Vektorraum. Eine Abbildung h ·, · i : V × V −→ R, die in jedem einzelnen
18
~b
~a
Abbildung 0.4. Die Projektion des Vektors ~b auf den Vektor ~a.
Argument linear ist, d.h., für die
h α~x1 + β~x2 , ~y i = α h ~x1 , ~y i + β h ~x2 , ~y i
h ~x, α~y1 + β~y2 i = α h ~x, ~y1 i + β h ~x, ~y2 i
(~x, ~x1 , ~x2 , ~y , ~y1 , ~y2 ∈ V , α, β ∈ R) gilt, heißt Bilinearform.
Definition 0.14 (Symmetrie und positive Definitheit)
Es sei V ein Vektorraum und h ·, · i : V × V −→ R eine Bilinearform. Genau dann
heißt h ·, · i
• symmetrisch, wenn h ~x, ~y i = h ~y , ~x i für alle ~x, ~y ∈ V gilt,
• positiv definit, wenn h ~x, ~x i > 0 für alle ~x ∈ V \ {~0} gilt.
Definition 0.15 (Euklidischer Vektorraum)
Eine auf einem Vektorraum V definierte Bilinearform h ·, · i : V × V −→ R, die
symmetrisch und positiv definit ist, heißt Skalarprodukt auf V . Ein Vektorraum, auf
dem ein Skalarprodukt definiert ist, heißt Euklidischer Vektorraum. Üblich ist auch die
Schreibweise
~x · ~y = h ~x, ~y i ,
Beispiel
~x, ~y ∈ V .
1. Mit dem Skalarprodukt
h ~x, ~y i :=
n
X
i=1

xi yi ,

x1
.
~x =  ..  ,
xn
 
y1
 .. 
~y =  .  ∈ Rn
yn
wird der Rn zum euklidischen Vektorraum. Dieses Skalarprodukt heißt StandardSkalarprodukt des Rn .
2. Es seine α1 , . . . αn positive reelle Zahlen. Allgemeiner wird der Rn mit dem Ska-
19
larprodukt
h ~x, ~y i :=
n
X

 
x1
y1
 .. 
 .. 
~x =  .  , ~y =  .  ∈ Rn

α i xi y i ,
i=1
xn
yn
zum euklidischen Vektorraum.
3. Der (unendlichdimensionale) Vektorraum C([a, b]) aller auf dem Intervall [a, b]
stetigen Funktionen wird mit dem Skalarprodukt
ˆb
h f, g i =
f (x)g(x) dx
a
zu einem Euklidischen Vektorraum.
Sobald ein Skalarprodukt zur Verfügung steht, können Abstände und Winkel definiert
werden.
Definition 0.16 (Betrag)
Es sei V ein euklidischer Vektorraum. Der Betrag x = |~x| des Vektors ~x ∈ V ist
definiert durch
√
x = |~x| := ~x · ~x .
Bemerkung
Im Falle des Standardskalarproduktes im Rn führt dies auf
v
u n
uX
|~x| = t
x2i
i=1
für ~x ∈ Rn (vgl.: Satz des Phythagoras).
Definition 0.17 (Einheitsvektoren)
Ein Vektor vom Betrag 1 heißt Einheitsvektor.
Beispiel
Es sei V ein euklidischer Vektorraum.
1. Jeder Vektor ~x ∈ V \ {~0} kann normiert werden:
~x0 =
1
~x .
|~x|
Der Vektor ~x0 weist in die gleiche Richtung wie ~x, hat aber den Betrag 1.
20
2. Durch
~xϕ =
!
cos ϕ
,
sin ϕ
ϕ ∈ [0, 2π[
können alle Einheitsvektoren im R2 dargestellt werden.
3. Durch

~xϕ,ϑ

cos ϕ cos ϑ


=  sin ϕ cos ϑ  ,
sin ϑ
h π πi
ϕ ∈ [0, 2π[, ϑ ∈ − ,
2 2
können alle Einheitsvektoren im R3 dargestellt werden (Koordinatensystem der
Erdkugel).
Definition 0.18 (Orthogonalität)
Es sei V ein euklidischer Vektorraum. Der (unorientierte) Winkel α ∈ [0, π] zwischen
~x, ~y ∈ V \ {~0} ist definiert durch die Beziehung
cos α =
~x · ~y
.
|~x||~y |
Gilt ~x · ~y = 0, so heißen ~x und ~y orthogonal zueinander.
Bemerkung
Die Wohldefiniertheit des Winkels α in der vorausgehenden Definition basiert auf der
Cauchy-Schwarzschen Ungleichung:
~x · ~y ≤ |~x||~y | ,
wobei Gleichheit genau dann eintritt, wenn ~x und ~y linear abhängig sind.
Es sei V ein euklidischer Vektorraum der endlichen Dimension n, und (~e1 , . . . , ~en ) sei
eine Basis von V . Ähnlich wie bei linearen Abbildungen ist auch bei Skalarprodukten
das Abbildungsverhalten bereits durch die Wirkung des Skalarproduktes auf Paare von
Einheitsvektoren (~ei , ~ej ) bestimmt. Es gilt
Satz 0.19
Es sei V ein euklidischer Vektorraum und (~e1 , . . . , ~en ) eine Basis von V . Weiter sei
gij = ~ei · ~ej ,
i = 1, . . . , n ,
j = 1, . . . , n
das Skalarprodukt aus i-tem und j-tem Einheitsvektor. Dann gilt für das Skalarprodukt
n
n
P
P
der Vektoren ~x =
xi~ei ∈ V und ~y =
yi~ei ∈ V die Darstellung
i=1
i=1
~x · ~y =
n X
n
X
i=1 j=1
gij xi yj =
n
X
gij xi yj .
i,j=1
21
Die Matrix (gij ) ist symmetrisch und positiv definit.
Beispiel 1. Im Falle einer Basis (~e1 , . . . , ~en ) aus paarweise orthogonalen Vektoren
(orthogonale Basis) besitzt (gij ) Diagonalgestalt.
2. Besteht eine orthogonale Basis nur aus Vektoren der Länge 1, so heißt sie Orthonormalbasis und (gij ) hat die Form der n × n-Einheitsmatrix, d.h.,
gij = δij ,
wobei δij das Kronecker-Symbol
δij =

1 ,
i=j
0 ,
i 6= j
ist.
Wie die Darstellungsmatrix linearer Abbildungen ist auch (gij ) von der Wahl der Basis
abhängig und zeigt ein charakteristisches Transformationsverhalten bei Basiswechsel.
• Fourier-Darstellung von Vektoren:
– ~g ∈ V , V euklidischer Vektorraum mit (~e1 , . . . , ~en )
n
P
– Orthonormalbasis: ~g = (~g − ~ei )~ei
i=1
Satz 0.20
Es sei V ein euklidischer Vektorraum, (~e1 , . . . , ~en ) eine (alte) Basis von V mit (~ei ·~ej ) =
(gij ). Ferner sei (~e˜1 , . . . , ~e˜n ) eine weitere (neu) Basis von V mit (~e˜i · ~e˜j ) = (g̃ij ). Ist
(Tij ) ∈ Rn×n die Matrix der Koordinatentransformation alt −→ neu“, so gilt
”
G̃ = T GT > .
Beweis: Da die Gleichung
n X
n
X
gij xi xj =
i=1 j=1
n X
n
X
g˜ij x̃i x˜j
i=1 j=1
gilt und δij = ~ei · ~ej , ist die alte Basis somit orthonormal. Für die neue Basis gilt:
!
!
X
X
XX
g˜k` = ~e˜k · ~e˜` =
Tik~ei ·
Tj`~ej =
Tik gij Tj`
i
j
i
Daraus folgt dann
GT >
22
>
T > = T G> T > = T GT >
j
Da zu jeder symmetrischen, positiv definite Matrix eine Basis gewählt werden kann,
bezüglich der sie durch die Einheitsmatrix dargestellt wird, gilt
Satz 0.21
Es sei V ein euklidischer Vektorraum mit einem Skalarprodukt, das bezüglich der Basis
(~e1 , . . . , ~en ) durch (gij ) dargestellt werde. Dann gibt es eine Basis (~e˜1 , . . . , ~e˜n ) bezüglich
der
g̃ij = ~e˜i · ~e˜j = δij ,
i, j = 1, . . . , n
gilt.
Satz 0.22
Sind (~e1 , . . . , ~en ) und (~e˜1 , . . . , ~e˜n ) zwei Orthonormalbasen von V und ist T > = (Tij )>
die Basistransformation neu“ −→ alt“, so gilt
”
”
Tkj = e~˜k · ~ej .
Beweis: Wir stellen einen neuen Basisvektor als Linearkombination der alten Basisvektoren dar:
n
X
~ej =
Tij e~˜i
i=1
Multiplikation eines alten Basisvektors von rechts liefert unter Ausnutzung der Orthogonalität
n
X
˜
~ej · e~k =
Tij e~˜i · e~˜n = Tkj ,
| {z }
i=1
δik
also die Behauptung.
Beispiel
Betrachte die kanonischen Basis E des R3 , mit
 
 
 
1
0
0
 
 
 
E :=(~e1 , ~e2 , ~e3 ), mit ~e1 = 0 , ~e2 = 1 , ~e3 = 0
0
1
0
Weiterhin betrachten wir die Orthonormalbasis Ẽ mit




 
cos ϕ
− sin ϕ
0






Ẽ = e~˜1 , e~˜2 , e~˜3 , mit e~˜1 =  sin ϕ  , e~˜2 =  cos ϕ  , e~˜3 = 0
0
0
1
ϕ ∈ [0, π]
Für die Transformation gilt Tkj = e~˜k ·e~˜j = E˜jk . Somit ist die Koordinatentransformation
alt”←→ neu”:


”
”
cos ϕ + sin ϕ 0


T = Ẽ > =  sin ϕ cos ϕ 0
0
0
1
23
Die Prüfung ergibt cos ϕ~e1 + sin ϕ~e2 7→ ~e˜1 und somit ist unsere Transformationsmatrix
korrekt.
Bemerkung
−1
= (Sij )> , gilt:
Für die Basistransformation alt”−→ neu” T >
”
”
Sij = ~en · e~˜j
beziehungsweise
T>
−1
=T
und T −1 = T > ,
das heißt für eine Matrix die Orthonormale Vektoren auf Orthonormale Vektoren abbildet gilt:
T −1 = T > .
Skalarprodukte
können
verwendet
werden,
um
Flächeninhalte,
Rauminhalte oder dimensionsunabhängig allgemein Inhalte zu definieren: Zwei linear
unabhängige Vektoren spannen ein Parallelogramm auf, drei ein Parallelepiped (Spat)
und allgemein p linear unabhängige Vektoren einen p-dimensionalen Parallelflach.
Definition 0.23 (Gramsche Determinante)
Der Inhalt eines p- flachs ist definiert durch
~x · ~x ~x · ~x
1 1 1 2
~x2 · ~x1 ~x2 · ~x2
2
||~x1 , ~x2 , . . . , ~xp || = det(~xi · ~xj ) = .
..
.
..
~xp · ~x1 ~xp · ~x2
. . . ~x1 · ~xp . . . ~x2 · ~xp .. ..
.
. . . . ~xp · ~xp Die Determinante auf der rechten Seite dieser Definition heißt Gramsche Determinante.
Beispiel
1. Im Fall p = 1 gilt
||~x1 || = |~x1 |
2. Im Fall p = 2 gilt
||~x1 , ~x2 || = |~x1 ||~x2 || sin ϕ| ,
wobei ϕ der von ~x1 und ~x2 eingeschlossene Winkel ist.
0.4 Orientierung eines Vektorraumes
Eine weitere Struktur, die erforderlich ist, um die relevanten Eigenschaften einiger
elektromagnetischer Feldgrößen auf abstrakter Ebene beschreiben zu können, ist die
24
Orientierung. Die Orientierung eines endlichdimensionalen Vektorraumes bezüglich einer Referenzbasis1 (~e1 , . . . , ~en ) ist wie folgt definiert:
Definition 0.24 (Die positive/negative Orientierung von Basen)
Es sei V ein Vektorraum mit (Referenz-) Basis (~e1 , . . . , ~en ).
Eine beliebige Basis (~e˜1 , . . . , ~e˜n ) von V heißt nun positiv orientiert, wenn die Transformationsmatrix (Tij )> ∈ Rn×n , mit der sie wieder in die Referenzbasis überführt
wird, eine positive Determinante besitzt. Im Falle einer negativen Determinante heißt
(~e˜1 , . . . , ~e˜n ) negativ orientiert.
Bemerkung
Wird im Falle des Rn die kanonische Einheitsbasis als Referenzbasis verwendet, so
spricht man von der kanonischen Orientierung des Rn .
0.5 Vektorprodukt
Satz und Definition 0.25
Es sei V ein orientierter dreidimensionaler Euklidischer Vektorraum. Dann gibt es
genau eine Abbildung (· × ·) : V × V −→ V mit den folgenden Eigenschaften: Für alle
~x, ~y ∈ V und für ~z = ~x × ~y gilt
1. ~z · ~x = ~z · ~y = 0 ,
2. |~z| = ||~x, ~y || = |~x||~y || sin ϕ| ,
wobei ϕ der von ~x und ~y eingeschlossene Winkel ist, und
3. im Falle ~z 6= ~0 ist (~x, ~y , ~z) eine positiv orientierte Basis von V .
Man kann zeigen, dass das Vektorprodukt (· × ·) : V × V −→ V in einem orientierten
dreidimensionalen Euklidischen Vektorraum V eine sogenannte alternierende bilineare
Abbildung definiert:
Definition 0.26 (bilineare Abbildung)
Gegeben seien zwei Vektorräume V und W . Eine Abbildung b : V × V −→ W , die in
jedem einzelnen Argument linear ist, d.h., für die
b(α~x1 + β~x2 , ~y ) = αb(~x1 , ~y ) + βb(~x2 , ~y )
b(~x, α~y1 + β~y2 ) = αb(~x, ~y1 ) + βb(~x, ~y2 )
(~x, ~x1 , ~x2 , ~y , ~y1 , ~y2 ∈ V , α, β ∈ R) gilt, heißt bilineare Abbildung.
1
Ab jetzt wird die Reihenfolge der Basisvektoren wichtig. Daher werden sie als Zeilenvektor geschrieben.
25
~a × ~b
~b
~
~a × b
~a
Abbildung 0.5. Geometrische Interpetation des Kreuzprodukts.
Definition 0.27 (alternierende bilineare Abbildung)
Gegeben seien Vektorräume V und W und eine bilineare Abbildung b : V × V −→ W .
Genau dann heißt b alternierend, wenn für alle ~x, ~y ∈ V
b(~x, ~y ) = −b(~y , ~x)
gilt.
Satz 0.28
Das Vektorprodukt (· × ·) : V × V −→ V in einem orientierten dreidimensionalen
Euklidichen Vektorraum ist eine alternierende bilineare Abbildung.
Wie auch bei linearen Abbildungen und beim Skalarprodukt kann eine Koordinatendarstellung des Vektorprodukts in einem orientierten dreidimensionalen Euklidischen
Vektorraum hergeleitet werden.
Satz 0.29
n
P
Es sei (~e1 , ~e2 , ~e3 ) eine positiv orientierte Orthonormalbasis. Ferner seine ~x =
xi~ei
und ~y =
n
P
i=1
yi~ei . Dann gilt für ~z = ~x × ~y
i=1
~e1
~x × ~y = x1
y1
x
2
=
y2
~e2 ~e3 x2 x3 y2 y3 x x x x x3 1 3
1 2
~e1 − ~e2 + ~e3
y1 y2 y3
y1 y3
= (x2 y3 − y2 x3 ) ~e1 + (x3 y1 − y3 x1 ) ~e2 + (x1 y2 − y1 x2 ) ~e3 .
0.6 Mehrfache Produkte
Definition 0.30 (Spatprodukt)
Es sei V ein orientierter dreidimensionaler Euklidischer Vektorraum und ~x, ~y , ~z ∈ V .
26
a1
b1
a2
b2
c 1 = a2 b 3 − a3 b 2
a3
b3
c 2 = a3 b 1 − a1 b 3
a1
b1
c 3 = a1 b 2 − a2 b 1
a2
b2
Abbildung 0.6. Merkregel für das Kreuzprodukt
~z
~y
~x
Abbildung 0.7. Spat (dreidimensionaler Parallelflach)
Dann ist das Spatprodukt der drei Vektoren definiert durch
[~x, ~y , ~z] :=(~x × ~y ) · ~z ∈ R .
Das Spatprodukt stimmt mit dem sogenannten orientiertem Inhalt des Spats (dreidimensionaler Parallelflach) überein, der von den drei Vektoren ~x, ~y , ~z aufgespannt
wird.
Satz 0.31
Es sei V ein orientierte dreidimensionaler Euklidischer Vektorraum und ~x, ~y , ~z ∈ V .
Dann gilt
|(~x × ~y ) · ~z| = ||~x, ~y , ~z|| .
Dabei ist das Spatprodukt genau dann positiv, wenn die drei Vektoren ~x, ~y , ~z eine positiv
orientierte Basis von V definieren.
27
Insbesondere folgt, dass das Spatprodukt genau dann 0 ist, wenn die drei Vektoren
linear abhängig sind und somit komplanar (d.h., sie liegen in einer Ebene). Aus dem
obigen Satz kann direkt gefolgert werden, wie sich das Spatrprodukt bei vertauschen
der Faktoren verhält.
Folgerung 0.32
Werden die Vektoren einer Basis zyklisch vertauscht, so bleibt die Orientierung erhalten. Somit gilt
(~x × ~y ) · ~z = (~z × ~x) · ~y = (~y × ~z) · ~x
und
(~y × ~x) · ~z = (~z × ~y ) · ~x = (~x × ~z) · ~y = −(~x × ~y ) · ~z .
Nach Wahl einer positiv orientierten Orthonormalbasis (~e1 , ~e2 , ~e3 ) erhält man für ~x =
3
3
3
P
P
P
xi~ei , ~y =
yi~ei , ~z =
zi~ei die folgende Darstellung entsprechend den Rechenrei=1
i=1
i=1
geln für die Koordinatendarstellungen von Vektorprodukt und Skalarprodukt:
x x x x x x 1 2
1 3
2 3
(~x × ~y ) · ~z = z1 + z3 − z2 y1 y2 y1 y2 y2 y3 Bei Auswertung des Skalarproduktes von ~x × ~y und ~z wurde

0 , i 6= j
~ei · ~ej = δij =
1 , i = j
beachtet. Somit folgt der Satz:
Satz 0.33
Es sei (~e1 , ~e2 , ~e3 ) eine positiv orientierten Orhtonormalbasis und ~x =
3
P
xi~ei , ~y =
i=1
3
P
i=1
yi~ei , ~z =
3
P
zi~ei . Dann gilt
i=1
x1 x2 x3 (~x × ~y ) · ~z = y1 y2 y3 z1 z2 z3 Definition 0.34 (doppeltes Vektorprodukt)
Es sei V ein orientierter dreidimensionaler Euklidischer Vektorraum und ~x, ~y , ~z ∈ V .
Das doppelte Vektorprodukt p~ ∈ V von ~x, ~y , ~z ist definiert durch
p~ = ~x × (~y × ~z)
Bemerkung
Im allgemeinen gilt
~x × (~y × ~z) 6= (~x × ~y ) × ~z ,
28
d.h., das Vektorprodukt ist nicht assoziativ.
Das doppelte Vektorprodukt läßt sich durch Skalarprodukte ausdrücken:
Satz 0.35
Es sei V ein orientierter dreidimensionaler Euklidischer Vektorraum und ~x, ~y , ~z ∈ V .
Dann gilt
~x × (~y × ~z) = (~x · ~z)~y − (~x · ~y )~z
(Gaßmannscher Entwicklungssatz).
Der Beweis des Entwicklungssatzes kann erfolgen, indem die Vektoren ~x, ~y , ~z bezüglich
einer positiv orientierten Orthonormalbasis von V dargestellt werden. Anschließend
können durch Rechnen mit den Koordinaten dieser Darstellungen die Koordinaten
der Basisdarstellung von ~x × (~y × ~z) bestimmt werden (linke Seite) sowie die von
(~x ·~z)~y −(~x ·~y )~z (rechte Seite). Durch Vergleich der drei jeweils bestimmten Koordinaten
kann der Entwicklungssatz verifiziert werden.
Analog können auch die Lagrange-Identitäten bewiesen werden:
Satz 0.36
Es sei V ein orientierter Euklidischer Vektrraum. Für alle ~a, ~b, ~c, d~ ∈ V gilt
~ = (~a · ~c)(~b · d)
~ − (~a · d)(
~ ~b · ~c)
(~a × ~b) · (~c × d)
~ = ((~a × ~b) · d)~
~ c − ((~a × ~b) · ~c)d.
~
(~a × ~b) × (~c × d)
29
1
Felder und Koordinatensysteme
Übersicht
1.1
Der Ortsraum . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
1.2
Darstellung von Feldern . . . . . . . . . . . . . . . . . . . . . .
32
1.3
Krummlinige Koordinatensysteme . . . . . . . . . . . . . . . . .
33
Felder sind skalar- oder vektorwertige Funktionen, die örtlich variieren. Wir werden sehen, dass ihre Definitionsmenge als orientierter dreidimensionaler Euklidischer Vektorraum aufgefasst werden kann. Ihr Wertebereich kann ein Vektorraum (bzw. genauer: eine Familie ortsabhängiger Vektorräume) sein (Vektorfelder), oder die Menge der reellen
Zahlen (Skalarfelder). In der Elektrodynamik hängen die betrachteten Felder zusätzlich
von der Zeit ab. Die Zeitabhängigkeit wird durch Einführung eines zusätzlichen reellen
Parameters berücksichtigt. Zunächst sollen jedoch nur räumlich variierende (stationäre)
Felder betrachtet werden.
1.1 Der Ortsraum
Als Modell für den physikalischen Raum in dem wir elektromagnetische Felder beschreiben wollen, wählen wir einen orientierten dreidimensionalen Euklidisch-affinen Raum
E3 .
Definition 1.1 (Orientierter dreidimensionale Euklidisch-affiner Raum)
Gegeben sei eine Menge X von Punkten und ein dreidimensionaler Euklidischer Vektorraum V3 . Es gelte
• Je zwei Punkten P, Q ∈ X ist ein Vektor ~rP Q ∈ V3 zugeordnet ( Verbindungsvek”
tor“).
• Jedem Punkt P ∈ X und jedem Vektor ~rP Q ∈ V3 ist ein Punkt Q ∈ X zugeordnet.
• Für drei Punkte P, Q, R ∈ X gilt
~rP Q + ~rQR + ~rRP = ~0
(affine Struktur). Ferner ist
30
• der Abstand d(P, Q) zwischen zwei Punkten definiert durch
d(P, Q) :=
p
~rP Q · ~rP Q ,
und entsprechend
• der durch einen Scheitelpunkt“ P und zwei Schenkelpunkte“ Q, R gegebene
”
”
Winkel über den Winkel der Verbindungsvektoren“ ~rP Q , ~rP R
”
definiert (Euklididsche Struktur). Das Paar (X, V3 ) heißt dreidimensionaler Euklidisch-affiner Raum. Ist zusätzlich eine Orientierung auf V3 definiert, so heißt (X, V3 )
orientierter dreidimensionaler Euklidisch-affiner Raum.
Um Feldgrößen handhaben zu können, benötigen wir Koordinatendarstellungen. Zuvor ist es erforderlich, die Punkte des affinen Raumes in geeigneter Weise umkehrbar
eindeutig Vektoren zuzuordnen. .
Definition 1.2 (Ortsvektoren)
Es sei E3 = (X, V3 ) ein orientierter dreidimensionaler Euklidisch-affiner Raum und
O ∈ X ein ausgewählter Punkt. Dann kann jeder Punkt P ∈ X von E3 umkehrbar
eindeutig (bijektiv) seinem Verbindungsvektor ~rP = ~rOP ∈ V3 , dem sogenannten Ortsvektor, zugeordnet werden. Der Punkt O heißt Ursprung.
Jetzt können durch Wahl einer Basis im Raum der Ortsvektoren jedem Punkt des
affinen Raumes Koordinaten zugeordnet werden.
Definition 1.3 (kartesischen Koordinaten)
Gegeben sei der orientierte dreidimensionale Euklidisch-affine Raumes E3 mit Ursprung O. Ferner sei (~ex , ~ey , ~ez ) eine positiv orientierte Orthonormalbasis des zugehörigen
Vektorraumes V3 . Schließlich sei P ein Punkt von E3 mit Ortsvektor ~rP . Dann sind die
kartesischen Koordinaten (xP , yP , zP ) von P definiert als die Koeffizienten der Basisdarstellung
~rP = xP ~ex + yP ~ey + zP ~ez
Bemerkung
Die folgende Bezeichnung ist üblich bei elektromagnetischer Feldberechnung:
Bezeichnung
Symbol
Bedeutung
Aufpunkt
Quellpunkt
P
Q
~r
~r0
~ = ~r − ~r0
R
interessierender Punkt
Ursache des Feldes
Ortsvektor von P
Ortsvektor von Q
Verbindungsvektor von Q nach P
31
1.2 Darstellung von Feldern
Definition 1.4 (Skalar- und Vektorfelder)
Gegeben sei eine Teilmenge (χ, V3 ) des orientierten dreidimensionalen Euklidisch-affinen
Raumes E3 . Nach Wahl eines Ursprungs O sei Ω die Menge der zugehörigen Ortsvektoren. Eine Abbildung
ϕ : Ω → R,
~r −→ ϕ(~r) ∈ R
heißt Skalarfeld.
Nach Wahl einer Basis kann Ω durch die zugeordnete Menge des R3 ersetzt werden.
Die oben angeführte allgemeine Definition ist jedoch erforderlich, da bei praktischen
Problemen durchaus Formulierungen mit unterschiedlichen Basen zu vergleichen sind.
Die Definition eines Vektorfeldes ist schwieriger, da an verschiedenen Orten unterschiedliche Ursprünge gewählt werden (der Feldvektor wird im jeweiligen Aufpunkt
verankert). Oft ist es auch sehr vorteilhaft, mit ortsveränderlichen Basisvektoren zu
arbeiten. Daher wird jedem Punkt P in einer interessierenden Teilmenge χ des orientierten dreidimensionalen Euklidisch-affinen Raumes mit Ortsvektor ~r ∈ Ω ein eigener
Vektorraum zugeordnet, der sogenannte Tangentialraum T~r Ω an Ω in ~r. Hierbei ist
Ω die Menge aller Ortsvektoren, die der Punktmenge χ nach Wahl eines Ursprungs
zugoeordnet sind.
Definition 1.5 (Vektorfeld)
Gegeben sei eine Teilmenge (χ, V3 ) des orientierten Euklidisch-affinen Raumes E3 .
Nach Wahl eines Ursprungs O sei Ω die Menge der zugehörigen Ortsvektoren. Jedem Punkt P ∈ χ mit Ortsvektor ~r ∈ Ω sei ein Vektorraum T~r Ω, der sogenannte
Tangentialraum, zugeordnet. Eine Abbildung
~a : Ω −→
[
T~r Ω ,
~r 7−→ ~a(~r)
~
r∈Ω
heißt Vektorfeld.
Da wir jedem Ort in der Definitionsmenge Ω des Vektorfeldes einen eigenen Zielvektorraum zuordnen, benötigen wir für jedes ~r ∈ Ω eine eigene Basis (~e1 (~r), ~e2 (~r), ~e3 (~r)). Im
einfachsten Fall kann ein konstantes Basisfeld durch Parallelverschiebung einer positiv
orientierten Orthonormalbasis (~ex , ~ey , ~ez ) erzeugt werden. Man spricht dann von einem
kartesischen Basisfeld.
Definition 1.6 (kartesische Basisfeld)
Gegeben sei ein kartesisches Basisfeld (~ex , ~ey , ~ez ) und ein Vektorfeld ~a(~r) auf Ω. Dann
32
gibt es Skalarfelder ax (~r), ay (~r), az (~r) : Ω → R so, dass
~a(~r) = ax (~r)~ex + ay (~r)~ey + az (~r)~ez
gilt. Die Skalarfelder ax (~r), ay (~r), az (~r) heißen kartesische Koordinaten des Vektorfeldes ~a(~r). Die Vektorfelder ax (~r)~ex , ay (~r)~ey , az (~r)~ez heißen kartesische Komponenten
des Vektorfeldes ~a(~r).
Bemerkung
Nach Einführung eines kartesischen Basisfeldes ordnet das Vektorfeld jedem Ortsvektor
~r ∈ Ω Koordinaten der Form
~r 7−→ (ax (~r), ay (~r), az (~r))
zu. Ist in Anwendungen klar, welches Basisfeld zugrunde liegt, wird in der Regel nicht
explizit zwischen dem Feld und seiner Basisdarstellung unterschieden.
1.3 Krummlinige Koordinatensysteme
Elektrotechnische Phänomene können oft wesentlich besser mathematisch beschrieben
werden, wenn gegebene Symmetrien ausgenutzt werden. Hierzu ist es sinnvoll mit einem Koordinatensystem zu arbeiten, dass an diese Symmetrien angepasst ist, wie z.B.
Zylinder- oder Kugelkoordinaten. Um solche Koordinatensysteme einführen zu können,
sind zunächst einige Begriffe zu definieren:
Im Folgenden gehen wir davon aus, dass (x, y, z) die kartesischen Koordinaten eines
Punktes P im Raum E3 mit Ortsvektor
~r = x~ex + y~ey + z~ez ∈ V3
sind.
Indem wir die kartesischen Koordinaten (x, y, z) von P als Funktionen
aj ≤ u j ≤ b j ,
j = 1, 2, 3
mit
(u1 , u2 , u3 ) ∈ (a1 , b1 ) × (a2 , b2 ) × (a3 , b3 )
auffassen, können wir unter geigneten Vorraussetzungen an diese Funktionen einen
Punkt in E3 nicht nur durch seine kartesischen Koordinaten darstellen, sondern auch
durch das zugehörige Tripel (u1 , u2 , u3 ). Dabei gilt a1 , a2 , a3 ∈ R∪{−∞} und b1 , b2 , b3 ∈
R ∪ {+∞}.
Definition 1.7 (Koordinaten)
Gegeben sei der dreidimensionale Euklidisch-affine Raum E3 mit zugeordnetem Vektorraum V3 mit einer Basis (~ex , ~ey , ~ez ). Weiter sei eine Menge M = (a1 , b1 ) × (a2 , b2 ) ×
33
z
~r
y
x
Abbildung 1.1. Kartesische Koordinaten im R3 .
(a3 , b3 ) ∈ R3 gegeben, sowie eine in jeder Komponente stetig partiell differenzierbare
injektive Abbildung ~r˜ : M −→ V3 mit
~r˜(u1 , u2 , u3 ) =
x(u1 , u2 , u3 ) ~ex + y(u1 , u2 , u3 ) ~ey + z(u1 , u2 , u3 ) ~ez ,
die jedem Koordinatentripel (u1 , u2 , u3 ) ∈ M einen Ortsvektor ~r˜(u1 , u2 , u3 ) ∈ V3 zuordnet. Dann heißt das Tripel (u1 , u2 , u3 ) Koordinaten von ~r˜(u1 , u2 , u3 ).
Definition 1.8 (Koordinatenlinien und Koordinatenfläche)
Unter den Voraussetzungen der vorhergehenden Definition heißt die durch
u1 7−→ ~r˜(u1 , c2 , c3 ) ,
definierte über c2 , c3 parametrisierte Kurvenschar u1 -Linien des Koordinatensystems,
die durch
u2 7−→ ~r˜(c1 , u2 , c3 )
definierte über c1 , c3 parametrisierte Kurvenschar u2 -Linien des Koordinatensystems
und die durch
u3 7−→ ~r˜(c1 , c2 , u3 )
definierte über c1 , c3 parametrisierte Kurvenschar u3 -Linien des Koordinatensystems.
Jede dieser zweiparametrigen Kurvenscharen heißt Koordinatenlinien. Das durch ~r˜ definierte Koordinatensystem heißt krummlinig, sobald mindestens eine der drei Scharen
von Koordinatenlinien eine gekrümmte Linie enthält.
Eine Koordinatenfläche ist eine Fläche, auf der je eine der drei Koordinaten u1 , u2 , u3
konstant ist.
34
Ein Koordinatensystem definiert in kanonischer Weise ein Basisfeld:
Satz 1.9
Durch
~r˜ : M −→ V3 ,
M ⊆ R3
sei ein (möglicherweise krummliniges) Koordinatensystem definiert. Dann definieren
die Tangentenvektoren ~ti (~r), i = 1, 2, 3, an jeden Punkt P aus E3 mit Ortsvektor ~r =
~r˜(u1 , u2 , u3 ) ein Basisfeld:
~ti (~r) =
=
∂~r˜
(u1 , u2 , u3 )
∂ui
∂x
∂y
∂z
(u1 , u2 , u3 ) ~ex +
(u1 , u2 , u3 ) ~ey +
(u1 , u2 , u3 ) ~ez .
∂ui
∂ui
∂ui
Anders dargestellt, besagt der vorhergehende Satz, dass die Koordinatendarstellungen
der Vektoren des Basisfeldes (~t1 (~r), ~t2 (~r)), ~t3 (~r)) bezüglich des kartesischen Basisfeldes
unter Vernachlässigung der Argumentenliste (u1 , u2 , u3 ) die Form



∂x
∂u1
 ∂y 
 ∂u1 
∂z
∂u1
,


∂x
∂u2
 ∂y 
 ∂u2 
∂z
∂u2
,

∂x
∂u3
 ∂y 
 ∂u3 
∂z
∂u3
besitzen.
Bemerkung
Die lineare Unabhängigkeit der oben definierten Basisvektoren folgt aus der bijektiven
Zuordnung der gegebenen und der kartesischen Koordinaten, die durch die Abbildung
~r˜ gegeben ist.
Die geometrische Deutung der Basis (~t1 (~r), ~t2 (~r)), ~t3 (~r)) lautet wie folgt: In jedem Punkt
P des Ortsraumes mit Ortsvektor ~r schneiden sich genau eine u1 -Linie, eine u2 -Linie
und eine u3 -Linie. Der in P angetragene Basisvektor ~t1 (~r) ist tangential zur u1 -Linie,
der in P angetragene Basisvektor ~t2 (~r) ist tangential zur u2 -Linie und der in P angetragene Basisvektor ~t3 (~r) ist tangential zur u3 -Linie. Daher kann durch Berechnung
der Winkel zwischen diesen Basisvektoren ermittelt werden, in welchem Winkel sich
die Koordinatenlinien schneiden.
Definition 1.10 (orthogonale Koordinatensystem)
Ein Koordinatensystem heißt orthogonal, wenn in jedem Punkt P mit Ortsvektor ~r die
drei Basisvektoren ~t1 (~r), ~t2 (~r), ~t3 (~r) paarweise senkrecht stehen. Die Koordinatenlinien
schneiden sich dann jeweils im rechten Winkel.
Definition 1.11 (Maßstabskoeffizienten)
35
Die Maßstabskoeffizienten gi (~r) in einem orthogonalen Koordinatensystem sind definiert durch
gi (~r) = |~ti (~r)| .
Im folgenden gehen wir davon aus, dass die Tangentialvektoren stets so nummeriert
sind, dass die Basis ~t1 (~r), ~t2 (~r), ~t3 (~r) positiv orientiert ist.
Bemerkung
Durch Normieren der Vektoren ~ti (~r) kann stets ein positiv orientiertes orthonormales
Basisfeld
~ti (~r)
,
i = 1, . . . , 3
~e˜i (~r) :=
gi (~r)
erzeugt werden.
Wir betrachten nun ein ortsabhängiges Vektorfeld ~a(~r), das wir einmal bezüglich eines
kartesischen Basisfeldes (~e1 = ~ex , ~e2 = ~ey , ~e3 = ~ez ) und einmal bezüglich des orthonormalen Basisfeldes (~e˜1 , ~e˜2 , ~e˜3 ) darstellen, das durch krummlinige Koordinaten gegeben
ist. Die Transformation am Ort ~r des durch die krummlinigen Koordinaten induzierten
Basisfeldes auf das kartesische Basisfeld laute (T̃ij ).
Basistransformation
~a (~r) ∈ T Ω~r mit ~e1 , ~e2 , ~e3
~a (~r) ∈ T Ω~r mit ~e˜1 , ~e˜2 , ~e˜3
T>
S
(~a1 (~r) , ~a2 (~r) , ~a3 (~r))> ∈ R3
S̃
(Tij )
˜1 (~r) , ~a
˜2 (~r) , ~a
˜3 (~r))> ∈ R3
(~a
Satz 1.12
Durch ~r˜(u1 , u2 , u3 ) sei, wie zuvor beschrieben, ein Koordinatensystem definiert, und es
gelte die Darstellung
3
X
˜
~r(u1 , u2 , u3 ) =
xj (u1 , u2 , u3 )~ej
j=1
bezüglich des kartesischen Basisfeldes (~e1 , ~e2 , ~e3 ). Weiter sei
1 ∂xj
T̃ji = ~e˜i · ~ej =
,
gi ∂ui
wobei (~e˜1 , ~e˜2 , ~e˜3 ) ein positiv orientiertes orthonormales Basisfeld zum gegebenen (krummlinigen) Koordinatnesystems ist. Dann gilt für die Umrechnung der (kartesischen) Koordinaten a1 , a2 , a3 eines Vektorfeldes
~a(~r) = a1~e1 + a2~e2 + a3~e3 = ã1~e˜1 + ã2~e˜2 + ã3~e˜3
36
in krummlinigen Koordinaten e
ai , i = 1, . . . , 3 die Transformationsformel
 
 
e
a1
a1
 
 
a2  = (Tij ) a2 
e
e
a3
a3
Die Matrix T = (Tij ) entält zeilenweise die normierten Basisvektoren des krummlinigen
Koordinatensystems. Geometrisch betrachtet, erhält man also e
ai durch Projektion von
e
~a(~r) auf den Basisvektor ~ei , denn es gilt
e
ai (~r) = ~a(~r) · e
~ei (~r).
Wir fassen nocheinmal alle bisherigen Schritte, die erforderlich sind, um die Umrechnung der Koordinaten eines Vektorfeldes ~a(~r) von krummlinigen Koordinaten
(ã1 (~r), ã2 (~r), ã3 (~r))> in kartesische Koordinaten (a1 (~r), a2 (~r), a3 (~r))> und umgekehrt
durchzuführen:
1. Darstellung kartesischer Raumkoordinaten (x, y, z) als Funktion der krummlinigen Koordinaten (u1 , u2 , u3 ).
2. Bestimmung der Tangentenvektoren ~t1 , ~t2 , ~t3 durch Ableiten der Darstellung
~r(u1 , u2 , u3 ) =
x(u1 , u2 , u3 ) ~e1 + y(u1 , u2 , u3 ) ~e2 + z(u1 , u2 , u3 ) ~e3
nach u1 , u2 , u3 .
3. Überprüfen, ob ~t1 , ~t2 , ~t3 paarweise orthogonal sind, Berechnen der Maßstabskoeffizienten g1 , g2 , g3 und Normieren:
1
~e˜1 = ~t1 ,
g1
1
~e˜2 = ~t2 ,
g2
1
~e˜3 = ~t3 .
g3
4. Die Transformationsmatrix (~e1 , ~e2 , ~e3 ) −→ (~e˜1 , ~e˜2 , ~e˜3 ) ist gegeben durch
Tij = ~e˜i · ~ej .
Damit gilt




a1 (~r)
ã1 (~r)



>
a2 (~r) = (Tij ) ã2 (~r)
ã3 (~r)
a3 (~r)
und




ã1 (~r)
a1 (~r)




ã2 (~r) = (Tij ) a2 (~r) .
ã3 (~r)
a3 (~r)
37
Die erste Umrechungsformel folgt, da für Orthonormalbasen stets T −1 = T > gilt.
Diese Beziehung gilt für Matrizen mit orthonormalen Spalten- bzw. Zeilenvektoren. Im
Falle von Kugelkoordinaten bedeutet dies:
1. Darstellung der kartesischen Koordinaten:
x = r sin ϑ cos ϕ ,
y = r sin ϑ sin ϕ ,
z = r cos ϑ .
2. Tangentenvektoren (~t1 = ~tr , ~t2 = ~tϑ , ~t3 = ~tϕ ):
~t1 (~r) = sin ϑ cos ϕ ~e1 + sin ϑ sin ϕ ~e2 + cos ϑ ~e3
~t2 (~r) =r cos ϑ cos ϕ ~e1 + r cos ϑ sin ϕ ~e2 − r sin ϑ ~e3
~t3 (~r) = − r sin ϑ sin ϕ ~e1 + r sin ϑ cos ϕ ~e2 + 0 ~e3
3. Orthogonalität, Maßstabskoeffizienten und Normierung:
~e˜1 = ~t1 ,
1
~e˜2 = ~t2 ,
r
~e˜3 =
1 ~
t3 .
r sin ϑ
4. Transformationsmatrix (~e1 , ~e2 , ~e3 ) −→ (~e˜1 , ~e˜2 , ~e˜3 ):


sin ϑ cos ϕ sin ϑ sin ϕ cos ϑ


(Tij ) = (~e˜i · ~ej ) = cos ϑ cos ϕ cos ϑ sin ϕ − sin ϑ .
− sin ϕ
cos ϕ
0
Damit gilt

  
ax
ãr sin ϑ cos ϕ + ãϑ cos ϑ cos ϕ − ãϕ sin ϕ

  
ay  =  ãr sin ϑ sin ϕ + ãϑ cos ϑ sin ϕ + ãϕ cos ϕ 
ãr cos ϑ − ãϑ sin ϑ
az
und
38

 

ãr
ax sin ϑ cos ϕ + ay sin ϑ sin ϕ + az cos ϑ
  

ãϑ  = ax cos ϑ cos ϕ + ay cos ϑ sin ϕ − az sin ϑ .
ãϕ
−ax sin ϕ + ay cos ϕ
z
~er
θ
~r
~eϕ
~eθ
ϕ
y
x
Abbildung 1.2. Kugelkoordinaten im R3 mit ϕ ∈ [0, 2π) und ϑ ∈ [0, π).
z
ρ ~ez
~eϕ
~eρ
z
r1
ϕ
x
y
Abbildung 1.3. Zylinderkoordinaten im R3 mit ϕ ∈ [0, 2π].
39
2
Integration
Übersicht
2.1
Kurven . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
40
2.2
Flächen im dreidimensionalen Raum . . . . . . . . . . . . . . . .
48
2.3
Raumintegration bei kartesischen Koordinaten . . . . . . . . . .
58
2.4
Krummlinige Koordinaten . . . . . . . . . . . . . . . . . . . . .
62
In diesem Abschnitt behandeln wir das Thema Integration von Feldern“. Da wir un”
terschiedliche Arten von Feldern im dreidimensionalen Raum behandeln, treten unterschiedliche Integrationsbegriffe auf, die sich bezüglich zweier Dinge unterscheiden:
1. der Menge über die Integriert wird
2. der Feldeigenschaft, bezüglich der integriert wird (Betrag, Fluss etc.)
Zusammenfassend werden wir die folgenden Integraltypen behandeln:
1. Kurvenintegrale
• Integrale skalarwertiger Funktionen bezüglich der Bogenlänge
• Energie-Integrale
2. Flächenintegrale
• Integrale skalarwertiger Funktionen bezüglich des skalaren Flächenelementes
(z.B. Flächeninhalt)
• Flussintegrale
3. Volumenintegrale
2.1 Kurven
Wir Beginnen mir der Darstellung von Kurven im Raum.
Definition 2.1 (Darstellung von Kurven)
Gegeben sei ein Intervall [a, b] und ein orientierter dreidimensionaler Euklidischer Vektorraum V . Weiter sei eine stetige Funktion
~r : [a, b] −→ V
40
gegeben. Dann heißt ~r stückweise glatt, wenn es eine Zerlegung a = t0 < t1 < t2 <
... < tn = b des Intervalls [a, b] in n + 1 Teilstücke gibt, so dass die Einschränkung
~r|[tk ,tk+1 ]
auf jedes durch diese Zerlegung definierte Teilintervall [tk , tk+1 ], k = 0, ..., n, stetig
differenzierbar ist. In den Randpunkten tk , tk+1 wird jeweils die Existenz einseitiger
Ableitungen gefordert.
Definition 2.2 (Parameterdarstellung einer stückweise stetig differenzierbaren Kurve)
Gegeben sei ein Intervall [a, b], ein orientierter dreidimensionaler Euklidischer Vektorraum V und eine stückweise glatte Funktion
~r : [a, b] −→ V .
Ferner gelte
d~r
t ∈ [a, b] \ {t0 , . . . , tn } ,
~r˙ (t) := (t) 6= 0 ,
dt
wobei t0 , . . . , tn die Punkte sind, an denen ~r nicht differenzierbar ist. Dort existieren
noch die jeweils einseitigen Ableitungen und sind ungleich ~0. Dann heißt ~r Parameterdarstellung einer (stückweise stetig differenzierbaren) Kurve C. Gibt es in (a, b) keine
Ausnahmepunkte t1 , . . . tn−1 , so heißt ~r Parameterdarstellung einer stetig differenzierbaren Kurve. Der Vektor
d~r
~r˙ (t) = (t)
dt
für t 6= ti , i = 0, . . . , n, heißt Tangentenvektor.
Die Kurve C selber wird nicht nur über eine Parameterdarstellung dargestellt, sondern
über eine ganze Klasse äquivalenter Darstellungen.
Definition 2.3 (Umparametrisierung)
Zwei Funktionen ~r1 : [a, b] −→ R und ~r2 : [α, β] −→ R gemäß Definition 2.2 heißen äquivalent, wenn eine sogenannte orientierungserhaltende Parametertransformation existiert, d.h. eine streng monoton steigende, stetige, stückweise stetig differenzierbare Selbstabbildung ϕ : [a, b] −→ [α, β] mit ϕ(a) = α und ϕ(b) = β so, dass
~r2 (t) = ~r1 (ϕ(t)) ,
t ∈ [a, b]
gilt. Wir sagen, dass zwei äquivalente Funktionen ~r1 und ~r2 dieselbe Kurve in V parametrisieren.
Definition 2.4 (Kurven)
Es sei V ein orientierter dreidimensionaler Euklidischer Vektorraum. Dann ist eine
Kurve C definiert als die Klasse aller ihrer Parameterdarstellungen.
41
Definition 2.5 (Parameterdarstellung einer Kurve)
Gegeben sei eine Kurve C, und
~r : [a, b] −→ V
sei eine Parameterdarstellung. Wir definieren die folgenden Eigenschaften:
• Der Anfangspunkt von C ist gegeben durch den Ortsvektor ~r(a), der Endpunkt
von C ist gegeben durch den Ortsvektor ~r(b).
• Gilt ~r(a) = ~r(b), so heißt die Kurve geschlossen. Für ihren Rand ∂C gilt dann
∂C = ∅.
• Ist C nicht geschlossen, so gilt für den Rand der Kurve ∂C = {~r(a), ~r(b)}.
• Die Kurve C heißt doppelpunktfrei, wenn für a < t1 < t2 < b stets ~r(t1 ) 6= ~r(t2 )
gilt.
• Der Träger |C| einer Kurve C ist definiert als die Menge
{~x ∈ V : ~x = ~r(t) , für ein t ∈ [a, b]} .
• Die Kurve C ist definiert durch die Parametrisierung
~r˜(t) = ~r(a + b − t) ,
t ∈ [a, b] .
Bemerkung
Während die Länge des Tangentenvektors von der gewählten Parameterdarstellung
abhängt, besitzt eine stückweise stetig differenzierbare Kurve außerhalb der Ecken“,
”
d.h. für t 6= ti , i = 0, . . . , n, eine eindeutige Tangentenrichtung
~τ0 (t) =
~r˙ (t)
,
|~r˙ (t)|
die unabhängig ist von der gewählten Parameterdarstellung, und somit eine geometrische Eigenschaft der Kurve wiedergibt. Der Vektor ~τ0 (t) heißt Tangenteneinheitsvektor. Die Gleichung der Tangente (Geradengleichung) zum Parameterwert t ∈ [a, b] \
{t0 , . . . , tn } ist gegeben durch
Tt :
~rTt (s) = ~r(t) + s~τ0 (t) ,
−∞ < s < ∞ .
Für die Koordinaten des Tangentenvektors gilt in unterschiedlichen Koordinatensystemen die folgende Darstellung:
Satz 2.6
Gegeben sei eine stetig differenzierbare Kurve C mit Parameterdarstellung ~r. Dann gilt
42
• In kartesischen Koordinaten:
~r(t) = x(t) ~ex + y(t) ~ey + z(t) ~ez
und
dx
dy
dz
~r˙ (t) =
(t) ~ex + (t) ~ey + (t) ~ez .
dt
dt
dt
• In Zylinderkoordinaten: Die Transformationsmatrix von kartesischen Koordinaten nach Zylinderkoordinaten ist gegeben durch


cos(ϕ) sin(ϕ) 0


T = − sin(ϕ) cos(ϕ) 0
0
0
1
also ist



 

x(t)
%(t) cos(ϕ(t))
%(t)



 

T y(t) = T  %(t) sin(ϕ(t))  =  0  .
z(t)
z(t)
z(t)
Es folgt
~r(t) = ρ(t) ~eρ (ϕ(t)) + z(t) ~ez
und
dϕ
dz
dρ
~r˙ (t) = (t) ~eρ (ϕ(t)) + ρ(t) (t) ~eϕ (ϕ(t)) + (t) ~ez .
dt
dt
dt
• In Kugelkoordinaten: Die Transformationsmatrix von kartesischen Koordinaten
nach Kugelkoordinaten ist gegeben durch


sin(ϑ) cos(ϕ) sin(ϑ) sin(ϕ) cos(ϑ)


T = cos(ϑ) cos(ϕ) cos(ϑ) sin(ϕ) − sin(ϑ) .
− sin(ϕ)
cos(ϕ)
0
Damit ist



 

x(t)
r(t) sin(ϑ(t)) cos(ϕ(t))
r(t)



 

T y(t) = T  r(t) sin(ϑ(t)) sin(ϕ(t))  =  0  .
z(t)
r(t) cos(ϑ(t))
0
Es folgt
~r(t) = r(t) ~er (ϑ(t), ϕ(t))
und
dr
dϑ
dϕ
~r˙ (t) = (t) ~er (ϑ(t), ϕ(t)) + r(t) (t) ~eϑ (ϑ(t), ϕ(t)) + r(t) sin ϑ(t) (t) ~eϕ (ϕ(t)) .
dt
dt
dt
43
Satz und Definition 2.7 (Bogenlänge)
Gegeben sei eine glatte Kurve C im dreidimensionalen orientierten Euklidischen Vektorraum V . Weiter sei
~r : [a, b] −→ V
eine Parameterdarstellung von C. Dann ist die Bogenlänge von C definiert durch
ˆ
n
X
ds := lim
δ(Zn )→0
C
|~r(tk ) − ~r(tk−1 )| ,
k=1
wobei (Zn ) eine Familie von Zerlegungen1
Zn : a = t0 < t1 < . . . < tn−1 < tn = b
des Intervalls [a, b] in n Teilintervalle mit Feinheit
δ(Zn ) := max (tk − tk−1 )
1≤k≤n
ist. Ferner gelte
lim δ(Zn ) = 0 .
n→∞
Zur Berechnung der Bogenlänge verwendet man die unmittelbar aus der Definition
folgende Identität
ˆ
ˆb
ds = |~r˙ (t)| dt .
C
a
Die Bogenlänge ist unabhängig von der gewählten Parameterdarstellung (und vom gewählten
Koordinatensystem). Das Symbol
ds = |~r˙ (t)| dt
heißt das skalare Linienelement.
Bemerkung
Die Länge einer stückweise glatten Kurve kann nun definiert werden, indem das Parameterintervall in endlich viele Teilintervalle so zerlegt wird, dass die Einschränkung der
Parameterdarstellung auf eines der Teilintervalle jeweils eine glatte Kurve definiert. Die
Länge der gegebenen Kurve ist definiert als die Summe der Längen der so entstandenen
Teilkurven.
1
(j)
auf die eigentlich erforderliche Doppelindizierung tk der Zerlegungspunkte – ein Index j ∈ N für die
Nummer der Zerlegung und ein weiterer k mit 0 ≤ k ≤ n für die Nummer des jeweiligen Punktes
innerhalb der jeweiligen Zerlegung wird zur Vereinfachung der Notation verzichtet
44
Integration bezüglich des skalaren Linienelementes
Satz und Definition 2.8 (Kurvenintegral 1. Art)
Gegeben sei eine glatte Kurve C im dreidimensionalen orientierten Euklidischen Vektorraum V mit Parameterdarstellung
~r : [a, b] −→ V .
Weiter sei
λ : V −→ R
ein stetiges Skalarfeld. Dann ist das Kurvenintegral von λ über C definiert durch das
Integral
ˆ
n
X
λ(~r) ds := lim
λ(~r(ξk ))|~r(tk ) − ~r(tk−1 )| ,
δ(Zn )→0
C
k=1
wobei (Zn ) eine Familie von Zerlegungen2
Zn : a = t0 < t1 < . . . < tn−1 < tn = b
des Intervalls [a, b] in n Teilintervalle mit Feinheit
δ(Zn ) = max (tk − tk−1 )
1≤k≤n
ist. Der Zwischenpunkt“ ξk kann jeweils beliebig im Intervall [tk−1 , tk ] gewählt werden3 .
”
Ferner gelte
lim δ(Zn ) = 0 .
n→∞
Zur Berechnung des Kurvenintegrals bezüglich des skalaren Linienelements verwendet
man die unmittelbar aus der Definition folgende Identität
ˆ
ˆb
λ(~r(t))|~r˙ (t)| dt
λ(~r) ds =
C
a
Das Integral ist unabhängig von der gewählten Parameterdarstellung (und vom gewählten
Koordinatensystem).
Das Produkt λ(~r) ds kann als infinitesimale Ladung gedeutet werden, die daraus resultiert, dass die Ladungsdichte λ(~r) über eine infinitesimale Länge ds verteilt ist. Das
Kurvenintegral bezüglich des skalaren Linienelementes summiert“ diese infinitesima”
len Ladungen und ermittelt somit die Gesamtladung der Kurve C mit Ladungsbelegung
λ(~r).
2
3
siehe vorhergehende Fußnote zur Doppelindizierung
also z.B. ξk = tk−1 .
45
Bemerkung
Die Berechnung des Kurvenintegrals über stückweise glatte Kurven wird wiederum definiert, indem das Parameterintervall in endlich viele Teilintervalle so zerlegt wird, dass
die Einschränkung der Parameterdarstellung auf eines der Teilintervalle jeweils eine
glatte Kurve definiert. Das Kurvenintegral über die gegebene Kurve ist dann definiert
als die Summe aller einzelnen Integrale über die Teilkurven.
Bemerkung
Kurvenintegrale über Skalarfelder sind unabhängig von der Orientierung der Kurve:
ˆ
ˆ
λ(~r) ds = λ(~r) ds
−C
C
Satz und Definition 2.9 (Kurvenintegral 2. Art)
Gegeben sei eine glatte Kurve C im dreidimensionalen orientierten Euklidischen Vektorraum V mit Parameterdarstellung
~r : [a, b] −→ V .
Weiter sei ~a ein stetiges auf V definiertes Vektorfeld. Dann ist das Arbeitsintegral von
~a über C definiert durch
ˆ
~a(~r) · d~r := lim
δ(Zn )→0
C
n
X
~a(~r(ξk )) · (~r(tk ) − ~r(tk−1 )) ,
k=1
wobei (Zn ) eine Familie von Zerlegungen4
Zn : a = t0 < t1 < . . . < tn−1 < tn = b
des Intervalls [a, b] in n Teilintervalle mit Feinheit
δ(Zn ) = max (tk − tk−1 )
1≤k≤n
ist. Der Zwischenpunkt“ ξk kann jeweils beliebig im Intervall [tk−1 , tk ] gewählt werden5 .
”
Ferner gelte
lim δ(Zn ) = 0 .
n→∞
Zur Berechnung des Arbeitsintegrals verwendet man die unmittelbar aus der Definition
folgende Identität
ˆb
ˆ
~a(~r) · d~r = ~a(~r(t)) · ~r˙ (t) dt.
C
4
5
a
siehe vorhergehende Fußnote zur Doppelindizierung
also z.B. ξk = tk−1
46
Das Integral ist unabhängig von der gewählten Parameterdarstellung (und vom gewählten
Koordinatensystem). Das Symbol
d~r := ~r˙ (t) dt
heißt vektorielles Linienelement.
Wegen
~a(~r) · d~r = ~a(~r) · ~r˙ (t)dt = ~a(~r) ·
~r˙ (t) ˙ ~r(t) dt = ~a(~r) · ~τ0 (t) ds
|~r˙ (t)| | {z }
| {z } =ds
=~
τ0 (t)
ist der Ausdruck ~a(~r) · d~r ist das Produkt aus infinitesimaler Kurvenlänge ds und,
bis auf Vorzeichen, dem Betrag der Projektion der Feldstärke ~a(~r) auf den Tangenteneinheitsvektor. Das Vorzeichen gibt an, ob die projezierte Komponente in Richtung
der Kurve zeigt, oder entgegengesetzt. Im Falle eines Kraftfeldes ~a kann er somit als
die geleistete Arbeit bei Durchlaufen des infinitesimalen Kurvenstücks der Länge ds
gedeutet werden. Das Arbeitsintegral oder Kurvenintegral bezüglich des vektoriellen
Linienelementes summiert“ jeweils diese infinitesimalen Energiedifferenzen und ergibt
”
somit die resultierende Arbeit.
Bemerkung
Der Zusammenhang zwischen skalarem und vektoriellem Linienelement ist gegeben
durch
d~r = ~τ0 (~r) ds ,
wobei ~τ0 (~r) der Tangenteneinheitsvektor an C im Kurvenpunkt ~r ist. Daher kann das
Arbeitsintegral als Kurvenintegral des Skalarfeldes ~a(~r)·~τ0 (~r) (Betrag der Komponente
des Vektorfeldes in Richtung des Tangenteneinheitsvektors) aufgefasst werden:
ˆ
ˆ
~a(~r) · d~r = ~a(~r) · ~τ0 (~r) ds .
C
C
Die vorhergehende Bemerkung erlaubt die Sichtweise, jedes der drei behandelten Typen
von Kurvenintegralen als Integral eines speziellen Skalarfeldes bezüglich des skalaren
Linienelementes ds aufzufassen:
• Im Falle der Bogenlänge ist λ(~r) = 1 für alle ~r,
• Im Falle der Integrals eines Skalarfeldes bezüglich des skalaren Linienelementes
ist λ(~r) explizit gegeben,
• Im Falle des Arbeitsintegrals ist λ(~r) = ~a(~r) · ~τ0 (~r), also bis auf das Vorzeichen
der Betrag der Projektion des Feldvektors ~a(~r) auf den Tangenteneinheitsvektor
~τ0 (~r) an C in ~r.
47
Bemerkung
Die Berechnung des Arbeitsintegrals über stückweise glatte Kurven wird wiederum
definiert, indem das Parameterintervall in endlich viele Teilintervalle so zerlegt wird,
dass die Einschränkung der Parameterdarstellung auf eines der Teilintervalle jeweils
eine glatte Kurve definiert. Das Arbeitsintegral über die gegebene Kurve ist dann
definiert als die Summe aller einzelnen Integrale über die Zerlegungskurven.
Bemerkung
Arbeitsintegrale wechseln ihr Vorzeichen bei Änderung der Orientierung der Kurve:
ˆ
ˆ
~a(~r) · d~r.
~a(~r) · d~r = −
−C
C
Definition 2.10
Ist C eine geschlossene Kurve, so ist auch die Schreibweise
˛
ˆ
~a(~r) · d~r :=
C
~a(~r) · d~r
C
üblich.
2.2 Flächen im dreidimensionalen Raum
Wieder bezeichnet V in diesem Abschnitt durchgängig einen orientierten dreidimensionalen Euklidischen Vektorraum. Wir werden nun drei verschiedene Integraltypen über
Flächen im dreidimensionalen Raum einführen:
• den Flächeninhalt
• das Integral eines Skalarfeldes λ bezüglich des skalaren Flächenelementes
• Flussintegrale (Flüsse)
Analog zur Situation bei Kurvenintegralen können der erste und der dritte Integraltyp als Spezialfall des zweiten Integraltyps aufgefasst werden: Im ersten Fall wird das
Skalarfeld λ als konstant 1 auf der Fläche gesetzt und im dritten Fall wird
λ(~r) = ~a(~r) · ~n0 (~r)
gesetzt, wobei ~a ein gegebenes Vektorfeld ist und ~n0 (~r) ein sogenannter normierter
orientierter Normalenvektor an die Fläche am Ort ~r ist. Geometrisch gedeutet ist ~a(~r) ·
~n0 (~r), bis auf das Vorzeichen, der Betrag der Komponenten von ~a senkrecht zur Fläche.
Das Vorzeichen gibt an, in welche Richtung die Fläche von ~a durchströmt“ wird.
”
48
Darstellung von Flächen Wie Raumkurven werden wir auch Flächen durch Parameterdarstellungen beschreiben. Im Unterschied zu Kurven benötigen wir nun zwei
Parameter, die ihrerseits auf einem ebenen (zweidimensionalen) Gebiet definiert sind.
Als solche Parametergebiete eignen sich sogenannte Normalbereiche:
Definition 2.11 (Normalbereich erster Art)
Gegeben sei ein Intervall [a, b] und stetig differenzierbare Funktionen
c, d : [a, b] −→ R
mit c(u) ≤ d(u). Dann heißt die Menge
B = {(u, v) ∈ R2 : a ≤ u ≤ b , c(u) ≤ v ≤ d(u)}.
Normalbereich erster Art.
Definition 2.12 (Normalbereich zweiter Art)
Gegeben sei ein Intervall [c, d] und stetig differenzierbare Funktionen
a, b : [c, d] −→ R
mit a(v) ≤ b(v). Dann heißt die Menge
B = {(u, v) ∈ R2 : c ≤ v ≤ d , a(v) ≤ u ≤ b(v)}.
Normalbereich zweiter Art.
v
v
d
d
a
B
B
c
a
b
u
c
u
b
(a) Normalbereich 1. Art.
(b) Normalbereich 2. Art.
Abbildung 2.1. Normalbereiche.
Die Mengen, die wir für die Parametrisierung von Flächen im Raum heranziehen werden, dürfen noch ein wenig allgemeiner sein. Wir betrachten Teilmengen B ⊆ R2 mit
den folgenden Eigenschaften:
Definition 2.13 (reguläre Parameterbereich)
Eine Menge B ⊆ R2 heißt regulärer Parameterbereich, wenn die folgenden Eigenschaften gelten:
49
• B \ ∂B 6= ∅
• B ist abgeschlossen (d.h. ∂B ⊆ B) und beschränkt
• Durch endlich viele Schnitte parallel zu den Koordinatenachsen kann B in Normalbereiche erster und zweiter Art eingeteilt werden.
Definition 2.14 (Parameterdarstellung einer stetig differenzierbaren Fläche)
Es sei B ein regulärer Parameterbereich. Eine stetig partiell differenzierbare Funktion
~r : B −→ V ,
(u, v) 7−→ ~r(u, v)
heißt Parameterdarstellung einer stetig differenzierbaren Fläche A (oder: Parameterdarstellung einer glatten Fläche A), wenn sie die folgenden Eigenschaften besitzt:
• Die Tangentenvektoren
~tu (u, v) = ∂~r (u, v) ,
∂u
~tv (u, v) = ∂~r (u, v)
∂v
sind in jedem Punkt linear unabhängig, das heißt, es gilt
~n(u, v) = ~tu (u, v) × ~tv (u, v) 6= ~0
für alle (u, v) ∈ B.
• Gibt es Parameterwerte (u1 , v1 ) und (u2 , v2 ) mit (u1 , v1 ) 6= (u2 , v2 ) und ~r(u1 , v1 ) =
~r(u2 , v2 ), so wird ~n(u1 , v1 ) = ~n(u2 , v2 ) gefordert.
Der Vektor ~n(u, v) heißt Normalenvektor an A im Punkt ~r(u, v).
Definition 2.15 (Parameterdarstellung einer stückweise stetig differenzierbaren Fläche)
Es sei B ein regulärer Parameterbereich. Eine Funktion
~r : B −→ V ,
(u, v) 7−→ ~r(u, v)
heißt Parameterdarstellung einer stückweise stetig differenzierbaren ( oder: stückweise
glatten) Fläche A, wenn B durch endlich viele Schnitte längs stetig differenzierbarer
Kurven in n ∈ N reguläre Bereiche Bk , 1 ≤ k ≤ n zerlegt werden kann, und die
Einschränkung von ~r auf Bk jeweils eine stetig differenzierbare Fläche parametrisiert.
Auf dem Rand eines Teilbereiches, in dem ~r stetig differenzierbar ist, reicht es, wenn
~n(u, v) =
∂~r
∂~r
(u, v) ×
(u, v)
∂u
∂v
jeweils eine stetige Fortsetzung besitzt. Die Bedingung ~n(u1 , v1 ) = ~n(u2 , v2 ) muß an
diesen Rändern ebenfalls nur im Sinne einer stetigen Fortsetzung von ~n erfüllt sein.
50
Definition 2.16 (Parameterlinien)
Es sei A eine Fläche, die über ~r : B −→ V parametrisiert werde. Die Kurvenscharen
Cv : u 7−→ ~r(u, v)
Cu : v 7−→ ~r(u, v)
heißen u-Linien bzw. v-Linien der Fläche A (allgemein: Parameterlinien).
Bemerkung
Aus der stetigen Differenzierbarkeit der Parameterdarstellung folgt, dass die Parameterlinien Cv und Cu stetig differenzierbare Kurven sind.
Satz und Definition 2.17 (Normalenvektor)
In jedem Punkt einer stetig differenzierbaren Fläche A ist durch den Normalenvektor
eine bis aufs Vorzeichen eindeutige Normalenrichtung
~n0 (u, v) = ±
~n(u, v)
|~n(u, v)|
gegeben. Ist es möglich, in jedem Punkt von A die Tangentenvektoren
~tu (u, v) = ∂~r (u, v) ,
∂u
~tv (u, v) = ∂~r (u, v)
∂v
durch ~n0 (u, v) zu einer positiv orientierten Basis von V zu ergänzen, so wählen wir das
entsprechende Vorzeichen in der Definition von ~n0 (u, v). Hierdurch ist eine Orientierung von A definiert.
Bemerkung
Nicht jede Fläche in V ist orientierbar .
Abbildung 2.2. Das Möbiusband als Beispiel für unorientierte Flächen.
51
Definition 2.18 (Tangentialebene)
Gegeben sei eine stetig differenzierbare Fäche A mit Parameterdarstellung ~r. Die Tangentialebene T(u,v) ist definiert als die Ebene in V , die von den Tangentialvektoren an
die Parameterlinien im Punkt ~r(u, v) aufgespannt wird.
Wie im Falle von Kurven wird auch das Integral über Flächen zurückgezogen zu einem
Integral im Parameterbereich. Da Parameterbereiche für Flächen zweidimensional sind,
erinnern wir hier zunächst an das Mehrfachintegral über einen Bereich im R2 :
Definition 2.19 (Integration im Parameterbereich)
Gegeben sei ein regulärer Parameterbereich B und ein stetiges Skalarfeld f : B
mapstoR. Weiter sei B̃ = [a, b] × [c, d] ein Rechteck mit B ⊆ B̃ und (Zk ) eine Familie
von Zerlegungen6 von B̃ in m · n achsenparallele Rechtecke [ui−1 , ui ] × [vj−1 , vj ], i =
1, . . . , m, j = 1, . . . , n, mit Kantenlängen ∆ui = ui − ui−1 bzw. ∆vj = vj − vj−1 mit
Feinheit
q
∆u2i + ∆vj2 .
δ(Zk ) = i=1,...,m
max
j=1,...,n
Ferner gelte
lim δ(Zk ) = 0 .
k→∞
Dann ist das Integral von f über B definiert durch
x
f (u, v) du dv := lim
m X
n
X
δ(Zk )→0
B
wobei
f˜(u, v) :=
f˜(ξi , ηj )∆ui ∆vj ,
i=1 j=1

f (u, v)
,
(u, v) ∈ B
0
,
(u, v) ∈
/B
und (ξi , ηj ) beliebige Punkte mit ui−1 ≤ ξj ≤ ui und vj−1 ≤ ηj ≤ vj sind.
Unmittelbar aus der Definition des vorhergehenden Satzes folgt die Identität




ˆd ˆb
ˆb ˆd
x
f (u, v) du dv =  f˜(u, v) du dv =  f˜(u, v) dv  du .
B
c
a
a
c
In der Praxis möchte man aber nicht erst die fortgesetzte Funktion f˜ konstruieren.
Daher ist folgendes Vorgehen sinnvoll:
1. Zerlege B durch endlich viele Schritte in endlich viele Normalbereiche N1 , N2 , . . . , Nn
erster oder zweiter Art.
6
(k)
(k)
auf die eigentlich erforderliche Doppelindizierung ui = ui , vj = vj der Zerlegungspunkte – ein
Index k ∈ N für die Nummer der Zerlegung und jeweils ein weiterer i bzw. j mit 1 ≤ i ≤ m bzw.
1 ≤ j ≤ n für die Nummer des jeweiligen Punktes innerhalb der jeweiligen Zerlegung – wird zur
Vereinfachung der Notation verzichtet.
52
2. Berechne die Doppelintegrale über N1 , N2 , . . . , Nn wie im folgenden Satz beschrieben.
3. Es gilt
x
f (u, v) du dv =
n x
X
f (u, v) du dv
k=1 Nk
B
Satz 2.20
Gegeben sein ein Normalbereich B und ein stetiges Skalarfeld
f : B −→ R .
Dann gilt:
1. Ist B ein Normalbereich 1. Art, d.h.
B = {(u, v) ∈ R2 : a ≤ u ≤ b , c(u) ≤ v ≤ d(u)} ,
so gilt
x
ˆb
f (u, v) du dv =
B


ˆd(u)


 f (u, v) dv  du
a
c(u)
2. Ist B ein Normalbereich 2. Art, d.h.
B = {(u, v) ∈ R2 : c ≤ v ≤ d , a(v) ≤ u ≤ b(v)} ,
so gilt
x
B
ˆd
f (u, v) du dv =
c


ˆb(v)


 f (u, v) du dv .
a(v)
Zusammenfassend kann man sagen, dass die Integration über einen Normalbereich wie
folgt durchgeführt wird:
• (Mindestens) eine Variable hat feste Grenzen. Bezüglich ihr wird zum Schluss
integriert (äußeres Integral).
• Die Grenzen der zweiten Variable dürfen von der ersten (der mit festen Grenzen)
abhängen. Nach der zweiten Variable wird zuerst integriert (inneres Integral).
Das Ergebnis der Integration darf noch von der ersten Variable (der mit den
festen Grenzen) abhängig sein. Diese hat die Rolle eines Parameters im inneren
Integral.
Satz und Definition 2.21 (Flächeninhalt)
Gegeben sei eine glatte Fläche A in V mit Parameterdarstellung
~r : B −→ V
53
auf dem regulären Parameterbereich B. Weiter sei B̃ = [a, b] × [c, d] ein Rechteck mit
B ⊆ B̃ und (Zk ) eine Familie von Zerlegungen7 von B̃ in m·n achsenparallele Rechtecke
[ui−1 , ui ] × [vj−1 , vj ], i = 1, . . . , m, j = 1, . . . , n, mit Kantenlängen ∆ui = ui − ui−1 bzw.
∆vj = vj − vj−1 mit Feinheit
q
∆u2i + ∆vj2 .
δ(Zk ) = i=1,...,m
max
j=1,...,n
Ferner gelte
lim δ(Zk ) = 0 .
k→∞
Dann ist der Flächeninhalt von A definiert durch
x
m X
n
X
dA := lim
δ(Zk )→0
A
∆Aij .
i=1 j=1
Hierbei ist ∆Aij
• die Fläche des Parallelogramms mit Ecken ~r(ui−1 , vj−1 ),
~r(ui−1 , vj ) und ~r(ui , vj−1 ) + ~r(ui−1 , vj ) − ~r(ui−1 , vj−1 )
im Falle (ui−1 , vj−1 ) ∈ B,
~r(ui , vj−1 ),
• =0
im Falle (ui−1 , vj−1 ) ∈
/ B.
Zur Berechnung des Flächeninhalts verwendet man die unmittelbar aus der Definition
folgende Identität
x ∂~r
x
x
∂~r
du dv .
|~n(u, v)| du dv =
dA =
(u,
v)
×
(u,
v)
∂u
∂v
A
B
B
Der Flächeninhalt ist unabhängig von der gewählten Parameterdarstellung. Das Symbol
dA = |~n(u, v)| du dv
heißt das skalare Flächenelement.
Bemerkung
Der Flächeninhalt einer stückweise glatten Fläche kann nun definiert werden, indem der
Parameterbereich in endlich viele Teilbereiche so zerlegt wird, dass die Einschränkung
der Parameterdarstellung auf einen der Teilbereiche jeweils eine glatte Fläche definiert. Der Inhalt der gegebenen Fläche ist definiert als die Summe der Inhalte der so
entstandenen Teilflächen.
7
(k)
(k)
auf die eigentlich erforderliche Doppelindizierung ui = ui , vj = vj der Zerlegungspunkte – ein
Index k ∈ N für die Nummer der Zerlegung und jeweils ein weiterer i bzw. j mit 1 ≤ i ≤ m bzw.
1 ≤ j ≤ n für die Nummer des jeweiligen Punktes innerhalb der jeweiligen Zerlegung wird zur
Vereinfachung der Notation verzichtet.
54
Satz und Definition 2.22 (Integration bezüglich des skalaren Flächenelements)
Gegeben sei eine glatte Fläche A in V mit Parameterdarstellung
~r : B −→ V
auf dem regulären Parameterbereich B. Wieder sei B̃ = [a, b] × [c, d] ein Rechteck mit
B ⊆ B̃ und (Zk ) eine Familie von Zerlegungen8 von B̃ in m·n achsenparallele Rechtecke
[ui−1 , ui ] × [vj−1 , vj ], i = 1, . . . , m, j = 1, . . . , n, mit Kantenlängen ∆ui = ui − ui−1 bzw.
∆vj = vj − vj−1 mit Feinheit
q
∆u2i + ∆vj2 .
δ(Zk ) = i=1,...,m
max
j=1,...,n
Ferner gelte
lim δ(Zk ) = 0 .
k→∞
Schließlich sei
λ : A→R
ein stetiges Skalarfeld.
Dann ist das Flächenintegral von λ über A bezüglich des skalaren Flächenelements dA
definiert durch
m X
n
x
X
λ(~r) dA := lim
λ(~r(ui−1 , vj−1 ))∆Aij .
δ(Zk )→0
A
i=1 j=1
Hierbei ist ∆Aij
• die Fläche des Parallelogramms mit Ecken ~r(ui−1 , vj−1 ),
~r(ui−1 , vj ) und ~r(ui , vj−1 ) + ~r(ui−1 , vj ) − ~r(ui−1 , vj−1 )
im Falle (ui−1 , vj−1 ) ∈ B,
~r(ui , vj−1 ),
• =0
im Falle (ui−1 , vj−1 ) ∈
/ B.
Zur Berechnung des Flächenintegrals verwendet man die unmittelbar aus der Definition
folgende Identität
x
x
λ(~r) dA =
λ(~r(u, v)) |~n(u, v)| du dv .
A
B
Das Flächenintegral ist unabhängig von der gewählten Parameterdarstellung.
Bemerkung
Es ist nicht wesentlich, dass jeweils genau der Wert λ(~r(ui−1 , vj−1 )) im Punkt ~r(ui−1 , vj−1 )
verwendet wird. Jeder Punkt ~r(ξj , ηj ) mit ui−1 ≤ ξi ≤ ui und vj−1 ≤ ηj ≤ vj kann herangezogen werden, ohne, dass sich die Konvergenzeigenschaften der Riemann-Summe
oder der Wert des Integrals ändern.
8
auf die eigentlich erforderliche Doppelindizierung (siehe oben) wird zur Vereinfachung der Notation
verzichtet.
55
Bemerkung
Das Produkt λ(~r) dA kann als infinitesimale Ladung gedeutet werden, die daraus resultiert, dass die Flächen-Ladungsdichte λ(~r) über eine infinitesimale Fläche mit Inhalt
dA verteilt ist. Das Integral bezüglich des skalaren Flächenelementes summiert“ die”
se infinitesimalen Ladungen und ermittelt somit die Gesamtladung der Fläche A mit
Ladungsbelegung λ(~r).
Bemerkung
Das Integral über eine stückweise glatte Fläche kann nun definiert werden, indem der
Parameterbereich in endlich viele Teilbereiche so zerlegt wird, dass die Einschränkung
der Parameterdarstellung auf einen der Teilbereiche jeweils eine glatte Fläche definiert.
Das Integral über die gegebene Fläche ist definiert als die Summe der Inhalte der so
entstandenen Teilflächen.
Bemerkung
Flächenintegrale bezüglich des skalaren Flächenelements sind unabhängig von der Orientierung der Fläche.
Satz und Definition 2.23 (Flussintegrale)
Gegeben sei eine glatte Fläche A in V mit Parameterdarstellung
~r : B −→ V
auf dem regulären Parameterbereich B. Wieder sei B̃ = [a, b] × [c, d] ein Rechteck mit
B ⊆ B̃ und (Zk ) eine Familie von Zerlegungen9 von B̃ in m·n achsenparallele Rechtecke
[ui−1 , ui ] × [vj−1 , vj ], i = 1, . . . , m, j = 1, . . . , n, mit Kantenlängen ∆ui = ui − ui−1 bzw.
∆vj = vj − vj−1 mit Feinheit
q
∆u2i + ∆vj2 .
δ(Zk ) = i=1,...,m
max
j=1,...,n
Ferner gelte
lim δ(Zk ) = 0 .
k→∞
Schließlich sei ~a ein auf A definiertes stetiges Vektorfeld.
Dann ist das Flussintegral von ~a über A definiert durch
x
A
~ := lim
~a(~r) · dA
δ(Zk )→0
m X
n
X
~a(~r(ui−1 , vj−1 )) · ~n0,ij ∆Aij .
i=1 j=1
Hierbei wurden folgende Bezeichnungen gewählt:
9
auf die eigentlich erforderliche Doppelindizierung (siehe oben) wird zur Vereinfachung der Notation
verzichtet.
56
• Im Falle (ui−1 , vj−1 ) ∈ B ist
∆Aij die Fläche des Parallelogramms mit Ecken ~r(ui−1 , vj−1 ), ~r(ui , vj−1 ),
~r(ui−1 , vj ) und ~r(ui , vj−1 ) + ~r(ui−1 , vj ) − ~r(ui−1 , vj−1 ) und
~n0,ij ein normierter Normalenvektor an A in (ui−1 , vj−1 ).
• Im Falle (ui−1 , vj−1 ) ∈
/ B ist
~
∆Aij ~n0,ij = 0.
Zur Berechnung des Flächenintegrals verwendet man die unmittelbar aus der Definition
folgende Identität
x
x
~=
~a(~r) · dA
~a(~r(u, v)) · ~n(u, v) du dv .
A
B
Das Flussintegral ändert sich nicht bei Änderung der Parametrisierung der Fläche,
sofern dabei nicht die Orientierung der Fläche verändert wird. Das Symbol
~=
dA
~n(u, v)
dA = ~n(u, v) du dv
|~n(u, v)|
heißt vektorielles Flächenelement.
Bemerkung
Wie zuvor hätte wiederum jeder Punkt ~r(ξij , ηij ) mit ui−1 ≤ ξij ≤ ui und vj−1 ≤ ηij ≤
vj für die Definition des Integrals herangezogen werden können.
Bemerkung
1. Das Produkt
~ = ~a(~r) · ~n0 (~r) dA
~a(~r) · dA
mit dem normierten Normalenvektor ~n0 (~r) am Ort ~r auf A kann als Fluss des
Feldes durch ein infinitesimales Flächenelement der Größe dA gedeutet werden.
Das Flussintegral summiert“ diese infinitesimalen Flüsse und ermittelt somit
”
den Gesamtfluss des Feldes ~a durch die Fläche A. Hierbei ist die durch die Orientierung der Fläche definierte Richtung der Normalen ~n0 (~r) entscheident.
2. Das Flussintegral kann als Integral des Skalarfeldes λ mit
λ(~r) = ~a(~r) · ~n0 (~r)
bezüglich des skalaren Flächenelements dA gedeutet werden.
Bemerkung
Das Flussintegral über eine stückweise glatte Fläche kann nun definiert werden, indem der Parameterbereich in endlich viele Teilbereiche so zerlegt wird, dass die Einschränkung der Parameterdarstellung auf einen der Teilbereiche jeweils eine glatte
Fläche definiert. Das Integral über die gegebene Fläche ist definiert als die Summe
der Inhalte der so entstandenen Teilflächen.
57
Bemerkung
Flussintegrale wechseln ihr Vorzeichen bei Änderung der Orientierung einer Fläche
A1 = A zu A2 = −A: Sind z.B. ~r1 (u.v) und ~r2 (u, v) zwei Parametrisierungen mit
~n0,2 (u, v) = −~n0,1 (u, v) ,
wobei
und
∂~r1
(u, v) ×
~n0,1 (u, v) = ∂u
∂~r1 (u, v) ×
∂u
∂~r1
(u, v)
∂v
∂~r1
(u, v)
∂v
∂~r2
(u, v) ×
∂u
~n0,2 (u, v) = ∂~r2 (u, v) ×
∂u
∂~r2
(u, v)
∂v
∂~r2
(u, v)
∂v
sind, so gilt
~ 1 = −dA
~2
dA
und
x
~1 = −
~a(~r) · dA
A1
x
~2 .
~a(~r) · dA
A2
Definition 2.24 (Geschlossene Fläche)
Ist A eine Fläche ohne Rand, so nennt man A auch geschlossene Fläche. Für geschlossene Flächen ist auch die folgende Schreibweise üblich:
{
x
~
~.
:=
~a(~r) · dA
~a(~r) · dA
A
A
2.3 Raumintegration bei kartesischen Koordinaten
Bei Körpern tritt nur der Fall der Integration eines Skalarfeldes λ(~r) bezüglich des
skalaren Volumenelements dV auf.
• Ist λ(~r) = 1 für alle ~r, so führt die Integration auf den Rauminhalt des gegebenen
Körpers.
• Wird λ(~r) als Raumladungsdichte interpretiert, so ist das Volumenintegral die
Gesamtladung des Körpers.
• Wird λ(~r) als Massendichte interpretiert, so ist das Volumenintegral die Gesamtladung des Körpers.
In kartesischen Koordinaten kann die Integration über sogenannte Normalbereiche direkt ausgeführt werden (siehe unten). Für die Integration über kompliziertere Mengen
58
B
B
a
c
b
u
B
d
v
Abbildung 2.3. Der dreidimensionale Normalbereich
in kartesischen Koordinaten wird angestrebt, die gegebene Menge durch endlich viele Schnitte in Normalbereiche zu zerlegen. Der Integralwert über die gegebene Menge
ist dann die Summe der Integrale über die einzelnen Normalbereiche. Liegt die Beschreibung eines Körpers in krummlinigen Koordinaten vor, so kann die Integration
oft durch die Transformationsformel auf eine Integration über Normalbereiche (oder
deren Vereinigung) zurückgeführt werden.
Zunächst definieren wir die Mengen, über die integriert werden soll.
Definition 2.25 (Normalbereich)
Gegeben sei ein Intervall [a, b], stetig differenzierbare Funktionen
c, d : [a, b] −→ R
mit c(u) ≤ d(u) und stetig differenzierbare Funktionen
Φ, Ψ : {(u, v) ∈ R2 : a ≤ u ≤ b , c(u) ≤ v ≤ d(u)} =: D −→ R
mit Φ(u, v) ≤ Ψ(u, v) für alle (u, v) ∈ D . Dann heißt die Menge
B = {(u, v, w) ∈ R3 : a ≤ u ≤ b , c(u) ≤ v ≤ d(u) , Φ(u, v) ≤ w ≤ Ψ(u, v)}
(dreidimensionaler) Normalbereich.
Bemerkung
Analog können fünf weitere Arten von Normalbereichen mit geänderter Reihenfolge
der Variablen definiert werden.
Die Mengen, über die wir in kartesischen Koordinaten integrieren, dürfen noch allgemeiner sein. Wir betrachten Teilmengen B ⊆ R3 mit den folgenden Eigenschaften:
Definition 2.26 (Reguläre Bereich)
Eine Menge B ⊆ R3 heißt regulärer Bereich, wenn die folgenden Eigenschaften gelten:
59
• B ist abgeschlossen (d.h. ∂B ⊆ B) und beschränkt
• B \ ∂B 6= ∅
• Durch endlich viele Schnitte parallel zu den Koordinatenachsen kann B in Normalbereiche eingeteilt werden.
Beispiel
Gegeben sei T = {0 ≤ x ≤ 1, 0 ≤ y ≤ 1 − x, 0 ≤ z ≤ 1 − x − y} mit x, y, z ∈ R3 ein
Bereich des R3 .
z
y
x
Es soll das Dreifachintegral gelöst werden:
y
ˆ
ˆ1 ˆ1−x 1−x−y
x2 + y
2
x2 + y 2 dzdydx
dzdydx =
T
0
0
1
1−x
ˆ ˆ
0
z=1−x−y
dydx
z x + y 2
=
0
0
1
1−x
ˆ ˆ
2
z=0
(1 − x − y) x2 + y 2 dydx
=
0
0
ˆ1 ˆ1−x
x2 + y 2 − x3 − xy 2 − yx2 − y 3 dydx
=
0
ˆ1
=
0
(x − 1)2 (7x2 − 2x + 1)
dx
12
0
=
1
.
30
Definition 2.27
Gegeben sei ein regulärer Bereich B und ein stetiges Skalarfeld f : B 7→ R. Weiter
60
sei B̃ = [a, b] × [c, d] × [g, h] ein Rechteck mit B ⊆ B̃ und (Z` ) eine Familie von
Zerlegungen10 von B̃ in m·n·p achsenparallele Quader [ui−1 , ui ]×[vj−1 , vj ]×[wk−1 , wk ],
i = 1, . . . , m, j = 1, . . . , n, k = 1, . . . , p mit Kantenlängen ∆ui := ui − ui−1 , ∆vj := vj −
vj−1 bzw. ∆wk := wk − wk−1 mit Feinheit
q
∆u2i + ∆vj2 + ∆wk2 .
δ(Z` ) := i=1,...,m
max
j=1,...,n
k=1,...,p
Ferner gelte
lim δ(Z` ) = 0 .
`→∞
Dann ist das Integral von f über B definiert durch
y
p
m X
n X
X
f (u, v, w) du dv dw := lim
δ(Z` )→0
B
wobei
f˜(u, v, w) :=
f˜(ξi , ηj , ζk )∆ui ∆vj ∆wk ,
i=1 j=1 k=1

f (u, v, w)
,
(u, v, w) ∈ B
0
,
(u, v, w) ∈
/B
und (ξi , ηj , ζk ) beliebige Punkte mit ui−1 ≤ ξi ≤ ui , vj−1 ≤ ηj ≤ vj und wk−1 ≤ ζk ≤ wk
sind.
Unmittelbar aus der Definition des vorhergehenden Satzes folgt die Identität
 
 
ˆh ˆd ˆb
y
f (u, v, w) du dv dw =   f˜(u, v, w) du dv  dw
B
g
ˆb
=
a
c
a
 d h
 
ˆ ˆ
  f˜(u, v, w) dw dv  du
c
g
= ...
(alle sechs Reihenfolgen sind möglich).
In der Praxis möchte man aber nicht erst die fortgesetzte Funktion f˜ konstruieren.
Daher ist folgendes Vorgehen sinnvoll:
1. Zerlege B durch endlich viele Schnitte in endlich viele Normalbereiche N1 , N2 , . . . , Nn .
2. Berechne die Dreifachintegrale über N1 , N2 , . . . , Nn wie im folgenden Satz beschrieben.
10
(`)
(`)
(`)
auf die eigentlich erforderliche Doppelindizierung ui = ui , vj = vj , wk = wk der Zerlegungspunkte – ein Index ` ∈ N für die Nummer der Zerlegung und jeweils ein weiterer i, j bzw. k mit
1 ≤ i ≤ m, 1 ≤ j ≤ n bzw. 1 ≤ k ≤ p für die Nummer des jeweiligen Punktes innerhalb der
jeweiligen Zerlegung – wird zur Vereinfachung der Notation verzichtet.
61
3. Es gilt
y
f (u, v, w) du dv dw =
n y
X
f (u, v, w) du dv dw
k=1 Nk
B
Satz 2.28
Gegeben seien ein stetiges Skalarfeld
f : B −→ R
und ein Normalbereich
B = {(u, v, w) ∈ R3 : a ≤ u ≤ b , c(u) ≤ v ≤ d(u) , Φ(u, v) ≤ w ≤ Ψ(u, v)} .
Dann gilt
y
f (u, v, w) du dv dw =
B
ˆb
a


 
ˆd(u) Ψ(u,v)
ˆ
 
 
f (u, v, w) dw dv  du .
 
c(u)
Φ(u,v)
Bei Normalbereichen mit anderer Reihenfolge der Integrationsgrenzen geht man analog
vor.
2.4 Krummlinige Koordinaten
Darstellung von Körpern mit krummlinigen Koordinaten
Definition 2.29 (Parameterdarstellung stetig differenzierbarer Körper)
Es sei B ein dreidimensionaler regulärer Bereich. Eine stetig partiell differenzierbare
Funktion
~r : B −→ V ,
(u, v, w) 7−→ ~r(u, v, w)
heißt Parameterdarstellung eines stetig differenzierbaren Körpers D, wenn sie die folgenden Eigenschaften besitzt:
• Die Tangentenvektoren
~tu (u, v, w) = ∂~r (u, v, w) ,
∂u
~tv (u, v, w) = ∂~r (u, v, w) ,
∂v
~tw (u, v, w) = ∂~r (u, v, w)
∂w
sind in jedem Punkt linear unabhängig, das heißt, das Spatprodukt
µ(u, v, w) = ~tu (u, v, w) × ~tv (u, v, w) · ~tw (u, v, w) 6= 0
ist ungleich Null für alle (u, v, w) ∈ B.
62
• Gibt es Parameterwerte (u1 , v1 , w1 ) und (u2 , v2 , w2 ) mit (u1 , v1 , w1 ) 6= (u2 , v2 , w2 )
und ~r(u1 , v1 , w1 ) = ~r(u2 , v2 , w2 ), so wird µ(u1 , v1 , w1 ) = µ(u2 , v2 , w2 ) gefordert.
Definition 2.30 (Parameterdarstellung stückweise stetig differenzierbarer
Körper)
Es sei B ein regulärer dreidimensionaler Bereich. Eine Funktion
~r : B −→ V ,
(u, v, w) 7−→ ~r(u, v, w)
heißt Parameterdarstellung eines stückweise stetig differenzierbaren Körpers D, wenn
B durch endlich viele Schnitte längs stetig differenzierbarer Kurven in n ∈ N reguläre
Bereiche B` , 1 ≤ ` ≤ n, zerlegt werden kann, und die Einschränkung von ~r auf B`
jeweils einen stetig differenzierbaren Körper parametrisiert. Auf dem Rand eines Teilbereiches, in dem ~r stetig differenzierbar ist, genügt es, wenn µ(u, v, w) jeweils eine
stetige Fortsetzung besitzt. Die Bedingung µ(u2 , v2 , w2 ) = µ(u1 , v1 , w1 ) muß an diesen
Rändern ebenfalls nur im Sinne einer stetigen Fortsetzung von µ erfüllt sein.
Bemerkung
Es sei D ∈ V ein Körper, der über ~r : B −→ D parametrisiert werde. Die Kurvenscharen
Cv,w : u 7−→ ~r(u, v, w)
Cw,u : v 7−→ ~r(u, v, w)
Cu,v : w 7−→ ~r(u, v, w)
heißen u-Linien, v-Linien bzw. w-Linien des Körpers D (allgemein: Parameterlinien).
Bemerkung
Aus der stetigen Differenzierbarkeit der Parameterdarstellung folgt, dass die Parameterlinien Cv,w , Cw,u , Cu,v stetig differenzierbare Kurven sind.
Satz und Definition 2.31 (Volumenintegral)
Gegeben sei ein Körper D, der über
~r : B −→ D
parametrisiert werde, und ein stetiges Skalarfeld λ : D 7→ R. Weiter sei B̃ = [a, b] ×
[c, d] × [g, h] ein Rechteck mit B ⊆ B̃ und (Z` ) eine Familie von Zerlegungen11 von
B̃ in m · n · p achsenparallele Quader [ui−1 , ui ] × [vj−1 , vj ] × [wk−1 , wk ], i = 1, . . . , m,
11
(`)
(`)
(`)
auf die eigentlich erforderliche Doppelindizierung ui = ui , vj = vj , wk = wk der Zerlegungspunkte – ein Index ` ∈ N für die Nummer der Zerlegung und jeweils ein weiterer i, j bzw. k mit
1 ≤ i ≤ m, 1 ≤ j ≤ n bzw. 1 ≤ k ≤ p für die Nummer des jeweiligen Punktes innerhalb der
jeweiligen Zerlegung – wird zur Vereinfachung der Notation verzichtet.
63
j = 1, . . . , n, k = 1, . . . , p mit Kantenlängen ∆ui := ui − ui−1 , ∆vj := vj − vj−1 bzw.
∆wk := wk − wk−1 mit Feinheit
q
∆u2i + ∆vj2 + ∆wk2 .
δ(Z` ) := i=1,...,m
max
j=1,...,n
k=1,...,p
Ferner gelte
lim δ(Z` ) = 0 .
`→∞
Dann ist das Volumen-Integral von λ über D definiert durch12
y
p
m X
n X
X
λ(~r) dV := lim
δ(Z` )→0
D
λ(~r(ui−1 , vj−1 , wk−1 )) ∆Vijk ,
i=1 j=1 k=1
wobei ∆Vijk das Volumen des von
(1)
sijk = ~r(ui , vj−1 , wk−1 ) − ~r(ui−1 , vj−1 , wk−1 )
(2)
sijk = ~r(ui−1 , vj , wk−1 ) − ~r(ui−1 , vj−1 , wk−1 )
(3)
sijk = ~r(ui−1 , vj−1 , wk ) − ~r(ui−1 , vj−1 , wk−1 )
aufgespannten Spats ist.
Für die Berechnung des Volumenintegrals verwendet man die unmittelbar aus der Definition folgende Darstellung
y
y
λ(~r) dV =
λ(~r(u, v, w)) |µ(u, v, w)| du dv dw .
D
B
Hierbei heißt
dV = |µ(u, v, w)| du dv dw
Volumenelement.
Für die üblichen Koordinatensysteme lauten die Volumenelemente folgendermaßen:
1. Kartesische Koordinaten (x, y, z):
dV = dx dy dz
2. Zylinderkoordinaten (ρ, ϕ, z):
dV = ρ dρ dϕ dz
3. Kugelkoordinaten (r, ϑ, ϕ):
dV = r2 sin ϑ dr dϑ dϕ
12
64
Wiederum ändern sich Konvergenzeigenschaften und Integralwert nicht, wenn das Skalarfeld λ
jeweils an einem beliebigem Zwischenpunkt“ ~r(ξi , ηj , ζk ) mit (ξi , ηj , ζk ) ∈ [ui−1 , ui ] × [vj−1 , vj ] ×
”
[wk−1 , wk ] ausgewertet wird, anstatt im Eckpunkt“ ~r(ui−1 , vj−1 , wk−1 ).
”
~ey
dy
dz
~ex
dx
~ez
Abbildung 2.4. Volumenelement für kartesische Koordinaten.
z
dϕ
x
dz
dρ
y
ρdϕ
Abbildung 2.5. Volumenelement für Zylinderkoordinaten.
65
z
x
dθ
dr
dϕ
y
Abbildung 2.6. Volumenelement für Kugelkoordinaten.
66
3
Differentialoperatoren und
Integralsätze
Übersicht
3.1
Gradient und Potential . . . . . . . . . . . . . . . . . . . . . . .
68
3.2
Rotation und Stokesscher Integralsatz . . . . . . . . . . . . . . .
73
3.3
Divergenz und Gaußscher Integralsatz . . . . . . . . . . . . . . .
78
3.4
Die Lemmata von Poincaré und Existenz von Potentialen . . . . .
80
3.5
Der Laplace-Operator . . . . . . . . . . . . . . . . . . . . . . .
83
Aus der reellen Analysis ist der folgende Sachverhalt bekannt: Ist λ : [α, β] −→ R eine
differenzierbare Funktion, so gibt es eine Funktion a : [α, β] −→ R mit der Eigenschaft:
ˆr2
λ(r2 ) − λ(r1 ) =
a(t) dt
(3.1)
r1
für alle r1 , r2 ∈ [a, b]. Diese Funktion a ist die Ableitung a = λ0 der Funktion λ, und
die Gültigkeit von Gleichung (3.1) ist der erste Teil des Hauptsatzes der Differentialund Integralrechnung. Der zweite Teil des Hauptsatzes besagt, dass es zu einer stetigen
Funktion a : [α, β] −→ R stets eine differenzierbare Funktion λ : [α, β] −→ R gibt, so
dass λ0 = a gilt (eine sogenannte Stammfunktion). Aus dem ersten Teil des Hauptsatzes
folgt sofort, dass das Integral über a auf der rechten Seite von Gleichung (3.1) durch
die Differenz zweier Funktionsauswertungen von λ ausgewertet werden kann (genauer
durch λ(r2 ) − λ(r1 )). Eine Stammfunktion auf einem Intervall [α, β] ist nicht eindeutig bestimmt. Mit λ ist auch jedes λ + C mit einer reellen Konstanten C wieder eine
Stammfunktion von a.
Die Gleichung (3.1) kann wie folgt verallgemeinert werden: Auf der linken Seite steht ein
Ausdruck, der 0 mal integriert wird, auf der rechten Seite ein abgeleiteter Ausdruck, der
1 mal integriert wird. Allgemein gesprochen, wird also ein mathematischer Ausdruck
in einen anderen, gleichwertigen Ausdruck umgeformt, indem ein Differentialoperator
angewendet wird (hier: einfaches Ableiten) und anschließend einmal mehr integriert
wird. In diesem Sinne werden wir im folgenden
67
• Differenzen von Werten eines Skalarfeldes λ(~r2 ) − λ(~r1 ) durch Energieintegrale
über ein abgeleitetes Vektorfeld ~a, den sogenannten Gradienten von λ, berechnen,
• Energieintegrale eines Vektorfeldes ~a durch Flussintegral über ein abgeleitetes
Vektorfeld ~b, der sogenannten Rotation von ~a, berechnen und
• Flussintegrale über ein Vektorfeld ~b über Volumenintegrale eines abgeleiteten
Skalarfeldes τ , der sogenannten Divergenz von ~b, berechnen.
3.1 Gradient und Potential
Gegeben sei ein Gebiet Ω ⊆ V , wobei V , wie gewohnt, ein orientierter, dreidimensionaler, euklidischer Vektorraum ist. Ziel dieses Abschittes ist es, den ersten Teil des
reellen Hauptsatzes der Differential- und Integralrechnung (siehe Gleichung (3.1)) auf
Energieintegrale zu erweitern. Die reelle Funktion λ wird dabei zu einem Skalarfeld,
das in diesem Zusammenhang ein Potential genannt wird, und ihre Ableitung zu einem
Vektorfeld. Aus dem Integral über ein reelles Intervall wird dabei ein Energieintegral.
Es wird sich zeigen, dass der zeite Teil des Hauptsatzes nicht für jedes Vektorfeld ~a
gilt. Mit anderen Worten: Es gibt Vektorfelder, die kein Potential besitzen. Wir werden
uns daher damit begnügen, zu charakterisieren, in welchen Fällen zu einem gegebenem Vektorfeld ~a auf einem Gebiet Ω ⊆ V ein Potential existiert. In diesen Fällen
wird die Berechnung von Kurvenintegralen sehr einfach: Im Sinne von Gleichung (3.1)
braucht nur noch die Potentialdifferenz zwischen End- und Anfangspunkt der Kurve C
bestimmt zu werden. Offensichtlich ist der Wert des Energieintegrals in diesen Fällen
unabhängig von der Verbindungskurve zweier Punkte.
Definition des Gradienten Im Folgenden sein ein orthogonales (eventuell krummliniges) Koordinatensystem (u1 , u2 , u3 ) gegeben mit positiv orientiertem, orthonormalem
Basisfeld ~e1 = ~e1 (~r), ~e2 = ~e2 (~r), ~e3 = ~e3 (~r). Die zugehörigen Maßstabsfaktoren seien
g1 = g1 (~r), g2 = g2 (~r) und g3 = g3 (~r). Zum gegebenen Gebiet Ω ⊆ V sei B ⊆ R3
der zu gehörige Parameterbereich. Im Folgenden wollen wir ein gegebenes Skalarfeld
λ nicht nur als Funktion von ~r ∈ Ω betrachten, sondern auch direkt als Funktion der
Koordinaten (u1 , u2 , u3 ) ∈ B. Dazu verwenden wir die Schreibweise1
λ̃(u1 , u2 , u3 ) := λ(~r(u1 , u2 , u3 )) .
Definition 3.1
Gegeben sei ein partiell differenzierbares Skalarfeld λ : Ω → R. Dann ist der Gradient
1
68
Zur Vereinfachung der Notation wird meistens nicht zwischen λ und λ̃ unterschieden.
von λ definiert als das Vektorfeld mit der Darstellung
grad λ =
1 ∂ λ̃
1 ∂ λ̃
1 ∂ λ̃
~e1 +
~e2 +
~e3
g1 ∂u1
g2 ∂u2
g3 ∂u3
im gegebenen orthogonalen Koordinatensystem (u1 , u2 , u3 ) mit (ortsabhängigen) Maßstabsfaktoren g1 , g2 , g3 und (ortsabhängigem) orthonormalem Basisfeld ~e1 , ~e2 , ~e3 .
Beispiel
Es gilt in
1. kartesischen Koordinaten (x, y, z):
grad λ =
∂ λ̃
∂ λ̃
∂ λ̃
~ex +
~ey +
~ez
∂x
∂y
∂z
2. Zylinderkoordinaten (ρ, ϕ, z):
grad λ =
∂ λ̃
1 ∂ λ̃
∂ λ̃
~eρ +
~eϕ +
~ez
∂ρ
ρ ∂ϕ
∂z
3. Kugel-Koordinaten (r, ϑ, ϕ):
grad λ =
1 ∂ λ̃
1 ∂ λ̃
∂ λ̃
~er +
~eϑ +
~eϕ
∂r
r ∂ϑ
r sin ϑ ∂ϕ
Für Gradienten-Felder gelten die folgenden Rechenregeln:
Satz 3.2
Gegeben seien die stetig partiell differenzierbaren Skalarfelder λ1 , λ2 , λ3 : Ω → R, die
stetig differenzierbare Funktion f : R → R und die Konstanten c1 , c2 ∈ R. Dann gilt
• Linearität
grad(c1 λ1 + c2 λ2 ) = c1 grad λ1 + c2 grad λ2
• Produktregel
grad(λ1 λ2 ) = λ1 grad λ2 + λ2 grad λ1
• Kettenregel I
grad(f (λ(~r))) = f 0 (λ(~r)) grad(λ(~r))
• Kettenregel II
d
λ(~r(t)) = grad λ(~r(t)) · ~r˙ (t)
dt
69
1. Teil des Hauptsatzes Wir formulieren nun den 1. Teil des Hauptsatzes der Integralrechnung:
Satz 3.3
Gegeben sei ein stetig partiell differenzierbares Skalarfeld λ : Ω → R. Dann gilt für
alle stückweise glatten Kurven in Ω mit Anfangspunkt ~r1 und Endpunkt ~r2
ˆ
grad λ(~r) · d~r = λ(~r2 ) − λ(~r1 ) .
C
Geometrische Eigenschaften des Gradienten Der Gradient eines Skalarfeldes kann
als ein Vektor gedeutet werden, der in die Richtung des steilsten Anstiegs von λ weist.
Sein Betrag | grad λ(~r)| gibt die Steigung von λ im Punkt ~r längs einer Geraden an,
die in die Richtung des steilsten Anstiegs verläuft. Er steht senkrecht auf sogenannten
Äquipotentialflächen, das sind Flächen, auf denen das Skalarfeld λ konstant ist:
Bemerkung
Ist A eine durch ~r : B −→ A parametrisierte Fläche mit regulärem Parameterbereich
B, und gilt
λ(~r(u, v)) = const ,
(u, v) ∈ B ,
so gilt
∂~r
∂~r
= grad λ ·
= 0,
∂u
∂v
d.h., grad λ steht senkrecht auf der Tangentialebene an A in ~r.
grad λ ·
Durch Projektion des Gradienten grad λ im Punkt ~r auf eine Gerade, durch die Punkte
~r0 und ~r0 + t~eα mit beliebig kleinem t ∈ R kann die Steigung des Skalarfeldes λ in
Richtung ~eα ermittelt werden:
Satz und Definition 3.4
Gegeben sei ein partiell stetig differenzierbares Skalarfeld λ : Ω → R und ~r0 ∈ Ω.
Ferner sei ~eα ∈ V gegeben mit |~eα | = 1 . Dann ist die Richtungsableitung von λ im
Punkt ~r0 in Richtung ~eα definiert durch
∂λ
λ(~r0 + t~eα ) − λ(~r0 )
(~r0 ) := lim
.
t−→0
∂~eα
t
Es gilt
∂λ
(~r0 ) = grad λ(~r0 ) · ~eα .
∂~eα
Potentiale von Vektorfeldern Wenn ein Vektorfeld ~a ein Potential λ besitzt, d.h.,
ein Skalarfeld λ mit grad λ = ~a, dann hängt der Wert von Energieintegralen über ~a nur
vom Wert des Potentials am Anfangs- und Endpunkt der Kurve ab. Das Energieintegral
70
über Vektorfelder mit Potential ist also wegunabhängig. Solche Vektorfelder nennt man
auch konservativ. Insbesondere gilt für ein Vektorfeld ~a mit Potential λ
˛
~a · d~r = λ(~r2 ) − λ(~r1 ) = 0
(3.2)
C
für jede geschlossene Kurve C, die ganz in Ω verläuft. Das bedeutet andersherum, dass
ein Vektorfeld, für das längs einer geschlossenen Kurve
˛
~a · d~r 6= 0
C
gilt, kein Potential besitzen kann. Genauer gilt
Satz 3.5
Ein Vektorfeld ~a auf Ω besitzt genau dann ein Potential, wenn für jede geschlossene
stückweise glatte Kurve C in Ω
˛
~a · d~r = 0
C
gilt. Ist letzteres Kriterium erfüllt, so kann von einem beliebigen Punkt ~r0 ∈ Ω ein
Potential wie folgt konstruiert werden:
ˆ
λ(~r) = ~a(~r) · d~r ,
C
wobei C irgendeine Kurve ist, die in Ω verläuft und ~r0 mit ~r verbindet.
Wir nutzen das Kriterium aus dem vorhergehenden Satz, um zu zeigen, dass das in
kartesischen Koordinaten gegebene Vektorfeld
~a = −y~ex + x~ey
kein Potential besitzt. Dazu integrieren wir ~a längs des positiv orientierten Kreises ∂K1
mit Radius 1 um ~0 in der xy-Ebene mit Start- und Endpunkt (1, 0, 0) ∈ R:
ˆ
~a · d~r = 2π 6= 0 .
∂K1
Wenn für das in kartesischen Koordinaten gegebene Vektorfeld
~a = a1~ex + a2~ey + a3~ez
ein Potential existiert, kann es auch durch schrittweises Integrieren bestimmt werden:
1. Berechne das unbestimmte Integral
ˆ
a1 (x, y, z) dx = I1 (x, y, z) + C1 (y, z)
der ersten Komponente a1 bezüglich x. Dabei werden y und z als Parameter
betrachtet. Die Integrationskonstante hängt von den Parametern y und z ab.
Nach der Integration ist I1 (x, y, z) bekannt und C1 (y, z) noch unbekannt.
71
2. Leite I1 (x, y, z) + C1 (y, z) nach y ab, und setze es gleich der zweiten Komponente
a2 von ~a:
∂C1
∂I1
(x, y, z) +
(y, x) .
a2 (x, y, z) =
∂y
∂y
3. Löse diese Gleichung nach dem unbekannten Term auf:
∂C1
∂I1
(y, z) = a2 (x, y, z) −
(x, y, z) .
∂y
∂y
Die nach Subtraktion entstehende rechte Seite darf nicht mehr von x abhängen
(sonst gibt es kein Potential).
4. Bestimme nun C1 (y, z) durch Integration der rechten Seite der vorhergehenden
Gleichung.
ˆ ∂I1
a2 (x, y, z) −
(x, y, z) dy = I2 (y, z) + C2 (z) .
C1 (y, z) =
∂y
Nun hängt die Integrationskonstante C2 nur noch vom Parameter z ab. Der Term
I2 (y, z) ist nun bekannt. C2 (z) noch nicht.
5. Leite I1 (x, y, z) + I2 (y, z) + C2 (z) nach z ab, und setze es gleich der dritten
Komponente a3 von ~a:
a3 (x, y, z) =
∂(I1 + I2 )
∂C2
(x, y, z) +
(z) .
∂z
∂z
6. Löse diese Gleichung nach dem unbekannten Term auf:
∂(I1 + I2 )
∂C2
(z) = a3 (x, y, z) −
(x, y, z) .
∂z
∂y
Die nach Subtraktion entstehende rechte Seite darf nicht mehr von y abhängen
(sonst gibt es kein Potential).
7. Bestimme nun C2 (z) durch Integration der rechten Seite der vorhergehenden
Gleichung.
ˆ ∂(I1 + I2 )
C2 (z) =
a3 (x, y, z) −
(x, y, z) dz = I3 (z) + C3 .
∂y
Die Integrationskonstante C3 ist nun eine reelle Zahl.
8. Die Gesamtheit aller Potentiale λ von ~a ist nun gegeben durch
λ(x, y, z) = I1 (x, y, z) + I2 (y, z) + I3 (z) + C3 ,
wobei C3 ∈ R eine beliebige reelle Konstante ist.
72
3.2 Rotation und Stokesscher Integralsatz
Zu einem gegebenen, partiell stetig differenzierbarem Vektorfeld ~a, das auf einem Teilgebiet Ω ⊆ V definiert ist, wird ein auf Ω definiertes Vektorfdeld ~b gesucht, so dass für
jede hinreichend glatte Fläche A ⊆ Ω mit Randkurve C = ∂A stets
˛
x
~b · dA
~ = ~a · d~r
(3.3)
A
C
gilt. Dabei sind der Umlaufsinn von C und das Normalenfeld ~n von A im Sinne einer
Schraube mit Rechtsgewinde zueinander orientiert. Es wird angenommen, dass das Vektorfeld ~a, die Fläche A und ihre Randkurve C in einem (krummlinigen) Koordinatensystem (u1 , u2 , u3 ) mit ortsabhängigem Basisfeld ~e1 , ~e2 , ~e3 und ebenfalls ortsabhängigen
Maßstabsfaktoren g1 , g2 , g3 beschrieben werden.
Durch explizites Nachrechnen von Maschen“ A, die von (krummlinigen) Vierecken
”
aus je vier Koordinatenlinien berandet werden, kann eine notwendige Form für das
Vektorfeld ~b hergeleitet werden.
Wir definieren nun die Rotation des Vektorfeldes ~a genau in dieser Form:
Definition 3.6
Gegeben sei ein partiell differenzierbares Vektorfeld
~a = a1~e1 + a2~e2 + a3~e3
auf Ω. Dann ist die Rotation von ~a definiert als das Vektorfeld mit der Darstellung
1
∂(g3 a3 ) ∂(g2 a2 )
rot ~a =
−
~e1
g2 g3
∂u2
∂u3
1
∂(g1 a1 ) ∂(g3 a3 )
+
−
~e2
g3 g1
∂u3
∂u1
1
∂(g2 a2 ) ∂(g1 a1 )
+
−
~e3
g1 g2
∂u1
∂u2
im gegebenen orthogonalen Koordinatensystem (u1 , u2 , u3 ) mit (ortsabhängigen) Maßstabsfaktoren g1 , g2 , g3 und (ortsabhängigem) orthonormalem Basisfeld ~e1 , ~e2 , ~e3 .
73
Bemerkung
Das Feld rot ~a kann formal als Determinante notiert werden:
~e1
~
e
~
e
2
3
~t1
~
~
t
t
2
3
g g g g g g 2
3
3
1
1
2
∂
1
∂
∂
∂
∂
∂ =
rot ~a = .
∂u
g1 g2 g3 ∂u1 ∂u2 ∂u3 ∂u
∂u
1
2
3
g1 a1 g2 a2 g3 a3 g1 a1 g2 a2 g3 a3 In kartesischen Koordinaten gilt rot ~a = ∇ × ~a.
Beispiel
Es gilt in
1. kartesischen Koordinaten (x, y, z):
∂az ∂ay
−
~ex
rot ~a =
∂y
∂z
∂ax ∂az
−
~ey
+
∂z
∂x
∂ay ∂ax
+
−
~ez
∂x
∂y
2. Zylinderkoordinaten (ρ, ϕ, z):
1 ∂az ∂aϕ
rot ~a =
−
~eρ
ρ ∂ϕ
∂z
∂aρ ∂az
−
~eϕ
+
∂z
∂ρ
1 ∂(ρaϕ ) 1 ∂aρ
+
−
~ez
ρ ∂ρ
ρ ∂ϕ
3. Kugel-Koordinaten (r, ϑ, ϕ):
1 ∂(sin ϑaϕ )
1 ∂aϑ
rot ~a =
−
~er
r sin ϑ
∂ϑ
r sin ϑ ∂ϕ
1 ∂ar 1 ∂(raϕ )
+
−
~eϑ
r sin ϑ ∂ϕ
r ∂r
1 ∂(raϑ ) 1 ∂ar
+
−
~eϕ
r ∂r
r ∂ϑ
Für die Rotation gelten die folgenden Rechenregeln:
Satz 3.7
Gegeben seien die auf Ω ⊆ V definierten, stetig partiell differenzierbaren Vektorfelder ~a,
~a1 und ~a2 , das partiell stetig differenzierbare Skalarfeld λ : Ω → R , und die Konstanten
c1 , c2 ∈ R. Dann gilt
74
• Linearität
rot(c1~a1 + c2~a2 ) = c1 rot ~a1 + c2 rot ~a2
• Produktregel
rot(λ ~a) = λ rot ~a + (grad λ) × ~a
Der Integralsatz von Stokes
Satz 3.8
Gegeben sei ein partiell stetig differenzierbares Vektorfeld ~a auf Ω ⊆ V . Dann gilt für
jede orientierbare Fläche A, die ganz in Ω liegt, mit Randkurve C = ∂A bei konsistenter
Orientierung2
˛
x
~
rot ~a(~r) · dA = ~a(~r) · d~r .
A
C
Geometrische Eigenschaften der Rotation Ist C eine glatte Kurve der Länge s, und
~a ein Vektorfeld, so folgt mit dem Mittelwertsatz der Integralrechnung die Existenz
eines Punktes ~rzw auf der Kurve so, dass
ˆ
ˆb
~a(~c(t)) · ~c˙(t) dt = (b − a)~a(~c(t0 )) · ~c˙(t) = s ~a(~rzw ) · t0 (~rzw ) =: sa
~a · d~r =
C
a
ist, wobei t0 (~rzw ) ein tangentialer Einheitsvektor an C im Punkt ~rzw ist. Somit ist ā
die mittlere tangentiale Komponente von ~a längs C. Ist nun C eine geschlossene Kurve
der Länge s, so ist
˛
~a · d~r = sa
C
die sogenannte Zirkulation des Vektorfeldes ~a längs C. Die Normalkomponente der
Rotation (rot ~a) · ~n0 eines Vektorfeldes im Punkt ~r0 kann nun aufgrund von
˛
1
(rot ~a) · ~n0 |~r=~r0 = lim
~a · d~r
n→∞ |An |
Cn
als spezifische Zirkulation von ~a im Punkt ~r gedeutet werden. Hierbei ist (An ) eine
Familie von glatten Teilflächen An mit Flächeninhalt |An | einer Fläche A, die alle den
Punkt ~r0 enthalten, und deren Durchmesser für n → ∞ gegen 0 konvergiert. Der Rand
von An sei jeweils die glatte Kurve Cn , und ~n0 sei die Flächennormale von An im Punkt
~r0 .
2
Drehsinn der Kurve und Normalenrichtung sind wie bei einer Schraube mit Rechtsgewinde orientiert.
75
Ein partiell stetig differenzierbares Vektorfeld ~a auf Ω mit rot ~a = 0 wird wirbelfrei
genannt.
Ein anschaulich motivierter Nachweis3 des Satzes von Stokes kann wie folgt durchgeführt werden: Betrachte eine Familie von Zerlegungen (Zn ) mit n ∈ N der gege(n)
benen Fläche A. Jede Zerlegung Zn zerlegt A in kmax (n) glatte Flächenstücke Ak
mit 1 ≤ k ≤ kmax (n). Jedes einzelne Flächenstück ist dabei so orientiert, wie durch
das Normalenfeld von A vorgegeben. Weiter wird gefordert, dass das Maximum aller
Durchmesser über die Flächenstücke einer Zerlegung Zn gegen 0 strebt für n → ∞.
(n)
Wird nun für jedes Flächenstück Ak der Zerlegung Zn die Zirkulation des gegebenen
(n)
(n)
Vektorfeldes ~a längs Ck = ∂Ak berechnet, und werden die erhaltenen kmax (n) Werte
aufsummiert, so stellt sich heraus, dass sich die Integrale der Tangentialkomponenten
(n)
von ~a über Teilbögen der Ck im Inneren von A jeweils wegheben. Dies liegt daran,
(n)
dass jeder Teilbogen eines Ck im Inneren von A zweimal in jeweils entgegengesetzter
(n)
Richtung durchlaufen wird. Nur die Teilbögen der Ck auf dem Rand von A bleiben
übrig, da sie genau einmal durchlaufen werden. Es gilt also
k(n) ˆ
X
k=1
(n)
Ck
ˆ
~a(~r) · d~r =
~a(~r) · d~r
C
für alle n ∈ N, d.h. unabhängig von der Feinheit der Zerlegung ist die Summe der Zirkulationen über die Ränder der einzelnen Flächenstücke gleich der Gesamtzirkulation
über den Rand von A. Wendet man nun auf jedes Flächenstück einer Zerlegung den
Mittelwertsatz der Integralrechnung an, so erhält man eine Menge von Zwischenpunk(n)
(n)
ten ~rk ∈ Ak mit
ˆ
(n)
~a(~r) · dr = |Ak | (rot ~a) · ~n0 |~r=~r(n) .
k
(n)
Ck
Einsetzen in die oben genannte Summe über die Zirkulation längs der Ränder aller Zerlegungsflächen und Durchführung des Grenzwertes n → ∞ führt dann auf die Aussage
des Satzes von Stokes.
Vektorpotentiale Analog zum 2. Teil des Hauptsatzes der Integralrechnung kann die
Frage gestellt werden, ob zu einem gegebenen stetigen Vektorfeld ~b stets ein Vektorfeld
~a existiert, so dass die Berechnung des Flussintegrals über ~b auf die Berechnung eines
Energieintegrals über ~a zurückgeführt werden kann. Mit anderen Worten:
Unter welchen Bedingungen gibt es zu einem gegebenen stetigen Vektorfeld ~b ein Vektorfeld ~a so, dass rot ~a = ~b gilt?
3
76
nachfolgend wird nur die Idee skizziert – technische Details werden ausgelassen
Definition 3.9
Gegeben sei ein stetiges Vektorfeld ~b auf Ω. Ist ~a ein Vektorfeld auf Ω mit rot ~a = ~b, so
heißt ~a Vektorpotential von ~b.
Bemerkung
Ist A eine orientierbare geschlossene Fläche in Ω, d.h. eine Fläche mit leerem Rand, so
gilt stets
{
~ = 0.
rot ~a(~r) · dA
A
Daher ist es notwendig, dass für ein stetiges Vektorfeld ~b, das ein Vektorpotential ~a
besitzt, die Bedingung
{
~b · dA
~=0
A
für jede geschlossene Fläche in Ω erfüllt ist. Tatsächlich ist dieses Kriterium auch
hinreichend.
Analog gilt für ein stetig partiell differenzierbares Skalarfeld λ längs jeder geschlossenen
glatten Kurve C
˛
grad λ(~r) · d~r = 0 ,
C
somit ist
˛
~a · d~r = 0
C
offensichtlich eine notwendige Bedingung für die Existenz eines (skalaren) Potentials
von ~a. Wir haben bereits festgehalten, dass diese Bedingung ebenfalls hinreichend ist.
Wie im Falle (skalarer) Potentiale sind auch Vektorpotentiale nicht eindeutig. Es gilt
die folgende Aussage:
Satz 3.10
Ist ~a1 ein Vektorpotential von ~b in Ω, so ist die Gesamtheit aller Vektorpotentiale von
~b gegeben durch
~a = ~a1 + grad λ ,
wobei λ ein beliebiges partiell stetig differenzierbares Skalarfeld λ : Ω → R ist.
Die Rolle der Integrationskonstanten wird also von einem Gradientenfeld übernommen.
Eine genaue Betrachtung des Nachweises der letzten Aussage führt auf die folgende
fundamentale Beziehung zwischen Gradient und Rotation:
Satz 3.11
Für ein zweimal partiell stetig differenzierbares Skalarfeld
77
λ : Ω → R gilt
rot grad λ = ~0
auf Ω (Satz von Schwarz).
Geometrisch bedeutet dies: Gradientenfelder sind wirbelfrei.
Wie im Falle der Existenz skalarer Potentiale fehlt noch ein leicht handhabbares Kriterium für die Existenz eines Vektorpotentials.
3.3 Divergenz und Gaußscher Integralsatz
Zu einem gegebenen, partiell stetig differenzierbaren Vektorfeld ~a, das auf einem Teilgebiet Ω ⊆ V definiert ist, wird ein auf Ω definiertes Skalarfeld λ gesucht, so dass für
jedes hinreichend glatte Volumen D ⊆ Ω mit Randfläche A = ∂D stets
y
{
~
λ dV =
~a · dA
(3.4)
D
A
gilt. Das Normalenfeld ~n von A soll dabei aus V heraus“ zeigen.
”
z
•
y
x
Es wird angenommen, dass das Vektorfeld ~a, das Skalarfeld λ, das räumliche Gebiet D
und dessen Randfläche A in einem (krummlinigen) Koordinatensystem (u1 , u2 , u3 ) mit
ortsabhängigem Basisfeld (~e1 , ~e2 , ~e3 ) und ebenfalls ortsabhängigen Maßstabsfaktoren
g1 , g2 , g3 beschrieben werden.
Durch explizites Nachrechnen einer (krummlinigen) Box D, die von sechs Koordinatenflächen berandet wird, kann eine notwendige Form für das Skalarfeld λ hergeleitet
werden. Wir definieren nun die Divergenz des Vektorfeldes ~a genau in dieser Form:
Definition 3.12 (Divergenz)
Gegeben sei ein partiell differenzierbares Vektorfeld
~a = a1~e1 + a2~e2 + a3~e3
78
auf Ω. Dann ist die Divergenz von ~a definiert als das Skalarfeld mit der Darstellung
1
∂(g2 g3 a1 ) ∂(g3 g1 a2 ) ∂(g1 g2 a3 )
div ~a =
+
+
g1 g2 g3
∂u1
∂u2
∂u3
im gegebenen orthogonalen Koordinatensystem (u1 , u2 , u3 ) mit (ortsabhängigen) Maßstabsfaktoren g1 , g2 , g3 und (ortsabhängigem) orthonormalem Basisfeld (~e1 , ~e2 , ~e3 ).
Beispiel
Es gilt in
1. kartesischen Koordinaten (x, y, z):
div ~a =
∂ax ∂ay ∂az
+
+
∂x
∂y
∂z
2. Zylinderkoordinaten (ρ, ϕ, z):
div ~a =
1 ∂(ρaρ ) 1 ∂aϕ ∂az
+
+
ρ ∂ρ
ρ ∂ϕ
∂z
3. Kugel-Koordinaten (r, ϑ, ϕ):
1 ∂(r2 ar )
1 ∂(sin ϑ aϑ )
1 ∂aϕ
div ~a = 2
+
+
r
∂r
r sin ϑ
∂ϑ
r sin ϑ ∂ϕ
Für die Divergenz gelten die folgenden Rechenregeln:
Satz 3.13
Gegeben seien die auf Ω ⊆ V definierten, stetig partiell differenzierbaren Vektorfelder
~a, ~a1 , ~a2 und ~b, das partiell stetig differenzierbare Skalarfeld λ : Ω → R und die
Konstanten c1 , c2 ∈ R. Dann gilt
• Linearität
div(c1~a1 + c2~a2 ) = c1 div ~a1 + c2 div ~a2
• Produktregel – Multiplikation mit Skalarfeld
div(λ ~a) = λ div ~a + (grad λ) · ~a
• Vektor-Produktregel
div(~a × ~b) = ~b · rot ~a − ~a · rot ~b
Der Integralsatz von Gauß
Satz 3.14
Gegeben sei ein stetig partiell differenzierbares Vektorfeld ~a auf Ω ⊆ V . Dann gilt für
jedes glatte Volumen D ⊆ Ω mit Randfläche A = ∂D
y
{
~,
div ~a dV =
~a · dA
(3.5)
D
A
wobei die Flächennormale von A nach außen weist.
79
Geometrische Eigenschaften der Divergenz Stellen wir uns das gegebene Vektorfeld
~a als Geschwindigkeitsfeld einer inkompressiblen Flüssigkeit vor, so kann das Flussintegral
{
~
~a · dA
A=∂D
über den Rand des räumlichen Gebietes D als Ergiebigkeit oder Quellstärke des Gebietes D aufgefasst werden. Es sei ~r0 ∈ D. Wir betrachten eine Familie (Dn ) glatter
räumlicher Gebiete mit ~r0 ∈ Dn für alle n ∈ N, deren Durchmesser gegen 0 strebt für
n → ∞. Das Volumen von Dn sei |Dn |. Dann gilt
{
1
~.
~a · dA
div ~a|~r=~r0 = lim
n→∞ |Dn |
An =∂Dn
Die Divergenz von ~a kann somit als spezifische Ergiebigkeit oder Quelldichte des Strömungsfeldes
~a im Punkt ~r0 angesehen werden.
Integriert man die Quelldichte über ein räumliches Gebiet D, so addieren sich die Anteile der einzelnen Volumenelemente dV , und in der Summe entsteht wieder die gesamte
Quellstärke des Gebeites D, d.h., der Fluss über die Randfläche A = ∂D.
Ein partiell stetig differenzierbares Vektorfeld ~a mit div ~a = 0 wird quellenfrei genannt.
3.4 Die Lemmata von Poincaré und Existenz von
Potentialen
Das erste Lemma von Poincaré ist eine Folge des folgenden topologischen Sachverhaltes:
• Der Rand eines glatten räumlichen Gebietes (seine Hüllfläche) ist geschlossen und
besitzt somit einen leeren Rand (keine Randkurve).
• Der Rand einer glatten Fläche (ihre Randkurve) ist geschlossen und besitzt somit
einen leeren Rand (keine Randpunkte).
Durch Hintereinander-Anwendung
• des Satzes von Stokes und des Hauptsatzes der Integralrechung im ersten Fall,
bzw.
• des Satzes von Gauß und des Satzes von Stokes im zweiten Fall
folgt aus dieser Beobachtung das 1. Lemma von Poincaré:
Satz 3.15 1. Gegeben sei ein zweimal stetig partiell differenzierbares Skalarfeld λ.
Dann gilt:
rot grad λ = ~0 ,
d.h., der Gradient von λ ist wirbelfrei.
80
2. Gegeben sei ein zweimal stetig partiell differenzierbares Vektorfeld ~a. Dann gilt
div rot ~a = 0 ,
d.h., die Rotation von ~a ist quellenfrei.
Aus dem ersten Lemma von Poincaré folgen direkt notwendige Kiterien für die Existenz
von Potentialen bzw. Vektorpotentialen:
Satz 3.16 1. Gegeben sei ein stetig partiell differenzierbares Vektorfeld ~a. Dann gilt:
Die Bedingung
rot ~a = ~0
ist notwendig für die Existenz eines Potentials λ von ~a.
2. Gegeben sei ein stetig partiell differenzierbares Vektorfeld ~b. Dann gilt: Die Bedingung
div ~b = 0
ist notwendig für die Existenz eines Vektorpotentials ~a von ~b.
Das zweite Lemma von Poincaré beantwortet, unter welchen Bedingungen
1. ein gegebenes partiell stetig differenzierbares Vektorfeld ~a ein (skalares) Potential
besitzt,
2. ein gegebenes partiell stetig differenzierbares Vektorfeld ~b ein Vektorpotential ~a
besitzt.
Da wir bereits wissen, dass ein Vektorfeld ~a genau dann ein skalares Potential besitzt,
wenn das Energieintegral über jeden geschlossenen Weg in Ω null ergibt, genügt es,
zur Beantwortung der ersten Frage, ein Kriterium zu finden, das sicherstellt, dass ~a
genau dies erfüllt. Analog genügt es zur Beantwortung der zweiten Frage ein Kriterium
zu finden, dass sicherstellt, dass für ein gegebenes Feld ~b das Flussintegral über alle
geschlossenen Flächen in Ω stets null ergibt.
Satz 3.17 1. Gegeben sei ein partiell stetig differenzierbares Vektorfeld ~a auf einem
Gebiet Ω ⊆ V , das so beschaffen ist, dass in jede geschlossene Kurve ein Fläche
eingespannt werden kann, die ganz in Ω liegt. Gilt
rot ~a = ~0 ,
so besitzt ~a ein (skalares) Potential λ.
81
2. Gegeben sei ein partiell stetig differenzierbares Vektorfeld ~b auf einem Gebiet
Ω ⊆ V , das so beschaffen ist, dass jede geschlossene Fläche ein räumliches Gebiet
einhüllt, das ganz in Ω liegt. Gilt
div ~b = 0 ,
so besitzt ~b ein Vektorpotential ~a.
(2. Lemma von Poincaré)
Die oben genannten topologischen Kriterien sind insbesondere für sternförmige Gebiete
erfüllt:
Satz und Definition 3.18
Gegeben sei ein Gebiet Ω ⊆ V . Wenn es einen Punkt ~r0 ∈ V gibt, so dass die Verbindungsstrecke von ~r0 zu jedem beliebigem Punkt ~r ∈ D ganz in Ω liegt, so heißt Ω
sternförmig. In sternförmigen Gebieten gilt das zweite Lemma von Poincaré.
Anschaulich gesprochen bedeutet Sternförmigkeit, dass es einen Punkt ~r0 ∈ Ω gibt,
von dem aus alle Punkte in Ω sichtbar sind. Die Sichtlinie von ~r0 zu ~r ∈ Ω ist also
nie durch eine Wand von Ω verstellt. Es gibt aber viele nichtsternförmige Gebiete, in
denen das 2. Lemma von Poincaré ebenfalls gültig ist.
Ein Beispiel für ein Gebiet, in dem es wirbelfreie Felder ohne skalares Potential gibt,
ist z.B. der dreidimensionale Raum V ohne die z-Koordinatenachse, also Ω = V \ {~r =
t~ez : t ∈ R}. In diesem Gebiet ist das Vektorfeld
1
~a(ρ, ϕ, z) = ~eϕ
ρ
überall definiert und wirbelfrei. Dennoch existiert kein skalares Potential, da das Energieintegral längs jeder Kurve, die die z-Achse einmal im positiven Sinne umrundet 2π
ergibt. Dies ist kein Widerspruch zum 2. Lemma von Poincaré: Jede in eine solche Kurve
eingespannte Fläche würde von der z-Achse durchbohrt werden, und somit nicht ganz in
Ω liegen – die Voraussetzungen des zweiten Lemmas von Poincaré sind also nicht erfüllt.
Die hier geschilderte topologische Situation tritt in elektrotechnischen Anwendungen
z.B. bei der Berechnung des Magnetfeldes um einen langen Strom-durchflossenen Leiter
auf, oder bei der Feldberechnung im Transformator: Linienströme können verhindern,
dass rotationsfreie Magnetfelder ein skalares Potential besitzen.
Ein Beispiel für ein Gebiet, in dem es quellenfreie Felder ohne Vektorpotential gibt, ist
z.B. der dreidimensionale Raum V ohne den Ursprung, also Ω = V \ {~0}. In diesem
Gebiet ist das Vektorfeld
1
~a(r, ϑ, ϕ) = 2 ~er
r
überall definiert und quellenfrei. Dennoch existiert kein Vektorpotential, da das Flussintegral über jede glatte geschlossene Fläche, die ein räumliches Gebiet einschließt,
82
das ~0 enthält, 4π ergibt. Dies ist kein Widerspruch zum 2. Lemma von Poincaré: Da
die Fläche ein räumliches Gebiet berandet, das nicht ganz zu Ω gehört, sind die Voraussetzungen des zweiten Lemmas von Poincaré nicht erfüllt. Die hier geschilderte
topologische Situation tritt in elektrotechnischen Anwendungen z.B. bei der Berechnung des statischen elektrischen Feldes einer Punktladung auf: Die Punktladung ist
eine Quelle des elektrischen Feldes, in der die Ladungsdichte ∞ wird. Daher liefert
sie einen Beitrag zum Flussintegral über jede glatte Fläche, die die Punktladung einschließt. Eine Berechnung über Volumen-Integration im Sinne des Satzes von Gauß ist
aber nicht direkt möglich.
3.5 Der Laplace-Operator
Differentialoperatoren zweiter Ordnung Wir haben gesehen, dass für ein zweimal
partiell stetig differenzierbares Vektorfeld ~a stets
div rot ~a = 0
rot grad ~a = 0
gilt. Insgesamt können durch Hintereinanderausführung je zwei der Differenzialoperatoren erster Ordnung div, rot, grad drei weitere Differenzialoperatoren zweiter Ordnung
für Skalar- bzw. Vektorfelder definiert werden, nämlich div grad, grad div und rot rot.
Allgemein heißt eine Ableitungsvorschrift Differenzialoperator n-ter Ordnung, wenn sie
eine Funktion auf einen abgeleiteten Ausdruck abbildet, in dem die höchste auftretende
partielle Ableitung der Ordnung n ist. Während der Operator div grad Skalarfelder in
abgeleitete Skalarfelder überführt, überführen die anderen beiden Operatoren Vektorfelder in Vektorfelder. Wir werden nun div grad näher untersuchen.
Der Laplace-Operator
Definition 3.19
Für ein zweimal partiell stetig differenzierbares Skalarfeld λ ist ∆λ definiert durch
∆λ = div grad λ .
Der Operator ∆ heißt (skalarer) Laplace-Operator.
Einsetzen von Gradient und Divergenz in allgemeinen krummlinigen Koordinaten ergibt die folgende Darstellung von ∆λ:
Satz 3.20
Gegeben sei ein zweimal partiell stetig differenzierbares Skalarfeld
λ : Ω −→ R
83
auf Ω ⊆ V . Dann gilt im orthogonalen Koordinatensystem (u1 , u2 , u3 ) mit (ortsabhängigen)
Maßstabsfaktoren g1 , g2 , g3 und (ortsabhängigem) orthonormalem Basisfeld (~e1 , ~e2 , ~e3 )
∂
g2 g3 ∂λ
∂
g3 g1 ∂λ
∂
g1 g2 ∂λ
1
+
+
.
∆λ =
g1 g2 g3 ∂u1
g1 ∂u1
∂u2
g2 ∂u2
∂u3
g3 ∂u3
Beispiel
Es gilt in
1. kartesischen Koordinaten (x, y, z):
∆λ =
∂ 2λ ∂ 2λ ∂ 2λ
+
+ 2
∂x2 ∂y 2
∂z
2. Zylinderkoordinaten (ρ, ϕ, z):
1 ∂
∆λ =
ρ ∂ρ
∂λ
1 ∂ 2λ ∂ 2λ
ρ
+ 2 2+ 2
∂ρ
ρ ∂ρ
∂z
3. Kugel-Koordinaten (r, ϑ, ϕ):
1
∂λ
1 ∂ 2λ
1 ∂
∂
2 ∂λ
r
+ 2
sin ϑ
+ 2
∆λ = 2
r ∂r
∂r
r sin ϑ ∂ϑ
∂ϑ
r sin ϑ ∂ϕ2
Für den Laplace-Operator gelten die folgenden Rechenregeln:
Satz 3.21
Gegeben seien die auf Ω ⊆ V definierten, zweimal partiell stetig differenzierbaren Skalarfelder λ1 , λ2 und die Konstanten c1 , c2 ∈ R. Dann gilt
• Linearität
∆(c1 λ1 + c2 λ2 ) = c1 ∆λ1 + c2 ∆λ2
• Produktregel
∆(λ1 λ2 ) = λ1 ∆λ2 + 2 grad λ1 grad λ2 + λ2 ∆λ1
Zur Bedeutung von Differentialoperatoren zweiter Ordnung Probleme der numerischen Feldberechnung können in einigen Fällen mit der folgenden Strategie angegangen
werden:
1. Mit den Maxwell-Gleichungen stehen differenzielle Beziehungen zwischen elektrischen und magnetischen Feldern zur Verfügung, die über Differentialoperatoren
erster Ordnung (rot und div) definiert sind. Außerdem ist oft bekannt, wie sich
die Felder am Rande der interessiertenden Gebiete Ω verhalten (Randwerte).
2. In einigen Fällen erlauben die oben genannten differenziellen Beziehung die Einführung
von (skalaren oder Vektor-) Potentialen für die zu bestimmenden Feldgrößen.
84
3. Anstelle nach Lösungen für die Ausgangsfelder sucht man nun nach den Potentialen. Diese erfüllen differenzielle Beziehungen zweiter Ordnung, die z.B. über
die Operatoren rot rot oder ∆ = div grad formuliert werden. Außerdem müssen
Randwerte für die Potentiale formuliert werden.
4. Die so abgeleiteten Gleichungen für die Potentiale heißen Randwertprobleme zweiter Ordnung. Sie sind in der Regel eindeutig lösbar. Zur numerischen Bestimmung
der Lösung stehen effiziente Verfahren zur Verfügung.
Solche Randwertprobleme werden im folgenden Kapitel näher untersucht werden.
Der vektorielle Laplace-Operator Mit Hilfe der Operatoren grad div und rot rot kann
der vektorielle Laplace-Operator definitert werden. Er bildet Vektorfelder auf abgleitete
Vektorfelder ab.
Definition 3.22
Für ein zweimal partiell stetig differenzierbares Vektorfeld ~a ist ∆~a definiert durch
∆~a = grad div ~a − rot rot ~a .
Der Operator ∆ heißt vektorieller Laplace-Operator.
In kartesischen, Zylinder- bzw. Kugelkoordinaten besitzt der vektorielle Laplace-Operator
die folgende Gestalt:
1. Kartesische Koordinaten
∆~a = ∆ax ~ex + ∆ay ~ey + ∆az ~ez .
2. Zylinder Koordinaten
1 ∂aρ
∂ 2 aρ 1 ∂aρ
2 ∂aϕ aρ
∂aρ
+
+
+
− 2
− 2 ~eρ
∆~a =
∂ρ2 ρ2 ∂ϕ2
∂z 2
ρ ∂ρ
ρ ∂ϕ
ρ
2
2
2
∂ aϕ
1 ∂ aϕ ∂ aϕ 1 ∂aϕ
2 ∂aρ aϕ
+
+ 2
+
+
+ 2
− 2 ~eϕ
∂ρ2
ρ ∂ϕ2
∂z 2
ρ ∂ρ
ρ ∂ϕ
ρ
2
2
2
∂ az
1 ∂ az ∂ az 1 ∂az
+
+
+
+
~ez
∂ρ2
ρ2 ∂ϕ2
∂z 2
ρ ∂ρ
85
3. Kugelkoordinaten
1 ∂ 2 (ra )
∂ 2 ar
1 ∂ 2 ar
1
r
+
+
+
r ∂r2
r2 ∂ϑ2
r2 sin(ϑ) ∂ϕ2
cot(ϑ) ∂ar
2 ∂aϑ
2
∂aϕ 2ar 2 cot(ϑ) −
−
− 2 −
aϑ ~er
r2 ∂ϑ
r2 ∂ϑ
r2 sin(ϑ) ∂ϕ
r
r2
1 ∂ 2 (ra )
∂ 2 aϑ
1 ∂ 2 aϑ
1
ϑ
+
+
+
r ∂r2
r2 ∂ϑ2
r2 sin(ϑ) ∂ϕ2
cot(ϑ) ∂aϑ
2 cot(ϑ) ∂aϕ
2 ∂ar
aϑ
+ 2
− 2
+ 2
− 2 2
~eϑ
r
∂ϑ
r sin(ϑ) ∂ϕ
r ∂ϑ
r sin (ϑ)
1 ∂ 2 (ra )
∂ 2 aϕ
1 ∂ 2 aϕ
1
ϕ
+
+
+
+
r ∂r2
r2 ∂ϑ2
r2 sin2 (ϑ) ∂ϕ2
cot(ϑ) ∂aϕ
2
∂ar
2 cot(ϑ) ∂aϑ
aϕ
+ 2
+ 2
+ 2
− 2 2
~eϕ
r
∂ϑ
r sin(ϑ) ∂ϕ
r sin(ϑ) ∂ϕ
r sin (ϑ)
∆~a =
Bemerkung
Es ist bemerkenswert, dass der vektorielle Laplace-Operator in kartesischen Koordinaten entkoppelt, das heißt dass die erste Komponente nur von ax , die zweite nur von ay
und die dritte nur von az abhängt. Dies ist in anderen Koordinatensystemen nicht der
Fall.
Die Greenschen Formeln Als Anwendung werden noch zwei wichtige Integral-Identitäten
aus dem Gauß’schen Integralsatz abgeleitet:
Satz 3.23
Für zweimal stetig partiell differenzierbare Skalarfelder λ1 , λ2 auf einem glatten räumlichen
Gebiet D gilt
1.
y
λ1 ∆λ2 dV = −
y
D
86
grad λ1 · grad λ2 dV +
D
D
2.
y
(λ1 ∆λ2 − λ2 ∆λ1 ) dV =
{
~
λ1 grad λ2 · dA.
A=∂D
{
A=∂D
~
(λ1 grad λ2 − λ2 grad λ1 ) · dA.
Teil II
Partielle Differentialgleichungen
87
4
Existenz und Eindeutigkeit bei
elliptischen Problemen
Dieses Vorgehen soll anhand eines Beispiels verdeutlicht werden: Wir betrachten das
~ in einem räumlichen Gebiet Ω. Wir nehmen an, dass Ω so beschaffen
elektrische Feld E
ist, dass der erste Teil des 2. Lemmas von Poincaré anwendbar ist. Das heißt, dass in
jede geschlossene Kurve in Ω eine Fläche eingespannt werden kann, die vollständig in
Ω liegt.
Aus den Maxwellgleichungen folgt, dass bei Abwesenheit zeitlich veränderlicher magnetischer Felder stets
~ =0
rot E
~ ein skalares Potential
gilt. Da der erste Teil des 2. Lemmas von Poincaré gilt, besitzt E
λ. Den üblichen physikalischen Konventionen folgend, schreiben wir für das Potential
ϕ = −λ. Es gilt also
~ = − grad ϕ
E
in Ω. Ferner folgt aus den Maxwell-Gleichungen, dass bei Abwesenheit freier elektrischer
Ladungen
~ =0
div E
gilt. Einsetzen der vorhergehenden Potential-Beziehung ergibt
~ =0
∆ϕ = − div grad ϕ = − div E
in Ω. Wir haben also eine Gleichung für den Laplace-Operator des skalaren Potentials
hergeleitet. Nun werden noch Randbedingungen benötigt. Wir nehmen an, dass alle
Randkomponenten elektrisch leitend sind und von außen auf konstantem Potential
gehalten werden. D.h., ϕ ist auf jeder Randkomponente von Ω konstant. Ferner soll die
Potentialdifferenz jeder Komponente des Randes zu einer festen Komponente bekannt
sein. Auf dieser festen Komponente setzen wir das Potential auf 0V. Wir suchen also
die Lösung der Gleichung
∆ϕ(~r) = 0 ,
~r ∈ Ω
unter vorgegebenen, bekannten Randbedingungen der Form
ϕ(~r) = g(~r) ,
88
~r ∈ ∂Ω ,
(4.1)
mit einer bekannten Funktion g. Eine Gleichung vom Typ 4.1, heißt partielle Differentialgleichung (PDG). Sie stellt eine algebraische Beziehung für einen Differentialoperator
her, in dem partielle Ableitungen bezüglich unterschiedlicher Variablen auftreten. Die
Ordnung der höchsten auftretenden partiellen Ableitung heißt Ordnung der PDG. Eine PDG alleine ist nicht eindeutig lösbar. Es sind weitere Daten erforderlich. Ist die
gesuchte Lösungsfunktion ϕ auf dem Rand bekannt, so liegt ein sogenanntes DirichletProblem vor. Allgemein spricht man von einem Randwertproblem, wenn eine PDG so
gelöst werden soll, dass gewisse Randeigenschaften der Lösung gegeben sind. Hinsichtlich der Lösbarkeit des Dirichlet-Problems gilt der folgende Satz:
Satz und Definition 4.1
Das Gebiet Ω besitze einen hinreichend glatten Rand. Ferner sei f eine stetige Funktion
in Ω, und g eine stetige Funktion auf ∂Ω. Dann ist das Dirichlet-Problem
∆ϕ = f
in Ω ,
ϕ=g
auf ∂Ω
eindeutig lösbar. Die vorliegende Randbedingung heißt Dirichlet-Bedingung.
Satz und Definition 4.2
Das Gebiet Ω besitze einen hinreichend glatten Rand. Ferner sei f eine stetige Funktion
in Ω, und h eine stetige Funktion auf ∂Ω. Dann ist das Neumann-Problem
∆ϕ = f
in Ω ,
grad ϕ · ~n0 = h auf ∂Ω
bis auf eine additive Konstante eindeutig lösbar. Hierbei ist ~n0 eine äußere Einheitsnormale an ∂Ω. Der Ausdruck
∂ϕ
= grad ϕ · ~n0
∂~n
heißt Normalenableitung von ϕ.
Durch Festlegung des Wertes der Lösung in einem Punkt ~r0 ∈ Ω kann die additive
Konstante eindeutig bestimmt werden.
Satz und Definition 4.3
Das Gebiet Ω besitze einen hinreichend glatten Rand. Auf einem Teil ΓD des Randes,
dem sogenannten Dirichlet-Rand, sei eine stetige Funktion g gegeben und auf ∂Ω \ ΓN ,
dem sogenannten Neumann-Rand sei eine stetige Funktion h gegeben. Ist ΓD 6= ∅, so
ist das Problem
∆ϕ = f
in Ω ,
ϕ=g
auf ΓD ,
grad ϕ · ~n0 = h auf ΓN
eindeutig lösbar.
89
5
Lösung von Randwertproblemen
mit Orthogonalentwicklung
Nachdem die Frage der Existenz und Eindeutigkeit von Lösungen der Poisson-Gleichung
bei geeigneten Randbedingungen geklärt ist, wenden wir uns nun der Bestimmung
von Lösungen potentialtheoretischer Randwertaufgaben zu. Wir werden exemplarische
den Fall einer Beschreibung des vorliegenden Volumens in kartesischen Koordinaten
und in Zylinderkoordinaten behandeln. In beiden Fällen ist die Idee, einen Vorrat an
Grundlösungen zusammenzustellen, die in ihrer Gesamtheit ein vollständiges Orthonormalsystem bezüglich einer oder mehrerer Veränderlicher bilden. Durch Superposition
können dann daraus Lösungen konstruiert werden, die die Randbedingungen zumindest
auf einem Teil des gegebenen Volumens erfüllen. Gelingt es, sicherzustellen, dass auf
allen anderen Teilen des Randes die Grundlösungen Null-Randdaten annehmen, kann
die Gesamtlösung aus mehreren Teillösungen dieser Art überlagert werden (erneut
Superposition). Die benötigten Grundlösungen werden durch einen Separationsansatz
ermittelt. Dabei wird eine gewisse Form der Lösung als Ansatz vorgegeben, die ein
Produkt von Faktoren ist, die jeweils nur von einer Raumvariablen abhängen. Durch
Einsetzen dieses Ansatzes in die Poisson-Gleichung folgen gewöhnliche Differentialgleichungen zur Bestimmung der einzelnen Faktoren.
Entwicklung von Funktionen in Fourier-Reihen bezüglich ON-Funktionensystemen werden zur Lösung von Randwertproblemen eingesetzt. Betrachte z.B. das Dirichlet-Problem
∆f = 0 in Ω ,
f =h
auf ∂Ω
mit einem glatt berandeten, beschränktem Gebiet Ω und einer stetigen Funktion h.
Um die Situation zu konkretisieren, nehmen wir beispielsweise an, dass der Rand (die
Hüllfläche) von Ω eine Parametrisierung
~r(ϑ, ϕ) = r(ϑ, ϕ) ~er ,
0 ≤ ϑ ≤ π,0 ≤ ϕ ≤ π
besitzt. Der Körper Ω selbst werde durch
~r(r, ϑ, ϕ) ,
0 ≤ ϑ ≤ π , 0 ≤ ϕ ≤ 2π , 0 ≤ r ≤ r(ϑ, ϕ)
parametrisiert. Dann wird das folgende prinzipielle Vorgehen verwendet:
90
1. Bestimme ein vollständiges ON-System von Funktionen um (r, ϑ, ϕ), das im Inneren von Ω die Differentialgleichung löst, d.h., es gilt
∆um = 0 ,
0 ≤ ϑ ≤ π , 0 ≤ ϕ ≤ 2π , 0 ≤ r < r(ϕ, ϑ).
Jede dieser Lösungen wird Grundlösung genannt.
2. Entwickle die Randfunktion h(ϑ, ϕ) in eine Fourier-Reihe bezüglich der Einschränkung
um (r(ϑ, ϕ), ϑ, ϕ) ,
0 ≤ ϑ ≤ π , 0 ≤ ϕ ≤ 2π
des gefundenen ON-Systems von Lösungen auf den Rand von Ω. Die bestimmten
Fourier-Koeffizienten seien am , m = 0, . . . , ∞.
3. Dann ist
f (r, ϑ, ϕ) =
∞
X
am u(r, ϑ, ϕ)
m=0
die Lösung des Problems. Denn:
1.) Die Funktion f löst die partielle Differenzialgleichung im Inneren von Ω, da
mit jeder Funktion um dies auch für (endliche oder unendliche) Linearkombinationen gilt.
2.) Die Funktion f hat durch die Fourier-Entwicklung die richtigen Randwerte.
Dieses Prinzip werden wir in den folgenden Trimestern in unterschiedlichen geometrischen Situationen zur Lösung unterschiedlicher Randwertaufgaben und Randanfangswertaufgaben (mit zusätzlicher Zeitabhängigkeit) heranziehen. Dabei geschieht die Bestimmung eines ON-Systems typischwerweise durch einen sogenannten Separationsansatz.
5.1 Kartesische Koordinaten
Basislösungen von
∆ϕ(x, y, z) = 0
in kartesischen Koordinaten lauten
ϕk,` (x, y, z) =(Ak cos(kx) + Bk sin(kx))(C` cos(`y) + D` sin(`y))
√
√
k 2 + `2 z + Fk,` sinh
k 2 + `2 z .
Ek,` cosh
Durch Superposition dieser Basislösungen können die jeweils auf Randflächen mit
z = konstant vorliegenden Randbedingungen konstruiert werden (Fourier-Darstellung
der Randdaten). Weitere Basisfunktionen zur Konstruktion von Randbedingungen auf
Flächen mit x = konstant oder y = konstant können durch Vertauschen der Rollen
von x, y und z bereitgestellt werden.
Folgendes ist unter anderem bei der Superposition der Basisfunktion zur Konstruktion
von Randdaten zu beachten:
91
• Bei mehreren rechtwinkligen Randflächen (Quader) setzt man die Randwerte
auf jeweils allen bis auf eine Fläche auf 0 und entwickelt die Randfunktion auf
der verbleibenden Fläche. Die Lösung des Randwertproblems erhält man durch
Addition der Einzellösungen.
• Zur Darstellung inhomogener (6= 0) Neumannscher Randbedingungen (auf Koordinatenflächen) ist die jeweils relevante partielle Ableitung der Basisfunktionen
zu betrachten und in eine Fourrier-Reihe (jeweils für jede Seitenfläche) zu entwickeln.
• Auf einem Rand mit homogenen Neumann-Randbedingungen (= 0) können die
entsprechenden Faktoren in den Ansatzfunktionen auf cos-Terme (homogene Neumann-Randbedingung auf einem Paar gegenüberliegender Seiten) bzw. cosh-Terme
(falls die Seite, auf der Fourier-Entwicklung durchzuführen ist, gegenüber liegt)
reduziert werden.
Als Beispiel auf dem Quader
Q = [0, a] × [0, b] × [0, c]
(a, b, c > 0) ,
mit der ausgezeichneten Seite
S = {(x, y, z) ∈ ∂Q : z = c}
das Randwertproblem
∆ϕ = 0 in Q ,
ϕ|∂Q\S = 0 ,
ϕ|S = f
mit einer vorgegebenen stetigen Funktion
f : S −→ R ,
(x, y, c) 7−→ f (x, y)
untersucht. Die homogenen Dirichlet-Randbedingungen auf ∂Q \ S werden durch die
reduzierte Familie von Basislösungen
!
r mπ nπ nπ 2 mπ 2
x sin
y sinh
+
z
ϕnm (x, y, z) = Cnm sin
a
b
a
b
stets erfüllt. Daher werden nur sie zur Darstellung der Lösung des Problems durch
Superposition verwendet. Für die Lösung des Randwertproblems wird nun der Ansatz
!
r ∞ X
∞
nπ mπ X
nπ 2 mπ 2
ϕ(x, y, z) =
Cnm sin
x sin
y sinh
+
z
a
b
a
b
n=1 m=1
(zwei-dimensionale Fourier-Reihe) gewählt. Die Koeffizienten Cnm werden so gewählt,
dass
!
r ∞ X
∞
nπ mπ X
nπ 2 mπ 2
Cnm sin
x sin
y sinh
+
c = ϕ(x, y, c)
a
b
a
b
n=1 m=1
= f (x, y)
92
gilt. Wegen der Orthogonalitätsbeziehung
ˆa
sin
nπx a
sin
n0 πx
a
a
dx = δnn0 ,
2
n, n0 ≥ 1
0
ˆb
sin
mπy b
sin
m0 πy
b
b
dy= δmm0 ,
2
m, m0 ≥ 1
0
mit dem Kronecker-Symbol
δnn0

1 , n = n0
=
0 , n 6= n0
kann nun Cn0 m0 dadurch bestimmt werden, dass die Gleichung für die Randwerte mit
mit
0 0 n πx
m πy
sin
sin
a
b
multipliziert wird und das Doppelintegral über [0, a] × [0, b] berechnet wird. Es folgt

s
0 2 0 2
mπ
ab
nπ
+
c
Cn0 m0 sinh 
4
a
b
ˆa ˆb
=
f (x, y) sin
0
n0 πx
a
sin
m0 πy
b
dxdy .
0
Auflösen (und Umbenennen der Indizes) ergibt
4
´a ´b
0
Cnm =
f (x, y) sin
0
q
ab sinh
nπx
a
nπ 2
a
sin
+
mπy
b
mπ 2
c
b
dxdy
.
Die Lösung des Randwertproblems lautet somit
∞
∞
4 XX
ϕ(x, y, z) =
ab n=1 m=1
· sin
ˆa ˆb
f (x, y) sin
0
nπx a
nπx 0
sin
mπy sinh
b
sinh
a
q
q
sin
mπy nπ 2
a
nπ 2
a
b
dxdy
+
mπ 2
z
b
+
mπ 2
c
b
.
Eine weitere Darstellung zu diesem Theman befindet sich in G. Lehner: Elektromatgnetische Feldtheorie, Springer, Kapitel 3.5.1, 3.5.2.1 und 3.5.2.2.
93
5.2 Orthogonalentwicklung in Funktionenräumen
Gegeben sei eine Menge Ω und eine Menge F von Funktionen f : Ω −→ R. Die
Funktionen in F seien über eine Eigenschaft definiert (Stetigkeit oder Existenz gewisser Integrale), die sich auf Summenfunktionen f + g von Funktionen aus F und
auf skalare Vielfache αf (α ∈ R) von Funktionen aus F überträgt. Somit ist F ein
Vektorraum. Wir werden im folgenden sehen, dass für solche Vektorräume auch Skalarprodukte und Normen definiert werden können. Da Vektorräume, die Funktionen enthalten, aber in vielen typischen Fällen nicht mehr endlichdimensional sind, bereitet die
Übertragung des Basisbegriffs und der Basisdarstellung in Funktionenräume Schwierigkeiten. In der folgenden Tabelle werden die bekannten Konzepte für endlichdimensionale Vektorräume den entsprechenden Konzepten für allgemeine Funktionenräume
gegenübergestellt (siehe Abbildung 5.2).
Satz 5.1
Gegeben sei ein Vektorraum F von Funktionen f : Ω −→ R, die über Ω quadratintegrierbar sind, d.h., für die
ˆ
|f (x)|2 dx < ∞
Ω
existiert ( Betrag“ ist nur im komplexen Fall wichtig). Dann gilt
”
1/2

1/2 
ˆ
ˆ
ˆ
|f (x)g(x)| dx ≤  |f (x)|2 dx  |g(x)|2 dx
Ω
Ω
Ω
( Cauchy-Schwarze Ungleichung), d.h., das Integral auf der linken Seite existiert auch.
Im Falle eines reellen Vektorraumes ist durch
ˆ
(f, g) = w(x) f (x)g(x) dx
Ω
für jede beschränkte positive Gewichtsfunktion w ein Skalarprodukt auf F definiert.
Im Falle eines komplexen Vektorraumes ist durch
ˆ
hf, gi = w(x) f (x)g(x) dx
Ω
für jede beschränkte positive Gewichtsfunktion w ein Skalarprodukt auf F definiert.
Definition 5.2
Eine Familie von Funktionen {fk } mit
fk : Ω −→ R
94
endlichdim. VR
Funktionenraum
F
Vektoren
Funktionen mit
bestimmten
Eigenschaften
f, g, h : Ω −→ R
Addition
(f + g)(x) = f (x) + g(x) , x ∈ Ω
Skalare Multipl.
(αf )(x) = αf (x) , x ∈ Ω
Skalarprodukt
gewichtetes
Integral
über Produkt
ˆ
(f, g) =
w(x) f (x)g(x) dx
Ω
ˆ
komplex:
hf, gi =
Betrag
p
||f || = (f, f ) =
1/2

ˆ
 w(x) f 2 (x) dx
w(x) f (x)g(x) dx
Ω
Norm
Ω
(f, g) = 0, bzw. hf, gi = 0
Orthogonalität
Endliche
Linearkombination
endliche
Linearkombination
n
X
αk fk (x)
k=1
oder Funktionen-Reihe
∞
X
αk fk (x)
k=1
ON-Basis
vollständiges ON-System
Lineare Abbildungen
Operatoren
z.B. ∆
Abbildung 5.1. Übersicht von Funktionenräume.
95
heißt Orthonormalsystem, wenn
(fm , fk ) = δmk
(reeller Fall) bzw.
hfm , fk i = δmk
(komplexer Fall) gilt. Gilt nur (fm , fk ) = 0 bzw. hfm , fk i = 0 für m 6= k, so heißt {fk }
ein Orthogonalsystem.
Beispiel
√
Die Funktionen 1/ 2, cos(πmx/L), sin(πmx/L), m ∈ N \ {0} bilden auf dem Intervall
[−L, L] ein Orthonormalsystem bezüglich des Skalarproduktes
ˆL
1
(f, g) =
L
f (x)g(x) dx .
−L
Komplexe Schreibweise: Funktionen ei(πmx/L) , m ∈ Z, Skalarprodukt
1
hf, gi =
2L
ˆL
f (x)g(x) dx .
−L
Dies ist das sogenannte Orthonormalsystem der trigonometrischen Funktionen.
Definition 5.3
Gegeben sei ein Vektorraum F quadratintegrierbarer Funktionen auf Ω, ein ON-System
{fk } und eine Funktion f . Dann sind die Fourierkoeffizienten ak im reellen Fall definiert durch
ak = (f, fk ) ,
und im komplexen Fall durch
ak = hf, fk i .
Die Fourierreihe von f ist definiert durch
∞
X
(f, fk ) fk
k=1
bzw.
∞
X
hf, fk i fk
k=1
Definition 5.4
Gegeben sei ein Vektorraum F quadratintegrierbarer Funktionen auf Ω und ein ONSystem {fk }. Das ON-System heißt vollständig, wenn für jede Funktion f ∈ F die
96
Fourier-Reihe im quadratischen Mittel gegen f konvergiert, d.h., es gilt
ˆ
lim
n−→∞
n
X
f−
(f, fk ) fk
ˆ
lim
n−→∞
dx = 0
k=1
Ω
(reeller Fall) bzw.
!2
n
X
f−
hf, fk i fk
!2
dx = 0
k=1
Ω
(komplexer Fall).
Beispiel
Gegeben sei ein Intervall [−L, L] und das zugehörige ON-System trigonometrischer
Funktionen. Dann konvergiert die Fourier-Reihe jeder auf [−L, L] definierten quadratintegrierbaren Funktion f gegen f im quadratischen Mittel.
1. Komplexe Darstellung der Fourier-Reihe:
f∼
∞
X
cm eimπx/L
m=−∞
mit
1
cm =
2L
ˆL
f (x) e−imπx/L dx .
−L
2. Bei reellwertigem f gilt in der komplexen Darstellung c0 ∈ R und cm = c−m für
alle m ∈ N \ {0}.
3. Aus der komplexen Darstellung erhält man (im Falle der Konvergenz) bei gegebener reellwertiger Funktion f folgendermaßen eine relle Darstellung:
∞
X
cm eimπx/L = c0 +
m=−∞
= c0 +
∞
X
(cm eimπx/L + c−m e−imπx/L )
m=1
∞
X
(cm eimπx/L + cm eimπx/L )
m=1
∞
X
Re cm eimπx/L
= c0 + 2
= c0 + 2
m=1
∞
X
(cos (mπx/L) Re cm − sin (mπx/L) Im cm )
m=1
∞
X
∞
X
a0
+
am cos (mπx/L) +
bm sin (mπx/L)
=
2
m=1
m=1
mit a0 = 2c0 , am = 2 Re cm und bm = −2 Im cm , m ≥ 1.
97
√
4. Bei der klassischen Schreibweise im reellen Fall wurde die Basisfunktion 1/ 2
zu 1 abgeändert. Dadurch ist das Funktionensystem nur noch orthogonal. Daher
tritt in der Fourier-Reihe überraschend“ der Term 1/2 vor a0 auf:
”
∞
a0 X
+
f∼
ak cos (πkx/L) + bk sin (πkx/L)
2
k=1
mit
ˆL
1
a0 =
L
f (x) dx ,
−L
ak =
1
L
ˆL
f (x) cos (πkx/L) dx ,
k ∈ N \ {0}
−L
und
1
bk =
L
ˆL
f (x) sin (πkx/L) dx ,
k ∈ N.
−L
5. Ist eine gerade Funktion f gegeben, d.h. ist f (x) = f (−x), so gilt
1
bk =
L
ˆL
sin (πkx/L) f (x) dx = 0
−L
für alle k ∈ N und
2
ak =
L
ˆL
cos (πkx/L) f (x) dx
0
für alle k ∈ N sowie
2
a0 =
L
ˆL
f (x) dx
0
(reine Kosinus-Reihe).
6. Ist eine ungerade Funktion f gegeben, d.h. ist f (−x) = −f (x), so gilt
1
ak =
L
ˆL
cos (πkx/L) f (x) dx = 0
−L
für alle k ∈ N und
1
a0 =
L
ˆL
f (x) dx = 0
−L
sowie
2
bk =
L
ˆL
sin (πkx/L) f (x) dx
0
für alle k ∈ N (reine Sinus-Reihe).
98
7. Ist von vornherein eine T -periodische Funktion f : R −→ R gegeben, so kann
über ein beliebiges Periodenintervall [t0 , t0 + T ] mit t0 aus R integriert werden. In
der oben gewählten Notation ist dann L = 2T , und die Basisfunktionen können
auch cos(kωx), sin(kωy), eimωx mit ω = 2π
geschrieben werden.
T
Satz 5.5
Gegeben sei eine stückweise stetig differenzierbare Funktion f : [−L, L] −→ R. Dann
gilt:
• Die Fourierreihe von f konvergiert punktweise auf R gegen eine 2L-periodische
Grenzfunktion fR .
• Ist die 2L-periodische Fortsetzung von f stetig auf R, so gilt fR = f . In diesem
Fall ist die Konvergenz sogar gleichmäßig.
• Andernfalls gilt nur an den Punkten, an denen die 2L-periodische Fortsetzung von
f stetig ist, f (x) = fR (x). An einer Sprungstelle x̃ der 2L-periodische Fortsetzung
von f ist fR (x̃) gleich dem Mittelwert von rechts- und linksseitigem Grenzwert
von f .
Bemerkung
Eine Fourier-Reihe ist im Falle der Konvergenz eine periodische Funktion der Periode
2L. Daher konvergiert sie nicht nur auf dem betrachteten Intervall [−L, L], sondern auf
ganz R. Außerhalb [−L, L] stimmt sie nur dann mit der gegebenen Funktion f überein,
wenn diese selber 2L-periodisch ist.
Interessiert man sich andersherum für Fourier-Darstellungen von Funktionen, die auf
ganz R definiert sind, durch trigonometrische Funktionen, so ist es zwingend erforderlich, dass diese Funktionen periodisch sind.
5.3 Separation und Superposition in
Zylinderkoordinaten
Gesucht wird das elektrische Skalarpotential V = V (%, ϕ, z) in einem Volumen, das in
Zylinderkoordinaten
~r = %~e% + ϕ~eϕ + z~ez
parametrisiert ist. Wir betrachten den Spezialfall, dass die Raumladungsdichte im Volumen 0 beträgt. Zu lösen ist also die homogene Poisson-Gleichung (im vorliegenden
homogenen Fall auch Laplace-Gleichung genannt)
1 ∂
∂
1 ∂2
∂2
% V (%, ϕ, z) + 2 2 V (%, ϕ, z) + 2 V (%, ϕ, z) (5.1)
0 = ∆V (%, ϕ, z) =
% ∂%
∂%
% ∂ϕ
∂z
99
in Zylinderkoordinaten. Der allgemeine Separationsansatz zur Beschaffung eines Vorrats an Grundlösungen lautet
V (%, ϕ, z) = R(%)Φ(ϕ)Z(z) .
(5.2)
Einsetzen dieses Ansatzes in die partielle Differentialgleichung (5.1) ergibt nach Division durch R(%)Φ(ϕ)Z(z)
1 Φ00 (ϕ) Z 00 (z)
1 ∂
(%R0 (%)) + 2
+
= 0.
%R(%) ∂%
% Φ(ϕ)
Z(z)
(5.3)
Der dritte Summand ist unabhängig von % und ϕ, währen die ersten beiden Summanden
unabhängig von z sind. Der dritte Summand ist somit konstant. Theoretisch können
drei Fälle eintreten: Der dritte Summand ist
1. gleich einer positiven Konstante k 2 > 0,
2. gleich Null, d.h. k 2 = 0,
3. gleich einer negativen Konstante −k 2 < 0.
Ob der zweite Fall k 2 = 0 eintritt, hängt vom gegebenen Problem ab: Dies ist genau
dann der Fall,
• das gegebene Volumen in z-Richtung unendlich ausgedehnt ist, und alle Querschnittsflächen parallel zur (x, y)-Ebene identisch sind,
• die auf dem Rand, den wir als Zylindermantel annehmen, gegebenen Daten nicht
von z und somit nur von ϕ abhängen.
Die Frage ob k 2 = 0 ist oder nicht, können wir also nicht beeinflussen. Dagegen können
wir im Falle, dass der oben geschilderte symmetrische Fall nicht eintritt, wählen, ob
wir mit k 2 > 0 oder mit k 2 < 0 arbeiten wollen. Mit dieser Entscheidung beeinflussen
wir, welche Grundlösungen wir als Vorrat“ für die Konstruktion der Randdaten über
”
Superposition erhalten. Liegen z-abhängige Randdaten vor, so ist unbedingt die negative Separationskonstante −k 2 zu wählen, da andernfalls keine Orthogonalentwicklung
der z-abhängigen Randfunktion möglich wird.
Erster Weg: Separationskonstante k 2 > 0
Bestimmung von Z(z): Aus dem Separationsansatz folgt die gewöhnliche Differentialgleichung
Z 00 (z) − k 2 Z(z) = 0 .
Eine Darstellung der allgemeine Lösung lautet
Zk (z) = Ek cosh(kz) + Fk sinh(kz)
100
mit Ek , Fk ∈ R. Es genügt hier, k > 0 zu betrachten.
Für den (%, ϕ) abhängigen Teil von Gleichung (5.3) folgt nach Multiplikation mit %2
% ∂
Φ00 (ϕ)
(%R0 (%)) + %2 k 2 +
= 0.
R(%) ∂%
Φ(ϕ)
(5.4)
Der letzte Summand hängt nur von ϕ ab, die ersten beiden nur von %. Daher ist der
letzte Summand konstant, und wir setzen
Φ00 (ϕ)
= −m2 .
Φ(ϕ)
Hier ist die Wahl einer nichtpositiven Separationskonstante −m2 ≤ 0 sinnvoll, um
ein vollständiges System orthogonaler Funktionen als Lösung zu erhalten, und so ϕabhängige Randdaten durch Fourier-Entwicklung konstruieren zu können.
Bestimmung von Φ(ϕ): Es folgt
Φ00 (ϕ) + m2 Φ(ϕ) = 0 .
Die allgemeine Lösung lautet

C cos(mϕ) + D sin(mϕ)
m
m
Φm (ϕ) =
C 0
,m ∈ N
,m = 0.
Hierbei folgt die Ganzzahligkeit von m daraus, dass nur 2π-periodische Funktionen als
Lösung sinnvoll sind, da ϕ und ϕ + 2π dieselbe Orts-Koordinate darstellen (Drehung
um 360◦ ). Negative Werte von m brauchen nicht berücksichtigt zu werden wegen der
Symmetrieeigenschaften der trigonometrischen Funktionen. Ebenfalls aus dem Grund,
dass nur periodische Lösungen sinnvoll sind, reduziert sich die Lösung im Fall m = 0
auf eine Konstante C0 .
Für den %-abhängigen Teil von Gleichung (5.5) folgt nach Multiplikation mit R(%)
%
∂
(%R0 (%)) + %2 k 2 − m2 R(%) = 0 .
∂%
(5.5)
Bestimmung von R(r):
Nach Division durch %2 k 2 und Anwenden der Produktregel der Differentialrechnung
folgt
1 00
1 0
m2
(5.6)
R (%) + 2 R (%) + 1 − 2 2 R(%) = 0 .
k2
k %
%k
Dies ist eine gewöhnliche lineare Differentialgleichung zweiter Ordnung, deren Faktoren
jedoch von der Variable % abhängen, also nicht konstant sind. Ihre Lösungsgesamtheit
101
ist für gegebenes k > 0 und m ≥ 0 ein Vektorraum der Dimension 2. Zu gegebenen Werten k > 0, m ≥ 0 kann eine Basis mit Hilfe der Besselfunktion Jm und der
Neumannfunktion Nm oder Besselfunktion 2. Art angegeben werden. Für die Besselfunktionen 2. Art ist auch die Bezeichnung Ym gebräuchlich. Die allgemeine Lösung
von Gleichung (5.6) lautet somit
Rk,m (%) = Ak,m Jm (k%) + Bk,m Nm (k%) .
Sind beispielsweise Randdaten auf der Deck- und Bodenfläche eines Zylinders gegeben,
können diese mit Orthogonalentwicklung bezüglich der Besselfunktionen dargestellt
werden. Randdaten auf einem Zylindermantel, die nur von ϕ abhängen, können durch
eine klassische Fourier-Reihe dargestellt werden. Nicht möglich ist eine Reihenentwicklung von z-abhängigen Randdaten. Dazu hätte oben eine negative Separationskonstante −k 2 gewählt werden müssen (siehe 3. Weg). Die Konstruktion von Randdaten wird
unten in Spezialfällen diskutiert.
Zweiter Fall Separationskonstante k 2 = 0:
Bestimmung von Z: Es folgt die gewöhnliche Differentialgleichung
Z 00 (z) = 0 .
Eine Darstellung der allgemeine Lösung lautet
Z(z) = Gz + H
In der Regel wird nur die konstante Lösung Z(z) = H sinnvoll sein (siehe unten). Wir
können dann H = 1 wählen, und die Koeffizienten der anderen Faktoren im ProduktAnsatz entsprechned anpasssen.
Bestimmung von Φ: Aus Gründen der Eindeutigkeit kann m wieder nur ganzzahlig
sein. Wir erhalten wieder die Gleichung
Φ00 (ϕ)
= −m2 .
Φ(ϕ)
Bestimmung von R Wir erhalten
%2 R00 (%) + %R0 (%) − m2 R(%) = 0 ,
m ∈ N0 .
(5.7)
Dies ist keine Besselsche Differentialgleichung. Ihr Lösungsraum wird durch R(%) = %m
und R(%) = %−m aufgespannt.
102
Anpassung an ausschließlich ϕ-abhängige Randdaten beim unendlichen Zylinder
Wenn ein unendlich langer Zylinder gegeben ist und auf einer Mantelfläche vom Radius
%A Randwerte durch eine nur von ϕ abhängige Funktion f (ϕ) vorgegeben sind, gewinnt
man eine Fourier-Reihe dieser Funktion
∞
∞
X
A0 X
+
Am cos(mϕ) +
Bm sin(mϕ) .
f (ϕ) =
2
m=1
m=1
(5.8)
Die negativen Exponenten m führen bei der Innenraumaufgabe in einem Vollzylinder
zu Singularitäten. Deshalb kann man sich auf positive Exponenten beschränken. Nach
Koeffizientenvergleich des durch Superposition erstellten Ansatzes an der Stelle % = %A
mit der Reihendarstellung (5.8) für die Funktion f folgt die Lösung
V (%, ϕ, z) = V (%, ϕ)
m
m
∞ ∞
X
%
A0 X %
+
Am cos(mϕ) +
Bm
sin(mϕ) .
=
2
%
%
A
A
m=1
m=1
(5.9)
Dritter Weg Separationskonstante −k 2 < 0
Bestimmung von Z: Es folgt die gewöhnliche Differentialgleichung
Z 00 (z) + k 2 Z(z) = 0 .
Eine Darstellung der allgemeinen Lösung lautet
Zk (z) = Ek cos(kz) + Fk sin(kz)
Bestimmung von Φ: Auch hier sind wieder nur ganzzahlige Lösungen für m, die wir als
nichtnegativ annehmen können, sinnvoll.
Bestimmung von R: Wir erhalten an Stelle der gewöhnlichen“ Besselschen Differenti”
algleichung die modifizierte Besselsche Differentialgleichung“
”
1 00
1 0
m2
R (%) + 2 R (%) − 1 + 2 2 R(%) = 0 .
(5.10)
k2
k %
%k
Ihre Lösungen werden durch die modifizierten Besselfunktionen Im (k%) und Km (k%)
mit k > 0 gegeben. Die Im sind im Nullpunkt regulär, die Km singulär. Diese Funktionen sind genau wie die (gewöhnlichen) Besselfunktionen in Tabellenwerken mit ihren
Eigenschaften und Werten verzeichnet, und in Programmbibliotheken oder Systemen
wie matlab stehen Unterprogramme zu ihrer Berechnung zur Verfügung.
Anpassung an ausschließlich z-abhängige Randdaten beim endlichen Zylinder
Oben haben wir festgestellt, dass die allgemeine Darstellung der Funktion Z(z) durch
eine Fourier-Reihe gegeben ist. Wenn keine ϕ-Abhängigikeit zu betrachten ist, können
103
wir m = 0 setzen. Damit erhalten wir als Lösungen für einen Vollzylinder mit Radius %A
dessen Achse sich von z = −h bis z = h erstreckt, eine Fourier-Reihe. Dabei kann man
sich zur Veranschaulichung den gegebenen Zylinder periodisch entlang der z-Achse fortgesetzt vorstellen. Wegen der 2h-Periodizität bezüglich z brauchen nur Grundlösungen
mit k = kn = nπ/h herangezogen werden. Eine Abhängigkeit von der radialen Basisfunktion K0 ist ausgeschlossen, da – wie zuvor – im Inneren des Vollzylinders keine
Singularität auftreten darf. Somit folgt (beachte I0 (0) = 1)
V (%, ϕ, z) = V (%, z)
(5.11)
∞
X
∞
X
E0
I0 (0) +
En I0 (kn %) cos(kn z) +
Fn I0 (kn %) sin(kn z)
2
n=1
n=1
∞
∞
nπ nπ X
nπ nπ E0 X
+
En I0
% cos
z +
Fn I0
% sin
z .
=
2
h
h
h
h
n=1
n=1
=
Die Bestimmung der Koeffizienten En und Fn erfolgt durch Koeffizientenvergleich des
Lösungsansatzes (5.11) an der Stelle % = %A mit der Fourier-Entwicklung der gege
A
benen z-abhängigen Randfunktion. Hierbei kann I0 nπ%
jeweils als Konstante 6= 0
h
betrachtet werden, deren genauer Wert jederzeit aus Tabellen oder mit matlab bestimmt werden könnte.
Die Besselsche Differentialgleichung und Verwandte Die Gleichung
1 0
n2
y + y + 1− 2 y =0
x
x
00
(5.12)
für y = y(x) wird als Besselsche Differentialgleichung bezeichnet. In Anwendungen
ist diese Gleichung in der Regel mindestens durch Skalieren des Arguments modifiziert. Eine sehr bequeme Formel, um skalierte Bessel- und Neumann-Funktionen der
zugehörigen Gleichung zuzuordnenn, ist diese:
1 − 2α 0
α2 − n2 γ 2
γ−1 2
w + (βγx ) +
w=0
w +
x
x2
(5.13)
w(x) = xα Zn (βxγ ).
(5.14)
00
wird gelöst durch
Dabei bezeichnet Zn irgendeine Linearkombination von Bessel- und Neumann-Funktionen
der Ordnung n.
104
Eigenschaften der Zylinderfunktionen
x m 1
Jm (x) ≈
2
m! m
(m − 1)! 2
Nm (x) ≈ −
π
x
2 γx
2
N0 (x) ≈ ln
≈ ln x
π
2
π
r
2
π mπ cos x − −
Jm (x) ≈
πx
4
2
r
π mπ 2
sin x − −
Nm (x) ≈
πx
4
2
x m 1
Im (x) ≈
2
m! m
(m − 1)! 2
Km (x) ≈
π
x
γx
K0 (x) ≈ − ln
≈ − ln x
2
ex
Im (x) ≈ √
2πx
√ −x
πe
Km (x) ≈ √
2x
für |x| 1
für |x| 1 , m = 1, 2, . . .
für |x| 1 , (γ ≈ 1, 781)
für x −→ ∞
für x −→ ∞
für 0 < x 1
für 0 < x 1 , m = 1, 2, . . .
für 0 ≤ x 1 , (γ ≈ 1, 781)
für x −→ ∞
für x −→ ∞
105
Symbolverzeichnis
dV . . . . . . . . . . . . .
(~e1 , . . . , ~en ) . . . . .
[~x, ~y , ~z] . . . . . . . . .
S
..............
· ...............
~ .............
dA
d~r . . . . . . . . . . . . . .
dA . . . . . . . . . . . . .
ds . . . . . . . . . . . . . .
∆ ..............
δij . . . . . . . . . . . . . .
det . . . . . . . . . . . . .
div . . . . . . . . . . . . .
∅ ...............
grad . . . . . . . . . . . .
∈ ...............
∞ ..............
h ·, · i . . . . . . . . . . .
Rn . . . . . . . . . . . . .
F ..............
¸
...............
dim . . . . . . . . . . . .
span . . . . . . . . . . . .
−
→
0P . . . . . . . . . . . . .
∂C . . . . . . . . . . . . .
∼ ..............
× ..............
~0 . . . . . . . . . . . . . . .
~rP Q . . . . . . . . . . . .
d(P, Q) . . . . . . . . .
106
Volumenelement (siehe 2.31)
geordnete Basis
Spatprodukt (siehe 0.30)
Vereinigung (siehe 1.5)
Skalarprodukt
vektorielles Flachenelement (siehe 2.23)
vektorielles Linienelement (siehe 2.9)
skalares Flachenelement (siehe 2.22)
skalares Linienelement (siehe 2.7)
Laplace-Operator (siehe 3.5)
Kronecker-Symbol (siehe 0.3)
Determinante (siehe 0.23)
Divergenz (siehe 3.12)
Leere Menge (siehe 2.5
Gradient (siehe 3.1
Element (siehe 0.1)
Unendlich
Skalarprodukt (siehe 0.14)
n-dimensionaler Raum der reelen Zahlen (siehe 0.1)
Vektorraum (siehe 5.2)
geschlossenes Integral (siehe 3.1)
Dimension eines Vektorraumes (siehe 0.9)
Spann (siehe 0.4)
Ortsvektor eines Punktes (siehe 0.1)
Rand der Kurve C (siehe 2.5)
Equivalent
Kreuzprodukt (siehe 0.25)
Nullvektor (siehe 0.14)
Verbindungsvektor der Punkte P und Q (siehe 1.1)
Abstand der Punkte P und Q (siehe 1.1)
Griechisches Alphabet
Kleinbuchstabe
α
β
γ
δ
, ε
ζ
η
θ, ϑ
ι
κ
λ
µ
ν
ξ
o
π
ρ, %
σ, ς
τ
υ
φ, ϕ
χ
ψ
ω
Großbuchstabe
A
B
Γ
∆
E
Z
H
Θ
I
K
Λ
M
N
Ξ
O
Π
P
Σ
T
Υ,Y
Φ
X
Ψ
Ω
Name
Alpha
Beta
Gamma
Delta
Epsilon
Zeta
Eta
Theta
Iota
Kappa
Lambda
My
Ny
Xi
Omikron
Pi
Rho
Sigma
Tau
Ypsilon
Phi
Chi
Psi
Omega
107
Stichwortverzeichnis
Äquipotentialflächen, 70
äquivalent, 41
Einheitsvektoren, kanonische, 12
Abbildung, alternierende bilineare, 25
Abbildung, bilineare, 25
Abbildung, lineare, 13
Abstand, 31
Addition, 7
alternierend, 26
Arbeitsintegral, 46
Axiom, 7
Basis, 12
Basis, orthogonale, 22
Besselfunktion, 102
Besselfunktion 2. Art, 102
Besselsche Differentialgleichung, 104
Betrag, 20
bilineare Abbildung, 25
Bilinearform, 19
Bogenlänge, 44
Cauchy-Schwarz Ungleichung, 21
Cauchy-Schwarze-Ungleichung, 94
definit, positiv, 19
Determinante, Gramsche, 24
Differenzialoperator n-ter Ordnung, 83
Differenzialoperatoren erster Ordnung,
83
Differenzialoperatoren zweiter Ordnung,
83
Dimension, 12
Dirichlet-Bedingung, 89
108
Dirichlet-Problem, 89
Dirichlet-Rand, 89
Divergenz, 68
doppelpunktfrei, 42
doppeltes Vektorprodukt, 28
dreidimensionaler Euklidisch-affiner Raum,
31
Einheitsvektor, 20
Ergiebigkeit, 80
Erzeugnis, lineare, 10
Euklidisch-affinen Raum, 30
Euklidische Struktur, 18
Euklidischer Vektorraum, 19
Flächenintegral, 55
Flussintegral, 56
Fourierkoeffizienten, 96
Fourierreihe, 96
geschlossene Fläche, 58
Gewichtsfunktion, 94
Gradienten, 68
Gradientenfeld, 77
Gramsche Determinante, 24
griechisches Alphabet, 107
Grundlösung, 91
Hauptsatz der Differential- Integralrechnung, 67
Inhalt, 24
isomorph, 14
Isomorphismus, 14
kanonische Einheitsvektoren, 12
kanonische Orientierung, 25
kartesische Komponenten, 33
kartesische Koordinaten, 33
kartesischen Basisfeld, 32
kartesischen Koordinaten, 31
Koeffizienten, 9
komplanar, 28
kontravariant, 17
Koordinaten, 34
Koordinatenfläche, 34
Koordinatenlinien, 34
Koordinatentripel, 34
Kronecker-Symbol, 22
krummliniges Koordinatensystem, 34
Kurve, 41
Kurvenintegral, 45
Laplace-Operator, 83
Laplace-Operator, vektorielle, 85
Laplace-Operator, vektorieller, 85
linear abhängig, 9
linear unabhängig, 9
lineare Abbildung, 13
lineare Erzeugnis, 10
Linearkombination, 9
Maßstabskoeffizienten, 36
Maxwell-Gleichungen, 84
Modelle, 7
negativ orientiert, 25
Neumann-Problem, 89
Neumannfunktion, 102
Normalbereich erster Art, 49
Normalbereich zweiter Art, 49
Normalbereiche, 58
Normalenableitung, 89
Normalenrichtung, 51
Normalenvektor, 50, 51
normieren, 20
Ordnung einer PDG, 89
orientiert, negativ, 25
orientiert, positiv, 25
orientierter dreidimensionaler Euklidischaffiner Raum, 31
orientierter Inhalt, 27
Orientierung, 25
Orientierung, kanonische, 25
orientierungserhaltende Parametertransformation, 41
orthogonal, 35
orthogonale Basis, 22
Orthogonalsystem, 96
Orthonormalbasis, 22
Orthonormalsystem, 96
Ortsvektor, 8, 31
Parameterdarstellung einer Kurve, 41
Parametertransformation, orientierungserhaltende, 41
partielle Differentialgleichung (PDG), 89
positiv definit, 19
positiv orientiert, 25
Potential, 68
quadratisches Mittel, 97
quellenfrei, 80
Quellstärke, 80
Rand, 42
Randwertproblem, 89
Randwertprobleme zweiter Ordnung, 85
regulärer Bereich, 59
regulärer Parameterbereich, 49
Richtungsableitung, 70
Rotation, 68
Satz
des Phythagoras, 20
Separationsansatz, 91
skalare Linienelement, 44
Skalarfeld, 32
Skalarmultiplikation, 7
109
Skalarprodukt, 19
Spann, 10
Spatprodukt, 27
stückweise glatt, 41
stückweise glatten, 50
Stammfunktion, 67
Standard-Skalarprodukt, 19
sternförmig, 82
Struktur, Euklidischen, 18
strukturgleich, 14
symmetrisch, 19
Tangenteneinheitsvektor, 42
Tangentenvektor, 41
Tangentenvektoren, 50, 62
Tangentialebene, 52
Tangentialraum, 32
Träger, 42
Transformationsformel, 59
trigonometrischen Funktionen, 96
Untervektorraum, 8
Ursprung, 31
Vektor, 7
Vektorfeld, 32
vektorielle Laplace-Operator, 85
vektorieller Laplace-Operator, 85
vektorielles Flächenelement, 57
vektorielles Linienelement, 47
Vektorpotential, 77
Vektorraum, 7
Vektorraum, Euklidischer, 19
Volumenelement, 64
Winkel, 21
wirbelfrei, 76
Zirkulation, 75
110
Zugehörige Unterlagen
Herunterladen