Kurzskript zur Vorlesung Mathematik C Helmut Schmidt Universität Universität der Bundeswehr Hamburg Herbsttrimester 2014 Prof. Dr. Marcus Stiemer Inhaltsverzeichnis I Vektoranalysis 0 Grundbegriffe der Vektorrechnung (Wiederholung) 0.1 Vektorräume . . . . . . . . . . . . . . . . . . . . 0.2 Lineare Abbildungen . . . . . . . . . . . . . . . 0.3 Euklidische Vektorräume . . . . . . . . . . . . . 0.4 Orientierung eines Vektorraumes . . . . . . . . 0.5 Vektorprodukt . . . . . . . . . . . . . . . . . . . 0.6 Mehrfache Produkte . . . . . . . . . . . . . . . . . . . . . 6 6 13 18 24 25 26 1 Felder und Koordinatensysteme 1.1 Der Ortsraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Darstellung von Feldern . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Krummlinige Koordinatensysteme . . . . . . . . . . . . . . . . . . . . . 30 30 32 33 2 Integration 2.1 Kurven . . . . . . . . . . . . . . . . . . . . . . 2.2 Flächen im dreidimensionalen Raum . . . . . 2.3 Raumintegration bei kartesischen Koordinaten 2.4 Krummlinige Koordinaten . . . . . . . . . . . . . . . 40 40 48 58 62 . . . . . 67 68 73 78 80 83 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Differentialoperatoren und Integralsätze 3.1 Gradient und Potential . . . . . . . . . . . . . . . . . . . 3.2 Rotation und Stokesscher Integralsatz . . . . . . . . . . . 3.3 Divergenz und Gaußscher Integralsatz . . . . . . . . . . . 3.4 Die Lemmata von Poincaré und Existenz von Potentialen 3.5 Der Laplace-Operator . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . II Partielle Differentialgleichungen 4 Existenz und Eindeutigkeit bei elliptischen Problemen 88 5 Lösung von Randwertproblemen mit Orthogonalentwicklung 5.1 Kartesische Koordinaten . . . . . . . . . . . . . . . . . . . . . . . . . . 90 91 II 5.2 5.3 Orthogonalentwicklung in Funktionenräumen . . . . . . . . . . . . . . . Separation und Superposition in Zylinderkoordinaten . . . . . . . . . . 94 99 A Anhang 106 Stichwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 III Thema der Vektoranalysis ist die (mehrdimensionale) Differential- und Integralrechnung mit Funktionen, die jedem Punkt des Raumes einen Vektor zuordnen, das heißt, eine Größe, die neben einem Betrag auch eine Richtung besitzt. Diese sogenannten Vektorfelder bilden die Grundlage der Beschreibung elektromagnetischer Phänomene. Beispiele für Vektorfelder sind ~ x) zwischen einer Gewitterwolke und • die ortsabhängige elektrische Feldstärke E(~ dem Boden zu einem gewissen Zeitpunkt oder ~ x) zu einem gewissen • die ortsabhängige elektrische magnetische Flussdichte B(~ Zeitpunkt im Raum, der einen stromdurchflossenen Leiter umgibt. Die Grundgleichungen der elektromagnetischen Felder werden über differentielle Beziehungen der betrachteten Feldgrößen formuliert. Bevor wir die mathematische Formulierung dieser Beziehungen diskutieren, werden im folgenden die zugrunde liegenden Begriffe Vektorräume und lineare Abbildungen wiederholt, die bereits aus den mathematischen Grundlagenvorlesungen bekannt sind. 4 Teil I Vektoranalysis 5 0 Grundbegriffe der Vektorrechnung (Wiederholung) Übersicht 0.1 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 0.2 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . 13 0.3 Euklidische Vektorräume . . . . . . . . . . . . . . . . . . . . . . 18 0.4 Orientierung eines Vektorraumes . . . . . . . . . . . . . . . . . 24 0.5 Vektorprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 0.6 Mehrfache Produkte . . . . . . . . . . . . . . . . . . . . . . . . 26 0.1 Vektorräume Zahlreiche physikalische Größen besitzen nicht nur einen Betrag, sondern auch eine Richtung. Bekannte Beispiele sind • die Kraft F~ , die zu einer gewissen Zeit auf eine punktförmige Masse wirkt, • die Beschleunigung ~a einer punktförmigen Masse zu einem gewissen Zeitpunkt, • die Geschwindigkeit ~v einer punktförmigen Masse zu einem gewissen Zeitpunkt, ~ die zu einer gewissen Zeit an einem gewissen Ort • die elektrische Feldstärke E, herrscht, ~ die zu einer gewissen Zeit an einem gewissen Ort • die magnetische Flußdichte B, herrscht, • Verschiebungen des Raumes (bzw. der Ebene) oder • frei bewegliche Pfeile (im Raum oder in der Ebene). Zur Beschreibung dieser vektoriellen physikalischen Größen ist neben einer Maßzahl und einer Maßeinheit auch die Angabe einer Richtung erforderlich. Dagegen erfordert die Beschreibung einer skalaren physikalischen Größe lediglich die Angabe einer Maßzahl und einer Maßeinheit. 6 Die oben genannten physikalischen Größen zeigen alle das gleiche Verhalten bei Superposition und Skalierung. Aus mathematischer Sicht legt dies nahe, vom konkreten physikalischen Hintergrund zu abstrahieren, und sie alle als Modelle des gleichen rein strukturellen Begriffs eines Vektors aufzufassen. Um einen Vektor unabhängig von physikalischen Modellen formal definieren zu können, fordert man die Rechenregeln, die in allen oben genannten Modellen gelten, als sogenannte Axiome. Abstrakte Objekte werden also dadurch definiert, dass die Beziehungen, die zwischen ihnen gelten, als Axiome gefordert werden. • Vektoren zur Darstellung von Objekten, die eine Länge und eine Richtung haben (Felder, Funktionen) • Vorteile der Abstraktion Definition 0.1 (Vektorraumaxiome) Es sei V eine nichtleere Menge mit den Elementen ~x, ~y , ~z, . . . , auf der • eine Addition definiert ist, die jedem Paar von Elementen (~x, ~y ), ~x, ~y ∈ V , ein Element ~x + ~y ∈ V zuordnet, sowie • eine Skalarmultiplikation, die jedem Paar (α, ~x) aus einer reellen Zahl α ∈ R und einem Vektor ~x ∈ V einen Vektor α~x ∈ V zuordnet. Genau dann heißt V mit dieser Addition und dieser Skalarmultiplikation ein Vektorraum über dem Körper R (oder kurz: reeller Vektorraum), wenn für beliebige ~x, ~y , ~z ∈ V und α, β ∈ R die folgenden Rechenregeln gelten: 1. ~x + ~y = ~y + ~x 2. (~x + ~y ) + ~z = ~x + (~y + ~z) (Kommutativität) (Assioziativität) 3. Es gibt einen Nullvektor ~0 ∈ V mit ~x + ~0 = ~x 4. Zu ~x ∈ V gibt es −~x ∈ V mit ~x + (−~x) = ~0 (Gegenvektor) 5. α(β~x) = (αβ)~x = β(α~x) 6. 1~x = ~x 7. (α + β)~x = α~x + β~x 8. α(~x + ~y ) = α~x + α~y Beispiel 1. Mit der komponentenweisen Addition x1 + y 1 x1 x2 + y 2 x2 , ., ~x + ~y := ~ x = . . . . . xn + y n xn y1 y2 n ~y = .. ∈ R . yn 7 ~b ~a ~a − ~b ~a ~a + ~b ~b ~b |~a| − |~b| Abbildung 0.1. Geometrische Interpretation der Vektoraddition und -subtraktion anhand von Verschiebungsvektoren. und der durch αx1 αx2 α~x := . , .. x1 x2 n ~x = .. ∈ R , . αxn α∈R xn definierten Skalarmultiplikation wird der Rn zum reellen Vektorraum. 2. Die Menge aller Verschiebungsvektoren des Rn definieren mit der Hintereinanderausführung von Verschiebungen als Addition und der Skalierung von Verschiebungen als Skalarmultiplikation einen Vektorraum. 3. Der Ortsvektor eines Punktes P (x1 , . . . , xn ) im Rn ist der Verschiebungsvektor vom Nullpunkt zu diesem Punkt, d.h. x1 − → . 0P = .. ∈ Rn . xn 4. Sei I ⊆ R ein Intervall. Dann bildet die Menge aller Funktionen f : I −→ R einen Vektorraum. 5. Es sei V ein Vektorraum über R. Dann ist eine nichtleere Teilmenge W von V mit den Eigenschaften • für ~x, ~y ∈ W gilt stets ~x + ~y ∈ W (Abgeschlossenheit bezgl. der Addition) • für ~x ∈ W , α ∈ R gilt stets α~x ∈ W (Abgeschlossenheit bzgl. der Skalarmultiplikation) ebenfalls ein Vektorraum, ein sogenannter Untervektorraum von V . 6. 8 P an sin nx + P bn cos nx n ∈ {0, 1, 2, . . . , N} ~y ~v ~x w ~ Abbildung 0.2. Die Vektoren ~v und w ~ sind linear unabhängig; die Vektoren ~x und ~y sind linear abhängig. Bemerkung Zur Darstellung von Vektoren im Rn ist die transponierte Schreibweise ~x = (x1 , . . . , xn )> ∈ Rn oft platzsparend. Lineare Unabhängigkeit, Dimension und Basis Wir wenden uns nun der Darstellung von Vektoren zu. Dazu sollen geeignete Systeme von Vektoren definiert werden, die es erlauben, alle anderen Vektoren eindeutig durch das ausgewählte System darzustellen. Definition 0.2 (Linearkombination) Es sei V ein Vektorraum über R. Eine endliche Summe der Form n X αi~xi i=1 mit ~x1 , . . . , ~xn ∈ V und α1 , . . . , αn ∈ R heißt Linearkombination. Die reellen Zahlen α1 , α2 , . . . , αk heißen Koeffizienten der Linearkombination. Entscheidend ist nun, welche Gesamtheit von Vektoren als Linearkombination gegebener Vektoren dargestellt werden kann, und ob dies auf eindeutige Weise erfolgt. Die Eindeutigkeit hängt mit dem Begriff der linearen Unabhängigkeit zusammen. Definition 0.3 (lineare abhängigigkeit/unabhängig) 1. Die Vektoren ~x1 , ~x2 , . . . , ~xk ∈ V heißen linear abhängig, wenn es Zahlen α1 , α2 , . . . , αk ∈ R gibt, die nicht alle Null sind, so dass k X αi~xi = ~0 i=1 gilt (nichttriviale Linearkombination des Nullvektors). 2. Sind ~x1 , ~x2 , . . . , ~xk ∈ V nicht linear abhängig, so heißen sie linear unabhängig. 9 Um die Frage der Darstellbarkeit zu diskutieren, wird nun das lineare Erzeugnis oder der Spann einer Menge von Vektoren definiert: Satz und Definition 0.4 (Spann) Der Spann span(~x1 , . . . , ~xk ) der Vektoren ~x1 , ~x2 , . . . , ~xk ∈ V ist die Menge aller Linearkombinationen. Er ist ein Untervektorraum von V . Beispiel 1. Für n ∈ N betrachten wir die Funktionen 1, sin nx, cos nx. Diese spannen den Raum der trigonometrischen Polynome auf. 2. Wir betrachte im Vektorraum V = R4 die Vektoren 1 −1 0 0 0 0 0 1 ~x1 = , ~x2 = , ~x3 = , ~x4 = 1 0 1 0 0 1 1 1 und behaupten, dass ~x1 , ~x2 , ~x3 , ~x4 linear unabhängig sind. Zeige dazu, dass die Gleichung α1~x1 + α2~x2 + α3~x3 + α4~x4 = 0 nur die Lösung α1 = α2 = α3 = α4 = 0 besitzt. Dazu schreiben wir die Vektoren spaltenweise in eine Matrix und wenden elementare Zeilenumformungen an (Gauß-Algorithmus): 1 −1 0 0 | (−1) 0 0 0 1 1 0 1 0 ←−−−−− + 0 1 −→ −→ 1 1 0 0 0 0 0 0 0 1 | (−1) 0 0 0 0 0 0 0 1 ←−−−−− + 0 0 0 0 0 0 0 1 0 1 1 0 | (−1) 0 1 1 1 0 0 0 0 −→ 0 0 ←−−−−− + 0 0 0 0 0 0 0 0 0 0 Es folgt 1 −1 0 0 1 −1 0 0 0 0 0 1 0 1 1 0 rang = rang =3 0 0 1 0 0 0 0 1 0 1 1 1 0 0 0 0 Das homogene lineares Gleichungssystem hat einen Lösungsraum L mit dim L = 4 − 3 = 1. Also sind die Vektoren ~x1 , ~x2 , ~x3 , ~x4 linear abhängig. 10 Alternativ hätten wir auch die Determinante der zugehörigen Matrix bestimmen können: 1 −1 0 0 0 0 0 1 det A := det =0 0 0 1 0 0 1 1 1 Also sind die Spalte/Zeile der Matrix linear abhängige Vektoren. 3. Wir behaupten, dass die Funktionen sin und cos linear unabhängig sind. Betrachte dazu die Gleichung α1 sin x = α2 cos x = 0 für alle x ∈ [−π, π] Da diese Gleichung für alle x gelten muss, folgt α1 sin 0 = α2 cos 0 und α2 sin π2 = α2 cos π2 . Somit ist α1 = α2 = 0 die triviale Lösung und sin und cos damit linear unabhängig. 4. Wir halten die Funktionen 1, sin2 x und cos2 x für linear abhängig. Wir betrachten dafür die Gleichung 1 = sin2 x + cos2 x für alle x ∈ R Da dieses Additionstheorem für alle x gilt ist 1, sin2 x und cos2 x damit linear abhängig. 5. Wir betrachten den durch die folgenden Funktionen aufgespannten Vektorraum: ~e1 := 1, ~e2 := sin x, ~e3 := cos x, ~e4 := sin 2x, ~e5 := cos 2x, d und betrachten auf V := span{~e1 , ..., ~e5 } den Differentialoperator D := dx , f 7−→ 0 f . Die Bilder werden als Linearkombination der Basisvektoren dargestellt und die Koeffizienten spaltenweise in die Abbildungmsatrix eingetragen: 0 0 0 0 0 0 0 −1 0 0 AD = 0 1 0 0 0 0 0 0 0 −2 0 0 0 2 0 Hier bist rang AD = 4 < 5, also ist D nicht bijektiv. Alle konstanten Funktionen werden auf 0 abgebildet, liegen also im Kern von D. 6. Es gelten die Additionstheoremen cos(2x) = 1−sin2 (x), sin2 (x) = 1 (1 − cos(2x)) 2 und cos2 (x) = 1 (1 + cos(2x)) . 2 11 Wir wählen die Basis ~e1 = sin(x), ~e2 = cos(x), ~e3 = sin2 (x), ~e4 = cos2 (x), ~e5 = sin(x) cos(x) . Dann gilt ~e 01 = ~e2 , ~e 02 = ~e3 , 1 1 ~e 03 = ~e1 − ~e5 , 2 2 Für die Umrechnung zwischen den gilt ~e1 0 0 0 ~e2 0 1 ~e3 0 = 2 0 1 ~e4 2 0 ~e5 0 1 1 ~e 04 = ~e1 + ~e5 , 2 2 1 ~e 05 = ~e4 . 2 Basisvektoren der alten und der neuen Basis 1 0 0 0 0 0 1 0 0 0 ~e1 0 0 0 0 ~e2 0 − 12 ~e3 . 0 21 ~e4 1 0 ~e5 2 Es folgt 0 x1 x2 1 x3 = 0 x4 0 0 x5 x1 0 0 12 12 0 0 0 0 0 x2 0 0 1 0 0 0 x3 0 0 0 21 x4 0 0 − 12 21 0 x5 0 Definition 0.5 (Basis) Ist jeder Vektor eines (Unter)vektorraums U eindeutig als Linearkombination von ~e1 , ~e2 , . . . , ~ek darstellbar, so heißt (~e1 , ~e2 , . . . , ~ek ) eine Basis von U . Satz und Definition 0.6 (Dimension eines Vektorraumes) Der Vektorraum V über R besitze eine Basis aus n ∈ N Vektoren. Dann besteht jede Basis von V aus n Vektoren. Die Zahl n < ∞ heißt Dimension des Vektorraums V . Beispiel a) Die kanonischen Einheitsvektoren 1 0 0 0 1 0 , ~e2 = 0 , . . . , ~en = ... 0 ~e1 = .. .. . . 0 0 0 1 bilden eine Basis des Rn . 12 b) Die Funktionen 1, sin x, cos x, sin 2x, cos 2x ?? bilden eine Basis des Vektorraums 0 0 0 0 0 .. . 0 0 ··· 0 −1 · · · 1 0 · · · 0 0 · · · 0 0 · · · .. .. . . . . . c) Die Lösungen der Differentialgleichung y 00 = −y bilden einen C-Vektorraum (cos t, sin t) Zusammenfassend halten wir folgendes fest: Ist ~e1 , . . . , ~en eine Basis des n-dimensionalen Vektorraums V , so gibt es zu jedem Vektor ~x ∈ V genau einen Satz von n Koeffizienten x1 , . . . , xn , so dass die Darstellung ~x = n X xi~ei i=1 gilt. 0.2 Lineare Abbildungen Eine wichtige Rolle werden sogenannte lineare Abbildungen spielen. Das sind Abbildungen, die die Vektorraumverknüpfungen respektieren“. ” Definition 0.7 (Lineare Abbildung) Gegeben seien zwei Vektorräume V und W über R. Eine Abbildung A : V −→ W heißt lineare Abbildung, wenn für ~x, ~y ∈ V , α ∈ R 1. A(~x + ~y ) = A(~x) + A(~y ) 2. A(α~x) = αA(~x) gilt. Man beachte, dass auf der linken Seite jeweils die Addition und die Skalarmultiplikation in V zu berechnen sind, während auf der rechten Seite die Verknüpfungen in W anzuwenden sind. 13 Beispiel Es sei nun V ein Vektorraum der Dimension n < ∞ und (~e1 , . . . .~en ) eine Basis von V . Dann besitzt jeder Vektor ~x ∈ V eine eindeutige Darstellung der Form ~x = n X xi~ei . i=1 Definiere nun die lineare Abbildung T : V −→ Rn durch x1 x2 T (~x) = .. . . xn Die Abbildung T ist umkehrbar eindeutig (bijektiv). Definition 0.8 (Isomorphismus) Gegeben seien zwei Vektorräume V und W über R. Eine umkehrbar eindeutige (bijektive) lineare Abbildung A : V −→ W heißt Isomorphismus. Die Vektorräume V und W heißen isomorph, wenn es einen Isomorphismus A : V −→ W gibt. Zwei isomorphe Vektorräume sind strukturgleich, das heißt, jede mögliche Vektorraumverknüpfung in V entspricht einer analogen Operation in W . Satz 0.9 Ein beliebiger endlichdimensionaler Vektorraum V ist isomorph zum Rn mit n = dim V . Der Isomorphismus T wird jeweils durch die Festlegung einer Basis definiert. Eine lineare Abbildung ist durch die Bilder ihrer Basisvektoren eindeutig festgelegt: Es seien V und W Vektorräume, und es gelte dim V = n < ∞. Ferner sei (~e1 , . . . , ~en ) eine n P Basis von V . Dann folgt mit den Rechenregeln für lineare Abbildungen für ~x = xj ~ej j=1 A(~x) = A n X ! xj ~ej j=1 = n X xj A(~ej ). (0.1) j=1 Ist nun auch dim W = m < ∞ und (f~1 , . . . , f~m ) eine Basis von W , so können die Bilder A(~ej ) der Einheitsvektoren von V bezüglich der Basis f~1 , . . . , f~m dargestellt werden: A(~ej ) = m X i=1 14 Aij f~i . (0.2) Einsetzen dieser Beziehung in Gleichung (0.1) ergibt A(~x) = n X xj j=1 m X Aij f~i = i=1 m n X X i=1 ! f~i . Aij xj (0.3) j=1 Das heißt, nach Wahl einer Basis im Ausgangsraum (~ej )j=1,...,n und einer Basis im Zielraum (f~i )i=1,...,m kann die Wirkung der linearen Abbildung durch Multiplikation mit ihre Darstellungsmatrix (Aij )1≤i≤m,1≤j≤n dargestellt werden: Satz 0.10 Es seien V und W zwei Vektorräume mit Basen (~e1 , . . . , ~en ) bzw. (f~1 , . . . , f~m ). Weiter sei A : V −→ W eine lineare Abbildung mit m X A(~ej ) = Aij f~i . j=1 Dann gilt für ~x = n P xi~ei ∈ V und ~y = i=1 m P yj f~j = A(~x) ∈ W j=1 x1 A11 A12 y1 x2 A21 A22 .. . = (Aij ) .. .. = .. . . . ym Am1 Am2 xn ... ... ... A1n x1 A2n x2 .. . . .. . . . Amn xn Die i-te Spalte der Darstellungsmatrix (Aij ) enthält somit die Koeffizienten der Basisdarstellung des Bildes A(~ei ) des i-ten Basisvektors von V bezüglich der Basis (f~1 , . . . , f~m ). Das Ergebnis des vorhergehenden Satzes kann durch das folgende Diagramm dargestellt werden: n X m X A xi~ei ∈ V yj f~j ∈ W j=1 i=1 Tv Tw (x1 , . . . , xm )> ∈ Rn > m (y1 , . . . , ym ) ∈ R x1 y1 x1 .. .. .. . → . = (Aij ) . xn ym xn Hierbei sind TV und TW die Isomorphismen, die einem Vektor in V bzw. in W das zugehörige Koordinatentupel im Rn bzw. Rm bzgl. der gegebenen Basis zuordnen. 15 ~e2 A~e2 A~e1 sin ϕ ϕ cos ϕ ~e1 Abbildung 0.3. Geometrische Interpretation einer Drehung um den Winkel ϕ. Beispiel Wir betrachten den Vektorraum V = R3 und wählen die kanonische Einheitsbasis 0 0 1 ~e1 = 0 , ~e2 = 1 , ~e3 = 0 1 0 0 als Basis. Weiter sei Dϕ die lineare Abbildung, die jeden Vektor in ~x ∈ V auf einen Vektor ~y ∈ V abbildet, der bezüglich der Achse in Richtung von ~e3 um das Bogenmaß ϕ gegen den Uhrzeigersinn gedrehten ist. Dann ist Dϕ eine lineare Abbildung. Die Bilder der Einheitsvektoren sind 0 − sin ϕ cos ϕ ϕ ϕ ϕ D (~e1 ) = sin ϕ , D (~e2 ) = cos ϕ , D (~e3 ) = 0 . 1 0 0 ϕ Mit dem vorhergehenden Satz folgt für die Darstellungsmatrix (Dij ) von Dϕ bezüglich der im identischen Start- und Zielraum identisch gewählten Basis ~e1 , ~e2 , ~e3 cos ϕ − sin ϕ 0 ϕ Dij = sin ϕ cos ϕ 0 . 0 0 1 Koordinatentransformation Die Darstellung von Vektoren durch Koordinatentupel und lineare Abbildungen durch Matrizen hängt von der Wahl der Basis ab. Oftmals ist es praktisch, unterschiedliche Basen zur Beschreibung technischer Vorgänge zu wählen. Dann ist es erforderlich, die Darstellung eines Vektors bezüglich einer Basis in die bezüglich einer anderen Basis umzurechnen. Gleiches gilt für die Matrixdarstellung linearer Abbildungen. Es seien (~e1 , . . . , ~en ) und (~e˜1 , . . . , ~e˜n ) zwei Basen des reellen Vektorraums V . Dann kann jeder Basisvektor der ersten Basis durch die Vektoren der 16 zweiten Basis dargestellt werden: ~ej = n X Tij ~e˜i , j = 1, . . . , n , (0.4) i=1 wobei det Tij 6= 0 gilt, das heißt, die Matrix (Tij ) ist invertierbar. Jeder Vektor ~x ∈ V kann nun bezüglich beider Basen dargestellt werden: ~x = n X xj ~ej = j=1 n X x̃i~e˜i . (0.5) i=1 Einsetzen von Gleichung (0.4) in die erste dieser Darstellungen ergibt ! n n n n n X X X X X Tij ~e˜i = Tij xj ~e˜i . ~x = xj ~ej = xj j=1 i=1 j=1 i=1 (0.6) j=1 Vergleich der Koeffizienten vor den Basisvektoren ~e˜j in den beiden Darstellungen (0.5) und (0.6) von ~x ergibt ! n X x̃i = Tij xj j=1 und somit folgt die Transformationsformel x1 x̃1 .. .. . = (Tij ) . . xn x̃n Wir fassen dies in einem Satz zusammen: Satz 0.11 Es seien (~e1 , . . . , ~en ) und (~e˜1 , . . . , ~e˜n ) zwei Basen des reellen Vektorraums V und ~ej = n X Tij ~e˜i , j = 1, . . . , n , i=1 die Basistransformation neu −→ alt“. Dann können die Koeffizienten eines Vektors ” ~x bezüglich der neuen Basis durch x̃i = n X Tij xj , i = 1, . . . , n j=1 aus den Koeffizienten bezüglich der alten Basis berechnet werden. Man sagt: Die KoeffizientenTransformation ist kontravariant zur Basistransformation. Auch dieser Zusammenhang kann durch ein Schaubild verdeutlicht werden: Hierbei ist T die Koordinatentransformation alte Koordinaten −→ neue Koordinaten“ und T > ” die Basistransformation neue Basis −→ alte Basis“. Ferner sind S : V −→ Rn und ” 17 ~x ∈ V mit ~e1 , . . . , ~en Basistransformation T> ~x ∈ V mit ~e˜1 , . . . , ~e˜n S S̃ (x1 , . . . , xm )> ∈ Rn > n (x̃1 , . . . , x̃n ) ∈ R x1 x1 x̃1 .. .. .. . → . = (Tij ) . xn x̃n xn S̃ : V −→ Rn die Koordinaten-Isomorphismen bezüglich der alten beziehungsweise bezüglich der neuen Basis. Bei Basiswechsel im Definitions- oder im Bildraum ändert sich entsprechend die Darstellungsmatrix einer linearen Abbildung. Durch eine analoge Rechnung wie zuvor kann gezeigt werden, dass der folgende Satz gilt. Satz 0.12 Gegeben seien zwei Vektorräume V und W und (~e1 , . . . , ~en ) sei eine Basis von V und (f~1 , . . . , f~m ) sei eine Basis von W . Weiter sei A eine lineare Abbildung A : V −→ W mit Darstellungsmatrix (Aij ) ∈ Rm×n bezüglich dieser Basen. Ferner seien (~e˜1 , . . . , ~e˜n ) ˜ ˜ und (f~1 , . . . , f~m ) weitere ( neue“) Basen von V bzw. von W . Die Koordinatentrans” formationen alte Koordinaten −→ neue Koordinaten“ werden durch die Matrizen ” (Tik ) ∈ Rn×n bzw. (Ujl ) ∈ Rm×m dargestellt. Dann gilt für Koeffizienten der Darstellungsmatrix (Ãkl ) bezüglich der neuen Basen (Ãij ) = (Uik )(Akl )(Tlj−1 ) 0.3 Euklidische Vektorräume Bei den eingangs genannten physikalischen Modellen, die als Motivation der abstrakten Definition eines Vektorraums dienten, tragen Längen und Winkel eine wichtige Bedeutung. In der Struktur Vektorraum“ alleine werden diese Eigenschaften der Mo” dell noch nicht berücksichtigt. Hierzu ist die Definition einer sogenannten Euklidischen Struktur für einen Vektorraum erforderlich. Für die Definition eines Skalarproduktes sind zunächst einige Begriffe bereitzustellen. Definition 0.13 (Bilinearform) Es sei V ein Vektorraum. Eine Abbildung h ·, · i : V × V −→ R, die in jedem einzelnen 18 ~b ~a Abbildung 0.4. Die Projektion des Vektors ~b auf den Vektor ~a. Argument linear ist, d.h., für die h α~x1 + β~x2 , ~y i = α h ~x1 , ~y i + β h ~x2 , ~y i h ~x, α~y1 + β~y2 i = α h ~x, ~y1 i + β h ~x, ~y2 i (~x, ~x1 , ~x2 , ~y , ~y1 , ~y2 ∈ V , α, β ∈ R) gilt, heißt Bilinearform. Definition 0.14 (Symmetrie und positive Definitheit) Es sei V ein Vektorraum und h ·, · i : V × V −→ R eine Bilinearform. Genau dann heißt h ·, · i • symmetrisch, wenn h ~x, ~y i = h ~y , ~x i für alle ~x, ~y ∈ V gilt, • positiv definit, wenn h ~x, ~x i > 0 für alle ~x ∈ V \ {~0} gilt. Definition 0.15 (Euklidischer Vektorraum) Eine auf einem Vektorraum V definierte Bilinearform h ·, · i : V × V −→ R, die symmetrisch und positiv definit ist, heißt Skalarprodukt auf V . Ein Vektorraum, auf dem ein Skalarprodukt definiert ist, heißt Euklidischer Vektorraum. Üblich ist auch die Schreibweise ~x · ~y = h ~x, ~y i , Beispiel ~x, ~y ∈ V . 1. Mit dem Skalarprodukt h ~x, ~y i := n X i=1 xi yi , x1 . ~x = .. , xn y1 .. ~y = . ∈ Rn yn wird der Rn zum euklidischen Vektorraum. Dieses Skalarprodukt heißt StandardSkalarprodukt des Rn . 2. Es seine α1 , . . . αn positive reelle Zahlen. Allgemeiner wird der Rn mit dem Ska- 19 larprodukt h ~x, ~y i := n X x1 y1 .. .. ~x = . , ~y = . ∈ Rn α i xi y i , i=1 xn yn zum euklidischen Vektorraum. 3. Der (unendlichdimensionale) Vektorraum C([a, b]) aller auf dem Intervall [a, b] stetigen Funktionen wird mit dem Skalarprodukt ˆb h f, g i = f (x)g(x) dx a zu einem Euklidischen Vektorraum. Sobald ein Skalarprodukt zur Verfügung steht, können Abstände und Winkel definiert werden. Definition 0.16 (Betrag) Es sei V ein euklidischer Vektorraum. Der Betrag x = |~x| des Vektors ~x ∈ V ist definiert durch √ x = |~x| := ~x · ~x . Bemerkung Im Falle des Standardskalarproduktes im Rn führt dies auf v u n uX |~x| = t x2i i=1 für ~x ∈ Rn (vgl.: Satz des Phythagoras). Definition 0.17 (Einheitsvektoren) Ein Vektor vom Betrag 1 heißt Einheitsvektor. Beispiel Es sei V ein euklidischer Vektorraum. 1. Jeder Vektor ~x ∈ V \ {~0} kann normiert werden: ~x0 = 1 ~x . |~x| Der Vektor ~x0 weist in die gleiche Richtung wie ~x, hat aber den Betrag 1. 20 2. Durch ~xϕ = ! cos ϕ , sin ϕ ϕ ∈ [0, 2π[ können alle Einheitsvektoren im R2 dargestellt werden. 3. Durch ~xϕ,ϑ cos ϕ cos ϑ = sin ϕ cos ϑ , sin ϑ h π πi ϕ ∈ [0, 2π[, ϑ ∈ − , 2 2 können alle Einheitsvektoren im R3 dargestellt werden (Koordinatensystem der Erdkugel). Definition 0.18 (Orthogonalität) Es sei V ein euklidischer Vektorraum. Der (unorientierte) Winkel α ∈ [0, π] zwischen ~x, ~y ∈ V \ {~0} ist definiert durch die Beziehung cos α = ~x · ~y . |~x||~y | Gilt ~x · ~y = 0, so heißen ~x und ~y orthogonal zueinander. Bemerkung Die Wohldefiniertheit des Winkels α in der vorausgehenden Definition basiert auf der Cauchy-Schwarzschen Ungleichung: ~x · ~y ≤ |~x||~y | , wobei Gleichheit genau dann eintritt, wenn ~x und ~y linear abhängig sind. Es sei V ein euklidischer Vektorraum der endlichen Dimension n, und (~e1 , . . . , ~en ) sei eine Basis von V . Ähnlich wie bei linearen Abbildungen ist auch bei Skalarprodukten das Abbildungsverhalten bereits durch die Wirkung des Skalarproduktes auf Paare von Einheitsvektoren (~ei , ~ej ) bestimmt. Es gilt Satz 0.19 Es sei V ein euklidischer Vektorraum und (~e1 , . . . , ~en ) eine Basis von V . Weiter sei gij = ~ei · ~ej , i = 1, . . . , n , j = 1, . . . , n das Skalarprodukt aus i-tem und j-tem Einheitsvektor. Dann gilt für das Skalarprodukt n n P P der Vektoren ~x = xi~ei ∈ V und ~y = yi~ei ∈ V die Darstellung i=1 i=1 ~x · ~y = n X n X i=1 j=1 gij xi yj = n X gij xi yj . i,j=1 21 Die Matrix (gij ) ist symmetrisch und positiv definit. Beispiel 1. Im Falle einer Basis (~e1 , . . . , ~en ) aus paarweise orthogonalen Vektoren (orthogonale Basis) besitzt (gij ) Diagonalgestalt. 2. Besteht eine orthogonale Basis nur aus Vektoren der Länge 1, so heißt sie Orthonormalbasis und (gij ) hat die Form der n × n-Einheitsmatrix, d.h., gij = δij , wobei δij das Kronecker-Symbol δij = 1 , i=j 0 , i 6= j ist. Wie die Darstellungsmatrix linearer Abbildungen ist auch (gij ) von der Wahl der Basis abhängig und zeigt ein charakteristisches Transformationsverhalten bei Basiswechsel. • Fourier-Darstellung von Vektoren: – ~g ∈ V , V euklidischer Vektorraum mit (~e1 , . . . , ~en ) n P – Orthonormalbasis: ~g = (~g − ~ei )~ei i=1 Satz 0.20 Es sei V ein euklidischer Vektorraum, (~e1 , . . . , ~en ) eine (alte) Basis von V mit (~ei ·~ej ) = (gij ). Ferner sei (~e˜1 , . . . , ~e˜n ) eine weitere (neu) Basis von V mit (~e˜i · ~e˜j ) = (g̃ij ). Ist (Tij ) ∈ Rn×n die Matrix der Koordinatentransformation alt −→ neu“, so gilt ” G̃ = T GT > . Beweis: Da die Gleichung n X n X gij xi xj = i=1 j=1 n X n X g˜ij x̃i x˜j i=1 j=1 gilt und δij = ~ei · ~ej , ist die alte Basis somit orthonormal. Für die neue Basis gilt: ! ! X X XX g˜k` = ~e˜k · ~e˜` = Tik~ei · Tj`~ej = Tik gij Tj` i j i Daraus folgt dann GT > 22 > T > = T G> T > = T GT > j Da zu jeder symmetrischen, positiv definite Matrix eine Basis gewählt werden kann, bezüglich der sie durch die Einheitsmatrix dargestellt wird, gilt Satz 0.21 Es sei V ein euklidischer Vektorraum mit einem Skalarprodukt, das bezüglich der Basis (~e1 , . . . , ~en ) durch (gij ) dargestellt werde. Dann gibt es eine Basis (~e˜1 , . . . , ~e˜n ) bezüglich der g̃ij = ~e˜i · ~e˜j = δij , i, j = 1, . . . , n gilt. Satz 0.22 Sind (~e1 , . . . , ~en ) und (~e˜1 , . . . , ~e˜n ) zwei Orthonormalbasen von V und ist T > = (Tij )> die Basistransformation neu“ −→ alt“, so gilt ” ” Tkj = e~˜k · ~ej . Beweis: Wir stellen einen neuen Basisvektor als Linearkombination der alten Basisvektoren dar: n X ~ej = Tij e~˜i i=1 Multiplikation eines alten Basisvektors von rechts liefert unter Ausnutzung der Orthogonalität n X ˜ ~ej · e~k = Tij e~˜i · e~˜n = Tkj , | {z } i=1 δik also die Behauptung. Beispiel Betrachte die kanonischen Basis E des R3 , mit 1 0 0 E :=(~e1 , ~e2 , ~e3 ), mit ~e1 = 0 , ~e2 = 1 , ~e3 = 0 0 1 0 Weiterhin betrachten wir die Orthonormalbasis Ẽ mit cos ϕ − sin ϕ 0 Ẽ = e~˜1 , e~˜2 , e~˜3 , mit e~˜1 = sin ϕ , e~˜2 = cos ϕ , e~˜3 = 0 0 0 1 ϕ ∈ [0, π] Für die Transformation gilt Tkj = e~˜k ·e~˜j = E˜jk . Somit ist die Koordinatentransformation alt”←→ neu”: ” ” cos ϕ + sin ϕ 0 T = Ẽ > = sin ϕ cos ϕ 0 0 0 1 23 Die Prüfung ergibt cos ϕ~e1 + sin ϕ~e2 7→ ~e˜1 und somit ist unsere Transformationsmatrix korrekt. Bemerkung −1 = (Sij )> , gilt: Für die Basistransformation alt”−→ neu” T > ” ” Sij = ~en · e~˜j beziehungsweise T> −1 =T und T −1 = T > , das heißt für eine Matrix die Orthonormale Vektoren auf Orthonormale Vektoren abbildet gilt: T −1 = T > . Skalarprodukte können verwendet werden, um Flächeninhalte, Rauminhalte oder dimensionsunabhängig allgemein Inhalte zu definieren: Zwei linear unabhängige Vektoren spannen ein Parallelogramm auf, drei ein Parallelepiped (Spat) und allgemein p linear unabhängige Vektoren einen p-dimensionalen Parallelflach. Definition 0.23 (Gramsche Determinante) Der Inhalt eines p- flachs ist definiert durch ~x · ~x ~x · ~x 1 1 1 2 ~x2 · ~x1 ~x2 · ~x2 2 ||~x1 , ~x2 , . . . , ~xp || = det(~xi · ~xj ) = . .. . .. ~xp · ~x1 ~xp · ~x2 . . . ~x1 · ~xp . . . ~x2 · ~xp .. .. . . . . . ~xp · ~xp Die Determinante auf der rechten Seite dieser Definition heißt Gramsche Determinante. Beispiel 1. Im Fall p = 1 gilt ||~x1 || = |~x1 | 2. Im Fall p = 2 gilt ||~x1 , ~x2 || = |~x1 ||~x2 || sin ϕ| , wobei ϕ der von ~x1 und ~x2 eingeschlossene Winkel ist. 0.4 Orientierung eines Vektorraumes Eine weitere Struktur, die erforderlich ist, um die relevanten Eigenschaften einiger elektromagnetischer Feldgrößen auf abstrakter Ebene beschreiben zu können, ist die 24 Orientierung. Die Orientierung eines endlichdimensionalen Vektorraumes bezüglich einer Referenzbasis1 (~e1 , . . . , ~en ) ist wie folgt definiert: Definition 0.24 (Die positive/negative Orientierung von Basen) Es sei V ein Vektorraum mit (Referenz-) Basis (~e1 , . . . , ~en ). Eine beliebige Basis (~e˜1 , . . . , ~e˜n ) von V heißt nun positiv orientiert, wenn die Transformationsmatrix (Tij )> ∈ Rn×n , mit der sie wieder in die Referenzbasis überführt wird, eine positive Determinante besitzt. Im Falle einer negativen Determinante heißt (~e˜1 , . . . , ~e˜n ) negativ orientiert. Bemerkung Wird im Falle des Rn die kanonische Einheitsbasis als Referenzbasis verwendet, so spricht man von der kanonischen Orientierung des Rn . 0.5 Vektorprodukt Satz und Definition 0.25 Es sei V ein orientierter dreidimensionaler Euklidischer Vektorraum. Dann gibt es genau eine Abbildung (· × ·) : V × V −→ V mit den folgenden Eigenschaften: Für alle ~x, ~y ∈ V und für ~z = ~x × ~y gilt 1. ~z · ~x = ~z · ~y = 0 , 2. |~z| = ||~x, ~y || = |~x||~y || sin ϕ| , wobei ϕ der von ~x und ~y eingeschlossene Winkel ist, und 3. im Falle ~z 6= ~0 ist (~x, ~y , ~z) eine positiv orientierte Basis von V . Man kann zeigen, dass das Vektorprodukt (· × ·) : V × V −→ V in einem orientierten dreidimensionalen Euklidischen Vektorraum V eine sogenannte alternierende bilineare Abbildung definiert: Definition 0.26 (bilineare Abbildung) Gegeben seien zwei Vektorräume V und W . Eine Abbildung b : V × V −→ W , die in jedem einzelnen Argument linear ist, d.h., für die b(α~x1 + β~x2 , ~y ) = αb(~x1 , ~y ) + βb(~x2 , ~y ) b(~x, α~y1 + β~y2 ) = αb(~x, ~y1 ) + βb(~x, ~y2 ) (~x, ~x1 , ~x2 , ~y , ~y1 , ~y2 ∈ V , α, β ∈ R) gilt, heißt bilineare Abbildung. 1 Ab jetzt wird die Reihenfolge der Basisvektoren wichtig. Daher werden sie als Zeilenvektor geschrieben. 25 ~a × ~b ~b ~ ~a × b ~a Abbildung 0.5. Geometrische Interpetation des Kreuzprodukts. Definition 0.27 (alternierende bilineare Abbildung) Gegeben seien Vektorräume V und W und eine bilineare Abbildung b : V × V −→ W . Genau dann heißt b alternierend, wenn für alle ~x, ~y ∈ V b(~x, ~y ) = −b(~y , ~x) gilt. Satz 0.28 Das Vektorprodukt (· × ·) : V × V −→ V in einem orientierten dreidimensionalen Euklidichen Vektorraum ist eine alternierende bilineare Abbildung. Wie auch bei linearen Abbildungen und beim Skalarprodukt kann eine Koordinatendarstellung des Vektorprodukts in einem orientierten dreidimensionalen Euklidischen Vektorraum hergeleitet werden. Satz 0.29 n P Es sei (~e1 , ~e2 , ~e3 ) eine positiv orientierte Orthonormalbasis. Ferner seine ~x = xi~ei und ~y = n P i=1 yi~ei . Dann gilt für ~z = ~x × ~y i=1 ~e1 ~x × ~y = x1 y1 x 2 = y2 ~e2 ~e3 x2 x3 y2 y3 x x x x x3 1 3 1 2 ~e1 − ~e2 + ~e3 y1 y2 y3 y1 y3 = (x2 y3 − y2 x3 ) ~e1 + (x3 y1 − y3 x1 ) ~e2 + (x1 y2 − y1 x2 ) ~e3 . 0.6 Mehrfache Produkte Definition 0.30 (Spatprodukt) Es sei V ein orientierter dreidimensionaler Euklidischer Vektorraum und ~x, ~y , ~z ∈ V . 26 a1 b1 a2 b2 c 1 = a2 b 3 − a3 b 2 a3 b3 c 2 = a3 b 1 − a1 b 3 a1 b1 c 3 = a1 b 2 − a2 b 1 a2 b2 Abbildung 0.6. Merkregel für das Kreuzprodukt ~z ~y ~x Abbildung 0.7. Spat (dreidimensionaler Parallelflach) Dann ist das Spatprodukt der drei Vektoren definiert durch [~x, ~y , ~z] :=(~x × ~y ) · ~z ∈ R . Das Spatprodukt stimmt mit dem sogenannten orientiertem Inhalt des Spats (dreidimensionaler Parallelflach) überein, der von den drei Vektoren ~x, ~y , ~z aufgespannt wird. Satz 0.31 Es sei V ein orientierte dreidimensionaler Euklidischer Vektorraum und ~x, ~y , ~z ∈ V . Dann gilt |(~x × ~y ) · ~z| = ||~x, ~y , ~z|| . Dabei ist das Spatprodukt genau dann positiv, wenn die drei Vektoren ~x, ~y , ~z eine positiv orientierte Basis von V definieren. 27 Insbesondere folgt, dass das Spatprodukt genau dann 0 ist, wenn die drei Vektoren linear abhängig sind und somit komplanar (d.h., sie liegen in einer Ebene). Aus dem obigen Satz kann direkt gefolgert werden, wie sich das Spatrprodukt bei vertauschen der Faktoren verhält. Folgerung 0.32 Werden die Vektoren einer Basis zyklisch vertauscht, so bleibt die Orientierung erhalten. Somit gilt (~x × ~y ) · ~z = (~z × ~x) · ~y = (~y × ~z) · ~x und (~y × ~x) · ~z = (~z × ~y ) · ~x = (~x × ~z) · ~y = −(~x × ~y ) · ~z . Nach Wahl einer positiv orientierten Orthonormalbasis (~e1 , ~e2 , ~e3 ) erhält man für ~x = 3 3 3 P P P xi~ei , ~y = yi~ei , ~z = zi~ei die folgende Darstellung entsprechend den Rechenrei=1 i=1 i=1 geln für die Koordinatendarstellungen von Vektorprodukt und Skalarprodukt: x x x x x x 1 2 1 3 2 3 (~x × ~y ) · ~z = z1 + z3 − z2 y1 y2 y1 y2 y2 y3 Bei Auswertung des Skalarproduktes von ~x × ~y und ~z wurde 0 , i 6= j ~ei · ~ej = δij = 1 , i = j beachtet. Somit folgt der Satz: Satz 0.33 Es sei (~e1 , ~e2 , ~e3 ) eine positiv orientierten Orhtonormalbasis und ~x = 3 P xi~ei , ~y = i=1 3 P i=1 yi~ei , ~z = 3 P zi~ei . Dann gilt i=1 x1 x2 x3 (~x × ~y ) · ~z = y1 y2 y3 z1 z2 z3 Definition 0.34 (doppeltes Vektorprodukt) Es sei V ein orientierter dreidimensionaler Euklidischer Vektorraum und ~x, ~y , ~z ∈ V . Das doppelte Vektorprodukt p~ ∈ V von ~x, ~y , ~z ist definiert durch p~ = ~x × (~y × ~z) Bemerkung Im allgemeinen gilt ~x × (~y × ~z) 6= (~x × ~y ) × ~z , 28 d.h., das Vektorprodukt ist nicht assoziativ. Das doppelte Vektorprodukt läßt sich durch Skalarprodukte ausdrücken: Satz 0.35 Es sei V ein orientierter dreidimensionaler Euklidischer Vektorraum und ~x, ~y , ~z ∈ V . Dann gilt ~x × (~y × ~z) = (~x · ~z)~y − (~x · ~y )~z (Gaßmannscher Entwicklungssatz). Der Beweis des Entwicklungssatzes kann erfolgen, indem die Vektoren ~x, ~y , ~z bezüglich einer positiv orientierten Orthonormalbasis von V dargestellt werden. Anschließend können durch Rechnen mit den Koordinaten dieser Darstellungen die Koordinaten der Basisdarstellung von ~x × (~y × ~z) bestimmt werden (linke Seite) sowie die von (~x ·~z)~y −(~x ·~y )~z (rechte Seite). Durch Vergleich der drei jeweils bestimmten Koordinaten kann der Entwicklungssatz verifiziert werden. Analog können auch die Lagrange-Identitäten bewiesen werden: Satz 0.36 Es sei V ein orientierter Euklidischer Vektrraum. Für alle ~a, ~b, ~c, d~ ∈ V gilt ~ = (~a · ~c)(~b · d) ~ − (~a · d)( ~ ~b · ~c) (~a × ~b) · (~c × d) ~ = ((~a × ~b) · d)~ ~ c − ((~a × ~b) · ~c)d. ~ (~a × ~b) × (~c × d) 29 1 Felder und Koordinatensysteme Übersicht 1.1 Der Ortsraum . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 1.2 Darstellung von Feldern . . . . . . . . . . . . . . . . . . . . . . 32 1.3 Krummlinige Koordinatensysteme . . . . . . . . . . . . . . . . . 33 Felder sind skalar- oder vektorwertige Funktionen, die örtlich variieren. Wir werden sehen, dass ihre Definitionsmenge als orientierter dreidimensionaler Euklidischer Vektorraum aufgefasst werden kann. Ihr Wertebereich kann ein Vektorraum (bzw. genauer: eine Familie ortsabhängiger Vektorräume) sein (Vektorfelder), oder die Menge der reellen Zahlen (Skalarfelder). In der Elektrodynamik hängen die betrachteten Felder zusätzlich von der Zeit ab. Die Zeitabhängigkeit wird durch Einführung eines zusätzlichen reellen Parameters berücksichtigt. Zunächst sollen jedoch nur räumlich variierende (stationäre) Felder betrachtet werden. 1.1 Der Ortsraum Als Modell für den physikalischen Raum in dem wir elektromagnetische Felder beschreiben wollen, wählen wir einen orientierten dreidimensionalen Euklidisch-affinen Raum E3 . Definition 1.1 (Orientierter dreidimensionale Euklidisch-affiner Raum) Gegeben sei eine Menge X von Punkten und ein dreidimensionaler Euklidischer Vektorraum V3 . Es gelte • Je zwei Punkten P, Q ∈ X ist ein Vektor ~rP Q ∈ V3 zugeordnet ( Verbindungsvek” tor“). • Jedem Punkt P ∈ X und jedem Vektor ~rP Q ∈ V3 ist ein Punkt Q ∈ X zugeordnet. • Für drei Punkte P, Q, R ∈ X gilt ~rP Q + ~rQR + ~rRP = ~0 (affine Struktur). Ferner ist 30 • der Abstand d(P, Q) zwischen zwei Punkten definiert durch d(P, Q) := p ~rP Q · ~rP Q , und entsprechend • der durch einen Scheitelpunkt“ P und zwei Schenkelpunkte“ Q, R gegebene ” ” Winkel über den Winkel der Verbindungsvektoren“ ~rP Q , ~rP R ” definiert (Euklididsche Struktur). Das Paar (X, V3 ) heißt dreidimensionaler Euklidisch-affiner Raum. Ist zusätzlich eine Orientierung auf V3 definiert, so heißt (X, V3 ) orientierter dreidimensionaler Euklidisch-affiner Raum. Um Feldgrößen handhaben zu können, benötigen wir Koordinatendarstellungen. Zuvor ist es erforderlich, die Punkte des affinen Raumes in geeigneter Weise umkehrbar eindeutig Vektoren zuzuordnen. . Definition 1.2 (Ortsvektoren) Es sei E3 = (X, V3 ) ein orientierter dreidimensionaler Euklidisch-affiner Raum und O ∈ X ein ausgewählter Punkt. Dann kann jeder Punkt P ∈ X von E3 umkehrbar eindeutig (bijektiv) seinem Verbindungsvektor ~rP = ~rOP ∈ V3 , dem sogenannten Ortsvektor, zugeordnet werden. Der Punkt O heißt Ursprung. Jetzt können durch Wahl einer Basis im Raum der Ortsvektoren jedem Punkt des affinen Raumes Koordinaten zugeordnet werden. Definition 1.3 (kartesischen Koordinaten) Gegeben sei der orientierte dreidimensionale Euklidisch-affine Raumes E3 mit Ursprung O. Ferner sei (~ex , ~ey , ~ez ) eine positiv orientierte Orthonormalbasis des zugehörigen Vektorraumes V3 . Schließlich sei P ein Punkt von E3 mit Ortsvektor ~rP . Dann sind die kartesischen Koordinaten (xP , yP , zP ) von P definiert als die Koeffizienten der Basisdarstellung ~rP = xP ~ex + yP ~ey + zP ~ez Bemerkung Die folgende Bezeichnung ist üblich bei elektromagnetischer Feldberechnung: Bezeichnung Symbol Bedeutung Aufpunkt Quellpunkt P Q ~r ~r0 ~ = ~r − ~r0 R interessierender Punkt Ursache des Feldes Ortsvektor von P Ortsvektor von Q Verbindungsvektor von Q nach P 31 1.2 Darstellung von Feldern Definition 1.4 (Skalar- und Vektorfelder) Gegeben sei eine Teilmenge (χ, V3 ) des orientierten dreidimensionalen Euklidisch-affinen Raumes E3 . Nach Wahl eines Ursprungs O sei Ω die Menge der zugehörigen Ortsvektoren. Eine Abbildung ϕ : Ω → R, ~r −→ ϕ(~r) ∈ R heißt Skalarfeld. Nach Wahl einer Basis kann Ω durch die zugeordnete Menge des R3 ersetzt werden. Die oben angeführte allgemeine Definition ist jedoch erforderlich, da bei praktischen Problemen durchaus Formulierungen mit unterschiedlichen Basen zu vergleichen sind. Die Definition eines Vektorfeldes ist schwieriger, da an verschiedenen Orten unterschiedliche Ursprünge gewählt werden (der Feldvektor wird im jeweiligen Aufpunkt verankert). Oft ist es auch sehr vorteilhaft, mit ortsveränderlichen Basisvektoren zu arbeiten. Daher wird jedem Punkt P in einer interessierenden Teilmenge χ des orientierten dreidimensionalen Euklidisch-affinen Raumes mit Ortsvektor ~r ∈ Ω ein eigener Vektorraum zugeordnet, der sogenannte Tangentialraum T~r Ω an Ω in ~r. Hierbei ist Ω die Menge aller Ortsvektoren, die der Punktmenge χ nach Wahl eines Ursprungs zugoeordnet sind. Definition 1.5 (Vektorfeld) Gegeben sei eine Teilmenge (χ, V3 ) des orientierten Euklidisch-affinen Raumes E3 . Nach Wahl eines Ursprungs O sei Ω die Menge der zugehörigen Ortsvektoren. Jedem Punkt P ∈ χ mit Ortsvektor ~r ∈ Ω sei ein Vektorraum T~r Ω, der sogenannte Tangentialraum, zugeordnet. Eine Abbildung ~a : Ω −→ [ T~r Ω , ~r 7−→ ~a(~r) ~ r∈Ω heißt Vektorfeld. Da wir jedem Ort in der Definitionsmenge Ω des Vektorfeldes einen eigenen Zielvektorraum zuordnen, benötigen wir für jedes ~r ∈ Ω eine eigene Basis (~e1 (~r), ~e2 (~r), ~e3 (~r)). Im einfachsten Fall kann ein konstantes Basisfeld durch Parallelverschiebung einer positiv orientierten Orthonormalbasis (~ex , ~ey , ~ez ) erzeugt werden. Man spricht dann von einem kartesischen Basisfeld. Definition 1.6 (kartesische Basisfeld) Gegeben sei ein kartesisches Basisfeld (~ex , ~ey , ~ez ) und ein Vektorfeld ~a(~r) auf Ω. Dann 32 gibt es Skalarfelder ax (~r), ay (~r), az (~r) : Ω → R so, dass ~a(~r) = ax (~r)~ex + ay (~r)~ey + az (~r)~ez gilt. Die Skalarfelder ax (~r), ay (~r), az (~r) heißen kartesische Koordinaten des Vektorfeldes ~a(~r). Die Vektorfelder ax (~r)~ex , ay (~r)~ey , az (~r)~ez heißen kartesische Komponenten des Vektorfeldes ~a(~r). Bemerkung Nach Einführung eines kartesischen Basisfeldes ordnet das Vektorfeld jedem Ortsvektor ~r ∈ Ω Koordinaten der Form ~r 7−→ (ax (~r), ay (~r), az (~r)) zu. Ist in Anwendungen klar, welches Basisfeld zugrunde liegt, wird in der Regel nicht explizit zwischen dem Feld und seiner Basisdarstellung unterschieden. 1.3 Krummlinige Koordinatensysteme Elektrotechnische Phänomene können oft wesentlich besser mathematisch beschrieben werden, wenn gegebene Symmetrien ausgenutzt werden. Hierzu ist es sinnvoll mit einem Koordinatensystem zu arbeiten, dass an diese Symmetrien angepasst ist, wie z.B. Zylinder- oder Kugelkoordinaten. Um solche Koordinatensysteme einführen zu können, sind zunächst einige Begriffe zu definieren: Im Folgenden gehen wir davon aus, dass (x, y, z) die kartesischen Koordinaten eines Punktes P im Raum E3 mit Ortsvektor ~r = x~ex + y~ey + z~ez ∈ V3 sind. Indem wir die kartesischen Koordinaten (x, y, z) von P als Funktionen aj ≤ u j ≤ b j , j = 1, 2, 3 mit (u1 , u2 , u3 ) ∈ (a1 , b1 ) × (a2 , b2 ) × (a3 , b3 ) auffassen, können wir unter geigneten Vorraussetzungen an diese Funktionen einen Punkt in E3 nicht nur durch seine kartesischen Koordinaten darstellen, sondern auch durch das zugehörige Tripel (u1 , u2 , u3 ). Dabei gilt a1 , a2 , a3 ∈ R∪{−∞} und b1 , b2 , b3 ∈ R ∪ {+∞}. Definition 1.7 (Koordinaten) Gegeben sei der dreidimensionale Euklidisch-affine Raum E3 mit zugeordnetem Vektorraum V3 mit einer Basis (~ex , ~ey , ~ez ). Weiter sei eine Menge M = (a1 , b1 ) × (a2 , b2 ) × 33 z ~r y x Abbildung 1.1. Kartesische Koordinaten im R3 . (a3 , b3 ) ∈ R3 gegeben, sowie eine in jeder Komponente stetig partiell differenzierbare injektive Abbildung ~r˜ : M −→ V3 mit ~r˜(u1 , u2 , u3 ) = x(u1 , u2 , u3 ) ~ex + y(u1 , u2 , u3 ) ~ey + z(u1 , u2 , u3 ) ~ez , die jedem Koordinatentripel (u1 , u2 , u3 ) ∈ M einen Ortsvektor ~r˜(u1 , u2 , u3 ) ∈ V3 zuordnet. Dann heißt das Tripel (u1 , u2 , u3 ) Koordinaten von ~r˜(u1 , u2 , u3 ). Definition 1.8 (Koordinatenlinien und Koordinatenfläche) Unter den Voraussetzungen der vorhergehenden Definition heißt die durch u1 7−→ ~r˜(u1 , c2 , c3 ) , definierte über c2 , c3 parametrisierte Kurvenschar u1 -Linien des Koordinatensystems, die durch u2 7−→ ~r˜(c1 , u2 , c3 ) definierte über c1 , c3 parametrisierte Kurvenschar u2 -Linien des Koordinatensystems und die durch u3 7−→ ~r˜(c1 , c2 , u3 ) definierte über c1 , c3 parametrisierte Kurvenschar u3 -Linien des Koordinatensystems. Jede dieser zweiparametrigen Kurvenscharen heißt Koordinatenlinien. Das durch ~r˜ definierte Koordinatensystem heißt krummlinig, sobald mindestens eine der drei Scharen von Koordinatenlinien eine gekrümmte Linie enthält. Eine Koordinatenfläche ist eine Fläche, auf der je eine der drei Koordinaten u1 , u2 , u3 konstant ist. 34 Ein Koordinatensystem definiert in kanonischer Weise ein Basisfeld: Satz 1.9 Durch ~r˜ : M −→ V3 , M ⊆ R3 sei ein (möglicherweise krummliniges) Koordinatensystem definiert. Dann definieren die Tangentenvektoren ~ti (~r), i = 1, 2, 3, an jeden Punkt P aus E3 mit Ortsvektor ~r = ~r˜(u1 , u2 , u3 ) ein Basisfeld: ~ti (~r) = = ∂~r˜ (u1 , u2 , u3 ) ∂ui ∂x ∂y ∂z (u1 , u2 , u3 ) ~ex + (u1 , u2 , u3 ) ~ey + (u1 , u2 , u3 ) ~ez . ∂ui ∂ui ∂ui Anders dargestellt, besagt der vorhergehende Satz, dass die Koordinatendarstellungen der Vektoren des Basisfeldes (~t1 (~r), ~t2 (~r)), ~t3 (~r)) bezüglich des kartesischen Basisfeldes unter Vernachlässigung der Argumentenliste (u1 , u2 , u3 ) die Form ∂x ∂u1 ∂y ∂u1 ∂z ∂u1 , ∂x ∂u2 ∂y ∂u2 ∂z ∂u2 , ∂x ∂u3 ∂y ∂u3 ∂z ∂u3 besitzen. Bemerkung Die lineare Unabhängigkeit der oben definierten Basisvektoren folgt aus der bijektiven Zuordnung der gegebenen und der kartesischen Koordinaten, die durch die Abbildung ~r˜ gegeben ist. Die geometrische Deutung der Basis (~t1 (~r), ~t2 (~r)), ~t3 (~r)) lautet wie folgt: In jedem Punkt P des Ortsraumes mit Ortsvektor ~r schneiden sich genau eine u1 -Linie, eine u2 -Linie und eine u3 -Linie. Der in P angetragene Basisvektor ~t1 (~r) ist tangential zur u1 -Linie, der in P angetragene Basisvektor ~t2 (~r) ist tangential zur u2 -Linie und der in P angetragene Basisvektor ~t3 (~r) ist tangential zur u3 -Linie. Daher kann durch Berechnung der Winkel zwischen diesen Basisvektoren ermittelt werden, in welchem Winkel sich die Koordinatenlinien schneiden. Definition 1.10 (orthogonale Koordinatensystem) Ein Koordinatensystem heißt orthogonal, wenn in jedem Punkt P mit Ortsvektor ~r die drei Basisvektoren ~t1 (~r), ~t2 (~r), ~t3 (~r) paarweise senkrecht stehen. Die Koordinatenlinien schneiden sich dann jeweils im rechten Winkel. Definition 1.11 (Maßstabskoeffizienten) 35 Die Maßstabskoeffizienten gi (~r) in einem orthogonalen Koordinatensystem sind definiert durch gi (~r) = |~ti (~r)| . Im folgenden gehen wir davon aus, dass die Tangentialvektoren stets so nummeriert sind, dass die Basis ~t1 (~r), ~t2 (~r), ~t3 (~r) positiv orientiert ist. Bemerkung Durch Normieren der Vektoren ~ti (~r) kann stets ein positiv orientiertes orthonormales Basisfeld ~ti (~r) , i = 1, . . . , 3 ~e˜i (~r) := gi (~r) erzeugt werden. Wir betrachten nun ein ortsabhängiges Vektorfeld ~a(~r), das wir einmal bezüglich eines kartesischen Basisfeldes (~e1 = ~ex , ~e2 = ~ey , ~e3 = ~ez ) und einmal bezüglich des orthonormalen Basisfeldes (~e˜1 , ~e˜2 , ~e˜3 ) darstellen, das durch krummlinige Koordinaten gegeben ist. Die Transformation am Ort ~r des durch die krummlinigen Koordinaten induzierten Basisfeldes auf das kartesische Basisfeld laute (T̃ij ). Basistransformation ~a (~r) ∈ T Ω~r mit ~e1 , ~e2 , ~e3 ~a (~r) ∈ T Ω~r mit ~e˜1 , ~e˜2 , ~e˜3 T> S (~a1 (~r) , ~a2 (~r) , ~a3 (~r))> ∈ R3 S̃ (Tij ) ˜1 (~r) , ~a ˜2 (~r) , ~a ˜3 (~r))> ∈ R3 (~a Satz 1.12 Durch ~r˜(u1 , u2 , u3 ) sei, wie zuvor beschrieben, ein Koordinatensystem definiert, und es gelte die Darstellung 3 X ˜ ~r(u1 , u2 , u3 ) = xj (u1 , u2 , u3 )~ej j=1 bezüglich des kartesischen Basisfeldes (~e1 , ~e2 , ~e3 ). Weiter sei 1 ∂xj T̃ji = ~e˜i · ~ej = , gi ∂ui wobei (~e˜1 , ~e˜2 , ~e˜3 ) ein positiv orientiertes orthonormales Basisfeld zum gegebenen (krummlinigen) Koordinatnesystems ist. Dann gilt für die Umrechnung der (kartesischen) Koordinaten a1 , a2 , a3 eines Vektorfeldes ~a(~r) = a1~e1 + a2~e2 + a3~e3 = ã1~e˜1 + ã2~e˜2 + ã3~e˜3 36 in krummlinigen Koordinaten e ai , i = 1, . . . , 3 die Transformationsformel e a1 a1 a2 = (Tij ) a2 e e a3 a3 Die Matrix T = (Tij ) entält zeilenweise die normierten Basisvektoren des krummlinigen Koordinatensystems. Geometrisch betrachtet, erhält man also e ai durch Projektion von e ~a(~r) auf den Basisvektor ~ei , denn es gilt e ai (~r) = ~a(~r) · e ~ei (~r). Wir fassen nocheinmal alle bisherigen Schritte, die erforderlich sind, um die Umrechnung der Koordinaten eines Vektorfeldes ~a(~r) von krummlinigen Koordinaten (ã1 (~r), ã2 (~r), ã3 (~r))> in kartesische Koordinaten (a1 (~r), a2 (~r), a3 (~r))> und umgekehrt durchzuführen: 1. Darstellung kartesischer Raumkoordinaten (x, y, z) als Funktion der krummlinigen Koordinaten (u1 , u2 , u3 ). 2. Bestimmung der Tangentenvektoren ~t1 , ~t2 , ~t3 durch Ableiten der Darstellung ~r(u1 , u2 , u3 ) = x(u1 , u2 , u3 ) ~e1 + y(u1 , u2 , u3 ) ~e2 + z(u1 , u2 , u3 ) ~e3 nach u1 , u2 , u3 . 3. Überprüfen, ob ~t1 , ~t2 , ~t3 paarweise orthogonal sind, Berechnen der Maßstabskoeffizienten g1 , g2 , g3 und Normieren: 1 ~e˜1 = ~t1 , g1 1 ~e˜2 = ~t2 , g2 1 ~e˜3 = ~t3 . g3 4. Die Transformationsmatrix (~e1 , ~e2 , ~e3 ) −→ (~e˜1 , ~e˜2 , ~e˜3 ) ist gegeben durch Tij = ~e˜i · ~ej . Damit gilt a1 (~r) ã1 (~r) > a2 (~r) = (Tij ) ã2 (~r) ã3 (~r) a3 (~r) und ã1 (~r) a1 (~r) ã2 (~r) = (Tij ) a2 (~r) . ã3 (~r) a3 (~r) 37 Die erste Umrechungsformel folgt, da für Orthonormalbasen stets T −1 = T > gilt. Diese Beziehung gilt für Matrizen mit orthonormalen Spalten- bzw. Zeilenvektoren. Im Falle von Kugelkoordinaten bedeutet dies: 1. Darstellung der kartesischen Koordinaten: x = r sin ϑ cos ϕ , y = r sin ϑ sin ϕ , z = r cos ϑ . 2. Tangentenvektoren (~t1 = ~tr , ~t2 = ~tϑ , ~t3 = ~tϕ ): ~t1 (~r) = sin ϑ cos ϕ ~e1 + sin ϑ sin ϕ ~e2 + cos ϑ ~e3 ~t2 (~r) =r cos ϑ cos ϕ ~e1 + r cos ϑ sin ϕ ~e2 − r sin ϑ ~e3 ~t3 (~r) = − r sin ϑ sin ϕ ~e1 + r sin ϑ cos ϕ ~e2 + 0 ~e3 3. Orthogonalität, Maßstabskoeffizienten und Normierung: ~e˜1 = ~t1 , 1 ~e˜2 = ~t2 , r ~e˜3 = 1 ~ t3 . r sin ϑ 4. Transformationsmatrix (~e1 , ~e2 , ~e3 ) −→ (~e˜1 , ~e˜2 , ~e˜3 ): sin ϑ cos ϕ sin ϑ sin ϕ cos ϑ (Tij ) = (~e˜i · ~ej ) = cos ϑ cos ϕ cos ϑ sin ϕ − sin ϑ . − sin ϕ cos ϕ 0 Damit gilt ax ãr sin ϑ cos ϕ + ãϑ cos ϑ cos ϕ − ãϕ sin ϕ ay = ãr sin ϑ sin ϕ + ãϑ cos ϑ sin ϕ + ãϕ cos ϕ ãr cos ϑ − ãϑ sin ϑ az und 38 ãr ax sin ϑ cos ϕ + ay sin ϑ sin ϕ + az cos ϑ ãϑ = ax cos ϑ cos ϕ + ay cos ϑ sin ϕ − az sin ϑ . ãϕ −ax sin ϕ + ay cos ϕ z ~er θ ~r ~eϕ ~eθ ϕ y x Abbildung 1.2. Kugelkoordinaten im R3 mit ϕ ∈ [0, 2π) und ϑ ∈ [0, π). z ρ ~ez ~eϕ ~eρ z r1 ϕ x y Abbildung 1.3. Zylinderkoordinaten im R3 mit ϕ ∈ [0, 2π]. 39 2 Integration Übersicht 2.1 Kurven . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 2.2 Flächen im dreidimensionalen Raum . . . . . . . . . . . . . . . . 48 2.3 Raumintegration bei kartesischen Koordinaten . . . . . . . . . . 58 2.4 Krummlinige Koordinaten . . . . . . . . . . . . . . . . . . . . . 62 In diesem Abschnitt behandeln wir das Thema Integration von Feldern“. Da wir un” terschiedliche Arten von Feldern im dreidimensionalen Raum behandeln, treten unterschiedliche Integrationsbegriffe auf, die sich bezüglich zweier Dinge unterscheiden: 1. der Menge über die Integriert wird 2. der Feldeigenschaft, bezüglich der integriert wird (Betrag, Fluss etc.) Zusammenfassend werden wir die folgenden Integraltypen behandeln: 1. Kurvenintegrale • Integrale skalarwertiger Funktionen bezüglich der Bogenlänge • Energie-Integrale 2. Flächenintegrale • Integrale skalarwertiger Funktionen bezüglich des skalaren Flächenelementes (z.B. Flächeninhalt) • Flussintegrale 3. Volumenintegrale 2.1 Kurven Wir Beginnen mir der Darstellung von Kurven im Raum. Definition 2.1 (Darstellung von Kurven) Gegeben sei ein Intervall [a, b] und ein orientierter dreidimensionaler Euklidischer Vektorraum V . Weiter sei eine stetige Funktion ~r : [a, b] −→ V 40 gegeben. Dann heißt ~r stückweise glatt, wenn es eine Zerlegung a = t0 < t1 < t2 < ... < tn = b des Intervalls [a, b] in n + 1 Teilstücke gibt, so dass die Einschränkung ~r|[tk ,tk+1 ] auf jedes durch diese Zerlegung definierte Teilintervall [tk , tk+1 ], k = 0, ..., n, stetig differenzierbar ist. In den Randpunkten tk , tk+1 wird jeweils die Existenz einseitiger Ableitungen gefordert. Definition 2.2 (Parameterdarstellung einer stückweise stetig differenzierbaren Kurve) Gegeben sei ein Intervall [a, b], ein orientierter dreidimensionaler Euklidischer Vektorraum V und eine stückweise glatte Funktion ~r : [a, b] −→ V . Ferner gelte d~r t ∈ [a, b] \ {t0 , . . . , tn } , ~r˙ (t) := (t) 6= 0 , dt wobei t0 , . . . , tn die Punkte sind, an denen ~r nicht differenzierbar ist. Dort existieren noch die jeweils einseitigen Ableitungen und sind ungleich ~0. Dann heißt ~r Parameterdarstellung einer (stückweise stetig differenzierbaren) Kurve C. Gibt es in (a, b) keine Ausnahmepunkte t1 , . . . tn−1 , so heißt ~r Parameterdarstellung einer stetig differenzierbaren Kurve. Der Vektor d~r ~r˙ (t) = (t) dt für t 6= ti , i = 0, . . . , n, heißt Tangentenvektor. Die Kurve C selber wird nicht nur über eine Parameterdarstellung dargestellt, sondern über eine ganze Klasse äquivalenter Darstellungen. Definition 2.3 (Umparametrisierung) Zwei Funktionen ~r1 : [a, b] −→ R und ~r2 : [α, β] −→ R gemäß Definition 2.2 heißen äquivalent, wenn eine sogenannte orientierungserhaltende Parametertransformation existiert, d.h. eine streng monoton steigende, stetige, stückweise stetig differenzierbare Selbstabbildung ϕ : [a, b] −→ [α, β] mit ϕ(a) = α und ϕ(b) = β so, dass ~r2 (t) = ~r1 (ϕ(t)) , t ∈ [a, b] gilt. Wir sagen, dass zwei äquivalente Funktionen ~r1 und ~r2 dieselbe Kurve in V parametrisieren. Definition 2.4 (Kurven) Es sei V ein orientierter dreidimensionaler Euklidischer Vektorraum. Dann ist eine Kurve C definiert als die Klasse aller ihrer Parameterdarstellungen. 41 Definition 2.5 (Parameterdarstellung einer Kurve) Gegeben sei eine Kurve C, und ~r : [a, b] −→ V sei eine Parameterdarstellung. Wir definieren die folgenden Eigenschaften: • Der Anfangspunkt von C ist gegeben durch den Ortsvektor ~r(a), der Endpunkt von C ist gegeben durch den Ortsvektor ~r(b). • Gilt ~r(a) = ~r(b), so heißt die Kurve geschlossen. Für ihren Rand ∂C gilt dann ∂C = ∅. • Ist C nicht geschlossen, so gilt für den Rand der Kurve ∂C = {~r(a), ~r(b)}. • Die Kurve C heißt doppelpunktfrei, wenn für a < t1 < t2 < b stets ~r(t1 ) 6= ~r(t2 ) gilt. • Der Träger |C| einer Kurve C ist definiert als die Menge {~x ∈ V : ~x = ~r(t) , für ein t ∈ [a, b]} . • Die Kurve C ist definiert durch die Parametrisierung ~r˜(t) = ~r(a + b − t) , t ∈ [a, b] . Bemerkung Während die Länge des Tangentenvektors von der gewählten Parameterdarstellung abhängt, besitzt eine stückweise stetig differenzierbare Kurve außerhalb der Ecken“, ” d.h. für t 6= ti , i = 0, . . . , n, eine eindeutige Tangentenrichtung ~τ0 (t) = ~r˙ (t) , |~r˙ (t)| die unabhängig ist von der gewählten Parameterdarstellung, und somit eine geometrische Eigenschaft der Kurve wiedergibt. Der Vektor ~τ0 (t) heißt Tangenteneinheitsvektor. Die Gleichung der Tangente (Geradengleichung) zum Parameterwert t ∈ [a, b] \ {t0 , . . . , tn } ist gegeben durch Tt : ~rTt (s) = ~r(t) + s~τ0 (t) , −∞ < s < ∞ . Für die Koordinaten des Tangentenvektors gilt in unterschiedlichen Koordinatensystemen die folgende Darstellung: Satz 2.6 Gegeben sei eine stetig differenzierbare Kurve C mit Parameterdarstellung ~r. Dann gilt 42 • In kartesischen Koordinaten: ~r(t) = x(t) ~ex + y(t) ~ey + z(t) ~ez und dx dy dz ~r˙ (t) = (t) ~ex + (t) ~ey + (t) ~ez . dt dt dt • In Zylinderkoordinaten: Die Transformationsmatrix von kartesischen Koordinaten nach Zylinderkoordinaten ist gegeben durch cos(ϕ) sin(ϕ) 0 T = − sin(ϕ) cos(ϕ) 0 0 0 1 also ist x(t) %(t) cos(ϕ(t)) %(t) T y(t) = T %(t) sin(ϕ(t)) = 0 . z(t) z(t) z(t) Es folgt ~r(t) = ρ(t) ~eρ (ϕ(t)) + z(t) ~ez und dϕ dz dρ ~r˙ (t) = (t) ~eρ (ϕ(t)) + ρ(t) (t) ~eϕ (ϕ(t)) + (t) ~ez . dt dt dt • In Kugelkoordinaten: Die Transformationsmatrix von kartesischen Koordinaten nach Kugelkoordinaten ist gegeben durch sin(ϑ) cos(ϕ) sin(ϑ) sin(ϕ) cos(ϑ) T = cos(ϑ) cos(ϕ) cos(ϑ) sin(ϕ) − sin(ϑ) . − sin(ϕ) cos(ϕ) 0 Damit ist x(t) r(t) sin(ϑ(t)) cos(ϕ(t)) r(t) T y(t) = T r(t) sin(ϑ(t)) sin(ϕ(t)) = 0 . z(t) r(t) cos(ϑ(t)) 0 Es folgt ~r(t) = r(t) ~er (ϑ(t), ϕ(t)) und dr dϑ dϕ ~r˙ (t) = (t) ~er (ϑ(t), ϕ(t)) + r(t) (t) ~eϑ (ϑ(t), ϕ(t)) + r(t) sin ϑ(t) (t) ~eϕ (ϕ(t)) . dt dt dt 43 Satz und Definition 2.7 (Bogenlänge) Gegeben sei eine glatte Kurve C im dreidimensionalen orientierten Euklidischen Vektorraum V . Weiter sei ~r : [a, b] −→ V eine Parameterdarstellung von C. Dann ist die Bogenlänge von C definiert durch ˆ n X ds := lim δ(Zn )→0 C |~r(tk ) − ~r(tk−1 )| , k=1 wobei (Zn ) eine Familie von Zerlegungen1 Zn : a = t0 < t1 < . . . < tn−1 < tn = b des Intervalls [a, b] in n Teilintervalle mit Feinheit δ(Zn ) := max (tk − tk−1 ) 1≤k≤n ist. Ferner gelte lim δ(Zn ) = 0 . n→∞ Zur Berechnung der Bogenlänge verwendet man die unmittelbar aus der Definition folgende Identität ˆ ˆb ds = |~r˙ (t)| dt . C a Die Bogenlänge ist unabhängig von der gewählten Parameterdarstellung (und vom gewählten Koordinatensystem). Das Symbol ds = |~r˙ (t)| dt heißt das skalare Linienelement. Bemerkung Die Länge einer stückweise glatten Kurve kann nun definiert werden, indem das Parameterintervall in endlich viele Teilintervalle so zerlegt wird, dass die Einschränkung der Parameterdarstellung auf eines der Teilintervalle jeweils eine glatte Kurve definiert. Die Länge der gegebenen Kurve ist definiert als die Summe der Längen der so entstandenen Teilkurven. 1 (j) auf die eigentlich erforderliche Doppelindizierung tk der Zerlegungspunkte – ein Index j ∈ N für die Nummer der Zerlegung und ein weiterer k mit 0 ≤ k ≤ n für die Nummer des jeweiligen Punktes innerhalb der jeweiligen Zerlegung wird zur Vereinfachung der Notation verzichtet 44 Integration bezüglich des skalaren Linienelementes Satz und Definition 2.8 (Kurvenintegral 1. Art) Gegeben sei eine glatte Kurve C im dreidimensionalen orientierten Euklidischen Vektorraum V mit Parameterdarstellung ~r : [a, b] −→ V . Weiter sei λ : V −→ R ein stetiges Skalarfeld. Dann ist das Kurvenintegral von λ über C definiert durch das Integral ˆ n X λ(~r) ds := lim λ(~r(ξk ))|~r(tk ) − ~r(tk−1 )| , δ(Zn )→0 C k=1 wobei (Zn ) eine Familie von Zerlegungen2 Zn : a = t0 < t1 < . . . < tn−1 < tn = b des Intervalls [a, b] in n Teilintervalle mit Feinheit δ(Zn ) = max (tk − tk−1 ) 1≤k≤n ist. Der Zwischenpunkt“ ξk kann jeweils beliebig im Intervall [tk−1 , tk ] gewählt werden3 . ” Ferner gelte lim δ(Zn ) = 0 . n→∞ Zur Berechnung des Kurvenintegrals bezüglich des skalaren Linienelements verwendet man die unmittelbar aus der Definition folgende Identität ˆ ˆb λ(~r(t))|~r˙ (t)| dt λ(~r) ds = C a Das Integral ist unabhängig von der gewählten Parameterdarstellung (und vom gewählten Koordinatensystem). Das Produkt λ(~r) ds kann als infinitesimale Ladung gedeutet werden, die daraus resultiert, dass die Ladungsdichte λ(~r) über eine infinitesimale Länge ds verteilt ist. Das Kurvenintegral bezüglich des skalaren Linienelementes summiert“ diese infinitesima” len Ladungen und ermittelt somit die Gesamtladung der Kurve C mit Ladungsbelegung λ(~r). 2 3 siehe vorhergehende Fußnote zur Doppelindizierung also z.B. ξk = tk−1 . 45 Bemerkung Die Berechnung des Kurvenintegrals über stückweise glatte Kurven wird wiederum definiert, indem das Parameterintervall in endlich viele Teilintervalle so zerlegt wird, dass die Einschränkung der Parameterdarstellung auf eines der Teilintervalle jeweils eine glatte Kurve definiert. Das Kurvenintegral über die gegebene Kurve ist dann definiert als die Summe aller einzelnen Integrale über die Teilkurven. Bemerkung Kurvenintegrale über Skalarfelder sind unabhängig von der Orientierung der Kurve: ˆ ˆ λ(~r) ds = λ(~r) ds −C C Satz und Definition 2.9 (Kurvenintegral 2. Art) Gegeben sei eine glatte Kurve C im dreidimensionalen orientierten Euklidischen Vektorraum V mit Parameterdarstellung ~r : [a, b] −→ V . Weiter sei ~a ein stetiges auf V definiertes Vektorfeld. Dann ist das Arbeitsintegral von ~a über C definiert durch ˆ ~a(~r) · d~r := lim δ(Zn )→0 C n X ~a(~r(ξk )) · (~r(tk ) − ~r(tk−1 )) , k=1 wobei (Zn ) eine Familie von Zerlegungen4 Zn : a = t0 < t1 < . . . < tn−1 < tn = b des Intervalls [a, b] in n Teilintervalle mit Feinheit δ(Zn ) = max (tk − tk−1 ) 1≤k≤n ist. Der Zwischenpunkt“ ξk kann jeweils beliebig im Intervall [tk−1 , tk ] gewählt werden5 . ” Ferner gelte lim δ(Zn ) = 0 . n→∞ Zur Berechnung des Arbeitsintegrals verwendet man die unmittelbar aus der Definition folgende Identität ˆb ˆ ~a(~r) · d~r = ~a(~r(t)) · ~r˙ (t) dt. C 4 5 a siehe vorhergehende Fußnote zur Doppelindizierung also z.B. ξk = tk−1 46 Das Integral ist unabhängig von der gewählten Parameterdarstellung (und vom gewählten Koordinatensystem). Das Symbol d~r := ~r˙ (t) dt heißt vektorielles Linienelement. Wegen ~a(~r) · d~r = ~a(~r) · ~r˙ (t)dt = ~a(~r) · ~r˙ (t) ˙ ~r(t) dt = ~a(~r) · ~τ0 (t) ds |~r˙ (t)| | {z } | {z } =ds =~ τ0 (t) ist der Ausdruck ~a(~r) · d~r ist das Produkt aus infinitesimaler Kurvenlänge ds und, bis auf Vorzeichen, dem Betrag der Projektion der Feldstärke ~a(~r) auf den Tangenteneinheitsvektor. Das Vorzeichen gibt an, ob die projezierte Komponente in Richtung der Kurve zeigt, oder entgegengesetzt. Im Falle eines Kraftfeldes ~a kann er somit als die geleistete Arbeit bei Durchlaufen des infinitesimalen Kurvenstücks der Länge ds gedeutet werden. Das Arbeitsintegral oder Kurvenintegral bezüglich des vektoriellen Linienelementes summiert“ jeweils diese infinitesimalen Energiedifferenzen und ergibt ” somit die resultierende Arbeit. Bemerkung Der Zusammenhang zwischen skalarem und vektoriellem Linienelement ist gegeben durch d~r = ~τ0 (~r) ds , wobei ~τ0 (~r) der Tangenteneinheitsvektor an C im Kurvenpunkt ~r ist. Daher kann das Arbeitsintegral als Kurvenintegral des Skalarfeldes ~a(~r)·~τ0 (~r) (Betrag der Komponente des Vektorfeldes in Richtung des Tangenteneinheitsvektors) aufgefasst werden: ˆ ˆ ~a(~r) · d~r = ~a(~r) · ~τ0 (~r) ds . C C Die vorhergehende Bemerkung erlaubt die Sichtweise, jedes der drei behandelten Typen von Kurvenintegralen als Integral eines speziellen Skalarfeldes bezüglich des skalaren Linienelementes ds aufzufassen: • Im Falle der Bogenlänge ist λ(~r) = 1 für alle ~r, • Im Falle der Integrals eines Skalarfeldes bezüglich des skalaren Linienelementes ist λ(~r) explizit gegeben, • Im Falle des Arbeitsintegrals ist λ(~r) = ~a(~r) · ~τ0 (~r), also bis auf das Vorzeichen der Betrag der Projektion des Feldvektors ~a(~r) auf den Tangenteneinheitsvektor ~τ0 (~r) an C in ~r. 47 Bemerkung Die Berechnung des Arbeitsintegrals über stückweise glatte Kurven wird wiederum definiert, indem das Parameterintervall in endlich viele Teilintervalle so zerlegt wird, dass die Einschränkung der Parameterdarstellung auf eines der Teilintervalle jeweils eine glatte Kurve definiert. Das Arbeitsintegral über die gegebene Kurve ist dann definiert als die Summe aller einzelnen Integrale über die Zerlegungskurven. Bemerkung Arbeitsintegrale wechseln ihr Vorzeichen bei Änderung der Orientierung der Kurve: ˆ ˆ ~a(~r) · d~r. ~a(~r) · d~r = − −C C Definition 2.10 Ist C eine geschlossene Kurve, so ist auch die Schreibweise ˛ ˆ ~a(~r) · d~r := C ~a(~r) · d~r C üblich. 2.2 Flächen im dreidimensionalen Raum Wieder bezeichnet V in diesem Abschnitt durchgängig einen orientierten dreidimensionalen Euklidischen Vektorraum. Wir werden nun drei verschiedene Integraltypen über Flächen im dreidimensionalen Raum einführen: • den Flächeninhalt • das Integral eines Skalarfeldes λ bezüglich des skalaren Flächenelementes • Flussintegrale (Flüsse) Analog zur Situation bei Kurvenintegralen können der erste und der dritte Integraltyp als Spezialfall des zweiten Integraltyps aufgefasst werden: Im ersten Fall wird das Skalarfeld λ als konstant 1 auf der Fläche gesetzt und im dritten Fall wird λ(~r) = ~a(~r) · ~n0 (~r) gesetzt, wobei ~a ein gegebenes Vektorfeld ist und ~n0 (~r) ein sogenannter normierter orientierter Normalenvektor an die Fläche am Ort ~r ist. Geometrisch gedeutet ist ~a(~r) · ~n0 (~r), bis auf das Vorzeichen, der Betrag der Komponenten von ~a senkrecht zur Fläche. Das Vorzeichen gibt an, in welche Richtung die Fläche von ~a durchströmt“ wird. ” 48 Darstellung von Flächen Wie Raumkurven werden wir auch Flächen durch Parameterdarstellungen beschreiben. Im Unterschied zu Kurven benötigen wir nun zwei Parameter, die ihrerseits auf einem ebenen (zweidimensionalen) Gebiet definiert sind. Als solche Parametergebiete eignen sich sogenannte Normalbereiche: Definition 2.11 (Normalbereich erster Art) Gegeben sei ein Intervall [a, b] und stetig differenzierbare Funktionen c, d : [a, b] −→ R mit c(u) ≤ d(u). Dann heißt die Menge B = {(u, v) ∈ R2 : a ≤ u ≤ b , c(u) ≤ v ≤ d(u)}. Normalbereich erster Art. Definition 2.12 (Normalbereich zweiter Art) Gegeben sei ein Intervall [c, d] und stetig differenzierbare Funktionen a, b : [c, d] −→ R mit a(v) ≤ b(v). Dann heißt die Menge B = {(u, v) ∈ R2 : c ≤ v ≤ d , a(v) ≤ u ≤ b(v)}. Normalbereich zweiter Art. v v d d a B B c a b u c u b (a) Normalbereich 1. Art. (b) Normalbereich 2. Art. Abbildung 2.1. Normalbereiche. Die Mengen, die wir für die Parametrisierung von Flächen im Raum heranziehen werden, dürfen noch ein wenig allgemeiner sein. Wir betrachten Teilmengen B ⊆ R2 mit den folgenden Eigenschaften: Definition 2.13 (reguläre Parameterbereich) Eine Menge B ⊆ R2 heißt regulärer Parameterbereich, wenn die folgenden Eigenschaften gelten: 49 • B \ ∂B 6= ∅ • B ist abgeschlossen (d.h. ∂B ⊆ B) und beschränkt • Durch endlich viele Schnitte parallel zu den Koordinatenachsen kann B in Normalbereiche erster und zweiter Art eingeteilt werden. Definition 2.14 (Parameterdarstellung einer stetig differenzierbaren Fläche) Es sei B ein regulärer Parameterbereich. Eine stetig partiell differenzierbare Funktion ~r : B −→ V , (u, v) 7−→ ~r(u, v) heißt Parameterdarstellung einer stetig differenzierbaren Fläche A (oder: Parameterdarstellung einer glatten Fläche A), wenn sie die folgenden Eigenschaften besitzt: • Die Tangentenvektoren ~tu (u, v) = ∂~r (u, v) , ∂u ~tv (u, v) = ∂~r (u, v) ∂v sind in jedem Punkt linear unabhängig, das heißt, es gilt ~n(u, v) = ~tu (u, v) × ~tv (u, v) 6= ~0 für alle (u, v) ∈ B. • Gibt es Parameterwerte (u1 , v1 ) und (u2 , v2 ) mit (u1 , v1 ) 6= (u2 , v2 ) und ~r(u1 , v1 ) = ~r(u2 , v2 ), so wird ~n(u1 , v1 ) = ~n(u2 , v2 ) gefordert. Der Vektor ~n(u, v) heißt Normalenvektor an A im Punkt ~r(u, v). Definition 2.15 (Parameterdarstellung einer stückweise stetig differenzierbaren Fläche) Es sei B ein regulärer Parameterbereich. Eine Funktion ~r : B −→ V , (u, v) 7−→ ~r(u, v) heißt Parameterdarstellung einer stückweise stetig differenzierbaren ( oder: stückweise glatten) Fläche A, wenn B durch endlich viele Schnitte längs stetig differenzierbarer Kurven in n ∈ N reguläre Bereiche Bk , 1 ≤ k ≤ n zerlegt werden kann, und die Einschränkung von ~r auf Bk jeweils eine stetig differenzierbare Fläche parametrisiert. Auf dem Rand eines Teilbereiches, in dem ~r stetig differenzierbar ist, reicht es, wenn ~n(u, v) = ∂~r ∂~r (u, v) × (u, v) ∂u ∂v jeweils eine stetige Fortsetzung besitzt. Die Bedingung ~n(u1 , v1 ) = ~n(u2 , v2 ) muß an diesen Rändern ebenfalls nur im Sinne einer stetigen Fortsetzung von ~n erfüllt sein. 50 Definition 2.16 (Parameterlinien) Es sei A eine Fläche, die über ~r : B −→ V parametrisiert werde. Die Kurvenscharen Cv : u 7−→ ~r(u, v) Cu : v 7−→ ~r(u, v) heißen u-Linien bzw. v-Linien der Fläche A (allgemein: Parameterlinien). Bemerkung Aus der stetigen Differenzierbarkeit der Parameterdarstellung folgt, dass die Parameterlinien Cv und Cu stetig differenzierbare Kurven sind. Satz und Definition 2.17 (Normalenvektor) In jedem Punkt einer stetig differenzierbaren Fläche A ist durch den Normalenvektor eine bis aufs Vorzeichen eindeutige Normalenrichtung ~n0 (u, v) = ± ~n(u, v) |~n(u, v)| gegeben. Ist es möglich, in jedem Punkt von A die Tangentenvektoren ~tu (u, v) = ∂~r (u, v) , ∂u ~tv (u, v) = ∂~r (u, v) ∂v durch ~n0 (u, v) zu einer positiv orientierten Basis von V zu ergänzen, so wählen wir das entsprechende Vorzeichen in der Definition von ~n0 (u, v). Hierdurch ist eine Orientierung von A definiert. Bemerkung Nicht jede Fläche in V ist orientierbar . Abbildung 2.2. Das Möbiusband als Beispiel für unorientierte Flächen. 51 Definition 2.18 (Tangentialebene) Gegeben sei eine stetig differenzierbare Fäche A mit Parameterdarstellung ~r. Die Tangentialebene T(u,v) ist definiert als die Ebene in V , die von den Tangentialvektoren an die Parameterlinien im Punkt ~r(u, v) aufgespannt wird. Wie im Falle von Kurven wird auch das Integral über Flächen zurückgezogen zu einem Integral im Parameterbereich. Da Parameterbereiche für Flächen zweidimensional sind, erinnern wir hier zunächst an das Mehrfachintegral über einen Bereich im R2 : Definition 2.19 (Integration im Parameterbereich) Gegeben sei ein regulärer Parameterbereich B und ein stetiges Skalarfeld f : B mapstoR. Weiter sei B̃ = [a, b] × [c, d] ein Rechteck mit B ⊆ B̃ und (Zk ) eine Familie von Zerlegungen6 von B̃ in m · n achsenparallele Rechtecke [ui−1 , ui ] × [vj−1 , vj ], i = 1, . . . , m, j = 1, . . . , n, mit Kantenlängen ∆ui = ui − ui−1 bzw. ∆vj = vj − vj−1 mit Feinheit q ∆u2i + ∆vj2 . δ(Zk ) = i=1,...,m max j=1,...,n Ferner gelte lim δ(Zk ) = 0 . k→∞ Dann ist das Integral von f über B definiert durch x f (u, v) du dv := lim m X n X δ(Zk )→0 B wobei f˜(u, v) := f˜(ξi , ηj )∆ui ∆vj , i=1 j=1 f (u, v) , (u, v) ∈ B 0 , (u, v) ∈ /B und (ξi , ηj ) beliebige Punkte mit ui−1 ≤ ξj ≤ ui und vj−1 ≤ ηj ≤ vj sind. Unmittelbar aus der Definition des vorhergehenden Satzes folgt die Identität ˆd ˆb ˆb ˆd x f (u, v) du dv = f˜(u, v) du dv = f˜(u, v) dv du . B c a a c In der Praxis möchte man aber nicht erst die fortgesetzte Funktion f˜ konstruieren. Daher ist folgendes Vorgehen sinnvoll: 1. Zerlege B durch endlich viele Schritte in endlich viele Normalbereiche N1 , N2 , . . . , Nn erster oder zweiter Art. 6 (k) (k) auf die eigentlich erforderliche Doppelindizierung ui = ui , vj = vj der Zerlegungspunkte – ein Index k ∈ N für die Nummer der Zerlegung und jeweils ein weiterer i bzw. j mit 1 ≤ i ≤ m bzw. 1 ≤ j ≤ n für die Nummer des jeweiligen Punktes innerhalb der jeweiligen Zerlegung – wird zur Vereinfachung der Notation verzichtet. 52 2. Berechne die Doppelintegrale über N1 , N2 , . . . , Nn wie im folgenden Satz beschrieben. 3. Es gilt x f (u, v) du dv = n x X f (u, v) du dv k=1 Nk B Satz 2.20 Gegeben sein ein Normalbereich B und ein stetiges Skalarfeld f : B −→ R . Dann gilt: 1. Ist B ein Normalbereich 1. Art, d.h. B = {(u, v) ∈ R2 : a ≤ u ≤ b , c(u) ≤ v ≤ d(u)} , so gilt x ˆb f (u, v) du dv = B ˆd(u) f (u, v) dv du a c(u) 2. Ist B ein Normalbereich 2. Art, d.h. B = {(u, v) ∈ R2 : c ≤ v ≤ d , a(v) ≤ u ≤ b(v)} , so gilt x B ˆd f (u, v) du dv = c ˆb(v) f (u, v) du dv . a(v) Zusammenfassend kann man sagen, dass die Integration über einen Normalbereich wie folgt durchgeführt wird: • (Mindestens) eine Variable hat feste Grenzen. Bezüglich ihr wird zum Schluss integriert (äußeres Integral). • Die Grenzen der zweiten Variable dürfen von der ersten (der mit festen Grenzen) abhängen. Nach der zweiten Variable wird zuerst integriert (inneres Integral). Das Ergebnis der Integration darf noch von der ersten Variable (der mit den festen Grenzen) abhängig sein. Diese hat die Rolle eines Parameters im inneren Integral. Satz und Definition 2.21 (Flächeninhalt) Gegeben sei eine glatte Fläche A in V mit Parameterdarstellung ~r : B −→ V 53 auf dem regulären Parameterbereich B. Weiter sei B̃ = [a, b] × [c, d] ein Rechteck mit B ⊆ B̃ und (Zk ) eine Familie von Zerlegungen7 von B̃ in m·n achsenparallele Rechtecke [ui−1 , ui ] × [vj−1 , vj ], i = 1, . . . , m, j = 1, . . . , n, mit Kantenlängen ∆ui = ui − ui−1 bzw. ∆vj = vj − vj−1 mit Feinheit q ∆u2i + ∆vj2 . δ(Zk ) = i=1,...,m max j=1,...,n Ferner gelte lim δ(Zk ) = 0 . k→∞ Dann ist der Flächeninhalt von A definiert durch x m X n X dA := lim δ(Zk )→0 A ∆Aij . i=1 j=1 Hierbei ist ∆Aij • die Fläche des Parallelogramms mit Ecken ~r(ui−1 , vj−1 ), ~r(ui−1 , vj ) und ~r(ui , vj−1 ) + ~r(ui−1 , vj ) − ~r(ui−1 , vj−1 ) im Falle (ui−1 , vj−1 ) ∈ B, ~r(ui , vj−1 ), • =0 im Falle (ui−1 , vj−1 ) ∈ / B. Zur Berechnung des Flächeninhalts verwendet man die unmittelbar aus der Definition folgende Identität x ∂~r x x ∂~r du dv . |~n(u, v)| du dv = dA = (u, v) × (u, v) ∂u ∂v A B B Der Flächeninhalt ist unabhängig von der gewählten Parameterdarstellung. Das Symbol dA = |~n(u, v)| du dv heißt das skalare Flächenelement. Bemerkung Der Flächeninhalt einer stückweise glatten Fläche kann nun definiert werden, indem der Parameterbereich in endlich viele Teilbereiche so zerlegt wird, dass die Einschränkung der Parameterdarstellung auf einen der Teilbereiche jeweils eine glatte Fläche definiert. Der Inhalt der gegebenen Fläche ist definiert als die Summe der Inhalte der so entstandenen Teilflächen. 7 (k) (k) auf die eigentlich erforderliche Doppelindizierung ui = ui , vj = vj der Zerlegungspunkte – ein Index k ∈ N für die Nummer der Zerlegung und jeweils ein weiterer i bzw. j mit 1 ≤ i ≤ m bzw. 1 ≤ j ≤ n für die Nummer des jeweiligen Punktes innerhalb der jeweiligen Zerlegung wird zur Vereinfachung der Notation verzichtet. 54 Satz und Definition 2.22 (Integration bezüglich des skalaren Flächenelements) Gegeben sei eine glatte Fläche A in V mit Parameterdarstellung ~r : B −→ V auf dem regulären Parameterbereich B. Wieder sei B̃ = [a, b] × [c, d] ein Rechteck mit B ⊆ B̃ und (Zk ) eine Familie von Zerlegungen8 von B̃ in m·n achsenparallele Rechtecke [ui−1 , ui ] × [vj−1 , vj ], i = 1, . . . , m, j = 1, . . . , n, mit Kantenlängen ∆ui = ui − ui−1 bzw. ∆vj = vj − vj−1 mit Feinheit q ∆u2i + ∆vj2 . δ(Zk ) = i=1,...,m max j=1,...,n Ferner gelte lim δ(Zk ) = 0 . k→∞ Schließlich sei λ : A→R ein stetiges Skalarfeld. Dann ist das Flächenintegral von λ über A bezüglich des skalaren Flächenelements dA definiert durch m X n x X λ(~r) dA := lim λ(~r(ui−1 , vj−1 ))∆Aij . δ(Zk )→0 A i=1 j=1 Hierbei ist ∆Aij • die Fläche des Parallelogramms mit Ecken ~r(ui−1 , vj−1 ), ~r(ui−1 , vj ) und ~r(ui , vj−1 ) + ~r(ui−1 , vj ) − ~r(ui−1 , vj−1 ) im Falle (ui−1 , vj−1 ) ∈ B, ~r(ui , vj−1 ), • =0 im Falle (ui−1 , vj−1 ) ∈ / B. Zur Berechnung des Flächenintegrals verwendet man die unmittelbar aus der Definition folgende Identität x x λ(~r) dA = λ(~r(u, v)) |~n(u, v)| du dv . A B Das Flächenintegral ist unabhängig von der gewählten Parameterdarstellung. Bemerkung Es ist nicht wesentlich, dass jeweils genau der Wert λ(~r(ui−1 , vj−1 )) im Punkt ~r(ui−1 , vj−1 ) verwendet wird. Jeder Punkt ~r(ξj , ηj ) mit ui−1 ≤ ξi ≤ ui und vj−1 ≤ ηj ≤ vj kann herangezogen werden, ohne, dass sich die Konvergenzeigenschaften der Riemann-Summe oder der Wert des Integrals ändern. 8 auf die eigentlich erforderliche Doppelindizierung (siehe oben) wird zur Vereinfachung der Notation verzichtet. 55 Bemerkung Das Produkt λ(~r) dA kann als infinitesimale Ladung gedeutet werden, die daraus resultiert, dass die Flächen-Ladungsdichte λ(~r) über eine infinitesimale Fläche mit Inhalt dA verteilt ist. Das Integral bezüglich des skalaren Flächenelementes summiert“ die” se infinitesimalen Ladungen und ermittelt somit die Gesamtladung der Fläche A mit Ladungsbelegung λ(~r). Bemerkung Das Integral über eine stückweise glatte Fläche kann nun definiert werden, indem der Parameterbereich in endlich viele Teilbereiche so zerlegt wird, dass die Einschränkung der Parameterdarstellung auf einen der Teilbereiche jeweils eine glatte Fläche definiert. Das Integral über die gegebene Fläche ist definiert als die Summe der Inhalte der so entstandenen Teilflächen. Bemerkung Flächenintegrale bezüglich des skalaren Flächenelements sind unabhängig von der Orientierung der Fläche. Satz und Definition 2.23 (Flussintegrale) Gegeben sei eine glatte Fläche A in V mit Parameterdarstellung ~r : B −→ V auf dem regulären Parameterbereich B. Wieder sei B̃ = [a, b] × [c, d] ein Rechteck mit B ⊆ B̃ und (Zk ) eine Familie von Zerlegungen9 von B̃ in m·n achsenparallele Rechtecke [ui−1 , ui ] × [vj−1 , vj ], i = 1, . . . , m, j = 1, . . . , n, mit Kantenlängen ∆ui = ui − ui−1 bzw. ∆vj = vj − vj−1 mit Feinheit q ∆u2i + ∆vj2 . δ(Zk ) = i=1,...,m max j=1,...,n Ferner gelte lim δ(Zk ) = 0 . k→∞ Schließlich sei ~a ein auf A definiertes stetiges Vektorfeld. Dann ist das Flussintegral von ~a über A definiert durch x A ~ := lim ~a(~r) · dA δ(Zk )→0 m X n X ~a(~r(ui−1 , vj−1 )) · ~n0,ij ∆Aij . i=1 j=1 Hierbei wurden folgende Bezeichnungen gewählt: 9 auf die eigentlich erforderliche Doppelindizierung (siehe oben) wird zur Vereinfachung der Notation verzichtet. 56 • Im Falle (ui−1 , vj−1 ) ∈ B ist ∆Aij die Fläche des Parallelogramms mit Ecken ~r(ui−1 , vj−1 ), ~r(ui , vj−1 ), ~r(ui−1 , vj ) und ~r(ui , vj−1 ) + ~r(ui−1 , vj ) − ~r(ui−1 , vj−1 ) und ~n0,ij ein normierter Normalenvektor an A in (ui−1 , vj−1 ). • Im Falle (ui−1 , vj−1 ) ∈ / B ist ~ ∆Aij ~n0,ij = 0. Zur Berechnung des Flächenintegrals verwendet man die unmittelbar aus der Definition folgende Identität x x ~= ~a(~r) · dA ~a(~r(u, v)) · ~n(u, v) du dv . A B Das Flussintegral ändert sich nicht bei Änderung der Parametrisierung der Fläche, sofern dabei nicht die Orientierung der Fläche verändert wird. Das Symbol ~= dA ~n(u, v) dA = ~n(u, v) du dv |~n(u, v)| heißt vektorielles Flächenelement. Bemerkung Wie zuvor hätte wiederum jeder Punkt ~r(ξij , ηij ) mit ui−1 ≤ ξij ≤ ui und vj−1 ≤ ηij ≤ vj für die Definition des Integrals herangezogen werden können. Bemerkung 1. Das Produkt ~ = ~a(~r) · ~n0 (~r) dA ~a(~r) · dA mit dem normierten Normalenvektor ~n0 (~r) am Ort ~r auf A kann als Fluss des Feldes durch ein infinitesimales Flächenelement der Größe dA gedeutet werden. Das Flussintegral summiert“ diese infinitesimalen Flüsse und ermittelt somit ” den Gesamtfluss des Feldes ~a durch die Fläche A. Hierbei ist die durch die Orientierung der Fläche definierte Richtung der Normalen ~n0 (~r) entscheident. 2. Das Flussintegral kann als Integral des Skalarfeldes λ mit λ(~r) = ~a(~r) · ~n0 (~r) bezüglich des skalaren Flächenelements dA gedeutet werden. Bemerkung Das Flussintegral über eine stückweise glatte Fläche kann nun definiert werden, indem der Parameterbereich in endlich viele Teilbereiche so zerlegt wird, dass die Einschränkung der Parameterdarstellung auf einen der Teilbereiche jeweils eine glatte Fläche definiert. Das Integral über die gegebene Fläche ist definiert als die Summe der Inhalte der so entstandenen Teilflächen. 57 Bemerkung Flussintegrale wechseln ihr Vorzeichen bei Änderung der Orientierung einer Fläche A1 = A zu A2 = −A: Sind z.B. ~r1 (u.v) und ~r2 (u, v) zwei Parametrisierungen mit ~n0,2 (u, v) = −~n0,1 (u, v) , wobei und ∂~r1 (u, v) × ~n0,1 (u, v) = ∂u ∂~r1 (u, v) × ∂u ∂~r1 (u, v) ∂v ∂~r1 (u, v) ∂v ∂~r2 (u, v) × ∂u ~n0,2 (u, v) = ∂~r2 (u, v) × ∂u ∂~r2 (u, v) ∂v ∂~r2 (u, v) ∂v sind, so gilt ~ 1 = −dA ~2 dA und x ~1 = − ~a(~r) · dA A1 x ~2 . ~a(~r) · dA A2 Definition 2.24 (Geschlossene Fläche) Ist A eine Fläche ohne Rand, so nennt man A auch geschlossene Fläche. Für geschlossene Flächen ist auch die folgende Schreibweise üblich: { x ~ ~. := ~a(~r) · dA ~a(~r) · dA A A 2.3 Raumintegration bei kartesischen Koordinaten Bei Körpern tritt nur der Fall der Integration eines Skalarfeldes λ(~r) bezüglich des skalaren Volumenelements dV auf. • Ist λ(~r) = 1 für alle ~r, so führt die Integration auf den Rauminhalt des gegebenen Körpers. • Wird λ(~r) als Raumladungsdichte interpretiert, so ist das Volumenintegral die Gesamtladung des Körpers. • Wird λ(~r) als Massendichte interpretiert, so ist das Volumenintegral die Gesamtladung des Körpers. In kartesischen Koordinaten kann die Integration über sogenannte Normalbereiche direkt ausgeführt werden (siehe unten). Für die Integration über kompliziertere Mengen 58 B B a c b u B d v Abbildung 2.3. Der dreidimensionale Normalbereich in kartesischen Koordinaten wird angestrebt, die gegebene Menge durch endlich viele Schnitte in Normalbereiche zu zerlegen. Der Integralwert über die gegebene Menge ist dann die Summe der Integrale über die einzelnen Normalbereiche. Liegt die Beschreibung eines Körpers in krummlinigen Koordinaten vor, so kann die Integration oft durch die Transformationsformel auf eine Integration über Normalbereiche (oder deren Vereinigung) zurückgeführt werden. Zunächst definieren wir die Mengen, über die integriert werden soll. Definition 2.25 (Normalbereich) Gegeben sei ein Intervall [a, b], stetig differenzierbare Funktionen c, d : [a, b] −→ R mit c(u) ≤ d(u) und stetig differenzierbare Funktionen Φ, Ψ : {(u, v) ∈ R2 : a ≤ u ≤ b , c(u) ≤ v ≤ d(u)} =: D −→ R mit Φ(u, v) ≤ Ψ(u, v) für alle (u, v) ∈ D . Dann heißt die Menge B = {(u, v, w) ∈ R3 : a ≤ u ≤ b , c(u) ≤ v ≤ d(u) , Φ(u, v) ≤ w ≤ Ψ(u, v)} (dreidimensionaler) Normalbereich. Bemerkung Analog können fünf weitere Arten von Normalbereichen mit geänderter Reihenfolge der Variablen definiert werden. Die Mengen, über die wir in kartesischen Koordinaten integrieren, dürfen noch allgemeiner sein. Wir betrachten Teilmengen B ⊆ R3 mit den folgenden Eigenschaften: Definition 2.26 (Reguläre Bereich) Eine Menge B ⊆ R3 heißt regulärer Bereich, wenn die folgenden Eigenschaften gelten: 59 • B ist abgeschlossen (d.h. ∂B ⊆ B) und beschränkt • B \ ∂B 6= ∅ • Durch endlich viele Schnitte parallel zu den Koordinatenachsen kann B in Normalbereiche eingeteilt werden. Beispiel Gegeben sei T = {0 ≤ x ≤ 1, 0 ≤ y ≤ 1 − x, 0 ≤ z ≤ 1 − x − y} mit x, y, z ∈ R3 ein Bereich des R3 . z y x Es soll das Dreifachintegral gelöst werden: y ˆ ˆ1 ˆ1−x 1−x−y x2 + y 2 x2 + y 2 dzdydx dzdydx = T 0 0 1 1−x ˆ ˆ 0 z=1−x−y dydx z x + y 2 = 0 0 1 1−x ˆ ˆ 2 z=0 (1 − x − y) x2 + y 2 dydx = 0 0 ˆ1 ˆ1−x x2 + y 2 − x3 − xy 2 − yx2 − y 3 dydx = 0 ˆ1 = 0 (x − 1)2 (7x2 − 2x + 1) dx 12 0 = 1 . 30 Definition 2.27 Gegeben sei ein regulärer Bereich B und ein stetiges Skalarfeld f : B 7→ R. Weiter 60 sei B̃ = [a, b] × [c, d] × [g, h] ein Rechteck mit B ⊆ B̃ und (Z` ) eine Familie von Zerlegungen10 von B̃ in m·n·p achsenparallele Quader [ui−1 , ui ]×[vj−1 , vj ]×[wk−1 , wk ], i = 1, . . . , m, j = 1, . . . , n, k = 1, . . . , p mit Kantenlängen ∆ui := ui − ui−1 , ∆vj := vj − vj−1 bzw. ∆wk := wk − wk−1 mit Feinheit q ∆u2i + ∆vj2 + ∆wk2 . δ(Z` ) := i=1,...,m max j=1,...,n k=1,...,p Ferner gelte lim δ(Z` ) = 0 . `→∞ Dann ist das Integral von f über B definiert durch y p m X n X X f (u, v, w) du dv dw := lim δ(Z` )→0 B wobei f˜(u, v, w) := f˜(ξi , ηj , ζk )∆ui ∆vj ∆wk , i=1 j=1 k=1 f (u, v, w) , (u, v, w) ∈ B 0 , (u, v, w) ∈ /B und (ξi , ηj , ζk ) beliebige Punkte mit ui−1 ≤ ξi ≤ ui , vj−1 ≤ ηj ≤ vj und wk−1 ≤ ζk ≤ wk sind. Unmittelbar aus der Definition des vorhergehenden Satzes folgt die Identität ˆh ˆd ˆb y f (u, v, w) du dv dw = f˜(u, v, w) du dv dw B g ˆb = a c a d h ˆ ˆ f˜(u, v, w) dw dv du c g = ... (alle sechs Reihenfolgen sind möglich). In der Praxis möchte man aber nicht erst die fortgesetzte Funktion f˜ konstruieren. Daher ist folgendes Vorgehen sinnvoll: 1. Zerlege B durch endlich viele Schnitte in endlich viele Normalbereiche N1 , N2 , . . . , Nn . 2. Berechne die Dreifachintegrale über N1 , N2 , . . . , Nn wie im folgenden Satz beschrieben. 10 (`) (`) (`) auf die eigentlich erforderliche Doppelindizierung ui = ui , vj = vj , wk = wk der Zerlegungspunkte – ein Index ` ∈ N für die Nummer der Zerlegung und jeweils ein weiterer i, j bzw. k mit 1 ≤ i ≤ m, 1 ≤ j ≤ n bzw. 1 ≤ k ≤ p für die Nummer des jeweiligen Punktes innerhalb der jeweiligen Zerlegung – wird zur Vereinfachung der Notation verzichtet. 61 3. Es gilt y f (u, v, w) du dv dw = n y X f (u, v, w) du dv dw k=1 Nk B Satz 2.28 Gegeben seien ein stetiges Skalarfeld f : B −→ R und ein Normalbereich B = {(u, v, w) ∈ R3 : a ≤ u ≤ b , c(u) ≤ v ≤ d(u) , Φ(u, v) ≤ w ≤ Ψ(u, v)} . Dann gilt y f (u, v, w) du dv dw = B ˆb a ˆd(u) Ψ(u,v) ˆ f (u, v, w) dw dv du . c(u) Φ(u,v) Bei Normalbereichen mit anderer Reihenfolge der Integrationsgrenzen geht man analog vor. 2.4 Krummlinige Koordinaten Darstellung von Körpern mit krummlinigen Koordinaten Definition 2.29 (Parameterdarstellung stetig differenzierbarer Körper) Es sei B ein dreidimensionaler regulärer Bereich. Eine stetig partiell differenzierbare Funktion ~r : B −→ V , (u, v, w) 7−→ ~r(u, v, w) heißt Parameterdarstellung eines stetig differenzierbaren Körpers D, wenn sie die folgenden Eigenschaften besitzt: • Die Tangentenvektoren ~tu (u, v, w) = ∂~r (u, v, w) , ∂u ~tv (u, v, w) = ∂~r (u, v, w) , ∂v ~tw (u, v, w) = ∂~r (u, v, w) ∂w sind in jedem Punkt linear unabhängig, das heißt, das Spatprodukt µ(u, v, w) = ~tu (u, v, w) × ~tv (u, v, w) · ~tw (u, v, w) 6= 0 ist ungleich Null für alle (u, v, w) ∈ B. 62 • Gibt es Parameterwerte (u1 , v1 , w1 ) und (u2 , v2 , w2 ) mit (u1 , v1 , w1 ) 6= (u2 , v2 , w2 ) und ~r(u1 , v1 , w1 ) = ~r(u2 , v2 , w2 ), so wird µ(u1 , v1 , w1 ) = µ(u2 , v2 , w2 ) gefordert. Definition 2.30 (Parameterdarstellung stückweise stetig differenzierbarer Körper) Es sei B ein regulärer dreidimensionaler Bereich. Eine Funktion ~r : B −→ V , (u, v, w) 7−→ ~r(u, v, w) heißt Parameterdarstellung eines stückweise stetig differenzierbaren Körpers D, wenn B durch endlich viele Schnitte längs stetig differenzierbarer Kurven in n ∈ N reguläre Bereiche B` , 1 ≤ ` ≤ n, zerlegt werden kann, und die Einschränkung von ~r auf B` jeweils einen stetig differenzierbaren Körper parametrisiert. Auf dem Rand eines Teilbereiches, in dem ~r stetig differenzierbar ist, genügt es, wenn µ(u, v, w) jeweils eine stetige Fortsetzung besitzt. Die Bedingung µ(u2 , v2 , w2 ) = µ(u1 , v1 , w1 ) muß an diesen Rändern ebenfalls nur im Sinne einer stetigen Fortsetzung von µ erfüllt sein. Bemerkung Es sei D ∈ V ein Körper, der über ~r : B −→ D parametrisiert werde. Die Kurvenscharen Cv,w : u 7−→ ~r(u, v, w) Cw,u : v 7−→ ~r(u, v, w) Cu,v : w 7−→ ~r(u, v, w) heißen u-Linien, v-Linien bzw. w-Linien des Körpers D (allgemein: Parameterlinien). Bemerkung Aus der stetigen Differenzierbarkeit der Parameterdarstellung folgt, dass die Parameterlinien Cv,w , Cw,u , Cu,v stetig differenzierbare Kurven sind. Satz und Definition 2.31 (Volumenintegral) Gegeben sei ein Körper D, der über ~r : B −→ D parametrisiert werde, und ein stetiges Skalarfeld λ : D 7→ R. Weiter sei B̃ = [a, b] × [c, d] × [g, h] ein Rechteck mit B ⊆ B̃ und (Z` ) eine Familie von Zerlegungen11 von B̃ in m · n · p achsenparallele Quader [ui−1 , ui ] × [vj−1 , vj ] × [wk−1 , wk ], i = 1, . . . , m, 11 (`) (`) (`) auf die eigentlich erforderliche Doppelindizierung ui = ui , vj = vj , wk = wk der Zerlegungspunkte – ein Index ` ∈ N für die Nummer der Zerlegung und jeweils ein weiterer i, j bzw. k mit 1 ≤ i ≤ m, 1 ≤ j ≤ n bzw. 1 ≤ k ≤ p für die Nummer des jeweiligen Punktes innerhalb der jeweiligen Zerlegung – wird zur Vereinfachung der Notation verzichtet. 63 j = 1, . . . , n, k = 1, . . . , p mit Kantenlängen ∆ui := ui − ui−1 , ∆vj := vj − vj−1 bzw. ∆wk := wk − wk−1 mit Feinheit q ∆u2i + ∆vj2 + ∆wk2 . δ(Z` ) := i=1,...,m max j=1,...,n k=1,...,p Ferner gelte lim δ(Z` ) = 0 . `→∞ Dann ist das Volumen-Integral von λ über D definiert durch12 y p m X n X X λ(~r) dV := lim δ(Z` )→0 D λ(~r(ui−1 , vj−1 , wk−1 )) ∆Vijk , i=1 j=1 k=1 wobei ∆Vijk das Volumen des von (1) sijk = ~r(ui , vj−1 , wk−1 ) − ~r(ui−1 , vj−1 , wk−1 ) (2) sijk = ~r(ui−1 , vj , wk−1 ) − ~r(ui−1 , vj−1 , wk−1 ) (3) sijk = ~r(ui−1 , vj−1 , wk ) − ~r(ui−1 , vj−1 , wk−1 ) aufgespannten Spats ist. Für die Berechnung des Volumenintegrals verwendet man die unmittelbar aus der Definition folgende Darstellung y y λ(~r) dV = λ(~r(u, v, w)) |µ(u, v, w)| du dv dw . D B Hierbei heißt dV = |µ(u, v, w)| du dv dw Volumenelement. Für die üblichen Koordinatensysteme lauten die Volumenelemente folgendermaßen: 1. Kartesische Koordinaten (x, y, z): dV = dx dy dz 2. Zylinderkoordinaten (ρ, ϕ, z): dV = ρ dρ dϕ dz 3. Kugelkoordinaten (r, ϑ, ϕ): dV = r2 sin ϑ dr dϑ dϕ 12 64 Wiederum ändern sich Konvergenzeigenschaften und Integralwert nicht, wenn das Skalarfeld λ jeweils an einem beliebigem Zwischenpunkt“ ~r(ξi , ηj , ζk ) mit (ξi , ηj , ζk ) ∈ [ui−1 , ui ] × [vj−1 , vj ] × ” [wk−1 , wk ] ausgewertet wird, anstatt im Eckpunkt“ ~r(ui−1 , vj−1 , wk−1 ). ” ~ey dy dz ~ex dx ~ez Abbildung 2.4. Volumenelement für kartesische Koordinaten. z dϕ x dz dρ y ρdϕ Abbildung 2.5. Volumenelement für Zylinderkoordinaten. 65 z x dθ dr dϕ y Abbildung 2.6. Volumenelement für Kugelkoordinaten. 66 3 Differentialoperatoren und Integralsätze Übersicht 3.1 Gradient und Potential . . . . . . . . . . . . . . . . . . . . . . . 68 3.2 Rotation und Stokesscher Integralsatz . . . . . . . . . . . . . . . 73 3.3 Divergenz und Gaußscher Integralsatz . . . . . . . . . . . . . . . 78 3.4 Die Lemmata von Poincaré und Existenz von Potentialen . . . . . 80 3.5 Der Laplace-Operator . . . . . . . . . . . . . . . . . . . . . . . 83 Aus der reellen Analysis ist der folgende Sachverhalt bekannt: Ist λ : [α, β] −→ R eine differenzierbare Funktion, so gibt es eine Funktion a : [α, β] −→ R mit der Eigenschaft: ˆr2 λ(r2 ) − λ(r1 ) = a(t) dt (3.1) r1 für alle r1 , r2 ∈ [a, b]. Diese Funktion a ist die Ableitung a = λ0 der Funktion λ, und die Gültigkeit von Gleichung (3.1) ist der erste Teil des Hauptsatzes der Differentialund Integralrechnung. Der zweite Teil des Hauptsatzes besagt, dass es zu einer stetigen Funktion a : [α, β] −→ R stets eine differenzierbare Funktion λ : [α, β] −→ R gibt, so dass λ0 = a gilt (eine sogenannte Stammfunktion). Aus dem ersten Teil des Hauptsatzes folgt sofort, dass das Integral über a auf der rechten Seite von Gleichung (3.1) durch die Differenz zweier Funktionsauswertungen von λ ausgewertet werden kann (genauer durch λ(r2 ) − λ(r1 )). Eine Stammfunktion auf einem Intervall [α, β] ist nicht eindeutig bestimmt. Mit λ ist auch jedes λ + C mit einer reellen Konstanten C wieder eine Stammfunktion von a. Die Gleichung (3.1) kann wie folgt verallgemeinert werden: Auf der linken Seite steht ein Ausdruck, der 0 mal integriert wird, auf der rechten Seite ein abgeleiteter Ausdruck, der 1 mal integriert wird. Allgemein gesprochen, wird also ein mathematischer Ausdruck in einen anderen, gleichwertigen Ausdruck umgeformt, indem ein Differentialoperator angewendet wird (hier: einfaches Ableiten) und anschließend einmal mehr integriert wird. In diesem Sinne werden wir im folgenden 67 • Differenzen von Werten eines Skalarfeldes λ(~r2 ) − λ(~r1 ) durch Energieintegrale über ein abgeleitetes Vektorfeld ~a, den sogenannten Gradienten von λ, berechnen, • Energieintegrale eines Vektorfeldes ~a durch Flussintegral über ein abgeleitetes Vektorfeld ~b, der sogenannten Rotation von ~a, berechnen und • Flussintegrale über ein Vektorfeld ~b über Volumenintegrale eines abgeleiteten Skalarfeldes τ , der sogenannten Divergenz von ~b, berechnen. 3.1 Gradient und Potential Gegeben sei ein Gebiet Ω ⊆ V , wobei V , wie gewohnt, ein orientierter, dreidimensionaler, euklidischer Vektorraum ist. Ziel dieses Abschittes ist es, den ersten Teil des reellen Hauptsatzes der Differential- und Integralrechnung (siehe Gleichung (3.1)) auf Energieintegrale zu erweitern. Die reelle Funktion λ wird dabei zu einem Skalarfeld, das in diesem Zusammenhang ein Potential genannt wird, und ihre Ableitung zu einem Vektorfeld. Aus dem Integral über ein reelles Intervall wird dabei ein Energieintegral. Es wird sich zeigen, dass der zeite Teil des Hauptsatzes nicht für jedes Vektorfeld ~a gilt. Mit anderen Worten: Es gibt Vektorfelder, die kein Potential besitzen. Wir werden uns daher damit begnügen, zu charakterisieren, in welchen Fällen zu einem gegebenem Vektorfeld ~a auf einem Gebiet Ω ⊆ V ein Potential existiert. In diesen Fällen wird die Berechnung von Kurvenintegralen sehr einfach: Im Sinne von Gleichung (3.1) braucht nur noch die Potentialdifferenz zwischen End- und Anfangspunkt der Kurve C bestimmt zu werden. Offensichtlich ist der Wert des Energieintegrals in diesen Fällen unabhängig von der Verbindungskurve zweier Punkte. Definition des Gradienten Im Folgenden sein ein orthogonales (eventuell krummliniges) Koordinatensystem (u1 , u2 , u3 ) gegeben mit positiv orientiertem, orthonormalem Basisfeld ~e1 = ~e1 (~r), ~e2 = ~e2 (~r), ~e3 = ~e3 (~r). Die zugehörigen Maßstabsfaktoren seien g1 = g1 (~r), g2 = g2 (~r) und g3 = g3 (~r). Zum gegebenen Gebiet Ω ⊆ V sei B ⊆ R3 der zu gehörige Parameterbereich. Im Folgenden wollen wir ein gegebenes Skalarfeld λ nicht nur als Funktion von ~r ∈ Ω betrachten, sondern auch direkt als Funktion der Koordinaten (u1 , u2 , u3 ) ∈ B. Dazu verwenden wir die Schreibweise1 λ̃(u1 , u2 , u3 ) := λ(~r(u1 , u2 , u3 )) . Definition 3.1 Gegeben sei ein partiell differenzierbares Skalarfeld λ : Ω → R. Dann ist der Gradient 1 68 Zur Vereinfachung der Notation wird meistens nicht zwischen λ und λ̃ unterschieden. von λ definiert als das Vektorfeld mit der Darstellung grad λ = 1 ∂ λ̃ 1 ∂ λ̃ 1 ∂ λ̃ ~e1 + ~e2 + ~e3 g1 ∂u1 g2 ∂u2 g3 ∂u3 im gegebenen orthogonalen Koordinatensystem (u1 , u2 , u3 ) mit (ortsabhängigen) Maßstabsfaktoren g1 , g2 , g3 und (ortsabhängigem) orthonormalem Basisfeld ~e1 , ~e2 , ~e3 . Beispiel Es gilt in 1. kartesischen Koordinaten (x, y, z): grad λ = ∂ λ̃ ∂ λ̃ ∂ λ̃ ~ex + ~ey + ~ez ∂x ∂y ∂z 2. Zylinderkoordinaten (ρ, ϕ, z): grad λ = ∂ λ̃ 1 ∂ λ̃ ∂ λ̃ ~eρ + ~eϕ + ~ez ∂ρ ρ ∂ϕ ∂z 3. Kugel-Koordinaten (r, ϑ, ϕ): grad λ = 1 ∂ λ̃ 1 ∂ λ̃ ∂ λ̃ ~er + ~eϑ + ~eϕ ∂r r ∂ϑ r sin ϑ ∂ϕ Für Gradienten-Felder gelten die folgenden Rechenregeln: Satz 3.2 Gegeben seien die stetig partiell differenzierbaren Skalarfelder λ1 , λ2 , λ3 : Ω → R, die stetig differenzierbare Funktion f : R → R und die Konstanten c1 , c2 ∈ R. Dann gilt • Linearität grad(c1 λ1 + c2 λ2 ) = c1 grad λ1 + c2 grad λ2 • Produktregel grad(λ1 λ2 ) = λ1 grad λ2 + λ2 grad λ1 • Kettenregel I grad(f (λ(~r))) = f 0 (λ(~r)) grad(λ(~r)) • Kettenregel II d λ(~r(t)) = grad λ(~r(t)) · ~r˙ (t) dt 69 1. Teil des Hauptsatzes Wir formulieren nun den 1. Teil des Hauptsatzes der Integralrechnung: Satz 3.3 Gegeben sei ein stetig partiell differenzierbares Skalarfeld λ : Ω → R. Dann gilt für alle stückweise glatten Kurven in Ω mit Anfangspunkt ~r1 und Endpunkt ~r2 ˆ grad λ(~r) · d~r = λ(~r2 ) − λ(~r1 ) . C Geometrische Eigenschaften des Gradienten Der Gradient eines Skalarfeldes kann als ein Vektor gedeutet werden, der in die Richtung des steilsten Anstiegs von λ weist. Sein Betrag | grad λ(~r)| gibt die Steigung von λ im Punkt ~r längs einer Geraden an, die in die Richtung des steilsten Anstiegs verläuft. Er steht senkrecht auf sogenannten Äquipotentialflächen, das sind Flächen, auf denen das Skalarfeld λ konstant ist: Bemerkung Ist A eine durch ~r : B −→ A parametrisierte Fläche mit regulärem Parameterbereich B, und gilt λ(~r(u, v)) = const , (u, v) ∈ B , so gilt ∂~r ∂~r = grad λ · = 0, ∂u ∂v d.h., grad λ steht senkrecht auf der Tangentialebene an A in ~r. grad λ · Durch Projektion des Gradienten grad λ im Punkt ~r auf eine Gerade, durch die Punkte ~r0 und ~r0 + t~eα mit beliebig kleinem t ∈ R kann die Steigung des Skalarfeldes λ in Richtung ~eα ermittelt werden: Satz und Definition 3.4 Gegeben sei ein partiell stetig differenzierbares Skalarfeld λ : Ω → R und ~r0 ∈ Ω. Ferner sei ~eα ∈ V gegeben mit |~eα | = 1 . Dann ist die Richtungsableitung von λ im Punkt ~r0 in Richtung ~eα definiert durch ∂λ λ(~r0 + t~eα ) − λ(~r0 ) (~r0 ) := lim . t−→0 ∂~eα t Es gilt ∂λ (~r0 ) = grad λ(~r0 ) · ~eα . ∂~eα Potentiale von Vektorfeldern Wenn ein Vektorfeld ~a ein Potential λ besitzt, d.h., ein Skalarfeld λ mit grad λ = ~a, dann hängt der Wert von Energieintegralen über ~a nur vom Wert des Potentials am Anfangs- und Endpunkt der Kurve ab. Das Energieintegral 70 über Vektorfelder mit Potential ist also wegunabhängig. Solche Vektorfelder nennt man auch konservativ. Insbesondere gilt für ein Vektorfeld ~a mit Potential λ ˛ ~a · d~r = λ(~r2 ) − λ(~r1 ) = 0 (3.2) C für jede geschlossene Kurve C, die ganz in Ω verläuft. Das bedeutet andersherum, dass ein Vektorfeld, für das längs einer geschlossenen Kurve ˛ ~a · d~r 6= 0 C gilt, kein Potential besitzen kann. Genauer gilt Satz 3.5 Ein Vektorfeld ~a auf Ω besitzt genau dann ein Potential, wenn für jede geschlossene stückweise glatte Kurve C in Ω ˛ ~a · d~r = 0 C gilt. Ist letzteres Kriterium erfüllt, so kann von einem beliebigen Punkt ~r0 ∈ Ω ein Potential wie folgt konstruiert werden: ˆ λ(~r) = ~a(~r) · d~r , C wobei C irgendeine Kurve ist, die in Ω verläuft und ~r0 mit ~r verbindet. Wir nutzen das Kriterium aus dem vorhergehenden Satz, um zu zeigen, dass das in kartesischen Koordinaten gegebene Vektorfeld ~a = −y~ex + x~ey kein Potential besitzt. Dazu integrieren wir ~a längs des positiv orientierten Kreises ∂K1 mit Radius 1 um ~0 in der xy-Ebene mit Start- und Endpunkt (1, 0, 0) ∈ R: ˆ ~a · d~r = 2π 6= 0 . ∂K1 Wenn für das in kartesischen Koordinaten gegebene Vektorfeld ~a = a1~ex + a2~ey + a3~ez ein Potential existiert, kann es auch durch schrittweises Integrieren bestimmt werden: 1. Berechne das unbestimmte Integral ˆ a1 (x, y, z) dx = I1 (x, y, z) + C1 (y, z) der ersten Komponente a1 bezüglich x. Dabei werden y und z als Parameter betrachtet. Die Integrationskonstante hängt von den Parametern y und z ab. Nach der Integration ist I1 (x, y, z) bekannt und C1 (y, z) noch unbekannt. 71 2. Leite I1 (x, y, z) + C1 (y, z) nach y ab, und setze es gleich der zweiten Komponente a2 von ~a: ∂C1 ∂I1 (x, y, z) + (y, x) . a2 (x, y, z) = ∂y ∂y 3. Löse diese Gleichung nach dem unbekannten Term auf: ∂C1 ∂I1 (y, z) = a2 (x, y, z) − (x, y, z) . ∂y ∂y Die nach Subtraktion entstehende rechte Seite darf nicht mehr von x abhängen (sonst gibt es kein Potential). 4. Bestimme nun C1 (y, z) durch Integration der rechten Seite der vorhergehenden Gleichung. ˆ ∂I1 a2 (x, y, z) − (x, y, z) dy = I2 (y, z) + C2 (z) . C1 (y, z) = ∂y Nun hängt die Integrationskonstante C2 nur noch vom Parameter z ab. Der Term I2 (y, z) ist nun bekannt. C2 (z) noch nicht. 5. Leite I1 (x, y, z) + I2 (y, z) + C2 (z) nach z ab, und setze es gleich der dritten Komponente a3 von ~a: a3 (x, y, z) = ∂(I1 + I2 ) ∂C2 (x, y, z) + (z) . ∂z ∂z 6. Löse diese Gleichung nach dem unbekannten Term auf: ∂(I1 + I2 ) ∂C2 (z) = a3 (x, y, z) − (x, y, z) . ∂z ∂y Die nach Subtraktion entstehende rechte Seite darf nicht mehr von y abhängen (sonst gibt es kein Potential). 7. Bestimme nun C2 (z) durch Integration der rechten Seite der vorhergehenden Gleichung. ˆ ∂(I1 + I2 ) C2 (z) = a3 (x, y, z) − (x, y, z) dz = I3 (z) + C3 . ∂y Die Integrationskonstante C3 ist nun eine reelle Zahl. 8. Die Gesamtheit aller Potentiale λ von ~a ist nun gegeben durch λ(x, y, z) = I1 (x, y, z) + I2 (y, z) + I3 (z) + C3 , wobei C3 ∈ R eine beliebige reelle Konstante ist. 72 3.2 Rotation und Stokesscher Integralsatz Zu einem gegebenen, partiell stetig differenzierbarem Vektorfeld ~a, das auf einem Teilgebiet Ω ⊆ V definiert ist, wird ein auf Ω definiertes Vektorfdeld ~b gesucht, so dass für jede hinreichend glatte Fläche A ⊆ Ω mit Randkurve C = ∂A stets ˛ x ~b · dA ~ = ~a · d~r (3.3) A C gilt. Dabei sind der Umlaufsinn von C und das Normalenfeld ~n von A im Sinne einer Schraube mit Rechtsgewinde zueinander orientiert. Es wird angenommen, dass das Vektorfeld ~a, die Fläche A und ihre Randkurve C in einem (krummlinigen) Koordinatensystem (u1 , u2 , u3 ) mit ortsabhängigem Basisfeld ~e1 , ~e2 , ~e3 und ebenfalls ortsabhängigen Maßstabsfaktoren g1 , g2 , g3 beschrieben werden. Durch explizites Nachrechnen von Maschen“ A, die von (krummlinigen) Vierecken ” aus je vier Koordinatenlinien berandet werden, kann eine notwendige Form für das Vektorfeld ~b hergeleitet werden. Wir definieren nun die Rotation des Vektorfeldes ~a genau in dieser Form: Definition 3.6 Gegeben sei ein partiell differenzierbares Vektorfeld ~a = a1~e1 + a2~e2 + a3~e3 auf Ω. Dann ist die Rotation von ~a definiert als das Vektorfeld mit der Darstellung 1 ∂(g3 a3 ) ∂(g2 a2 ) rot ~a = − ~e1 g2 g3 ∂u2 ∂u3 1 ∂(g1 a1 ) ∂(g3 a3 ) + − ~e2 g3 g1 ∂u3 ∂u1 1 ∂(g2 a2 ) ∂(g1 a1 ) + − ~e3 g1 g2 ∂u1 ∂u2 im gegebenen orthogonalen Koordinatensystem (u1 , u2 , u3 ) mit (ortsabhängigen) Maßstabsfaktoren g1 , g2 , g3 und (ortsabhängigem) orthonormalem Basisfeld ~e1 , ~e2 , ~e3 . 73 Bemerkung Das Feld rot ~a kann formal als Determinante notiert werden: ~e1 ~ e ~ e 2 3 ~t1 ~ ~ t t 2 3 g g g g g g 2 3 3 1 1 2 ∂ 1 ∂ ∂ ∂ ∂ ∂ = rot ~a = . ∂u g1 g2 g3 ∂u1 ∂u2 ∂u3 ∂u ∂u 1 2 3 g1 a1 g2 a2 g3 a3 g1 a1 g2 a2 g3 a3 In kartesischen Koordinaten gilt rot ~a = ∇ × ~a. Beispiel Es gilt in 1. kartesischen Koordinaten (x, y, z): ∂az ∂ay − ~ex rot ~a = ∂y ∂z ∂ax ∂az − ~ey + ∂z ∂x ∂ay ∂ax + − ~ez ∂x ∂y 2. Zylinderkoordinaten (ρ, ϕ, z): 1 ∂az ∂aϕ rot ~a = − ~eρ ρ ∂ϕ ∂z ∂aρ ∂az − ~eϕ + ∂z ∂ρ 1 ∂(ρaϕ ) 1 ∂aρ + − ~ez ρ ∂ρ ρ ∂ϕ 3. Kugel-Koordinaten (r, ϑ, ϕ): 1 ∂(sin ϑaϕ ) 1 ∂aϑ rot ~a = − ~er r sin ϑ ∂ϑ r sin ϑ ∂ϕ 1 ∂ar 1 ∂(raϕ ) + − ~eϑ r sin ϑ ∂ϕ r ∂r 1 ∂(raϑ ) 1 ∂ar + − ~eϕ r ∂r r ∂ϑ Für die Rotation gelten die folgenden Rechenregeln: Satz 3.7 Gegeben seien die auf Ω ⊆ V definierten, stetig partiell differenzierbaren Vektorfelder ~a, ~a1 und ~a2 , das partiell stetig differenzierbare Skalarfeld λ : Ω → R , und die Konstanten c1 , c2 ∈ R. Dann gilt 74 • Linearität rot(c1~a1 + c2~a2 ) = c1 rot ~a1 + c2 rot ~a2 • Produktregel rot(λ ~a) = λ rot ~a + (grad λ) × ~a Der Integralsatz von Stokes Satz 3.8 Gegeben sei ein partiell stetig differenzierbares Vektorfeld ~a auf Ω ⊆ V . Dann gilt für jede orientierbare Fläche A, die ganz in Ω liegt, mit Randkurve C = ∂A bei konsistenter Orientierung2 ˛ x ~ rot ~a(~r) · dA = ~a(~r) · d~r . A C Geometrische Eigenschaften der Rotation Ist C eine glatte Kurve der Länge s, und ~a ein Vektorfeld, so folgt mit dem Mittelwertsatz der Integralrechnung die Existenz eines Punktes ~rzw auf der Kurve so, dass ˆ ˆb ~a(~c(t)) · ~c˙(t) dt = (b − a)~a(~c(t0 )) · ~c˙(t) = s ~a(~rzw ) · t0 (~rzw ) =: sa ~a · d~r = C a ist, wobei t0 (~rzw ) ein tangentialer Einheitsvektor an C im Punkt ~rzw ist. Somit ist ā die mittlere tangentiale Komponente von ~a längs C. Ist nun C eine geschlossene Kurve der Länge s, so ist ˛ ~a · d~r = sa C die sogenannte Zirkulation des Vektorfeldes ~a längs C. Die Normalkomponente der Rotation (rot ~a) · ~n0 eines Vektorfeldes im Punkt ~r0 kann nun aufgrund von ˛ 1 (rot ~a) · ~n0 |~r=~r0 = lim ~a · d~r n→∞ |An | Cn als spezifische Zirkulation von ~a im Punkt ~r gedeutet werden. Hierbei ist (An ) eine Familie von glatten Teilflächen An mit Flächeninhalt |An | einer Fläche A, die alle den Punkt ~r0 enthalten, und deren Durchmesser für n → ∞ gegen 0 konvergiert. Der Rand von An sei jeweils die glatte Kurve Cn , und ~n0 sei die Flächennormale von An im Punkt ~r0 . 2 Drehsinn der Kurve und Normalenrichtung sind wie bei einer Schraube mit Rechtsgewinde orientiert. 75 Ein partiell stetig differenzierbares Vektorfeld ~a auf Ω mit rot ~a = 0 wird wirbelfrei genannt. Ein anschaulich motivierter Nachweis3 des Satzes von Stokes kann wie folgt durchgeführt werden: Betrachte eine Familie von Zerlegungen (Zn ) mit n ∈ N der gege(n) benen Fläche A. Jede Zerlegung Zn zerlegt A in kmax (n) glatte Flächenstücke Ak mit 1 ≤ k ≤ kmax (n). Jedes einzelne Flächenstück ist dabei so orientiert, wie durch das Normalenfeld von A vorgegeben. Weiter wird gefordert, dass das Maximum aller Durchmesser über die Flächenstücke einer Zerlegung Zn gegen 0 strebt für n → ∞. (n) Wird nun für jedes Flächenstück Ak der Zerlegung Zn die Zirkulation des gegebenen (n) (n) Vektorfeldes ~a längs Ck = ∂Ak berechnet, und werden die erhaltenen kmax (n) Werte aufsummiert, so stellt sich heraus, dass sich die Integrale der Tangentialkomponenten (n) von ~a über Teilbögen der Ck im Inneren von A jeweils wegheben. Dies liegt daran, (n) dass jeder Teilbogen eines Ck im Inneren von A zweimal in jeweils entgegengesetzter (n) Richtung durchlaufen wird. Nur die Teilbögen der Ck auf dem Rand von A bleiben übrig, da sie genau einmal durchlaufen werden. Es gilt also k(n) ˆ X k=1 (n) Ck ˆ ~a(~r) · d~r = ~a(~r) · d~r C für alle n ∈ N, d.h. unabhängig von der Feinheit der Zerlegung ist die Summe der Zirkulationen über die Ränder der einzelnen Flächenstücke gleich der Gesamtzirkulation über den Rand von A. Wendet man nun auf jedes Flächenstück einer Zerlegung den Mittelwertsatz der Integralrechnung an, so erhält man eine Menge von Zwischenpunk(n) (n) ten ~rk ∈ Ak mit ˆ (n) ~a(~r) · dr = |Ak | (rot ~a) · ~n0 |~r=~r(n) . k (n) Ck Einsetzen in die oben genannte Summe über die Zirkulation längs der Ränder aller Zerlegungsflächen und Durchführung des Grenzwertes n → ∞ führt dann auf die Aussage des Satzes von Stokes. Vektorpotentiale Analog zum 2. Teil des Hauptsatzes der Integralrechnung kann die Frage gestellt werden, ob zu einem gegebenen stetigen Vektorfeld ~b stets ein Vektorfeld ~a existiert, so dass die Berechnung des Flussintegrals über ~b auf die Berechnung eines Energieintegrals über ~a zurückgeführt werden kann. Mit anderen Worten: Unter welchen Bedingungen gibt es zu einem gegebenen stetigen Vektorfeld ~b ein Vektorfeld ~a so, dass rot ~a = ~b gilt? 3 76 nachfolgend wird nur die Idee skizziert – technische Details werden ausgelassen Definition 3.9 Gegeben sei ein stetiges Vektorfeld ~b auf Ω. Ist ~a ein Vektorfeld auf Ω mit rot ~a = ~b, so heißt ~a Vektorpotential von ~b. Bemerkung Ist A eine orientierbare geschlossene Fläche in Ω, d.h. eine Fläche mit leerem Rand, so gilt stets { ~ = 0. rot ~a(~r) · dA A Daher ist es notwendig, dass für ein stetiges Vektorfeld ~b, das ein Vektorpotential ~a besitzt, die Bedingung { ~b · dA ~=0 A für jede geschlossene Fläche in Ω erfüllt ist. Tatsächlich ist dieses Kriterium auch hinreichend. Analog gilt für ein stetig partiell differenzierbares Skalarfeld λ längs jeder geschlossenen glatten Kurve C ˛ grad λ(~r) · d~r = 0 , C somit ist ˛ ~a · d~r = 0 C offensichtlich eine notwendige Bedingung für die Existenz eines (skalaren) Potentials von ~a. Wir haben bereits festgehalten, dass diese Bedingung ebenfalls hinreichend ist. Wie im Falle (skalarer) Potentiale sind auch Vektorpotentiale nicht eindeutig. Es gilt die folgende Aussage: Satz 3.10 Ist ~a1 ein Vektorpotential von ~b in Ω, so ist die Gesamtheit aller Vektorpotentiale von ~b gegeben durch ~a = ~a1 + grad λ , wobei λ ein beliebiges partiell stetig differenzierbares Skalarfeld λ : Ω → R ist. Die Rolle der Integrationskonstanten wird also von einem Gradientenfeld übernommen. Eine genaue Betrachtung des Nachweises der letzten Aussage führt auf die folgende fundamentale Beziehung zwischen Gradient und Rotation: Satz 3.11 Für ein zweimal partiell stetig differenzierbares Skalarfeld 77 λ : Ω → R gilt rot grad λ = ~0 auf Ω (Satz von Schwarz). Geometrisch bedeutet dies: Gradientenfelder sind wirbelfrei. Wie im Falle der Existenz skalarer Potentiale fehlt noch ein leicht handhabbares Kriterium für die Existenz eines Vektorpotentials. 3.3 Divergenz und Gaußscher Integralsatz Zu einem gegebenen, partiell stetig differenzierbaren Vektorfeld ~a, das auf einem Teilgebiet Ω ⊆ V definiert ist, wird ein auf Ω definiertes Skalarfeld λ gesucht, so dass für jedes hinreichend glatte Volumen D ⊆ Ω mit Randfläche A = ∂D stets y { ~ λ dV = ~a · dA (3.4) D A gilt. Das Normalenfeld ~n von A soll dabei aus V heraus“ zeigen. ” z • y x Es wird angenommen, dass das Vektorfeld ~a, das Skalarfeld λ, das räumliche Gebiet D und dessen Randfläche A in einem (krummlinigen) Koordinatensystem (u1 , u2 , u3 ) mit ortsabhängigem Basisfeld (~e1 , ~e2 , ~e3 ) und ebenfalls ortsabhängigen Maßstabsfaktoren g1 , g2 , g3 beschrieben werden. Durch explizites Nachrechnen einer (krummlinigen) Box D, die von sechs Koordinatenflächen berandet wird, kann eine notwendige Form für das Skalarfeld λ hergeleitet werden. Wir definieren nun die Divergenz des Vektorfeldes ~a genau in dieser Form: Definition 3.12 (Divergenz) Gegeben sei ein partiell differenzierbares Vektorfeld ~a = a1~e1 + a2~e2 + a3~e3 78 auf Ω. Dann ist die Divergenz von ~a definiert als das Skalarfeld mit der Darstellung 1 ∂(g2 g3 a1 ) ∂(g3 g1 a2 ) ∂(g1 g2 a3 ) div ~a = + + g1 g2 g3 ∂u1 ∂u2 ∂u3 im gegebenen orthogonalen Koordinatensystem (u1 , u2 , u3 ) mit (ortsabhängigen) Maßstabsfaktoren g1 , g2 , g3 und (ortsabhängigem) orthonormalem Basisfeld (~e1 , ~e2 , ~e3 ). Beispiel Es gilt in 1. kartesischen Koordinaten (x, y, z): div ~a = ∂ax ∂ay ∂az + + ∂x ∂y ∂z 2. Zylinderkoordinaten (ρ, ϕ, z): div ~a = 1 ∂(ρaρ ) 1 ∂aϕ ∂az + + ρ ∂ρ ρ ∂ϕ ∂z 3. Kugel-Koordinaten (r, ϑ, ϕ): 1 ∂(r2 ar ) 1 ∂(sin ϑ aϑ ) 1 ∂aϕ div ~a = 2 + + r ∂r r sin ϑ ∂ϑ r sin ϑ ∂ϕ Für die Divergenz gelten die folgenden Rechenregeln: Satz 3.13 Gegeben seien die auf Ω ⊆ V definierten, stetig partiell differenzierbaren Vektorfelder ~a, ~a1 , ~a2 und ~b, das partiell stetig differenzierbare Skalarfeld λ : Ω → R und die Konstanten c1 , c2 ∈ R. Dann gilt • Linearität div(c1~a1 + c2~a2 ) = c1 div ~a1 + c2 div ~a2 • Produktregel – Multiplikation mit Skalarfeld div(λ ~a) = λ div ~a + (grad λ) · ~a • Vektor-Produktregel div(~a × ~b) = ~b · rot ~a − ~a · rot ~b Der Integralsatz von Gauß Satz 3.14 Gegeben sei ein stetig partiell differenzierbares Vektorfeld ~a auf Ω ⊆ V . Dann gilt für jedes glatte Volumen D ⊆ Ω mit Randfläche A = ∂D y { ~, div ~a dV = ~a · dA (3.5) D A wobei die Flächennormale von A nach außen weist. 79 Geometrische Eigenschaften der Divergenz Stellen wir uns das gegebene Vektorfeld ~a als Geschwindigkeitsfeld einer inkompressiblen Flüssigkeit vor, so kann das Flussintegral { ~ ~a · dA A=∂D über den Rand des räumlichen Gebietes D als Ergiebigkeit oder Quellstärke des Gebietes D aufgefasst werden. Es sei ~r0 ∈ D. Wir betrachten eine Familie (Dn ) glatter räumlicher Gebiete mit ~r0 ∈ Dn für alle n ∈ N, deren Durchmesser gegen 0 strebt für n → ∞. Das Volumen von Dn sei |Dn |. Dann gilt { 1 ~. ~a · dA div ~a|~r=~r0 = lim n→∞ |Dn | An =∂Dn Die Divergenz von ~a kann somit als spezifische Ergiebigkeit oder Quelldichte des Strömungsfeldes ~a im Punkt ~r0 angesehen werden. Integriert man die Quelldichte über ein räumliches Gebiet D, so addieren sich die Anteile der einzelnen Volumenelemente dV , und in der Summe entsteht wieder die gesamte Quellstärke des Gebeites D, d.h., der Fluss über die Randfläche A = ∂D. Ein partiell stetig differenzierbares Vektorfeld ~a mit div ~a = 0 wird quellenfrei genannt. 3.4 Die Lemmata von Poincaré und Existenz von Potentialen Das erste Lemma von Poincaré ist eine Folge des folgenden topologischen Sachverhaltes: • Der Rand eines glatten räumlichen Gebietes (seine Hüllfläche) ist geschlossen und besitzt somit einen leeren Rand (keine Randkurve). • Der Rand einer glatten Fläche (ihre Randkurve) ist geschlossen und besitzt somit einen leeren Rand (keine Randpunkte). Durch Hintereinander-Anwendung • des Satzes von Stokes und des Hauptsatzes der Integralrechung im ersten Fall, bzw. • des Satzes von Gauß und des Satzes von Stokes im zweiten Fall folgt aus dieser Beobachtung das 1. Lemma von Poincaré: Satz 3.15 1. Gegeben sei ein zweimal stetig partiell differenzierbares Skalarfeld λ. Dann gilt: rot grad λ = ~0 , d.h., der Gradient von λ ist wirbelfrei. 80 2. Gegeben sei ein zweimal stetig partiell differenzierbares Vektorfeld ~a. Dann gilt div rot ~a = 0 , d.h., die Rotation von ~a ist quellenfrei. Aus dem ersten Lemma von Poincaré folgen direkt notwendige Kiterien für die Existenz von Potentialen bzw. Vektorpotentialen: Satz 3.16 1. Gegeben sei ein stetig partiell differenzierbares Vektorfeld ~a. Dann gilt: Die Bedingung rot ~a = ~0 ist notwendig für die Existenz eines Potentials λ von ~a. 2. Gegeben sei ein stetig partiell differenzierbares Vektorfeld ~b. Dann gilt: Die Bedingung div ~b = 0 ist notwendig für die Existenz eines Vektorpotentials ~a von ~b. Das zweite Lemma von Poincaré beantwortet, unter welchen Bedingungen 1. ein gegebenes partiell stetig differenzierbares Vektorfeld ~a ein (skalares) Potential besitzt, 2. ein gegebenes partiell stetig differenzierbares Vektorfeld ~b ein Vektorpotential ~a besitzt. Da wir bereits wissen, dass ein Vektorfeld ~a genau dann ein skalares Potential besitzt, wenn das Energieintegral über jeden geschlossenen Weg in Ω null ergibt, genügt es, zur Beantwortung der ersten Frage, ein Kriterium zu finden, das sicherstellt, dass ~a genau dies erfüllt. Analog genügt es zur Beantwortung der zweiten Frage ein Kriterium zu finden, dass sicherstellt, dass für ein gegebenes Feld ~b das Flussintegral über alle geschlossenen Flächen in Ω stets null ergibt. Satz 3.17 1. Gegeben sei ein partiell stetig differenzierbares Vektorfeld ~a auf einem Gebiet Ω ⊆ V , das so beschaffen ist, dass in jede geschlossene Kurve ein Fläche eingespannt werden kann, die ganz in Ω liegt. Gilt rot ~a = ~0 , so besitzt ~a ein (skalares) Potential λ. 81 2. Gegeben sei ein partiell stetig differenzierbares Vektorfeld ~b auf einem Gebiet Ω ⊆ V , das so beschaffen ist, dass jede geschlossene Fläche ein räumliches Gebiet einhüllt, das ganz in Ω liegt. Gilt div ~b = 0 , so besitzt ~b ein Vektorpotential ~a. (2. Lemma von Poincaré) Die oben genannten topologischen Kriterien sind insbesondere für sternförmige Gebiete erfüllt: Satz und Definition 3.18 Gegeben sei ein Gebiet Ω ⊆ V . Wenn es einen Punkt ~r0 ∈ V gibt, so dass die Verbindungsstrecke von ~r0 zu jedem beliebigem Punkt ~r ∈ D ganz in Ω liegt, so heißt Ω sternförmig. In sternförmigen Gebieten gilt das zweite Lemma von Poincaré. Anschaulich gesprochen bedeutet Sternförmigkeit, dass es einen Punkt ~r0 ∈ Ω gibt, von dem aus alle Punkte in Ω sichtbar sind. Die Sichtlinie von ~r0 zu ~r ∈ Ω ist also nie durch eine Wand von Ω verstellt. Es gibt aber viele nichtsternförmige Gebiete, in denen das 2. Lemma von Poincaré ebenfalls gültig ist. Ein Beispiel für ein Gebiet, in dem es wirbelfreie Felder ohne skalares Potential gibt, ist z.B. der dreidimensionale Raum V ohne die z-Koordinatenachse, also Ω = V \ {~r = t~ez : t ∈ R}. In diesem Gebiet ist das Vektorfeld 1 ~a(ρ, ϕ, z) = ~eϕ ρ überall definiert und wirbelfrei. Dennoch existiert kein skalares Potential, da das Energieintegral längs jeder Kurve, die die z-Achse einmal im positiven Sinne umrundet 2π ergibt. Dies ist kein Widerspruch zum 2. Lemma von Poincaré: Jede in eine solche Kurve eingespannte Fläche würde von der z-Achse durchbohrt werden, und somit nicht ganz in Ω liegen – die Voraussetzungen des zweiten Lemmas von Poincaré sind also nicht erfüllt. Die hier geschilderte topologische Situation tritt in elektrotechnischen Anwendungen z.B. bei der Berechnung des Magnetfeldes um einen langen Strom-durchflossenen Leiter auf, oder bei der Feldberechnung im Transformator: Linienströme können verhindern, dass rotationsfreie Magnetfelder ein skalares Potential besitzen. Ein Beispiel für ein Gebiet, in dem es quellenfreie Felder ohne Vektorpotential gibt, ist z.B. der dreidimensionale Raum V ohne den Ursprung, also Ω = V \ {~0}. In diesem Gebiet ist das Vektorfeld 1 ~a(r, ϑ, ϕ) = 2 ~er r überall definiert und quellenfrei. Dennoch existiert kein Vektorpotential, da das Flussintegral über jede glatte geschlossene Fläche, die ein räumliches Gebiet einschließt, 82 das ~0 enthält, 4π ergibt. Dies ist kein Widerspruch zum 2. Lemma von Poincaré: Da die Fläche ein räumliches Gebiet berandet, das nicht ganz zu Ω gehört, sind die Voraussetzungen des zweiten Lemmas von Poincaré nicht erfüllt. Die hier geschilderte topologische Situation tritt in elektrotechnischen Anwendungen z.B. bei der Berechnung des statischen elektrischen Feldes einer Punktladung auf: Die Punktladung ist eine Quelle des elektrischen Feldes, in der die Ladungsdichte ∞ wird. Daher liefert sie einen Beitrag zum Flussintegral über jede glatte Fläche, die die Punktladung einschließt. Eine Berechnung über Volumen-Integration im Sinne des Satzes von Gauß ist aber nicht direkt möglich. 3.5 Der Laplace-Operator Differentialoperatoren zweiter Ordnung Wir haben gesehen, dass für ein zweimal partiell stetig differenzierbares Vektorfeld ~a stets div rot ~a = 0 rot grad ~a = 0 gilt. Insgesamt können durch Hintereinanderausführung je zwei der Differenzialoperatoren erster Ordnung div, rot, grad drei weitere Differenzialoperatoren zweiter Ordnung für Skalar- bzw. Vektorfelder definiert werden, nämlich div grad, grad div und rot rot. Allgemein heißt eine Ableitungsvorschrift Differenzialoperator n-ter Ordnung, wenn sie eine Funktion auf einen abgeleiteten Ausdruck abbildet, in dem die höchste auftretende partielle Ableitung der Ordnung n ist. Während der Operator div grad Skalarfelder in abgeleitete Skalarfelder überführt, überführen die anderen beiden Operatoren Vektorfelder in Vektorfelder. Wir werden nun div grad näher untersuchen. Der Laplace-Operator Definition 3.19 Für ein zweimal partiell stetig differenzierbares Skalarfeld λ ist ∆λ definiert durch ∆λ = div grad λ . Der Operator ∆ heißt (skalarer) Laplace-Operator. Einsetzen von Gradient und Divergenz in allgemeinen krummlinigen Koordinaten ergibt die folgende Darstellung von ∆λ: Satz 3.20 Gegeben sei ein zweimal partiell stetig differenzierbares Skalarfeld λ : Ω −→ R 83 auf Ω ⊆ V . Dann gilt im orthogonalen Koordinatensystem (u1 , u2 , u3 ) mit (ortsabhängigen) Maßstabsfaktoren g1 , g2 , g3 und (ortsabhängigem) orthonormalem Basisfeld (~e1 , ~e2 , ~e3 ) ∂ g2 g3 ∂λ ∂ g3 g1 ∂λ ∂ g1 g2 ∂λ 1 + + . ∆λ = g1 g2 g3 ∂u1 g1 ∂u1 ∂u2 g2 ∂u2 ∂u3 g3 ∂u3 Beispiel Es gilt in 1. kartesischen Koordinaten (x, y, z): ∆λ = ∂ 2λ ∂ 2λ ∂ 2λ + + 2 ∂x2 ∂y 2 ∂z 2. Zylinderkoordinaten (ρ, ϕ, z): 1 ∂ ∆λ = ρ ∂ρ ∂λ 1 ∂ 2λ ∂ 2λ ρ + 2 2+ 2 ∂ρ ρ ∂ρ ∂z 3. Kugel-Koordinaten (r, ϑ, ϕ): 1 ∂λ 1 ∂ 2λ 1 ∂ ∂ 2 ∂λ r + 2 sin ϑ + 2 ∆λ = 2 r ∂r ∂r r sin ϑ ∂ϑ ∂ϑ r sin ϑ ∂ϕ2 Für den Laplace-Operator gelten die folgenden Rechenregeln: Satz 3.21 Gegeben seien die auf Ω ⊆ V definierten, zweimal partiell stetig differenzierbaren Skalarfelder λ1 , λ2 und die Konstanten c1 , c2 ∈ R. Dann gilt • Linearität ∆(c1 λ1 + c2 λ2 ) = c1 ∆λ1 + c2 ∆λ2 • Produktregel ∆(λ1 λ2 ) = λ1 ∆λ2 + 2 grad λ1 grad λ2 + λ2 ∆λ1 Zur Bedeutung von Differentialoperatoren zweiter Ordnung Probleme der numerischen Feldberechnung können in einigen Fällen mit der folgenden Strategie angegangen werden: 1. Mit den Maxwell-Gleichungen stehen differenzielle Beziehungen zwischen elektrischen und magnetischen Feldern zur Verfügung, die über Differentialoperatoren erster Ordnung (rot und div) definiert sind. Außerdem ist oft bekannt, wie sich die Felder am Rande der interessiertenden Gebiete Ω verhalten (Randwerte). 2. In einigen Fällen erlauben die oben genannten differenziellen Beziehung die Einführung von (skalaren oder Vektor-) Potentialen für die zu bestimmenden Feldgrößen. 84 3. Anstelle nach Lösungen für die Ausgangsfelder sucht man nun nach den Potentialen. Diese erfüllen differenzielle Beziehungen zweiter Ordnung, die z.B. über die Operatoren rot rot oder ∆ = div grad formuliert werden. Außerdem müssen Randwerte für die Potentiale formuliert werden. 4. Die so abgeleiteten Gleichungen für die Potentiale heißen Randwertprobleme zweiter Ordnung. Sie sind in der Regel eindeutig lösbar. Zur numerischen Bestimmung der Lösung stehen effiziente Verfahren zur Verfügung. Solche Randwertprobleme werden im folgenden Kapitel näher untersucht werden. Der vektorielle Laplace-Operator Mit Hilfe der Operatoren grad div und rot rot kann der vektorielle Laplace-Operator definitert werden. Er bildet Vektorfelder auf abgleitete Vektorfelder ab. Definition 3.22 Für ein zweimal partiell stetig differenzierbares Vektorfeld ~a ist ∆~a definiert durch ∆~a = grad div ~a − rot rot ~a . Der Operator ∆ heißt vektorieller Laplace-Operator. In kartesischen, Zylinder- bzw. Kugelkoordinaten besitzt der vektorielle Laplace-Operator die folgende Gestalt: 1. Kartesische Koordinaten ∆~a = ∆ax ~ex + ∆ay ~ey + ∆az ~ez . 2. Zylinder Koordinaten 1 ∂aρ ∂ 2 aρ 1 ∂aρ 2 ∂aϕ aρ ∂aρ + + + − 2 − 2 ~eρ ∆~a = ∂ρ2 ρ2 ∂ϕ2 ∂z 2 ρ ∂ρ ρ ∂ϕ ρ 2 2 2 ∂ aϕ 1 ∂ aϕ ∂ aϕ 1 ∂aϕ 2 ∂aρ aϕ + + 2 + + + 2 − 2 ~eϕ ∂ρ2 ρ ∂ϕ2 ∂z 2 ρ ∂ρ ρ ∂ϕ ρ 2 2 2 ∂ az 1 ∂ az ∂ az 1 ∂az + + + + ~ez ∂ρ2 ρ2 ∂ϕ2 ∂z 2 ρ ∂ρ 85 3. Kugelkoordinaten 1 ∂ 2 (ra ) ∂ 2 ar 1 ∂ 2 ar 1 r + + + r ∂r2 r2 ∂ϑ2 r2 sin(ϑ) ∂ϕ2 cot(ϑ) ∂ar 2 ∂aϑ 2 ∂aϕ 2ar 2 cot(ϑ) − − − 2 − aϑ ~er r2 ∂ϑ r2 ∂ϑ r2 sin(ϑ) ∂ϕ r r2 1 ∂ 2 (ra ) ∂ 2 aϑ 1 ∂ 2 aϑ 1 ϑ + + + r ∂r2 r2 ∂ϑ2 r2 sin(ϑ) ∂ϕ2 cot(ϑ) ∂aϑ 2 cot(ϑ) ∂aϕ 2 ∂ar aϑ + 2 − 2 + 2 − 2 2 ~eϑ r ∂ϑ r sin(ϑ) ∂ϕ r ∂ϑ r sin (ϑ) 1 ∂ 2 (ra ) ∂ 2 aϕ 1 ∂ 2 aϕ 1 ϕ + + + + r ∂r2 r2 ∂ϑ2 r2 sin2 (ϑ) ∂ϕ2 cot(ϑ) ∂aϕ 2 ∂ar 2 cot(ϑ) ∂aϑ aϕ + 2 + 2 + 2 − 2 2 ~eϕ r ∂ϑ r sin(ϑ) ∂ϕ r sin(ϑ) ∂ϕ r sin (ϑ) ∆~a = Bemerkung Es ist bemerkenswert, dass der vektorielle Laplace-Operator in kartesischen Koordinaten entkoppelt, das heißt dass die erste Komponente nur von ax , die zweite nur von ay und die dritte nur von az abhängt. Dies ist in anderen Koordinatensystemen nicht der Fall. Die Greenschen Formeln Als Anwendung werden noch zwei wichtige Integral-Identitäten aus dem Gauß’schen Integralsatz abgeleitet: Satz 3.23 Für zweimal stetig partiell differenzierbare Skalarfelder λ1 , λ2 auf einem glatten räumlichen Gebiet D gilt 1. y λ1 ∆λ2 dV = − y D 86 grad λ1 · grad λ2 dV + D D 2. y (λ1 ∆λ2 − λ2 ∆λ1 ) dV = { ~ λ1 grad λ2 · dA. A=∂D { A=∂D ~ (λ1 grad λ2 − λ2 grad λ1 ) · dA. Teil II Partielle Differentialgleichungen 87 4 Existenz und Eindeutigkeit bei elliptischen Problemen Dieses Vorgehen soll anhand eines Beispiels verdeutlicht werden: Wir betrachten das ~ in einem räumlichen Gebiet Ω. Wir nehmen an, dass Ω so beschaffen elektrische Feld E ist, dass der erste Teil des 2. Lemmas von Poincaré anwendbar ist. Das heißt, dass in jede geschlossene Kurve in Ω eine Fläche eingespannt werden kann, die vollständig in Ω liegt. Aus den Maxwellgleichungen folgt, dass bei Abwesenheit zeitlich veränderlicher magnetischer Felder stets ~ =0 rot E ~ ein skalares Potential gilt. Da der erste Teil des 2. Lemmas von Poincaré gilt, besitzt E λ. Den üblichen physikalischen Konventionen folgend, schreiben wir für das Potential ϕ = −λ. Es gilt also ~ = − grad ϕ E in Ω. Ferner folgt aus den Maxwell-Gleichungen, dass bei Abwesenheit freier elektrischer Ladungen ~ =0 div E gilt. Einsetzen der vorhergehenden Potential-Beziehung ergibt ~ =0 ∆ϕ = − div grad ϕ = − div E in Ω. Wir haben also eine Gleichung für den Laplace-Operator des skalaren Potentials hergeleitet. Nun werden noch Randbedingungen benötigt. Wir nehmen an, dass alle Randkomponenten elektrisch leitend sind und von außen auf konstantem Potential gehalten werden. D.h., ϕ ist auf jeder Randkomponente von Ω konstant. Ferner soll die Potentialdifferenz jeder Komponente des Randes zu einer festen Komponente bekannt sein. Auf dieser festen Komponente setzen wir das Potential auf 0V. Wir suchen also die Lösung der Gleichung ∆ϕ(~r) = 0 , ~r ∈ Ω unter vorgegebenen, bekannten Randbedingungen der Form ϕ(~r) = g(~r) , 88 ~r ∈ ∂Ω , (4.1) mit einer bekannten Funktion g. Eine Gleichung vom Typ 4.1, heißt partielle Differentialgleichung (PDG). Sie stellt eine algebraische Beziehung für einen Differentialoperator her, in dem partielle Ableitungen bezüglich unterschiedlicher Variablen auftreten. Die Ordnung der höchsten auftretenden partiellen Ableitung heißt Ordnung der PDG. Eine PDG alleine ist nicht eindeutig lösbar. Es sind weitere Daten erforderlich. Ist die gesuchte Lösungsfunktion ϕ auf dem Rand bekannt, so liegt ein sogenanntes DirichletProblem vor. Allgemein spricht man von einem Randwertproblem, wenn eine PDG so gelöst werden soll, dass gewisse Randeigenschaften der Lösung gegeben sind. Hinsichtlich der Lösbarkeit des Dirichlet-Problems gilt der folgende Satz: Satz und Definition 4.1 Das Gebiet Ω besitze einen hinreichend glatten Rand. Ferner sei f eine stetige Funktion in Ω, und g eine stetige Funktion auf ∂Ω. Dann ist das Dirichlet-Problem ∆ϕ = f in Ω , ϕ=g auf ∂Ω eindeutig lösbar. Die vorliegende Randbedingung heißt Dirichlet-Bedingung. Satz und Definition 4.2 Das Gebiet Ω besitze einen hinreichend glatten Rand. Ferner sei f eine stetige Funktion in Ω, und h eine stetige Funktion auf ∂Ω. Dann ist das Neumann-Problem ∆ϕ = f in Ω , grad ϕ · ~n0 = h auf ∂Ω bis auf eine additive Konstante eindeutig lösbar. Hierbei ist ~n0 eine äußere Einheitsnormale an ∂Ω. Der Ausdruck ∂ϕ = grad ϕ · ~n0 ∂~n heißt Normalenableitung von ϕ. Durch Festlegung des Wertes der Lösung in einem Punkt ~r0 ∈ Ω kann die additive Konstante eindeutig bestimmt werden. Satz und Definition 4.3 Das Gebiet Ω besitze einen hinreichend glatten Rand. Auf einem Teil ΓD des Randes, dem sogenannten Dirichlet-Rand, sei eine stetige Funktion g gegeben und auf ∂Ω \ ΓN , dem sogenannten Neumann-Rand sei eine stetige Funktion h gegeben. Ist ΓD 6= ∅, so ist das Problem ∆ϕ = f in Ω , ϕ=g auf ΓD , grad ϕ · ~n0 = h auf ΓN eindeutig lösbar. 89 5 Lösung von Randwertproblemen mit Orthogonalentwicklung Nachdem die Frage der Existenz und Eindeutigkeit von Lösungen der Poisson-Gleichung bei geeigneten Randbedingungen geklärt ist, wenden wir uns nun der Bestimmung von Lösungen potentialtheoretischer Randwertaufgaben zu. Wir werden exemplarische den Fall einer Beschreibung des vorliegenden Volumens in kartesischen Koordinaten und in Zylinderkoordinaten behandeln. In beiden Fällen ist die Idee, einen Vorrat an Grundlösungen zusammenzustellen, die in ihrer Gesamtheit ein vollständiges Orthonormalsystem bezüglich einer oder mehrerer Veränderlicher bilden. Durch Superposition können dann daraus Lösungen konstruiert werden, die die Randbedingungen zumindest auf einem Teil des gegebenen Volumens erfüllen. Gelingt es, sicherzustellen, dass auf allen anderen Teilen des Randes die Grundlösungen Null-Randdaten annehmen, kann die Gesamtlösung aus mehreren Teillösungen dieser Art überlagert werden (erneut Superposition). Die benötigten Grundlösungen werden durch einen Separationsansatz ermittelt. Dabei wird eine gewisse Form der Lösung als Ansatz vorgegeben, die ein Produkt von Faktoren ist, die jeweils nur von einer Raumvariablen abhängen. Durch Einsetzen dieses Ansatzes in die Poisson-Gleichung folgen gewöhnliche Differentialgleichungen zur Bestimmung der einzelnen Faktoren. Entwicklung von Funktionen in Fourier-Reihen bezüglich ON-Funktionensystemen werden zur Lösung von Randwertproblemen eingesetzt. Betrachte z.B. das Dirichlet-Problem ∆f = 0 in Ω , f =h auf ∂Ω mit einem glatt berandeten, beschränktem Gebiet Ω und einer stetigen Funktion h. Um die Situation zu konkretisieren, nehmen wir beispielsweise an, dass der Rand (die Hüllfläche) von Ω eine Parametrisierung ~r(ϑ, ϕ) = r(ϑ, ϕ) ~er , 0 ≤ ϑ ≤ π,0 ≤ ϕ ≤ π besitzt. Der Körper Ω selbst werde durch ~r(r, ϑ, ϕ) , 0 ≤ ϑ ≤ π , 0 ≤ ϕ ≤ 2π , 0 ≤ r ≤ r(ϑ, ϕ) parametrisiert. Dann wird das folgende prinzipielle Vorgehen verwendet: 90 1. Bestimme ein vollständiges ON-System von Funktionen um (r, ϑ, ϕ), das im Inneren von Ω die Differentialgleichung löst, d.h., es gilt ∆um = 0 , 0 ≤ ϑ ≤ π , 0 ≤ ϕ ≤ 2π , 0 ≤ r < r(ϕ, ϑ). Jede dieser Lösungen wird Grundlösung genannt. 2. Entwickle die Randfunktion h(ϑ, ϕ) in eine Fourier-Reihe bezüglich der Einschränkung um (r(ϑ, ϕ), ϑ, ϕ) , 0 ≤ ϑ ≤ π , 0 ≤ ϕ ≤ 2π des gefundenen ON-Systems von Lösungen auf den Rand von Ω. Die bestimmten Fourier-Koeffizienten seien am , m = 0, . . . , ∞. 3. Dann ist f (r, ϑ, ϕ) = ∞ X am u(r, ϑ, ϕ) m=0 die Lösung des Problems. Denn: 1.) Die Funktion f löst die partielle Differenzialgleichung im Inneren von Ω, da mit jeder Funktion um dies auch für (endliche oder unendliche) Linearkombinationen gilt. 2.) Die Funktion f hat durch die Fourier-Entwicklung die richtigen Randwerte. Dieses Prinzip werden wir in den folgenden Trimestern in unterschiedlichen geometrischen Situationen zur Lösung unterschiedlicher Randwertaufgaben und Randanfangswertaufgaben (mit zusätzlicher Zeitabhängigkeit) heranziehen. Dabei geschieht die Bestimmung eines ON-Systems typischwerweise durch einen sogenannten Separationsansatz. 5.1 Kartesische Koordinaten Basislösungen von ∆ϕ(x, y, z) = 0 in kartesischen Koordinaten lauten ϕk,` (x, y, z) =(Ak cos(kx) + Bk sin(kx))(C` cos(`y) + D` sin(`y)) √ √ k 2 + `2 z + Fk,` sinh k 2 + `2 z . Ek,` cosh Durch Superposition dieser Basislösungen können die jeweils auf Randflächen mit z = konstant vorliegenden Randbedingungen konstruiert werden (Fourier-Darstellung der Randdaten). Weitere Basisfunktionen zur Konstruktion von Randbedingungen auf Flächen mit x = konstant oder y = konstant können durch Vertauschen der Rollen von x, y und z bereitgestellt werden. Folgendes ist unter anderem bei der Superposition der Basisfunktion zur Konstruktion von Randdaten zu beachten: 91 • Bei mehreren rechtwinkligen Randflächen (Quader) setzt man die Randwerte auf jeweils allen bis auf eine Fläche auf 0 und entwickelt die Randfunktion auf der verbleibenden Fläche. Die Lösung des Randwertproblems erhält man durch Addition der Einzellösungen. • Zur Darstellung inhomogener (6= 0) Neumannscher Randbedingungen (auf Koordinatenflächen) ist die jeweils relevante partielle Ableitung der Basisfunktionen zu betrachten und in eine Fourrier-Reihe (jeweils für jede Seitenfläche) zu entwickeln. • Auf einem Rand mit homogenen Neumann-Randbedingungen (= 0) können die entsprechenden Faktoren in den Ansatzfunktionen auf cos-Terme (homogene Neumann-Randbedingung auf einem Paar gegenüberliegender Seiten) bzw. cosh-Terme (falls die Seite, auf der Fourier-Entwicklung durchzuführen ist, gegenüber liegt) reduziert werden. Als Beispiel auf dem Quader Q = [0, a] × [0, b] × [0, c] (a, b, c > 0) , mit der ausgezeichneten Seite S = {(x, y, z) ∈ ∂Q : z = c} das Randwertproblem ∆ϕ = 0 in Q , ϕ|∂Q\S = 0 , ϕ|S = f mit einer vorgegebenen stetigen Funktion f : S −→ R , (x, y, c) 7−→ f (x, y) untersucht. Die homogenen Dirichlet-Randbedingungen auf ∂Q \ S werden durch die reduzierte Familie von Basislösungen ! r mπ nπ nπ 2 mπ 2 x sin y sinh + z ϕnm (x, y, z) = Cnm sin a b a b stets erfüllt. Daher werden nur sie zur Darstellung der Lösung des Problems durch Superposition verwendet. Für die Lösung des Randwertproblems wird nun der Ansatz ! r ∞ X ∞ nπ mπ X nπ 2 mπ 2 ϕ(x, y, z) = Cnm sin x sin y sinh + z a b a b n=1 m=1 (zwei-dimensionale Fourier-Reihe) gewählt. Die Koeffizienten Cnm werden so gewählt, dass ! r ∞ X ∞ nπ mπ X nπ 2 mπ 2 Cnm sin x sin y sinh + c = ϕ(x, y, c) a b a b n=1 m=1 = f (x, y) 92 gilt. Wegen der Orthogonalitätsbeziehung ˆa sin nπx a sin n0 πx a a dx = δnn0 , 2 n, n0 ≥ 1 0 ˆb sin mπy b sin m0 πy b b dy= δmm0 , 2 m, m0 ≥ 1 0 mit dem Kronecker-Symbol δnn0 1 , n = n0 = 0 , n 6= n0 kann nun Cn0 m0 dadurch bestimmt werden, dass die Gleichung für die Randwerte mit mit 0 0 n πx m πy sin sin a b multipliziert wird und das Doppelintegral über [0, a] × [0, b] berechnet wird. Es folgt s 0 2 0 2 mπ ab nπ + c Cn0 m0 sinh 4 a b ˆa ˆb = f (x, y) sin 0 n0 πx a sin m0 πy b dxdy . 0 Auflösen (und Umbenennen der Indizes) ergibt 4 ´a ´b 0 Cnm = f (x, y) sin 0 q ab sinh nπx a nπ 2 a sin + mπy b mπ 2 c b dxdy . Die Lösung des Randwertproblems lautet somit ∞ ∞ 4 XX ϕ(x, y, z) = ab n=1 m=1 · sin ˆa ˆb f (x, y) sin 0 nπx a nπx 0 sin mπy sinh b sinh a q q sin mπy nπ 2 a nπ 2 a b dxdy + mπ 2 z b + mπ 2 c b . Eine weitere Darstellung zu diesem Theman befindet sich in G. Lehner: Elektromatgnetische Feldtheorie, Springer, Kapitel 3.5.1, 3.5.2.1 und 3.5.2.2. 93 5.2 Orthogonalentwicklung in Funktionenräumen Gegeben sei eine Menge Ω und eine Menge F von Funktionen f : Ω −→ R. Die Funktionen in F seien über eine Eigenschaft definiert (Stetigkeit oder Existenz gewisser Integrale), die sich auf Summenfunktionen f + g von Funktionen aus F und auf skalare Vielfache αf (α ∈ R) von Funktionen aus F überträgt. Somit ist F ein Vektorraum. Wir werden im folgenden sehen, dass für solche Vektorräume auch Skalarprodukte und Normen definiert werden können. Da Vektorräume, die Funktionen enthalten, aber in vielen typischen Fällen nicht mehr endlichdimensional sind, bereitet die Übertragung des Basisbegriffs und der Basisdarstellung in Funktionenräume Schwierigkeiten. In der folgenden Tabelle werden die bekannten Konzepte für endlichdimensionale Vektorräume den entsprechenden Konzepten für allgemeine Funktionenräume gegenübergestellt (siehe Abbildung 5.2). Satz 5.1 Gegeben sei ein Vektorraum F von Funktionen f : Ω −→ R, die über Ω quadratintegrierbar sind, d.h., für die ˆ |f (x)|2 dx < ∞ Ω existiert ( Betrag“ ist nur im komplexen Fall wichtig). Dann gilt ” 1/2 1/2 ˆ ˆ ˆ |f (x)g(x)| dx ≤ |f (x)|2 dx |g(x)|2 dx Ω Ω Ω ( Cauchy-Schwarze Ungleichung), d.h., das Integral auf der linken Seite existiert auch. Im Falle eines reellen Vektorraumes ist durch ˆ (f, g) = w(x) f (x)g(x) dx Ω für jede beschränkte positive Gewichtsfunktion w ein Skalarprodukt auf F definiert. Im Falle eines komplexen Vektorraumes ist durch ˆ hf, gi = w(x) f (x)g(x) dx Ω für jede beschränkte positive Gewichtsfunktion w ein Skalarprodukt auf F definiert. Definition 5.2 Eine Familie von Funktionen {fk } mit fk : Ω −→ R 94 endlichdim. VR Funktionenraum F Vektoren Funktionen mit bestimmten Eigenschaften f, g, h : Ω −→ R Addition (f + g)(x) = f (x) + g(x) , x ∈ Ω Skalare Multipl. (αf )(x) = αf (x) , x ∈ Ω Skalarprodukt gewichtetes Integral über Produkt ˆ (f, g) = w(x) f (x)g(x) dx Ω ˆ komplex: hf, gi = Betrag p ||f || = (f, f ) = 1/2 ˆ w(x) f 2 (x) dx w(x) f (x)g(x) dx Ω Norm Ω (f, g) = 0, bzw. hf, gi = 0 Orthogonalität Endliche Linearkombination endliche Linearkombination n X αk fk (x) k=1 oder Funktionen-Reihe ∞ X αk fk (x) k=1 ON-Basis vollständiges ON-System Lineare Abbildungen Operatoren z.B. ∆ Abbildung 5.1. Übersicht von Funktionenräume. 95 heißt Orthonormalsystem, wenn (fm , fk ) = δmk (reeller Fall) bzw. hfm , fk i = δmk (komplexer Fall) gilt. Gilt nur (fm , fk ) = 0 bzw. hfm , fk i = 0 für m 6= k, so heißt {fk } ein Orthogonalsystem. Beispiel √ Die Funktionen 1/ 2, cos(πmx/L), sin(πmx/L), m ∈ N \ {0} bilden auf dem Intervall [−L, L] ein Orthonormalsystem bezüglich des Skalarproduktes ˆL 1 (f, g) = L f (x)g(x) dx . −L Komplexe Schreibweise: Funktionen ei(πmx/L) , m ∈ Z, Skalarprodukt 1 hf, gi = 2L ˆL f (x)g(x) dx . −L Dies ist das sogenannte Orthonormalsystem der trigonometrischen Funktionen. Definition 5.3 Gegeben sei ein Vektorraum F quadratintegrierbarer Funktionen auf Ω, ein ON-System {fk } und eine Funktion f . Dann sind die Fourierkoeffizienten ak im reellen Fall definiert durch ak = (f, fk ) , und im komplexen Fall durch ak = hf, fk i . Die Fourierreihe von f ist definiert durch ∞ X (f, fk ) fk k=1 bzw. ∞ X hf, fk i fk k=1 Definition 5.4 Gegeben sei ein Vektorraum F quadratintegrierbarer Funktionen auf Ω und ein ONSystem {fk }. Das ON-System heißt vollständig, wenn für jede Funktion f ∈ F die 96 Fourier-Reihe im quadratischen Mittel gegen f konvergiert, d.h., es gilt ˆ lim n−→∞ n X f− (f, fk ) fk ˆ lim n−→∞ dx = 0 k=1 Ω (reeller Fall) bzw. !2 n X f− hf, fk i fk !2 dx = 0 k=1 Ω (komplexer Fall). Beispiel Gegeben sei ein Intervall [−L, L] und das zugehörige ON-System trigonometrischer Funktionen. Dann konvergiert die Fourier-Reihe jeder auf [−L, L] definierten quadratintegrierbaren Funktion f gegen f im quadratischen Mittel. 1. Komplexe Darstellung der Fourier-Reihe: f∼ ∞ X cm eimπx/L m=−∞ mit 1 cm = 2L ˆL f (x) e−imπx/L dx . −L 2. Bei reellwertigem f gilt in der komplexen Darstellung c0 ∈ R und cm = c−m für alle m ∈ N \ {0}. 3. Aus der komplexen Darstellung erhält man (im Falle der Konvergenz) bei gegebener reellwertiger Funktion f folgendermaßen eine relle Darstellung: ∞ X cm eimπx/L = c0 + m=−∞ = c0 + ∞ X (cm eimπx/L + c−m e−imπx/L ) m=1 ∞ X (cm eimπx/L + cm eimπx/L ) m=1 ∞ X Re cm eimπx/L = c0 + 2 = c0 + 2 m=1 ∞ X (cos (mπx/L) Re cm − sin (mπx/L) Im cm ) m=1 ∞ X ∞ X a0 + am cos (mπx/L) + bm sin (mπx/L) = 2 m=1 m=1 mit a0 = 2c0 , am = 2 Re cm und bm = −2 Im cm , m ≥ 1. 97 √ 4. Bei der klassischen Schreibweise im reellen Fall wurde die Basisfunktion 1/ 2 zu 1 abgeändert. Dadurch ist das Funktionensystem nur noch orthogonal. Daher tritt in der Fourier-Reihe überraschend“ der Term 1/2 vor a0 auf: ” ∞ a0 X + f∼ ak cos (πkx/L) + bk sin (πkx/L) 2 k=1 mit ˆL 1 a0 = L f (x) dx , −L ak = 1 L ˆL f (x) cos (πkx/L) dx , k ∈ N \ {0} −L und 1 bk = L ˆL f (x) sin (πkx/L) dx , k ∈ N. −L 5. Ist eine gerade Funktion f gegeben, d.h. ist f (x) = f (−x), so gilt 1 bk = L ˆL sin (πkx/L) f (x) dx = 0 −L für alle k ∈ N und 2 ak = L ˆL cos (πkx/L) f (x) dx 0 für alle k ∈ N sowie 2 a0 = L ˆL f (x) dx 0 (reine Kosinus-Reihe). 6. Ist eine ungerade Funktion f gegeben, d.h. ist f (−x) = −f (x), so gilt 1 ak = L ˆL cos (πkx/L) f (x) dx = 0 −L für alle k ∈ N und 1 a0 = L ˆL f (x) dx = 0 −L sowie 2 bk = L ˆL sin (πkx/L) f (x) dx 0 für alle k ∈ N (reine Sinus-Reihe). 98 7. Ist von vornherein eine T -periodische Funktion f : R −→ R gegeben, so kann über ein beliebiges Periodenintervall [t0 , t0 + T ] mit t0 aus R integriert werden. In der oben gewählten Notation ist dann L = 2T , und die Basisfunktionen können auch cos(kωx), sin(kωy), eimωx mit ω = 2π geschrieben werden. T Satz 5.5 Gegeben sei eine stückweise stetig differenzierbare Funktion f : [−L, L] −→ R. Dann gilt: • Die Fourierreihe von f konvergiert punktweise auf R gegen eine 2L-periodische Grenzfunktion fR . • Ist die 2L-periodische Fortsetzung von f stetig auf R, so gilt fR = f . In diesem Fall ist die Konvergenz sogar gleichmäßig. • Andernfalls gilt nur an den Punkten, an denen die 2L-periodische Fortsetzung von f stetig ist, f (x) = fR (x). An einer Sprungstelle x̃ der 2L-periodische Fortsetzung von f ist fR (x̃) gleich dem Mittelwert von rechts- und linksseitigem Grenzwert von f . Bemerkung Eine Fourier-Reihe ist im Falle der Konvergenz eine periodische Funktion der Periode 2L. Daher konvergiert sie nicht nur auf dem betrachteten Intervall [−L, L], sondern auf ganz R. Außerhalb [−L, L] stimmt sie nur dann mit der gegebenen Funktion f überein, wenn diese selber 2L-periodisch ist. Interessiert man sich andersherum für Fourier-Darstellungen von Funktionen, die auf ganz R definiert sind, durch trigonometrische Funktionen, so ist es zwingend erforderlich, dass diese Funktionen periodisch sind. 5.3 Separation und Superposition in Zylinderkoordinaten Gesucht wird das elektrische Skalarpotential V = V (%, ϕ, z) in einem Volumen, das in Zylinderkoordinaten ~r = %~e% + ϕ~eϕ + z~ez parametrisiert ist. Wir betrachten den Spezialfall, dass die Raumladungsdichte im Volumen 0 beträgt. Zu lösen ist also die homogene Poisson-Gleichung (im vorliegenden homogenen Fall auch Laplace-Gleichung genannt) 1 ∂ ∂ 1 ∂2 ∂2 % V (%, ϕ, z) + 2 2 V (%, ϕ, z) + 2 V (%, ϕ, z) (5.1) 0 = ∆V (%, ϕ, z) = % ∂% ∂% % ∂ϕ ∂z 99 in Zylinderkoordinaten. Der allgemeine Separationsansatz zur Beschaffung eines Vorrats an Grundlösungen lautet V (%, ϕ, z) = R(%)Φ(ϕ)Z(z) . (5.2) Einsetzen dieses Ansatzes in die partielle Differentialgleichung (5.1) ergibt nach Division durch R(%)Φ(ϕ)Z(z) 1 Φ00 (ϕ) Z 00 (z) 1 ∂ (%R0 (%)) + 2 + = 0. %R(%) ∂% % Φ(ϕ) Z(z) (5.3) Der dritte Summand ist unabhängig von % und ϕ, währen die ersten beiden Summanden unabhängig von z sind. Der dritte Summand ist somit konstant. Theoretisch können drei Fälle eintreten: Der dritte Summand ist 1. gleich einer positiven Konstante k 2 > 0, 2. gleich Null, d.h. k 2 = 0, 3. gleich einer negativen Konstante −k 2 < 0. Ob der zweite Fall k 2 = 0 eintritt, hängt vom gegebenen Problem ab: Dies ist genau dann der Fall, • das gegebene Volumen in z-Richtung unendlich ausgedehnt ist, und alle Querschnittsflächen parallel zur (x, y)-Ebene identisch sind, • die auf dem Rand, den wir als Zylindermantel annehmen, gegebenen Daten nicht von z und somit nur von ϕ abhängen. Die Frage ob k 2 = 0 ist oder nicht, können wir also nicht beeinflussen. Dagegen können wir im Falle, dass der oben geschilderte symmetrische Fall nicht eintritt, wählen, ob wir mit k 2 > 0 oder mit k 2 < 0 arbeiten wollen. Mit dieser Entscheidung beeinflussen wir, welche Grundlösungen wir als Vorrat“ für die Konstruktion der Randdaten über ” Superposition erhalten. Liegen z-abhängige Randdaten vor, so ist unbedingt die negative Separationskonstante −k 2 zu wählen, da andernfalls keine Orthogonalentwicklung der z-abhängigen Randfunktion möglich wird. Erster Weg: Separationskonstante k 2 > 0 Bestimmung von Z(z): Aus dem Separationsansatz folgt die gewöhnliche Differentialgleichung Z 00 (z) − k 2 Z(z) = 0 . Eine Darstellung der allgemeine Lösung lautet Zk (z) = Ek cosh(kz) + Fk sinh(kz) 100 mit Ek , Fk ∈ R. Es genügt hier, k > 0 zu betrachten. Für den (%, ϕ) abhängigen Teil von Gleichung (5.3) folgt nach Multiplikation mit %2 % ∂ Φ00 (ϕ) (%R0 (%)) + %2 k 2 + = 0. R(%) ∂% Φ(ϕ) (5.4) Der letzte Summand hängt nur von ϕ ab, die ersten beiden nur von %. Daher ist der letzte Summand konstant, und wir setzen Φ00 (ϕ) = −m2 . Φ(ϕ) Hier ist die Wahl einer nichtpositiven Separationskonstante −m2 ≤ 0 sinnvoll, um ein vollständiges System orthogonaler Funktionen als Lösung zu erhalten, und so ϕabhängige Randdaten durch Fourier-Entwicklung konstruieren zu können. Bestimmung von Φ(ϕ): Es folgt Φ00 (ϕ) + m2 Φ(ϕ) = 0 . Die allgemeine Lösung lautet C cos(mϕ) + D sin(mϕ) m m Φm (ϕ) = C 0 ,m ∈ N ,m = 0. Hierbei folgt die Ganzzahligkeit von m daraus, dass nur 2π-periodische Funktionen als Lösung sinnvoll sind, da ϕ und ϕ + 2π dieselbe Orts-Koordinate darstellen (Drehung um 360◦ ). Negative Werte von m brauchen nicht berücksichtigt zu werden wegen der Symmetrieeigenschaften der trigonometrischen Funktionen. Ebenfalls aus dem Grund, dass nur periodische Lösungen sinnvoll sind, reduziert sich die Lösung im Fall m = 0 auf eine Konstante C0 . Für den %-abhängigen Teil von Gleichung (5.5) folgt nach Multiplikation mit R(%) % ∂ (%R0 (%)) + %2 k 2 − m2 R(%) = 0 . ∂% (5.5) Bestimmung von R(r): Nach Division durch %2 k 2 und Anwenden der Produktregel der Differentialrechnung folgt 1 00 1 0 m2 (5.6) R (%) + 2 R (%) + 1 − 2 2 R(%) = 0 . k2 k % %k Dies ist eine gewöhnliche lineare Differentialgleichung zweiter Ordnung, deren Faktoren jedoch von der Variable % abhängen, also nicht konstant sind. Ihre Lösungsgesamtheit 101 ist für gegebenes k > 0 und m ≥ 0 ein Vektorraum der Dimension 2. Zu gegebenen Werten k > 0, m ≥ 0 kann eine Basis mit Hilfe der Besselfunktion Jm und der Neumannfunktion Nm oder Besselfunktion 2. Art angegeben werden. Für die Besselfunktionen 2. Art ist auch die Bezeichnung Ym gebräuchlich. Die allgemeine Lösung von Gleichung (5.6) lautet somit Rk,m (%) = Ak,m Jm (k%) + Bk,m Nm (k%) . Sind beispielsweise Randdaten auf der Deck- und Bodenfläche eines Zylinders gegeben, können diese mit Orthogonalentwicklung bezüglich der Besselfunktionen dargestellt werden. Randdaten auf einem Zylindermantel, die nur von ϕ abhängen, können durch eine klassische Fourier-Reihe dargestellt werden. Nicht möglich ist eine Reihenentwicklung von z-abhängigen Randdaten. Dazu hätte oben eine negative Separationskonstante −k 2 gewählt werden müssen (siehe 3. Weg). Die Konstruktion von Randdaten wird unten in Spezialfällen diskutiert. Zweiter Fall Separationskonstante k 2 = 0: Bestimmung von Z: Es folgt die gewöhnliche Differentialgleichung Z 00 (z) = 0 . Eine Darstellung der allgemeine Lösung lautet Z(z) = Gz + H In der Regel wird nur die konstante Lösung Z(z) = H sinnvoll sein (siehe unten). Wir können dann H = 1 wählen, und die Koeffizienten der anderen Faktoren im ProduktAnsatz entsprechned anpasssen. Bestimmung von Φ: Aus Gründen der Eindeutigkeit kann m wieder nur ganzzahlig sein. Wir erhalten wieder die Gleichung Φ00 (ϕ) = −m2 . Φ(ϕ) Bestimmung von R Wir erhalten %2 R00 (%) + %R0 (%) − m2 R(%) = 0 , m ∈ N0 . (5.7) Dies ist keine Besselsche Differentialgleichung. Ihr Lösungsraum wird durch R(%) = %m und R(%) = %−m aufgespannt. 102 Anpassung an ausschließlich ϕ-abhängige Randdaten beim unendlichen Zylinder Wenn ein unendlich langer Zylinder gegeben ist und auf einer Mantelfläche vom Radius %A Randwerte durch eine nur von ϕ abhängige Funktion f (ϕ) vorgegeben sind, gewinnt man eine Fourier-Reihe dieser Funktion ∞ ∞ X A0 X + Am cos(mϕ) + Bm sin(mϕ) . f (ϕ) = 2 m=1 m=1 (5.8) Die negativen Exponenten m führen bei der Innenraumaufgabe in einem Vollzylinder zu Singularitäten. Deshalb kann man sich auf positive Exponenten beschränken. Nach Koeffizientenvergleich des durch Superposition erstellten Ansatzes an der Stelle % = %A mit der Reihendarstellung (5.8) für die Funktion f folgt die Lösung V (%, ϕ, z) = V (%, ϕ) m m ∞ ∞ X % A0 X % + Am cos(mϕ) + Bm sin(mϕ) . = 2 % % A A m=1 m=1 (5.9) Dritter Weg Separationskonstante −k 2 < 0 Bestimmung von Z: Es folgt die gewöhnliche Differentialgleichung Z 00 (z) + k 2 Z(z) = 0 . Eine Darstellung der allgemeinen Lösung lautet Zk (z) = Ek cos(kz) + Fk sin(kz) Bestimmung von Φ: Auch hier sind wieder nur ganzzahlige Lösungen für m, die wir als nichtnegativ annehmen können, sinnvoll. Bestimmung von R: Wir erhalten an Stelle der gewöhnlichen“ Besselschen Differenti” algleichung die modifizierte Besselsche Differentialgleichung“ ” 1 00 1 0 m2 R (%) + 2 R (%) − 1 + 2 2 R(%) = 0 . (5.10) k2 k % %k Ihre Lösungen werden durch die modifizierten Besselfunktionen Im (k%) und Km (k%) mit k > 0 gegeben. Die Im sind im Nullpunkt regulär, die Km singulär. Diese Funktionen sind genau wie die (gewöhnlichen) Besselfunktionen in Tabellenwerken mit ihren Eigenschaften und Werten verzeichnet, und in Programmbibliotheken oder Systemen wie matlab stehen Unterprogramme zu ihrer Berechnung zur Verfügung. Anpassung an ausschließlich z-abhängige Randdaten beim endlichen Zylinder Oben haben wir festgestellt, dass die allgemeine Darstellung der Funktion Z(z) durch eine Fourier-Reihe gegeben ist. Wenn keine ϕ-Abhängigikeit zu betrachten ist, können 103 wir m = 0 setzen. Damit erhalten wir als Lösungen für einen Vollzylinder mit Radius %A dessen Achse sich von z = −h bis z = h erstreckt, eine Fourier-Reihe. Dabei kann man sich zur Veranschaulichung den gegebenen Zylinder periodisch entlang der z-Achse fortgesetzt vorstellen. Wegen der 2h-Periodizität bezüglich z brauchen nur Grundlösungen mit k = kn = nπ/h herangezogen werden. Eine Abhängigkeit von der radialen Basisfunktion K0 ist ausgeschlossen, da – wie zuvor – im Inneren des Vollzylinders keine Singularität auftreten darf. Somit folgt (beachte I0 (0) = 1) V (%, ϕ, z) = V (%, z) (5.11) ∞ X ∞ X E0 I0 (0) + En I0 (kn %) cos(kn z) + Fn I0 (kn %) sin(kn z) 2 n=1 n=1 ∞ ∞ nπ nπ X nπ nπ E0 X + En I0 % cos z + Fn I0 % sin z . = 2 h h h h n=1 n=1 = Die Bestimmung der Koeffizienten En und Fn erfolgt durch Koeffizientenvergleich des Lösungsansatzes (5.11) an der Stelle % = %A mit der Fourier-Entwicklung der gege A benen z-abhängigen Randfunktion. Hierbei kann I0 nπ% jeweils als Konstante 6= 0 h betrachtet werden, deren genauer Wert jederzeit aus Tabellen oder mit matlab bestimmt werden könnte. Die Besselsche Differentialgleichung und Verwandte Die Gleichung 1 0 n2 y + y + 1− 2 y =0 x x 00 (5.12) für y = y(x) wird als Besselsche Differentialgleichung bezeichnet. In Anwendungen ist diese Gleichung in der Regel mindestens durch Skalieren des Arguments modifiziert. Eine sehr bequeme Formel, um skalierte Bessel- und Neumann-Funktionen der zugehörigen Gleichung zuzuordnenn, ist diese: 1 − 2α 0 α2 − n2 γ 2 γ−1 2 w + (βγx ) + w=0 w + x x2 (5.13) w(x) = xα Zn (βxγ ). (5.14) 00 wird gelöst durch Dabei bezeichnet Zn irgendeine Linearkombination von Bessel- und Neumann-Funktionen der Ordnung n. 104 Eigenschaften der Zylinderfunktionen x m 1 Jm (x) ≈ 2 m! m (m − 1)! 2 Nm (x) ≈ − π x 2 γx 2 N0 (x) ≈ ln ≈ ln x π 2 π r 2 π mπ cos x − − Jm (x) ≈ πx 4 2 r π mπ 2 sin x − − Nm (x) ≈ πx 4 2 x m 1 Im (x) ≈ 2 m! m (m − 1)! 2 Km (x) ≈ π x γx K0 (x) ≈ − ln ≈ − ln x 2 ex Im (x) ≈ √ 2πx √ −x πe Km (x) ≈ √ 2x für |x| 1 für |x| 1 , m = 1, 2, . . . für |x| 1 , (γ ≈ 1, 781) für x −→ ∞ für x −→ ∞ für 0 < x 1 für 0 < x 1 , m = 1, 2, . . . für 0 ≤ x 1 , (γ ≈ 1, 781) für x −→ ∞ für x −→ ∞ 105 Symbolverzeichnis dV . . . . . . . . . . . . . (~e1 , . . . , ~en ) . . . . . [~x, ~y , ~z] . . . . . . . . . S .............. · ............... ~ ............. dA d~r . . . . . . . . . . . . . . dA . . . . . . . . . . . . . ds . . . . . . . . . . . . . . ∆ .............. δij . . . . . . . . . . . . . . det . . . . . . . . . . . . . div . . . . . . . . . . . . . ∅ ............... grad . . . . . . . . . . . . ∈ ............... ∞ .............. h ·, · i . . . . . . . . . . . Rn . . . . . . . . . . . . . F .............. ¸ ............... dim . . . . . . . . . . . . span . . . . . . . . . . . . − → 0P . . . . . . . . . . . . . ∂C . . . . . . . . . . . . . ∼ .............. × .............. ~0 . . . . . . . . . . . . . . . ~rP Q . . . . . . . . . . . . d(P, Q) . . . . . . . . . 106 Volumenelement (siehe 2.31) geordnete Basis Spatprodukt (siehe 0.30) Vereinigung (siehe 1.5) Skalarprodukt vektorielles Flachenelement (siehe 2.23) vektorielles Linienelement (siehe 2.9) skalares Flachenelement (siehe 2.22) skalares Linienelement (siehe 2.7) Laplace-Operator (siehe 3.5) Kronecker-Symbol (siehe 0.3) Determinante (siehe 0.23) Divergenz (siehe 3.12) Leere Menge (siehe 2.5 Gradient (siehe 3.1 Element (siehe 0.1) Unendlich Skalarprodukt (siehe 0.14) n-dimensionaler Raum der reelen Zahlen (siehe 0.1) Vektorraum (siehe 5.2) geschlossenes Integral (siehe 3.1) Dimension eines Vektorraumes (siehe 0.9) Spann (siehe 0.4) Ortsvektor eines Punktes (siehe 0.1) Rand der Kurve C (siehe 2.5) Equivalent Kreuzprodukt (siehe 0.25) Nullvektor (siehe 0.14) Verbindungsvektor der Punkte P und Q (siehe 1.1) Abstand der Punkte P und Q (siehe 1.1) Griechisches Alphabet Kleinbuchstabe α β γ δ , ε ζ η θ, ϑ ι κ λ µ ν ξ o π ρ, % σ, ς τ υ φ, ϕ χ ψ ω Großbuchstabe A B Γ ∆ E Z H Θ I K Λ M N Ξ O Π P Σ T Υ,Y Φ X Ψ Ω Name Alpha Beta Gamma Delta Epsilon Zeta Eta Theta Iota Kappa Lambda My Ny Xi Omikron Pi Rho Sigma Tau Ypsilon Phi Chi Psi Omega 107 Stichwortverzeichnis Äquipotentialflächen, 70 äquivalent, 41 Einheitsvektoren, kanonische, 12 Abbildung, alternierende bilineare, 25 Abbildung, bilineare, 25 Abbildung, lineare, 13 Abstand, 31 Addition, 7 alternierend, 26 Arbeitsintegral, 46 Axiom, 7 Basis, 12 Basis, orthogonale, 22 Besselfunktion, 102 Besselfunktion 2. Art, 102 Besselsche Differentialgleichung, 104 Betrag, 20 bilineare Abbildung, 25 Bilinearform, 19 Bogenlänge, 44 Cauchy-Schwarz Ungleichung, 21 Cauchy-Schwarze-Ungleichung, 94 definit, positiv, 19 Determinante, Gramsche, 24 Differenzialoperator n-ter Ordnung, 83 Differenzialoperatoren erster Ordnung, 83 Differenzialoperatoren zweiter Ordnung, 83 Dimension, 12 Dirichlet-Bedingung, 89 108 Dirichlet-Problem, 89 Dirichlet-Rand, 89 Divergenz, 68 doppelpunktfrei, 42 doppeltes Vektorprodukt, 28 dreidimensionaler Euklidisch-affiner Raum, 31 Einheitsvektor, 20 Ergiebigkeit, 80 Erzeugnis, lineare, 10 Euklidisch-affinen Raum, 30 Euklidische Struktur, 18 Euklidischer Vektorraum, 19 Flächenintegral, 55 Flussintegral, 56 Fourierkoeffizienten, 96 Fourierreihe, 96 geschlossene Fläche, 58 Gewichtsfunktion, 94 Gradienten, 68 Gradientenfeld, 77 Gramsche Determinante, 24 griechisches Alphabet, 107 Grundlösung, 91 Hauptsatz der Differential- Integralrechnung, 67 Inhalt, 24 isomorph, 14 Isomorphismus, 14 kanonische Einheitsvektoren, 12 kanonische Orientierung, 25 kartesische Komponenten, 33 kartesische Koordinaten, 33 kartesischen Basisfeld, 32 kartesischen Koordinaten, 31 Koeffizienten, 9 komplanar, 28 kontravariant, 17 Koordinaten, 34 Koordinatenfläche, 34 Koordinatenlinien, 34 Koordinatentripel, 34 Kronecker-Symbol, 22 krummliniges Koordinatensystem, 34 Kurve, 41 Kurvenintegral, 45 Laplace-Operator, 83 Laplace-Operator, vektorielle, 85 Laplace-Operator, vektorieller, 85 linear abhängig, 9 linear unabhängig, 9 lineare Abbildung, 13 lineare Erzeugnis, 10 Linearkombination, 9 Maßstabskoeffizienten, 36 Maxwell-Gleichungen, 84 Modelle, 7 negativ orientiert, 25 Neumann-Problem, 89 Neumannfunktion, 102 Normalbereich erster Art, 49 Normalbereich zweiter Art, 49 Normalbereiche, 58 Normalenableitung, 89 Normalenrichtung, 51 Normalenvektor, 50, 51 normieren, 20 Ordnung einer PDG, 89 orientiert, negativ, 25 orientiert, positiv, 25 orientierter dreidimensionaler Euklidischaffiner Raum, 31 orientierter Inhalt, 27 Orientierung, 25 Orientierung, kanonische, 25 orientierungserhaltende Parametertransformation, 41 orthogonal, 35 orthogonale Basis, 22 Orthogonalsystem, 96 Orthonormalbasis, 22 Orthonormalsystem, 96 Ortsvektor, 8, 31 Parameterdarstellung einer Kurve, 41 Parametertransformation, orientierungserhaltende, 41 partielle Differentialgleichung (PDG), 89 positiv definit, 19 positiv orientiert, 25 Potential, 68 quadratisches Mittel, 97 quellenfrei, 80 Quellstärke, 80 Rand, 42 Randwertproblem, 89 Randwertprobleme zweiter Ordnung, 85 regulärer Bereich, 59 regulärer Parameterbereich, 49 Richtungsableitung, 70 Rotation, 68 Satz des Phythagoras, 20 Separationsansatz, 91 skalare Linienelement, 44 Skalarfeld, 32 Skalarmultiplikation, 7 109 Skalarprodukt, 19 Spann, 10 Spatprodukt, 27 stückweise glatt, 41 stückweise glatten, 50 Stammfunktion, 67 Standard-Skalarprodukt, 19 sternförmig, 82 Struktur, Euklidischen, 18 strukturgleich, 14 symmetrisch, 19 Tangenteneinheitsvektor, 42 Tangentenvektor, 41 Tangentenvektoren, 50, 62 Tangentialebene, 52 Tangentialraum, 32 Träger, 42 Transformationsformel, 59 trigonometrischen Funktionen, 96 Untervektorraum, 8 Ursprung, 31 Vektor, 7 Vektorfeld, 32 vektorielle Laplace-Operator, 85 vektorieller Laplace-Operator, 85 vektorielles Flächenelement, 57 vektorielles Linienelement, 47 Vektorpotential, 77 Vektorraum, 7 Vektorraum, Euklidischer, 19 Volumenelement, 64 Winkel, 21 wirbelfrei, 76 Zirkulation, 75 110