Analysis II für Informatiker und Ingenieure Dr. Jan-Willem Liebezeit Wintersemester 2016/17 Teil a: Kapitel 1-5 Teil b: Kapitel 6-8 Bemerkungen: Dieses Skript basiert auf den Ausarbeitungen von Dr. Arthur Gerber aus dem Wintersemester 2013/14, welche wahrscheinlich auch auf den Ausarbeitungen von Dr. Britta Dorn basieren. Meine Überarbeitungen und Ergänzungen für die Wintersemester 2014/15, 2015/16 und 2016/17 motivieren sich aus und gründen auf [12] beziehungsweise dem Vorgängerskript und anderen Skripten von Prof. Schulz, dem Skript zur Analysis II von Prof. Balser (Ulm), der Vorlesung Analysis II von Prof. Leopold (Jena), zum Teil über den Umweg über meine Skripte zur Höheren Mathematik II, sowie den Rückmeldungen der Hörerinnen und Hörer. Etliche der Beweise, die wir weglassen, findet man zum Beispiel in [12]. Fehler, Verbesserungsvorschläge und -wünsche bitte an [email protected]. Textsatz mit LATEX, Grafiken mit TikZ, pgfplots und gnuplot. Inhaltsverzeichnis 1 Der n-dimensionale euklidische Raum 1 1.1 Norm und Abstand . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Topologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.3 Folgen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 2 Funktionen mehrerer Veränderlicher 11 2.1 Skalar- und vektorwertige Funktionen . . . . . . . . . . . . . . . . . . 11 2.2 Stetigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.3 Eigenschschaften stetiger Funktionen . . . . . . . . . . . . . . . . . . 18 3 Diff ’rechnung mehrerer Veränderlicher 21 3.1 Partielle Ableitungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 3.2 Totale Differenzierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . 25 3.3 Richtungsableitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.4 Partielle Ableitungen höherer Ordnung . . . . . . . . . . . . . . . . . 39 4 Anwendungen der Differenzialrechnung 45 4.1 Lokale Extrema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 4.2 Extrema unter Nebenbedingungen . . . . . . . . . . . . . . . . . . . . 50 4.3 Umkehrabbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 4.4 Implizite Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 5 Integration im Rn 63 5.1 Parameterintegrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 5.2 Das Riemann-Integral im Rn . . . . . . . . . . . . . . . . . . . . . . . 65 5.3 Die Transformationsformel . . . . . . . . . . . . . . . . . . . . . . . . 72 6 Kurvenintegrale 77 6.1 Kurven . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 6.2 Kurvenintegrale erster Art . . . . . . . . . . . . . . . . . . . . . . . . 81 iii iv INHALTSVERZEICHNIS 6.3 Kurvenintegrale zweiter Art . . . . . . . . . . . . . . . . . . . . . . . 83 7 Integralsätze 93 7.1 Differenzialoperatoren . . . . . . . . . . . . . . . . . . . . . . . . . . 93 7.2 Oberflächen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 7.3 Oberflächenintegrale . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 7.4 Integralsätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 8 Fourierreihen und Integraltransformationen 119 8.1 Fourierreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 8.2 Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . 129 8.3 Laplace-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . 135 Kapitel 1 Der n-dimensionale euklidische Raum 1.1 Norm und Abstand Wir wollen den Betrag |·|, wie wir ihn von den reellen Zahlen R kennen, verallgemeinern. x1 . n . 1.1.1 Definition. Es sei x = . ∈ R , n ∈ N. Dann definieren wir die Norm xn (Länge, Betrag) von x als kxk := kxk2 := n X x2i i=1 ! 21 q = x21 + · · · + x2n . Der Abstand von zwei Vektoren x, y ∈ Rn ist dann nach dem Satz des Pythagoras v u n uX d(x, y) := kx − yk = t (xi − yi )2 . i=1 Für n = 1 stimmt also diese Definition mit der Definition des Betrags und Abstands in R überein. Allgemeiner kann man wie folgt eine Norm auf Rn definieren: 1.1.2 Definition. Es seien x ∈ Rn und 1 ≤ p ≤ ∞. Dann heißt (Pn |x |p ) p1 , für 1 ≤ p < ∞, i i=1 kxkp := max |x | , für p = ∞. 1≤i≤n i die p-Norm von x. 1 (1.1) 2 KAPITEL 1. DER N -DIMENSIONALE EUKLIDISCHE RAUM x3 a3 (a1 , a2 , a3 )> a2 x2 a1 x1 Abbildung 1.1: Kanonische Länge eines Vektors nach dem Satz des Pythagoras. Ist p nicht explizit angegeben, gehen wir immer von der kanonischen Norm mit p = 2 aus. Durch dp (x, y) := kx − ykp ist dann wieder ein Abstandsbegriff gegeben. Der Betrag in(1.1) wird benötigt, weil für beliebiges x ∈ R und p ≥ 1 sonst möglicherweise xp oder die p-te Wurzel aus der Summe nicht definiert ist. 1.1.3 Beispiel. Es sei x = (1, −3, 2)> ∈ R3 . Dann gilt: kxk1 = |1| + |−3| + |2| = 6, p √ kxk = kxk2 = 12 + (−3)2 + (2)2 = 14, kxk∞ = max { |1| , |−3| , |2| } = 3. Jede der oben definierten Normen hat die folgenden Eigenschaften: 1.1.4 Bemerkung. Es seien x, y ∈ Rn , λ ∈ R und k·k = k·kp für ein 1 ≤ p ≤ ∞. Dann gilt: (N1) kxk ≥ 0 und kxk = 0 ⇔ x = 0 (Definitheit). (N2) kλxk = |λ| kxk (Homogenität). (N3) kx + yk ≤ kxk + kyk (Dreiecksungleichung). Allgemeiner gilt 1.1.5 Definition. Es sei V ein Vektorraum und N : V → R mit den Eigenschaften (N1)-(N3), dann heißt N Norm auf V und V mit der Norm N heißt normierter Raum. 1.1.6 Satz. Auf jedem K-Vektorraum V , K = R oder K = C, mit einem Skalarp produkt h·, ·i, ist für x ∈ V durch hx, xi eine Norm erklärt. Im Fall V = Rn ist dies gerade die 2-Norm. 3 1.1. NORM UND ABSTAND Beweis. Dies folgt aus den Eigenschaften des Skalarprodukts und der Monotonie der Wurzel. Wir betrachten noch die Verallgemeinerung des Abstandsbegriffs, dafür stellen wir zunächst fest: 1.1.7 Bemerkung. Es seien x, y, z ∈ Rn beliebig. Der Abstand d hat folgende Eigenschaften (Me1) d(x, y) ≥ 0 und d(x, y) = 0 ⇔ x = y. (Me2) d(x, y) = d(y, x) (Symmetrie). (Me3) d(x, z) ≤ d(x, y) + d(y, z) (Dreiecksungleichung). Allgemeiner gilt 1.1.8 Definition. Es sei M 6= ∅ und d : M ×M → R habe die Eigenschaften (Me1)(Me3), dann heißt d Abstand oder Metrik auf M und das Paar (M, d) heißt metrischer Raum. 1.1.9 Beispiele. (i) Es sei M 6= ∅, dann ist durch 0, x = y, d(x, y) = 1, x 6= y ein Abstand gegeben (diskrete Metrik). (ii) Betrachten wir die Menge der Codes der Länge n, das heißt die Menge M = { 0, 1 }n , dann ist für x ∈ M durch kxk = n X xk k=1 eine Norm und für x, y ∈ M durch d(x, y) = kx − yk = n X k=1 |xi − yi | ein Abstand (Metrik) definiert. Dieser sogenannte Hamming-Abstand liefert gerade die Anzahl der Stellen, an denen sich die beiden Codes (Vektoren) unterscheiden und spielt zum Beispiel bei der Erkennung und Korrektur von Fehlern bei der Datenübertragung eine Rolle. 4 KAPITEL 1. DER N -DIMENSIONALE EUKLIDISCHE RAUM Aus Analysis I kennen wir abgeschlossene, offene, etc. Intervalle. Im Rn definieren wir analog: 1.1.10 Definition. (i) Es seien x, y ∈ Rn . Dann heißt [x, y] := [x1 , y1 ] × [x2 , y2 ] × · · · × [xn , yn ] das abgeschlossene Intervall [x, y]. Analog definiert man das offene Intervall (x, y), das halboffene Intervall (x, y] beziehungsweise [x, y), usw. (ii) Es seien x0 ∈ Rn und ε > 0. Dann heißt (a) Uε (x0 ) := { x ∈ Rn | kx − x0 k < ε } die (offene) ε-Umgebung von x0 (oder ε-Kugel). (b) U̇ε (x0 ) := Uε (x0 ) \ { x0 } die punktierte ε-Umgebung von x0 . 1.1.11 Bemerkungen und Beispiele. (i) Die ε-Umgebung eines Punktes ist eine offene Menge im Sinn der folgenden Definition 1.2.1 (vergleiche auch Bemerkung 1.2.2 und siehe Lemma 1.2.3). (ii) In R ist Uε (x0 ) das offene Intervall (x0 − ε, x0 + ε). (iii) In R2 mit der 2-Norm k·k2 ist Ur (0) die Kreisscheibe um den Ursprung mit Radius r ohne Rand. Für andere Normen müssen die zugehörigen ε-Kugeln aber nicht kreis- oder kugelförmig sein. y U1 (0) in der ∞-Norm U1 (0) in der 2-Norm (Kreis) x U1 (0) in der 1-Norm Abbildung 1.2: 1-Kugeln in verschiedenen p-Normen 5 1.2. TOPOLOGIE 1.2 Topologie Da selbst anschaulich einfache Mengen, wie es im Eindimensionalen Intervalle sind, im Mehrdimensionalen nicht mehr nur über die Zugehörigkeit der Eckpunkte zur Menge beschrieben werden können, wollen wir Mengen im Rn genauer charakterisieren. xR M xI xIso Abbildung 1.3: Zur Topologie im Rn . xI – innerer Punkt, xIso – isolierter Punkt, xR – Randpunkt von M , jeweils mit Umgebung dargestellt. Der nicht durchgezogene Teil des Randes von M gehört nicht zu M . 1.2.1 Definition. Es sei M ⊂ Rn . (i) x ∈ M heißt innerer Punkt von M , wenn es eine ε-Umgebung von x gibt, die ganz in M liegt. Also x ∈ M innerer Punkt :⇔ ∃ε > 0 : Uε (x) ⊂ M . Die Menge aller inneren Punkte von M heißt Inneres von M und wird mit M̊ bezeichnet. (ii) M heißt offen, wenn jeder Punkt von M innerer Punkt ist. Also M offen :⇔ M = M̊ . (iii) x ∈ Rn heißt Häufungspunkt von M , wenn jede punktierte ε-Umgebung von x Elemente aus M enthällt. Kurz x ∈ Rn Häufungspunkt :⇔ ∀ε > 0 M ∩ U̇ε (x) 6= ∅. (iv) x ∈ M heißt isolierter Punkt, wenn es eine ε-Umgebung von x gibt, deren Durchschnitt mit M nur aus x besteht. Das heißt x ∈ M isolierter Punkt :⇔ ∃ε > 0 M ∩ Uε (x) = { x }. (v) x ∈ Rn heißt Randpunkt von M , wenn in jeder ε-Umgebung von x ein Element von M und M c (= Rn \ M ) liegt. Also x ∈ Rn Randpunkt von M :⇔ ∀ε > 0∃x1 , x2 ∈ Uε (x) : x1 ∈ M ∧ x2 ∈ M c . Die Menge aller Randpunkte von M heißt Rand von M und wird mit ∂M bezeichnet. 6 KAPITEL 1. DER N -DIMENSIONALE EUKLIDISCHE RAUM (vi) M heißt abgeschlossen, wenn M c offen ist. (vii) Die Menge M := { x ∈ Rn | x ∈ M oder x ist Häufungspunkt } heißt der Abschluss von M . (viii) M heißt beschränkt, falls M ⊂ UK (0) für ein K > 0. (ix) M heißt kompakt, falls M abgeschlossen und beschränkt ist. 1.2.2 Bemerkungen. (i) Häufungspunkte und Randpunkte können zu M gehö- ren, müssen es aber nicht. Es sei beispielsweise M = (1, 2] ∪ { 3 }. Dann ist 2 ∈ M ein Häufungspunkt, 1, 5 ∈ M ist ein Häufungspunkt, 1 ∈ / M ist ein Häufungspunkt und 3 ∈ M ist kein Häufungspunkt. Die Punkte 1, 2, 3 sind Randpunkte und M besitzt als einzigen isolierten Punkt die 3. (ii) Ein Randpunkt ist nie ein innerer Punkt und umgekehrt, also gilt ∂M ∩ M̊ = ∅. (iii) Im Rn sind ∅ und Rn die einzigen Mengen, die sowohl abgeschlossen als auch offen sind. (iv) Die Topologie hängt von der Definition der offenen Mengen ab. Bei uns also von der Wahl der Norm. (v) In endlich-dimensionalen Vektorräumen sind alle Normen äquivalent. Das bedeutet: Sind k·k1 , k·k2 beliebige Normen auf einem Vektorraum V , dann gibt es Konstanten c1 , c2 > 0 so, dass ∀x ∈ V c1 kxk2 ≤ kxk1 ≤ c2 kxk2 . Damit ist für das Verhältnis eines Punktes x ∈ Rn zu einer Menge M unerheblich, welche Norm verwendet wird. Ist beispielsweise x ein Randpunkt von M bezüglich einer Norm, so gilt dies bezüglich jeder anderen Norm ebenfalls. 1.2.3 Lemma. Offene ε-Umgebungen sind offene Mengen. Beweis. Es seien ε > 0, x0 ∈ Rn und x ∈ Uε (x0 ) (vergleiche Abbildung 1.4). Wir setzen ε0 := ε − kx − x0 k > 0, dann ist Uε0 (x) ⊂ Uε (x0 ), denn für x0 ∈ Uε0 (x) gilt kx0 − x0 k ≤ kx0 − xk + kx − x0 k < ε0 + kx − x0 k = ε. Also folgt x0 ∈ Uε (x0 ). Für offene und abgeschlossene Mengen gelten die folgenden „Rechenregeln“: 7 1.2. TOPOLOGIE ε Uε0 (x) x ε0 x0 kx − x k 0 Uε (x0 ) Abbildung 1.4: Eine offene ε-Kugel ist eine offene Menge. 1.2.4 Satz. (i) Der Durchschnitt endlich vieler offener Mengen ist offen. (ii) Die Vereinigung unendlich vieler offener Mengen ist offen. (iii) Der Durchschnitt unendlich vieler abgeschlossener Mengen ist abgeschlossen. (iv) Die Vereinigung endlich vieler abgeschlossener Mengen ist abgeschlossen. Beweis. Wir zeigen (i) und (iv): Es seien Oj ⊂ Rn , j = 1, . . . , N offen und sei O := TN j=1 Oj ihr Durchschnitt. Weiter sei x ∈ O beliebig gewählt. Dann gilt ∀j = 1, . . . , N ∃rj : Urj (x) ⊂ Oj . Wir setzen r := min { r1 , . . . , rN }, dann ist Ur (x) ⊂ Urj (x) für alle j = 1, . . . , N und damit Ur (x) ⊂ O. Also ist x ein innerer Punkt von O. Zur Aussage (iv): Es seien Aj ⊂ Rn , j = 1, . . . , N abgeschlossen. Dann sind die Komplemente Acj nach Definition offen für j = 1, . . . , N und nach 1.2.4 (i) ist T T c S c auch N A offen. Nach den de Morganschen Regeln gilt A = ( Aj )c , also ist j j j=1 S c S N offen und damit ist N j=1 Aj j=1 Aj nach Definition abgeschlossen. 1.2.5 Beispiele. Die Beschränkungen auf endlich viele Mengen in Satz 1.2.4 (i) und (iv) ist notwendig: (i) Betrachte die offenen Mengen Oj := − 1j , 1j , j ∈ N. Dann ist der (unendliche) T Durchschnitt j∈N Oj = { 0 } keine offene Menge. (ii) Durch Ak := k1 , 1 werden für k ∈ N abgeschlossene Mengen definiert, deren S Vereinigung k∈N Ak = (0, 1] nicht abgeschlossen ist. 8 KAPITEL 1. DER N -DIMENSIONALE EUKLIDISCHE RAUM 1.2.6 Bemerkung. Hat man eine Menge R 6= ∅ und eine Menge O von Mengen, welche bezüglich endlicher Durchschnitte und beliebiger Vereinigungen abgeschlossen ist, so nennt man (R, O) einen topologischen Raum. Der Rn ist mit der aus den offenen Kugeln durch endliche Durchschnitte und beliebige Vereinigungen erzeugten Menge der offenen Mengen ein topologischer Raum. 1.3 Folgen 1.3.1 Definition. Es sei (xk )k∈N eine Folge in Rn , wie in den reellen Zahlen bedeutet dies, dass eine Abbildung ϕ : N → Rn mit ϕ(k) = xk ∈ Rn existiert. (i) (xk )k∈N heißt beschränkt, wenn gilt: ∃K > 0 ∀k ∈ N : kxk k ≤ K. (ii) (xk )k∈N heißt konvergent gegen den Grenzwert x ∈ Rn , wenn gilt: ∀ε > 0 ∃N ∈ N ∀k ∈ N : k ≥ N ⇒ kxk − xk < ε. Wir schreiben wieder: limk→∞ xk = x oder xk → x für k → ∞. (iii) (xk )k∈N heißt divergent, falls (xk ) nicht gegen ein x konvergiert. (iv) (xk )k∈N heißt Cauchy-Folge, wenn gilt: ∀ε > 0 ∃N ∈ N∀m, ` : m, ` ≥ N ⇒ kx` − xm k < ε. (v) (xk )k∈N heißt Nullfolge, wenn gilt: (xk ) → 0 für k → ∞. Ebenfalls analog zum eindimensionalen Fall werden für Folgen in Rn die Begriffe Teilfolge und Häufungspunkt definiert. 1.3.2 Beispiel. Die durch xk := R2 ist eine Nullfolge. 1 > 1 , k k Beweis. Es sei ε > 0. Wähle N 3 N > falls k ≥ N . 1 k 1 k ! − ! 0 = 0 1 k 1 k = √ 2 . ε 1 k 1 k ! für k ∈ N definierte Folge (xk ) ⊂ Dann gilt ! s √ 2 r 2 1 1 2 2 + = = < ε, = 2 k k k k 9 1.3. FOLGEN Die in Analysis I behandelten Sätze gelten analog im Mehrdimensionalen: 1.3.3 Satz. Es sei (xk )k∈N eine Folge in Rn . Dann gilt: (i) Wenn (xk )k∈N konvergiert, dann ist der Grenzwert eindeutig bestimmt. (ii) Wenn (xk )k∈N konvergiert, dann ist (xk )k∈N beschränkt. Die Kontraposition lautet: Ist (xk )k∈N unbeschränkt, so auch divergent. (iii) Satz von Bolzano-Weierstraß: Ist (xk )k∈N beschränkt, so existiert eine konvergente Teilfolge von (xk )k∈N . (iv) Cauchy-Kriterium: (xk )k∈N ist genau dann konvergent, wenn (xk )k∈N eine Cauchy-Folge ist. Dies bedeutet, dass der Rn vollständig ist. (v) Grenzwertsätze: Summen und (skalares) Vielfaches konvergenter Folgen sind konvergent. Damit ist auch durch die Folge der Skalarprodukte konvergenter Folgen eine konvergente Folge gegeben. (vi) Der Grenzwert kann komponentenweise betrachtet werden: (1) limk→∞ xk = x(1) , (2) (2) lim k→∞ xk = x , lim xk = x ⇔ .. k→∞ . (n) lim x = x(n) . k→∞ k (j) Dabei bezeichnet xk die j-te Komponente (j = 1, . . . , n) des k-ten Folgengliedes xk . Beweis. Diese Aussagen beweist man zur Übung leicht selber, dabei folgen viele Aussagen völlig analog zum eindimensionalen Fall. Für den Satz von BolzanoWeierstraß findet man zunächst mit dem eindimensionalen Satz eine Teilfolge, die in der ersten Komponente konvergiert und kann dann von dieser iterativ Teilfolgen auswählen, die in immer mehr Komponenten konvergieren. Siehe zum Beispiel [12]. 1.3.4 Beispiele. (i) Es sei durch xk = k 1 k ! eine Folge im R2 gegeben. Die erste Komponente von (xk )k∈N ist offenbar unbeschränkt. Also divergiert (xk )k∈N unabhängig vom Verhalten der zweiten Komponente. 10 KAPITEL 1. DER N -DIMENSIONALE EUKLIDISCHE RAUM (ii) Wir betrachten die durch xk = 2+ 1 k 1 k k 1+ für k → ∞ nach den Grenzwertsätzen. ! definierte Folge. Es gilt xk → ! 2 e 1.3.5 Bemerkung. In endlich-dimensionalen Vektorräumen wie dem Rn sind alle Normen äquivalent (siehe Bemerkung 1.2.2 (v)). Daher kann man bei Konvergenzuntersuchungen je nach Situation auf eine besser geeignete Norm zurückgreifen, ohne dass das Ergebnis der Untersuchung davon abhängt. 1.3.6 Bemerkung. Die Begriffe Abgeschlossenheit, Randpunkte und Häufungspunkte von Mengen aus Definition 1.2.1 kann man einfach in die Sprache der Folgen übersetzen: Es sei ∅ = 6 M ⊂ Rn . (i) x0 ist ein Häufungspunkt von M , falls eine Folge (xk )k∈N ⊂ M \{ x0 } existiert mit xk → x0 für k → ∞. (ii) x0 ist ein Randpunkt von M , wenn es Folgen (xk )k∈N ⊂ M und (x0k )k∈N ⊂ M c gibt mit xk → x0 und x0k → x0 für k → ∞. (iii) M ist abgeschlossen, wenn für jede konvergente Folge (xk )k∈N ⊂ M gilt, dass es ein x0 ∈ M gibt mit xk → x0 für k → ∞. 1.3.7 Bemerkung. Über das Cauchy-Kriterium kann man Vollständigkeit in allgemeineren Räumen definieren. Ein vollständiger normierter Raum heißt BanachRaum, ein Vektorraum mit einem Skalarprodukt, der bezüglich der vom Skalarprodukt induzierten Norm vollständig ist, heißt Hilbert-Raum. Kapitel 2 Funktionen mehrerer Veränderlicher 2.1 Skalar- und vektorwertige Funktionen 2.1.1 Definition. (i) Eine reelle Funktion von mehreren Veränderlichen (Varia- blen) ist eine Funktion x1 f1 (x) . .. 7→ f (x) = ... . f : D ⊂ Rn → Rm , x = xn fm (x) Das heißt, f ordnet einem Vektor x = (x1 , . . . , xn )> aus dem Definitionsbereich D ⊂ Rn einen Vektor f (x) = f (x1 , . . . , xn ) = (f1 (x), . . . , fm (x))> aus dem Bildbereich Rm zu. (ii) Je nach Dimension m des Bildbereichs unterscheidet man: • m = 1 : skalare Funktion (Skalarfeld), das heißt f : D → R, • m > 1 : vektorwertige Funktion (Vektorfeld). Ist n = 1 und f stetig, heißt f Parameterdarstellung einer Kurve (siehe IIb, Kapitel 6). (iii) f heißt beschränkt, wenn es ein K > 0 gibt mit ∀x ∈ D : kf (x)k ≤ K. 2.1.2 Bemerkung. Ist die Dimension des Urbildraums n ≤ 3, so verwendet man meist keine Indizes und schreibt statt x = (x1 , x2 , x3 )> dann x = (x, y, z)> . Hier be- steht unter Umständen Verwechslungsgefahr durch die Bezeichnung für x als Vektor oder Komponente! 11 12 KAPITEL 2. FUNKTIONEN MEHRERER VERÄNDERLICHER 2.1.3 Bemerkung. Zur Visualisierung skalarer Funktionen f : R2 → R kann man (i) den Graph (x, y, z)> x, y ∈ R, z = f (x, y) von f als Fläche im R3 , (ii) die Höhenlinien beziehungsweise Niveauflächen { (x, y) | f (x, y) = c } (c ∈ R fest) betrachten. Diese Begriffe lassen sich analog auch für skalarwertige Funktionen in höheren Dimensionen definieren. Für vektorwertige Funktionen kann man diese Betrachtungen komponentenweise durchführen oder auch ein Vektorfeld zeichnen. 2 1 0 −1 −2 −2 −1 0 1 2 Abbildung 2.1: Vektorfeld der Funktion f (x, y) = ((1−2x2 )e−x 2 −y 2 , −2xye−x 2 −y 2 )> . 2.1.4 Beispiel. Wir skizzieren den Graph und die Höhenlinien der Funktion f : R2 → R, f (x, y) = x2 + y 2 . 2 9 7 7 1 −2 0 0 2 −2 2 −2 −3 4 2 1 5 2 0 −1 0. 5 0 3 10 4 5 3 1 5 9 4 2 9 −2 5 7 −1 4 0 3 7 1 9 2 3 Abbildung 2.2: Graph (Paraboloid) und Höhenlinien von f (x, y) = x2 + y 2 . 13 2.2. STETIGKEIT 2.2 Stetigkeit Wir definieren analog zu Analysis I mit Hilfe von Folgen die Stetigkeit von mehrdimensionalen Funktionen: 2.2.1 Definition. Eine Funktion f : D ⊂ Rn → R heißt (i) stetig a ∈ D, wenn ∀ε > 0 ∃δ > 0 : x ∈ Uδ (a) ∩ D ⇒ f (x) ∈ Uε (f (a)). (2.1) Mit Hilfe der Norm notiert, erhält man die selbe Form wie in Analysis I: ∀ε > 0 ∃δ > 0∀x ∈ D : kx − ak < δ ⇒ |f (x) − f (a)| < ε. (ii) Eine vektorwertige Funktion f : D ⊂ Rn → Rm , x 7→ (f1 (x), . . . , fm (x))> heißt stetig in a ∈ D, wenn alle Komponentenfunktionen fi : D → R, 1 ≤ i ≤ m, in a stetig sind1 . (iii) f heißt stetig auf D, wenn f stetig in allen a ∈ D ist. Es gilt wieder das 2.2.2 Folgenkriterium. Eine Funktion f : D ⊂ Rn → Rm ist genau dann in a ∈ D stetig, wenn für alle Folgen (ak )k∈N ⊂ D mit ak → a für k → ∞ gilt, dass limk→∞ f (ak ) = f (a). Wie in Analysis I gelten folgende „Rechenregeln“: 2.2.3 Satz. (i) Es seien f, g : D ⊂ Rn → Rm stetig in a ∈ D und λ ∈ R. Dann sind auch f ± g, f · g (falls m > 1 als Skalarprodukt interpretiert), λf , kf k und falls g : D → R \ { 0 } auch f g stetig in a ∈ D. (ii) Es seien f : D1 ⊂ Rn → D2 ⊂ Rm in a ∈ D1 und g : D2 → Rd stetig in f (a) ∈ D2 . Dann ist auch die Hintereinanderausführung g ◦ f : D1 → Rd stetig in a ∈ D1 . 2.2.4 Bemerkung. Wie in der Analysis I muss man zum Nachweis von Stetigkeit über das Folgenkriterium alle konvergenten Folgen an → a betrachten, das heißt, für eine beliebige entsprechende Folge zeigen, dass auch f (an ) → f (a) gilt. Dazu muss man einen geeigneten Ansatz wählen. Oft helfen dabei Polarkoordinaten oder Reihenentwicklung (siehe unten). Zum Nachweis der Unstetigkeit einer Funktion reicht es schon, eine Folge an → a zu finden, für welche f (an ) → f (a) nicht gilt. 1 Man kann hier auch wieder (2.1) zur Definition heranziehen 14 KAPITEL 2. FUNKTIONEN MEHRERER VERÄNDERLICHER 2.2.5 Beispiel (Unstetigkeit zeigen). Betrachte die Funktion f : R2 → R mit xy für (x, y)> 6= (0, 0)> , x2 +y 2 f (x, y) := 0 für (x, y)> = (0, 0)> . f ist nach Satz 2.2.3 für (x, y)> 6= (0, 0)> stetig. Zu untersuchen bleibt der Fall 0.5 0 −0.5 0.1 0 −0.1 0 0.1 −0.1 Abbildung 2.3: Zu Beispiel 2.2.5, man beachte die numerischen Artefakte auf der durch x = y gegebenen Geraden, auf der die Funktion außerhalb des Ursprungs konstant ist. 1 1 > , n n (x, y)> = (0, 0)> . Betrachte dazu die durch an = für n ∈ N gegebene Folge. Diese hat offensichtlich den Grenzwert a = (0, 0)> – anschaulich nähern wir uns dem Nullpunkt in der x − y-Ebene auf der ersten Winkelhalbierenden. Es gilt dann: 1 1 · 1 1 1 n n lim f (an ) = lim f , = lim 2 = 6= 0 = f (0, 0) = f (a). 2 1 1 n→∞ n→∞ n→∞ n n 2 + n n Somit ist f im Nullpunkt nach Definition 2.2.1 nicht stetig. Vorsicht: Wählt man die Folge ungeschickt, sieht man die Unstetigkeit nicht: > Betrachten wir zum Beispiel die an = n1 , 0 für n ∈ N gegebene Folge mit an → (0, 0)> (hier nähern wir uns dem Nullpunkt in der x − y-Ebene auf der x-Achse von rechts), dann ist lim f (an ) = lim f n→∞ n→∞ 1 , 0 = lim n→∞ n 1 n ·0 1 2 n +0 = 0 = f (0, 0). Die alternative Argumentation mit dem kontinuierlichen Grenzwert hat folgende Gestalt: Wir nähern uns dem Nullpunkt auf der Geraden y = x. Das heißt, wir betrachten f (x, x). Dann gilt lim (x,y)→(0,0) x=y f (x, y) = xy x·x x2 1 = lim = lim = 6= f (0, 0). 2 2 2 2 2 x→0 x + x x→0 2x (x,y)→(0,0) x + y 2 lim x=y 15 2.2. STETIGKEIT Auch hier kann die ungeschickte Wahl der Folge die Unstetigkeit „verbergen“: lim (x,y)→(0,0) y=0 f (x, y) = lim (x,y)→(0,0) x2 y=0 x·0 xy = 0 = f (0, 0). = lim 2 2 x→0 +y x +0 Damit existiert der Grenzwert lim(x,y)→(0,0) f (x, y) nicht. Wir bemerken dazu: Bei mehrdimensionalen Grenzwertbetrachtungen darf man die Grenzwerte im Allgemeinen nicht auseinanderziehen: 0·x = 0, x→0 x2 + 0 lim lim f (x, y) = lim x→0 y→0 aber lim(x,y)→(0,0) f (x, y) existiert nach unseren Überlegungen nicht! Ein wichtiges Hilfsmittel beim Nachweis der Stetigkeit von Funktionen sind 2.2.6 Polarkoordinaten. Jeder Punkt p = (px , py )> = (x, y)> der Ebene kann durch seinen Abstand r zum Ursprung und den Winkel ϕ zur x-Achse in sogenannten Polarkoordinaten (r, ϕ)> dargestellt werden. Der Winkel ϕ ∈ [0, 2π) ist eindeutig, p wenn p 6= 0 gilt. Genauer ist r = p2x + p2y = kpk der Abstand von p zum Ursprung y p py = r sin(ϕ) r ϕ px = r cos(ϕ) x Abbildung 2.4: Polarkoordinaten und ϕ der von der x-Achse und der Strecke Op eingeschlossene Winkel (vergleiche Abbildung 2.4). Es gilt beispielsweise tan ϕ = y x für x 6= 0. Wir haben damit eine bijektive Abbildung von R \ { 0 } → (0, +∞) × [0, 2π), (x, y)> 7→ (r, ϕ)> . 2 Auch in höheren Dimensionen kann man eine Verallgemeinerung von Polarkoor- dinaten einführen (Kugelkoordinaten, sphärische Koordinaten, siehe Beispiel 5.3.6 und Bemerkung 7.3.7) und dann im Folgenden ähnlich argumentieren. Da es aber für die Grenzwertproblematik bei mehreren Variablen genügt, den zweidimensionalen Fall zu betrachten, wollen wir das an dieser Stelle nicht vertiefen. 16 KAPITEL 2. FUNKTIONEN MEHRERER VERÄNDERLICHER 2.2.7 Beispiel (Stetigkeit mit Polarkoordinaten zeigen). Betrachte f : R2 → R mit f (x, y) := √ 1 x2 +y 2 · sin 1 p x2 + y 2 für (x, y)> 6= (0, 0)> , für (x, y)> = (0, 0)> . Die Funktion f ist nach Satz 2.2.3 für (x, y)> 6= (0, 0)> stetig. Zu untersuchen bleibt daher der Fall (x, y)> = (0, 0)> : Wir betrachten eine beliebige Folge (an )n∈N , an = (xn , yn )> → (0, 0)> , und schreiben die Koordinaten xn und yn in Polarkoordinaten, das heißt an = (rn · cos ϕn , rn · sin ϕn )> → (0, 0)> . Es gilt dann insbesondere rn → 0 für n → ∞. Diese Folge in f eingesetzt ergibt: lim f (an ) = lim f (rn cos ϕn , rn sin ϕn ) n→∞ n→∞ 1 = lim p n→∞ rn2 cos2 ϕn + rn2 sin2 ϕn 1 sin rn = 1 = f (0, 0). = lim n→∞ rn q sin rn2 cos2 ϕn + rn2 sin2 ϕn Damit haben wir gezeigt: Egal mit welcher Folge (an )n∈N wir uns dem Nullpunkt nähern, erhalten wir den Grenzwert limn→∞ f (an ) = 1 = f (0, 0) und damit ist die Funktion auch in (0, 0)> stetig. 2.2.8 Beispiel. Mit Hilfe von Polarkoordinaten kann man auch die Unstetigkeit von Funktionen nachweisen. Wir betrachten noch einmal die Funktion aus Beispiel 2.2.5: xy für (x, y)> 6= (0, 0)> , x2 +y 2 f (x, y) := 0 für (x, y)> = (0, 0)> . Ist (an )n∈N , an = (rn · cos ϕn , rn · sin ϕn )> 6= (0, 0)> eine Folge mit an → (0, 0) für n → ∞, so gilt: lim f (an ) = lim f (rn cos ϕn , rn sin ϕn ) n→∞ n→∞ = lim rn cos ϕn · rn sin ϕn cos2 ϕn + rn2 sin2 ϕn n→∞ r 2 n = lim cos ϕn · sin ϕn . n→∞ Wählen wir ϕn = π 4 konstant, dann ist lim cos ϕn · sin ϕn = n→∞ 1 6= 0 = f (0, 0) 2 und die Funktion damit im Ursprung nicht stetig. 17 2.2. STETIGKEIT 2.2.9 Merkregel. Wenn der Grenzwert in Polarkoordinaten (tatsächlich) von ϕ = limn→∞ ϕn abhängig ist, kann die Funktion in dem untersuchten Punkt nicht stetig sein. 2.2.10 Bemerkung. Um die Stetigkeit oder Unstetigkeit mit Hilfe von Polarkoordinaten in einem beliebigen Punkt (x0 , y0 ) ∈ R2 zu untersuchen, führt man durch p r0 = (x − x0 )2 + (y − y0 )2 , und ϕ0 als Winkel zwischen (x, y) − (x0 , y0 ) und der durch y = y0 gegebenen Achse in dem Punkt (verschobene) Polarkoordinaten ein. Der Nachweis der Stetigkeit mit Polarkoordinaten ist nicht immer am Besten geeignet (abhängig von der zu untersuchenden Funktion). Eine weitere Möglichkeit ist die Nutzung von der Reihenentwicklung bekannter Funktionen (zum Beispiel trigonometrische Funktionen oder Exponentialfunktion). 2.2.11 Beispiel (Reihenentwicklung zum Nachweis von Stetigkeit nutzen). Betrachte f : R2 → R mit 1−cos(xy) y f (x, y) := 0 für y 6= 0, für y = 0. f ist nach Satz 2.2.3 für (x, y)> ∈ R × (R \ { 0 }) stetig. Es sei (an )n∈N = (xn , yn )> n∈N mit an → (x0 , 0) für n → ∞ ein beliebige konvergente Folge. Wir schreiben f mit Hilfe der Reihendarstellung des Cosinus cos(xy) = ∞ X (−1)k k=0 in der Form f (x, y) = 1− P∞ (2k)! (−1)k 2k k=0 (2k)! (xy) y 1 2 2 1 4 4 x y + x y − ··· + ··· 2! 4! (xy)2k = 1 − = − P∞ (−1)k 2k k=1 (2k)! (xy) y 2 = −x y ∞ X (−1)k k=1 (2k)! (xy)2(k−1) . Die Folge (xn )n∈N ist konvergent und damit beschränkt, etwa durch C. Damit gilt: |f (xn , yn )| ≤ x2n |yn | ≤ C 2 |yn | ∞ X k=1 ∞ X k=1 1 |xn yn |2(k−1) (2k)! C 2(k−1) |yn |2(k−1) . (2k)! Die Potenzreihe auf der rechten Seite ist konvergent, wie man leicht überprüft, und stetig in y, insbesondere ist ihr Wert für kleine yn beschränkt, etwa durch C̃. Es gilt daher lim |f (an )| = lim |f (xn , yn )| ≤ lim C 2 C̃yn = 0. n→∞ Also ist limn→∞ f (an ) = 0. n→∞ n→∞ 18 KAPITEL 2. FUNKTIONEN MEHRERER VERÄNDERLICHER 2.2.12 Zusammenfassung. Wir haben insbesondere folgende Möglichkeiten und Hilfsmittel, um die Stetigkeit/Unstetigkeit einer Funktion zu zeigen: • Unstetigkeit: – Folgenkriterium: Finde eine Folge, welche bei der Definition von Stetigkeit einen Widerspruch erzeugt (Beispiel 2.2.5). – Polarkoordinaten: Ergebnis ist abhängig vom Winkel ϕ (Beispiel 2.2.8). • Stetigkeit: – Satz 2.2.3. – Polarkoordinaten: Ergebnis in Einklang mit Definition (Beispiel 2.2.7). – Reihenentwicklung: Ergebnis in Einklang mit Definition (Beispiel 2.2.11). Welcher Weg letztendlich zum Ziel führt, hängt immer von der gegebenen Funktion ab. Man muss im Allgemeinen verschiedene Vorgehensweisen durchprobieren. 2.3 Eigenschschaften stetiger Funktionen Einige wichtige Eigenschaften stetiger Funktionen übertragen sich aus dem eindimensionalen Fall. 2.3.1 Satz von Weierstraß. Es seien ∅ = 6 D ⊂ Rn kompakt und f : D → R stetig. Dann gilt: (i) f (D) ⊂ R ist kompakt. (ii) f nimmt Maxiumum und Minimum auf D an, das heißt ∃x∗ , x∗ ∈ D ∀x ∈ D : f (x∗ ) ≤ f (x) ≤ f (x∗ ). Beweis. Dies zeigt man völlig analog zum eindimensionalen Fall. Ist f : D → Rm mit m > 1, dann kann man den Satz von Weierstraß auf die Kompo- nentenfunktionen anwenden. Im Allgemeinen nehmen die Komponentenfunktionen aber in jeweils unterschiedlichen Stellen Maximum und Minumum an, das heißt x∗i 6= x∗j etc. für i 6= j, wobei x∗i die Stelle des Maximums der i-ten Komponentenfunktion bezeichnet. Um einen mehrdimensionalen Zwischenwertsatz bereitzustellen, müssen wir zunächst einen Aspekt des Intervallbegriffs aus R auf den Rn verallgemeinern. 19 2.3. EIGENSCHSCHAFTEN STETIGER FUNKTIONEN 2.3.2 Definition. Es sei D ⊂ Rn . (i) Wir nennen D unzusammenhängend, falls es offene Mengen O1 , O2 ⊂ Rn gibt mit D ⊂ O1 ∪ O2 , D ∩ O1 ∩ O2 = ∅, D ∩ Oj 6= ∅ für j = 1, 2. (ii) Wenn dies nicht der Fall ist, heißt D zusammenhängend. 2.3.3 Beispiel. Die Menge A in Abbildung 2.5 ist zusammenhängend, die Menge B nicht. A B Abbildung 2.5: Zusammenhang von Mengen Anschaulicher und für offene Mengen äquivalent ist der Begriff „wegweise zusammenhängend“: Für je zwei Punkte von D gibt es einen Weg von endlicher Länge (vergleiche Abschnitt 6.1), der die Punkte verbindet und ganz in D liegt. 2.3.4 Beispiel. Die durch n o π M = (x, y)> ∈ R2 y = x cos ∧ x ∈ (0, 1] ∨ (x, y) = (0, 0)> x gegebene (abgeschlossene) Menge ist zusammenhängend, aber nicht wegweise zusammenhängend, weil die Länge des Weges von (1, −1)> ∈ M nach (0, 0)> nicht endlich ist (siehe auch Beispiel 6.1.3). y 1 x Abbildung 2.6: Eine zusammenhängende, aber nicht wegweise zusammenhängende Menge (Beispiel 2.3.4). 20 KAPITEL 2. FUNKTIONEN MEHRERER VERÄNDERLICHER Im Eindimensionalen fällt der Begriff des Zusammenhangs mit dem Intervallbe- griff zusammen: 2.3.5 Lemma. Eine Menge D ⊂ R ist genau dann zusammenhängend, wenn sie ein Intervall ist. 2.3.6 Zwischenwertsatz. Es seien ∅ 6= D ⊂ Rn zusammenhängend und f : D → R stetig. Dann gilt: (i) f (D) ⊂ R ist zusammenhängend. (ii) Sind x1 , x2 ∈ D mit y1 = f (x1 ) < f (x2 ) = y2 , dann gibt es zu jedem y ∈ (y1 , y2 ) ein x ∈ D mit f (x) = y. Beweis. Den Zwischenwertsatz zeigt man im Fall einer wegweise zusammenhängenden Menge D über den Weg g : [a, b] → D, der x1 und x2 verbindet und die verkettete Funktion f ◦ g, welche die Voraussetzungen des eindimensionalen Zwischnwertsat- zes erfüllt. Die allgemeine Situation und die Vorarbeiten sind zum Beispiel in [12] dargestellt. Kapitel 3 Differenzialrechnung mehrerer Veränderlicher Wir wollen die “Steigung” in einem Punkt einer mehrdimensionalen Funktion bestimmen. Anders als im eindimensionalen Fall, bei dem die Steigung eindeutig bestimmt ist, hängt diese in höheren Dimensionen von der Richtung ab, aus der man sich dem Punkt nähert. Stellt man sich ein “Funktionsgebirge” vor, so ist klar, dass man bei einer Bewegung parallel zum Hang keine oder kaum Steigung hat und es in andere Richtungen mehr oder weniger steil nach oben oder unten gehen kann. Während man sich bei einem Punkt eines eindimensionalen Intervalls von höchstens zwei Seiten nähern konnte (Grenzwerte von links und von rechts), haben wir bereits in der Ebene einen ganzen Kreis an Möglichkeiten. Wir betrachten zunächst die Situation, dass wir uns entlang der Achsen des Koordinatensystems bewegen, da dies am einfachsten zu berechnen ist und im Fall “guter” Funktionen auch eine leichte Möglichkeit liefert, die Steigung oder Ableitung in beliebiger Richtung zu bestimmen, was wir in Abschnitt 3.3 betrachten werden. 3.1 Partielle Ableitungen Wir betrachten zunächst eine skalare Funktion f : D → R mit D ⊂ Rn offen. Weiter sei a = (a1 , . . . , an )> ∈ D ein fester Vektor. Ersetzt man bis auf xj alle Variablen xi (1 ≤ i 6= j ≤ n) durch die ai , dann ist durch f˜j (xj ) := f (a1 , a2 , . . . , aj−1 , xj , aj+1 , . . . , an ) eine neue Funktion in einer Variablen definiert. Da D offen ist, existiert ein ε > 0 mit Uε (a) ⊂ D. Damit ist f˜j mindestens auf (aj − ε, aj + ε) definiert. Existiert die Ableitung von f˜j in aj , so nennt man sie die partielle Ableitung von f nach xj . Das 21 22 KAPITEL 3. DIFF’RECHNUNG MEHRERER VERÄNDERLICHER bedeutet, die partielle Ableitung nach xj ist die bekannte Ableitung im Eindimensionalen einer entsprechend eingeschränkten (alle anderen Argumente werden auf konkrete Werte gesetzt) Funktion f˜j . 3.1.1 Definition. Es seien D ⊂ Rn offen, a ∈ D, f : D → R eine skalare Funktion und ej der j-te kanonische Einheitsvektor. (i) Dann heißt f in a partiell nach xj differenzierbar (1 ≤ j ≤ n), wenn der Grenzwert f (a + h · ej ) − f (a) h→0 h f (a1 , . . . , aj−1 , aj + h, aj+1 , . . . , an ) − f (a1 , . . . , an ) = lim h→0 h lim existiert. Dieser Grenzwert heißt partielle Ableitung von f nach xj in a und wird mit ∂f ∂ f (a), (a), fxj (a), ∂j f (a) ∂xj ∂xj bezeichnet. (ii) Existiert die partielle Ableitung von f nach xj in allen a ∈ D, so heißt die Funktion fxj : D → R, x 7→ fxj (x) die partielle Ableitung von f nach xj . 3.1.2 Beispiele. (i) Es sei f : R2 → R, f (x1 , x2 ) = 3x1 x2 + 4x2 , dann ist f (x0 + h, y0 ) − f (x0 , y0 ) ∂ f (x0 , y0 ) = lim h→0 ∂x1 h 3(x0 + h)y0 + 4y0 − (3x0 y0 + 4y0 ) = lim h→0 h 3hy0 = lim = 3y0 . h→0 h Einfacher und schneller geht es, wenn man auf die bekannten Ableitungsregeln zurückgreift, was nach unseren Vorbetrachtungen möglich und sinnvoll ist. Wir bestimmen fx2 : Wir behandeln x1 wie eine Konstante und differenzieren f (x1 , x2 ) nach x2 : fx2 = 3x1 + 4. 23 3.1. PARTIELLE ABLEITUNGEN z f (a, b) n x o y x = a z n x o y Gf ∩ x=a z tan ϕ = ϕ ∂f (a, b) ∂y b y a { ( xy ) | x = a } (a, b) x Abbildung 3.1: Partielle Ableitung ∂f ∂y in y-Richtung. Der Graph von f geschnitten mit der Ebene x = a liefert die vertraute eindimensionale Situation (Abbildung angelehnt an [12]). (ii) Es sei f : R3 → R, f (x, y, z) = y 2 x + 3x2 z 3 , dann ist ∂f (x, y, z) = fx (x, y, z) = y 2 + 6xz 3 , ∂x ∂f (x, y, z) = fy (x, y, z) = 2xy + 0, ∂y ∂f (x, y, z) = fz (x, y, z) = 0 + 9x2 z 2 . ∂z (iii) Ein etwas komplizierteres Beispiel ist f : (0, +∞)2 → R, f (x, y) = x2y . Es gilt ∂f ∂f (x, y) = 2yx2y−1 , (x, y) = 2 ln x · x2y . ∂x ∂y Für Vektorfelder führen wir die Definition der partiellen Ableitungen auf die partiellen Ableitungen der Komponentenfunktionen zurück: 24 KAPITEL 3. DIFF’RECHNUNG MEHRERER VERÄNDERLICHER 3.1.3 Definition. Es seien D ⊂ Rn offen, a ∈ D und f : D → Rm eine vektorwer- tige Funktion. Dann heißt für 1 ≤ j ≤ n > ∂f1 ∂fm ∂f (a) = (a), . . . , (a) fxj (a) = ∂xj ∂xj ∂xj die partielle Ableitung von f in a nach xj , falls alle partiellen Ableitungen ∂fk (a) ∂xj für 1 ≤ k ≤ m existieren. Das heißt, die partielle Ableitung von f nach xj existiert also, wenn die partielle Ableitungen nach xj aller skalaren Komponentenfunktionen f1 , . . . , fm von f existieren. In diesem Fall ist fxj (a) gerade der Vektor, der die partiellen Ableitungen der Komponentenfunktionen enthält. 3.1.4 Beispiel. Es sei f : R3 → R2 , f (x, y, z) = y 2 x + 3x2 z 3 zx2 + 2yx ! ∂f1 (x, y, z) ∂x ∂f2 (x, y, z) ∂x ∂f (x, y, z) = fx (x, y, z) = ∂x = ! , dann ist y 2 + 6xz 3 2xz + 2y ! . 3.1.5 Definition. Es seien f : D ⊂ Rn → Rm , D offen und a ∈ D. (i) Existieren alle partiellen Ableitungen heißt ∂f1 (a) ∂x 1 0 f (a) := .. . .. . ∂fm (a) ∂x1 ∂fk (a) ∂xj ∂f1 (a) ∂x2 .. . .. . ··· die Jacobi-Matrix von f an der Stelle a. ··· .. . .. . mit 1 ≤ k ≤ m, 1 ≤ j ≤ n, dann ∂f1 (a) ∂xn .. . .. . ∈ Rm×n m (a) · · · ∂f ∂xn (ii) Im Fall m = 1 (also für skalare Funktionen f : D → R) heißt ∂f (a) ∂x1. > n×1 . ∇f (a) = grad f (a) := (f 0 (a)) = . ∈R ∂f (a) ∂xn der Gradient von f an der Stelle a. Ein paar interessante Eigenschaften des Gradienten werden wir in Abschnitt 3.3 betrachten. 3.1.6 Beispiele. (i) Es sei f : R2 → R, f (x, y) = ex sin y, dann ist ! ! ∂f x (x, y) e sin y ∂x ∇f (x, y) = ∂f = . (x, y) ex cos y ∂y 25 3.2. TOTALE DIFFERENZIERBARKEIT (ii) Es sei f : R3 → R2 , f (x, y, z) = x+y xyz 0 f (x, y, z) = ! , dann ist 1 1 0 yz xz xy ! . 3.1.7 Bemerkung und Beispiel. Im Eindimensionalen impliziert Differenzierbarkeit Stetigkeit: Ist f : R → R differenzierbar in a ∈ R, dann ist f auch stetig in a. Dies gilt für partiell differenzierbare Funktionen im Allgemeinen nicht! Wir betrachten dazu wieder die Funktion aus Beispiel 2.2.5: 2 f : R → R, f (x, y) := xy x2 +y 2 0 für (x, y) 6= (0, 0), für (x, y) = (0, 0). Diese ist im Nullpunkt (0, 0) nicht stetig. Es gilt aber: ∂f f (0 + h, 0) − f (0, 0) (0, 0) = lim = lim h→0 h→0 ∂x h und analog ∂f (0, 0) ∂y h·0 h2 +0 h −0 =0 = 0. Das heißt, f ist im Punkt (0, 0) nicht stetig aber partiell differenzierbar mit ∇f (0, 0) = (0, 0)> . 3.2 Totale Differenzierbarkeit Wir betrachten nun den Aspekt der Ableitung als Approximation der Funktion durch eine (affin) lineare Funktion. Im Eindimensionalen gab es hier keinen wesentlichen Unterschied: zwischen der Bestimmung der Steigung der Tangente an den Graph in einem Punkt a – gegeben durch f 0 (a) – und der Bestimmung der Tangente selber – τa (x) = f (a)+f 0 (a)(x−a) – liegt nur ein kurzes Zusammenfügen bekannter Funktionen und Werte. Im mehrdimensionalen Fall orientieren wir uns am Darstellungssatz für differenzierbare Funktionen. Für eine differenzierbare Funktion f : R → R lautet dieser f (x) = f (a) + f 0 (a)(x − a) + ϕ(x). wobei ϕ : R → R in a stetig ist und limx→a ϕ(x) |x−a| = 0 gilt. Wir wollen eine gege- bene Funktion f : R → R analog als affin lineare Funktion plus einen Fehlerterm n schreiben, der im untersuchten Punkt schnell genug Null wird („verschwindet“): 26 KAPITEL 3. DIFF’RECHNUNG MEHRERER VERÄNDERLICHER 3.2.1 Definition. Es seien D ⊂ Rn offen, a ∈ D und f : D → Rm eine Funktion. Dann heißt f (i) in a total differenzierbar, wenn es eine m × n-Matrix A gibt, so dass f in der Form f (x) = f (a) + A · (x − a) + ϕ(x) geschrieben werden kann, wobei ϕ : D → Rm eine in a stetige Abbildung ist, für die kϕ(x)k =0 x→a kx − ak lim gilt. A heißt dann auch die totale Ableitung von f in a. (ii) total differenzierbar, wenn in f in jedem a ∈ D total differenzierbar ist. 3.2.2 Bemerkungen. (i) Ist f in a total differenzierbar, so ist f in a partiell differenzierbar und es gilt A = f 0 (a) (siehe zum Beispiel [12]). Daher und wegen 3.2.10 sprechen wir oft nur von Differenzierbarkeit und lassen den Zusatz „total“ meistens weg. Dabei ist A = f 0 (a) anschaulich sinnvoll, da die Tangenten in die Achsenrichtungen in der durch die affin lineare Funktion beschriebenen Ebene liegen (sollten). Dass es sich dabei um eine notwendige und keine hinreichende Bedingung handelt, sehen wir in Beispiel 3.2.7. (ii) f 0 (a) ∈ Rm×n ist die Jacobi-Matrix, A · (x − a) = f 0 (a) · (x − a) bezeichnet eine Matrix-Vektor-Multiplikation (im Fall m = 1 entspricht sie dem Skalarprodukt). (iii) Für n = m = 1 stimmt die Definition 3.2.1 mit dem Darstellungssatz für differenzierbare Funktionen überein. 3.2.3 Definition. Ist f : D ⊂ Rn → Rm differenzierbar in a ∈ D, also f (x) = f (a) + f 0 (a)(x − a) + ϕ(x), dann heißt τa (x) = f (a) + f 0 (a)(x − a) die Tangentialebene oder lineare Approximation von f in a. Für n = m = 1 entspricht dies der Tangente an f in a. 27 3.2. TOTALE DIFFERENZIERBARKEIT z τ (x, y) = f (a, b) + f 0 (a, b) · f (a, b) x−a y−b ! b y a (a, b) x Abbildung 3.2: Tangentialebene (Abbildung angelehnt an [12]). 3.2.4 Bemerkungen. (i) Für skalarwertige Funktionen f : D ⊂ R2 → R kann man sich die Tangentialebene veranschaulichen. In einer Umgebung des Punktes ã = (a1 , a2 , f (a1 , a2 )) ∈ Gf wird der Graph von f durch die Ebene mit der Gleichung z = f (a1 , a2 ) + f 0 (a1 , a2 ) · x y ! − a1 !! a2 ! x − a 1 = f (a1 , a2 ) + ∂f (a1 , a2 ) ∂f a ,a ) · ∂x ∂y 1 2 y − a2 ∂f ∂f = f (a1 , a2 ) + (a1 , a2 ) · (x − a1 ) + (a1 , a2 ) · (y − a2 ) ∂x ∂y approximiert. Wie gut die Approximation ist, hängt von der gegebenen Funktion f und vom Abstand von (x, y)> zu a ab. Der allgemeine Fall xn+1 = f (a1 , . . . , an ) + f 0 (a1 , . . . , an )(x1 − a1 , . . . , xn − an )> ist analog. 28 KAPITEL 3. DIFF’RECHNUNG MEHRERER VERÄNDERLICHER (ii) Funktionswerte und „Steigungen“ (Jacobi-Matrizen) der Approximation τa und der Funktion f stimmen in a überein: τa (a) = f (a) + f 0 (a)(a − a) = f (a), τa0 (a) = (f (a) + f 0 (a)(x − a)) = f 0 (a). (iii) Man vergleiche diese lineare Approximation von Funktionen mit dem Satz von Taylor in Analysis I, sie liefert eine Andeutung für den noch zu behandelnden Satz von Taylor im Mehrdimensionalen, Satz 3.4.8. 3.2.5 Beispiel. Es sei f : R2 → R, f (x, y) = −x2 − y 2 . Bestimme die Tangen- tialebene (lineare Approximation) von f im Punkt ã = (0, 2, f (0, 2))> ∈ Gf . Es gilt: ∂f (x, y) ∂x lautet also: = −2x und ∂f (x, y) ∂y = −2y. Die Ebenengleichung der Tangentialebene τ(0,2) (x, y) = z = f (0, 2) + ∂f ∂f (0, 2) · (x − 0) + (0, 2) · (y − 2) ∂x ∂y = −4 + 0 − 4(y − 2) = −4y + 4. Die Tangentialebene wird also beschrieben durch die Gleichung 4y + z − 4 = 0. 20 0 −20 −40 −5 0 x 5 −4 −2 2 0 4 y Abbildung 3.3: Tangentialebene an f (x, y) = −x2 − y 2 im (0, 2, −4)> . Wie in Analysis I gilt für total differenzierbare Funktionen: 3.2.6 Satz. Es sei f : D ⊂ Rn → Rm total differenzierbar in a ∈ D. Dann ist f stetig in a. 29 3.2. TOTALE DIFFERENZIERBARKEIT Beweis. Analog zum eindimensionalen Fall: Es sei f differenzierbar in a. Dann gilt: lim f (x) = f (a) + f 0 (a) lim (x − a) + lim ϕ(x) = f (a). x→a x→a x→a Das folgende Beispiel zeigt, dass die Existenz der partiellen Ableitungen nicht für totale Differenzierbarkeit ausreicht. 3.2.7 Beispiel. Durch f (x, y) = xy 3 x2 +y 4 0, , (x, y)> 6= (0, 0)> , sonst, ist eine überall partiell differenzierbare Funktion gegeben, die aber in (0, 0)> nicht total differenzierbar ist. Für (x, y)> 6= (0, 0)> gilt nämlich 0.5 0 −0.5 −1 −0.5 x 0 0.5 0.5 0 1 −1 −0.5 1 y Abbildung 3.4: Zu Beispiel 3.2.7 ∂f y 3 (x2 + y 4 ) − 2x2 y 3 ∂f 3xy 2 (x2 + y 4 ) − 4xy 6 (x, y) = und (x, y) = ∂x (x2 + y 4 )2 ∂y (x2 + y 4 )2 sowie ∂f (0, 0) ∂x =0= ∂f (0, 0). ∂y Nehmen wir an, dass f in (0, 0)> total differenzierbar wäre, dann gäbe es ein ϕ(x, y) mit ϕ(x, y) = f (x, y) − f (0, 0) − f 0 (0, 0) ((x, y) − (0, 0)) = f (x, y) und ϕ(x,y) k(x,y)> k → 0 für (x, y)> → (0, 0)> . Wir betrachten (t2 , t)> mit t → 0+ : ϕ(t2 , t) t5 t5 1 p √ = ≥ √ = √ 6→ 0 4 4 2 5 2 2 2 2t t + t 2 2t 2 2 (t ) + t für t → 0, ein Widerspruch. 30 KAPITEL 3. DIFF’RECHNUNG MEHRERER VERÄNDERLICHER 3.2.8 Satz. Es sei f : D ⊂ Rn → Rm in einer Umgebung Uε (a) partiell differen- zierbar und die partiellen Ableitungen von f seien in a ∈ D stetig. Dann ist f in a total differenzierbar. 3.2.9 Beispiel. Betrachte die Funktion f : R2 → R mit f (x, y) := x2 y 2 x2 +y 2 0 für (x, y)> 6= (0, 0)> , für (x, y)> = (0, 0)> . Wir berechnen zunächst mit der Quotientenregel die partiellen Ableitungen von f für den Fall (x, y)> 6= (0, 0)> : fx (x, y) = 2xy 2 (x2 + y 2 ) − 2x3 y 2 2xy 4 2x4 y = und f (x, y) = . y (x2 + y 2 )2 (x2 + y 2 )2 (x2 + y 2 )2 Mit Hilfe der Definition berechnen wir die partiellen Ableitungen von f im Ursprung: f (x + h, 0) − f (0, 0) = 0 = fy (0, 0). h→0 h fx (0, 0) = lim Es gilt also: ∇f (x, y) := 4 2xy 4 , 2x y (x2 +y 2 )2 (x2 +y 2 )2 (0, 0)> > für (x, y)> 6= (0, 0)> , für (x, y)> = (0, 0)> . Es bleibt noch zu zeigen, dass ∇f im Ursprung stetig ist. Wir verwenden dazu Polarkoordinaten: lim (x,y)→(0,0) 2r cos ϕ · r4 sin4 ϕ = 0 = fx (0, 0). r→0 r4 fx (x, y) = lim Analog folgt lim(x,y)→(0,0) fy (x, y) = 0 = fy (0, 0). Also ist f nach Satz 3.2.8 in (0, 0)> (total) differenzierbar. Da ∇f nach Satz 2.2.3 für (x, y)> 6= (0, 0)> stetig ist, ist f überall (total) differenzierbar. 3.2.10 Bemerkung. Achtung! Die Umkehrung von Satz 3.2.8 gilt nicht (siehe Beispiel 3.2.11, Übungen und Tutorien). Aber: Wenn U offen ist und f auf U total differenzierbar ist, dann ist f dort auch stetig partiell differenzierbar und umgekehrt. Das heißt im Fall von offenen Mengen stimmen die Begriffe überein, weshalb man dann auch f nur als eine differenzierbare Funktion bezeichnet. 31 3.2. TOTALE DIFFERENZIERBARKEIT 3.2.11 Beispiel. Wir betrachten die Funktion f : R2 → R, (x2 + y 2 ) sin 1 , (x, y)> 6= (0, 0)> , x2 +y 2 f (x, y) = 0, sonst. f ist offenbar in R2 \ { 0 } partiell differenzierbar und es gilt ∂f 1 1 2 2 2 2 −2 (x, y) = 2x sin 2 + (x + y )(−2x)(x + y ) cos ∂x x + y2 x2 + y 2 1 2x 1 = 2x sin 2 − 2 cos 2 , 2 2 x +y x +y x + y2 1 ∂f 2y 1 (x, y) = 2y sin 2 − 2 cos 2 . 2 2 ∂y x +y x +y x + y2 Weiter gilt h2 sin h12 ∂f ∂f (0, 0) = lim =0= (0, 0), h→0 ∂x h ∂y da sin h12 ≤ 1. Aus diesem Grund ist f auch auf R2 stetig, wie man durch Wechsel zu Polarkoordinaten sofort sieht. Die partiellen Ableitungen sind im Ursprung aber nicht stetig, denn beispielsweise existiert für fx (x, y) = 2x sin x2 1 2x 1 − 2 cos 2 2 2 +y x +y x + y2 der Grenzwert für (x, y)> → (0, 0)> nicht: Zunächst konvergiert der erste Summand immer gegen Null, wenn x → 0. Wir betrachten daher nur den zweiten Summanden und setzen x = y. Dann ist der Summand 2x 1 1 1 cos 2 = cos 2 2 2x 2x x 2x auf der Folge (xk )k∈N , xk = 1 und 1 xk → ∞ für k → ∞. √1 4kπ für k ∈ N, nicht beschränkt, da cos 2x12 = cos 2kπ = k Die Funktion ist aber dennoch total differenzierbar in (0, 0)> : Zu zeigen ist: Es gibt eine Funktion ϕ : R2 → R, die in (0, 0)> stetig ist, für die lim(x,y)→(0,0) gilt und die f (x) = f (0, 0) + f 0 (0, 0) · x y ! ϕ(x,y) k(x,y)k =0 + ϕ(x, y) erfüllt. Wegen f (0, 0) = 0 und f 0 (0, 0) = 0 muss ϕ(x, y) = f (x, y) gelten, wenn f in (0, 0)> total differenzierbar ist. Da f stetig ist, bleibt nur noch lim(x,y)→(0,0) zu untersuchen. Wir verwenden Polarkoordinaten (rφ) und erhalten r2 1 f (r, φ) = lim sin 2 = 0, r→0 r→0 r r r lim wiederum wegen der Beschränktheit des Sinus. ϕ(x,y) k(x,y)k 32 KAPITEL 3. DIFF’RECHNUNG MEHRERER VERÄNDERLICHER 3.2.12 Ableitungsregeln. Es seien f, g : D ⊂ Rn → Rm in a ∈ D differenzierbar und λ ∈ R. Dann sind auch f + g, λf , f > g = hf, gi und kf k2 in a differenzierbar und es gilt: (i) (f + g)0 (a) = f 0 (a) + g 0 (a), (ii) (λf )0 (a) = λf 0 (a), (iii) (f > g)0 (a) = f (a)> g 0 (a) + g(a)> f 0 (a) und (iv) (kf k2 )0 (a) = 2f (a)> f 0 (a). Diese Aussagen folgen sofort mit der Definition und den Grenzwerteigenschaften, die ersten beiden Eigenschaften bedeuten die Linearität der Ableitung, die dritte ist eine mehrdimensionale Version der Produktregel. 3.2.13 Kettenregel. Es sei f : D1 ⊂ Rn → D2 ⊂ Rm in a ∈ D1 differenzierbar und sei g : D2 → Rd in f (a) ∈ D2 differenzierbar. Dann ist auch h = g◦f : D1 → Rd in a differenzierbar und es gilt: h0 (a) = (g ◦ f )0 (a) = g 0 (f (a)) · f 0 (a), dabei bezeichnet · im Allgemeinen hier eine Matrizenmultiplikation. Komponentenweise gilt m X ∂gk ∂fj ∂hk (a) = (f (a)) (a). ∂xi ∂yj ∂xi j=1 3.2.14 Beispiel. Gegeben!seien die Funktionen f : R2 → R, f (x, y) = x2 + 3y und cos t g : R → R2 , g(t) = . Wir berechnen die Ableitung von f ◦ g : R → R: Über t den direkten Weg ist (f ◦ g)(t) = f (g(t)) = f (cos t, t) = cos2 t + 3t und damit (f ◦ g)0 (t) = 2 cos t(− sin t) + 3. Mit der Kettenregel gilt (f ◦ g)0 (t) = f 0 (g(t)) · g 0 (t), wobei f 0 (x, y) = (2x 3) und ! − sin t g 0 (t) = . Also ist 1 ! − sin t f 0 (g(t)) · g 0 (t) = (2 cos t 3) · = −2 cos t sin t + 3. 1 Im vorliegenden Fall kann man auch g ◦ f : R2 → R2 betrachten, dann ist ! 2 − sin(x + 3y) g 0 (f (x, y)) · f 0 (x, y) = · (2x 3) 1 ! −2x sin(x2 + 3y) −3 sin(x2 + 3y) = . 2x 3 33 3.2. TOTALE DIFFERENZIERBARKEIT 3.2.15 Beispiel (Künstliche Neuronale Netze). Wir betrachten ein Neuron, dass von n Neuronen Signale s1 , . . . , sn empfangen kann. Die einzelnen Signale si gehen mit dem Gewicht xi , i = 1 . . . , n in die Ausgabe des Neurons ein – dadurch können zum Beispiel unterschiedlich starke Verbindungen zum Neuron modelliert werden. Das Signal, welches das Neuron aussendet ist dann eine differenzierbare Funktion P ϕ ( ni=1 xi si ). Erreicht werden soll nun, dass das Neuron bei festen Eingangssigna- len ein vorgegebenes Ausgangssignal s0 ausgibt, das heißt, es lernt. Den Fehler im Ausgangssignal berechnet man als Funktion der Gewichte mit 2 ! n X E(x1 , . . . , xn ) = ϕ xk s k − s 0 = ϕ k=1 n X xk s k k=1 ! − s0 !2 , wobei wir mit v 2 = v > · v etwas ungenau das Skalarprodukt eines Vektors v mit sich selbst bezeichnen und man betrachtet hier das Quadrat, um eine differenzierbare Funktion zu erhalten. Um den Fehler zu minimieren, das gewünschte Signal also möglichst gut zu lernen, ändert man die Gewichte dann nach einem Gradientenverfahren. Dafür wird ausgenutzt, dass nach 3.3.8 der Gradient in Richtung des stärksten Anstiegs zeigt, man mit neuen Gewichten, die in die entgegengesetzte Richtung zum Gradienten gehen, das Ergebnis also verbessert (den Fehler verringert). Dazu muss der Gradient des Fehlers bestimmt werden. Nach der Kettenregel gilt n X ∂E (x1 , . . . , xn ) = 2 ϕ xk s k ∂xi k=1 =2 ϕ n X k=1 xk s k ! ! − s0 ! ! ∂ ∂xi − s0 ϕ0 ϕ n X xk s k k=1 n X k=1 x k sk ! ! − s0 ! si . ∂E und iteriert das VerfahAls neues Gewicht verwendet man dann x̃i = xi − γ ∂x i ren (γ ist die “Lernrate”). In der Angewandten Numerik und in Optimierung wird untersucht, wann solche und andere Verfahren zum Erfolg führen (konvergieren beziehungsweise auch tatsächlich die gesuchten Ergebnisse liefern). 3.2.16 Mittelwertsatz. Es seien f : D ⊂ Rn → R differenzierbar und x1 , x2 ∈ D mit x1 x2 := { x1 + t(x2 − x1 ) | t ∈ [0, 1] } ⊂ D. Dann gibt es ein ξ ∈ (0, 1) mit f (x2 ) − f (x1 ) = f 0 (x1 + ξ(x2 − x1 )) · (x2 − x1 ). Die Menge x1 x2 bezeichnet die Strecke, die x1 und x2 verbindet. Der Punkt x1 + ξ(x2 − x1 ) mit ξ ∈ (0, 1) ist dann ein innerer Punkt der Strecke x1 x2 . 34 KAPITEL 3. DIFF’RECHNUNG MEHRERER VERÄNDERLICHER Beweis. Wir betrachten die reelle Hilfsfunktion h(t) := f (x1 + t(x2 − x1 )). Die- se ist auf [0, 1] stetig und auf (0, 1) differenzierbar. Nach dem (eindimensionalen) Mittelwertsatz gibt es ein ξ ∈ (0, 1) mit h(1) − h(0) = h0 (ξ). Weiter gilt mit der mehrdimensionalen Kettenregel 3.2.13 h0 (t) = f 0 (x1 + t(x2 − x1 )) · (x2 − x1 ). An der Stelle t = ξ gilt dann f (x2 ) − f (x1 ) = h(1) − h(0) = h0 (ξ) = f 0 (x1 + ξ(x2 − x1 )) · (x2 − x1 ). Für vektorwertige Abbildungen existiert eine Version des Mittelwertsatzes in Integralform, siehe zum Beispiel [12]. Die oben gezeigte Variante ist nicht verwendbar, da die Komponentenfunktionen in diesem Fall im Allgemeinen die verwendeten Zwischenstellen für den eindimensionalen Mittelwertsatz nicht jeweils gleich wären. 3.3 Richtungsableitung Bei den partiellen Ableitungen haben wir untersucht, wie sich die Funktionswerte entlang den Koordinatenachsen ändern. Im Mehrdimensionalen können wir uns einem Punkt des Definitionsgebietes einer Funktion aber aus beliebigen Richtungen nähern. 3.3.1 Definition. Es seien f : D ⊂ Rn → R eine Funktion, a ∈ D und e ∈ Rn mit kek = 1. Dann heißt f in a in Richtung e differenzierbar, wenn der Grenzwert lim+ h→0 f (a + h · e) − f (a) h existiert. Dieser Grenzwert heißt Richtungsableitung von f in a Richtung e und wird mit ∂f (a), ∂e f (a) ∂e bezeichnet. 3.3.2 Beispiel. Die Funktion f (x, y) = p x2 + y 2 besitzt in (0, 0)> die Richtungs- ableitungen in alle Richtungen, denn sei e ∈ R2 mit kek = 1, so existiert ein ϕ, so dass e = (e1 , e2 )> = (cos ϕ, sin ϕ)> und p f (he1 , he2 ) − 0 h2 cos2 ϕ + h2 sin2 ϕ |h| = = = 1, h h h für h > 0, also auch im Grenzwert für h → 0+ . 35 3.3. RICHTUNGSABLEITUNG 3.3.3 Bemerkungen. (i) Am obigen Beispiel sieht man, dass zwar für alle Rich- tungen e die Richtungsableitung ∂e f existieren kann, aber die Funktion dann weder partiell noch total differenzierbar sein muss. (ii) Zur Übung überzeuge man sich, dass die Funktion in Beispiel 3.2.7 in jede Richtung, aber wie bereits gezeigt nicht total, differenzierbar ist. (iii) Der Grenzwert f (a + h · e) − f (a) h→0 h lim existiert genau dann, wenn ∂f (a) ∂e und ∂f (a) ∂(−e) existieren und unterschiedliche Vorzeichen haben. In diesem Fall schreiben wir De f (a) = ∂f ∂f (a) = − (a). ∂e ∂(−e) Anschaulich hat der Graph der Funktion in dieser Situation in (a, f (a))> über der Geraden in Richtung e durch a keinen „Knick“. (iv) Die partiellen Ableitungen einer Funktion hängen mit den Richtungsableitungen also dergestalt zusammen, dass für die kanonischen Einheitsvektoren ej gilt ∂f ∂xj = Dej f , falls existent. 3.3.4 Beispiel. Wir betrachten erneut die Funktion f : R2 → R mit x2 y 2 für (x, y) 6= (0, 0), 2 2 f (x, y) := x +y 0 für (x, y) = (0, 0) aus Beispiel 3.2.9 und bestimmen die Richtungsableitungen der Funktion im Urp sprung. Es sei e = (e1 , e2 )> mit kek = e21 + e22 = 1. Dann gilt f (0 + h · e) − f (0) f (he1 , he2 ) − f (0, 0) ∂f (0, 0) = lim+ = lim+ h→0 h→0 ∂e h 2 2h 2 2 1 h e1 h e2 = lim+ = lim+ he21 e22 = 0, 2 2 2 h→0 h h→0 h (e1 + e2 ) das heißt alle Richtungsableitungen in (0, 0) existieren und sind Null. Man muss nicht immer die Definition zum Berechnen der Richtungsableitung verwenden. Der folgende Satz liefert ein Hilfsmittel zur Berechnung der Richtungsableitung, falls die Funktion total differenzierbar ist. 3.3.5 Satz. Es sei f : D ⊂ Rn → R in a ∈ D (total) differenzierbar. Dann existieren in a alle Richtungsableitungen und für alle e ∈ Rn mit kek = 1 gilt 36 (i) KAPITEL 3. DIFF’RECHNUNG MEHRERER VERÄNDERLICHER ∂f (a) ∂e = f 0 (a) · e = ∇f > (a) · e, ≤ kf 0 (a)k. (ii) ∂f (a) ∂e Beweis. (I) Da f differenzierbar ist, gilt: f (x) = f (a) + f 0 (a)(x − a) + ϕ(x) mit einer entsprechenden Funktion ϕ. Für x = a + he 6= a, h > 0, gilt also f (a + he) = f (a) + f 0 (a)(a + he − a) + ϕ(a + he) ⇔ f 0 (a)he ϕ(a + he) f (a + he) − f (a) = + h h h ∂f f (a + he) − f (a) ⇒ (a) = lim = f 0 (a) · e. h→0 ∂e h (II) Mit der Cauchy-Schwarzschen Ungleichung gilt ∂f (a) = kf 0 (a) · ek ≤ kf 0 (a)k · kek = kf 0 (a)k . ∂e 3.3.6 Beispiele. (i) Wir betrachten noch einmal die Funktion aus den Beispie- len 3.2.9 und 3.3.4: f (x, y) := x2 y 2 x2 +y 2 0 für (x, y)> 6= (0, 0)> , für (x, y)> = (0, 0)> . In Beispiel 3.2.9 haben wir bereits gezeigt, dass f im Ursprung total differenzierbar ist. Satz 3.3.5 ist also anwendbar. Im Ursprung gilt f 0 (0, 0) = (0, 0) nach 3.2.9. Damit ist für alle e ∈ R2 mit kek = 1 die Richtungsableitung ∂f (0, 0) = f 0 (0, 0) · e = 0. ∂e (ii) Es sei f : R3 → R, f (x, y, z) = x2 cos y ez . Wir berechnen tung v = √1 (1, 1, 1)> . 3 ∂f (1, 0, 1) ∂v in Rich- Es gilt f 0 (x, y, z) = (2x cos y ez − x2 sin y ez x2 cos y ez ). Mit Satz 3.3.5 folgt dann: 1 1 ∂f 1 1 √ 0 (1, 0, 1) = f (1, 0, 1) · √ 1 = (2e 0 e) · √ 1 = 3e. ∂v 3 3 1 1 37 3.3. RICHTUNGSABLEITUNG 20 0 −20 −40 5 −60 −4 0 −2 0 2 x y 4 −5 Abbildung 3.5: Zu Beispiel 3.3.6 (iii) (iii) Es sei f : R2 → R, f (x, y) = −3x2 − y 2 + 5. In welcher Richtung e hat die Tangente an den Graph Gf im Punkt (1, 1, f (1, 1)) die Steigung 2? Es gilt ! ! e e ∂f 1 1 (1, 1) = f 0 (1, 1) · = (−6x − 2y)x=y=1 · ∂e e2 e2 ! (3.1) = −6e1 − 2e2 = 2. Weiter gilt nach Definition der Richtungsableitung (3.2) e21 + e22 = 1. Wir haben also ein nichtlineares Gleichungssystem mit zwei Unbekannten. Die Gleichung (3.1) ist äquivalent zu e2 = −3e1 − 1, was wir in (3.2) einsetzen: e21 + (3e1 + 1)2 = 1 ⇔ 10e21 + 6e1 = e1 (10e1 + 6) = 0. Als Lösungen erhalten wir (a) e1 = 0 und damit e2 = −1, also e = (0, −1)> und (b) e1 6= 0, was e1 = − 53 bedingt, woraus e2 = folgt, wenn man für das > Vorzeichen noch (3.1) berücksichtigt. Hier ist also e = − 53 , 45 . 4 5 3.3.7 Bemerkung und Beispiel. Satz 3.3.5 liefert eine weitere Möglichkeit, um zu zeigen, dass eine Funktion nicht total differenzierbar ist. Zur Übung betrachte die Funktion f : R2 → R mit f (x, y) = √x|y| x2 +y 2 0 für (x, y)> 6= (0, 0)> , für (x, y)> = (0, 0)> 38 KAPITEL 3. DIFF’RECHNUNG MEHRERER VERÄNDERLICHER und zeige, dass diese im Ursprung stetig und in jede Richtung differenzierbar (es existiert sogar De f (0, 0) für jede Richtung e) aber nicht (total) differenzierbar ist. Hinweis: Die Stetigkeit zeigt man mit Hilfe von Polarkoordinaten, die Richtungsableitung berechnet man mit der Definition. 3.3.8 Lemma. „Der Gradient von f zeigt immer in die Richtung des stärksten Anstiegs einer Funktion.“ Genauer sei f : D ⊂ Rn → R in a ∈ D differenzierbar, dann gilt ∀e ∈ Rn , kek = 1, ∂e f (a) ≤ ∂fe∇ (a) = k∇f (a)k , wobei e∇ = ∇f (a) k∇f (a)k die Richtung des Gradienten ist. Beweis. Mit Satz 3.3.5 und der Cauchy-Schwarzschen Ungleichung gilt ∂f (a) = ∇f > (a) · e ≤ k∇f (a)k · kek . ∂e Weiter gilt ∂f ∇f (a) = k∇f (a)k . (a) = ∇f > (a) · ∂e∇ k∇f (a)k Also ist ∂e f (a) maximal für e = e∇ (vergleiche auch Satz 3.3.5). 3.3.9 Lemma. Es sei f : D ⊂ Rn → R in a ∈ D differenzierbar und g : (−ε, ε) → D sei differenzierbar in x = 0, es gelte g(0) = a und g beschreibe eine Höhenlinie durch a, das heißt es gilt f (g(t)) = f (a) = c für ein c ∈ R und alle t ∈ (−ε, ε). Dann ist ∇f (a) senkrecht zu g 0 (0). Das heißt, der Gradient steht senkrecht auf den Höhenlinien. 4 2 0 −2 −4 −4 −2 g0 0 2 4 ∇f 5 0 −5 Abbildung 3.6: Der Gradient steht senkrecht auf den Höhenlinien. 39 3.4. PARTIELLE ABLEITUNGEN HÖHERER ORDNUNG Beweis. Die verkettete Funktion h(t) = f (g(t)) ist auf (−ε, ε) konstant. Nach der Kettenregel gilt daher für t = 0 0 = h0 (0) = ∇f (g(0)) · g 0 (0) = ∇f (a) · g 0 (0). 3.4 Partielle Ableitungen höherer Ordnung Die partiellen Ableitungen einer Funktion f sind, falls existent, wieder Funktionen. Man kann diese daher auf (partielle) Differenzierbarkeit untersuchen. Im Mehrdimensionalen ist aber etwas Vorsicht geboten, was die Reihenfolge betrifft. Wir vereinbaren folgende Sprachregelungen und Notationen 3.4.1 Definition. Es seien f : D ⊂ Rn → R, D offen, a ∈ D, k ∈ N und j1 , . . . , jk ∈ { 1, . . . , n }. (i) Falls existent, heißt dann ∂kf ∂ (a) = fxj1 ···xjk (a) = ∂xjk ∂xjk−1 · · · ∂xj1 ∂xjk ∂ k−1 ∂xjk−1 · · · ∂xj1 f (a) die partielle Ableitung der Ordnung k der Funktion f in a nach den Variablen xj 1 , . . . , x j k . (ii) Existiert diese für alle a ∈ D, so heißt die Funktion fxj1 ···xjk : D → R, x 7→ fxj1 ···xjk (x) die partielle Ableitung der Ordnung k von f nach den Variablen xj1 , . . . , xjk . (iii) f heißt auf D k-mal stetig differenzierbar, in Zeichen f ∈ C k (D), falls alle partiellen Ableitungen der Ordnung k von f existieren und stetig sind. 3.4.2 Beispiel. Es sei f : R2 → R, f (x, y) = ex y + y 2 . Dann sind die partiellen Ableitungen erster Ordnung ∂f ∂f (x, y) = fx (x, y) = ex y und (x, y) = fy (x, y) = ex + 2y. ∂x ∂y Die partiellen Ableitungen zweiter Ordnung berechnen sich zu ∂ 2f ∂ 2f (x, y) = (x, y) = fxx (x, y) = ex y, ∂x2 ∂x∂x ∂ 2f (x, y) = fyx (x, y) = ex , ∂x∂y ∂ 2f (x, y) = fxy (x, y) = ex , ∂y∂x ∂ 2f (x, y) = fyy (x, y) = 2. ∂y 2 40 KAPITEL 3. DIFF’RECHNUNG MEHRERER VERÄNDERLICHER Die partiellen Ableitungen dritter Ordnung sind ∂ 3f (x, y) = yex , ∂x3 ∂ 3f = ex , ∂x2 ∂y ∂ 3f (x, y) = 0, ∂y∂x∂y Es gilt hier beispielsweise ∂2f ∂x∂y ∂ 3f (x, y) = ex , ∂y∂x2 ∂ 3f (x, y) = 0, ∂x∂y 2 ∂ 3f (x, y) = 0. ∂y 3 = ∂2f ∂y∂x und ∂3f ∂x∂y 2 = ∂ 3f (x, y) = ex , ∂x∂y∂x ∂ 3f (x, y) = 0, ∂y 2 ∂x ∂3f ∂y∂x∂y = ∂3f . ∂y 2 ∂x Wir betrachten nun ein Beispiel, das zeigt, dass die Reihenfolge der partiellen Ableitungen anders als im vorangegangenen Beispiel im Allgemeinen nicht vertauscht werden darf. 3.4.3 Beispiel. Es sei f : R2 → R mit x3 y−xy3 , (x, y)> 6= (0, 0)> , x2 +y 2 f (x, y) = 0 sonst. Für (x, y)> 6= (0, 0)> gilt ∂f (3x2 y − y 3 )(x2 + y 2 ) − 2x(x3 y − xy 3 ) (x, y) = , ∂x (x2 + y 2 )2 (x3 − 3xy 2 )(x2 + y 2 ) − 2y(x3 y − xy 3 ) ∂f (x, y) = . ∂y (x2 + y 2 )2 Im Ursprung gilt ∂f f (h, 0) − f (0, 0) ∂f (0, 0) = lim =0= (0, 0). h→0 ∂x h ∂y Wir betrachten nun die „gemischten“ zweiten partiellen Ableitungen im Ursprung. Es gilt − ∂f (0, 0) 1 −h5 ∂x = lim · 4 = −1, h→0 h h h ∂f ∂f 2 (h, 0) − ∂y (0, 0) ∂ f ∂ ∂f 1 h5 ∂y (0, 0) = (0, 0) = lim = lim · 4 = 1, h→0 h→0 h h ∂x∂y ∂x ∂y h ∂ 2f ∂ ∂f (0, 0) = (0, 0) = lim h→0 ∂y∂x ∂y ∂x das heißt ∂2f (0, 0) ∂y∂x 6= ∂f (0, h) ∂x ∂2f (0, 0). ∂x∂y Es stellt sich also die Frage, wann man die Differenziationsreihenfolge vertauschen darf. Dies beantwortet der wichtige 3.4. PARTIELLE ABLEITUNGEN HÖHERER ORDNUNG 41 3.4.4 Satz von Schwarz. Es seien f : D ⊂ Rn → R, j, k ∈ { 1, . . . , n }, j 6= k, und a ∈ D. Existieren ∂2f ∂xj ∂xk ∂2f ∂xk ∂xj und in einer Umgebung Uε (a) und sind in a stetig, so gilt: ∂ 2f ∂ 2f (a) = (a). ∂xj ∂xk ∂xk ∂xj Für zweimal stetig differenzierbare Funktionen spielt die Reihenfolge der Differenziation also keine Rolle. 3.4.5 Definition. Es seien f : D ⊂ Rn → R, D offen, a ∈ D und die zweiten partiellen Ableitungen von f mögen in a existieren. Dann heißt ∂2f ∂f ∂f (a) (a) . . . (a) 2 ∂x2 ∂x1 ∂xn ∂x1 ∂x2 1 .. ... ∂2f ∂ f (a) (a) . ∂x1 ∂x2 ∂x22 Hf (a) := ∈ Rn×n .. .. .. .. . . . . ∂2f ∂2f (a) ... ... (a) ∂x1 ∂xn ∂x2 n die Hessematrix von f an der Stelle a. 3.4.6 Bemerkung. Nach dem Satz von Schwarz 3.4.4 ist die Hessematrix Hf (a) symmetrisch, falls f ∈ C 2 (D). 3.4.7 Beispiel. Es sei f : R2 → R, f (x, y) = ex y + y 2 . Dann gilt: fxx (x, y) = ex y, fxy (x, y) = ex = fyx (x, y), fyy (x, y) = 2. Die Hesse-Matrix von f an der Stelle (x, y) ist also ! ex y ex Hf (x, y) = . ex 2 Wie im eindimensionalen Fall, wollen wir komplizierte Funktionen lokal durch einfachere annähern, zum Beispiel durch Polynome, um die Betrachtung zu vereinfachen. Mit der linearen Approximation haben wir dies bereits gemacht: Differenzierbare Funktionen können durch ihre Tangentialebenen approximiert werden. Mit höherem Aufwand sind aber auch bessere Näherungen möglich. In Analysis I hat uns dabei insbesondere der Satz von Taylor geholfen. Wir betrachten nun eine für den mehrdimensionalen Fall angepasste Formulierung. 3.4.8 Satz von Taylor. Es seien f : D ⊂ Rn → R, f ∈ C N +1 (D), N ∈ N0 und a, h ∈ Rn mit a, a + h ∈ D. Dann existiert ein ξ ∈ (0, 1) mit N X X 1 f (x) = f (a + h) = f (a) + k! 1≤j ,...,j k=1 1 X 1 + (N + 1)! 1≤j ,...,j 1 k N +1 ∂k f (a)hj1 · · · hjk ∂xj1 · · · ∂xjk ≤n ∂ N +1 f (a + ξh)hj1 · · · hjN +1 . ∂x · · · ∂x j j 1 N +1 ≤n 42 KAPITEL 3. DIFF’RECHNUNG MEHRERER VERÄNDERLICHER Beweis. Der Beweis funktioniert über eine Hilfsfunktion auf a, a + h und Rückführung auf den eindimensionalen Fall. 3.4.9 Bemerkungen. (i) Der Ausdruck auf der rechten Seite der ersten Zeile heißt Taylorpolynom vom Grad N , in Zeichen: T N f (a, x), die Summe in der zweiten Zeile ist das Lagrange Restglied, RN +1 f (a, x). (ii) Die Taylorformel dient der Approximation einer genügend oft stetig differenzierbaren gegebenen Funktion f in der Umgebung eines festen Punktes a ∈ D durch ein Polynom vom Grad N . Wie gut die Approximation beziehungsweise wie groß der Fehler ist, gibt das Restglied an. Insbesondere gilt analog zum N +1 eindimensionalen Satz von Taylor, dass RN +1 (a, x) = o kx − ak . (iii) Eine einfachere Darstellung erhält man, wenn man die folgende Notationen P vereinbart: Für α ∈ Nn0 setzen wir |α| = (α1 , . . . , αn )> := nk=1 αk , α! := α1 !α2 ! · · · αn !. Sind x, a ∈ Rn , so sei (a−x)α = (x1 −a1 )α1 ·(x2 −a2 )α2 · · · (xn −an )αn und weiter Dα = Damit lässt sich die obige Formel schreiben als f (x) = X X Dα f (a) (x − a)α + α! |α|≤N |α|=N +1 ∂ |α| . ∂xαnn · · · ∂xα1 1 Dα f (a + ξh) (x − a)α . α! 3.4.10 Bemerkung. Die Taylorpolynome ersten und zweiten Grades lassen sich mit Hilfe der Jacobi-Matrix f 0 (a) und Hessematrix Hf (a) schreiben als T 1 f (a, x) = f (a) + f 0 (a) · (x − a), 1 T 2 f (a, x) = f (a) + f 0 (a) · (x − a) + (x − a)> Hf (a)(x − a). 2 T 1 f (a, x) ist die lineare Approximaton (Tangentialebene) aus Definition 3.2.3 und T 2 f (a, x) nennt man auch Schmiegequadrik. Diese beiden Fälle reichen häufig für praktische und theoretische Untersuchungen aus. 3.4.11 Beispiel. Es sei f : R2 → R, f (x, y) = ex + xy. Wir berechnen das Taylorpolynom ersten und zweiten Grades im Ursprung. Es ist f 0 (x, y) = (ex + y, x), Hf (x, y) = ! ex 1 1 0 Für (x, y)> = (0, 0)> haben wir also f 0 (0, 0) = (1, 0), Hf (0, 0) = 1 1 1 0 ! . . 43 3.4. PARTIELLE ABLEITUNGEN HÖHERER ORDNUNG Damit ist dann T 1 f ((0, 0)> , (x, y)> ) = f (0, 0) + f 0 (0, 0) ! x−0 x ! = 1 + (1, 0) y−0 y ! ! 1 1 x 1 T 2 f ((0, 0)> , (x, y)> ) = T1 (x, y) + (x, y) =1+x+ 2 1 0 y 1 = 1 + x + xy + x2 . 2 = 1 + x, x+y 1 (x, y) 2 x ! 3.4.12 Bemerkung. Wie erwähnt, genügt oft die Taylorformel mit dem Restglied zweiter Ordnung. Diese hat für ein ξ ∈ (0, 1) die Form 1 f (a + h) = f (a) + f 0 (a) · h + h> · Hf (a + ξh) · h 2 beziehungsweise mit x = a + h 1 f (x) = f (a) + f 0 (a) · (x − a) + (x − a)> · Hf (a + ξ(x − a)) · (x − a). 2 Die Approximation mit dem Restglied dritter Ordnung hat die Form 1 f (x) = f (a) + f 0 (a)(x − a) + (x − a)> Hf (a)(x − a) + o kx − ak3 . 2 3.4.13 Beispiel (Fehlerrechnung). Der Satz von Taylor 3.4.8 liefert die Grundlage für die Fehlerabschätzung bei experimentellen Daten. Es seien x1 , . . . , xn+1 Größen, die bei einem Experiment gemessen werden und es soll ein Zusammenhang zwischen den Größen untersucht werden. Angenommen, es ist xn+1 = f (x1 , . . . , xn ) mit einer differenzierbaren Funktion f : D ⊂ Rn → R. Aufgrund von Messfehlern sind die wahren Werte nicht die xi , sondern x̃i = xi + hi , i = 1, . . . , n + 1. Die hi sind abschätzbar mit Hilfe etwa von Herstellerangaben zur Genauigkeit der Messgeräte beziehungsweise mit Tabellen. Aus dem Satz von Taylor erhält man dann die Abschätzung des Gesamtfehlers n X ∂f (x , . . . , x ) ∆f = |f (x̃1 , . . . , x̃n ) − f (x1 , . . . , xn )| ≤ 1 n ∂xi | {z } =|hn+1 | i=1 ∆xk |{z} . =|hi |=|x̃i −xi | Erfüllt nun der gemessene Wert xn+1 die Ungleichung, so stimmt das Ergebnis im Rahmen der Messgenauigkeit mit der Formel beziehungsweise dem Tabellenwert für xn+1 überein. 44 KAPITEL 3. DIFF’RECHNUNG MEHRERER VERÄNDERLICHER Kapitel 4 Anwendungen der Differenzialrechnung 4.1 Lokale Extrema Im Folgenden bezeichnet D stets eine offene Teilmenge des Rn . Damit umgehen wir Probleme, die am Rand einer Menge auftreten können. 4.1.1 Definition. Es seien f : D → R und a ∈ D. Wir sagen, f besitzt in a ein (i) (isoliertes) lokales Minimum, wenn ein ε > 0 existiert mit ∀x ∈ U̇ε (a) ∩ D : f (a) ≤ f (x). (<) (ii) (isoliertes) lokales Maximum, wenn es ein ε > 0 gibt mit ∀x ∈ U̇ε (a) ∩ D : f (a) ≥ f (x). (>) (iii) f besitzt in a ein (isoliertes) lokales Extremum, wenn f in a ein (isoliertes) lokales Minimum oder Maximum besitzt. Der folgende Satz liefert ein notwendiges aber kein hinreichendes Kriterium für das Vorliegen einer lokalen Extremstelle. 4.1.2 Satz von Fermat. Die Funktion f : D → R sei in a ∈ D partiell differenzierbar und besitze dort ein lokales Extremum. Dann gilt ∇f (a) = f 0 (a)> = 0. Punkte a ∈ D mit ∇f (a) = 0 heißen stationäre oder kritische Punkte von f . 45 46 KAPITEL 4. ANWENDUNGEN DER DIFFERENZIALRECHNUNG Beweis. O.B.d.A. besitze f in a ∈ D ein lokales Minimum. Wir betrachten die Umgebung Uε (a) ⊂ D. Für beliebiges aber festes j ∈ { 1, . . . , n } besitzt die Hilfs- funktion g : (−ε, ε) → R, g(t) := f (a + t · ej ) in t = 0 ein lokales Minimum, da g(0) = f (a). Auf die eindimensionale Funktion g ist der Satz von Fermat im Eindimensionalen (das notwendige Kriterium für lokale Extrema aus Analysis I) anwendbar. Damit gilt g(0 + h) − g(0) f (a + h · ej ) − f (a) ∂f = lim = (a). h→0 h→0 h h ∂xj 0 = g 0 (0) = lim Somit folgt die Behauptung ∇f (a) = 0, da j beliebig war. Wir geben nun zunächst die analoge Aussage zum hinreichenden Kriterium für lokale Extremstellen (Vorzeichen der zweiten Ableitung) im Eindimensionalen. 4.1.3 Satz (Hinreichendes Kriterium für lokale Extremstelle). Gegeben seien eine Funktion f ∈ C 2 (D, R) und ein Punkt a ∈ D ⊂ Rn mit ∇f (a) = 0. Dann gilt: (i) Ist Hf (a) positiv definit, so besitzt f in a ein isoliertes lokales Minimum. (ii) Ist Hf (a) negativ definit, so besitzt f in a ein isoliertes lokales Maximum. (iii) Ist Hf (a) indefinit, so besitzt f in a einen Sattelpunkt. Dafür benötigen wir noch 4.1.4 Definition. Es sei A ∈ Rn×n eine quadratische Matrix. Gilt für ∀x ∈ Rn \{ 0 } (i) x> Ax = Pn i,j=1 aij xi xj > 0, dann heißt A positiv definit, (ii) x> Ax ≥ 0, dann heißt A positiv semi-definit, (iii) x> Ax < 0, dann heißt A negativ definit, (iv) x> Ax ≤ 0, dann heißt A negativ semi-definit, (v) Ist A weder positiv noch negativ semi-definit, so heißt A indefinit. Dies bedeutet ∃x, y ∈ Rn : x> Ax > 0 ∧ y > Ay < 0. Beweisidee von Satz 4.1.3. Wir betrachten nur den Fall Hf (a) positiv definit. Aufgrund der Stetigkeit der zweiten partiellen Ableitungen ist dann Hf (x) auch in 47 4.1. LOKALE EXTREMA einer Umgebung Uε (a) positiv definit. In dieser Umgebung gibt es mit dem Satz von Taylor für x ∈ U̇ε (a) ein ξ ∈ (0, 1), so dass 1 f (x) = f (a) + f 0 (a) ·(x − a) + (x − a)> · Hf (a + ξ(x − a)) · (x − a) > f (a) | {z } 2 | {z } =0 >0 gilt. Um die Definitheit von Matrizen feststellen zu können, erwähnen wir folgenden Satz aus der linearen Algebra. 4.1.5 Satz. Es sei A ∈ Rn×n eine symmetrische Matrix. Dann gilt: (i) A ist genau dann positiv definit, wenn alle Eigenwerte von A positiv sind. (ii) A ist genau dann positiv semi-definit, wenn alle Eigenwerte von A nichtnegativ sind. (iii) A ist genau dann positiv definit, wenn alle Hauptdiagonalunterdeterminanten von A positiv sind, das heißt, ist dann setzen wir a11 . . . a1n . .. .. A= . , an1 . . . ann a11 . . . a1k . .. .. Ak = . ak1 . . . akk und A ist genau dann positiv definit, wenn ∀k ∈ { 1, . . . , n } det Ak > 0. (iv) A ist negativ (semi-) definit, wenn −A positiv (semi-) definit ist. Damit folgt mit den obigen Eigenschaften: (v) A ist genau dann negativ definit, wenn alle Eigenwerte von A negativ sind. (vi) A ist genau dann negativ semi-definit, wenn alle Eigenwerte von A nichtpositiv sind. (vii) A ist genau dann negativ definit, wenn sgn det Ak = (−1)k für k = 1, . . . , n. (viii) A ist genau dann indefinit, wenn A sowohl positive als auch negative Eigenwerte besitz. 48 KAPITEL 4. ANWENDUNGEN DER DIFFERENZIALRECHNUNG Für n = 2 fassen wir die Aussage von Satz 4.1.3 mit Hilfe des Kriteriums über die Hauptdiagonalunterdeterminanten in folgendem Lemma zusammen: 4.1.6 Lemma. Es seien f ∈ C 2 (D, R), D ⊂ R2 und a ∈ D ein stationärer Punkt von f , das heißt ∇f (a) = 0. Dann gilt: (i) Ist fxx (a) > 0 und fxx (a)fyy (a) − (fxy (a))2 > 0, so besitzt f in a ein isoliertes lokales Minimum. (ii) Ist fxx (a) < 0 und fxx (a)fyy (a) − (fxy (a))2 > 0, so besitzt f in a ein isoliertes lokales Maximum. (iii) Ist fxx (a)fyy (a) − (fxy (a))2 < 0, dann besitzt f in a einen Sattelpunkt, da Hf (a) dann sowohl einen positiven als auch einen negativen Eigenwert besitzt und daher indefinit ist. Achtung: Bei fxx (a)fyy (a) − (fxy (a))2 = 0 ist keine Aussage möglich. (i) Wir betrachten f : R2! → R, f (x, y) = x2 + y 2 . Es gilt 2 0 . Da Hf in Diagonalform vorliegt, f 0 (x, y) = (2x 2y) und Hf (x, y) = 0 2 liest man sofort die Eigenwerte ab und sieht, dass Hf für alle (x, y) ∈ R2 4.1.7 Beispiele. positiv definit ist. Weiter ist f 0 (x, y) = (0, 0) ⇔ x = y = 0, also besitzt f in (0, 0)> ein lokales Minimum mit f (0, 0) = 0. Wegen f (x, y) ≥ 0 handelt es sich dabei auch um ein globales Minimum. 2 2 0 (ii) Es sei f : R2 → R, ! f (x, y) = x − y . Dann ist f (x, y) = (2x − 2y) und 2 0 Hf (x, y) = . Wiederum ist f 0 (x, y) = (0, 0) ⇔ x = y = 0, wegen 0 −2 fxx (0, 0)fyy (0, 0) − (fxy (0, 0))2 = 2 · (−2) − 0 · 0 = −4 < 0 ist Hf (0, 0) indefinit und in (0, 0)> liegt ein Sattelpunkt von f vor (siehe Abbildung 4.1). 3 3 0 2 2 (iii) Für f : R2 → R, f (x, y) = 3xy ! − x − y , gilt f (x, y) = (3y − 3x , 3x − 3y ) −6x 3 und Hf (x, y) = . Nun ist 3 −6y 0 f (x, y) = (0, 0) ⇔ ( 3y − 3x2 = 0, 3x − 3y 2 = 0. 49 4.1. LOKALE EXTREMA 2 0 −2 1 0 −1 0 y −1 1 x Abbildung 4.1: Beispiel 4.1.7 (ii): Sattelpunkt. Die erste Gleichung ist äquivalent zu y = x2 . In der zweiten Gleichung ergibt sich damit: x − x4 = 0 ⇔ x = 0 ∨ x = 1. Stationäre Punkte sind also: (0, 0)> und (1, 1)> . Es ist jetzt fxx (0, 0)fyy (0, 0) − (fxy (0, 0))2 = 0 − 32 < 0, also liegt in (0, 0)> ein Sattelpunkt vor und weiter gilt, dass f in (1, 1)> ein lokales Maximum besitzt, da fxx (1, 1)fyy (1, 1) − (fxy (1, 1))2 = 36 − 32 = 27 > 0 und fxx (1, 1) = −6 < 0. 0 −5 1.5 0 1 0.5 x 0.5 1 0 y Abbildung 4.2: Beispiel 4.1.7 (iii): Sattelpunkt und lokales Maximum. 50 KAPITEL 4. ANWENDUNGEN DER DIFFERENZIALRECHNUNG 4.2 Extrema unter Nebenbedingungen 4.2.1 Beispiel. Welches Rechteck mit Umfang u ∈ R hat maximalen Flächenin- halt? Der Flächeninhalt des Rechtecks ist durch die Funktion f : R2 → R mit f (x, y) = xy gegeben, wenn x, y die Seitenlängen des Rechtecks sind. Offensichtlich wird der Flächeninhalt größer, wenn x und y groß werden. Diese sind jedoch durch den Umfang beschränkt, das heißt sie müssen die Restriktion 2x + 2y = u erfüllen. Mathematisch können wir diese Aufgabe folgendermaßen formulieren: Finde das Maximum von f : [0, +∞)2 → R, f (x, y) = xy auf der Menge A := beziehungsweise A := (x, y)> ∈ R2 2x + 2y = u (x, y)> ∈ R2 g(x, y) = 0 , wobei g(x, y) = 2x + 2y − u. In Abschnitt 4.1 haben wir bereits Methoden kennengelernt, lokale Extrema auf 5 2 0 0 0.5 1 y 1.5 x 2 2.5 30 Abbildung 4.3: Zu Beispiel 4.2.1, auf der schwarzen Linie ist die Bedingung g(x, y) = 0 für u = 5 erfüllt. einer offenen Menge D zu bestimmen, allerdings ist die Menge A nicht offen. Die vorherigen Argumente stehen uns also nicht zur Verfügung. Betrachtet man die Menge A genauer, so stellt man fest, dass sie kompakt ist. Nach dem Satz von Weierstraß 2.3.1 nimmt f als stetige Funktion auf der kompakten Menge A sowohl Maximum als auch Minimum an. Wir suchen nach einer Methode, um diese Extrema zu bestimmen. Wir betrachten ein weiteres Beispiel, dass sich leichter veranschaulichen lässt: 51 4.2. EXTREMA UNTER NEBENBEDINGUNGEN 4.2.2 Beispiel. Die Funktion f : R2 → R, f (x, y) = x2 + y 2 , soll unter der Bedingung g(x, y) = x2 − y + 1 = 0 minimiert werden. Der Graph von f ist ein Paraboloid im R3 und die Bedingung g beschreibt eine Parabel in der Ebene. Die Niveaulinien von f sind Kreise mit dem Ursprung als Mittelpunkt: Γc = (x, y)> ∈ R2 f (x, y) = x2 + y 2 = c . Der Graph der Funktion y = g̃(x) = x2 + 1 5 2 3 5 −2 0 0 2 −2 −2 2 4 0.5 1 −1 3 3 2 0 0.25 4 1 0 2 5 10 4 2 1 5 −2 4 −1 3 0 5 1 2 Abbildung 4.4: Zu Beispiel 4.2.2: Auf der schwarzen Linie ist die Bedingung g(x, a) = x2 − y + 1 = 0 erfüllt. berührt die Niveaulinie Γ1 im Punkt (0, 1)> und liegt sonst wegen g̃(x) > 1 für x 6= 1 oberhalb von Γ1 . Die Tangenten an Γ1 und die durch g(x, y) = 0 beschriebene Menge (Graph von g̃) sind in (0, 1)> parallel. Daher müssen auch die Gradienten an die Funktionen f und g hier parallel sein, das heißt, es gibt λ, λ̃ ∈ R mit ∇f (0, 1) = λ∇g(0, 1) beziehungsweise ∇f (0, 1) + λ̃∇g(0, 1) = 0. Wir verallgemeinern die Situation und betrachten skalarwertige Funktionen auf dem Rn und d ≥ 1 Nebenbedingungen gi . 4.2.3 Definition. Es seien D ⊂ Rn offen, f : D → R, g : D → Rd , 1 ≤ d ≤ n − 1 Funktionen und a ∈ D mit g(a) = 0. Dann heißt a Stelle eines lokalen Minimums (Maximums) von f unter der Nebenbedingung g(x) = 0 falls es ein ε > 0 gibt mit ∀x ∈ Uε (a) ∩ D ∩ { x ∈ D | g(x) = 0 } : f (a) ≤ f (x). (≥) Durch d = n unabhängige Nebenbedingungen wäre höchstens ein Punkt definiert, wenn die Nebenbedinungen alle gleichzeitig erfüllbar sind. Wir verallgemeinern die Idee aus Beispiel 4.2.2 und erhalten die 52 KAPITEL 4. ANWENDUNGEN DER DIFFERENZIALRECHNUNG 4.2.4 Lagrangesche Multiplikatorregel. Es seien D ⊂ Rn offen, f ∈ C 1 (D, R) und g ∈ C 1 (D, Rd ), 1 ≤ d ≤ n − 1, das heißt g(x) = (g1 (x), . . . , gd (x))> mit gi ∈ C 1 (D, R) für i = 1, . . . , d. Es sei weiter a ein lokales Extremum von f unter der Nebenbedingung g(x) = 0 und g 0 (a) habe vollen Rang, das heißt rg g 0 = d. Dann gibt (0) (0) es ein λ0 = (λ1 , . . . , λd )> ∈ Rd , so dass die Lagrange-Funktion F : D × Rd → R, F (x, λ) := f (x) + λ · g(x) = f (x) + d X λi gi (x), i=1 in (a, λ0 )> eine kritische Stelle hat, das heißt es gilt F 0 (a, λ0 ) = 0. (0) (0) Die Zahlen λ1 , . . . , λd heißen Lagrangesche Multiplikatoren. 4.2.5 Bemerkungen. (i) F 0 (a, λ0 ) = 0 ist ein im Allgemeinen nicht-lineares Gleichungssystem mit n + d Gleichungen und n + d Unbekannten: n Komponenten von a und d Komponenten von λ0 . Es ist: F 0 (a, λ0 ) = (Fx1 (a, λ0 ), . . . , Fxn (a, λ0 ), Fλ1 (a, λ0 ), . . . , Fλd (a, λ0 )) . Also muss in (a, λ0 ) gelten: ∂ ∂ f (a) + (λ0 · g(a)) ∂xi ∂xi d X ∂f (0) ∂gj = (a) + λj (a) = 0 für 1 ≤ i ≤ n. ∂xi ∂xi j=1 Fxi (a, λ0 ) = Fλk (a, λ0 ) = d ∂ ∂ X (0) f (a) + λ gj (a) ∂λk ∂λk j=1 j = gk (a) = 0 für 1 ≤ k ≤ d. Die Ableitungen von F nach λk für k = 1, . . . , d liefern gerade die Komponenten der Nebenbedingungsfunktion g, das heißt die Nebenbedinung g(a, λ0 ) = 0 ist mit F 0 (a, λ0 ) = 0 automatisch erfüllt. (ii) Satz 4.2.4 liefert nur ein notwendiges Kriterium zum Finden von lokalen Extrema unter Nebenbedingungen. Ob es sich bei den gefundenen kritischen Stellen tatsächlich um ein Extremum handelt, muss weiter untersucht oder begründet werden, etwa mit dem Satz von Weierstraß. Man kann mit Hilfe gewisser Hauptdiagonalunterdeterminanten der Hessematrix von F Aussagen treffen, dies wollen wir hier aber nicht vertiefen (siehe etwa [3], „geränderte Hessematrix“). 53 4.2. EXTREMA UNTER NEBENBEDINGUNGEN (i) Wir lösen das Maximierungsproblem aus Beispiel 4.2.1 mit 4.2.6 Beispiele. Satz 4.2.4: Es war f : [0, +∞)2 → R, f (x, y) = xy auf der Menge A := (x, y)> ∈ R2 g(x, y) = 0 mit g(x, y) = 2x + 2y − u. Es gilt rg g 0 (x, y) = rg(2, 2) = 1, das heißt der Rang ist maximal. Die Lagrange-Funktion ist dann F (x, y, λ) = xy + λ(2x + 2y − u). Gesucht sind (x, y, λ) mit Fx (x, y, λ) = y + 2λ = 0, (4.1) Fy (x, y, λ) = x + 2λ = 0, (4.2) Fλ (x, y, λ) = 2x + 2y − u = 0. (4.3) Mit (4.1) und (4.2) folgt y = x. Mit Gleichung (4.3) gilt dann x = y = u4 . > Also ist u4 , u4 ein Kandidat für ein lokales Extremum. Dass es sich um ein Maximum handelt, sehen wir wie folgt: Für x, y ∈ [0, +∞) ist f (x, y) ≥ 0 > > und in 0, u2 und u2 , 0 ist f (x, y) = 0 und die Nebenbedingung erfüllt, das heißt, das Minimum von f wird dort angenommen. Da nach dem Satz von Weierstraß f auch sein Maximum annimmt, muss in unserer Lösung das Maximum von f unter der Nebenbedingung vorliegen. (ii) Wir bestimmen die lokalen Extrema von f (x, y, z) = 5x + y − 3z unter den Nebenbedingungen x + y + z = 0 und x2 + y 2 + z 2 = 1, das heißt g(x, y, z) = Durch A = x+y+z ! x2 + y 2 + z 2 − 1 . (x, y, z)> ∈ R3 g(x, y, z) = 0 ist eine kompakte Menge gege- ben, denn A ist der Schnitt der Kugel mit Radius 1 und einer Ebene durch den Ursprung, also ein Großkreis. Nach dem Satz von Weierstraß existieren ! also 1 1 1 Maximum und Minimum von f . Es gilt rg g 0 (x, y, z) = rg =2 2x 2y 2z für beliebiges (x, y, z)> ∈ A, denn aus der Annahme rg g 0 (x, y, z) = 1 folgt x = y = z im Widerspruch zu den Nebenbedingungen. Die Lagrange-Funktion lautet mit λ = (λ1 , λ2 )> ∈ R2 : F (x, y, z, λ1 , λ2 ) = 5x + y − 3z + λ1 (x + y + z) + λ2 (x2 + y 2 + z 2 − 1). 54 KAPITEL 4. ANWENDUNGEN DER DIFFERENZIALRECHNUNG Also erhalten wir das Gleichungssystem Fx (x, y, z, λ1 , λ2 ) = 5 + λ1 + 2λ2 x = 0, (4.4) Fy (x, y, z, λ1 , λ2 ) = 1 + λ1 + 2λ2 y = 0, (4.5) Fz (x, y, z, λ1 , λ2 ) = −3 + λ1 + 2λ2 z = 0, (4.6) Fλ1 (x, y, z, λ1 , λ2 ) = x + y + z = 0, (4.7) Fλ1 (x, y, z, λ1 , λ2 ) = x2 + y 2 + z 2 − 1 = 0. (4.8) Die Summe der Gleichungen (4.4) bis (4.6) liefert −2λ2 (x + y + z) = 5 + 1 − 3 + 3λ1 , | {z } =0 also ist λ1 = −1. Aus (4.5) folgt damit y = 0 oder λ2 = 0. λ2 = 0 führt zu einem Widerspruch in (4.4). Für y q = 0 folgt aus (4.7) z = −x. Setzen wir dies in (4.8) ein, so erhalten wir x = ± 12 . Mögliche Extremstellen sind also a1 = q > q > q q 1 1 1 , 0, − 2 und a2 = − 2 , 0, 12 . Da nach dem Satz von Weierstraß 2 Maximum und Minimum existieren, muss es sich bei den Kandidaten um diese √ √ handeln, also liegt wegen f (a1 ) = 4 2 > f (a2 ) = −4 2, das Maximum in a1 und das Minimum in a2 vor. (iii) Die Funktion f (x, y) = x + y + 10 soll auf der Menge B1 (0) = (x, y) ∈ R2 x2 + y 2 ≤ 1 auf lokale Extrema untersucht werden. Zunächst gilt, dass f auf B1 (0) stetig und B1 (0) kompakt ist. Also besitzt f nach dem Satz von Weierstraß Maximum und Minimum auf B1 (0). Wir schreiben B1 (0) als die disjunkte Vereinigung von Rand und Innerem B1 (0) = (x, y)> ∈ R2 x2 + y 2 < 1 ∪ (x, y)> ∈ R2 x2 + y 2 = 1 . | {z } | {z } ˚ =B1 (0)=B1 (0) =∂B1 (0)=∂B1 (0) B1 (0) ist offen und wir können f mit Hilfe der notwendigen und hinreichenden Kriterien auf lokale Extrema untersuchen (Sätze 4.1.2 und 4.1.3): Es ist ∀(x, y)> ∈ R2 : f 0 (x, y) = (1 1) 6= 0. Also besitzt f auf B1 (0) keine kritischen Stellen. 55 4.3. UMKEHRABBILDUNGEN Zum Auffinden der stationären Punkte von f auf ∂B1 (0) nutzen wir die Lagrangesche Multiplikatorenregel 4.2.4. Durch die Menge ∂B1 (0) ist die Nebenbedingung gegeben, das heißt mit den Bezeichnungen aus Satz 4.2.4 ist g : R2 → R, g(x, y) = x2 + y 2 − 1 = 0. Nun gilt g 0 (x, y) = (2x, 2y). Also hat g 0 für alle zulässigen Punkte vollen Rang (x = y = 0 ist kein zulässiger Punkt, da g(0, 0) 6= 0). Die zugehörige Lagrangefunktion lautet mit λ ∈ R also: F (x, y, λ) = x + y + 10 + λ(x2 + y 2 − 1). Das Gleichungssystem ∇F = 0 lautet dann Fx (x, y, λ) = 1 + 2xλ = 0, (4.9) Fy (x, y, λ) = 1 + 2yλ = 0, (4.10) Fλ (x, y, λ) = x2 + y 2 − 1 = 0. (4.11) Aus (4.9) folgt λ 6= 0. Damit erhalten wir mit der Differenz von (4.9) und (4.10), dass x = y. Mit (4.11) ist dann x = y = √ 2 2 oder x = y = − Maximum von f unter der Nebenbedingung g = 0 ist also f ( √ √ √ und das Minimum f (− 22 , − 22 ) = − 2 + 10. √ √ 2 , 22 ) 2 = √ 2 . 2 √ Das 2+10 4.2.7 Bemerkung. Da nur die Koordinaten von a von Interesse sind, muss man nicht immer alle Komponenten von λ bestimmen, wenn man auch ohne diese bereits a bestimmt hat. 4.3 Umkehrabbildungen Wir betrachten in diesem Abschnitt das Problem der Umkehrfunktion. Wir wollen untersuchen, unter welchen Voraussetzungen an eine Funktion f : Rn → Rm die Gleichung y = f (x) in einer Umgebung von y eindeutig lösbar ist - durch eine Funktion x = f −1 (y). 4.3.1 Bemerkung. Aus der Linearen Algebra wissen wir, dass eine lineare Abbildung F : Rn → Rm nur umkehrbar sein kann, wenn n = m gilt. In diesem Fall ist F genau dann umkehrbar, wenn die zu F gehörende Matrix invertierbar ist. Ist F eine lineare Abbildung, so können wir F schreiben als a11 x1 + . . . + a1n xn .. = A · x. F (x1 , . . . , xn ) = . an1 x1 + . . . + ann xn 56 KAPITEL 4. ANWENDUNGEN DER DIFFERENZIALRECHNUNG Die Jacobi-Matrix von F ist dann F 0 (x1 , . . . , xn ) = A, da ∂Fi ∂xj = aij . Das heißt, die obige Bedingung können wir umformulieren zu: Eine lineare Abbildung ist genau dann umkehrbar, wenn ihre Jacobi-Matrix invertierbar ist. Dies ist äquivalent zu det F 0 = det A 6= 0. Dies liefert eine erste Forderung für den allgemeinen Fall. Weiter ist aus Analysis I bekannt: Wenn f : I → R bijektiv und differenzierbar ist mit f 0 6= 0 auf I, dann berechnet sich die Ableitung der Umkehrfunktion f −1 durch die Umkehrformel (f −1 )0 (y) = 1 f 0 (f −1 (y)) . Als Analogon im Mehrdimensionalen läge also die Inverse der Jacobi-Matrix als Jacobi-Matrix der Umkehrfunktion nahe. Wir betrachten den eindimensionalen Fall weiter: Es sei f : D = (a, b) → R eine stetig differenzierbare Funktion. Indem wir den Wertebereich auf f (D) einschränken, wird f surjektiv: f : D → f (D). Gilt weiter, dass f 0 (x) 6= 0 für alle x ∈ (a, b) ist, so ist f streng monoton (steigend oder fallend) und somit auch injektiv. Insgesamt ist f dann bijektiv. Nach dem Satz über Umkehrfunktionen aus Analysis I existiert eine Umkehrabbildung f −1 auf ganz f (D). Wir wollen nun untersuchen, in wie fern ähnliche, analoge Aussagen für mehrdimensionale Funktionen f : D ⊂ Rn → Rn gelten. Gibt es zur Aussage f 0 (x) 6= 0 ⇒ f injektiv ein Analogon im Mehrdimensionalen, etwa: f 0 (x) 6= 0 (Nullmatrix) ⇒ f injektiv? Oder det(f 0 (x)) 6= 0 ⇒ f injektiv? 4.3.2 Beispiel. Wir betrachten f : R+ × R → R2 \ { 0 }, f (r, ϕ) = Funktion f ist stetig differenzierbar mit f 0 (r, ϕ) = cos ϕ −r sin ϕ sin ϕ r cos ϕ ! ! r cos ϕ r sin ϕ . Die . Offenbar ist f 0 (r, ϕ) 6= 0 für alle (r, ϕ) aus dem Definitionsbereich. Es gilt auch det f 0 (r, ϕ) = r cos2 ϕ + r sin2 ϕ = r > 0. 57 4.3. UMKEHRABBILDUNGEN Dennoch ist f nicht injektiv, da f (r, ϕ) = f (r, ϕ + 2πk) für k ∈ Z. Also folgt aus det f 0 6= 0 keine (globale) Umkehrbarkeit. Durch Einschränkung des Definitionsbereichs, zum Beispiel auf R+ ×[0, 2π), wird f zumindest injektiv. 4.3.3 Satz über die Umkehrfunktion. Es seien D ⊂ Rn offen, f ∈ C 1 (D, Rn ), a ∈ D und b := f (a). Weiter sei die Jacobi-Matrix von f an der Stelle a invertierbar, also det f 0 (a) 6= 0. Dann gibt es Umgebungen U von a und V von b, so dass gilt: (i) ∀x ∈ U : det f 0 (x) 6= 0. (ii) f : U → V ist bijektiv. (iii) f −1 : V → U ist stetig differenzierbar mit 0 −1 f −1 (y) = f 0 (f −1 (y) , dabei bezeichnet f −1 die Umkehrfunktion von f und (f 0 )−1 auf der rechten Seite bezeichnet die Inverse der Jacobi-Matrix von f . 4.3.4 Bemerkungen. (i) Satz 4.3.3 ist also ein Kriterium zur lokalen Umkehr- barkeit mehrdimensionaler Funktionen. (ii) Mit 4.3.3 (iii) lässt sich die Ableitung der Umkehrfunktion in einem Punkt y = f (x) ohne explizite Kenntnis der Umkehrabbildung selbst berechnen. ! 2 x . f ist offenbar 4.3.5 Beispiel. Gegeben sei f : R2 → R2 mit f (x, y) = x2 + y nicht injektiv, da f (x, y) = f (−x, y). (i) Wir untersuchen, in welchen Punkten (x, y) ∈ R2 die Funktion f lokal umkehrbar ist. Es ist det f 0 (x, y) = ! 2x 0 2x 1 = 2x 6= 0 für x 6= 0. Also ist f auf { (x, y) ∈ R2 | x 6= 0 } lokal umkehrbar. (ii) Wir bestimmen die Ableitung der Umkehrfunktion von f im Punkt (1, 2)> mit f (1, 1) = (1, 2)> , also f −1 (1, 2) = (1, 1)> (lokal). Es ist 0 −1 −1 f −1 (1, 2) = f 0 (f −1 (1, 2) = (f 0 (1, 1)) ! !−1 2 0 1 1 0 . = = 2 −2 2 2 1 58 KAPITEL 4. ANWENDUNGEN DER DIFFERENZIALRECHNUNG Dabei haben wir verwendet, dass für invertierbare 2 × 2-Matrizen ! d −b 1 berechnet. Inverse sich einfach durch ad−bc −c a a b ! c d die (iii) Im vorliegenden Fall lässt sich die Umkehrfunktion auch explizit angeben und damit die Rechnung überprüfen: Es gilt f −1 (u, v) = (x, y)> ⇔ u = x2 , v = √ √ > −1 x2 + y = u + y, also x = ± u,! y = v − u. Damit !ist f (u, v) = (± u, v − u) ± √1u 0 ± 2√1 u 0 0 = 12 . und (f −1 ) (u, v) = −1 1 −2 2 4.4 Implizite Funktionen 4.4.1 Beispiel. Wir betrachten die Kreisgleichung x2 +y 2 = 1. Setzt man F (x, y) := x2 + y 2 − 1, so ist die Kreisgleichung äquivalent zu F (x, y) = 0. Diese Gleichung kann nicht explizit nach y = f (x) (oder x = f (y)) aufgelöst werden, √ da es zu jedem x ∈ (−1, 1) zwei Werte y = ± 1 − x2 gibt. Es ist aber möglich, Teile der Kreisgleichung als Funktion darzustellen. f1 : (−1, 1) → R, f1 (x) = √ 1 − x2 beschreibt den oberen Teil des Einheitskreises und √ f2 : (−1, 1) → R, f2 (x) = − 1 − x2 stellt den unteren Teil des Einheitskreises dar. Das heißt, abhängig vom Wert von y0 ∈ (−1, 1) können wir F (x0 , y0 ) = 0 in einer Umgebung von y0 zu y = f1 (x) oder y = f2 (x) auflösen. Wir wollen nun allgemein untersuchen, wann es solche Auflösungen wie f1 oder f2 einer Gleichung F (x, y) = 0 gibt. 4.4.2 Definition. Es sei D ⊂ Rn ×Rd und F : D → Rd eine Funktion. Eine implizit definierte Funktion oder implizite Funktion ist eine Funktion y : Rn → Rd , deren Funktionswerte durch die Gleichung F (x, y(x)) = 0 definiert sind. 4.4.3 Bemerkung. Ist F (x, y) = (F1 (x, y), . . . , Fd (x, y))> wie aus Definition 4.4.2 differenzierbar, dann hat die Jacobimatrix die Gestalt F 0 (x, y) = Fx (x, y) Fy (x, y) ∈ Rd×(n+d) 59 4.4. IMPLIZITE FUNKTIONEN mit ∂F1 ∂x1 ... ∂F1 ∂xn ∂Fd ∂x1 ... ∂Fd ∂xn ∂F1 ∂y1 ... ∂F1 ∂yd ∂Fd ∂y1 ... ∂Fd ∂yd . . Fx (x, y) = . und . . Fy (x, y) = . Fy (x, y) ist also quadratisch! .. d×n . ∈R .. d×d . ∈R . 4.4.4 Satz über implizite Funktionen. Es sei D ⊂ Rn × Rd , F : D → Rd , (x, y)> 7→ F (x, y), stetig differenzierbar. Weiter sei (x0 , y0 )> ∈ D mit (i) F (x0 , y0 ) = 0, (ii) det Fy (x0 , y0 ) 6= 0. Dann gibt es Umgebungen U ⊂ Rn von x0 und V ⊂ Rd von y0 sowie eine stetig differenzierbare Funktion g : U → V mit (i) g(x0 ) = y0 , (ii) F (x, g(x)) = 0 für alle x ∈ U , (iii) g 0 (x) = −Fy (x, g(x))−1 · Fx (x, g(x)). Man sagt: Die Gleichung F (x, y) = 0 ist im Punkt (x0 , y0 )> lokal nach y auflösbar mit der Auflösung y = g(x). 4.4.5 Beispiele. (i) Wir betrachten wieder die Kreisgleichung F (x, y) = 0 mit F (x, y) = x2 + y 2 − 1 aus Beispiel 4.4.1. (a) Für welche Punkte (x0 , y0 )> besitzt F eine lokale Auflösung nach y? F ist stetig differenzierbar und Fy (x, y) = 2y 6= 0 falls y 6= 0. Also ist F für alle Punkte auf dem Einheitskreis bis auf (0, ±1)> lokal nach y auflösbar. Im konkreten Fall können wir die Auflösung auch angeben, √ denn y = g(x) = ± 1 − x2 . > 1 √1 √ (b) Bestimme die Ableitung der Auflösung g im Punkt , 2 . Es ist 2 0 −1 g (x) = − (Fy (x, g(x))) · Fx (x, g(x)) x= √1 2 =− 1 2 √ = −1. 2 √2 2 60 KAPITEL 4. ANWENDUNGEN DER DIFFERENZIALRECHNUNG y y= √ 1 − x2 x √ y = − 1 − x2 Abbildung 4.5: Auflösung der implizit gegebenen Kreisgleichung x2 + y 2 = 1 (ii) Es sei F : R2 × R → R mit F (x1 , x2 , y) = x21 + x2 y + ey − 2. Wir zeigen, dass (0) (0) F (x1 , x2 , y) = 0 in (x0 , y0 )> = (x1 , x2 , y0 )> = (1, 2, 0)> nach y auflösbar ist und bestimmen die Ableitung der Auflösung g in (1, 2)> . Es gilt F 0 (x1 , x2 , y) = (2x1 y x2 + ey ), F (1, 2, 0) = 0 und Fy (1, 2, 0) = 3 6= 0. Also gibt es eine Umgebung U von (1, 2) in der eine Auflösung g : U → V existiert, wobei V eine Umgebung um y0 = 0 ist. Die Auflösung g hat die Eigenschaften (a) g(1, 2) = 0, (b) F (x1 , x2 , g(x1 , x2 )) = 0 für alle x ∈ U und −1 (c) g (1, 2) = − (Fy (1, 2, 0)) 0 · Fx (1, 2, 0) = − 31 · 2 0 = (iii) Zeige, dass das (nicht-lineare) Gleichungssystem − 23 0 . x2 + ey1 − cos y2 = 0, sin x + 2y12 + sin y2 = 0 lokal um den Punkt (0, 0, 0)> nach (y1 , y2 )> auflösbar ist und bestimme yi0 (0) für i = 1, 2. Wir schreiben das System als implizite Funktion F : R × R2 → R2 mit F (x, y1 , y2 ) = x2 + ey1 − cos y2 sin x + 2y12 + sin y2 ! . 61 4.4. IMPLIZITE FUNKTIONEN Es gilt F (0, 0, 0) = 0 und F 0 (x, y1 , y2 ) = 2x ey1 sin y2 cos x 4y1 cos y2 Damit ist det Fy (0, 0, 0) = det 1 0 ! , Fy = ey1 sin y2 4y1 cos y2 ! . ! = 1 6= 0. Also gibt es in einer Umge0 1 bung U von x = 0 eine Auflösung g : U → V , wobei V eine Umgebung von (0, 0)> ist, mit (a) g(0) = (0, 0)> , (b) F (x, g1 (x), g2 (x)) = 0 für alle x ∈ U und (c) g 0 (0) = − (Fy (0, 0, 0))−1 · Fx (0, 0, 0) = − Also ist y10 (0) = 0 und y20 (0) = −1. 1 0 0 1 ! · ! 0 1 = 0 ! −1 . 62 KAPITEL 4. ANWENDUNGEN DER DIFFERENZIALRECHNUNG Kapitel 5 Integration im Rn 5.1 Parameterintegrale 5.1.1 Bemerkung. Häufig treten Funktionen als sogenannte Integralfunktionen Z F (x) = x f (t) dt a auf oder sie besitzen eine Integraldarstellung der Form F (x) = Z d f (x, t) dt, c wobei der Integrand vom Parameter x abhängt und die Integrationsvariable hier t ist. Einige bekannte Beispiele sind die durch ein uneigentliches Integral definierte Gammafunktion Γ(x) = Z ∞ tx−1 e−t dt für x > 0, 0 y 5 1 4 x 1 Abbildung 5.1: Die Gammafunktion 63 64 KAPITEL 5. INTEGRATION IM RN die Besselfunktionen 1 Jn (x) = π Z 0 π cos(x sin t − nt) dt für n ∈ Z oder die Laplace-Transformierte einer geeigneten Funktion f (vergleiche Abschnitt 8.3), Z ∞ f (t)e−xt dt. F (x) = 0 Die Integranden sind jeweils Funktionen in mehreren Veränderlichen (x und t). Wir untersuchen, wie man solche Integralfunktionen integriert und differenziert. Wir betrachten dabei nur Funktionen, die durch Integration über endliche Intervalle entstehen. Unter geeigneten Voraussetzungen kann man die folgenden Aussagen aber auch auf unendliche Intervalle ausdehnen (zum Beispiel Satz von der majorisierten Konvergenz, [11] oder gleichmäßige Konvergenz 8.1.3). 5.1.2 Satz (Vertauschung von Differentiation und Integration). Es sei f : [a, b] × [c, d] → R, (x, t) 7→ f (x, t) stetig. Dann gilt: (i) Die Integralfunktion F : [a, b] → R mit Z d F (x) := f (x, t) dt c existiert und ist stetig (auf [a, b]). (ii) Ist f nach x stetig partiell differenzierbar, dann ist auch F differenzierbar mit Z d 0 ∀x ∈ [a, b] F (x) = fx (x, t) dt. c 5.1.3 Beispiel. Wir betrachten die Funktion F (x) = Z 1 π sin(tx) dt. Der Integrand t sin(tx) ist nach x auf R stetig partiell differenzierbar. Damit gilt für x 6= 0: t Z π Z π ∂ sin(tx) ∂ sin(tx) 0 dt = dt F (x) = ∂x t t 1 1 ∂x π Z π sin(tx) sin(πx) − sin(x) = cos(tx) dt = = . x x 1 t=1 5.1.4 Vertauschen der Integrationsgrenzen. Es sei f : [a, b] × [c, d] → R, (x, t) 7→ f (x, t) stetig. Dann gilt: Z bZ d Z f (x, t)dtdx = a c c d Z a b f (x, t)dxdt. 65 5.2. DAS RIEMANN-INTEGRAL IM RN 5.1.5 Satz (Leibniz-Regel). Es sei f : [a, b] × [c, d] → R stetig und nach x stetig partiell differenzierbar. Weiter seien g, h : [a, b] → R stetig. Dann ist F (x) := Z h(x) f (x, t) dt g(x) differenzierbar und es gilt 0 F (x) = Z h(x) g(x) fx (x, t) dt + f (x, h(x)) · h0 (x) − f (x, g(x)) · g 0 (x). 5.1.6 Beispiel. Berechne die Ableitung von F (x) = be). R x2 0 cos(xt2 ) dt (Übungsaufga- Das Riemann-Integral im Rn 5.2 Wir betrachten zunächst Funktionen auf Intervallen. 5.2.1 Definition. Es sei f : I → R eine Funktion mit I := [a, b] := [a1 , b1 ] × · · · × [an , bn ]. (i) I heißt (n-dimensionales abgeschlossenes) Intervall im Rn (vergleiche Definition 1.1.10). (ii) Die Zahl |I| := (b1 − a1 ) · · · (bn − an ) heißt Inhalt (Volumen) von I. (iii) Eine Menge Z heißt Zerlegung oder Partition von I, wenn es abgeschlossene Intervalle Ik ⊂ Rn gibt, k = 1, . . . , ` mit Z = { I1 , . . . , I` }, so dass I= ` [ k=1 Ik und ˚ Ik ∩ ˚ Ij = ∅ für k 6= j. Die Menge aller möglichen Zerlegungen von I wird mit Z bezeichnet. Abbildung 5.2: Zerlegung eines Rechtecks 66 KAPITEL 5. INTEGRATION IM RN (iv) Die Zahl O(f, Z) := X̀ sup f (x) · |Ik | X̀ inf f (x) · |Ik | k=1 heißt Obersumme von f und Z und U (f, Z) := k=1 Ik Ik heißt Untersumme von f und Z. (v) Das Infimum der Obersummen über alle Zerlegungen von Z Z f (x) dx := inf { O(f, Z) } Z∈Z I heißt Oberintegral von f auf I und das Supremum der Untersummen über alle Zerlegungen von Z Z I f (x) dx := sup { U (f, Z) } Z∈Z heißt Unterintegral von f auf I. (vi) f heißt Riemann-integrierbar auf I (kurz: f ∈ R(I)), falls gilt: Z Z f (x) dx = f (x) dx. I I Dieser gemeinsame Wert heißt (Riemann-)Integral von f über I und wird mit Z f (x) dx I bezeichnet. 5.2.2 Bemerkung. Insbesondere auf I stetige Funktionen f sind wie im Eindimensionalen integrierbar. 5.2.3 Eigenschaften des (Riemann-)Integrals. Es sei I ⊂ Rn ein Intervall, f, g : I → R integrierbar und λ ∈ R. Dann sind auch λf , f + g, f · g, |f | integrierbar und es gilt: (i) (ii) R R R I λf (x) dx = λ I (f (x) + g(x)) dx = I f (x) dx, R I f (x) dx + R I g(x) dx, (iii) Falls f (x) ≤ g(x) für alle x ∈ I, dann gilt auch notonie), R I f (x) dx ≤ R I g(x) dx (Mo- 67 5.2. DAS RIEMANN-INTEGRAL IM RN R R (iv) I f (x) dx ≤ I |f (x)| dx (Dreiecksungleichung für Integrale), Das Berechnen eines Riemann-Integrals mit Hilfe der Definition (Ober- und Un- terintegral berechnen) ist sehr umständlich. Es hilft folgender Satz. 5.2.4 Satz (Iterierte Integrale). Es seien I = [a, b] = [a1 , b1 ] × · · · × [an , bn ] ⊂ Rn ein Intervall und f : I → R integrierbar. Dann gilt Z Z Z f (x) dx = f (x) dx = f (x1 , . . . , xn ) d(x1 , . . . , xn ) I [a,b] [a1 ,b1 ]×···×[an ,bn ] Z b1 Z b2 = a1 a2 ··· Z bn an f (x1 , . . . , xn ) dxn · · · dx2 dx1 Die Integrationsreihenfolge spielt dabei keine Rolle, sofern die auftretenden Integrale stets existieren. 5.2.5 Beispiel. Z Z x y d(x, y) = [1,2]×[0,1] 1 0 = Z 1 Z 2 x y dxdy = 1 2 Z 1 2 Z 1 x y dydx = 0 1 3 dx = [ln(x + 1)]21 = ln . 1+x 2 Z 1 2 y x+1 x+1 1 dx y=0 Bisher haben wir nur über Intervallen integriert. Wie berechnet man aber R M f, wenn M kein Intervall ist? Wir können die Menge M , wenn M beschränkt ist, durch ein Intervall umschreiben. Das heißt, wir finden ein Intervall I mit M ⊂ I ⊂ Rn . Wir können dann die triviale Fortsetzung von f auf I, fI : I → R mit f (x) für x ∈ M, x 7→ 0 für x ∈ /M betrachten. Diese ist wieder auf einem Intervall definiert und daher den Überlegungen aus Definition 5.2.1 zugänglich: 5.2.6 Definition. Es seien M ⊂ Rn beschränkt, I ⊂ Rn ein abgeschlossenes In- tervall mit M ⊂ I und f : M → R eine beschränkte Funktion. Dann heißt f (Riemann-)integrierbar über M , wenn f (x) für x ∈ M, fI : I → R, x 7→ 0 für x ∈ /M über I integrierbar ist. In diesem Fall heißt Z Z f (x) dx = fI (x) dx M das (Riemann)-Integral von f über M . I 68 KAPITEL 5. INTEGRATION IM RN Die Berechnung eines solchen Integrals mit der Definition ist wieder umständlich. Zur praktischen Berechnung hilft der nächste Satz, der eine Verbindung zu den Methoden aus Satz 5.2.4 herstellt. 5.2.7 Satz. Es seien M ⊂ I = [a1 , b1 ] × · · · × [an , bn ] ⊂ Rn und f ∈ R(M ). Für t ∈ [a1 , b1 ] definieren wir den x1 −Schnitt x2 .. n−1 Mx1 (t) := . ∈R xn Dann ist die Funktion Z [a1 , b1 ] → R, t 7→ t x2 . ∈M . . xn . f (t, x2 , . . . , xn ) d(x2 , . . . , xn ) Mx1 (t) über [a1 , b1 ] integrierbar und es gilt Z f (x) dx = M Z b1 a1 Z f (t, x2 , . . . , xn ) d(x2 , . . . , xn ) dt. Mx1 (t) Mx1 (1) Mx1 (3) Mx1 (5) Abbildung 5.3: x1 -Schnitt durch eine Menge M 5.2.8 Bemerkungen. (i) Analog gilt der Satz auch für andere Schnitte, zum Beispiel über Mx2 , Mx3 , . . . . (ii) Wir haben oben der Klarheit wegen Mx1 (t) geschrieben, um zu verdeutlichen, dass die Variable t und die Schnittvariable x1 unabhängig voneinander sind. In der Praxis kann man, wenn der Schnitt klar ist, auf diese Trennung verzichten und erspart sich dadurch eine Variablensubstitution. 69 5.2. DAS RIEMANN-INTEGRAL IM RN y M̃ M̃y (y) y M Mx (t) x M̃x (x) x Abbildung 5.4: Die Mengen aus Beispiel 5.2.9 5.2.9 Beispiele. (i) Berechne das Integral von f (x, y) = x2 + y 2 über der Menge M = (x, y)> ∈ R2 0 ≤ x ≤ 1, 0 ≤ y ≤ x . Es gilt Mx (t) = y ∈ R (t, y)> ∈ M für t ∈ [0, 1] = { y ∈ R | 0 ≤ y ≤ t } für t ∈ [0, 1] = [0, t] für t ∈ [0, 1]. Damit folgt Z Z f (x, y) d(x, y) = Z 1 0 M = Z 1 0 2 2 t + y dydt = Mx (t) x2 y + 3 y 3 x dx = Z Z 1 0 1 0 y=0 Z x x2 + y 2 dydx 0 4 3 1 x dx = . 3 3 (ii) Berechne jeweils das Integral von g(x, y) = x und h(x) = 1 über der Menge R M̃ = (x, y)> ∈ R2 x2 + y 2 ≤ 1, x ≥ 0 . Was stellt M̃ h(x) dx geometrisch dar? Es gilt o M̃x (x) = M̃ (x) = y ∈ R (x, y)> ∈ M̃ für x ∈ [0, 1] = y ∈ R y 2 + x2 ≤ 1 für x ∈ [0, 1] √ √ = [− 1 − x2 , 1 − x2 ] für x ∈ [0, 1]. n Damit erhalten wir für g(x, y): Z 1Z Z g(x, y) d(x, y) = M̃ 0 = Z 0 x dydx = M̃ (x) 1 √ 2 1−x √ [xy]y=− 1−x2 3 2 = − (1 − x2 ) 2 3 1 Z 1 0 dx = x=0 Z √ 1−x2 √ − 1−x2 Z 1 √ 0 2 = . 3 x dydx 2x 1 − x2 dx 70 KAPITEL 5. INTEGRATION IM RN Das gleiche Ergebnis erhält man natürlich auch mit dem y−Schnitt: Es ist n o > M̃y (y) = M̃ (y) = x ∈ R (x, y) ∈ M̃ für y ∈ [−1, 1] = x ∈ R x2 + y 2 ≤ 1, x ≥ 0 für y ∈ [−1, 1] p = [0, 1 − y 2 ] für y ∈ [−1, 1], und damit haben wir Z Z g(x, y) d(x, y) = 1 −1 M̃ = Z 1 −1 Z x dxdy = √ M̃ (y) 1 2 x 2 Z −1 1−y 2 dy = √ Z 1 x dxdy 0 Z 1 −1 x=0 1−x2 1 1 3 2 1 = y− y = . 2 3 3 y=−1 1 (1 − y 2 ) dy 2 Für h(x, y) berechnet sich das Integral wie folgt: Z h(x, y) d(x, y) = M̃ Z 0 = Z 0 1 Z 1 dydx = M̃x (x) 1 √ 2 1−x √ [y]y=− 1−x2 Z 1 0 dx = Z Z 0 1 √ 1−x2 √ − 1−x2 1 dydx √ 2 1 − x2 dx. Wir substituieren x = sin u, dann ist dx = cos u du und p √ 1 − x2 = 1 − sin2 u = cos u. Für das Integral folgt Z Z h(x, y) d(x, y) = M̃ 0 π 2 1 2 cos u du = 2 (u + sin u cos u) 2 2 π2 u=0 = π . 2 Das Ergebnis stellt den Flächeninhalt von M̃ dar (der Flächeninhalt eines Kreises mit Radius r ist bekanntlich πr2 ). Allgemein lässt sich das Volumen einer Menge M ⊂ Rn wie folgt berechnen. 5.2.10 Bemerkungen. (i) Der n-dimensionale Inhalt (Volumen) |M | einer Men- ge M ⊂ R ist, falls existent, durch Z |M | = 1 d(x1 , . . . , xn ) n M gegeben. Mit Satz 5.2.7 gilt weiter Z Z b1 Z Z |M | = 1 dx = 1 d(x2 , . . . , xn ) dx1 = M a1 M x1 b1 a1 |Mx1 (x1 )| dx1 . 71 5.2. DAS RIEMANN-INTEGRAL IM RN (ii) Im Fall n = 1 ist |·| die Länge eines Intevalls, für n = 2 stellt |·| den Flächeninhalt dar und für n = 3 ist |·| ein dreidimensionales Volumen. (iii) Das Volumen |M | muss nicht existieren. (iv) Es gilt das Cavalierische Prinzip: Sind für zwei Mengen M, N ⊂ Rn für ein i ∈ { 1, . . . , n } die xi -Schnitte Mxi (t) und Nxi (t) für alle t jeweils inhaltsgleich, so gilt |N | = |M | (vergleiche Abbildung 5.5). Abbildung 5.5: Cavalierisches Prinzip, 5.2.10 (iv): Der gebogene Zylinder hat das selbe Volumen wie der gerade. 5.2.11 Beispiel. Berechne das Volumen (Flächeninhalt) der Mengen aus Beispiel 5.2.9 (Übungsaufgabe). 5.2.12 Beispiel. Berechne das Volumen eines Zylinders mit Radius r und Höhe h. Wir bilden den z-Schnitt: Mz (z) = M (z) = (x, y)> ∈ R2 = (x, y)> ∈ R2 (x, y, z)> ∈ M für z ∈ [0, h] 2 x + y 2 ≤ r2 für z ∈ [0, h] M (z) ist also eine Kreisscheibe mit Radius r. Also ist |M (z)| = πr2 . Damit gilt Z h Z h πr2 dz = πr2 [z]hz=0 = πr2 h. |M | = |M (z)| dz = 0 0 Allgemeiner als Satz 5.2.4 gilt der 5.2.13 Satz von Fubini. Es seien Im ⊂ Rm , In ⊂ Rn abgeschlossene Intervalle und f : Im × In → R integrierbar. Existiert für alle y ∈ In Z F (y) = f (x, y) dx, Im dann gilt Z Im ×In f (x, y) d(x, y) = Z Z In Im f (x, y) dx dy. 72 KAPITEL 5. INTEGRATION IM RN 5.3 Die Transformationsformel Manchmal erweisen sich die Methoden aus dem vorherigen Abschnitt zum Berechnen von mehrdimensionalen Integralen als schwierig oder ungeeignet, insbesondere die Schnittmethode kann zu komplizierten Integrationsgrenzen führen. Wir stellen hier eine Methode vor, die der Substitutionsregel im Eindimensionalen entspricht. 5.3.1 Definition. Es sei M ⊂ Rn und Φ : M → Rn eine Funktion. Dann heißt det Φ0 (x), falls existent, die Funktionaldeterminante von Φ in x. 5.3.2 Bemerkungen. Die Funktionaldeterminante einer Funktion Φ : M ⊂ Rn → Rn gibt zu einem gegebenen Punkt a ∈ M Informationen über das Verhalten der Funktion in einer Umgebung des Punktes. Es gilt: (i) Ist det Φ0 (a) 6= 0, dann ist Φ in einer Umgebung von a umkehrbar (vgl. Abschnitt 4.3). (ii) Ist det Φ0 (a) > 0, dann behält Φ die Orientierung. (iii) Ist det Φ0 (a) < 0, dann ändert Φ die Orientierung. (iv) Anschaulich beschreibt det Φ0 (a), wie sehr ein winziges (infinitesimales) Intervall in einer Umgebung von a verzerrt wird. Diese Verzerrung müssen wir bei der Integration berücksichtigen. 5.3.3 Transformationsformel. Es seien M, M̃ ⊂ Rn beschränkt, Φ : M → M̃ =: Φ(M ) ein Diffeomorphismus, das heißt eine differenzierbare bijektive Abbildung, deren Umkehrfunktion ebenfalls differenzierbar ist, und det Φ0 (x) 6= 0 für alle x ∈ M . Weiter sei f : M̃ → R stetig. Dann gilt Z Z f (Φ(u)) |det Φ0 (u)| du. f (x) dx = M̃ M 5.3.4 Bemerkung. In vielen praktischen Anwendungen (zum Beispiel Kugelkoordinaten) ist Φ nicht bijektiv. Der Satz behält aber trotzdem seine Gültigkeit. Die Funktionaldeterminante ist in diesen Fällen nur in wenigen Punkten (auf einer geeigneten Menge ohne n-dimensionales Volumen, man spricht auch von einer „Nullmenge“) gleich Null. Wir betrachten einige wichtige Koordinatentransformationen an Beispielen genauer. 73 5.3. DIE TRANSFORMATIONSFORMEL 5.3.5 Beispiel (Polarkoordinaten). Es sei Φ : [0, ∞) × [−π, π] → R2 , r ϕ ! r cos ϕ 7→ r sin ϕ dann ist cos ϕ −r sin ϕ det Φ0 (r, ϕ) = det sin ϕ r cos ϕ ! ! x = y ! , =r>0 für r > 0, die Funktionaldeterminante verschwindet also nur für r = 0. ϕ y ϕ= Φ ϕ = 34 π ϕ= π 2 ϕ = 34 π π 4 ϕ= ϕ=π 0 π 4 ϕ=0 x r r=1 r = 2, 5 ϕ = − π2 ϕ = −π ϕ = − π2 r = 1 r = 2, 5 Abbildung 5.6: Polarkoordinaten: Ein Kreis mit dem Mittelpunkt (0, 0)> in der Ebene ist in Polarkoordinaten ein Rechteck (Abbildung angelehnt an [12]). R (i) Berechne M̃ f (x, y) d(x, y), wobei f (x, y) = x und M̃ der Halbkreis mit M̃ = (x, y)> ∈ R2 x2 + y 2 ≤ 1, x ≥ 0 = Φ(M ) sei. Es gilt M = [0, 1]× − π2 , π2 und weiter Z Z Z f (x, y) d(x, y) = x d(x, y) = M̃ M̃ = Z 1 = 0 0 π 2 1 Z π 2 − π2 f (Φ(r, ϕ)) |det Φ0 (r, ϕ)| dϕdr r cos ϕ r dϕdr = ϕ=− π2 0 Z Z 1 2 2r2 dr = . 3 Z 0 1 π [r2 sin ϕ]−2 π dr 2 (ii) Die Berechnung der Kreisfläche (Beispiel 5.2.9) ist mit Polarkoordinaten einfacher: Berechne das Volumen (den Flächeninhalt) einer Kreisscheibe mit Radius R. 74 KAPITEL 5. INTEGRATION IM RN Es sei also M̃ = (x, y)> ∈ R2 x2 + y 2 ≤ R2 . Dann ist der Flächeninhalt R gegeben durch M̃ 1 d(x, y). Es gilt Z Z RZ π f (Φ(r, ϕ)) |det Φ0 (r, ϕ)| dϕdr 1 d(x, y) = 0 −π M̃ Z R Z RZ π 1 · r dϕdr = 2πr dr = R2 π. = 0 −π 0 5.3.6 Beispiel (Kugelkoordinaten, sphärische Koordinaten). h π πi Ψ̃ : [0, ∞) × [−π, π] × − , → R3 , 2 2 r r cos ϕ cos θ x ϕ 7→ r sin ϕ cos θ = y . θ r sin θ z Diese Koordinaten entsprechen der gängigen Winkelbestimmung auf der Erde. θ ist dabei der Breitengrad gemessen vom Äquator und ϕ der Längengrad. In Abbildung 5.7 ist die unten erwähnte alternative Version der Kugelkoordinaten dargestellt, bei welcher der zweite Winkel (Breitengrad) von der z-Achse (“vom Nordpol”) gemessen wird. Die Funktionaldeterminante der Kugelkoordinatenabbildung entwickeln wir nach der dritten Zeile und erhalten cos ϕ cos θ −r sin ϕ cos θ −r cos ϕ sin θ 0 det Ψ̃ (r, ϕ, θ) = sin ϕ cos θ r cos ϕ cos θ −r sin ϕ sin θ sin θ 0 r cos θ = sin θ · r2 sin2 ϕ sin θ cos θ + cos2 ϕ sin θ cos θ + r cos θ · r cos2 ϕ cos2 θ + sin2 ϕ cos2 θ = r2 cos θ sin2 θ + cos2 θ = r2 cos θ 6= 0, falls r > 0 und θ 6= ± π2 . Durch die letzte Gleichung ist die z-Achse beschrieben. p R Wir berechnen M̃ f (x, y, z) d(x, y, z) für f (x, y, z) = x2 + y 2 + z 2 und M̃ = (x, y, z)> ∈ R3 x2 + y 2 + z 2 ≤ 9 . Es gilt Z Z p f (x, y, z) d(x, y, z) = x2 + y 2 + z 2 d(x, y, z) M̃ M̃ Z 3Z π Z π 2 = f (Ψ̃(r, ϕ, θ)) det Ψ̃0 (r, ϕ, θ) dθdϕdr 0 = Z 3 0 = Z 0 3 −π Z π −π Z π −π − π2 Z π 2 − π2 Z π 2 − π2 q r2 cos2 ϕ cos2 θ + r2 sin2 ϕ cos2 θ + r2 sin2 ϕr2 cos θ dθdϕdr r3 cos θ dθdϕdr = 81π. 75 5.3. DIE TRANSFORMATIONSFORMEL Hinweis: Man kann Kugelkoordinaten auch anders parametrisieren (vergleiche Abbildung 5.7). Wenn man den zweiten Winkel als Winkel zur z-Achse wählt, hat man zum Beispiel Ψ : [0, ∞) × [0, 2π] × [0, π] → R3 , r r cos ϕ sin ϑ x ϕ 7→ r sin ϕ sin ϑ = y . ϑ r cos ϑ z Dabei haben wir auch das Intervall für ϕ verschoben, um die später verwendete Darstellung zu erhalten. Die Funktionaldeterminante berechnet sich dann zu ϑ= π 3 ϕ=π z ϑ ϕ= r=1 − π4 ϕ=π Ψ r=2 ϑ= π 3 r=2 ϕ r r=1 y x ϕ = − π4 Abbildung 5.7: Kugelkoordinaten: Achsenparallele Ebenen im (r, ϕ, ϑ)> -Raum werden zu Sphären (r konstant), Halbebenen (ϕ konstant) oder Kegeln (ϑ konstant) im (x, y, z)> -Raum). Ein achsenparalleler Quader mit den gegenüberliegenden Ecken (0, 0, 0)> und (r, 2π, π)> wird in eine Kugel transformiert (Abbildung angelehnt an [12]). cos ϕ sin ϑ −r sin ϕ sin ϑ r cos ϕ cos ϑ 0 det Ψ (r, ϕ, ϑ) = sin ϕ sin ϑ r cos ϕ sin ϑ r sin ϕ cos ϑ = r2 sin ϑ. cos ϑ 0 −r sin ϑ Hier muss man dann bei der Integration nach ϑ über das Intervall [0, π] integrieren (vergleiche auch Beispiel 7.2.16). Auch hier ist die Menge, auf der die Funktionaldeterminante verschwindet, durch die z-Achse gegeben. 76 KAPITEL 5. INTEGRATION IM RN 5.3.7 Beispiel (Zylinderkoordinaten). Die Zylinderkoordinatenabbildung ist Φz : [0, ∞) × [−π, π] × R → R3 r r cos ϕ x ϕ 7→ r sin ϕ = y h h z und ihre Funktionaldeterminante ist cos ϕ −r sin ϕ 0 0 det Φz (r, ϕ, h) = sin ϕ r cos ϕ 0 = r > 0 0 0 1 falls r > 0, sie verschwindet also nur im Fall r = 0. z ϕ=π z Φz ϕ = −π r=2 ϕ y r=2 r=5 r=5 r ϕ= π 4 x ϕ=π ϕ= π 4 Abbildung 5.8: Quader mit den gegenüberliegenden Ecken (0, −π, h1 )> und (r, π, h2 )> in Zylinderkoordinaten sind Zylinder mit Radius r und der Länge h2 − h1 in den Standardkoordinaten (Abbildung angelehnt an [12]). R Wir berechnen M̃ f (x, y, z) d(x, y, z) für f (x, y, z) = 1 und den Zylinder mit der Höhe 2, M̃ = (x, y, z)> ∈ R3 x2 + y 2 ≤ 4, |z| ≤ 1 : Z Z f (x, y, z) d(x, y, z) = 1 d(x, y, z) M̃ M̃ Z 2Z π Z 1 Z 2Z π = r dhdϕdr = 2r dϕdr 0 −π −1 0 −π Z 2 = 2π · 2r dr = 8π. 0 Kapitel 6 Kurvenintegrale Dieses Kapitel orientiert sich an den unveröffentlichten Skripten von Prof. Leopold (Jena) und Prof. Balser (Ulm). 6.1 Kurven Wir definieren zunächst, was eine Kurve ist. Dabei unterscheiden wir zwischen der Parametrisierung – das ist die konkrete Darstellung über eine Abbildung –, dem Träger der Kurve – das ist die Menge der Punkte auf der Kurve – und der Kurve selbst, die man sich beispielsweise als Bahnkurve eines Massepunktes vorstellen kann. 6.1.1 Definition. (i) Es sei I = [a, b] ⊂ R, a < b. x ∈ C(I, Rn ) heißt Parame- terdarstellung einer Kurve im Rn . I heißt Parameterintervall der Darstellung. x(a) heißt Anfangspunkt, x(b) heißt Endpunkt der Kurve. Ist x(a) = x(b) so heißt die Kurve geschlossen. Gilt ∀t1 , t2 ∈ [a, b] ((t1 ≤ t2 ∧ x(t1 ) = x(t2 )) ⇒ t1 = t2 ∨ (t1 = a ∧ t2 = b)) , so heißt die Kurve doppelpunktfrei oder Jordanbogen. (ii) Zwei Parameterdarstellungen x1 : I1 → Rn , x2 : I2 → Rn heißen äquivalent, wenn es eine stetige, streng monoton wachsende Funktion ϕ : I1 → I2 mit x1 (t) = x2 ◦ ϕ(t) gibt. Die Menge aller äquivalenten Parameterdarstellungen heißt Kurve im Rn . Das gemeinsame Bild aller äquivalenten Darstellungen einer Kurve γ heißt Träger der Kurve und wird mit γ ∗ bezeichnet, das heißt γ ∗ = { x1 (t) | t ∈ [a, b] }. 77 78 KAPITEL 6. KURVENINTEGRALE (iii) Es sei x : I → Rn eine Parameterdarstellung einer Kurve γ und π : a = t0 < t1 < · · · < tN = b eine Partition von I, dann ist L(x, π) = N X j=1 |x(tj ) − x(tj−1 )| die Länge des zu x und π gehörenden Polygonzuges. Ist supπ L(x, π) =: L(γ) < +∞, so heißt die Kurve γ rektifizierbar oder von endlicher Länge. L(γ) ist zwar abhängig von der gewählten Parameterdarstellung, für äquivalente Darstellungen ist aber L(γ) stets gleich (s. u.) und wird deshalb als Länge der Kurve γ bezeichnet. (iv) Eine Kurve γ heißt stetig differenzierbar, wenn sie eine stetig differenzierbare Parameterdarstellung x : I → Rn besitzt. Gilt zusätzlich x0 (t) 6= 0 für alle t ∈ I, so heißt γ eine glatte Kurve und x glatte Parameterdarstellung von γ. Abbildung 6.1: Eine geschlossene, nicht doppelpunktfreie Kurve mit der Parameter > sin(17t) sin(7t) cos(17t) darstellung x : [0, 2π] → R2 , t 7→ cos t + cos(7t) + , sin t + + . 2 3 2 3 6.1.2 Bemerkungen. (i) Man zeigt leicht: Zu jeder Parameterdarstellung einer Kurve gibt es eine äquivalente Darstellung mit dem Parameterintervall [0, 1]. (ii) Die Kurvenlänge L(γ) = supπ L(x, π) ist unabhängig von der Wahl der Parametrisierung x, dies folgt aus der Bijektivität von ϕ. (iii) Wenn zwei Kurven den gleichen Träger haben, bedeutet dies nicht, dass sie ! cos t gleich sind: So haben zum Beispiel die durch x1 : [0, π] → R2 , t 7→ sin t 79 6.1. KURVEN ! t und x2 : [−1, 1] → R2 , t 7→ √ parametrisierten Kurven denselben 1 − t2 Träger, nämlich die obere Hälfte des Einheitskreises, aber x2 durchläuft sie in der entgegengesetzten Richtung zu x1 . t cos π , t > 0 t 6.1.3 Beispiel. Es sei I = [0, 1], f (t) = , so ist f : I → I stetig 0, t=0 und deshalb ist ! t x(t) = f (t) eine stetige Parameterdarstellung einer Kurve im R2 (vergleiche Abbildung 6.2). Wählt man π = π(N ) durch t0 = 0, tk = 1 2N −k+1 für k = 1, . . . , 2N , so ist cos tπk = y 1 x Abbildung 6.2: Eine Kurve von unendlicher Länge (Beispiel 6.1.3). (−1)−k+1 und daher L(x, π) = 2N X k=1 = 2N X k=1 |x(tk ) − x(tk−1 )| s (tk − tk−1 )2 2 π π + tk cos − tk−1 cos tk tk−1 2N 2N X X p 2 2 = (tk − tk−1 ) + (tk + tk−1 ) ≥ |tk + tk−1 | ≥ k=1 2N X k=1 tk = k=1 2N X k=1 1 = 2N − k + 1 2N X `=1 1 . ` Damit ist supπ L(x, π) = ∞ und die Kurve daher also nicht rektifizierbar. 6.1.4 Satz. Jede stetig differenzierbare Kurve γ ist rektifizierbar. Wenn x : [a, b] → Rn eine stetig differenzierbare Parameterdarstellung von γ ist, so gilt Z b Z bq 0 L(γ) = kx (t)k dt = x01 2 + · · · + x0n 2 dt. a a (6.1) 80 KAPITEL 6. KURVENINTEGRALE Beweis. Dies folgt mit Hilfe der Riemannschen Definition des Integrals (Zwischensummen) und dem Mittelwertsatz. (i) Es sei r > 0 und x : [0, 2π] → R2 , t 7→ r 6.1.5 Beispiele. ! cos t sin t differenzierbare Parametrisierung der Kreislinie γ. Es gilt: x0 (t) = r und somit kx (t)k = r. Mit Satz 6.1.4 folgt: 0 L(γ) = Z 2π 0 0 kx (t)k dt = Z eine stetig ! − sin t cos t 2π r dt = 2πr. 0 ! cos3 t (ii) x(t) = a für a > 0, t ∈ [0, 2π] beschreibt die Sternkurve (Astroide, ! 2 − cos t sin t Abbildung 6.3) γ. Mit x0 (t) = 3a ist sin2 t cos t sin3 t y a ax −a −a Abbildung 6.3: Sternkurve 2 kx0 (t)k = 9a2 cos4 t sin2 t + sin4 t cos2 t = 9a2 cos2 t sin2 t. Daher gilt L(γ) = 4 Z 0 6.1.6 Definition. π 2 π 12a 2 2 3a cos t sin tdt = sin t = 6a. 2 0 (i) Eine Kurve γ heißt stückweise stetig differenzierbar, wenn γ in endlich viele stetig differenzierbare Teilkurven zerlegt werden kann. (ii) Eine stückweise glatte Kurve ist entsprechend definiert. (iii) Ist γ eine Kurve mit der Parameterdarstellung x : [0, 1] → Rn , so bezeichnen wir die Kurve mit der Parameterdarstellung x̃(t) = x(1 − t) für t ∈ [0, 1] mit −γ. 6.2. KURVENINTEGRALE ERSTER ART 81 Die Berechnung der Kurvenlänge stückweise stetig differenzierbarer Kurven erfolgt dann einfach als Summe der Längen der einzelnen Abschnitte, deren Längen man mit Hilfe von 6.1.4 bestimmt. 6.1.7 Satz (Parametrisierung nach der Bogenlänge). Es sei γ eine glatte Kurve. Dann existiert eine glatte Parameterdarstellung x̃ : [0, L(γ)] → γ ∗ mit kx̃0 (s)k = 1 für alle s ∈ [0, L(γ)]. Beweis. Es sei x : [a, b] → Rn eine beliebige glatte Parameterdarstellung von γ. Die durch s(t) = Z a t kx0 (τ )k dτ definierte Funktion bildet [a, b] auf [0, L(γ)] ab und ist streng monoton wachsend und stetig differenzierbar mit der Ableitung s0 (t) = kx0 (t)k > 0. Daher existiert die Umkehrfunktion λ(s) = t und x̃(s) =: x(λ(s)) ist eine glatte Parameterdarstellung von γ: 1 x0 (t) x̃ (s) = x (λ(s))λ (s) = x (t) · 0 = 0 s (t) kx (t)k 0 und daher kx̃ (s)k = 1. 0 0 0 0 Hat man diese Parametrisierung gefunden, so berechnet sich die Länge von Kurvenstücken also besonders einfach. 6.2 Kurvenintegrale erster Art Wir betrachten nun Kurvenintegrale mit skalaren Funktionen, auch Kurvenintegrale erster Art genannt. Das heißt, wir betrachten eine glatte Kurve γ und eine Funktion f : γ ∗ → R. Anschaulich wollen wir die Fläche zwischen der Kurve und der Funktion berechnen. 6.2.1 Definition. Es seien γ eine glatte Kurve, x : [a, b] → Rn eine glatte ParameRt trisierung von γ und s(t) = a kx0 (τ )k dτ . Weiter seien f : γ ∗ → R, π : a = t0 < t1 < · · · < tN = b eine Partition von [a, b] und ξk = x(t̃k ) für t̃k ∈ [tk−1 , tk ], k = 1, . . . , N , Zwischenstellen. Ferner sei ∗ σ(π, f, γ ) = N X k=1 f (ξk )( s(tk ) − s(tk−1 ) ). | {z } Länge des Bogens zwischen diesen Punkten Gilt nun für beliebige Partitionsfolgen (π` )`∈N von [a, b] mit |π` | → 0 für ` → ∞ und π` ⊂ π`+1 , dass der Grenzwert lim σ(π` , f, γ ∗ ) = I `→∞ 82 KAPITEL 6. KURVENINTEGRALE unabhängig von der Wahl der Partitionsfolge und der Wahl der Zwischenstellen ξk stets existiert, so heißt der Grenzwert Kurvenintegral erster Art der Funktion f längs der Kurve γ, in Zeichen I= Z f (s) ds. γ z f (x, y) y γ∗ x ξ1 ξ3 ξ2 6.2.2 Satz. Ist γ eine glatte Kurve, x : [a, b] → Rn eine glatte Parametrisierung von γ und f stetig auf γ ∗ , dann existiert stets das Kurvenintegral erster Art von f bezüglich γ und es gilt Z f (s) ds = γ Z a b f (x(t)) kx0 (t)k dt. Dabei ist das Kurvenintegral unabhängig von der Wahl der Parametrisierung. (i) Es sei f : R3 → R, f (x, y, z) = x2 + y 2 + z, und x : [0, 4π] → 6.2.3 Beispiele. R3 , x(t) = (cos t, sin t, t)> parametrisiere eine Schraubenlinie γ mit zwei Umdrehungen. Dann ist Z Z f ds = γ 4π 0 = = Z 4π Z0 4π 0 f (x(t)) kx0 (t)k dt p f (cos t, sin t, t) (− sin t)2 + (cos t)2 + 1 dt √ √ cos2 t + sin2 t + t 2 dt = 4 2π(1 + 2π). (ii) Ein Draht mit der Massendichte µ(x) sei durch eine Kurve γ ⊂ R3 angenähert. Die Gesamtmasse des Drahtes ist dann Z M = µ(s) ds. γ Der Vektor S mit den Komponenten Z 1 xk µ(s)ds, k = 1, 2, 3, Sk = M γ ist der Schwerpunkt. 83 6.3. KURVENINTEGRALE ZWEITER ART (iii) Wir schneiden den Zylinder mit Radius R > 0 mit der durch z = R − x be- schriebenen Fläche (vergleiche Abbildung 6.4) und bestimmen die Fläche des „Dosenrestes“ des Zylindermantels zwischen dem Schnitt und der Koordinatenebene. Die Kurve γ wird dann durch (x(t), y(t))> = (R cos t, R sin t)> mit t ∈ [0, 2π] parametrisiert und es gilt Z 2π Z p (R − R cos t) R2 (− sin t)2 + R2 cos2 t dt (R − x) ds = γ 0 =R 2 Z 2π 0 2 (1 − cos t) dt = R2 [t − sin t]2π 0 = 2πR . z 2 1 1 1 x y Abbildung 6.4: Randkurven des geschnittenen Zylinders, Beispiel 6.2.3 (iii) 6.3 Kurvenintegrale zweiter Art 6.3.1 Kurvenintegrale zweiter Art. Im Folgenden sei γ ⊂ Rn eine Kurve, γ ∗ ihr Träger und f : γ ∗ → Rn eine Abbildung, das heißt f (x) = (f1 (x), . . . , fn (x))> . Es sei x : [a, b] → Rn eine Parametrisierung von γ und π : a = t0 < · · · < tN = b eine Partition von [a, b]. Wir betrachten die Zwischensumme σ(π, f, x) = n X N X i=1 k=1 fi (ξk )(xi (tk ) − xi (tk−1 )) mit Zwischenstellen ξk ∈ x([tk−1 , tk ]), das heißt, auf dem entsprechenden Kurvenabschnitt. Vertauscht man die Summationsreihenfolge, so erhalten wir eine geometrische Interpretation als Approximation der auf die Koordinatenebenen projizierten Flächen (vergleiche auch Abbildung 6.5): σ(π, f, x) = N X k=1 hf (ξk ), x(tk ) − x(tk−1 )i . 84 KAPITEL 6. KURVENINTEGRALE fi (x) xi γ∗ Abbildung 6.5: Interpretation des Kurvenintegrals zweiter Art als Summe von projizierten Flächen 6.3.2 Definition. Es sei (π` )`∈N eine ausgezeichnete Partitionsfolge von [a, b] mit π` ⊂ π`+1 für ` ∈ N und |π` | → 0 für ` → ∞. Existiert stets lim σ(π` , f, x) = I `→∞ unabhängig von der Auswahl der Zwischenstellen ξk und der Partitionsfolge (π` )`∈N , so heißt I Kurvenintegral zweiter Art der Funktion f längs der Kurve γ. In Zeichen ! Z X Z n fi (x)dxi . I = f (x) · dx = γ γ i=1 n 6.3.3 Satz. Es sei γ ⊂ R eine rektifizierbare Kurve mit der Parametrisierung x : [a, b] → Rn und f : γ ∗ → Rn eine vektorwertige Funktion (Abbildung). Dann gilt (i) Wenn f stetig auf γ ∗ ist, so existiert das Kurvenintegral zweiter Art von f längs der Kurve γ. (ii) Ist x eine stetig differenzierbare Parameterdarstellung, das heißt, γ ist stetig differenzierbar, so gilt Z Z b n Z b X 0 f (x) · dx = hf (x(t)), x (t)i dt = fi (x(t))x0i (t) dt. γ a i=1 a (iii) Das Kurvenintegral zweiter Art ist dabei unabhängig von der Wahl der Parametrisierung. 85 6.3. KURVENINTEGRALE ZWEITER ART Beweis. Folgt aus der Definition und mit Hilfe der Kettenregel. Eine weitere mögliche Interpretation für das Kurvenintegral zweiter Art erhält man durch folgende Betrachtung: Ein Massenpunkt bewegt sich entlang der Kurve der durch x parametrisierten Kurve γ (mit der Geschwindigkeit x0 ) in einem Kraftfeld f (x). Das Kurvenintegral gibt die gesamte benötigte physikalische Arbeit (Energie) an, um den Massenpunkt vom Anfangspunkt x(a) zum Endpunkt x(b) entlang der Kurve γ zu bewegen. x0 (t) f (x) γ Abbildung 6.6: Kurvenintegral zweiter Art als physikalische Arbeit auf dem Weg durch ein Kraftfeld. 6.3.4 Definition. (i) Sind x1 , x2 : [0, 1] → Rn Parameterdarstellungen von zwei Kurven γ1 , γ2 ⊂ Rn , wobei der Endpunkt x1 (1) mit dem Anfangspunkt x2 (0) übereinstimmen möge, dann ist x (2t), t ∈ 0, 12 , 1 x(t) = x (2t − 1), t ∈ 1 , 1 , 2 2 eine Parameterdarstellung einer neuen Kurve, die mit γ1 + γ2 bezeichnet wird. (ii) Ist x : [a, b] → Rn eine Parameterdarstellung einer Kurve γ und c ∈ (a, b), so sind x[a,c] und x[c,b] Parameterdarstellungen von Kurven γ1 und γ2 und wir sagen γ1 und γ2 bilden eine Zerlegung von γ. 86 KAPITEL 6. KURVENINTEGRALE 6.3.5 Lemma (Rechenregeln). Es seien γ ⊂ Rn eine rektifizierbare Kurve, f, g : γ ∗ → Rn und λ ∈ R, dann gilt Z Z λf (x) · dx = λ f (x) · dx. (i) γ (ii) Z γ γ (f (x) + g(x)) · dx = Z γ f (x) · dx + Z γ g(x) · dx. (iii) Ist γ = γ1 + γ2 , so gilt Z Z Z f (x) · dx = f (x) · dx + f (x) · dx. γ1 +γ2 (iv) Z γ f (x) · dx = − Z −γ γ1 γ2 f (x) · dx. Z (v) f (x) · dx ≤ L(γ) sup kf (x)k. x∈γ ∗ γ Beweis. Folgt aus der Definition. 6.3.6 Bemerkung. Die Rechenregeln gelten analog auch für Kurvenintegrale erster Art. 6.3.7 Beispiel. Wir betrachten f, g : R2 → R2 mit f (x, y) = (2xy, x2 )> und g(x, y) = (xy, y−x)> auf den durch die folgenden Parameterdarstellungen gegebenen Kurven γ1 , . . . , γ4 . Das Parameterintervall sei jeweils [0, 1]. ! ! ! x(t) t x0 (t) γ1 : = , = y(t) t y 0 (t) ! ! ! x(t) t x0 (t) γ2 : = 2 , = y(t) t y 0 (t) ! ! ! x(t) t x0 (t) γ3 : = 3 , = y(t) t y 0 (t) (1) ! 1 1 1 ! 2t 1 3t2 ! (2) γ4 = γ4 + γ4 mit (1) γ4 (2) γ4 Wir berechnen ! x(t) y(t) ! x(t) y(t) = = t ! 0 ! 1 t , , ! x0 (t) y 0 (t) ! x0 (t) y 0 (t) = = ! 1 0 ! 0 1 . 87 6.3. KURVENINTEGRALE ZWEITER ART y γ1 (2) γ2 γ3 γ4 x (1) γ4 Abbildung 6.7: Die Kurven γ1 bis γ4 aus Beispiel 6.3.7. Z Z γi γi f (x, y) · d(x, y) = 2xy dx + x2 dy , Z γi Z γi g(x, y) · d(x, y) = (xy dx + (y − x) dy) . Wir erhalten Z Z f (x, y) · d(x, y) = γ1 Z γ2 γ3 f (x, y) · d(x, y) = Z γ4 2t · t · 1 + t · 1 dt = 2 0 f (x, y) · d(x, y) = Z 1 f (x, y) · d(x, y) = Z 1 1 1 0 γ1 γ2 γ3 1 g(x, y) · d(x, y) = Z 1 0 Z 1 g(x, y) · d(x, y) = 1 0 2 · 1 · t · 0 + 12 · 1 dt = 1 1 1 1 t + (t − t) · 1 dt = t2 = 3 0 3 t3 + 2t(t2 − t) dt 1 0 2 3 3t − 2t dt = t4 − t3 4 3 t4 + 3t2 (t3 − t) dt 3 0 Z Z 1 3t2 dt = t3 0 = 1 2 0 = Z 2t · 0 · 1 + t · 0 dt + 2 und weiter Z Z g(x, y) · d(x, y) = Z 0 1 2t4 + 3t4 dt = t5 0 = 1 0 Z 1 1 2t3 + 2t3 dt = t4 0 = 1 0 Z Z 2 0 = 1 12 1 1 6 1 5 3 4 1 = 3t + t − 3t dt = t + t − t =− 2 5 4 0 20 0 Z Z 1 Z 1 g(x, y) · d(x, y) = (0 + (0 − t) · 0) dt + (t · 0 + (t − 1)1 · 1) dt γ4 Z 0 1 5 4 3 1 1 2 1 = t −t =− . 2 2 0 1 0 88 KAPITEL 6. KURVENINTEGRALE 6.3.8 Definition. Es sei U ⊂ Rn eine offene und zusammenhängende Menge (ein Gebiet) und f : U → Rn eine stetige Abbildung. Dann heißt f auf U wegunabhän- gig integrierbar oder konservativ, wenn für beliebige stetig differenzierbare Kurven γ, γ̃ ⊂ U mit gleichem Anfangs- und Endpunkt stets gilt, dass Z Z f (x) · dx = f (x) · dx. γ γ̃ γ̃ γ Abbildung 6.8: Sind γ und γ̃ zwei Kurven mit dem selben Start- und Endpunkt, so ist γ − γ̃ eine geschlossene Kurve 6.3.9 Korollar. f ist genau dann auf U wegunabhängig integrierbar, wenn für jede (stückweise) glatte und geschlossene Kurve γ ⊂ U stets gilt I f (x) · dx = 0. γ 6.3.10 Satz und Definition. Eine stetige Abbildung f : U ⊂ Rn → Rn ist genau dann auf U wegunabhängig integrierbar, wenn f ein Gradientenfeld (Potenzialfeld) ist, das heißt, es existiert eine bis auf eine additive Konstante eindeutig bestimmte Stammfunktion F ∈ C 1 (U, R), mit f (x) = ∇F (x) für alle x ∈ U . Ist γ ⊂ U eine beliebige stückweise stetig differenzierbare Kurve mit dem Anfangspunkt x0 und dem Endpunkt x1 , so gilt in diesem Fall Z f (x) · dx = F (x1 ) − F (x0 ). γ Beweis. „⇒“ Es sei f wegunabhängig integrierbar. Wir wählen x0 ∈ U beliebig aber fest, dann existiert für ein beliebiges x ∈ U eine glatte Kurve γx0 ,x ⊂ U mit Anfangspunkt x0 und Endpunkt x. Wir setzen Z F (x) := f (y) · dy. γx0 ,x Wegen der Wegunabhängigkeit des Integrals ist F eindeutig bestimmt. Wir zeigen ∂F (x) ∂xi = fi (x): Es sei i ∈ { 1, . . . , n } und sei h mit |h| > 0 so klein gewählt, 89 6.3. KURVENINTEGRALE ZWEITER ART γx0 ,x+hei γx0 ,x γi x0 x Abbildung 6.9: Zum Beweis von Satz 6.3.10. dass γi := γx,x+hei = σ(x, x + hei ) ⊂ U . Es seien γx0 ,x , γx0 ,x+hei ⊂ U mit den entsprechenden Endpunkten. Dann ist γ = γx0 ,x +γi −γx0 ,x+hei ⊂ U eine geschlossene Kurve (siehe Abbildung 6.9) und folglich Z Z Z I f (y) · dy + f (y) · dy + 0 = f (y) · dy = γ = F (x) + Z γx0 ,x γi also γi −γx0 ,x+hei f (y) · dy f (y) · dy − F (x + hei ), Z γi f (x) · dx = F (x + hei ) − F (x). Es sei ohne Beschränkung der Allgemeinheit h > 0 und y : [0, h] → Rn , y(t) = x+tei , die Parametrisierung von γi nach der Bogenlänge, dann gilt nach Satz 6.3.3 und dem Mittelwertsatz für Integrale Z hX Z n 0 fj (y(t))yj (t) dt = 0 h fi (y(t)) dt = hfi (y(τ )) 0 j=1 mit einem τ ∈ (0, h). Daraus erhalten wir F (x + hei ) − F (x) = fi (y(τ )). h Aufgrund der Stetigkeit von fi gilt dann im Grenzwert F (x + hei ) − F (x) ∂F = (x) = fi (y(0)) = fi (x). h→0 h ∂xi lim „⇐“ Es sei f ein Gradientenfeld, das heißt, es existiert ein F mit fi (x) = ∂F (x), ∂xi und sei weiter γ ⊂ U eine glatte Kurve mit Parametrisierung y : [a, b] → U . Dann gilt mit der Kettenregel Z Z bX n f (x) · dx = fi (y(t))yi0 (t) dt γ a i=1 Z bX n dyi ∂F (y(t)) (t) dt = dt a i=1 ∂xi Z b b d = F (y(t)) dt = F (y(t))a = F (y(b)) − F (y(a)), a dt 90 KAPITEL 6. KURVENINTEGRALE das heißt, nur Anfangs- und Endpunkt von γ sind für den Wert des Integrals wesentlich, f somit wegunabhängig integrierbar. 6.3.11 Bemerkung. Ist f : U → Rn , n ≥ 2, ein Gradientenfeld, gilt zusätzlich f ∈ C 1 (U ) und ist F eine Stammfunktion von f , dann gilt zusätzlich für alle x ∈ U und alle i, k = 1, . . . , n nach dem Satz von Schwarz die Integrabilitätsbedingung ∂fi ∂ ∂F ∂ ∂F ∂fk (x) = (x) = (x) = (x). ∂xk ∂xk ∂xi ∂xi ∂xk ∂xi (6.2) Für n = 3 ist die Integrabilitätsbedingung äquivalent zu rot f = 0 („f ist wirbelfrei“), vergleiche Definition 7.1.1 und Satz 7.1.5. 6.3.12 Satz. Es sei U ⊂ Rn offen und sternförmig, das heißt, es existiert ein x0 ∈ U , so dass für alle x ∈ U gilt σ(x0 , x) ⊂ U . Erfüllt f ∈ C 1 (U, Rn ) die Integrabilitätsbedingung (6.2), so ist f ein Gradientenfeld. Abbildung 6.10: Sternförmige Mengen Beweis. Es sei U bezüglich x0 sternförmig und x ∈ U beliebig, dann ist y(t) = (1 − t)x0 + tx für t ∈ [0, 1] eine Parametrisierung der Kurve γ = σ(x0 , x) ⊂ U . Wir setzen Z F (x) := γ f (y) · dy und zeigen, dass F eine Stammfunktion von f ist, das heißt, dass gilt: ∂F ∂ (x) = ∂xk ∂xk Z Z ∂ f (y) · dy = ∂xk γ Z 0 1 n X i=1 ∂F (x) ∂xk fi ((1 − t)x0 + tx) (xi − x0i ) dt | {z } = fk (x) =yi0 n ∂ X = fi ((1 − t)x0 + tx)(xi − x0i ) dt ∂x k 0 i=1 Z 1X n ∂fi 0 ((1 − t)x0 + tx)t(xi − xi ) + fk ((1 − t)x0 + tx) dt = ∂xk 0 i=1 1 91 6.3. KURVENINTEGRALE ZWEITER ART = Z 1 0 = Z 0 n X ∂fk i=1 1 ∂xi ((1 − t)x0 + tx)t(xi − x0i ) + fk ((1 − t)x0 + tx) dt d (tfk ((1 − t)x0 + tx)) dt dt = [tfk ((1 − t)x0 + tx)]10 = fk (x) − 0. 6.3.13 Bemerkung. U sternförmig ist nicht notwendig, um in speziellen Fällen die Existenz einer Stammfunktion zu sichern, beispielsweise besitzt das Gravitationsfeld m f (x) = −G kxk 3 x für x 6= 0 eine Stammfunktion ϕ(x) = Gm kxk aber das Definitionsge- biet U = R3 \ { 0 } ist nicht sternförmig. Im Allgemeinen kann die Bedingung zwar zu „einfach zusammenhängend“ abgeschwächt aber nicht völlig fallen gelassen wer- den. Einfach zusammenhängend bedeutet dabei anschaulich, dass jede geschlossene Kurve auf einen Punkt „zusammengezogen“ werden kann. 6.3.14 Beispiel (Übungsaufgabe). Man zeige, dass −x2 x21 +x22 x1 x21 +x22 f (x1 , x2 ) = ! auf R2 \{ 0 } der Integrabilitätsbedingung genügt, aber kein Potenzial besitzt, indem man f über den Einheitskreis integriert. 6.3.15 Beispiele. Wir untersuchen jeweils, ob f eine Stammfunktion besitzt und bestimmen diese gegebenenfalls. (i) Es sei f : R2 → R2 mit f (x, y) = −3xy 2 2 ! . Es gilt ∂f1 ∂y = −3x 6= 2x = ∂f2 . ∂x x −y Also sind die Integrabilitätsbedingungen nicht erfüllt und somit besitzt f keine Stammfunktion. (ii) Es sei f : R2 → R2 mit f (x, y) = 2xy ! und x +y R2 ist ein Sterngebiet. Also besitzt f nach Satz 6.3.12 eine Stammfunktion. 2 2 . Es gilt ∂f1 ∂y = 2x = ∂f2 ∂x Zum Auffinden einer Stammfunktion machen wir folgenden Ansatz: Für eine mögliche Stammfunktion F : R2 → R gilt Fx (x, y) = 2xy. Also ist F (x, y) = x2 y + c(y). Wir differenzieren diesen Ansatz für F nach y und erhalten ! Fy (x, y) = x2 + cy (y) = x2 + y 2 . Also muss cy (y) = y 2 gelten und somit c(y) = x2 y + y3 3 eine Stammfunktion von f . y3 3 + c. Daher ist F (x, y) = 92 KAPITEL 6. KURVENINTEGRALE (iii) Zur Verdeutlichung der soeben angewandten Methode bestimmen wir eine yexy + z 2 Stammfunktion für f : R3 → R3 , f (x, y, z) = xexy + sin z . Ein Ansatz ist xy Fx (x, y, z) = ye y cos z + 2xz + z und damit erhalten wir F (x, y, z) = exy + xz 2 + c(y, z). 2 Differenziation nach y liefert ! Fy (x, y, z) = xexy + cy (y, z) = xexy + sin z, woraus cy (y, z) = sin z folgt. Integration liefert dann c(y, z) = y sin z + c0 mit einer Konstanten c0 ∈ R und ein Test mit Fz (x, y, z) = ∂ xy e + xz 2 + y sin z + c0 = y cos z + 2xz ∂z zeigt, dass die Rechnung korrekt war. Kapitel 7 Integralsätze 7.1 Differenzialoperatoren 7.1.1 Definition. Es sei f : Rn → Rn ein partiell differenzierbares Vektorfeld. n X ∂fk (x) die Divergenz von f in x und (i) Dann heißt div f (x) := ∂xk k=1 (ii) Im Fall n = 3 heißt ∂f (x) − ∂x2 3 ∂f1 rot f (x) := ∂x (x) − 3 ∂f2 (x) ∂x1 − ∂f2 (x) ∂x3 ∂f3 (x) ∂x1 ∂f1 (x) ∂x2 die Rotation von f in x (oder: zu f gehörendes Wirbelfeld). ∂ ∂x. 1 . 7.1.2 Bemerkungen. Mit dem Nabla-Operator ∇ := . ergibt sich folgende ∂ ∂xn formale Schreibweise: (i) div f (x) = ∇ · f (x), dabei bezeichnet · das Standardskalarprodukt. (ii) rot f (x) = ∇ × f (x), × bezeichnet dabei das Kreuzprodukt im R3 mit a1 b1 a2 b 3 − a3 b 2 a2 × b2 = a3 b1 − a1 b3 . a3 b3 a1 b 2 − a2 b 1 (iii) Die Divergenz ordnet einem Vektorfeld ein Skalarfeld zu. Die Rotation ordnet einem Vektorfeld wieder ein Vektorfeld zu. 93 94 KAPITEL 7. INTEGRALSÄTZE (iv) Interpretiert man f als Strömungsfeld, dann gibt die Divergenz in jedem Raumpunkt an, wieviel mehr aus einer Umgebung dieses Punktes hinausfließt, als in diese Umgebung hineinfließt. Ist div f > 0 spricht man von Quellen, ist div f < 0 von Senken. Gilt div f = 0 für alle x, dann heißt f quellenfrei. Die Rotation von f gibt für jeden Punkt die doppelte Winkelgeschwindigkeit an, mit der ein mitschwimmender Körper in diesem Punkt rotiert. Ist rot f = 0 für alle x, so heißt f wirbelfrei. 1 0 2 −1 −2 −1 0 0 1 2 −2 Abbildung 7.1: Divergenz des Vektorfelds f : R2 → R2 , f (x, y) = ((1 − 2x2 )e−x 2 −y 2 2 −y 2 , −2xye−x )> , für bessere Übersichtlichkeit ist das Vektorfeld in der durch z = 1 gegebenen Ebene dargestellt. z y x Abbildung 7.2: Rotation des Vektorfelds (xz 2 , 0, y 3 )> . 95 7.1. DIFFERENZIALOPERATOREN (i) Es sei f : Rn → R ein zweimal stetig partiell differenzier- 7.1.3 Definition. bares Skalarfeld. Dann heißt ∇ f (x) := n X ∂ 2f k=1 ∂x2k (x) der Laplace-Operator von f in x. (ii) Für ein Vektorfeld f : Rn → Rn ist f1 (x) f1 (x) . .. := ... . f (x) = fn (x) fn (x) ∇ ∇ ∇ ∇ (i) Formal ist der Laplace-Operator die Divergenz vom 7.1.4 Bemerkungen. Gradienten von f oder das Skalarprodukt aus dem Nabla-Operator mit sich ∇ selbst, also = div ∇ = ∇ · ∇ := ∇2 . ∇ Die Abbildung 7.1 kann daher auch als Veranschaulichung von ∇ f (x) = div(∇f (x)) = ∇ · ∇f (x) = ∇2 f (x). xe−x 2 −y 2 be- trachtet werden. (ii) Die Jacobimatrix von ∇f ist die Hessematrix von f . Die Spur (Summe der ∇ Diagonalelemente) dieser Matrix ist f. 7.1.5 Rechenregeln für Differentialoperatoren. Es seien f, g : Rn → Rn zwei- mal partiell differenzierbare Vektorfelder und Φ : Rn → R ein zweimal partiell differenzierbares Skalarfeld. Dann gilt: (i) div(f + g) = div f + div g, (ii) rot(f + g) = rot f + rot g, (iii) div(f × g) = g > rot f − f > rot g, (iv) div(Φf ) = ∇Φ · f + Φ div f , (v) rot(Φf ) = ∇Φ × f + Φ rot f , ∇ Φ, (vii) rot(rot f ) = ∇(div f ) − ∇ (vi) div(∇Φ) = f, (viii) rot(∇Φ) = 0, falls Φ ∈ C 2 , das heißt ein Gradientenfeld ist wirbelfrei und 96 KAPITEL 7. INTEGRALSÄTZE (ix) div(rot f ) = 0, das heißt ein Wirbelfeld ist quellenfrei. Beweis. zu (iv): n n n X X X ∂ ∂ ∂ ∂ (Φf )k = (Φfk ) = Φ · fk + Φ · fk div(Φf ) = ∂xk ∂xk ∂xk ∂xk k=1 k=1 k=1 n n X X ∂ ∂ = Φ · fk + Φ fk = Φ0 · f + Φ div f. ∂xk ∂xk k=1 k=1 Zu (viii): Mit dem Satz von Schwarz gilt Φx Φzy − Φyz 0 rot(∇Φ) = rot Φy = Φxz − Φzx = 0 . Φz 7.2 Φyx − Φxy 0 Oberflächen Die folgenden Abschnitte dieses Kapitels orientieren sich an unveröffentlichten Skripten von Prof. Leopold (Jena) und Prof. Schulz (Ulm). 7.2.1 Normalbereiche und zulässige Bereiche. Als Nachtrag zum Kapitel über die Integralrechnung betrachten wir folgende Mengen, für die man zeigen kann, dass sie „gut genug“ sind in dem Sinne, dass man ihnen ein Volumen zuweisen und über sie problemlos integrieren kann, wenn die zu integrierende Funktion zum Beispiel stetig ist. Normalbereiche: Es sei i ∈ { 1, . . . , n } beliebig aber fest und x0 = (x1 , . . . , xi−1 , xi+1 , . . . , xn ). Eine Menge M ⊂ Rn heißt Normalbereich bezüglich der x0 -Hyperebene, wenn es einen zulässigen Bereich M̃ ⊂ Rn−1 und stetige Funktionen g, h : M̃ → R mit n o M = (x1 , . . . , xn ) x0 ∈ M̃ ∧ g(x0 ) ≤ xi ≤ h(x0 ) gibt. Dabei heißt M̃ ⊂ Rn zulässiger Bereich, wenn M̃ die endliche Vereinigung von Normalbereichen ist (rekursive Definition, ein eindimensionaler Normalbereich ist ein Intervall). 7.2.2 Definition. Es sei n ≥ 2 und k ∈ N. M ⊂ Rn heißt Hyperfläche der Klasse C k , falls es zu jedem Punkt x0 = (x01 , . . . , x0n ) ∈ M eine offene Kugelumgebung U = Ur (x0 ) = { x ∈ Rn | |x − x0 | < r } gibt, sowie eine Funktion φ ∈ C k (U, R) mit > ∂φ ∂φ (x), . . . , (x) 6= 0 ∇φ(x) = ∂x1 ∂xn 97 7.2. OBERFLÄCHEN z h(x, y) h̃(x) g̃(x) y g(x, y) x Abbildung 7.3: Normalbereich bezüglich (x, y)-Ebene, wobei der zulässige Bereich in der (x, y)-Ebene ein Normalbereich bezüglich der x-Ebene (Achse) ist. für x ∈ U , so dass M ∩ U = { x ∈ U | φ(x) = 0 } . 7.2.3 Bemerkung. Nach dem Satz über implizite Funktionen existiert eine Kugel Uε = Uε (x0 ) ⊂ Rn , so dass die Gleichung φ(x) = 0 nach einem xi (i = 1, . . . , n) aufgelöst werden kann. Nach eventueller Umnummerierung können wir ohne Beschränkung der Allgemeinheit annehmen, dass i = n gilt. Genauer gilt dann: Es gibt eine C k -Funktion ψ in n o Uε0 = Uε0 (x00 ) = x0 = (x1 , . . . , xn−1 )> ∈ Rn−1 |x0 − x00 | < ε , x00 = (x01 , . . . , x0n−1 )> , so dass xn = ψ(x0 ) = ψ(x1 , . . . , xn−1 ) für x = (x1 , . . . , xn )> ∈ M ∩ Uε . Hieraus folgt, dass φ(x0 , ψ(x0 )) = 0 für x0 ∈ Uε0 . Es gilt sogar die Identität M ∩ Uε = { x ∈ Uε0 × R | xn = ψ(x0 ) } . 98 KAPITEL 7. INTEGRALSÄTZE 7.2.4 Bemerkungen (Darstellungen von Flächen). (i) Die Abbildung Rn−1 ⊃ Uε0 → Uε ⊂ Rn , x0 7→ x = (x0 , ψ(x0 ))> parametrisiert M ∩ Uε beziehungsweise x1 , . . . , xn−1 sind lokale Koordinaten für M in Uε . (ii) Lässt sich eine Fläche M direkt durch eine Funktion ψ(x0 ) = xn für x0 ∈ N ⊂ Rn−1 darstellen, so heißt diese Darstellung explizit, das heißt, eine explizit gegebene Fläche ist der Graph einer Funktion. (iii) In Analogie zur Parameterdarstellung bei Kurven sind auch Flächen mitunter in Parameterdarstellung gegeben: Es sei P ⊂ Rn−1 ein zulässiger Bereich, der Parameterbereich, und f ∈ C 1 (P̊ , Rn ) injektiv. Außerdem sei der Rang von f 0 (p) gerade n − 1 für alle p ∈ P und ∂P hinreichend glatt. M = { x ∈ Rn | ∃y ∈ P : x = f (y) } . Wegen der Rangbedingung lassen sich auch Flächen mit Parameterdarstellung lokal explizit darstellen. (iv) Jede explizit gegebene Fläche M = (x0 , f (x0 ))> ∈ Rn x0 ∈ N ⊂ Rn−1 ist durch p = (p1 , . . . , pn−1 )> := (x1 , . . . , xn−1 )> = x0 ∈ N auch in Parameterdar- stellung gegeben. 7.2.5 Beispiele. (i) Die Oberfläche der Einheitskugel im R3 lässt sich schreiben als x ∈ R3 ϕ(x) := x21 + x22 + x23 − 1 = 0 q 2 3 2 2 S = x ∈ R x3 = ± 1 − x21 − x22 ∧ x1 + x2 ≤ 1 S 2 = x ∈ R3 ∃ϕ ∈ [0, 2π)∃ϑ ∈ [0, π] : x = (cos ϕ sin ϑ, sin ϕ sin ϑ, cos ϑ)> S2 = (ii) Betrachten wir M = (x, y, z)> ∈ R3 0 ≤ z ≤ 4 − x2 − y 2 als Teil eines Paraboloids, so ist die Oberfläche gegeben durch (x, y, z)> ∈ R2 z = 0 ∧ x2 + y 2 ≤ 4 ∪ (x, y, z)> ∈ R3 z = 4 − x2 − y 2 ∧ x2 + y 2 ≤ 4 , ∂M = x ∈ R3 ∃ϕ ∈ [0, 2π)∃r ∈ [0, 2] : x = (r cos ϕ, r sin ϕ, 0)> x ∈ R3 ∃ϕ ∈ [0, 2π)∃r ∈ [0, 2] : x = (r cos ϕ, r sin ϕ, 4 − r2 )> . ∂M = 99 7.2. OBERFLÄCHEN 4 2 0 −2 0 −1 0 1 −2 1 2 −1 Abbildung 7.4: Das Teil-Paraboloid aus Beispiel 7.2.5 (ii) (iii) In 4.4.5 (ii) hatten wir die Funktion F (x, y, z) = x2 + yz + ez − 2 betrachtet und gezeigt, dass es eine lokale Auflösung der Gleichung F (x, y, z) = 0 in einer Umgebung des Punktes (1, 2, 0)> gibt. Das heißt, lokal existiert eine explizite Darstellung z = g(x, y) der durch (x, y, z)> ∈ R3 F (x, y, z) = 0 gegebenen Fläche. 7.2.6 Definition. Es sei V ⊂ Rn eine offene Menge, k ∈ N. V gehört zur Klasse C k , falls es zu jedem Punkt x0 ∈ ∂V eine offene Kugelumgebung U = Ur (x0 ) und eine C k -Funktion ψ : U 0 = U 0 (x0 ) → R, (o. B. d. A.) gibt, so dass V ∩ U = { x ∈ U 0 × R | xn < ψ(x0 ) } . V ∈ C k bedeutet also, dass ∂V ∈ C k , das heißt, der Rand von V ist eine Hyperfläche der Klasse C k . 7.2.7 Definition. Ist M ∈ C k gegeben durch φ(x) = 0, dann sind ν(x) = (ν1 (x), . . . , νn (x))> = ± ∇φ(x) k∇φ(x)k die Einheitsnormalen von M im Punkt x ∈ M . 7.2.8 Bemerkung. Ist M explizit gegeben durch xn = ψ(x1 , . . . , xn−1 ), dann ist > ∂ψ ∂ψ 0 0 − ∂x (x ), . . . , − (x ), 1 ∂xn−1 1 s ν(x) = ± . n−1 P ∂ψ 0 2 1+ (x ) ∂xi i=1 100 KAPITEL 7. INTEGRALSÄTZE 7.2.9 Definition. Ist M = ∂U explizit gegeben durch xn = ψ(x0 ), dann ist ! −∇ψ(x0 ) 1 ν(x) = q 1 + k∇ψ(x0 )k2 die äußere Einheitsnormale von ∂U im Punkt x. 7.2.10 Beispiele. (i) Die äußere Normale an die Einheitssphäre im R3 ist gege- ben durch 2x1 x1 x2 x3 2x2 2x3 ν(x1 , x2 , x3 ) = p 2 =p 2 4x1 + 4x22 + 4x23 x1 + x22 + x23 und im expliziten Fall durch ν(x1 , x2 , x3 ) = q x1 1−x21 −x22 √ x2 2 −x2 1−x 1 2 √ 1 x21 1−x21 −x22 + x22 1−x21 −x22 . +1 (ii) Die in 7.2.5 (ii) betrachtete Menge hat die äußere Normale ν = (0, 0, −1)> auf der Teilmenge (x, y, z)> ∈ R3 z = 0 ∧ x2 + y 2 ≤ 4 , wobei man sich das Vorzeichen anschaulich herleiten kann. Auf der Oberfläche des Paraboloids (x, y, z)> ∈ R3 z = 4 − x2 − y 2 gilt 2x 2y 1 . ν(x, y, z) = p 4x2 + 4y 2 + 1 (iii) Die implizt gegebene Fläche 7.2.5 (iii) hat die Normale 2x + y x ez ν(x, y, z) = ± p . (2x + y)2 + x2 + e2z 101 7.2. OBERFLÄCHEN 7.2.11 Bemerkung. Wir überlegen uns, dass der Vektor ∇φ(x) in die Richtung des stärksten Anstiegs der Funktion φ zeigt, das heißt, ∇φ(x) ist orthogonal zur Tangentialebene von M im Punkte x. “Beweis”. Nach Auflösen der Gleichung φ(x) = 0 ist φ(x1 , . . . , xn−1 , ψ(x1 , . . . , xn−1 )) = 0. Implizites Differenzieren nach der Kettenregel liefert ∂φ ∂φ ∂ψ + = 0 für i = 1, . . . , n − 1. ∂xi ∂xn ∂xi (7.1) Andererseits sind die Vektoren ∂ψ τ1 = 1, 0, . . . , 0, ∂x1 ∂ψ , τ2 = 0, 1, 0 . . . , 0, ∂x2 .. . ∂ψ τn−1 = 0, 0, . . . , 0, 1, ∂xn−1 linear unabhängige Tangentialvektoren und (7.1) bedeutet gerade, dass hτi , Dφi = 0 für i = 1, . . . , n − 1. 7.2.12 Inhalt gekrümmter Flächen. Wir skizzieren zur Motivation eine Herleitung zum Flächeninhaltsproblem (siehe auch Abbilund 7.5): (i) Wähle (finde) eine „geeignete“ Zerlegung der Fläche. (ii) Konstruiere Tangentialebenen an beliebig ausgewählte Punkte der Zerlegungsteile. (iii) Projiziere die Zerlegungsteile auf die jeweiligen Tangentialebenen. (iv) Bestimme den Flächeninhalt der Projektionen. (v) Summiere die Flächeninhalte auf und erhalte so einen Näherungswert für den Flächeninhalt. Es sei M eine explizit gegebene Fläche. Das heißt, M = Gf = x ∈ Rn ∃x0 ∈ D : x = (x0 , f (x0 ))> 102 KAPITEL 7. INTEGRALSÄTZE x(j) 4 2 0 −2 x0(j) −1 0 −2 0 −1 Abbildung 7.5: Approximation des Flächeninhalts durch Teile der Tangentialebene in einem Punkt x(j) der Zerlegung. xn ν α α Tj Mj x(j) Dj x0 Abbildung 7.6: Zur Herleitung des Inhalts gekrümmter Flächen mit einer Funktion f : D → R, D ⊂ Rn−1 zulässig. Es sei Z = { D1 , . . . , DN } eine Zerlegung von D. Gesucht ist |Mj | = x ∈ Rn ∃x0 ∈ Dj : x = (x0 , f (x0 ))> im Sinne eines (n − 1)-dimensionalen Inhalts. Es sei x(j) = (x0(j) , f (x0(j) ))> ∈ Mj , dann ist das Stück Tj der Tangentialebene an M über Dj im Punkt x(j) gegeben durch * ( ! + ) −∇f (x0(j) ) Tj = x ∈ Dj × R , x − x(j) = 0 . 1 Wenn die Flächenstücke „klein“ genug sind, ist |Tj | ≈ |Mj | – dies ist für δ(Dj ) „sehr klein“ gegeben. Es sei nun α der Winkel zwischen der äußeren Normalen und der xn -Achse, dann gilt |Dj | = cos α |Tj | ⇒ |Tj | = 1 |Dj | . cos α 103 7.2. OBERFLÄCHEN Nach der Definition des Winkels gilt 0 * ! . + .. −∇f (x0(j) ) , 1 0 1 1 ! cos α = =r −∇f (x0(j) ) Pn−1 ∂f 0(j) 2 ) 1 + k=1 ∂xk (x 1 und wir erhalten v u 2 n−1 X u ∂f 0(j) t (x ) |Dj | . |Tj | = 1 + ∂x k k=1 Als Approximation der Fläche erhalten wir also v 2 N N u n−1 X X X u ∂f 0(j) t |Mj | ≈ 1+ (x ) |Dj | ≈ σ(Z, g, x0(j) ) ∂x k j=1 j=1 k=1 als Zwischensumme eines n − 1-dimensionalen Riemann-Integrals über die stetige Funktion v u 2 n−1 X u ∂f 0 g(x ) = t1 + (x0 ) . ∂x k k=1 Wählt man nun eine ausgezeichnete Zerlegungsfolge (Z` )`∈N von D, so konvergieren die Zwischensummen nach unseren Voraussetzungen an f für ` → ∞ gegen das Integral. 7.2.13 Definition. Der Flächeninhalt einer explizit gegebenen Fläche M= (x0 , xn )> ∈ Rn xn = f (x0 ) ∧ x0 ∈ D ⊂ Rn−1 wird definiert und bestimmt durch v 2 Z u n−1 X u ∂f 0 t 1+ (x ) d(x1 , . . . , xn−1 ). |M | = ∂x k D k=1 7.2.14 Beispiele. (i) Die Oberfläche M der oberen Hälfte der Einheitssphäre im R3 ist explizit gegeben durch q f (x1 , x2 ) = x3 = 1 − x21 − x22 , x1 x2 ! ∈D= ( x1 x2 ! ) ∈ R2 x21 + x22 ≤ 1 . 104 KAPITEL 7. INTEGRALSÄTZE Mit ∂f ∂xi = −√ gilt also xi 1−x21 −x22 Z s x22 x21 + d(x1 , x2 ) 1 − x21 − x22 1 − x21 − x22 D Z s Z 1 Z 2π r 1 √ = d(x1 , x2 ) = dϕdr 2 2 1 − x1 − x2 1 − r2 0 0 D i1 h √ 2 = 2π − 1 − r = 2π. |M | = 1+ 0 (ii) Die Oberfläche der Teilmenge des Paraboloids aus 7.2.5 (ii) berechnet sich mit Hilfe von 7.2.10 (ii) zu Z { x2 +y 2 ≤4 } Z p 4x2 + 4y 2 + 1 dxdy = 0 2 Z 2π √ r 4r2 + 1dϕdr 0 3 1 = 2π 4r2 + 1 2 12 Die Gesamtoberfläche ist dann π 6 2 = 0 √ 17 17 − 1 + 4π. π √ 17 17 − 1 . 6 7.2.15 Bemerkung. Ist die Fläche M ⊂ R3 in Parameterdarstellung gegeben, M= x ∈ R3 ∃p ∈ P ⊂ R2 : x = f (p) , so erhalten wir die äußere Normale an die Fläche auch über das Kreuzprodukt von geeigneten Tangentialvektoren. Vektoren in der Tangentialebene erhalten wir beispielsweise dadurch, indem wir die Tangenten an Kurven auf der Fläche betrachten. Die einfachsten Kurven sind jene, bei denen wir eine Komponente von p = (p1 , p2 )> festhalten. Wenn f beziehungsweise M genügend glatt sind (etwa C 1 ), so sind auch y1 (p1 ) = f (p1 , p02 ) für (p1 , p02 ) ∈ P und y2 (p2 ) = f (p01 , p2 ) für (p01 , p2 ) ∈ P stetig differenzierbare Parameterdarstellungen von Kurven in M und ihre Tangenten im Punkt p0 = (p01 , p02 ) sind ∂y1 (p0 ) = ∂p1 ∂yi (p0 ): ∂pi ∂f1 ∂f2 ∂f3 , , ∂p1 ∂p1 ∂p1 > ∂y2 (p0 ), (p0 ) = ∂p2 Die äußere Normale ist dann ∂y1 ∂p1 × η(p0 ) = ∂y1 ∂p1 × ∂y2 ∂p2 (p0 ). ∂y2 ∂p2 ∂f1 ∂f2 ∂f3 , , ∂p2 ∂p2 ∂p2 > (p0 ). 105 7.2. OBERFLÄCHEN Schreiben wir f (p1 , p2 ) = (x(p1 , p2 ), y(p1 , p2 ), z(p1 , p2 ))> zur Vereinfachung, so berechnet sich η zu yp1 zp2 − yp2 zp1 xp2 zp1 − xp1 zp2 xp1 yp2 − xp2 yp1 η=q . (yp1 zp2 − yp2 zp1 )2 + (xp2 zp1 − xp1 zp2 )2 + (xp1 yp2 − xp2 yp1 )2 Schreibt man zur Verdeutlichung und Abkürzung x ∂(x, y) p1 xp2 xp1 yp2 − xp2 yp1 = =: C, = det yp1 yp2 ∂(p1 , p2 ) ∂(x, z) det =: −B, ∂(p1 , p2 ) ∂(y, z) =: A, det ∂(p1 , p2 ) so ist η = √ (A,B,C)> . A2 +B 2 +C 2 Über den Satz über inverse Abbildungen und die Transfor- mationsformel zeigt man, dass gilt Z √ |M | = A2 + B 2 + C 2 d(p1 , p2 ). P 7.2.16 Beispiele. (i) Es sei M ⊂ R3 die Oberfläche der Kugel mit Radius R > 0. M besitzt die Parameterdarstellung R cos ϕ sin ϑ 3 M = x ∈ R ∃ϕ ∈ [0, 2π)∃ϑ ∈ [0, π] : x = R sin ϕ sin ϑ = f (ϕ, ϑ) . R cos ϑ Es gilt dann R cos ϕ sin ϑ R sin ϕ cos ϑ ∂(y, z) A = det = = −R2 cos ϕ sin2 ϑ, ∂(ϕ, ϑ) 0 −R sin ϑ −R sin ϕ sin ϑ R cos ϕ cos ϑ ∂(x, z) = − B = − det = −R2 sin ϕ sin2 ϑ, ∂(ϕ, ϑ) 0 −R sin ϑ −R sin ϕ sin ϑ R cos ϕ cos ϑ ∂(x, y) C = det = = −R2 sin ϑ cos ϑ. R cos ϕ sin ϑ R sin ϕ cos ϑ ∂(ϕ, ϑ) √ A2 + B 2 + C 2 = R2 sin ϑ und es folgt Z 2π Z π Z 2π 2 2 |M | = R sin ϑ dϑ dϕ = R [− cos ϑ]π0 dϕ = 4πR2 . Damit ist 0 0 0 106 KAPITEL 7. INTEGRALSÄTZE (ii) Für das Teilparaboloid ∂M aus 7.2.5 (ii) hatten wir die Parameterdarstellung r cos ϕ 3 ∂M = x ∈ R x = r sin ϕ = f (r, ϕ) ∧ ϕ ∈ [0, 2π), r ∈ [0, 2] . 4 − r2 Es gilt dann cos ϕ −r sin ϕ ∂f ∂f = sin ϕ und = r cos ϕ . ∂r ∂ϕ −2r 0 Die äußere Normale ist dann η= ∂f ∂r 2r cos ϕ 2r2 cos ϕ ∂f ∂f 1 1 1 2 √ √ × = = 2r sin ϕ 2r sin ϕ . ∂f ∂r ∂ϕ 4r4 + r2 4r2 + 1 × ∂ϕ 1 r Die Fläche berechnet sich mit Z Z 2 Z 2π √ 4 2 4r + r dϕdr = 2π 0 7.3 2 0 0 √ π √ r 4r2 + 1 dr = 17 17 − 1 . 6 Oberflächenintegrale 7.3.1 Oberflächenintegrale erster Art. Es sei M ⊂ Rn , M ∈ C k , k ∈ N, eine Hyperfläche und g : M → R eine beschränkte Funktion. Es sei weiter (Z` )`∈N = ` M1 , . . . , MN` ` `∈N eine ausgezeichnete Zerlegungsfolge von M , das heißt das Ma- ximum der Durchmesser der Mj konvergiert gegen Null für ` → ∞. Konvergiert stets die Zwischensumme ` σ(Z` , g, ξ ) = N X̀ j=1 g(ξj,` ) Mj` für beliebige Zwischenpunkte ξ ` = (ξ1,` , . . . , ξN` ,` )> ∈ Mj und beliebige ausgezeichnete Zerlegungsfolgen (Z` )`∈N für ` → ∞, so nennen wir den Grenzwert Oberflächenintegral erster Art der Funktion g auf der Hyperfläche M und schreiben Z ` lim σ(Z` , g, ξ ) =: g(x) dS. `→∞ M Ist M beschränkt und g stetig, so existiert das Oberflächenintegral immer. 7.3.2 Satz. Es seien M ∈ C 1 eine Hyperfläche und g ∈ C 0 (M ). (i) Ist M explizit durch f : D ⊂ Rn−1 → R gegeben, so gilt v u 2 Z Z n−1 u X ∂f 0 t (x ) dx0 . g(x) dS = g(x) 1 + ∂x i M D i=1 107 7.3. OBERFLÄCHENINTEGRALE (ii) Ist n = 3 und M in Parameterdarstellung f : P ⊂ R2 → R3 gegeben, so gilt Z Z √ g(x) dS = g(f (p)) A2 + B 2 + C 2 dp. M P (iii) Ist M nicht explizit gegeben, so erhält man das Oberflächenintegral mit Hilfe des Satzes über implizite Funktionen und einer geeigneten Überlagerung der einzelnen Auflösungen (sogenannte „Partition der Eins“). 7.3.3 Definition. Es sei M ∈ C 1 eine Hyperfläche und durch f : D → Rn eine R (lokale) explizite Darstellung von M gegeben. M dS ist die Oberfläche von M , v u 2 n−1 u X ∂f 0 t (x ) dx1 · · · dxn−1 dS = 1 + ∂xi i=1 ist das Oberflächenelement von M im Punkte x. 7.3.4 Beispiele. Aus Beispiel 7.2.16 wissen wir: (i) Für das Oberflächenelement der Kugel mit Radius R gilt dS = R2 sin ϑdϑdϕ. (ii) Für das Oberflächenelement des Paraboloids gilt √ dS = r 4r2 + 1 drdϕ. 7.3.5 Beispiel. Wir betrachten auf der Oberfläche des (Teil-) Paraboloids ∂M aus Beispiel 7.2.5 (ii) die Funktion g(x, y, z) = 4 − z – etwa als Dichte der Oberfläche, die vom Boden bei z = 0 bis zur Spitze linear abnimmt. Die Parametrisierung > f : [0, 2] × [0, 2π) → R3 , f (r, ϕ) = (r cos ϕ, r sin ϕ, 4 − r2 ) hatten wir schon in Beispiel 7.2.16 (ii) betrachtet. Es gilt g(f (r, ϕ)) = 4 − (4 − r2 ) = r2 und daher ist Z Z 2 Z 2π √ g(x) dS = r2 · r 4r2 + 1 drdϕ ∂M 0 0 √ 23 2 1 π 2 2 = 2π 4r + 1 6r − 1 = 1 + 391 17 . 120 60 0 7.3.6 Definition. S n−1 = { x ∈ Rn | kxk = 1 } ist die (n − 1)-dimensionale EinR heitssphäre. ωn = S n−1 dS ist die Oberfläche der Einheitssphäre. 7.3.7 Bemerkung. Es gilt die Formel dx = rn−1 drdS, 108 KAPITEL 7. INTEGRALSÄTZE dabei ist dS das Oberflächenelement auf S n−1 . Genauer gilt: Es sei 0 < a < b < +∞, u(x) ∈ C 0 (a ≤ kxk ≤ b), dann ist: Z Z b Z n−1 r u(x) dx = u(ry) dSdr = S n−1 a a<kxk<b Z bZ u(x) dSdr. S n−1 a R 7.3.8 Berechnung von ωn = S n−1 dS. Es sei u(x) = u(kxk) (u ist radialsymR metrisch). Falls Rn ku(x)k dx < +∞, dann ist Z ∞ Z Z Z ∞ n−1 rn−1 u(r) dr. u(r) dSdr = ωn r u(kxk) dx = Rn S n−1 0 0 −r2 Spezialisierung u(r) = e : Z Z ∞ n−1 −r2 r e dr = ωn e −|x|2 dx = Rn 0 Z +∞ −∞ −t2 e n dt . Spezialisierung n = 2: Z +∞ 2 Z +∞ Z +∞ −t21 −t2 −t22 e dt2 e dt1 e dt = −∞ −∞ −∞ Z Z +∞ Z 2π 2 −(t21 +t22 ) = e d(t1 , t2 ) = e−r r dϕdr R2 0 0 2 ∞ 2π Z ∞ −r z}|{ e 2 = ω2 re−r dr = 2π = π. (−2) 0 0 Z ∞ √ 2 ⇒ e−t dt = π −∞ Z ∞ n 2 ⇒ π 2 = ωn rn−1 e−r dr. (7.2) 0 √ √ liefert Substitution: r = t, dr = 2dt t Z Z ∞ n n 1 ωn ∞ n −1 −t dt ωn n − −t π 2 = ωn t2 2e √ = t 2 e dt = Γ , 2 0 2 2 2 t 0 wobei Γ(z) = Z ∞ tz−1 e−t dt 0 die Gamma-Funktion bezeichnet. Es gilt Γ(n) = (n − 1)!, und es folgt 2 Γ ωn = Γ √ 1 π=Γ 2 n 1 2 . n 2 7.3.9 Berechnung des Volumens en der Einheitskugel. Z Z 1 Z n 1 r ωn en = dx = rn−1 dSdr = ωn = . n 0 n K1 0 S n−1 (7.3) (7.4) 109 7.4. INTEGRALSÄTZE 7.4 Integralsätze 7.4.1 Gaußscher Integralsatz. Es sei ∂U ∈ C 1 , g ∈ C 1 (U ) ∩ C 0 (U ). Dann gilt Z Z gxi dx = gνi dS (i = 1, . . . , n), U ∂U dabei ist νi die i-te Komponente der äußeren Normalen ν = (ν1 , . . . , νn ) von U im Punkt x ∈ ∂U (Verallgemeinerung des Hauptsatzes der Differenzial– und Integralrechnung). Beweisskizze. B` sei ein Normalbereich bezüglich der (x1 , . . . , xn−1 )-Koordinatenhyperebene, B` = { (x0 , xn ) | ϕ(x0 ) ≤ xn ≤ φ(x0 ) ∧ x0 ∈ G` } . Dann gilt Z B` ∂g (x) d(x1 , . . . , xn ) = ∂xn = Z G` Z G` Z φ(x0 ) ϕ(x0 ) ∂g 0 (x , xn ) dxn ∂xn ! dx0 (g(x0 , φ(x0 )) − g(x0 , ϕ(x0 ))) dx0 . Der Rand ∂B` von B` setzt sich zusammen aus dem „Boden“ SB , dem „Deckel“ SD und dem „Mantel“ SM . Wir berechnen die Oberflächenintegrale über den Rand von B` . Nach Konstruktion und Herleitung in 7.2.12 betrachten wir den Kosinus des Winkels zwischen xn -Achse und der äußeren Normalen der Oberfläche. Für die äußere Normale auf dem Mantel gilt νM (x) = (. . . , 0) für x ∈ SM und daher ist cos(ν(x), xn ) = 0 für alle x ∈ SM – die Mantelfläche leistet keinen Beitrag zum Integral. Für den Deckel gilt SD = { (x0 , x) | xn = φ(x0 ) ∧ x0 ∈ G` } und nach Definition des Oberflächenintegrals gilt r 2 P ∂φ 0) Z Z 1 + n−1 (x k=1 ∂xk g(x)νn dS = g(x0 , φ(x0 )) r dx0 2 P SD G` ∂φ 0 1 + n−1 k=1 ∂xk (x ) Z = g(x0 , φ(x0 )) dx0 . G` 110 KAPITEL 7. INTEGRALSÄTZE Für den Boden gilt analog, wobei wir die Richtung des Normalenvektors umkehren müssen, Z g(x)νn dS = SB Z g(x , ϕ(x )) Z −g(x0 ϕ(x0 )) dx0 . 0 0 G` = − r G` 1+ r 1+ 2 0) (x ∂xk Pn−1 ∂ϕ k=1 ! Pn−1 ∂ϕ k=1 2 0) (x ∂xk dx0 Damit ist die Behauptung für B` gezeigt. Mit der Voraussetzung kann man nun zeigen, dass U ein zulässiger Bereich ist, also aus endlich vielen Normalbereichen zusammengesetzt ist, die wir als nicht überlappend annehmen können. Berücksichtigt man nun noch, dass sich die Beiträge der Oberflächen der Zerlegungsteile von U , die im Inneren liegen, wegen entgegengesetzter Normalen gegenseitig weg heben, so bleibt nur der Rand von U übrig, der einen Beitrag zum Oberflächenintegral liefert. 7.4.2 Satz (Übliche Form des Gaußschen Satzes, u = (u1 (x), . . . , un (x))> ). Es sei ∂U ∈ C 1 , u ∈ C 1 (U, Rn ) ∩ C 0 (U ) ein Vektorfeld, dann gilt Z Z u · ν dS. div u dx = ∂U U Beweis. Folgt aus 7.4.1. z ν f f t1 ν y ∂U (an einer anderes Stelle als links ausgewertet) x Abbildung 7.7: Zum Satz von Gauß: Das Vektorfeld f (x, y, z) = (xz 2 , 0, y 3 )> durchdringt eine Oberfläche. Durch das Skalarprodukt wird effektiv nur der Anteil senkrecht zur Oberfläche beim Integral berücksichtigt. 111 7.4. INTEGRALSÄTZE 7.4.3 Korollar (Partielle Integration). Es seien u, v ∈ C 1 (U ) ∩ C 0 (U ). Dann gilt Z Z Z uxi v dx = − uvxi dx + uvνi dS. U U ∂U Beweis. Anwendung des Gaußschen Satzes auf das Produkt u · v. 7.4.4 Beispiel. Wir berechnen das elektrische Feld eines unendlich langen Zylinders mit Radius R und konstanter Ladungsdichte ρ0 mit Hilfe des Gaußschen Satzes. Dazu führen Zylinderkoordinaten ein, wobei die z-Achse mit der Rotationsachse des Zylinders übereinstimmen soll. Aus Symmetriegründen hängt das elektrische Feld p nur vom Abstand zur z-Achse r = x2 + y 2 ab, das heißt E(x, y, z) = E(r) = x 1 (r) E er , mit er = √ 2 2 y . Nach den Maxwell-Gleichungen (Gaußscher Satz) x +y 0 ρ , r ≤ R, 0 gilt div E = ρ(r) , mit ρ(r) = . ε0 0, r > R. Wir betrachten einen Testzylinder V mit Radius r̃ und Länge ` mit der selben Symmetrieachse. Das Volumenintegral im Satz von Gauß wird ausgewertet zu Z Z ` Z 2π Z r̃ π` ρ0 R2 , r̃ > R, ρ(r) ε0 div E dx = rdrdϕdz = ρ ε 0 V 0 0 0 π` 0 r̃2 , r̃ ≤ R. ε0 Für das Oberflächenintegral machen wir folgende Vorbetrachtung: Für die äußere Normale ν an den Testzylinder gilt x √ 1 y auf der Mantelfläche, 2 2 x +y 0 ν= 0 auf dem Deckel beziehungsweise Boden. 0 ±1 Daher ist E · ν = 0 auf dem Boden und Deckel des Zylinders und E · ν = 1 auf der Mantelfläche. Das Oberflächenintegral berechnet sich also zu Z Z 2π Z ` E · νdS = r̃E (r) dzdϕ = E (r) 2πr̃`. ∂V 0 0 Der Vergleich der beiden Ergebnisse, die nach dem Satz von Gauß übereinstimmen müssen, liefert R2 ρ0 r̃ , r̃ > R, (r) E (r̃) = 2ε0 r̃, r ≤ R. 112 KAPITEL 7. INTEGRALSÄTZE (i) Das Oberflächenintegral im Satz von Gauß bezeichnet ~ geschrieman auch als Oberflächenintegral zweiter Art, statt νdS wird auch dS 7.4.5 Bemerkungen. ben. (ii) Den Gaußschen Satz verwendet man zum Beispiel auch zur Herleitung der Kontinuitätsgleichung ∂ρ ∂t + div j = 0 in der Strömungsmechanik und Elektro- dynamik, wobei ρ die Dichte (Masse, Ladung) und j die Stromdichte bezeichnet, siehe zum Beispiel [4] und [5]. 7.4.6 Beispiel (Interpretation). Physikalisch-anschaulich vergleicht der Satz von Gauß den Anteil eines Feldes, der durch die Oberfläche eines Körpers hindurchströmt mit dem Anteil des Feldes, der im Inneren des Körpers entsteht oder verschwindet. Beschreibt u der Anschaulichkeit halber das Geschwindigkeits einer inkompressiblen Flüssigkeit, so ist klar, dass alles, was in den Körper hineinfließt, entweder im Inneren verschwindet oder auch wieder hinausfließt beziehungsweise alles, was hinausströmt, muss entweder hineingeströmt oder im Inneren entstanden sein. Betrachtet man nun ein kleines Stück der Oberfläche des Körpers, so kann man u aufteilen in eine Komponente, die senkrecht auf der Oberfläche steht und den Anteil, der tangential zur Oberfläche liegt. Der senkrechte Anteil ist gerade hu, νi, nur dieser fließt auch durch die Oberfläche. Der gesamte Fluss durch die Oberfläche ist dann gerade das Oberflächenintegral. Andererseits beschreibt div u gerade die Quellendichte des Feldes u. (i) Es sei u(x, y, z) = (x, y, z)> ein Feld mit Quelle, div u = 3. Wir betrachten die Menge KR = (x, y, z)> ∈ R3 x2 + y 2 + z 2 ≤ R2 . Dann gilt Z 4 3 d(x, y, z) = 3 πR3 . 3 KR Andererseits ist x * x + Z Z R 1 2 y 2 2 x + y + z dS = R dS y , R dS = ∂KR ∂KR R ∂KR z z R Z 2π Z π =R R2 sin ϑ dϑdϕ = 4πR3 . Z 0 0 113 7.4. INTEGRALSÄTZE (ii) Es sei u(x, y, z) = (0, z 2 , 0)> ein, wegen div u = 0, quellenfreies Feld, dann ist R div u d(x, y, z) = 0 und es gilt KR x * 0 + Z Z R 1 2 2 y z y dS z , R dS = R ∂K ∂KR R z 0 R Z Z 1 2π π (R cos ϑ)2 R sin ϕ sin ϑR2 sin ϑ dϑdϕ = R 0 Z 2π Z π 0 2 2 4 sin ϕ dϕ dϑ = 0. cos ϑ sin ϑ =R 0 0 | {z } =0 Als Folgerung aus dem Satz von Gauß erhalten wir 7.4.7 Korollar (Die Greenschen Formeln). Es seien u, v ∈ C 2 (U ) ∩ C 1 (U ). Dann gilt dabei ist ∇ U u dx = R ∂u ∂U ∂ν dS, ∇ R ∇ (i) der Laplace-Operator, definiert als u= n P i=1 ist die (äußere) Normalenableitung von u. R R R ∂v (ii) U ∇u · ∇v dx = − U u v dx + ∂U u ∂ν dS. R R ∂v (iii) U (u v − v u) dx = ∂U u ∂ν − v ∂u dS. ∂ν ∂2u ∂x2i und ∂u ∂ν = ∇u · ν ∇ ∇ ∇ Die Greenschen Formeln spielen zum Beispiel eine Rolle bei der Lösung der ϕ = 0 und der Poisson-Gleichung ∇ ∇ Laplace-Gleichung u = f , sowie bei der Me- thode der Greenschen Funktionen, siehe zum Beispiel [7]. Beweis. (I) folgt sofort mit v = 1 aus (III). (II) n Z X ∂ ∇u · ∇v dx = u vxi dx ∂x i U U i=1 Z n Z ∂ 7.4.3 (P.I.) X vxi dx + uvxi νi dS = − u ∂U U ∂xi i=1 Z Z ∂v = − u v dx + u dS. U ∂U ∂ν Z ∇ (III) Analog zu (II) erhält man Z Z Z ∇u · ∇v dx = − v u dx + ∇ U U ∂U v ∂u dS. ∂ν Die Differenz der beiden Ergebnisse liefert die Behauptung. 114 KAPITEL 7. INTEGRALSÄTZE 7.4.8 Gaußscher Satz in der Ebene, Satz von Green. Es sei B ∈ C 1 ein offener, einfach zusammenhängender zulässiger Bereich im R2 und P, Q ∈ C 1 (B) ∩ C 0 (B). Dann gilt Z I ∂Q ∂P − d(x1 , x2 ) = (P (x1 , x2 ) dx1 + Q(x1 , x2 ) dx2 ) . ∂x1 ∂x2 B ∂B Beweis. Es sei x(t) = (x1 (t), x2 (t))> , t ∈ [a, b], eine glatte Parameterdarstellung von ∂B. Nach Satz 7.4.1 gilt Z Z ∂Q (x1 , x2 ) d(x1 , x2 ) = Q(x1 (s), x2 (s))ν1 dS. B ∂x1 ∂B Der Tangentialvektor an die Kurve ist (x01 (t), x02 (t))> , die Normale an die Fläche ist also ! x02 (t) −x01 (t) ν=q . x01 2 (t) + x02 2 (t) Damit folgt Z B ∂Q (x1 , x2 ) d(x1 , x2 ) ∂x1 Z b q x02 (t) = Q(x1 (t), x2 (t)) q x01 2 (t) + x02 2 (t) dt a x01 2 (t) + x02 2 (t) Z = Q(x1 , x2 ) dx2 . ∂B Das Integral für P folgt analog, das Vorzeichen kommt aus der Normalen. 7.4.9 Bemerkung. Schreibt man f (x1 , x2 ) = (P (x1 , x2 ), Q(x1 , x2 ))> , so kann man das Integral auf der rechten Seite in der Form I I I f · νdS = (f1 ν1 + f2 ν) dS = ∂B ∂B f1 dx1 + f2 dx2 ∂B schreiben. 7.4.10 Beispiel. Es seien B = [0, 1] × [0, 1] und f : B → R eine Funktion mit f (x, y) = (y 2 , 2x)> = (P (x, y), Q(x, y))> . I Z Z ∂f2 ∂f1 f · νdS = (x, y) − (x, y) d(x, y) = (2 − 2y) d(x, y) ∂x ∂y ∂B B B Z 1Z 1 Z 1 = (2 − 2y) dxdy = (2 − 2y) dy = 1. 0 0 0 115 7.4. INTEGRALSÄTZE 7.4.11 Bemerkung und Beispiele. (i) Mit dem Satz von Green lässt sich der Flächeninhalt von ebenen 2-dimensionalen Flächen berechnen: Es sei dazu beispielsweise f (x, y) = (−y, x)> . Dann gilt: I Z ∂f2 ∂f1 f · νdS = (x, y) − (x, y) d(x, y) ∂x ∂y ∂B B Z Z = 1 + 1 d(x, y) = 2 d(x, y) = 2 |B| . B B Also gilt für den Flächeninhalt |B| von B: I 1 |B| = f · νdS. 2 ∂B H Mit g(x, y) = (0, x)> erhält man ähnlich: |B| = ∂B g · νdS. (ii) Mit f wie oben berechnen wir den Inhalt eines Kreises mit Radius r, also den Inhalt der Menge B = (x,!y)> ∈ R2 x2 + y 2 ≤ r2 . ∂B lässt sich durch r cos t γ : [0, 2π] → R2 , t 7→ parametrisieren. Damit gilt: r sin t Z 1 2π > f · νdS = f (γ(t)) · γ 0 (t) dt 2 0 ∂B ! Z 2π −r sin t 1 = (−r sin t, r cos t) · dt 2 0 r cos t Z 1 2π 2 r dt = πr2 . = 2 0 1 |B| = 2 I (iii) Eine weitere Anwendungsmöglichkeit des Satz von Green ist die Bestimmung 2 des Schwerpunktes (xS , yS ) von ebenen Flächen. Mit f (x, y) = (0, x2 )> gilt Z I 1 1 xS = x d(x, y) = f · νdS |B| B |B| ∂B 2 und mit g(x, y) = (− y2 , 0)> erhält man Z I 1 1 yS = y d(x, y) = g · νdS. |B| B |B| ∂B 7.4.12 Definition. Es sei M ⊂ R3 eine Fläche und f : P → R3 eine Parameterdarstellung von M . (i) Ist ∂P eine Kurve γP mit der Parameterdarstellung p : [a, b] → R2 , p(t) = (p1 (t), p2 (t))> , so heißt die Kurve γM mit der Parameterdarstellung f (p(t)) = f (p1 (t), p2 (t)), t ∈ [a, b], die Randkurve von M . 116 KAPITEL 7. INTEGRALSÄTZE (ii) Ist γ = ∂U ⊂ R2 eine geschlossene Kurve, so heißt γ positiv orientiert, wenn für eine und damit für alle Parametrisierungen von γ gilt, dass U beim Durchlaufen von γ stets links liegt. (iii) Ist γM die Randkurve einer Fläche im R3 mit der Parametrisierung f (p(t)), so heißt γM positiv orientiert, wenn γP positiv orientiert ist. 7.4.13 Satz von Stokes. Es sei P ⊂ R2 eine offene, einfach zusammenhängende Menge (Gebiet), die von einer stückweise glatten, doppelpunktfreien Kurve γP = ∂P berandet wird. w(s), s ∈ [0, L(γP )], sei die Parametrisierung nach der Bogenlänge von γP , welche eine positive Orientierung von γP erzeugt. Die Funktion f : U ⊃ P → R3 , U ⊂ R2 offen, sei injektiv auf U und es gelte f ∈ C 2 (U ) mit Rang 2 von Df in U . Es seien M = f (P ) eine in Parameterdarstellung ge- gebene Fläche und x(s) = f (w(s)) für s ∈ [0, L(γP )] eine Parametrisierung der stückweise glatten, geschlossenen und positiv orientierten Randkurve von M . Es sei weiter g = (g1 , g2 , g3 )> ∈ C 1 (V ) mit V ⊂ R3 offen und M ⊂ V . Bezeichnet ν= Dp1 f ×Dp2 f |Dp1 f ×Dp2 f | , die äußere Normale an M , so gilt Z M hrot g, νi dS = Z ∂M (7.5) g · dx. Beweis. Folgt mit Hilfe des Gaußschen Satzes in der Ebene, siehe zum Beispiel Walter, Analysis 2 (Abschnitt 8.12) oder Hildebrandt, Analysis 2 (Abschnitt 6.4). (u, v)> ∈ R2 u2 + v 2 ≤ 4 , f : P → R3 die u Parametrisierung einer Fläche M mit f (u, v) = v und g : R3 → R3 4 − u2 − v 2 mit g(x, y, z) = (z, x, y)> . ! cos t Der Rand von P ist parametrisiert durch ∂P : [0, 2π] → R2 , t 7→ 2 . Damit sin t gilt für die Parametrisierung des Randes von M : 7.4.14 Beispiel. Es seien P = ∂M = f (∂P ) : cos t x : [0, 2π] → R3 , t 7→ 2 sin t = 2 sin t . 0 4 − 4 cost −4 sin2 t 2 cos t 117 7.4. INTEGRALSÄTZE z νM rot g ∂M y x Abbildung 7.8: Zum Satz von Stokes: Die Rotation des Vektorfeldes (xz 2 , 0, y 3 )> durch eine berandete Fläche. Mit der Definition des Kurvenintegrals zweiter Art erhalten wir I Z 2π g · dx = g(x(t)) · x0 (t) dt ∂M 0 −2 sin t Z 2π (0 2 cos t 2 sin t) · 2 cos t dt = 0 0 2π Z 2π t 1 2 4 cos t dt = 4 = = 4π. + sin(2t) 2 4 0 0 1 2u R 1 Nun berechnen wir M hrot g, νidS: Es gilt rot g = 1 und ν = √1+4u2 +4v2 2v . 1 1 Damit gilt mit der Definition des Oberflächenintegrals: Z Z √ hrot g, νidS = (rot g(f (u, v))> · ν 1 + 4u2 + 4v 2 d(u, v) M P 2u Z Z 2u + 2v + 1 d(u, v) = (1 1 1) · 2v d(u, v) = P = Z 2 0 = Z 0 Z 1 2π (2r cos ϕ + 2r sin ϕ + 1) r dϕdr 0 2 P 2πr dr = 4π. 118 KAPITEL 7. INTEGRALSÄTZE z ∂M y ν g x Abbildung 7.9: Zum Satz von Stokes: Das Vektorfeld (xz 2 , 0, y 3 )> wird entlang des Randes der Fläche betrachtet. R 7.4.15 Bemerkungen. (i) Statt M hrot g, νi dS werden in der Literatur auch R R ~ verwendet. rot g · dS oder M rot g · dS M (ii) Ist rot g = 0 in V , so folgt aus dem Satz von Stokes die Wegunabhängigkeit von Kurvenintegralen zweiter Art in V . (iii) Ist g ∈ C 2 ein beliebiges Vektorfeld, so gilt div rot g = 0. Insbesondere ist also h = rot g quellenfrei. (iv) Die Voraussetzungen an die Fläche M im Satz von Stokes beziehungsweise die Menge U im Satz von Gauß können abgeschwächt werden (Löcher, schlechterer Rand zugelassen). (v) Das Integral R h·ν dx bezeichnet man in der Physik als Fluss des Vektorfeldes H h durch die Fläche M , das Wegintegral γ g · dx als Zirkulation des Feldes g M längs des Weges γ. In dieser Sprache lautet der Satz von Stokes: Die Zirkulation des Feldes g längs einer geschlossenen Kurve ist gleich dem Fluss des Feldes rot g durch eine in die Kurve eingespannte Fläche. 7.4.16 Beispiel (Ampèresches Gesetz). In der Magnetostatik gilt rot B = µ0 j, wobei j die Stromdichte und B die magnetische Feldstärke bezeichnet. Weil sich der R Gesamtstrom I durch eine Fläche M aus I = M j · dS berechnet, gilt nach dem Satz von Stokes µ0 I = µ0 Z M j · dS = Z M rot B · dS = Z ∂M B · dx. Kapitel 8 Fourierreihen und Integraltransformationen 8.1 Fourierreihen Mit den noch zu definierenden Fourierreihen lassen sich periodische Vorgänge beziehungsweise Probleme, bei denen solche Vorgänge auftreten, besonders gut beschreiben beziehungsweise lösen. Wir werden uns hier im Wesentlichen auf die mathematischen Hintergründe beschränken, Anwendungsbeispiele findet man zum Beispiel in [8, 2.5]. Wir betrachten das folgende 8.1.1 Beispiel. Gegeben sei eine schwingende Saite, die im Punkt (0, 0)> und im Punkt (`, 0)> , ` > 0, fixiert ist. Wir suchen die Auslenkung der Saite u(x, t) im Punkt x zur Zeit t. Dies führt auf die partielle Differenzialgleichung a2 ∂ 2u ∂ 2u (x, t) − (x, t) = 0 ∂x2 ∂t2 (8.1) mit den Randbedingungen u(0, t) = u(`, t) = 0 und den Anfangsdaten u(x, 0) = ϕ(x) Anfangsauslenkung ∂u (x, 0) = ψ(x) Anfangsgeschwindigkeit. ∂t Lösungen von (8.1) und (8.2) sind nπa nπ x · cos t , ` ` nπ nπa vn (x, t) = sin x · sin t . ` ` un (x, t) = sin 119 (8.2) 120 KAPITEL 8. FOURIERREIHEN UND INTEGRALTRANSFORMATIONEN Damit sind aufgrund der Linearität der partiellen Ableitungen auch beliebige Linearkombinationen dieser Lösungen, wieder Lösungen von (8.1) und (8.2), insbesondere also N X an sin n=1 nπa nπ x · cos t , an ∈ R. ` ` Physikalisch betrachtet, ist dies das Superpositionsprinzip. Es stellt sich nun die Frage, ob u(x, t) als u(x, t) = ∞ X an sin n=1 nπ nπa x · cos t ` ` dargestellt werden kann beziehungsweise, wann diese Reihe konvergiert und welche Eigenschaften die Grenzfunktion hat. Mit diesem Ansatz müsste konkret ∞ nπ X u(x, 0) = an sin x · 1 = ϕ(x) ` n=1 erfüllt sein. Damit sind wir bei der Frage, welche Funktionen ϕ in dieser Form darstellbar sind und wie man die Koeffizienten an ermittelt. Umgekehrt kann man auch die Frage stellen, wie man aus einer Funktion, von der man weiß, dass sie gemäß dem Superpositionsprinzip zusammengesetzt ist, die beteiligten Schwingungen ermittelt. Desweiteren kann man die zu betrachtenden Techniken dazu nutzen, periodische Vorgänge darzustellen und zu untersuchen. Wir betrachten zunächst nur das Intervall [−π, π] und Funktionen f : [−π, π] → C, dies macht die Notation einfacher. Etwas allgemeiner ist folgende 8.1.2 Definition. gilt: (i) Eine Funktion f : R → C heißt p-periodisch (p > 0), falls f (x + p) = f (x) für alle x ∈ R. Wir betrachten im Folgenden o.B.d.A. den Fall p = 2π. (ii) Der 2π-periodische Ausdruck N a0 X + (ak cos(kx) + bk sin(kx)) 2 k=1 mit a0 , ak , bk ∈ C für k ∈ N und N ∈ N heißt trigonometrisches Polynom. Betrachtet man den Grenzwert N → ∞, so heißt S(x) := ∞ a0 X + (ak cos(kx) + bk sin(kx)) 2 k=1 trigonometrische Reihe. Falls die Reihe konvergiert ist S(x) der Wert der Reihe. 121 8.1. FOURIERREIHEN Damit die über den punktweisen Grenzwert definierte Grenzfunktion ! ∞ a0 X S(x) = lim + (ak cos(kx) + bk sin(kx)) , N →∞ 2 k=1 falls existent, auch einigermaßen „vernünftig“ ist, müssen wir noch gleichmäßige Konvergenz fordern. 8.1.3 Definition. Es sei (fn )n∈N eine Folge von Funktionen fn : I ⊂ R → C für n ∈ N. Wir sagen, (fn )n∈N konvergiert gleichmäßig gegen eine Grenzfunktion f : I → C, falls ∀ε > 0∃N ∈ N∀x ∈ I∀n ≥ N |fn (x) − f (x)| < ε. (i) Man kann nun leicht zeigen, dass beispielsweise die 8.1.4 Bemerkungen. Grenzfunktion einer gleichmäßig konvergenten Folge stetiger Funktionen wieder stetig ist und dass bei gleichmäßiger Konvergenz Integration und Grenzprozess vertauscht werden dürfen, also Z b Z lim fn (x) dx = n→∞ b lim fn (x) dx. a n→∞ a (ii) Für unsere Zwecke genügt aber, dass für die gleichmäßige Konvergenz von N SN (x) = die Reihe P∞ 8.1.5 Beispiele. (ii) 2 π + k=1 a0 X (ak cos(kx) + bk sin(kxt)) + 2 k=1 (|ak | + |bk |) < +∞ gilt. (i) π2 3 + P∞ k 4 k=1 (−1) k2 cos(kx) (= x2 ). 4 x k+1 (−1) cos(kx) = cos . 2 k=1 π(4k −1) 2 P∞ 8.1.6 Bemerkung (komplexe Darstellung). Mit cos x = eit +e−it 2 und sin x = eit −e−it 2i (Definition beziehungsweise aus der Reihendarstellung von Kosinus und Sinus) lassen sich trigonometrische Polynome beziehungsweise Reihen auch scheiben als: n X ck e ikx beziehungsweise S(x) = k=−n ∞ X ck eikx k=−∞ mit ck = 21 (ak − ibk ) und c−k = 21 (ak + ibk ) mit k ∈ N0 . Umgekehrt gilt: ak = ck + c−k und bk = i(ck − c−k ) mit k ∈ N0 . Beweis. Dies rechnet man leicht direkt nach. 122 KAPITEL 8. FOURIERREIHEN UND INTEGRALTRANSFORMATIONEN y n = 100 n=5 n=2 n=1 x Abbildung 8.1: Trigonometrische Polynome π2 3 spiel 8.1.5 (i). + Pn k 4 k=1 (−1) k2 cos(kx), Bei- 8.1.7 Beispiel (Dirichlet-Kern). Für n ∈ N0 ist das 2π-periodische trigonometrische Polynom Dn , mit n n 1 X 1 X ikx cos(kx) = e , Dn (x) := + 2 k=1 2 k=−n gegeben. Dn heißt der n-te Dirichlet-Kern und erfüllt für x ∈ R die Identität 1 sin((n+ x2 )x) für x = 6 2mπ, m ∈ Z, 2 sin 2 Dn (x) = n + 1 sonst. 2 Beweis. Übungsaufgabe. Die Dirichlet-Kerne spielen eine wichtige Rolle bei der Untersuchung der Konvergenz einer Fourierreihe gegen die betrachtete Funktion. Wir betrachten nun die für die Berechnung der Koeffizienten wichtigen und für theoretische Überlegungen interessanten 123 8.1. FOURIERREIHEN 8.1.8 Satz (Euler-Fourier-Formeln, Orthogonalitätsrelationen). Es gilt: Z π (i) sin(nx) cos(mx) dx = 0 für m, n ∈ N0 , −π 2π Z π cos(nx) cos(mx) dx = π (ii) −π 0 (iii) Z π sin(nx) sin(mx) dx = −π π 0 für n = m = 0, für n = m, n ≥ 1, für n 6= m. für n = m, n ≥ 1, für n 6= m oder n = m = 0. Beweis. Man zeigt dies mit Hilfe der Punktsymmetrie beziehungsweise Achsensymmetrie von Sinus und Kosinus und der Additionstheoreme. Konkret ist etwa h iπ Z π 1 sin(n+m)x + sin(n−m)x = 0 für n 6= m, 2 n+m n−m −π cos(nx) cos(mx) dx = sin 2nx+2nx π = π −π für n = m, 4n −π denn mit cos(x + y) = cos x cos y − sin x sin y folgt für n 6= m Z Z cos(nx) cos(mx) dx = cos(n + m)x + sin(nx) sin(mx) dx Z sin(n + m)x − sin(nx) sin(−mx) dx = n+m Z sin(n + m)x − (cos(nx) cos(mx) − cos(n − m)x) dx = n+m Z Z sin(n + m)x = − cos(nx) cos(mx) dx + cos(n − m)x dx, n+m da cos x gerade ist. Damit erhalten wir Z sin(n + m)x sin(n − m)x 2 cos(nx) cos(mx) dx = + . n+m n−m R Für n = m ist cos(n − m)x dx = x, so dass die Behauptung folgt. 8.1.9 Bemerkung. Auf der Menge C([−π, π]) der stetigen Funktionen auf dem Intervall [−π, π] ist durch hf, gi := Z π −π f (x)g(x) dx. ein Skalarprodukt definiert. Damit bilden die Funktionen fn , gn 1 f0 : [−π, π] → R, f0 (x) = √ 2π 1 fn : [−π, π] → R, fn (x) = √ cos(nx) für n ∈ N π 1 gn : [−π, π] → R, gn (x) = √ sin(nx) für n ∈ N π 124 KAPITEL 8. FOURIERREIHEN UND INTEGRALTRANSFORMATIONEN ein Orthonormalsystem (ONS) in C([−π, π]), das heißt hfn , gm i = 0, hfn , fm i = δnm 1, n = m, und hgn , gm i = δnm mit dem Kronecker-Delta δnm = 0, n 6= m. Das bedeutet, das Problem, eine Funktion als Fourierreihe darzustellen, kann auch umformuliert werden zur Frage, ob das oben angeführte Orthonormalsystem eine (Schauder-) Basis eines geeigneten Vektorraums ist (bei einer Schauder-Basis sind unendliche Linearkombinationen in der Basisdarstellung zugelassen). Von diesem Blickwinkel aus kann man dann auch fragen, welche anderen (Orthonormal-) Basen es möglicherweise gibt (siehe [8, Kapitel 3]). 8.1.10 Darstellung der Koeffizienten. Wir wollen eine 2π-periodische Funktion f ∈ R[−π, π], das heißt f ist Riemann-integrierbar, als trigonometrisches Polynom schreiben. Dazu machen wir den Ansatz N f (x) = a0 X + ak cos(kx) + bk sin(kx). 2 k=1 Wie müssen a0 , ak , bk gewählt werden? Zur Bestimmung von a0 integrieren wir beide Seiten über [−π, π] und vertauschen Summation und Integration: Z π f (x) dx = Z π −π −π Z π Z π N X a0 dx + ak cos(kx) dx + bk sin(kx) dx = a0 π. 2 −π −π k=1 Z 1 π Damit gilt: a0 = f (x) dx. Zur Bestimmung von ak (k ∈ N) multiplizieren wir π −π beide Seiten mit cos(mx) und integrieren über [−π, π]: Z π f (x) cos(mx) dx = Z π | −π −π a0 cos(mx) dx 2 {z } =0 Z π Z π N X + sin(kx) cos(mx) dx . cos(kx) cos(mx) dx +bk ak k=1 | −π {z } | −π {z } =πδmk 1 Also gilt: am = π Z π =0 f (x) cos(mx) dx. Analog liefert die Multiplikation des Ansatzes Z 1 π mit sin(mx) und Integration bm = f (x) sin(mx) dx. π −π −π 125 8.1. FOURIERREIHEN 8.1.11 Definition. Es sei f : R → C eine 2π-periodische und f ∈ R[−π, π]. Dann heißen Z 1 π f (x) cos(kx) dx (k ∈ N0 ) (i) ak := ak (f ) := π −π Z 1 π bk := bk (f ) := f (x) sin(kx) dx (k ∈ N) π −π Z π 1 ck := ck (f ) := f (x)e−ikx dx (k ∈ Z) 2π −π die Fourierkoeffizienten von f . ∞ ∞ X a0 X + (ii) Sf (x) := (ak cos(kx) + bk sin(kx)) = ck ekix die Fourierreihe von 2 k=1 k=−∞ f . Bezeichnung: f ∼ Sf 8.1.12 Bemerkung. (i) Für f ∈ C([−π, π]) gilt für die Fourierkoeffizienten mit dem Skalarprodukt aus Bemerkung 8.1.9 1 ak = √ hf, fk i, k ∈ N0 , π 1 bk = √ hf, gk i, k ∈ N. π (ii) Bisher können wir noch nichts über die Konvergenz der Fourierreihe einer Funktion f aussagen. Selbst im Fall der Konvergenz der Fourierreihe, wissen wir noch nicht, ob diese mit der Funktion f übereinstimmt. 8.1.13 Beispiel. Auf [−π, π] betrachten wir die Funktion 1, −1 ≤ x ≤ 1, χ(x) = 0, sonst. Da χ gerade ist, sind die bn alle Null, siehe Satz 8.1.14. Weiter gilt a0 = und 1 π ·2 = 2 π Z Z 1 1 1 π an = χ(x) cos(nx) dx = cos(nx) dx π −π π −1 1 1 2 sin n = [sin(nx)]1−1 = (sin n − sin(−n)) = . πn πn πn P sin n Also ist Sχ (x) = π1 + π2 ∞ n=1 n cos(nx) (vergleiche Abbildung 8.2). 8.1.14 Satz. Es sei f ∈ R[−π, π] mit f ∼ Sf . Dann gilt: (i) Ist f gerade, also ∀x ∈ [−π, π] : f (x) = f (−x), dann gilt ∀k ∈ N : bk = 0. (ii) Ist f ungerade, also ∀x ∈ [−π, π] : f (−x) = −f (x), dann gilt ∀k ∈ N0 : ak = 0. 126 KAPITEL 8. FOURIERREIHEN UND INTEGRALTRANSFORMATIONEN Beweis. Ist f gerade, so ist f (x) sin(kx) ungerade und somit bk = 0. Ist f ungerade, so ist f (x) cos(kx) ungerade und somit ak = 0. 8.1.15 Beispiele. Wir betrachten die folgenden Funktionen f als Funktionen f : [−π, π] → R. (i) Es sei f (x) = 1, dann ist f (x) ∼ 1 aufgrund der Euler-Fourier-Relationen. (ii) Es sei f (x) = cos x, dann ist f (x) ∼ cos x mit der selben Begründung. (iii) Es sei f (x) = x, dann ist f ungerade und demnach ak = 0 für k ∈ N0 . Die bk berechnen sich gemäß Z Z 2 π 1 π x sin(kx) dx = x sin(kx) dx bk = π −π π 0 π Z 1 π 2 cos(kx) + cos(kx) dx = −x π k k 0 0 2 cos(kπ) 2(−1)k 2(−1)k+1 =− π =− = . π k k k Also ist Sf (x) = 2 ∞ X (−1)k+1 k=1 8.1.16 Bemerkungen. k sin(kx). (i) Jede Funktion f : (−π, π] → C kann 2π-periodisch auf ganz R fortgesetzt werden, in dem man setzt: f (x) := f (x + 2kπ) mit k ∈ Z, so dass x + 2kπ ∈ (−π, π]. (ii) Setzt man die Funktion f : [−π, π], f (x) = x auf R 2π-periodisch fort, stellt man fest, dass die Fourierreihe Sf mit f an den Unstetigkeitsstellen −π, π nicht mit f übereinstimmt. Denn nach der obigen Rechnung gilt Sf (−π) = 2 ∞ X (−1)k+1 k=1 k sin(−kπ) = Sf (π) = 0 6= ±π = f (±π). An den Stetigkeitsstellen konvergiert die Fourierreihe aber gegen die Funktion, das heißt Sf (x) = f (x) für x ∈ (−π, π). Dies gilt auch allgemeiner 127 8.1. FOURIERREIHEN 8.1.17 Satz. Es sei f ∈ R[−π, π] 2π-periodisch und in x0 existieren folgende Grenzwerte − f (x+ 0 ) = lim+ f (x) und f (x0 ) = lim− f (x), x→x0 f 0 (x+ 0 ) = lim+ h→0 f (x0 + h) − f (x0 +) f (x0 + h) − f (x0 −) und f 0 (x− . 0 ) = lim− h→0 h h Dann gilt: (i) lim Sn,f (x0 ) = lim n→∞ x→x0 n→∞ ! n a0 X 1 − + f (x+ (ak cos kx + bk sin kx) = 0 ) + f (x0 ) . 2 2 k=1 (ii) Ist f in x0 stetig, dann gilt limn→∞ Sn,f (x0 ) = f (x0 ). Beweis. Einen Beweis findet man in [8, 2.3]. (i) Eine Funktion f : [a, b] → C, heißt stückweise stetig 8.1.18 Bemerkungen. auf [a, b], wenn sie nur endlich viele Unstetigkeitsstellen x1 , . . . , xn hat und in diesen die rechts- und linksseitigen Grenzwerte von f existieren. Eine Funktion f : [a, b] → C heißt stückweise stetig differenzierbar auf [a, b], wenn f und f 0 stückweise stetig auf [a, b] sind. (ii) Ist f stückweise stetig differenzierbar auf [−π, π], dann existieren die Grenzwerte in Satz 8.1.17 und die Fourierreihe von f konvergiert gegen f mit Ausnahme der Sprungstellen, wo sie gegen den Mittelwert des links- und rechtsseitigen Grenzwerts von f konvergiert. (iii) Ist f beliebig oft differenzierbar, so lässt sich f auch als Taylorreihe darstellen, das heißt man kann f sowohl als algebraisches wie auch trigonometrisches Polynom annähern. 8.1.19 Gibbs’sches Phänomen. Wir betrachten wieder das Beispiel 8.1.13. Also 1, −1 ≤ x ≤ 1, die Sprungfunktion χ(x) = und ihre Fourierreihe Sχ (x) = π1 + 0, sonst P∞ sin k 2 k=1 k cos(kx) und betrachten dabei zwei Prozesse, nämlich den Grenzprozess π in der Partialsummenfolge der Fourierreihe, n → ∞, und den Grenzwert für x → x0 für eine Sprungstelle x0 ∈ { −1, 1 } (siehe Abbildung 8.2). Wir wissen, dass für ein festes x (also punktweise) gilt |Sn,χ (x) − χ(x)| → 0 für n → ∞ und nach 8.1.17 gilt Sn,χ (x0 ) → 1 2 für N → ∞. Man kann nun zeigen, dass lim sup Sn,χ (x) > χ(x+ 0 ), x↓x0 , n→∞ lim sup |Sn,χ (x) − χ(x)| > 0 x↓x0 , n→∞ 128 KAPITEL 8. FOURIERREIHEN UND INTEGRALTRANSFORMATIONEN y n=4 n = 16 n = 100 x Abbildung 8.2: Trigonometrische Polynome für die Sprungfunktion, Gibbs’sches Phänomen Diese letzte Eigenschaft bezeichnet man als Gibbssches Phänomen: Überschwinger und Unterschwinger an Sprungstellen, die auch für große n nicht verschwinden, die aber gegen x0 laufen. Man kann hieraus folgern, dass die Konvergenz gegen χ(x) nicht gleichmäßig ist. Dieses Phänomen tritt ganz allgemein bei Fourierreihen von unstetigen Funktionen an den Sprungstellen auf. Der folgende Satz liefert eine Charakterisierung des Konvergenzverhaltens der Fourierreihe 8.1.20 Satz. Es sei f 2π-periodisch und quadratisch integrierbar, das heißt es ist Rπ |f (x)|2 dx < +∞. Dann gilt −π (i) Sn,f konvergiert im quadratischen Mittel gegen f , das heißt Z π 12 2 |Sn,f (x) − f (x)| dx → 0 für n → ∞. −π (ii) die Parsevalsche Gleichung Z ∞ 1 π |a0 |2 X 2 |f (x)| dx = + |ak |2 + |bk |2 . π −π 2 k=1 8.1.21 Bemerkung. Analog zu 8.1.16 kann man jede Funktion f : [a, b] → C, a, b ∈ R, a < b auf R fortsetzen. Um die Fourierreihen über dem Intervall [a, b] zu berechnen, betrachtet man die 2π-periodische Hilfsfunktion x 7→ f b−a x . Die 2π Fourierkoeffizienten für f berechnen sich dann gemäß Z b 2 2π an = f (y) cos ny dy, b−a a b−a Z b 2 2π bn = f (y) sin ny dy. b−a a b−a (8.3) 129 8.2. FOURIER-TRANSFORMATION 8.2 Fourier-Transformation Wir betrachten eine 2`-periodische Funktion f auf dem Intervall [−`, `] (vergleiche [8, Kapitel 7]). Nach (8.3) ist die komplexe Darstellung von f über die Fourierreihe gegeben durch ∞ iπny iπnx 1 X f (x) = ck,` e ` , ck,` = int`−` f (y)e− ` dy, 2` k=−∞ wobei wir den Faktor wir nun ∆ξ = π ` 1 2` aus den Koeffizienten vor die Reihe gezogen haben. Setzen und ξn = nπ , ` so erhalten wir Z ` ∞ 1 X iξk x f (x) = ck,` e ∆ξ, ck,` = f (y)e−iξn y dy. 2π k=−∞ −` Wenn wir annehmen, dass f für x → ±∞ schnell genug verschwindet, gilt Z ∞ ck,` ≈ f (y)e−iξn y dy =: fˆ(ξn ) −∞ ∞ 1 X ˆ f (ξn )eiξn x ∆ξ, ⇒ f (x) ≈ 2π k=−∞ für x ∈ R mit |x| < `. Diesen Ausdruck können wir als Riemannsche Zwischensumme auffassen und erhalten für ` → ∞ und damit ∆ξ → 0, „sofern alles gut geht“ Z ∞ Z ∞ 1 iξx ˆ ˆ f (x) = f (ξ)e dξ mit f (ξ) = f (x)e−iξx dx. 2π −∞ −∞ Wir teilen den Vorfaktor im Folgenden noch auf beide Integrale auf. Damit haben wir die Fourier-Transformation als eine Erweiterung der Fourierreihen auf aperiodische Funktionen (beziehungsweise Funktionen mit unendlich langer Periode) anschaulich hergeleitet. 8.2.1 Definition. Es sei f : R → C, (f (t) = Re f (t) + i Im f (t)), stückweise stetig R∞ und −∞ |f (t)| dt < ∞. Dann heißt f Fourier-transformierbar und die Fourier- Transformation (FT) von f ist definiert durch 1 F : R → C, ω → 7 Ff (ω) := √ 2π Z ∞ f (t)e−iωt dt. −∞ Die Funktion fˆ(ω) := (Ff )(ω) : R → C heißt die Fourier-Transformierte (FT) von f. 130 KAPITEL 8. FOURIERREIHEN UND INTEGRALTRANSFORMATIONEN (i) Ff überführt f in eine neue Funktion fˆ, wofür das R∞ uneigentliche Integral −∞ f (t)e−iωt dt berechnet werden muss. Daher wird die 8.2.2 Bemerkungen. Fourier-Transformation auch als Integraltransformation bezeichnet. (ii) Für die Ausgangsfunktion verwendet man oft die Variable t und spricht von einer Funktion im Zeitbereich. Für die Zielfunktion benutzt man oft ω und spricht von einer Funktion im Frequenzbereich. (iii) In jedem Wert fˆ(ω) stecken Informationen über f aus ganz R. (iv) Bei den Fourierreihen haben wir in Definition 8.1.11 für festes k ∈ Z einen Rπ 1 f (x)e−ikx dx erhalten, das heißt Fourierkoeffizienten F̃f (k) = ck (f ) = 2π −π eine Abbildung (oder Folge) F̃ : N → C. Man spricht von einem diskreten Spektrum, da Z diskret in R liegt. Die Zahl ck beschreibt, wie groß der Anteil von e−ikx an f (x) ist. Die Fourier-Transformation liefert nun für jedes ω ∈ R mit der Fourier-Transformierten einen Wert fˆ = Ff , man spricht von einem kontinuierlichen Spektrum. (v) fˆ = Ff : R → C ist eine komplexwertige Funktion. Die zugehörige reellwertige Funktion |fˆ | : R → R heißt Amplitudenspektrum. (vi) Achtung! Neben der häufig in der Mathematik verwendeten Definition 8.2.1 werden auch Ff (ω) = Z ∞ −∞ −iωt f (t)e dt und Ff (ω) = Z ∞ f (t)e−2πiωt dt −∞ sowie weitere Abwandlungen (Vorfaktoren, Vorzeichen im Exponenten) benutzt. Die grundlegenden Überlegungen und Schlussfolgerungen bleiben aber jeweils die selben, nur die Formeln unterscheiden sich leicht in den Konstanten. (vii) Die Fourier-Transformation findet Anwendung zum Beispiel in der Spektroskopie, wenn etwa aus einem Signal in der Zeit (Messung) die beteiligten Frequenzen bestimmt werden sollen, um einen Werkstoff zu analysieren (mit Hilfe der Übergänge zwischen den Energieniveaus). Eine allgemeine Beschreibung der Größen und ihrer auch anschaulichen Bedeutung findet man in [2, 40/41]. Eine Darstellung im Zusammenhang mit Infrarotspektroskopie ist in [10, Abschnitt 1.7] gegeben und Darstellungen für die Anwendung im Bereich der Kernmagnetresonanzspektroskopie etwa zur Analyse von Molekülen liefern zum Beispiel [2] und [9]. (viii) Für weitere innermathematische Anwendungen der Fourier-Transformation sei auf [8, Abschnitt 7.3] und die dort genannte Literatur verwiesen. 131 8.2. FOURIER-TRANSFORMATION 8.2.3 Beispiel. Die Funktion f : R → R mit 1, für |t| ≤ 1 f (t) = 0, für |t| > 1 beschreibt den sogenannten Rechtecksimpuls, vergleiche Beispiel 8.1.13. Die Fourier- Transformierte von f lautet Z ∞ Z 1 1 1 −iωt f (t)e dt = √ e−iωt dt fˆ(ω) = √ 2π −∞ 2π −1 Z 1 Z 1 1 2 =√ cos(ωt) − i sin(ωt) dt = √ cos(ωt) dt 2π −1 2π 0 √2 sin ω für ω 6= 0, 2π ω = √2 für ω = 0. 2π Die Funktion sin x x := sinc x heißt Sinus cardinalis, Kardinalsinus oder sinc-Funktion. Diese ist auf R insbesondere stetig, denn sin x x → 1 für x → 0 (siehe Analysis I). fˆ(ω) f (x) x ω Abbildung 8.3: Der Rechteckimpuls und sein Fouriertransformation 8.2.4 Satz. Es sei f : R → C stückweise stetig und Fourier-transformierbar. Dann ist fˆ beschränkt und stetig und es gilt: lim fˆ(ω) = 0. ω→±∞ 8.2.5 Satz (Rechenregeln für die Fourier-Transformation). Es seien f, g : R → C Fourier-transformierbar, a, b ∈ C, h ∈ R und R 3 c > 0. Dann gilt für ω ∈ R: (i) Linearität: (af (t) + bg(t))∧ (ω) = afˆ(ω) + bĝ(ω). (ii) Translation (Verschiebung): (a) (f (t + h))∧ (ω) = eihω fˆ(ω), (b) (e−iht f (t))∧ (ω) = fˆ(ω + h). 132 KAPITEL 8. FOURIERREIHEN UND INTEGRALTRANSFORMATIONEN (iii) Streckung: 1 ˆ ω (f (ct)) (ω) = f . c c ∧ (iv) Ableitung im Zeitbereich: Falls Re f und Im f stetig differenzierbar sind und f 0 Fourier-transformierbar ist, gilt: (f 0 )∧ (ω) = iω fˆ(ω). (v) Ableitung im Frequenzbereich: Falls t 7→ tf (t) Fourier-transformierbar ist, dann ist fˆ differenzierbar und es gilt: d ˆ f (ω) = fˆ0 (ω) = (−itf (t))∧ (ω). dω Beweis. Folgt durch direktes Ausrechnen. Beispielsweise ist Z ∞ 1 0 b f (ω) = √ f 0 (t)eiωt dt 2π −∞ Z ∞ −iωt ∞ 1 PI f (t)e √ = f (t)(−iω)e−iωt dt = iω fˆ(ω), −√ 2π 2π −∞ t=−∞ wobei man hier natürlich formal die Grenzwerte betrachten muss. Bei der Rechnung haben wir verwendet, dass f (t) → 0 für t → ±∞, da sonst das uneigentliche Integral R∞ |f (x)| dx für eine (stückweise) stetige Funktion nicht existieren würde. −∞ 8.2.6 Beispiel. Es sei g(t) = 4f (t) + eit f (7t). Berechne ĝ in Abhängigkeit von fˆ. (g(t))∧ (ω) = 4fˆ(ω) + (eit f (7t))∧ (ω) = 4fˆ(ω) + (f (7t))∧ (ω − 1) 1 ˆ ω−1 ˆ = 4f (ω) + f . 7 7 8.2.7 Beispiel (Anwendung der Fourier-Transformation). Die FT ist nützlich zum Lösen von Differenzialgleichungen. Wir betrachten beispielsweise die folgende lineare Differenzialgleichung erster Ordnung: (8.4) y 0 (t) + 3y(t) = f (t). Annahme: y, y 0 , f sind Fourier-transformierbar. Dann gilt: ⇔ ⇔ (y 0 (t))∧ (ω) + (3y(t))∧ (ω) = (f (t))∧ (ω) iω ŷ(ω) + 3ŷ(ω) = fˆ(ω) ŷ(ω) = fˆ(ω) . 3 + iω 133 8.2. FOURIER-TRANSFORMATION Jetzt muss man noch ŷ zurücktransformieren, das heißt aus ŷ(ω) wieder y(t) berechnen, um die Lösung y(t) zu erhalten. Dazu brauchen wir aber zunächst eine Transformation, welche die Fourier-Transformierte in die ursprüngliche Funktion zurückführt. 8.2.8 Definition. Existieren die auftretenden Integrale und ist f stetig und Fouriertransformierbar, so ist die inverse Fourier-Transformation oder Fourier-Umkehrtransformation F −1 von fˆ definiert als Z ∞ 1 −1 ˆ fˆ(ω)eiωt dω. (F f )(t) = √ 2π −∞ 8.2.9 Bemerkung. Es sei f : R → C stetig und Fourier-transformierbar und die inverse Fourier-Transformierte von fˆ existiere. Dann gilt f (t) = (F −1 1 fˆ)(t) = √ 2π Z ∞ −∞ 1 √ 2π Z ∞ 0 f (t0 )e−iωt dt0 eiωt dω −∞ Z ∞Z ∞ 1 0 f (t0 )eiω(t−t ) dt0 dω. = 2π −∞ −∞ 8.2.10 Definition. Es seien f, g : R → C. Dann ist die Faltung f ? g von f und g (falls existent) definiert als (f ? g)(t) := Z ∞ −∞ f (t − u)g(u) du 8.2.11 Satz. Es seien f, g : R → C Fourier-transformierbar. Dann gilt: (i) Die Faltung ist kommutativ, also (f ? g)(t) = (g ? f )(t). (ii) Glättungseigenschaften: (a) Ist f (oder g) stetig, so ist f ? g stetig. (b) Ist f stetig differenzierbar, so ist f ?g stetig differenzierbar mit (f ?g)0 (t) = (f 0 ? g)(t). (iii) Faltungssatz im Zeitbereich: Die Faltung f ? g ist Fourier-transformierbar mit (f[ ? g)(ω) = √ 2π fˆ(ω) · ĝ(ω). (iv) Faltungssatz im Frequenzbereich: Ist auch die Fourier-Umkehrtransformation auf f und g anwendbar, so gilt: 1 (fd · g)(ω) = √ (fˆ ? ĝ)(ω). 2π 134 KAPITEL 8. FOURIERREIHEN UND INTEGRALTRANSFORMATIONEN Beweis. (I) Es gilt Z (f ? g)(t) = ∞ −∞ f (t − u)g(u) du = Z ∞ −∞ wobei wir v = t − u gesetzt haben, dann ist müssen auch getauscht werden. dv du f (v)g(t − v) dv = (g ? f )/(t), = −1, aber die Integrationsgrenzen (II) Die erste Aussage folgt aus einer Verallgemeinerung von Satz 5.1.2 (i). Die zweite Aussage folgt mit einer Verallgemeinerung von Satz 5.1.2 (ii). Man kann es sich aber auch wie folgt unter Vernachlässigung von Existenz- und Vertauschbarkeitsbetrachtungen herleiten: Es sei f differenzierbar, aus der Integrierbarkeitsbedingung an f folgt wieder limt→±∞ f (t) = 0. Wir erhalten daher Z ∂ ∞ 0 f (t − u)g(u) du (f ? g) (t) = ∂t −∞ Z ∞ = f 0 (t − u)g(u) du = (f 0 ? g)(t). −∞ (III) Es gilt Z ∞Z ∞ 1 \ (f ? g)(ω) = √ f (t − u)g(u)e−iωt du dt 2π −∞ −∞ Z ∞ Z ∞ 1 −iω(t−u) =√ f (t − u)e d(t − u) g(u)e−iωu du. 2π −∞ −∞ (IV) Analog. 8.2.12 Beispiel (Fortsetzung von 8.2.7). Wir hatten gezeigt, dass ŷ(ω) = fˆ(ω) 3 + iω die Fourier-Transformierte der Lösung der Differenzialgleichung (8.4) ist. Wir er −1 −1 fˆ(ω) halten die Lösung also durch y(t) = F (ŷ(ω)). Zur Berechnung von F 3+iω machen wir folgende Vorbetrachtung: Setze √ 2π · e−3t g(t) = 0 für t ≥ 0, für t < 0. Dann gilt: Z ∞ Z ∞√ 1 1 −iωt ĝ(ω) = √ g(t)e dt = √ 2πe−3t e−iωt dt 2π −∞ 2π 0 ∞ 1 1 = − e(−3−iω)t = , 3 + iω 3 + iω 0 135 8.3. LAPLACE-TRANSFORMATION da e−(3+iω)t = e−3t |e−iωt | = e−3t → 0 für t → ∞. Also ist ŷ(ω) = ĝ(ω) · fˆ(ω) und damit y(t) = F −1 (ŷ(ω))(t) = F −1 (ĝ(ω) · fˆ(ω))(t) 1 1 1 ? f ))(t) = √ (g ? f )(t) = √ (f ? g)(t) = √ F −1 ((g[ 2π 2π Z 2π ∞ = 0 f (t − u)e−3u du. Zur Übung löse man die Differenzialgleichung (8.4) mit der Lösungsformel für lineare Differenzialgleichugen erster Ordnung aus Analysis I. 8.3 Laplace-Transformation Der Nachteil bei der Fourier-Transformation ist, dass sie nur unter der starken VorR∞ aussetzung −∞ |f (t)| dt < ∞ existiert, was limt→±∞ f (t) = 0 impliziert, wenn f stetig ist. Insbesondere ist die Exponentialfunktion also nicht Fourier-transformierbar. Diese ist aber häufig Teil von Lösungen von Differenzialgleichungen. Wir erhalten aus der Fourier-Transformation folgendermaßen eine für diese Anwendung besser geeignete Transformation (vergleiche [8, Kapitel 8]). Nehmen wir dazu an, dass f : R → C mit f (t) = 0 für t < 0 sei. In der Fourier-Transformation von f 1 fˆ(ω) = √ 2π Z ∞ f (t)e−iωt dt, 0 können wir für ω auch komplexe Werte zulassen, das heißt ω = a + bi verwenden, mit a, b ∈ R. Es gilt dann |e−iωt | = ebt und das Integral konvergiert daher nicht nur für alle reellen ω, sondern auch für die ω mit negativem Imaginärteil. In der Tat konvergiert das Integral bereits, wenn f nicht schneller als eat wächst, das heißt, wir können die Anforderung an f abschwächen. Wir ersetzen noch z = iω und lassen den Vorfaktor beim Integral weg und haben: 8.3.1 Definition. Es sei f : [0, ∞) → C eine Funktion. Dann heißt f Laplacetransformierbar, falls für s ∈ C fˆ(s) := F (s) := (Lf )(s) := Z 0 ∞ f (t) · e−st dt existiert. Die Funktion F := Lf heißt die Laplace-Transformierte (LT) von f und die Abbildung f 7→ F Laplace-Transformation. 136 KAPITEL 8. FOURIERREIHEN UND INTEGRALTRANSFORMATIONEN 8.3.2 Bemerkungen. (i) Die Laplace-Transformation ist wie die Fourier-Trans- formation eine Integraltransformation. Bei F (s) handelt es sich um ein uneigentliches Parameterintegral mit Parameter s ∈ C. (ii) Die Laplace-Transformation überführt eine Funktion f vom reellen Zeitbereich in den komplexen Spektralbereich, Frequenzbereich. (iii) Die Laplace-Transformation nutzt aus, dass die auftretenden Funktionen nur ab t ≥ 0 definiert sind. Dies spielt etwa bei Anfangswertproblemen mit Anfangswert bei der Zeit (o.B.d.A.) t = 0 bei Differenzialgleichungen eine Rolle. Für eine detaillierte Darstellung der Anwendungen insbesondere im Bereich gewöhnlicher und partieller Differenzialgleichungen sei auf [1], [6] und [8, Kapitel 8] verwiesen. Hinter solchen Differenzialgleichungen kann zum Beispiel auch die Analyse einer elektrischen Schaltung stehen, bei der durch die LaplaceTransformation Schaltelemente in andere Schaltelemente transformiert werden. (iv) Die Laplace-Transformation benutzt einen konvergenzerzeugenden Faktor e−st (s ∈ C): Die Funktion e−st fällt sehr schnell gegen Null für t → ∞ unter der Voraussetzung, dass Re s > 0. Damit sind mehr Funktionen Laplace- als Fourier-transformierbar. Wir gehen im Folgenden von Re s > 0 aus. 8.3.3 Definition. f : [0, ∞) → C heißt exponentiell beschränkt, wenn es Konstanten C, s0 > 0 gibt mit ∀t ≥ 0 : |f (t)| ≤ C · es0 t . 8.3.4 Satz (Existenz der Laplace-Transformation). Ist f : [0, ∞) → C stückweise stetig und exponentiell beschränkt, so existiert die Laplace-Transformierte (Lf )(s) in der Halbebene Re(s) > s0 . Beweis. Es sei |f (t)| ≤ C · es0 t und Re s > s0 . Dann gilt Z ∞ Z ∞ Z ∞ −(Re s+i Im s)t −st f (t)e dt ≤ |f (t)|· e dt ≤ C e(s0 −Re s)t dt = − 0 8.3.5 Beispiele. 0 0 C . s0 − Re s n (i) f : R+ 0 → R, f (t) = t für n ∈ N. Es sei zunächst n = 1. Z ∞ Z ∞ −st (Lf )(s) = f (t) · e dt = t · e−st dt 0 ∞ Z 0∞ 1 1 −st = t · e−st (− ) + · e dt s 0 s 0 ∞ 1 −st 1 = 0 + − 2e = 2. s s 0 137 8.3. LAPLACE-TRANSFORMATION Mit vollständiger Induktion beziehungsweise n−facher partieller Integration erhält man (Ltn )(s) = n! sn+1 . (ii) f : R+ 0 → R, f (t) = cos(at). Z ∞ Z 1 ∞ iat −st (Lf )(s) = cos(at) · e dt = e + e−iat e−st dt 2 0 0 Z ∞ 1 = et(ia−s) + et(−ia−s) dt 2 0 ∞ 1 1 1 t(ia−s) t(−ia−s) = e + e 2 ia − s −ia − s 0 1 1 1 s = + = 2 2 s − ia s + ia s + a2 8.3.6 Bemerkung. Wie bei der Fourier-Transformation (siehe Definition 8.2.8) existiert auch bei der Laplace-Transformation eine Rücktransformation (inverse Laplace-Transformation), die einer gegebenen Spektralfunktion F (s) die ursprüngliche Funktion f (t) im Zeitbereich zuordnet. 8.3.7 Satz. Es seien f eine exponentiell mit Konstanten C, s0 > 0 beschränkte, stückweise stetige Funktion und F = Lf . Dann ist mit γ > s0 die inverse LaplaceTransformation gegeben durch (L−1 F )(t) := 1 2πi Z γ+i∞ γ−i∞ f (t) für t ≥ 0, ezt Lf (z) dz = 0 für t < 0. Wobei wir f als in den Sprungstellen als Summe von linksseitigem und rechtsseitigem Grenzwert umdefiniert denken. Beweisskizze. Wir definieren e−γt f (t), t ≥ 0, g(t) = 0, t < 0. Die Fourier-Transformierte von g ist dann Z ∞ 1 1 e−γt f (t)e−iωt dt = √ Lf (γ + iω). ĝ(ω) = √ 2π 0 2π Wir verwenden eine Version von Satz 8.1.17 für die Fourier-Transformation und erhalten für t ≥ 0 −γt e 1 f (t) = g(t) = √ 2π Z ∞ −∞ iωt ĝ(ω)e 1 dω = 2π Z ∞ −∞ Lf (γ + iω)eiωt dω. 138 KAPITEL 8. FOURIERREIHEN UND INTEGRALTRANSFORMATIONEN Substituieren wir z = γ + iω, dann ist dz = idω und z läuft von γ − i∞ nach γ + i∞ im Sinne eines uneigentlichen Integrals und wir haben e −γt 1 f (t) = 2πi Z γ+i∞ γ−i∞ Lf (z)e(z−γ)t dz. Die Multiplikation mit eγt liefert nun die Behauptung. Wir beschränken uns bei der Berechnung der inversen Laplace-Transformation auf die in 8.3.9 folgenden Tabellen. 8.3.8 Rechenregeln für die Laplace-Transformation. Die Funktionen f , g, f1 und f2 seien Laplace-transformierbar, dann lassen sich die Eigenschaften der Laplace-Transformation beziehungsweise der inversen Laplace-Transformation wie folgt darstellen: f (t) = (L−1 F )(t) F (s) = (Lf )(s) Linearität af1 (t) + bf2 (t) Translation im Zeitbereich f (t − a) aF1 (s) + bF2 (s) (a, b ∈ C) Translation im Spektralbereich e−as F (s) e−at f (t) Streckung f (at) 1. Ableitung im Zeitbereich f 0 (t) 2. Ableitung im Zeitbereich 00 f (t) n-te Ableitung im Zeitbereich f (n) (t) 1. Ableitung im Spektralbereich −tf (t) F (s + a) 1 F as (a > 0) a sF (s) − f (0) s2 F (s) − sf (0) − f 0 (0) n−1 X n s F (s) − f (k) (0)sn−k−1 k=0 2. Ableitung im Spektralbereich n-te Ableitung im Spektralbereich t2 f (t) F 00 (s) (−t)n f (t) F (n) (s) Z Integration im Zeitbereich F 0 (s) t f (u) du 0 ∞ 1 f (t) t Z Integration im Spektralbereich f (u)g(t−u) du Faltung im Zeitbereich F (u) du s t 1 1 F (s) Zs 0 F (s) · G(s) Beweis. Dies rechnet man wie bei der Fourier-Transformation nach, beispielsweise ist ∂ F (s) = ∂s 0 1 Z 0 ∞ f (t)e −st dt = Z 0 ∞ −tf (t)e−st dt = L(−tf (t))(s). Achtung, nicht mit der Faltung bei der Fourier-Transformation verwechseln 139 8.3. LAPLACE-TRANSFORMATION 8.3.9 Die Laplace-Transformation für einige elementare Funktionen. Es seien a ∈ R und f (t) = 0 für t ≤ 0, dann ist die Laplace-Transformation gegeben durch f (t) = (L−1 F )(t) 1 F (s) = (Lf )(s) 1 s n! tn tn eat sin(at) sn+1 1 s−a eat f (t) = (L−1 F )(t) cos(at) F (s) = (Lf )(s) n! , (s − a)n+1 Re(s) > a a 2 s + a2 s 2 s + a2 8.3.10 Anwendung: Lösen von Anfangswertproblemen. Durch die LaplaceTransformation wird aus einer Differenzialgleichung oder einem System von Differenzialgleichungen eine rein algebraische Gleichung. Diese ist leicht oder zumindest leichter zu lösen. Die erhaltene Lösung muss dann nur noch (zum Beispiel mit Hilfe der Tabelle) zurücktransformiert werden. 8.3.11 Beispiel. Löse das Anfangswertproblem y 0 (t) + y(t) = e−t mit y(0) = 1. Wir transformieren die Differenzialgleichung mit der Laplace-Transformation und erhalten mit den Tabellen 8.3.8 und 8.3.9: 1 s+1 s+2 ŷ(s) = (s + 1)2 sŷ(s) − y(0) + ŷ(s) = ⇔ Die Partialbruchzerlegung2 der rechten Seite ergibt: ŷ(s) = 1 1 + s + 1 (s + 1)2 Wir transformieren das Ergebnis für ŷ(s) anhand der Tabelle 8.3.9 in den Zeitbereich zurück und erhalten die Lösung y(t) = e−t + te−t . 8.3.12 Beispiel. Löse das Anfangswertproblem y 00 (t) + 4y 0 (t) + 4y(t) = e−t mit den Anfangswerten y(0) = 0, y 0 (0) = 0. 2 beziehungsweise einfacher, da s + 2 = s + 1 + 1 140 KAPITEL 8. FOURIERREIHEN UND INTEGRALTRANSFORMATIONEN Die Laplace-Transformation ergibt: 1 1+s 1 ŷ(s)(s2 + 4s + 4) = 1+s s2 ŷ(s) − sy(0) − y 0 (0) + 4(sŷ(s) − y(0)) + 4ŷ(s) = ⇔ 1 (1 + s)(2 + s)2 1 1 1 − − ŷ(s) = 1 + s 2 + s (2 + s)2 ⇔ ŷ(s) = ⇔ Die Rücktransformation liefert als Lösung: y(t) = e−t − e−2t − te−2t . 8.3.13 Beispiel. Bestimme die Lösung des Differentialgleichungssystems x0 (t) = y(t), y 0 (t) = −x(t) + t mit den Anfangswerten x(0) = 0, y(0) = 1. Wir transformieren das System mit der Laplace-Transformation und erhalten mit den Tabellen 8.3.8 und 8.3.9: sx̂(s) − x(0) = ŷ(s) sŷ(s) − y(0) = −x̂(s) + (8.5) 1 s2 (8.6) ŷ(s) von (8.5) in (8.6) eingesetzt ergibt: s2 x̂(s) − 1 = −x̂(s) + ⇔ x̂(s) = 1 s2 1 s2 Aus (8.5) folgt sofort: ŷ(s) = sx̂(s) = 1s . Die Rücktransformation liefert: x(t) = t, y(t) = 1. Literaturverzeichnis [1] R. E. Bellman und R. S. Roth, The Laplace Transform. World Scientific, 1984 [2] B. Blümich, Essential NMR. Springer Verlag, Berlin, 2005 [3] A. Chiang und K. Wrainwright, Fundamental methods of mathematical economics. McGraw-Hill, Boston, 4. Auflage, 2006 [4] W. Demtröder, Experimentalphysik 1, Springer, Berlin, 2. Auflage, 1998 [5] W. Demtröder, Experimentalphysik 2, Springer, Berlin, 2. Auflage, 1999 [6] G. Doetsch, Einführung in Theorie und Anwendung der Laplace-Transformation. Brikhäuser Verlag, Basel, 2. Auflage, 1970 [7] L. C. Evans, Partial Differential Equations, American Mathematical Society, Providence, Rhode Island, 2002 [8] G. Folland, Fourier analysis and its applications. American Mathematical Society, Providence, RI, 2009 [9] J. Gu und P. E. Bourne (Hrsg.), Structural Bioinformatics. Wiley-Blackwell, Hoboken, NJ, 2. Auflage, 2009 [10] W. W. Parson, Modern Optical Spectroscopy. Springer Verlag, Berlin, Student edition, 2009 [11] F. Schulz, Analysis I. Oldenbourg Verlag, München, 2. Auflage, 2011 [12] F. Schulz, Analysis II. Oldenbourg Verlag, München, 1. Auflage, 2013