Analysis 2 für Informatiker und Ingenieure

Werbung
Analysis II für Informatiker und Ingenieure
Dr. Jan-Willem Liebezeit
Wintersemester 2016/17
Teil a: Kapitel 1-5
Teil b: Kapitel 6-8
Bemerkungen:
Dieses Skript basiert auf den Ausarbeitungen von Dr. Arthur Gerber aus dem Wintersemester 2013/14, welche wahrscheinlich auch auf den Ausarbeitungen von Dr.
Britta Dorn basieren. Meine Überarbeitungen und Ergänzungen für die Wintersemester 2014/15, 2015/16 und 2016/17 motivieren sich aus und gründen auf [12]
beziehungsweise dem Vorgängerskript und anderen Skripten von Prof. Schulz, dem
Skript zur Analysis II von Prof. Balser (Ulm), der Vorlesung Analysis II von Prof.
Leopold (Jena), zum Teil über den Umweg über meine Skripte zur Höheren Mathematik II, sowie den Rückmeldungen der Hörerinnen und Hörer.
Etliche der Beweise, die wir weglassen, findet man zum Beispiel in [12].
Fehler, Verbesserungsvorschläge und -wünsche bitte an
[email protected].
Textsatz mit LATEX, Grafiken mit TikZ, pgfplots und gnuplot.
Inhaltsverzeichnis
1 Der n-dimensionale euklidische Raum
1
1.1
Norm und Abstand . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1.2
Topologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
1.3
Folgen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
2 Funktionen mehrerer Veränderlicher
11
2.1
Skalar- und vektorwertige Funktionen . . . . . . . . . . . . . . . . . . 11
2.2
Stetigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3
Eigenschschaften stetiger Funktionen . . . . . . . . . . . . . . . . . . 18
3 Diff ’rechnung mehrerer Veränderlicher
21
3.1
Partielle Ableitungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2
Totale Differenzierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.3
Richtungsableitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.4
Partielle Ableitungen höherer Ordnung . . . . . . . . . . . . . . . . . 39
4 Anwendungen der Differenzialrechnung
45
4.1
Lokale Extrema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2
Extrema unter Nebenbedingungen . . . . . . . . . . . . . . . . . . . . 50
4.3
Umkehrabbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.4
Implizite Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5 Integration im Rn
63
5.1
Parameterintegrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.2
Das Riemann-Integral im Rn . . . . . . . . . . . . . . . . . . . . . . . 65
5.3
Die Transformationsformel . . . . . . . . . . . . . . . . . . . . . . . . 72
6 Kurvenintegrale
77
6.1
Kurven . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.2
Kurvenintegrale erster Art . . . . . . . . . . . . . . . . . . . . . . . . 81
iii
iv
INHALTSVERZEICHNIS
6.3
Kurvenintegrale zweiter Art . . . . . . . . . . . . . . . . . . . . . . . 83
7 Integralsätze
93
7.1
Differenzialoperatoren . . . . . . . . . . . . . . . . . . . . . . . . . . 93
7.2
Oberflächen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
7.3
Oberflächenintegrale . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
7.4
Integralsätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
8 Fourierreihen und Integraltransformationen
119
8.1
Fourierreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
8.2
Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . 129
8.3
Laplace-Transformation
. . . . . . . . . . . . . . . . . . . . . . . . . 135
Kapitel 1
Der n-dimensionale euklidische
Raum
1.1
Norm und Abstand
Wir wollen den Betrag |·|, wie wir ihn von den reellen Zahlen R kennen, verallgemeinern.

x1
.
n
.
1.1.1 Definition. Es sei x = 
 .  ∈ R , n ∈ N. Dann definieren wir die Norm
xn
(Länge, Betrag) von x als

kxk := kxk2 :=
n
X
x2i
i=1
! 21
q
= x21 + · · · + x2n .
Der Abstand von zwei Vektoren x, y ∈ Rn ist dann nach dem Satz des Pythagoras
v
u n
uX
d(x, y) := kx − yk = t (xi − yi )2 .
i=1
Für n = 1 stimmt also diese Definition mit der Definition des Betrags und
Abstands in R überein. Allgemeiner kann man wie folgt eine Norm auf Rn definieren:
1.1.2 Definition. Es seien x ∈ Rn und 1 ≤ p ≤ ∞. Dann heißt

(Pn |x |p ) p1 , für 1 ≤ p < ∞,
i
i=1
kxkp :=
max
|x | , für p = ∞.
1≤i≤n
i
die p-Norm von x.
1
(1.1)
2
KAPITEL 1. DER N -DIMENSIONALE EUKLIDISCHE RAUM
x3
a3
(a1 , a2 , a3 )>
a2
x2
a1
x1
Abbildung 1.1: Kanonische Länge eines Vektors nach dem Satz des Pythagoras.
Ist p nicht explizit angegeben, gehen wir immer von der kanonischen Norm mit
p = 2 aus.
Durch dp (x, y) := kx − ykp ist dann wieder ein Abstandsbegriff gegeben.
Der Betrag in(1.1) wird benötigt, weil für beliebiges x ∈ R und p ≥ 1 sonst
möglicherweise xp oder die p-te Wurzel aus der Summe nicht definiert ist.
1.1.3 Beispiel. Es sei x = (1, −3, 2)> ∈ R3 . Dann gilt:
kxk1 = |1| + |−3| + |2| = 6,
p
√
kxk = kxk2 = 12 + (−3)2 + (2)2 = 14,
kxk∞ = max { |1| , |−3| , |2| } = 3.
Jede der oben definierten Normen hat die folgenden Eigenschaften:
1.1.4 Bemerkung. Es seien x, y ∈ Rn , λ ∈ R und k·k = k·kp für ein 1 ≤ p ≤ ∞.
Dann gilt:
(N1) kxk ≥ 0 und kxk = 0 ⇔ x = 0 (Definitheit).
(N2) kλxk = |λ| kxk (Homogenität).
(N3) kx + yk ≤ kxk + kyk (Dreiecksungleichung).
Allgemeiner gilt
1.1.5 Definition. Es sei V ein Vektorraum und N : V → R mit den Eigenschaften (N1)-(N3), dann heißt N Norm auf V und V mit der Norm N heißt normierter
Raum.
1.1.6 Satz. Auf jedem K-Vektorraum V , K = R oder K = C, mit einem Skalarp
produkt h·, ·i, ist für x ∈ V durch hx, xi eine Norm erklärt. Im Fall V = Rn ist
dies gerade die 2-Norm.
3
1.1. NORM UND ABSTAND
Beweis. Dies folgt aus den Eigenschaften des Skalarprodukts und der Monotonie
der Wurzel.
Wir betrachten noch die Verallgemeinerung des Abstandsbegriffs, dafür stellen wir
zunächst fest:
1.1.7 Bemerkung. Es seien x, y, z ∈ Rn beliebig. Der Abstand d hat folgende
Eigenschaften
(Me1) d(x, y) ≥ 0 und d(x, y) = 0 ⇔ x = y.
(Me2) d(x, y) = d(y, x) (Symmetrie).
(Me3) d(x, z) ≤ d(x, y) + d(y, z) (Dreiecksungleichung).
Allgemeiner gilt
1.1.8 Definition. Es sei M 6= ∅ und d : M ×M → R habe die Eigenschaften (Me1)(Me3), dann heißt d Abstand oder Metrik auf M und das Paar (M, d) heißt metrischer
Raum.
1.1.9 Beispiele.
(i) Es sei M 6= ∅, dann ist durch

0, x = y,
d(x, y) =
1, x 6= y
ein Abstand gegeben (diskrete Metrik).
(ii) Betrachten wir die Menge der Codes der Länge n, das heißt die Menge M =
{ 0, 1 }n , dann ist für x ∈ M durch
kxk =
n
X
xk
k=1
eine Norm und für x, y ∈ M durch
d(x, y) = kx − yk =
n
X
k=1
|xi − yi |
ein Abstand (Metrik) definiert. Dieser sogenannte Hamming-Abstand liefert
gerade die Anzahl der Stellen, an denen sich die beiden Codes (Vektoren)
unterscheiden und spielt zum Beispiel bei der Erkennung und Korrektur von
Fehlern bei der Datenübertragung eine Rolle.
4
KAPITEL 1. DER N -DIMENSIONALE EUKLIDISCHE RAUM
Aus Analysis I kennen wir abgeschlossene, offene, etc. Intervalle. Im Rn definieren
wir analog:
1.1.10 Definition.
(i) Es seien x, y ∈ Rn . Dann heißt
[x, y] := [x1 , y1 ] × [x2 , y2 ] × · · · × [xn , yn ]
das abgeschlossene Intervall [x, y]. Analog definiert man das offene Intervall
(x, y), das halboffene Intervall (x, y] beziehungsweise [x, y), usw.
(ii) Es seien x0 ∈ Rn und ε > 0. Dann heißt
(a) Uε (x0 ) := { x ∈ Rn | kx − x0 k < ε } die (offene) ε-Umgebung von x0 (oder
ε-Kugel).
(b) U̇ε (x0 ) := Uε (x0 ) \ { x0 } die punktierte ε-Umgebung von x0 .
1.1.11 Bemerkungen und Beispiele.
(i) Die ε-Umgebung eines Punktes ist
eine offene Menge im Sinn der folgenden Definition 1.2.1 (vergleiche auch Bemerkung 1.2.2 und siehe Lemma 1.2.3).
(ii) In R ist Uε (x0 ) das offene Intervall (x0 − ε, x0 + ε).
(iii) In R2 mit der 2-Norm k·k2 ist Ur (0) die Kreisscheibe um den Ursprung mit
Radius r ohne Rand. Für andere Normen müssen die zugehörigen ε-Kugeln
aber nicht kreis- oder kugelförmig sein.
y
U1 (0) in der ∞-Norm
U1 (0) in der 2-Norm (Kreis)
x
U1 (0) in der 1-Norm
Abbildung 1.2: 1-Kugeln in verschiedenen p-Normen
5
1.2. TOPOLOGIE
1.2
Topologie
Da selbst anschaulich einfache Mengen, wie es im Eindimensionalen Intervalle sind,
im Mehrdimensionalen nicht mehr nur über die Zugehörigkeit der Eckpunkte zur
Menge beschrieben werden können, wollen wir Mengen im Rn genauer charakterisieren.
xR
M
xI
xIso
Abbildung 1.3: Zur Topologie im Rn . xI – innerer Punkt, xIso – isolierter Punkt, xR
– Randpunkt von M , jeweils mit Umgebung dargestellt. Der nicht durchgezogene
Teil des Randes von M gehört nicht zu M .
1.2.1 Definition. Es sei M ⊂ Rn .
(i) x ∈ M heißt innerer Punkt von M , wenn es eine ε-Umgebung von x gibt,
die ganz in M liegt. Also x ∈ M innerer Punkt :⇔ ∃ε > 0 : Uε (x) ⊂ M .
Die Menge aller inneren Punkte von M heißt Inneres von M und wird mit M̊
bezeichnet.
(ii) M heißt offen, wenn jeder Punkt von M innerer Punkt ist. Also M offen
:⇔ M = M̊ .
(iii) x ∈ Rn heißt Häufungspunkt von M , wenn jede punktierte ε-Umgebung von x
Elemente aus M enthällt. Kurz x ∈ Rn Häufungspunkt :⇔ ∀ε > 0 M ∩ U̇ε (x) 6=
∅.
(iv) x ∈ M heißt isolierter Punkt, wenn es eine ε-Umgebung von x gibt, deren
Durchschnitt mit M nur aus x besteht. Das heißt x ∈ M isolierter Punkt
:⇔ ∃ε > 0 M ∩ Uε (x) = { x }.
(v) x ∈ Rn heißt Randpunkt von M , wenn in jeder ε-Umgebung von x ein Element
von M und M c (= Rn \ M ) liegt. Also x ∈ Rn Randpunkt von M :⇔ ∀ε >
0∃x1 , x2 ∈ Uε (x) : x1 ∈ M ∧ x2 ∈ M c .
Die Menge aller Randpunkte von M heißt Rand von M und wird mit ∂M
bezeichnet.
6
KAPITEL 1. DER N -DIMENSIONALE EUKLIDISCHE RAUM
(vi) M heißt abgeschlossen, wenn M c offen ist.
(vii) Die Menge M := { x ∈ Rn | x ∈ M oder x ist Häufungspunkt } heißt der Abschluss von M .
(viii) M heißt beschränkt, falls M ⊂ UK (0) für ein K > 0.
(ix) M heißt kompakt, falls M abgeschlossen und beschränkt ist.
1.2.2 Bemerkungen.
(i) Häufungspunkte und Randpunkte können zu M gehö-
ren, müssen es aber nicht. Es sei beispielsweise M = (1, 2] ∪ { 3 }. Dann ist
2 ∈ M ein Häufungspunkt, 1, 5 ∈ M ist ein Häufungspunkt, 1 ∈
/ M ist ein
Häufungspunkt und 3 ∈ M ist kein Häufungspunkt. Die Punkte 1, 2, 3 sind
Randpunkte und M besitzt als einzigen isolierten Punkt die 3.
(ii) Ein Randpunkt ist nie ein innerer Punkt und umgekehrt, also gilt ∂M ∩ M̊ = ∅.
(iii) Im Rn sind ∅ und Rn die einzigen Mengen, die sowohl abgeschlossen als auch
offen sind.
(iv) Die Topologie hängt von der Definition der offenen Mengen ab. Bei uns also
von der Wahl der Norm.
(v) In endlich-dimensionalen Vektorräumen sind alle Normen äquivalent. Das bedeutet: Sind k·k1 , k·k2 beliebige Normen auf einem Vektorraum V , dann gibt
es Konstanten c1 , c2 > 0 so, dass
∀x ∈ V c1 kxk2 ≤ kxk1 ≤ c2 kxk2 .
Damit ist für das Verhältnis eines Punktes x ∈ Rn zu einer Menge M unerheblich, welche Norm verwendet wird. Ist beispielsweise x ein Randpunkt von
M bezüglich einer Norm, so gilt dies bezüglich jeder anderen Norm ebenfalls.
1.2.3 Lemma. Offene ε-Umgebungen sind offene Mengen.
Beweis. Es seien ε > 0, x0 ∈ Rn und x ∈ Uε (x0 ) (vergleiche Abbildung 1.4). Wir
setzen ε0 := ε − kx − x0 k > 0, dann ist Uε0 (x) ⊂ Uε (x0 ), denn für x0 ∈ Uε0 (x) gilt
kx0 − x0 k ≤ kx0 − xk + kx − x0 k < ε0 + kx − x0 k = ε.
Also folgt x0 ∈ Uε (x0 ).
Für offene und abgeschlossene Mengen gelten die folgenden „Rechenregeln“:
7
1.2. TOPOLOGIE
ε
Uε0 (x)
x ε0
x0 kx − x k
0
Uε (x0 )
Abbildung 1.4: Eine offene ε-Kugel ist eine offene Menge.
1.2.4 Satz.
(i) Der Durchschnitt endlich vieler offener Mengen ist offen.
(ii) Die Vereinigung unendlich vieler offener Mengen ist offen.
(iii) Der Durchschnitt unendlich vieler abgeschlossener Mengen ist abgeschlossen.
(iv) Die Vereinigung endlich vieler abgeschlossener Mengen ist abgeschlossen.
Beweis. Wir zeigen (i) und (iv):
Es seien Oj ⊂ Rn , j = 1, . . . , N offen und sei O :=
TN
j=1
Oj ihr Durchschnitt. Weiter
sei x ∈ O beliebig gewählt. Dann gilt ∀j = 1, . . . , N ∃rj : Urj (x) ⊂ Oj . Wir setzen
r := min { r1 , . . . , rN }, dann ist Ur (x) ⊂ Urj (x) für alle j = 1, . . . , N und damit
Ur (x) ⊂ O. Also ist x ein innerer Punkt von O.
Zur Aussage (iv): Es seien Aj ⊂ Rn , j = 1, . . . , N abgeschlossen. Dann sind
die Komplemente Acj nach Definition offen für j = 1, . . . , N und nach 1.2.4 (i) ist
T
T c
S
c
auch N
A
offen.
Nach
den
de
Morganschen
Regeln
gilt
A
=
(
Aj )c , also ist
j
j
j=1
S
c
S
N
offen und damit ist N
j=1 Aj
j=1 Aj nach Definition abgeschlossen.
1.2.5 Beispiele. Die Beschränkungen auf endlich viele Mengen in Satz 1.2.4 (i)
und (iv) ist notwendig:
(i) Betrachte die offenen Mengen Oj := − 1j , 1j , j ∈ N. Dann ist der (unendliche)
T
Durchschnitt j∈N Oj = { 0 } keine offene Menge.
(ii) Durch Ak := k1 , 1 werden für k ∈ N abgeschlossene Mengen definiert, deren
S
Vereinigung k∈N Ak = (0, 1] nicht abgeschlossen ist.
8
KAPITEL 1. DER N -DIMENSIONALE EUKLIDISCHE RAUM
1.2.6 Bemerkung. Hat man eine Menge R 6= ∅ und eine Menge O von Mengen,
welche bezüglich endlicher Durchschnitte und beliebiger Vereinigungen abgeschlossen ist, so nennt man (R, O) einen topologischen Raum. Der Rn ist mit der aus den
offenen Kugeln durch endliche Durchschnitte und beliebige Vereinigungen erzeugten
Menge der offenen Mengen ein topologischer Raum.
1.3
Folgen
1.3.1 Definition. Es sei (xk )k∈N eine Folge in Rn , wie in den reellen Zahlen bedeutet
dies, dass eine Abbildung ϕ : N → Rn mit ϕ(k) = xk ∈ Rn existiert.
(i) (xk )k∈N heißt beschränkt, wenn gilt:
∃K > 0 ∀k ∈ N : kxk k ≤ K.
(ii) (xk )k∈N heißt konvergent gegen den Grenzwert x ∈ Rn , wenn gilt:
∀ε > 0 ∃N ∈ N ∀k ∈ N : k ≥ N ⇒ kxk − xk < ε.
Wir schreiben wieder: limk→∞ xk = x oder xk → x für k → ∞.
(iii) (xk )k∈N heißt divergent, falls (xk ) nicht gegen ein x konvergiert.
(iv) (xk )k∈N heißt Cauchy-Folge, wenn gilt:
∀ε > 0 ∃N ∈ N∀m, ` : m, ` ≥ N ⇒ kx` − xm k < ε.
(v) (xk )k∈N heißt Nullfolge, wenn gilt: (xk ) → 0 für k → ∞.
Ebenfalls analog zum eindimensionalen Fall werden für Folgen in Rn die Begriffe
Teilfolge und Häufungspunkt definiert.
1.3.2 Beispiel. Die durch xk :=
R2 ist eine Nullfolge.
1 >
1
,
k k
Beweis. Es sei ε > 0. Wähle N 3 N >
falls k ≥ N .
1
k
1
k
!
−
! 0 =
0 1
k
1
k
=
√
2
.
ε
1
k
1
k
!
für k ∈ N definierte Folge (xk ) ⊂
Dann gilt
! s √
2 r
2
1
1
2
2
+
=
=
< ε,
=
2
k
k
k
k
9
1.3. FOLGEN
Die in Analysis I behandelten Sätze gelten analog im Mehrdimensionalen:
1.3.3 Satz. Es sei (xk )k∈N eine Folge in Rn . Dann gilt:
(i) Wenn (xk )k∈N konvergiert, dann ist der Grenzwert eindeutig bestimmt.
(ii) Wenn (xk )k∈N konvergiert, dann ist (xk )k∈N beschränkt. Die Kontraposition
lautet: Ist (xk )k∈N unbeschränkt, so auch divergent.
(iii) Satz von Bolzano-Weierstraß: Ist (xk )k∈N beschränkt, so existiert eine konvergente Teilfolge von (xk )k∈N .
(iv) Cauchy-Kriterium: (xk )k∈N ist genau dann konvergent, wenn (xk )k∈N eine
Cauchy-Folge ist. Dies bedeutet, dass der Rn vollständig ist.
(v) Grenzwertsätze: Summen und (skalares) Vielfaches konvergenter Folgen sind
konvergent. Damit ist auch durch die Folge der Skalarprodukte konvergenter
Folgen eine konvergente Folge gegeben.
(vi) Der Grenzwert kann komponentenweise betrachtet werden:

(1)


limk→∞ xk = x(1) ,




(2)
(2)
lim
k→∞ xk = x ,
lim xk = x ⇔
..
k→∞


.




(n)
lim
x = x(n) .
k→∞
k
(j)
Dabei bezeichnet xk die j-te Komponente (j = 1, . . . , n) des k-ten Folgengliedes xk .
Beweis. Diese Aussagen beweist man zur Übung leicht selber, dabei folgen viele Aussagen völlig analog zum eindimensionalen Fall. Für den Satz von BolzanoWeierstraß findet man zunächst mit dem eindimensionalen Satz eine Teilfolge, die
in der ersten Komponente konvergiert und kann dann von dieser iterativ Teilfolgen auswählen, die in immer mehr Komponenten konvergieren. Siehe zum Beispiel
[12].
1.3.4 Beispiele.
(i) Es sei durch xk =
k
1
k
!
eine Folge im R2 gegeben. Die erste
Komponente von (xk )k∈N ist offenbar unbeschränkt. Also divergiert (xk )k∈N
unabhängig vom Verhalten der zweiten Komponente.
10
KAPITEL 1. DER N -DIMENSIONALE EUKLIDISCHE RAUM
(ii) Wir betrachten die durch xk =
2+
1
k
1 k
k
1+
für k → ∞ nach den Grenzwertsätzen.
!
definierte Folge. Es gilt xk →
!
2
e
1.3.5 Bemerkung. In endlich-dimensionalen Vektorräumen wie dem Rn sind alle
Normen äquivalent (siehe Bemerkung 1.2.2 (v)). Daher kann man bei Konvergenzuntersuchungen je nach Situation auf eine besser geeignete Norm zurückgreifen, ohne
dass das Ergebnis der Untersuchung davon abhängt.
1.3.6 Bemerkung. Die Begriffe Abgeschlossenheit, Randpunkte und Häufungspunkte von Mengen aus Definition 1.2.1 kann man einfach in die Sprache der Folgen
übersetzen: Es sei ∅ =
6 M ⊂ Rn .
(i) x0 ist ein Häufungspunkt von M , falls eine Folge (xk )k∈N ⊂ M \{ x0 } existiert
mit xk → x0 für k → ∞.
(ii) x0 ist ein Randpunkt von M , wenn es Folgen (xk )k∈N ⊂ M und (x0k )k∈N ⊂ M c
gibt mit xk → x0 und x0k → x0 für k → ∞.
(iii) M ist abgeschlossen, wenn für jede konvergente Folge (xk )k∈N ⊂ M gilt, dass
es ein x0 ∈ M gibt mit xk → x0 für k → ∞.
1.3.7 Bemerkung. Über das Cauchy-Kriterium kann man Vollständigkeit in allgemeineren Räumen definieren. Ein vollständiger normierter Raum heißt BanachRaum, ein Vektorraum mit einem Skalarprodukt, der bezüglich der vom Skalarprodukt induzierten Norm vollständig ist, heißt Hilbert-Raum.
Kapitel 2
Funktionen mehrerer Veränderlicher
2.1
Skalar- und vektorwertige Funktionen
2.1.1 Definition.
(i) Eine reelle Funktion von mehreren Veränderlichen (Varia-
blen) ist eine Funktion




x1
f1 (x)
.


..  7→ f (x) =  ...  .
f : D ⊂ Rn → Rm , x = 
 


xn
fm (x)
Das heißt, f ordnet einem Vektor x = (x1 , . . . , xn )> aus dem Definitionsbereich
D ⊂ Rn einen Vektor f (x) = f (x1 , . . . , xn ) = (f1 (x), . . . , fm (x))> aus dem
Bildbereich Rm zu.
(ii) Je nach Dimension m des Bildbereichs unterscheidet man:
• m = 1 : skalare Funktion (Skalarfeld), das heißt f : D → R,
• m > 1 : vektorwertige Funktion (Vektorfeld).
Ist n = 1 und f stetig, heißt f Parameterdarstellung einer Kurve (siehe IIb,
Kapitel 6).
(iii) f heißt beschränkt, wenn es ein K > 0 gibt mit
∀x ∈ D : kf (x)k ≤ K.
2.1.2 Bemerkung. Ist die Dimension des Urbildraums n ≤ 3, so verwendet man
meist keine Indizes und schreibt statt x = (x1 , x2 , x3 )> dann x = (x, y, z)> . Hier be-
steht unter Umständen Verwechslungsgefahr durch die Bezeichnung für x als Vektor
oder Komponente!
11
12
KAPITEL 2. FUNKTIONEN MEHRERER VERÄNDERLICHER
2.1.3 Bemerkung. Zur Visualisierung skalarer Funktionen f : R2 → R kann man
(i) den Graph
(x, y, z)> x, y ∈ R, z = f (x, y) von f als Fläche im R3 ,
(ii) die Höhenlinien beziehungsweise Niveauflächen { (x, y) | f (x, y) = c } (c ∈ R
fest)
betrachten. Diese Begriffe lassen sich analog auch für skalarwertige Funktionen in
höheren Dimensionen definieren. Für vektorwertige Funktionen kann man diese Betrachtungen komponentenweise durchführen oder auch ein Vektorfeld zeichnen.
2
1
0
−1
−2
−2
−1
0
1
2
Abbildung 2.1: Vektorfeld der Funktion f (x, y) = ((1−2x2 )e−x
2 −y 2
, −2xye−x
2 −y 2
)> .
2.1.4 Beispiel. Wir skizzieren den Graph und die Höhenlinien der Funktion f :
R2 → R, f (x, y) = x2 + y 2 .
2
9
7
7
1
−2
0
0
2
−2
2
−2
−3
4
2
1
5
2
0
−1
0.
5
0
3
10
4
5
3
1
5
9
4
2
9
−2
5
7
−1
4
0
3
7
1
9
2
3
Abbildung 2.2: Graph (Paraboloid) und Höhenlinien von f (x, y) = x2 + y 2 .
13
2.2. STETIGKEIT
2.2
Stetigkeit
Wir definieren analog zu Analysis I mit Hilfe von Folgen die Stetigkeit von mehrdimensionalen Funktionen:
2.2.1 Definition. Eine Funktion f : D ⊂ Rn → R heißt
(i) stetig a ∈ D, wenn
∀ε > 0 ∃δ > 0 : x ∈ Uδ (a) ∩ D ⇒ f (x) ∈ Uε (f (a)).
(2.1)
Mit Hilfe der Norm notiert, erhält man die selbe Form wie in Analysis I:
∀ε > 0 ∃δ > 0∀x ∈ D : kx − ak < δ ⇒ |f (x) − f (a)| < ε.
(ii) Eine vektorwertige Funktion f : D ⊂ Rn → Rm , x 7→ (f1 (x), . . . , fm (x))>
heißt stetig in a ∈ D, wenn alle Komponentenfunktionen fi : D → R, 1 ≤ i ≤
m, in a stetig sind1 .
(iii) f heißt stetig auf D, wenn f stetig in allen a ∈ D ist.
Es gilt wieder das
2.2.2 Folgenkriterium. Eine Funktion f : D ⊂ Rn → Rm ist genau dann in
a ∈ D stetig, wenn für alle Folgen (ak )k∈N ⊂ D mit ak → a für k → ∞ gilt, dass
limk→∞ f (ak ) = f (a).
Wie in Analysis I gelten folgende „Rechenregeln“:
2.2.3 Satz.
(i) Es seien f, g : D ⊂ Rn → Rm stetig in a ∈ D und λ ∈ R. Dann
sind auch f ± g, f · g (falls m > 1 als Skalarprodukt interpretiert), λf , kf k
und falls g : D → R \ { 0 } auch
f
g
stetig in a ∈ D.
(ii) Es seien f : D1 ⊂ Rn → D2 ⊂ Rm in a ∈ D1 und g : D2 → Rd stetig in
f (a) ∈ D2 . Dann ist auch die Hintereinanderausführung g ◦ f : D1 → Rd
stetig in a ∈ D1 .
2.2.4 Bemerkung. Wie in der Analysis I muss man zum Nachweis von Stetigkeit
über das Folgenkriterium alle konvergenten Folgen an → a betrachten, das heißt,
für eine beliebige entsprechende Folge zeigen, dass auch f (an ) → f (a) gilt. Dazu
muss man einen geeigneten Ansatz wählen. Oft helfen dabei Polarkoordinaten oder
Reihenentwicklung (siehe unten).
Zum Nachweis der Unstetigkeit einer Funktion reicht es schon, eine Folge an → a
zu finden, für welche f (an ) → f (a) nicht gilt.
1
Man kann hier auch wieder (2.1) zur Definition heranziehen
14
KAPITEL 2. FUNKTIONEN MEHRERER VERÄNDERLICHER
2.2.5 Beispiel (Unstetigkeit zeigen). Betrachte die Funktion f : R2 → R mit

 xy
für (x, y)> 6= (0, 0)> ,
x2 +y 2
f (x, y) :=
0
für (x, y)> = (0, 0)> .
f ist nach Satz 2.2.3 für (x, y)> 6= (0, 0)> stetig. Zu untersuchen bleibt der Fall
0.5
0
−0.5
0.1
0
−0.1
0
0.1
−0.1
Abbildung 2.3: Zu Beispiel 2.2.5, man beachte die numerischen Artefakte auf der
durch x = y gegebenen Geraden, auf der die Funktion außerhalb des Ursprungs
konstant ist.
1 1 >
,
n n
(x, y)> = (0, 0)> . Betrachte dazu die durch an =
für n ∈ N gegebene Folge.
Diese hat offensichtlich den Grenzwert a = (0, 0)> – anschaulich nähern wir uns dem
Nullpunkt in der x − y-Ebene auf der ersten Winkelhalbierenden. Es gilt dann:
1 1
·
1 1
1
n n
lim f (an ) = lim f
,
= lim
2 = 6= 0 = f (0, 0) = f (a).
2
1
1
n→∞
n→∞
n→∞
n n
2
+
n
n
Somit ist f im Nullpunkt nach Definition 2.2.1 nicht stetig.
Vorsicht: Wählt man die Folge ungeschickt, sieht man die Unstetigkeit nicht:
>
Betrachten wir zum Beispiel die an = n1 , 0 für n ∈ N gegebene Folge mit an →
(0, 0)> (hier nähern wir uns dem Nullpunkt in der x − y-Ebene auf der x-Achse von
rechts), dann ist
lim f (an ) = lim f
n→∞
n→∞
1
, 0 = lim
n→∞
n
1
n
·0
1 2
n
+0
= 0 = f (0, 0).
Die alternative Argumentation mit dem kontinuierlichen Grenzwert hat folgende
Gestalt: Wir nähern uns dem Nullpunkt auf der Geraden y = x. Das heißt, wir
betrachten f (x, x). Dann gilt
lim
(x,y)→(0,0)
x=y
f (x, y) =
xy
x·x
x2
1
=
lim
=
lim
= 6= f (0, 0).
2
2
2
2
2
x→0 x + x
x→0 2x
(x,y)→(0,0) x + y
2
lim
x=y
15
2.2. STETIGKEIT
Auch hier kann die ungeschickte Wahl der Folge die Unstetigkeit „verbergen“:
lim
(x,y)→(0,0)
y=0
f (x, y) =
lim
(x,y)→(0,0) x2
y=0
x·0
xy
= 0 = f (0, 0).
= lim 2
2
x→0
+y
x +0
Damit existiert der Grenzwert lim(x,y)→(0,0) f (x, y) nicht.
Wir bemerken dazu: Bei mehrdimensionalen Grenzwertbetrachtungen darf man
die Grenzwerte im Allgemeinen nicht auseinanderziehen:
0·x
= 0,
x→0 x2 + 0
lim lim f (x, y) = lim
x→0 y→0
aber lim(x,y)→(0,0) f (x, y) existiert nach unseren Überlegungen nicht!
Ein wichtiges Hilfsmittel beim Nachweis der Stetigkeit von Funktionen sind
2.2.6 Polarkoordinaten. Jeder Punkt p = (px , py )> = (x, y)> der Ebene kann
durch seinen Abstand r zum Ursprung und den Winkel ϕ zur x-Achse in sogenannten
Polarkoordinaten (r, ϕ)> dargestellt werden. Der Winkel ϕ ∈ [0, 2π) ist eindeutig,
p
wenn p 6= 0 gilt. Genauer ist r = p2x + p2y = kpk der Abstand von p zum Ursprung
y
p
py = r sin(ϕ)
r
ϕ
px = r cos(ϕ)
x
Abbildung 2.4: Polarkoordinaten
und ϕ der von der x-Achse und der Strecke Op eingeschlossene Winkel (vergleiche
Abbildung 2.4). Es gilt beispielsweise tan ϕ =
y
x
für x 6= 0. Wir haben damit eine
bijektive Abbildung von R \ { 0 } → (0, +∞) × [0, 2π), (x, y)> 7→ (r, ϕ)> .
2
Auch in höheren Dimensionen kann man eine Verallgemeinerung von Polarkoor-
dinaten einführen (Kugelkoordinaten, sphärische Koordinaten, siehe Beispiel 5.3.6
und Bemerkung 7.3.7) und dann im Folgenden ähnlich argumentieren. Da es aber
für die Grenzwertproblematik bei mehreren Variablen genügt, den zweidimensionalen Fall zu betrachten, wollen wir das an dieser Stelle nicht vertiefen.
16
KAPITEL 2. FUNKTIONEN MEHRERER VERÄNDERLICHER
2.2.7 Beispiel (Stetigkeit mit Polarkoordinaten zeigen). Betrachte f : R2 → R mit
f (x, y) :=

√

1
x2 +y 2
· sin
1
p
x2 + y 2
für (x, y)> 6= (0, 0)> ,
für (x, y)> = (0, 0)> .
Die Funktion f ist nach Satz 2.2.3 für (x, y)> 6= (0, 0)> stetig.
Zu untersuchen bleibt daher der Fall (x, y)> = (0, 0)> : Wir betrachten eine beliebige
Folge (an )n∈N , an = (xn , yn )> → (0, 0)> , und schreiben die Koordinaten xn und yn
in Polarkoordinaten, das heißt an = (rn · cos ϕn , rn · sin ϕn )> → (0, 0)> . Es gilt dann
insbesondere rn → 0 für n → ∞. Diese Folge in f eingesetzt ergibt:
lim f (an ) = lim f (rn cos ϕn , rn sin ϕn )
n→∞
n→∞
1
= lim p
n→∞
rn2 cos2 ϕn + rn2 sin2 ϕn
1
sin rn = 1 = f (0, 0).
= lim
n→∞ rn
q
sin rn2 cos2 ϕn + rn2 sin2 ϕn
Damit haben wir gezeigt: Egal mit welcher Folge (an )n∈N wir uns dem Nullpunkt
nähern, erhalten wir den Grenzwert limn→∞ f (an ) = 1 = f (0, 0) und damit ist die
Funktion auch in (0, 0)> stetig.
2.2.8 Beispiel. Mit Hilfe von Polarkoordinaten kann man auch die Unstetigkeit von
Funktionen nachweisen. Wir betrachten noch einmal die Funktion aus Beispiel 2.2.5:

 xy
für (x, y)> 6= (0, 0)> ,
x2 +y 2
f (x, y) :=
0
für (x, y)> = (0, 0)> .
Ist (an )n∈N , an = (rn · cos ϕn , rn · sin ϕn )> 6= (0, 0)> eine Folge mit an → (0, 0) für
n → ∞, so gilt:
lim f (an ) = lim f (rn cos ϕn , rn sin ϕn )
n→∞
n→∞
= lim
rn cos ϕn · rn sin ϕn
cos2 ϕn + rn2 sin2 ϕn
n→∞ r 2
n
= lim cos ϕn · sin ϕn .
n→∞
Wählen wir ϕn =
π
4
konstant, dann ist
lim cos ϕn · sin ϕn =
n→∞
1
6= 0 = f (0, 0)
2
und die Funktion damit im Ursprung nicht stetig.
17
2.2. STETIGKEIT
2.2.9 Merkregel. Wenn der Grenzwert in Polarkoordinaten (tatsächlich) von ϕ =
limn→∞ ϕn abhängig ist, kann die Funktion in dem untersuchten Punkt nicht stetig
sein.
2.2.10 Bemerkung. Um die Stetigkeit oder Unstetigkeit mit Hilfe von Polarkoordinaten in einem beliebigen Punkt (x0 , y0 ) ∈ R2 zu untersuchen, führt man durch
p
r0 = (x − x0 )2 + (y − y0 )2 ,
und ϕ0 als Winkel zwischen (x, y) − (x0 , y0 ) und der durch y = y0 gegebenen Achse
in dem Punkt (verschobene) Polarkoordinaten ein.
Der Nachweis der Stetigkeit mit Polarkoordinaten ist nicht immer am Besten
geeignet (abhängig von der zu untersuchenden Funktion). Eine weitere Möglichkeit
ist die Nutzung von der Reihenentwicklung bekannter Funktionen (zum Beispiel
trigonometrische Funktionen oder Exponentialfunktion).
2.2.11 Beispiel (Reihenentwicklung zum Nachweis von Stetigkeit nutzen). Betrachte f : R2 → R mit

 1−cos(xy)
y
f (x, y) :=
0
für y 6= 0,
für y = 0.
f ist nach Satz 2.2.3 für (x, y)> ∈ R × (R \ { 0 }) stetig.
Es sei (an )n∈N = (xn , yn )> n∈N mit an → (x0 , 0) für n → ∞ ein beliebige
konvergente Folge. Wir schreiben f mit Hilfe der Reihendarstellung des Cosinus
cos(xy) =
∞
X
(−1)k
k=0
in der Form
f (x, y) =
1−
P∞
(2k)!
(−1)k
2k
k=0 (2k)! (xy)
y
1 2 2 1 4 4
x y + x y − ··· + ···
2!
4!
(xy)2k = 1 −
=
−
P∞
(−1)k
2k
k=1 (2k)! (xy)
y
2
= −x y
∞
X
(−1)k
k=1
(2k)!
(xy)2(k−1) .
Die Folge (xn )n∈N ist konvergent und damit beschränkt, etwa durch C. Damit gilt:
|f (xn , yn )| ≤
x2n
|yn |
≤ C 2 |yn |
∞
X
k=1
∞
X
k=1
1
|xn yn |2(k−1)
(2k)!
C 2(k−1)
|yn |2(k−1) .
(2k)!
Die Potenzreihe auf der rechten Seite ist konvergent, wie man leicht überprüft, und
stetig in y, insbesondere ist ihr Wert für kleine yn beschränkt, etwa durch C̃. Es gilt
daher
lim |f (an )| = lim |f (xn , yn )| ≤ lim C 2 C̃yn = 0.
n→∞
Also ist limn→∞ f (an ) = 0.
n→∞
n→∞
18
KAPITEL 2. FUNKTIONEN MEHRERER VERÄNDERLICHER
2.2.12 Zusammenfassung. Wir haben insbesondere folgende Möglichkeiten und
Hilfsmittel, um die Stetigkeit/Unstetigkeit einer Funktion zu zeigen:
• Unstetigkeit:
– Folgenkriterium: Finde eine Folge, welche bei der Definition von Stetigkeit
einen Widerspruch erzeugt (Beispiel 2.2.5).
– Polarkoordinaten: Ergebnis ist abhängig vom Winkel ϕ (Beispiel 2.2.8).
• Stetigkeit:
– Satz 2.2.3.
– Polarkoordinaten: Ergebnis in Einklang mit Definition (Beispiel 2.2.7).
– Reihenentwicklung: Ergebnis in Einklang mit Definition (Beispiel 2.2.11).
Welcher Weg letztendlich zum Ziel führt, hängt immer von der gegebenen Funktion
ab. Man muss im Allgemeinen verschiedene Vorgehensweisen durchprobieren.
2.3
Eigenschschaften stetiger Funktionen
Einige wichtige Eigenschaften stetiger Funktionen übertragen sich aus dem eindimensionalen Fall.
2.3.1 Satz von Weierstraß. Es seien ∅ =
6 D ⊂ Rn kompakt und f : D → R stetig.
Dann gilt:
(i) f (D) ⊂ R ist kompakt.
(ii) f nimmt Maxiumum und Minimum auf D an, das heißt
∃x∗ , x∗ ∈ D ∀x ∈ D : f (x∗ ) ≤ f (x) ≤ f (x∗ ).
Beweis. Dies zeigt man völlig analog zum eindimensionalen Fall.
Ist f : D → Rm mit m > 1, dann kann man den Satz von Weierstraß auf die Kompo-
nentenfunktionen anwenden. Im Allgemeinen nehmen die Komponentenfunktionen
aber in jeweils unterschiedlichen Stellen Maximum und Minumum an, das heißt
x∗i 6= x∗j etc. für i 6= j, wobei x∗i die Stelle des Maximums der i-ten Komponentenfunktion bezeichnet.
Um einen mehrdimensionalen Zwischenwertsatz bereitzustellen, müssen wir zunächst einen Aspekt des Intervallbegriffs aus R auf den Rn verallgemeinern.
19
2.3. EIGENSCHSCHAFTEN STETIGER FUNKTIONEN
2.3.2 Definition. Es sei D ⊂ Rn .
(i) Wir nennen D unzusammenhängend, falls es offene Mengen O1 , O2 ⊂ Rn gibt
mit
D ⊂ O1 ∪ O2 , D ∩ O1 ∩ O2 = ∅, D ∩ Oj 6= ∅ für j = 1, 2.
(ii) Wenn dies nicht der Fall ist, heißt D zusammenhängend.
2.3.3 Beispiel. Die Menge A in Abbildung 2.5 ist zusammenhängend, die Menge
B nicht.
A
B
Abbildung 2.5: Zusammenhang von Mengen
Anschaulicher und für offene Mengen äquivalent ist der Begriff „wegweise zusammenhängend“: Für je zwei Punkte von D gibt es einen Weg von endlicher Länge
(vergleiche Abschnitt 6.1), der die Punkte verbindet und ganz in D liegt.
2.3.4 Beispiel. Die durch
n
o
π
M = (x, y)> ∈ R2 y = x cos ∧ x ∈ (0, 1] ∨ (x, y) = (0, 0)>
x
gegebene (abgeschlossene) Menge ist zusammenhängend, aber nicht wegweise zusammenhängend, weil die Länge des Weges von (1, −1)> ∈ M nach (0, 0)> nicht
endlich ist (siehe auch Beispiel 6.1.3).
y
1
x
Abbildung 2.6: Eine zusammenhängende, aber nicht wegweise zusammenhängende
Menge (Beispiel 2.3.4).
20
KAPITEL 2. FUNKTIONEN MEHRERER VERÄNDERLICHER
Im Eindimensionalen fällt der Begriff des Zusammenhangs mit dem Intervallbe-
griff zusammen:
2.3.5 Lemma. Eine Menge D ⊂ R ist genau dann zusammenhängend, wenn sie
ein Intervall ist.
2.3.6 Zwischenwertsatz. Es seien ∅ 6= D ⊂ Rn zusammenhängend und f : D →
R stetig. Dann gilt:
(i) f (D) ⊂ R ist zusammenhängend.
(ii) Sind x1 , x2 ∈ D mit y1 = f (x1 ) < f (x2 ) = y2 , dann gibt es zu jedem y ∈ (y1 , y2 )
ein x ∈ D mit f (x) = y.
Beweis. Den Zwischenwertsatz zeigt man im Fall einer wegweise zusammenhängenden Menge D über den Weg g : [a, b] → D, der x1 und x2 verbindet und die verkettete
Funktion f ◦ g, welche die Voraussetzungen des eindimensionalen Zwischnwertsat-
zes erfüllt. Die allgemeine Situation und die Vorarbeiten sind zum Beispiel in [12]
dargestellt.
Kapitel 3
Differenzialrechnung mehrerer
Veränderlicher
Wir wollen die “Steigung” in einem Punkt einer mehrdimensionalen Funktion bestimmen. Anders als im eindimensionalen Fall, bei dem die Steigung eindeutig bestimmt
ist, hängt diese in höheren Dimensionen von der Richtung ab, aus der man sich dem
Punkt nähert. Stellt man sich ein “Funktionsgebirge” vor, so ist klar, dass man bei
einer Bewegung parallel zum Hang keine oder kaum Steigung hat und es in andere
Richtungen mehr oder weniger steil nach oben oder unten gehen kann. Während
man sich bei einem Punkt eines eindimensionalen Intervalls von höchstens zwei Seiten nähern konnte (Grenzwerte von links und von rechts), haben wir bereits in der
Ebene einen ganzen Kreis an Möglichkeiten. Wir betrachten zunächst die Situation, dass wir uns entlang der Achsen des Koordinatensystems bewegen, da dies am
einfachsten zu berechnen ist und im Fall “guter” Funktionen auch eine leichte Möglichkeit liefert, die Steigung oder Ableitung in beliebiger Richtung zu bestimmen,
was wir in Abschnitt 3.3 betrachten werden.
3.1
Partielle Ableitungen
Wir betrachten zunächst eine skalare Funktion f : D → R mit D ⊂ Rn offen. Weiter
sei a = (a1 , . . . , an )> ∈ D ein fester Vektor. Ersetzt man bis auf xj alle Variablen xi
(1 ≤ i 6= j ≤ n) durch die ai , dann ist durch
f˜j (xj ) := f (a1 , a2 , . . . , aj−1 , xj , aj+1 , . . . , an )
eine neue Funktion in einer Variablen definiert. Da D offen ist, existiert ein ε > 0
mit Uε (a) ⊂ D. Damit ist f˜j mindestens auf (aj − ε, aj + ε) definiert. Existiert die
Ableitung von f˜j in aj , so nennt man sie die partielle Ableitung von f nach xj . Das
21
22
KAPITEL 3. DIFF’RECHNUNG MEHRERER VERÄNDERLICHER
bedeutet, die partielle Ableitung nach xj ist die bekannte Ableitung im Eindimensionalen einer entsprechend eingeschränkten (alle anderen Argumente werden auf
konkrete Werte gesetzt) Funktion f˜j .
3.1.1 Definition. Es seien D ⊂ Rn offen, a ∈ D, f : D → R eine skalare Funktion
und ej der j-te kanonische Einheitsvektor.
(i) Dann heißt f in a partiell nach xj differenzierbar (1 ≤ j ≤ n), wenn der
Grenzwert
f (a + h · ej ) − f (a)
h→0
h
f (a1 , . . . , aj−1 , aj + h, aj+1 , . . . , an ) − f (a1 , . . . , an )
= lim
h→0
h
lim
existiert. Dieser Grenzwert heißt partielle Ableitung von f nach xj in a und
wird mit
∂f
∂
f (a),
(a), fxj (a), ∂j f (a)
∂xj
∂xj
bezeichnet.
(ii) Existiert die partielle Ableitung von f nach xj in allen a ∈ D, so heißt die
Funktion
fxj : D → R, x 7→ fxj (x)
die partielle Ableitung von f nach xj .
3.1.2 Beispiele.
(i) Es sei f : R2 → R, f (x1 , x2 ) = 3x1 x2 + 4x2 , dann ist
f (x0 + h, y0 ) − f (x0 , y0 )
∂
f (x0 , y0 ) = lim
h→0
∂x1
h
3(x0 + h)y0 + 4y0 − (3x0 y0 + 4y0 )
= lim
h→0
h
3hy0
= lim
= 3y0 .
h→0 h
Einfacher und schneller geht es, wenn man auf die bekannten Ableitungsregeln
zurückgreift, was nach unseren Vorbetrachtungen möglich und sinnvoll ist.
Wir bestimmen fx2 : Wir behandeln x1 wie eine Konstante und differenzieren
f (x1 , x2 ) nach x2 :
fx2 = 3x1 + 4.
23
3.1. PARTIELLE ABLEITUNGEN
z
f (a, b)
n x o
y
x
=
a
z
n x o
y
Gf ∩
x=a
z
tan ϕ =
ϕ
∂f
(a, b)
∂y
b
y
a
{ ( xy ) | x = a }
(a, b)
x
Abbildung 3.1: Partielle Ableitung
∂f
∂y
in y-Richtung. Der Graph von f geschnitten
mit der Ebene x = a liefert die vertraute eindimensionale Situation (Abbildung
angelehnt an [12]).
(ii) Es sei f : R3 → R, f (x, y, z) = y 2 x + 3x2 z 3 , dann ist
∂f
(x, y, z) = fx (x, y, z) = y 2 + 6xz 3 ,
∂x
∂f
(x, y, z) = fy (x, y, z) = 2xy + 0,
∂y
∂f
(x, y, z) = fz (x, y, z) = 0 + 9x2 z 2 .
∂z
(iii) Ein etwas komplizierteres Beispiel ist f : (0, +∞)2 → R, f (x, y) = x2y . Es gilt
∂f
∂f
(x, y) = 2yx2y−1 ,
(x, y) = 2 ln x · x2y .
∂x
∂y
Für Vektorfelder führen wir die Definition der partiellen Ableitungen auf die
partiellen Ableitungen der Komponentenfunktionen zurück:
24
KAPITEL 3. DIFF’RECHNUNG MEHRERER VERÄNDERLICHER
3.1.3 Definition. Es seien D ⊂ Rn offen, a ∈ D und f : D → Rm eine vektorwer-
tige Funktion. Dann heißt für 1 ≤ j ≤ n
>
∂f1
∂fm
∂f
(a) =
(a), . . . ,
(a)
fxj (a) =
∂xj
∂xj
∂xj
die partielle Ableitung von f in a nach xj , falls alle partiellen Ableitungen
∂fk
(a)
∂xj
für 1 ≤ k ≤ m existieren. Das heißt, die partielle Ableitung von f nach xj existiert
also, wenn die partielle Ableitungen nach xj aller skalaren Komponentenfunktionen
f1 , . . . , fm von f existieren. In diesem Fall ist fxj (a) gerade der Vektor, der die
partiellen Ableitungen der Komponentenfunktionen enthält.
3.1.4 Beispiel. Es sei f : R3 → R2 , f (x, y, z) =
y 2 x + 3x2 z 3
zx2 + 2yx
!
∂f1
(x, y, z)
∂x
∂f2
(x, y, z)
∂x
∂f
(x, y, z) =
fx (x, y, z) =
∂x
=
!
, dann ist
y 2 + 6xz 3
2xz + 2y
!
.
3.1.5 Definition. Es seien f : D ⊂ Rn → Rm , D offen und a ∈ D.
(i) Existieren alle partiellen Ableitungen
heißt

∂f1
(a)
∂x
 1


0
f (a) := 


..
.
..
.
∂fm
(a)
∂x1
∂fk
(a)
∂xj
∂f1
(a)
∂x2
..
.
..
.
···
die Jacobi-Matrix von f an der Stelle a.
···
..
.
..
.
mit 1 ≤ k ≤ m, 1 ≤ j ≤ n, dann

∂f1
(a)
∂xn

..
.
..
.


 ∈ Rm×n


m
(a)
· · · ∂f
∂xn
(ii) Im Fall m = 1 (also für skalare Funktionen f : D → R) heißt


∂f
(a)
 ∂x1. 
>
n×1
. 
∇f (a) = grad f (a) := (f 0 (a)) = 
 . ∈R
∂f
(a)
∂xn
der Gradient von f an der Stelle a.
Ein paar interessante Eigenschaften des Gradienten werden wir in Abschnitt 3.3
betrachten.
3.1.6 Beispiele.
(i) Es sei f : R2 → R, f (x, y) = ex sin y, dann ist
!
!
∂f
x
(x,
y)
e
sin
y
∂x
∇f (x, y) = ∂f
=
.
(x, y)
ex cos y
∂y
25
3.2. TOTALE DIFFERENZIERBARKEIT
(ii) Es sei f : R3 → R2 , f (x, y, z) =
x+y
xyz
0
f (x, y, z) =
!
, dann ist
1
1
0
yz xz xy
!
.
3.1.7 Bemerkung und Beispiel. Im Eindimensionalen impliziert Differenzierbarkeit Stetigkeit: Ist f : R → R differenzierbar in a ∈ R, dann ist f auch stetig
in a. Dies gilt für partiell differenzierbare Funktionen im Allgemeinen nicht! Wir
betrachten dazu wieder die Funktion aus Beispiel 2.2.5:
2
f : R → R, f (x, y) :=


xy
x2 +y 2
0
für (x, y) 6= (0, 0),
für (x, y) = (0, 0).
Diese ist im Nullpunkt (0, 0) nicht stetig. Es gilt aber:
∂f
f (0 + h, 0) − f (0, 0)
(0, 0) = lim
= lim
h→0
h→0
∂x
h
und analog
∂f
(0, 0)
∂y
h·0
h2 +0
h
−0
=0
= 0. Das heißt, f ist im Punkt (0, 0) nicht stetig aber partiell
differenzierbar mit ∇f (0, 0) = (0, 0)> .
3.2
Totale Differenzierbarkeit
Wir betrachten nun den Aspekt der Ableitung als Approximation der Funktion durch
eine (affin) lineare Funktion. Im Eindimensionalen gab es hier keinen wesentlichen
Unterschied: zwischen der Bestimmung der Steigung der Tangente an den Graph in
einem Punkt a – gegeben durch f 0 (a) – und der Bestimmung der Tangente selber –
τa (x) = f (a)+f 0 (a)(x−a) – liegt nur ein kurzes Zusammenfügen bekannter Funktionen und Werte. Im mehrdimensionalen Fall orientieren wir uns am Darstellungssatz
für differenzierbare Funktionen. Für eine differenzierbare Funktion f : R → R lautet
dieser
f (x) = f (a) + f 0 (a)(x − a) + ϕ(x).
wobei ϕ : R → R in a stetig ist und limx→a
ϕ(x)
|x−a|
= 0 gilt. Wir wollen eine gege-
bene Funktion f : R → R analog als affin lineare Funktion plus einen Fehlerterm
n
schreiben, der im untersuchten Punkt schnell genug Null wird („verschwindet“):
26
KAPITEL 3. DIFF’RECHNUNG MEHRERER VERÄNDERLICHER
3.2.1 Definition. Es seien D ⊂ Rn offen, a ∈ D und f : D → Rm eine Funktion.
Dann heißt f
(i) in a total differenzierbar, wenn es eine m × n-Matrix A gibt, so dass f in der
Form
f (x) = f (a) + A · (x − a) + ϕ(x)
geschrieben werden kann, wobei ϕ : D → Rm eine in a stetige Abbildung ist,
für die
kϕ(x)k
=0
x→a kx − ak
lim
gilt. A heißt dann auch die totale Ableitung von f in a.
(ii) total differenzierbar, wenn in f in jedem a ∈ D total differenzierbar ist.
3.2.2 Bemerkungen.
(i) Ist f in a total differenzierbar, so ist f in a partiell
differenzierbar und es gilt A = f 0 (a) (siehe zum Beispiel [12]). Daher und
wegen 3.2.10 sprechen wir oft nur von Differenzierbarkeit und lassen den Zusatz
„total“ meistens weg.
Dabei ist A = f 0 (a) anschaulich sinnvoll, da die Tangenten in die Achsenrichtungen in der durch die affin lineare Funktion beschriebenen Ebene liegen
(sollten). Dass es sich dabei um eine notwendige und keine hinreichende Bedingung handelt, sehen wir in Beispiel 3.2.7.
(ii) f 0 (a) ∈ Rm×n ist die Jacobi-Matrix, A · (x − a) = f 0 (a) · (x − a) bezeichnet
eine Matrix-Vektor-Multiplikation (im Fall m = 1 entspricht sie dem Skalarprodukt).
(iii) Für n = m = 1 stimmt die Definition 3.2.1 mit dem Darstellungssatz für
differenzierbare Funktionen überein.
3.2.3 Definition. Ist f : D ⊂ Rn → Rm differenzierbar in a ∈ D, also
f (x) = f (a) + f 0 (a)(x − a) + ϕ(x),
dann heißt
τa (x) = f (a) + f 0 (a)(x − a)
die Tangentialebene oder lineare Approximation von f in a. Für n = m = 1 entspricht
dies der Tangente an f in a.
27
3.2. TOTALE DIFFERENZIERBARKEIT
z
τ (x, y) = f (a, b) + f 0 (a, b) ·
f (a, b)
x−a
y−b
!
b
y
a
(a, b)
x
Abbildung 3.2: Tangentialebene (Abbildung angelehnt an [12]).
3.2.4 Bemerkungen.
(i) Für skalarwertige Funktionen f : D ⊂ R2 → R kann
man sich die Tangentialebene veranschaulichen. In einer Umgebung des Punktes ã = (a1 , a2 , f (a1 , a2 )) ∈ Gf wird der Graph von f durch die Ebene mit der
Gleichung
z = f (a1 , a2 ) + f 0 (a1 , a2 ) ·
x
y
!
−
a1
!!
a2
!
x
−
a
1
= f (a1 , a2 ) + ∂f
(a1 , a2 ) ∂f
a ,a ) ·
∂x
∂y 1 2
y − a2
∂f
∂f
= f (a1 , a2 ) +
(a1 , a2 ) · (x − a1 ) +
(a1 , a2 ) · (y − a2 )
∂x
∂y
approximiert. Wie gut die Approximation ist, hängt von der gegebenen Funktion f und vom Abstand von (x, y)> zu a ab. Der allgemeine Fall xn+1 =
f (a1 , . . . , an ) + f 0 (a1 , . . . , an )(x1 − a1 , . . . , xn − an )> ist analog.
28
KAPITEL 3. DIFF’RECHNUNG MEHRERER VERÄNDERLICHER
(ii) Funktionswerte und „Steigungen“ (Jacobi-Matrizen) der Approximation τa und
der Funktion f stimmen in a überein:
τa (a) = f (a) + f 0 (a)(a − a) = f (a),
τa0 (a) = (f (a) + f 0 (a)(x − a)) = f 0 (a).
(iii) Man vergleiche diese lineare Approximation von Funktionen mit dem Satz von
Taylor in Analysis I, sie liefert eine Andeutung für den noch zu behandelnden
Satz von Taylor im Mehrdimensionalen, Satz 3.4.8.
3.2.5 Beispiel. Es sei f : R2 → R, f (x, y) = −x2 − y 2 . Bestimme die Tangen-
tialebene (lineare Approximation) von f im Punkt ã = (0, 2, f (0, 2))> ∈ Gf . Es
gilt:
∂f
(x, y)
∂x
lautet also:
= −2x und
∂f
(x, y)
∂y
= −2y. Die Ebenengleichung der Tangentialebene
τ(0,2) (x, y) = z = f (0, 2) +
∂f
∂f
(0, 2) · (x − 0) +
(0, 2) · (y − 2)
∂x
∂y
= −4 + 0 − 4(y − 2) = −4y + 4.
Die Tangentialebene wird also beschrieben durch die Gleichung 4y + z − 4 = 0.
20
0
−20
−40
−5
0
x
5
−4
−2
2
0
4
y
Abbildung 3.3: Tangentialebene an f (x, y) = −x2 − y 2 im (0, 2, −4)> .
Wie in Analysis I gilt für total differenzierbare Funktionen:
3.2.6 Satz. Es sei f : D ⊂ Rn → Rm total differenzierbar in a ∈ D. Dann ist f
stetig in a.
29
3.2. TOTALE DIFFERENZIERBARKEIT
Beweis. Analog zum eindimensionalen Fall: Es sei f differenzierbar in a. Dann gilt:
lim f (x) = f (a) + f 0 (a) lim (x − a) + lim ϕ(x) = f (a).
x→a
x→a
x→a
Das folgende Beispiel zeigt, dass die Existenz der partiellen Ableitungen nicht für
totale Differenzierbarkeit ausreicht.
3.2.7 Beispiel. Durch
f (x, y) =


xy 3
x2 +y 4
0,
, (x, y)> 6= (0, 0)> ,
sonst,
ist eine überall partiell differenzierbare Funktion gegeben, die aber in (0, 0)> nicht
total differenzierbar ist. Für (x, y)> 6= (0, 0)> gilt nämlich
0.5
0
−0.5
−1
−0.5
x
0
0.5
0.5
0
1 −1
−0.5
1
y
Abbildung 3.4: Zu Beispiel 3.2.7
∂f
y 3 (x2 + y 4 ) − 2x2 y 3
∂f
3xy 2 (x2 + y 4 ) − 4xy 6
(x, y) =
und
(x,
y)
=
∂x
(x2 + y 4 )2
∂y
(x2 + y 4 )2
sowie
∂f
(0, 0)
∂x
=0=
∂f
(0, 0).
∂y
Nehmen wir an, dass f in (0, 0)> total differenzierbar
wäre, dann gäbe es ein ϕ(x, y) mit
ϕ(x, y) = f (x, y) − f (0, 0) − f 0 (0, 0) ((x, y) − (0, 0)) = f (x, y)
und
ϕ(x,y)
k(x,y)> k
→ 0 für (x, y)> → (0, 0)> . Wir betrachten (t2 , t)> mit t → 0+ :
ϕ(t2 , t)
t5
t5
1
p
√
=
≥ √
= √ 6→ 0
4
4
2
5
2
2
2
2t t + t
2 2t
2 2
(t ) + t
für t → 0, ein Widerspruch.
30
KAPITEL 3. DIFF’RECHNUNG MEHRERER VERÄNDERLICHER
3.2.8 Satz. Es sei f : D ⊂ Rn → Rm in einer Umgebung Uε (a) partiell differen-
zierbar und die partiellen Ableitungen von f seien in a ∈ D stetig. Dann ist f in a
total differenzierbar.
3.2.9 Beispiel. Betrachte die Funktion f : R2 → R mit
f (x, y) :=


x2 y 2
x2 +y 2
0
für (x, y)> 6= (0, 0)> ,
für (x, y)> = (0, 0)> .
Wir berechnen zunächst mit der Quotientenregel die partiellen Ableitungen von f
für den Fall (x, y)> 6= (0, 0)> :
fx (x, y) =
2xy 2 (x2 + y 2 ) − 2x3 y 2
2xy 4
2x4 y
=
und
f
(x,
y)
=
.
y
(x2 + y 2 )2
(x2 + y 2 )2
(x2 + y 2 )2
Mit Hilfe der Definition berechnen wir die partiellen Ableitungen von f im Ursprung:
f (x + h, 0) − f (0, 0)
= 0 = fy (0, 0).
h→0
h
fx (0, 0) = lim
Es gilt also:
∇f (x, y) :=


4
2xy 4
, 2x y
(x2 +y 2 )2 (x2 +y 2 )2
(0, 0)>
>
für (x, y)> 6= (0, 0)> ,
für (x, y)> = (0, 0)> .
Es bleibt noch zu zeigen, dass ∇f im Ursprung stetig ist. Wir verwenden dazu
Polarkoordinaten:
lim
(x,y)→(0,0)
2r cos ϕ · r4 sin4 ϕ
= 0 = fx (0, 0).
r→0
r4
fx (x, y) = lim
Analog folgt lim(x,y)→(0,0) fy (x, y) = 0 = fy (0, 0). Also ist f nach Satz 3.2.8 in (0, 0)>
(total) differenzierbar. Da ∇f nach Satz 2.2.3 für (x, y)> 6= (0, 0)> stetig ist, ist f
überall (total) differenzierbar.
3.2.10 Bemerkung. Achtung! Die Umkehrung von Satz 3.2.8 gilt nicht (siehe Beispiel 3.2.11, Übungen und Tutorien). Aber: Wenn U offen ist und f auf U total
differenzierbar ist, dann ist f dort auch stetig partiell differenzierbar und umgekehrt. Das heißt im Fall von offenen Mengen stimmen die Begriffe überein, weshalb
man dann auch f nur als eine differenzierbare Funktion bezeichnet.
31
3.2. TOTALE DIFFERENZIERBARKEIT
3.2.11 Beispiel. Wir betrachten die Funktion f : R2 → R,

(x2 + y 2 ) sin 1 , (x, y)> 6= (0, 0)> ,
x2 +y 2
f (x, y) =
0,
sonst.
f ist offenbar in R2 \ { 0 } partiell differenzierbar und es gilt
∂f
1
1
2
2
2
2 −2
(x, y) = 2x sin 2
+
(x
+
y
)(−2x)(x
+
y
)
cos
∂x
x + y2
x2 + y 2
1
2x
1
= 2x sin 2
− 2
cos 2
,
2
2
x +y
x +y
x + y2
1
∂f
2y
1
(x, y) = 2y sin 2
− 2
cos 2
.
2
2
∂y
x +y
x +y
x + y2
Weiter gilt
h2 sin h12
∂f
∂f
(0, 0) = lim
=0=
(0, 0),
h→0
∂x
h
∂y
da sin h12 ≤ 1. Aus diesem Grund ist f auch auf R2 stetig, wie man durch Wechsel
zu Polarkoordinaten sofort sieht. Die partiellen Ableitungen sind im Ursprung aber
nicht stetig, denn beispielsweise existiert für
fx (x, y) = 2x sin
x2
1
2x
1
− 2
cos 2
2
2
+y
x +y
x + y2
der Grenzwert für (x, y)> → (0, 0)> nicht: Zunächst konvergiert der erste Summand
immer gegen Null, wenn x → 0. Wir betrachten daher nur den zweiten Summanden
und setzen x = y. Dann ist der Summand
2x
1
1
1
cos 2 = cos 2
2
2x
2x
x
2x
auf der Folge (xk )k∈N , xk =
1 und
1
xk
→ ∞ für k → ∞.
√1
4kπ
für k ∈ N, nicht beschränkt, da cos 2x12 = cos 2kπ =
k
Die Funktion ist aber dennoch total differenzierbar in (0, 0)> : Zu zeigen ist: Es
gibt eine Funktion ϕ : R2 → R, die in (0, 0)> stetig ist, für die lim(x,y)→(0,0)
gilt und die
f (x) = f (0, 0) + f 0 (0, 0) ·
x
y
!
ϕ(x,y)
k(x,y)k
=0
+ ϕ(x, y)
erfüllt.
Wegen f (0, 0) = 0 und f 0 (0, 0) = 0 muss ϕ(x, y) = f (x, y) gelten, wenn f in
(0, 0)> total differenzierbar ist. Da f stetig ist, bleibt nur noch lim(x,y)→(0,0)
zu untersuchen. Wir verwenden Polarkoordinaten (rφ) und erhalten
r2
1
f (r, φ)
= lim sin 2 = 0,
r→0
r→0 r
r
r
lim
wiederum wegen der Beschränktheit des Sinus.
ϕ(x,y)
k(x,y)k
32
KAPITEL 3. DIFF’RECHNUNG MEHRERER VERÄNDERLICHER
3.2.12 Ableitungsregeln. Es seien f, g : D ⊂ Rn → Rm in a ∈ D differenzierbar
und λ ∈ R. Dann sind auch f + g, λf , f > g = hf, gi und kf k2 in a differenzierbar
und es gilt:
(i) (f + g)0 (a) = f 0 (a) + g 0 (a),
(ii) (λf )0 (a) = λf 0 (a),
(iii) (f > g)0 (a) = f (a)> g 0 (a) + g(a)> f 0 (a) und
(iv) (kf k2 )0 (a) = 2f (a)> f 0 (a).
Diese Aussagen folgen sofort mit der Definition und den Grenzwerteigenschaften,
die ersten beiden Eigenschaften bedeuten die Linearität der Ableitung, die dritte ist
eine mehrdimensionale Version der Produktregel.
3.2.13 Kettenregel. Es sei f : D1 ⊂ Rn → D2 ⊂ Rm in a ∈ D1 differenzierbar
und sei g : D2 → Rd in f (a) ∈ D2 differenzierbar. Dann ist auch h = g◦f : D1 → Rd
in a differenzierbar und es gilt:
h0 (a) = (g ◦ f )0 (a) = g 0 (f (a)) · f 0 (a),
dabei bezeichnet · im Allgemeinen hier eine Matrizenmultiplikation. Komponentenweise gilt
m
X ∂gk
∂fj
∂hk
(a) =
(f (a))
(a).
∂xi
∂yj
∂xi
j=1
3.2.14 Beispiel. Gegeben!seien die Funktionen f : R2 → R, f (x, y) = x2 + 3y und
cos t
g : R → R2 , g(t) =
. Wir berechnen die Ableitung von f ◦ g : R → R: Über
t
den direkten Weg ist (f ◦ g)(t) = f (g(t)) = f (cos t, t) = cos2 t + 3t und damit
(f ◦ g)0 (t) = 2 cos t(− sin t) + 3.
Mit der Kettenregel
gilt (f ◦ g)0 (t) = f 0 (g(t)) · g 0 (t), wobei f 0 (x, y) = (2x 3) und
!
− sin t
g 0 (t) =
. Also ist
1
!
−
sin
t
f 0 (g(t)) · g 0 (t) = (2 cos t 3) ·
= −2 cos t sin t + 3.
1
Im vorliegenden Fall kann man auch g ◦ f : R2 → R2 betrachten, dann ist
!
2
−
sin(x
+
3y)
g 0 (f (x, y)) · f 0 (x, y) =
· (2x 3)
1
!
−2x sin(x2 + 3y) −3 sin(x2 + 3y)
=
.
2x
3
33
3.2. TOTALE DIFFERENZIERBARKEIT
3.2.15 Beispiel (Künstliche Neuronale Netze). Wir betrachten ein Neuron, dass
von n Neuronen Signale s1 , . . . , sn empfangen kann. Die einzelnen Signale si gehen
mit dem Gewicht xi , i = 1 . . . , n in die Ausgabe des Neurons ein – dadurch können
zum Beispiel unterschiedlich starke Verbindungen zum Neuron modelliert werden.
Das Signal, welches das Neuron aussendet ist dann eine differenzierbare Funktion
P
ϕ ( ni=1 xi si ). Erreicht werden soll nun, dass das Neuron bei festen Eingangssigna-
len ein vorgegebenes Ausgangssignal s0 ausgibt, das heißt, es lernt. Den Fehler im
Ausgangssignal berechnet man als Funktion der Gewichte mit
2
!
n
X
E(x1 , . . . , xn ) = ϕ
xk s k − s 0 =
ϕ
k=1
n
X
xk s k
k=1
!
− s0
!2
,
wobei wir mit v 2 = v > · v etwas ungenau das Skalarprodukt eines Vektors v mit
sich selbst bezeichnen und man betrachtet hier das Quadrat, um eine differenzierbare Funktion zu erhalten. Um den Fehler zu minimieren, das gewünschte Signal
also möglichst gut zu lernen, ändert man die Gewichte dann nach einem Gradientenverfahren. Dafür wird ausgenutzt, dass nach 3.3.8 der Gradient in Richtung
des stärksten Anstiegs zeigt, man mit neuen Gewichten, die in die entgegengesetzte
Richtung zum Gradienten gehen, das Ergebnis also verbessert (den Fehler verringert). Dazu muss der Gradient des Fehlers bestimmt werden. Nach der Kettenregel
gilt
n
X
∂E
(x1 , . . . , xn ) = 2 ϕ
xk s k
∂xi
k=1
=2 ϕ
n
X
k=1
xk s k
!
!
− s0
!
!
∂
∂xi
− s0 ϕ0
ϕ
n
X
xk s k
k=1
n
X
k=1
x k sk
!
!
− s0
!
si .
∂E
und iteriert das VerfahAls neues Gewicht verwendet man dann x̃i = xi − γ ∂x
i
ren (γ ist die “Lernrate”). In der Angewandten Numerik und in Optimierung wird
untersucht, wann solche und andere Verfahren zum Erfolg führen (konvergieren beziehungsweise auch tatsächlich die gesuchten Ergebnisse liefern).
3.2.16 Mittelwertsatz. Es seien f : D ⊂ Rn → R differenzierbar und x1 , x2 ∈ D
mit x1 x2 := { x1 + t(x2 − x1 ) | t ∈ [0, 1] } ⊂ D. Dann gibt es ein ξ ∈ (0, 1) mit
f (x2 ) − f (x1 ) = f 0 (x1 + ξ(x2 − x1 )) · (x2 − x1 ).
Die Menge x1 x2 bezeichnet die Strecke, die x1 und x2 verbindet. Der Punkt
x1 + ξ(x2 − x1 ) mit ξ ∈ (0, 1) ist dann ein innerer Punkt der Strecke x1 x2 .
34
KAPITEL 3. DIFF’RECHNUNG MEHRERER VERÄNDERLICHER
Beweis. Wir betrachten die reelle Hilfsfunktion h(t) := f (x1 + t(x2 − x1 )). Die-
se ist auf [0, 1] stetig und auf (0, 1) differenzierbar. Nach dem (eindimensionalen)
Mittelwertsatz gibt es ein ξ ∈ (0, 1) mit h(1) − h(0) = h0 (ξ). Weiter gilt mit der
mehrdimensionalen Kettenregel 3.2.13
h0 (t) = f 0 (x1 + t(x2 − x1 )) · (x2 − x1 ).
An der Stelle t = ξ gilt dann
f (x2 ) − f (x1 ) = h(1) − h(0) = h0 (ξ) = f 0 (x1 + ξ(x2 − x1 )) · (x2 − x1 ).
Für vektorwertige Abbildungen existiert eine Version des Mittelwertsatzes in Integralform, siehe zum Beispiel [12]. Die oben gezeigte Variante ist nicht verwendbar,
da die Komponentenfunktionen in diesem Fall im Allgemeinen die verwendeten Zwischenstellen für den eindimensionalen Mittelwertsatz nicht jeweils gleich wären.
3.3
Richtungsableitung
Bei den partiellen Ableitungen haben wir untersucht, wie sich die Funktionswerte
entlang den Koordinatenachsen ändern. Im Mehrdimensionalen können wir uns einem Punkt des Definitionsgebietes einer Funktion aber aus beliebigen Richtungen
nähern.
3.3.1 Definition. Es seien f : D ⊂ Rn → R eine Funktion, a ∈ D und e ∈ Rn mit
kek = 1. Dann heißt f in a in Richtung e differenzierbar, wenn der Grenzwert
lim+
h→0
f (a + h · e) − f (a)
h
existiert. Dieser Grenzwert heißt Richtungsableitung von f in a Richtung e und wird
mit
∂f
(a), ∂e f (a)
∂e
bezeichnet.
3.3.2 Beispiel. Die Funktion f (x, y) =
p
x2 + y 2 besitzt in (0, 0)> die Richtungs-
ableitungen in alle Richtungen, denn sei e ∈ R2 mit kek = 1, so existiert ein ϕ, so
dass e = (e1 , e2 )> = (cos ϕ, sin ϕ)> und
p
f (he1 , he2 ) − 0
h2 cos2 ϕ + h2 sin2 ϕ
|h|
=
=
= 1,
h
h
h
für h > 0, also auch im Grenzwert für h → 0+ .
35
3.3. RICHTUNGSABLEITUNG
3.3.3 Bemerkungen.
(i) Am obigen Beispiel sieht man, dass zwar für alle Rich-
tungen e die Richtungsableitung ∂e f existieren kann, aber die Funktion dann
weder partiell noch total differenzierbar sein muss.
(ii) Zur Übung überzeuge man sich, dass die Funktion in Beispiel 3.2.7 in jede
Richtung, aber wie bereits gezeigt nicht total, differenzierbar ist.
(iii) Der Grenzwert
f (a + h · e) − f (a)
h→0
h
lim
existiert genau dann, wenn
∂f
(a)
∂e
und
∂f
(a)
∂(−e)
existieren und unterschiedliche
Vorzeichen haben. In diesem Fall schreiben wir
De f (a) =
∂f
∂f
(a) = −
(a).
∂e
∂(−e)
Anschaulich hat der Graph der Funktion in dieser Situation in (a, f (a))> über
der Geraden in Richtung e durch a keinen „Knick“.
(iv) Die partiellen Ableitungen einer Funktion hängen mit den Richtungsableitungen also dergestalt zusammen, dass für die kanonischen Einheitsvektoren ej
gilt
∂f
∂xj
= Dej f , falls existent.
3.3.4 Beispiel. Wir betrachten erneut die Funktion f : R2 → R mit

 x2 y 2
für (x, y) 6= (0, 0),
2
2
f (x, y) := x +y
0
für (x, y) = (0, 0)
aus Beispiel 3.2.9 und bestimmen die Richtungsableitungen der Funktion im Urp
sprung. Es sei e = (e1 , e2 )> mit kek = e21 + e22 = 1. Dann gilt
f (0 + h · e) − f (0)
f (he1 , he2 ) − f (0, 0)
∂f
(0, 0) = lim+
= lim+
h→0
h→0
∂e
h
2 2h 2 2 1
h e1 h e2
= lim+
= lim+ he21 e22 = 0,
2
2
2
h→0 h
h→0
h (e1 + e2 )
das heißt alle Richtungsableitungen in (0, 0) existieren und sind Null.
Man muss nicht immer die Definition zum Berechnen der Richtungsableitung
verwenden. Der folgende Satz liefert ein Hilfsmittel zur Berechnung der Richtungsableitung, falls die Funktion total differenzierbar ist.
3.3.5 Satz. Es sei f : D ⊂ Rn → R in a ∈ D (total) differenzierbar. Dann
existieren in a alle Richtungsableitungen und für alle e ∈ Rn mit kek = 1 gilt
36
(i)
KAPITEL 3. DIFF’RECHNUNG MEHRERER VERÄNDERLICHER
∂f
(a)
∂e
= f 0 (a) · e = ∇f > (a) · e,
≤ kf 0 (a)k.
(ii) ∂f
(a)
∂e
Beweis. (I) Da f differenzierbar ist, gilt:
f (x) = f (a) + f 0 (a)(x − a) + ϕ(x)
mit einer entsprechenden Funktion ϕ. Für x = a + he 6= a, h > 0, gilt also
f (a + he) = f (a) + f 0 (a)(a + he − a) + ϕ(a + he)
⇔
f 0 (a)he ϕ(a + he)
f (a + he) − f (a)
=
+
h
h
h
∂f
f (a + he) − f (a)
⇒
(a) = lim
= f 0 (a) · e.
h→0
∂e
h
(II) Mit der Cauchy-Schwarzschen Ungleichung gilt
∂f (a) = kf 0 (a) · ek ≤ kf 0 (a)k · kek = kf 0 (a)k .
∂e 3.3.6 Beispiele.
(i) Wir betrachten noch einmal die Funktion aus den Beispie-
len 3.2.9 und 3.3.4:
f (x, y) :=


x2 y 2
x2 +y 2
0
für (x, y)> 6= (0, 0)> ,
für (x, y)> = (0, 0)> .
In Beispiel 3.2.9 haben wir bereits gezeigt, dass f im Ursprung total differenzierbar ist. Satz 3.3.5 ist also anwendbar. Im Ursprung gilt f 0 (0, 0) = (0, 0)
nach 3.2.9. Damit ist für alle e ∈ R2 mit kek = 1 die Richtungsableitung
∂f
(0, 0) = f 0 (0, 0) · e = 0.
∂e
(ii) Es sei f : R3 → R, f (x, y, z) = x2 cos y ez . Wir berechnen
tung v =
√1 (1, 1, 1)> .
3
∂f
(1, 0, 1)
∂v
in Rich-
Es gilt
f 0 (x, y, z) = (2x cos y ez − x2 sin y ez x2 cos y ez ).
Mit Satz 3.3.5 folgt dann:
 
 
1
1
∂f
1  
1   √
0
(1, 0, 1) = f (1, 0, 1) · √ 1 = (2e 0 e) · √ 1 = 3e.
∂v
3
3
1
1
37
3.3. RICHTUNGSABLEITUNG
20
0
−20
−40
5
−60
−4
0
−2
0
2
x
y
4 −5
Abbildung 3.5: Zu Beispiel 3.3.6 (iii)
(iii) Es sei f : R2 → R, f (x, y) = −3x2 − y 2 + 5. In welcher Richtung e hat die
Tangente an den Graph Gf im Punkt (1, 1, f (1, 1)) die Steigung 2? Es gilt
!
!
e
e
∂f
1
1
(1, 1) = f 0 (1, 1) ·
= (−6x − 2y)x=y=1 ·
∂e
e2
e2
!
(3.1)
= −6e1 − 2e2 = 2.
Weiter gilt nach Definition der Richtungsableitung
(3.2)
e21 + e22 = 1.
Wir haben also ein nichtlineares Gleichungssystem mit zwei Unbekannten. Die
Gleichung (3.1) ist äquivalent zu e2 = −3e1 − 1, was wir in (3.2) einsetzen:
e21 + (3e1 + 1)2 = 1 ⇔ 10e21 + 6e1 = e1 (10e1 + 6) = 0.
Als Lösungen erhalten wir
(a) e1 = 0 und damit e2 = −1, also e = (0, −1)> und
(b) e1 6= 0, was e1 = − 53 bedingt, woraus e2 =
folgt, wenn man für das
>
Vorzeichen noch (3.1) berücksichtigt. Hier ist also e = − 53 , 45 .
4
5
3.3.7 Bemerkung und Beispiel. Satz 3.3.5 liefert eine weitere Möglichkeit, um
zu zeigen, dass eine Funktion nicht total differenzierbar ist. Zur Übung betrachte
die Funktion f : R2 → R mit
f (x, y) =

 √x|y|
x2 +y 2

0
für (x, y)> 6= (0, 0)> ,
für (x, y)> = (0, 0)>
38
KAPITEL 3. DIFF’RECHNUNG MEHRERER VERÄNDERLICHER
und zeige, dass diese im Ursprung stetig und in jede Richtung differenzierbar (es
existiert sogar De f (0, 0) für jede Richtung e) aber nicht (total) differenzierbar ist.
Hinweis: Die Stetigkeit zeigt man mit Hilfe von Polarkoordinaten, die Richtungsableitung berechnet man mit der Definition.
3.3.8 Lemma. „Der Gradient von f zeigt immer in die Richtung des stärksten
Anstiegs einer Funktion.“ Genauer sei f : D ⊂ Rn → R in a ∈ D differenzierbar,
dann gilt ∀e ∈ Rn , kek = 1,
∂e f (a) ≤ ∂fe∇ (a) = k∇f (a)k ,
wobei e∇ =
∇f (a)
k∇f (a)k
die Richtung des Gradienten ist.
Beweis. Mit Satz 3.3.5 und der Cauchy-Schwarzschen Ungleichung gilt
∂f
(a) = ∇f > (a) · e ≤ k∇f (a)k · kek .
∂e
Weiter gilt
∂f
∇f (a)
= k∇f (a)k .
(a) = ∇f > (a) ·
∂e∇
k∇f (a)k
Also ist ∂e f (a) maximal für e = e∇ (vergleiche auch Satz 3.3.5).
3.3.9 Lemma. Es sei f : D ⊂ Rn → R in a ∈ D differenzierbar und g : (−ε, ε) →
D sei differenzierbar in x = 0, es gelte g(0) = a und g beschreibe eine Höhenlinie
durch a, das heißt es gilt f (g(t)) = f (a) = c für ein c ∈ R und alle t ∈ (−ε, ε).
Dann ist ∇f (a) senkrecht zu g 0 (0). Das heißt, der Gradient steht senkrecht auf den
Höhenlinien.
4
2
0
−2
−4
−4 −2
g0
0
2
4
∇f
5
0
−5
Abbildung 3.6: Der Gradient steht senkrecht auf den Höhenlinien.
39
3.4. PARTIELLE ABLEITUNGEN HÖHERER ORDNUNG
Beweis. Die verkettete Funktion h(t) = f (g(t)) ist auf (−ε, ε) konstant. Nach der
Kettenregel gilt daher für t = 0
0 = h0 (0) = ∇f (g(0)) · g 0 (0) = ∇f (a) · g 0 (0).
3.4
Partielle Ableitungen höherer Ordnung
Die partiellen Ableitungen einer Funktion f sind, falls existent, wieder Funktionen.
Man kann diese daher auf (partielle) Differenzierbarkeit untersuchen. Im Mehrdimensionalen ist aber etwas Vorsicht geboten, was die Reihenfolge betrifft. Wir vereinbaren folgende Sprachregelungen und Notationen
3.4.1 Definition. Es seien f : D ⊂ Rn → R, D offen, a ∈ D, k ∈ N und j1 , . . . , jk ∈
{ 1, . . . , n }.
(i) Falls existent, heißt dann
∂kf
∂
(a) = fxj1 ···xjk (a) =
∂xjk ∂xjk−1 · · · ∂xj1
∂xjk
∂ k−1
∂xjk−1 · · · ∂xj1
f (a)
die partielle Ableitung der Ordnung k der Funktion f in a nach den Variablen
xj 1 , . . . , x j k .
(ii) Existiert diese für alle a ∈ D, so heißt die Funktion
fxj1 ···xjk : D → R, x 7→ fxj1 ···xjk (x)
die partielle Ableitung der Ordnung k von f nach den Variablen xj1 , . . . , xjk .
(iii) f heißt auf D k-mal stetig differenzierbar, in Zeichen f ∈ C k (D), falls alle
partiellen Ableitungen der Ordnung k von f existieren und stetig sind.
3.4.2 Beispiel. Es sei f : R2 → R, f (x, y) = ex y + y 2 . Dann sind die partiellen
Ableitungen erster Ordnung
∂f
∂f
(x, y) = fx (x, y) = ex y und
(x, y) = fy (x, y) = ex + 2y.
∂x
∂y
Die partiellen Ableitungen zweiter Ordnung berechnen sich zu
∂ 2f
∂ 2f
(x,
y)
=
(x, y) = fxx (x, y) = ex y,
∂x2
∂x∂x
∂ 2f
(x, y) = fyx (x, y) = ex ,
∂x∂y
∂ 2f
(x, y) = fxy (x, y) = ex ,
∂y∂x
∂ 2f
(x, y) = fyy (x, y) = 2.
∂y 2
40
KAPITEL 3. DIFF’RECHNUNG MEHRERER VERÄNDERLICHER
Die partiellen Ableitungen dritter Ordnung sind
∂ 3f
(x, y) = yex ,
∂x3
∂ 3f
= ex ,
∂x2 ∂y
∂ 3f
(x, y) = 0,
∂y∂x∂y
Es gilt hier beispielsweise
∂2f
∂x∂y
∂ 3f
(x, y) = ex ,
∂y∂x2
∂ 3f
(x, y) = 0,
∂x∂y 2
∂ 3f
(x, y) = 0.
∂y 3
=
∂2f
∂y∂x
und
∂3f
∂x∂y 2
=
∂ 3f
(x, y) = ex ,
∂x∂y∂x
∂ 3f
(x, y) = 0,
∂y 2 ∂x
∂3f
∂y∂x∂y
=
∂3f
.
∂y 2 ∂x
Wir betrachten nun ein Beispiel, das zeigt, dass die Reihenfolge der partiellen Ableitungen anders als im vorangegangenen Beispiel im Allgemeinen nicht vertauscht
werden darf.
3.4.3 Beispiel. Es sei f : R2 → R mit

 x3 y−xy3 , (x, y)> 6= (0, 0)> ,
x2 +y 2
f (x, y) =
0
sonst.
Für (x, y)> 6= (0, 0)> gilt
∂f
(3x2 y − y 3 )(x2 + y 2 ) − 2x(x3 y − xy 3 )
(x, y) =
,
∂x
(x2 + y 2 )2
(x3 − 3xy 2 )(x2 + y 2 ) − 2y(x3 y − xy 3 )
∂f
(x, y) =
.
∂y
(x2 + y 2 )2
Im Ursprung gilt
∂f
f (h, 0) − f (0, 0)
∂f
(0, 0) = lim
=0=
(0, 0).
h→0
∂x
h
∂y
Wir betrachten nun die „gemischten“ zweiten partiellen Ableitungen im Ursprung.
Es gilt
− ∂f
(0, 0)
1 −h5
∂x
= lim · 4 = −1,
h→0 h
h
h
∂f
∂f
2
(h, 0) − ∂y (0, 0)
∂ f
∂ ∂f
1 h5
∂y
(0, 0) =
(0, 0) = lim
= lim · 4 = 1,
h→0
h→0 h h
∂x∂y
∂x ∂y
h
∂ 2f
∂ ∂f
(0, 0) =
(0, 0) = lim
h→0
∂y∂x
∂y ∂x
das heißt
∂2f
(0, 0)
∂y∂x
6=
∂f
(0, h)
∂x
∂2f
(0, 0).
∂x∂y
Es stellt sich also die Frage, wann man die Differenziationsreihenfolge vertauschen darf. Dies beantwortet der wichtige
3.4. PARTIELLE ABLEITUNGEN HÖHERER ORDNUNG
41
3.4.4 Satz von Schwarz. Es seien f : D ⊂ Rn → R, j, k ∈ { 1, . . . , n }, j 6= k,
und a ∈ D. Existieren
∂2f
∂xj ∂xk
∂2f
∂xk ∂xj
und
in einer Umgebung Uε (a) und sind in a
stetig, so gilt:
∂ 2f
∂ 2f
(a) =
(a).
∂xj ∂xk
∂xk ∂xj
Für zweimal stetig differenzierbare Funktionen spielt die Reihenfolge der Differenziation also keine Rolle.
3.4.5 Definition. Es seien f : D ⊂ Rn → R, D offen, a ∈ D und die zweiten
partiellen Ableitungen von f mögen in a existieren. Dann heißt
 ∂2f

∂f
∂f
(a)
(a)
.
.
.
(a)
2
∂x2 ∂x1
∂xn ∂x1
 ∂x2 1

..
...
∂2f
 ∂ f (a)

(a)
.
 ∂x1 ∂x2

∂x22
Hf (a) := 
 ∈ Rn×n
..
..
..
..


.
.
.
.


∂2f
∂2f
(a)
...
...
(a)
∂x1 ∂xn
∂x2
n
die Hessematrix von f an der Stelle a.
3.4.6 Bemerkung. Nach dem Satz von Schwarz 3.4.4 ist die Hessematrix Hf (a)
symmetrisch, falls f ∈ C 2 (D).
3.4.7 Beispiel. Es sei f : R2 → R, f (x, y) = ex y + y 2 . Dann gilt:
fxx (x, y) = ex y, fxy (x, y) = ex = fyx (x, y), fyy (x, y) = 2.
Die Hesse-Matrix von f an der Stelle (x, y) ist also
!
ex y ex
Hf (x, y) =
.
ex 2
Wie im eindimensionalen Fall, wollen wir komplizierte Funktionen lokal durch
einfachere annähern, zum Beispiel durch Polynome, um die Betrachtung zu vereinfachen. Mit der linearen Approximation haben wir dies bereits gemacht: Differenzierbare Funktionen können durch ihre Tangentialebenen approximiert werden. Mit
höherem Aufwand sind aber auch bessere Näherungen möglich. In Analysis I hat
uns dabei insbesondere der Satz von Taylor geholfen. Wir betrachten nun eine für
den mehrdimensionalen Fall angepasste Formulierung.
3.4.8 Satz von Taylor. Es seien f : D ⊂ Rn → R, f ∈ C N +1 (D), N ∈ N0 und
a, h ∈ Rn mit a, a + h ∈ D. Dann existiert ein ξ ∈ (0, 1) mit
N
X
X
1
f (x) = f (a + h) = f (a) +
k! 1≤j ,...,j
k=1
1
X
1
+
(N + 1)! 1≤j ,...,j
1
k
N +1
∂k
f (a)hj1 · · · hjk
∂xj1 · · · ∂xjk
≤n
∂ N +1
f (a + ξh)hj1 · · · hjN +1 .
∂x
·
·
·
∂x
j
j
1
N
+1
≤n
42
KAPITEL 3. DIFF’RECHNUNG MEHRERER VERÄNDERLICHER
Beweis. Der Beweis funktioniert über eine Hilfsfunktion auf a, a + h und Rückführung auf den eindimensionalen Fall.
3.4.9 Bemerkungen.
(i) Der Ausdruck auf der rechten Seite der ersten Zeile
heißt Taylorpolynom vom Grad N , in Zeichen: T N f (a, x), die Summe in der
zweiten Zeile ist das Lagrange Restglied, RN +1 f (a, x).
(ii) Die Taylorformel dient der Approximation einer genügend oft stetig differenzierbaren gegebenen Funktion f in der Umgebung eines festen Punktes a ∈ D
durch ein Polynom vom Grad N . Wie gut die Approximation beziehungsweise
wie groß der Fehler ist, gibt das Restglied an. Insbesondere
gilt analog
zum
N +1
eindimensionalen Satz von Taylor, dass RN +1 (a, x) = o kx − ak
.
(iii) Eine einfachere Darstellung erhält man, wenn man die folgende Notationen
P
vereinbart: Für α ∈ Nn0 setzen wir |α| = (α1 , . . . , αn )> := nk=1 αk , α! :=
α1 !α2 ! · · · αn !. Sind x, a ∈ Rn , so sei
(a−x)α = (x1 −a1 )α1 ·(x2 −a2 )α2 · · · (xn −an )αn und weiter Dα =
Damit lässt sich die obige Formel schreiben als
f (x) =
X
X Dα f (a)
(x − a)α +
α!
|α|≤N
|α|=N +1
∂ |α|
.
∂xαnn · · · ∂xα1 1
Dα f (a + ξh)
(x − a)α .
α!
3.4.10 Bemerkung. Die Taylorpolynome ersten und zweiten Grades lassen sich
mit Hilfe der Jacobi-Matrix f 0 (a) und Hessematrix Hf (a) schreiben als
T 1 f (a, x) = f (a) + f 0 (a) · (x − a),
1
T 2 f (a, x) = f (a) + f 0 (a) · (x − a) + (x − a)> Hf (a)(x − a).
2
T 1 f (a, x) ist die lineare Approximaton (Tangentialebene) aus Definition 3.2.3 und
T 2 f (a, x) nennt man auch Schmiegequadrik. Diese beiden Fälle reichen häufig für
praktische und theoretische Untersuchungen aus.
3.4.11 Beispiel. Es sei f : R2 → R, f (x, y) = ex + xy. Wir berechnen das Taylorpolynom ersten und zweiten Grades im Ursprung. Es ist
f 0 (x, y) = (ex + y, x), Hf (x, y) =
!
ex 1
1
0
Für (x, y)> = (0, 0)> haben wir also
f 0 (0, 0) = (1, 0), Hf (0, 0) =
1 1
1 0
!
.
.
43
3.4. PARTIELLE ABLEITUNGEN HÖHERER ORDNUNG
Damit ist dann
T 1 f ((0, 0)> , (x, y)> ) = f (0, 0) + f 0 (0, 0)
!
x−0
x
!
= 1 + (1, 0)
y−0
y
!
!
1 1
x
1
T 2 f ((0, 0)> , (x, y)> ) = T1 (x, y) + (x, y)
=1+x+
2
1 0
y
1
= 1 + x + xy + x2 .
2
= 1 + x,
x+y
1
(x, y)
2
x
!
3.4.12 Bemerkung. Wie erwähnt, genügt oft die Taylorformel mit dem Restglied
zweiter Ordnung. Diese hat für ein ξ ∈ (0, 1) die Form
1
f (a + h) = f (a) + f 0 (a) · h + h> · Hf (a + ξh) · h
2
beziehungsweise mit x = a + h
1
f (x) = f (a) + f 0 (a) · (x − a) + (x − a)> · Hf (a + ξ(x − a)) · (x − a).
2
Die Approximation mit dem Restglied dritter Ordnung hat die Form
1
f (x) = f (a) + f 0 (a)(x − a) + (x − a)> Hf (a)(x − a) + o kx − ak3 .
2
3.4.13 Beispiel (Fehlerrechnung). Der Satz von Taylor 3.4.8 liefert die Grundlage
für die Fehlerabschätzung bei experimentellen Daten. Es seien x1 , . . . , xn+1 Größen,
die bei einem Experiment gemessen werden und es soll ein Zusammenhang zwischen
den Größen untersucht werden. Angenommen, es ist xn+1 = f (x1 , . . . , xn ) mit einer differenzierbaren Funktion f : D ⊂ Rn → R. Aufgrund von Messfehlern sind
die wahren Werte nicht die xi , sondern x̃i = xi + hi , i = 1, . . . , n + 1. Die hi sind
abschätzbar mit Hilfe etwa von Herstellerangaben zur Genauigkeit der Messgeräte beziehungsweise mit Tabellen. Aus dem Satz von Taylor erhält man dann die
Abschätzung des Gesamtfehlers
n X
∂f
(x
,
.
.
.
,
x
)
∆f = |f (x̃1 , . . . , x̃n ) − f (x1 , . . . , xn )| ≤
1
n
∂xi
|
{z
}
=|hn+1 |
i=1
∆xk
|{z}
.
=|hi |=|x̃i −xi |
Erfüllt nun der gemessene Wert xn+1 die Ungleichung, so stimmt das Ergebnis im
Rahmen der Messgenauigkeit mit der Formel beziehungsweise dem Tabellenwert für
xn+1 überein.
44
KAPITEL 3. DIFF’RECHNUNG MEHRERER VERÄNDERLICHER
Kapitel 4
Anwendungen der
Differenzialrechnung
4.1
Lokale Extrema
Im Folgenden bezeichnet D stets eine offene Teilmenge des Rn . Damit umgehen wir
Probleme, die am Rand einer Menge auftreten können.
4.1.1 Definition. Es seien f : D → R und a ∈ D. Wir sagen, f besitzt in a ein
(i) (isoliertes) lokales Minimum, wenn ein ε > 0 existiert mit
∀x ∈ U̇ε (a) ∩ D : f (a) ≤ f (x).
(<)
(ii) (isoliertes) lokales Maximum, wenn es ein ε > 0 gibt mit
∀x ∈ U̇ε (a) ∩ D : f (a) ≥ f (x).
(>)
(iii) f besitzt in a ein (isoliertes) lokales Extremum, wenn f in a ein (isoliertes)
lokales Minimum oder Maximum besitzt.
Der folgende Satz liefert ein notwendiges aber kein hinreichendes Kriterium für
das Vorliegen einer lokalen Extremstelle.
4.1.2 Satz von Fermat. Die Funktion f : D → R sei in a ∈ D partiell differenzierbar und besitze dort ein lokales Extremum. Dann gilt
∇f (a) = f 0 (a)> = 0.
Punkte a ∈ D mit ∇f (a) = 0 heißen stationäre oder kritische Punkte von f .
45
46
KAPITEL 4. ANWENDUNGEN DER DIFFERENZIALRECHNUNG
Beweis. O.B.d.A. besitze f in a ∈ D ein lokales Minimum. Wir betrachten die
Umgebung Uε (a) ⊂ D. Für beliebiges aber festes j ∈ { 1, . . . , n } besitzt die Hilfs-
funktion
g : (−ε, ε) → R, g(t) := f (a + t · ej )
in t = 0 ein lokales Minimum, da g(0) = f (a). Auf die eindimensionale Funktion g
ist der Satz von Fermat im Eindimensionalen (das notwendige Kriterium für lokale
Extrema aus Analysis I) anwendbar. Damit gilt
g(0 + h) − g(0)
f (a + h · ej ) − f (a)
∂f
= lim
=
(a).
h→0
h→0
h
h
∂xj
0 = g 0 (0) = lim
Somit folgt die Behauptung ∇f (a) = 0, da j beliebig war.
Wir geben nun zunächst die analoge Aussage zum hinreichenden Kriterium für lokale
Extremstellen (Vorzeichen der zweiten Ableitung) im Eindimensionalen.
4.1.3 Satz (Hinreichendes Kriterium für lokale Extremstelle). Gegeben seien eine
Funktion f ∈ C 2 (D, R) und ein Punkt a ∈ D ⊂ Rn mit ∇f (a) = 0. Dann gilt:
(i) Ist Hf (a) positiv definit, so besitzt f in a ein isoliertes lokales Minimum.
(ii) Ist Hf (a) negativ definit, so besitzt f in a ein isoliertes lokales Maximum.
(iii) Ist Hf (a) indefinit, so besitzt f in a einen Sattelpunkt.
Dafür benötigen wir noch
4.1.4 Definition. Es sei A ∈ Rn×n eine quadratische Matrix. Gilt für ∀x ∈ Rn \{ 0 }
(i) x> Ax =
Pn
i,j=1
aij xi xj > 0, dann heißt A positiv definit,
(ii) x> Ax ≥ 0, dann heißt A positiv semi-definit,
(iii) x> Ax < 0, dann heißt A negativ definit,
(iv) x> Ax ≤ 0, dann heißt A negativ semi-definit,
(v) Ist A weder positiv noch negativ semi-definit, so heißt A indefinit. Dies bedeutet
∃x, y ∈ Rn : x> Ax > 0 ∧ y > Ay < 0.
Beweisidee von Satz 4.1.3. Wir betrachten nur den Fall Hf (a) positiv definit.
Aufgrund der Stetigkeit der zweiten partiellen Ableitungen ist dann Hf (x) auch in
47
4.1. LOKALE EXTREMA
einer Umgebung Uε (a) positiv definit. In dieser Umgebung gibt es mit dem Satz von
Taylor für x ∈ U̇ε (a) ein ξ ∈ (0, 1), so dass
1
f (x) = f (a) + f 0 (a) ·(x − a) + (x − a)> · Hf (a + ξ(x − a)) · (x − a) > f (a)
| {z }
2 |
{z
}
=0
>0
gilt.
Um die Definitheit von Matrizen feststellen zu können, erwähnen wir folgenden
Satz aus der linearen Algebra.
4.1.5 Satz. Es sei A ∈ Rn×n eine symmetrische Matrix. Dann gilt:
(i) A ist genau dann positiv definit, wenn alle Eigenwerte von A positiv sind.
(ii) A ist genau dann positiv semi-definit, wenn alle Eigenwerte von A nichtnegativ sind.
(iii) A ist genau dann positiv definit, wenn alle Hauptdiagonalunterdeterminanten
von A positiv sind, das heißt, ist

dann setzen wir

a11 . . . a1n
 .
.. 
..
A=
. 

,
an1 . . . ann


a11 . . . a1k
 .
.. 
..
Ak = 
. 


ak1 . . . akk
und A ist genau dann positiv definit, wenn ∀k ∈ { 1, . . . , n } det Ak > 0.
(iv) A ist negativ (semi-) definit, wenn −A positiv (semi-) definit ist. Damit folgt
mit den obigen Eigenschaften:
(v) A ist genau dann negativ definit, wenn alle Eigenwerte von A negativ sind.
(vi) A ist genau dann negativ semi-definit, wenn alle Eigenwerte von A nichtpositiv sind.
(vii) A ist genau dann negativ definit, wenn sgn det Ak = (−1)k für k = 1, . . . , n.
(viii) A ist genau dann indefinit, wenn A sowohl positive als auch negative Eigenwerte besitz.
48
KAPITEL 4. ANWENDUNGEN DER DIFFERENZIALRECHNUNG
Für n = 2 fassen wir die Aussage von Satz 4.1.3 mit Hilfe des Kriteriums über
die Hauptdiagonalunterdeterminanten in folgendem Lemma zusammen:
4.1.6 Lemma. Es seien f ∈ C 2 (D, R), D ⊂ R2 und a ∈ D ein stationärer Punkt
von f , das heißt ∇f (a) = 0. Dann gilt:
(i) Ist fxx (a) > 0 und fxx (a)fyy (a) − (fxy (a))2 > 0, so besitzt f in a ein isoliertes
lokales Minimum.
(ii) Ist fxx (a) < 0 und fxx (a)fyy (a) − (fxy (a))2 > 0, so besitzt f in a ein isoliertes
lokales Maximum.
(iii) Ist fxx (a)fyy (a) − (fxy (a))2 < 0, dann besitzt f in a einen Sattelpunkt, da
Hf (a) dann sowohl einen positiven als auch einen negativen Eigenwert besitzt
und daher indefinit ist.
Achtung: Bei fxx (a)fyy (a) − (fxy (a))2 = 0 ist keine Aussage möglich.
(i) Wir betrachten f : R2! → R, f (x, y) = x2 + y 2 . Es gilt
2 0
. Da Hf in Diagonalform vorliegt,
f 0 (x, y) = (2x 2y) und Hf (x, y) =
0 2
liest man sofort die Eigenwerte ab und sieht, dass Hf für alle (x, y) ∈ R2
4.1.7 Beispiele.
positiv definit ist. Weiter ist f 0 (x, y) = (0, 0) ⇔ x = y = 0, also besitzt f in
(0, 0)> ein lokales Minimum mit f (0, 0) = 0. Wegen f (x, y) ≥ 0 handelt es sich
dabei auch um ein globales Minimum.
2
2
0
(ii) Es sei f : R2 → R,
! f (x, y) = x − y . Dann ist f (x, y) = (2x − 2y) und
2 0
Hf (x, y) =
. Wiederum ist f 0 (x, y) = (0, 0) ⇔ x = y = 0, wegen
0 −2
fxx (0, 0)fyy (0, 0) − (fxy (0, 0))2 = 2 · (−2) − 0 · 0 = −4 < 0
ist Hf (0, 0) indefinit und in (0, 0)> liegt ein Sattelpunkt von f vor (siehe
Abbildung 4.1).
3
3
0
2
2
(iii) Für f : R2 → R, f (x, y) = 3xy
! − x − y , gilt f (x, y) = (3y − 3x , 3x − 3y )
−6x 3
und Hf (x, y) =
. Nun ist
3
−6y
0
f (x, y) = (0, 0) ⇔
(
3y − 3x2 = 0,
3x − 3y 2 = 0.
49
4.1. LOKALE EXTREMA
2
0
−2
1
0
−1
0
y
−1
1
x
Abbildung 4.1: Beispiel 4.1.7 (ii): Sattelpunkt.
Die erste Gleichung ist äquivalent zu y = x2 . In der zweiten Gleichung ergibt
sich damit:
x − x4 = 0 ⇔ x = 0 ∨ x = 1.
Stationäre Punkte sind also: (0, 0)> und (1, 1)> . Es ist jetzt
fxx (0, 0)fyy (0, 0) − (fxy (0, 0))2 = 0 − 32 < 0,
also liegt in (0, 0)> ein Sattelpunkt vor und weiter gilt, dass f in (1, 1)> ein
lokales Maximum besitzt, da
fxx (1, 1)fyy (1, 1) − (fxy (1, 1))2 = 36 − 32 = 27 > 0 und fxx (1, 1) = −6 < 0.
0
−5
1.5
0
1
0.5
x
0.5
1
0
y
Abbildung 4.2: Beispiel 4.1.7 (iii): Sattelpunkt und lokales Maximum.
50
KAPITEL 4. ANWENDUNGEN DER DIFFERENZIALRECHNUNG
4.2
Extrema unter Nebenbedingungen
4.2.1 Beispiel. Welches Rechteck mit Umfang u ∈ R hat maximalen Flächenin-
halt? Der Flächeninhalt des Rechtecks ist durch die Funktion f : R2 → R mit
f (x, y) = xy gegeben, wenn x, y die Seitenlängen des Rechtecks sind. Offensichtlich
wird der Flächeninhalt größer, wenn x und y groß werden. Diese sind jedoch durch
den Umfang beschränkt, das heißt sie müssen die Restriktion 2x + 2y = u erfüllen.
Mathematisch können wir diese Aufgabe folgendermaßen formulieren: Finde das
Maximum von f : [0, +∞)2 → R, f (x, y) = xy auf der Menge
A :=
beziehungsweise
A :=
(x, y)> ∈ R2 2x + 2y = u
(x, y)> ∈ R2 g(x, y) = 0 , wobei g(x, y) = 2x + 2y − u.
In Abschnitt 4.1 haben wir bereits Methoden kennengelernt, lokale Extrema auf
5
2
0
0
0.5
1
y
1.5
x
2
2.5
30
Abbildung 4.3: Zu Beispiel 4.2.1, auf der schwarzen Linie ist die Bedingung g(x, y) =
0 für u = 5 erfüllt.
einer offenen Menge D zu bestimmen, allerdings ist die Menge A nicht offen. Die
vorherigen Argumente stehen uns also nicht zur Verfügung.
Betrachtet man die Menge A genauer, so stellt man fest, dass sie kompakt ist.
Nach dem Satz von Weierstraß 2.3.1 nimmt f als stetige Funktion auf der kompakten
Menge A sowohl Maximum als auch Minimum an. Wir suchen nach einer Methode,
um diese Extrema zu bestimmen.
Wir betrachten ein weiteres Beispiel, dass sich leichter veranschaulichen lässt:
51
4.2. EXTREMA UNTER NEBENBEDINGUNGEN
4.2.2 Beispiel. Die Funktion f : R2 → R, f (x, y) = x2 + y 2 , soll unter der
Bedingung g(x, y) = x2 − y + 1 = 0 minimiert werden. Der Graph von f ist
ein Paraboloid im R3 und die Bedingung g beschreibt eine Parabel in der Ebene. Die Niveaulinien von f sind Kreise mit dem Ursprung als Mittelpunkt: Γc =
(x, y)> ∈ R2 f (x, y) = x2 + y 2 = c . Der Graph der Funktion y = g̃(x) = x2 + 1
5
2
3
5
−2
0
0
2
−2
−2
2
4
0.5
1
−1
3
3
2
0
0.25
4
1
0
2
5
10
4
2
1
5
−2
4
−1
3
0
5
1
2
Abbildung 4.4: Zu Beispiel 4.2.2: Auf der schwarzen Linie ist die Bedingung g(x, a) =
x2 − y + 1 = 0 erfüllt.
berührt die Niveaulinie Γ1 im Punkt (0, 1)> und liegt sonst wegen g̃(x) > 1 für
x 6= 1 oberhalb von Γ1 . Die Tangenten an Γ1 und die durch g(x, y) = 0 beschriebene
Menge (Graph von g̃) sind in (0, 1)> parallel. Daher müssen auch die Gradienten an
die Funktionen f und g hier parallel sein, das heißt, es gibt λ, λ̃ ∈ R mit
∇f (0, 1) = λ∇g(0, 1) beziehungsweise ∇f (0, 1) + λ̃∇g(0, 1) = 0.
Wir verallgemeinern die Situation und betrachten skalarwertige Funktionen auf
dem Rn und d ≥ 1 Nebenbedingungen gi .
4.2.3 Definition. Es seien D ⊂ Rn offen, f : D → R, g : D → Rd , 1 ≤ d ≤ n − 1
Funktionen und a ∈ D mit g(a) = 0. Dann heißt a Stelle eines lokalen Minimums
(Maximums) von f unter der Nebenbedingung g(x) = 0 falls es ein ε > 0 gibt mit
∀x ∈ Uε (a) ∩ D ∩ { x ∈ D | g(x) = 0 } : f (a) ≤ f (x).
(≥)
Durch d = n unabhängige Nebenbedingungen wäre höchstens ein Punkt definiert, wenn die Nebenbedinungen alle gleichzeitig erfüllbar sind. Wir verallgemeinern
die Idee aus Beispiel 4.2.2 und erhalten die
52
KAPITEL 4. ANWENDUNGEN DER DIFFERENZIALRECHNUNG
4.2.4 Lagrangesche Multiplikatorregel. Es seien D ⊂ Rn offen, f ∈ C 1 (D, R)
und g ∈ C 1 (D, Rd ), 1 ≤ d ≤ n − 1, das heißt g(x) = (g1 (x), . . . , gd (x))> mit
gi ∈ C 1 (D, R) für i = 1, . . . , d. Es sei weiter a ein lokales Extremum von f unter der
Nebenbedingung g(x) = 0 und g 0 (a) habe vollen Rang, das heißt rg g 0 = d. Dann gibt
(0)
(0)
es ein λ0 = (λ1 , . . . , λd )> ∈ Rd , so dass die Lagrange-Funktion F : D × Rd → R,
F (x, λ) := f (x) + λ · g(x) = f (x) +
d
X
λi gi (x),
i=1
in (a, λ0 )> eine kritische Stelle hat, das heißt es gilt
F 0 (a, λ0 ) = 0.
(0)
(0)
Die Zahlen λ1 , . . . , λd heißen Lagrangesche Multiplikatoren.
4.2.5 Bemerkungen.
(i) F 0 (a, λ0 ) = 0 ist ein im Allgemeinen nicht-lineares
Gleichungssystem mit n + d Gleichungen und n + d Unbekannten: n Komponenten von a und d Komponenten von λ0 . Es ist:
F 0 (a, λ0 ) = (Fx1 (a, λ0 ), . . . , Fxn (a, λ0 ), Fλ1 (a, λ0 ), . . . , Fλd (a, λ0 )) .
Also muss in (a, λ0 ) gelten:
∂
∂
f (a) +
(λ0 · g(a))
∂xi
∂xi
d
X
∂f
(0) ∂gj
=
(a) +
λj
(a) = 0 für 1 ≤ i ≤ n.
∂xi
∂xi
j=1
Fxi (a, λ0 ) =
Fλk (a, λ0 ) =
d
∂
∂ X (0)
f (a) +
λ gj (a)
∂λk
∂λk j=1 j
= gk (a) = 0 für 1 ≤ k ≤ d.
Die Ableitungen von F nach λk für k = 1, . . . , d liefern gerade die Komponenten der Nebenbedingungsfunktion g, das heißt die Nebenbedinung g(a, λ0 ) = 0
ist mit F 0 (a, λ0 ) = 0 automatisch erfüllt.
(ii) Satz 4.2.4 liefert nur ein notwendiges Kriterium zum Finden von lokalen Extrema unter Nebenbedingungen. Ob es sich bei den gefundenen kritischen Stellen
tatsächlich um ein Extremum handelt, muss weiter untersucht oder begründet werden, etwa mit dem Satz von Weierstraß. Man kann mit Hilfe gewisser
Hauptdiagonalunterdeterminanten der Hessematrix von F Aussagen treffen,
dies wollen wir hier aber nicht vertiefen (siehe etwa [3], „geränderte Hessematrix“).
53
4.2. EXTREMA UNTER NEBENBEDINGUNGEN
(i) Wir lösen das Maximierungsproblem aus Beispiel 4.2.1 mit
4.2.6 Beispiele.
Satz 4.2.4: Es war f : [0, +∞)2 → R, f (x, y) = xy auf der Menge A :=
(x, y)> ∈ R2 g(x, y) = 0 mit g(x, y) = 2x + 2y − u. Es gilt rg g 0 (x, y) =
rg(2, 2) = 1, das heißt der Rang ist maximal. Die Lagrange-Funktion ist dann
F (x, y, λ) = xy + λ(2x + 2y − u).
Gesucht sind (x, y, λ) mit
Fx (x, y, λ) = y + 2λ = 0,
(4.1)
Fy (x, y, λ) = x + 2λ = 0,
(4.2)
Fλ (x, y, λ) = 2x + 2y − u = 0.
(4.3)
Mit (4.1) und (4.2) folgt y = x. Mit Gleichung (4.3) gilt dann x = y = u4 .
>
Also ist u4 , u4
ein Kandidat für ein lokales Extremum. Dass es sich um ein
Maximum handelt, sehen wir wie folgt: Für x, y ∈ [0, +∞) ist f (x, y) ≥ 0
>
>
und in 0, u2
und u2 , 0 ist f (x, y) = 0 und die Nebenbedingung erfüllt,
das heißt, das Minimum von f wird dort angenommen. Da nach dem Satz
von Weierstraß f auch sein Maximum annimmt, muss in unserer Lösung das
Maximum von f unter der Nebenbedingung vorliegen.
(ii) Wir bestimmen die lokalen Extrema von f (x, y, z) = 5x + y − 3z unter den
Nebenbedingungen x + y + z = 0 und x2 + y 2 + z 2 = 1, das heißt
g(x, y, z) =
Durch A =
x+y+z
!
x2 + y 2 + z 2 − 1
.
(x, y, z)> ∈ R3 g(x, y, z) = 0 ist eine kompakte Menge gege-
ben, denn A ist der Schnitt der Kugel mit Radius 1 und einer Ebene durch den
Ursprung, also ein Großkreis. Nach dem Satz von Weierstraß existieren
! also
1 1 1
Maximum und Minimum von f . Es gilt rg g 0 (x, y, z) = rg
=2
2x 2y 2z
für beliebiges (x, y, z)> ∈ A, denn aus der Annahme rg g 0 (x, y, z) = 1 folgt
x = y = z im Widerspruch zu den Nebenbedingungen. Die Lagrange-Funktion
lautet mit λ = (λ1 , λ2 )> ∈ R2 :
F (x, y, z, λ1 , λ2 ) = 5x + y − 3z + λ1 (x + y + z) + λ2 (x2 + y 2 + z 2 − 1).
54
KAPITEL 4. ANWENDUNGEN DER DIFFERENZIALRECHNUNG
Also erhalten wir das Gleichungssystem
Fx (x, y, z, λ1 , λ2 ) = 5 + λ1 + 2λ2 x = 0,
(4.4)
Fy (x, y, z, λ1 , λ2 ) = 1 + λ1 + 2λ2 y = 0,
(4.5)
Fz (x, y, z, λ1 , λ2 ) = −3 + λ1 + 2λ2 z = 0,
(4.6)
Fλ1 (x, y, z, λ1 , λ2 ) = x + y + z = 0,
(4.7)
Fλ1 (x, y, z, λ1 , λ2 ) = x2 + y 2 + z 2 − 1 = 0.
(4.8)
Die Summe der Gleichungen (4.4) bis (4.6) liefert
−2λ2 (x + y + z) = 5 + 1 − 3 + 3λ1 ,
| {z }
=0
also ist λ1 = −1. Aus (4.5) folgt damit y = 0 oder λ2 = 0. λ2 = 0 führt zu
einem Widerspruch in (4.4). Für y q
= 0 folgt aus (4.7) z = −x. Setzen wir dies
in (4.8) ein, so erhalten wir x = ± 12 . Mögliche Extremstellen sind also a1 =
q >
q >
q
q
1
1
1
, 0, − 2
und a2 = − 2 , 0, 12 . Da nach dem Satz von Weierstraß
2
Maximum und Minimum existieren, muss es sich bei den Kandidaten um diese
√
√
handeln, also liegt wegen f (a1 ) = 4 2 > f (a2 ) = −4 2, das Maximum in a1
und das Minimum in a2 vor.
(iii) Die Funktion f (x, y) = x + y + 10 soll auf der Menge
B1 (0) =
(x, y) ∈ R2 x2 + y 2 ≤ 1
auf lokale Extrema untersucht werden. Zunächst gilt, dass f auf B1 (0) stetig
und B1 (0) kompakt ist. Also besitzt f nach dem Satz von Weierstraß Maximum
und Minimum auf B1 (0).
Wir schreiben B1 (0) als die disjunkte Vereinigung von Rand und Innerem
B1 (0) =
(x, y)> ∈ R2 x2 + y 2 < 1 ∪ (x, y)> ∈ R2 x2 + y 2 = 1 .
|
{z
} |
{z
}
˚
=B1 (0)=B1 (0)
=∂B1 (0)=∂B1 (0)
B1 (0) ist offen und wir können f mit Hilfe der notwendigen und hinreichenden
Kriterien auf lokale Extrema untersuchen (Sätze 4.1.2 und 4.1.3): Es ist
∀(x, y)> ∈ R2 : f 0 (x, y) = (1 1) 6= 0.
Also besitzt f auf B1 (0) keine kritischen Stellen.
55
4.3. UMKEHRABBILDUNGEN
Zum Auffinden der stationären Punkte von f auf ∂B1 (0) nutzen wir die Lagrangesche Multiplikatorenregel 4.2.4. Durch die Menge ∂B1 (0) ist die Nebenbedingung gegeben, das heißt mit den Bezeichnungen aus Satz 4.2.4 ist
g : R2 → R, g(x, y) = x2 + y 2 − 1 = 0.
Nun gilt g 0 (x, y) = (2x, 2y). Also hat g 0 für alle zulässigen Punkte vollen Rang
(x = y = 0 ist kein zulässiger Punkt, da g(0, 0) 6= 0). Die zugehörige Lagrangefunktion lautet mit λ ∈ R also:
F (x, y, λ) = x + y + 10 + λ(x2 + y 2 − 1).
Das Gleichungssystem ∇F = 0 lautet dann
Fx (x, y, λ) = 1 + 2xλ = 0,
(4.9)
Fy (x, y, λ) = 1 + 2yλ = 0,
(4.10)
Fλ (x, y, λ) = x2 + y 2 − 1 = 0.
(4.11)
Aus (4.9) folgt λ 6= 0. Damit erhalten wir mit der Differenz von (4.9) und
(4.10), dass x = y. Mit (4.11) ist dann x = y =
√
2
2
oder x = y = −
Maximum von f unter der Nebenbedingung g = 0 ist also f (
√
√
√
und das Minimum f (− 22 , − 22 ) = − 2 + 10.
√
√
2
, 22 )
2
=
√
2
.
2
√
Das
2+10
4.2.7 Bemerkung. Da nur die Koordinaten von a von Interesse sind, muss man
nicht immer alle Komponenten von λ bestimmen, wenn man auch ohne diese bereits
a bestimmt hat.
4.3
Umkehrabbildungen
Wir betrachten in diesem Abschnitt das Problem der Umkehrfunktion. Wir wollen
untersuchen, unter welchen Voraussetzungen an eine Funktion f : Rn → Rm die
Gleichung y = f (x) in einer Umgebung von y eindeutig lösbar ist - durch eine
Funktion x = f −1 (y).
4.3.1 Bemerkung. Aus der Linearen Algebra wissen wir, dass eine lineare Abbildung F : Rn → Rm nur umkehrbar sein kann, wenn n = m gilt. In diesem Fall ist
F genau dann umkehrbar, wenn die zu F gehörende Matrix invertierbar ist. Ist F
eine lineare Abbildung, so können wir F schreiben als


a11 x1 + . . . + a1n xn


..
 = A · x.
F (x1 , . . . , xn ) = 
.


an1 x1 + . . . + ann xn
56
KAPITEL 4. ANWENDUNGEN DER DIFFERENZIALRECHNUNG
Die Jacobi-Matrix von F ist dann
F 0 (x1 , . . . , xn ) = A,
da
∂Fi
∂xj
= aij . Das heißt, die obige Bedingung können wir umformulieren zu: Eine
lineare Abbildung ist genau dann umkehrbar, wenn ihre Jacobi-Matrix invertierbar
ist. Dies ist äquivalent zu det F 0 = det A 6= 0. Dies liefert eine erste Forderung für
den allgemeinen Fall.
Weiter ist aus Analysis I bekannt: Wenn f : I → R bijektiv und differenzierbar
ist mit f 0 6= 0 auf I, dann berechnet sich die Ableitung der Umkehrfunktion f −1
durch die Umkehrformel
(f −1 )0 (y) =
1
f 0 (f −1 (y))
.
Als Analogon im Mehrdimensionalen läge also die Inverse der Jacobi-Matrix als
Jacobi-Matrix der Umkehrfunktion nahe.
Wir betrachten den eindimensionalen Fall weiter: Es sei f : D = (a, b) → R eine
stetig differenzierbare Funktion. Indem wir den Wertebereich auf f (D) einschränken,
wird f surjektiv: f : D → f (D). Gilt weiter, dass f 0 (x) 6= 0 für alle x ∈ (a, b) ist,
so ist f streng monoton (steigend oder fallend) und somit auch injektiv. Insgesamt
ist f dann bijektiv. Nach dem Satz über Umkehrfunktionen aus Analysis I existiert
eine Umkehrabbildung f −1 auf ganz f (D).
Wir wollen nun untersuchen, in wie fern ähnliche, analoge Aussagen für mehrdimensionale Funktionen f : D ⊂ Rn → Rn gelten. Gibt es zur Aussage f 0 (x) 6= 0 ⇒ f
injektiv ein Analogon im Mehrdimensionalen, etwa:
f 0 (x) 6= 0 (Nullmatrix) ⇒ f injektiv?
Oder
det(f 0 (x)) 6= 0 ⇒ f injektiv?
4.3.2 Beispiel. Wir betrachten f : R+ × R → R2 \ { 0 }, f (r, ϕ) =
Funktion f ist stetig differenzierbar mit
f 0 (r, ϕ) =
cos ϕ −r sin ϕ
sin ϕ
r cos ϕ
!
!
r cos ϕ
r sin ϕ
. Die
.
Offenbar ist f 0 (r, ϕ) 6= 0 für alle (r, ϕ) aus dem Definitionsbereich. Es gilt auch
det f 0 (r, ϕ) = r cos2 ϕ + r sin2 ϕ = r > 0.
57
4.3. UMKEHRABBILDUNGEN
Dennoch ist f nicht injektiv, da
f (r, ϕ) = f (r, ϕ + 2πk) für k ∈ Z.
Also folgt aus det f 0 6= 0 keine (globale) Umkehrbarkeit.
Durch Einschränkung des Definitionsbereichs, zum Beispiel auf R+ ×[0, 2π), wird
f zumindest injektiv.
4.3.3 Satz über die Umkehrfunktion. Es seien D ⊂ Rn offen, f ∈ C 1 (D, Rn ),
a ∈ D und b := f (a). Weiter sei die Jacobi-Matrix von f an der Stelle a invertierbar,
also det f 0 (a) 6= 0. Dann gibt es Umgebungen U von a und V von b, so dass gilt:
(i) ∀x ∈ U : det f 0 (x) 6= 0.
(ii) f : U → V ist bijektiv.
(iii) f −1 : V → U ist stetig differenzierbar mit
0
−1
f −1 (y) = f 0 (f −1 (y)
,
dabei bezeichnet f −1 die Umkehrfunktion von f und (f 0 )−1 auf der rechten
Seite bezeichnet die Inverse der Jacobi-Matrix von f .
4.3.4 Bemerkungen.
(i) Satz 4.3.3 ist also ein Kriterium zur lokalen Umkehr-
barkeit mehrdimensionaler Funktionen.
(ii) Mit 4.3.3 (iii) lässt sich die Ableitung der Umkehrfunktion in einem Punkt
y = f (x) ohne explizite Kenntnis der Umkehrabbildung selbst berechnen.
!
2
x
. f ist offenbar
4.3.5 Beispiel. Gegeben sei f : R2 → R2 mit f (x, y) =
x2 + y
nicht injektiv, da f (x, y) = f (−x, y).
(i) Wir untersuchen, in welchen Punkten (x, y) ∈ R2 die Funktion f lokal umkehrbar ist. Es ist
det f 0 (x, y) =
!
2x 0
2x 1
= 2x 6= 0
für x 6= 0. Also ist f auf { (x, y) ∈ R2 | x 6= 0 } lokal umkehrbar.
(ii) Wir bestimmen die Ableitung der Umkehrfunktion von f im Punkt (1, 2)> mit
f (1, 1) = (1, 2)> , also f −1 (1, 2) = (1, 1)> (lokal). Es ist
0
−1
−1
f −1 (1, 2) = f 0 (f −1 (1, 2)
= (f 0 (1, 1))
!
!−1
2 0
1 1 0
.
=
=
2 −2 2
2 1
58
KAPITEL 4. ANWENDUNGEN DER DIFFERENZIALRECHNUNG
Dabei haben wir verwendet, dass für invertierbare 2 × 2-Matrizen
!
d
−b
1
berechnet.
Inverse sich einfach durch ad−bc
−c a
a b
!
c d
die
(iii) Im vorliegenden Fall lässt sich die Umkehrfunktion auch explizit angeben und
damit die Rechnung überprüfen: Es gilt f −1 (u, v) = (x, y)> ⇔ u = x2 , v =
√
√
>
−1
x2 + y = u + y, also x = ± u,!
y = v − u. Damit
!ist f (u, v) = (± u, v − u)
± √1u 0
± 2√1 u 0
0
= 12
.
und (f −1 ) (u, v) =
−1 1
−2 2
4.4
Implizite Funktionen
4.4.1 Beispiel. Wir betrachten die Kreisgleichung x2 +y 2 = 1. Setzt man F (x, y) :=
x2 + y 2 − 1, so ist die Kreisgleichung äquivalent zu
F (x, y) = 0.
Diese Gleichung kann nicht explizit nach y = f (x) (oder x = f (y)) aufgelöst werden,
√
da es zu jedem x ∈ (−1, 1) zwei Werte y = ± 1 − x2 gibt. Es ist aber möglich, Teile
der Kreisgleichung als Funktion darzustellen.
f1 : (−1, 1) → R, f1 (x) =
√
1 − x2
beschreibt den oberen Teil des Einheitskreises und
√
f2 : (−1, 1) → R, f2 (x) = − 1 − x2
stellt den unteren Teil des Einheitskreises dar. Das heißt, abhängig vom Wert von
y0 ∈ (−1, 1) können wir F (x0 , y0 ) = 0 in einer Umgebung von y0 zu y = f1 (x) oder
y = f2 (x) auflösen.
Wir wollen nun allgemein untersuchen, wann es solche Auflösungen wie f1 oder
f2 einer Gleichung F (x, y) = 0 gibt.
4.4.2 Definition. Es sei D ⊂ Rn ×Rd und F : D → Rd eine Funktion. Eine implizit
definierte Funktion oder implizite Funktion ist eine Funktion y : Rn → Rd , deren
Funktionswerte durch die Gleichung F (x, y(x)) = 0 definiert sind.
4.4.3 Bemerkung. Ist F (x, y) = (F1 (x, y), . . . , Fd (x, y))> wie aus Definition 4.4.2
differenzierbar, dann hat die Jacobimatrix die Gestalt
F 0 (x, y) = Fx (x, y) Fy (x, y) ∈ Rd×(n+d)
59
4.4. IMPLIZITE FUNKTIONEN
mit

∂F1
∂x1
...
∂F1
∂xn
∂Fd
∂x1
...
∂Fd
∂xn
∂F1
∂y1
...
∂F1
∂yd
∂Fd
∂y1
...
∂Fd
∂yd
 .
.
Fx (x, y) = 
 .
und

 .
.
Fy (x, y) = 
 .
Fy (x, y) ist also quadratisch!

.. 
d×n
. 
∈R

.. 
d×d
. 
∈R .
4.4.4 Satz über implizite Funktionen. Es sei D ⊂ Rn × Rd , F : D → Rd ,
(x, y)> 7→ F (x, y), stetig differenzierbar. Weiter sei (x0 , y0 )> ∈ D mit
(i) F (x0 , y0 ) = 0,
(ii) det Fy (x0 , y0 ) 6= 0.
Dann gibt es Umgebungen U ⊂ Rn von x0 und V ⊂ Rd von y0 sowie eine stetig
differenzierbare Funktion g : U → V mit
(i) g(x0 ) = y0 ,
(ii) F (x, g(x)) = 0 für alle x ∈ U ,
(iii) g 0 (x) = −Fy (x, g(x))−1 · Fx (x, g(x)).
Man sagt: Die Gleichung F (x, y) = 0 ist im Punkt (x0 , y0 )> lokal nach y auflösbar
mit der Auflösung y = g(x).
4.4.5 Beispiele.
(i) Wir betrachten wieder die Kreisgleichung F (x, y) = 0 mit
F (x, y) = x2 + y 2 − 1 aus Beispiel 4.4.1.
(a) Für welche Punkte (x0 , y0 )> besitzt F eine lokale Auflösung nach y? F
ist stetig differenzierbar und Fy (x, y) = 2y 6= 0 falls y 6= 0. Also ist
F für alle Punkte auf dem Einheitskreis bis auf (0, ±1)> lokal nach y
auflösbar. Im konkreten Fall können wir die Auflösung auch angeben,
√
denn y = g(x) = ± 1 − x2 .
>
1 √1
√
(b) Bestimme die Ableitung der Auflösung g im Punkt
, 2 . Es ist
2
0
−1
g (x) = − (Fy (x, g(x)))
· Fx (x, g(x))
x= √1
2
=−
1 2
√ = −1.
2
√2
2
60
KAPITEL 4. ANWENDUNGEN DER DIFFERENZIALRECHNUNG
y
y=
√
1 − x2
x
√
y = − 1 − x2
Abbildung 4.5: Auflösung der implizit gegebenen Kreisgleichung x2 + y 2 = 1
(ii) Es sei F : R2 × R → R mit F (x1 , x2 , y) = x21 + x2 y + ey − 2. Wir zeigen, dass
(0)
(0)
F (x1 , x2 , y) = 0 in (x0 , y0 )> = (x1 , x2 , y0 )> = (1, 2, 0)> nach y auflösbar ist
und bestimmen die Ableitung der Auflösung g in (1, 2)> .
Es gilt F 0 (x1 , x2 , y) = (2x1 y x2 + ey ), F (1, 2, 0) = 0 und Fy (1, 2, 0) = 3 6= 0.
Also gibt es eine Umgebung U von (1, 2) in der eine Auflösung g : U → V
existiert, wobei V eine Umgebung um y0 = 0 ist. Die Auflösung g hat die
Eigenschaften
(a) g(1, 2) = 0,
(b) F (x1 , x2 , g(x1 , x2 )) = 0 für alle x ∈ U und
−1
(c) g (1, 2) = − (Fy (1, 2, 0))
0
· Fx (1, 2, 0) =
− 31
· 2 0 =
(iii) Zeige, dass das (nicht-lineare) Gleichungssystem
− 23
0 .
x2 + ey1 − cos y2 = 0,
sin x + 2y12 + sin y2 = 0
lokal um den Punkt (0, 0, 0)> nach (y1 , y2 )> auflösbar ist und bestimme yi0 (0)
für i = 1, 2.
Wir schreiben das System als implizite Funktion F : R × R2 → R2 mit
F (x, y1 , y2 ) =
x2 + ey1 − cos y2
sin x + 2y12 + sin y2
!
.
61
4.4. IMPLIZITE FUNKTIONEN
Es gilt F (0, 0, 0) = 0 und
F 0 (x, y1 , y2 ) =
2x
ey1
sin y2
cos x 4y1 cos y2
Damit ist det Fy (0, 0, 0) = det
1 0
!
, Fy =
ey1
sin y2
4y1 cos y2
!
.
!
= 1 6= 0. Also gibt es in einer Umge0 1
bung U von x = 0 eine Auflösung g : U → V , wobei V eine Umgebung von
(0, 0)> ist, mit
(a) g(0) = (0, 0)> ,
(b) F (x, g1 (x), g2 (x)) = 0 für alle x ∈ U und
(c) g 0 (0) = − (Fy (0, 0, 0))−1 · Fx (0, 0, 0) = −
Also ist y10 (0) = 0 und y20 (0) = −1.
1 0
0 1
!
·
!
0
1
=
0
!
−1
.
62
KAPITEL 4. ANWENDUNGEN DER DIFFERENZIALRECHNUNG
Kapitel 5
Integration im Rn
5.1
Parameterintegrale
5.1.1 Bemerkung. Häufig treten Funktionen als sogenannte Integralfunktionen
Z
F (x) =
x
f (t) dt
a
auf oder sie besitzen eine Integraldarstellung der Form
F (x) =
Z
d
f (x, t) dt,
c
wobei der Integrand vom Parameter x abhängt und die Integrationsvariable hier t
ist. Einige bekannte Beispiele sind die durch ein uneigentliches Integral definierte
Gammafunktion
Γ(x) =
Z
∞
tx−1 e−t dt für x > 0,
0
y
5
1
4 x
1
Abbildung 5.1: Die Gammafunktion
63
64
KAPITEL 5. INTEGRATION IM RN
die Besselfunktionen
1
Jn (x) =
π
Z
0
π
cos(x sin t − nt) dt für n ∈ Z
oder die Laplace-Transformierte einer geeigneten Funktion f (vergleiche Abschnitt 8.3),
Z ∞
f (t)e−xt dt.
F (x) =
0
Die Integranden sind jeweils Funktionen in mehreren Veränderlichen (x und t). Wir
untersuchen, wie man solche Integralfunktionen integriert und differenziert. Wir
betrachten dabei nur Funktionen, die durch Integration über endliche Intervalle
entstehen. Unter geeigneten Voraussetzungen kann man die folgenden Aussagen aber
auch auf unendliche Intervalle ausdehnen (zum Beispiel Satz von der majorisierten
Konvergenz, [11] oder gleichmäßige Konvergenz 8.1.3).
5.1.2 Satz (Vertauschung von Differentiation und Integration). Es sei f : [a, b] ×
[c, d] → R, (x, t) 7→ f (x, t) stetig. Dann gilt:
(i) Die Integralfunktion F : [a, b] → R mit
Z d
F (x) :=
f (x, t) dt
c
existiert und ist stetig (auf [a, b]).
(ii) Ist f nach x stetig partiell differenzierbar, dann ist auch F differenzierbar mit
Z d
0
∀x ∈ [a, b] F (x) =
fx (x, t) dt.
c
5.1.3 Beispiel. Wir betrachten die Funktion F (x) =
Z
1
π
sin(tx)
dt. Der Integrand
t
sin(tx)
ist nach x auf R stetig partiell differenzierbar. Damit gilt für x 6= 0:
t
Z π
Z π
∂
sin(tx)
∂ sin(tx)
0
dt =
dt
F (x) =
∂x
t
t
1
1 ∂x
π
Z π
sin(tx)
sin(πx) − sin(x)
=
cos(tx) dt =
=
.
x
x
1
t=1
5.1.4 Vertauschen der Integrationsgrenzen. Es sei f : [a, b] × [c, d] → R,
(x, t) 7→ f (x, t) stetig. Dann gilt:
Z bZ d
Z
f (x, t)dtdx =
a
c
c
d
Z
a
b
f (x, t)dxdt.
65
5.2. DAS RIEMANN-INTEGRAL IM RN
5.1.5 Satz (Leibniz-Regel). Es sei f : [a, b] × [c, d] → R stetig und nach x stetig
partiell differenzierbar. Weiter seien g, h : [a, b] → R stetig. Dann ist
F (x) :=
Z
h(x)
f (x, t) dt
g(x)
differenzierbar und es gilt
0
F (x) =
Z
h(x)
g(x)
fx (x, t) dt + f (x, h(x)) · h0 (x) − f (x, g(x)) · g 0 (x).
5.1.6 Beispiel. Berechne die Ableitung von F (x) =
be).
R x2
0
cos(xt2 ) dt (Übungsaufga-
Das Riemann-Integral im Rn
5.2
Wir betrachten zunächst Funktionen auf Intervallen.
5.2.1 Definition. Es sei f : I → R eine Funktion mit I := [a, b] := [a1 , b1 ] × · · · ×
[an , bn ].
(i) I heißt (n-dimensionales abgeschlossenes) Intervall im Rn (vergleiche Definition 1.1.10).
(ii) Die Zahl |I| := (b1 − a1 ) · · · (bn − an ) heißt Inhalt (Volumen) von I.
(iii) Eine Menge Z heißt Zerlegung oder Partition von I, wenn es abgeschlossene
Intervalle Ik ⊂ Rn gibt, k = 1, . . . , ` mit Z = { I1 , . . . , I` }, so dass
I=
`
[
k=1
Ik und ˚
Ik ∩ ˚
Ij = ∅ für k 6= j.
Die Menge aller möglichen Zerlegungen von I wird mit Z bezeichnet.
Abbildung 5.2: Zerlegung eines Rechtecks
66
KAPITEL 5. INTEGRATION IM RN
(iv) Die Zahl
O(f, Z) :=
X̀
sup f (x) · |Ik |
X̀
inf f (x) · |Ik |
k=1
heißt Obersumme von f und Z und
U (f, Z) :=
k=1
Ik
Ik
heißt Untersumme von f und Z.
(v) Das Infimum der Obersummen über alle Zerlegungen von Z
Z
f (x) dx := inf { O(f, Z) }
Z∈Z
I
heißt Oberintegral von f auf I und das Supremum der Untersummen über alle
Zerlegungen von Z
Z
I
f (x) dx := sup { U (f, Z) }
Z∈Z
heißt Unterintegral von f auf I.
(vi) f heißt Riemann-integrierbar auf I (kurz: f ∈ R(I)), falls gilt:
Z
Z
f (x) dx = f (x) dx.
I
I
Dieser gemeinsame Wert heißt (Riemann-)Integral von f über I und wird mit
Z
f (x) dx
I
bezeichnet.
5.2.2 Bemerkung. Insbesondere auf I stetige Funktionen f sind wie im Eindimensionalen integrierbar.
5.2.3 Eigenschaften des (Riemann-)Integrals. Es sei I ⊂ Rn ein Intervall,
f, g : I → R integrierbar und λ ∈ R. Dann sind auch λf , f + g, f · g, |f | integrierbar
und es gilt:
(i)
(ii)
R
R
R
I
λf (x) dx = λ
I
(f (x) + g(x)) dx =
I
f (x) dx,
R
I
f (x) dx +
R
I
g(x) dx,
(iii) Falls f (x) ≤ g(x) für alle x ∈ I, dann gilt auch
notonie),
R
I
f (x) dx ≤
R
I
g(x) dx (Mo-
67
5.2. DAS RIEMANN-INTEGRAL IM RN
R
R
(iv) I f (x) dx ≤ I |f (x)| dx (Dreiecksungleichung für Integrale),
Das Berechnen eines Riemann-Integrals mit Hilfe der Definition (Ober- und Un-
terintegral berechnen) ist sehr umständlich. Es hilft folgender Satz.
5.2.4 Satz (Iterierte Integrale). Es seien I = [a, b] = [a1 , b1 ] × · · · × [an , bn ] ⊂ Rn
ein Intervall und f : I → R integrierbar. Dann gilt
Z
Z
Z
f (x) dx =
f (x) dx =
f (x1 , . . . , xn ) d(x1 , . . . , xn )
I
[a,b]
[a1 ,b1 ]×···×[an ,bn ]
Z b1 Z b2
=
a1
a2
···
Z
bn
an
f (x1 , . . . , xn ) dxn · · · dx2 dx1
Die Integrationsreihenfolge spielt dabei keine Rolle, sofern die auftretenden Integrale
stets existieren.
5.2.5 Beispiel.
Z
Z
x
y d(x, y) =
[1,2]×[0,1]
1
0
=
Z
1
Z
2
x
y dxdy =
1
2
Z
1
2
Z
1
x
y dydx =
0
1
3
dx = [ln(x + 1)]21 = ln .
1+x
2
Z
1
2
y x+1
x+1
1
dx
y=0
Bisher haben wir nur über Intervallen integriert. Wie berechnet man aber
R
M
f,
wenn M kein Intervall ist? Wir können die Menge M , wenn M beschränkt ist, durch
ein Intervall umschreiben. Das heißt, wir finden ein Intervall I mit M ⊂ I ⊂ Rn .
Wir können dann die triviale Fortsetzung von f auf I, fI : I → R mit

f (x) für x ∈ M,
x 7→
0
für x ∈
/M
betrachten. Diese ist wieder auf einem Intervall definiert und daher den Überlegungen aus Definition 5.2.1 zugänglich:
5.2.6 Definition. Es seien M ⊂ Rn beschränkt, I ⊂ Rn ein abgeschlossenes In-
tervall mit M ⊂ I und f : M → R eine beschränkte Funktion. Dann heißt f
(Riemann-)integrierbar über M , wenn

f (x) für x ∈ M,
fI : I → R, x 7→
0
für x ∈
/M
über I integrierbar ist. In diesem Fall heißt
Z
Z
f (x) dx = fI (x) dx
M
das (Riemann)-Integral von f über M .
I
68
KAPITEL 5. INTEGRATION IM RN
Die Berechnung eines solchen Integrals mit der Definition ist wieder umständlich.
Zur praktischen Berechnung hilft der nächste Satz, der eine Verbindung zu den
Methoden aus Satz 5.2.4 herstellt.
5.2.7 Satz. Es seien M ⊂ I = [a1 , b1 ] × · · · × [an , bn ] ⊂ Rn und f ∈ R(M ). Für
t ∈ [a1 , b1 ] definieren wir den x1 −Schnitt

 




  x2 
.. 
n−1
Mx1 (t) := 
. ∈R





 xn
Dann ist die Funktion
Z
[a1 , b1 ] → R, t 7→
 
t
 
 x2 
 . ∈M
 . 
 . 
xn











.
f (t, x2 , . . . , xn ) d(x2 , . . . , xn )
Mx1 (t)
über [a1 , b1 ] integrierbar und es gilt
Z
f (x) dx =
M
Z
b1
a1
Z
f (t, x2 , . . . , xn ) d(x2 , . . . , xn ) dt.
Mx1 (t)
Mx1 (1)
Mx1 (3)
Mx1 (5)
Abbildung 5.3: x1 -Schnitt durch eine Menge M
5.2.8 Bemerkungen.
(i) Analog gilt der Satz auch für andere Schnitte, zum
Beispiel über Mx2 , Mx3 , . . . .
(ii) Wir haben oben der Klarheit wegen Mx1 (t) geschrieben, um zu verdeutlichen,
dass die Variable t und die Schnittvariable x1 unabhängig voneinander sind. In
der Praxis kann man, wenn der Schnitt klar ist, auf diese Trennung verzichten
und erspart sich dadurch eine Variablensubstitution.
69
5.2. DAS RIEMANN-INTEGRAL IM RN
y M̃
M̃y (y)
y
M
Mx (t)
x
M̃x (x)
x
Abbildung 5.4: Die Mengen aus Beispiel 5.2.9
5.2.9 Beispiele. (i) Berechne das Integral von f (x, y) = x2 + y 2 über der Menge
M = (x, y)> ∈ R2 0 ≤ x ≤ 1, 0 ≤ y ≤ x . Es gilt
Mx (t) = y ∈ R (t, y)> ∈ M für t ∈ [0, 1]
= { y ∈ R | 0 ≤ y ≤ t } für t ∈ [0, 1]
= [0, t] für t ∈ [0, 1].
Damit folgt
Z
Z
f (x, y) d(x, y) =
Z
1
0
M
=
Z
1
0
2
2
t + y dydt =
Mx (t)
x2 y +
3
y
3
x
dx =
Z
Z
1
0
1
0
y=0
Z
x
x2 + y 2 dydx
0
4 3
1
x dx = .
3
3
(ii) Berechne jeweils das Integral von g(x, y) = x und h(x) = 1 über der Menge
R
M̃ = (x, y)> ∈ R2 x2 + y 2 ≤ 1, x ≥ 0 . Was stellt M̃ h(x) dx geometrisch
dar? Es gilt
o
M̃x (x) = M̃ (x) = y ∈ R (x, y)> ∈ M̃ für x ∈ [0, 1]
= y ∈ R y 2 + x2 ≤ 1 für x ∈ [0, 1]
√
√
= [− 1 − x2 , 1 − x2 ] für x ∈ [0, 1].
n
Damit erhalten wir für g(x, y):
Z 1Z
Z
g(x, y) d(x, y) =
M̃
0
=
Z
0
x dydx =
M̃ (x)
1
√
2
1−x
√
[xy]y=−
1−x2
3
2
= − (1 − x2 ) 2
3
1
Z
1
0
dx =
x=0
Z
√
1−x2
√
− 1−x2
Z 1 √
0
2
= .
3
x dydx
2x 1 − x2 dx
70
KAPITEL 5. INTEGRATION IM RN
Das gleiche Ergebnis erhält man natürlich auch mit dem y−Schnitt: Es ist
n
o
>
M̃y (y) = M̃ (y) = x ∈ R (x, y) ∈ M̃ für y ∈ [−1, 1]
= x ∈ R x2 + y 2 ≤ 1, x ≥ 0 für y ∈ [−1, 1]
p
= [0, 1 − y 2 ] für y ∈ [−1, 1],
und damit haben wir
Z
Z
g(x, y) d(x, y) =
1
−1
M̃
=
Z
1
−1
Z
x dxdy =
√
M̃ (y)
1 2
x
2
Z
−1
1−y 2
dy =
√
Z
1
x dxdy
0
Z
1
−1
x=0
1−x2
1
1 3
2
1
=
y− y
= .
2
3
3
y=−1
1
(1 − y 2 ) dy
2
Für h(x, y) berechnet sich das Integral wie folgt:
Z
h(x, y) d(x, y) =
M̃
Z
0
=
Z
0
1
Z
1 dydx =
M̃x (x)
1
√
2
1−x
√
[y]y=−
1−x2
Z
1
0
dx =
Z
Z
0
1
√
1−x2
√
− 1−x2
1 dydx
√
2 1 − x2 dx.
Wir substituieren x = sin u, dann ist dx = cos u du und
p
√
1 − x2 = 1 − sin2 u = cos u.
Für das Integral folgt
Z
Z
h(x, y) d(x, y) =
M̃
0
π
2
1
2 cos u du = 2
(u + sin u cos u)
2
2
π2
u=0
=
π
.
2
Das Ergebnis stellt den Flächeninhalt von M̃ dar (der Flächeninhalt eines
Kreises mit Radius r ist bekanntlich πr2 ).
Allgemein lässt sich das Volumen einer Menge M ⊂ Rn wie folgt berechnen.
5.2.10 Bemerkungen.
(i) Der n-dimensionale Inhalt (Volumen) |M | einer Men-
ge M ⊂ R ist, falls existent, durch
Z
|M | =
1 d(x1 , . . . , xn )
n
M
gegeben. Mit Satz 5.2.7 gilt weiter
Z
Z b1 Z
Z
|M | =
1 dx =
1 d(x2 , . . . , xn ) dx1 =
M
a1
M x1
b1
a1
|Mx1 (x1 )| dx1 .
71
5.2. DAS RIEMANN-INTEGRAL IM RN
(ii) Im Fall n = 1 ist |·| die Länge eines Intevalls, für n = 2 stellt |·| den Flächeninhalt dar und für n = 3 ist |·| ein dreidimensionales Volumen.
(iii) Das Volumen |M | muss nicht existieren.
(iv) Es gilt das Cavalierische Prinzip: Sind für zwei Mengen M, N ⊂ Rn für ein
i ∈ { 1, . . . , n } die xi -Schnitte Mxi (t) und Nxi (t) für alle t jeweils inhaltsgleich,
so gilt |N | = |M | (vergleiche Abbildung 5.5).
Abbildung 5.5: Cavalierisches Prinzip, 5.2.10 (iv): Der gebogene Zylinder hat das
selbe Volumen wie der gerade.
5.2.11 Beispiel. Berechne das Volumen (Flächeninhalt) der Mengen aus Beispiel
5.2.9 (Übungsaufgabe).
5.2.12 Beispiel. Berechne das Volumen eines Zylinders mit Radius r und Höhe h.
Wir bilden den z-Schnitt:
Mz (z) = M (z) = (x, y)> ∈ R2
= (x, y)> ∈ R2
(x, y, z)> ∈ M für z ∈ [0, h]
2
x + y 2 ≤ r2 für z ∈ [0, h]
M (z) ist also eine Kreisscheibe mit Radius r. Also ist |M (z)| = πr2 . Damit gilt
Z h
Z h
πr2 dz = πr2 [z]hz=0 = πr2 h.
|M | =
|M (z)| dz =
0
0
Allgemeiner als Satz 5.2.4 gilt der
5.2.13 Satz von Fubini. Es seien Im ⊂ Rm , In ⊂ Rn abgeschlossene Intervalle
und f : Im × In → R integrierbar. Existiert für alle y ∈ In
Z
F (y) =
f (x, y) dx,
Im
dann gilt
Z
Im ×In
f (x, y) d(x, y) =
Z Z
In
Im
f (x, y) dx dy.
72
KAPITEL 5. INTEGRATION IM RN
5.3
Die Transformationsformel
Manchmal erweisen sich die Methoden aus dem vorherigen Abschnitt zum Berechnen
von mehrdimensionalen Integralen als schwierig oder ungeeignet, insbesondere die
Schnittmethode kann zu komplizierten Integrationsgrenzen führen. Wir stellen hier
eine Methode vor, die der Substitutionsregel im Eindimensionalen entspricht.
5.3.1 Definition. Es sei M ⊂ Rn und Φ : M → Rn eine Funktion. Dann heißt
det Φ0 (x), falls existent, die Funktionaldeterminante von Φ in x.
5.3.2 Bemerkungen. Die Funktionaldeterminante einer Funktion Φ : M ⊂ Rn →
Rn gibt zu einem gegebenen Punkt a ∈ M Informationen über das Verhalten der
Funktion in einer Umgebung des Punktes. Es gilt:
(i) Ist det Φ0 (a) 6= 0, dann ist Φ in einer Umgebung von a umkehrbar (vgl. Abschnitt 4.3).
(ii) Ist det Φ0 (a) > 0, dann behält Φ die Orientierung.
(iii) Ist det Φ0 (a) < 0, dann ändert Φ die Orientierung.
(iv) Anschaulich beschreibt det Φ0 (a), wie sehr ein winziges (infinitesimales) Intervall in einer Umgebung von a verzerrt wird. Diese Verzerrung müssen wir bei
der Integration berücksichtigen.
5.3.3 Transformationsformel. Es seien M, M̃ ⊂ Rn beschränkt, Φ : M → M̃ =:
Φ(M ) ein Diffeomorphismus, das heißt eine differenzierbare bijektive Abbildung, deren Umkehrfunktion ebenfalls differenzierbar ist, und det Φ0 (x) 6= 0 für alle x ∈ M .
Weiter sei f : M̃ → R stetig. Dann gilt
Z
Z
f (Φ(u)) |det Φ0 (u)| du.
f (x) dx =
M̃
M
5.3.4 Bemerkung. In vielen praktischen Anwendungen (zum Beispiel Kugelkoordinaten) ist Φ nicht bijektiv. Der Satz behält aber trotzdem seine Gültigkeit.
Die Funktionaldeterminante ist in diesen Fällen nur in wenigen Punkten (auf einer geeigneten Menge ohne n-dimensionales Volumen, man spricht auch von einer
„Nullmenge“) gleich Null.
Wir betrachten einige wichtige Koordinatentransformationen an Beispielen genauer.
73
5.3. DIE TRANSFORMATIONSFORMEL
5.3.5 Beispiel (Polarkoordinaten). Es sei
Φ : [0, ∞) × [−π, π] → R2 ,
r
ϕ
!
r cos ϕ
7→
r sin ϕ
dann ist
cos ϕ −r sin ϕ
det Φ0 (r, ϕ) = det
sin ϕ
r cos ϕ
!
!
x
=
y
!
,
=r>0
für r > 0, die Funktionaldeterminante verschwindet also nur für r = 0.
ϕ
y
ϕ=
Φ
ϕ = 34 π
ϕ=
π
2
ϕ = 34 π
π
4
ϕ=
ϕ=π
0
π
4
ϕ=0
x
r
r=1
r = 2, 5
ϕ = − π2
ϕ = −π
ϕ = − π2
r = 1 r = 2, 5
Abbildung 5.6: Polarkoordinaten: Ein Kreis mit dem Mittelpunkt (0, 0)> in der
Ebene ist in Polarkoordinaten ein Rechteck (Abbildung angelehnt an [12]).
R
(i) Berechne M̃ f (x, y) d(x, y), wobei f (x, y) = x und M̃ der Halbkreis mit M̃ =
(x, y)> ∈ R2 x2 + y 2 ≤ 1, x ≥ 0 = Φ(M ) sei. Es gilt M = [0, 1]× − π2 , π2
und weiter
Z
Z
Z
f (x, y) d(x, y) =
x d(x, y) =
M̃
M̃
=
Z
1
=
0
0
π
2
1
Z
π
2
− π2
f (Φ(r, ϕ)) |det Φ0 (r, ϕ)| dϕdr
r cos ϕ r dϕdr =
ϕ=− π2
0
Z
Z
1
2
2r2 dr = .
3
Z
0
1
π
[r2 sin ϕ]−2 π dr
2
(ii) Die Berechnung der Kreisfläche (Beispiel 5.2.9) ist mit Polarkoordinaten einfacher: Berechne das Volumen (den Flächeninhalt) einer Kreisscheibe mit Radius
R.
74
KAPITEL 5. INTEGRATION IM RN
Es sei also M̃ = (x, y)> ∈ R2 x2 + y 2 ≤ R2 . Dann ist der Flächeninhalt
R
gegeben durch M̃ 1 d(x, y). Es gilt
Z
Z RZ π
f (Φ(r, ϕ)) |det Φ0 (r, ϕ)| dϕdr
1 d(x, y) =
0
−π
M̃
Z R
Z RZ π
1 · r dϕdr =
2πr dr = R2 π.
=
0
−π
0
5.3.6 Beispiel (Kugelkoordinaten, sphärische Koordinaten).
h π πi
Ψ̃ : [0, ∞) × [−π, π] × − ,
→ R3 ,
2 2
 

  
r
r cos ϕ cos θ
x
 

  
ϕ 7→  r sin ϕ cos θ  = y  .
θ
r sin θ
z
Diese Koordinaten entsprechen der gängigen Winkelbestimmung auf der Erde. θ
ist dabei der Breitengrad gemessen vom Äquator und ϕ der Längengrad. In Abbildung 5.7 ist die unten erwähnte alternative Version der Kugelkoordinaten dargestellt, bei welcher der zweite Winkel (Breitengrad) von der z-Achse (“vom Nordpol”)
gemessen wird.
Die Funktionaldeterminante der Kugelkoordinatenabbildung entwickeln wir nach
der dritten Zeile und erhalten
cos ϕ cos θ −r sin ϕ cos θ −r cos ϕ sin θ
0
det Ψ̃ (r, ϕ, θ) = sin ϕ cos θ r cos ϕ cos θ −r sin ϕ sin θ sin θ
0
r cos θ
= sin θ · r2 sin2 ϕ sin θ cos θ + cos2 ϕ sin θ cos θ
+ r cos θ · r cos2 ϕ cos2 θ + sin2 ϕ cos2 θ
= r2 cos θ sin2 θ + cos2 θ = r2 cos θ 6= 0,
falls r > 0 und θ 6= ± π2 . Durch die letzte Gleichung ist die z-Achse beschrieben.
p
R
Wir berechnen M̃ f (x, y, z) d(x, y, z) für f (x, y, z) = x2 + y 2 + z 2 und M̃ =
(x, y, z)> ∈ R3 x2 + y 2 + z 2 ≤ 9 . Es gilt
Z
Z p
f (x, y, z) d(x, y, z) =
x2 + y 2 + z 2 d(x, y, z)
M̃
M̃
Z 3Z π Z π
2
=
f (Ψ̃(r, ϕ, θ)) det Ψ̃0 (r, ϕ, θ) dθdϕdr
0
=
Z
3
0
=
Z
0
3
−π
Z
π
−π
Z
π
−π
− π2
Z
π
2
− π2
Z
π
2
− π2
q
r2 cos2 ϕ cos2 θ + r2 sin2 ϕ cos2 θ + r2 sin2 ϕr2 cos θ dθdϕdr
r3 cos θ dθdϕdr = 81π.
75
5.3. DIE TRANSFORMATIONSFORMEL
Hinweis: Man kann Kugelkoordinaten auch anders parametrisieren (vergleiche
Abbildung 5.7). Wenn man den zweiten Winkel als Winkel zur z-Achse wählt, hat
man zum Beispiel
Ψ : [0, ∞) × [0, 2π] × [0, π] → R3 ,
 

  
r
r cos ϕ sin ϑ
x
 

  
ϕ 7→  r sin ϕ sin ϑ  = y  .
ϑ
r cos ϑ
z
Dabei haben wir auch das Intervall für ϕ verschoben, um die später verwendete
Darstellung zu erhalten. Die Funktionaldeterminante berechnet sich dann zu
ϑ=
π
3
ϕ=π
z
ϑ
ϕ=
r=1
− π4
ϕ=π
Ψ
r=2
ϑ=
π
3
r=2
ϕ
r
r=1
y
x
ϕ = − π4
Abbildung 5.7: Kugelkoordinaten: Achsenparallele Ebenen im (r, ϕ, ϑ)> -Raum werden zu Sphären (r konstant), Halbebenen (ϕ konstant) oder Kegeln (ϑ konstant) im
(x, y, z)> -Raum). Ein achsenparalleler Quader mit den gegenüberliegenden Ecken
(0, 0, 0)> und (r, 2π, π)> wird in eine Kugel transformiert (Abbildung angelehnt
an [12]).
cos ϕ sin ϑ −r sin ϕ sin ϑ r cos ϕ cos ϑ
0
det Ψ (r, ϕ, ϑ) = sin ϕ sin ϑ r cos ϕ sin ϑ r sin ϕ cos ϑ = r2 sin ϑ.
cos ϑ
0
−r sin ϑ Hier muss man dann bei der Integration nach ϑ über das Intervall [0, π] integrieren
(vergleiche auch Beispiel 7.2.16). Auch hier ist die Menge, auf der die Funktionaldeterminante verschwindet, durch die z-Achse gegeben.
76
KAPITEL 5. INTEGRATION IM RN
5.3.7 Beispiel (Zylinderkoordinaten). Die Zylinderkoordinatenabbildung ist
Φz : [0, ∞) × [−π, π] × R → R3
 

  
r
r cos ϕ
x
 

  
ϕ 7→  r sin ϕ  = y 
h
h
z
und ihre Funktionaldeterminante ist
cos ϕ −r sin ϕ 0
0
det Φz (r, ϕ, h) = sin ϕ r cos ϕ 0 = r > 0
0
0
1
falls r > 0, sie verschwindet also nur im Fall r = 0.
z
ϕ=π
z
Φz
ϕ = −π
r=2
ϕ
y
r=2
r=5
r=5
r
ϕ=
π
4
x
ϕ=π
ϕ=
π
4
Abbildung 5.8: Quader mit den gegenüberliegenden Ecken (0, −π, h1 )> und
(r, π, h2 )> in Zylinderkoordinaten sind Zylinder mit Radius r und der Länge h2 − h1
in den Standardkoordinaten (Abbildung angelehnt an [12]).
R
Wir berechnen M̃ f (x, y, z) d(x, y, z) für f (x, y, z) = 1 und den Zylinder mit der
Höhe 2, M̃ = (x, y, z)> ∈ R3 x2 + y 2 ≤ 4, |z| ≤ 1 :
Z
Z
f (x, y, z) d(x, y, z) =
1 d(x, y, z)
M̃
M̃
Z 2Z π Z 1
Z 2Z π
=
r dhdϕdr =
2r dϕdr
0
−π −1
0
−π
Z 2
=
2π · 2r dr = 8π.
0
Kapitel 6
Kurvenintegrale
Dieses Kapitel orientiert sich an den unveröffentlichten Skripten von Prof. Leopold
(Jena) und Prof. Balser (Ulm).
6.1
Kurven
Wir definieren zunächst, was eine Kurve ist. Dabei unterscheiden wir zwischen der
Parametrisierung – das ist die konkrete Darstellung über eine Abbildung –, dem
Träger der Kurve – das ist die Menge der Punkte auf der Kurve – und der Kurve
selbst, die man sich beispielsweise als Bahnkurve eines Massepunktes vorstellen kann.
6.1.1 Definition.
(i) Es sei I = [a, b] ⊂ R, a < b. x ∈ C(I, Rn ) heißt Parame-
terdarstellung einer Kurve im Rn . I heißt Parameterintervall der Darstellung.
x(a) heißt Anfangspunkt, x(b) heißt Endpunkt der Kurve. Ist x(a) = x(b) so
heißt die Kurve geschlossen. Gilt
∀t1 , t2 ∈ [a, b] ((t1 ≤ t2 ∧ x(t1 ) = x(t2 )) ⇒ t1 = t2 ∨ (t1 = a ∧ t2 = b)) ,
so heißt die Kurve doppelpunktfrei oder Jordanbogen.
(ii) Zwei Parameterdarstellungen x1 : I1 → Rn , x2 : I2 → Rn heißen äquivalent,
wenn es eine stetige, streng monoton wachsende Funktion ϕ : I1 → I2 mit
x1 (t) = x2 ◦ ϕ(t) gibt. Die Menge aller äquivalenten Parameterdarstellungen
heißt Kurve im Rn . Das gemeinsame Bild aller äquivalenten Darstellungen
einer Kurve γ heißt Träger der Kurve und wird mit γ ∗ bezeichnet, das heißt
γ ∗ = { x1 (t) | t ∈ [a, b] }.
77
78
KAPITEL 6. KURVENINTEGRALE
(iii) Es sei x : I → Rn eine Parameterdarstellung einer Kurve γ und π : a = t0 <
t1 < · · · < tN = b eine Partition von I, dann ist
L(x, π) =
N
X
j=1
|x(tj ) − x(tj−1 )|
die Länge des zu x und π gehörenden Polygonzuges. Ist supπ L(x, π) =: L(γ) <
+∞, so heißt die Kurve γ rektifizierbar oder von endlicher Länge. L(γ) ist zwar
abhängig von der gewählten Parameterdarstellung, für äquivalente Darstellungen ist aber L(γ) stets gleich (s. u.) und wird deshalb als Länge der Kurve γ
bezeichnet.
(iv) Eine Kurve γ heißt stetig differenzierbar, wenn sie eine stetig differenzierbare
Parameterdarstellung x : I → Rn besitzt. Gilt zusätzlich x0 (t) 6= 0 für alle
t ∈ I, so heißt γ eine glatte Kurve und x glatte Parameterdarstellung von γ.
Abbildung 6.1: Eine geschlossene, nicht doppelpunktfreie Kurve mit der Parameter
>
sin(17t)
sin(7t)
cos(17t)
darstellung x : [0, 2π] → R2 , t 7→ cos t + cos(7t)
+
,
sin
t
+
+
.
2
3
2
3
6.1.2 Bemerkungen.
(i) Man zeigt leicht: Zu jeder Parameterdarstellung einer
Kurve gibt es eine äquivalente Darstellung mit dem Parameterintervall [0, 1].
(ii) Die Kurvenlänge L(γ) = supπ L(x, π) ist unabhängig von der Wahl der Parametrisierung x, dies folgt aus der Bijektivität von ϕ.
(iii) Wenn zwei Kurven den gleichen Träger haben, bedeutet dies nicht, dass sie
!
cos
t
gleich sind: So haben zum Beispiel die durch x1 : [0, π] → R2 , t 7→
sin t
79
6.1. KURVEN
!
t
und x2 : [−1, 1] → R2 , t 7→
√
parametrisierten Kurven denselben
1 − t2
Träger, nämlich die obere Hälfte des Einheitskreises, aber x2 durchläuft sie in
der entgegengesetzten Richtung zu x1 .

t cos π , t > 0
t
6.1.3 Beispiel. Es sei I = [0, 1], f (t) =
, so ist f : I → I stetig
0,
t=0
und deshalb ist
!
t
x(t) =
f (t)
eine stetige Parameterdarstellung einer Kurve im R2 (vergleiche Abbildung 6.2).
Wählt man π = π(N ) durch t0 = 0, tk =
1
2N −k+1
für k = 1, . . . , 2N , so ist cos tπk =
y
1
x
Abbildung 6.2: Eine Kurve von unendlicher Länge (Beispiel 6.1.3).
(−1)−k+1 und daher
L(x, π) =
2N
X
k=1
=
2N
X
k=1
|x(tk ) − x(tk−1 )|
s
(tk − tk−1
)2
2
π
π
+ tk cos − tk−1 cos
tk
tk−1
2N
2N
X
X
p
2
2
=
(tk − tk−1 ) + (tk + tk−1 ) ≥
|tk + tk−1 |
≥
k=1
2N
X
k=1
tk =
k=1
2N
X
k=1
1
=
2N − k + 1
2N
X
`=1
1
.
`
Damit ist supπ L(x, π) = ∞ und die Kurve daher also nicht rektifizierbar.
6.1.4 Satz. Jede stetig differenzierbare Kurve γ ist rektifizierbar. Wenn x : [a, b] →
Rn eine stetig differenzierbare Parameterdarstellung von γ ist, so gilt
Z b
Z bq
0
L(γ) =
kx (t)k dt =
x01 2 + · · · + x0n 2 dt.
a
a
(6.1)
80
KAPITEL 6. KURVENINTEGRALE
Beweis. Dies folgt mit Hilfe der Riemannschen Definition des Integrals (Zwischensummen) und dem Mittelwertsatz.
(i) Es sei r > 0 und x : [0, 2π] → R2 , t 7→ r
6.1.5 Beispiele.
!
cos t
sin t
differenzierbare Parametrisierung der Kreislinie γ. Es gilt: x0 (t) = r
und somit kx (t)k = r. Mit Satz 6.1.4 folgt:
0
L(γ) =
Z
2π
0
0
kx (t)k dt =
Z
eine stetig
!
− sin t
cos t
2π
r dt = 2πr.
0
!
cos3 t
(ii) x(t) = a
für a > 0, t ∈ [0, 2π] beschreibt die Sternkurve (Astroide,
!
2
−
cos
t
sin
t
Abbildung 6.3) γ. Mit x0 (t) = 3a
ist
sin2 t cos t
sin3 t
y
a
ax
−a
−a
Abbildung 6.3: Sternkurve
2
kx0 (t)k = 9a2 cos4 t sin2 t + sin4 t cos2 t = 9a2 cos2 t sin2 t.
Daher gilt
L(γ) = 4
Z
0
6.1.6 Definition.
π
2
π
12a 2 2
3a cos t sin tdt =
sin t = 6a.
2
0
(i) Eine Kurve γ heißt stückweise stetig differenzierbar, wenn
γ in endlich viele stetig differenzierbare Teilkurven zerlegt werden kann.
(ii) Eine stückweise glatte Kurve ist entsprechend definiert.
(iii) Ist γ eine Kurve mit der Parameterdarstellung x : [0, 1] → Rn , so bezeichnen
wir die Kurve mit der Parameterdarstellung x̃(t) = x(1 − t) für t ∈ [0, 1] mit
−γ.
6.2. KURVENINTEGRALE ERSTER ART
81
Die Berechnung der Kurvenlänge stückweise stetig differenzierbarer Kurven erfolgt
dann einfach als Summe der Längen der einzelnen Abschnitte, deren Längen man
mit Hilfe von 6.1.4 bestimmt.
6.1.7 Satz (Parametrisierung nach der Bogenlänge). Es sei γ eine glatte Kurve.
Dann existiert eine glatte Parameterdarstellung x̃ : [0, L(γ)] → γ ∗ mit kx̃0 (s)k = 1
für alle s ∈ [0, L(γ)].
Beweis. Es sei x : [a, b] → Rn eine beliebige glatte Parameterdarstellung von γ.
Die durch
s(t) =
Z
a
t
kx0 (τ )k dτ
definierte Funktion bildet [a, b] auf [0, L(γ)] ab und ist streng monoton wachsend
und stetig differenzierbar mit der Ableitung s0 (t) = kx0 (t)k > 0. Daher existiert die
Umkehrfunktion λ(s) = t und x̃(s) =: x(λ(s)) ist eine glatte Parameterdarstellung
von γ:
1
x0 (t)
x̃ (s) = x (λ(s))λ (s) = x (t) · 0
= 0
s (t)
kx (t)k
0
und daher kx̃ (s)k = 1.
0
0
0
0
Hat man diese Parametrisierung gefunden, so berechnet sich die Länge von Kurvenstücken also besonders einfach.
6.2
Kurvenintegrale erster Art
Wir betrachten nun Kurvenintegrale mit skalaren Funktionen, auch Kurvenintegrale
erster Art genannt. Das heißt, wir betrachten eine glatte Kurve γ und eine Funktion
f : γ ∗ → R. Anschaulich wollen wir die Fläche zwischen der Kurve und der Funktion
berechnen.
6.2.1 Definition. Es seien γ eine glatte Kurve, x : [a, b] → Rn eine glatte ParameRt
trisierung von γ und s(t) = a kx0 (τ )k dτ . Weiter seien f : γ ∗ → R, π : a = t0 < t1 <
· · · < tN = b eine Partition von [a, b] und ξk = x(t̃k ) für t̃k ∈ [tk−1 , tk ], k = 1, . . . , N ,
Zwischenstellen. Ferner sei
∗
σ(π, f, γ ) =
N
X
k=1
f (ξk )( s(tk ) − s(tk−1 ) ).
|
{z
}
Länge des Bogens
zwischen diesen Punkten
Gilt nun für beliebige Partitionsfolgen (π` )`∈N von [a, b] mit |π` | → 0 für ` → ∞ und
π` ⊂ π`+1 , dass der Grenzwert
lim σ(π` , f, γ ∗ ) = I
`→∞
82
KAPITEL 6. KURVENINTEGRALE
unabhängig von der Wahl der Partitionsfolge und der Wahl der Zwischenstellen ξk
stets existiert, so heißt der Grenzwert Kurvenintegral erster Art der Funktion f längs
der Kurve γ, in Zeichen
I=
Z
f (s) ds.
γ
z
f (x, y)
y
γ∗
x
ξ1
ξ3 ξ2
6.2.2 Satz. Ist γ eine glatte Kurve, x : [a, b] → Rn eine glatte Parametrisierung
von γ und f stetig auf γ ∗ , dann existiert stets das Kurvenintegral erster Art von f
bezüglich γ und es gilt
Z
f (s) ds =
γ
Z
a
b
f (x(t)) kx0 (t)k dt.
Dabei ist das Kurvenintegral unabhängig von der Wahl der Parametrisierung.
(i) Es sei f : R3 → R, f (x, y, z) = x2 + y 2 + z, und x : [0, 4π] →
6.2.3 Beispiele.
R3 , x(t) = (cos t, sin t, t)> parametrisiere eine Schraubenlinie γ mit zwei Umdrehungen. Dann ist
Z
Z
f ds =
γ
4π
0
=
=
Z
4π
Z0 4π
0
f (x(t)) kx0 (t)k dt
p
f (cos t, sin t, t) (− sin t)2 + (cos t)2 + 1 dt
√
√
cos2 t + sin2 t + t 2 dt = 4 2π(1 + 2π).
(ii) Ein Draht mit der Massendichte µ(x) sei durch eine Kurve γ ⊂ R3 angenähert.
Die Gesamtmasse des Drahtes ist dann
Z
M = µ(s) ds.
γ
Der Vektor S mit den Komponenten
Z
1
xk µ(s)ds, k = 1, 2, 3,
Sk =
M γ
ist der Schwerpunkt.
83
6.3. KURVENINTEGRALE ZWEITER ART
(iii) Wir schneiden den Zylinder mit Radius R > 0 mit der durch z = R − x be-
schriebenen Fläche (vergleiche Abbildung 6.4) und bestimmen die Fläche des
„Dosenrestes“ des Zylindermantels zwischen dem Schnitt und der Koordinatenebene. Die Kurve γ wird dann durch (x(t), y(t))> = (R cos t, R sin t)> mit
t ∈ [0, 2π] parametrisiert und es gilt
Z 2π
Z
p
(R − R cos t) R2 (− sin t)2 + R2 cos2 t dt
(R − x) ds =
γ
0
=R
2
Z
2π
0
2
(1 − cos t) dt = R2 [t − sin t]2π
0 = 2πR .
z
2
1
1
1
x
y
Abbildung 6.4: Randkurven des geschnittenen Zylinders, Beispiel 6.2.3 (iii)
6.3
Kurvenintegrale zweiter Art
6.3.1 Kurvenintegrale zweiter Art. Im Folgenden sei γ ⊂ Rn eine Kurve, γ ∗ ihr
Träger und f : γ ∗ → Rn eine Abbildung, das heißt f (x) = (f1 (x), . . . , fn (x))> . Es
sei x : [a, b] → Rn eine Parametrisierung von γ und π : a = t0 < · · · < tN = b eine
Partition von [a, b]. Wir betrachten die Zwischensumme
σ(π, f, x) =
n X
N
X
i=1 k=1
fi (ξk )(xi (tk ) − xi (tk−1 ))
mit Zwischenstellen ξk ∈ x([tk−1 , tk ]), das heißt, auf dem entsprechenden Kurvenabschnitt. Vertauscht man die Summationsreihenfolge, so erhalten wir eine geometrische Interpretation als Approximation der auf die Koordinatenebenen projizierten
Flächen (vergleiche auch Abbildung 6.5):
σ(π, f, x) =
N
X
k=1
hf (ξk ), x(tk ) − x(tk−1 )i .
84
KAPITEL 6. KURVENINTEGRALE
fi (x)
xi
γ∗
Abbildung 6.5: Interpretation des Kurvenintegrals zweiter Art als Summe von projizierten Flächen
6.3.2 Definition. Es sei (π` )`∈N eine ausgezeichnete Partitionsfolge von [a, b] mit
π` ⊂ π`+1 für ` ∈ N und |π` | → 0 für ` → ∞. Existiert stets
lim σ(π` , f, x) = I
`→∞
unabhängig von der Auswahl der Zwischenstellen ξk und der Partitionsfolge (π` )`∈N ,
so heißt I Kurvenintegral zweiter Art der Funktion f längs der Kurve γ. In Zeichen
!
Z X
Z
n
fi (x)dxi .
I = f (x) · dx =
γ
γ
i=1
n
6.3.3 Satz. Es sei γ ⊂ R eine rektifizierbare Kurve mit der Parametrisierung
x : [a, b] → Rn und f : γ ∗ → Rn eine vektorwertige Funktion (Abbildung). Dann gilt
(i) Wenn f stetig auf γ ∗ ist, so existiert das Kurvenintegral zweiter Art von f
längs der Kurve γ.
(ii) Ist x eine stetig differenzierbare Parameterdarstellung, das heißt, γ ist stetig
differenzierbar, so gilt
Z
Z b
n Z b
X
0
f (x) · dx =
hf (x(t)), x (t)i dt =
fi (x(t))x0i (t) dt.
γ
a
i=1
a
(iii) Das Kurvenintegral zweiter Art ist dabei unabhängig von der Wahl der Parametrisierung.
85
6.3. KURVENINTEGRALE ZWEITER ART
Beweis. Folgt aus der Definition und mit Hilfe der Kettenregel.
Eine weitere mögliche Interpretation für das Kurvenintegral zweiter Art erhält man
durch folgende Betrachtung: Ein Massenpunkt bewegt sich entlang der Kurve der
durch x parametrisierten Kurve γ (mit der Geschwindigkeit x0 ) in einem Kraftfeld
f (x). Das Kurvenintegral gibt die gesamte benötigte physikalische Arbeit (Energie)
an, um den Massenpunkt vom Anfangspunkt x(a) zum Endpunkt x(b) entlang der
Kurve γ zu bewegen.
x0 (t)
f (x)
γ
Abbildung 6.6: Kurvenintegral zweiter Art als physikalische Arbeit auf dem Weg
durch ein Kraftfeld.
6.3.4 Definition.
(i) Sind x1 , x2 : [0, 1] → Rn Parameterdarstellungen von zwei
Kurven γ1 , γ2 ⊂ Rn , wobei der Endpunkt x1 (1) mit dem Anfangspunkt x2 (0)
übereinstimmen möge, dann ist

x (2t),
t ∈ 0, 12 ,
1
x(t) =
x (2t − 1), t ∈ 1 , 1 ,
2
2
eine Parameterdarstellung einer neuen Kurve, die mit γ1 + γ2 bezeichnet wird.
(ii) Ist x : [a, b] → Rn eine Parameterdarstellung einer Kurve γ und c ∈ (a, b), so
sind x[a,c] und x[c,b] Parameterdarstellungen von Kurven γ1 und γ2 und wir
sagen γ1 und γ2 bilden eine Zerlegung von γ.
86
KAPITEL 6. KURVENINTEGRALE
6.3.5 Lemma (Rechenregeln). Es seien γ ⊂ Rn eine rektifizierbare Kurve, f, g :
γ ∗ → Rn und λ ∈ R, dann gilt
Z
Z
λf (x) · dx = λ f (x) · dx.
(i)
γ
(ii)
Z
γ
γ
(f (x) + g(x)) · dx =
Z
γ
f (x) · dx +
Z
γ
g(x) · dx.
(iii) Ist γ = γ1 + γ2 , so gilt
Z
Z
Z
f (x) · dx =
f (x) · dx +
f (x) · dx.
γ1 +γ2
(iv)
Z
γ
f (x) · dx = −
Z
−γ
γ1
γ2
f (x) · dx.
Z
(v) f (x) · dx ≤ L(γ) sup kf (x)k.
x∈γ ∗
γ
Beweis. Folgt aus der Definition.
6.3.6 Bemerkung. Die Rechenregeln gelten analog auch für Kurvenintegrale erster
Art.
6.3.7 Beispiel. Wir betrachten f, g : R2 → R2 mit f (x, y) = (2xy, x2 )> und
g(x, y) = (xy, y−x)> auf den durch die folgenden Parameterdarstellungen gegebenen
Kurven γ1 , . . . , γ4 . Das Parameterintervall sei jeweils [0, 1].
!
!
!
x(t)
t
x0 (t)
γ1 :
=
,
=
y(t)
t
y 0 (t)
!
!
!
x(t)
t
x0 (t)
γ2 :
= 2 ,
=
y(t)
t
y 0 (t)
!
!
!
x(t)
t
x0 (t)
γ3 :
= 3 ,
=
y(t)
t
y 0 (t)
(1)
!
1
1
1
!
2t
1
3t2
!
(2)
γ4 = γ4 + γ4 mit
(1)
γ4
(2)
γ4
Wir berechnen
!
x(t)
y(t)
!
x(t)
y(t)
=
=
t
!
0
!
1
t
,
,
!
x0 (t)
y 0 (t)
!
x0 (t)
y 0 (t)
=
=
!
1
0
!
0
1
.
87
6.3. KURVENINTEGRALE ZWEITER ART
y
γ1
(2)
γ2
γ3
γ4
x
(1)
γ4
Abbildung 6.7: Die Kurven γ1 bis γ4 aus Beispiel 6.3.7.
Z
Z
γi
γi
f (x, y) · d(x, y) =
2xy dx + x2 dy ,
Z γi
Z γi
g(x, y) · d(x, y) =
(xy dx + (y − x) dy) .
Wir erhalten
Z
Z
f (x, y) · d(x, y) =
γ1
Z
γ2
γ3
f (x, y) · d(x, y) =
Z
γ4
2t · t · 1 + t · 1 dt =
2
0
f (x, y) · d(x, y) =
Z
1
f (x, y) · d(x, y) =
Z
1
1
1
0
γ1
γ2
γ3
1
g(x, y) · d(x, y) =
Z
1
0
Z
1
g(x, y) · d(x, y) =
1
0
2 · 1 · t · 0 + 12 · 1 dt = 1
1
1
1
t + (t − t) · 1 dt = t2 =
3 0 3
t3 + 2t(t2 − t) dt
1
0
2
3
3t − 2t dt = t4 − t3
4
3
t4 + 3t2 (t3 − t) dt
3
0
Z
Z
1
3t2 dt = t3 0 = 1
2
0
=
Z
2t · 0 · 1 + t · 0 dt +
2
und weiter
Z
Z
g(x, y) · d(x, y) =
Z
0
1
2t4 + 3t4 dt = t5 0 = 1
0
Z
1
1
2t3 + 2t3 dt = t4 0 = 1
0
Z
Z
2
0
=
1
12
1
1 6 1 5 3 4
1
=
3t + t − 3t dt = t + t − t
=−
2
5
4 0
20
0
Z
Z 1
Z 1
g(x, y) · d(x, y) =
(0 + (0 − t) · 0) dt +
(t · 0 + (t − 1)1 · 1) dt
γ4
Z
0
1
5
4
3
1
1 2
1
= t −t =− .
2
2
0
1
0
88
KAPITEL 6. KURVENINTEGRALE
6.3.8 Definition. Es sei U ⊂ Rn eine offene und zusammenhängende Menge (ein
Gebiet) und f : U → Rn eine stetige Abbildung. Dann heißt f auf U wegunabhän-
gig integrierbar oder konservativ, wenn für beliebige stetig differenzierbare Kurven
γ, γ̃ ⊂ U mit gleichem Anfangs- und Endpunkt stets gilt, dass
Z
Z
f (x) · dx = f (x) · dx.
γ
γ̃
γ̃
γ
Abbildung 6.8: Sind γ und γ̃ zwei Kurven mit dem selben Start- und Endpunkt, so
ist γ − γ̃ eine geschlossene Kurve
6.3.9 Korollar. f ist genau dann auf U wegunabhängig integrierbar, wenn für jede
(stückweise) glatte und geschlossene Kurve γ ⊂ U stets gilt
I
f (x) · dx = 0.
γ
6.3.10 Satz und Definition. Eine stetige Abbildung f : U ⊂ Rn → Rn ist genau
dann auf U wegunabhängig integrierbar, wenn f ein Gradientenfeld (Potenzialfeld)
ist, das heißt, es existiert eine bis auf eine additive Konstante eindeutig bestimmte
Stammfunktion F ∈ C 1 (U, R), mit f (x) = ∇F (x) für alle x ∈ U . Ist γ ⊂ U eine
beliebige stückweise stetig differenzierbare Kurve mit dem Anfangspunkt x0 und dem
Endpunkt x1 , so gilt in diesem Fall
Z
f (x) · dx = F (x1 ) − F (x0 ).
γ
Beweis. „⇒“ Es sei f wegunabhängig integrierbar. Wir wählen x0 ∈ U beliebig
aber fest, dann existiert für ein beliebiges x ∈ U eine glatte Kurve γx0 ,x ⊂ U mit
Anfangspunkt x0 und Endpunkt x. Wir setzen
Z
F (x) :=
f (y) · dy.
γx0 ,x
Wegen der Wegunabhängigkeit des Integrals ist F eindeutig bestimmt. Wir zeigen
∂F
(x)
∂xi
= fi (x): Es sei i ∈ { 1, . . . , n } und sei h mit |h| > 0 so klein gewählt,
89
6.3. KURVENINTEGRALE ZWEITER ART
γx0 ,x+hei
γx0 ,x
γi
x0
x
Abbildung 6.9: Zum Beweis von Satz 6.3.10.
dass γi := γx,x+hei = σ(x, x + hei ) ⊂ U . Es seien γx0 ,x , γx0 ,x+hei ⊂ U mit den
entsprechenden Endpunkten. Dann ist γ = γx0 ,x +γi −γx0 ,x+hei ⊂ U eine geschlossene
Kurve (siehe Abbildung 6.9) und folglich
Z
Z
Z
I
f (y) · dy +
f (y) · dy +
0 = f (y) · dy =
γ
= F (x) +
Z
γx0 ,x
γi
also
γi
−γx0 ,x+hei
f (y) · dy
f (y) · dy − F (x + hei ),
Z
γi
f (x) · dx = F (x + hei ) − F (x).
Es sei ohne Beschränkung der Allgemeinheit h > 0 und y : [0, h] → Rn , y(t) = x+tei ,
die Parametrisierung von γi nach der Bogenlänge, dann gilt nach Satz 6.3.3 und dem
Mittelwertsatz für Integrale
Z hX
Z
n
0
fj (y(t))yj (t) dt =
0
h
fi (y(t)) dt = hfi (y(τ ))
0
j=1
mit einem τ ∈ (0, h). Daraus erhalten wir
F (x + hei ) − F (x)
= fi (y(τ )).
h
Aufgrund der Stetigkeit von fi gilt dann im Grenzwert
F (x + hei ) − F (x)
∂F
=
(x) = fi (y(0)) = fi (x).
h→0
h
∂xi
lim
„⇐“ Es sei f ein Gradientenfeld, das heißt, es existiert ein F mit fi (x) =
∂F
(x),
∂xi
und sei weiter γ ⊂ U eine glatte Kurve mit Parametrisierung y : [a, b] → U . Dann
gilt mit der Kettenregel
Z
Z bX
n
f (x) · dx =
fi (y(t))yi0 (t) dt
γ
a
i=1
Z bX
n
dyi
∂F
(y(t)) (t) dt
=
dt
a i=1 ∂xi
Z b
b
d
=
F (y(t)) dt = F (y(t))a = F (y(b)) − F (y(a)),
a dt
90
KAPITEL 6. KURVENINTEGRALE
das heißt, nur Anfangs- und Endpunkt von γ sind für den Wert des Integrals wesentlich, f somit wegunabhängig integrierbar.
6.3.11 Bemerkung. Ist f : U → Rn , n ≥ 2, ein Gradientenfeld, gilt zusätzlich
f ∈ C 1 (U ) und ist F eine Stammfunktion von f , dann gilt zusätzlich für alle x ∈ U
und alle i, k = 1, . . . , n nach dem Satz von Schwarz die Integrabilitätsbedingung
∂fi
∂ ∂F
∂ ∂F
∂fk
(x) =
(x) =
(x) =
(x).
∂xk
∂xk ∂xi
∂xi ∂xk
∂xi
(6.2)
Für n = 3 ist die Integrabilitätsbedingung äquivalent zu rot f = 0 („f ist wirbelfrei“),
vergleiche Definition 7.1.1 und Satz 7.1.5.
6.3.12 Satz. Es sei U ⊂ Rn offen und sternförmig, das heißt, es existiert ein
x0 ∈ U , so dass für alle x ∈ U gilt σ(x0 , x) ⊂ U . Erfüllt f ∈ C 1 (U, Rn ) die
Integrabilitätsbedingung (6.2), so ist f ein Gradientenfeld.
Abbildung 6.10: Sternförmige Mengen
Beweis. Es sei U bezüglich x0 sternförmig und x ∈ U beliebig, dann ist y(t) =
(1 − t)x0 + tx für t ∈ [0, 1] eine Parametrisierung der Kurve γ = σ(x0 , x) ⊂ U . Wir
setzen
Z
F (x) :=
γ
f (y) · dy
und zeigen, dass F eine Stammfunktion von f ist, das heißt, dass
gilt:
∂F
∂
(x) =
∂xk
∂xk
Z
Z
∂
f (y) · dy =
∂xk
γ
Z
0
1
n
X
i=1
∂F
(x)
∂xk
fi ((1 − t)x0 + tx) (xi − x0i ) dt
| {z }
= fk (x)
=yi0
n
∂ X
=
fi ((1 − t)x0 + tx)(xi − x0i ) dt
∂x
k
0
i=1
Z 1X
n ∂fi
0
((1 − t)x0 + tx)t(xi − xi ) + fk ((1 − t)x0 + tx) dt
=
∂xk
0 i=1
1
91
6.3. KURVENINTEGRALE ZWEITER ART
=
Z
1
0
=
Z
0
n X
∂fk
i=1
1
∂xi
((1 − t)x0 + tx)t(xi −
x0i )
+ fk ((1 − t)x0 + tx) dt
d
(tfk ((1 − t)x0 + tx)) dt
dt
= [tfk ((1 − t)x0 + tx)]10 = fk (x) − 0.
6.3.13 Bemerkung. U sternförmig ist nicht notwendig, um in speziellen Fällen die
Existenz einer Stammfunktion zu sichern, beispielsweise besitzt das Gravitationsfeld
m
f (x) = −G kxk
3 x für x 6= 0 eine Stammfunktion ϕ(x) =
Gm
kxk
aber das Definitionsge-
biet U = R3 \ { 0 } ist nicht sternförmig. Im Allgemeinen kann die Bedingung zwar
zu „einfach zusammenhängend“ abgeschwächt aber nicht völlig fallen gelassen wer-
den. Einfach zusammenhängend bedeutet dabei anschaulich, dass jede geschlossene
Kurve auf einen Punkt „zusammengezogen“ werden kann.
6.3.14 Beispiel (Übungsaufgabe). Man zeige, dass
−x2
x21 +x22
x1
x21 +x22
f (x1 , x2 ) =
!
auf R2 \{ 0 } der Integrabilitätsbedingung genügt, aber kein Potenzial besitzt, indem
man f über den Einheitskreis integriert.
6.3.15 Beispiele. Wir untersuchen jeweils, ob f eine Stammfunktion besitzt und
bestimmen diese gegebenenfalls.
(i) Es sei f : R2 → R2 mit f (x, y) =
−3xy
2
2
!
. Es gilt
∂f1
∂y
= −3x 6= 2x =
∂f2
.
∂x
x −y
Also sind die Integrabilitätsbedingungen nicht erfüllt und somit besitzt f keine
Stammfunktion.
(ii) Es sei f : R2 → R2 mit f (x, y) =
2xy
!
und
x +y
R2 ist ein Sterngebiet. Also besitzt f nach Satz 6.3.12 eine Stammfunktion.
2
2
. Es gilt
∂f1
∂y
= 2x =
∂f2
∂x
Zum Auffinden einer Stammfunktion machen wir folgenden Ansatz: Für eine
mögliche Stammfunktion F : R2 → R gilt Fx (x, y) = 2xy. Also ist F (x, y) =
x2 y + c(y). Wir differenzieren diesen Ansatz für F nach y und erhalten
!
Fy (x, y) = x2 + cy (y) = x2 + y 2 .
Also muss cy (y) = y 2 gelten und somit c(y) =
x2 y +
y3
3
eine Stammfunktion von f .
y3
3
+ c. Daher ist F (x, y) =
92
KAPITEL 6. KURVENINTEGRALE
(iii) Zur Verdeutlichung der soeben angewandten Methode bestimmen wir eine


yexy + z 2


Stammfunktion für f : R3 → R3 , f (x, y, z) =  xexy + sin z . Ein Ansatz ist
xy
Fx (x, y, z) = ye
y cos z + 2xz
+ z und damit erhalten wir F (x, y, z) = exy + xz 2 + c(y, z).
2
Differenziation nach y liefert
!
Fy (x, y, z) = xexy + cy (y, z) = xexy + sin z,
woraus cy (y, z) = sin z folgt. Integration liefert dann c(y, z) = y sin z + c0 mit
einer Konstanten c0 ∈ R und ein Test mit
Fz (x, y, z) =
∂ xy
e + xz 2 + y sin z + c0 = y cos z + 2xz
∂z
zeigt, dass die Rechnung korrekt war.
Kapitel 7
Integralsätze
7.1
Differenzialoperatoren
7.1.1 Definition. Es sei f : Rn → Rn ein partiell differenzierbares Vektorfeld.
n
X
∂fk
(x) die Divergenz von f in x und
(i) Dann heißt div f (x) :=
∂xk
k=1
(ii) Im Fall n = 3 heißt
 ∂f
(x) −
∂x2
3
 ∂f1
rot f (x) :=  ∂x
(x) −
3
∂f2
(x)
∂x1
−

∂f2
(x)
∂x3

∂f3
(x)
∂x1
∂f1
(x)
∂x2
die Rotation von f in x (oder: zu f gehörendes Wirbelfeld).
 
∂
 ∂x. 1 
. 
7.1.2 Bemerkungen. Mit dem Nabla-Operator ∇ := 
 .  ergibt sich folgende
∂
∂xn
formale Schreibweise:
(i) div f (x) = ∇ · f (x), dabei bezeichnet · das Standardskalarprodukt.
(ii) rot f (x) = ∇ × f (x), × bezeichnet dabei das Kreuzprodukt im R3 mit
    

a1
b1
a2 b 3 − a3 b 2
    

a2  × b2  = a3 b1 − a1 b3  .
a3
b3
a1 b 2 − a2 b 1
(iii) Die Divergenz ordnet einem Vektorfeld ein Skalarfeld zu. Die Rotation ordnet
einem Vektorfeld wieder ein Vektorfeld zu.
93
94
KAPITEL 7. INTEGRALSÄTZE
(iv) Interpretiert man f als Strömungsfeld, dann gibt die Divergenz in jedem
Raumpunkt an, wieviel mehr aus einer Umgebung dieses Punktes hinausfließt,
als in diese Umgebung hineinfließt. Ist div f > 0 spricht man von Quellen, ist
div f < 0 von Senken. Gilt div f = 0 für alle x, dann heißt f quellenfrei.
Die Rotation von f gibt für jeden Punkt die doppelte Winkelgeschwindigkeit
an, mit der ein mitschwimmender Körper in diesem Punkt rotiert. Ist rot f = 0
für alle x, so heißt f wirbelfrei.
1
0
2
−1
−2
−1
0
0
1
2 −2
Abbildung 7.1: Divergenz des Vektorfelds f : R2 → R2 , f (x, y) = ((1 −
2x2 )e−x
2 −y 2
2 −y 2
, −2xye−x
)> , für bessere Übersichtlichkeit ist das Vektorfeld in der
durch z = 1 gegebenen Ebene dargestellt.
z
y
x
Abbildung 7.2: Rotation des Vektorfelds (xz 2 , 0, y 3 )> .
95
7.1. DIFFERENZIALOPERATOREN
(i) Es sei f : Rn → R ein zweimal stetig partiell differenzier-
7.1.3 Definition.
bares Skalarfeld. Dann heißt
∇
f (x) :=
n
X
∂ 2f
k=1
∂x2k
(x)
der Laplace-Operator von f in x.
(ii) Für ein Vektorfeld f : Rn → Rn ist




f1 (x)
f1 (x)

 . 

..  :=  ...  .
f (x) = 




fn (x)
fn (x)
∇
∇
∇
∇
(i) Formal ist der Laplace-Operator die Divergenz vom
7.1.4 Bemerkungen.
Gradienten von f oder das Skalarprodukt aus dem Nabla-Operator mit sich
∇
selbst, also
= div ∇ = ∇ · ∇ := ∇2 .
∇
Die Abbildung 7.1 kann daher auch als Veranschaulichung von
∇
f (x) = div(∇f (x)) = ∇ · ∇f (x) = ∇2 f (x).
xe−x
2 −y 2
be-
trachtet werden.
(ii) Die Jacobimatrix von ∇f ist die Hessematrix von f . Die Spur (Summe der
∇
Diagonalelemente) dieser Matrix ist
f.
7.1.5 Rechenregeln für Differentialoperatoren. Es seien f, g : Rn → Rn zwei-
mal partiell differenzierbare Vektorfelder und Φ : Rn → R ein zweimal partiell
differenzierbares Skalarfeld. Dann gilt:
(i) div(f + g) = div f + div g,
(ii) rot(f + g) = rot f + rot g,
(iii) div(f × g) = g > rot f − f > rot g,
(iv) div(Φf ) = ∇Φ · f + Φ div f ,
(v) rot(Φf ) = ∇Φ × f + Φ rot f ,
∇
Φ,
(vii) rot(rot f ) = ∇(div f ) −
∇
(vi) div(∇Φ) =
f,
(viii) rot(∇Φ) = 0, falls Φ ∈ C 2 , das heißt ein Gradientenfeld ist wirbelfrei und
96
KAPITEL 7. INTEGRALSÄTZE
(ix) div(rot f ) = 0, das heißt ein Wirbelfeld ist quellenfrei.
Beweis. zu (iv):
n
n n
X
X
X
∂
∂
∂
∂
(Φf )k =
(Φfk ) =
Φ · fk + Φ ·
fk
div(Φf ) =
∂xk
∂xk
∂xk
∂xk
k=1
k=1
k=1
n n
X
X
∂
∂
=
Φ · fk + Φ
fk = Φ0 · f + Φ div f.
∂xk
∂xk
k=1
k=1
Zu (viii): Mit dem Satz von Schwarz gilt
  
  
Φx
Φzy − Φyz
0
  
  
rot(∇Φ) = rot Φy  = Φxz − Φzx  = 0 .
Φz
7.2
Φyx − Φxy
0
Oberflächen
Die folgenden Abschnitte dieses Kapitels orientieren sich an unveröffentlichten Skripten von Prof. Leopold (Jena) und Prof. Schulz (Ulm).
7.2.1 Normalbereiche und zulässige Bereiche. Als Nachtrag zum Kapitel über
die Integralrechnung betrachten wir folgende Mengen, für die man zeigen kann, dass
sie „gut genug“ sind in dem Sinne, dass man ihnen ein Volumen zuweisen und über
sie problemlos integrieren kann, wenn die zu integrierende Funktion zum Beispiel
stetig ist.
Normalbereiche: Es sei i ∈ { 1, . . . , n } beliebig aber fest und
x0 = (x1 , . . . , xi−1 , xi+1 , . . . , xn ).
Eine Menge M ⊂ Rn heißt Normalbereich bezüglich der x0 -Hyperebene, wenn es
einen zulässigen Bereich M̃ ⊂ Rn−1 und stetige Funktionen g, h : M̃ → R mit
n
o
M = (x1 , . . . , xn ) x0 ∈ M̃ ∧ g(x0 ) ≤ xi ≤ h(x0 )
gibt. Dabei heißt M̃ ⊂ Rn zulässiger Bereich, wenn M̃ die endliche Vereinigung von
Normalbereichen ist (rekursive Definition, ein eindimensionaler Normalbereich ist
ein Intervall).
7.2.2 Definition. Es sei n ≥ 2 und k ∈ N. M ⊂ Rn heißt Hyperfläche der Klasse
C k , falls es zu jedem Punkt x0 = (x01 , . . . , x0n ) ∈ M eine offene Kugelumgebung
U = Ur (x0 ) = { x ∈ Rn | |x − x0 | < r } gibt, sowie eine Funktion φ ∈ C k (U, R) mit
>
∂φ
∂φ
(x), . . . ,
(x)
6= 0
∇φ(x) =
∂x1
∂xn
97
7.2. OBERFLÄCHEN
z
h(x, y)
h̃(x)
g̃(x)
y
g(x, y)
x
Abbildung 7.3: Normalbereich bezüglich (x, y)-Ebene, wobei der zulässige Bereich
in der (x, y)-Ebene ein Normalbereich bezüglich der x-Ebene (Achse) ist.
für x ∈ U , so dass
M ∩ U = { x ∈ U | φ(x) = 0 } .
7.2.3 Bemerkung. Nach dem Satz über implizite Funktionen existiert eine Kugel
Uε = Uε (x0 ) ⊂ Rn , so dass die Gleichung
φ(x) = 0
nach einem xi (i = 1, . . . , n) aufgelöst werden kann. Nach eventueller Umnummerierung können wir ohne Beschränkung der Allgemeinheit annehmen, dass i = n gilt.
Genauer gilt dann: Es gibt eine C k -Funktion ψ in
n
o
Uε0 = Uε0 (x00 ) = x0 = (x1 , . . . , xn−1 )> ∈ Rn−1 |x0 − x00 | < ε ,
x00 = (x01 , . . . , x0n−1 )> , so dass
xn = ψ(x0 ) = ψ(x1 , . . . , xn−1 )
für x = (x1 , . . . , xn )> ∈ M ∩ Uε . Hieraus folgt, dass
φ(x0 , ψ(x0 )) = 0
für x0 ∈ Uε0 . Es gilt sogar die Identität
M ∩ Uε = { x ∈ Uε0 × R | xn = ψ(x0 ) } .
98
KAPITEL 7. INTEGRALSÄTZE
7.2.4 Bemerkungen (Darstellungen von Flächen).
(i) Die Abbildung Rn−1 ⊃
Uε0 → Uε ⊂ Rn , x0 7→ x = (x0 , ψ(x0 ))> parametrisiert M ∩ Uε beziehungsweise
x1 , . . . , xn−1 sind lokale Koordinaten für M in Uε .
(ii) Lässt sich eine Fläche M direkt durch eine Funktion ψ(x0 ) = xn für x0 ∈ N ⊂
Rn−1 darstellen, so heißt diese Darstellung explizit, das heißt, eine explizit
gegebene Fläche ist der Graph einer Funktion.
(iii) In Analogie zur Parameterdarstellung bei Kurven sind auch Flächen mitunter
in Parameterdarstellung gegeben: Es sei P ⊂ Rn−1 ein zulässiger Bereich, der
Parameterbereich, und f ∈ C 1 (P̊ , Rn ) injektiv. Außerdem sei der Rang von
f 0 (p) gerade n − 1 für alle p ∈ P und ∂P hinreichend glatt.
M = { x ∈ Rn | ∃y ∈ P : x = f (y) } .
Wegen der Rangbedingung lassen sich auch Flächen mit Parameterdarstellung
lokal explizit darstellen.
(iv) Jede explizit gegebene Fläche M =
(x0 , f (x0 ))> ∈ Rn x0 ∈ N ⊂ Rn−1 ist
durch p = (p1 , . . . , pn−1 )> := (x1 , . . . , xn−1 )> = x0 ∈ N auch in Parameterdar-
stellung gegeben.
7.2.5 Beispiele.
(i) Die Oberfläche der Einheitskugel im R3 lässt sich schreiben
als
x ∈ R3 ϕ(x) := x21 + x22 + x23 − 1 = 0
q
2
3 2
2
S = x ∈ R x3 = ± 1 − x21 − x22 ∧ x1 + x2 ≤ 1
S 2 = x ∈ R3 ∃ϕ ∈ [0, 2π)∃ϑ ∈ [0, π] : x = (cos ϕ sin ϑ, sin ϕ sin ϑ, cos ϑ)>
S2 =
(ii) Betrachten wir M =
(x, y, z)> ∈ R3 0 ≤ z ≤ 4 − x2 − y 2 als Teil eines
Paraboloids, so ist die Oberfläche gegeben durch
(x, y, z)> ∈ R2 z = 0 ∧ x2 + y 2 ≤ 4
∪ (x, y, z)> ∈ R3 z = 4 − x2 − y 2 ∧ x2 + y 2 ≤ 4 ,
∂M = x ∈ R3 ∃ϕ ∈ [0, 2π)∃r ∈ [0, 2] : x = (r cos ϕ, r sin ϕ, 0)>
x ∈ R3 ∃ϕ ∈ [0, 2π)∃r ∈ [0, 2] : x = (r cos ϕ, r sin ϕ, 4 − r2 )> .
∂M =
99
7.2. OBERFLÄCHEN
4
2
0
−2
0
−1
0
1
−2
1
2
−1
Abbildung 7.4: Das Teil-Paraboloid aus Beispiel 7.2.5 (ii)
(iii) In 4.4.5 (ii) hatten wir die Funktion F (x, y, z) = x2 + yz + ez − 2 betrachtet
und gezeigt, dass es eine lokale Auflösung der Gleichung F (x, y, z) = 0 in
einer Umgebung des Punktes (1, 2, 0)> gibt. Das heißt, lokal existiert eine
explizite Darstellung z = g(x, y) der durch (x, y, z)> ∈ R3 F (x, y, z) = 0
gegebenen Fläche.
7.2.6 Definition. Es sei V ⊂ Rn eine offene Menge, k ∈ N. V gehört zur Klasse
C k , falls es zu jedem Punkt x0 ∈ ∂V eine offene Kugelumgebung U = Ur (x0 ) und
eine C k -Funktion ψ : U 0 = U 0 (x0 ) → R, (o. B. d. A.) gibt, so dass
V ∩ U = { x ∈ U 0 × R | xn < ψ(x0 ) } .
V ∈ C k bedeutet also, dass ∂V ∈ C k , das heißt, der Rand von V ist eine
Hyperfläche der Klasse C k .
7.2.7 Definition. Ist M ∈ C k gegeben durch φ(x) = 0, dann sind
ν(x) = (ν1 (x), . . . , νn (x))> = ±
∇φ(x)
k∇φ(x)k
die Einheitsnormalen von M im Punkt x ∈ M .
7.2.8 Bemerkung. Ist M explizit gegeben durch xn = ψ(x1 , . . . , xn−1 ), dann ist
>
∂ψ
∂ψ
0
0
− ∂x
(x
),
.
.
.
,
−
(x
),
1
∂xn−1
1
s
ν(x) = ±
.
n−1
P ∂ψ 0 2
1+
(x )
∂xi
i=1
100
KAPITEL 7. INTEGRALSÄTZE
7.2.9 Definition. Ist M = ∂U explizit gegeben durch xn = ψ(x0 ), dann ist
!
−∇ψ(x0 )
1
ν(x) = q
1 + k∇ψ(x0 )k2
die äußere Einheitsnormale von ∂U im Punkt x.
7.2.10 Beispiele.
(i) Die äußere Normale an die Einheitssphäre im R3 ist gege-
ben durch

2x1

 
x1
 
 x2 
x3
 
2x2 
2x3
ν(x1 , x2 , x3 ) = p 2
=p 2
4x1 + 4x22 + 4x23
x1 + x22 + x23
und im expliziten Fall durch

ν(x1 , x2 , x3 ) = q

x1
 1−x21 −x22 

 √ x2


2 −x2
1−x

1
2
√
1
x21
1−x21 −x22
+
x22
1−x21 −x22
.
+1
(ii) Die in 7.2.5 (ii) betrachtete Menge hat die äußere Normale ν = (0, 0, −1)> auf
der Teilmenge (x, y, z)> ∈ R3 z = 0 ∧ x2 + y 2 ≤ 4 , wobei man sich das
Vorzeichen anschaulich herleiten kann. Auf der Oberfläche des Paraboloids
(x, y, z)> ∈ R3 z = 4 − x2 − y 2 gilt

2x

 
2y 
1
.
ν(x, y, z) = p
4x2 + 4y 2 + 1
(iii) Die implizt gegebene Fläche 7.2.5 (iii) hat die Normale



2x + y
x



ez
ν(x, y, z) = ± p
.
(2x + y)2 + x2 + e2z
101
7.2. OBERFLÄCHEN
7.2.11 Bemerkung. Wir überlegen uns, dass der Vektor ∇φ(x) in die Richtung
des stärksten Anstiegs der Funktion φ zeigt, das heißt, ∇φ(x) ist orthogonal zur
Tangentialebene von M im Punkte x.
“Beweis”. Nach Auflösen der Gleichung φ(x) = 0 ist
φ(x1 , . . . , xn−1 , ψ(x1 , . . . , xn−1 )) = 0.
Implizites Differenzieren nach der Kettenregel liefert
∂φ
∂φ ∂ψ
+
= 0 für i = 1, . . . , n − 1.
∂xi ∂xn ∂xi
(7.1)
Andererseits sind die Vektoren
∂ψ
τ1 = 1, 0, . . . , 0,
∂x1
∂ψ
,
τ2 = 0, 1, 0 . . . , 0,
∂x2
..
.
∂ψ
τn−1 = 0, 0, . . . , 0, 1,
∂xn−1
linear unabhängige Tangentialvektoren und (7.1) bedeutet gerade, dass
hτi , Dφi = 0 für i = 1, . . . , n − 1.
7.2.12 Inhalt gekrümmter Flächen. Wir skizzieren zur Motivation eine Herleitung zum Flächeninhaltsproblem (siehe auch Abbilund 7.5):
(i) Wähle (finde) eine „geeignete“ Zerlegung der Fläche.
(ii) Konstruiere Tangentialebenen an beliebig ausgewählte Punkte der Zerlegungsteile.
(iii) Projiziere die Zerlegungsteile auf die jeweiligen Tangentialebenen.
(iv) Bestimme den Flächeninhalt der Projektionen.
(v) Summiere die Flächeninhalte auf und erhalte so einen Näherungswert für den
Flächeninhalt.
Es sei M eine explizit gegebene Fläche. Das heißt,
M = Gf =
x ∈ Rn ∃x0 ∈ D : x = (x0 , f (x0 ))>
102
KAPITEL 7. INTEGRALSÄTZE
x(j)
4
2
0
−2
x0(j)
−1
0
−2
0
−1
Abbildung 7.5: Approximation des Flächeninhalts durch Teile der Tangentialebene
in einem Punkt x(j) der Zerlegung.
xn
ν
α
α
Tj
Mj
x(j)
Dj
x0
Abbildung 7.6: Zur Herleitung des Inhalts gekrümmter Flächen
mit einer Funktion f : D → R, D ⊂ Rn−1 zulässig. Es sei Z = { D1 , . . . , DN } eine
Zerlegung von D. Gesucht ist |Mj | = x ∈ Rn ∃x0 ∈ Dj : x = (x0 , f (x0 ))> im
Sinne eines (n − 1)-dimensionalen Inhalts. Es sei x(j) = (x0(j) , f (x0(j) ))> ∈ Mj , dann
ist das Stück Tj der Tangentialebene an M über Dj im Punkt x(j) gegeben durch
*
(
!
+
)
−∇f (x0(j) )
Tj = x ∈ Dj × R , x − x(j) = 0 .
1
Wenn die Flächenstücke „klein“ genug sind, ist |Tj | ≈ |Mj | – dies ist für δ(Dj ) „sehr
klein“ gegeben. Es sei nun α der Winkel zwischen der äußeren Normalen und der
xn -Achse, dann gilt
|Dj | = cos α |Tj | ⇒ |Tj | =
1
|Dj | .
cos α
103
7.2. OBERFLÄCHEN
Nach der Definition des Winkels gilt
 
0
*
!  . +
.. 
−∇f (x0(j) ) 

,
 
1
0
1
1
!
cos α =
=r
−∇f (x0(j) ) Pn−1 ∂f 0(j) 2
)
1
+
k=1 ∂xk (x
1
und wir erhalten
v
u
2
n−1 X
u
∂f 0(j)
t
(x ) |Dj | .
|Tj | = 1 +
∂x
k
k=1
Als Approximation der Fläche erhalten wir also
v
2
N
N u
n−1 X
X
X
u
∂f 0(j)
t
|Mj | ≈
1+
(x ) |Dj | ≈ σ(Z, g, x0(j) )
∂x
k
j=1
j=1
k=1
als Zwischensumme eines n − 1-dimensionalen Riemann-Integrals über die stetige
Funktion
v
u
2
n−1 X
u
∂f
0
g(x ) = t1 +
(x0 ) .
∂x
k
k=1
Wählt man nun eine ausgezeichnete Zerlegungsfolge (Z` )`∈N von D, so konvergieren
die Zwischensummen nach unseren Voraussetzungen an f für ` → ∞ gegen das
Integral.
7.2.13 Definition. Der Flächeninhalt einer explizit gegebenen Fläche
M=
(x0 , xn )> ∈ Rn xn = f (x0 ) ∧ x0 ∈ D ⊂ Rn−1
wird definiert und bestimmt durch
v
2
Z u
n−1 X
u
∂f 0
t
1+
(x ) d(x1 , . . . , xn−1 ).
|M | =
∂x
k
D
k=1
7.2.14 Beispiele.
(i) Die Oberfläche M der oberen Hälfte der Einheitssphäre im
R3 ist explizit gegeben durch
q
f (x1 , x2 ) = x3 = 1 − x21 − x22 ,
x1
x2
!
∈D=
(
x1
x2
!
)
∈ R2 x21 + x22 ≤ 1 .
104
KAPITEL 7. INTEGRALSÄTZE
Mit
∂f
∂xi
= −√
gilt also
xi
1−x21 −x22
Z s
x22
x21
+
d(x1 , x2 )
1 − x21 − x22 1 − x21 − x22
D
Z s
Z 1 Z 2π
r
1
√
=
d(x1 , x2 ) =
dϕdr
2
2
1 − x1 − x2
1 − r2
0
0
D
i1
h √
2
= 2π − 1 − r
= 2π.
|M | =
1+
0
(ii) Die Oberfläche der Teilmenge des Paraboloids aus 7.2.5 (ii) berechnet sich mit
Hilfe von 7.2.10 (ii) zu
Z
{ x2 +y 2 ≤4 }
Z
p
4x2 + 4y 2 + 1 dxdy =
0
2
Z
2π
√
r 4r2 + 1dϕdr
0
3
1
= 2π
4r2 + 1 2
12
Die Gesamtoberfläche ist dann
π
6
2
=
0
√
17 17 − 1 + 4π.
π √
17 17 − 1 .
6
7.2.15 Bemerkung. Ist die Fläche M ⊂ R3 in Parameterdarstellung gegeben,
M=
x ∈ R3 ∃p ∈ P ⊂ R2 : x = f (p) ,
so erhalten wir die äußere Normale an die Fläche auch über das Kreuzprodukt von
geeigneten Tangentialvektoren. Vektoren in der Tangentialebene erhalten wir beispielsweise dadurch, indem wir die Tangenten an Kurven auf der Fläche betrachten.
Die einfachsten Kurven sind jene, bei denen wir eine Komponente von p = (p1 , p2 )>
festhalten. Wenn f beziehungsweise M genügend glatt sind (etwa C 1 ), so sind auch
y1 (p1 ) = f (p1 , p02 ) für (p1 , p02 ) ∈ P und y2 (p2 ) = f (p01 , p2 ) für (p01 , p2 ) ∈ P stetig
differenzierbare Parameterdarstellungen von Kurven in M und ihre Tangenten im
Punkt p0 = (p01 , p02 ) sind
∂y1
(p0 ) =
∂p1
∂yi
(p0 ):
∂pi
∂f1 ∂f2 ∂f3
,
,
∂p1 ∂p1 ∂p1
>
∂y2
(p0 ),
(p0 ) =
∂p2
Die äußere Normale ist dann
∂y1
∂p1
×
η(p0 ) = ∂y1
∂p1 ×
∂y2
∂p2
(p0 ).
∂y2 ∂p2 ∂f1 ∂f2 ∂f3
,
,
∂p2 ∂p2 ∂p2
>
(p0 ).
105
7.2. OBERFLÄCHEN
Schreiben wir f (p1 , p2 ) = (x(p1 , p2 ), y(p1 , p2 ), z(p1 , p2 ))> zur Vereinfachung, so berechnet sich η zu

yp1 zp2 − yp2 zp1



xp2 zp1 − xp1 zp2 
xp1 yp2 − xp2 yp1
η=q
.
(yp1 zp2 − yp2 zp1 )2 + (xp2 zp1 − xp1 zp2 )2 + (xp1 yp2 − xp2 yp1 )2
Schreibt man zur Verdeutlichung und Abkürzung
x
∂(x, y)
p1 xp2 xp1 yp2 − xp2 yp1 = =: C,
= det
yp1 yp2 ∂(p1 , p2 )
∂(x, z)
det
=: −B,
∂(p1 , p2 )
∂(y, z)
=: A,
det
∂(p1 , p2 )
so ist η =
√
(A,B,C)>
.
A2 +B 2 +C 2
Über den Satz über inverse Abbildungen und die Transfor-
mationsformel zeigt man, dass gilt
Z √
|M | =
A2 + B 2 + C 2 d(p1 , p2 ).
P
7.2.16 Beispiele.
(i) Es sei M ⊂ R3 die Oberfläche der Kugel mit Radius R > 0.
M besitzt die Parameterdarstellung




R
cos
ϕ
sin
ϑ






3 M = x ∈ R ∃ϕ ∈ [0, 2π)∃ϑ ∈ [0, π] : x =  R sin ϕ sin ϑ  = f (ϕ, ϑ) .




R cos ϑ
Es gilt dann
R
cos
ϕ
sin
ϑ
R
sin
ϕ
cos
ϑ
∂(y, z)
A = det
=
= −R2 cos ϕ sin2 ϑ,
∂(ϕ, ϑ)
0
−R sin ϑ −R sin ϕ sin ϑ R cos ϕ cos ϑ
∂(x, z)
= −
B = − det
= −R2 sin ϕ sin2 ϑ,
∂(ϕ, ϑ)
0
−R sin ϑ −R
sin
ϕ
sin
ϑ
R
cos
ϕ
cos
ϑ
∂(x, y)
C = det
=
= −R2 sin ϑ cos ϑ.
R cos ϕ sin ϑ R sin ϕ cos ϑ ∂(ϕ, ϑ)
√
A2 + B 2 + C 2 = R2 sin ϑ und es folgt
Z 2π Z π
Z 2π
2
2
|M | =
R sin ϑ dϑ dϕ = R
[− cos ϑ]π0 dϕ = 4πR2 .
Damit ist
0
0
0
106
KAPITEL 7. INTEGRALSÄTZE
(ii) Für das Teilparaboloid ∂M aus 7.2.5 (ii) hatten wir die Parameterdarstellung




r
cos
ϕ






3 ∂M = x ∈ R x =  r sin ϕ  = f (r, ϕ) ∧ ϕ ∈ [0, 2π), r ∈ [0, 2] .




4 − r2
Es gilt dann




cos ϕ
−r sin ϕ
∂f
∂f




=  sin ϕ  und
=  r cos ϕ  .
∂r
∂ϕ
−2r
0
Die äußere Normale ist dann
η=
∂f
∂r



2r cos ϕ
2r2 cos ϕ
∂f
∂f
1
1
1

 2


√
√
×
=
=
2r
sin
ϕ
2r
sin
ϕ


.

∂f ∂r
∂ϕ
4r4 + r2
4r2 + 1
× ∂ϕ
1
r

Die Fläche berechnet sich mit
Z
Z 2 Z 2π √
4
2
4r + r dϕdr = 2π
0
7.3
2
0
0
√
π √
r 4r2 + 1 dr =
17 17 − 1 .
6
Oberflächenintegrale
7.3.1 Oberflächenintegrale erster Art. Es sei M ⊂ Rn , M ∈ C k , k ∈ N, eine
Hyperfläche und g : M → R eine beschränkte Funktion. Es sei weiter (Z` )`∈N =
`
M1 , . . . , MN` ` `∈N eine ausgezeichnete Zerlegungsfolge von M , das heißt das Ma-
ximum der Durchmesser der Mj konvergiert gegen Null für ` → ∞. Konvergiert stets
die Zwischensumme
`
σ(Z` , g, ξ ) =
N
X̀
j=1
g(ξj,` ) Mj` für beliebige Zwischenpunkte ξ ` = (ξ1,` , . . . , ξN` ,` )> ∈ Mj und beliebige ausgezeichnete Zerlegungsfolgen (Z` )`∈N für ` → ∞, so nennen wir den Grenzwert Oberflächenintegral erster Art der Funktion g auf der Hyperfläche M und schreiben
Z
`
lim σ(Z` , g, ξ ) =:
g(x) dS.
`→∞
M
Ist M beschränkt und g stetig, so existiert das Oberflächenintegral immer.
7.3.2 Satz. Es seien M ∈ C 1 eine Hyperfläche und g ∈ C 0 (M ).
(i) Ist M explizit durch f : D ⊂ Rn−1 → R gegeben, so gilt
v
u
2
Z
Z
n−1 u
X
∂f 0
t
(x ) dx0 .
g(x) dS =
g(x) 1 +
∂x
i
M
D
i=1
107
7.3. OBERFLÄCHENINTEGRALE
(ii) Ist n = 3 und M in Parameterdarstellung f : P ⊂ R2 → R3 gegeben, so gilt
Z
Z
√
g(x) dS =
g(f (p)) A2 + B 2 + C 2 dp.
M
P
(iii) Ist M nicht explizit gegeben, so erhält man das Oberflächenintegral mit Hilfe
des Satzes über implizite Funktionen und einer geeigneten Überlagerung der
einzelnen Auflösungen (sogenannte „Partition der Eins“).
7.3.3 Definition. Es sei M ∈ C 1 eine Hyperfläche und durch f : D → Rn eine
R
(lokale) explizite Darstellung von M gegeben. M dS ist die Oberfläche von M ,
v
u
2
n−1 u
X
∂f 0
t
(x ) dx1 · · · dxn−1
dS = 1 +
∂xi
i=1
ist das Oberflächenelement von M im Punkte x.
7.3.4 Beispiele. Aus Beispiel 7.2.16 wissen wir:
(i) Für das Oberflächenelement der Kugel mit Radius R gilt
dS = R2 sin ϑdϑdϕ.
(ii) Für das Oberflächenelement des Paraboloids gilt
√
dS = r 4r2 + 1 drdϕ.
7.3.5 Beispiel. Wir betrachten auf der Oberfläche des (Teil-) Paraboloids ∂M aus
Beispiel 7.2.5 (ii) die Funktion g(x, y, z) = 4 − z – etwa als Dichte der Oberfläche,
die vom Boden bei z = 0 bis zur Spitze linear abnimmt. Die Parametrisierung
>
f : [0, 2] × [0, 2π) → R3 , f (r, ϕ) = (r cos ϕ, r sin ϕ, 4 − r2 )
hatten wir schon in
Beispiel 7.2.16 (ii) betrachtet. Es gilt g(f (r, ϕ)) = 4 − (4 − r2 ) = r2 und daher ist
Z
Z 2 Z 2π
√
g(x) dS =
r2 · r 4r2 + 1 drdϕ
∂M
0
0
√ 23
2
1
π 2
2
= 2π
4r + 1
6r − 1
=
1 + 391 17 .
120
60
0
7.3.6 Definition. S n−1 = { x ∈ Rn | kxk = 1 } ist die (n − 1)-dimensionale EinR
heitssphäre. ωn = S n−1 dS ist die Oberfläche der Einheitssphäre.
7.3.7 Bemerkung. Es gilt die Formel
dx = rn−1 drdS,
108
KAPITEL 7. INTEGRALSÄTZE
dabei ist dS das Oberflächenelement auf S n−1 . Genauer gilt: Es sei 0 < a < b < +∞,
u(x) ∈ C 0 (a ≤ kxk ≤ b), dann ist:
Z
Z b
Z
n−1
r
u(x) dx =
u(ry) dSdr =
S n−1
a
a<kxk<b
Z bZ
u(x) dSdr.
S n−1
a
R
7.3.8 Berechnung von ωn = S n−1 dS. Es sei u(x) = u(kxk) (u ist radialsymR
metrisch). Falls Rn ku(x)k dx < +∞, dann ist
Z ∞
Z
Z
Z ∞
n−1
rn−1 u(r) dr.
u(r) dSdr = ωn
r
u(kxk) dx =
Rn
S n−1
0
0
−r2
Spezialisierung u(r) = e :
Z
Z ∞
n−1 −r2
r e dr =
ωn
e
−|x|2
dx =
Rn
0
Z
+∞
−∞
−t2
e
n
dt .
Spezialisierung n = 2:
Z +∞
2 Z +∞
Z +∞
−t21
−t2
−t22
e dt2
e dt1
e dt =
−∞
−∞
−∞
Z
Z +∞ Z 2π
2
−(t21 +t22 )
=
e
d(t1 , t2 ) =
e−r r dϕdr
R2
0
0
2 ∞
2π Z ∞
−r
z}|{
e
2
= ω2
re−r dr = 2π
= π.
(−2) 0
0
Z ∞
√
2
⇒
e−t dt = π
−∞
Z ∞
n
2
⇒ π 2 = ωn
rn−1 e−r dr.
(7.2)
0
√
√ liefert
Substitution: r = t, dr = 2dt
t
Z
Z ∞
n
n
1
ωn ∞ n −1 −t
dt
ωn n −
−t
π 2 = ωn
t2 2e √ =
t 2 e dt =
Γ
,
2 0
2
2
2 t
0
wobei
Γ(z) =
Z
∞
tz−1 e−t dt
0
die Gamma-Funktion bezeichnet. Es gilt
Γ(n) = (n − 1)!,
und es folgt
2 Γ
ωn =
Γ
√
1
π=Γ
2
n
1
2
.
n
2
7.3.9 Berechnung des Volumens en der Einheitskugel.
Z
Z 1
Z
n 1
r
ωn
en =
dx =
rn−1
dSdr = ωn =
.
n 0
n
K1
0
S n−1
(7.3)
(7.4)
109
7.4. INTEGRALSÄTZE
7.4
Integralsätze
7.4.1 Gaußscher Integralsatz. Es sei ∂U ∈ C 1 , g ∈ C 1 (U ) ∩ C 0 (U ). Dann gilt
Z
Z
gxi dx =
gνi dS (i = 1, . . . , n),
U
∂U
dabei ist νi die i-te Komponente der äußeren Normalen ν = (ν1 , . . . , νn ) von U im
Punkt x ∈ ∂U (Verallgemeinerung des Hauptsatzes der Differenzial– und Integralrechnung).
Beweisskizze. B` sei ein Normalbereich bezüglich der (x1 , . . . , xn−1 )-Koordinatenhyperebene,
B` = { (x0 , xn ) | ϕ(x0 ) ≤ xn ≤ φ(x0 ) ∧ x0 ∈ G` } .
Dann gilt
Z
B`
∂g
(x) d(x1 , . . . , xn ) =
∂xn
=
Z
G`
Z
G`
Z
φ(x0 )
ϕ(x0 )
∂g 0
(x , xn ) dxn
∂xn
!
dx0
(g(x0 , φ(x0 )) − g(x0 , ϕ(x0 ))) dx0 .
Der Rand ∂B` von B` setzt sich zusammen aus dem „Boden“ SB , dem „Deckel“
SD und dem „Mantel“ SM . Wir berechnen die Oberflächenintegrale über den Rand
von B` . Nach Konstruktion und Herleitung in 7.2.12 betrachten wir den Kosinus
des Winkels zwischen xn -Achse und der äußeren Normalen der Oberfläche. Für die
äußere Normale auf dem Mantel gilt
νM (x) = (. . . , 0)
für x ∈ SM und daher ist cos(ν(x), xn ) = 0 für alle x ∈ SM – die Mantelfläche leistet
keinen Beitrag zum Integral. Für den Deckel gilt
SD = { (x0 , x) | xn = φ(x0 ) ∧ x0 ∈ G` }
und nach Definition des Oberflächenintegrals gilt
r
2
P
∂φ
0)
Z
Z
1 + n−1
(x
k=1 ∂xk
g(x)νn dS =
g(x0 , φ(x0 )) r
dx0
2
P
SD
G`
∂φ
0
1 + n−1
k=1 ∂xk (x )
Z
=
g(x0 , φ(x0 )) dx0 .
G`
110
KAPITEL 7. INTEGRALSÄTZE
Für den Boden gilt analog, wobei wir die Richtung des Normalenvektors umkehren
müssen,
Z
g(x)νn dS =
SB
Z
g(x , ϕ(x ))
Z
−g(x0 ϕ(x0 )) dx0 .
0
0
G`
=
−
r
G`
1+
r
1+
2
0)
(x
∂xk
Pn−1 ∂ϕ
k=1
!
Pn−1 ∂ϕ
k=1
2
0)
(x
∂xk
dx0
Damit ist die Behauptung für B` gezeigt. Mit der Voraussetzung kann man nun
zeigen, dass U ein zulässiger Bereich ist, also aus endlich vielen Normalbereichen
zusammengesetzt ist, die wir als nicht überlappend annehmen können. Berücksichtigt man nun noch, dass sich die Beiträge der Oberflächen der Zerlegungsteile von
U , die im Inneren liegen, wegen entgegengesetzter Normalen gegenseitig weg heben,
so bleibt nur der Rand von U übrig, der einen Beitrag zum Oberflächenintegral
liefert.
7.4.2 Satz (Übliche Form des Gaußschen Satzes, u = (u1 (x), . . . , un (x))> ). Es sei
∂U ∈ C 1 , u ∈ C 1 (U, Rn ) ∩ C 0 (U ) ein Vektorfeld, dann gilt
Z
Z
u · ν dS.
div u dx =
∂U
U
Beweis. Folgt aus 7.4.1.
z
ν
f
f
t1
ν
y
∂U
(an einer anderes Stelle
als links ausgewertet)
x
Abbildung 7.7: Zum Satz von Gauß: Das Vektorfeld f (x, y, z) = (xz 2 , 0, y 3 )> durchdringt eine Oberfläche. Durch das Skalarprodukt wird effektiv nur der Anteil senkrecht zur Oberfläche beim Integral berücksichtigt.
111
7.4. INTEGRALSÄTZE
7.4.3 Korollar (Partielle Integration). Es seien u, v ∈ C 1 (U ) ∩ C 0 (U ). Dann gilt
Z
Z
Z
uxi v dx = − uvxi dx +
uvνi dS.
U
U
∂U
Beweis. Anwendung des Gaußschen Satzes auf das Produkt u · v.
7.4.4 Beispiel. Wir berechnen das elektrische Feld eines unendlich langen Zylinders
mit Radius R und konstanter Ladungsdichte ρ0 mit Hilfe des Gaußschen Satzes.
Dazu führen Zylinderkoordinaten ein, wobei die z-Achse mit der Rotationsachse des
Zylinders übereinstimmen soll. Aus Symmetriegründen hängt das elektrische Feld
p
nur vom Abstand zur z-Achse r = x2 + y 2 ab, das heißt E(x, y, z) = E(r) =
 
x


1
(r)
E er , mit er = √ 2 2 y . Nach den Maxwell-Gleichungen (Gaußscher Satz)
x +y
0

ρ , r ≤ R,
0
gilt div E = ρ(r)
,
mit
ρ(r)
=
.
ε0
0, r > R.
Wir betrachten einen Testzylinder V mit Radius r̃ und Länge ` mit der selben
Symmetrieachse. Das Volumenintegral im Satz von Gauß wird ausgewertet zu

Z
Z ` Z 2π Z r̃
π` ρ0 R2 , r̃ > R,
ρ(r)
ε0
div E dx =
rdrdϕdz =
ρ

ε
0
V
0
0
0
π` 0 r̃2 , r̃ ≤ R.
ε0
Für das Oberflächenintegral machen wir folgende Vorbetrachtung: Für die äußere
Normale ν an den Testzylinder gilt

 


x

 






√ 1
y  auf der Mantelfläche,


2
2
x +y  




0
ν=  


0


 





auf dem Deckel beziehungsweise Boden.

0


 


 ±1
Daher ist E · ν = 0 auf dem Boden und Deckel des Zylinders und E · ν = 1 auf der
Mantelfläche. Das Oberflächenintegral berechnet sich also zu
Z
Z 2π Z `
E · νdS =
r̃E (r) dzdϕ = E (r) 2πr̃`.
∂V
0
0
Der Vergleich der beiden Ergebnisse, die nach dem Satz von Gauß übereinstimmen
müssen, liefert

R2
ρ0  r̃ , r̃ > R,
(r)
E (r̃) =
2ε0 r̃,
r ≤ R.
112
KAPITEL 7. INTEGRALSÄTZE
(i) Das Oberflächenintegral im Satz von Gauß bezeichnet
~ geschrieman auch als Oberflächenintegral zweiter Art, statt νdS wird auch dS
7.4.5 Bemerkungen.
ben.
(ii) Den Gaußschen Satz verwendet man zum Beispiel auch zur Herleitung der
Kontinuitätsgleichung
∂ρ
∂t
+ div j = 0 in der Strömungsmechanik und Elektro-
dynamik, wobei ρ die Dichte (Masse, Ladung) und j die Stromdichte bezeichnet, siehe zum Beispiel [4] und [5].
7.4.6 Beispiel (Interpretation). Physikalisch-anschaulich vergleicht der Satz von
Gauß den Anteil eines Feldes, der durch die Oberfläche eines Körpers hindurchströmt
mit dem Anteil des Feldes, der im Inneren des Körpers entsteht oder verschwindet.
Beschreibt u der Anschaulichkeit halber das Geschwindigkeits einer inkompressiblen
Flüssigkeit, so ist klar, dass alles, was in den Körper hineinfließt, entweder im Inneren
verschwindet oder auch wieder hinausfließt beziehungsweise alles, was hinausströmt,
muss entweder hineingeströmt oder im Inneren entstanden sein. Betrachtet man nun
ein kleines Stück der Oberfläche des Körpers, so kann man u aufteilen in eine Komponente, die senkrecht auf der Oberfläche steht und den Anteil, der tangential zur
Oberfläche liegt. Der senkrechte Anteil ist gerade hu, νi, nur dieser fließt auch durch
die Oberfläche. Der gesamte Fluss durch die Oberfläche ist dann gerade das Oberflächenintegral. Andererseits beschreibt div u gerade die Quellendichte des Feldes
u.
(i) Es sei u(x, y, z) = (x, y, z)> ein Feld mit Quelle, div u = 3. Wir betrachten die
Menge KR = (x, y, z)> ∈ R3 x2 + y 2 + z 2 ≤ R2 . Dann gilt
Z
4
3 d(x, y, z) = 3 πR3 .
3
KR
Andererseits ist
  x
* x
+
Z
Z
R
1 2
  y
2
2
x + y + z dS =
R dS
y  ,  R  dS =
∂KR
∂KR R
∂KR
z
z
R
Z 2π Z π
=R
R2 sin ϑ dϑdϕ = 4πR3 .
Z
0
0
113
7.4. INTEGRALSÄTZE
(ii) Es sei u(x, y, z) = (0, z 2 , 0)> ein, wegen div u = 0, quellenfreies Feld, dann ist
R
div u d(x, y, z) = 0 und es gilt
KR
  x
* 0
+
Z
Z
R
1 2
 2  y 
z y dS
z  ,  R  dS =
R
∂K
∂KR
R
z
0
R
Z Z
1 2π π
(R cos ϑ)2 R sin ϕ sin ϑR2 sin ϑ dϑdϕ
=
R 0
Z 2π
Z π 0
2
2
4
sin ϕ dϕ dϑ = 0.
cos ϑ sin ϑ
=R
0
0
|
{z
}
=0
Als Folgerung aus dem Satz von Gauß erhalten wir
7.4.7 Korollar (Die Greenschen Formeln). Es seien u, v ∈ C 2 (U ) ∩ C 1 (U ). Dann
gilt
dabei ist
∇
U
u dx =
R
∂u
∂U ∂ν
dS,
∇
R
∇
(i)
der Laplace-Operator, definiert als
u=
n
P
i=1
ist die (äußere) Normalenableitung von u.
R
R
R
∂v
(ii) U ∇u · ∇v dx = − U u v dx + ∂U u ∂ν
dS.
R
R
∂v
(iii) U (u v − v u) dx = ∂U u ∂ν
− v ∂u
dS.
∂ν
∂2u
∂x2i
und
∂u
∂ν
= ∇u · ν
∇
∇
∇
Die Greenschen Formeln spielen zum Beispiel eine Rolle bei der Lösung der
ϕ = 0 und der Poisson-Gleichung
∇
∇
Laplace-Gleichung
u = f , sowie bei der Me-
thode der Greenschen Funktionen, siehe zum Beispiel [7].
Beweis. (I) folgt sofort mit v = 1 aus (III).
(II)
n Z X
∂
∇u · ∇v dx =
u vxi dx
∂x
i
U
U
i=1
Z
n Z
∂
7.4.3 (P.I.) X
vxi dx +
uvxi νi dS
=
− u
∂U
U ∂xi
i=1
Z
Z
∂v
= − u v dx +
u dS.
U
∂U ∂ν
Z
∇
(III) Analog zu (II) erhält man
Z
Z
Z
∇u · ∇v dx = − v u dx +
∇
U
U
∂U
v
∂u
dS.
∂ν
Die Differenz der beiden Ergebnisse liefert die Behauptung.
114
KAPITEL 7. INTEGRALSÄTZE
7.4.8 Gaußscher Satz in der Ebene, Satz von Green. Es sei B ∈ C 1 ein
offener, einfach zusammenhängender zulässiger Bereich im R2 und P, Q ∈ C 1 (B) ∩
C 0 (B). Dann gilt
Z I
∂Q
∂P
−
d(x1 , x2 ) =
(P (x1 , x2 ) dx1 + Q(x1 , x2 ) dx2 ) .
∂x1 ∂x2
B
∂B
Beweis. Es sei x(t) = (x1 (t), x2 (t))> , t ∈ [a, b], eine glatte Parameterdarstellung
von ∂B. Nach Satz 7.4.1 gilt
Z
Z
∂Q
(x1 , x2 ) d(x1 , x2 ) =
Q(x1 (s), x2 (s))ν1 dS.
B ∂x1
∂B
Der Tangentialvektor an die Kurve ist (x01 (t), x02 (t))> , die Normale an die Fläche ist
also
!
x02 (t)
−x01 (t)
ν=q
.
x01 2 (t) + x02 2 (t)
Damit folgt
Z
B
∂Q
(x1 , x2 ) d(x1 , x2 )
∂x1
Z b
q
x02 (t)
=
Q(x1 (t), x2 (t)) q
x01 2 (t) + x02 2 (t) dt
a
x01 2 (t) + x02 2 (t)
Z
=
Q(x1 , x2 ) dx2 .
∂B
Das Integral für P folgt analog, das Vorzeichen kommt aus der Normalen.
7.4.9 Bemerkung. Schreibt man f (x1 , x2 ) = (P (x1 , x2 ), Q(x1 , x2 ))> , so kann man
das Integral auf der rechten Seite in der Form
I
I
I
f · νdS =
(f1 ν1 + f2 ν) dS =
∂B
∂B
f1 dx1 + f2 dx2
∂B
schreiben.
7.4.10 Beispiel. Es seien B = [0, 1] × [0, 1] und f : B → R eine Funktion mit
f (x, y) = (y 2 , 2x)> = (P (x, y), Q(x, y))> .
I
Z Z
∂f2
∂f1
f · νdS =
(x, y) −
(x, y) d(x, y) = (2 − 2y) d(x, y)
∂x
∂y
∂B
B
B
Z 1Z 1
Z 1
=
(2 − 2y) dxdy =
(2 − 2y) dy = 1.
0
0
0
115
7.4. INTEGRALSÄTZE
7.4.11 Bemerkung und Beispiele.
(i) Mit dem Satz von Green lässt sich der
Flächeninhalt von ebenen 2-dimensionalen Flächen berechnen: Es sei dazu
beispielsweise f (x, y) = (−y, x)> . Dann gilt:
I
Z ∂f2
∂f1
f · νdS =
(x, y) −
(x, y) d(x, y)
∂x
∂y
∂B
B
Z
Z
=
1 + 1 d(x, y) = 2
d(x, y) = 2 |B| .
B
B
Also gilt für den Flächeninhalt |B| von B:
I
1
|B| =
f · νdS.
2 ∂B
H
Mit g(x, y) = (0, x)> erhält man ähnlich: |B| = ∂B g · νdS.
(ii) Mit f wie oben berechnen wir den Inhalt eines Kreises mit Radius r, also den
Inhalt der Menge B = (x,!y)> ∈ R2 x2 + y 2 ≤ r2 . ∂B lässt sich durch
r cos t
γ : [0, 2π] → R2 , t 7→
parametrisieren. Damit gilt:
r sin t
Z
1 2π >
f · νdS =
f (γ(t)) · γ 0 (t) dt
2 0
∂B
!
Z 2π
−r sin t
1
=
(−r sin t, r cos t) ·
dt
2 0
r cos t
Z
1 2π 2
r dt = πr2 .
=
2 0
1
|B| =
2
I
(iii) Eine weitere Anwendungsmöglichkeit des Satz von Green ist die Bestimmung
2
des Schwerpunktes (xS , yS ) von ebenen Flächen. Mit f (x, y) = (0, x2 )> gilt
Z
I
1
1
xS =
x d(x, y) =
f · νdS
|B| B
|B| ∂B
2
und mit g(x, y) = (− y2 , 0)> erhält man
Z
I
1
1
yS =
y d(x, y) =
g · νdS.
|B| B
|B| ∂B
7.4.12 Definition. Es sei M ⊂ R3 eine Fläche und f : P → R3 eine Parameterdarstellung von M .
(i) Ist ∂P eine Kurve γP mit der Parameterdarstellung p : [a, b] → R2 , p(t) =
(p1 (t), p2 (t))> , so heißt die Kurve γM mit der Parameterdarstellung f (p(t)) =
f (p1 (t), p2 (t)), t ∈ [a, b], die Randkurve von M .
116
KAPITEL 7. INTEGRALSÄTZE
(ii) Ist γ = ∂U ⊂ R2 eine geschlossene Kurve, so heißt γ positiv orientiert, wenn für
eine und damit für alle Parametrisierungen von γ gilt, dass U beim Durchlaufen
von γ stets links liegt.
(iii) Ist γM die Randkurve einer Fläche im R3 mit der Parametrisierung f (p(t)), so
heißt γM positiv orientiert, wenn γP positiv orientiert ist.
7.4.13 Satz von Stokes. Es sei P ⊂ R2 eine offene, einfach zusammenhängende Menge (Gebiet), die von einer stückweise glatten, doppelpunktfreien Kurve
γP = ∂P berandet wird. w(s), s ∈ [0, L(γP )], sei die Parametrisierung nach der
Bogenlänge von γP , welche eine positive Orientierung von γP erzeugt. Die Funktion f : U ⊃ P → R3 , U ⊂ R2 offen, sei injektiv auf U und es gelte f ∈ C 2 (U )
mit Rang 2 von Df in U . Es seien M = f (P ) eine in Parameterdarstellung ge-
gebene Fläche und x(s) = f (w(s)) für s ∈ [0, L(γP )] eine Parametrisierung der
stückweise glatten, geschlossenen und positiv orientierten Randkurve von M . Es
sei weiter g = (g1 , g2 , g3 )> ∈ C 1 (V ) mit V ⊂ R3 offen und M ⊂ V . Bezeichnet
ν=
Dp1 f ×Dp2 f
|Dp1 f ×Dp2 f |
, die äußere Normale an M , so gilt
Z
M
hrot g, νi dS =
Z
∂M
(7.5)
g · dx.
Beweis. Folgt mit Hilfe des Gaußschen Satzes in der Ebene, siehe zum Beispiel
Walter, Analysis 2 (Abschnitt 8.12) oder Hildebrandt, Analysis 2 (Abschnitt 6.4).
(u, v)> ∈ R2 u2 + v 2 ≤ 4 , f : P → R3 die


u


Parametrisierung einer Fläche M mit f (u, v) = 
v
 und g : R3 → R3
4 − u2 − v 2
mit g(x, y, z) = (z, x, y)> .
!
cos
t
Der Rand von P ist parametrisiert durch ∂P : [0, 2π] → R2 , t 7→ 2
. Damit
sin t
gilt für die Parametrisierung des Randes von M :
7.4.14 Beispiel. Es seien P =
∂M = f (∂P ) :

cos t




x : [0, 2π] → R3 , t 7→ 
2 sin t
 = 2  sin t  .
0
4 − 4 cost −4 sin2 t

2 cos t


117
7.4. INTEGRALSÄTZE
z
νM
rot g
∂M
y
x
Abbildung 7.8: Zum Satz von Stokes: Die Rotation des Vektorfeldes (xz 2 , 0, y 3 )>
durch eine berandete Fläche.
Mit der Definition des Kurvenintegrals zweiter Art erhalten wir
I
Z 2π
g · dx =
g(x(t)) · x0 (t) dt
∂M
0


−2 sin t
Z 2π


(0 2 cos t 2 sin t) ·  2 cos t  dt
=
0
0
2π
Z 2π
t 1
2
4 cos t dt = 4
=
= 4π.
+ sin(2t)
2 4
0
0
 
 
1
2u
R
 


1
Nun berechnen wir M hrot g, νidS: Es gilt rot g = 1 und ν = √1+4u2 +4v2 2v .
1
1
Damit gilt mit der Definition des Oberflächenintegrals:
Z
Z
√
hrot g, νidS = (rot g(f (u, v))> · ν 1 + 4u2 + 4v 2 d(u, v)
M
P
 
2u
Z
Z
 
2u + 2v + 1 d(u, v)
= (1 1 1) · 2v  d(u, v) =
P
=
Z
2
0
=
Z
0
Z
1
2π
(2r cos ϕ + 2r sin ϕ + 1) r dϕdr
0
2
P
2πr dr = 4π.
118
KAPITEL 7. INTEGRALSÄTZE
z
∂M
y
ν
g
x
Abbildung 7.9: Zum Satz von Stokes: Das Vektorfeld (xz 2 , 0, y 3 )> wird entlang des
Randes der Fläche betrachtet.
R
7.4.15 Bemerkungen. (i) Statt M hrot g, νi dS werden in der Literatur auch
R
R
~ verwendet.
rot g · dS oder M rot g · dS
M
(ii) Ist rot g = 0 in V , so folgt aus dem Satz von Stokes die Wegunabhängigkeit
von Kurvenintegralen zweiter Art in V .
(iii) Ist g ∈ C 2 ein beliebiges Vektorfeld, so gilt div rot g = 0. Insbesondere ist also
h = rot g quellenfrei.
(iv) Die Voraussetzungen an die Fläche M im Satz von Stokes beziehungsweise die
Menge U im Satz von Gauß können abgeschwächt werden (Löcher, schlechterer
Rand zugelassen).
(v) Das Integral
R
h·ν dx bezeichnet man in der Physik als Fluss des Vektorfeldes
H
h durch die Fläche M , das Wegintegral γ g · dx als Zirkulation des Feldes g
M
längs des Weges γ. In dieser Sprache lautet der Satz von Stokes: Die Zirkulation
des Feldes g längs einer geschlossenen Kurve ist gleich dem Fluss des Feldes
rot g durch eine in die Kurve eingespannte Fläche.
7.4.16 Beispiel (Ampèresches Gesetz). In der Magnetostatik gilt rot B = µ0 j,
wobei j die Stromdichte und B die magnetische Feldstärke bezeichnet. Weil sich der
R
Gesamtstrom I durch eine Fläche M aus I = M j · dS berechnet, gilt nach dem
Satz von Stokes
µ0 I = µ0
Z
M
j · dS =
Z
M
rot B · dS =
Z
∂M
B · dx.
Kapitel 8
Fourierreihen und
Integraltransformationen
8.1
Fourierreihen
Mit den noch zu definierenden Fourierreihen lassen sich periodische Vorgänge beziehungsweise Probleme, bei denen solche Vorgänge auftreten, besonders gut beschreiben beziehungsweise lösen. Wir werden uns hier im Wesentlichen auf die mathematischen Hintergründe beschränken, Anwendungsbeispiele findet man zum Beispiel
in [8, 2.5]. Wir betrachten das folgende
8.1.1 Beispiel. Gegeben sei eine schwingende Saite, die im Punkt (0, 0)> und im
Punkt (`, 0)> , ` > 0, fixiert ist. Wir suchen die Auslenkung der Saite u(x, t) im
Punkt x zur Zeit t. Dies führt auf die partielle Differenzialgleichung
a2
∂ 2u
∂ 2u
(x,
t)
−
(x, t) = 0
∂x2
∂t2
(8.1)
mit den Randbedingungen
u(0, t) = u(`, t) = 0
und den Anfangsdaten
u(x, 0) = ϕ(x) Anfangsauslenkung
∂u
(x, 0) = ψ(x) Anfangsgeschwindigkeit.
∂t
Lösungen von (8.1) und (8.2) sind
nπa nπ x · cos
t ,
` ` nπ
nπa
vn (x, t) = sin
x · sin
t .
`
`
un (x, t) = sin
119
(8.2)
120 KAPITEL 8. FOURIERREIHEN UND INTEGRALTRANSFORMATIONEN
Damit sind aufgrund der Linearität der partiellen Ableitungen auch beliebige Linearkombinationen dieser Lösungen, wieder Lösungen von (8.1) und (8.2), insbesondere
also
N
X
an sin
n=1
nπa nπ x · cos
t , an ∈ R.
`
`
Physikalisch betrachtet, ist dies das Superpositionsprinzip. Es stellt sich nun die
Frage, ob u(x, t) als
u(x, t) =
∞
X
an sin
n=1
nπ nπa x · cos
t
`
`
dargestellt werden kann beziehungsweise, wann diese Reihe konvergiert und welche
Eigenschaften die Grenzfunktion hat. Mit diesem Ansatz müsste konkret
∞
nπ X
u(x, 0) =
an sin
x · 1 = ϕ(x)
`
n=1
erfüllt sein. Damit sind wir bei der Frage, welche Funktionen ϕ in dieser Form
darstellbar sind und wie man die Koeffizienten an ermittelt.
Umgekehrt kann man auch die Frage stellen, wie man aus einer Funktion, von
der man weiß, dass sie gemäß dem Superpositionsprinzip zusammengesetzt ist, die
beteiligten Schwingungen ermittelt.
Desweiteren kann man die zu betrachtenden Techniken dazu nutzen, periodische
Vorgänge darzustellen und zu untersuchen.
Wir betrachten zunächst nur das Intervall [−π, π] und Funktionen f : [−π, π] →
C, dies macht die Notation einfacher. Etwas allgemeiner ist folgende
8.1.2 Definition.
gilt:
(i) Eine Funktion f : R → C heißt p-periodisch (p > 0), falls
f (x + p) = f (x) für alle x ∈ R.
Wir betrachten im Folgenden o.B.d.A. den Fall p = 2π.
(ii) Der 2π-periodische Ausdruck
N
a0 X
+
(ak cos(kx) + bk sin(kx))
2
k=1
mit a0 , ak , bk ∈ C für k ∈ N und N ∈ N heißt trigonometrisches Polynom.
Betrachtet man den Grenzwert N → ∞, so heißt
S(x) :=
∞
a0 X
+
(ak cos(kx) + bk sin(kx))
2
k=1
trigonometrische Reihe. Falls die Reihe konvergiert ist S(x) der Wert der Reihe.
121
8.1. FOURIERREIHEN
Damit die über den punktweisen Grenzwert definierte Grenzfunktion
!
∞
a0 X
S(x) = lim
+
(ak cos(kx) + bk sin(kx)) ,
N →∞
2
k=1
falls existent, auch einigermaßen „vernünftig“ ist, müssen wir noch gleichmäßige Konvergenz fordern.
8.1.3 Definition. Es sei (fn )n∈N eine Folge von Funktionen fn : I ⊂ R → C
für n ∈ N. Wir sagen, (fn )n∈N konvergiert gleichmäßig gegen eine Grenzfunktion
f : I → C, falls
∀ε > 0∃N ∈ N∀x ∈ I∀n ≥ N |fn (x) − f (x)| < ε.
(i) Man kann nun leicht zeigen, dass beispielsweise die
8.1.4 Bemerkungen.
Grenzfunktion einer gleichmäßig konvergenten Folge stetiger Funktionen wieder stetig ist und dass bei gleichmäßiger Konvergenz Integration und Grenzprozess vertauscht werden dürfen, also
Z b
Z
lim
fn (x) dx =
n→∞
b
lim fn (x) dx.
a n→∞
a
(ii) Für unsere Zwecke genügt aber, dass für die gleichmäßige Konvergenz von
N
SN (x) =
die Reihe
P∞
8.1.5 Beispiele.
(ii)
2
π
+
k=1
a0 X
(ak cos(kx) + bk sin(kxt))
+
2
k=1
(|ak | + |bk |) < +∞ gilt.
(i)
π2
3
+
P∞
k 4
k=1 (−1) k2
cos(kx) (= x2 ).
4
x
k+1
(−1)
cos(kx)
=
cos
.
2
k=1
π(4k −1)
2
P∞
8.1.6 Bemerkung (komplexe Darstellung). Mit cos x =
eit +e−it
2
und sin x =
eit −e−it
2i
(Definition beziehungsweise aus der Reihendarstellung von Kosinus und Sinus) lassen
sich trigonometrische Polynome beziehungsweise Reihen auch scheiben als:
n
X
ck e
ikx
beziehungsweise S(x) =
k=−n
∞
X
ck eikx
k=−∞
mit ck = 21 (ak − ibk ) und c−k = 21 (ak + ibk ) mit k ∈ N0 . Umgekehrt gilt: ak = ck + c−k
und bk = i(ck − c−k ) mit k ∈ N0 .
Beweis. Dies rechnet man leicht direkt nach.
122 KAPITEL 8. FOURIERREIHEN UND INTEGRALTRANSFORMATIONEN
y
n = 100
n=5
n=2
n=1
x
Abbildung 8.1: Trigonometrische Polynome
π2
3
spiel 8.1.5 (i).
+
Pn
k 4
k=1 (−1) k2
cos(kx), Bei-
8.1.7 Beispiel (Dirichlet-Kern). Für n ∈ N0 ist das 2π-periodische trigonometrische Polynom Dn , mit
n
n
1 X
1 X ikx
cos(kx) =
e ,
Dn (x) := +
2 k=1
2 k=−n
gegeben. Dn heißt der n-te Dirichlet-Kern und erfüllt für x ∈ R die Identität

1
 sin((n+ x2 )x) für x =
6 2mπ, m ∈ Z,
2 sin 2
Dn (x) =
n + 1
sonst.
2
Beweis. Übungsaufgabe.
Die Dirichlet-Kerne spielen eine wichtige Rolle bei der Untersuchung der Konvergenz
einer Fourierreihe gegen die betrachtete Funktion.
Wir betrachten nun die für die Berechnung der Koeffizienten wichtigen und für
theoretische Überlegungen interessanten
123
8.1. FOURIERREIHEN
8.1.8 Satz (Euler-Fourier-Formeln, Orthogonalitätsrelationen). Es gilt:
Z π
(i)
sin(nx) cos(mx) dx = 0 für m, n ∈ N0 ,
−π



2π

Z π

cos(nx) cos(mx) dx = π
(ii)

−π


0
(iii)
Z
π
sin(nx) sin(mx) dx =
−π

π
0
für n = m = 0,
für n = m, n ≥ 1,
für n 6= m.
für n = m, n ≥ 1,
für n 6= m oder n = m = 0.
Beweis. Man zeigt dies mit Hilfe der Punktsymmetrie beziehungsweise Achsensymmetrie von Sinus und Kosinus und der Additionstheoreme. Konkret ist etwa
 h
iπ
Z π
 1 sin(n+m)x + sin(n−m)x
= 0 für n 6= m,
2
n+m
n−m
−π
cos(nx) cos(mx) dx =  sin 2nx+2nx π = π
−π
für n = m,
4n
−π
denn mit cos(x + y) = cos x cos y − sin x sin y folgt für n 6= m
Z
Z
cos(nx) cos(mx) dx = cos(n + m)x + sin(nx) sin(mx) dx
Z
sin(n + m)x
− sin(nx) sin(−mx) dx
=
n+m
Z
sin(n + m)x
− (cos(nx) cos(mx) − cos(n − m)x) dx
=
n+m
Z
Z
sin(n + m)x
=
− cos(nx) cos(mx) dx + cos(n − m)x dx,
n+m
da cos x gerade ist. Damit erhalten wir
Z
sin(n + m)x sin(n − m)x
2 cos(nx) cos(mx) dx =
+
.
n+m
n−m
R
Für n = m ist cos(n − m)x dx = x, so dass die Behauptung folgt.
8.1.9 Bemerkung. Auf der Menge C([−π, π]) der stetigen Funktionen auf dem
Intervall [−π, π] ist durch
hf, gi :=
Z
π
−π
f (x)g(x) dx.
ein Skalarprodukt definiert. Damit bilden die Funktionen fn , gn
1
f0 : [−π, π] → R,
f0 (x) = √
2π
1
fn : [−π, π] → R,
fn (x) = √ cos(nx) für n ∈ N
π
1
gn : [−π, π] → R,
gn (x) = √ sin(nx) für n ∈ N
π
124 KAPITEL 8. FOURIERREIHEN UND INTEGRALTRANSFORMATIONEN
ein Orthonormalsystem (ONS) in C([−π, π]), das heißt
 hfn , gm i = 0, hfn , fm i = δnm
1, n = m,
und hgn , gm i = δnm mit dem Kronecker-Delta δnm =
0, n 6= m.
Das bedeutet, das Problem, eine Funktion als Fourierreihe darzustellen, kann
auch umformuliert werden zur Frage, ob das oben angeführte Orthonormalsystem
eine (Schauder-) Basis eines geeigneten Vektorraums ist (bei einer Schauder-Basis
sind unendliche Linearkombinationen in der Basisdarstellung zugelassen). Von diesem Blickwinkel aus kann man dann auch fragen, welche anderen (Orthonormal-)
Basen es möglicherweise gibt (siehe [8, Kapitel 3]).
8.1.10 Darstellung der Koeffizienten. Wir wollen eine 2π-periodische Funktion
f ∈ R[−π, π], das heißt f ist Riemann-integrierbar, als trigonometrisches Polynom
schreiben. Dazu machen wir den Ansatz
N
f (x) =
a0 X
+
ak cos(kx) + bk sin(kx).
2
k=1
Wie müssen a0 , ak , bk gewählt werden?
Zur Bestimmung von a0 integrieren wir beide Seiten über [−π, π] und vertauschen
Summation und Integration:
Z
π
f (x) dx =
Z
π
−π
−π
Z π
Z π
N X
a0
dx +
ak
cos(kx) dx + bk
sin(kx) dx = a0 π.
2
−π
−π
k=1
Z
1 π
Damit gilt: a0 =
f (x) dx. Zur Bestimmung von ak (k ∈ N) multiplizieren wir
π −π
beide Seiten mit cos(mx) und integrieren über [−π, π]:
Z
π
f (x) cos(mx) dx =
Z
π
| −π

−π
a0
cos(mx) dx
2
{z
}
=0
Z π
Z π
N 

X


+
sin(kx) cos(mx) dx .
cos(kx) cos(mx) dx +bk
 ak


k=1
| −π
{z
}
| −π
{z
}
=πδmk
1
Also gilt: am =
π

Z
π
=0
f (x) cos(mx) dx. Analog liefert die Multiplikation des Ansatzes
Z
1 π
mit sin(mx) und Integration bm =
f (x) sin(mx) dx.
π −π
−π
125
8.1. FOURIERREIHEN
8.1.11 Definition. Es sei f : R → C eine 2π-periodische und f ∈ R[−π, π]. Dann
heißen
Z
1 π
f (x) cos(kx) dx (k ∈ N0 )
(i) ak := ak (f ) :=
π −π
Z
1 π
bk := bk (f ) :=
f (x) sin(kx) dx (k ∈ N)
π −π
Z π
1
ck := ck (f ) :=
f (x)e−ikx dx (k ∈ Z)
2π −π
die Fourierkoeffizienten von f .
∞
∞
X
a0 X
+
(ii) Sf (x) :=
(ak cos(kx) + bk sin(kx)) =
ck ekix die Fourierreihe von
2
k=1
k=−∞
f . Bezeichnung: f ∼ Sf
8.1.12 Bemerkung.
(i) Für f ∈ C([−π, π]) gilt für die Fourierkoeffizienten mit
dem Skalarprodukt aus Bemerkung 8.1.9
1
ak = √ hf, fk i, k ∈ N0 ,
π
1
bk = √ hf, gk i, k ∈ N.
π
(ii) Bisher können wir noch nichts über die Konvergenz der Fourierreihe einer
Funktion f aussagen. Selbst im Fall der Konvergenz der Fourierreihe, wissen
wir noch nicht, ob diese mit der Funktion f übereinstimmt.
8.1.13 Beispiel. Auf [−π, π] betrachten wir die Funktion

1, −1 ≤ x ≤ 1,
χ(x) =
0, sonst.
Da χ gerade ist, sind die bn alle Null, siehe Satz 8.1.14. Weiter gilt a0 =
und
1
π
·2 =
2
π
Z
Z
1 1
1 π
an =
χ(x) cos(nx) dx =
cos(nx) dx
π −π
π −1
1
1
2 sin n
=
[sin(nx)]1−1 =
(sin n − sin(−n)) =
.
πn
πn
πn
P
sin n
Also ist Sχ (x) = π1 + π2 ∞
n=1 n cos(nx) (vergleiche Abbildung 8.2).
8.1.14 Satz. Es sei f ∈ R[−π, π] mit f ∼ Sf . Dann gilt:
(i) Ist f gerade, also ∀x ∈ [−π, π] : f (x) = f (−x), dann gilt ∀k ∈ N : bk = 0.
(ii) Ist f ungerade, also ∀x ∈ [−π, π] : f (−x) = −f (x), dann gilt ∀k ∈ N0 : ak = 0.
126 KAPITEL 8. FOURIERREIHEN UND INTEGRALTRANSFORMATIONEN
Beweis. Ist f gerade, so ist f (x) sin(kx) ungerade und somit bk = 0. Ist f ungerade,
so ist f (x) cos(kx) ungerade und somit ak = 0.
8.1.15 Beispiele. Wir betrachten die folgenden Funktionen f als Funktionen f :
[−π, π] → R.
(i) Es sei f (x) = 1, dann ist f (x) ∼ 1 aufgrund der Euler-Fourier-Relationen.
(ii) Es sei f (x) = cos x, dann ist f (x) ∼ cos x mit der selben Begründung.
(iii) Es sei f (x) = x, dann ist f ungerade und demnach ak = 0 für k ∈ N0 . Die bk
berechnen sich gemäß
Z
Z
2 π
1 π
x sin(kx) dx =
x sin(kx) dx
bk =
π −π
π 0
π
Z
1 π
2
cos(kx)
+
cos(kx) dx
=
−x
π
k
k 0
0
2 cos(kπ)
2(−1)k
2(−1)k+1
=− π
=−
=
.
π
k
k
k
Also ist Sf (x) = 2
∞
X
(−1)k+1
k=1
8.1.16 Bemerkungen.
k
sin(kx).
(i) Jede Funktion f : (−π, π] → C kann 2π-periodisch
auf ganz R fortgesetzt werden, in dem man setzt:
f (x) := f (x + 2kπ) mit k ∈ Z, so dass x + 2kπ ∈ (−π, π].
(ii) Setzt man die Funktion f : [−π, π], f (x) = x auf R 2π-periodisch fort, stellt
man fest, dass die Fourierreihe Sf mit f an den Unstetigkeitsstellen −π, π
nicht mit f übereinstimmt. Denn nach der obigen Rechnung gilt
Sf (−π) = 2
∞
X
(−1)k+1
k=1
k
sin(−kπ) = Sf (π) = 0 6= ±π = f (±π).
An den Stetigkeitsstellen konvergiert die Fourierreihe aber gegen die Funktion,
das heißt Sf (x) = f (x) für x ∈ (−π, π).
Dies gilt auch allgemeiner
127
8.1. FOURIERREIHEN
8.1.17 Satz. Es sei f ∈ R[−π, π] 2π-periodisch und in x0 existieren folgende Grenzwerte
−
f (x+
0 ) = lim+ f (x) und f (x0 ) = lim− f (x),
x→x0
f 0 (x+
0 ) = lim+
h→0
f (x0 + h) − f (x0 +)
f (x0 + h) − f (x0 −)
und f 0 (x−
.
0 ) = lim−
h→0
h
h
Dann gilt:
(i) lim Sn,f (x0 ) = lim
n→∞
x→x0
n→∞
!
n
a0 X
1
−
+
f (x+
(ak cos kx + bk sin kx) =
0 ) + f (x0 ) .
2
2
k=1
(ii) Ist f in x0 stetig, dann gilt limn→∞ Sn,f (x0 ) = f (x0 ).
Beweis. Einen Beweis findet man in [8, 2.3].
(i) Eine Funktion f : [a, b] → C, heißt stückweise stetig
8.1.18 Bemerkungen.
auf [a, b], wenn sie nur endlich viele Unstetigkeitsstellen x1 , . . . , xn hat und in
diesen die rechts- und linksseitigen Grenzwerte von f existieren. Eine Funktion
f : [a, b] → C heißt stückweise stetig differenzierbar auf [a, b], wenn f und f 0
stückweise stetig auf [a, b] sind.
(ii) Ist f stückweise stetig differenzierbar auf [−π, π], dann existieren die Grenzwerte in Satz 8.1.17 und die Fourierreihe von f konvergiert gegen f mit Ausnahme der Sprungstellen, wo sie gegen den Mittelwert des links- und rechtsseitigen Grenzwerts von f konvergiert.
(iii) Ist f beliebig oft differenzierbar, so lässt sich f auch als Taylorreihe darstellen,
das heißt man kann f sowohl als algebraisches wie auch trigonometrisches
Polynom annähern.
8.1.19 Gibbs’sches Phänomen.
Wir betrachten wieder das Beispiel 8.1.13. Also

1, −1 ≤ x ≤ 1,
die Sprungfunktion χ(x) =
und ihre Fourierreihe Sχ (x) = π1 +
0, sonst
P∞ sin k
2
k=1 k cos(kx) und betrachten dabei zwei Prozesse, nämlich den Grenzprozess
π
in der Partialsummenfolge der Fourierreihe, n → ∞, und den Grenzwert für x → x0
für eine Sprungstelle x0 ∈ { −1, 1 } (siehe Abbildung 8.2). Wir wissen, dass für ein
festes x (also punktweise) gilt |Sn,χ (x) − χ(x)| → 0 für n → ∞ und nach 8.1.17 gilt
Sn,χ (x0 ) →
1
2
für N → ∞. Man kann nun zeigen, dass
lim sup Sn,χ (x) > χ(x+
0 ),
x↓x0 , n→∞
lim sup |Sn,χ (x) − χ(x)| > 0
x↓x0 , n→∞
128 KAPITEL 8. FOURIERREIHEN UND INTEGRALTRANSFORMATIONEN
y
n=4
n = 16
n = 100
x
Abbildung 8.2: Trigonometrische Polynome für die Sprungfunktion, Gibbs’sches
Phänomen
Diese letzte Eigenschaft bezeichnet man als Gibbssches Phänomen: Überschwinger
und Unterschwinger an Sprungstellen, die auch für große n nicht verschwinden, die
aber gegen x0 laufen. Man kann hieraus folgern, dass die Konvergenz gegen χ(x)
nicht gleichmäßig ist. Dieses Phänomen tritt ganz allgemein bei Fourierreihen von
unstetigen Funktionen an den Sprungstellen auf.
Der folgende Satz liefert eine Charakterisierung des Konvergenzverhaltens der Fourierreihe
8.1.20 Satz. Es sei f 2π-periodisch und quadratisch integrierbar, das heißt es ist
Rπ
|f (x)|2 dx < +∞. Dann gilt
−π
(i) Sn,f konvergiert im quadratischen Mittel gegen f , das heißt
Z π
12
2
|Sn,f (x) − f (x)| dx
→ 0 für n → ∞.
−π
(ii) die Parsevalsche Gleichung
Z
∞
1 π
|a0 |2 X
2
|f (x)| dx =
+
|ak |2 + |bk |2 .
π −π
2
k=1
8.1.21 Bemerkung. Analog zu 8.1.16 kann man jede Funktion f : [a, b] → C,
a, b ∈ R, a < b auf R fortsetzen. Um die Fourierreihen über dem Intervall [a, b]
zu berechnen, betrachtet man die 2π-periodische Hilfsfunktion x 7→ f b−a
x . Die
2π
Fourierkoeffizienten für f berechnen sich dann gemäß
Z b
2
2π
an =
f (y) cos
ny dy,
b−a a
b−a
Z b
2
2π
bn =
f (y) sin
ny dy.
b−a a
b−a
(8.3)
129
8.2. FOURIER-TRANSFORMATION
8.2
Fourier-Transformation
Wir betrachten eine 2`-periodische Funktion f auf dem Intervall [−`, `] (vergleiche [8,
Kapitel 7]). Nach (8.3) ist die komplexe Darstellung von f über die Fourierreihe
gegeben durch
∞
iπny
iπnx
1 X
f (x) =
ck,` e ` , ck,` = int`−` f (y)e− ` dy,
2` k=−∞
wobei wir den Faktor
wir nun ∆ξ =
π
`
1
2`
aus den Koeffizienten vor die Reihe gezogen haben. Setzen
und ξn =
nπ
,
`
so erhalten wir
Z `
∞
1 X
iξk x
f (x) =
ck,` e ∆ξ, ck,` =
f (y)e−iξn y dy.
2π k=−∞
−`
Wenn wir annehmen, dass f für x → ±∞ schnell genug verschwindet, gilt
Z ∞
ck,` ≈
f (y)e−iξn y dy =: fˆ(ξn )
−∞
∞
1 X ˆ
f (ξn )eiξn x ∆ξ,
⇒ f (x) ≈
2π k=−∞
für x ∈ R mit |x| < `. Diesen Ausdruck können wir als Riemannsche Zwischensumme
auffassen und erhalten für ` → ∞ und damit ∆ξ → 0, „sofern alles gut geht“
Z ∞
Z ∞
1
iξx
ˆ
ˆ
f (x) =
f (ξ)e dξ mit f (ξ) =
f (x)e−iξx dx.
2π −∞
−∞
Wir teilen den Vorfaktor im Folgenden noch auf beide Integrale auf. Damit haben wir
die Fourier-Transformation als eine Erweiterung der Fourierreihen auf aperiodische
Funktionen (beziehungsweise Funktionen mit unendlich langer Periode) anschaulich
hergeleitet.
8.2.1 Definition. Es sei f : R → C, (f (t) = Re f (t) + i Im f (t)), stückweise stetig
R∞
und −∞ |f (t)| dt < ∞. Dann heißt f Fourier-transformierbar und die Fourier-
Transformation (FT) von f ist definiert durch
1
F : R → C, ω →
7 Ff (ω) := √
2π
Z
∞
f (t)e−iωt dt.
−∞
Die Funktion fˆ(ω) := (Ff )(ω) : R → C heißt die Fourier-Transformierte (FT) von
f.
130 KAPITEL 8. FOURIERREIHEN UND INTEGRALTRANSFORMATIONEN
(i) Ff überführt f in eine neue Funktion fˆ, wofür das
R∞
uneigentliche Integral −∞ f (t)e−iωt dt berechnet werden muss. Daher wird die
8.2.2 Bemerkungen.
Fourier-Transformation auch als Integraltransformation bezeichnet.
(ii) Für die Ausgangsfunktion verwendet man oft die Variable t und spricht von
einer Funktion im Zeitbereich. Für die Zielfunktion benutzt man oft ω und
spricht von einer Funktion im Frequenzbereich.
(iii) In jedem Wert fˆ(ω) stecken Informationen über f aus ganz R.
(iv) Bei den Fourierreihen haben wir in Definition 8.1.11 für festes k ∈ Z einen
Rπ
1
f (x)e−ikx dx erhalten, das heißt
Fourierkoeffizienten F̃f (k) = ck (f ) = 2π
−π
eine Abbildung (oder Folge) F̃ : N → C. Man spricht von einem diskreten
Spektrum, da Z diskret in R liegt. Die Zahl ck beschreibt, wie groß der Anteil
von e−ikx an f (x) ist. Die Fourier-Transformation liefert nun für jedes ω ∈ R
mit der Fourier-Transformierten einen Wert fˆ = Ff , man spricht von einem
kontinuierlichen Spektrum.
(v) fˆ = Ff : R → C ist eine komplexwertige Funktion. Die zugehörige reellwertige
Funktion |fˆ | : R → R heißt Amplitudenspektrum.
(vi) Achtung! Neben der häufig in der Mathematik verwendeten Definition 8.2.1
werden auch
Ff (ω) =
Z
∞
−∞
−iωt
f (t)e
dt und Ff (ω) =
Z
∞
f (t)e−2πiωt dt
−∞
sowie weitere Abwandlungen (Vorfaktoren, Vorzeichen im Exponenten) benutzt. Die grundlegenden Überlegungen und Schlussfolgerungen bleiben aber
jeweils die selben, nur die Formeln unterscheiden sich leicht in den Konstanten.
(vii) Die Fourier-Transformation findet Anwendung zum Beispiel in der Spektroskopie, wenn etwa aus einem Signal in der Zeit (Messung) die beteiligten Frequenzen bestimmt werden sollen, um einen Werkstoff zu analysieren (mit Hilfe der
Übergänge zwischen den Energieniveaus). Eine allgemeine Beschreibung der
Größen und ihrer auch anschaulichen Bedeutung findet man in [2, 40/41]. Eine
Darstellung im Zusammenhang mit Infrarotspektroskopie ist in [10, Abschnitt
1.7] gegeben und Darstellungen für die Anwendung im Bereich der Kernmagnetresonanzspektroskopie etwa zur Analyse von Molekülen liefern zum Beispiel [2] und [9].
(viii) Für weitere innermathematische Anwendungen der Fourier-Transformation sei
auf [8, Abschnitt 7.3] und die dort genannte Literatur verwiesen.
131
8.2. FOURIER-TRANSFORMATION
8.2.3 Beispiel. Die Funktion f : R → R mit

1, für |t| ≤ 1
f (t) =
0, für |t| > 1
beschreibt den sogenannten Rechtecksimpuls, vergleiche Beispiel 8.1.13. Die Fourier-
Transformierte von f lautet
Z ∞
Z 1
1
1
−iωt
f (t)e
dt = √
e−iωt dt
fˆ(ω) = √
2π −∞
2π −1
Z 1
Z 1
1
2
=√
cos(ωt) − i sin(ωt) dt = √
cos(ωt) dt
2π −1
2π 0

 √2 sin ω für ω 6= 0,
2π ω
=
 √2
für ω = 0.
2π
Die Funktion
sin x
x
:= sinc x heißt Sinus cardinalis, Kardinalsinus oder sinc-Funktion.
Diese ist auf R insbesondere stetig, denn
sin x
x
→ 1 für x → 0 (siehe Analysis I).
fˆ(ω)
f (x)
x
ω
Abbildung 8.3: Der Rechteckimpuls und sein Fouriertransformation
8.2.4 Satz. Es sei f : R → C stückweise stetig und Fourier-transformierbar. Dann
ist fˆ beschränkt und stetig und es gilt:
lim fˆ(ω) = 0.
ω→±∞
8.2.5 Satz (Rechenregeln für die Fourier-Transformation). Es seien f, g : R → C
Fourier-transformierbar, a, b ∈ C, h ∈ R und R 3 c > 0. Dann gilt für ω ∈ R:
(i) Linearität:
(af (t) + bg(t))∧ (ω) = afˆ(ω) + bĝ(ω).
(ii) Translation (Verschiebung):
(a) (f (t + h))∧ (ω) = eihω fˆ(ω),
(b) (e−iht f (t))∧ (ω) = fˆ(ω + h).
132 KAPITEL 8. FOURIERREIHEN UND INTEGRALTRANSFORMATIONEN
(iii) Streckung:
1 ˆ ω (f (ct)) (ω) = f
.
c
c
∧
(iv) Ableitung im Zeitbereich: Falls Re f und Im f stetig differenzierbar sind und
f 0 Fourier-transformierbar ist, gilt:
(f 0 )∧ (ω) = iω fˆ(ω).
(v) Ableitung im Frequenzbereich: Falls t 7→ tf (t) Fourier-transformierbar ist,
dann ist fˆ differenzierbar und es gilt:
d ˆ
f (ω) = fˆ0 (ω) = (−itf (t))∧ (ω).
dω
Beweis. Folgt durch direktes Ausrechnen. Beispielsweise ist
Z ∞
1
0
b
f (ω) = √
f 0 (t)eiωt dt
2π −∞
Z ∞
−iωt ∞
1
PI f (t)e
√
=
f (t)(−iω)e−iωt dt = iω fˆ(ω),
−√
2π
2π −∞
t=−∞
wobei man hier natürlich formal die Grenzwerte betrachten muss. Bei der Rechnung
haben wir verwendet, dass f (t) → 0 für t → ±∞, da sonst das uneigentliche Integral
R∞
|f (x)| dx für eine (stückweise) stetige Funktion nicht existieren würde.
−∞
8.2.6 Beispiel. Es sei g(t) = 4f (t) + eit f (7t). Berechne ĝ in Abhängigkeit von fˆ.
(g(t))∧ (ω) = 4fˆ(ω) + (eit f (7t))∧ (ω)
= 4fˆ(ω) + (f (7t))∧ (ω − 1)
1 ˆ ω−1
ˆ
= 4f (ω) + f
.
7
7
8.2.7 Beispiel (Anwendung der Fourier-Transformation). Die FT ist nützlich zum
Lösen von Differenzialgleichungen. Wir betrachten beispielsweise die folgende lineare
Differenzialgleichung erster Ordnung:
(8.4)
y 0 (t) + 3y(t) = f (t).
Annahme: y, y 0 , f sind Fourier-transformierbar. Dann gilt:
⇔
⇔
(y 0 (t))∧ (ω) + (3y(t))∧ (ω) = (f (t))∧ (ω)
iω ŷ(ω) + 3ŷ(ω) = fˆ(ω)
ŷ(ω) =
fˆ(ω)
.
3 + iω
133
8.2. FOURIER-TRANSFORMATION
Jetzt muss man noch ŷ zurücktransformieren, das heißt aus ŷ(ω) wieder y(t) berechnen, um die Lösung y(t) zu erhalten. Dazu brauchen wir aber zunächst eine
Transformation, welche die Fourier-Transformierte in die ursprüngliche Funktion
zurückführt.
8.2.8 Definition. Existieren die auftretenden Integrale und ist f stetig und Fouriertransformierbar, so ist die inverse Fourier-Transformation oder Fourier-Umkehrtransformation F −1 von fˆ definiert als
Z ∞
1
−1 ˆ
fˆ(ω)eiωt dω.
(F f )(t) = √
2π −∞
8.2.9 Bemerkung. Es sei f : R → C stetig und Fourier-transformierbar und die
inverse Fourier-Transformierte von fˆ existiere. Dann gilt
f (t) = (F
−1
1
fˆ)(t) = √
2π
Z
∞
−∞
1
√
2π
Z
∞
0
f (t0 )e−iωt dt0 eiωt dω
−∞
Z ∞Z ∞
1
0
f (t0 )eiω(t−t ) dt0 dω.
=
2π −∞ −∞
8.2.10 Definition. Es seien f, g : R → C. Dann ist die Faltung f ? g von f und g
(falls existent) definiert als
(f ? g)(t) :=
Z
∞
−∞
f (t − u)g(u) du
8.2.11 Satz. Es seien f, g : R → C Fourier-transformierbar. Dann gilt:
(i) Die Faltung ist kommutativ, also (f ? g)(t) = (g ? f )(t).
(ii) Glättungseigenschaften:
(a) Ist f (oder g) stetig, so ist f ? g stetig.
(b) Ist f stetig differenzierbar, so ist f ?g stetig differenzierbar mit (f ?g)0 (t) =
(f 0 ? g)(t).
(iii) Faltungssatz im Zeitbereich: Die Faltung f ? g ist Fourier-transformierbar mit
(f[
? g)(ω) =
√
2π fˆ(ω) · ĝ(ω).
(iv) Faltungssatz im Frequenzbereich: Ist auch die Fourier-Umkehrtransformation
auf f und g anwendbar, so gilt:
1
(fd
· g)(ω) = √ (fˆ ? ĝ)(ω).
2π
134 KAPITEL 8. FOURIERREIHEN UND INTEGRALTRANSFORMATIONEN
Beweis. (I) Es gilt
Z
(f ? g)(t) =
∞
−∞
f (t − u)g(u) du =
Z
∞
−∞
wobei wir v = t − u gesetzt haben, dann ist
müssen auch getauscht werden.
dv
du
f (v)g(t − v) dv = (g ? f )/(t),
= −1, aber die Integrationsgrenzen
(II) Die erste Aussage folgt aus einer Verallgemeinerung von Satz 5.1.2 (i). Die zweite Aussage folgt mit einer Verallgemeinerung von Satz 5.1.2 (ii). Man kann es sich
aber auch wie folgt unter Vernachlässigung von Existenz- und Vertauschbarkeitsbetrachtungen herleiten: Es sei f differenzierbar, aus der Integrierbarkeitsbedingung
an f folgt wieder limt→±∞ f (t) = 0. Wir erhalten daher
Z
∂ ∞
0
f (t − u)g(u) du
(f ? g) (t) =
∂t −∞
Z ∞
=
f 0 (t − u)g(u) du = (f 0 ? g)(t).
−∞
(III) Es gilt
Z ∞Z ∞
1
\
(f ? g)(ω) = √
f (t − u)g(u)e−iωt du dt
2π −∞ −∞
Z ∞
Z ∞
1
−iω(t−u)
=√
f (t − u)e
d(t − u)
g(u)e−iωu du.
2π −∞
−∞
(IV) Analog.
8.2.12 Beispiel (Fortsetzung von 8.2.7). Wir hatten gezeigt, dass
ŷ(ω) =
fˆ(ω)
3 + iω
die Fourier-Transformierte der Lösung der Differenzialgleichung (8.4) ist. Wir
er
−1
−1 fˆ(ω)
halten die Lösung also durch y(t) = F (ŷ(ω)). Zur Berechnung von F
3+iω
machen wir folgende Vorbetrachtung: Setze
√
 2π · e−3t
g(t) =
0
für t ≥ 0,
für t < 0.
Dann gilt:
Z ∞
Z ∞√
1
1
−iωt
ĝ(ω) = √
g(t)e
dt = √
2πe−3t e−iωt dt
2π −∞
2π 0
∞
1
1
= −
e(−3−iω)t
=
,
3 + iω
3 + iω
0
135
8.3. LAPLACE-TRANSFORMATION
da e−(3+iω)t = e−3t |e−iωt | = e−3t → 0 für t → ∞. Also ist ŷ(ω) = ĝ(ω) · fˆ(ω) und
damit
y(t) = F −1 (ŷ(ω))(t) = F −1 (ĝ(ω) · fˆ(ω))(t)
1
1
1
? f ))(t) = √ (g ? f )(t) = √ (f ? g)(t)
= √ F −1 ((g[
2π
2π
Z 2π
∞
=
0
f (t − u)e−3u du.
Zur Übung löse man die Differenzialgleichung (8.4) mit der Lösungsformel für lineare
Differenzialgleichugen erster Ordnung aus Analysis I.
8.3
Laplace-Transformation
Der Nachteil bei der Fourier-Transformation ist, dass sie nur unter der starken VorR∞
aussetzung −∞ |f (t)| dt < ∞ existiert, was limt→±∞ f (t) = 0 impliziert, wenn f stetig ist. Insbesondere ist die Exponentialfunktion also nicht Fourier-transformierbar.
Diese ist aber häufig Teil von Lösungen von Differenzialgleichungen.
Wir erhalten aus der Fourier-Transformation folgendermaßen eine für diese Anwendung besser geeignete Transformation (vergleiche [8, Kapitel 8]). Nehmen wir
dazu an, dass f : R → C mit f (t) = 0 für t < 0 sei. In der Fourier-Transformation
von f
1
fˆ(ω) = √
2π
Z
∞
f (t)e−iωt dt,
0
können wir für ω auch komplexe Werte zulassen, das heißt ω = a + bi verwenden,
mit a, b ∈ R. Es gilt dann |e−iωt | = ebt und das Integral konvergiert daher nicht nur
für alle reellen ω, sondern auch für die ω mit negativem Imaginärteil. In der Tat
konvergiert das Integral bereits, wenn f nicht schneller als eat wächst, das heißt, wir
können die Anforderung an f abschwächen. Wir ersetzen noch z = iω und lassen
den Vorfaktor beim Integral weg und haben:
8.3.1 Definition. Es sei f : [0, ∞) → C eine Funktion. Dann heißt f Laplacetransformierbar, falls für s ∈ C
fˆ(s) := F (s) := (Lf )(s) :=
Z
0
∞
f (t) · e−st dt
existiert. Die Funktion F := Lf heißt die Laplace-Transformierte (LT) von f und
die Abbildung f 7→ F Laplace-Transformation.
136 KAPITEL 8. FOURIERREIHEN UND INTEGRALTRANSFORMATIONEN
8.3.2 Bemerkungen.
(i) Die Laplace-Transformation ist wie die Fourier-Trans-
formation eine Integraltransformation. Bei F (s) handelt es sich um ein uneigentliches Parameterintegral mit Parameter s ∈ C.
(ii) Die Laplace-Transformation überführt eine Funktion f vom reellen Zeitbereich
in den komplexen Spektralbereich, Frequenzbereich.
(iii) Die Laplace-Transformation nutzt aus, dass die auftretenden Funktionen nur
ab t ≥ 0 definiert sind. Dies spielt etwa bei Anfangswertproblemen mit Anfangswert bei der Zeit (o.B.d.A.) t = 0 bei Differenzialgleichungen eine Rolle.
Für eine detaillierte Darstellung der Anwendungen insbesondere im Bereich gewöhnlicher und partieller Differenzialgleichungen sei auf [1], [6] und [8, Kapitel
8] verwiesen. Hinter solchen Differenzialgleichungen kann zum Beispiel auch
die Analyse einer elektrischen Schaltung stehen, bei der durch die LaplaceTransformation Schaltelemente in andere Schaltelemente transformiert werden.
(iv) Die Laplace-Transformation benutzt einen konvergenzerzeugenden Faktor e−st
(s ∈ C): Die Funktion e−st fällt sehr schnell gegen Null für t → ∞ unter
der Voraussetzung, dass Re s > 0. Damit sind mehr Funktionen Laplace- als
Fourier-transformierbar. Wir gehen im Folgenden von Re s > 0 aus.
8.3.3 Definition. f : [0, ∞) → C heißt exponentiell beschränkt, wenn es Konstanten
C, s0 > 0 gibt mit
∀t ≥ 0 : |f (t)| ≤ C · es0 t .
8.3.4 Satz (Existenz der Laplace-Transformation). Ist f : [0, ∞) → C stückweise
stetig und exponentiell beschränkt, so existiert die Laplace-Transformierte (Lf )(s)
in der Halbebene Re(s) > s0 .
Beweis. Es sei |f (t)| ≤ C · es0 t und Re s > s0 . Dann gilt
Z ∞
Z ∞
Z ∞
−(Re s+i Im s)t −st
f (t)e dt ≤
|f (t)|· e
dt ≤ C
e(s0 −Re s)t dt = −
0
8.3.5 Beispiele.
0
0
C
.
s0 − Re s
n
(i) f : R+
0 → R, f (t) = t für n ∈ N. Es sei zunächst n = 1.
Z ∞
Z ∞
−st
(Lf )(s) =
f (t) · e dt =
t · e−st dt
0
∞ Z 0∞
1
1 −st
= t · e−st (− )
+
· e dt
s 0
s
0
∞
1 −st
1
= 0 + − 2e
= 2.
s
s
0
137
8.3. LAPLACE-TRANSFORMATION
Mit vollständiger Induktion beziehungsweise n−facher partieller Integration
erhält man
(Ltn )(s) =
n!
sn+1
.
(ii) f : R+
0 → R, f (t) = cos(at).
Z ∞
Z
1 ∞ iat
−st
(Lf )(s) =
cos(at) · e dt =
e + e−iat e−st dt
2 0
0
Z ∞
1
=
et(ia−s) + et(−ia−s) dt
2 0
∞
1
1
1
t(ia−s)
t(−ia−s)
=
e
+
e
2 ia − s
−ia − s
0
1
1
1
s
=
+
= 2
2 s − ia s + ia
s + a2
8.3.6 Bemerkung. Wie bei der Fourier-Transformation (siehe Definition 8.2.8)
existiert auch bei der Laplace-Transformation eine Rücktransformation (inverse
Laplace-Transformation), die einer gegebenen Spektralfunktion F (s) die ursprüngliche Funktion f (t) im Zeitbereich zuordnet.
8.3.7 Satz. Es seien f eine exponentiell mit Konstanten C, s0 > 0 beschränkte,
stückweise stetige Funktion und F = Lf . Dann ist mit γ > s0 die inverse LaplaceTransformation gegeben durch
(L−1 F )(t) :=
1
2πi
Z
γ+i∞
γ−i∞

f (t) für t ≥ 0,
ezt Lf (z) dz =
0
für t < 0.
Wobei wir f als in den Sprungstellen als Summe von linksseitigem und rechtsseitigem
Grenzwert umdefiniert denken.
Beweisskizze. Wir definieren

e−γt f (t), t ≥ 0,
g(t) =
0,
t < 0.
Die Fourier-Transformierte von g ist dann
Z ∞
1
1
e−γt f (t)e−iωt dt = √ Lf (γ + iω).
ĝ(ω) = √
2π 0
2π
Wir verwenden eine Version von Satz 8.1.17 für die Fourier-Transformation und
erhalten für t ≥ 0
−γt
e
1
f (t) = g(t) = √
2π
Z
∞
−∞
iωt
ĝ(ω)e
1
dω =
2π
Z
∞
−∞
Lf (γ + iω)eiωt dω.
138 KAPITEL 8. FOURIERREIHEN UND INTEGRALTRANSFORMATIONEN
Substituieren wir z = γ + iω, dann ist dz = idω und z läuft von γ − i∞ nach γ + i∞
im Sinne eines uneigentlichen Integrals und wir haben
e
−γt
1
f (t) =
2πi
Z
γ+i∞
γ−i∞
Lf (z)e(z−γ)t dz.
Die Multiplikation mit eγt liefert nun die Behauptung.
Wir beschränken uns bei der Berechnung der inversen Laplace-Transformation auf
die in 8.3.9 folgenden Tabellen.
8.3.8 Rechenregeln für die Laplace-Transformation. Die Funktionen f , g,
f1 und f2 seien Laplace-transformierbar, dann lassen sich die Eigenschaften der
Laplace-Transformation beziehungsweise der inversen Laplace-Transformation wie
folgt darstellen:
f (t) = (L−1 F )(t)
F (s) = (Lf )(s)
Linearität
af1 (t) + bf2 (t)
Translation im Zeitbereich
f (t − a)
aF1 (s) + bF2 (s) (a, b ∈ C)
Translation im Spektralbereich
e−as F (s)
e−at f (t)
Streckung
f (at)
1. Ableitung im Zeitbereich
f 0 (t)
2. Ableitung im Zeitbereich
00
f (t)
n-te Ableitung im Zeitbereich
f (n) (t)
1. Ableitung im Spektralbereich
−tf (t)
F (s + a)
1
F as (a > 0)
a
sF (s) − f (0)
s2 F (s) − sf (0) − f 0 (0)
n−1
X
n
s F (s) −
f (k) (0)sn−k−1
k=0
2. Ableitung im Spektralbereich
n-te Ableitung im Spektralbereich
t2 f (t)
F 00 (s)
(−t)n f (t)
F (n) (s)
Z
Integration im Zeitbereich
F 0 (s)
t
f (u) du
0
∞
1
f (t)
t
Z
Integration im Spektralbereich
f (u)g(t−u) du
Faltung im Zeitbereich
F (u) du
s
t
1
1
F (s)
Zs
0
F (s) · G(s)
Beweis. Dies rechnet man wie bei der Fourier-Transformation nach, beispielsweise
ist
∂
F (s) =
∂s
0
1
Z
0
∞
f (t)e
−st
dt =
Z
0
∞
−tf (t)e−st dt = L(−tf (t))(s).
Achtung, nicht mit der Faltung bei der Fourier-Transformation verwechseln
139
8.3. LAPLACE-TRANSFORMATION
8.3.9 Die Laplace-Transformation für einige elementare Funktionen. Es
seien a ∈ R und f (t) = 0 für t ≤ 0, dann ist die Laplace-Transformation gegeben
durch
f (t) = (L−1 F )(t)
1
F (s) = (Lf )(s)
1
s
n!
tn
tn eat
sin(at)
sn+1
1
s−a
eat
f (t) = (L−1 F )(t)
cos(at)
F (s) = (Lf )(s)
n!
,
(s − a)n+1
Re(s) > a
a
2
s + a2
s
2
s + a2
8.3.10 Anwendung: Lösen von Anfangswertproblemen. Durch die LaplaceTransformation wird aus einer Differenzialgleichung oder einem System von Differenzialgleichungen eine rein algebraische Gleichung. Diese ist leicht oder zumindest
leichter zu lösen. Die erhaltene Lösung muss dann nur noch (zum Beispiel mit Hilfe
der Tabelle) zurücktransformiert werden.
8.3.11 Beispiel. Löse das Anfangswertproblem y 0 (t) + y(t) = e−t mit y(0) = 1.
Wir transformieren die Differenzialgleichung mit der Laplace-Transformation
und erhalten mit den Tabellen 8.3.8 und 8.3.9:
1
s+1
s+2
ŷ(s) =
(s + 1)2
sŷ(s) − y(0) + ŷ(s) =
⇔
Die Partialbruchzerlegung2 der rechten Seite ergibt:
ŷ(s) =
1
1
+
s + 1 (s + 1)2
Wir transformieren das Ergebnis für ŷ(s) anhand der Tabelle 8.3.9 in den Zeitbereich
zurück und erhalten die Lösung
y(t) = e−t + te−t .
8.3.12 Beispiel. Löse das Anfangswertproblem y 00 (t) + 4y 0 (t) + 4y(t) = e−t mit den
Anfangswerten y(0) = 0, y 0 (0) = 0.
2
beziehungsweise einfacher, da s + 2 = s + 1 + 1
140 KAPITEL 8. FOURIERREIHEN UND INTEGRALTRANSFORMATIONEN
Die Laplace-Transformation ergibt:
1
1+s
1
ŷ(s)(s2 + 4s + 4) =
1+s
s2 ŷ(s) − sy(0) − y 0 (0) + 4(sŷ(s) − y(0)) + 4ŷ(s) =
⇔
1
(1 + s)(2 + s)2
1
1
1
−
−
ŷ(s) =
1 + s 2 + s (2 + s)2
⇔
ŷ(s) =
⇔
Die Rücktransformation liefert als Lösung:
y(t) = e−t − e−2t − te−2t .
8.3.13 Beispiel. Bestimme die Lösung des Differentialgleichungssystems
x0 (t) = y(t), y 0 (t) = −x(t) + t
mit den Anfangswerten x(0) = 0, y(0) = 1.
Wir transformieren das System mit der Laplace-Transformation und erhalten
mit den Tabellen 8.3.8 und 8.3.9:
sx̂(s) − x(0) = ŷ(s)
sŷ(s) − y(0) = −x̂(s) +
(8.5)
1
s2
(8.6)
ŷ(s) von (8.5) in (8.6) eingesetzt ergibt:
s2 x̂(s) − 1 = −x̂(s) +
⇔
x̂(s) =
1
s2
1
s2
Aus (8.5) folgt sofort: ŷ(s) = sx̂(s) = 1s . Die Rücktransformation liefert:
x(t) = t, y(t) = 1.
Literaturverzeichnis
[1] R. E. Bellman und R. S. Roth, The Laplace Transform. World Scientific, 1984
[2] B. Blümich, Essential NMR. Springer Verlag, Berlin, 2005
[3] A. Chiang und K. Wrainwright, Fundamental methods of mathematical economics. McGraw-Hill, Boston, 4. Auflage, 2006
[4] W. Demtröder, Experimentalphysik 1, Springer, Berlin, 2. Auflage, 1998
[5] W. Demtröder, Experimentalphysik 2, Springer, Berlin, 2. Auflage, 1999
[6] G. Doetsch, Einführung in Theorie und Anwendung der Laplace-Transformation.
Brikhäuser Verlag, Basel, 2. Auflage, 1970
[7] L. C. Evans, Partial Differential Equations, American Mathematical Society,
Providence, Rhode Island, 2002
[8] G. Folland, Fourier analysis and its applications. American Mathematical Society, Providence, RI, 2009
[9] J. Gu und P. E. Bourne (Hrsg.), Structural Bioinformatics. Wiley-Blackwell,
Hoboken, NJ, 2. Auflage, 2009
[10] W. W. Parson, Modern Optical Spectroscopy. Springer Verlag, Berlin, Student
edition, 2009
[11] F. Schulz, Analysis I. Oldenbourg Verlag, München, 2. Auflage, 2011
[12] F. Schulz, Analysis II. Oldenbourg Verlag, München, 1. Auflage, 2013
Herunterladen