Untitled

Werbung
236
Kapitel 8
Analysis in mehreren Variablen
8.1
Grundbegriffe
Für Vektoren ~x = (x1 , ..., xn ) ∈ Rn haben wir eine (”euklidische”) Länge:
1/2
k~xk := x21 + ... + x2n
~ B
~ ∈ Rn den (”euklidischen”) Abstand, nämlich kA
~ − Bk.
~
und für zwei Punkte A,
n
Das Skalarprodukt zwischen zwei Vektoren ~x, ~y ∈ R wird erklärt wie früher:
h~x, ~y i = x1 y1 + x2 y2 + ... + xn yn .
Es gelten dieselben Rechenregeln wie zuvor, und man hat die
Cauchy-Schwarz-Ungleichung:
|h~x, ~y i| ≤ k~xkk~y k
Gleichheit gilt genau dann, wenn ~x und ~y linear abhängig sind.
Beweis. Ist ~y = ~0, ist dies trivial. Angenommen, ~y 6= ~0. Dann gilt
k~xk2 −
h~x, ~y i2
h~x, ~y i
=
k~
x
−
· ~y k2 ≥ 0
2
2
k~y k
k~y k
Hieraus folgt alles.
8.1.1 Folgerung Es gilt die ”Dreiecksungleichung”:
k~x + ~y k ≤ k~xk + k~y k
für ~x, ~y ∈ Rn .
237
238
KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN
Beweis. Es gilt nämlich
k~x + ~y k2 = k~xk2 + k~y k2 + 2h~x, ~y i ≤ k~xk2 + k~y k2 + 2k~xkk~y k ≤ (k~xk + k~y k)2
Der Winkel α zwischen den Vektoren ~x und ~y ist dann aus der Gleichung
h~x, ~y i = k~xkk~y k cos α
zu berechnen.
Beispiel.√ Im R6 seien ~x√= (1, 2, 3, 4, −2, −7) und ~y = (6, 2, 4, 5, 5, −2). Dann ist h~x, ~y i =
46, k~xk = 83 und k~y k = 110. Das bedeutet, dass
cos α = √
46
= 0.481418
83 · 110
und damit α = 65◦ 320 .
Die Grundbegriffe der Analysis einer Variablen übertragen sich mühelos:
Definition. Eine Folge (~xk )k ⊂ Rn heißt konvergent gegen ~x0 ∈ Rn , in Zeichen limk→∞ ~xk = ~x0 ,
wenn limk→∞ k~xk − ~x0 k = 0.
Die Konvergenz lässt sich koordinatenweise prüfen:
8.1.2 Hilfssatz. Angenommen (~xk )k ⊂ Rn sei eine Folge, wobei ~xk = (x1,k , ..., xn,k ) für jedes k.
Dann konvergiert (~xk )k genau dann gegen ~x0 ∈ Rn , wenn für jedes j = 1, ..., n die Folge (xj,k )k
gegen xj,0 strebt.
Die üblichen Rechenregeln bleiben bestehen:
limk→∞ (~xk + ~yk ) = limk→∞ ~xk + limk→∞ ~yk
limk→∞ α~xk = α limk→∞ ~xk
wenn die Folgen (~xk )k , (~yk )k ⊂ Rn konvergieren und α ∈ R.
Wir nennen eine Folge (~xk )k ⊂ Rn beschränkt, wenn ein R > 0 mit (~xk )k ⊂ Bn (0, R) existiert.
Der Satz von Bolzano-Weierstraß gilt wieder in der Form
8.1.3 Satz. Jede beschränkte Folge hat eine konvergente Teilfolge.
~ mit Radius R:
Definition. a) Wir definieren als Kugel um den Punkt A
~ R) := {~x ∈ Rn | k~x − Ak
~ < R}
Bn (A,
b) Wir nennen eine Menge U ⊂ Rn auch offen, wenn für alle ~a ∈ U ein Radius R > 0 so
gefunden werden kann, dass B(~a, R) ⊂ U .
8.1. GRUNDBEGRIFFE
239
Beispiel a) Der Rn ist offen, ebenso ∅.
~ ∈ Rn und R > 0 ist Bn (A,
~ R) offen, denn ist ~x ∈ Bn (A,
~ R), so ist (Dreiecksb) Für jedes A
~ ∈ Bn (A,
~ R).
ungleichung) Bn (~x, R − k~x − Ak)
 
1
3
~
c) Die Ebene E = {~x ∈ R | x1 − 2x2 − 3x3 = 1} ist keine offene Menge: A =  0  ∈ E.
0
1
~
~
~
Ist R > 0 beliebig, so ist ~x := A + 2 R e1 ∈ Bn (A, R) \ E. Also Bn (A, R) 6⊂ E für jedes noch so
kleine R > 0.
Definition. Wir nennen eine Menge A ⊂ Rn abgeschlossen, wenn gilt: Ist ~x0 ∈ Rn und gibt es
eine Folge (~xk )k ⊂ A mit limk→∞ ~xk = ~x0 , so ist schon ~x0 ∈ A.
Man kann sich überlegen:
8.1.4 Satz. Genau dann ist die Menge A ⊂ Rn abgeschlossen, wenn Rn \ A offen ist.
~ R) := {~x ∈ Rn | k~x − Ak
~ ≤ R} ist abgeschlossen. Denn ist ~x0 ∈ Rn und
Beispiele. a) Bn (A,
~ R) mit ~xk −→ ~x0 , wenn k → ∞, so wird k~xk − Ak
~ ≤ R, also
gibt es eine Folge (~xk )k ⊂ Bn (A,
~ ≤ R.
mit k → ∞ schließlich k~x0 − Ak
√
b) A := Qn ist nicht abgeschlossen: Denn 2(1, 0, ..., 0) ist Grenzwert einer Punktfolge aus
A, ohne zu A zu gehören.
Definition. Wir nennen eine Menge K ⊂ Rn kompakt, wenn sie abgeschlossen und beschränkt
ist, d.h. für ein genügend großes R > 0 schon K ⊂ Bn (~0, R) gilt.
Man kann zeigen:
8.1.5 Satz Genau dann ist eine Menge K ⊂ Rn kompakt, wenn jede Folge (~xk )k ⊂ K eine
konvergente Teilfolge hat, deren Grenzwert wieder in K liegt.
Funktionen und Abbildungen
Hängt eine Größe f von den Punkten ~x ∈ U ab, so sagen wir, f sei eine Funktion von ~x und
schreiben f = f (~x).
Beispiele. (i) In R2 ist das Abstandsquadrat eines Punktes ~x = (x1 , x2 ) vom Ursprung (0, 0)
eine Funktion f der Koordinaten x1 und x2 , und zwar
f (~x) = x21 + x22 .
(ii) In der Thermodynamik behandelt man u.a. ideale Gase. Für sie ist der Druck p, unter
dem sie stehen, eine Funktion der Temperatur T und des Volumens V , in dem sie eingeschlossen
sind.
T
p(T, V ) = R
V
240
KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN
(R ist dabei eine Konstante).
(iii) Lineare Funktionen in R3 hängen von den Koordinaten der Punkte des R3 ab:
f (x1 , x2 , x3 ) = a1 x1 + a2 x2 + a3 x3 − c
mit Konstanten a1 , a2 , a3 und c. Die Menge {~x | f (~x) = 0} ist eine Ebene.
(iv) Zwei Drehkondensatoren mit Kapazitäten C1 , C2 werden parallel geschaltet. Diese Anordnung wird mit einem dritten Kondensator der Kapazität C3 in Serie geschaltet. Die Gesamtkapazität der entstehenden Anordnung ist dann
f (C1 , C2 , C3 ) =
(C1 + C2 )C3
C1 + C2 + C3
(v) Die Schwingdauer eines Federpendels mit Masse m und Federkonstante D ist
r
m
T (m, D) = 2π
D
Definition. Unter einer Abbildung f~ : U −→ Rd , wobei U ⊂ Rn offen ist, verstehen wir ein
d-tupel f~ = (f1 , ..., fd ) von Funktionen fj : U −→ R.
Beispiele (i) Das elektromagnetische Feld wird gegeben durch Abbildungen
~ x, t), B(~
~ x, t)
E(~
welche von den Ortskoordinaten der Punkte und der Zeit t abhängen. Hier ist also d = 3, n = 4.
~ von 6 Variablen, nämlich
(ii) Das Drehmoment ist eine Abbildung M
~ =M
~ (~x, F~ ) = ~x × F~
M
wobei F~ die am Ort ~x wirkende Kraft bedeutet.
Rechenoperationen
Für Abbildungen auf einer offenen Menge U ⊂ Rn sind Rechenoperationen in naheliegender
Weise erklärt:
(f~ + ~g )(~x) := f~(~x) + ~g (~x), (αf~)(~x) = αf~(~x),
wenn f~, ~g : Bn (~a, R) −→ Rd Abbildungen sind und α ∈ R.
Gegeben seien offene Mengen U ⊂ Rn und V ⊂ Rk . Ist f~ : U −→ Rd und ~h : V −→ U , so ist
die Komposition f~ ◦ ~h : Bm (~b, ρ) −→ Rd wieder wohldefiniert durch:
f~ ◦ ~h(~z) = f~(~h(~z))
8.1. GRUNDBEGRIFFE
241
Auch die Definition der Stetigkeit ist naheliegend:
Definition. Sei U ⊂ Rn offen und ~x0 ∈ U . Eine Abbildung f~ : U −→ Rd wird im Punkte ~x(0)
stetig genannt, wenn gilt:
Ist (~xk )k ⊂ U eine Folge, die gegen ~x(0) konvergiert, so konvergiert die Folge (f~(~xk ))k der
Bilder gegen f~(~x0 ).
Wiederum übertragen sich die Rechenregeln für Stetigkeit, die wir im Falle n = 1 kennengelernt haben auf den allgemeineren Fall n ≥ 1:
Summen und Produkte stetiger Funktionen, sowie Kompositionen stetiger Abbildungen sind
wieder stetig.
Beispiel. Sei n = 2 und
f (x1 , x2 ) =
x1 x2
,
x21 +x22
0
wenn (x1 , x2 ) 6= (0, 0)
sonst
Dann ist für jedes x2 ∈ R die Funktion x1 7−→ f (x1 , x2 ) in 0 stetig, ebenso ist für jedes x1 ∈ R
die Funktion x2 7−→ f (x1 , x2 ) in 0 stetig, aber trotzdem ist f in ~x(0) := ~0 unstetig. Denn die
Folge (~xk )k , mit ~xk = (1/k, 1/k) ist konvergent gegen ~x(0) , aber f (~xk ) = 1/2 und strebt nicht
gegen f (~x(0) ) = 0.
Auf kompakten Mengen nimmt jede stetige Funktion ein Maximum und ein Minimum an. Es
gilt
8.1.6 Satz Ist U ⊂ Rn offen und f : U −→ R stetig, so gilt: Ist K ⊂ U kompakt, so gibt es
Punkte ~xmin , ~xmax ∈ K, so dass
f (~xmin ) ≤ f (~x) ≤ f (~xmax )
für alle ~x ∈ K.
Beweis. 1. Schritt: Die Wertemenge M := {f (~x) | ~x ∈ K} von f ist wieder beschränkt.
Anderenfalls gäbe es eine Folge (~xk )k ⊂ K, so dass die Folge ( f (~xk ) )k unbeschränkt wäre. Aber
aus (~xk )k könnten wir eine Teilfolge (~x0k )k auswählen, dass ~x0 := limk→∞ ~x0k existiert und wieder
in K liegen müsste. Dann müsste aber die Bildfolge hiervon, also ( f (~x0k ) )k einen Grenzwert
haben, nämlich f (~x0 ), könnte also nicht unbeschränkt werden.
2. Schritt. Als beschränkte Menge hat M eine größte untere und eine kleinste obere Schranke,
die wir Smin und Smax nennen. Wie im Fall einer Variablen finden wir eine Folge (~vk )k ⊂ K mit
Grenzwert ~xmin ∈ K, so dass limk→∞ f (~vk ) = Smin . Dann ist aber f (~xmin ) = Smin . In analoger
Weise argumentieren wir für Smax .
242
KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN
8.2
Differenzierbarkeit
Wir erinnern uns an die folgende Kennzeichnung der Differenzierbarkeit in einer Variablen:
Satz. Genau dann ist die Funktion f : [a, b] −→ R in x0 differenzierbar, wenn eine in x0
stetige Funktion ϕ : [a, b] −→ R so gefunden werden kann, dass
f (x) = f (x0 ) + (x − x0 )ϕ(x)
gilt. Dann haben wir
ϕ(x0 ) = f 0 (x0 )
Das übertragen wir jetzt auf mehrere Veränderliche.
Definition. Sei f : U −→ R eine Funktion und ~x(0) ∈ U . Dann nennen wir f in ~x(0) differenzierbar, wenn man Funktionen ϕ1 , ..., ϕn : U −→ R so wählen kann, dass
f (~x) = f (~x(0) ) +
n
X
(0)
(xj − ~xj )ϕj (~x)
j=1
und alle ϕj in ~x(0) stetig sind.
Den Wert ϕj (~x(0) ) bezeichnen wir als die partiellen Ableitungen von f nach xj in ~x(0) . Man
schreibt dann
∂f (0)
(~x ) = ϕj (~x(0) )
∂xj
oder auch fxj (~x(0) ) = ϕj (~x(0) ).
8.2.1 Satz. Ist f : U −→ R eine im Punkt ~x(0) ∈ U differenzierbare Funktion, so gilt
(0)
(0)
fxj (~x ) = lim
(0)
(0)
(0)
f (x1 , ..., xj−1 , xj , xj+1 , ..., xn ) − f (~x(0) )
(0)
xj − xj
(0)
xj →xj
Man berechnet fxj (~x(0) ), indem man in f alle Variablen x1 , ..., xj−1 , xj+1 , ..., xn auf den Wert
(0)
(0)
(0)
(0)
x1 , ..., xj−1 , xj+1 , ..., xn setze und nur noch mit der Variablen xj arbeitet. Ist f differenzierbar,
ist die so entstehende Funktion
(0)
(0)
(0)
xj 7−→ f (x1 , ..., xj−1 , xj , xj+1 , ..., x(0)
n )
(0)
(0)
in xj differenzierbar, und man muss nur noch die Ableitung dieser Funktion bei xj = xj
berechnen.
Beweis. Es gilt
(0)
(0)
(0)
(0)
(0)
(0)
(0)
f (x1 , ..., xj−1 , xj , xj+1 , ..., x(0)
x(0) ) = (xj − xj ) ϕj (x1 , ..., xj−1 , xj , xj+1 , ..., x(0)
n ) − f (~
n )
8.2. DIFFERENZIERBARKEIT
243
(0)
(0)
Man teile dies durch xj − xj und lasse dann xj −→ xj gehen.
Beispiele: (i) Auf B2 (~0, 10−2 ) sei
f (x1 , x2 ) :=
x1 + x22
1 + x1 − 2x2
1
1
, 50
). Dann setzen wir
und ~x0 := ( 100
1
x1 + 2500
1
f1 (x1 ) := f (x1 , ) = 24
50
+ x1
25
und erhalten
fx1 (~x0 ) := f10 (x01 ) = f10 (
2399
1
9596
) = 2500
97 2 =
100
9409
( 100 )
Setzen wir dann
1
+ x22
100
101
− 2x2
100
1
f2 (x2 ) := f (
, x2 ) =
100
so wird
2 )
200(1
+
101x
−
100x
1
2
2 fx2 (~x0 ) := f20 ( ) =
2
50
(101 − 200x2 )
=
1
x2 = 50
596
9409
(ii) Die Funktion
f (x1 , x2 ) =
x1 x2
,
x21 +x22
wenn (x1 , x2 ) 6= (0, 0)
sonst
0
ist in jedem Punkt ~x ∈ R2 \ {~0} differenzierbar. Denn sie ist außerhalb des Nullpunktes Quotient
von Polynomen. Ist ~x(0) 6= ~0, so wird für genügend kleines t:
(0)
f (t,
(0)
x2 )
=
t x2
(0)
t2 + (x2 )2
(0)
Diese Funktion ist offenbar in x1 differenzierbar. Wir finden so:
(0)
(0)
(0)
(x )3 − (x1 )2 x2
fx1 (~x(0) = 2
2
(0)
(0)
(x1 )2 + (x2 )2
Entsprechendes gilt für die partielle Ableitung nach x2
(0)
(0)
(0)
(x )3 − x1 (x2 )2
fx2 (~x(0) = 1
2
(0)
(0)
(x1 )2 + (x2 )2
244
KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN
Definition. Ist f : U −→ R in ~x(0) differenzierbar, so wird der Vektor


fx1 (~x(0) )


..
∇f (~x(0) ) = 

.
fxn (~x(0) )
als Gradient von f in ~x(0) bezeichnet.
Zur Veranschaulichung hier ein Bild:
-0.5
0
0.5
0.2
0
-0.2
-0.4
-0.5
-0.25
0
0.25
0.5
Das Bild zeigt den Graphen von f (x1 , x2 ) = x21 − x22 . Die Steigung der Geraden G1 in der
Ebene {x1 = 0}, die bei x0 = (0, x02 , f (0, x02 )) tangential an {(0, x2 , x3 ) | x3 = f (0, x02 )} verläuft,
∂f
ist gerade ∂x
(~x(0) ) = −2x02 , hier ist x02 = 0.25.
1
Regeln für differenzierbare Funktionen
8.2.2 Satz. Sind f, g : U −→ R in ~x(0) differenzierbar und α ∈ R, so auch f + αg, f g und,
sofern g(~x(0) ) 6= 0, auch fg . Es gelten für die Berechnung der partiellen Ableitungen die alten
Regeln:
(f + αg)xj (~x(0) ) = fxj (~x(0) ) + αgxj (~x(0) )
(f g)xj (~x(0) ) = fxj (~x(0) )g(~x(0) ) + f (~x(0) )gxj (~x(0) )
8.2. DIFFERENZIERBARKEIT
245
fxj (~x(0) )g(~x(0) ) − f (~x(0) )gxj (~x(0) )
f
(0)
)
(~
x
)
=
( xj
g
g(~x(0) )2
Beweis. In der Tat gilt ja
n
X
(0)
f (~x) = f (~x ) +
(xj − ~xj )ϕfj (~x)
(0)
(1)
j=1
und
(0)
(2)
g(~x) = g(~x ) +
n
X
(0)
(xj − ~xj )ϕgj (~x)
j=1
mit Funktionen ϕfj , ϕgj , welche in ~x(0) stetig sind. Dann haben wir
(0)
(0)
(f + αg)(~x) = f (~x ) + αg(~x ) +
n
X
(0)
(xj − ~xj )(ϕfj (~x) + αϕgj (~x))
j=1
und weiter durch Multiplizieren von (1) mit (2):
(f g)(~x) = (f g)(~x(0) ) +
n
X
(0)
(xj − ~xj )ϕfj g (~x) ,
j=1
wenn wir einfach
ϕfj g (~x)
(0)
:= f (~x
)ϕgj (~x)
(0)
+ g(~x
)ϕfj (~x)
+
ϕfj (~x)
·
n
X
(0)
(xk − ~xk )ϕgk (~x)
k=1
wählen. Diese Funktionen sind in ~x(0) stetig.
Analog zeigt man die Quotientenregel.
Beispiele: (i) Polynome, also Funktionen der Form
f (~x) =
K
X
ai1 ,...,in xi11 · ... · xinn
i1 ,...,in =0
sind überall differenzierbar.
(ii) Die Funktion
2
f (x1 , x2 ) = x2 e−x1 x2 +x2
Nun ist
∂f
∂f
2
= −x2 f (x1 , x2 ),
= (1 + (−x1 + 2x2 )x2 )e−x1 x2 +x2
∂x1
∂x2
246
KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN
(iii) Die Funktion
f (x1 , x2 , x3 ) =
Dann ist
(x1 + x2 )x3
x1 + x2 + x3


x23
1


x23
∇f =
(x1 + x2 + x3 )2
2
(x1 + x2 )
Definition. Ist f : U −→ R differenzierbar, so bezeichnen wir für einen Punkt ~x(0) ∈ Bn (~a, R)
die Funktion
Lf,~x(0) (~x) := f (~x(0) ) + h∇f (~x(0) ), ~x − ~x(0) i
als Linearisierte von f bei ~x(0) .
8.2.3 Satz. Genau dann ist die Funktion f : U −→ R in ~x(0) differenzierbar, wenn ihre partiellen
Ableitungen in ~x(0) existieren und
lim
~
x→~
x(0)
f (~x) − Lf,~x(0) (~x)
=0
k~x − ~x(0) k
Mit Hilfe der linearisierten Funktion lässt sich das Verhalten einer differenzierbaren Funktion
f nahe eines Punktes ~x(0) näherungsweise berechnen.
sin x1
Beispiel. Sei etwa f (x1 , x2 ) := 1+x
und ~x(0) = ( π3 , 1). Dann ist
1 +3x3
√
√
√
3
3(12 − 3 3 + π)
π
27 3
Lf,~x(0) (~x) =
+
(x1 − ) −
(x2 − 1)
2(2 + π)
2(12 + π)2
3
2(12 + π)2
= 0.172 + 0.065(x1 −
So finden wir etwa
Der wahre Wert für f ( π4 , 1.2) ist
π
) − 0.102(x2 − 1)
3
π
Lf,~x(0) ( , 1.2) ≈ 0.1345
4
π
f ( , 1.2) = 0.131
4
Definition. Wir nennen eine Abbildung f~ = (f1 , ..., fd ) : U −→ Rd im Punkte ~x(0) ∈ U
differenzierbar, wenn die einzelnen Komponenten fj es sind.
Die Gradienten der fj werden zu einer d × n-Matrix zusammengefasst:


f1,x1 f1,x2 . . . f1,xn
 f2,x f2,x . . . f2,x 
n 
1
2

(0)
(0)
Jf~ (~x ) :=  ..
..
..  (~x )
 .
.
...
. 
fd,x1 fd,x2 . . . fd,xn
8.2. DIFFERENZIERBARKEIT
247
die man auch die Jacobi-Matrix von f~ nennt.
8.2.4 Hilfssatz. Ist eine Abbildung f~ = (f1 , ..., fd ) : U −→ Rd im Punkte ~x(0) ∈ U differenzierbar, so folgt
f~(~x) − f~(~x(0) ) − Jf~(~x0 ) · (~x − ~x(0) )
k~x − ~x(0) k
−→ ~0 ,
für ~x → ~x0
Für das Differenzieren zusammengesetzter Abbildungen ist die folgende Kettenregel hilfreich:
8.2.5 Satz (Kettenregel). Angenommen, U ⊂ Rn und V ⊂ Rr seien offene Mengen und f~ :
U −→ V und ~g : V −→ Rk Abbildungen. Ist dann f~ in ~x(0) und ~g in ~y (0) = f (~x(0) ) differenzierbar,
so ist auch ~h := ~g ◦ f~ in ~x(0) differenzierbar, und
r
X ∂g`
∂h` (0)
∂fp (0)
(~x ) =
(~y (0) )
(~x ) ,
∂xj
∂~
y
∂~
x
p
j
p=1
1 ≤ ` ≤ k, 1 ≤ j ≤ n
Beweis. Es seien 1 ≤ ` ≤ k, 1 ≤ j ≤ n fest. Dann gilt
(0)
g` (~y ) = g` (~y ) +
r
X
(yp − yp(0) )ϕgp` (~y )
p=1
und
(0)
fp (~x) = fp (~x ) +
n
X
f
(0)
(xj − xj )ϕj p (~x)
j=1
Setzen wir dies in die Gleichung für g` ein, erhalten wir:
h` (~x) = g` (f~(~x))
= g` ( f~(~x(0) ) ) +
= g` ( f~(~x(0) ) ) +
= g` ( f~(~x(0) ) ) +
r X
fp (~x))
p=1
r X
n
X
j=1
= h` (~x(0) ) +
n
X
j=1
− fp (~x
(xj −
p=1
j=1
n
r
X X
(0)
f
(0)
xj )ϕj p (~x)
f
ϕj p (~x)ϕgp` (f~(~x))
p=1
(0)
) ϕgp` (f~(~x))
(xj − xj )ϕhj ` (~x)
ϕgp` (f~(~x))
(0)
(xj − xj )
248
KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN
mit
ϕhj ` (~x)
:=
r
X
f
ϕj p (~x)ϕgp` (f~(~x))
p=1
Diese Funktionen sind in ~x(0) stetig. Auswerten in ~x(0) liefert die Behauptung.
2
2
~
Beispiel. 1) Wir betrachten die folgenden beiden Abbildungen f , ~g : R −→ R , und zwar
2
2
x
+
3x
y
+
2y
y
1
2
1
1
2
f~(~x) :=
,
~g (~y ) :=
x21 − x32
y1 − y2
Ist dann ~h := ~g ◦ f~. So suchen wir die Jacobimatrix von ~h an der Stelle ~x0 := (1, −1).
Wir berechnen
Jf~ =
1
3
2x1 −3x22
und
J~g =
Jf~(1, −1) =
,
2y1 + 2y22 4y1 y2
1
−1
1 3
2 −3
Nun ist aber ~y 0 := f~(1, −1) = (−2, 2), also
J~g (~y ) =
0
4 −16
1 −1
Das führt auf
J~h (1, −1) =
4 −16
1 −1
1 3
−28 60
·
=
2 −3
−1 6
2) Seien
πx
f (x, y) := xy sin(
),
1+y
~g (t, s) :=
t + 2s − s2
ts − 2t2
und h := f ◦ ~g . Was ist ∇h(−1, 2) ?
Es gilt
(ht , hs ) = (fx , fy )(~g (t, s))J~g (t, s)
Wir berechnen die einzelnen Zutaten. Es gilt ~g (−1, 2) = (−1, −4).
Weiter ist
fx (x, y) = y sin(
πx
πxy
πx
)+
cos(
),
1+y
1+y
1+y
fx (−1, −4) = −4 sin(π/3) −
4π
cos(π/3)
3
8.2. DIFFERENZIERBARKEIT
249
πx2 y
πx
πx
)
−
),
cos(
fy (x, y) = x sin(
1+y
(1 + y)2
1+y
Die Jacobimatrix für ~g ist
1
2 − 2s
J~g (t, s) =
,
s − 4t
t
π
4π
fy (−1, −4) = − sin( ) +
cos(π/3)
3
9
J~g (−1, 2) =
1 −2
6 −1
Das ergibt
ht (−1, 2) = fx (−1, −4) + 6fy (−1, −4)
4π
π
4π
= −4 sin(π/3) −
cos(π/3) + 6(− sin( ) +
)
3
3
9
4π
4π
= −10 sin(π/3) −
cos(π/3) + 6 )
3
9
√
2
= −5 3 + π
3
und
hs (−1, 2) = −2fx (−1, −4) − fy (−1, −4)
π
20
π
= 9 sin( ) +
cos( )
3
9
3
9√
10
=
3+ π
2
9
8.2.6 Satz (Richtungsableitungen). Ist g : Bn (~a, R) −→ R differenzierbar, so ist für jeden
Einheitsvektor ~u und jeden Punkt ~x(0) die Funktion h~u (t) := g(~x(0) + t~u) in 0 differenzierbar und
es gilt
h~u0 (0) = h∇g(~x(0) ), ~ui.
Wir nennen h~u0 (0) die Richtungsableitung von f in Richtung ~u, und schreiben sie als ∂~u f (~x(0) ).
Beweis. Es gibt ein kleines Intervall I ⊂ R, so dass für t ∈ I der Punkt ~x(0) + t~u zu U gehört.
Die Abbildung f~(t) := ~x(0) + t~u ist auf I definiert und ihre Jacobimatrix ist gerade


u1


Jf~(t) =  ... 
un
Daher haben wir auf Grund der Kettenregel
h~u0 (t)
n
X
∂g ~
(f (t)) fj0 (t)
=
∂xj
j=1
= h∇g(~x(0) ), ~ui
250
KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN
(x21
x22 )2 .
Beispiel. Es sei f (x1 , x2 ) =
−
Extrema?
Dazu untersuchen wir die Funktion
Hat f längs des Kreises um 0 mit Radius 2 relative
g(t) = f (2 cos t, 2 sin t)
und leiten dies nach t ab. Die Kettenregel liefert
∂f
∂f
(2 cos t, 2 sin t)(−2 sin t) +
(2 cos t, 2 sin t) · (2 cos t)
∂x1
∂x2
= 2((2 cos t)2 − (2 sin t)2 ) · 2 cos t · (−2 sin t)
+2((2 cos t)2 − (2 sin t)2 )(−2 sin t) · (2 cos t)
= −64(cos t2 − sin t2 ) sin t cos t = −32 cos(2t) sin(2t) = −16 sin(4t)
g 0 (t) =
und k ∈ {0, 1, 2, 3, 4, 5, 6, 7}. Aus g 00 (t) = −64 cos(4t)
Das ist 0 genau dann, wenn t = tk := kπ
4
folgt nun, dass bei tk ein lokales Maximum liegt, wenn k gerade und ein lokales Minimum, wenn
k ungerade ist.
Graph von f :
80
60
40
20
0
2
0
-2
0
-2
2
Implizite Funktionen
Definition. Angenommen, es sei F : R2 −→ R eine differenzierbare Funktion und auch y :
[a, b] −→ R sei differenzierbar. Dann sagt man, y sei implizit definiert (nicht explizit, wie etwa
8.2. DIFFERENZIERBARKEIT
251
x 7−→ x2 ), wenn das Verhalten von y durch die Gleichung
F (x, y(x)) = 0
bestimmt ist und nicht durch einen Ausdruck der Art y(x) = .....
Man nennt dann y auch eine implizite Funktion.
Auch, wenn man y nicht kennt, kann man die Ableitung berechnen, sofern sich die partielle
Ableitung Fy wohlverhält. Es gilt nämlich
Fx (x, y(x)) + Fy (x, y(x))y 0 (x) = 0
wie aus der Kettenregel folgt.
Beispiel. Eine Ellipse werde durch
√
( 3, 2)?
Nun ist
x2
6
+
y2
8
F (x, y) =
= 1 gegeben. Was ist ihre Tangente an der Stelle
x2 y 2
+
−1
6
8
Es folgt
1
1
x + y(x) · y 0 (x) = 0
3
4
√
Wenn x = 3, haben wir y(x) = 2. Also wird
√
1
y 0 ( 3)
√ +
=0
2
3
und damit
√
2
y 0 ( 3) = − √
3
Die Tangentengleichung ist dann
√ 1
3
T =
+R
− √23
2
1
(Beachte: Die Kurve (x, y(x)) hat den Geschwindigkeitsvektor
).
y 0 (x)
Beispiel. Die Konchoide des Nikomedes. Seien a und k < a positive Zahlen. Zu jedem Punkt
~ liege
P~ auf der Geraden x = a ziehen wir die Verbindungsgerade zum Ursprung. Der Punkt Q
~
~
auf dieser Verbindungsgeraden im Abstand k von P . Dann durchläuft Kurve läuft Q eine als
Konchoide bezeichnete Kurve, wenn P~ auf der Geraden wandert.
Ihre Gleichung wird so bestimmt:
a
~
~
~ = (x, y). Dann ist yP = y .
Wir schreiben P als P =
und Q
yP
a
x
252
KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN
Zusammen mit (a − x)2 + (yP − y)2 = k 2 folgt
a
(a − x)2 + ( − 1)2 y 2 = k 2 ,
x
x2 (a − x)2 + (a − x)2 y 2 = k 2 x2
Das führt auf
(x2 + y 2 )(a − x)2 = k 2 x2 ,
a−k <x<a
10
5
2
4
6
8
10
12
-5
Angenommen, es seien a = 5, k = 2.5 und x0 = 3, y0 = 94 . Dann ist nahe bei ~x0 = (x0 , y0 ) die
8.2. DIFFERENZIERBARKEIT
253
Konchoide Graph einer Funktion y(x). Ihre Tangente ist dann
1
0
TQ0 = ~x + R
y 0 (x0 )
Wir schreiben
F (x, y) := (x2 + y 2 )(5 − x)2 − 6.25x2
und finden
81
) − 12.5 · 3 = −69.75
16
Fy (Q0 ) = 2(a − x0 )2 y0 = 18
Fx (~x0 ) = 8 · 3 − 2 · 2 · (9 +
Somit ist
y 0 (x0 ) = −
Fx
(x0 , y0 ) = 3.875
Fy
Polarkoordinaten in R2 .
Für die Punkte (x1 , x2 ) ∈ R2 \ {(x1 , 0) | x1 ≤ 0} gibt es eindeutig bestimmte Zahlen ρ > 0
und ϕ ∈ (−π, π), so dass
(x1 , x2 ) = (ρ cos ϕ, ρ sin ϕ)
Wir definieren die Polarkoordinatenabbildung
P : R2 \ {(x1 , 0) | x1 ≤ 0} −→ R+ × (−π, π)
durch P~ (x1 , x2 ) := (ρ, ϕ), wobei
ρ=
q
− arctg( xx12 ),
0,
x21 + x22 , ϕ =
 π
x1
− 2 − arctg( x2 ),


Die Jacobimatrix von P ist dann
 ∂ρ
JP~ (x1 , x2 ) = 
∂x1
∂ϕ
∂x1
∂ρ
∂x2
∂ϕ
∂x2

π
2

x2 > 0
x2 = 0
x2 < 0
x1

= p 1

2
2
x1 + x2
− √ x22
x1 +x22
x2
√ x21 2
x1 +x2



Die Umkehrabbildung P~ −1 : R+ × (−π, π) −→ R2 \ {(x1 , 0) | x1 ≤ 0} ist gegeben durch
P~ −1 (ρ, ϕ) := (ρ cos ϕ, ρ sin ϕ) und die Jacobimatrix ist
cos ϕ −ρ sin ϕ
JP~ −1 (ρ, ϕ) =
sin ϕ ρ cos ϕ
254
KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN
Im Bild:
P
π
0
0
−π
P -1
Angenommen, es sei g : R2 \ {(x1 , 0) | x1 ≤ 0} −→ R eine differenzierbare Funktion. Der
Übergang zu Polarkoordinaten bedeutet einen Übergang von g zu g ◦ P~ −1 : R+ × (−π, π) −→ R.
Wir drücken die partiellen Ableitungen von g in Polarkoordinaten aus, d.h. wir berechnen die
partiellen Ableitungen von g ◦ P~ −1 . Es kommt heraus:
∂ (g ◦ P~ −1 ) sin ϕ ∂ (g ◦ P~ −1 )
∂g
= cos ϕ ·
−
∂ x1
∂ρ
ρ
∂ϕ
∂g
∂ (g ◦ P~ −1 ) cos ϕ ∂ (g ◦ P~ −1 )
+
= sin ϕ ·
∂ x2
∂ρ
ρ
∂ϕ
Polarkoordinaten in R3
Die Punkte in (R2 \{(x1 , 0) | x1 ≤ 0})×(R\{0}) = R3 \{nichtpositive x1 −Achse}\x3 −Achse
lassen sich durch eine positive Zahl und zwei Winkel ϕ ∈ (−π, π), θ ∈ p
(0, π) beschreiben: Wir
~
definieren als Polarkoordinatenabbildung P (~x) = (ρ, ϕ, θ), wobei ρ = x21 + x22 + x23 und die
Winkel ϕ und θ durch die Bedingungen
x1 = ρ sin θ cos ϕ, x2 = ρ sin θ sin ϕ, x3 = ρ cos θ
festgelegt sind. Dies liefert eine umkehrbare Abbildung mit der Inversen
P~ −1 (ρ, ϕ, θ) = (ρ sin θ cos ϕ, ρ sin θ sin ϕ, ρ cos θ)
Die Jacobimatrizen von P~ und P~ −1 sind nun:
8.2. DIFFERENZIERBARKEIT



JP~ = 


255
sin θ cos ϕ
−
1
ρ
sin θ sin ϕ
cos θ

0





cos ϕ
ρ sin θ
sin ϕ
ρ sin θ
1
ρ
cos θ cos ϕ
sin θ
− ρ1 sin θ
und


sin θ cos ϕ −ρ sin θ sin ϕ ρ cos θ cos ϕ
JP~ −1 (~x) =  sin θ sin ϕ ρ sin θ cos ϕ ρ cos θ sin ϕ 
cos θ
0
−ρ sin θ
Im Bild:
x
3
ρ
θ
x
1
φ
x2
Ist jetzt g : (R2 \ {(x1 , 0) | x1 ≤ 0}) × (R \ {0}) −→ R differenzierbar, so ist es auch die
Funktion g P := g ◦ P~ −1 : R+ × (−π, π) × (0, π) −→ und es gilt

~ −1
∇g(P
(ρ, ϕ, θ) ) =
∂ gP ∂ gP ∂ gP
,
,
∂ρ ∂ ϕ ∂θ


·


sin θ cos ϕ
−
1
ρ
sin ϕ
ρ sin θ
cos θ cos ϕ
sin θ sin ϕ
cos ϕ
ρ sin θ
1
ρ
sin θ
cos θ

0





− ρ1 sin θ
Beispiel (Elektrisches Feld einer Linienquelle). Angenommen, wir haben viele elektrische Ladungen entlang eines geraden Leiters angeordnet (wir nehmen idealisierend an, die Länge des
256
KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN
Leiters sei ∞). Ist dan q die Ladung je cm und ist r der in cm gemessene Abstand vom Leiter,
so erzeugt der so geladene Leiter das elektrische Potential
φ(r) = −
q
· ln r + C,
2πε0
mit gewissen Konstanten ε0 (Dielektrizitätskonstante) und C. Der Zusammenhang zwischen dem
~ und dem Potential φ ist: E
~ = ∇φ. Wir berechnen E
~ in kartezugehörigen elektrischen Feld E
sischen Koordinaten, wobei wir
p annehmen, der Leiter falle mit der x3 -Achse zusammen. Es gilt
aus Symmetriegründen: r = x21 + x22 und daher E3 = 0. Für die beiden anderen Komponenten
gilt jetzt:
∂φ
∂
q
∂r
q
1 xj
Ej =
=
(−
· ln r) ·
=−
· ·
∂xj
∂r
2πε0
∂xj
2πε0 r r
Also
8.3


x1
~ = − q · 1  x2 
E
2πε0 r2
0
Der Tangentialraum
Definition. Angenommen, es sei f : Bn (~a, R) −→ R eine differenzierbare Funktion. Dann bezeichnen wir für c ∈ R die Mengen
Mc := {~x ∈ Bn (~a, R) | f (~x) = c}
als Niveaumengen.
Für n = 2 sind das im Allgemeinen Kurven und für n = 3 Flächen.
Beispiel. a) Ist f (x1 , x2 ) =√x21 + x22 , so ist Mc = ∅, wenn c < 0 und M0 = {~0}. Für c > 0 ist
Mc die Kreislinie mit Radius c um den Nullpunkt .
b) Ist f (x1 , x2 ) = x21 − 4x2 , so sind die Niveaumengen Mc Parabeln.
c) Ist f : Bn (~a, R) −→ R differenzierbar und F (x1 , ...., xn+1 ) := xn+1 − f (x1 , ..., xn ), so ist
M0 der Graph von f und die Mc gehen aus M0 durch Verschieben in Richtung des (n + 1)-ten
Einheitsvektors hervor.
Aus der Cauchy-Schwarz-Ungleichung folgt nun:
8.3.1 Hilfssatz. Für die Richtungsableitung einer differenzierbaren Funktion in Richtung des
Einheitsvektors ~u gilt
∂~u f (~x0 ) ≤ k∇f (~x0 )k
und Gleichheit besteht genau dann, wenn ~u = ∇f (~x0 )/k∇f (~x0 )k.
8.3. DER TANGENTIALRAUM
Der Einheitsvektor
weist.
∇f (~
x0 )
k∇f (~
x0 )k
257
gibt also die Richtung an, in der f das stärkste Wachstum auf-
{f = f (~x0 )}


π/4
Beispiel. Sei f (x1 , x2 , x3 ) := x21 + x3 sin(x1 x2 ) und ~x0 =  1 . Dann ist
π/2


2x1 + x3 x2 cos(x1 x2 )

x3 x1 cos(x1 x2 )
∇f (~x) = 
sin(x1 x2 )
Also ist
√ 
π/2 +√π4 2
π2

∇f (~x0 ) = 
2
16

√1
2
die Richtung des stärksten Wachstums von f im Punkte ~x0 .
258
KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN
Tangentialräume
Wir approximieren nun eine Niveaumenge Mc einer differenzierbaren Funktion f durch einen
Unterraum der Dimension n − 1.
Definition. Ist f : Bn (~a, R) −→ R differenzierbar und ~x0 ∈ Bn (~a, R) ein Punkt, so dass
∇f (~x0 ) 6= ~0, so bezeichnen wir als Tangentialraum an die Fläche Mf (~x0 ) den affinen linearen
Unterraum
T~x0 Mf (~x0 ) := {~v | h~v − ~x0 , ∇f (~x0 )i = 0}
Wir finden stets n − 1 linear unabhängige Vektoren ~u1 , ..., ~un−1 , so dass h~uk , ∇f (~x0 )i = 0, für
k = 1, ..., n − 1. Es gilt dann
T~x0 Mf (~x0 ) = ~x0 + Lin ({~u1 , ..., ~un−1 }) .
Beispiele. a) Ist fx1 (~x0 ) 6= 0, so kann man ~uk := −fxk+1 (~x0 ) ~e1 + fx1 (~x0 ) ~ek+1 wählen, wobei
wieder bei ~e` an der Stelle ` eine 1 steht, während alle anderen Einträge 0 sind.


2
b) Sei etwa f (x1 , x2 , x3 ) := x31 + x2 + x3 x22 und ~x0 =  −1 . Dann gilt f (~x0 ) = 8 und
1




3x21
12
∇f (~x) =  1 + 2x2 x3  ,
∇f (~x0 ) =  −1 
2
x2
1
  

0
1
Die Vektoren  1  ,  12  stehen senkrecht auf ∇f (~x0 ), und daher
1
0
 


0
1
T~x0 M8 = ~x0 + R  1  + R  12  .
1
0
Der Tangentialraum an den Graphen einer Funktion
Sei wieder f : Bn (~a, R) −→ R differenzierbar und ~x0 ∈ Bn (~a, R) ein Punkt. Dann ist der
Graph von f gegeben durch
Graph(f ) = {(x1 , ...., x, xn+1 ) | xn+1 = f (x1 , ..., xn )}
also die Niveaumenge M0 zur Funktion
F (x1 , ...., xn+1 ) = xn+1 − f (x1 , ..., xn ) .
8.3. DER TANGENTIALRAUM
259
Es folgt
∇F (~x0 ) =
−∇f
1
Die Vektoren





~uk := 




0
..
.
1
..
.
0
fxk (~x0 )




 (k. − te Stelle ) ,



k = 1, ..., n
stehen auf ∇F (~x0 ) senkrecht. Wir erhalten dann für den Tangentialraum T~x0 (Graph(f ) ):
~x0
T~x0 (Graph(f ) ) =
+ Lin ({~u1 , ...., ~un−1 })
f (~x0 )
8.3.2 Satz. Ist f : Bn (~a, R) −→ R differenzierbar und ~x0 ∈ Bn (~a, R) ein Punkt, so gehört der
Punkt ~x ∈ Rn+1 genau dann zu T~x0 (Graph(f ) ), wenn
xn+1 = f (~x0 ) +
n
X
fxk (~x0 )(xk − x0,k ) .
k=1


Beweis. Sei ~x = 

x1
..  ∈ Rn+1 ein Element von T (Graph(f ) ). Dann ist also
~
x0
. 
xn+1
~x =
~x0
f (~x0 )
+
n
X
tk ~uk
k=1
Für ` = 1, ..., n vergleichen wir die `.-ten Koordinaten auf beiden Seiten und sehen, dass
also t` = x` − x0,`
x` = x0,` + t` ,
Vergleich der letzten (also (n + 1).-ten Koordinate ergibt
xn+1 = f (~x0 ) +
n
X
fxk (~x0 )tk = f (~x0 ) +
k=1
n
X
fxk (~x0 )(xk − x0,k ) .
k=1
Erfüllt umgekehrt ~x ∈ Rn+1 die Gleichung
xn+1 = f (~x0 ) +
n
X
k=1
fxk (~x0 )(xk − x0,k ) ,
260
KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN
so ist




~x = 


f (~x0 ) +



~x0

=
+
f (~x0 )



x1
x2
..
.
xn
f
x0 )(xk − x0,k )
k=1 xk (~

Pn
x1 − x0,1
x2 − x0,2
..
.
xn − x0,n
x0 )(xk − x0,k )
k=1 fxk (~
Pn






 X
n

~x0

+
(xk − x0,k )~uk
=
f (~x0 )

k=1

Damit gehört ~x zu T~x0 (Graph(f ) ).
Für n = 2 ist T~x0 (Graph(f ) ) eine Ebene. Man nennt sie Tangentialebene.
1
2 2x1 +x2
Beispiel. Ist etwa f (x1 , x2 ) = 4x1 e
, so gilt für ~x0 :=
folgendes: Es gilt f (~x0 ) = 4e4
2
und die Gleichung der Tangentialebene an den Graphen von f lautet:






1
1
0
T~x0 (Graph(f ) ) =  2  + R  0  + R  1 
4e4
16e4
4e4
= {~x ∈ R3 | x3 = 4e4 + 16e4 (x1 − 1) + 4e4 (x2 − 2)}
8.4
Lokale Extrema bei Funktionen zweier Variablen
8.4.1 Satz. Ist f : U −→ R auf der offenen Menge U ⊂ Rn differenzierbar und ist ~x0 ∈ U ein
Punkt, so dass f (~x) ≤ f (~x0 ) auf einer kleinen Kugel Bn (~x0 , R) ⊂ U , d.h., so dass f in ~x0 ein
lokales Maximum annimmt, so gilt ∇f (~x0 ) = ~0.
Entsprechendes gilt, wenn f in ~x0 ein lokales Minimum annimmt.
Beweis. Wäre ∇f (~x0 ) 6= ~0, so folgte für die Funktion g(t) := f (~x0 + t∇f (~x0 )) ja, dass
g 0 (t) = h∇f (~x0 + t∇f (~x0 )), ∇f (~x0 )i, also g 0 (0) = k∇f (~x0 )k2 > 0. Andererseits muss g bei 0 ein
lokales Maximum annehmen, also g 0 (0) = 0 sein, Widerspruch.
Das zeigt, dass eine differenzierbare Funktion f : U −→ R nur dort lokale Extrema annehmen
kann, wo der Gradient von f eine Nullstelle hat.
8.4. LOKALE EXTREMA BEI FUNKTIONEN ZWEIER VARIABLEN
261
In welchen dieser Nullstellen das wirklich der Fall ist, kann oftmals mit Hilfe der 2. Ableitungen entschieden werden.
Definition. Ist f : U −→ R differenzierbar und sind die Funktionen fx1 , ..., fxn wieder differenzierbar, so nennen wir f auch 2-mal differenzierbar.
Wir können dann die 2. partiellen Ableitungen
fxj xk := (fxj )xk ,
j, k = 1, ..., n
bilden.
Dann gilt der folgende
8.4.2 Satz. Ist f : U −→ R eine 2-mal differenzierbare Funktion, so ist stets
f xj xk = f xk xj ,
j, k = 1, ..., n
Bei der Bildung der 2. partiellen Ableitungen kommt es also nicht auf die Reihenfolge der Variablen an.
Definition. Ist f : U −→ R eine 2-mal differenzierbare Funktion, so bezeichnet man für einen
Punkt ~x0 ∈ U die Matrix
n
Hf (~x0 ) = fxj xk (~x0
j,k=1
als die Hesse-Matrix von f in ~x0 .
Mit der Hessematrix kann man die 2. Richtungsableitungen darstellen:
8.4.3 Hilfssatz. Ist f : U −→ R eine 2-mal differenzierbare Funktion und ~x0 ∈ U , so hat für
einen Vektor ~v ∈ Rn die 2. Ableitung der Funktion
g~v (t) := f (~x0 + t~v )
durch
g 00 (t) = h~v , Hf (~x0 + t~v ) · ~v i
gegeben.
Damit finden wir folgendes Kriterium:
8.4.4 Satz. Ist f : U −→ R eine 2-mal differenzierbare Funktion mit stetigen 2. partiellen
Ableitungen, und ist ~x0 ∈ U ein Punkt, in dem folgendes gilt:
(1) ∇f (~x0 ) = ~0
(2) Für alle ~v ∈ Rn ist h~v , Hf (~x0 ) · ~v i > 0,
( in diesem Fall nennt man Hf (~x0 ) positiv definit )
262
KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN
so hat f in ~x0 ein lokales Minimum.
Ist neben (1) die Bedingung
(2’) Für alle ~v ∈ Rn ist h~v , Hf (~x0 ) · ~v i < 0,
( in diesem Fall nennt man Hf (~x0 ) negativ definit )
erfüllt, so hat f in ~x0 ein lokales Maximum.
Der Fall n = 2
Definition. a) Man nennt eine MatrixA symmetrisch,
wenn A T = A gilt.
a b
b) Eine symmetrische Matrix A :=
heißt positiv (negativ ) semidefinit, wenn gilt
b c
h~v , A · ~v i ≥ 0 (h~v , A · ~v i ≤ 0) für alle ~v ∈ R2 .
a b
Eine positiv (negativ) semidefinite Matrix A :=
heißt positiv (negativ) definit,
b c
wenn h~v , A · ~v i = 0 nur für ~v = ~0 ist.
Man hat folgendes Kriterium
a b
8.4.5 Satz. Genau dann ist eine symmetrische Matrix A :=
positiv (negativ) semib c
definit, wenn a, c ≥ 0 (a, c ≤ 0) und ac − b2 ≥ 0.
Beweis. Angenommen, es sei etwa a, c ≥ 0 und ac − b2 ≥ 0. Ist dann a = 0, so auch b = 0
und
h~v , A · ~v i = cv22 ≥ 0 .
Ist a > 0, so ist aber
h~v , A · ~v i = av12 + 2bv1 v2 + cv22
c 2
b
2
= a v1 + 2 v1 v2 + v2
a
a
b 2
c
b2 = a (v1 + v2 ) + ( − 2 )v22
a
a a
2
ac − b 2
≥
v2 ≥ 0
a
Umgekehrt sei nun A positiv semidefinit. Dann ist a = h~e1 , A · ~e1 i ≥ 0, ebenso ist c =
h~e2 , A · ~e2 i ≥ 0.
Ist a = 0, so haben wir
2bv1 v2 + cv22 = h~v , A · ~v i ≥ 0
für jedes ~v . Wir wählen ~v = (t, 1) und sehen, dass 2bt + ct2 ≥ 0 für alle t sein müsste, was nur
für b = 0 geht. Somit ist ac − b2 = 0.
8.4. LOKALE EXTREMA BEI FUNKTIONEN ZWEIER VARIABLEN
263
Ist a > 0, so wählen wir ~v = (b, −a) und finden
1
ac − b2 = h~v , A · ~v i ≥ 0
a
Entsprechend zeigt man den
8.4.6 Satz. Genau dann ist eine symmetrische Matrix A :=
a b
b c
positiv (negativ) definit,
wenn a > 0 (a < 0) und ac − b2 > 0.
Beispiele: (1) Es sei
f (x1 , x2 ) = 2x41 − 2x1 x22 + x42
Wir errechnen
fx1 (x1 , x2 ) = 8x31 − 2x22 ,
fx2 (x1 , x2 ) = −4x1 x2 + 4x32
Soll ∇f (x1 , x2 ) = 0 werden, so muss
4x31 = x22 ,
x1 x2 = x32
2
Wenn x2 = 0, so ist auch x1 = 0. Wenn x2 6= 0, so muss x1 = x√
2 werden. Einsetzen in die erste
4
2
6
Bedingung ergibt weiter 4x2 = x2 , also x2 = 1/4, also x2 = ±1/ 2. Es folgt
1/2
1/2
√
√
{∇f = 0} = {0,
,
}
1/ 2
−1/ 2
Nun rechnen wir die Hessematrix aus: Es gilt
−4x2
24x21
Hf (x1 , x2 ) =
−4x2 12x22 − 4x1
√ 1/2
6√ ∓2 2
√
ergibt das Hf =
. Da diese Matrizen positiv definit
Im Punkte
±1/ 2
∓2 2
4
sind, liegt in beiden Punkten ein striktes lokales Minimum von f vor.
Da aber f (x1 , x1 ) = 3x41 − 2x31 bei 0 das Vorzeichen wechselt, ist 0 keine lokale Extremalstelle
von f .
2 −y
(2) Es sei f (x, y) = (2x − 3y)e−x
.
2
Der Gradient zu f (x, y) = (2x − 3y)e−x −y ist
2
2(−x(2x − 3y) + 1)
∇f (x, y) =
e−x −y
−(2x − 3y) − 3
264
KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN
Die Nullstellen von ∇f liegen dort, wo
−x(2x − 3y) = −1,
2x − 3y = −3
Das führt auf 3x = −1, also x = −1/3 und y = 7/9. Einziger kritischer Punkt von f ist also
(x0 , y0 ) = (−1/3, 7/9 ) Nun ist
2 −y
fx = 2e−x
2 −y
fy = −3e−x
− 2xf,
−f
2
Das ergibt wegen e−x0 −y0 = a := e−8/9 und f (x0 , y0 ) = −3a:
fxx (x0 , y0 ) = −4ax0 − 2 · (−3a) =
fxy (x0 , y0 ) = −2a,
22
a
3
fyy (x0 , y0 ) = 3a
Die Hessematrix in (x0 , y0 ) ist dann
Hesf ((x0 , y0 )) = a
22
3
−2
−2 3
Sie ist positiv definit, also liegt bei (x0 , y0 ) ein striktes lokales Minimum von f .
(3) Sei f (x, y) := (x2 + 2xy)e−y .
Wir suchen zuerst nach den gemeinsamen Nullstellen von fx = 2(x + y)e−y und fy = (2x −
2
(x + 2xy))e−y . Dies erfüllen die Bedingungen x = −y und 2x = x2 + 2xy, d.h. also −2y = −y 2 .
Es können 2 Fälle auftreten: y = 0, was x = 0 zur Folge hat, und y = 2, woraus x = −2 folgt.
Das bedeutet, dass der Ursprung ~0 und A(−2, 2) die einzigen Kandidaten für eine Extremalstelle
sein müssen.
Wir bestimmen nun die Hessematrix Hf für f . Es gilt
fxx = 2e−y ,
fxy = 2(1 − x − y)e−y
und
fyy = −2xe−y − (2x − (x2 + 2xy))e−y = (−4x + x2 + 2xy)e−y
Es folgt
Hf (~0) =
2 2
2 0
:
indefinit
Damit ist bei (~0, f (~0) ) ein Sattelpunkt.
Weiter haben wir
−2
Hf (A) = e
2 2
2 4
:
positiv definit
8.4. LOKALE EXTREMA BEI FUNKTIONEN ZWEIER VARIABLEN
265
Also liegt bei (A, f (A)) ein striktes lokales Minimum.
Beispiel (Flächeninhalt eines Dreiecks). Welches Dreieck mit gegebenem Umfang U = 2S hat
den größten Flächeninhalt?
Nun ist es nahegelegt mit der Heronischen Formel für den Flächeninhalt F (x, y, z) eines
Dreiecks mit Seiten x, y, z und Umfang U = 2S zu arbeiten. Sie lautet
p
F (x, y, z) = S(S − x)(S − y)(S − z)
Da nun x + y + z = 2S ist, gilt z = 2S − x − y und damit hängt F nur von x und y ab. Es wird
p
F (x, y) = S(S − x)(S − y)(x + y − S)
Es genügt, den Term unter der Wurzel zu analysieren; schreiben wir A = S1 F 2 , so lautet die
(notwendige) Bedingung für einen Extremumspunkt von A
∂A
∂x
= −(S − y)(x + y − S) + (S − x)(S − y) = 0
∂A
∂y
= −(S − x)(x + y − S) + (S − x)(S − y) = 0
oder, wenn wir beachten, dass x, y < S,
x+y−S =S−x
x+y−S =S−y =0
Das ergibt
2x + y = 2S = x + 2y
mit der Lösung x = y = 2S/3, also auch z = 2S/3.
Nun ist A nur auf der kompakten Menge K := {(x, y) |x, y ∈ [0, S], x + y ≥ S} zu untersuchen. Dort nimmt A als stetige Funktion ihr Maximum an (Vgl. Analysis-Teil (in einer
Variablen)). Dieses kann sicherlich nicht auf dem Rand von K angenommen werden (sonst käme
kein ”vernünftiges” Dreieck zustande). Es wird also in einem Punkt der Menge {(x, y) |x, y ∈
(0, S), x + y > S} realisiert. Dort muss aber ∇A verschwinden. Das führt auf x = y = z = 2S/3,
und somit auf ein gleichseitiges Dreieck.
Herunterladen