236 Kapitel 8 Analysis in mehreren Variablen 8.1 Grundbegriffe Für Vektoren ~x = (x1 , ..., xn ) ∈ Rn haben wir eine (”euklidische”) Länge: 1/2 k~xk := x21 + ... + x2n ~ B ~ ∈ Rn den (”euklidischen”) Abstand, nämlich kA ~ − Bk. ~ und für zwei Punkte A, n Das Skalarprodukt zwischen zwei Vektoren ~x, ~y ∈ R wird erklärt wie früher: h~x, ~y i = x1 y1 + x2 y2 + ... + xn yn . Es gelten dieselben Rechenregeln wie zuvor, und man hat die Cauchy-Schwarz-Ungleichung: |h~x, ~y i| ≤ k~xkk~y k Gleichheit gilt genau dann, wenn ~x und ~y linear abhängig sind. Beweis. Ist ~y = ~0, ist dies trivial. Angenommen, ~y 6= ~0. Dann gilt k~xk2 − h~x, ~y i2 h~x, ~y i = k~ x − · ~y k2 ≥ 0 2 2 k~y k k~y k Hieraus folgt alles. 8.1.1 Folgerung Es gilt die ”Dreiecksungleichung”: k~x + ~y k ≤ k~xk + k~y k für ~x, ~y ∈ Rn . 237 238 KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN Beweis. Es gilt nämlich k~x + ~y k2 = k~xk2 + k~y k2 + 2h~x, ~y i ≤ k~xk2 + k~y k2 + 2k~xkk~y k ≤ (k~xk + k~y k)2 Der Winkel α zwischen den Vektoren ~x und ~y ist dann aus der Gleichung h~x, ~y i = k~xkk~y k cos α zu berechnen. Beispiel.√ Im R6 seien ~x√= (1, 2, 3, 4, −2, −7) und ~y = (6, 2, 4, 5, 5, −2). Dann ist h~x, ~y i = 46, k~xk = 83 und k~y k = 110. Das bedeutet, dass cos α = √ 46 = 0.481418 83 · 110 und damit α = 65◦ 320 . Die Grundbegriffe der Analysis einer Variablen übertragen sich mühelos: Definition. Eine Folge (~xk )k ⊂ Rn heißt konvergent gegen ~x0 ∈ Rn , in Zeichen limk→∞ ~xk = ~x0 , wenn limk→∞ k~xk − ~x0 k = 0. Die Konvergenz lässt sich koordinatenweise prüfen: 8.1.2 Hilfssatz. Angenommen (~xk )k ⊂ Rn sei eine Folge, wobei ~xk = (x1,k , ..., xn,k ) für jedes k. Dann konvergiert (~xk )k genau dann gegen ~x0 ∈ Rn , wenn für jedes j = 1, ..., n die Folge (xj,k )k gegen xj,0 strebt. Die üblichen Rechenregeln bleiben bestehen: limk→∞ (~xk + ~yk ) = limk→∞ ~xk + limk→∞ ~yk limk→∞ α~xk = α limk→∞ ~xk wenn die Folgen (~xk )k , (~yk )k ⊂ Rn konvergieren und α ∈ R. Wir nennen eine Folge (~xk )k ⊂ Rn beschränkt, wenn ein R > 0 mit (~xk )k ⊂ Bn (0, R) existiert. Der Satz von Bolzano-Weierstraß gilt wieder in der Form 8.1.3 Satz. Jede beschränkte Folge hat eine konvergente Teilfolge. ~ mit Radius R: Definition. a) Wir definieren als Kugel um den Punkt A ~ R) := {~x ∈ Rn | k~x − Ak ~ < R} Bn (A, b) Wir nennen eine Menge U ⊂ Rn auch offen, wenn für alle ~a ∈ U ein Radius R > 0 so gefunden werden kann, dass B(~a, R) ⊂ U . 8.1. GRUNDBEGRIFFE 239 Beispiel a) Der Rn ist offen, ebenso ∅. ~ ∈ Rn und R > 0 ist Bn (A, ~ R) offen, denn ist ~x ∈ Bn (A, ~ R), so ist (Dreiecksb) Für jedes A ~ ∈ Bn (A, ~ R). ungleichung) Bn (~x, R − k~x − Ak) 1 3 ~ c) Die Ebene E = {~x ∈ R | x1 − 2x2 − 3x3 = 1} ist keine offene Menge: A = 0 ∈ E. 0 1 ~ ~ ~ Ist R > 0 beliebig, so ist ~x := A + 2 R e1 ∈ Bn (A, R) \ E. Also Bn (A, R) 6⊂ E für jedes noch so kleine R > 0. Definition. Wir nennen eine Menge A ⊂ Rn abgeschlossen, wenn gilt: Ist ~x0 ∈ Rn und gibt es eine Folge (~xk )k ⊂ A mit limk→∞ ~xk = ~x0 , so ist schon ~x0 ∈ A. Man kann sich überlegen: 8.1.4 Satz. Genau dann ist die Menge A ⊂ Rn abgeschlossen, wenn Rn \ A offen ist. ~ R) := {~x ∈ Rn | k~x − Ak ~ ≤ R} ist abgeschlossen. Denn ist ~x0 ∈ Rn und Beispiele. a) Bn (A, ~ R) mit ~xk −→ ~x0 , wenn k → ∞, so wird k~xk − Ak ~ ≤ R, also gibt es eine Folge (~xk )k ⊂ Bn (A, ~ ≤ R. mit k → ∞ schließlich k~x0 − Ak √ b) A := Qn ist nicht abgeschlossen: Denn 2(1, 0, ..., 0) ist Grenzwert einer Punktfolge aus A, ohne zu A zu gehören. Definition. Wir nennen eine Menge K ⊂ Rn kompakt, wenn sie abgeschlossen und beschränkt ist, d.h. für ein genügend großes R > 0 schon K ⊂ Bn (~0, R) gilt. Man kann zeigen: 8.1.5 Satz Genau dann ist eine Menge K ⊂ Rn kompakt, wenn jede Folge (~xk )k ⊂ K eine konvergente Teilfolge hat, deren Grenzwert wieder in K liegt. Funktionen und Abbildungen Hängt eine Größe f von den Punkten ~x ∈ U ab, so sagen wir, f sei eine Funktion von ~x und schreiben f = f (~x). Beispiele. (i) In R2 ist das Abstandsquadrat eines Punktes ~x = (x1 , x2 ) vom Ursprung (0, 0) eine Funktion f der Koordinaten x1 und x2 , und zwar f (~x) = x21 + x22 . (ii) In der Thermodynamik behandelt man u.a. ideale Gase. Für sie ist der Druck p, unter dem sie stehen, eine Funktion der Temperatur T und des Volumens V , in dem sie eingeschlossen sind. T p(T, V ) = R V 240 KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN (R ist dabei eine Konstante). (iii) Lineare Funktionen in R3 hängen von den Koordinaten der Punkte des R3 ab: f (x1 , x2 , x3 ) = a1 x1 + a2 x2 + a3 x3 − c mit Konstanten a1 , a2 , a3 und c. Die Menge {~x | f (~x) = 0} ist eine Ebene. (iv) Zwei Drehkondensatoren mit Kapazitäten C1 , C2 werden parallel geschaltet. Diese Anordnung wird mit einem dritten Kondensator der Kapazität C3 in Serie geschaltet. Die Gesamtkapazität der entstehenden Anordnung ist dann f (C1 , C2 , C3 ) = (C1 + C2 )C3 C1 + C2 + C3 (v) Die Schwingdauer eines Federpendels mit Masse m und Federkonstante D ist r m T (m, D) = 2π D Definition. Unter einer Abbildung f~ : U −→ Rd , wobei U ⊂ Rn offen ist, verstehen wir ein d-tupel f~ = (f1 , ..., fd ) von Funktionen fj : U −→ R. Beispiele (i) Das elektromagnetische Feld wird gegeben durch Abbildungen ~ x, t), B(~ ~ x, t) E(~ welche von den Ortskoordinaten der Punkte und der Zeit t abhängen. Hier ist also d = 3, n = 4. ~ von 6 Variablen, nämlich (ii) Das Drehmoment ist eine Abbildung M ~ =M ~ (~x, F~ ) = ~x × F~ M wobei F~ die am Ort ~x wirkende Kraft bedeutet. Rechenoperationen Für Abbildungen auf einer offenen Menge U ⊂ Rn sind Rechenoperationen in naheliegender Weise erklärt: (f~ + ~g )(~x) := f~(~x) + ~g (~x), (αf~)(~x) = αf~(~x), wenn f~, ~g : Bn (~a, R) −→ Rd Abbildungen sind und α ∈ R. Gegeben seien offene Mengen U ⊂ Rn und V ⊂ Rk . Ist f~ : U −→ Rd und ~h : V −→ U , so ist die Komposition f~ ◦ ~h : Bm (~b, ρ) −→ Rd wieder wohldefiniert durch: f~ ◦ ~h(~z) = f~(~h(~z)) 8.1. GRUNDBEGRIFFE 241 Auch die Definition der Stetigkeit ist naheliegend: Definition. Sei U ⊂ Rn offen und ~x0 ∈ U . Eine Abbildung f~ : U −→ Rd wird im Punkte ~x(0) stetig genannt, wenn gilt: Ist (~xk )k ⊂ U eine Folge, die gegen ~x(0) konvergiert, so konvergiert die Folge (f~(~xk ))k der Bilder gegen f~(~x0 ). Wiederum übertragen sich die Rechenregeln für Stetigkeit, die wir im Falle n = 1 kennengelernt haben auf den allgemeineren Fall n ≥ 1: Summen und Produkte stetiger Funktionen, sowie Kompositionen stetiger Abbildungen sind wieder stetig. Beispiel. Sei n = 2 und f (x1 , x2 ) = x1 x2 , x21 +x22 0 wenn (x1 , x2 ) 6= (0, 0) sonst Dann ist für jedes x2 ∈ R die Funktion x1 7−→ f (x1 , x2 ) in 0 stetig, ebenso ist für jedes x1 ∈ R die Funktion x2 7−→ f (x1 , x2 ) in 0 stetig, aber trotzdem ist f in ~x(0) := ~0 unstetig. Denn die Folge (~xk )k , mit ~xk = (1/k, 1/k) ist konvergent gegen ~x(0) , aber f (~xk ) = 1/2 und strebt nicht gegen f (~x(0) ) = 0. Auf kompakten Mengen nimmt jede stetige Funktion ein Maximum und ein Minimum an. Es gilt 8.1.6 Satz Ist U ⊂ Rn offen und f : U −→ R stetig, so gilt: Ist K ⊂ U kompakt, so gibt es Punkte ~xmin , ~xmax ∈ K, so dass f (~xmin ) ≤ f (~x) ≤ f (~xmax ) für alle ~x ∈ K. Beweis. 1. Schritt: Die Wertemenge M := {f (~x) | ~x ∈ K} von f ist wieder beschränkt. Anderenfalls gäbe es eine Folge (~xk )k ⊂ K, so dass die Folge ( f (~xk ) )k unbeschränkt wäre. Aber aus (~xk )k könnten wir eine Teilfolge (~x0k )k auswählen, dass ~x0 := limk→∞ ~x0k existiert und wieder in K liegen müsste. Dann müsste aber die Bildfolge hiervon, also ( f (~x0k ) )k einen Grenzwert haben, nämlich f (~x0 ), könnte also nicht unbeschränkt werden. 2. Schritt. Als beschränkte Menge hat M eine größte untere und eine kleinste obere Schranke, die wir Smin und Smax nennen. Wie im Fall einer Variablen finden wir eine Folge (~vk )k ⊂ K mit Grenzwert ~xmin ∈ K, so dass limk→∞ f (~vk ) = Smin . Dann ist aber f (~xmin ) = Smin . In analoger Weise argumentieren wir für Smax . 242 KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN 8.2 Differenzierbarkeit Wir erinnern uns an die folgende Kennzeichnung der Differenzierbarkeit in einer Variablen: Satz. Genau dann ist die Funktion f : [a, b] −→ R in x0 differenzierbar, wenn eine in x0 stetige Funktion ϕ : [a, b] −→ R so gefunden werden kann, dass f (x) = f (x0 ) + (x − x0 )ϕ(x) gilt. Dann haben wir ϕ(x0 ) = f 0 (x0 ) Das übertragen wir jetzt auf mehrere Veränderliche. Definition. Sei f : U −→ R eine Funktion und ~x(0) ∈ U . Dann nennen wir f in ~x(0) differenzierbar, wenn man Funktionen ϕ1 , ..., ϕn : U −→ R so wählen kann, dass f (~x) = f (~x(0) ) + n X (0) (xj − ~xj )ϕj (~x) j=1 und alle ϕj in ~x(0) stetig sind. Den Wert ϕj (~x(0) ) bezeichnen wir als die partiellen Ableitungen von f nach xj in ~x(0) . Man schreibt dann ∂f (0) (~x ) = ϕj (~x(0) ) ∂xj oder auch fxj (~x(0) ) = ϕj (~x(0) ). 8.2.1 Satz. Ist f : U −→ R eine im Punkt ~x(0) ∈ U differenzierbare Funktion, so gilt (0) (0) fxj (~x ) = lim (0) (0) (0) f (x1 , ..., xj−1 , xj , xj+1 , ..., xn ) − f (~x(0) ) (0) xj − xj (0) xj →xj Man berechnet fxj (~x(0) ), indem man in f alle Variablen x1 , ..., xj−1 , xj+1 , ..., xn auf den Wert (0) (0) (0) (0) x1 , ..., xj−1 , xj+1 , ..., xn setze und nur noch mit der Variablen xj arbeitet. Ist f differenzierbar, ist die so entstehende Funktion (0) (0) (0) xj 7−→ f (x1 , ..., xj−1 , xj , xj+1 , ..., x(0) n ) (0) (0) in xj differenzierbar, und man muss nur noch die Ableitung dieser Funktion bei xj = xj berechnen. Beweis. Es gilt (0) (0) (0) (0) (0) (0) (0) f (x1 , ..., xj−1 , xj , xj+1 , ..., x(0) x(0) ) = (xj − xj ) ϕj (x1 , ..., xj−1 , xj , xj+1 , ..., x(0) n ) − f (~ n ) 8.2. DIFFERENZIERBARKEIT 243 (0) (0) Man teile dies durch xj − xj und lasse dann xj −→ xj gehen. Beispiele: (i) Auf B2 (~0, 10−2 ) sei f (x1 , x2 ) := x1 + x22 1 + x1 − 2x2 1 1 , 50 ). Dann setzen wir und ~x0 := ( 100 1 x1 + 2500 1 f1 (x1 ) := f (x1 , ) = 24 50 + x1 25 und erhalten fx1 (~x0 ) := f10 (x01 ) = f10 ( 2399 1 9596 ) = 2500 97 2 = 100 9409 ( 100 ) Setzen wir dann 1 + x22 100 101 − 2x2 100 1 f2 (x2 ) := f ( , x2 ) = 100 so wird 2 ) 200(1 + 101x − 100x 1 2 2 fx2 (~x0 ) := f20 ( ) = 2 50 (101 − 200x2 ) = 1 x2 = 50 596 9409 (ii) Die Funktion f (x1 , x2 ) = x1 x2 , x21 +x22 wenn (x1 , x2 ) 6= (0, 0) sonst 0 ist in jedem Punkt ~x ∈ R2 \ {~0} differenzierbar. Denn sie ist außerhalb des Nullpunktes Quotient von Polynomen. Ist ~x(0) 6= ~0, so wird für genügend kleines t: (0) f (t, (0) x2 ) = t x2 (0) t2 + (x2 )2 (0) Diese Funktion ist offenbar in x1 differenzierbar. Wir finden so: (0) (0) (0) (x )3 − (x1 )2 x2 fx1 (~x(0) = 2 2 (0) (0) (x1 )2 + (x2 )2 Entsprechendes gilt für die partielle Ableitung nach x2 (0) (0) (0) (x )3 − x1 (x2 )2 fx2 (~x(0) = 1 2 (0) (0) (x1 )2 + (x2 )2 244 KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN Definition. Ist f : U −→ R in ~x(0) differenzierbar, so wird der Vektor fx1 (~x(0) ) .. ∇f (~x(0) ) = . fxn (~x(0) ) als Gradient von f in ~x(0) bezeichnet. Zur Veranschaulichung hier ein Bild: -0.5 0 0.5 0.2 0 -0.2 -0.4 -0.5 -0.25 0 0.25 0.5 Das Bild zeigt den Graphen von f (x1 , x2 ) = x21 − x22 . Die Steigung der Geraden G1 in der Ebene {x1 = 0}, die bei x0 = (0, x02 , f (0, x02 )) tangential an {(0, x2 , x3 ) | x3 = f (0, x02 )} verläuft, ∂f ist gerade ∂x (~x(0) ) = −2x02 , hier ist x02 = 0.25. 1 Regeln für differenzierbare Funktionen 8.2.2 Satz. Sind f, g : U −→ R in ~x(0) differenzierbar und α ∈ R, so auch f + αg, f g und, sofern g(~x(0) ) 6= 0, auch fg . Es gelten für die Berechnung der partiellen Ableitungen die alten Regeln: (f + αg)xj (~x(0) ) = fxj (~x(0) ) + αgxj (~x(0) ) (f g)xj (~x(0) ) = fxj (~x(0) )g(~x(0) ) + f (~x(0) )gxj (~x(0) ) 8.2. DIFFERENZIERBARKEIT 245 fxj (~x(0) )g(~x(0) ) − f (~x(0) )gxj (~x(0) ) f (0) ) (~ x ) = ( xj g g(~x(0) )2 Beweis. In der Tat gilt ja n X (0) f (~x) = f (~x ) + (xj − ~xj )ϕfj (~x) (0) (1) j=1 und (0) (2) g(~x) = g(~x ) + n X (0) (xj − ~xj )ϕgj (~x) j=1 mit Funktionen ϕfj , ϕgj , welche in ~x(0) stetig sind. Dann haben wir (0) (0) (f + αg)(~x) = f (~x ) + αg(~x ) + n X (0) (xj − ~xj )(ϕfj (~x) + αϕgj (~x)) j=1 und weiter durch Multiplizieren von (1) mit (2): (f g)(~x) = (f g)(~x(0) ) + n X (0) (xj − ~xj )ϕfj g (~x) , j=1 wenn wir einfach ϕfj g (~x) (0) := f (~x )ϕgj (~x) (0) + g(~x )ϕfj (~x) + ϕfj (~x) · n X (0) (xk − ~xk )ϕgk (~x) k=1 wählen. Diese Funktionen sind in ~x(0) stetig. Analog zeigt man die Quotientenregel. Beispiele: (i) Polynome, also Funktionen der Form f (~x) = K X ai1 ,...,in xi11 · ... · xinn i1 ,...,in =0 sind überall differenzierbar. (ii) Die Funktion 2 f (x1 , x2 ) = x2 e−x1 x2 +x2 Nun ist ∂f ∂f 2 = −x2 f (x1 , x2 ), = (1 + (−x1 + 2x2 )x2 )e−x1 x2 +x2 ∂x1 ∂x2 246 KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN (iii) Die Funktion f (x1 , x2 , x3 ) = Dann ist (x1 + x2 )x3 x1 + x2 + x3 x23 1 x23 ∇f = (x1 + x2 + x3 )2 2 (x1 + x2 ) Definition. Ist f : U −→ R differenzierbar, so bezeichnen wir für einen Punkt ~x(0) ∈ Bn (~a, R) die Funktion Lf,~x(0) (~x) := f (~x(0) ) + h∇f (~x(0) ), ~x − ~x(0) i als Linearisierte von f bei ~x(0) . 8.2.3 Satz. Genau dann ist die Funktion f : U −→ R in ~x(0) differenzierbar, wenn ihre partiellen Ableitungen in ~x(0) existieren und lim ~ x→~ x(0) f (~x) − Lf,~x(0) (~x) =0 k~x − ~x(0) k Mit Hilfe der linearisierten Funktion lässt sich das Verhalten einer differenzierbaren Funktion f nahe eines Punktes ~x(0) näherungsweise berechnen. sin x1 Beispiel. Sei etwa f (x1 , x2 ) := 1+x und ~x(0) = ( π3 , 1). Dann ist 1 +3x3 √ √ √ 3 3(12 − 3 3 + π) π 27 3 Lf,~x(0) (~x) = + (x1 − ) − (x2 − 1) 2(2 + π) 2(12 + π)2 3 2(12 + π)2 = 0.172 + 0.065(x1 − So finden wir etwa Der wahre Wert für f ( π4 , 1.2) ist π ) − 0.102(x2 − 1) 3 π Lf,~x(0) ( , 1.2) ≈ 0.1345 4 π f ( , 1.2) = 0.131 4 Definition. Wir nennen eine Abbildung f~ = (f1 , ..., fd ) : U −→ Rd im Punkte ~x(0) ∈ U differenzierbar, wenn die einzelnen Komponenten fj es sind. Die Gradienten der fj werden zu einer d × n-Matrix zusammengefasst: f1,x1 f1,x2 . . . f1,xn f2,x f2,x . . . f2,x n 1 2 (0) (0) Jf~ (~x ) := .. .. .. (~x ) . . ... . fd,x1 fd,x2 . . . fd,xn 8.2. DIFFERENZIERBARKEIT 247 die man auch die Jacobi-Matrix von f~ nennt. 8.2.4 Hilfssatz. Ist eine Abbildung f~ = (f1 , ..., fd ) : U −→ Rd im Punkte ~x(0) ∈ U differenzierbar, so folgt f~(~x) − f~(~x(0) ) − Jf~(~x0 ) · (~x − ~x(0) ) k~x − ~x(0) k −→ ~0 , für ~x → ~x0 Für das Differenzieren zusammengesetzter Abbildungen ist die folgende Kettenregel hilfreich: 8.2.5 Satz (Kettenregel). Angenommen, U ⊂ Rn und V ⊂ Rr seien offene Mengen und f~ : U −→ V und ~g : V −→ Rk Abbildungen. Ist dann f~ in ~x(0) und ~g in ~y (0) = f (~x(0) ) differenzierbar, so ist auch ~h := ~g ◦ f~ in ~x(0) differenzierbar, und r X ∂g` ∂h` (0) ∂fp (0) (~x ) = (~y (0) ) (~x ) , ∂xj ∂~ y ∂~ x p j p=1 1 ≤ ` ≤ k, 1 ≤ j ≤ n Beweis. Es seien 1 ≤ ` ≤ k, 1 ≤ j ≤ n fest. Dann gilt (0) g` (~y ) = g` (~y ) + r X (yp − yp(0) )ϕgp` (~y ) p=1 und (0) fp (~x) = fp (~x ) + n X f (0) (xj − xj )ϕj p (~x) j=1 Setzen wir dies in die Gleichung für g` ein, erhalten wir: h` (~x) = g` (f~(~x)) = g` ( f~(~x(0) ) ) + = g` ( f~(~x(0) ) ) + = g` ( f~(~x(0) ) ) + r X fp (~x)) p=1 r X n X j=1 = h` (~x(0) ) + n X j=1 − fp (~x (xj − p=1 j=1 n r X X (0) f (0) xj )ϕj p (~x) f ϕj p (~x)ϕgp` (f~(~x)) p=1 (0) ) ϕgp` (f~(~x)) (xj − xj )ϕhj ` (~x) ϕgp` (f~(~x)) (0) (xj − xj ) 248 KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN mit ϕhj ` (~x) := r X f ϕj p (~x)ϕgp` (f~(~x)) p=1 Diese Funktionen sind in ~x(0) stetig. Auswerten in ~x(0) liefert die Behauptung. 2 2 ~ Beispiel. 1) Wir betrachten die folgenden beiden Abbildungen f , ~g : R −→ R , und zwar 2 2 x + 3x y + 2y y 1 2 1 1 2 f~(~x) := , ~g (~y ) := x21 − x32 y1 − y2 Ist dann ~h := ~g ◦ f~. So suchen wir die Jacobimatrix von ~h an der Stelle ~x0 := (1, −1). Wir berechnen Jf~ = 1 3 2x1 −3x22 und J~g = Jf~(1, −1) = , 2y1 + 2y22 4y1 y2 1 −1 1 3 2 −3 Nun ist aber ~y 0 := f~(1, −1) = (−2, 2), also J~g (~y ) = 0 4 −16 1 −1 Das führt auf J~h (1, −1) = 4 −16 1 −1 1 3 −28 60 · = 2 −3 −1 6 2) Seien πx f (x, y) := xy sin( ), 1+y ~g (t, s) := t + 2s − s2 ts − 2t2 und h := f ◦ ~g . Was ist ∇h(−1, 2) ? Es gilt (ht , hs ) = (fx , fy )(~g (t, s))J~g (t, s) Wir berechnen die einzelnen Zutaten. Es gilt ~g (−1, 2) = (−1, −4). Weiter ist fx (x, y) = y sin( πx πxy πx )+ cos( ), 1+y 1+y 1+y fx (−1, −4) = −4 sin(π/3) − 4π cos(π/3) 3 8.2. DIFFERENZIERBARKEIT 249 πx2 y πx πx ) − ), cos( fy (x, y) = x sin( 1+y (1 + y)2 1+y Die Jacobimatrix für ~g ist 1 2 − 2s J~g (t, s) = , s − 4t t π 4π fy (−1, −4) = − sin( ) + cos(π/3) 3 9 J~g (−1, 2) = 1 −2 6 −1 Das ergibt ht (−1, 2) = fx (−1, −4) + 6fy (−1, −4) 4π π 4π = −4 sin(π/3) − cos(π/3) + 6(− sin( ) + ) 3 3 9 4π 4π = −10 sin(π/3) − cos(π/3) + 6 ) 3 9 √ 2 = −5 3 + π 3 und hs (−1, 2) = −2fx (−1, −4) − fy (−1, −4) π 20 π = 9 sin( ) + cos( ) 3 9 3 9√ 10 = 3+ π 2 9 8.2.6 Satz (Richtungsableitungen). Ist g : Bn (~a, R) −→ R differenzierbar, so ist für jeden Einheitsvektor ~u und jeden Punkt ~x(0) die Funktion h~u (t) := g(~x(0) + t~u) in 0 differenzierbar und es gilt h~u0 (0) = h∇g(~x(0) ), ~ui. Wir nennen h~u0 (0) die Richtungsableitung von f in Richtung ~u, und schreiben sie als ∂~u f (~x(0) ). Beweis. Es gibt ein kleines Intervall I ⊂ R, so dass für t ∈ I der Punkt ~x(0) + t~u zu U gehört. Die Abbildung f~(t) := ~x(0) + t~u ist auf I definiert und ihre Jacobimatrix ist gerade u1 Jf~(t) = ... un Daher haben wir auf Grund der Kettenregel h~u0 (t) n X ∂g ~ (f (t)) fj0 (t) = ∂xj j=1 = h∇g(~x(0) ), ~ui 250 KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN (x21 x22 )2 . Beispiel. Es sei f (x1 , x2 ) = − Extrema? Dazu untersuchen wir die Funktion Hat f längs des Kreises um 0 mit Radius 2 relative g(t) = f (2 cos t, 2 sin t) und leiten dies nach t ab. Die Kettenregel liefert ∂f ∂f (2 cos t, 2 sin t)(−2 sin t) + (2 cos t, 2 sin t) · (2 cos t) ∂x1 ∂x2 = 2((2 cos t)2 − (2 sin t)2 ) · 2 cos t · (−2 sin t) +2((2 cos t)2 − (2 sin t)2 )(−2 sin t) · (2 cos t) = −64(cos t2 − sin t2 ) sin t cos t = −32 cos(2t) sin(2t) = −16 sin(4t) g 0 (t) = und k ∈ {0, 1, 2, 3, 4, 5, 6, 7}. Aus g 00 (t) = −64 cos(4t) Das ist 0 genau dann, wenn t = tk := kπ 4 folgt nun, dass bei tk ein lokales Maximum liegt, wenn k gerade und ein lokales Minimum, wenn k ungerade ist. Graph von f : 80 60 40 20 0 2 0 -2 0 -2 2 Implizite Funktionen Definition. Angenommen, es sei F : R2 −→ R eine differenzierbare Funktion und auch y : [a, b] −→ R sei differenzierbar. Dann sagt man, y sei implizit definiert (nicht explizit, wie etwa 8.2. DIFFERENZIERBARKEIT 251 x 7−→ x2 ), wenn das Verhalten von y durch die Gleichung F (x, y(x)) = 0 bestimmt ist und nicht durch einen Ausdruck der Art y(x) = ..... Man nennt dann y auch eine implizite Funktion. Auch, wenn man y nicht kennt, kann man die Ableitung berechnen, sofern sich die partielle Ableitung Fy wohlverhält. Es gilt nämlich Fx (x, y(x)) + Fy (x, y(x))y 0 (x) = 0 wie aus der Kettenregel folgt. Beispiel. Eine Ellipse werde durch √ ( 3, 2)? Nun ist x2 6 + y2 8 F (x, y) = = 1 gegeben. Was ist ihre Tangente an der Stelle x2 y 2 + −1 6 8 Es folgt 1 1 x + y(x) · y 0 (x) = 0 3 4 √ Wenn x = 3, haben wir y(x) = 2. Also wird √ 1 y 0 ( 3) √ + =0 2 3 und damit √ 2 y 0 ( 3) = − √ 3 Die Tangentengleichung ist dann √ 1 3 T = +R − √23 2 1 (Beachte: Die Kurve (x, y(x)) hat den Geschwindigkeitsvektor ). y 0 (x) Beispiel. Die Konchoide des Nikomedes. Seien a und k < a positive Zahlen. Zu jedem Punkt ~ liege P~ auf der Geraden x = a ziehen wir die Verbindungsgerade zum Ursprung. Der Punkt Q ~ ~ auf dieser Verbindungsgeraden im Abstand k von P . Dann durchläuft Kurve läuft Q eine als Konchoide bezeichnete Kurve, wenn P~ auf der Geraden wandert. Ihre Gleichung wird so bestimmt: a ~ ~ ~ = (x, y). Dann ist yP = y . Wir schreiben P als P = und Q yP a x 252 KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN Zusammen mit (a − x)2 + (yP − y)2 = k 2 folgt a (a − x)2 + ( − 1)2 y 2 = k 2 , x x2 (a − x)2 + (a − x)2 y 2 = k 2 x2 Das führt auf (x2 + y 2 )(a − x)2 = k 2 x2 , a−k <x<a 10 5 2 4 6 8 10 12 -5 Angenommen, es seien a = 5, k = 2.5 und x0 = 3, y0 = 94 . Dann ist nahe bei ~x0 = (x0 , y0 ) die 8.2. DIFFERENZIERBARKEIT 253 Konchoide Graph einer Funktion y(x). Ihre Tangente ist dann 1 0 TQ0 = ~x + R y 0 (x0 ) Wir schreiben F (x, y) := (x2 + y 2 )(5 − x)2 − 6.25x2 und finden 81 ) − 12.5 · 3 = −69.75 16 Fy (Q0 ) = 2(a − x0 )2 y0 = 18 Fx (~x0 ) = 8 · 3 − 2 · 2 · (9 + Somit ist y 0 (x0 ) = − Fx (x0 , y0 ) = 3.875 Fy Polarkoordinaten in R2 . Für die Punkte (x1 , x2 ) ∈ R2 \ {(x1 , 0) | x1 ≤ 0} gibt es eindeutig bestimmte Zahlen ρ > 0 und ϕ ∈ (−π, π), so dass (x1 , x2 ) = (ρ cos ϕ, ρ sin ϕ) Wir definieren die Polarkoordinatenabbildung P : R2 \ {(x1 , 0) | x1 ≤ 0} −→ R+ × (−π, π) durch P~ (x1 , x2 ) := (ρ, ϕ), wobei ρ= q − arctg( xx12 ), 0, x21 + x22 , ϕ = π x1 − 2 − arctg( x2 ), Die Jacobimatrix von P ist dann ∂ρ JP~ (x1 , x2 ) = ∂x1 ∂ϕ ∂x1 ∂ρ ∂x2 ∂ϕ ∂x2 π 2 x2 > 0 x2 = 0 x2 < 0 x1 = p 1 2 2 x1 + x2 − √ x22 x1 +x22 x2 √ x21 2 x1 +x2 Die Umkehrabbildung P~ −1 : R+ × (−π, π) −→ R2 \ {(x1 , 0) | x1 ≤ 0} ist gegeben durch P~ −1 (ρ, ϕ) := (ρ cos ϕ, ρ sin ϕ) und die Jacobimatrix ist cos ϕ −ρ sin ϕ JP~ −1 (ρ, ϕ) = sin ϕ ρ cos ϕ 254 KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN Im Bild: P π 0 0 −π P -1 Angenommen, es sei g : R2 \ {(x1 , 0) | x1 ≤ 0} −→ R eine differenzierbare Funktion. Der Übergang zu Polarkoordinaten bedeutet einen Übergang von g zu g ◦ P~ −1 : R+ × (−π, π) −→ R. Wir drücken die partiellen Ableitungen von g in Polarkoordinaten aus, d.h. wir berechnen die partiellen Ableitungen von g ◦ P~ −1 . Es kommt heraus: ∂ (g ◦ P~ −1 ) sin ϕ ∂ (g ◦ P~ −1 ) ∂g = cos ϕ · − ∂ x1 ∂ρ ρ ∂ϕ ∂g ∂ (g ◦ P~ −1 ) cos ϕ ∂ (g ◦ P~ −1 ) + = sin ϕ · ∂ x2 ∂ρ ρ ∂ϕ Polarkoordinaten in R3 Die Punkte in (R2 \{(x1 , 0) | x1 ≤ 0})×(R\{0}) = R3 \{nichtpositive x1 −Achse}\x3 −Achse lassen sich durch eine positive Zahl und zwei Winkel ϕ ∈ (−π, π), θ ∈ p (0, π) beschreiben: Wir ~ definieren als Polarkoordinatenabbildung P (~x) = (ρ, ϕ, θ), wobei ρ = x21 + x22 + x23 und die Winkel ϕ und θ durch die Bedingungen x1 = ρ sin θ cos ϕ, x2 = ρ sin θ sin ϕ, x3 = ρ cos θ festgelegt sind. Dies liefert eine umkehrbare Abbildung mit der Inversen P~ −1 (ρ, ϕ, θ) = (ρ sin θ cos ϕ, ρ sin θ sin ϕ, ρ cos θ) Die Jacobimatrizen von P~ und P~ −1 sind nun: 8.2. DIFFERENZIERBARKEIT JP~ = 255 sin θ cos ϕ − 1 ρ sin θ sin ϕ cos θ 0 cos ϕ ρ sin θ sin ϕ ρ sin θ 1 ρ cos θ cos ϕ sin θ − ρ1 sin θ und sin θ cos ϕ −ρ sin θ sin ϕ ρ cos θ cos ϕ JP~ −1 (~x) = sin θ sin ϕ ρ sin θ cos ϕ ρ cos θ sin ϕ cos θ 0 −ρ sin θ Im Bild: x 3 ρ θ x 1 φ x2 Ist jetzt g : (R2 \ {(x1 , 0) | x1 ≤ 0}) × (R \ {0}) −→ R differenzierbar, so ist es auch die Funktion g P := g ◦ P~ −1 : R+ × (−π, π) × (0, π) −→ und es gilt ~ −1 ∇g(P (ρ, ϕ, θ) ) = ∂ gP ∂ gP ∂ gP , , ∂ρ ∂ ϕ ∂θ · sin θ cos ϕ − 1 ρ sin ϕ ρ sin θ cos θ cos ϕ sin θ sin ϕ cos ϕ ρ sin θ 1 ρ sin θ cos θ 0 − ρ1 sin θ Beispiel (Elektrisches Feld einer Linienquelle). Angenommen, wir haben viele elektrische Ladungen entlang eines geraden Leiters angeordnet (wir nehmen idealisierend an, die Länge des 256 KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN Leiters sei ∞). Ist dan q die Ladung je cm und ist r der in cm gemessene Abstand vom Leiter, so erzeugt der so geladene Leiter das elektrische Potential φ(r) = − q · ln r + C, 2πε0 mit gewissen Konstanten ε0 (Dielektrizitätskonstante) und C. Der Zusammenhang zwischen dem ~ und dem Potential φ ist: E ~ = ∇φ. Wir berechnen E ~ in kartezugehörigen elektrischen Feld E sischen Koordinaten, wobei wir p annehmen, der Leiter falle mit der x3 -Achse zusammen. Es gilt aus Symmetriegründen: r = x21 + x22 und daher E3 = 0. Für die beiden anderen Komponenten gilt jetzt: ∂φ ∂ q ∂r q 1 xj Ej = = (− · ln r) · =− · · ∂xj ∂r 2πε0 ∂xj 2πε0 r r Also 8.3 x1 ~ = − q · 1 x2 E 2πε0 r2 0 Der Tangentialraum Definition. Angenommen, es sei f : Bn (~a, R) −→ R eine differenzierbare Funktion. Dann bezeichnen wir für c ∈ R die Mengen Mc := {~x ∈ Bn (~a, R) | f (~x) = c} als Niveaumengen. Für n = 2 sind das im Allgemeinen Kurven und für n = 3 Flächen. Beispiel. a) Ist f (x1 , x2 ) =√x21 + x22 , so ist Mc = ∅, wenn c < 0 und M0 = {~0}. Für c > 0 ist Mc die Kreislinie mit Radius c um den Nullpunkt . b) Ist f (x1 , x2 ) = x21 − 4x2 , so sind die Niveaumengen Mc Parabeln. c) Ist f : Bn (~a, R) −→ R differenzierbar und F (x1 , ...., xn+1 ) := xn+1 − f (x1 , ..., xn ), so ist M0 der Graph von f und die Mc gehen aus M0 durch Verschieben in Richtung des (n + 1)-ten Einheitsvektors hervor. Aus der Cauchy-Schwarz-Ungleichung folgt nun: 8.3.1 Hilfssatz. Für die Richtungsableitung einer differenzierbaren Funktion in Richtung des Einheitsvektors ~u gilt ∂~u f (~x0 ) ≤ k∇f (~x0 )k und Gleichheit besteht genau dann, wenn ~u = ∇f (~x0 )/k∇f (~x0 )k. 8.3. DER TANGENTIALRAUM Der Einheitsvektor weist. ∇f (~ x0 ) k∇f (~ x0 )k 257 gibt also die Richtung an, in der f das stärkste Wachstum auf- {f = f (~x0 )} π/4 Beispiel. Sei f (x1 , x2 , x3 ) := x21 + x3 sin(x1 x2 ) und ~x0 = 1 . Dann ist π/2 2x1 + x3 x2 cos(x1 x2 ) x3 x1 cos(x1 x2 ) ∇f (~x) = sin(x1 x2 ) Also ist √ π/2 +√π4 2 π2 ∇f (~x0 ) = 2 16 √1 2 die Richtung des stärksten Wachstums von f im Punkte ~x0 . 258 KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN Tangentialräume Wir approximieren nun eine Niveaumenge Mc einer differenzierbaren Funktion f durch einen Unterraum der Dimension n − 1. Definition. Ist f : Bn (~a, R) −→ R differenzierbar und ~x0 ∈ Bn (~a, R) ein Punkt, so dass ∇f (~x0 ) 6= ~0, so bezeichnen wir als Tangentialraum an die Fläche Mf (~x0 ) den affinen linearen Unterraum T~x0 Mf (~x0 ) := {~v | h~v − ~x0 , ∇f (~x0 )i = 0} Wir finden stets n − 1 linear unabhängige Vektoren ~u1 , ..., ~un−1 , so dass h~uk , ∇f (~x0 )i = 0, für k = 1, ..., n − 1. Es gilt dann T~x0 Mf (~x0 ) = ~x0 + Lin ({~u1 , ..., ~un−1 }) . Beispiele. a) Ist fx1 (~x0 ) 6= 0, so kann man ~uk := −fxk+1 (~x0 ) ~e1 + fx1 (~x0 ) ~ek+1 wählen, wobei wieder bei ~e` an der Stelle ` eine 1 steht, während alle anderen Einträge 0 sind. 2 b) Sei etwa f (x1 , x2 , x3 ) := x31 + x2 + x3 x22 und ~x0 = −1 . Dann gilt f (~x0 ) = 8 und 1 3x21 12 ∇f (~x) = 1 + 2x2 x3 , ∇f (~x0 ) = −1 2 x2 1 0 1 Die Vektoren 1 , 12 stehen senkrecht auf ∇f (~x0 ), und daher 1 0 0 1 T~x0 M8 = ~x0 + R 1 + R 12 . 1 0 Der Tangentialraum an den Graphen einer Funktion Sei wieder f : Bn (~a, R) −→ R differenzierbar und ~x0 ∈ Bn (~a, R) ein Punkt. Dann ist der Graph von f gegeben durch Graph(f ) = {(x1 , ...., x, xn+1 ) | xn+1 = f (x1 , ..., xn )} also die Niveaumenge M0 zur Funktion F (x1 , ...., xn+1 ) = xn+1 − f (x1 , ..., xn ) . 8.3. DER TANGENTIALRAUM 259 Es folgt ∇F (~x0 ) = −∇f 1 Die Vektoren ~uk := 0 .. . 1 .. . 0 fxk (~x0 ) (k. − te Stelle ) , k = 1, ..., n stehen auf ∇F (~x0 ) senkrecht. Wir erhalten dann für den Tangentialraum T~x0 (Graph(f ) ): ~x0 T~x0 (Graph(f ) ) = + Lin ({~u1 , ...., ~un−1 }) f (~x0 ) 8.3.2 Satz. Ist f : Bn (~a, R) −→ R differenzierbar und ~x0 ∈ Bn (~a, R) ein Punkt, so gehört der Punkt ~x ∈ Rn+1 genau dann zu T~x0 (Graph(f ) ), wenn xn+1 = f (~x0 ) + n X fxk (~x0 )(xk − x0,k ) . k=1 Beweis. Sei ~x = x1 .. ∈ Rn+1 ein Element von T (Graph(f ) ). Dann ist also ~ x0 . xn+1 ~x = ~x0 f (~x0 ) + n X tk ~uk k=1 Für ` = 1, ..., n vergleichen wir die `.-ten Koordinaten auf beiden Seiten und sehen, dass also t` = x` − x0,` x` = x0,` + t` , Vergleich der letzten (also (n + 1).-ten Koordinate ergibt xn+1 = f (~x0 ) + n X fxk (~x0 )tk = f (~x0 ) + k=1 n X fxk (~x0 )(xk − x0,k ) . k=1 Erfüllt umgekehrt ~x ∈ Rn+1 die Gleichung xn+1 = f (~x0 ) + n X k=1 fxk (~x0 )(xk − x0,k ) , 260 KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN so ist ~x = f (~x0 ) + ~x0 = + f (~x0 ) x1 x2 .. . xn f x0 )(xk − x0,k ) k=1 xk (~ Pn x1 − x0,1 x2 − x0,2 .. . xn − x0,n x0 )(xk − x0,k ) k=1 fxk (~ Pn X n ~x0 + (xk − x0,k )~uk = f (~x0 ) k=1 Damit gehört ~x zu T~x0 (Graph(f ) ). Für n = 2 ist T~x0 (Graph(f ) ) eine Ebene. Man nennt sie Tangentialebene. 1 2 2x1 +x2 Beispiel. Ist etwa f (x1 , x2 ) = 4x1 e , so gilt für ~x0 := folgendes: Es gilt f (~x0 ) = 4e4 2 und die Gleichung der Tangentialebene an den Graphen von f lautet: 1 1 0 T~x0 (Graph(f ) ) = 2 + R 0 + R 1 4e4 16e4 4e4 = {~x ∈ R3 | x3 = 4e4 + 16e4 (x1 − 1) + 4e4 (x2 − 2)} 8.4 Lokale Extrema bei Funktionen zweier Variablen 8.4.1 Satz. Ist f : U −→ R auf der offenen Menge U ⊂ Rn differenzierbar und ist ~x0 ∈ U ein Punkt, so dass f (~x) ≤ f (~x0 ) auf einer kleinen Kugel Bn (~x0 , R) ⊂ U , d.h., so dass f in ~x0 ein lokales Maximum annimmt, so gilt ∇f (~x0 ) = ~0. Entsprechendes gilt, wenn f in ~x0 ein lokales Minimum annimmt. Beweis. Wäre ∇f (~x0 ) 6= ~0, so folgte für die Funktion g(t) := f (~x0 + t∇f (~x0 )) ja, dass g 0 (t) = h∇f (~x0 + t∇f (~x0 )), ∇f (~x0 )i, also g 0 (0) = k∇f (~x0 )k2 > 0. Andererseits muss g bei 0 ein lokales Maximum annehmen, also g 0 (0) = 0 sein, Widerspruch. Das zeigt, dass eine differenzierbare Funktion f : U −→ R nur dort lokale Extrema annehmen kann, wo der Gradient von f eine Nullstelle hat. 8.4. LOKALE EXTREMA BEI FUNKTIONEN ZWEIER VARIABLEN 261 In welchen dieser Nullstellen das wirklich der Fall ist, kann oftmals mit Hilfe der 2. Ableitungen entschieden werden. Definition. Ist f : U −→ R differenzierbar und sind die Funktionen fx1 , ..., fxn wieder differenzierbar, so nennen wir f auch 2-mal differenzierbar. Wir können dann die 2. partiellen Ableitungen fxj xk := (fxj )xk , j, k = 1, ..., n bilden. Dann gilt der folgende 8.4.2 Satz. Ist f : U −→ R eine 2-mal differenzierbare Funktion, so ist stets f xj xk = f xk xj , j, k = 1, ..., n Bei der Bildung der 2. partiellen Ableitungen kommt es also nicht auf die Reihenfolge der Variablen an. Definition. Ist f : U −→ R eine 2-mal differenzierbare Funktion, so bezeichnet man für einen Punkt ~x0 ∈ U die Matrix n Hf (~x0 ) = fxj xk (~x0 j,k=1 als die Hesse-Matrix von f in ~x0 . Mit der Hessematrix kann man die 2. Richtungsableitungen darstellen: 8.4.3 Hilfssatz. Ist f : U −→ R eine 2-mal differenzierbare Funktion und ~x0 ∈ U , so hat für einen Vektor ~v ∈ Rn die 2. Ableitung der Funktion g~v (t) := f (~x0 + t~v ) durch g 00 (t) = h~v , Hf (~x0 + t~v ) · ~v i gegeben. Damit finden wir folgendes Kriterium: 8.4.4 Satz. Ist f : U −→ R eine 2-mal differenzierbare Funktion mit stetigen 2. partiellen Ableitungen, und ist ~x0 ∈ U ein Punkt, in dem folgendes gilt: (1) ∇f (~x0 ) = ~0 (2) Für alle ~v ∈ Rn ist h~v , Hf (~x0 ) · ~v i > 0, ( in diesem Fall nennt man Hf (~x0 ) positiv definit ) 262 KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN so hat f in ~x0 ein lokales Minimum. Ist neben (1) die Bedingung (2’) Für alle ~v ∈ Rn ist h~v , Hf (~x0 ) · ~v i < 0, ( in diesem Fall nennt man Hf (~x0 ) negativ definit ) erfüllt, so hat f in ~x0 ein lokales Maximum. Der Fall n = 2 Definition. a) Man nennt eine MatrixA symmetrisch, wenn A T = A gilt. a b b) Eine symmetrische Matrix A := heißt positiv (negativ ) semidefinit, wenn gilt b c h~v , A · ~v i ≥ 0 (h~v , A · ~v i ≤ 0) für alle ~v ∈ R2 . a b Eine positiv (negativ) semidefinite Matrix A := heißt positiv (negativ) definit, b c wenn h~v , A · ~v i = 0 nur für ~v = ~0 ist. Man hat folgendes Kriterium a b 8.4.5 Satz. Genau dann ist eine symmetrische Matrix A := positiv (negativ) semib c definit, wenn a, c ≥ 0 (a, c ≤ 0) und ac − b2 ≥ 0. Beweis. Angenommen, es sei etwa a, c ≥ 0 und ac − b2 ≥ 0. Ist dann a = 0, so auch b = 0 und h~v , A · ~v i = cv22 ≥ 0 . Ist a > 0, so ist aber h~v , A · ~v i = av12 + 2bv1 v2 + cv22 c 2 b 2 = a v1 + 2 v1 v2 + v2 a a b 2 c b2 = a (v1 + v2 ) + ( − 2 )v22 a a a 2 ac − b 2 ≥ v2 ≥ 0 a Umgekehrt sei nun A positiv semidefinit. Dann ist a = h~e1 , A · ~e1 i ≥ 0, ebenso ist c = h~e2 , A · ~e2 i ≥ 0. Ist a = 0, so haben wir 2bv1 v2 + cv22 = h~v , A · ~v i ≥ 0 für jedes ~v . Wir wählen ~v = (t, 1) und sehen, dass 2bt + ct2 ≥ 0 für alle t sein müsste, was nur für b = 0 geht. Somit ist ac − b2 = 0. 8.4. LOKALE EXTREMA BEI FUNKTIONEN ZWEIER VARIABLEN 263 Ist a > 0, so wählen wir ~v = (b, −a) und finden 1 ac − b2 = h~v , A · ~v i ≥ 0 a Entsprechend zeigt man den 8.4.6 Satz. Genau dann ist eine symmetrische Matrix A := a b b c positiv (negativ) definit, wenn a > 0 (a < 0) und ac − b2 > 0. Beispiele: (1) Es sei f (x1 , x2 ) = 2x41 − 2x1 x22 + x42 Wir errechnen fx1 (x1 , x2 ) = 8x31 − 2x22 , fx2 (x1 , x2 ) = −4x1 x2 + 4x32 Soll ∇f (x1 , x2 ) = 0 werden, so muss 4x31 = x22 , x1 x2 = x32 2 Wenn x2 = 0, so ist auch x1 = 0. Wenn x2 6= 0, so muss x1 = x√ 2 werden. Einsetzen in die erste 4 2 6 Bedingung ergibt weiter 4x2 = x2 , also x2 = 1/4, also x2 = ±1/ 2. Es folgt 1/2 1/2 √ √ {∇f = 0} = {0, , } 1/ 2 −1/ 2 Nun rechnen wir die Hessematrix aus: Es gilt −4x2 24x21 Hf (x1 , x2 ) = −4x2 12x22 − 4x1 √ 1/2 6√ ∓2 2 √ ergibt das Hf = . Da diese Matrizen positiv definit Im Punkte ±1/ 2 ∓2 2 4 sind, liegt in beiden Punkten ein striktes lokales Minimum von f vor. Da aber f (x1 , x1 ) = 3x41 − 2x31 bei 0 das Vorzeichen wechselt, ist 0 keine lokale Extremalstelle von f . 2 −y (2) Es sei f (x, y) = (2x − 3y)e−x . 2 Der Gradient zu f (x, y) = (2x − 3y)e−x −y ist 2 2(−x(2x − 3y) + 1) ∇f (x, y) = e−x −y −(2x − 3y) − 3 264 KAPITEL 8. ANALYSIS IN MEHREREN VARIABLEN Die Nullstellen von ∇f liegen dort, wo −x(2x − 3y) = −1, 2x − 3y = −3 Das führt auf 3x = −1, also x = −1/3 und y = 7/9. Einziger kritischer Punkt von f ist also (x0 , y0 ) = (−1/3, 7/9 ) Nun ist 2 −y fx = 2e−x 2 −y fy = −3e−x − 2xf, −f 2 Das ergibt wegen e−x0 −y0 = a := e−8/9 und f (x0 , y0 ) = −3a: fxx (x0 , y0 ) = −4ax0 − 2 · (−3a) = fxy (x0 , y0 ) = −2a, 22 a 3 fyy (x0 , y0 ) = 3a Die Hessematrix in (x0 , y0 ) ist dann Hesf ((x0 , y0 )) = a 22 3 −2 −2 3 Sie ist positiv definit, also liegt bei (x0 , y0 ) ein striktes lokales Minimum von f . (3) Sei f (x, y) := (x2 + 2xy)e−y . Wir suchen zuerst nach den gemeinsamen Nullstellen von fx = 2(x + y)e−y und fy = (2x − 2 (x + 2xy))e−y . Dies erfüllen die Bedingungen x = −y und 2x = x2 + 2xy, d.h. also −2y = −y 2 . Es können 2 Fälle auftreten: y = 0, was x = 0 zur Folge hat, und y = 2, woraus x = −2 folgt. Das bedeutet, dass der Ursprung ~0 und A(−2, 2) die einzigen Kandidaten für eine Extremalstelle sein müssen. Wir bestimmen nun die Hessematrix Hf für f . Es gilt fxx = 2e−y , fxy = 2(1 − x − y)e−y und fyy = −2xe−y − (2x − (x2 + 2xy))e−y = (−4x + x2 + 2xy)e−y Es folgt Hf (~0) = 2 2 2 0 : indefinit Damit ist bei (~0, f (~0) ) ein Sattelpunkt. Weiter haben wir −2 Hf (A) = e 2 2 2 4 : positiv definit 8.4. LOKALE EXTREMA BEI FUNKTIONEN ZWEIER VARIABLEN 265 Also liegt bei (A, f (A)) ein striktes lokales Minimum. Beispiel (Flächeninhalt eines Dreiecks). Welches Dreieck mit gegebenem Umfang U = 2S hat den größten Flächeninhalt? Nun ist es nahegelegt mit der Heronischen Formel für den Flächeninhalt F (x, y, z) eines Dreiecks mit Seiten x, y, z und Umfang U = 2S zu arbeiten. Sie lautet p F (x, y, z) = S(S − x)(S − y)(S − z) Da nun x + y + z = 2S ist, gilt z = 2S − x − y und damit hängt F nur von x und y ab. Es wird p F (x, y) = S(S − x)(S − y)(x + y − S) Es genügt, den Term unter der Wurzel zu analysieren; schreiben wir A = S1 F 2 , so lautet die (notwendige) Bedingung für einen Extremumspunkt von A ∂A ∂x = −(S − y)(x + y − S) + (S − x)(S − y) = 0 ∂A ∂y = −(S − x)(x + y − S) + (S − x)(S − y) = 0 oder, wenn wir beachten, dass x, y < S, x+y−S =S−x x+y−S =S−y =0 Das ergibt 2x + y = 2S = x + 2y mit der Lösung x = y = 2S/3, also auch z = 2S/3. Nun ist A nur auf der kompakten Menge K := {(x, y) |x, y ∈ [0, S], x + y ≥ S} zu untersuchen. Dort nimmt A als stetige Funktion ihr Maximum an (Vgl. Analysis-Teil (in einer Variablen)). Dieses kann sicherlich nicht auf dem Rand von K angenommen werden (sonst käme kein ”vernünftiges” Dreieck zustande). Es wird also in einem Punkt der Menge {(x, y) |x, y ∈ (0, S), x + y > S} realisiert. Dort muss aber ∇A verschwinden. Das führt auf x = y = z = 2S/3, und somit auf ein gleichseitiges Dreieck.