6.4 Extrema ohne Nebenbedingungen (Relative (lokale) Extrema) Sei f : D → R, D ⊆ Rn, eine Funktion. Wir sagen, dass f in a ∈ D o ein relatives Maximum (bzw. relatives Minimum) hat, wenn es eine Umgebung U von a gibt, so dass f (x) ≤ f (a) (bzw. f (x) ≥ f (a)) für alle x ∈ U gilt. Unser Ziel ist es, notwendige Bedingungen für relative Extrema einer differenzierbaren Funktion finden. Die Verallgemeinerung von “erste Ableitung = 0” ist: Mathematik I – WiSe 2004/2005 662 Die Funktion f : D → R, D ⊆ Rn, sei stetig partiell differenzierbar. Besitzt f in a ∈ D o ein relatives Extremum, dann gilt: gradf (a) = 0 d.h. fx1 (a) = fx2 (a) = · · · = fxn (a) = 0. Der Punkt a heißt dann ein stationärer Punkt von f . Lokale Extrema von f sind also unter den Lösungen der n Gleichungen in n Unbekannten fx1 (x) = fx2 (x) = · · · = fxn (x) = 0 zu finden (aber nicht jede Lösung ist wirklich ein lokales Extremum von f !). Beispiel 6.11 Die Firma MILK produziert zwei Sorten Schokolade, Vollmilch (V) Mathematik I – WiSe 2004/2005 663 und weiße Schokolade (W). Die Kosten, um x Vollmilch und y weiße Schokoladen zu produzieren, sind in einer imaginären Kakaowährung (Kakao-Euros) gemessen C(x, y) = 0, 04x2 + 0, 01xy + 0, 01y 2 + 4x + 2y + 500 Wir nehmen an, MILK kann die weiße Schokolade für 15 Kakao-Euros und die Vollmilchschokolade für 9 Kakao-Euros verkaufen. Wieviel Schokolade sollte MILK produzieren, um den Profit π zu maximieren? Die Profitfunktion ist π(x, y) = 15x + 9y − C(x, y). Wenn wir als Definitionsbereich D = {(x, y) : x, y > 0} annehmen, müssen wir lokale Extrema von π finden, also zunächst einmal stationäre Punkte. Die Mathematik I – WiSe 2004/2005 664 partiellen Ableitungen sind ∂π ∂x = 15 − 0, 08x − 0, 01y − 4 ∂π ∂y = 9 − 0, 01x − 0, 02y − 2 Die Lösung des inhomogenen Gleichungssystems 0, 08 0, 01 x 11 = 0, 01 0, 02 y 7 ist x = 100, Mathematik I – WiSe 2004/2005 y = 300. 665 Da dies der einzige stationäre Punkt ist, muss er ein Maximum sein, denn für große Werte von x und y wird die Profitfunkton π negativ. Man kann dies aber noch anders begründen, indem man folgendes Kriterium benutzt: Die Funktion f : D → R, D ⊆ Rn, sei zweimal stetig partiell differenzierbar. Es sei a ∈ D o ein stationärer Punkt von f . Ist die Hesse-Matrix Hf (a) negativ definit (bzw. positiv definit), so hat f in a ein relatives Maximum (bzw. Minimum). Ist Hf (a) indefinit, so besitzt f in a mit Sicherheit kein relatives Extremum. Ist D = D o und Hf (x) negativ definit (bzw. positiv definit) für alle x ∈ D, so ist a auch globales Maximum (bzw. Minimum) in D. Mit Hilfe unseres Determinantenkriteriums für Definitheit kann man dies für Mathematik I – WiSe 2004/2005 666 den Fall n = 2 wie folgt konkretisieren (machen Sie sich bitte klar, dass dies unmittelbar aus der obigen allgemeinen Aussage folgt), vgl. R 13.1.10 in Schwarze, Band 2: Die Funktion f : D → R, D ⊆ R2, sei zweimal stetig partiell differenzierbar in a ∈ D o, und es sei a ein stationärer Punkt von f . Gilt für die Determinante der Hesse-Matrix in a 2 (a) > 0 , det Hf (a) = fxx (a) · fyy (a) − fxy dann besitzt f in a ein relatives Extremum, und zwar ein Maximum, falls fxx(a) < 0, und ein Minimum, falls fxx(a) > 0. Mathematik I – WiSe 2004/2005 667 Gilt det Hf (a) < 0, so liegt kein Extremum vor. Bei det Hf (a) = 0 ist keine Aussage möglich. Beispiel 6.12 In unserem Beispiel 6.11 ist die Hesse-Matrix Hπ 100 300 = −0, 08 −0, 01 −0, 01 −0, 02 negativ definit, wir haben also ein Maximum! Beispiel 6.13 Wir untersuchen 1 f (x, y) = x2y + xy 2 + y 3 − 4y 3 auf Extrema. Wir bestimmen zunächst die stationären Punkte und dazu die Mathematik I – WiSe 2004/2005 668 partiellen Ableitungen: ∂f = 2xy + y 2, ∂x ∂f = x2 + 2xy + y 2 − 4 ∂y Setze beide partiellen Ableitungen = 0: 2xy + y 2 = 0 x2 + 2xy + y 2 − 4 = 0 Einsetzen der ersten in die zweite Gleichung liefert x2 − 4 = 0, also x = ±2. Für x = 2 gilt 4y + y 2 = 0, also y = 0 oder y = −4. Für x = −2 ergibt sich −4y + y 2 = 0, also y = 0 oder y = 4. Es gibt also vier stationäre Punkte: 2 2 −2 −2 , a2 = , a3 = , a4 = a1 = 0 −4 0 4 Mathematik I – WiSe 2004/2005 669 Die Hesse-Matrix ist 2y x Hf = 2x + 2y y also 0 4 4 4 −8 −4 Hf (a2) = −4 −4 0 −4 Hf (a3) = −4 −4 8 4 Hf (a4) = 4 4 Die folgenden vier Bilder skizzieren Umgebung von ai: Hf (a1) = Mathematik I – WiSe 2004/2005 2x + 2y 2x + 2y kein Extremum, weil indefinit Maximum, weil negativ definit kein Extremum, weil indefinit Minimum, weil positiv definit diese vier Stellen, jeweils in einer kleinen 670 0.16 0.14 0.12 10.65 0.1 0.08 10.6 0.06 0.04 10.55 0.02 1.9 0 10.5 1.95 –0.02 2 –0.2 2.1 –0.1 2.05 2 x 0.1 1.9 y x 2.05 –4.1 0 1.95 –4.2 –4 y –3.9 –3.8 2.1 Umgebungen von a1 und a2 Mathematik I – WiSe 2004/2005 671 –10.58 0.02 0 –10.6 –0.02 –0.04 –10.62 –0.06 –0.08 –10.64 –0.1 –0.12 –10.66 –0.14 –0.16 –0.2 –0.1 –1.9 0 –1.95 –2 x 0.1 –2.05 –2.1 y 4 y –1.9 –1.95 –2.05 –2 –2.1 x Umgebungen von a3 und a4 Mathematik I – WiSe 2004/2005 672 6.5 Extrema unter Nebenbedingungen Ziel: Bestimme Extrema der Funktion z = f (x1, . . . , xn) unter den Nebenbedingungen g1(x1, . . . , xn) = 0 g2(x1, . . . , xn) = 0 ......... gm(x1, . . . , xn) = 0 Lassen sich die Bedingungen gj (x1, . . . , xn) = 0, j = 1, 2, . . . , m , Mathematik I – WiSe 2004/2005 673 nach m der Variablen auflösen, etwa nach x1, . . . , xm, dann gilt: x1 x2 xm = = ϕ1(xm+1, xm+2, . . . , xn) ϕ2(xm+1, xm+2, . . . , xn) ......... = ϕm(xm+1, xm+2, . . . , xn) Einsetzen in f (x1, x2, . . . , xn) liefert eine Funktion Φ(xm+1, xm+2, . . . , xn), deren Extrema dann gesucht werden. Beispiel 6.14 (Schwarze Band 2, 13.3.1(b)) Ziel: Stelle quaderförmige Blechschachteln (Länge l, Breite b und Höhe h) vorgegebenen Gewichts G und größtem Volumen her. Ein cm2 Blech wiege a Gramm. Wir erhalten so das Problem maximiere V (l, b, h) = l · b · h unter G = 2 · a · (l · b + l · h + b · h) Mathematik I – WiSe 2004/2005 674 Wir lösen die Nebenbedingung nach l auf und erhalten G 2a − bh l= b+h Für G 2a setzen wir A. Einsetzen in V liefert dann Abh − b2h2 A − bh bh = V (b, h) = b+h b+h Beachte dass V eine Funktion in den Variablen b und h ist. Die Variable l haben wir eliminiert. Von dieser Funktion müssen wir nun ein Maximnum bestimmen. Dazu bestimmen Mathematik I – WiSe 2004/2005 675 wir die ersten partiellen Ableitungen: ∂V ∂b ∂V ∂h = h2(A − b2 − 2bh) (b + h)2 = b2(A − h2 − 2bh) (b + h)2 Wir müssen nun b und h so bestimmen, dass beide partiellen Ableitungen 0 sind. Das wäre für b = h = 0 der Fall, was aber offensichtlich keine sinnvolle Lösung für unser Optimierungsproblem ist. Wir erhalten b = ±h. Weil negative Lösungen Mathematik I – WiSe 2004/2005 676 ebenfalls nicht sinnvoll sind, gilt r A . 3 q Man rechnet leicht nach, dass dann auch l = A3 . Unser Volumen hat also für den Würfel einen Extremwert. Weil dies das einzige Extremum ist, kann man sich leicht klarmachen, dass es ein Maximum sein muss, denn sicherlich muss das Volumen irgendwo maximiert werden. Wenn dies nicht für den Würfel passiert, müsste es ja einen anderen stationären Punkt geben, was aber nicht der Fall ist. Alternativ können Sie auch die Hessematrix bestimmen: 2 2 2 2 b=h= H= Mathematik I – WiSe 2004/2005 −2h (h +A) (b+h)3 2 2 −2bh(−A+b +3bh+h ) (b+h)3 −2bh(−A+b +3bh+h ) (b+h)3 2 2 −2b (b +A) (b+h)3 677 p Die Hessematrix H = (hi,j ) ist negativ definit für b = h = A/3, denn √ 3A <0 h1,1 = − 3 A >0 det(H) = 4 Der Würfel maximiert also in der Tat das Volumen. In vielen Fällen ist es nicht möglich, die Gleichungsrestriktionen aufzulösen. Um auch diesen Fall zu behandeln, definieren wir zunächst die Lagrange-Funktion: L(x; λ) = L(x1, . . . , xn; λ1, . . . , λm) m P = f (x1, . . . , xn) + λj · gj (x1, . . . , xn) j=1 Mathematik I – WiSe 2004/2005 678 Die λj , j = 1, . . . , m, heißen Lagrange-Multiplikatoren. Ferner definieren wir die Jacobi-Matrix J der gi an der Stelle a: Jg (a) = ∂gj (a) ∂xk j=1,...,m; k=1,...,n Die Matrix J ist eine m × n Matrix. Man kann Sie als Ableitung von (g1, . . . , gm) an der Stelle a ∈ Rn auffassen. Wir erhalten folgende notwendige Bedingung für Extrempunkte: Mathematik I – WiSe 2004/2005 679 Seien f : D → R und gj : D → R, j = 1, 2, . . . , m, D ⊆ Rn, stetig partiell differenzierbare Funktionen. Die Funktion f habe an der Stelle a ∈ D o (dem Innern von D) ein relatives Extremum unter den Nebenbedingungen gj (a) = 0, j = 1, . . . , m, und die Jacobi-Matrix Jg (a) habe den Rang m. Dann gibt es λ∗ = (λ∗1 , . . . , λ∗m) ∈ Rm, so dass für i = 1, . . . , n gilt: m X ∂f ∗ ∗ ∂gj (a) + λj (a) = 0 . Lxi (a, λ ) = ∂xi ∂x i j=1 Mathematik I – WiSe 2004/2005 680 Beachte, dass die partiellen Ableitungen ∂L = gj ∂λj gerade die Gleichungsrestriktionen sind. Wenn wir also die partielle Ableitung der Lagrangefunktion L nach λi gleich 0 setzen, ist das gleichbedeutend damit, gi gleich 0 zu setzen. Wir können also sagen, dass die Lagrange-Funktion L(x, λ) an der Stelle (a, λ0) einen stationären Punkt hat. Um potentielle relative Extrema für f in der obigen Situation zu finden, werden also n + m Gleichungen für die n + m Unbekannten x1, . . . , xn, λ1, . . . , λm gelöst, um stationäre Punkte der Lagrange-Funktion zu finden. Beispiel 6.15 Wir wollen f (x1, x2, x3, x4) = x21 + x22 + x23 + x24 Mathematik I – WiSe 2004/2005 681 unter den Nebenbedingungen x1 + x 2 = 2 x2 + x 3 + x 4 = 4 minimieren. Die beiden Funktionen g1 und g2 sind also g1 = 2 − x 1 − x 2 g2 = 4 − x 2 − x 3 − x 4 und bestimmen die Nebenbedingungen g1 = 0, Mathematik I – WiSe 2004/2005 g2 = 0. 682 Die Lagrangefunktion ist L(x1, x2, x3, x4, λ1, λ2) = x21 + x22 + x23 + x24 + +λ1(2 − x1 − x2) + +λ2(4 − x2 − x3 − x4). Um stationäre Punkte zu finden, müssen wir die partiellen Ableitungen bilden und Mathematik I – WiSe 2004/2005 683 diese 0 setzen: Lx 1 Lx 2 Lx 3 Lx 4 L λ1 L λ2 = 2x1 − λ1 = 2x2 − λ1 − λ2 = 2x3 − λ2 = 2x4 − λ2 = 2 − x 1 − x2 = 4 − x 2 − x3 − x4 Beachte dass die letzten beiden Gleichungen nichts anderes als unsere Gleichungsrestriktionen g1 = 0 und g2 = 0 sind. Das liefert das inhomogene Mathematik I – WiSe 2004/2005 684 Gleichungssystem 0 2 0 0 0 −1 0 x1 0 2 0 0 −1 −1 x2 0 0 0 2 0 0 −1 x3 = 0 0 0 0 2 0 −1 x4 0 −1 −1 0 0 0 0 λ1 −2 λ2 −4 0 −1 −1 −1 0 0 mit der eindeutigen Lösung x1 = 0, 4; Mathematik I – WiSe 2004/2005 x2 = 1, 6; x3 = x4 = 1, 2; λ1 = 0, 8; λ2 = 2, 4 685 Die Jacobimatrix ist (unabhängig von a) J= −1 −1 0 0 0 −1 −1 −1 hat also den Rang 2. Bevor wir nun zu hinreichenden Bedingungen kommen, ein Wort zu der Bedingung, dass die Jacobi-Matrix vollen Rang hat. Diese Bedingung wird beispielsweise in Schwarze unterschlagen: Beispiel 6.16 Wir betrachten das Problem minimiere − x1 unter x2 − (1 − x1)3 = 0 −x2 − (1 − x1)3 = 0 Mathematik I – WiSe 2004/2005 686 Beachte, dass die Nebenbedingungen hier nur eine vornehme Art sind, (1−x 1)3 = 0 auszudrücken. Wir haben also ein Minimum an der Stelle x1 = 1 (dem einzigen Punkt, der beide Gleichungsrestriktionen erfüllt). Die Lagrangefunktion lautet L(x1, x2, λ1, λ2) = −x1 + λ1(x2 − (1 − x1)3) − λ2(x2 + (1 − x1)3) An der Stelle x1 = 1, x2 = 0 haben wir aber keinen stationären Punkt, weil ∂L 1 = −1. 0 ∂x1 In diesem Fall hat die Jacobi-Matrix 1 0 1 = Jg 0 0 −1 Mathematik I – WiSe 2004/2005 687 nicht den Rang 2. Nun zu den hinreichenden Bedingungen: Ist (a, λ∗) ein stationärer Punkt der Lagrange-Funktion, dann betrachten wir die Hesse-Matrix von L nach den Variablen x1, . . . , xn für λ∗. Bezeichne diese Hesse-Matrix mit Ĥ: Lx1x1 (x; λ ) · · · .. ... ĤL(x; λ∗) = Lxnx1 (x; λ∗) · · · Mathematik I – WiSe 2004/2005 ∗ Lx1xn (x; λ ) .. Lxnxn (x; λ∗) ∗ 688 Hinreichende Bedingung Es seien f : D → R und gj : D → R, D ⊆ Rn, zweimal stetig partiell differenzierbare Funktionen. Die zugehörige Lagrange-Funktion L(x; λ) habe an der Stelle (a; λ∗), a ∈ D o, einen stationären Punkt. Ist ĤL(a; λ∗) positiv definit (negativ definit), so ist a ein relatives Minimum (Maximum) unter den Nebenbedingungen gj (a) = 0 für j = 1, 2, . . . , m. Ist ĤL(x; λ∗) sogar positiv definit (negativ definit) für alle x ∈ D, so ist a ein globales Minimum (Maximum) unter den Nebenbedingungen gj (a) = 0 für j = 1, 2, . . . , m. Mathematik I – WiSe 2004/2005 689 Beispiel 6.17 In Beispiel 6.15 ist die Matrix Ĥ unabhängig von a und λ: 2 0 ĤL = 0 0 0 2 0 0 0 0 2 0 0 0 0 2 ist positiv definit, wir haben also ein Minimum. Beispiel 6.18 Wir wollen Extrema der Funktion f (x, y, z) = x2 + y 2 + z 2 Mathematik I – WiSe 2004/2005 690 unter den Restriktionen x + 2y + z = 1 2x − y − 3z = 4 bestimmen. Die Lagrangefunktion L ist L(x, y, z, λ1, λ2) = x2 + y 2 + z 2 + +λ1(−x − 2y − z + 1) + +λ2(−2x + y + 3z + 4) Mathematik I – WiSe 2004/2005 691 Die partiellen Ableitungen sind Lx = 2x − λ1 − 2λ2 Ly Lz L λ1 L λ2 = 2y − 2λ1 + λ2 = 2z − λ1 + 3λ2 = −x − 2y − z + 1 = −2x + y + 3z + 4 Alle diese Ableitungen sollen gleich Null sein. Die ersten beiden Gleichungen zeigen dann 4 2 λ1 = x + y, 5 5 Mathematik I – WiSe 2004/2005 2 4 λ2 = x − y 5 5 692 Wenn wir dies in die dritte Gleichung einsetzen bekommen wir x − y + z = 0. Diese Gleichung zusammen mit den letzten beiden Gleichungen liefert das inhomogene Gleichungssystem 1 −1 1 x 0 1 2 1 · y = 1 2 −1 −3 z 4 mit der Lösung Die Multiplikatoren sind Mathematik I – WiSe 2004/2005 16 x0 = , 15 1 y0 = , 3 52 λ1 = , 75 11 z0 = − 15 54 λ2 = 75 693 Die zugehörige Hessematrix Ĥ ist 2 0 0 0 2 0 0 0 2 also positiv definit. Deshalb haben wir an der Stelle (x0, y0, z0) ein Minimum! Lagrangemultiplikatoren haben eine wichtige ökonomische Interpretation. Wir erläutern dies an einem Beispiel mit nur einer Gleichungsrestriktion. Für den allgemeinen Fall verweisen wir auf die Literatur. Unser Ziel ist max f (x) unter der Restriktion g(x) = c. Mathematik I – WiSe 2004/2005 694 Angenommen, x∗ löst dieses Problem. Dann ist x∗ in der Regel eine Funktion abhängig von c, z.B. x∗(c). Auch der zugehörige Lagrange-Multiplikator λ ist eine Funktion von c, also λ(c). Das Optimum von f ist f (x∗(c)) = f ∗(c), also eine Funktion abhängig von c. Unter geeigneten Annahmen (auf die wir hier nicht eingehen) kann man zeigen df ∗(c) = λ(c). dc Das heißt, der Lagrangemultiplikator ist ein Maß, wie sich das Maximum f ∗(c) relativ zu c ändert. Bezeichnet f etwa den Profit, die Restriktion g(x) = c die Verfügbarkeit einer knappen Ressource, dann ist λ(c) ein Maß dafür, wie sich der Profit relativ zu einer Änderung der knappen Ressource ändert. Mathematik I – WiSe 2004/2005 695 Wir erläutern dies an einem Beispiel: Beispiel 6.19 Die Firma AUD benutzt als Input K (Kapital; damit sind insbesondere Maschinen gemeint) und W (Arbeit), um ein Auto zu produzieren. Um ein Auto zu produzieren müssen insgesamt Q = F (K, W ) = K 1/2W 1/4 Produktionsmittel eingesetzt werden; d.h. die Firma hat eine gewisse Freiheit, wieviel Kapital und wieviel Arbeit sie einsetzt. Kapital ist hier wertvoller als Arbeit: Wenn Sie den Kapitaleinsatz verdoppeln, können Sie den Arbeitseinsatz um den Faktor 4 verringern. Kapital und Arbeit konkurrieren: Sowohl das Kapital kostet Geld (Zinsen, Refinanzierung) als auch Arbeit (was jedem klar ist). Die Kosten fürs Kapital seien r, die für Arbeit w. Wir erhalten das Optimierungsproblem min rK + wW Mathematik I – WiSe 2004/2005 696 unter der Restriktion Q = K 1/2W 1/4. Die Lagrangefunktion ist L(K, W, λ) = rK + wW + λ(K 1/2W 1/4 − Q). Partielle Ableitung nach K und W sind 1 ∂L = r − λK −1/2 W 1/4 ∂K 2 1 ∂L = w − λK −1/2 W −3/4 ∂W 4 Beide partiellen Ableitungen sollen 0 sein, also 1 r = λK −1/2 W 1/4, 2 Mathematik I – WiSe 2004/2005 1 w = λK 1/2W 3/4 4 697 Auflösen nach λ gibt λ = 2rK 1/2W −1/4 = 4wK −1/2 W 3/4 also 2rK = 4wW, rK . also W = 2w Wir setzen dies in die Restriktion Q = K 1/2W 1/4 ein und erhalten K 3/4 = Q Mathematik I – WiSe 2004/2005 r 4 2w r 698 Einfache Umformungen liefern als Lösung des Lagrangeproblems K ∗ = 21/3r −1/3w1/3Q4/3 W ∗ = 2−2/3r 2/3w−2/3Q4/3 λ∗ = 24/3r 2/3w1/3Q1/3 C ∗ = 3 · 2−2/3 r 2/3w1/3Q4/3 Die Matrix Ĥ ist ∗ 1/4 1λ W 4 K 3/2 Ĥ = λ∗ 1 − 8 K 1/2W 3/4 ∗ − 18 K 1/2λW 3/4 3 λK 1/2 16 W 3/4 Der (1,1)-Eintrag dieser Matrix ist offenbar > 0. Die Determinante erhält man Mathematik I – WiSe 2004/2005 699 nach einigem Rechnen als 1 λ2 det(Ĥ) = 32 KL3/2 sie ist also auch > 0 und somit ist die Matrix positiv definit, wir haben also ein Minimum. Man rechnet leicht nach, das dC ∗ = 24/3r 2/3w1/3Q1/3 = λ∗. dQ Mathematik I – WiSe 2004/2005 700