Kapitel 3 Statische Optimierung unter Ungleichungsrestriktionen (Kuhn-Tucker) 3.1 Einleitung/Ziel/Bedeutung/Übersicht • In ökonomischen Anwendungen treten die Restriktionen häufig als Ungleichungen (statt als Gleichungen) auf. • Die Lösungen solcher Probleme tendieren dazu, auf dem Rand (genauer gesagt: in einer ‘Ecke’) der zulässigen Menge zu liegen, wo ein Teil der Restriktionen als Gleichungen, der Rest als echte Ungleichungen erfüllt ist. • Aus dieser Perspektive ist die Behandlung solcher Probleme deswegen schwieriger, weil man nicht von vorneherein weiß, welche Restriktionen bindend (als Gleichung erfüllt) sind und welche nicht (Die Frage ist grob gesagt: Für welche Teilmenge der Restriktionen muss man Lagrange-Multiplikatoren vorsehen, und für welchen Teil befindet man sich in der Situation einer unrestringierten Optimierung?) • Die hier behandelte Vorgehensweise läuft, wenn man sie systematisch einsetzt, auf eine Reduktion auf viele gleichungsrestringierte Probleme hinaus: Ein ‘Teilproblem’ besteht aus einem Problem, wo ein Teil der Restriktionen als Gleichungen erfüllt sind. Dieses kann mit dem Lagrange-Formalismus behandelt werden, wobei die restlichen Restriktionen zunächst ignoriert werden. Erfüllt eine Lösung dieses Lagrange-Teilproblems die restlichen Restriktionen, so hat man einen Lösungskandidaten gefunden. • Die bindenden Restriktionen als Gleichungen zusammen mit der Abwesenheit (dem Verschwinden) der Lagrange-Multiplikatoren nicht-bindender Restriktionen wird durch komplementäre Schlupfbedingungen beschrieben. Je nachdem, ob maximiert oder minimiert werden soll, müssen auch die Lagrange-Multiplikatoren zu den bindenden Restriktionen eine (schwache) Vorzeichenbed. erfüllen. Der Übersichtlichkeit halber unterstellen wir eine Maximierungsaufgabe (mit nach außen gerichteten Restriktionsgradienten). • Das Konglomerat aus Lagrange-Bedingungen und komplementären Schlupfbedingungen nennen wir die Kuhn-Tucker-Bedingungen. Sie liefern hier die notwendige Bedingung für die Lösung. 21 22 Statische Optimierung – Kuhn-Tucker 3.2 Definition des Standard-Problems • Standard-Form des Problems unter Ungleichungs-Restriktionen: ⎧ ⎪ ⎨ g1 (x1 , . . . xn ) ≤ c1 .. max f (x1 , . . . , xn ) u. d. Nbdg. . ⎪ ⎩ gm (x1 , . . . xn ) ≤ cm (1) • D.h. n Variablen, Zielfkt f ist zu maximieren, m Ungleichungsrestriktionen gj ≤ cj (nicht: gj ≥ cj , nicht: Zielfkt ist zu minimieren) • Die Menge {x ∈ Rn | gj (x) ≤ cj ∀ j = 1, . . . , m} heißt die zulässige Menge (engl. feasible set, admissible set), manchmal auch die Opportunitätsmenge. • Geometrisch: Die durch eine Restriktion gj ≤ cj definierte Menge besteht aus allen Punkten, die ‘auf einer Seite’ der zum Niveau cj gehörenden Isoquante von gj liegen (einschließlich der Isoquante gj = cj selbst; die ‘Seite’ ist die dem Gradienten ∇gj abgewandte Seite). Die zulässige Menge ist die Schnittmenge all dieser Mengen. • Zum Beispiel (hier n = 2, m = 2): g1 (x, y) := x2 + y 2 ≤ 1, g2 (x, y) := −y ≤ 0: die zulässige Menge ist ein Halbkreis, und zwar der Einheitskreis oberhalb der x-Achse. • Wenn gj eine lineare Funktion in x1 , . . . , xn ist, dann ist die Menge {gj ≤ cj } ein ‘Halbraum’ (ein ‘halber linearer Raum’), der durch die ‘Hyperebene’1 {gj = cj } vom komplementären Halbraum getrennt ist. Sind alle gj linear, dann besteht die zulässige Menge aus einem Polyeder (Vieleck). Ist auch noch f linear, dann befindet man sich im Bereich der linearen Optimierung (mit eigenen, sehr effizienten Lösungstechniken, z.B. Simplexverfahren, das sich aber nicht ohne weiteres auf die nicht-lineare Situation übertragen lässt). • Bedingungen, die Konvexität der zulässigen Menge sicherstellen: Bekannter Satz: Ist die Funktion gj konvex, so ist jede Menge {gj ≤ cj } konvex (bei konkaven Funktionen gj sind dagegen die Mengen {gj ≥ cj } konvex). Da der Schnitt konvexer Mengen eine konvexe Menge ergibt, ist die zulässige Menge konvex, wenn alle gj konvexe Funktionen sind. Ein wichtiger Spezialfall des Standard-Problems liegt vor bei einer (zu maximierenden) konkaven Ziefunktion f mit konvexen Restriktionen gj ≤ cj . • Bei (‘nicht-redundanten’) Gleichungsrestriktionen ist nur der Fall m ≤ n relevant (sonst ist die zulässige Menge leer). Bei Ungleichungsrestrikionen kann jedoch der Fall m > n durchaus Sinn machen, z.B. erhält man in obigem Beispiel mit g3 (x, y) := −x ≤ 0 einen Viertelkreis als zulässige Menge. • Transformation in Standard-Form: – Minimierungsaufgabe in Standard-Form bringen durch Übergang zu −f ; – Ungleichungsrestriktionen der Form hj ≥ bj durch Multiplikation mit −1 umschreiben in −hj ≤ −bj (d.h. Übergang zu gj = −hj , cj = −bj ); – ‘Einschlussrestriktionen’ wie 0 ≤ xj ≤ cj in Standardform bringen durch Verdoppelung der Restriktionen: −xj ≤ 0 und xj ≤ cj . 1 eine Hyperebene ist ein n − 1-dimensionales lineares Gebilde im Rn : Gerade in R2 , Ebene in R3 usw. c K.H. Schild, Abt. Statistik, Fb. Wiwi, Uni Marburg 3.3 23 Kuhn-Tucker-Bedingungen • Wir nennen eine Ungleichungsrestriktion gj (x) ≤ cj bindend (oder aktiv) im Punkt x, wenn die Restriktion als Gleichung erfüllt ist, d.h. wenn gj (x) = cj . In der folgenden Skizze bindet die Restriktion g1 (x, y) ≤ c1 im Punkt (x∗ , y ∗ ), die Restriktion g2 (x, y) ≤ c2 dagegen nicht. Dieser Punkt ist die Lösung des Problems max f (x, y) unter den beiden Ungleichungsrestriktionen. Er zeichnet sich dadurch aus, dass in ihm der Gradient der Zielfkt, ∇f (x∗ , y ∗ ), gleichgerichtet ist zum Gradienten der bindenden Restriktion, ∇g1 (x∗ , y ∗ ): yŧc 2 g 1 Ŧ x , yŧc 1 • Die Skizze legt nahe: Damit ein Punkt x∗ ein lokales Extremum des restringierten Problems darstellt, muss der Gradient der Zielfunktion eine Linearkombination der Gradienten der Restriktionen in x∗ sein (wie bei Lagrange), allerdings nur der bindenden: ∇f (x∗ ) = λ1 ∇g 1 (x∗ ) + . . . + λm ∇g m (x∗ ), λj = 0 falls Restriktion j nicht bindet Damit es sich um ein Maximum handelt, muss der Gradient der Zielfunktion ‘gleichlaufend’ mit den (bindenden) Restriktionsgradienten sein, d.h. λj ≥ 0 für alle j. Man sollte also nach Punkten x∗ suchen, wo sich der Gradient der Zielfunktion als Linearkombination der Gradienten der bindenden Restriktionen mit nichtnegativen Linearkoeffizienten λj darstellen lässt: m λj ≥ 0 und λj ∇gj (x∗ ), wobei ∇f (x∗ ) = λj = 0, falls Restr. j nicht bindet j=1 • Unter den Kuhn-Tucker-Bedingungen verstehen wir diese Bedingungen zusammen mit der Forderung, dass die Restriktionen erfüllt sind. Definition 3.1 (Kuhn-Tucker-Bedingungen) Wir nennen einen Punkt x∗ einen Kuhn-Tucker-Punkt des Problems (1), wenn er die folgenden Bedingungen erfüllt: KT1: Für i = 1, . . . , n : KT2: Für j = 1, . . . , m : KT3: Für j = 1, . . . , m : ∂f ∗ ∂xi (x ) ∂gm ∗ ∗ 1 − λ1 ∂g ∂xi (x ) − . . . − λm ∂xi (x ) = 0 λj ≥ 0, wobei λj = 0 ist, falls gj (x∗ ) < cj gj (x∗ ) ≤ cj , wobei gj (x∗ ) = cj ist, falls λj > 0 Anmerkung: Der Zusatz in KT3 ist redundant, da er nur die Kontraposition der Forderung in KT2, Wenn die Restriktion nicht bindet (gj (x∗ ) < cj ), ist λj = 0“, darstellt; er ” wurde aus Symmetriegründen hinzugefügt. 24 Statische Optimierung – Kuhn-Tucker • Die Forderungen KT2 und KT3 lassen sich gut merken, wenn man sie – äquivalent – in Form einer komplementären Schlupfbedingung zwischen λj und gj (x∗ )−cj ausdrückt: KT2 ∧ KT3 ⇐⇒ λj ≥ 0, gj (x∗ ) − cj ≤ 0, λj · gj (x∗ ) − cj = 0 Wenn gj (x∗ ) − cj < 0 ist (Restriktion bindet nicht), dann muss λj = 0 sein. Wenn λj > 0 ist, dann ist notwendigerweise gj (x∗ ) − cj = 0 (Restriktion bindet). Strenggenommen kann man aber nicht von λj = 0 auf gj (x∗ )−cj < 0 oder von gj (x∗ )−cj = 0 auf λj > 0 schließen (obwohl dies im Normalfall gilt, d.h. normalerweise ist die Komplementarität exklusiv). In einem Kuhn-Tucker-Punkt ist zwar immer wenigstens eines von beiden = 0, λj oder gj (x∗ ) − cj , es kann aber theoretisch auch beides gleichzeitig = 0 sein. Mit Vektoren lassen sich die komplement. Schlupfbedingungen folgendermaßen schreiben: λ g(x∗ ) − c = 0 λ ≥ 0, g(x∗ ) − c ≤ 0, Von den darin involvierten 2m Ungleichungen sind immer (mindestens) m als Gleichungen erfüllt. Zusammen mit den n Lagr.-Bedingungen aus KT1 ist die Zahl der Gleichungen also gleich n + m. Dies entspricht gerade der Zahl der Unbekannten in (x, λ). • Die Implikation x∗ (lokales) Maximum von (1) ⇒ x∗ Kuhn-Tucker-Punkt von (1)“ gilt i.a. ” leider nur unter einer zusätzlichen Regularitätsbedingung an die bindenden Restriktionen im Punkt x∗ : Die Gradienten ∇gj (x∗ ) der in x∗ bindenden Restriktionen müssen linear unabhängig sein. Diese Bedingung (an x∗ ) nennt man die Qualifikationsbedingung. Satz 3.2 (Kuhn-Tucker als notwendige Bedingung) Der Punkt x∗ sei eine Lösung des Problems (1), in der die Qualifikationsbedingung erfüllt ist. Dann erfüllt x∗ die Kuhn-Tucker-Bedingungen. Dieser Satz würde folgendes Vorgehen nahelegen: Man ermittelt alle Punkte, die die KuhnTucker-Bedingungen erfüllen, sowie alle Punkte mit verletzter Qualifikationsbedingung. Dies sind die Lösungskandidaten: Sofern das Problem überhaupt eine Lösung hat, weiß man, dass es einer dieser Punkte ist. Im Normalfall spielt die Qualifikationsbedingung aber keine Rolle (d.h. sie wird in den Anwendungen oft einfach ignoriert.) • Neben der Qualifik.Bed. muss im vorhergehenden Satz sichergestellt sein, dass überhaupt eine Lösung existiert. Diese Annahmen entfallen unter (geeigneten) Konvexitätsannahmen: Satz 3.3 (KT als hinreichende Bedingung unter Konvexität/Konkavität) Wenn im Problem (1) die Lagrange-Funktion L(x) := f (x) − λ1 g1 (x) − . . . − λm gm (x) als Funktion von x bei festgehaltenen λj ≥ 0 konkav ist, so gilt: Wenn ein Punkt x∗ die Kuhn-Tucker-Bedingungen erfüllt, so stellt er ein globales Max. des Problems (1) dar. Man beachte, dass die Lagrange-Funktion hier mit −λj“ gebildet wird. Die Satz” Vorauss. sind dann erfüllt, wenn die Zielfunktion f konkav und alle Restriktionsfunktionen gj konvex sind. Tatsächlich gilt sogar ein etwas stärkerer Satz: Die Konkavität von L in x wird nur bei den zum Kuhn-Tucker-Punkt x∗ gehörigen λ∗j ≥ 0 benötigt. 3.4 Mathematische Beispiele Bei den folgenden Beispielaufgaben ist das primäre Ziel, sämtliche Kuhn-Tucker-Punkte – als potentielle Lösungen des Problems – zu ermitteln. Um zu einem systematischen Vorgehen zu gelangen, wird per Fallunterscheidung durch alle Kombinationen von bindenden/nichtbindenden Restriktionen iteriert. (Alternativ könnte man die Fallunterscheidung auch auf den Kombinationen von verschwindenden/positiven λj basieren.) Die Systematik des Vorgehens hat einen hohen Preis: Der Aufwand steigt wie 2m , d.h. exponentiell mit der Zahl der Restrikt.nen. c K.H. Schild, Abt. Statistik, Fb. Wiwi, Uni Marburg 25 Beim (auf Restriktionen“ beruhenden) systematischen Vorgehen betrachtet man in jedem der ” Fälle eine gegebene Kombination von bindenden/nicht-bindenden Restriktionen; dort gilt: • Die Lagrange-Multiplikatoren der nicht-bindenden Restriktionen verschwinden (sind Null) • Es bleibt ein Lagrange-System von Gleichungen übrig mit gleich vielen Gleichungen (Lagrange-Gln. + bindende Restriktionen) wie Unbekannten (normale Variablen xi + verbleibende Lagrange-Multikplikatoren λj der bindenden Restriktionen). • Dieses Gleichungssystem kann man zunächst lösen und dann überprüfen, ob die Lösungen die geforderten Ungleichungen (λj ≥ 0 + nicht-bindende Restriktionen) erfüllen. Beispiel 1: Minimierung von x2 + y 2 unter den Bedingungen x ≥ 2, y ≥ 3 . 0. Problem in Normalform bringen max f (x, y) := −x2 − y 2 , g1 (x, y) := −x ≤ −2, g2 (x, y) := −y ≤ −3 1. Kuhn-Tucker Bedingungen notieren a) Lagrange-Funktion (samt Ableitungen nach x, y): L(x, y) = −x2 − y 2 − λ1 (−x + 2) − λ2 (−y + 3) = −x2 − y 2 + λ1 x + λ2 y + ... Lx (x, y) = −2x + λ1 Ly (x, y) = −2y + λ2 i. b) KT-Bedingungen: ii. −2x + λ1 = 0 −2y + λ2 = 0 iii. λ1 ≥ 0, x ≥ 2, λ1 · (x − 2) = 0 iv. λ2 ≥ 0, y ≥ 3, λ2 · (y − 3) = 0 2. Systematisch durch die Kombinationen bindender/nicht-bindender Restriktionen gehen 2.a Beide Restriktionen binden (Sofort: x = 2, y = 3) [Prinzipiell: 4 Gln. in 4 Unbekannten (x, y, λ1 , λ2 ), außerdem 2 Ungln. (λ1 ≥ 0, λ2 ≥ 0).] Die beiden Restriktionen führen auf x = 2, y = 3. Einsetzen in i. bzw. ii. ergibt λ1 = 4, λ2 = 6. Da λ1 ≥ 0 und λ2 ≥ 0, liefert dieser Fall den KT-Punkt (x = 2, y = 3, λ1 = 4, λ2 = 6). 2.b Restr. 1 bindet, Restr. 2 nicht. (Sofort: x = 2, λ2 = 0) [Prinzipiell: 3 Gln. in 3 Unbekannten (x, y, λ1 ), außerdem 2 Ungln. (y ≥ 3, λ1 ≥ 0).] Nach iv. ist λ2 = 0, was in ii. auf y = 0 führt. ← hier könnte man schon abbrechen! Restr. 1 führt auf x = 2, was in i. auf λ1 = 4 führt. Lösung der Gln. ist also (x = 2, y = 0, λ1 = 4, λ2 = 0). Da y < 3: Kein KT-Punkt. 2.c Restr. 2 bindet, Restr. 1 nicht (Sofort: y = 3, λ1 = 0) [Prinzipiell: 3 Gln. in 3 Unbekannten (x, y, λ2 ), außerdem 2 Ungln. (x ≥ 2, λ2 ≥ 0).] Nach iii. ist λ1 = 0, was in i. auf x = 0 führt. ← hier könnte man schon abbrechen! Restr. 2 führt auf y = 2, was in i. auf λ2 = 6 führt. Lösung der Gln. ist also (x = 0, y = 3, λ1 = 0, λ2 = 6). Da x < 2: Kein KT-Punkt. 2.d Keine Restr. bindet. (Sofort: λ1 = 0, λ2 = 0) [Prinzipiell: 2 Gln. in 2 Unbekannten (x, y), außerdem 2 Ungln. (x ≥ 2, y ≥ 3).] Nach iii., iv. ist λ1 = 0, λ2 = 0, und das in i., ii. eingesetzt, ergibt x = 0, y = 0 Lösung der Gln. ist also (x = 0, y = 0, λ1 = 0, λ2 = 0). Kein KT-Punkt, da x = 0 ≥ 2. 3. Diskussion (ob einer – und falls ja, welcher – der KT-Punkte das Problem löst). Zielfkt konkav, Restriktionen linear ⇒ Die KT-Bedingungen sind auch hinreichend (ohne Qualif.Bed.). Damit ist der (einzige) KT-Punkt aus Fall 2.a die Lösung des Problems. 26 Statische Optimierung – Kuhn-Tucker Beispiel 2: Maximierung von y − x auf dem Halbkreis {(x, y) : x2 + y 2 ≤ 1, y ≥ 0} . Normalform des Problems: g1 (x, y) := x2 + y 2 ≤ 1 max f (x, y) := y − x u. d. Nbdg. g2 (x, y) := −y ≤ 0 Lagrange-Funktion und ihre Ableitungen: L(x, y) = y − x − λ1 (x2 + y 2 ) + λ2 y Lx (x, y) = −1 − 2λ1 x Ly (x, y) = 1 − 2λ1 y + λ2 Kuhn-Tucker-Bedingungen: i. −1 − 2λ1 x = 0 ii. 1 − 2λ1 y + λ2 = 0 iii. λ1 ≥ 0, x2 + y 2 ≤ 1, iv. λ2 ≥ 0, y ≥ 0, λ1 · (x2 + y 2 − 1) = 0 λ2 · y = 0 Fall 1: Beide Restriktionen binden: x2 + y 2 = 1, y = 0 Wenn y = 0 in ii., dann ist λ2 = −1 < 0. Der Fall liefert also keinen Kuhn-Tucker-Punkt. Fall 2: Restr. 1 bindet, Restr. 2 nicht: x2 + y 2 = 1, y > 0 (⇒ λ2 = 0) Mit λ2 = 0 bleiben (neben den Ungln. y ≥ 0, λ1 ≥ 0) 3 Gleichungen in 3 Unbekannten −1 − 2λ1 x = 0 1 − 2λ1 y = 0 x2 + y 2 = 1 Indem wir i. und ii. nach λ1 auflösen und die entstehenden Ausdrücke gleichsetzen, ergibt sich λ1 = −1/2x = 1/2y, also y = −x (x = 0 führt auf Widerspruch −1 = 0, y = 0 auf 1 = 0). Ersetzung von y 2 durch x2 in x2 + y 2 = 1 liefert schließlich (wenn wir y > 0 berücksichtigen) einen (einzigen) KT-Punkt: x = − √12 , y = √1 , 2 λ1 = √ 2 2 = √1 , 2 λ2 = 0 Dieser Punkt erfüllt auch die nicht-bindenden Restriktionen, hier y ≥ 0, und die λj zu den bindendend Restriktionen, hier nur λ1 , sind ≥ 0. Fall 3: Restr. 2 bindet, Restr. 1 nicht: x2 + y 2 < 1, y = 0 (⇒ λ1 = 0) Mit λ1 = 0 wird ii. zu λ2 = −1 ⇒ kein Kuhn-Tucker-Punkt Fall 4: Keine der Restriktionen bindet: x2 + y 2 < 1, y > 0 (⇒ λ1 = λ2 = 0) Mit λ1 = λ2 = 0 wird i. zu 1 = 0. Also kein Kuhn-Tucker-Punkt. Der ermittelte Kuhn-Tucker-Punkt aus Fall 2 realisiert das globale Max. der Zielfunktion, da die Zielfkt. linear (und damit konkav) ist und die Restriktionsfunktionen konvex sind. Anmerkung: Bei diesem Beispiel ergibt sich sehr schnell, dass man ohnehin nur im Fall erste ” Restriktion bindet, zweite Restrikt. bindet nicht“ Kuhn-Tucker-Punkte bekommen kann: • Aus i. folgt sofort: λ1 = 0. Die kompl. Schlupfbed. λ1 · (x2 + y 2 − 1) = 0 liefert dann x2 + y 2 = 1, d.h. die erste Restriktion bindet in den Kuhn-Tucker-Punkten. • Aus ii. folgt λ2 = −1 + 2λ1 y, wobei wir schon λ1 > 0 wissen. Wäre y = 0, so wäre λ2 = −1 negativ, im Widerspruch zu λ2 ≥ 0. Also ist y > 0. Die zweite Restriktion bindet also nicht in den Kuhn-Tucker-Punkten. Man hätte also auf die Fallunterscheidung verzichten und direkt in die Analyse von Fall 2 einsteigen können. c K.H. Schild, Abt. Statistik, Fb. Wiwi, Uni Marburg 27 Beispiel 3: Minimierung von y − x auf dem Halbkreis {(x, y) : x2 + y 2 ≤ 1, y ≥ 0} . g1 (x, y) := x2 + y 2 ≤ 1 Normalform: max f (x, y) := x − y u. d. Nbdg. g2 (x, y) := −y ≤ 0 L(x, y) = x − y − λ1 (x2 + y 2 ) + λ2 y Lx (x, y) = 1 − 2λ1 x Lagrange-Funktion samt Ableitungen: Ly (x, y) = −1 − 2λ1 y + λ2 i. 1 − 2λ1 x = 0 ii. −1 − 2λ1 y + λ2 = 0 Kuhn-Tucker-Bedingungen: iii. λ1 ≥ 0, x2 + y 2 ≤ 1, λ1 · (x2 + y 2 − 1) = 0 iv. λ2 ≥ 0, y ≥ 0, λ2 · y = 0 Anstelle des systematischen Vorgehens ermitteln wir, in welchem Fall die Bindungsrestriktionen überhaupt zu Kuhn-Tucker-Punkten führen können: • Aus i. folgt sofort: λ1 = 0. Die kompl. Schlupfbed. (λ1 · (x2 + y 2 − 1) = 0) liefert dann x2 + y 2 = 1, d.h. die erste Restriktion bindet in den Kuhn-Tucker-Punkten. • Aus ii. folgt λ2 = 1 + 2λ1 y. Da λ1 ≥ 0 und y ≥ 0, folgt λ2 > 0. Mit der kompl. Schlupfbed. iv. ergibt sich y = 0. D.h. hier binden beide Restriktionen. Die Kuhn-Tucker-Punkte müssen das System der Restriktionsgleichungen x2 + y 2 = 1, y = 0 lösen, was auf x = ±1, y = 0 führt. Den Fall x = −1 können wir ausschließen, da sonst λ1 = 1/2x < 0. Es verbleibt als einziger Kuhn-Tucker-Punkt (x, y) = (1, 0) mit λ1 = λ2 = 0. Da wir uns wieder im Szenario Zielfkt. konkav, Restriktionen ” konvex“ befinden, realisiert er das globale Max. der Zielfunktion. max f (x, y) := x2 + y u. d. Nbdg. x2 + y 2 ≤ 1, y ≥ 0 g1 (x, y) := x2 + y 2 ≤ 1 2 Normalform: max f (x, y) := x + y u. d. Nbdg. g2 (x, y) := −y ≤ 0 Lagrange-Funktion samt Ableitungen nach x, y: L(x, y) = x2 + y − λ1 (x2 + y 2 ) + λ2 y Beispiel 4: Lx (x, y) = 2x − 2λ1 x Ly (x, y) = 1 − 2λ1 y + λ2 Kuhn-Tucker-Bedingungen: i. 2x − 2λ1 x = 0 ii. 1 − 2λ1 y + λ2 = 0 iii. λ1 ≥ 0, x2 + y 2 ≤ 1, iv. λ2 ≥ 0, y ≥ 0, x2 λ1 · (x2 + y 2 − 1) = 0 λ2 · y = 0 y2 Fall 1: Beide Restriktionen binden: + = 1, y = 0 Wenn y = 0 in ii., dann ist λ2 = −1 < 0. Der Fall liefert daher keinen KT-Punkt. Fall 2: Restr. 1 bindet, Restr. 2 nicht: x2 + y 2 = 1, y > 0 (⇒ λ2 = 0) Mit λ2 = 0 bleiben (neben den Ungln. y ≥ 0, λ1 ≥ 0) 3 Gleichungen in 3 Unbekannten i. 2x − 2λ1 x = 0 ( ⇐⇒ 2x (1 − λ1 ) = 0 ⇐⇒ (x = 0) ∨ (λ1 = 1)) ii. 1 − 2λ1 y = 0 iii. x2 + y 2 = 1 √ Im Fall λ1 = 1 haben die beiden letzten Gln. die Lösung y = 12 , x2 = 34 , d.h. x = ± 23 . Im Fall x = 0 ergibt sich aus der letzten Gl. y = 1 (und aus der vorletzten λ1 = 12 ). √ √ Fazit: Dieser Fall liefert drei Kuhn-Tucker-Punkte (x, y) ∈ {( 23 , 12 ), (− 23 , 12 ), (0, 1)}. (Jeder dieser Punkte erfüllt auch die nicht-bindenden Restriktionen, hier y ≥ 0, und die λj zu den bindendend Restriktionen, hier nur λ1 , sind ≥ 0). 28 Statische Optimierung – Kuhn-Tucker Fall 3: Restr. 2 bindet, Restr. 1 nicht: x2 + y 2 < 1, y = 0 (⇒ λ1 = 0) Mit λ1 = 0 wird ii. zu λ2 = −1 ⇒ kein Kuhn-Tucker-Punkt Fall 4: Keine der Restriktionen bindet: x2 + y 2 < 1, y > 0 (⇒ λ1 = λ2 = 0) Mit λ1 = λ2 = 0 wird ii. zu 1 = 0. Also kein Kuhn-Tucker-Punkt. Insgesamt gibt es also drei Kuhn-Tucker-Punkte (die alle aus Fall 2 kommen, d.h. auf dem Rand des Einheitskreises liegen). Die Zielfkt f (x, y) = x2 + y nimmt in ihnen folgende Werte an: f (± √ 3 1 2 , 2) = 3 4 + 1 2 = 5 4, f (0, 1) = 1 Bei diesem Beispiel sind die KT-Bedingungen keine hinreichende Bedingungen für die Lösung, da wir uns nicht im ‘richtigen’ Konvexitätsszenario befinden. D.h. der zweite Satz greift nicht und wir sind auf den ersten Satz angewiesen. Strengennommen müssen zu dessen Anwendung auch noch die Punkte, die die Qualifikationsbed. nicht erfüllen, ermittelt und als Lösungskandidaten in Betracht gezogen werden. Eine entsprechende, hier nicht vorgeführte Analyse (auf Basis der gleichen Fallunterscheidung) zeigt, dass es keine Punkte mit Verletzung der Qualifikationsbed. gibt. Außerdem muss sichergestellt sein, dass das vorliegende Problem überhaupt eine Lösung hat (da der Satz sich sonst auf die leere Menge bezieht). Ein berühmter Satz aus der Mathematik (Satz von Weierstraß) besagt, dass eine auf einer kompakten (=beschränkten und abgeschlossenen) Menge stetige Fkt dort ihr Max. annimmt. Da der (abgeschlossene) Halbkreis kompakt ist, existiert eine Lösung. √ Fazit: Das Problem hat (genau) die beiden Lösungen (x = ± 23 , y = 12 ). Beispiel 5: min 4 ln(x2 + 2) + y 2 u.d.NB. y ≥ 2 − x2 , x ≥ 1 g1 (x, y) := −x2 − y ≤ −2 2 2 Normalform: max f (x, y) := −4 ln(x + 2) − y u. d. Nbdg. g2 (x, y) := −x ≤ −1 Lagrange-Fkt: 2 2 2 L(x, y) = −4 ln(x + 2) − y + λ (x + y − 2) + λ x 1 2 8x Lx (x, y) = − 2 + 2λ1 x + λ2 x +2 Ly (x, y) = −2y + λ1 KT-Bedingungen: 8x + 2λ1 x + λ2 = 0 +2 −2y + λ1 = 0 ← schön einfach: → i. − ii. x2 2 iii. λ1 ≥ 0, x + y ≥ 2, iv. λ2 ≥ 0, x ≥ 1, λ1 = 2y 2 λ1 · (x + y − 2) = 0 λ2 · (x − 1) = 0 x2 Fall 1: Beide Restriktionen binden: + y = 2, x = 1 Mit x = 1 folgt zunächst y = 2 − x2 = 2 − 1 = 1. Einsetzen in ii. liefert zwar λ1 = 2y = 2 ≥ 0, aber beim Einsetzen in i.: λ2 = x28x+2 − 2λ1 x = 83 − 2 · 2 = − 43 entsteht λ1 < 0. Der Fall liefert also keinen KT-Punkt. Fall 2: Restr. 1 bindet, Restr. 2 nicht: x2 + y = 2, x > 1 (⇒ λ2 = 0) Prinzipiell: 3 Gleichungen (i., ii., NB1) in 3 Unbekannten (x, y, λ1 ) → lösen, schauen ob verbleibende Ungln. λ1 ≥ 0, NB2 (x ≤ 1) erfüllt sind. Gleichungen i. u. ii. für λ2 = 0: i. ii. 8x + 2λ1 x = 0 +2 2y = λ1 − x2 N B1 y = 2 − x2 Substituiere λ1 = 2y und y = 2 − x2 in i., liefert Gleichung nur noch in x: c K.H. Schild, Abt. Statistik, Fb. Wiwi, Uni Marburg − 29 8x + 4(2 − x2 ) x = 0 ⇐⇒ x = 0 ∨ 4 (4 − x4 ) = 8 +2 ⇐⇒ x = 0 ∨ 4 − x4 = 2 x2 ⇐⇒ x = 0 ∨ x4 = 2 √ 4 Da x > 1, bleibt nur x = + 2. √ √ Dann ergibt sich y = 2 − x2 = 2 − 2 > 0 und λ1 = 2y = 4 − 2 2 > 0 √ √ √ Der Fall liefert also den KT-Punkt (x = 4 2, y = 2 − 2, λ1 = 4 − 2 2, λ2 = 0) . Fall 3: Restr. 2 bindet, Restr. 1 nicht: x2 + y > 2, x = 1 (⇒ λ1 = 0) Mit x = 1 und λ1 = 0 (⇒ y = 0 aus ii) ist die NB x2 + y > 2 verletzt. Also kein KT-Punkt Anm: kein Widerspruch aus i.: λ2 = 8x x2 +2 − 2λ1 x = 8 3 +0= 8 3 ≥ 0. Fall 4: Keine der Restriktionen bindet: x2 + y > 2, x > 1 (⇒ λ1 = λ2 = 0) Mit λ1 = λ2 = 0 bilden i. und ii. ein 2 × 2- Gl.System in (x, y) (das einer unrestringierten Optimierung von f ) Hier sehr einfach: ii. ⇒ y = 0 und Einsetzen in i. liefert: − x28x+2 = 0 ⇒ x = 0. D.h. (0, 0) wäre Lösung des unrestr. Problems. Da x > 1 gefordert: Kein KT-Punkt √ √ Insgesamt gibt es also nur einen Kuhn-Tucker-Punkt (x = 4 2, y = 2 − 2). Wenn das Problem ein Lösung hat, kommt nur dieser Punkt in Frage (Qualifikationsbedingung außen vor). (Da der zulässige Bereich hier keine kompakte Menge ist, ist der Weierstraß-Satz aber nicht anwendbar. Wir übergehen den Nachweis, dass das Problem überhaupt eine Lösung hat.) 3.5 Übungsaufgaben Bestimmen Sie für die folgenden Probleme sämtliche KT-Punkte (optional: Lösung diskutieren). Aufg. KT.1a: Minimiere f (x, y) = x2 + 2y unter den Nebenbedingungen x2 + y 2 ≤ 4, y ≥ 0 Aufg. KT.1b: Maximiere f (x, y) = x2 + 2y unter den Nebenbedingungen x2 + y 2 ≤ 4, y ≥ 0 Aufg. KT.2a: Maximiere f (x, y) = x2 + y u. d. Nebenbed. x2 + y 2 ≤ 2, y ≥ x Aufg. KT.2b: Maximiere f (x, y) = x2 + y u. d. Nebenbed. x2 + y 2 ≤ 54 , y ≥ 12 x Aufg. KT.3a: Maximiere f (x, y) = x · y u. d. Nebenbed. x2 + y 2 ≤ 2, x + y ≤ 1 Aufg. KT.3b: Maximiere f (x, y) = x · y + x + y u. d. Nebenbed. x2 + y 2 ≤ 2, x + y ≤ 1 Aufg. KT.4a: Minimiere f (x, y) = x3 + y 2 − 27x − 4y u. d. Nebenbed. x ≥ 0, y ≥ 0 Aufg. KT.4b: Maximiere f (x, y) = x3 + y 2 − 27x − 4y u. d. Nebenbed. x ≥ 0, y ≥ 0 Aufg. KT.5a: min 4 ln(x2 + 2) + y 2 u.d.NB. y ≥ 2 − x2 , x ≥ 1 Aufg. KT.5b: min 4 ln(x2 + 2) − y 2 u.d.NB. y ≥ 2 − x2 , x ≥ 1 30 Statische Optimierung – Kuhn-Tucker 3.6 Anwendung: Optimierung der Bilanzstruktur einer Bank (Orientiert sich an Karmann, Mathematik für Wirtschaftswissenschaftler, 5. Aufl, letztendlich wird ein lineares Optimierungsproblem unterstellt, das man einfacher lösen könnte.) • Die Bank hat als Passiva – Eigenkapital – Einlagen von Kunden mit Laufzeit von einem Monat – Einlagen von Kunden mit Laufzeit von drei Monaten. • Als Aktiva vergibt die Bank Kredite, ebenfalls mit Laufzeiten von 1 Monat und 3 Monaten. Verbleibende Einlagen (wegen nicht-in-Anspruch-genommener Kredite) von der Passivseite werden auf der Aktiv-Seite kompensiert, indem sie auf ein EZB-Konto gebucht werden. • Es sei von folgender Anfangsbilanz ausgegangen (alle Angaben in Mrd. Euro): Aktiva Kredite (1 Monat) Kredite (3 Monate) EZB A1 = 20.0 A2 = 9.0 ABar = 2.4 Summe A = 31.4 Passiva Einlagen (1 Monat) Einlagen (3 Monate) Eigenkapital P1 = 21.0 P2 = 5.8 PEK = 4.6 Summe: P = 31.4 • Zu Beginn der Planungsperiode erhält die Bank zusätzliche Einlagen – mit einer Laufzeit von 1 Monat: 2.0 – mit einer Laufzeit von 3 Monaten: 3.5 (neu) (neu) D.h. die neuen Passivpositionen sind P1 = 23.0, P2 = 9.3 Das Eigenkapital bleibt unverändert • Die Bank vergibt neue Kredite im Umfang von x1 bzw. x2 , so dass sich die Aktivpositionen von A1 zu A1 + x1 und von A2 zu A2 + x2 verändern. Ziel ist es, die Volumina x1 und x2 (über die von der Bank festzulegenden Zinssätze) so zu ‘wählen’, dass der Gewinn der Bank aus den neuen Krediten maximal wird. Dazu wird unterstellt, dass der Bank die ‘Preis-Absatz-Fktnen’ r1 (x1 ) und r2 (x2 ) bekannt sind, die den Zinssatz ri angeben, bei dem das Volumen xi nachgefragt wird. → Preissetzer-Modell: Optimiert wird über x, obwohl eigentlich der Zins r(x) gesetzt wird. Der Gewinn ist dann G(x1 , x2 ) = r1 (x1 ) · x1 + r2 (x2 ) · x2 • Diese Funktion ist unter folgenden Restriktionen zu maximieren: 1. 2. 3. 4. x1 + x2 − 5.5 0.08 · (A1 + x1 + A2 + x2 ) A1 + x1 + ABar A2 + x2 ≤ ≤ ≥ ≥ 0 PEK (neu) P1 (neu) P2 (Bilanzausgleich, Σ Aktiva = Σ Passiva) (Grundsatz I) (Grundsatz II) (Grundsatz II) – Grundsatz I: Die riskanten Aktiva müssen zu mindestens 8% durch Eigenkapital unterlegt sein. – Grundsatz II: Das Volumen der Aktiva muss mindestens so hoch sein wie das der Passiva mit gleicher Laufzeit; dies gilt für jede Laufzeit (soll Liquidität sicherstellen). • Außerdem gelten die Restriktionen x1 ≥ 0, x2 ≥ 0, die wir im Folgenden zunächst ignorieren (womit wir davon ausgehen, dass sie ohnehin erfüllt wären und nicht binden würden). c K.H. Schild, Abt. Statistik, Fb. Wiwi, Uni Marburg 31 • Lagrange-Funktion L(x1 , x2 ) = r1 (x1 ) · x1 + r2 (x2 ) · x2 − λ1 · x1 + x2 − 5.5 − λ2 · 0.08 · A1 + x1 + A2 + x2 − PEK (neu) − λ 3 · P1 − A1 − x1 − ABar (neu) − λ 4 · P2 − A2 − x2 Lx1 (x1 , x2 ) = r1 (x1 ) x1 + r1 (x1 ) − λ1 − 0.08 λ2 + λ3 Lx1 (x1 , x2 ) = r2 (x2 ) x2 + r2 (x2 ) − λ1 − 0.08 λ2 + λ4 • Kuhn-Tucker-Bedingungen: i. r1 (x1 ) x1 + r1 (x1 ) − λ1 − 0.08 λ2 + λ3 = 0 ii. r2 (x2 ) x2 + r2 (x2 ) − λ1 − 0.08 λ2 iii. λ1 ≥ 0, iv. λ2 ≥ 0, v. λ3 ≥ 0, vi. λ4 ≥ 0, + λ4 = 0 x1 + x2 ≤ 5.5, λ1 · (x1 + x2 − 5.5) = 0 A1 + x1 + A2 + x2 − PEK ≥ 0, λ2 · A1 + x1 + A2 + x2 − PEK = 0 (neu) (neu) P1 − A1 − x1 − ABar ≥ 0, λ3 · P1 − A1 − x1 − ABar = 0 (neu) (neu) P2 − A2 − x2 ≥ 0, λ3 · P2 − A2 − x2 = 0 • Unter der (nicht unrealistischen) Annahme, dass die Funktionen ri (x) monoton fallend und konkav sind, ist die Ziel/Gewinnfkt. G(x1 , x2 ) konkav. Da die Restriktionen linear sind, sind die KT-Bedingungen dann notwendig und hinr. für ein (globales) Maximum. • Entsprechend dem obigen ‘systematischen Vorgehen’ wären nun alle 2m = 16 Kombinationen von bindenden und nicht-bindenden Restriktionen durchzugehen. Exemplarisch die KT-Bedingungen, wenn – Restriktion 1 (Bilanzsummen-Ausgleich) und – Restriktion 3 (Liquiditäts-Grundsatz II für kurzfristige Kredite) binden, aber – Restriktion 2 (mind. 8% EK-Deckung der riskanten Kredite) und – Restriktion 4 (Liquiditäts-Grundsatz II für langfristige Kredite) nicht binden. Dann ist λ2 = λ4 = 0 und wir erhalten folgende vier Gleichungen für x1 , x2 , λ1 , λ3 i. ii. r1 (x1 ) x1 + r1 (x1 ) − λ1 + λ3 = 0 r2 (x2 ) x2 + r2 (x2 ) − λ1 = 0 iii. x1 + x2 = 5.5 v. (neu) x1 = P1 − A1 − ABar (Nach Lösung dieses Gl.systems ist zu überprüfen, ob λ1 ≥ 0, λ3 ≥ 0 und auch die beiden als nicht-bindend angenommenen Restriktionen 2 und 4 erfüllt sind.) • Wenn wir auch noch r1 (x) = const = 8% und r2 (x) = const = 9% unterstellen (d.h. Kreditnachfrage ‘springt’ bei ‘Schwellen-Zinssätzen’), wird dies zum linearen Gl.System i. −λ1 + λ3 = −0.08 ii. −λ1 = −0.09 iii. x1 + x2 = 5.5 v. (neu) x1 = P1 − A1 − ABar 32 Statische Optimierung – Kuhn-Tucker mit der Lösung x∗1 = 0.6, x∗2 = 4.9, λ∗1 = 0.09, λ∗3 = 0.01 Da dieser Punkt auch die Restriktionen 2) und 4) erfüllt und alle λj ≥ 0 sind, ist er ein KT-Punkt. Er ist der einzige im vorliegenden Beispiel und damit Lösung des Problems. Da wir letztendlich eine lineare Zielfunktion mit linearen Restriktionen unterstellt haben, können wir das Problem auch mit einem Simplexverfahren lösen, was viel effizienter als das Durchprobieren der Restriktionskombinationen ist und auf die angegeb. Lösung führt. • Das Ergebnis soll noch einmal zusammengestellt werden. Ausgangsbilanz war: Aktiva Kredite (1 Monat) Kredite (3 Monate) EZB A1 = 20.0 A2 = 9.0 ABar = 2.4 A = 31.4 Summe Passiva Einlagen (1 Monat) Einlagen (3 Monate) Eigenkapital Summe: P1 = 21.0 P2 = 5.8 PEK = 4.6 P = 31.4 Dann erhielt die Bank 5.5 (Mrd. Euro) an neuen Einlagen, und zwar 2.0 in P1 und 3.5 in P2 . Das Ergebnis besagt, dass – zur Gewinnmaximierung unter den angegeb. Restriktionen – diese Positionen wie folgt auf die Aktiva verteilt werden sollten: x1 = 0.6 in A1 und x2 = 4.9 in A2 . Damit ergibt sich folgende neue Bilanz: Aktiva Kredite (1 Monat) Kredite (3 Monate) EZB A1 = 20.6 A2 = 13.9 ABar = 2.4 Summe A = 36.9 Passiva Einlagen (1 Monat) Einlagen (3 Monate) Eigenkapital Summe: P1 = 23.0 P2 = 9.3 PEK = 4.6 P = 36.9 • Wir lassen nun zu, dass die Bank auch Geld bei der EZB einlegt, zum Zins von r3 = 1%, so dass die Gewinnfunktion zu G(x1 , x2 , x3 ) = r1 ·x1 +r2 ·x2 + r3 ·x3 wird. Diese Funktion ist nun unter x1 ≥ 0, x2 ≥ 0, x3 ≥ 0 sowie folgenden Restriktionen zu maximieren: 1. 2. 3. 4. x1 + x2 + x3 0.08 · (A1 + x1 + A2 + x2 ) A1 + x1 + ABar + x3 A2 + x2 ≤ ≤ ≥ ≥ 5.5 PEK (neu) P1 (neu) P2 (Bilanzausgleich, Σ Aktiva = Σ Passiva) (Grundsatz I) (Grundsatz II für kurzfristige Kredite) (Grundsatz II für langfristige Kredite) Das Ergebnis (mit Simplexverf) bzgl. x1 und x2 ändert sich nicht gegenüber dem alten Ergebnis, da x∗3 = 0 gefunden wird (klar, bei der EZB betragen die Zinsen nur bei 1%). • Als nächstes lassen wir die Restriktion x3 ≥ 0 weg. Ein negatives x3 bedeutet, dass die Bank sich Geld bei der EZB zum Zins von 1% borgt. Das Ergebnis überrascht etwas (und erinnert an Blasen-Bildung auf dem Finanzmarkt): x1 = 52.6, x2 = 4.9, x3 = −52 (und der Gewinn verzehnfacht sich etwa). Außerdem bindet jetzt neben der Bilanzsumme und der kurzfristigen Liquidität auch die EK-Restriktion. Die Bank borgt sich also in großem Umfang Geld von der EZB zum Zins von 1%, um kurzfristige Kredite, für die sie 8% bekommt, zu vergeben. Der Umfang dieses Arbitrage-Geschäfts wird durch die Restriktion der geforderten minimalen EK-Deckung limitiert. Wird der geforderte Satz für die EK-Deckung von 8% auf 20% erhöht, so liefert die GewinnMaximierung: x1 = 18.1, x2 = 4.9, x3 = −17.5 . c K.H. Schild, Abt. Statistik, Fb. Wiwi, Uni Marburg 3.7 33 Nicht-Negativitätsbedingungen In ökonom. Anwendungen hat man meist die Bedingung, dass sämtliche Variablen x1 , . . . , xn (zwar 0, aber) nicht negativ werden können. Anstatt die Nicht-Negativitäts-Bedingungen xi ≥ 0 den ‘normalen’ Restriktionen gj ≤ cj zuzurechnen, gestehen wir ihnen nun eine Sonderrolle zu und betrachten das Maximierungsproblem (1) mit insgesamt m + n Restriktionen ⎧ ⎪ ⎨ g1 (x1 , . . . xn ) ≤ c1 .. , x1 ≥ 0, . . . , xn ≥ 0 max f (x1 , . . . , xn ) u. d. Nbdg. . ⎪ ⎩ gm (x1 , . . . xn ) ≤ cm Mit den n zusätzlichen Lagrange-Multplikatoren μ1 , . . . , μn lauten die Kuhn-Tucker-Bedingungen: m ∂gj ∂f j=1 λj ∂xi + μi = 0 für i = 1, . . . , n ∂xi − λj · gj (x∗ ) − cj = 0 gj (x∗ ) − cj ≤ 0, λj ≥ 0, für j = 1, . . . , m xi ≥ 0, μj ≥ 0, μi · ( xi − 0 ) = 0 für i = 1, . . . , n zusammenDa μi ≥ 0 und μi = 0, falls xi > 0, kann die erste und dritte Bedingung m äquivalent ∂gj ∂f gefasst werden in Form einer komplementären Schlupfbed. für ∂x − λ und xi : j j=1 ∂xi i Definition 3.4 (Kuhn-Tucker-Bedingungen bei Nicht-Negativitätsbedingungen) ∂f m m ∂gj ∂gj ∂f j=1 λj ∂xi ≤ 0, xi ≥ 0, xi · ∂xi − j=1 λj ∂xi = 0 für i = 1, . . . , n ∂xi − gj (x∗ ) − cj = 0 für j = 1, . . . , m gj (x∗ ) − cj ≤ 0, λj ≥ 0, λj · In dieser (äquiv.) Formulierung der KT-Bedingungen fällt die Symmetrie oder ‘Dualität’ zwischen den beiden kompl. Schlupfbedingungen auf (worauf wir im nächsten Abschnitt eingehen). Abgesehen davon hat die symmetrische Form der KT-Bedingungen aber kaum Vorteile bei der Anwendung unseres ‘systematischen Vorgehens’ auf konkrete Probleme, denn dazu müssen nach wie vor sämtliche Kombinationen von Bindungen (nun 2m+n Stück) durchgegangen werden. 3.7.1 Anwendung: Gewinnmaximierendes Mehrproduktunternehmen Die Bedeutung der Kuhn-Tucker-Bedingungen soll anhand eines Unternehmens erläutert werden, das n Produkte in den Mengen x1 , . . . , xn zu (exogen vorgegebenen) Preisen p1 , . . . , pn absetzen kann, wobei (Produktions-) Kosten in Höhe von K(x1 , . . . , xn ) entstehen. Ziel des Unternehmens ist die Festlegung der Produktionsmengen x = (x1 , . . . , xn ) so, dass der Gewinn G(x1 , . . . , xn ) = p1 x1 + . . . + pn xn − K(x1 , . . . , xn ) bzw. G(x) = p x − K(x) maximal wird. Wir unterstellen eine (in jedem xi wachsende und) konvexe Kostenfkt. K(x); die Zielfunktion G(x) ist dann konkav in x. Der Interpretation der KT-Bedingungen nähern wir uns schrittweise: 1. Unrestringierte Gewinnmaximierung Bei einer unrestringierten Optimierung lautet die notwendige Bedingung ∇G = 0, also ∂K p − ∇K = 0 bzw. pi = ∂x ( Preis = Grenzkosten“). Da wir mit der Konvexität von i ” ∂K K wachsende Grenzkosten ∂xi unterstellen, bedeutet dies, dass ein gewinnmaximierendes Unternehmen die Produktionsmenge xi solange erhöhen (bzw. drosseln) wird, wie die nächste produzierte Einheit weniger (bzw. mehr) Kosten verursacht als der Erlös aus ihrem Absatz, das ist der Preis pi , einbringt.2 Die Devise Erhöhe die Produktion solange, bis ” die Grenzkosten des Produkts mit dessen (exogen vorgegebenem) Preis übereinstimmen.“ ist das typische Ergebnis für ein gewinn-maximierendes Unternehmen unter vollständigem Wettbewerb, wie wir es hier mit den exogen vorgegebenen Preisen pi unterstellen. 2 Dies ist eine vereinfachte Darstellung, da Interaktionseffekte in den Kosten nicht berücksichtigt werden. 34 Statische Optimierung – Kuhn-Tucker 2. Gewinnmaximierung unter den Bedingungen xi ≥ 0 (ohne sonstige Restrikt.en) Zu erwarten ist hier, dass das UN diejenigen Güter i, deren initiale (bei xi = 0 vorliegenden) Grenzkosten bereits über dem Absatzpreis liegen, überhaupt nicht produzieren wird, während für die anderen Güter die Prod.menge solange angehoben wird bis die Grenzkosten beim Level des Absatzpreises angekommen sind. 3 Die KT-Bedingungen drücken dies im Wesentlichen aus. Wenn keine weiteren Restriktionen vorliegen (d.h. m = 0), reduzieren sie sich auf xi ≥ 0, xi · (pi − ∂K pi ≤ ∂K = 0 xi , xi Dies besagt: Im Gewinnmaximum werden nur solche Güter in positiver Quantität produziert (xi > 0), für die die Grenzkosten dem Preis entsprechen (pi = ∂K xi ). Liegen die ∂K Grenzkosten eines Gutes im Optimum strikt über dessen Preis (pi < xi ), wird die Produktion dieses Gutes eingestellt (xi = 0). Liegen die Grenzkosten für ein Gut mit positiver Produktion xi > 0 unter dessen Preis, befindet man sich nicht im Gewinnmaximum. 3. Gewinnmaximierung unter Nicht-Negativ.-Beding.en u. Ressourcenknappheit Jetzt wird zusätzlich angenommen, dass das Unternehmen für die Produktion eine Ressource benötigt, die ihm (zwar kostenlos, aber nur) in beschränkter Kapazität c zur Verfügung steht; zur Produktion einer Einheit des Gutes i werden ai Einheiten der Ressource benötigt. Wenn z.B. die Ressource die im Unternehmen eingestellten Beschäftigten sind, deren Arbeitskraft in Stunden gemessen wird, dann gibt ai die Zahl der Arbeitsstunden an, die zur Produktion eines Stücks des i-ten Gutes benötigt werden. Ziel des Unternehmens sei wieder die Maximierung des Gewinns, diesmal unter Einhaltung der Ressourcenkapazität: max p x − K(x) u. d. Nbdg. x ≥ 0, a x ≤ c x Die Kuhn-Tucker-Bedingungen dafür verwenden einen Lagr.Parameter λ; sie lauten: ∂K ∂K − λ ai ≤ 0, xi ≥ 0, xi · pi − ∂x − λ ai = 0 für i = 1, . . . , n pi − ∂x i i λ · c − a x = 0 c − a x ≥ 0, λ ≥ 0, Um diese Bedingungen zu interpretieren, erinnern wir uns, dass der Lagrange-Parameter λ∗ angibt, um welchen Betrag der Gewinn bei Erhöhung der Ressourcenkapazität c um eine Einheit steigen würde; dies ist der (Schatten-)Preis, den das Unternehmen für eine Einheit der Ressource höchstens zu zahlen bereit wäre, müsste es sie extern einkaufen. Die Größe λ ai multipliziert diesen Preis (einer Ressourceneinheit) mit der Zahl der für eine Outputeinheit benötigten Ressourceneinheiten. Die Größe λ∗ ai stellt also die Kosten dar, die zur Prod. einer Einheit des i-ten Gutes anfallen würden, wenn das UN die Ressource zum Preis λ∗ kaufen würde. In der ersten Zeile der KT-Bedingungen werden diese ‘Schatten-Grenzkosten’ zu den eigentlichen Grenzkosten hinzuaddiert. Damit ergibt sich folgende Sichtweise auf die erste Zeile der KT-Bedingungen: Obwohl die Ressource keine (direkten) Kosten verursacht, wirkt ihre Beschränkung wie ein Kostenfaktor für das UN. Das UN agiert nach wie vor nach der Devise (exogener) Preis = (interne) ” Grenzkosten“, allerdings müssen in die Grenzkosten die Schatten-Grenzkosten der Ressourcenbeschränkung einbezogen werden. Güter, deren (gesamte) Grenzkosten über dem Preis liegen, werden nicht produziert (xi = 0). Die zweite Zeile besagt im Wesentlichen: Wenn die vorhandene Kapazität c der Ressource noch nicht erschöpft ist, dann ist ihr Preis λ∗ gleich 0: Nur wenn die Ressource knapp ist und das UN somit einen Anreiz hat, Ressourceneinheiten hinzuzukaufen, entsteht ein positiver Schattenpreis der Ressource. 3 Dies ist wiederum etwas vereinfacht, da Interaktionseffekte bei den Produktionskosten ignoriert werden: Eine partielle Erhöhung von xi kann auch die Grenzkosten der anderen Produkte beeinflussen. Die KT-Bedingungen erfassen auch dies. c K.H. Schild, Abt. Statistik, Fb. Wiwi, Uni Marburg 3.8 35 KT-Bedingungen in der linearen Optimierung; Dualität Wir betrachten nun den Spezialfall einer linearen Zielfunktion f (x) = p x unter linearen Re striktionen gj (x) = aj x ≤ cj , d.h. A x ≤ c (wobei A die m×n Matrix mit den Zeilen a1 , . . . , am ist). D.h. wir betrachten nun das lineare Optimierungsproblem maxn p x u. d. Nbdg. A x ≤ c, x ≥ 0 x∈R (P) Ohne auf die Details einzugehen, sei zunächst erwähnt, dass für solche Probleme mit dem Simplexverfahren ein sehr effizientes Lösungsverfahren zur Verfügung steht. Anstelle des systematischen Vorgehens basierend auf allen Kombinationen von bindenden und nicht-bindenden Restriktionen kann man sich beim linearen Problem (P) von vorneherein auf Basis-Lösungen“ ” beschränken, wo n Komponenten aus dem n+m-dimensionalen (x, Ax−c) gleich 0 sind (die Basis entspricht den verbleibenden m Komponenten). Denn die zulässige Menge ist hier ein konvexes Polyeder, und das Optimum wird (wenn überhaupt, dann) in einer Ecke des zulässigen Polyeders angenommen. In einer solchen Ecke binden n der insgesamt m + n linearen Restriktionen (wenn k der m Restriktionen a j x − cj binden, dann kommen n − k der n Nicht-Neg.-Bedingungen als bindende Restriktionen hinzu); die restlichen m Restriktionen sind durch das n-dimens. x normalerweise nicht als Gleichungen erfüllbar (sondern nur als echte Ungleichung, und dann kann es sein, dass die Basis nicht zulässig ist.) Das Simplexverfahren verknüpft diese Überlegungen mit einer effizienten Suchtechnik (Pivotstrategie) nach verbesserten zulässigen Basen bzw. Ecken. Die Kuhn-Tucker-Bedingungen für das Problem (P) lauten (in Vektor-Schreibweise): p − A λ ≤ 0, x ≥ 0, x · p − A λ = 0 (Vektoren d. Dim. n) c − A x ≥ 0, λ ≥ 0, λ · c − A x = 0 (Vektoren d. Dim. m) Beim zu (P) dualen Problem (D) wird statt eines Maximierungs- ein Minimierungsproblem mit vertauschten Rollen von Zielfkts-Koeffizienten p und Restriktions-Inhomogenität c betrachtet, so dass ein Problem in m Variablen mit n Restriktionen entsteht. Die Restriktion wird mit A statt A und ≥ statt ≤-Relation gebildet: min c y u. d. Nbdg. A y ≥ p, y ≥ 0 y∈Rm (D) Mit μ = (μ1 , . . . , μn ) als Lagrange-Parametern lauten die KT-Bedingungen dazu: c − A μ ≥ 0, y ≥ 0, y · c − A μ = 0 (Vektoren d. Länge m) p − A y ≤ 0, μ ≥ 0, μ · p − A y = 0 (Vektoren d. Länge n) Ersetzen wir die Variablen y des dualen mit den Lagr.Multiplikatoren λ des primalen Problems (P) und die Lagr.Multiplikatoren μ des dualen mit den Variablen x des primalen Problems, so zeigt ein Vgl: Die KT-Bedingungen des dualen stimmen mit denen des primalen Problems mit vertauschten Rollen von Variablen und Lagr.Multiplikatoren überein. Die λ∗ des primalen Problems minimieren also c λ unter den Restriktionen λ ≥ 0, A λ ≥ p. Zur Interpretation dieses Ergebnisses sei wieder ein Unternehmen betrachtet, das n Güter in den Mengen x1 , . . . , xn produziert, die es zu den Preisen p1 , . . . , pn absetzen kann. Zur Produktion benötigt das Unternehmen m Ressourcen (Inputfaktoren), die ihm (zwar kostenlos, aber) in beschränkten Mengen c1 , . . . , cm zur Verfügung stehen; zur Produktion einer Einheit des Gutes i werden aj,i Einheiten der j-ten Ressource benötigt. Ziel des Unternehmens ist die Maximierung des Gewinns (=Erlös − Kosten) unter Einhaltung der Ressourcenkapazitäten. Wenn dem UN 36 Statische Optimierung – Kuhn-Tucker keinerlei (direkte) Produktionskosten entstehen, fällt der Gewinn mit dem Erlös p x zusammen, und das Problem hat die Struktur (P). Wie im vorhergehenden Abschnitt erzeugen diejenigen Ressourcen, die knapp sind, ’Schattenkosten’ für das UN. Die obige Dualitätsaussage läuft darauf hinaus, dass man die Maximierung des Gewinns äquivalent als Minimierung der Schattenkosten sehen kann. Dies soll noch einmal im Detail erläutert werden: Der j-te Lagrange-Parameter λ∗j gibt an, um welchen Betrag der Erlös p x∗ bei Erhöhung der j-ten Ressource cj um eine Einheit steigen würde; dies ist der (Schatten-)Preis, den das Unternehmen für eine Einheit der Ressource höchstens zu zahlen bereit wäre, müsste es sie extern einkaufen (λ∗j = 0 bedeutet, dass die im UN vorhandene Menge der j-ten Ressource nicht knapp ist). Die Größe c λ∗ stellt also die Kosten dar, die dem UN entstehen würden, wenn es die Ressourcen nicht hätte, sondern sie zu den Preisen λ∗j einkaufen müsste (Opportunitätskosten, Schattenkosten). Wie oben aus der Dualitätstheorie gefolgert, werden diese minimiert unter der Restriktion A λ∗ ≥ p (wobei komplementärer Schlupf zu x entsteht). Der i-te Eintrag von A λ∗ gibt die Kosten zur Produktion einer Einheit des i-ten Produkts an, die anfallen würden, wenn man die Ressourcen nicht hätte, sondern sie zu den Preisen λ∗j einkaufen würde. Sie stellen die ‘Schatten-Grenzkosten’ der Produktion dar (hier Grenzkosten = Stückkosten). Die komplementäre Schlupfbed. bzgl. xi und (A λ)i − pi besagt, dass Güter i, deren Schatten-Grenzkosten (A λ∗ )i über dem Verkaufspreis pi liegen, nicht produziert werden (x∗i = 0), während bei den effektiv produzierten Güter (x∗i > 0) die Schatten-Grenzkosten gerade dem Verkaufspreis pi entsprechen. Neben der Eigenschaft, dass die ‘Schattenpreise’ λ∗ des primalen Problems die Zielfunktion c λ des dualen Problems unter dessen Restriktionen minimieren, besteht ein weiterer allgemeiner Zusammenhang zwischen den beiden Problemen: Die Optimalwerte (erreichbare Zieffkts.Werte) von primalem und dualem Problem sind gleich: Ihr gemeinsamer Wert ist λ∗ A x∗ , denn die kompl.Schlupfbed. bzgl λ im primalen Problem implizieren, dass c λ∗ = λ∗ c = λ A x, diejenigen bzgl. μ im dualen Problem, dass p μ = μ p = μ A y = y A μ. Da y ∗ = λ∗ und μ∗ = x∗ , ergibt sich beide Male als Zielfktswert λ∗ A x∗ . Einmal liest man diesen Wert als Skalarprodukt der beiden m-dimens. Vektoren λ und A x (wobei λj = 0, falls (Ax)j < cj und (Ax)j = cj , falls λj > 0), einmal als Skalarprodukt der beiden n-dimens. Vektoren λ A und x (wobei xi = 0, falls (λ A)i > pi und (λ A)i = pi , falls xi > 0). Die Symmetrie oder Dualität in den Rollen der Variablen (xi ) und Lagrange-Multiplikatoren (λj ) findet man auch in den ursprünglichen KT-Bedingungen (wo die LagrangeMultiplikatoren μi der Nicht-Neg.-Bedingungen noch nicht eliminiert waren), wenn man – wie im üblichen Simplexverfahren – für die ‘normalen’ Restriktionen Schlupfvariablen yj := cj − a jx einführt, die wie die ‘normalen’ Variablen xi behandelt werden. Dann unterliegen sämtliche Vektoren Nicht-Neg.-Bedingungen, x ≥ 0, y ≥ 0, λ ≥ 0, μ ≥ 0, mit komplement. Schlupf zwischen x und μ sowie y und λ, d.h. μ x = 0 und λ y = 0. Außerdem gelten die Gleichungen Ax + y = c sowie A λ − μ = p, die sich mit Hilfe von Block-Vektoren bzw. -Matrizen in folgender ‘dualen’ Form schreiben lassen: A x λ A, Im = c, A , −In = p (bzw. λ , μ = p ) y μ −In Beachte: (1) Die Größen y und μ sind hier Schlupfvariablen, sie haben nicht die gleiche Bedeutung wie im dualen Problem (D). (2) Das übliche Simplexverfahren behandelt das primale Problem (P) und beruht auf der linken Form. (3) Aus dem Endtableau des üblichen Simplexverfahrens kann man bereits die Lagrange-Multiplikatoren λ ablesen; das duale Simplexverfahren, das vom Problem (D) ausgeht und der re. Form entspricht, wird dazu also nicht benötigt. Viele der in diesem Abschnitt für lineare Optimierungsprobleme formulierten Dualitätsaussagen gelten auch für nicht-lineare Probleme.