Definition: Eine Menge C ⊂ Rn heißt konvex, wenn zu je zwei Punkten ~x1 , ~x2 ∈ C auch die Verbindungsstrecke zwischen ~x1 und ~x2 in C liegt. Bemerkung: Der Durchschnitt zweier konvexer Mengen ist wieder konvex. Definition: Der Epigraph einer Funktion f : Rn → R ist diejenige Teilmenge des Rn+1 , die aus allen Punkten des Rn+1 besteht, welche über dem Graphen von ” f“ liegen. D.h.: ( Epi(f ) = ~x y ! ~ x ) n ∈ R , y ∈ R, y ≥ f (~x) 1 Eine auf einer konvexen Teilmenge C des Rn definierte Funktion f : C → R heißt konvex, falls der Epigraph von f eine konvexe Menge ist. Die Funktion f heißt konkav, falls die Funktion −f konvex ist. Proposition: Sei g : C → R eine auf einer konvexen Teilmenge C des Rn definierte konvexe Funktion. Dann ist für jedes b ∈ R die Menge Cb = {~x ∈ C|g(~x) ≤ b} konvex. 2 Für das Optimierungsproblem f (~x) =max! g1 (~x) ≤ g2 (~x) ≤ .. . b1 b2 gm (~x) ≤ bm nennen wir die Menge C = {~x ∈ Rn | gj (~x) ≤ bj für j = 1, 2, . . . , m} den zulässigen Bereich des Optimierungsproblems. Eine Restriktion gj (~x) ≤ bj heißt aktiv im Punkt ~x∗ ∈ C, falls gilt: gj (~x∗ ) = bj . Die Menge der im Punkt ~x∗ ∈ C aktiven Nebenbedingungen bezeichnen wir mit Ja (~x∗ ). Beispiel: Der Zulässige Bereich C eines Optimierungsproblems sei durch folgende Ungleichungen beschrieben: x2 + y 2 ≤ 25, x ≤ 4, x+y ≥1 Untersuchen Sie für die angegebenen Punkte Pj , ob Sie im zulässigen Bereich C liegen. Geben Sie für Punkte im zulässigen Bereich die Menge der aktiven und die Menge der inaktiven Nebenbedingungen an! P1 (3| − 4), P2 (−1|2), P3 (2|2), 3 P4 (4| − 3), P5 (−3|4), P6 (0|5) Definition: Ein Optimierungsproblem Definition: Ein Optimierungsproblem f (~x) = max! g1 (~x) ≤ b1 .. . f (~x) = min! g1 (~x) ≤ b1 .. . gm (~x) ≤ bm gm (~x) ≤ bm heißt konkaves Programm, wenn die Zielfunktion f eine konkave Funktion und die Nebenbedingugnsfunktionen gj konvexe Funktionen sind. heißt konvexes Programm, wenn die Zielfunktion f eine konvexe und die Nebenbedingugnsfunktionen gj konvexe Funktionen sind. Bemerkung: Ist g1 (~x) ≤ b1 .. . gm (~x) ≤ bm f (~x) = min! ein konvexes Programm, so ist −f (~x) = max! g1 (~x) ≤ b1 .. . gm (~x) ≤ bm ein konkaves Programm. Die beiden Programme haben dieselben Lösungen. Satz von Kuhn Tucker: Sei ~x∗ ein lokaler Maximizer für das Optimierungsproblem f (~x) = max! g1 (~x) ≤ b1 g2 (~x) ≤ b2 .. . f (~x) = min! gm (~x) ≤ bm m X g1 (~x) ≤ b1 g2 (~x) ≤ b2 .. . gm (~x) ≤ bm (a) Dann gibt es nichtnegative Zahlen λ1 , . . . , λm , sodass gradf (~x∗ ) = Sei ~x∗ ein lokaler Minimizer für das Optimierungsproblem λj · grad gj (~x∗ ) j=1 (c) Dann gibt es nichtpositive Zahlen λ1 , . . . , λm , sodass gradf (~x∗ ) = m X λj · grad gj (~x∗ ) j=1 Außerdem gilt: λj = 0 für j ∈ Ji (~x∗ ) Außerdem gilt: λj = 0 für j ∈ Ji (~x∗ ) (b) Wenn ein konkaves Programm vorliegt, dann ist Bedingung (a) hinreichend, dass ~x∗ ein Maximizer des Optimierungsproblems ist. (d) Wenn ein konvexes Programm vorliegt, dann ist Bedingung (c) hinreichend, dass ~x∗ ein Minimizer des Optimierungsproblems ist. Bemerkung: ~x∗ muss darüber hinaus die constrained qualification“ erfüllen. (S. ” 49) 4