Universität Karlsruhe (TH) Optimierungstheorie I Forschungsuniversität · gegründet 1825 Prof. Dr. C. Wieners 1 Einführung (1.1) Sei M ⊂ Rn und f : M → R. Betrachte (P) Minimiere f (x) unter der Bedingung x ∈ M. a) M heißt die Menge der zulässigen Punkte. b) (P) heißt zulässig, falls M 6= 0. / c) x ∗ ∈ Rn heißt Lösung von (P), wenn i) x ∗ zulässig ist, d.h. x ∗ ∈ M, und ii) x ∗ optimal ist, d.h. f (x ∗ ) ≤ f (x) für alle x ∈ M. In diesem Fall heißt (P) lösbar, und wir setzen min(P) = min f (x) = f (x ∗ ). x∈M d) Im Allgemeinen defininieren wir ( inf f (x) falls x∈M inf(P) = +∞ falls M 6= 0/ M = 0. / 1 Universität Karlsruhe (TH) Optimierungstheorie I Forschungsuniversität · gegründet 1825 Prof. Dr. C. Wieners 2.1 Konvexe Mengen und Polyeder – Konvexe Mengen (2.1) (2.2) a) Eine Menge V ⊂ Rn heißt linearer Teilraum / Unterraum, wenn x, y ∈ V , λ , µ ∈ R ⇒ λ x + µy ∈ V . b) Eine Menge V ⊂ Rn heißt affiner Teilraum, wenn x, y ∈ V , λ ∈ R ⇒ (1 − λ )x + λ y ∈ V . c) Eine Menge K ⊂ Rn heißt konvex, wenn x, y ∈ K , λ ∈ [0, 1] ⇒ (1 − λ )x + λ y ∈ K . d) Eine Menge C ⊂ Rn heißt Kegel, wenn x ∈ C, λ ≥ 0 ⇒ λ x ∈ C. a) V ⊂ Rn ist genau dann ein linearer Teilraum, wenn x i ∈ V , λi ∈ R, m ∑ λi x i ∈ V . ⇒ i = 1, . . . , m, m beliebig i=1 b) V ⊂ Rn ist genau dann ein affiner Teilraum, wenn x i ∈ V , λi ∈ R, m i = 1, . . . , m, m beliebig, c) K ⊂ Rn ist genau dann konvex, wenn x i ∈ K , λi ≥ 0, i = 1, . . . , m, m beliebig, m ⇒ ∑ λi = 1 i=1 i=1 m m ⇒ ∑ λi = 1 i=1 d) C ⊂ Rn ist genau dann ein konvexer Kegel, wenn x i ∈ C, λi ≥ 0, i = 1, . . . , m, m beliebig ⇒ ∑ λi x i ∈ V . ∑ λi x i ∈ K . i=1 m ∑ λi x i ∈ C. i=1 2 Universität Karlsruhe (TH) Optimierungstheorie I Forschungsuniversität · gegründet 1825 Prof. Dr. C. Wieners 2.1 Konvexe Mengen und Polyeder – Konvexe Mengen (2.5) a) Ein konvexer Kegel C ⊂ Rn heißt endlich erzeugt, wenn eine endliche Teilmenge S = {u 1 , ..., u m } ⊂ Rn existiert mit C = cone(S) = n m ∑ λi u i : o λi ≥ 0 = {Uλ : λ ≥ 0} . i=1 Dabei ist U = (u 1 |...|u m ) ∈ Rn,m . b) Eine Menge E = x ∈ Rn : aT x = γ mit a ∈ Rn , a 6= 0, und γ ∈ R heißt (Hyper-)Ebene im Rn , c) Eine Menge H = x ∈ Rn : aT x ≤ γ mit a ∈ Rn , a 6= 0, und γ ∈ R heißt abgeschlossener Halbraum. d) Eine Menge M ⊂ Rn heißt polyedral (oder auch Polyeder), wenn sie als Durchschnitt von endlich vielen abgeschlossenen Halbräumen darstellbar ist, m,n und einen Vektor b ∈ Rm gibt mit d. h. wenn es eine Matrix A∈R n M = x ∈ R : Ax ≤ b . e) Beschränkte Polyeder M ⊂ Rn heißen Polytope. 3 Universität Karlsruhe (TH) Optimierungstheorie I Forschungsuniversität · gegründet 1825 Prof. Dr. C. Wieners 2.2 Konvexe Mengen und Polyeder – Satz von Weyl / Farkas Lemma (2.6) (2.7) (2.8) Jeder endlich erzeugte konvexe Kegel C = {Uλ : λ ≥ 0} ist polyedral und von der Form C = {x ∈ Rn : Ax ≤ 0}. Insbesondere sind endlich erzeugte konvexe Kegel abgeschlossen. Sei K ⊂ Rn eine konvexe, abgeschlossene Menge, K 6= 0. / Dann existiert zu jedem x ∈ Rn genau ein x ∗ ∈ K mit kx − x ∗ k ≤ kx − y k für alle y ∈ K . x ∗ ist eindeutig durch (x − x ∗ )T (x − y ) ≤ 0 für alle y ∈ K charakterisiert. Sei K ⊂ Rn eine konvexe, abgeschlossene Menge, K 6= 0, / und x ∈ / K. Dann existiert eine Hyperebene, die x und K trennt, d. h. es existiert a ∈ Rn , a 6= 0, und γ ∈ R mit aT z ≤ γ < aT x für alle z ∈ K . Ist K sogar ein konvexer Kegel, so kann γ = 0 gewählt werden. (2.9) Seien A ∈ Rm,n und b ∈ Rm gegeben. Dann gilt genau eine der beiden folgenden Aussagen: (i) {x ∈ Rn : Ax = b, x ≥ 0} 6= 0/ (ii) {y ∈ Rm : AT y ≤ 0, bT y > 0} 6= 0/ 4 Universität Karlsruhe (TH) Optimierungstheorie I Forschungsuniversität · gegründet 1825 Prof. Dr. C. Wieners 2.3 Konvexe Mengen und Polyeder – Hauptsatz der Polyedertheorie ⊂ Rn sei beliebige konvexe Menge. a) x ∈ M heißt Ecke / Extremalpunkt von M, wenn sich x nicht als echte Konvexkombination zweier verschiedener Punkte von M darstellen lässt, d. h., wenn gilt: (2.10) M y,z ∈ M , λ ∈ (0, 1) , x = λ y + (1 − λ )z ⇒ y =z. ∈ Rn , b) Ein Vektor u u 6= 0, heißt freie Richtung von M, wenn es x ∈ M gibt, so dass der ganze Strahl {x + tu : t ≥ 0} zu M gehört. c) Eine freie Richtung u ∈ Rn , u 6= 0, heißt extremale Richtung von M, wenn sie sich nicht als echte Konvexkombination zweier linear unabhängiger freier Richtungen schreiben lässt, d. h., wenn gilt: v , w freie Richtungen, λ ∈ (0, 1) , u = λ v + (1 − λ )w ⇒ v , w linear abhängig . Strahlen der Form S = {x + tu : t ≥ 0} ⊂ M mit Ecke x ∈ M und extremaler Richtung u heißen Extremalstrahlen. Mit extrP(M) bezeichnen wir die Menge aller Extremalpunkte von M. Mit extrS(M) bezeichnen wir die Vereinigung aller Extremalstrahlen von M. 5 Universität Karlsruhe (TH) Optimierungstheorie I Forschungsuniversität · gegründet 1825 Prof. Dr. C. Wieners 2.3 Konvexe Mengen und Polyeder – Hauptsatz der Polyedertheorie Polyeder M = {x ∈ Rn : Ax ≤ b} hat nur endlich viele Ecken. I ⊂ {1, ..., m}, I 6= 0. / Dann heißt MI = {x ∈ M : (Ax)i = bi für i ∈ I} eine Seite von M. (2.13) Es gilt extrP(MI ) ⊂ extrP(M) und extrS(MI ) ⊂ extrS(M). (2.15) Für den relativen Rand (2.11) Ein (2.12) Sei ∂rel M = {x ∈ Rn : Bε (x) ∩ M 6= 0/ und Bε (x) ∩ (affine M \ M) 6= 0/ für alle ε > 0} eines Polyeders gilt o [ n ∂rel M ⊂ MI : I ⊂ {1, ..., n}, dim MI < dim M . (2.16) Sei M ⊂ Rn konvex, M 6= 0. / Dann ist das relative Innere intrel M = {x ∈ M : es exisitert ein ε > 0 mit Bε (x) ∩ affine M ⊂ M} nicht leer. (2.18) Sei M ⊂ Rn konvex, M 6= 0 / und M geradenfrei. Dann gilt M ⊂ conv ∂rel M. (2.19) Sei M ⊂ Rn ein geradenfreies Polyeder. Dann ist M = conv extrP(M) ∪ extrS(M) . (2.20) Jedes (nichtleere) Polytop M ist die konvexe Hülle seiner Ecken. (2.21) Ein (nichtleerer) Polyeder M ist genau dann geradenfrei, wenn er Ecken besitzt. 6 Universität Karlsruhe (TH) Optimierungstheorie I Forschungsuniversität · gegründet 1825 Prof. Dr. C. Wieners 3 Existenz- und Dualitätstheorie für Lineare Programme (3.1) Seien A ∈ Rm,n , b ∈ Rm und c ∈ Rn gegeben. Betrachte Minimiere c T x auf M := {x ∈ Rn : Ax = b, x ≥ 0} . Wenn µ ∗ := inf c > x : x ∈ M > −∞, dann gilt: a) Wenn (P) zulässig ist (d.h. M 6= 0), / dann ist (P) auch lösbar. b) Falls (P) lösbar ist, so existiert auch eine Ecke als Lösung. Das duale Problem zu (P) lautet (D) Maximiere bT y auf N := y ∈ Rm : A> y ≤ c . (P) (3.4) Sei x ∈ M und y ∈ N. Dann gilt bT y ≤ c T x. (3.6) a) (P) und (D) zulässig ⇒ (P) und (D) lösbar und min(P) = max(D) b) (P) zulässig und (D) nicht zulässig ⇒ inf(P) = −∞. c) (D) zulässig und (P) nicht zulässig ⇒ sup(D) = ∞ (3.7) Primale Lösungen x ∗ und duale Lösungen y ∗ sind komplementär: xk∗ = 0 oder (AT y ∗ − c)k = 0 für k = 1, ..., n. 7 Universität Karlsruhe (TH) Optimierungstheorie I Forschungsuniversität · gegründet 1825 Prof. Dr. C. Wieners 4.1 Anwendungen in der Linearen Optimierung – Flussprobleme (4.1) a) Eine Kapazitätsmatrix C = (cij ) ∈ Rn,n mit cij ≥ 0 beschreibt einen Graphen mit Knoten 1, ..., n und Kanten {(i, j) : cij > 0} mit den Eigenschaften 1) cij cji = 0, cii = 0 2) ci1 = 0, cnj = 0 n 3) n ∑ cij > 0, j = 2, ..., n und ∑ cij > 0, i = 1, ..., n − 1 i=1 j=1 b) Ein Fluss X = (xij ) ∈ Rn,n zu C ist eine Matrix mit 0 ≤ xij ≤ cij und n ∑ xij n = i=1 für alle j = 2, . . . , n − 1 . ∑ xjk k =1 n c) W (X ) = ∑ x1j heißt Wert des Flusses. j=1 n (4.1) n Für einen Fluss gilt ∑ x1j = ∑ xkn j=1 k =1 Netzwerksflussoptimierungsproblem n Maximiere W (X ) = n n ∑ xkn unter 0 ≤ xij ≤ cij und ∑ xij = ∑ xjk , j = 2, ..., n − 1. k =1 i=1 k =1 8 Universität Karlsruhe (TH) Optimierungstheorie I Forschungsuniversität · gegründet 1825 Prof. Dr. C. Wieners 4.1 Anwendungen in der Linearen Optimierung – Flussprobleme (4.3) Ein Schnitt (J − , J + ) ist eine Zerlegung J + ∪ J − = {1, . . . , n} mit J + ∩ J − = 0, / 1 ∈ J − , n ∈ J + . Die Kapazität eines Schnittes ist K (J − , J + ) := cij . ∑ (i,j)∈J − ×J + (4.4) Für jeden Schnitt W (X ) = (J − , J + ) ∑ (i,j)∈J − ×J + (4.5) (4.6) und jeden Fluss X gilt xij − ∑ Max-Flow-Min-Cut: max W (X ) : X Fluss = min K (J − , J + ) : (J − , J + ) Schnitt Ein ungesättigter Pfad vom Knoten j zum Knoten k ist ein Indexvektor (p1 , . . . , pm ) mit pi ∈ {1, . . . , n}, i = 1, . . . , m, p1 = j, pm = k , und für jedes i = 1, . . . , m − 1 gilt: a) xpi pi+1 < cpi pi+1 falls cpi pi+1 > 0, (4.7) xji ≤ K (J − , J + ) . (i,j)∈J − ×J + b) xpi+1 pi > 0 falls cpi pi+1 = 0 . Sei X ein maximaler Fluss, und setze J − := {1} ∪ k ∈ {2, . . . , n} : es gibt einen ungesättigten Pfad von 1 nach k . Dann gilt: n 6∈ J − , (J − , J + ) mit J + = {1, ..., n} \ J − ist ein Schnitt, und W (X ) = K (J − , J + ). 9 Universität Karlsruhe (TH) Optimierungstheorie I Forschungsuniversität · gegründet 1825 Prof. Dr. C. Wieners 4.1 Anwendungen in der Linearen Optimierung – Flussprobleme Algorithmus von Ford-Fulkerson S0) Wähle Fluss X (z. B. X = 0) S1) J − = {1} S2) Wähle (j, k ) mit j ∈ J − , k ∈ / J− mit xjk < cjk falls cjk > 0 oder xkj > 0 falls cjk = 0 falls kein solches (j, k ) existiert: STOP (X maximal) S3) J − := J − ∪ {k } falls n ∈ / J − gehe zu S2) S4) Erzeuge Pfad (p1 , . . . , pm ) mit p1 = 1, pm = n, pi ∈ J − und bestimme d > 0 mit n o n o d = min cpi pi+1 − xpi pi+1 : cpi pi+1 > 0 ∪ xpi+1 pi : cpi pi+1 = 0 S5) setze xpi pi+1 := xpi pi+1 + d für cpi pi+1 > 0 xpi+1 pi := xpi+1 pi − d für cpi pi+1 = 0 gehe zu S1) 10 Universität Karlsruhe (TH) Forschungsuniversität · gegründet 1825 Optimierungstheorie I Prof. Dr. C. Wieners 4.2 Anwendungen in der Linearen Optimierung – Matrix-Spiele (4.8) Ein Matrix-Spiel zweier Personen PA und PB wird durch A ∈ Rm,n bestimmt, wobei aij ausgezahlt wird, falls PA den Spielzug j und und PB den Spielzug i ausführt. Seien MA = {x ∈ Rn : eT x = 1, x ≥ 0} und MB = {y ∈ Rm : eT y = 1, y ≥ 0} zulässige Strategien. Dann ist Φ(x, y ) = y T Ax die erwartete mittlere Auszahlung. (4.9) Es gilt maxy ∈MB Φ(x, y ) = maxi=1,...,m (Ax)i für festes x ∈ Rm . Es gilt minx∈MA Φ(x, y ) = minj=1,...,n (AT y )j für festes y ∈ Rm . gibt optimale Strategien x ∗ ∈ MA und y ∗ ∈ MB mit Φ(x ∗ , y ) ≤ Φ(x ∗ , y ∗ ) ≤ Φ(x, y ∗ ) für alle x ∈ MA und y ∈ MB . Es gilt Φ(x ∗ , y ∗ ) = minx∈MA maxy ∈MB Φ(x, y ) = maxy ∈MB minx∈MA Φ(x, y ). Falls der Wert des Spiels Φ(x ∗ , y ∗ ) = 0 ist, heißt das Spiel fair. (4.10) Es (4.11) Falls A = −AT schiefsymmetrisch, so ist der Wert der Spiels Φ(x ∗ , y ∗ ) = 0. (4.12) Falls minj=1,...,n maxi=1,...,m aij = maxi=1,...,m minj=1,...,n aij , so heißt das Spiel Sattelpunkt-Spiel. besitzen eine optimale reine Strategie x ∗ = es und y ∗ = er mit ars = minj=1,...,n maxi=1,...,m aij . (4.13) Sattelpunkt-Spiele 11 Universität Karlsruhe (TH) Optimierungstheorie I Forschungsuniversität · gegründet 1825 Prof. Dr. C. Wieners 5 Das Simplex-Verfahren Seien A ∈ Rm,n , b ∈ Rm und c ∈ Rn gegeben. Betrachte (P) (5.1) (5.2) (5.3) Minimiere c T x auf M := {x ∈ Rn : Ax = b, x ≥ 0} . Zu J ⊂ {1, ..., n} definiere AJ = (a∗j )j∈J . Sei AJ invertierbar. Dann heißt x ∈ Rn mit xJ = A−1 J b und xk = 0 für k 6∈ J ein Basislösung, und wenn x ∈ M ist, heißt x zulässige Basislösung. Sie heißt nicht entartet, wenn xJ > 0 ist. Sei (P) zulässig und beschränkt. Dann ist (P) lösbar, und es existiert eine zulässige Basislösung als Lösung von (P). Jede zulässige Basislösung z ∈ M ist Ecke des Polyeders M. Sei j = (j1 , ..., jm ) ein Pivotvektor, d. h. jk ∈ {1, ..., n} und ji 6= jk für i 6= k . Sei rang A = m. Dann existiert eine Darstellung {x ∈ Rn : Ax = b} = {x ∈ Rn : Âx = b̂} mit Â(j) = Im . Gauß-Jordan-Verfahren: für k = 1, ..., m S1) wähle j = jk ∈ {j1 , ..., jk −1 } mit akj 6= 0 S2) für i 6= k eliminiere Spalte j durch ail := ail − (aij /akj )akl für l = 1, ..., n für i 6= k setze bi := bi − (aij /akj )bk ; normiere die Zeile k durch akl := akl /akj für l = 1, ..., n und bk := bk /akj 12 Universität Karlsruhe (TH) Optimierungstheorie I Forschungsuniversität · gegründet 1825 Prof. Dr. C. Wieners 5 Das Simplex-Verfahren Phase I Konstruiere einen Pivotvektor ĵ zu Ax = b mit Basislösung ẑ, einen Vektor ĉ ∈ Rn und eine Darstellung M = {x ∈ Rn : Âx = b̂, x ≥ 0} von M mit i) Ist ĵ = (j1 , . . . , jm ), so ist â∗jk = ek für k = 1, . . . , m, ii) ĉjk = 0 für alle k = 1, . . . , m (also auch ĉ T ẑ = 0), und b̂ ≥ 0, iii) f (x) = ĉ T x + f (ẑ) für alle x mit Ax = b. Setze γ̂ = f (ẑ). Phase II S1) Falls ĉ ≥ 0 STOP (ẑ optimal) S2) Wähle s 6∈ J(ĵ) mit ĉs < 0. S3) Falls â∗s ≤ 0 STOP (inf(P) = −∞) S4) Wähle r mit ârs > 0 und b̂r /ârs ≤ b̂i /âis für i ∈ {1, ..., m} mit âis > 0. S5) Definiere j̃ mit j̃k = ĵk für k 6= r und j̃r = s S6) Gauß-Jordan-Schritt: für l = 1, ..., n, i 6= r , k = 1, ..., m setze ãrl = ârl /ârs , b̃r = b̂r /ârs , ãil = âil − âis ãrl , b̃i = b̂i − âis b̃r , c̃l = ĉl − ĉs ãrl , −γ̃ = −γ̂ − ĉs b̃r , z̃j̃ = b̃k und z̃l = 0 für l 6∈ J(j̃) k S7) Â = Ã, b̂ = b̃, ĉ = c̃, ẑ = z̃, γ̂ = γ̃, gehe zu S1) 13 Universität Karlsruhe (TH) Optimierungstheorie I Forschungsuniversität · gegründet 1825 Prof. Dr. C. Wieners 5 Das Simplex-Verfahren (5.4) a) Für jedes x gilt: Ãx = b̃ ⇐⇒ Âx = b̂ ⇐⇒ Ax = b. b) ĉ T x + γ̂ = c̃ T x + γ̃ für alle x ∈ Rn mit Ax = b. c) z̃, j̃ ist zulässige Basislösung zu Ãx = b̃, für die 1), 2), 3) erfüllt sind. Es ist ãrs = 1 und γ̃ = c T z̃ = f (z̃). Insbesondere ist (P) äquivalent zu (P̂) Minimiere ĉ T x + γ̂ auf M = {x ∈ Rn : Âx = b̂ , x ≥ 0} , und dies äquivalent zu (P̃) Minimiere c̃ T x + γ̃ auf M = {x ∈ Rn : Ãx = b̃ , x ≥ 0} . d) f (z̃) = c T z̃ = γ̃ = ĉj b̂i /âij + γ̂ ≤ γ̂ = c T ẑ = f (ẑ). e) Ist ĉ ≥ 0, so ist c T x ≥ c T ẑ für alle x ∈ M, d.h. ẑ ist optimal. f) Ist ĉs < 0 und â∗s ≤ 0, so ist ĉ T x auf M nicht beschränkt, d.h. inf(P) = −∞. 14 Universität Karlsruhe (TH) Optimierungstheorie I Forschungsuniversität · gegründet 1825 Prof. Dr. C. Wieners 5 Das Simplex-Verfahren Pivot-Regel von Bland i) Pivot-Spalte ist die Spalte s = min l : ĉl < 0 . Sei qs = min{b̂i /âis : âis > 0}. ii) Pivot-Zeile ist die Zeile r mit jr = min{ji : âis > 0 und b̂i /âis = qs }. (5.5) Das Simplex-Verfahren mit der Pivot-Regel von Bland wiederholt kein Tableau. Phase I (PI ) (5.6) Sei e = (1, 1, . . . , 1)> ∈ Rm , und sei o.E. b ≥ 0. Minimiere eT (b − Ax) unter Ax ≤ b , x ≥ 0 , (PI ) ist zulässig, und (P) ist genau dann zulässig, wenn min(PI ) = 0. m m − ∑ ai1 − ∑ ai2 ··· c1 a11 .. . am1 c2 a12 .. . am2 ··· ··· i=1 i=1 m − ∑ ain 0 cn a1n .. . amn 0 1 .. . 0 ··· m 0 i=1 ··· − ∑ bi i=1 ··· ··· .. . ··· 0 0 .. . 1 0 b1 .. . bm 15 Universität Karlsruhe (TH) Optimierungstheorie I Forschungsuniversität · gegründet 1825 Prof. Dr. C. Wieners 5 Das revidierte Simplex-Verfahren (5.7) Sei ẑ Basislösung zum Pivot-Vektor j, und sei k = (k1 , . . . , kn−m ) ein Komplement von j, d. h. {j1 , . . . , jm } ∪ {k1 , . . . , kn−m } = {1, . . . , n}. Dann gilt: a) A(j) ∈ Rm×m ist regulär, ẑ(j) = A(j)−1 b, ẑ(k ) = 0, Â = A(j)−1 A. T b) ĉ(k ) = c(k ) − A(j)−1 A(k ) c(j) . Phase II S0) Starte mit ẑ(ĵ) = A(ĵ)−1 b, γ̂ = c(ĵ)T A(ĵ)−1 b. Speichere A(ĵ)−1 ∈ Rm,m . S1) Setze y := A(ĵ)−T c(ĵ), d = A(k̂ )T y . Falls d ≤ c(k̂ ) STOP (ẑ optimal) S2) Bestimme Index ks ∈ {k1 , . . . , kn−m } mit ds > cks . S3) Berechne w = A(ĵ)−1 a∗ks . Falls w ≤ 0 STOP (inf(P) = −∞) S4) Bestimme r ∈ {1, . . . , m} mit ẑjr /wr = min ẑjr /wl : wl > 0 . S5) Setze j̃ = (j1 , . . . , jr −1 , s, jr +1 , . . . , jm ), bestimme Komplement k̃ von j̃, setze ! ẑj (w − er )(er )T −1 A(ĵ)−1 , z̃(j̃) = A(j̃)−1 b , γ̃ = γ̂ + r cks − ds A(j̃) = I − wr wr S6) Update ĵ = j̃ gehe zu S1). 16 Universität Karlsruhe (TH) Optimierungstheorie I Forschungsuniversität · gegründet 1825 Prof. Dr. C. Wieners 6.1 Konvexe Optimierung – Konvexe Funktionen (6.1) Sei D ⊂ Rn konvex. a) Eine Funktion f : D → R heißt konvex, wenn für alle x, y ∈ D, t ∈ [0, 1] gilt f tx + (1 − t)y ≤ t f (x) + (1 − t)f (y ) . b) f heißt strikt konvex, wenn für alle x, y ∈ D, x 6= y und alle t ∈ (0, 1) gilt: f tx + (1 − t)y < t f (x) + (1 − t)f (y ) . c) f heißt gleichmäßig konvex, wenn es c0 > 0 gibt, so dass für alle x, y ∈ D, t ∈ [0, 1] gilt f tx + (1 − t)y + c0 t(1 − t) kx − y k2 ≤ t f (x) + (1 − t)f (y ) . (6.2) Sei D ⊂ Rn offen und konvex, f : D → R zweimal stetig differenzierbar. Dann gilt: f ist gleichmäßig konvex auf D ⇐⇒ (1) es ex. c0 > 0 mit f (x) − f (y ) ≥ Df (y )(x − y ) + c0 kx − y k2 ∀x, y ∈ D (2) es ex. c0 > 0 mit Df (x) − Df (y ) (x − y ) ≥ 2c0 kx − y k2 ∀x, y ∈ D ⇐⇒ (3) es ex. c0 > 0 mit z T D 2 f (x) z ≥ 2c0 kzk2 ⇐⇒ ∀x ∈ D , z ∈ Rn 17 Universität Karlsruhe (TH) Optimierungstheorie I Forschungsuniversität · gegründet 1825 Prof. Dr. C. Wieners 6.2 Konvexe Optimierung – Existenz und Eindeutigkeit Seien K ⊂ Rn konvex, f : K −→ R, gi : K −→ R konvex (i = 1, . . . , p), A ∈ Rm×n , b ∈ Rm . Betrachte (P) Minimiere f (x) auf M := x ∈ Rn : x ∈ K , g(x) ≤ 0, Ax = b . (6.3) Sei M ⊂ Rn konvex, f : M → R konvex und x ∗ ein lokales Minimum von f auf M, d.h. es existiert ε > 0 mit f (x ∗ ) ≤ f (x) für alle x ∈ M mit kx − x ∗ k ≤ ε. Dann ist x ∗ sogar globales Minimum, d.h. f (x ∗ ) ≤ f (x) für alle x ∈ M. (6.4) Es sei M 6= 0, / inf(P) > −∞ und Λ := (f (x) + r , g(x) + z, Ax − b) ∈ R × Rp × Rm : r ≥ 0, z ≥ 0, x ∈ K sei abgeschlossen. Dann besitzt (P) eine Lösung. (6.5) Ist M 6= 0/ und f strikt konvex, so besitzt (P) höchstens eine Lösung. (6.6) Sei D ⊂ Rn offen und konvex, und sei f : D −→ R konvex. Dann ist f stetig. (6.7) Sei M 6= 0, / M abgeschlossen, und sei f gleichmäßig konvex. Dann ist (P) eindeutig lösbar. 18 Universität Karlsruhe (TH) Optimierungstheorie I Forschungsuniversität · gegründet 1825 Prof. Dr. C. Wieners 6.3 Konvexe Optimierung – Das duale Problem Seien K ⊂ Rn konvex, f : K −→ R, gk : K −→ R konvex (k = 1, . . . , p), A ∈ Rm×n , b ∈ Rm . (P) Minimiere f (x) auf M := x ∈ Rn : x ∈ K , g(x) ≤ 0, Ax = b . Definiere Λ := (f (x) + r , g(x) + z, Ax − b) ∈ R × Rp × Rm : r ≥ 0, z ≥ 0p , x ∈ K . (P̃) Minimiere φ (β , u, v ) := β unter (β , u, v ) ∈ Λ ∩ R × {0p } × {0m } . Definiere den Halbraum H(γ, u, v ) := (t, w, z) ∈ R × Rp × Rm : t + u T w + v T z ≥ γ . Maximiere ψ(γ, u, v ) := γ unter Λ ⊂ H(γ, u, v ) . Setze F (u, v ) = inf f (x) + u T g(x) + v T (Ax − b) . (D̃) x∈K (D) Maximiere F (u, v ) auf N = (u, v ) ∈ Rp × Rm : u ≥ 0 , F (u, v ) > −∞ . 19 Universität Karlsruhe (TH) Optimierungstheorie I Forschungsuniversität · gegründet 1825 Prof. Dr. C. Wieners 6.4 Konvexe Optimierung – Dualitätssätze alle x ∈ M und (u, v ) ∈ N gilt f (x) ≥ F (u, v ) . Ist f (x ∗ ) = F (u ∗ , v ∗ ) für x ∗ ∈ M, (u ∗ , v ∗ ) ∈ N, so sind x ∗ und (u ∗ , v ∗ ) optimal. (6.12) Für (6.13) Es sei K = Rn , f , g seien stetig, und es gelte die Slaterbedingung (SB): (SB1) rang A = m ≤ n, (SB2) es gibt x̂ ∈ Rn mit Ax̂ = b und gk (x̂) < 0 für k = 1, . . . , p . Das Problem (P) sei lösbar durch x ∗ ∈ M. Dann gibt es auch eine Lösung (u ∗ , v ∗ ) ∈ N von (D) mit f (x ∗ ) = F (u ∗ , v ∗ ) und uk∗ gk (x ∗ ) = 0 für k = 1, . . . , p. (6.14) Lagrangefunktion L(x, u, v ) := f (x) + u T g(x) + v T (Ax − b) x∗ Sei ∈ M optimal für (P) und die Slaterbedingung (SB) sei erfüllt. Dann existieren u ∗ ∈ Rp , v ∗ ∈ Rn mit u ∗T g(x ∗ ) = 0 und (6.15) a) L(x ∗ , u, v ) ≤ L(x ∗ , u ∗ , v ∗ ) ≤ L(x, u ∗ , v ∗ ) p für alle x ∈ Rn , u ∈ R≥0 , v ∈ Rm . p b) Falls (x ∗ , u ∗ , v ∗ ) ∈ Rn × R≥0 × Rm ein Sattelpunkt von L ist, so ist x ∗ Lösung von (P) und (u ∗ , v ∗ ) Lösung von (D). seien f : Rn → R, gk : Rn → R, k = 1, . . . , p, konvex und differenzierbar, und die Slaterbedingung (SB) sei erfüllt. Dann gilt: x ∗ ∈ M ist genau dann eine p Lösung von (P), wenn es u ∗ ∈ R≥0 und v ∗ ∈ Rm gibt mit (6.17) Es Df (x ∗ ) + u ∗T Dg(x ∗ ) + v ∗T A = 0 und uk∗ gk (x ∗ ) = 0 k = 1, . . . , p . 20 Universität Karlsruhe (TH) Optimierungstheorie I Forschungsuniversität · gegründet 1825 Prof. Dr. C. Wieners 7.1 Differenzierbare Optimierung – Lagrangesche Multiplikatoren (7.2) (7.4) Sei h : Rn → Rm stetig differenzierbar und h(x̂) = 0. Die Funktionalmatrix Dh(x̂) ∈ Rm,n habe den Rang m (also insbesondere m ≤ n). Sei ferner z ∈ Rn mit Dh(x̂)z = 0. Dann existiert δ > 0 und eine stetig differenzierbare Funktion r : (−δ , δ ) → Rn mit r (0) = 0 und r 0 (0) = 0 und h x̂ + tz + r (t) = 0 für alle t ∈ (−δ , δ ). Sei D ⊂ Rn offen, f : D −→ R, g : D −→ Rp , h : D −→ Rm stetig differenzierbar, und sei x ∗ ein (lokales) Minimum von f auf der Menge M = x ∈ D : g(x) ≤ 0 , h(x) = 0 . Es gelte die constraint qualification (CQ1) (i) (ii) Rang Dh(x ∗ ) = m ≤ n , es gibt ẑ ∈ Rn mit g(x ∗ ) + Dg(x ∗ )ẑ < 0 und Dh(x ∗ )ẑ = 0 . Dann existiert (u ∗ , v ∗ ) ∈ Rp × ∈ Rm , so dass (x ∗ , u ∗ , v ∗ ) in KKT-Punkt ist, d. h. a) ∇x L(x ∗ , u ∗ , v ∗ ) = ∇f (x ∗ ) + Dg(x ∗ )u ∗ + Dh(x ∗ )v ∗ = 0 , b) g(x ∗ ) ≤ 0, c) h(x ∗ ) = 0 . u ∗ ≥ 0, g(x ∗ )T u ∗ = 0 , 21 Universität Karlsruhe (TH) Optimierungstheorie I Forschungsuniversität · gegründet 1825 Prof. Dr. C. Wieners 7.2 Differenzierbare Optimierung Ordnung – Bedingungen zweiter (7.6) Sei x ∗ ∈ M optimal, und sei I(x ∗ ) = i ∈ {1, . . . , p} : gi (x ∗ ) = 0 die Menge der aktiven Indizes mit q = |I|. Dann folgt (CQ1) aus DgI (x ∗ ) (CQ2) Rang = q +m . ∗ Dh(x ) (7.7) Notwendige Optimalitätsbedingung 2. Ordnung: Sei x ∗ lokales Minimum von f auf M, und sei (CQ2) erfüllt. Es seien zusätzlich f , g und h zweimal stetig differenzierbar in x ∗ . Dann existiert (u ∗ , v ∗ ) ∈ Rp × ∈ Rm , so dass (x ∗ , u ∗ , v ∗ ) in KKT-Punkt ist. Zusätzlich gilt auf dem Unterraum V = z ∈ Rn : Dh(x ∗ )z = 0 , Dgi (x ∗ )z = 0 für alle i ∈ I(x ∗ ) z > Dx2 L(x ∗ , u ∗ , v ∗ ) z ≥ 0 (7.8) für alle z ∈ V . Hinreichende Optimalitätsbedingung 2. Ordnung: (x ∗ , u ∗ , v ∗ ) sei ein + = i ∈ I(x ∗ ) : u ∗ > 0 definiere den Kegel KKT-Punkt, und zu I i K = z ∈ Rn : Dh(x ∗ )z = 0 , Dgi (x ∗ )z = 0 für i ∈ I + , Dgi (x ∗ )z ≤ 0 für i ∈ I \ I + . Zusätzlich gelte z > Dx2 L(x ∗ , u ∗ , v ∗ )z > 0 Dann ist x∗ für alle z ∈ K , z 6= 0 . striktes lokales Minimum von f auf M. 22 Universität Karlsruhe (TH) Optimierungstheorie I Forschungsuniversität · gegründet 1825 Prof. Dr. C. Wieners 8 Quadratische Optimierung (8.1) (8.2) Seien Q ∈ Rn,n , A ∈ Rm,n , c ∈ Rn , b ∈ Rm . Betrachte 1 (P) Minimiere f (x) := x T Qx + c T x auf M := x ∈ Rn : x ≥ 0, Ax = b 2 Sei (P) zulässig und inf(P) > −∞. Dann ist (P) lösbar. Betrachte das lineare Optimierungsproblem (mit Q = 0). Dann existiert y ∗ ∈ Rm mit c + AT y ∗ ≥ 0, i) (8.3) a) Sei i) x∗ ii) (c + AT y ∗ )T x ∗ = 0 . ∈ M Lösung von (P). Dann gibt es y ∗ ∈ Rm mit Qx ∗ + c + AT y ∗ ≥ 0 (Qx ∗ + c + AT y ∗ )T x ∗ = 0 . ii) x∗ (8.4) b) Sei Q symmetrisch und positiv semidefinit, ∈ M, und es gebe y ∗ ∈ Rm ∗ mit i), ii). Dann ist x Lösung von (P). Betrachte 1 (P2 ) Minimiere f (x) := x T Qx + c T x auf M := x ∈ Rn : Ax ≤ b . 2 a) Sei x ∗ ∈ M Lösung von (P2 ). Dann gibt es u ∗ ∈ Rm mit u ∗ ≥ 0 und i) Qx ∗ + c + AT u ∗ = 0 ii) (b − Ax ∗ )T u ∗ = 0 . b) Sei Q symmetrisch und positiv semidefinit, x ∗ ∈ M, und es gebe u ∗ ∈ Rm mit u ∗ ≥ 0 und i), ii). Dann ist x ∗ Lösung von (P2 ). 23