KAPITEL 1 Lineare Theorie 1. Lineare Funktionale, Polyeder, Konvexität Eine skalarwertige Funktion f : Rn → R ist ein Funktional. Eine vektorwertige Funktion f : Rn → Rm besteht aus m Komponentenfunktionen fi : Rn → R, die selber Funktionale sind: f1 (x) f(x) = ... . fm (x) Ein lineares Funktional auf Rn ist (bekanntlich) von der Form f (x1 , . . . , xn ) = c1 x1 + . . . + cn xn = cT x für einen geeigneten Koeffizientenvektor c = (c1 , . . . , cn ) und ist eine stetige Funktion. Also gilt für jedes z ∈ Rn : • H(c, z) := {x ∈ Rn | cT x = z} = f −1 (z) ist eine abgeschlossene Menge. • P (c, z) := {x ∈ Rn | cT x ≤ z} = f −1 (−∞, z] ist eine abgeschlossene Menge. • f −1 (z, ∞) = {x ∈ Rn | cT x > z} ist eine offene Menge. 1.1. Halbräume und Polyeder. Im Fall c 6= 0 ist H(c, z) eine Hyperebene, P (c, z) ist ein (abgeschlossener) Halbraum. f −1 (z, ∞) ist ein offener Halbraum. B EMERKUNG. Vereinbarungsgemäss werden der gesamte Raum Rn = P (0, 0) und die leere Menge ∅ = P (0, −1) als triviale Halbräume mitgezählt. Geometrische Terminologie. Ein affiner Raum ist ein Durchschnitt von endlich vielen Hyperebenen. Auch Rn = H(0, 0) wird als affiner Raum betrachtet. Ein Polyeder ist ein Durchschnitt von endlich vielen Halbräumen. So sind z.B. Rn und ∅ insbesondere Polyeder. 11 12 1. LINEARE THEORIE Algebraische Terminologie. Ein affiner Raum ist die Lösungsmenge eines linearen Gleichungssystems a11 x1 + a12 x2 + . . . + a1n xn = b1 a21 x1 + a22 x2 + . . . + a2n xn = b2 .. .. . . am1 x1 + am2 x2 + . . . + amn xn = bm In Matrixnotation mit A = [aij ] ∈ Rm×n und b ∈ Rm notieren wir den affinen Lösungsraum auch als n H(A, b) := {x ∈ R | Ax = b} = m \ H(aTi , bi ), i=1 wobei die aTi die Zeilenvektoren der Matrix A sind. Analog erhalten wir ein Polyeder als Lösungsmenge eines endlichen linearen Ungleichungssystems a11 x1 + a12 x2 + . . . + a1n xn ≤ b1 a21 x1 + a22 x2 + . . . + a2n xn ≤ b2 .. .. . . am1 x1 + am2 x2 + . . . + amn xn ≤ bm Wir notieren das Polyeder entsprechend auch als n P (A, b) := {x ∈ R | Ax ≤ b} = m \ P (aTi , bi ). i=1 B EMERKUNG. Aus der linearen Algebra weiss man, dass ein unendliches lineares Gleichungssystem in n Variablen xj immer zu einem endlichen linearen Teilsystem äquivalent ist (d.h. denselben Lösungsraum hat). Vorsicht: Bei unendlichen linearen Ungleichungssystemen ist dies nicht notwendigerweise der Fall !!! 1.2. Konvexität. Eine Menge S ⊂ Rn ist konvex, wenn gilt x, y ∈ S λx + (1 − λ)y ∈ S für alle reellen Paramter 0 ≤ λ ≤ 1. Man macht sich leicht klar (Beweis?): • Jeder Halbraum des Rn ist konvex. • Beliebige Durchschnitte konvexer Mengen ergeben eine konvexe Menge. Da ebensolches auch für abgeschlossen“ gilt, finden wir: ” 2. DIE STÜTZFUNKTION 13 • Beliebige Durchschnitte von Halbräumen ergeben konevexe abgeschlossene Mengen. Insbesondere ist jedes Polyeder konvex und abgeschlossen. Zur Illustration betrachen wir ein (möglicherweise unendliches) lineares Ungleichungssystem: a11 x1 + a12 x2 + . . . + a1n xn ≤ b1 a21 x1 + a22 x2 + . . . + a2n xn ≤ b2 .. .. .. .. .. .. .. .. . . . . . . . . am1 x1 + am2 x2 + . . . + amn xn ≤ bm .. .. .. .. .. .. .. .. . . . . . . . . Die Lösungsmenge des Systems besteht aus all den Parametervektoren x ∈ Rn , die jede einzelne dieser Ungleichungen erfüllen, also aus denjenigen x, die im Durchschnitt sämtlicher entsprechender Halbräume liegen. Wir sehen: • Die Lösungsmenge eine beliebigen linearen Ungleichungssystems mit n Variablen bildet eine konvexe abgeschlossene Teilmenge des euklidischen Raums Rn . B EMERKUNG. Die Lösungsmengen beliebiger linearer Ungleichungssysteme sind nicht notwendigerweise Polyeder. Hier liegt der entscheidende Unterschied zur linearen Algebra: Zu jedem n-dimensionalen linearen Gleichungssystem gibt es ein endliches Teilsystem mit demselben Lösungsraum. Bei linearen Ungleichungssystemen ist das aber nicht immer der Fall. 2. Die Stützfunktion Sei S ⊆ Rn eine gegebene Menge. Wir untersuchen nun Optimierungsprobleme mit linearer Zielfunktion. Das sind Probleme vom Typ (1) max cT x (mit c ∈ Rn ). x∈S Wir interessieren uns für die Optimalwerte und betrachten dazu die sog. Stützfunktion δ(S, ·) : Rn → R := R ∪ {−∞, +∞} von S, wobei ( −∞ wenn S = ∅ δ(S, c) := sup cT x sonst, x∈S 14 1. LINEARE THEORIE B EISPIEL 1.1 (Minkowskisummen). Minkowskisummation von Mengen reflektiert sich einfach in der Summation der Stützfunktionen: δ(S + T, c) = sup{cT (s + t) | s ∈ S, t ∈ T } = sup cT s + sup cT t s∈S t∈T = δ(S, c) + δ(T, c). Allgemein setzen wir weiter S 0 := {c ∈ Rn | δ(S, c) < ∞} = {c ∈ Rn | sT c ≤ δ(S, c) < ∞ ∀s ∈ S} und S := {x ∈ Rn | cT x ≤ δ(S, c) ∀c ∈ Rn } = {x ∈ Rn | cT x ≤ δ(S, c) ∀c ∈ S 0 }. Aus der Definition ersieht man sofort: • S 0 und S sind Lösungsmengen linearer Ungleichungssysteme und folglich konvex und abgeschlossen. Ausserdem gilt für alle Teilmengen S, T ⊆ Rn : S⊆T =⇒ S ⊆ S ⊆ T und T 0 ⊆ S 0 . Mengen dieses Typs spielen eine zentrale Rolle in der Optimierungstheorie. Insbesondere für die (später noch zu diskutierende) diskrete Optimierung ist die folgende einfache Beobachtung von enormer Wichtigkeit. L EMMA 1.1. δ(S, c) = δ(S, c) für alle c ∈ Rn . Beweis. Wegen S ⊆ S gilt sicher δ(S, c) ≤ δ(S, c). Andererseits gilt (nach der Definition!) cT x ≤ δ(S, c) für alle x ∈ S und deshalb δ(S, c) ≤ δ(S, c). ⋄ 2.1. Der Fundamentalsatz. S ATZ 1.1 ( Fundamentalsatz“). Sei S ⊆ Rn nichtleer und c ∈ Rn . Dann ist das ” Optimierungsproblem max cT x x∈S entweder nach oben unbeschränkt oder es existiert ein x∗ ∈ S mit der Eigenschaft cT x∗ = sup cT x = δ(S, c). x∈S 2. DIE STÜTZFUNKTION 15 Beweis. Sei Ω0 = {(x0 , x) ∈ Rn+1 | x ∈ S, x0 = cT x} der Graph der Funktion f (x) = cT x. Ω0 ist eine abgeschlossene Menge (Beweis?). Wir nehmen das Optimierungsproblem als beschränkt an und setzen δ∗ := sup x0 = δ(S, c) < ∞. x∈Ω0 Betrachten wir nun die Projektion von Ω0 auf R: Π0 := {x0 | (x0 , x1 , . . . , xn ) ∈ Ω0 } ⊆ R. Π0 ist als Projektion des Graphen der linearen Funktion f (x) abgeschlossen (Beweis?). Ausserdem ist Π0 nicht leer, da es (nach Annahme) einen Parametervektor x̂ ∈ Ω0 gibt. Also ist Ω̂0 = Π0 ∩ [x̂0 , δ∗ ] eine kompakte Menge und enthält somit das Element x∗ = sup x0 = δ∗ (d.h. Ω̂0 = [x̂0 , δ∗ ]). x0 ∈Ω̂0 Folglich existiert ein x∗ ∈ S mit cT x∗ = δ∗ . ⋄ 2.2. Der Trennungssatz. Sei S ⊆ Rn beliebig und y ∈ / S. Dann gibt es ein c ∈ Rn mit der Eigenschaft (i) cT y > δ(S, c). (ii) cT x ≤ δ(S, c) für alle x ∈ S (d.h. S ⊆ P (c, δ(S, c))). In diesem Sinn trennt die Hyperebene H(c, δ(S, c)) = {x ∈ Rn | cT x = δ(S, c)} den Punkt y von der Menge S. Nach dem Fundamentalsatz existiert ausserdem ein x∗ ∈ S mit cT x∗ = δ(S, c). Wegen seiner grundlegenden Bedeutung formulieren wir diesen Zusammenhang als Satz. S ATZ 1.2 ( Trennungssatz“). Sei S 6= ∅ und y ∈ Rn \ S ein beliebiger Punkt. ” Dann existiert ein Vektor c ∈ Rn und der Punkt x∗ ∈ S derart, dass (i) cT y > cT x∗ , d.h. y ∈ / P (c, cT x∗ ). T T ∗ (ii) c x ≤ c x für alle x ∈ S, d.h. S ⊆ P (c, cT x∗ ). ⋄ S ATZ 1.3. S ist die kleinste konvexe und abgeschlossene Menge, die S enthält. Beweis. Sei S̃ die kleinste konvexe abgeschlossene Menge, die S enthält. Dann gilt S̃ ⊆ S (denn Durchschnitte von konvexen und abgeschlossenen Mengen sind immer konvex und abgeschlossen). Ausserdem ist sicherlich ist die Aussage des Satzes im Fall S = ∅ richtig (denn es gilt ja: ˜ ∅ = ∅ = ∅). 16 1. LINEARE THEORIE Nehmen wir also S̃ 6= ∅ an und unterstellen, dass ein y ∈ S \ S̃ existiert. Wir wollen diese Unterstellung zu einem Widerspruch führen. Dazu wählen wir ein R > 0 so gross, dass S̃R = {x ∈ S̃ | ky − xk ≤ R} = 6 ∅. Die Funktion f (x) = kx − yk ist stetig und S̃R kompakt (warum?). Also existiert ein x∗ ∈ S̃, das f (x) minimiert und wir haben 0 < ky − x∗ k2 ≤ ky − xk2 Mit c := y − x∗ für alle x ∈ S. ergibt sich daraus 0 < (y − x∗ )T (y − x∗ ) = cT (y − x∗ ) und somit cT x∗ < cT y. Wenn wir nun δ(S, c) = cT x∗ nachweisen können, haben wir (wegen y ∈ S und somit cT y ≤ δ(S, c)) einen Widerspruch konstruiert. Zu diesem Nachweis betrachten wir ein beliebiges x ∈ S \ {x∗ }, schreiben es in der Form x = x + λd mit kdk = 1 und λ > 0, erschliessen kck2 ≤ ky − xk2 = (c − λd)T (c − λd) = kck2 − 2λcT d + λ2 und folgern (nach Division durch 2λ) λ/2 − cT d ≥ 0 und deshalb (mit λ → 0) cT d ≤ 0. Das bedeutet aber cT x = cT x∗ + λcT d ≤ cT x∗ . Da x beliebig war, finden wir cT x ≤ cT x∗ für alle x ∈ S. ⋄ Aus Satz 1.3 ergibt sich insbesondere: Die konvexen abgeschlossenen Mengen des Rn sind genau die Lösungsmengen von (endlichen oder unendlichen) linearen Ungleichungssystemen mit n Variablen. 3. Stützpunkte und Seitenflächen Wir nennen eine Hyperebene H(c, z) eine Stützhyperebene zur Menge S ⊆ Rn , wenn gilt: (1) S ⊆ P (c, z) (d.h. S liegt ganz im entsprechenden Halbraum P (c, z). (2) S ∩ H(c, z) 6= ∅. Die Punkte x∗ ∈ S ∩ H(c, z) heissen dann Stützpunkte und sind Optimallösungen des Problems max cT x. x∈S Insbesondere gilt cT x∗ = z = δ(S, c). Generell nennen wir eine Teilmenge F ⊆ S eine Seitenfläche von S, wenn es eine Hyperebene H = (c, z) gibt mit den Eigenschaften F =S∩H und S ⊆ P (c, z). 3. STÜTZPUNKTE UND SEITENFLÄCHEN 17 Damit schliessen wir ∅ und S als triviale Seitenflächen von S mit ein. Aus der Sicht der Optimierung ist wichtig: • Seitenflächen von S sind genau die Teilmengen F ⊆ S, die als Lösungsmengen von linearen Optimierungsproblemen über S auftreten können. (In der Sichtweise von Satz 1.2 ist also z.B. H(c, cT x∗ ) eine Stützhyperebene und x∗ ein Stützpunkt der Menge S.) Ein Punkt x∗ ∈ S heisst Randpunkt der Menge S, wenn es eine Folge von Punkten yk ∈ Rn \ S gibt mit der Eigenschaft yk → x∗ . P ROPOSITION 1.1. Sei S ⊆ Rn eine Menge mit der Eigenschaft S = S und x∗ ein Randpunkt von S. Dann ist x∗ ein Stützpunkt von S. Beweis. Sei yk → x∗ mit y ∈ / S. Dann existieren Vektoren ck und Skalare δk ∈ R derart, dass für alle x ∈ S und k gilt: cTk x ≤ δk < cTk yk . OBdA dürfen wir kck k = 1 annehmen. Die ck liegen dann in der kompakten Menge B1 (0) = {x ∈ Rn | kxk ≤ 1} und haben somit einen Häufungspunkt c∗ . Also dürfen wir auch ck → c∗ und somit annehmen. Also ist punkt. (c∗ )T x = lim cTk x ≤ lim cTk yk = (c∗ )T x∗ k→∞ H(c∗ , (c∗ )T x∗ ) k→∞ eine Stützhyperebene und somit x∗ ein Stütz⋄ Die Randpunkte einer konvexen und abgeschlossenen Menge sind also mit ihren Stützpunkten identisch. Ü BUNG 1.1. Zeigen Sie anhand eines Beispiels, dass die Aussage der Proposition 1.1 falsch sein kann, wenn die Eigenschaft S = S nicht vorausgesetzt wird. L EMMA 1.2. Seien F1 und F2 Seitenflächen von S. Dann ist auch ihr Durchschnitt F = F1 ∩ F2 eine Seitenfläche von S. Beweis. Im Fall F = ∅ ist die Behauptung per Definition richtig. Im Fall F 6= ∅ nehmen wir oBdA an: F1 = {x ∈ S | cT1 x = δ(S, c1 )} F2 = {x ∈ S | cT2 x = δ(S, c2 )} und setzen c = c1 + c2 . Offenbar gilt dann für jedes x ∈ S: cT x ≤ δ(S, c1 ) + δ(S, c1 ) und somit cT x = δ(S, c) ⇐⇒ cT1 x = δ(S, c1 ) und cT2 x = δ(S, c2 ), 18 1. LINEARE THEORIE d.h. F1 ∩ F2 ist eine Seitenfläche. ⋄ Ü BUNG 1.2. Zeigen Sie anhand eines Beispiels, dass die Vereinigung von zwei Seitenflächen einer Menge keine Seitenfläche des Menge zu sein braucht. Ein Punkt x0 ∈ S ist ein Extrempunkt, wenn F = {x0 } eine (ein-elementige) Seitenfläche von S ist. B EMERKUNG. Bei Polyedern spricht man auch gerne von Eckpunkten anstelle von Extrempunkten. B EISPIEL 1.2. Die trivialen Seitenflächen der Einheitskugel (mit Mittelpunkt 0) B1 (0) := {x ∈ Rn | kxk ≤ 1} sind B1 (0) und ∅. Extrempunkte sind die Punkte v ∈ B1 (0) mit kvk = 1 als Schnittpunkte von B1 (0) mit den Tangential(hyper)ebenen Hv = {x ∈ Rn | vT x = 1}. Es gibt keine weiteren Seitenflächen. Ü BUNG 1.3. Geben Sie ein Beispiel einer beschränkten konvexen Menge S 6= ∅ in R2 , die keine nichttrivialen Seitenflächen besitzt. 4. Dualität und Kegel Wir beweisen nun eine wichtige Dualitätsrelation. Dazu definieren wir zu jedem S ⊆ Rn die konvexen und abgeschlossenen Mengen S pol := {x ∈ Rn | sT x ≤ 1 ∀s ∈ S} S ⊥ := {x ∈ Rn | sT x ≤ 0 ∀s ∈ S}. S pol ist dies sog. Polare der Menge S. S ⊥ ist die zu S duale Menge. Offenbar hat man immer: 0 | S ⊥ und S ⊥ ⊆ S pol . B EISPIEL 1.3. Sei S = {s1 , . . . , sm } ⊆ Rn eine endliche Menge und A ∈ Rm×n die (m × n)-Matrix mit den m Zeilenvektoren s1 , . . . , sm . Dann haben wir S ⊥ = {x ∈ Rn | Ax ≤ 0}. S ⊥ ist also eine Verallgemeinerung des Kerns ker A der Matrix A. S ATZ 1.4 (Dualitätssatz). Sei S ⊆ Rn eine Menge mit 0 ∈ S. Dann gilt (S pol )pol = S. 4. DUALITÄT UND KEGEL 19 Beweis. (S pol )pol ist konvex und abgeschlossen und enthält S. Also gilt S ⊆ (S pol )pol (da S die kleinste konvexe abgeschlossene Menge ist, die S enthält). Nehmen wir an, die Enthaltenseinsrelation ist echt und ein y ∈ (S pol )pol \ S existiert. Wir wollen daraus einen Widerspruch ableiten. Wir wählen eine Hyperebene H(c, z), welche y von S trennt, mit z derart, dass cT y > z > cT x für alle x ∈ S. Insbesondere gilt z > 0 (wegen 0 ∈ S). OBdA dürfen wir z = 1 annehmen. (Sonst dividieren wir c und z durch z und erhalten ein c′ und z ′ = 1, die genausogut funktionieren.) Daraus folgt aber c ∈ S pol und deshalb cT y ≤ 1 (wegen y ∈ (S pol )pol ). Das ist ein Widerspruch zu cT y > z = 1. ⋄ Ü BUNG 1.4. Zeigen Sie an einem Beispiel, dass die Aussage von Satz 1.4 im Fall 0∈ / S falsch ist. 4.1. Kegel. Wir nennen eine Menge K ⊆ Rn einen Kegel, wenn gilt (K0) 0 ∈ K. (K1) λx ∈ K für alle x ∈ K and Skalare λ > 0. L EMMA 1.3. Sei K ⊆ Rn ein Kegel. Dann gilt K pol = K ⊥ = K 0 . Insbesondere ist K pol = K ⊥ ein konvexer abgeschlossener Kegel. Beweis. Wir beoachten zunächst, dass bei einem Kegel K immer gilt: δ(K, c) < ∞ =⇒ δ(K, c) = 0. Denn wegen 0 ∈ K haben wir auf jeden Fall δ(K, c) ≥ 0. Gäbe es ein x ∈ K mit cT x > 0, dann kämen wir zu einem Widerspruch: lim cT (λx) = (cT x) lim λ = +∞. λ→+∞ λ→+∞ Also finden wir K 0 = {c ∈ Rn | cT x ≤ δ(K, c)} = {c ∈ Rn | cT x ≤ 0 ∀x ∈ K}. Ebenso ergibt sich K pol = {c ∈ Rn | cT x ≤ 0 ∀x ∈ K}. ⋄ F OLGERUNG : • (S ⊥ )⊥ ist der kleinste konvexe und abgeschlossene Kegel, der S enthält. • Der Kegel K ist genau dann konvex und abgeschlossen, wenn K = (K ⊥ )⊥ . 20 1. LINEARE THEORIE 4.1.1. Rezessionskegel. Der Rezessionskegel einer Menge ∅ = 6 S ⊆ Rn ist die Menge RK(S) := {y ∈ Rn | S + λy ⊆ S ∀λ ≥ 0}. P ROPOSITION 1.2. Sei ∅ = 6 S ⊆ Rn die Lösungsmenge eines (endlichen oder unendlichen) linearen Ungleichungssystems Ax ≤ b ←→ ai1 x1 + ai2 x2 + . . . + ain xn ≤ bi (i ∈ I). Dann ist der Rezessionskegel von S gleich der Menge aller Lösungen des zugeordneten homogenen Systems: RK(S) = {y ∈ Rn | Ay ≤ 0} = A⊥ . Beweis. Offenbar gilt y + S ⊆ S für jedes y ∈ A⊥ . Umgekehrt bedeutet z ∈ / AT , dass z (mindestens) eine Ungleichung ai1 z1 + ai2 z2 + . . . + ain zn > 0 provoziert. Sei nun x ∈ S irgendeine zulässige Lösung von Ax ≤ b. Dann gilt ai1 (x1 + λz1 ) + ai2 (x2 + λz2 ) + . . . + ain (xn + λzn ) > bi , wenn λ → ∞. Also hat man z ∈ / RK(S). ⋄ S ATZ 1.5. Sei S ⊆ Rn konvex und abgeschlossen. Genau dann ist S unbeschränkt, wenn der Rezessionskegel von S nichttrivial ist. Beweis. OBdaA nehmen wir S 6= ∅ an. Existiert ein y ∈ RK(S) mit y 6= 0, dann ist S unbeschränkt, denn S enthält (per Definition) die Halbgeraden {x + λy | λ ≥ 0} für alle x ∈ S und y ∈ RK(S). Sei umgekehrt S unbeschränkt und (xk ) eine Folge von Elementen xk ∈ S mit kxi k → ∞. Wir schreiben die xk in der Form xk = λi dk mit λk ≥ 0 und kdk k = 1. und somit λk → ∞. Sei Ax ≤ b ←→ ai1 x1 + ai2 x2 + . . . + ain xn ≤ bi (i ∈ I) ein Ungleichungssystem mit S als Lösungsmenge. Gilt Adk ≤ 0 für mindestens ein k, dann ist ein nichttriviales Element im Rezessionskegel gefunden. Andernfalls betrachten wir die Parameter εk := sup ai1 dk1 + ai2 dk2 + . . . + ain dkn . i∈I und den Limes d := limk→∞ dk , dessen Existenz wir oBdA annehmen dürfen (warum?). Wegen λk → +∞ und Axk ≤ b muss gelten: lim εk = 0 k→∞ und folglich Ad ≤ 0. Also gilt d ∈ RK(S). Wegen kdk = 1 ist RK(S) also nichttrivial. ⋄ 4. DUALITÄT UND KEGEL 21 B EISPIEL 1.4 (Lineare Gleichungssysteme). Lösungsbereiche linearer Gleichungssysteme sind Spezialfälle von Lösungsbereichen linearer Ungleichungssysteme: ai1 x1 + . . . + ain xn ≤ ≤ bi ai1 x1 + . . . + ain xn = bi ←→ −ai1 x1 − . . . − ain xn ≤ −bi Auf diesen Spezialfall angewendet, besagt Satz 1.5, dass ein lineares Gleichungssystem Ax = b einen beschränkten Lösungsbereich hat, wenn gilt ker A = {y ∈ Rn | Ay = 0} = A⊥ = {0}. 4.2. Endlich erzeugte konvexe Mengen und Kegel. Seien a1 , . . . , am ∈ Rn beliebige Vektoren. Wir bezeichnen mit conv(a1 , . . . , am ) die Menge aller Vektoren z der Form m m X X z= yi ai mit y1 , . . . , ym ≥ 0 und yi = 1. i=1 i=1 Die Linearkombination z selber ist eine sog. Konvexkombination der Vektoren a1 , . . . , am . B EMERKUNG. In der Wahrscheinlichkeitsrechnung bezeichnet man einen Parametervektor y = (y1 , . . . , ym ) mit nichtnegativen Komponenten yi ≥ 0 und Komponentensumme 1 als eine Wahrscheinlichkeitsverteilung. In dieser Interpretation kann man die Konvexkombination m X y i ai z= i=1 als den Erwartungswert der Vektoren ai bzgl. der Wahrscheinlichkeitsverteilung y ansehen. Mit cone(a1 , . . . , am ) bezeichnen wir die Menge aller nichtnegativer Linearkombinationen (das sind die sog. konischen Linearkominationen) , d.h. aller Vektoren z der Form m X z= yi ai mit y1 , . . . , ym ≥ 0. i=1 Allgemeiner definiert für beliebiges S ⊆ Rn man die konvexe Hülle conv(S) als die die kleinste konvexe Menge, die S enthält: \ conv(S) := {K ⊆ Rn | K konvex und S ⊆ K}. Da jede konvexe Menge auch alle ihre Konvexkombinationen enthalten muss ist conv{a1 , . . . , am }, wie oben definiert, sicherlich die kleinste konvexe Menge, die a1 , . . . , am enthält. Die allgemeine Begriffsbildung ist also konsistent. A BER : Wenn S ⊆ Rn unendlich ist, ist die konvexe Menge conv(S) nicht notwendigerweise abgeschlossen (Beispiel?). Unsere bisherige Analyse zeigt: L EMMA 1.4. Sei A ∈ Rm×n die Matrix mit den m Zeilenvektoren aTi . Dann gilt 22 1. LINEARE THEORIE (i) cone(AT )⊥ = {x ∈ Rn | Ax ≤ 0} = P (A, 0) = A⊥ . (ii) P (A, 0) ist ein polyedrischer Kegel (d.h. ein Polyeder, das gleichzeitig ein Kegel ist). ⋄ Wir werden später (genauer: im nächsten Kapitel) beweisen, dass konvexe Mengen vom Typ conv(S) und cone(S) sogar Polyeder sind, wenn |S| < ∞ garantiert werden kann. Polytope. Wir nennen eine konvexe Menge P = conv(S) mit S ⊆ Rn endlich ein Polytop. Polytope werden sich als in der Optimierungstheorie besonders wichtige Polyeder erweisen. B EISPIEL 1.5 (Symmetrische und positiv semidefinite Matrizen). Wir betrachten eine quadratische Matrix X = [xij ] ∈ Rn×n als einen Vektor mit n2 Komponenten 2 xij und können so Rn×n mit Rn identifizieren. X ist genau dann symmetrisch, wenn das endliche lineare Gleichungssystem (2) xij − xji = 0 (1 ≤ i < j ≤ n) erfüllt wird. Die Menge der symmetrischen Matrizen bildet also einen konvexen und abgeschlossenen polyedrischen Kegel (tatsächlich sogar einen linearern Teilraum), nämlich genau die Lösungsmenge des (endlichen) linearen Systems (2). Eine symmetrische Matrix X = [xij ] ∈ Rn×n heisst positiv semidefinit, wenn für alle Parametervektoren a ∈ Rn gilt: n X n X T (3) a Xa = ai aj xij ≥ 0. i=1 j=1 Auch die Menge aller positiv semidefiniten Matrizen ist ein konvexer und abgeschlossener Kegel als die Lösungsmenge des aus (2) und (3) zusammengesetzten unendlichen linearen Systems – aber im allgemeinen nicht polyedrisch.