Lineare Theorie (vollständig)

Werbung
KAPITEL 1
Lineare Theorie
1. Lineare Funktionale, Polyeder, Konvexität
Eine skalarwertige Funktion f : Rn → R ist ein Funktional. Eine vektorwertige Funktion f : Rn → Rm besteht aus m Komponentenfunktionen
fi : Rn → R, die selber Funktionale sind:


f1 (x)
f(x) =  ...  .
fm (x)
Ein lineares Funktional auf Rn ist (bekanntlich) von der Form
f (x1 , . . . , xn ) = c1 x1 + . . . + cn xn = cT x
für einen geeigneten Koeffizientenvektor c = (c1 , . . . , cn ) und ist eine stetige Funktion. Also gilt für jedes z ∈ Rn :
• H(c, z) := {x ∈ Rn | cT x = z} = f −1 (z) ist eine abgeschlossene Menge.
• P (c, z) := {x ∈ Rn | cT x ≤ z} = f −1 (−∞, z] ist eine abgeschlossene Menge.
• f −1 (z, ∞) = {x ∈ Rn | cT x > z} ist eine offene Menge.
1.1. Halbräume und Polyeder. Im Fall c 6= 0 ist H(c, z) eine Hyperebene, P (c, z) ist ein (abgeschlossener) Halbraum. f −1 (z, ∞) ist ein
offener Halbraum.
B EMERKUNG. Vereinbarungsgemäss werden der gesamte Raum Rn = P (0, 0)
und die leere Menge ∅ = P (0, −1) als triviale Halbräume mitgezählt.
Geometrische Terminologie. Ein affiner Raum ist ein Durchschnitt von
endlich vielen Hyperebenen. Auch Rn = H(0, 0) wird als affiner Raum
betrachtet.
Ein Polyeder ist ein Durchschnitt von endlich vielen Halbräumen. So sind
z.B. Rn und ∅ insbesondere Polyeder.
11
12
1. LINEARE THEORIE
Algebraische Terminologie. Ein affiner Raum ist die Lösungsmenge eines
linearen Gleichungssystems
a11 x1 + a12 x2 + . . . + a1n xn = b1
a21 x1 + a22 x2 + . . . + a2n xn = b2
..
..
.
.
am1 x1 + am2 x2 + . . . + amn xn = bm
In Matrixnotation mit A = [aij ] ∈ Rm×n und b ∈ Rm notieren wir den
affinen Lösungsraum auch als
n
H(A, b) := {x ∈ R | Ax = b} =
m
\
H(aTi , bi ),
i=1
wobei die aTi die Zeilenvektoren der Matrix A sind.
Analog erhalten wir ein Polyeder als Lösungsmenge eines endlichen linearen Ungleichungssystems
a11 x1 + a12 x2 + . . . + a1n xn ≤ b1
a21 x1 + a22 x2 + . . . + a2n xn ≤ b2
..
..
.
.
am1 x1 + am2 x2 + . . . + amn xn ≤ bm
Wir notieren das Polyeder entsprechend auch als
n
P (A, b) := {x ∈ R | Ax ≤ b} =
m
\
P (aTi , bi ).
i=1
B EMERKUNG. Aus der linearen Algebra weiss man, dass ein unendliches lineares
Gleichungssystem in n Variablen xj immer zu einem endlichen linearen Teilsystem
äquivalent ist (d.h. denselben Lösungsraum hat).
Vorsicht: Bei unendlichen linearen Ungleichungssystemen ist dies nicht notwendigerweise der Fall !!!
1.2. Konvexität. Eine Menge S ⊂ Rn ist konvex, wenn gilt
x, y ∈ S
λx + (1 − λ)y ∈ S
für alle reellen Paramter 0 ≤ λ ≤ 1.
Man macht sich leicht klar (Beweis?):
• Jeder Halbraum des Rn ist konvex.
• Beliebige Durchschnitte konvexer Mengen ergeben eine konvexe
Menge.
Da ebensolches auch für abgeschlossen“ gilt, finden wir:
”
2. DIE STÜTZFUNKTION
13
• Beliebige Durchschnitte von Halbräumen ergeben konevexe abgeschlossene Mengen. Insbesondere ist jedes Polyeder konvex und
abgeschlossen.
Zur Illustration betrachen wir ein (möglicherweise unendliches) lineares
Ungleichungssystem:
a11 x1 + a12 x2 + . . . + a1n xn ≤ b1
a21 x1 + a22 x2 + . . . + a2n xn ≤ b2
..
..
..
..
..
..
..
..
.
.
.
.
.
.
.
.
am1 x1 + am2 x2 + . . . + amn xn ≤ bm
..
..
..
..
..
..
..
..
.
.
.
.
.
.
.
.
Die Lösungsmenge des Systems besteht aus all den Parametervektoren x ∈
Rn , die jede einzelne dieser Ungleichungen erfüllen, also aus denjenigen
x, die im Durchschnitt sämtlicher entsprechender Halbräume liegen. Wir
sehen:
• Die Lösungsmenge eine beliebigen linearen Ungleichungssystems
mit n Variablen bildet eine konvexe abgeschlossene Teilmenge des
euklidischen Raums Rn .
B EMERKUNG. Die Lösungsmengen beliebiger linearer Ungleichungssysteme sind
nicht notwendigerweise Polyeder. Hier liegt der entscheidende Unterschied zur linearen Algebra:
Zu jedem n-dimensionalen linearen Gleichungssystem gibt es ein endliches Teilsystem mit demselben Lösungsraum. Bei linearen Ungleichungssystemen ist das aber
nicht immer der Fall.
2. Die Stützfunktion
Sei S ⊆ Rn eine gegebene Menge. Wir untersuchen nun Optimierungsprobleme
mit linearer Zielfunktion. Das sind Probleme vom Typ
(1)
max cT x (mit c ∈ Rn ).
x∈S
Wir interessieren uns für die Optimalwerte und betrachten dazu die sog. Stützfunktion δ(S, ·) : Rn → R := R ∪ {−∞, +∞} von S, wobei
(
−∞
wenn S = ∅
δ(S, c) :=
sup cT x sonst,
x∈S
14
1. LINEARE THEORIE
B EISPIEL 1.1 (Minkowskisummen). Minkowskisummation von Mengen reflektiert
sich einfach in der Summation der Stützfunktionen:
δ(S + T, c) = sup{cT (s + t) | s ∈ S, t ∈ T }
= sup cT s + sup cT t
s∈S
t∈T
= δ(S, c) + δ(T, c).
Allgemein setzen wir weiter
S 0 := {c ∈ Rn | δ(S, c) < ∞}
=
{c ∈ Rn | sT c ≤ δ(S, c) < ∞ ∀s ∈ S}
und
S := {x ∈ Rn | cT x ≤ δ(S, c) ∀c ∈ Rn }
=
{x ∈ Rn | cT x ≤ δ(S, c) ∀c ∈ S 0 }.
Aus der Definition ersieht man sofort:
• S 0 und S sind Lösungsmengen linearer Ungleichungssysteme und folglich konvex und abgeschlossen.
Ausserdem gilt für alle Teilmengen S, T ⊆ Rn :
S⊆T
=⇒
S ⊆ S ⊆ T und T 0 ⊆ S 0 .
Mengen dieses Typs spielen eine zentrale Rolle in der Optimierungstheorie. Insbesondere für die (später noch zu diskutierende) diskrete Optimierung ist die folgende
einfache Beobachtung von enormer Wichtigkeit.
L EMMA 1.1. δ(S, c) = δ(S, c) für alle c ∈ Rn .
Beweis. Wegen S ⊆ S gilt sicher δ(S, c) ≤ δ(S, c). Andererseits gilt (nach der
Definition!)
cT x ≤ δ(S, c) für alle x ∈ S
und deshalb δ(S, c) ≤ δ(S, c).
⋄
2.1. Der Fundamentalsatz.
S ATZ 1.1 ( Fundamentalsatz“). Sei S ⊆ Rn nichtleer und c ∈ Rn . Dann ist das
”
Optimierungsproblem
max cT x
x∈S
entweder nach oben unbeschränkt oder es existiert ein x∗ ∈ S mit der Eigenschaft
cT x∗ = sup cT x = δ(S, c).
x∈S
2. DIE STÜTZFUNKTION
15
Beweis. Sei Ω0 = {(x0 , x) ∈ Rn+1 | x ∈ S, x0 = cT x} der Graph der Funktion f (x) = cT x. Ω0 ist eine abgeschlossene Menge (Beweis?). Wir nehmen das
Optimierungsproblem als beschränkt an und setzen
δ∗ := sup x0 = δ(S, c) < ∞.
x∈Ω0
Betrachten wir nun die Projektion von Ω0 auf R:
Π0 := {x0 | (x0 , x1 , . . . , xn ) ∈ Ω0 } ⊆ R.
Π0 ist als Projektion des Graphen der linearen Funktion f (x) abgeschlossen (Beweis?). Ausserdem ist Π0 nicht leer, da es (nach Annahme) einen Parametervektor
x̂ ∈ Ω0 gibt. Also ist
Ω̂0 = Π0 ∩ [x̂0 , δ∗ ]
eine kompakte Menge und enthält somit das Element
x∗ = sup x0 = δ∗
(d.h. Ω̂0 = [x̂0 , δ∗ ]).
x0 ∈Ω̂0
Folglich existiert ein x∗ ∈ S mit cT x∗ = δ∗ .
⋄
2.2. Der Trennungssatz. Sei S ⊆ Rn beliebig und y ∈
/ S. Dann gibt es ein
c ∈ Rn mit der Eigenschaft
(i) cT y > δ(S, c).
(ii) cT x ≤ δ(S, c) für alle x ∈ S (d.h. S ⊆ P (c, δ(S, c))).
In diesem Sinn trennt die Hyperebene
H(c, δ(S, c)) = {x ∈ Rn | cT x = δ(S, c)}
den Punkt y von der Menge S. Nach dem Fundamentalsatz existiert ausserdem ein
x∗ ∈ S mit cT x∗ = δ(S, c). Wegen seiner grundlegenden Bedeutung formulieren
wir diesen Zusammenhang als Satz.
S ATZ 1.2 ( Trennungssatz“). Sei S 6= ∅ und y ∈ Rn \ S ein beliebiger Punkt.
”
Dann existiert ein Vektor c ∈ Rn und der Punkt x∗ ∈ S derart, dass
(i) cT y > cT x∗ , d.h. y ∈
/ P (c, cT x∗ ).
T
T
∗
(ii) c x ≤ c x für alle x ∈ S, d.h. S ⊆ P (c, cT x∗ ).
⋄
S ATZ 1.3. S ist die kleinste konvexe und abgeschlossene Menge, die S enthält.
Beweis. Sei S̃ die kleinste konvexe abgeschlossene Menge, die S enthält. Dann
gilt S̃ ⊆ S (denn Durchschnitte von konvexen und abgeschlossenen Mengen sind
immer konvex und abgeschlossen). Ausserdem ist sicherlich ist die Aussage des
Satzes im Fall S = ∅ richtig (denn es gilt ja: ˜
∅ = ∅ = ∅).
16
1. LINEARE THEORIE
Nehmen wir also S̃ 6= ∅ an und unterstellen, dass ein y ∈ S \ S̃ existiert. Wir
wollen diese Unterstellung zu einem Widerspruch führen. Dazu wählen wir ein
R > 0 so gross, dass
S̃R = {x ∈ S̃ | ky − xk ≤ R} =
6 ∅.
Die Funktion f (x) = kx − yk ist stetig und S̃R kompakt (warum?). Also existiert
ein x∗ ∈ S̃, das f (x) minimiert und wir haben
0 < ky − x∗ k2 ≤ ky − xk2
Mit c := y −
x∗
für alle x ∈ S.
ergibt sich daraus
0 < (y − x∗ )T (y − x∗ ) = cT (y − x∗ ) und somit
cT x∗ < cT y.
Wenn wir nun δ(S, c) = cT x∗ nachweisen können, haben wir (wegen y ∈ S und
somit cT y ≤ δ(S, c)) einen Widerspruch konstruiert.
Zu diesem Nachweis betrachten wir ein beliebiges x ∈ S \ {x∗ }, schreiben es in
der Form
x = x + λd mit kdk = 1 und λ > 0,
erschliessen
kck2 ≤ ky − xk2 = (c − λd)T (c − λd) = kck2 − 2λcT d + λ2
und folgern (nach Division durch 2λ)
λ/2 − cT d ≥ 0 und deshalb (mit λ → 0)
cT d ≤ 0.
Das bedeutet aber cT x = cT x∗ + λcT d ≤ cT x∗ . Da x beliebig war, finden wir
cT x ≤ cT x∗
für alle x ∈ S.
⋄
Aus Satz 1.3 ergibt sich insbesondere: Die konvexen abgeschlossenen Mengen des
Rn sind genau die Lösungsmengen von (endlichen oder unendlichen) linearen Ungleichungssystemen mit n Variablen.
3. Stützpunkte und Seitenflächen
Wir nennen eine Hyperebene H(c, z) eine Stützhyperebene zur Menge S ⊆ Rn ,
wenn gilt:
(1) S ⊆ P (c, z) (d.h. S liegt ganz im entsprechenden Halbraum P (c, z).
(2) S ∩ H(c, z) 6= ∅.
Die Punkte x∗ ∈ S ∩ H(c, z) heissen dann Stützpunkte und sind Optimallösungen
des Problems
max cT x.
x∈S
Insbesondere gilt
cT x∗
= z = δ(S, c).
Generell nennen wir eine Teilmenge F ⊆ S eine Seitenfläche von S, wenn es eine
Hyperebene H = (c, z) gibt mit den Eigenschaften
F =S∩H
und S ⊆ P (c, z).
3. STÜTZPUNKTE UND SEITENFLÄCHEN
17
Damit schliessen wir ∅ und S als triviale Seitenflächen von S mit ein. Aus der Sicht
der Optimierung ist wichtig:
• Seitenflächen von S sind genau die Teilmengen F ⊆ S, die als Lösungsmengen von linearen Optimierungsproblemen über S auftreten können.
(In der Sichtweise von Satz 1.2 ist also z.B. H(c, cT x∗ ) eine Stützhyperebene und
x∗ ein Stützpunkt der Menge S.)
Ein Punkt x∗ ∈ S heisst Randpunkt der Menge S, wenn es eine Folge von Punkten
yk ∈ Rn \ S gibt mit der Eigenschaft yk → x∗ .
P ROPOSITION 1.1. Sei S ⊆ Rn eine Menge mit der Eigenschaft S = S und x∗ ein
Randpunkt von S. Dann ist x∗ ein Stützpunkt von S.
Beweis. Sei yk → x∗ mit y ∈
/ S. Dann existieren Vektoren ck und Skalare δk ∈ R
derart, dass für alle x ∈ S und k gilt:
cTk x ≤ δk < cTk yk .
OBdA dürfen wir kck k = 1 annehmen. Die ck liegen dann in der kompakten
Menge B1 (0) = {x ∈ Rn | kxk ≤ 1} und haben somit einen Häufungspunkt c∗ .
Also dürfen wir auch
ck → c∗
und somit
annehmen. Also ist
punkt.
(c∗ )T x = lim cTk x ≤ lim cTk yk = (c∗ )T x∗
k→∞
H(c∗ , (c∗ )T x∗ )
k→∞
eine Stützhyperebene und somit x∗ ein Stütz⋄
Die Randpunkte einer konvexen und abgeschlossenen Menge sind also mit ihren
Stützpunkten identisch.
Ü BUNG 1.1. Zeigen Sie anhand eines Beispiels, dass die Aussage der Proposition 1.1 falsch sein kann, wenn die Eigenschaft S = S nicht vorausgesetzt wird.
L EMMA 1.2. Seien F1 und F2 Seitenflächen von S. Dann ist auch ihr Durchschnitt
F = F1 ∩ F2 eine Seitenfläche von S.
Beweis. Im Fall F = ∅ ist die Behauptung per Definition richtig. Im Fall F 6= ∅
nehmen wir oBdA an:
F1 = {x ∈ S | cT1 x = δ(S, c1 )}
F2 = {x ∈ S | cT2 x = δ(S, c2 )}
und setzen c = c1 + c2 . Offenbar gilt dann für jedes x ∈ S:
cT x ≤ δ(S, c1 ) + δ(S, c1 )
und somit
cT x = δ(S, c)
⇐⇒
cT1 x = δ(S, c1 ) und cT2 x = δ(S, c2 ),
18
1. LINEARE THEORIE
d.h. F1 ∩ F2 ist eine Seitenfläche.
⋄
Ü BUNG 1.2. Zeigen Sie anhand eines Beispiels, dass die Vereinigung von zwei
Seitenflächen einer Menge keine Seitenfläche des Menge zu sein braucht.
Ein Punkt x0 ∈ S ist ein Extrempunkt, wenn F = {x0 } eine (ein-elementige)
Seitenfläche von S ist.
B EMERKUNG. Bei Polyedern spricht man auch gerne von Eckpunkten anstelle von
Extrempunkten.
B EISPIEL 1.2. Die trivialen Seitenflächen der Einheitskugel (mit Mittelpunkt 0)
B1 (0) := {x ∈ Rn | kxk ≤ 1}
sind B1 (0) und ∅. Extrempunkte sind die Punkte v ∈ B1 (0) mit kvk = 1 als
Schnittpunkte von B1 (0) mit den Tangential(hyper)ebenen
Hv = {x ∈ Rn | vT x = 1}.
Es gibt keine weiteren Seitenflächen.
Ü BUNG 1.3. Geben Sie ein Beispiel einer beschränkten konvexen Menge S 6= ∅ in
R2 , die keine nichttrivialen Seitenflächen besitzt.
4. Dualität und Kegel
Wir beweisen nun eine wichtige Dualitätsrelation. Dazu definieren wir zu jedem
S ⊆ Rn die konvexen und abgeschlossenen Mengen
S pol := {x ∈ Rn | sT x ≤ 1 ∀s ∈ S}
S ⊥ := {x ∈ Rn | sT x ≤ 0 ∀s ∈ S}.
S pol ist dies sog. Polare der Menge S. S ⊥ ist die zu S duale Menge. Offenbar hat
man immer:
0 | S ⊥ und S ⊥ ⊆ S pol .
B EISPIEL 1.3. Sei S = {s1 , . . . , sm } ⊆ Rn eine endliche Menge und A ∈ Rm×n
die (m × n)-Matrix mit den m Zeilenvektoren s1 , . . . , sm . Dann haben wir
S ⊥ = {x ∈ Rn | Ax ≤ 0}.
S ⊥ ist also eine Verallgemeinerung des Kerns ker A der Matrix A.
S ATZ 1.4 (Dualitätssatz). Sei S ⊆ Rn eine Menge mit 0 ∈ S. Dann gilt
(S pol )pol = S.
4. DUALITÄT UND KEGEL
19
Beweis. (S pol )pol ist konvex und abgeschlossen und enthält S. Also gilt S ⊆
(S pol )pol (da S die kleinste konvexe abgeschlossene Menge ist, die S enthält). Nehmen wir an, die Enthaltenseinsrelation ist echt und ein y ∈ (S pol )pol \ S existiert.
Wir wollen daraus einen Widerspruch ableiten.
Wir wählen eine Hyperebene H(c, z), welche y von S trennt, mit z derart, dass
cT y > z > cT x für alle x ∈ S.
Insbesondere gilt z > 0 (wegen 0 ∈ S). OBdA dürfen wir z = 1 annehmen. (Sonst
dividieren wir c und z durch z und erhalten ein c′ und z ′ = 1, die genausogut
funktionieren.)
Daraus folgt aber c ∈ S pol und deshalb cT y ≤ 1 (wegen y ∈ (S pol )pol ). Das ist
ein Widerspruch zu cT y > z = 1.
⋄
Ü BUNG 1.4. Zeigen Sie an einem Beispiel, dass die Aussage von Satz 1.4 im Fall
0∈
/ S falsch ist.
4.1. Kegel. Wir nennen eine Menge K ⊆ Rn einen Kegel, wenn gilt
(K0) 0 ∈ K.
(K1) λx ∈ K für alle x ∈ K and Skalare λ > 0.
L EMMA 1.3. Sei K ⊆ Rn ein Kegel. Dann gilt
K pol = K ⊥ = K 0 .
Insbesondere ist K pol = K ⊥ ein konvexer abgeschlossener Kegel.
Beweis. Wir beoachten zunächst, dass bei einem Kegel K immer gilt:
δ(K, c) < ∞
=⇒
δ(K, c) = 0.
Denn wegen 0 ∈ K haben wir auf jeden Fall δ(K, c) ≥ 0. Gäbe es ein x ∈ K mit
cT x > 0, dann kämen wir zu einem Widerspruch:
lim cT (λx) = (cT x) lim λ = +∞.
λ→+∞
λ→+∞
Also finden wir
K 0 = {c ∈ Rn | cT x ≤ δ(K, c)} = {c ∈ Rn | cT x ≤ 0 ∀x ∈ K}.
Ebenso ergibt sich K pol = {c ∈ Rn | cT x ≤ 0 ∀x ∈ K}.
⋄
F OLGERUNG :
• (S ⊥ )⊥ ist der kleinste konvexe und abgeschlossene Kegel, der S enthält.
• Der Kegel K ist genau dann konvex und abgeschlossen, wenn
K = (K ⊥ )⊥ .
20
1. LINEARE THEORIE
4.1.1. Rezessionskegel. Der Rezessionskegel einer Menge ∅ =
6 S ⊆ Rn ist die
Menge
RK(S) := {y ∈ Rn | S + λy ⊆ S ∀λ ≥ 0}.
P ROPOSITION 1.2. Sei ∅ =
6 S ⊆ Rn die Lösungsmenge eines (endlichen oder
unendlichen) linearen Ungleichungssystems
Ax ≤ b
←→
ai1 x1 + ai2 x2 + . . . + ain xn ≤ bi
(i ∈ I).
Dann ist der Rezessionskegel von S gleich der Menge aller Lösungen des zugeordneten homogenen Systems:
RK(S) = {y ∈ Rn | Ay ≤ 0} = A⊥ .
Beweis. Offenbar gilt y + S ⊆ S für jedes y ∈ A⊥ . Umgekehrt bedeutet z ∈
/ AT ,
dass z (mindestens) eine Ungleichung
ai1 z1 + ai2 z2 + . . . + ain zn > 0
provoziert. Sei nun x ∈ S irgendeine zulässige Lösung von Ax ≤ b. Dann gilt
ai1 (x1 + λz1 ) + ai2 (x2 + λz2 ) + . . . + ain (xn + λzn ) > bi ,
wenn λ → ∞. Also hat man z ∈
/ RK(S).
⋄
S ATZ 1.5. Sei S ⊆ Rn konvex und abgeschlossen. Genau dann ist S unbeschränkt,
wenn der Rezessionskegel von S nichttrivial ist.
Beweis. OBdaA nehmen wir S 6= ∅ an. Existiert ein y ∈ RK(S) mit y 6= 0, dann
ist S unbeschränkt, denn S enthält (per Definition) die Halbgeraden
{x + λy | λ ≥ 0}
für alle x ∈ S und y ∈ RK(S).
Sei umgekehrt S unbeschränkt und (xk ) eine Folge von Elementen xk ∈ S mit
kxi k → ∞. Wir schreiben die xk in der Form
xk = λi dk
mit λk ≥ 0 und
kdk k = 1.
und somit λk → ∞. Sei
Ax ≤ b
←→
ai1 x1 + ai2 x2 + . . . + ain xn ≤ bi
(i ∈ I)
ein Ungleichungssystem mit S als Lösungsmenge. Gilt Adk ≤ 0 für mindestens
ein k, dann ist ein nichttriviales Element im Rezessionskegel gefunden. Andernfalls betrachten wir die Parameter
εk := sup ai1 dk1 + ai2 dk2 + . . . + ain dkn .
i∈I
und den Limes d := limk→∞ dk , dessen Existenz wir oBdA annehmen dürfen
(warum?). Wegen λk → +∞ und Axk ≤ b muss gelten:
lim εk = 0
k→∞
und folglich
Ad ≤ 0.
Also gilt d ∈ RK(S). Wegen kdk = 1 ist RK(S) also nichttrivial.
⋄
4. DUALITÄT UND KEGEL
21
B EISPIEL 1.4 (Lineare Gleichungssysteme). Lösungsbereiche linearer Gleichungssysteme sind Spezialfälle von Lösungsbereichen linearer Ungleichungssysteme:
ai1 x1 + . . . + ain xn ≤ ≤ bi
ai1 x1 + . . . + ain xn = bi ←→
−ai1 x1 − . . . − ain xn ≤ −bi
Auf diesen Spezialfall angewendet, besagt Satz 1.5, dass ein lineares Gleichungssystem Ax = b einen beschränkten Lösungsbereich hat, wenn gilt
ker A = {y ∈ Rn | Ay = 0} = A⊥ = {0}.
4.2. Endlich erzeugte konvexe Mengen und Kegel. Seien a1 , . . . , am ∈ Rn
beliebige Vektoren. Wir bezeichnen mit conv(a1 , . . . , am ) die Menge aller Vektoren z der Form
m
m
X
X
z=
yi ai mit y1 , . . . , ym ≥ 0 und
yi = 1.
i=1
i=1
Die Linearkombination z selber ist eine sog. Konvexkombination der Vektoren
a1 , . . . , am .
B EMERKUNG. In der Wahrscheinlichkeitsrechnung bezeichnet man einen Parametervektor y = (y1 , . . . , ym ) mit nichtnegativen Komponenten yi ≥ 0 und Komponentensumme 1 als eine Wahrscheinlichkeitsverteilung. In dieser Interpretation
kann man die Konvexkombination
m
X
y i ai
z=
i=1
als den Erwartungswert der Vektoren ai bzgl. der Wahrscheinlichkeitsverteilung y
ansehen.
Mit cone(a1 , . . . , am ) bezeichnen wir die Menge aller nichtnegativer Linearkombinationen (das sind die sog. konischen Linearkominationen) , d.h. aller Vektoren
z der Form
m
X
z=
yi ai mit y1 , . . . , ym ≥ 0.
i=1
Allgemeiner definiert für beliebiges S ⊆ Rn man die konvexe Hülle conv(S) als
die die kleinste konvexe Menge, die S enthält:
\
conv(S) := {K ⊆ Rn | K konvex und S ⊆ K}.
Da jede konvexe Menge auch alle ihre Konvexkombinationen enthalten muss ist
conv{a1 , . . . , am }, wie oben definiert, sicherlich die kleinste konvexe Menge, die
a1 , . . . , am enthält. Die allgemeine Begriffsbildung ist also konsistent.
A BER : Wenn S ⊆ Rn unendlich ist, ist die konvexe Menge conv(S) nicht notwendigerweise abgeschlossen (Beispiel?).
Unsere bisherige Analyse zeigt:
L EMMA 1.4. Sei A ∈ Rm×n die Matrix mit den m Zeilenvektoren aTi . Dann gilt
22
1. LINEARE THEORIE
(i) cone(AT )⊥ = {x ∈ Rn | Ax ≤ 0} = P (A, 0) = A⊥ .
(ii) P (A, 0) ist ein polyedrischer Kegel (d.h. ein Polyeder, das gleichzeitig
ein Kegel ist).
⋄
Wir werden später (genauer: im nächsten Kapitel) beweisen, dass konvexe Mengen
vom Typ conv(S) und cone(S) sogar Polyeder sind, wenn |S| < ∞ garantiert
werden kann.
Polytope. Wir nennen eine konvexe Menge
P = conv(S) mit S ⊆ Rn endlich
ein Polytop. Polytope werden sich als in der Optimierungstheorie besonders wichtige Polyeder erweisen.
B EISPIEL 1.5 (Symmetrische und positiv semidefinite Matrizen). Wir betrachten
eine quadratische Matrix X = [xij ] ∈ Rn×n als einen Vektor mit n2 Komponenten
2
xij und können so Rn×n mit Rn identifizieren. X ist genau dann symmetrisch,
wenn das endliche lineare Gleichungssystem
(2)
xij − xji = 0
(1 ≤ i < j ≤ n)
erfüllt wird. Die Menge der symmetrischen Matrizen bildet also einen konvexen und
abgeschlossenen polyedrischen Kegel (tatsächlich sogar einen linearern Teilraum),
nämlich genau die Lösungsmenge des (endlichen) linearen Systems (2).
Eine symmetrische Matrix X = [xij ] ∈ Rn×n heisst positiv semidefinit, wenn für
alle Parametervektoren a ∈ Rn gilt:
n X
n
X
T
(3)
a Xa =
ai aj xij ≥ 0.
i=1 j=1
Auch die Menge aller positiv semidefiniten Matrizen ist ein konvexer und abgeschlossener Kegel als die Lösungsmenge des aus (2) und (3) zusammengesetzten
unendlichen linearen Systems – aber im allgemeinen nicht polyedrisch.
Herunterladen