Organisatorisches • Dozent: Prof. Dr. Rainer Schrader Operations Research • Weyertal 80 • Tel.: 470-6030 • email: [email protected] Rainer Schrader • Übungen: Dipl.-Inf. Anna Schulze Zentrum für Angewandte Informatik Köln • Weyertal 80 • el.: 470-6050 • email: [email protected] 20. April 2007 • url: www.zaik.uni-koeln.de/AFS 1 / 112 Organisatorisches 2 / 112 Organisatorisches • Ort: Hörsaal Mathematisches Institut • Zeit: Mo, Do 8–10 • Übungsorganisation: −→ Anna Schulze • Teilnehmerkreis: • Wirtschaftsmathematik • Mathematik • Anmeldung zu den Übungen über Homepage ab Mo, 2. April 2007 • Scheinerwerb über Übungsteilnahme und Klausur • Voraussetzungen für die Teilnahme an der Abschlussprüfung: • aktive Teilnahme an den Übungen • 50% der Punkte aus den Übungen Voraussetzungen: • Grundkenntnisse in linearer Algebra und Analysis • Grundkenntnisse in Informatik hilfreich, aber nicht notwendig • Vorlesung weitgehend aus sich selbst heraus verständlich • Folien hängen im Netz (jeweils am Ende der Woche) 3 / 112 4 / 112 Organisatorisches Literatur: • U. Faigle, W. Kern und G. Still: Algorithmic Principles of Mathematical Programming. Kluwer Academic Publishers 2002. • David G. Luenberger: Linear and Nonlinear Programming, Addison-Wesley 1984 • A. Schrijver: Theory of Linear and Integer Programming, Wiley 5 / 112 6 / 112 7 / 112 8 / 112 9 / 112 10 / 112 Operations Research Gliederung der Inhalte 1. Theorie linearer Ungleichungen Theorie linearer Ungleichungssysteme 2. Polyeder und Polytope 3. Konvexe Funktionen 4. die Simplexmethode 5. ganzzahlige lineare Programme 6. Flüsse in Netzwerken 11 / 112 12 / 112 Theorie linearer Ungleichungen Grundbegriffe Gliederung • Grundbegriffe • der Algortihmus von Fourier-Motzkin • wir betrachten Ungleichungssysteme der Form aTi x ≤ bi (i ∈ I) • Alternativsätze • Seitenflächen • konvexe Kegel • zwei Anwendungen • dabei ist I eine (endliche oder unendliche) Indexmenge • die Parameter aiT = [ai 1, , . . . , ain ] ∈ Rn und bi ∈ R sind als gegeben vorausgesetzte Vektoren und reelle Zahlen 13 / 112 14 / 112 Grundbegriffe Grundbegriffe Wir betrachten das Problem: • bestimme ein x ∈ Rn , das alle Ungleichungen n X aij xj ≤ bi (i ∈ I) j =1 erfüllt, • für die Anwendungen ist es oft notwendig, sich auf den rationalen Zahlkörper Q zu beschränken. • oder stelle fest, dass kein solches x existiert. 15 / 112 16 / 112 Grundbegriffe Grundbegriffe • die Lösungsmenge des Ungleichungssystem ist P (A, b) = {x ∈ Rn | Ax ≤ b}. • mit A = [aij ] bezeichnen wir die (möglicherweise unendliche) Matrix mit den n-dimensionalen Zeilenvektoren aiT • d.h. A ist die Abbildung Beispiel A : I × {1, . . . , n} → R mit A(i , j ) = aij • ein lineares Gleichungssystem Ax = b mit A ∈ Rm×n und b ∈ Rm ist äquivalent zu dem Ungleichungssystem • entsprechend ist b = [bi ] ∈ RI der Koeffizientenvektor der rechten Ax −Ax Seite des Ungleichungssystems • wir schreiben das Ungleichungssystem dann kurz als Ax ≤ b ←→ n X ≤ ≤ b −b • die Lösungsmenge A = {x ∈ Rn | Ax = b} ist ein affiner Teilraum von Rn aij xj ≤ bi (i ∈ I). j =1 17 / 112 18 / 112 Grundbegriffe Grundbegriffe • wir betrachten zunächst einen Spezialfall: Beispiel • A besteht nur aus einem einzigen Zeilenvektor aT • wir fassen eine Matrix X = [xij ] ∈ Rn×n als n 2 -dimensionalen Koordinatenvektor auf • Ist a 6= 0, so ist die Punktmenge • sei X = [xij ] eine Lösung des unendlichen Ungleichungssystems n X n X ai aj xij ≥ 0 P (a, b) = {x ∈ Rn | aT x ≤ b} ein (n-dimensionaler) Halbraum für alle [a1 , . . . , an ] ∈ Rn • im Fall a = 0 erhalten wir Rn = P (0, 0) als „trivialen“ Halbraum i =1 j =1 xij − xji = 0 i , j = 1, . . . , n • ebenso ist die leere Menge ∅ = P (0, −1) ein trivialer Halbraum • damit ist die Lösungsmenge eines linearen Ungleichungssystems immer Durchschnitt von Halbräumen • dann ist X = [xij ] eine positiv semidefinite Matrix 19 / 112 20 / 112 Grundbegriffe Grundbegriffe • sei S ⊆ Rn Beispiel (Hyperebenen) • S heißt konvex, falls • sei H (a, b) = {x ∈ Rn | aT x = b} eine Hyperebene • für alle x, y ∈ S und alle reellen 0 ≤ λ ≤ 1 gilt: • H ist Durchschnitt ihrer zugeordneten Halbräume λx + (1 − λ)y ∈ S H (a, b) = P (a, b) ∩ P (−a, −b) • bzw. Lösungsmenge des linearen Ungleichungssystems a1 x1 + . . . + an xn −a1 x1 − . . . − an xn ≤ ≤ b −b ff ←→ x a1 x1 + . . . + an xn = b. x y y konvex nicht konvex 21 / 112 22 / 112 Grundbegriffe Grundbegriffe • ist P (a, b) ein Halbraum, so ist P (a, b) konvex Lemma 1 (Trennungslemma) • außerdem ist P (a, b) (im Sinn der Analysis) abgeschlossen • sei S ⊆ Rn nichtleer, konvex und abgeschlossen • offensichtlich bleibt Abgeschlossenheit und Konvexität unter • dann existiert für jedes y ∈ Rn r S ein Vektor c ∈ Rn und ein Durchschnittsbildung erhalten x0 ∈ S derart, dass • somit ist die Lösungsmenge eines linearen Ungleichungssystems cT y > cT x0 ≥ cT x für alle x ∈ S. konvex und abgeschlossen • wir wollen zeigen: • die konvexen abgeschlossenen Mengen im Rn sind genau die Lösungsmengen von linearen Ungleichungssystemen y • dazu folgendes grundlegendes Lemma: y x S 23 / 112 S S c 24 / 112 0 Grundbegriffe Grundbegriffe Beweis des Trennungslemmas: (i) das Minimierungsproblem y x min ky − xk x∈S 0 besitzt eine optimale Lösung x0 ∈ S: S c • wir können dazu oBdA annehmen, dass S kompakt ist • andernfalls beschränken wir uns auf die kompakte Menge SR = {x ∈ S | ky − xk ≤ R}, (wobei R > 0 so groß gewählt ist, dass SR 6= ∅ gilt) • mit z = cT x0 hat man S ⊆ P (c, z ) und y ∈ / P (c, z ) • die Funktion x 7→ kx − yk ist stetig auf Rn • d.h. die Hyperebene H = {x ∈ Rn | cT x = z } trennt den Punkt y∈R n von der Menge S ⊆ R n • eine stetige Funktion nimmt auf einem Kompaktum ihre Extremwerte an • H heißt Stützhyperebene von S im Punkt x0 . • damit existiert eine Minimallösung x0 ∈ S 25 / 112 26 / 112 Grundbegriffe Grundbegriffe (iii) cT x0 ≥ cT x für alle x ∈ S: • für x0 ∈ S gilt ky − x0 k = min ky − xk • sei x ∈ S ein beliebiger Punkt in S x∈S • da y ∈ / S, folgt x0 6= y • für 0 < λ < 1 setze z(λ) = x0 + λ(x − x0 ) • sei c = y − x0 • da S konvex, gilt z(λ) ∈ S • wir zeigen, dass c die gewünschten Eigenschaften hat: • nach Wahl von x0 folgt (ii) cT x0 < cT y: kck2 = ky − x0 k2 ≤ ky − z(λ)k2 = kc − λ(x − x0 )k2 . • es gilt • ausmultiplizieren ergibt cT y − cT x0 = cT (y − x0 ) −2λcT (x − x0 ) + λ2 kx − x0 k2 ≥ 0 bzw. − 2cT (x − x0 ) + λkx − x0 k2 ≥ 0 = ky − x0 k2 >0 • und liefert cT x − cT x0 = cT (x − x0 ) ≤ 27 / 112 1 lim λkx − x0 k2 = 0. 2 λ→0 28 / 112 Grundbegriffe Grundbegriffe Bemerkung 1 Satz 2 • die Voraussetzung der Abgeschlossenheit von S im Trennungslemma Eine Teilmenge S ⊆ Rn ist genau dann konvex und abgeschlossen, wenn S Lösungsmenge eines linearen Ungleichungssystems ist. ist wichtig: • betrachte die konvexe Menge Beweis: S = {(x1 , x2 ) | x12 + x22 < 1} ⊆ R2 • die Lösungsmenge eines linearen Ungleichungssystems ist konvex und abgeschlossen • das Trennungslemma gilt aber nicht. • zum Beweis der anderen Richtung: • der Fall S = Rn oder S = ∅ ist trivial Bemerkung 2 • in allen anderen Fällen erhalten wir nach dem Trennungslemma • Für den Vektor c im Trennungslemma können wir oBdA eine normierte Länge kck = 1 fordern. S= \ Py , y∈S / • wobei die Py Halbräume mit S ⊆ Py und y ∈ / Py sind. 29 / 112 30 / 112 Grundbegriffe Grundbegriffe • sei S ⊆ Rn Beispiel • wir können S auf zweierlei Arten eine konvexe Menge zuordnen: • einmal betrachten wir die Menge aller Konvexkombinationen: S k k X X conv S = { λi si | si ∈ S, λi ≥ 0, λi = 1}. i =1 conv S i =1 • d.h. Linearkombinationen mit nichtnegativen Koeffizienten, die sich zu 1 aufsummieren • conv S ist die konvexe Hülle von S Bemerkung conv S ist die kleinste konvexe Menge, die S enthält. 31 / 112 32 / 112 Grundbegriffe Grundbegriffe Offensichtlich gilt: • dual dazu definiert man: • S ⊆ conv S • S ⊆ T =⇒ conv S ⊆ conv T • conv S = conv(conv S) S pol = {x ∈ Rn | sT x ≤ 1 für alle s ∈ S}. (1) • S pol ist die Polare zu S • S pol ist Lösungsmenge eines linearen Ungleichungssystems und Lemma 3 deshalb abgeschlossen (und konvex) Sei S ⊆ Rn eine beliebige nichtleere Menge. Dann gilt: • stellen wir uns S als eine Matrix mit den Zeilenvektoren sT vor, so ist S ist konvex ⇐⇒ S = conv S. S pol = P (S, 1), • wobei b = 1 der Vektor mit allen Komponenten bi = 1 bedeutet Beweis: Übungsaufgabe 34 / 112 33 / 112 Grundbegriffe Grundbegriffe Motivation Beispiel • sei S ⊆ Rn mit 0 ∈ S • sei cT x ≤ z eine lineare Ungleichung, die von allen s ∈ S erfüllt wird • dann gilt z ≥ 0 (wegen 0 ∈ S) (-1,2) • im Fall z > 0 kann man die Koeffizienten per Division durch z skalieren S pol • und enthält die äquivalente Ungleichung cT x ≤ 1 (c = z −1 c). (1,0) (-1,-1) • S pol ist gerade die Menge aller solcher Koordinatenvektoren c. 35 / 112 36 / 112 Grundbegriffe Grundbegriffe Man macht sich leicht klar: S ist eine abgeschlossene konvexe Menge ⇐⇒ S = (S pol )pol . • S ⊆ (S pol )pol • S ⊆ T =⇒ T pol ⊆ S pol • S pol = (conv S)pol Beweis: • sei S = (S pol )pol , • dann ist ist S Durchschnitt von Halbräumen und somit konvex und Satz 4 abgeschlossen Sei S ⊆ Rn eine beliebige nichtleere Menge mit 0 ∈ S. Dann gilt: • sei umgekehrt S konvex und abgeschlossen S ist eine abgeschlossene konvexe Menge ⇐⇒ S = (S pol )pol . • nach Satz 2 existiert ein Ungleichungssystem Ax ≤ b mit S = P (A, b) • da 0 ∈ S, folgt bi ≥ 0 für jede Komponente bi von b • nach Skalierung können wir annehmen, dass bi ∈ {0, 1} 38 / 112 37 / 112 Grundbegriffe Grundbegriffe • d.h. S = P (A, b) mit bi ∈ {0, 1} • sei Ax ≤ b ein Ungleichungssystem • wir ersetzen jede Ungleichung vom Typ aiT x ≤ 0 durch unendlich viele • als Dimension von Ax ≤ b bezeichnet man gewöhnlich die Anzahl n der Variablen xj Ungleichungen (k ai )T ≤ 1 (k ∈ N) • uns interessiert aber auch die Dimension der Lösungsmenge P (A, b) • dann können wir annehmen, dass S von der Form ist: • für einen Spezialfall ist dies bekannt: S = {x ∈ Rn | aiT x ≤ 1 (i ∈ I)} • das bedeutet aber ai ∈ S pol für alle i ∈ I • also A ⊆ S pol und somit S ⊆ (S pol )pol ⊆ Apol ⊆ S • d.h. S = (S pol )pol . 39 / 112 40 / 112 Grundbegriffe Grundbegriffe • etwas allgemeiner: • die linearen Teilräume L von Rn sind genau die Lösungsmengen von linearen Gleichungssystemen: • die affinen Teilräume A von Rn sind genau die Lösungsmengen von L = {x ∈ Rn | Ax = 0}. linearen Gleichungssystemen: • die Dimension dim L von L ist: A = {x ∈ Rn | Ax = b}. dim L = max{k | es gibt k linear unabhängige Punkte x1 , . . . , xk ∈ L}. • jeder nichtleere affine Teilraum A lässt sich schreiben als • bzw. dim L = −1 falls L = ∅ A = p + L = {x | x = p + y, y ∈ L} • es gilt die Dimensionsformel • hierbei ist p ∈ Rn und L ein linearer Teilraum dim L = n − rg A (2) • die (affine) Dimension dim A von A ist: • mit rg A = (Zeilen/Spalten-)Rang von A dim L, falls A = 6 ∅ −1, falls A = ∅ dim A = • bei Gleichungssystemen darf man (im Gegensatz zu Ungleichungssystemen) immer A als endliche Matrix annehmen 41 / 112 42 / 112 Grundbegriffe Grundbegriffe • der allgemeine Fall: • d.h. k k X X aff S = { λi si | si ∈ S, λi = 1}. • Idee: einer Teilmenge S ∈ Rn ordnen wir die Dimension des kleinsten affinen Teilraums zu, der S enthält • sei Pk i =1 i =1 • aff S ist der kleinste affine Teilraum von Rn , der S enthält λi si eine Linearkombination von Punkten aus S • die affine Dimension von S ist jetzt • die Linearkombination heißt affine Linearkombinationen, wenn zuätzlich gilt k X i =1 dim S := dim aff S. λi = 1 i =1 aff S • die affine Hülle aff S ist die Menge aller Punkte, die sich als affine S Linearkombinationen aus S ausdrücken lassen 43 / 112 44 / 112 Grundbegriffe Grundbegriffe • sei S ⊆ Rn eine abgeschlossene konvexe Menge • die Seitenflächen S und ∅ sind die trivialen Seitenflächen • sei F ⊆ S eine Teilmenge von S • die anderen sind die nicht-trivialen Seitenflächen • F heißt Berührfläche von S, wenn gilt: • eine einelementige Seitenfläche F = {v } von S heißt Extrempunkt (oder Ecke) von S (SF0 ) es gibt einen Vektor a 6= 0 und eine reelle Zahl b ∈ R mit: • aus der Definition ergibt sich sofort, dass eine Seitenfläche F von (SF1 ) S ⊆ {x ∈ Rn | aT x ≤ b} = P (a, b) S selber eine abgeschlossene konvexe Menge ist (SF2 ) F = {x ∈ S | aT x = b} = S ∩ H (a, b) • es gilt dim F ≤ dim S − 1 • F heißt Seitenfläche von S, wenn F Berührfläche von S ist oder ⇐⇒ F 6= S. F = S oder F = ∅. • die Extrempunkte von S entsprechen den Seitenflächen F mit dim F = 0 45 / 112 46 / 112 Grundbegriffe Grundbegriffe Beispiel Beispiel • sei S = {(x1 , x2 , x3 ) ∈ R3 | x12 + x22 + x32 ≤ 1}. E • die nichttrivialen Seitenflächen von S sind genau die Punkte auf der Kugeloberfläche • dieses sind gleichzeitig auch die Extrempunkte von S D A C B 47 / 112 48 / 112 Grundbegriffe Grundbegriffe Proposition 5 Beispiel (Stützhyperebenen) Sind F1 , F2 Seitenflächen der abgeschlossenen konvexen Menge S ⊆ Rn , dann ist auch F = F1 ∩ F2 eine Seitenfläche von F . • jede Stützhyperebene H = H (c, b) induziert eine nichtleere Seitenfläche von S, denn: Beweis: • sei x0 der Stützpunkt von H • sei F1 = S ∩ H (a1 , b1 ) und F2 = S ∩ H (a2 , b2 ) • dann gilt (SF1 ) wegen T • wir setzen a = a1 + a2 und b = b1 + b2 . T c x ≤ b = c x0 für alle x ∈ S • dann gilt nach Voraussetzung für alle x ∈ S: • die Seitenfläche F = S ∩ H enthält x0 und ist folglich nichtleer. a1T x ≤ b1 , a2T x ≤ b2 und deshalb aT x ≤ b. • außerdem gilt für x ∈ S: Seitenflächen sind unter Durchschnitten abgeschlossen: aT x = b ⇐⇒ a1T x = b1 und a2T x = b2 • und somit F = S ∩ H (a, b). 49 / 112 50 / 112 Grundbegriffe Theorie linearer Ungleichungen Gliederung Bemerkung • Grundbegriffe • der Algortihmus von Fourier-Motzkin • Alternativsätze Wie schon das Beispiel der Kreisscheibe zeigt, ist die Vereinigung F1 ∪ F2 von zwei Seitenflächen im allgemeinen keine Seitenfläche. • Seitenflächen • konvexe Kegel • zwei Anwendungen 51 / 112 52 / 112 Fourier-Motzkin Fourier-Motzkin • seien = {i ∈ I | ai 1 > 0}, = {i ∈ I | ai 1 < 0}, = {i ∈ I | ai 1 = 0}. I+ I− I0 • wir diskutieren nun einen Algorithmus zum Lösen linearer Ungleichungssysteme • er ist natürlich nur bei endlichen Systemen praktisch durchführbar, • aber doch auch bei unendlichen Systemen „im Prinzip“ anwendbar • dividieren wir die Ungleichungen in I1 und I2 jeweils durch |ai 1 |, so erhalten wir das äquivalente System • wir gehen aus von einem Ungleichungssystem aiT x = n X x1 X + arj0 xj ≤ br0 (r ∈ I+ ) asj0 xj ≤ bs0 (s ∈ I− ) atj xj ≤ bt (t ∈ I0 ) j =2 aij xj ≤ bi (i ∈ I). −x1 j =1 X + (3) j =2 X • wir wollen nun (ähnlich wie beim Gauss-Verfahren) die Variablen xj der Reihe nach eliminieren j =2 • wegen der Ungleichungen können wir aber nur mit positiven Zahlen skalieren • wir beginnen mit z.B. x1 . 53 / 112 54 / 112 Fourier-Motzkin Fourier-Motzkin Beobachtung: x1 + X arj0 xj ≤ br0 (r ∈ I+ ) (ii) −bs0 + j =2 −x1 + X asj0 xj ≤ atj xj ≤ bs0 (s ∈ I− ) (3) 0 asj xj ≤ x1 ≤ br0 − (iii) (t ∈ I0 ) bt j =2 für alle r ∈ I+ , s ∈ I− n X 0 )xj ≤ br0 + bs0 für alle r ∈ I+ und s ∈ I− . (arj0 + asj j =2 • (ii) ⇒ (iii): addiere je eine Ungleichung r ∈ I+ , s ∈ I− • (iii) ⇒ (ii): für alle r ∈ I+ , s ∈ I− gilt n X atj xj ≤ bt für alle t ∈ I0 −bs0 + j =2 (ii) −bs0 + arj0 xj j =2 denn: • x = (x1 , x2 , . . . , xn ) ist also genau dann zulässige Lösung, wenn gilt: n X n X ist genau dann erfüllbar, wenn das folgende System erfüllbar ist: j =2 (i) (x2 , . . . , xn ) erfüllt Das System j =2 j =2 X n X asj0 xj ≤ x1 ≤ br0 − n X n X 0 asj xj ≤ br0 − j =2 arj0 xj für alle r ∈ I+ , s ∈ I− n X arj0 xj j =2 • und somit (mit inf ∅ = +∞, sup ∅ = −∞) j =2 sup s∈I− 55 / 112 ` − bs0 + n X j =2 n X ´ ` ´ 0 asj xj ≤ inf br0 − arj0 xj r ∈I+ j =2 56 / 112 Fourier-Motzkin Fourier-Motzkin • in diesem Fall können wir jedes x1 wählen mit ` sup − bs0 + s∈I− n X ´ asj0 xj j =2 ≤ x1 ≤ inf r ∈I+ ` br0 − n X • zusammengefasst: ´ arj0 xj (4) j =2 Lemma 6 • somit: Das System (3) ist genau dann lösbar, wenn das System • erfüllt (x2 , . . . , xn ) die Ungleichungen (i) und (iii), (i) n X atj xj ≤ bt (t ∈ I0 ) j =2 • so lässt sich x1 per Rücksubstitution aus (4) bestimmen (iii) • danach erfüllt (x1 , . . . , xn ) die Ungleichungen (i) und (ii) n X (arj0 + asj0 )xj ≤ br + bs (r ∈ I+ , s ∈ I− ) j =2 lösbar ist. 57 / 112 58 / 112 Fourier-Motzkin Fourier-Motzkin Beispiel: 3x Lemma 6 führt auf eine rekursive Beschreibung des Eliminationsverfahrens bzgl. (3): Fourier-Motzkin-Elimination −x + − + 2x − y 2y 3y y 5y − − − + + 2z 4z 2z 4z z ≤ ≤ ≤ ≤ ≤ 1 −14 −2 13 0 es ist: I+ = {1, 5} I− = {3} I0 = {2, 4} (1) berechne rekursiv eine Lösung (x2 , . . . , xn ) für das System (i) & (iii); Normierung ergibt: (2) wenn keine Lösung existiert: stop (3) berechne x1 mit Rückwärtssubstitution nach (4) − 59 / 112 x + x x − + − 1 y 3 5 y 2 3y 2y y − + − − + 2 z 3 1 z 2 2z 4z 4z ≤ 1 3 ≤ ≤ ≤ ≤ 0 −2 −14 13 60 / 112 Fourier-Motzkin − x + x x − + − 1 y 3 5 y 2 2 z 3 1 z 2 − + − − + 3y 2y y 2z 4z 4z Fourier-Motzkin ≤ 1 3 y − 8 z 10 ≤ − 12 ≤ ≤ ≤ ≤ 0 −2 −14 13 y y y − + − 3z 4z 2z ≤ ≤ ≤ −4 13 −7 − Elimination von y ergibt: Elimination von x ergibt: − 10 y 3 1 y 2 − − − + 2y y 8 z 3 3 z 2 4z 4z − 28 z 10 ≤ − 15 2 − 5z 2z ≤ ≤ −11 6 ≤ − 53 ≤ ≤ ≤ −2 −14 13 z ≤ 3 ≤ − 12 − z ≤ − 150 56 ≤ ≤ ≤ −4 13 −7 − z ≤ − 11 5 Normierung ergibt: Normierung ergibt: − y − 8 z 10 y y y − + − 3z 4z 2z 61 / 112 62 / 112 Fourier-Motzkin z ≤ 3 − 150 56 − 11 5 − z ≤ − z ≤ Fourier-Motzkin Berechnung der anderen Komponenten: • Einsetzen von z = 3 in Somit äquivalent dazu: • 150 56 ≤z ≤3 − • eine möglich Lösung wäre z.B. z = 3 y − 8 z 10 ≤ − 12 y y y − + − 3z 4z 2z ≤ ≤ ≤ −4 13 −7 y ≤ 19 10 y y y ≤ ≤ ≤ 5 1 −1 • liefert • ein weiterer Eliminationsschritt liefert: 156 56 − 11 5 0 ≤ 3+ 0 ≤ 3 − • und somit y = 1 63 / 112 64 / 112 Fourier-Motzkin Fourier-Motzkin Zusammenfassung: • Einsetzen von y = 1 und z = 3 in − x + x x − + 1 y 3 5 y 2 3y − + − 2 z 3 1 z 2 2z ≤ 1 3 ≤ ≤ 0 −2 • das FM-Verfahren führt nur zwei Operationen aus: (i) Multiplikation einer Ungleichung mit einer positiven Zahl (ii) Addition von zwei Ungleichungen • liefert: • damit gilt nach jeder Elimination einer Variablen: − x x x ≤ ≤ ≤ 2 2 1 • jede der neuen Ungleichungen ist eine Linearkombination von höchstens zwei Ungleichungen des vorigen Systems mit positiven Koeffizienten • und somit z.B. x = 2. • gilt für eine Variable I+ = ∅ (I− = ∅), so ist das System lösbar • wenn alle Variablen eliminiert sind, sind die Koeffizienten auf der linken Seite des Systems Null • dann ist das System genau dann lösbar, wenn die Koeffizienten auf der rechten Seite alle nichtnegativ sind. 65 / 112 66 / 112 Fourier-Motzkin Fourier-Motzkin Bemerkung: Anwendung: Projektionen • sei Ax ≤ b ein System mit m Ungleichungen • wir betrachten die Projektionsabbildung π : Rn → Rn−1 • nach der Elimination einer Variablen kann das resultierende System • π ist gegeben durch m2 4 Ungleichungen haben π(x1 , x2 , x3 . . . , xn ) = (x2 , x3 , . . . , xn ). • d.h. die Anzahl der Ungleichungen kann explodieren • Projektionen von konvexen Mengen sind konvex • daher ist das Fourier-Motzkin-Verfahren nicht sehr effizient. • weiter ist π stetig • daher ist die Projektion einer abgeschlossenen konvexen Menge wieder abgeschlossen und konvex • d.h. die Projektion der Lösungsmenge eines linearen Ungleichungssystems ist selber Lösungsmenge eines linearen Ungleichungssystems • die interessante Aussage des folgenden Lemmas ist der Erhalt der Endlichkeit 67 / 112 68 / 112 Fourier-Motzkin Fourier-Motzkin Lemma 7 (Projektionslemma) m×n Bemerkung m Sei A ∈ R und b ∈ R gegeben. Dann existiert eine endliche Matrix B ∈ Rk ×(n−1) und ein Vektor d ∈ Rk derart, dass gilt • Der Beweis des Projektionslemmas ist konstruktiv • mit dem FM-Verfahren kann man eine geeignete Matrix B und einen π[P (A, b)] = P (B, d). geeigneten Vektor d berechnen. Beweis: • sei Bx ≤ d das lineare Ungleichungssystem, das sich aus Ax ≤ b nach FM-Elimination von x1 ergibt • aus der Rücksubstitutionsregel (4) ergibt sich (x2∗ , . . . , xn∗ ) ∈ P (B, d) ⇐⇒ es gibt ein x1∗ ∈ R mit (x1∗ , x2∗ , . . . , xn∗ ) ∈ P (A, b) • das ist aber genau die Behauptung P (B, d) = π[P (A, b)] . 70 / 112 69 / 112 Theorie linearer Ungleichungen Alternativsätze Gliederung • Grundbegriffe • der Algortihmus von Fourier-Motzkin • Alternativsätze • wir betrachten ein Ungleichungssystem Ax ≤ b • Seitenflächen • konvexe Kegel • wir werden im folgenden die Lösbarkeit charakterisieren • Fourier-Motzkin liefert ein Verfahren, um die Lösbarkeit zu testen • zwei Anwendungen 71 / 112 72 / 112 Alternativsätze Alternativsätze Satz 8 (Alternativsatz) Satz 8 (Alternativsatz) Genau eine der Aussagen ist richtig: Genau eine der Aussagen ist richtig: (i) Das System Ax ≤ b besitzt eine Lösung. (i) das System Ax ≤ b besitzt eine Lösung (ii) Es gibt nichtnegativen einen Vektor y ∈ RI mit nur endlich vielen positiven Komponenten derart, dass yT A = 0T und yT b < 0 . (ii) es gibt einen nichtnegativen Vektor y ∈ RI mit nur endlich vielen positiven Komponenten derart, dass yT A = 0T Beweis: und yT b < 0 . • die Aussagen können nicht gleichzeitig gelten • andernfalls würde folgen: 0 = 0T x = yT Ax ≤ yT b < 0 Bemerkung • angenommen (i) ist falsch • da nur endlich viele Komponenten von y von 0 verschieden sind, • gibt es eine endliche Teilmenge I 0 ⊆ I derart, dass yT A = X yi aiT und yT b = i ∈I 0 X • nach der FM-Elimination aller Variablen existiert eine Ungleichung der Form 0 ≤ t mit t < 0 • diese Ungleichung ist nichtnegative Linearkombination von höchstens yi bi zwei Ungleichungen des Systems davor i ∈I 0 • damit sind die Ausdrücke yT A und yT b im Satz wohldefiniert. 74 / 112 73 / 112 Alternativsätze Alternativsätze • diese sind wiederum nichtnegative Linearkombinationen von höchstens Korollar 9 zwei Ungleichungen des Systems davor . • .. Das System Ax ≤ b ist nicht lösbar genau dann, wenn ein endliches Teilsystem A0 x ≤ b0 nicht lösbar ist. • damit existiert ein nichtnegativer Vektor y mit höchstens 2n positiven Beweis: Einträgen, so dass yT A = 0T und yT b < 0. • eine Lösung x∗ von Ax ≤ b ist natürlich auch eine Lösung des Teilsystems A0 x ≤ b0 • ist Ax ≤ b nicht lösbar, so gilt Alternative (ii) im Satz 8 • ist das Systems Ax ≤ b endlich, so ist der obige Alternativsatz auch • die Alternative (ii) bezieht sich auf ein endliches Teilsystem als Lemma von Farkas bekannt • also ist auch dieses nicht lösbar. • wir werden später noch eine andere Form des Lemmas von Farkas behandeln 75 / 112 76 / 112 Alternativsätze Theorie linearer Ungleichungen Gliederung Korollar 10 (Gordan) • Grundbegriffe • der Algortihmus von Fourier-Motzkin Sei A ∈ Rm×n eine Matrix. Dann gilt genau eine der Aussagen: (i) Ax = 0, x ≥ 0 hat eine Lösung x∗ 6= 0. • Alternativsätze • Seitenflächen (ii) yT A < 0T hat eine Lösung. • konvexe Kegel • zwei Anwendungen Beweis: Übung. Bemerkung x < y bedeutet, dass die Relation xj < yj für alle Komponenten gilt. 77 / 112 78 / 112 Seitenflächen Seitenflächen Optimierung: • sei S ⊆ Rn eine beliebige nicht-leere Teilmenge (i) supx∈S cT x ≤ z . T • sei c x ≤ z eine lineare Ungleichung • S (ii) F = {x ∈ S | cT x = z } ist die Menge aller Optimallösungen des entsprechenden Maximierungsproblems. impliziert die Ungleichung cT x ≤ z , wenn gilt: cT x ≤ z für alle x ∈ S Geometrie: (i) Der Halbraum P (c, z ) = {x ∈ Rn | cT x ≤ z } enthält S. • ebenso sagt man, dass cT x ≤ z eine für S gültige Ungleichung ist (ii) F = {x ∈| cT x = z } ist eine Seitenfläche von S. • diese Implikation erlaubt zwei Interpretationen: 79 / 112 80 / 112 Seitenflächen Seitenflächen Beweis: • analog: (i) sei y ≥ 0 so, dass cT = yT A und yT b ≤ z • seien Ax ≤ b ein Ungleichungssystem und cT x ≤ z eine Ungleichung • für jede Lösung x von Ax ≤ b gilt dann yT (b − Ax) ≥ 0 • cT x ≤ z wird von Ax ≤ b impliziert, wenn gilt: • und somit ∗ Ax ≤ b =⇒ T ∗ ∗ cT x = yT Ax ≤ yT b ≤ z n c x ≤ z für alle x ∈ R . • die Bedingung ist also hinreichend • die zweite Form des Farkas-Lemmas ist nun: • zum Beweis der Rückrichtung betrachten wir das System Ax −cT x Lemma 11 (Farkas) Sei Ax ≤ b ein endliches lösbares lineares Ungleichungssystem. Dann wird cT x ≤ z genau dann von Ax ≤ b impliziert, wenn es einen Vektor y ≥ 0 gibt mit cT = yT A und yT b ≤ z . ≤ ≤ b −(z + ε) • nach Annahme hat dieses System für kein ε > 0 eine Lösung • führe FM-Elimination durch (unabhängig von ε) • aus der Endlichkeit des Systems folgt: 81 / 112 82 / 112 Seitenflächen Seitenflächen • es existiert ein Vektor y ≥ 0 und ein Skalar y0 ≥ 0 mit T Bemerkung T y A − y0 c = 0 und y b − y0 (z + ε) < 0 • das Farkas-Lemma kann auf unendliche Ungleichungssysteme mit kompakter Lösungsmenge S = P (A, b) verallgemeinert werden • wäre y0 = 0, so hätten wir • ohne diese Zusatzannahme ist das Farkas-Lemma bei unendlichen yT A = 0 und yT b < 0 Systemen falsch: • nach dem Alternativsatz 8 hätte dann das System Ax ≤ b keine Lösung, im Widerspruch zur Voraussetzung Beispiel • somit ist y0 > 0 und wir können nach Division durch y0 annehmen: • sei S = {(x , y ) ∈ R2 | x > 0, y ≥ 1/x } • S ist Lösungsmenge des unendlichen Ungleichungssystems yT A = c und yT b < (z + ε) • da dies für alle ε > 0 gilt, folgt yT b ≤ z . 1 2 x +y ≥ (r ∈ R, r > 0) r2 r • die Ungleichung x ≥ 0 gilt offenbar für S • sie lässt sich aber nicht als positive (endliche) Linearkombination aus dem System ableiten. 83 / 112 84 / 112 Seitenflächen Seitenflächen Die zweite Form des Farkas-Lemmas liefert eine Methode, wie man im Prinzip alle Seitenflächen von S = P (A, b) konstruieren kann: • wegen AF x ≤ bF gilt: 1T AF x = 1T bF ⇐⇒ AF x = bF • wir nehmen oBdA S 6= ∅ an • sei AF x ≤ bF ein Teilsystem von Ax ≤ b T • somit bestimmt die Teilmatrix AF eine Seitenfläche T • sei c = 1 AF der Summenvektor aller Zeilenvektoren von AF F = {x ∈ S | cT x = z } = {x ∈ Rn | Ax ≤ b, AF x = bF } • entsprechend sei z = 1T bF die Summe der rechten Seiten • dann ist ist die Ungleichung cT x ≤ z für S gültig • es bleibt zu zeigen, dass man auf diese Weise alle nichttrivialen • denn für alle x ∈ P (A, b) gilt: Seitenflächen von P (A, b) erhält cT x = 1T AF x ≤ 1T bF = z • sei dazu F eine beliebige nichtleere Seitenfläche, d.h. F = {x ∈ Rn | Ax ≤ b, cT x = z } 86 / 112 85 / 112 Seitenflächen Seitenflächen Beispiel • nach dem Farkas-Lemma existiert ein Vektor y ≥ 0 derart, dass • das Standardsimplex in Rn ist die Menge cT = yT A und yT b ≤ z . ∆n = {(x1 , . . . , xn ) | x1 + . . . + xn = 1, x1 ≥ 0, . . . , xn ≥ 0}. • wenn wir y auf seine positiven Komponenten einschränken, erhalten • ein Eckpunkt von ∆n entspricht einer einelementigen Seitenfläche wir eine endliche Teilmatix AF und ein y ≥ 0 derart, dass T T T • und damit einer Auswahl von Ungleichungen derart, dass das c = y AF und y bF ≤ z . zugeordnete Gleichungssystem nur eine einzige Lösung in ∆n gestattet. • da F 6= ∅, gilt z = yT bF , denn: x∈F =⇒ z = cT x = yT AF x ≤ yT bF ≤ z . • also ergeben sich genau die n Einheitsvektoren als die Ecken von ∆n . x 2 • daraus folgt: 1 • F besteht genau aus den Punkten x ∈ P (A, b), die die Gleichung AF x = bF erfüllen, d.h. x 3 1 F = {x ∈ Rn | Ax ≤ b, AF x = bF }. 1 87 / 112 x 1 88 / 112 Seitenflächen Theorie linearer Ungleichungen Gliederung Satz 12 Ist Ax ≤ b ein endliches Ungleichungssystem, so hat die abgeschlossene konvexe Menge P (A, b) nur endlich viele verschiedene Seitenflächen. • Grundbegriffe • der Algortihmus von Fourier-Motzkin Beweis: Ax ≤ b hat nur endlich viele verschiedene Teilsysteme AF x ≤ bF . • Alternativsätze • Seitenflächen Beispiel • konvexe Kegel • zwei Anwendungen Die Kugel S = {(x , y , z ) ∈ Rn | x 2 + y 2 + z 2 ≤ R} lässt sich nicht als Lösungsmenge eines endlichen linearen Ungleichungssystem darstellen, denn S hat unendlich viele Extrempunkte. 89 / 112 90 / 112 konvexe Kegel konvexe Kegel Beispiel wir betrachten jetzt eine spezielle Klasse von Ungleichungssystemen eine nichtleere Menge K ⊆ Rn ist ein (konvexer) Kegel, wenn gilt: x x 2 2 (K1) λx ∈ K für alle x ∈ K und Skalare λ ≥ 0 (K2) x + y ∈ K x x für alle x, y ∈ K 3 3 • ein konvexer Kegel ist also eine unter nichtnegativen x 1 x 1 Linearkombinationen abgeschlossene Menge • jeder nichtleeren Menge S ⊆ Rn kann man auf zwei (zueinander • ein nichtleerer Kegel enthält immer zumindest den Punkt 0 ∈ Rn „duale“) Weisen einen Kegel zuordnen. • zum einen betrachtet man die Menge aller nichtnegativen Linearkombinationen: 91 / 112 92 / 112 konvexe Kegel konvexe Kegel • cone S ist die konische Hülle von S oder der von S erzeugte • dual dazu definieren wir Kegel: k X cone S = { λi si |, si ∈ S, λi ≥ 0} S ◦ = {x ∈ Rn | sT x ≤ 0 für alle s ∈ S}. (6) (5) i =1 • ist S ein Kegel, so ist S ◦ ist der zu S duale Kegel • S ◦ ist Lösungsmenge eines linearen Ungleichungssystems und daher Beispiel abgeschlossen (und konvex) • fassen wir S als Matrix mit den Zeilenvektoren sT auf, so gilt S ◦ = P (S, 0). • sei A ∈ Rm×n eine Matrix mit Spalten A1 , . . . , An • dann bezeichnet cone A den von den Spalten von A erzeugten Kegel • für konvexe Kegel sind die Polare und der duale Kegel identisch: n X cone A = { λi Ai |, λi ≥ 0} i =1 94 / 112 93 / 112 konvexe Kegel konvexe Kegel Analog der Argumentation bei der Polaren macht sich leicht klar: Lemma 13 • S ⊆ (S ◦ )◦ . • S ⊆ T =⇒ T ◦ ⊆ S ◦ . • S ◦ = (cone S)◦ . Sei K ⊆ Rn ein konvexer Kegel. Dann gilt K ◦ = K pol . Beweis: Satz 14 ◦ • es gilt K ⊆ K pol Sei S ⊆ Rn eine beliebige nichtleere Menge. Dann gilt , denn cT x ≤ 0 =⇒ (i) S ist ein konvexer Kegel ⇐⇒ cT x ≤ 1 für alle x ∈ K . S = cone S. (ii) S ist ein abgeschlossener konvexer Kegel ⇐⇒ • sei umgekehrt c ∈ K pol , d.h. cT x ≤ 1 für alle x ∈ K S = (S ◦ )◦ . Beweis: • mit x ∈ K ist auch λx ∈ K für alle λ ≥ 0 • der Beweis von Behauptung (i) ist Routine • d.h. λ(cT x) ≤ 1 für alle λ ≥ 0 • Aussage (ii) ist der Spezialfall der analogen Aussage über die Polare konvexer Kegel. • somit cT x ≤ 0 und K pol ⊆ K ◦ . 95 / 112 96 / 112 konvexe Kegel Theorie linearer Ungleichungen Korollar 15 Sei A ∈ R m×n Gliederung eine Matrix. Dann gilt: • Grundbegriffe • der Algortihmus von Fourier-Motzkin ◦ T cone A = P (A , 0) . • Alternativsätze • Seitenflächen Beweis: • konvexe Kegel • für eine beliebige Menge S haben wir gesehen: • zwei Anwendungen • fassen wir S als Matrix mit den Zeilenvektoren sT auf, so gilt • das Erfüllbarkeitsproblem S ◦ = P (S, 0). • stochastische Matrizen • speziell für S = cone A gilt dann: (cone A)◦ = P (AT , 0). • wegen K = (K ◦ )◦ für konvexe Kegel, folgt: cone A = ((cone A)◦ )◦ = P (AT , 0)◦ . 97 / 112 98 / 112 Zwei Anwendungen Zwei Anwendungen Wir rechnen über dem Zahlenbereich {0, 1} mit den Operationen: • eine Boolesche Funktion ist eine Funktion ϕ : {0, 1}n → {0, 1} • jede Boolesche Funktion ϕ(x1 , . . . , xn ) kann in konjuktiver • „oder“ ∨ 0 1 0 0 1 Normalform (KNF) dargestellt werden 1 1 1 • d.h. ϕ(x1 , . . . , xn ) = ^ Ci , • hierbei haben die Klauseln Ci die Form • „und“ ∧ 0 1 0 0 0 1 0 1 − 0 1 1 0 Ci = ai 1 y1 ∨ . . . ∨ ain yn mit aij ∈ {0, 1} und yi ∈ {xi , xi }. • und der Negation: Beispiel ϕ(x1 , x2 , x3 ) = (x1 ∨ x2 ) ∧ (x1 ∨ x2 ∨ x3 ) ∧ x3 . 99 / 112 100 / 112 Zwei Anwendungen Zwei Anwendungen Erfüllbarkeitsproblem Beispiel • sei C = x2 ∨ x5 ∨ x7 • gegeben eine Boolesche Funktion ϕ in KNF, • entscheide, ob ϕ den Wert 1 annehmen kann. • dann ist C erfüllbar, wenn es eine ganzzahlige {0, 1}-Lösung der Ungleichung x2 + (1 − x5 ) + x7 ≥ 1 • d.h.: kann eine Belegung der Variablen gefunden werden derart, dass jede Klausel Ci den Wert 1 annimmt? ←→ −x2 + x5 − x7 ≤ 0 gibt. • das Problem kann man mit Ungleichungssystemen modellieren: • in der Klausel Ci = ai 1 y1 + . . . ain yn ersetzen wir xj durch 1 − xj • Das Erfüllbarkeitsproblem fragt also nach einer ganzzahligen {0, 1}-Lösung des aus allen Klauseln gebildeten Ungleichungssystems. • wir haben dann das Problem: gibt es eine Lösung mit ganzzahligen xj ∈ {0, 1} derart, dass ai 1 y1 + . . . ain yn ≥ 1 ? 101 / 112 102 / 112 Zwei Anwendungen Zwei Anwendungen Wir betrachten folgenden Spezialfall: 2-Sat Beispiel • gegeben eine Boolesche Funktionen f in KNF mit höchstens • wann sind zwei Klauseln C1 = (xk ∨ xs ) und C2 = (xk ∨ xl ) simultan 2 Variablen pro Klausel erfüllbar? • ist f erfüllbar ? • offensichtlich genau dann, wenn C = (xs ∨ xl ) erfüllbar ist • die entspricht aber einem Schritt der FM-Elimination: 2-SAT kann mit dem FM-Verfahren effizient gelöst werden: C1 C2 C • eine 2-SAT-KNF hat höchstens n 2 Klauseln = = = xk xk xs ∨ ∨ ∨ xs xl xl ←→ −xk xk − − xs xs − − xl xl ≤ ≤ ≤ −1 0 −1 • wir können annehmen, dass keine zwei Klauseln (xi ∨ xj ), (xi ∨ xj ) existieren • C ist die sog. Resolvente der Klauseln C1 und C2 • die sind genau dann erfüllbar, wenn xj = 1 • offensichtlich sind C1 und C2 genau dann gleichzeitig erfüllt, wenn ihre Resolvente C erfüllt ist • im Ungleichungssystem entspricht C der Summe der aus C1 und C2 gewonnenen Ungleichungen 103 / 112 104 / 112 Zwei Anwendungen Theorie linearer Ungleichungen Gliederung Dann gilt: • Grundbegriffe • der Algortihmus von Fourier-Motzkin • bei jeder Addition von Ungleichungen bleiben die Koeffizienten im Bereich {−1, 0, +1} • Alternativsätze • Seitenflächen • die Elimination einer Variablen führt wieder auf ein 2-SAT-Problem Für das allgemeine Erfüllbarkeitsproblem ist gegenwärtig kein effizienter Lö- • konvexe Kegel sungsalgorithmus bekannt. • zwei Anwendungen • das Erfüllbarkeitsproblem • stochastische Matrizen 105 / 112 106 / 112 Zwei Anwendungen Zwei Anwendungen • in Anwendungssimulationen betrachtet man Systeme, die sich zu jedem • wir nehmen allgemein an, dass das System mit Wahrscheinlichkeit (diskreten) Zeitpunkt in einem von n Zuständen {Z1 , . . . , Zn } befinden mij = Pr (Zi |Zj ) in den Zustand Zi übergeht, wenn es vorher im Zustand Zj war. Beispiel 1 • die entsprechende Übergangsmatrix 2 M = [mij ] ∈ Rn×n 3 hat nur nichtnegative Koeffizienten mij ≥ 0 und Spaltensummen P n i =1 mij = 1. 4 • M ist eine stochastische Matrix: alle Spalten sind Wahrscheinlichkeitsverteilungen • ein Spieler hält sich in einem der vier Punkte auf • in unserem Beispiel hätte M die Form • in jedem Schritt 0 • bleibt er mit Wahrscheinlichkeit • oder geht mit Wahrscheinlichkeit 1 2 da, wo er ist 1 4 B B M =B @ entlang einer Kante 107 / 112 1 2 1 4 1 4 1 4 1 2 0 0 1 4 1 4 0 0 1 4 1 4 1 2 1 2 1 4 1 C C C A 108 / 112 Zwei Anwendungen Zwei Anwendungen • nehmen wir an, dass sich das System zum Zeitpunkt t mit der • sei in unserem Beispiel π = [1, 0, 0, 0] Wahrscheinlichkeit πi im Zustand Zi befindet (i = 1, . . . , n). • dann ist π 0 = [ 12 , 14 , 14 , 0] • die Wahrscheinlichkeit, sich zum Zeitpunkt t + 1 im Zustand • nach zwei Schritten π 00 = [ 38 , 28 , 28 , 18 ] Zk (k = 1, . . . , n) zu befinden ist: πk0 = n X • d.h. die Wahrscheinlichkeiten verändern sich von Schritt zu Schritt mki πi i =1 • dieser Prozess wirft zumindest zwei Fragen auf: • existiert eine Grenzverteilung? • in Matrixnotation haben wir also: π0 = M π • existiert eine Startverteilung, die sich nicht ändert? (π = [π1 , . . . , πn ], π 0 = [π10 , . . . , πn0 ]). • wir beantworten die zweite Frage • π heiße stationär, wenn π 0 = M π = π • eine stationäre Wahrscheinlichkeitsverteilung ist somit ein (rechter) Eigenvektor von M zum Eigenwert λ = 1 109 / 112 110 / 112 Zwei Anwendungen Zwei Anwendungen • wir nehmen an, dass keine solche Lösung existiert Proposition 16 • dann gäbe es nach dem Alternativsatz von Gordan (Korollar 10) einen Die stochastische Matrix M = [mij ] besitzt eine stationäre Wahrscheinlichkeitsverteilung. Vektor y mit der Eigenschaft 0T > yT A = yT M − yT Beweis: d.h. yj > n X mij yi für alle j = 1, . . . , n. i =1 • wir setzen A = M − I. • für yk = min{y1 , . . . , yn } gilt aber • es genügt zu zeigen, dass n X Ax = 0, x ≥ 0, x 6= 0 i =1 eine Lösung hat mik yi ≥ n X mik yk = yk . i =1 • somit muss eine stationäre Verteilung existieren. • diese können wir dann auf Koeffizientensumme 1 normieren und erhalten das gewünschte π. • in unserem Beispiel ist π = [ 14 , 14 , 14 , 14 ] eine stationäre Verteilung. 111 / 112 112 / 112